Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Infos zu Radeon HD 3x00 & GeForce9
Leonidas
2008-01-28, 13:25:33
Link zum Artikel:
http://www.3dcenter.org/artikel/2008/01-28_a.php
AnarchX
2008-01-28, 13:42:12
256 Shader-Einheiten (auf angenommenen 1625 MHz Shader-Takt ca. 728 GFlops MADD-Rechenpower und ca. 1089 GFlops MADD/MUL-Rechenpower)
MADD:
256 * 2 FLOPs * 1.625 = 832 GFLOPs
MADD+MUL:
256 * 3 FLOPs * 1.625 = 1248 GFLOPs
Bei der 9600 GT hast du auch falsch gerechnet.
Dabei gibt es inzwischen schon reichlich handfeste technische Daten zu diesen neuen Karten, allein bleibt unklar, was den Namenswechsel hin zu "GeForce9" rechtfertigt
Hier müsstest du HybridPower erwähnen. ;)
MadManniMan
2008-01-28, 14:13:09
Ole ole ole, wir kee-eehren das Problem unter den Tepp-tepp-teppich, dass die Dual-Chip Karten schei-ei-ei-eiße sind! Dubdidu :usad:
AnarchX
2008-01-28, 14:21:01
Vorallem die Addition von den Einheiten der (G)X2-Karte ist auch nicht unbedingt zu begrüßen...
MadManniMan
2008-01-28, 14:25:22
Ja mei, als tombman damals die Mikroruckler ins Gespräch bracht, berichtete ich Leo davon.
Seine einzige Reaktion darauf war, dass ihm das noch nicht handfest genug wäre - genau das erwartet man doch von einer Seite, die dereinst für investigative Artikel stand :uup:
Exxtreme
2008-01-28, 14:34:42
Ole ole ole, wir kee-eehren das Problem unter den Tepp-tepp-teppich, dass die Dual-Chip Karten schei-ei-ei-eiße sind! Dubdidu :usad:
Jo. Ich finde das Totschweigen dieses Problems fast schon gespenstisch ... :eek: ;(
Ich will 3dconcept.ch wieder haben! X-( X-(
GanjaBob
2008-01-28, 14:44:53
also CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/31/#abschnitt_fazit) schreiben darüber: "...Einzig das Multi-GPU-Problem mit den Mikrorucklern hinterlässt einen etwas faden Beigeschmack. Bei allen Multi-GPU-Lösungen..."
MadManniMan
2008-01-28, 14:45:14
Jo. Ich finde das Totschweigen dieses Problems fast schon gespenstisch ... :eek: ;(
Ich will 3dconcept.ch wieder haben! X-( X-(
Ich kann mir nur vorstellen, dass Leo keinen Bock mehr auf das Business hat - gerade soetwas war es, was das 3DCenter groß gemacht hat. Und jetzt siecht es nicht nur dahin, sondern das ganze Netz rennt mit geschlossenen Augen gegen die Wand.
ram, we miss you!
MadManniMan
2008-01-28, 14:45:52
also CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/31/#abschnitt_fazit) schreiben darüber: "...Einzig das Multi-GPU-Problem mit den Mikrorucklern hinterlässt einen etwas faden Beigeschmack. Bei allen Multi-GPU-Lösungen..."
Niedlich, nicht wahr? =)
Früher hätte es ganze ARTIKEL darüber gegeben :ulol:
Exxtreme
2008-01-28, 14:50:03
also CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/31/#abschnitt_fazit) schreiben darüber: "...Einzig das Multi-GPU-Problem mit den Mikrorucklern hinterlässt einen etwas faden Beigeschmack. Bei allen Multi-GPU-Lösungen..."
Ach, eine kleine niedliche beiläufige Erklärung, daß es da ein kleines Problemchen gibt finde ich doch sehr mager. Zumal keiner weiss was Microruckeln überhaupt ist.
puntarenas
2008-01-28, 14:53:14
Niedlich, nicht wahr? =)
Früher hätte es ganze ARTIKEL darüber gegeben :ulol:
Da hätte man ja quasi weltexklusiv einen richtigen Knaller platzieren können (und könnte es noch?!). Allerdings weiß ich nicht, ob man das Leo ankreiden kann, Tombman als Entdecker und der Rest der 3DCenter-Crew hätten ja auch in die Tasten hauen können.
Edit:
Ach, eine kleine niedliche beiläufige Erklärung, daß es da ein kleines Problemchen gibt finde ich doch sehr mager. Zumal keiner weiss was Microruckeln überhaupt ist.
Einmal gab es bei CB ja bereits einen ganzen Abschnitt darüber, sträflicherweise ohne die Quelle zu nennen: Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multi_gpu_problem_mikroruckler)
Leonidas
2008-01-28, 14:56:41
Kommt schon Leute, nicht quantifizierbare Probleme sind echt schwer zu fassen. Da kann man keine umgehenden Knaller-Artikel mit Bild-Revolverstyle-Schlagzeile erwarten.
MADD:
256 * 2 FLOPs * 1.625 = 832 GFLOPs
MADD+MUL:
256 * 3 FLOPs * 1.625 = 1248 GFLOPs
Bei der 9600 GT hast du auch falsch gerechnet.
Hier müsstest du HybridPower erwähnen. ;)
My bad, korrigiert.
HybridPower als GeForce9-Feature. Die Entwertung der Grafikkartennamen schreitet weiter voran ...
KillerCookie
2008-01-28, 14:57:03
Niedlich, nicht wahr? =)
Früher hätte es ganze ARTIKEL darüber gegeben :ulol:
Hallo,
ich finde den Artikel grundsätzlich gelungen und vor allem ist er recht pünktlich erschienen.
Ich muss allerdings meinen Vorrednern recht geben, wäre es nicht einige perfekte Gelegenheit gewesen, das im _eigenen_ Forum festgestellte, Problem anzusprechen und sich somit mal von all den anderen Seiten abzuheben? Vielerorts wird dieses Problem nur am Rande (siehe CB) erwähnt, aber nicht als großes Minus betrachtet.
Ich hoffe aber, das irgendwer noch einen schönen Artikel über die Mikroruckler für das 3DC schreiben wird, das wäre endlich mal wieder eine Sensation und ein "Magnet" für sehr viele neue Leser.
Aber wie bereits gesagt, bis auf dieses Kriterium finde ich den Artikel (sowie auch den kürzlichen Marktüberblick) gut. Zeitnahe Artikel FTW! ;)
MfG Maik
Exxtreme
2008-01-28, 15:00:12
Einmal gab es bei CB ja bereits einen ganzen Abschnitt darüber, sträflicherweise ohne die Quelle zu nennen: Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multi_gpu_problem_mikroruckler)
Uiii, das kannte ich gar nicht. Danke. =)
Wobei das da auch bissle untergeht.
Vertigo
2008-01-28, 15:04:53
Kommt schon Leute, nicht quantifizierbare Probleme sind echt schwer zu fassen. Da kann man keine umgehenden Knaller-Artikel mit Bild-Revolverstyle-Schlagzeile erwarten.
Nicht quantifizierbar? :|
Als was würdest Du fraps-Messreihen bezeichnen, die hier sonst als Grundlage für jeden einzelnen Benchmark und Performancereport herhalten?
MadManniMan
2008-01-28, 17:46:09
Vielleicht zu wenig interessant? ;(
Kommt schon Leute, nicht quantifizierbare Probleme sind echt schwer zu fassen. Da kann man keine umgehenden Knaller-Artikel mit Bild-Revolverstyle-Schlagzeile erwarten.Mit purer Statistik könnte man das Problem quantisieren. Zur Not einfach durchspielen und gucken wie stark die Abweichungen im Mittel ausfallen dürften.
Aus dem Bauch geschätzt: Bei 70% gemessener Steigerung der durchschnittlichen Framerate steigt die gefühlte Framerate um ca. 40-50 Prozentpunkte.
Darkman.X
2008-01-28, 18:24:46
Wie sieht es eigentlich mit der Speicherbandbreite aus, die ist bei der GF9800 GX2 (wahrscheinlich 970MHz, 256Bit) doch niedriger als bei der GF8800 Ultra (1080 MHz, 384Bit), oder ?
Das Unterschlagen der Micro-Ruckler finde ich auch nicht gut :(
Sind die 2x 128 shader eigentlich sicher? Das würde ja 2x GTS power bedeuten, oder? (im Gegensatz zu 2x GT)
Wieso zum Teufel behaubtet 3D-Center immer sie doppelte Speicherbandbreite macht zusammen mit dem höheren GPU Takt was weg? GPU takt höher ja, aber ist doch trotzdem 256 Bit interface. Und da die 3870 speicherlimitiert ist sollte Leitung niedriger sein. Was ja auch die ersten Benches sagen.
Exxtreme
2008-01-28, 20:52:06
Vielleicht zu wenig interessant? ;(
Oder da macht wer Druck. ;(
Auf jeden Fall sollte die Behauptung, der höhere GPU Takt macht geringeren Speichertakt weg, falsch sein. Da es sich weiterhin um ein 256 Bit Speicherinterface handelt und dies nun noch mehr limmitiert.
"Denn der etwas niedrigere Speichertakt stört aufgrund des doppelten Speicherinterfaces eigentlich überhaupt nicht"
das socher Mist schon seit Tagen behaubtet wird wundert mich schon. Zumal 3D-Center sonnst nicht auf der Leitung steht.
MadManniMan
2008-01-28, 21:59:21
Oder da macht wer Druck. ;(
Du meinst, wir bekommen das exklusive Super-Hyper-zwei-Wochen-vor-allen-anderen-G96-vs.-RV770-Review nicht? :eek:
Du meinst, wir bekommen das exklusive Super-Hyper-zwei-Wochen-vor-allen-anderen-G96-vs.-RV770-Review nicht? :eek:
Es könnte ein schlimmes Ende nehmen.....
So ein CMS wäre schon was...........
Denniss
2008-01-29, 00:38:58
In den Leistungsdaten diverser Karten ist ein Fehler: Kein Hersteller setzt mehr GDDR2 ein, das ist alles DDR2.
GDDR2 war der Murks auf FX5800 und wohl auch FX5700Ultra und wurde seither auf keiner Karte mehr gesehen.
Leonidas
2008-01-29, 05:40:15
Nicht quantifizierbar? :|
Als was würdest Du fraps-Messreihen bezeichnen, die hier sonst als Grundlage für jeden einzelnen Benchmark und Performancereport herhalten?
Mit "nicht quanfizierbar" meinte ich nicht, daß man den Einzelfall nicht beweisen kann, sondern das es schwierig ist zu sagen, wie breit das Problem wirklich auftritt. Theoretisch müsste sich einer hinsetzen und 400 Spiele mit mehr als 4 verschiedenen Systemen daraufhin abprüfen. Erst dann könnte man eine Aussage darüber treffen, wie breit das Problem wirklich ist.
Wie sieht es eigentlich mit der Speicherbandbreite aus, die ist bei der GF9800 GX2 (wahrscheinlich 970MHz, 256Bit) doch niedriger als bei der GF8800 Ultra (1080 MHz, 384Bit), oder ?
GFX2: 2x256Bitx970MHz = Bandbreite 57,8 GB/sec
Ultra: 384Bitx1080MHz = Bandbreite 48,3 GB/sec
Man kann bei der GX2 die Speichermenge nicht addieren, aber die Speicherbandbreite verdoppelt sich in der Tat.
Wieso zum Teufel behaubtet 3D-Center immer sie doppelte Speicherbandbreite macht zusammen mit dem höheren GPU Takt was weg? GPU takt höher ja, aber ist doch trotzdem 256 Bit interface. Und da die 3870 speicherlimitiert ist sollte Leitung niedriger sein. Was ja auch die ersten Benches sagen.
Wieso? Faktisches 512 Bit Interface. Das sollte nun wirklich nicht speicherlimitiert sein. ATI hat nicht umsonst den Speichertakt bei der X2 gesenkt - es war unnötig, da teuren RAM zu verschwenden.
Sind die 2x 128 shader eigentlich sicher? Das würde ja 2x GTS power bedeuten, oder? (im Gegensatz zu 2x GT)
Eigentlich schon:
http://enthusiast.hardocp.com/article.html?art=MTQzOSwxLCxoZW50aGlzdWFzdA==
Irgendwo gurkte auch noch eine nVidia-Präsentation rum, wo das so drinsteht.
In den Leistungsdaten diverser Karten ist ein Fehler: Kein Hersteller setzt mehr GDDR2 ein, das ist alles DDR2.
GDDR2 war der Murks auf FX5800 und wohl auch FX5700Ultra und wurde seither auf keiner Karte mehr gesehen.
Sehe ich nicht so. GDDR2 ist dasselbe wie DDR2 - nur ist GDDR2 fürpoint-to-point-Verbindungen ausgerichtet, wie sie auf Grafikboards verwendet werden und DDR2 für Speicherchannels, wie sie auf Mainboards verwendet werden. Insofern wird wohl generell GDDR2 verwendet. Es wird nur überall von "DDR2" gesprochen, weil GDDR2 kein offizieller Standard war und ist (im Gegensatz zu GDDR3 und fortfahrend).
AnarchX
2008-01-29, 08:24:42
Wieso? Faktisches 512 Bit Interface. Das sollte nun wirklich nicht speicherlimitiert sein. ATI hat nicht umsonst den Speichertakt bei der X2 gesenkt - es war unnötig, da teuren RAM zu verschwenden.
Eben nicht, da pro Frame (unter AFR) maximal nur 256Bit zu Verfügung steht, während es bei einer Singlekarte 512Bit wären. Einzig die redundante Speicherhaltung bringt theoretisch Vorteile, sodass es praktisch auch mal >256-Bit sein können, aber eben noch lange keine 512Bit.
Und GDDR3 sieht man auf der X2 wohl eher um einen MSRP zu erzielen, der auch bezahlt werden kann und noch nach unten Möglichkeiten offen lässt.
StefanV
2008-01-29, 08:47:15
Sehe ich nicht so. GDDR2 ist dasselbe wie DDR2 - nur ist GDDR2 fürpoint-to-point-Verbindungen ausgerichtet, wie sie auf Grafikboards verwendet werden und DDR2 für Speicherchannels, wie sie auf Mainboards verwendet werden. Insofern wird wohl generell GDDR2 verwendet. Es wird nur überall von "DDR2" gesprochen, weil GDDR2 kein offizieller Standard war und ist (im Gegensatz zu GDDR3 und fortfahrend).
Blödsinn, GDDR2 basiert auf DDR-I SDRAM, wie du hier erkennen kannst (http://de.wikipedia.org/wiki/GDDR), Denniss hat also Recht, das GDDR-II seit FX5800/5700U und dieser einen R350 Version mit 16 Chips nie wieder verwendet.
Nochwas:
However, further confusion has been added to the mix with the appearance of budget and mid-range graphics cards which claim to use "DDR2". These cards actually use standard DDR2 chips designed for use as main system memory. These chips cannot achieve the clock speeds that GDDR3 can but are inexpensive enough to be used as memory on mid-range cards. (http://en.wikipedia.org/wiki/GDDR2#Relation_to_GDDR_memory)
Vertigo
2008-01-29, 09:01:23
Mit "nicht quanfizierbar" meinte ich nicht, daß man den Einzelfall nicht beweisen kann, sondern das es schwierig ist zu sagen, wie breit das Problem wirklich auftritt. Theoretisch müsste sich einer hinsetzen und 400 Spiele mit mehr als 4 verschiedenen Systemen daraufhin abprüfen. Erst dann könnte man eine Aussage darüber treffen, wie breit das Problem wirklich ist.
Okay, dann habe ich das falsch interpretiert. In dem Punkt hast Du natürlich Recht, wenn auch die Zahlen (400 Spiele? ~10 "Blockbuster" würden wohl genügen.) überzogen sind. Es geht ja im Grunde nur um SLI und das Verhalten in niedrigen noch spielbaren FPS-Regionen (~30), da der Effekt bei mehr FPS wohl nicht mehr störend wahrgenommen wird. Klar, das muss auf verschiedenen Systemen geprüft werden und die Auswirkungen von mehreren Testern beurteilt werden. Dennoch schade.
MadManniMan
2008-01-29, 09:06:21
Okay, dann habe ich das falsch interpretiert. In dem Punkt hast Du natürlich Recht, wenn auch die Zahlen (400 Spiele? ~10 "Blockbuster" würden wohl genügen.) überzogen sind. Es geht ja im Grunde nur um SLI und das Verhalten in niedrigen noch spielbaren FPS-Regionen (~30), da der Effekt bei mehr FPS wohl nicht mehr störend wahrgenommen wird. Klar, das muss auf verschiedenen Systemen geprüft werden und die Auswirkungen von mehreren Testern beurteilt werden. Dennoch schade.
...aber in höheren Regionen geringerwertige FPS auswirft, als normale Karten.
Das ist ja das Perfide:
Selten spielt man mit AFR in Regionen, wo man es wirklich merkt, aber mehr als noch längere Balken bekommt man damit auch nicht.
Eben nicht, da pro Frame (unter AFR) maximal nur 256Bit zu Verfügung steht, während es bei einer Singlekarte 512Bit wären. Einzig die redundante Speicherhaltung bringt theoretisch Vorteile, sodass es praktisch auch mal >256-Bit sein können, aber eben noch lange keine 512Bit.
Und GDDR3 sieht man auf der X2 wohl eher um einen MSRP zu erzielen, der auch bezahlt werden kann und noch nach unten Möglichkeiten offen lässt.
Natürlich sind es faktisch 512-bit. Ich habe zwei Chips mit zwei voneinander unabhängigen 256-bit Bussen die simultan zueinander arbeiten, und deshalb auch effektiv 512-bit.
reunion
Successor
2008-01-29, 14:05:21
Zu den Mikrorucklern: das haben doch noch andere außer Tombman bestätigt in dem ewig langen Monsterthread? Wenn du nun alle mal sauber ihr System und die Testsettings nebst den fraps-Ergebnissen aufschreiben, das wäre doch was... ? Zumindest ein Anfang.
@Artikel: schöne Übersicht, danke dafür! Finde das 3dc-Stil immer sehr übersichtlich und gut lesbar.
Leonidas
2008-01-29, 14:17:56
Blödsinn, GDDR2 basiert auf DDR-I SDRAM, wie du hier erkennen kannst (http://de.wikipedia.org/wiki/GDDR), Denniss hat also Recht, das GDDR-II seit FX5800/5700U und dieser einen R350 Version mit 16 Chips nie wieder verwendet.
Nochwas:
Gut, gebe mich geschlagen und werde das zukünftig berücksichtigen.
Norathia
2008-01-29, 23:45:32
Niedlich, nicht wahr? =)
Früher hätte es ganze ARTIKEL darüber gegeben :ulol:
In dem Artikel wirklich bissl kurz gekommen, dafür wurde es aber im Vorfeld schon mal ausführlicher behandelt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multi_gpu_problem_mikroruckler
@Topic
Auf alle Fälle eine übersichtliche Aufzählung, danke dafür!
MadManniMan
2008-01-30, 07:00:07
In dem Artikel wirklich bissl kurz gekommen, dafür wurde es aber im Vorfeld schon mal ausführlicher behandelt.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multi_gpu_problem_mikroruckler
Ja, es ist mehr, aber eine Seite? Wo sind Analysen, Gegentests, subjektive Eindrücke, Graphen, Animationen oder gar Videos? Dieses Thema ist sooo weitläufig!
MechWOLLIer
2008-01-30, 11:36:54
Ja, es ist mehr, aber eine Seite? Wo sind Analysen, Gegentests, subjektive Eindrücke, Graphen, Animationen oder gar Videos? Dieses Thema ist sooo weitläufig!
Ja, und auch wenn du es nicht glaubst, genau das ist das Problem;)
Es ist ja nicht so, als gäbe es außer dem Mikrorucklern sonst nichts mehr zu tun. Sprich, es fehlt einfach die Zeit und bei vielen dann eben auch die Man-Power.
MadManniMan
2008-01-30, 11:43:41
Ja, und auch wenn du es nicht glaubst, genau das ist das Problem;)
Es ist ja nicht so, als gäbe es außer dem Mikrorucklern sonst nichts mehr zu tun. Sprich, es fehlt einfach die Zeit und bei vielen dann eben auch die Man-Power.
Dieses Thema ist ähnlich brisant, wie Quack3Arena bei ATi, aufgedeckte Bri-Filter, Flimmerfilter, Treibercheats mit System ... das kanns doch nicht sein! Dutzende Artikel beschäftigen sich mit Multi-Chip-Gespannen, aber es reicht nicht für einen, der sich mal kritisch mit den Hintergründen auseinandersetzt?!?
Sorry, aber sich absichtlich derart blind zu stellen (wie es auch Leo mach, wie es alle machen!) ist einfach eine Schweinerei!
Für ein Review nach dem anderen ist scheinbar Zeit - aber wenn man die Gelegenheit hat, sich mal zu fragen, ob man nicht ganz großen Mist fabriziert, weil eigentliche alle Berichte völllig für die Katz sind, sollte man sie auch ergreifen.
Ich kann mir aber auch gut vorstellen, dass es nV nicht gerade schmeckt, wenn man in einen Triple-SLI-Artikel nen grundkritischen Unterton einbrächte ;)
Exxtreme
2008-01-30, 12:36:52
Ich kann mir aber auch gut vorstellen, dass es nV nicht gerade schmeckt, wenn man in einen Triple-SLI-Artikel nen grundkritischen Unterton einbrächte ;)
Das ist das Problem. Man riskiert ja auch, daß man später als alle anderen mit Testmustern und Interviews versorgt wird wenn man das Flaggschiff kritisiert und so.
MadManniMan
2008-01-30, 12:57:25
Das ist das Problem. Man riskiert ja auch, daß man später als alle anderen mit Testmustern und Interviews versorgt wird und so.
Tja, jetzt muss man mit sich selbst ausmachen, ob man Haus- und Hofberichterstatter mit all seinen Privilegien und Verpflichtungen sein möchte, oder aber dem Leser gegenüber fair, der Materie gegenüber aufgeschlossen, gleichsam aber kritisch und investigativ und dem Hersteller gegenüber neutral auftritt.
Letzteres war 3DCenter mal, Computerbase entwickelt sich sich in die erstgenannte Richtung.
Exxtreme
2008-01-30, 13:21:01
Tja, jetzt muss man mit sich selbst ausmachen, ob man Haus- und Hofberichterstatter mit all seinen Privilegien und Verpflichtungen sein möchte, oder aber dem Leser gegenüber fair, der Materie gegenüber aufgeschlossen, gleichsam aber kritisch und investigativ und dem Hersteller gegenüber neutral auftritt.
Letzteres war 3DCenter mal, Computerbase entwickelt sich sich in die erstgenannte Richtung.
Wenn man auf Hofberichtserstatter macht dann bekommt man so ziemlich alles früher bzw. man bekommt überhaupt was. Was wiederum viele Besucher anzieht und man kann mehr Kohle durch Werbung abgreifen.
Also nur Vorteile wenn man unbequeme Dinge verschweigt oder runterspielt.
RavenTS
2008-01-30, 15:05:42
Ja, und auch wenn du es nicht glaubst, genau das ist das Problem;)
Es ist ja nicht so, als gäbe es außer dem Mikrorucklern sonst nichts mehr zu tun. Sprich, es fehlt einfach die Zeit und bei vielen dann eben auch die Man-Power.
Dito. Mal weniger motzen und jammern und stattdessen selbst was anpacken. Genug Grundlagenwissen und Infos sind doch schon in mehreren Forums-Threads vorhanden, da könnte man mit eigenen Werten in einen neuen Thread einfließen lassen, der dann "entwickelt" und "gepusht" wird, bis man draus nen Artikel machen kann wenn die Hits stimmen...
Klar nicht jeder hat ein SLI- und Xfire-System, aber mit mehreren Leuten sollte sich da ja was aufziehen lassen, nur kostet es halt Zeit und die Meisten sind dafür dann nur "interessierte Leser"...
KillerCookie
2008-01-30, 21:08:45
Dito. Mal weniger motzen und jammern und stattdessen selbst was anpacken. Genug Grundlagenwissen und Infos sind doch schon in mehreren Forums-Threads vorhanden, da könnte man mit eigenen Werten in einen neuen Thread einfließen lassen, der dann "entwickelt" und "gepusht" wird, bis man draus nen Artikel machen kann wenn die Hits stimmen...
Klar nicht jeder hat ein SLI- und Xfire-System, aber mit mehreren Leuten sollte sich da ja was aufziehen lassen, nur kostet es halt Zeit und die Meisten sind dafür dann nur "interessierte Leser"...
Ich glaube einige sind auch dadurch abgeschreckt, dass die Umsetzung der fertigen Artikel Richtung Hauptseite sich schonmal "leicht" verzögern könnte. :rolleyes:
Trotzdem sollte man CB loben, immerhin haben sie das Thema überhaupt angesprochen (wenn auch nicht optimal). Da können sich einige andere ne Scheibe dran abschneiden...
MfG Maik
Omega2
2008-01-31, 12:59:51
Nochmal für den Laien:
2*256bit sollen de facto so schnell sein wie 1*512??
Jede Karte hat ihren eigenen Speicher. Jede Karte muß für sich Texturen in den Speicher laden d.h. die Speichermenge ist nicht 1024 sonder 512*2 da ja jede Textur doppelt vorhanden ist.
Aus dem gleichen Grund ist auch die Bandbreite nur 256bit groß, da im SLI oder CF die doppelte Anzahl an Texturen geladen werden muß. nicht z.B. 128MB wie bei einer single GPU, sondern 2*128MB ergo führt das zu einer verdoppelten Ladezeit bzw. am Ende ist die Mehrleistung nach außen nicht sichtbar.
Oder habe ich irgendwas übersehen?
Gruß
Omega
MadManniMan
2008-01-31, 13:38:43
Es gibt wohl so manche Dinge, die durchaus nicht redundant vorliegen müssen, was durchaus ne Bandbreite knapp über 100% einer Einzelkarte bedeuten könnte. Aber dann gibts ja noch die Mikroruckler :ulol:
Wunderschön auf den Punkt gebracht hat es KillerCookie:
Um das mal vereinfacht auszudrücken: So ziemliche alle mit SLI oder CF gebenchten Werte sind prinzipiell falsch, da sie nicht mehr als Maßstab für "flüssiges spielen" benutzt werden können. Bisherige Single-Tests haben als Grundlage konstante Frame-Timings, werden diese verändert, so sind Rückschlüsse auf die tatsächliche Darstellungsgeschwindigkeit unmöglich.
Das ganze führt zu einer Überbewertung der ganzen Doppel- und Triplegespanne. Dem Marketing von ATI und NV tut das natürlich gut, allerdings werden alle User fehlinformiert und kaufen letztlich solchen crap.
MfG Maik
(http://www.forum-3dcenter.de/vbulletin/showthread.php?p=6240310#post6240310)
seahawk
2008-01-31, 14:04:07
Naja, bei einer Änderung der Filterqualität war 3D-Center immer recht schnell dabei den Finger zu heben, auch wenn die Unterschied recht schwer zu sehe nwaren und auch bei weitem nicht in allen Spielen sichtbar wurden. Das Microrucklerproblem ist ähnlich gelagert. Es reicht ja eigentlich sich 2-3 Beispiel zu nehmen, wo das Problem signifikant ist und es daran darzustellen.
MadManniMan
2008-01-31, 14:19:12
Naja, bei einer Änderung der Filterqualität war 3D-Center immer recht schnell dabei den Finger zu heben, auch wenn die Unterschied recht schwer zu sehe nwaren und auch bei weitem nicht in allen Spielen sichtbar wurden. Das Microrucklerproblem ist ähnlich gelagert. Es reicht ja eigentlich sich 2-3 Beispiel zu nehmen, wo das Problem signifikant ist und es daran darzustellen.
Ich tippe auf verflogene Begeisterung für das Thema seitens Leo - er hätte sich dereinst drauf geschmissen!
Hoffen wir aufs CMS, von ihm wird nix kommen...
Forenverzweifelung überwunden - danke Manni.
=)
KillerCookie
2008-02-01, 10:56:54
Ich tippe auf verflogene Begeisterung für das Thema seitens Leo - er hätte sich dereinst drauf geschmissen!
Hoffen wir aufs CMS, von ihm wird nix kommen...
Sobald das CMS eingeführt ist müsste sich dann nur jemand auf das Thema stürzen und sich freiwillige Tester aus dem Forum raussuchen. Mit diesen dann Tests mit Settings etc. vereinbaren und aus den Resultaten und den bekannten Fakten einen Artikel basteln.
Sofern die Veröffentlichung dann genehmigt wäre (wäre ja möglich, das es explizit gewünscht wird, das 3DC dieses Thema nicht anspricht) hätten wir auf jeden Fall mal etwas exklusives auf der Seite.
BTW: Das 3DC-Forum wird wegen dieser Thematik übrigens in anderen Foren wunderbar runtergeputzt weil unser "Forenproll" (Zitat: HW-Luxx) tombman angeblich irgendwelche Fantasiewerte zusammenspinnt und ansonsten bei uns sowieso jeder kleinste Blödsinn an die große Glocke gehängt wird.
-> Ich finde das sollte man nicht auf sich sitzen lassen. Tombman hat vorzügliche Arbeit geleistet, warum also nicht Profit daraus schlagen?
-> Für den ersten Artikel, der wirklich Fakten enthält und nichts runterspielt!
MfG Maik
MadManniMan
2008-02-01, 11:08:49
Sobald das CMS eingeführt ist müsste sich dann nur jemand auf das Thema stürzen und sich freiwillige Tester aus dem Forum raussuchen. Mit diesen dann Tests mit Settings etc. vereinbaren und aus den Resultaten und den bekannten Fakten einen Artikel basteln.
Hoffentlich dauert es bis dahin nicht zu lange - spätestens mit dem 9800 GX2 Launch sollte es groß und breit verständlich gemacht werden.
Sofern die Veröffentlichung dann genehmigt wäre (wäre ja möglich, das es explizit gewünscht wird, das 3DC dieses Thema nicht anspricht) hätten wir auf jeden Fall mal etwas exklusives auf der Seite.
...wenn das tatsächlich nicht gewünscht sein würde, kann das Center dicht machen.
BTW: Das 3DC-Forum wird wegen dieser Thematik übrigens in anderen Foren wunderbar runtergeputzt weil unser "Forenproll" (Zitat: HW-Luxx) tombman angeblich irgendwelche Fantasiewerte zusammenspinnt und ansonsten bei uns sowieso jeder kleinste Blödsinn an die große Glocke gehängt wird.
Jo, ich hab auch schon Links mit Frametimes einer Kadenz von 8-17-8-17-8-17-... und dem abschließenden Kommentar "Wie man sieht: keine Mikroruckler!" gesehen.
I want to belieeeeve *hui*
-> Ich finde das sollte man nicht auf sich sitzen lassen. Tombman hat vorzügliche Arbeit geleistet, warum also nicht Profit daraus schlagen?
-> Für den ersten Artikel, der wirklich Fakten enthält und nichts runterspielt!
Ja gibts denn derart ausgerüstetes Personal?
KillerCookie
2008-02-01, 15:23:18
Ja gibts denn derart ausgerüstetes Personal?
Falls du das auf die vorhandene Technik beziehst, dann wird das wohl ein klares "nein" werden. Als Hardware Magazin kann man sich die Karten von Herstellern/Händlern sicherlich für den Testzeitraum zur Verfügung stellen lassen (wobei, ob sie das bei diesem Testthema mitmachen würden? ;) ), aber als Enduser hat man nunmal leider nicht zuviele Grafikkarten zuhause.
Im Forum sollte man allerdings schon sehr viele verschiedene Modelle, sowie motivierte Mitglieder finden können. Das der Test dann nicht zentral ausgeführt wird sehe ich hier aber garnicht mal als großen Kritikpunkt, spiegelt er doch zugleich wieder, dass dieses Problem auf den unterschiedlichsten Rechnern (für die Kritiker) auftritt.
Ich würde so einem Artikel recht postiv entgegenblicken. Es gibt sicher Leute, die aufgrund eines Forentest zweifeln werden, aber auch hier könnte man erkennen, dass wir unabhängig testen, schließlich steht für uns nichts auf dem Spiel.
Defakto:
Sofern man das "OK" zum Artikel hätte (so eine Arbeit dafür, das er dann nie veröffentlicht wird wird sich wohl keiner machen) könnte man einen Thread mit konkreten Anforderungen an die Tester starten (Hardware, Software, Einstellungen) und jeder Interessent kann dann seine Daten posten. Wahlweise wäre das auch per Mail möglich.
Hat man dann ausreichend Material gesammelt wird das ganze in einigen Diagrammen zusammengefasst und einem (oder 2 :biggrin: ) freiwilligen Schreiberlingen vorgelegt, die dann noch das verbale Gerüst um die Ergebnisse bauen.
It´s done. Wir haben, als erste Seite offiziell einen Artikel gegen SLI und CF veröffentlicht. Ich dachte dafür wäre diese Seite bzw. das Forum auch da. Viele schlaue Köpfe und sogar Erkenntnisse und trotzdem wird das Potential unter den Tisch fallen gelassen. Wäre schon traurig.
Also: Vorschlag realistisch/machbar/sinnvoll/wayne?
MfG Maik
Leonidas
2008-02-04, 10:49:08
Eben nicht, da pro Frame (unter AFR) maximal nur 256Bit zu Verfügung steht, während es bei einer Singlekarte 512Bit wären.
Und? Dafür haste zwei Chips, die in der Zeit, wo die Single-256er-Karte einen Frame berechnet, eben zwei Frames raushaut. Virtuelles 512 Bit Interface.
Dieses Thema ist ähnlich brisant, wie Quack3Arena bei ATi, aufgedeckte Bri-Filter, Flimmerfilter, Treibercheats mit System ... das kanns doch nicht sein! Dutzende Artikel beschäftigen sich mit Multi-Chip-Gespannen, aber es reicht nicht für einen, der sich mal kritisch mit den Hintergründen auseinandersetzt?!?
Sorry, aber sich absichtlich derart blind zu stellen (wie es auch Leo mach, wie es alle machen!) ist einfach eine Schweinerei!
Für ein Review nach dem anderen ist scheinbar Zeit - aber wenn man die Gelegenheit hat, sich mal zu fragen, ob man nicht ganz großen Mist fabriziert, weil eigentliche alle Berichte völllig für die Katz sind, sollte man sie auch ergreifen.
Ich kann mir aber auch gut vorstellen, dass es nV nicht gerade schmeckt, wenn man in einen Triple-SLI-Artikel nen grundkritischen Unterton einbrächte ;)
Kommt Zeit, kommt Artikel. Ich werde mich hinter das Thema setzen.
Aber: Niemand stellt sich absichtlich blind. Und 3DC muß auch nicht zwingend auf Vorteile bei ATI/NV achten, wie das eventuell andere tun müssen.
MadManniMan
2008-02-04, 12:14:19
NA ENDLICH :ulove:
=)
Exxtreme
2008-02-04, 12:16:44
NA ENDLICH :ulove:
=)
Genau, und das in zweierlei Hinsicht. X-D
Jede Karte hat ihren eigenen Speicher. Jede Karte muß für sich Texturen in den Speicher laden d.h. die Speichermenge ist nicht 1024 sonder 512*2 da ja jede Textur doppelt vorhanden ist.
Aus dem gleichen Grund ist auch die Bandbreite nur 256bit groß, da im SLI oder CF die doppelte Anzahl an Texturen geladen werden muß. nicht z.B. 128MB wie bei einer single GPU, sondern 2*128MB ergo führt das zu einer verdoppelten Ladezeit bzw. am Ende ist die Mehrleistung nach außen nicht sichtbar.
Oder habe ich irgendwas übersehen?
Ja, Texturladezeit (also die Zeit die es braucht um Texturen vom Hauptspeicher in den Grafikspeicher zu laden) ist eher unwichtig. Beim Rendern steht tatsächlich die doppelte Bandbreite zur Verfügung.
MadManniMan
2008-02-04, 12:18:33
Genau, und das in zweierlei Hinsicht. X-D
...OK, pass auf: 3DCenter-Jeopardy!
Kategorie 3DCenter-Interna für 100,-
"When it's done!"
Exxtreme
2008-02-04, 12:19:30
...OK, pass auf: 3DCenter-Jeopardy!
Kategorie 3DCenter-Interna für 100,-
"When it's done!"
Wann kommt das neue CMS?
MadManniMan
2008-02-04, 12:22:48
Wann kommt das neue CMS?
Hoffentlich ist diese Antwort falsch :D
Exxtreme
2008-02-04, 12:24:28
Hoffentlich ist diese Antwort falsch :D
Ich hätte auch "Wann kommt Duke Nukem forever" fragen können. X-D
MadManniMan
2008-02-04, 12:38:02
Ich hätte auch "Wann kommt Duke Nukem forever" fragen können. X-D
Du meinst, das ist das Spiel vom 3DCenter, von dem nie jemand was wissen durfte? Und das entstand unter Leos Fuchtel? Boah, ich bin platt... das entschuldigt alles! :eek:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.