PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gerüchte — Erfindung von Fakten


aths
2004-01-15, 01:17:45
Erinnert sich jemand noch daran, als der GeForce4 6 Pipelines zugesprochen wurden? Angeblich hätte ein TMSC-Mitarbeiter "more pipelines" gesagt, und alle schwabulierten von möglicherweise 6 Pipes im NV25 :bonk:

Dieser Tage regen mich 2 Sachen auf. Erstens wird die Prescott-IPC-Leistung anhand der Pipelinelänge beurteilt. Ich halte die längere Pipe im Prescott für weniger schlimm, als in den meisten Gerüchte-News zum Thema vermutet wird. Da werden Zusammenhänge dermaßen stark verkürzt dargestellt, dass sich beim Leser über kurz oder lang einschleift, dass lange Pipelines letztlich scheiße sind. Was nützt eine kurze Pipe, wenn sie wegen ungenügender Cache-Hitrate ins Stocken gerät? Was nützt eine kurze Pipe, wenn die FPU zum "Stau" führt? Imo ist es Quatsch, ständig auf der Pipelänge des Prescotts herumzureiten, ohne die anderen Architektur-Neuheiten zu nennen und fachgerecht zu bewerten.

Zweitens, NV40. Nichts genaues weiß man nicht, nun liest man auf TtecX genau das, was einige (u. a. ich selbst) hier im Forum vermuten. Aber es wird präsentiert als ernstzunehmendes Gerücht. Leo zitiert teilweise von den zu Halbfakten gemachten Gerüchten, die letzlich aus seinem eigenen Forum kommen (und mit einem Schuss vom TI versehen sind. Was ja in Bezug auf Grafikkarten nichts gutes verheißt.) Natürlich wird das bei 3dc explizit als Gerücht gehandelt, Leo wagt kaum, Vermutungen aufzustellen, was angesichts der Faktenlage (= Null) auch sinnvoll ist. Nur die alleinige Erwähnung reicht schon aus, dass jetzt u. U. andere von solchen News abschreiben und Spekulationen als ernstzunehmende Vorabinfos gehandelt werden. Im Spezialfall TtecX kann man praktisch jedes einzelne Gerücht einer Zeile zuordnen, die hier mal im Forum zu lesen war.

"Die Pixelshader sollen inzwischen PS 1.4 Befehle mit 16 bit Integerpräzision beherrschen." Demirug spekulierte mal in diese Richtung, weil das bestimmte Vorteile beim 1.4-er PS bringt. Ich glaube das nicht so recht, dass NV jetzt den PS 1.4 in irgendeiner Form aufpeppt.

"Dies deutet auf eine Erweiterung der Registercombiner hin, welche die PS-Leistung im Int16 Bereich deutlich erhöhen sollte, wie dies im Int12 Bereich beim NV30/35 zu beobachten war." Es müsste FX12 bzw. FX16 heißen. Inwiefern die Leistung durch FX16 großartig erhöht werden sollte, wüsste ich jetzt aber nicht.

"Die Duplizierung der Pixeleinheiten kosten wider einigen Erwartungen ungefähr 25 bis 30Mio Transitoren." Das beruht auf einer Schätzung von Demirug. Wird aber als Fakt dargestellt.

"Hinzu kämen ein paar neue AA-Sampler und eine Abänderung des Trisetups um ein 8x Sparsed-Multisampling Verfahren zu gewährleisten." Da ist wohl der Wunsch des Gedanken Vaters. Ich habe noch nix aus halbwegs glaubwürdiger Quelle gehört, was das bestätigt.

"Die Effektivleistung der Pixelshader ist im Endeffekt mehr als verdoppelt." Beruht wohl auf meiner Spekulation, ist aber falsch ausgedrückt. Effektiv arbeiten die Pixelshader ansich wohl kaum schneller, aber es gibt doppelt so viele (und mit höheren Taktraten) so dass sich die absolute Leistung mehr als verdoppeln würde.

Nicht, dass das falsch verstanden wird, das Forum nutze ich auch zur Weiterbildung. Hin und wieder frage ich Sachen, weil ich gerade für einen Artikel recherchiere. Aber einen praktisch rein auf Gerüchten basierenden Artikel einzuleiten mit "Seit Langem gibt es wieder Neuigkeiten über nVIDIA's nächsten Grafikboliden." ist (abgesehen von den vielen Schreibfehlern) imo kein guter Stil. Die einzigen echten Neuigkeiten sind, dass es wohl schon ein Tape-Out gab.

Also, bitte, bewahrt die Fähigkeit, Gerüchte von Spekulationen zu trennen.

Wenn ich das hier lese: "Weiterhin hört man von einer Veränderung der Pixelpipeline, welche die Pixelshadereffizienz pro Pipeline signifikant erhöt." Von woher hört man das? Das wird von einigen vermutet, weil es da Potenzial gäbe. Von Leuten, die am Chip arbeiten, hört man aber _nix_.

"Das Tempregisterproblem soll dadurch behoben sein." Es wird vielleicht verkleinert. Kaum ein Leser dürfte mit dem Begriff Tempregisterproblem was anzufangen wissen, es sei denn, er kennt Demirugs Artikel zu CineFX. (Dort spekuliert er ja auch am Ende, wie es beim NV40 aussehen könnte. Allerdings begründet er seine Überlegungen auch.)

"FP32 sollte noch deutliche Performancedrops erzeugen, da komplette Auslegung der Architektur auf FP32 Präzision (Kommaberechnungen mit 32 bit Präzision) sehr transistoraufwändig und derzeit nicht notwendig ist." Alle FX-Karten sind auf FP32 ausgelegt. Viele Ops müssen auch mit FP32-Registern realisiertwerden. FP32 ist durchaus notwenig, einige Rechnungen kommen allerdings auch mit FP16 aus. _Gerechnet_ wird aber immer mit FP32.

BTW, FP32 rechnet eigentlich mit 24 Bit Präzision. (Wieso und warum? Auf 3dc gibt's bald mehr dazu.)

betasilie
2004-01-15, 01:24:58
Original geschrieben von aths
Zweitens, NV40. Nichts genaues weiß man nicht, nun liest man auf TtecX genau das, was einige (u. a. ich selbst) hier im Forum vermuten. Aber es wird präsentiert als ernstzunehmendes Gerücht. Leo zitiert teilweise von den zu Halbfakten gemachten Gerüchten, die letzlich aus seinem eigenen Forum kommen (und mit einem Schuss vom TI versehen sind. Was ja in Bezug auf Grafikkarten nichts gutes verheißt.) Natürlich wird das hier explizit als Gerücht gehandelt, Leo wagt kaum, Vermutungen aufzustellen, was angesichts der Faktenlage (= Null) auch sinnvoll ist. Nur die alleine Erwähnung reicht schon aus, dass jetzt u. U. andere von solchen News abschreiben und Spekulationen als ernstzunehmende Vorabinfos gehandelt werden. Im Spezialfall TtecX kann man praktisch jedes einzelne Gerücht einer Quelle zuordnen, die hier mal fiel.

Gerade das finde ich ja so interessant. Klar ist das sachlich gesehen unnötig, aber ich finde es immer wieder spannend all diese wilden und weniger wilden Gerüchte zu lesen. Das macht den Markt lebendig.

Wenn Leo das in die News haut, finde ich das OK, denn die Leute wollen halt lesen, was es so für Gerüchte gibt, und nicht jeder 3DC-News-Leser, ist auch im Forum aktiv.

Mich wunderst es allerdings, dass diesmal niemand dem NV40 64MB eDram zuschreibt. :freak:

aths
2004-01-15, 01:28:01
Original geschrieben von betareverse
Mich wunderst es allerdings, dass diesmal niemand dem NV40 64MB eDram zuschreibt. :freak: Oder dass es eine Multichip-Lösung sei :freak:

MadManniMan
2004-01-15, 02:25:36
Und was ist mit den 12 Pipes? Und der TBDR Architektur? Was wurde aus dem Joint Venture mit Ferrari und wo zum Henker ist mein Tabak? :|

Ailuros
2004-01-15, 02:28:23
Es wird mal wieder so sein, dass manche wieder viel zu viel erwartet haben und dass mit sehr wenigen Aussnahmen.

MadManniMan
2004-01-15, 02:59:03
Original geschrieben von Ailuros
Es wird mal wieder so sein, dass manche wieder viel zu viel erwartet haben und dass mit sehr wenigen Aussnahmen.

Naja, ich sach mal so: der nV40 wird uns wohl frühestens im Mai Spaß machen, da hats dann immerhin schon recht lang nüscht Neues gegeben. Und nach dem Knaller 97P hats imho mal wieder eine 1-2-3-RAKETE (STIMMUNG!) verdient. Ob die von nV, PVR, ATi oder CirrusLogic kommt (Ja Endo, vielleicht auf con den TsengLabs :D ), is mir einigermaßen einerlei.

Da nun der nV 40 der einzige wirklich neue Chip ist, der ein greifbares Datum hat, das man auch wirklich zum orientieren heranziehen kann (AGPx8 Variante mit Tapeout vor nem Weilchen, bei heutiger Komplexität usw mal ein halbes Jahr hinten dran - ergo ein halbes Jahr noch und n Weilchen ab), steckt der geneigte Pixel-Festivist natürlich seine Aufmerkssamkeit in das jüngste Kind der Schweinepriester, die einst meine Religion aufkauften(welch Ironie, daß auch hier der Kapitalismus über den Clerus siegte).

Featuremäßig tangiert mich die Entwicklung vor DX Next nicht sonderlich, ich selbst hoffe vor allem auf herrlichste Performancebewegungen. Aber rein auf Gerüchte beruf0rn? Ich waihß nätt...

Ailuros
2004-01-15, 03:58:54
Mein voriger Post war eher auf NV4x bezogen, da zu diesem auch die meisten Geruechte/Spekulationen kursieren.

Ich waere froh wenn wir wieder mal die Vorstellungen hinter uns haben, was wohl endlich ein Ende fuer z.B. die 8*2/8*1/12*1/16*1 Zahlenquaelerei bringen wird. Dabei wird es wohl schwer sein selbst dann aehnlichem Mist zu entgehen; es wird Zeit dass man fixed function pipeline Mist endlich mal los wird.

MadManniMan
2004-01-15, 04:06:43
Original geschrieben von Ailuros
Mein voriger Post war eher auf NV4x bezogen, da zu diesem auch die meisten Geruechte/Spekulationen kursieren.

Ich waere froh wenn wir wieder mal die Vorstellungen hinter uns haben, was wohl endlich ein Ende fuer z.B. die 8*2/8*1/12*1/16*1 Zahlenquaelerei bringen wird. Dabei wird es wohl schwer sein selbst dann aehnlichem Mist zu entgehen; es wird Zeit dass man fixed function pipeline Mist endlich mal los wird.

Ein Problem: wie willst du den Leuten dann ihre Füllraten vorrechnen?

Ailuros
2004-01-15, 05:26:38
Original geschrieben von MadManniMan
Ein Problem: wie willst du den Leuten dann ihre Füllraten vorrechnen?

Guter Punkt; zeig mir mal wo NVIDIA in ihren oeffentlichen Dokumenten ueber NV3x Rede ueber genaue Fuellraten macht? (kann sein dass ich es sogar verpasst habe, aber ich konnte das letzte Mal nichts darueber finden).

Die Zeiten vom "GigaTexel(tm)" sind wohl vorbei oder?

Gaestle
2004-01-15, 09:57:23
Original geschrieben von Ailuros
Mein voriger Post war eher auf NV4x bezogen, da zu diesem auch die meisten Geruechte/Spekulationen kursieren.

Ich waere froh wenn wir wieder mal die Vorstellungen hinter uns haben, was wohl endlich ein Ende fuer z.B. die 8*2/8*1/12*1/16*1 Zahlenquaelerei bringen wird.

Stimmt, da kann die vesammelte Meute dann bezüglich des Nachfolgers spekulieren. Vielleicht hat der ja dann 4*4*4! Ich hab' da sowas aus 'ner ziemlich guten Quelle bekommen ... ;)

Grüße

DrumDub
2004-01-15, 10:19:14
der r3x0 ist ja eigentlich auch nicht 8*1 sondern 2*4*1...

StefanV
2004-01-15, 12:10:43
Original geschrieben von Gaestle
Stimmt, da kann die vesammelte Meute dann bezüglich des Nachfolgers spekulieren. Vielleicht hat der ja dann 4*4*4! Ich hab' da sowas aus 'ner ziemlich guten Quelle bekommen ... ;)

Grüße

:rofl:


Wo willst du die Transistoren für 4x4 Pipelines mit 4TMUs hernehmen??

Wie 'gut' 4 TMUs sind, sieht man ja am Beispiel der Parhelia ganz gut...

Sorry, aber mehr als 2TMUs macht keinen Sinn, an ein 4x4 Array mag ich auch nicht so recht glauben, dazu sind NV30 und NV35 schon zu 'transistorintensiv'...

Ich tippe eher auf 8x2, beim NV40, eventuell auch 8x1..

seahawk
2004-01-15, 12:29:34
Original geschrieben von Stefan Payne
:rofl:


Wo willst du die Transistoren für 4x4 Pipelines mit 4TMUs hernehmen??

Wie 'gut' 4 TMUs sind, sieht man ja am Beispiel der Parhelia ganz gut...

Sorry, aber mehr als 2TMUs macht keinen Sinn, an ein 4x4 Array mag ich auch nicht so recht glauben, dazu sind NV30 und NV35 schon zu 'transistorintensiv'...

Ich tippe eher auf 8x2, beim NV40, eventuell auch 8x1..

Es geht schon wieder los. :help2:

Stefan, das war keine ernst gemeinte Post.

PS : Nv40 ist 16x9x5x1x2)

BlackBirdSR
2004-01-15, 12:45:04
Original geschrieben von aths


Dieser Tage regen mich 2 Sachen auf. Erstens wird die Prescott-IPC-Leistung anhand der Pipelinelänge beurteilt. Ich halte die längere Pipe im Prescott für weniger schlimm, als in den meisten Gerüchte-News zum Thema vermutet wird. Da werden Zusammenhänge dermaßen stark verkürzt dargestellt, dass sich beim Leser über kurz oder lang einschleift, dass lange Pipelines letztlich scheiße sind. Was nützt eine kurze Pipe, wenn sie wegen ungenügender Cache-Hitrate ins Stocken gerät? Was nützt eine kurze Pipe, wenn die FPU zum "Stau" führt? Imo ist es Quatsch, ständig auf der Pipelänge des Prescotts herumzureiten, ohne die anderen Architektur-Neuheiten zu nennen und fachgerecht zu bewerten.



tja, damals ist man blindlings auf den Trace-Cache losgegangen, heute sind es eben die Pipelines.

Beim Trace-Cache ging das Ganze ja mächtig in die Hose. Mal sehen wie es bei den Schlussfolgerungen um die Pipelines aussieht.
Aber sei beruhigt. Es ist nicht nur 3dcenter. Überall fällt man darauf rein, dass Vorraussagen anscheinend anhand simpler Merkmale getroffen werden können.

robbitop
2004-01-15, 13:15:49
aths

Kompliment für die Art deiner Lösungsfindung

€dit: news ist gefixt, danke für den freundlichen Hinweis
http://www.ttecx.de/files/news/article.php?article_file=1074033583.txt&showtopic=

egdusp
2004-01-15, 13:29:52
1. Welche Größe ist momentan hauptsächlich für die Grafikleistung verantwortlich? Wenn auch noch nicht momentan so wird doch zukünftig die Pixelshaderleistung sehr wichtig werden, also sollte diese als Vergleichsgröße herangezogen werden. Ups, ist ja variabel und vom Code abhängig. Also doch wieder 3DMurks :(

2. Wie wäre es, wenn wir einen gefakten Thread aufmachen, wo unsere Experten (Demi, Aths, Zecki, Aliuros, Quasar, etc..) über "geheime" Insiderinfos spekulieren. Der Thread wird dann irgendwann verschwinden und dies wird inoffiziell mit Unterlassungserklärungen begründet. Die Infos würden dann sicher sehr schnell populär werden und auf diversen Websiten gepostet werden.

Wäre mal ein interessantes soziologisches Experiment.

mfg
egdusp

Ailuros
2004-01-15, 14:18:16
Nicht boes gemeint, aber mein Wissensbereich ist meilenweit bescheidener als von all den Vorerwaehnten; und von einem Experten kann in meinem Fall wohl ueberhaupt nicht die Rede sein.

Ailuros
2004-01-15, 14:29:08
So und jetzt nochmal zu dem Pipeline-Mist:

Von DemoCoder/B3D:

Why would you need fixed function pipes at all? I'd drop them and emulate them with pixel shaders.

Yes of course, if you read my comments in an absurd way, but I was talking about the color ops. A GPU with all "fixed functions" removed (e.g. no builtin AA, bilinear, anisotropic, setup, etc) would be little more than a highspeed SIMD CPU.

But in the past, "fixed function" referred to the distinction between non-programmable T&L/non-programmable shading and the programmable variants (e.g. DX7 vs DX8/9 )


A fixed function T&L pipeline and fixed function shader pipeline are wastes of silicon these days. I don't care if they give marginal efficiency for older DX7 games.

This is a ridiculous argument. My original post stated that there is no need for the "fixed function" pipeline, which means it can now be implemented using programmable shader emulation. I believe the R300 already does this, translating fixed function pixel shader calls by replacing them with shaders.

The phrase "fixed function pipeline" has had a particular meaning on this board for a long time, in the .plans of John Carmack and Tim Sweeney, in developer documentation, etc.

When people have discussed fixed-vs-non-fixed pipelines in the past, it did not refer to triangle setup, texture filtering, or antialiasing in the vast majority of cases. It referred to whether or not vertex and pixel operations were programmable. (e.g. fixed function geometry pipeline, or fixed function pixel shader). These are in the DX SDK docs.

In fact, there are a number of articles on B3D in the article section that make use of the same definition.

Alles aus dem gleichen Thread und tut mir leid Leute, aber der Herr (ist auch nicht nur "irgend jemand" aber das ist hier irrelevant) hat leider recht.

Letztenendes werdet ihr derartige Anweisungen von IHVs in der absehbaren Zukunft oefter hoeren und von mehreren als nur einer Seite und das aus gutem Grund.

Demirug
2004-01-15, 14:41:34
Original geschrieben von Ailuros
So und jetzt nochmal zu dem Pipeline-Mist:

Alles aus dem gleichen Thread und tut mir leid Leute, aber der Herr (ist auch nicht nur "irgend jemand" aber das ist hier irrelevant) hat leider recht.

Letztenendes werdet ihr derartige Anweisungen von IHVs in der absehbaren Zukunft oefter hoeren und von mehreren als nur einer Seite und das aus gutem Grund.

Und was hat das jetzt mit der sinnlosen Leistungsangabe via Pipeline als X*Y zu tun?

DemoCoder redet dort ja über Fixed-Functions vs. Programmable. Wobei es diese grenze ja eigentlich auf Hardware Ebene nie wirklich gab.

Ailuros
2004-01-15, 14:59:18
A GPU with all "fixed functions" removed (e.g. no builtin AA, bilinear, anisotropic, setup, etc) would be little more than a highspeed SIMD CPU.

Schlechtes Beispiel aber es war eine Antwort auf das hier:

I believe 8x2 and 16x0 not 16x1 because for 16x1 you need 8 additional FixedFunction Pipes...but when there will be 16 z-stencil units...wooaaah-> Ive heard pipelinestructure will be changed so that the efficiency of PS Units will grow ->AA will be some kind of sparse or stochastic

Demirug
2004-01-15, 16:07:31
Original geschrieben von Ailuros
Schlechtes Beispiel aber es war eine Antwort auf das hier:

Ja, eine klare Folge davon was dabei herauskommen wenn man mit zuwenig Grundlagen aus minimalen Detailinfos (ob sie nun stimmen oder nicht) etwas bauen kann. Das schreiben dann wieder welche ab und interpretieren auch noch daran herum und am Ende haben wir dann aus einer einzigen Zahl ein ganzen Gerüchtgebäude gebaut. OK, ich unterliege ja auch oft genug mit meinem gefährlichen Halbwissen dem Drang etwas zu interpretieren was ich besser sein lassen sollte. Ich hoffe allerdings das mir dabei niemals solche Stilblüten passieren oder gar schon passiert sind wie die merkwürdigen "GF FX Pipeline" Zeichnungen welche die Runde gemacht haben. Wobei da ja gezielt Gerüchte gestreut wurden. Ich fürchte jedoch das gerade diese Zeichungen viel dazu beigetragen haben das ein falsche Verständniss für die Sache entstehen konnte.

MadManniMan
2004-01-15, 16:17:53
Es ist doch so, daß zumindest in der letzten Zeit die MT Füllrate ein recht guter Indikator für letztendliche Ingameleistung war.
Und ich bin halt so bequem, nicht immer Usertest per Arschmark (TM) oder Ähnlichem abwarten zu müssen, sondern möchte mir allein anhand der groben Specs schon ein Bild machen können. Beim DC zB haben meine Erwartungen eigentlich mit dem übereingestimmt, was letztendlich zumindest an DX7-Leistung rausgekommen ist: viel ST und MT Füllrate, mäßig Bandbreite.

Ich wäre geneigt, nach einem "HowTo" für Theoriekramberechnung zu fragen. Einmal für die guten alten Füllraten, einmal nach dem ganzen Shaderkram. Demi hats in seiner NV30-Betrachtung angefangen, aber leider für mein faules Wesen nicht simpel genug präsentiert.

Jungs? :eyes:

MadManniMan
2004-01-15, 16:20:13
Original geschrieben von Demirug
Ich fürchte jedoch das gerade diese Zeichungen viel dazu beigetragen haben das ein falsche Verständniss für die Sache entstehen konnte.

Da springt der Punkt! Auch wenn ich große Teile meiner Rechnerfreizeit mit Grakakram verbringe, so kann ich meinen Leutz noch nichts Genaueres über den aktuellen Aufbau von VPUs erklär0rn. Ein klitzekleines Gerüchteverbann-Artikelchen würde viele Leutz gäwisss interessiern.

*hinthint*

Demirug
2004-01-15, 16:45:05
MadManniMan, das Problem ist das man da ganz weit in der Vergangeheit anfangen müsste. Bei den ersten Voodoos, oder so. Denn schon dort wurde damit angefangen alles mit vereinfachten Modelen zu erklären. Die Technik änderte sich aber das Model ist geblieben und jetzt wird eben alles da irgendwie passend gemacht.

MadManniMan
2004-01-15, 16:53:15
Original geschrieben von Demirug
MadManniMan, das Problem ist das man da ganz weit in der Vergangeheit anfangen müsste. Bei den ersten Voodoos, oder so. Denn schon dort wurde damit angefangen alles mit vereinfachten Modelen zu erklären. Die Technik änderte sich aber das Model ist geblieben und jetzt wird eben alles da irgendwie passend gemacht.

Herrjee, also Urschleim...

Meine Hoffnung besteht noch immer, daß sich ein Kärl mit zu wenig Freizeit findet, da mal was zu präsentieren :grübel:

BTW: Ist denn dann das Modell GF2GTS -> 800MPix & 1.600MTex shice? Ich hielt 4*2@200MHz für recht verläßlich in diesem Bereich.

Demirug
2004-01-15, 17:04:15
Original geschrieben von MadManniMan
BTW: Ist denn dann das Modell GF2GTS -> 800MPix & 1.600MTex shice? Ich hielt 4*2@200MHz für recht verläßlich in diesem Bereich.

Bei <= DX7 Karten hat es noch gut gepasst. Da die Pixeleffekte ja in der Regel nur aus Texturschichte aufeinader legen bestanden war eben die Texel und Pixelfillrate alles was zählt. Wobei die GF1 Karten da auch schon kleine Biester waren (4*1 oder 2*2).

Bei DX8 hat sich die Sache aber dann angefangen zu verschieben. Dummerweise gibt es seit DX8 ja nun kein einheitliches Pipeline/Pixelprozessor Model mehr in der Hardware. Jeder macht es anders. Fängt man jetzt an ab diesem Punkt den Aufbau zu erklären sind viele verloren weil einfach die Grundlagen aus der DX7 Hardware fehlen. Die ist nämlich auch schon kompliziert auch wenn es nicht aufgefallen ist.

robbitop
2004-01-15, 17:12:40
ja da hast du Recht. Viele kratzen wie ich derzeit nur an der Oberfläche.

Ein Artikel über einen DX9 Aufbau wäre höchst interessant und lesenswert

MadManniMan
2004-01-15, 17:33:05
Ich ging bisher davon aus, daß nur der Savage2k dieses "variable" Pipesystem besaß, aber die GF1?

Ich hab grad eine davon hier rumliegen, die jag ich mal durch paar Tests...

Aber wie gesagt: robbi hat Recht :D

ow
2004-01-15, 18:04:01
.

aths
2004-01-15, 20:54:28
Original geschrieben von BlackBirdSR
tja, damals ist man blindlings auf den Trace-Cache losgegangen, heute sind es eben die Pipelines.

Beim Trace-Cache ging das Ganze ja mächtig in die Hose. Mal sehen wie es bei den Schlussfolgerungen um die Pipelines aussieht.
Aber sei beruhigt. Es ist nicht nur 3dcenter. Überall fällt man darauf rein, dass Vorraussagen anscheinend anhand simpler Merkmale getroffen werden können. Es ist ja schon richtig, dass das Hinzufügen neuer Pipe-Stages erst mal zu Lasten der Effizienz geht. Nur stören mich konkret folgende Dinge:

- Imo wird ungenügend hervorgehoben, dass man die Pipe-Länge bei gleicher Archtitektur in Betracht ziehen muss. Hat man ein Design mit 20 Pipe-Stufen und eins mit 30, und kennt die Chips nicht weiter, wäre es vermessen, der 20-er Pipe höhere Performance zuzusprechen.

- Warum bringt mehr Cache überhaupt was? Weil die Hitrate steigt. Das heißt, heutige Pipe-Längen können die Cache-Nachlade-Latenzen noch lange nicht verstecken. Wenn die neue Pipe ausgeklügelt entworfen ist, versteckt sie aufgrund ihrer Länge Latenzen besser.

- Es gibt eine IMUL-Unit. Die gab es vorher nicht, da musste man die FPU bequemen. Nun kommem Multiplikationen aber des öfteren vor, z. B. beim Zugriff auf ein mehrdimensionales Array. Ich finde das klasse, dass hier die FPU entlastet wird.

Selbst wenn letztlich die durchschnittliche IPC-Leistung nicht steigt, ist das ein Grund, sich über die lange Pipe zu erregen? Ginge es anders, hätte Chipzilla es wohl anders gemacht.

Ailuros
2004-01-15, 21:49:30
Original geschrieben von MadManniMan
Es ist doch so, daß zumindest in der letzten Zeit die MT Füllrate ein recht guter Indikator für letztendliche Ingameleistung war.
Und ich bin halt so bequem, nicht immer Usertest per Arschmark (TM) oder Ähnlichem abwarten zu müssen, sondern möchte mir allein anhand der groben Specs schon ein Bild machen können. Beim DC zB haben meine Erwartungen eigentlich mit dem übereingestimmt, was letztendlich zumindest an DX7-Leistung rausgekommen ist: viel ST und MT Füllrate, mäßig Bandbreite.

Ich wäre geneigt, nach einem "HowTo" für Theoriekramberechnung zu fragen. Einmal für die guten alten Füllraten, einmal nach dem ganzen Shaderkram. Demi hats in seiner NV30-Betrachtung angefangen, aber leider für mein faules Wesen nicht simpel genug präsentiert.

Jungs? :eyes:

IHVs werden nicht vermeiden zu erwaehnen um wieviel texture ops pro Takt ein chip faehig ist. Wie waere es also mit texture ops * Taktrate aus?

aths
2004-01-15, 22:13:12
Original geschrieben von Ailuros
IHVs werden nicht vermeiden zu erwaehnen um wieviel texture ops pro Takt ein chip faehig ist. Wie waere es also mit texture ops * Taktrate aus? Hrnee. Das hieße dann wohl, bilineare Filterung. Für mich persönlich zählt trilineare Multitexturing-Füllrate.

BlackBirdSR
2004-01-15, 22:24:57
Original geschrieben von aths
Es ist ja schon richtig, dass das Hinzufügen neuer Pipe-Stages erst mal zu Lasten der Effizienz geht. Nur stören mich konkret folgende Dinge:

- Imo wird ungenügend hervorgehoben, dass man die Pipe-Länge bei gleicher Archtitektur in Betracht ziehen muss. Hat man ein Design mit 20 Pipe-Stufen und eins mit 30, und kennt die Chips nicht weiter, wäre es vermessen, der 20-er Pipe höhere Performance zuzusprechen.

- Warum bringt mehr Cache überhaupt was? Weil die Hitrate steigt. Das heißt, heutige Pipe-Längen können die Cache-Nachlade-Latenzen noch lange nicht verstecken. Wenn die neue Pipe ausgeklügelt entworfen ist, versteckt sie aufgrund ihrer Länge Latenzen besser.

- Es gibt eine IMUL-Unit. Die gab es vorher nicht, da musste man die FPU bequemen. Nun kommem Multiplikationen aber des öfteren vor, z. B. beim Zugriff auf ein mehrdimensionales Array. Ich finde das klasse, dass hier die FPU entlastet wird.

Selbst wenn letztlich die durchschnittliche IPC-Leistung nicht steigt, ist das ein Grund, sich über die lange Pipe zu erregen? Ginge es anders, hätte Chipzilla es wohl anders gemacht.

um es mal klar zu sagen:
Schön dass du dich aufregst, aber du/ihr (3dcenter) wart ebenso Teil der Bewegungen die zum heutigen Stand geführt haben.
Es reicht mir schon die heutigen News zum tejas anzusehen, um wieder fast in Tränen auszubrechen.
Es ist viel komplexer geworden als noch vor einigen Jahren. Gleichzeitig steigt die NewsGeilheit aber extrem an.
Halbwahrheiten, Gerüchte, und Alles was irgendwie schlau klingt wird halt aufgenommen und als WISSEN in den eigenen Fundus eingebaut.

Noch heute frage ich mich, woher die 30 als neue Pipelinezahl kommt? 3dcenter schreibt den Scheiss einfach so, jeder übernimmts. Wo steht das? Warum wird das nicht als Gerücht verbucht, sondern so getan als wäre es Fakt?
Wie die Sache mit dem Trace-Cache. Irgendein Emulatortyp tut so als wüsste er Alles, 3DCenter übernimmts, und der Rest übernimmt von 3DCenter.
Ihr habt hier eine riesen Verantwortung, aber anscheinend wird das nicht richtig ernst genommen.

Zumindest die CPU News bringen mich fast immer zum Kochen.
(weswegen ich 3DC hier einen etxtrem niedrigen Stellenwert zuordne)

Ailuros
2004-01-15, 22:37:22
Original geschrieben von aths
Hrnee. Das hieße dann wohl, bilineare Filterung. Für mich persönlich zählt trilineare Multitexturing-Füllrate.

Als ob X*Y dabei hilft heh.

R300:

8 texture ops * 325MHz = 2600MTexels/sec

NV30:

8 texture ops * 500MHz = 4000MTexels/sec

Zu dem gibt es uebrigens Applikationen die Fuellraten messen koennen. Mit oder ohne Z, blending, multitexturing oder was immer man noch bedenken koennte.

Bis heute ist bei Karten was Textur-filterung betrifft, sowieso nur bilinear quasi "for free" und die oben errechnete Zahlen sind sowieso nur theoretische maximale Zahlen.

Wobei das Zahlengewarkel in jedem Fall NICHT die Effizienz unter jeden Situation wiederspiegeln kann. Entschuldige dann wenn mir reale Effizienz eigentlich nur wichtig ist.

Desti
2004-01-16, 10:18:47
Original geschrieben von aths
[...]

Selbst wenn letztlich die durchschnittliche IPC-Leistung nicht steigt, ist das ein Grund, sich über die lange Pipe zu erregen? Ginge es anders, hätte Chipzilla es wohl anders gemacht.

Dabei muss man sich Fragen, wie viel darf die Marketing Abteilung (mehr MHz) den Entwicklern mittlerweile vorschreiben?

Intel hat viele sehr gute Leute und ich bin mir sicher, wenn diese alleine entscheiden dürften, was sinnvoll ist und was man besser nicht macht, dann hätten wir heute Prozessoren, die bei geringeren Herstellungskosten und deutlich weniger Verlustleistung mehr Rechenleistung bringen würden.

Das ist natürlich nicht nur bei Intel so, sondern bei fast jedem Hardware Hersteller, von anderen Industriezweigen ganz zu schweigen. :(

aths
2004-01-16, 19:57:12
Original geschrieben von Ailuros
Entschuldige dann wenn mir reale Effizienz eigentlich nur wichtig ist. Mir ist nicht die reale Effizienz, sondern die reale Leistung wichtig :kicher:

Original geschrieben von Desti
Dabei muss man sich Fragen, wie viel darf die Marketing Abteilung (mehr MHz) den Entwicklern mittlerweile vorschreiben?

Intel hat viele sehr gute Leute und ich bin mir sicher, wenn diese alleine entscheiden dürften, was sinnvoll ist und was man besser nicht macht, dann hätten wir heute Prozessoren, die bei geringeren Herstellungskosten und deutlich weniger Verlustleistung mehr Rechenleistung bringen würden.Du bist dir sicher? Mit welchen Argumenten?

Ailuros
2004-01-17, 05:30:35
Mir ist nicht die reale Effizienz, sondern die reale Leistung wichtig.

Reale Effizienz ist unvermeidbar mit realer Leistung verbunden, wohingegen eine theoretische - best case scenario - trilineare MT Fuellrate auf Papier gar nichts mit dem einem oder anderen zu tun hat.

Reale Effizienz kann NUR mit realer Leistung definiert werden.

Wolfram
2004-01-17, 11:42:01
Original geschrieben von BlackBirdSR
um es mal klar zu sagen:
Schön dass du dich aufregst, aber du/ihr (3dcenter) wart ebenso Teil der Bewegungen die zum heutigen Stand geführt haben.
Es reicht mir schon die heutigen News zum tejas anzusehen, um wieder fast in Tränen auszubrechen.
Es ist viel komplexer geworden als noch vor einigen Jahren. Gleichzeitig steigt die NewsGeilheit aber extrem an.
Halbwahrheiten, Gerüchte, und Alles was irgendwie schlau klingt wird halt aufgenommen und als WISSEN in den eigenen Fundus eingebaut.

Noch heute frage ich mich, woher die 30 als neue Pipelinezahl kommt? 3dcenter schreibt den Scheiss einfach so, jeder übernimmts.

(...)

Zumindest die CPU News bringen mich fast immer zum Kochen.
(weswegen ich 3DC hier einen etxtrem niedrigen Stellenwert zuordne)

Zu der Sachdiskussion kann ich nichts beitragen, aber hier muß ich Dir beipflichten, BlackBird: Als Journalist muß man sich entscheiden, ob man Spekulationen bringt oder nur möglichst gesicherte Fakten. Es gibt zwar genügend etablierte Medien, die Spekulationen bringen, wie zB die Wirtschaftswoche, der Stern oder der Focus. Aber darunter leidet IMO das Ansehen. Vor allem, wenn man Meldungen zurücknehmen muß, weil es Falschmeldungen waren. Von vielen Falschmeldungen erfährt der normale Nachrichtenkonsument nicht. Kürzlich mußte ich noch einen Stern-Journalisten hören, der sagte, eine Gegendarstellung in einer von ihm recherchierten Sache sei schon deswegen im Papierkorb gelandet, weil laut der solche Gegendarstellungen prüfenden Rechtsabteilung nur eine Handvoll Juristen überhaupt in der Lage sei, eine formal korrekte Gegendarstellungen zu verfassen, die man auch drucken muß.

Hier nehmen auch die zurückgenommenen (Falsch-)Meldungen zu. Wenn man schon Zugang zu Insider-Informationen hat, sollte man IMO nur die sicheren bringen. Ich muß allerdings sagen, daß Leonidas die Spekulationen auch, soweit ich das sehe, immer als solche kennzeichnet. Kann man auch so machen. Man muß aber schon gut aufpassen.

Ich kann mir schon gut vorstellen, daß viele hier auch gern Spekulationen lesen. Andere eben gerade nicht. Wie gesagt: Man muß sich entscheiden.

Wolfram
2004-01-17, 11:47:07
Noch was. Abseits von den Fakten ist ein Weg, Neues zu bringen, der originelle Rechercheansatz. Und da muß man gerade die bei den Lesern umstrittenen letzten Artikel von aths (Filtertricks) und Leonidas (AA-Performance) loben. Ohne die Diskussion darüber wieder aufkochen lassen zu wollen: Es gab eben eine Diskussion darüber. Weil die Artikel originell waren.

Wolfram
2004-01-17, 11:57:20
Und noch was: Gut fand ich auch den begründeten Einfall, UT2003 nur noch mit Timedemos zu benchen. Dann noch mit einer eigenen Timedemo, die offenbar gut gemacht ist, einige andere verwenden sie mittlerweile auch. Hat in dem oben angesprochenen Artikel einen Unterschied zwischen 128 und 256-Radeons aufgezeigt, den ich so noch auf keiner anderen großen Seite gesehen habe. Die meisten benchen mit Botmatches und Flybys.

In Sachen praxisrelevante Benchmarks gibt es IMO noch viel Boden zu beackern. Das hier ist doch eine 3D-Spiele-Seite, oder? Was interessiert die Leute, die sich hier rumtreiben, vor allem? Mit welcher Hardware sie welches Spiel wie spielen können. Darüber geben die meisten Benchmarks auf Anandtech, Tomshardware etc. wenig Aufschluß. Da sieht man zwar, welche Hardware unter bestimmten Voraussetzungen in bestimmten Spielen schneller ist. Aber die Praxisrelevanz (was brauche ich?) fehlt oft.

aths
2004-01-18, 09:03:13
Original geschrieben von Wolfram
Aber die Praxisrelevanz (was brauche ich?) fehlt oft.Du brauchst zum Spielen mindestens Mittelklasse-Hardware. Ob nun von ATI oder NV, ist praktisch egal. Ich finde es ehrlich gesagt amüsant, wenn sich gewisse Herren mit Zitaten aus Reviews beweisen, Produkt XYZ sei der bessere Deal. Sicher hat jedes Produkt seine Stärken und Schwächen. Letztlich kann man aber mit jeder Mittelklassen-Karte praktisch jedes Spiel "gut" spielen.

Das heißt, bei ATI irgendwas ab 9500, mit der Ausnahme 9600 SE. Bei NV irgendwas ab 5600, mit Ausnahme der 64-Bit-Versionen.

Gast
2004-01-18, 12:02:33
Original geschrieben von aths
Bei NV irgendwas ab 5600, mit Ausnahme der 64-Bit-Versionen.

Der 5600 ist für dich Mittelklasse....Hmmm...du bist aber wirklich _extrem_ Anspruchslos. Mach daraus eine 5600-Ultra, dann können wir halbwegs darüber reden ( ;) ); obwohl eine Ti4200 dann immer noch besser ist.

Ailuros
2004-01-18, 15:23:31
Original geschrieben von Gast
Der 5600 ist für dich Mittelklasse....Hmmm...du bist aber wirklich _extrem_ Anspruchslos. Mach daraus eine 5600-Ultra, dann können wir halbwegs darüber reden ( ;) ); obwohl eine Ti4200 dann immer noch besser ist.

5700 mindestens IMHO.

StefanV
2004-01-18, 15:35:35
Original geschrieben von aths
Das heißt, bei ATI irgendwas ab 9500, mit der Ausnahme 9600 SE. Bei NV irgendwas ab 5600, mit Ausnahme der 64-Bit-Versionen.

...und der FX5600XT, welche teilweise (öhm, eher meist) langsamer ist als die FX5200 ist...

aths
2004-01-18, 16:35:04
Original geschrieben von Ailuros
5700 mindestens IMHO. Eigentlich ja. Aber eher aus "philosopischen" Gründen. Es gibt kaum Spiele, die DX9-Shader nutzen, und in DX7 und DX8 steht die 5600 der 5700 (taktbereinigt) kaum nach.


Original geschrieben von Stefan Payne
...und der FX5600XT, welche teilweise (öhm, eher meist) langsamer ist als die FX5200 ist... Ich denk, die 5600 XT hat einen 128-Bit DDR-Bus?

ow
2004-01-18, 16:57:48
.

StefanV
2004-01-18, 17:06:01
Original geschrieben von aths
Ich denk, die 5600 XT hat einen 128-Bit DDR-Bus?

Naja, das kann man soo genau auch nicht sagen...

Sagen wir es so: eigentlich hat sie ein 128bit Speicherinterface, gibt aber auch Karten mit 64bit Interface.

Takt -> siehe ow.

Es gibt allerdings eine NOCH GRÖSSERE Verarsche und die trägt nichts dabei!!!!

Die Albatron FX5600EP

Technische Daten:
325MHz COre (AFAIK), 7,5ns DDR-SDRAM@64bit bei 133MHz...

Jene Karte dürfte sogar von den meisten GF2 MX Kassiert werden, die 'ordentlichen' GF2 MX-400 sollten öfter schneller sein (also die, die mehr als 166MHz Speichertakt besitzen)...

Gast
2004-01-18, 19:17:14
Original geschrieben von BlackBirdSR
tja, damals ist man blindlings auf den Trace-Cache losgegangen, heute sind es eben die Pipelines.

Beim Trace-Cache ging das Ganze ja mächtig in die Hose. Mal sehen wie es bei den Schlussfolgerungen um die Pipelines aussieht.
Aber sei beruhigt. Es ist nicht nur 3dcenter. Überall fällt man darauf rein, dass Vorraussagen anscheinend anhand simpler Merkmale getroffen werden können.

Zitat aus "GameStar":

"Die Volari hat satte 16 Pipelines, die Radeon 9800 Pro von ATi hat nur 8, die Geforce FX 5900 Ultra," falsch geschrieben, " gar nur 4!" - Tja, so Hardware-Radakteure ham hald nur Matsch im Kopf - ob die überhaupt wissen, dass performance nicht nur von den Pipelines abhängt?

Gast
2004-01-18, 19:20:08
Original geschrieben von Stefan Payne
Naja, das kann man soo genau auch nicht sagen...

Sagen wir es so: eigentlich hat sie ein 128bit Speicherinterface, gibt aber auch Karten mit 64bit Interface.

Takt -> siehe ow.

Es gibt allerdings eine NOCH GRÖSSERE Verarsche und die trägt nichts dabei!!!!

Die Albatron FX5600EP

Technische Daten:
325MHz COre (AFAIK), 7,5ns DDR-SDRAM@64bit bei 133MHz...

Jene Karte dürfte sogar von den meisten GF2 MX Kassiert werden, die 'ordentlichen' GF2 MX-400 sollten öfter schneller sein (also die, die mehr als 166MHz Speichertakt besitzen)...

Was hat das mit Speichertakt zu tun? Der 9600 XT hat 300 MHz(etwas zu wenig) kommt aber mit dem GeforceFX 5700 Ultra ganz gut mit! Der wäre mit 400 MHz auch gut bedient(Speicher) aber was macht Nvidia nicht alles fürs marketing!

robbitop
2004-01-18, 19:52:52
hmm ich glaube Blacki meinte eher die Pipelinestufen beim P4 und nicht bei GPUs

BlackBirdSR
2004-01-18, 21:00:29
Original geschrieben von Gast
Zitat aus "GameStar":

"Die Volari hat satte 16 Pipelines, die Radeon 9800 Pro von ATi hat nur 8, die Geforce FX 5900 Ultra," falsch geschrieben, " gar nur 4!" - Tja, so Hardware-Radakteure ham hald nur Matsch im Kopf - ob die überhaupt wissen, dass performance nicht nur von den Pipelines abhängt?

ach, ich glaube den Beiden bei der GS durchaus, dass sie das halbwegs verstehen.
Das Problem bei der GS scheint mir allerdings ein Anderes zu sein.

Im Zuge des Hypes (der seit einiger Zeit der Primäre Stil der GS ist) und der totalen Simplifizierung allen Inhalts, damit es auch der letzte Noob versteht, werden Details einfach verzerrt oder absichtlich falsch dargestellt.

Der Leser wird also absichtlich verarscht, damits einfacher zu lesen ist, und cooler klingt,.

Die Volari hat satte 16 Pipelines
Radeon 9800 Pro von ATi hat nur 8
die Geforce FX 5900 Ultra, gar nur 4 ! "

merkt ihr es?
Findet sich momentan in jedem Hardwareartikel wieder.

Mr. Lolman
2004-01-18, 21:17:45
Original geschrieben von aths
...in DX7 und DX8 steht die 5600 der 5700 (taktbereinigt) kaum nach.

Im Normalfall kauft man keine taktbereinigten Karten.

StefanV
2004-01-18, 21:20:13
Original geschrieben von Gast
Was hat das mit Speichertakt zu tun? Der 9600 XT hat 300 MHz(etwas zu wenig) kommt aber mit dem GeforceFX 5700 Ultra ganz gut mit! Der wäre mit 400 MHz auch gut bedient(Speicher) aber was macht Nvidia nicht alles fürs marketing!

1. ??
Findest du nicht 133MHZ Speichertakt (bei einem 64bit Interface) in der heutigen Zeit nicht 'etwas' wenig??

2. ja, aber innerhalb einer Architektur ist der Speichertakt schon nicht unwichtig, da es innerhalb einer Familie nicht sein kann, daß bei 2 Karten mit gleicher Füllrate und unterschiedlichem Speicherinterface die Karte mit dem langsamen Speicherinterface schneller sein kann...

PS: 7,5ns Speicher ist der letzte Müll, der wird nichtmal mehr auf DIMMs verbaut (da findet man meist 5-6ns Chips)...

tb
2004-01-18, 21:59:12
GeForce3: 600-800 pipeline stages
– 57 million transistors

Pentium IV: 20 stages
- 42 million transistors

http://www.ce.chalmers.se/undergraduate/D/EDA425/lectures/gfxhw.pdf


Thomas

CrazyIvan
2004-01-18, 23:15:51
@ SP

Recht hast Du. Selbst vor 4 Jahren hab ich mit meiner Geforce 2 MX(Core 166 / RAM 183 Mhz (SDRAM)) über die Leute gelacht, die sich ne GF2 MX mit 64 bit DDR RAM mit 166 Mhz gekauft haben.

Unglaublich, dass es die gleiche verkrüppelte Speicherbestückung auf heutigen Boards noch geben kann. Eigentlich müsste man Albatron glatt wegen Etikettenschwindels und Volksverdummung verklagen... ;D

MadManniMan
2004-01-19, 01:11:50
Das ist die Tücke der DDR-Vermarktung. Hie und Da sind auch mal Leute so ehrlich, die tatsächliche physikalische Taktung zu erwähnen -> Trittbrettfahrer. Und wenn ich mir die Verpackung der R9600Pro der Schwester vom CannedCaptain so anschau, dann lesen sich 400/400MHz doch eigentlich ziemlich pralle, nich?
Und auch die "333"MHz meiner R9000 stehen auf dem Papier ganz gut da.

Ach und Onkel Spamm0rfroind: WTH ist die Göttin, die dich just verkörpert?

Ailuros
2004-01-19, 03:10:56
Eigentlich ja. Aber eher aus "philosopischen" Gründen. Es gibt kaum Spiele, die DX9-Shader nutzen, und in DX7 und DX8 steht die 5600 der 5700 (taktbereinigt) kaum nach.

Ob der Unterschied im VS und was man eigentlich damit anrichten kann nur "philosophisch" ist bildet sich ja in realen Spielen wohl ab; wer hat dx9.0 ueberhaupt erwaehnt?

Kaum ist gut LOL :D

Ailuros
2004-01-19, 03:25:19
Original geschrieben von BlackBirdSR
ach, ich glaube den Beiden bei der GS durchaus, dass sie das halbwegs verstehen.
Das Problem bei der GS scheint mir allerdings ein Anderes zu sein.

Im Zuge des Hypes (der seit einiger Zeit der Primäre Stil der GS ist) und der totalen Simplifizierung allen Inhalts, damit es auch der letzte Noob versteht, werden Details einfach verzerrt oder absichtlich falsch dargestellt.

Der Leser wird also absichtlich verarscht, damits einfacher zu lesen ist, und cooler klingt,.

Die Volari hat satte 16 Pipelines
Radeon 9800 Pro von ATi hat nur 8
die Geforce FX 5900 Ultra, gar nur 4 ! "

merkt ihr es?
Findet sich momentan in jedem Hardwareartikel wieder.

Ein Reviewer kann dann nur wegen seines mangelden Wissens angeklagt werden.

Der oben aufgefuehrte Mist kommt ja eigentlich von den PR/marketing Abteilungen von diversen IHVs und dabei beziehe ich mich mehr auf die sogenannten 16 pipelines der Volari.

Darf ich mal kurz ein bisschen mehr Zeit verschwenden? Als PCHG-Thilo fragte was fuer tests wir von Volari sehen moechten, dachte ich sofort an MDolenc's fillrate tester. Die Resultate vom ersten Treiber schlugen eher einen 2*4 setup vor; ich beantrage schon seither neuere Daten von neueren Treibern von anderen Volari Besitzern aber bis jetzt hab ich noch nichts bekommen.

Der grosse Widerspruch ist in dem Fall dass laut XGi jeder Volari V8 chip bis zu 4 PS faehig ist; wie das jetzt Sinn macht mit einem 2*4 hypothetischen Aufbau ist mir fremd.

Wie dem auch sei in reiner Theorie ist dual chip V8 wohl tatsaechlich auf Papier ueber 16 texture ops faehig, was wohl gar nichts sagt, da dem Ding einfach nicht genug Bandbreite dafuer zur Verfuegung steht. Und nein texture ops oder TMUs als pipelines anzugeben ist Schwachsinn und kommt von den Angaben des IHVs selber.

Im Gegensatz bei R3xx/NV3x ist jeder chip ueber 8 texture ops faehig, und bei reinen multitexturing Fuellraten ist es wohl egal ob es sich um einen 4*2 oder 8*1 setup handelt. Nichtsdestominder ob ein 128bit oder 256bit bus, Bandbreite geht den beiden mit den 8 texture ops wohl nicht aus.

MadManniMan
2004-01-19, 03:34:08
Einen freundlichen Gruß an unsere Nachtschwärmer :wink:

Ich frage mich auch gerade wieder, was dies groteske Ungetüm von XGI eigentlich für einen "Aufbau" haben mag. Schließlich dürfte es an Bandbreite nicht mangeln, wohl aber an Füllrate - in jedweder Art und Weise.

Ailuros
2004-01-19, 04:05:36
Wieso mangelt es nicht an Bandbreite?

(16*32*300.000.000) / 8 = 19.2GB/sec

Nun rechne mal die wahre Bandbreite des Dings aus, aber bitte mit 128bits buswidth ;)

MadManniMan
2004-01-19, 05:23:47
Original geschrieben von Ailuros
19.2GB/sec

Nun rechne mal die wahre Bandbreite des Dings aus, aber bitte mit 128bits buswidth ;)

Mach mal langsam, der Manni wird müde ;)

Also mein Kenntnisstand berichtet mir von entgültigen 350MHz beim Speicherle. Ergo schonmal wieder ein bissel mehr. Aber da mußt du mich jetzt aufklären: AFAIR wars doch ein 2fach unterteilter Controller?

Wie dem auch sei: an die 16 Pipes und damit knapp 5GP/s bzw gut 5,5 kann ich einfach nicht glauben. Nee. Eher find ich ne Boygroup toll. *schüttel*

Mach ma hin mit antworten, ich muß bald aufstehen :D

Ailuros
2004-01-19, 05:38:48
3dmark 2k1 oder 2k3 messen Fuellraten eher verbunden mit Bandbreite (na ja man kann es auch anders ausdruecken). Schau Dir nochmal genau die Fuellraten von der VolariDuo an, in dem Sinn.

Ich wuerde sagen dass AFR eher das Problem hier ist und bei 350MHz DDR gibt es eine Bandbreite von 11.2GB/s mit 128bit. Willst Du Bandbreite pro chip oder pro frame berrechnen? Vereinfacht teilen sich die chips die frames untereinander auf.

MadManniMan
2004-01-19, 05:50:57
Original geschrieben von Ailuros
3dmark 2k1 oder 2k3 messen Fuellraten eher verbunden mit Bandbreite (na ja man kann es auch anders ausdruecken).

Gerade deshalb empfinde ich dies Gedöhns als so unsinnig nicht. Meinen persönlichen Erfahrungen zufolge ist das ein guter Indikator für tatsächliche Performance in einem ineffektiv(!) geproggten und mit 2*MS laufen gelassenen Game. Ist natürlich blöde, dabei jetzt das SiS-Fliegerchen in einen Quervergleich einzuladen...

Original geschrieben von Ailuros
Schau Dir nochmal genau die Fuellraten von der VolariDuo an, in dem Sinn.

:D Schön ausgedrückt!
Aber da ist grad mein Problem: seit etwa einem Monat habe ich meinem RL unverhofft viel Aufmerksamkeit gewidmet, wodurch mein mittleres "Ich-hab-ub0r1337-viel-Ahnung-von-3D-Kärtchen"-Niveau etwas absackte.

Hättest nen Link zu soetwas, würd ich mich freuen :)

Original geschrieben von Ailuros
Ich wuerde sagen dass AFR eher das Problem hier ist und bei 350MHz DDR gibt es eine Bandbreite von 11.2GB/s mit 128bit. Willst Du Bandbreite pro chip oder pro frame berrechnen? Vereinfacht teilen sich die chips die frames untereinander auf.

Bandbreite /Chip und /Frame müßten so gesehen gleich sein. Jeder hat 350*256/8 GB je Sekunde. Und beim Alternate Frame Rendering dürfte garantiert nicht mehr Bandbreite pro eben jenem Bild übrig bleiben. Und da AFR grausig ineffektiv ist, bleibt nicht viel Luft, das ist schon richtig... wie gesagt: wie waren die Murkszahlen nochmal?

Ailuros
2004-01-19, 06:02:48
Ich bin zu faul jetzt nochmal reviews auszugraben. Such mal bei x-bit labs oder anderen sites die sich mit dem Ding beschaeftigt haben nach.

Der Punkt ist dass bei gleicher Taktrate die Volari Duo eine doppelt so hohe theoretische Fuellrate zeigen sollte als z.B. eine R3xx (16TMUs im Vergleich zu 8TMUs).

Ganz einfach theoretisch bei sagen wir mal 300MHz:

8*300MHz = 2400MTexels/sec
16*300MHz = 4800MTexels/sec

Wenn jetzt die Resultate im zweiten Fall um einiges niedriger liegen als bei der obrigen Theorie, dann heisst es wohl dass die verfuegbare Bandbreite es nicht erlaubt dass alle TMUs voll ausgenutzt werden koennen.

MadManniMan
2004-01-19, 06:27:33
Original geschrieben von Ailuros
Ich bin zu faul jetzt nochmal reviews auszugraben. Such mal bei x-bit labs oder anderen sites die sich mit dem Ding beschaeftigt haben nach.

Hey ich hatte da sogar noch was im Cache, danke :D Aber BTW, DAS ist doch ein Musterbeispiel für ein Papierfeaturele...

http://www.xbitlabs.com/images/video/xgi-volari/fillrate/fillrate2_colordis_zen.gif

Original geschrieben von Ailuros
Der Punkt ist dass bei gleicher Taktrate die Volari Duo eine doppelt so hohe theoretische Fuellrate zeigen sollte als z.B. eine R3xx (16TMUs im Vergleich zu 8TMUs).

Ganz einfach theoretisch bei sagen wir mal 300MHz:

8*300MHz = 2400MTexels/sec
16*300MHz = 4800MTexels/sec

Wenn jetzt die Resultate im zweiten Fall um einiges niedriger liegen als bei der obrigen Theorie, dann heisst es wohl dass die verfuegbare Bandbreite es nicht erlaubt dass alle TMUs voll ausgenutzt werden koennen.

Nun du hast schon sehr recht. Beim Murks01 schafft das Brett "just" 1.6MPixel, was aber immerhin nochwas mehr als meine R95P ist :naughty: Bei MgeTexel werdens dann aber kaum mehr 2,nochwas/sec. Besonders auffällig ist das absacken beim Switch auf 32bit Texturen. Also irgendwie.... gelle?

Das Problem ist aber imho noch eher ein anderes. Bei den diversen Fillratetests kommt das Ding anfangs scheinbar noch klar, mit Texturen rutscht der Ramsch jedoch durchgängig und ruckartig unter 300MPix/s.
Das versteh ich echt nicht. Entweder die Leute bei SiS sind absolut unfähig, oder das Teil ist irgend verbuggt. Wobei ich nach dem Resolution-Cheat an gar nichts mehr glaube...

Gaestle
2004-01-19, 11:58:28
Original geschrieben von MadManniMan
Das Problem ist aber imho noch eher ein anderes. Bei den diversen Fillratetests kommt das Ding anfangs scheinbar noch klar, mit Texturen rutscht der Ramsch jedoch durchgängig und ruckartig unter 300MPix/s.
Das versteh ich echt nicht. Entweder die Leute bei SiS sind absolut unfähig, oder das Teil ist irgend verbuggt. ...

Wie ist das egentlich bei Fillrate-Testern? Beanspruchen die die Speicheranbindung genauso stark wie Tester mit "richtigen" Texturen?

Grüße

Gast
2004-01-19, 12:11:37
Original geschrieben von Gaestle
Wie ist das egentlich bei Fillrate-Testern? Beanspruchen die die Speicheranbindung genauso stark wie Tester mit "richtigen" Texturen?

Grüße

??? Was sind denn "richtige" Texturen?

BUGFIX
2004-01-19, 14:03:31
Hi!
was mich am ganzen Diskurs hier etwas stört ist die Tatsache das manche Leute (und irgenwie werden es immer mehr) aus irgendwelchen Benchmurkxergebnisen mittels abenteuerlicher Hirnarkobatik auf die mögliche Architektur des Grafikchips schließen.
Aber nun zum Thema:

Selbstverständlich sind HW- und 3d-Seiten auf News angewiesen. Unsinnig hingegen ist es auf irgendwelche wilden Spekualtionen (siehe oben) zu verlinken (auch nicht wenn das eigene Forum ist).
Letzten endes läuft das doch nur daraf aus das irgendjemand die vermutung äußert, dass "... der neue CHIP XYZ2 wahnsinniges potential wegen .... " was nichts anderes heißt als: ! CHIP XYZ2 KANN schneller sein als alles zuvor Dagewesene !.
Leider vergessen viele dass das nur eine MÖGLICHKEIT ausdrückt - denn was wirklich darüber entscheidet ist:
1) Treiber
2) Unterstützung seitens der Spiele Programmierer

IMO sind heute die größten Schwächen bei 1) zu finden.

MfG

BUGFIX

Exxtreme
2004-01-19, 14:21:47
Original geschrieben von BUGFIX
Hi!
was mich am ganzen Diskurs hier etwas stört ist die Tatsache das manche Leute (und irgenwie werden es immer mehr) aus irgendwelchen Benchmurkxergebnisen mittels abenteuerlicher Hirnarkobatik auf die mögliche Architektur des Grafikchips schließen.

Naja, mittels verschiedener Benchmark-Szenarien kann man schon grob einschätzen um was für eine Architektur es sich handelt. Mit einer richtigen Kombination aus verschiedenen Filterarten und der Menge der Texturen kann man sich schon ein Bild machen.

BUGFIX
2004-01-19, 14:50:00
Sicher , und wenn ich den Treiber ändere bzw die Anwenung umbenenne? Dann sind die ganzen ergebnisse der "Benchmark-Szenarien" fürn eimer.

@Exxtreme
Du weiß was ein naturalistischer Fehlschluss ist ?
Denn genau dass liegt hier vor.

MfG

BUGFIX

Ailuros
2004-01-19, 15:37:43
Original geschrieben von BUGFIX
Hi!
was mich am ganzen Diskurs hier etwas stört ist die Tatsache das manche Leute (und irgenwie werden es immer mehr) aus irgendwelchen Benchmurkxergebnisen mittels abenteuerlicher Hirnarkobatik auf die mögliche Architektur des Grafikchips schließen.
Aber nun zum Thema:

Selbstverständlich sind HW- und 3d-Seiten auf News angewiesen. Unsinnig hingegen ist es auf irgendwelche wilden Spekualtionen (siehe oben) zu verlinken (auch nicht wenn das eigene Forum ist).
Letzten endes läuft das doch nur daraf aus das irgendjemand die vermutung äußert, dass "... der neue CHIP XYZ2 wahnsinniges potential wegen .... " was nichts anderes heißt als: ! CHIP XYZ2 KANN schneller sein als alles zuvor Dagewesene !.
Leider vergessen viele dass das nur eine MÖGLICHKEIT ausdrückt - denn was wirklich darüber entscheidet ist:
1) Treiber
2) Unterstützung seitens der Spiele Programmierer

IMO sind heute die größten Schwächen bei 1) zu finden.

MfG

BUGFIX


Ich bin mir absolut sicher dass im oben erwaehnten Fall, gute Treiber und Entwickler Unterstuetzung Dir die ganzen hypothetischen 16 Pipelines freisetzen werden. Noch besser Du bekommst Industrie-fuehrende Bildqualitaet und Leistung alles in einem. ;D

Nachtrag:
http://www.xbitlabs.com/articles/video/display/xgi-volari.html

Demirug
2004-01-19, 16:41:39
Original geschrieben von Ailuros
Nachtrag:
http://www.xbitlabs.com/articles/video/display/xgi-volari.html

Pack das Salzfass weg.

@BUGFIX: Man nimmt halt was man bekommt. Da immer noch viele auf das gute alte AxB Shema stehen veruscht man eben auch Zwanghaft alles darauf hinzubiegen.

Das dumme dabei ist das man mit den "richtigen" syntetischen Tests einem Chip plötzlich das Erscheinungsbild einer ganz andere Architektur aufzwingen kann. Ich sehe darin ein viel grösseres Problem. Da werden mit einem sicherlich gutgemeinten Testprogramm bei ein paar Fälle die Fillrate ermittelt und das ganze dann direkt auf eine Struktur abgebildet und der Chip danach bewertet.

Im Vorfeld sind solche Spekulationen doch ein harmlosses Spiel aber sie sind ja nicht beendet wenn es die Chips gibt.

Gast
2004-01-19, 20:30:00
Original geschrieben von Demirug

[..]
Da werden mit einem sicherlich gutgemeinten Testprogramm bei ein paar Fälle die Fillrate ermittelt und das ganze dann direkt auf eine Struktur abgebildet und der Chip danach bewertet.

Im Vorfeld sind solche Spekulationen doch ein harmlosses Spiel aber sie sind ja nicht beendet wenn es die Chips gibt.

Genau das meinte ich.
Wir (und da schließ ich frecherweise jetzt mal ALLE , also auch 3dc ein) sollten lernen unsere (Be)Wertungen der Faktenlage entsprechend abzugeben, und nicht etwas verteufeln bzw loben weil wir darin etwas sehen was es nicht ist .
Klar ganz so ausführlich wie jetzt werden manche Previews dann nichtmehr sein, aber das brauchen sie doch eigentlich garnicht.

MfG

BUGFIX

Demirug
2004-01-19, 21:26:49
Original geschrieben von Gast
Genau das meinte ich.
Wir (und da schließ ich frecherweise jetzt mal ALLE , also auch 3dc ein) sollten lernen unsere (Be)Wertungen der Faktenlage entsprechend abzugeben, und nicht etwas verteufeln bzw loben weil wir darin etwas sehen was es nicht ist .
Klar ganz so ausführlich wie jetzt werden manche Previews dann nichtmehr sein, aber das brauchen sie doch eigentlich garnicht.

MfG

BUGFIX

Die Previews (wenn echte Hardware erstellt) sind irgendwie sowieso für die Tonne. Mehr als das Pressematerial abschreiben kann man dafür sowieso nicht. Bekommt man kurz eine echte Karte dann sollte man auch nicht mehr tun als kurz seinen Eindruck davon schildern.

Verzichtet man allerdings auf das übliche "Pipeline*TMU Schema" im Technik-teil eines Reviews wird dieser viel aufwendiger weil man sich ja dann wirklich mit der Verhalten des Chips auseinadersetzten muss.