PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 3 (der letzte?)


|MatMan|
2007-01-04, 19:31:46
Mich persönlich interessiert, ob der R600 so neu sein wird wie der G80.
Hehe mich auch, ich fürchte ja fast, es ist wieder nur ein noch weiter aufgebohrtes R300 Design :tongue:

deekey777
2007-01-04, 19:34:51
Hehe mich auch, ich fürchte ja fast, es ist wieder nur ein noch weiter aufgebohrtes R300 Design :tongue:
Hohoho, Vorsicht. Der R520 ist (schon) alles andere als ein aufgebohrter R300.

Gast
2007-01-04, 19:35:56
Seid dem Test doch dankbar, immerhin führte er dazu, dass ein paar Seiten dieses Thrads gefüllt werden konnten und vielleicht noch werden. Echte, gesicherte Neuigkeiten scheints nicht zu geben. Gabs die überhaupt schon? Ist doch hier alles wilde Spekulation ohne großen Nährwert.

Ailuros
2007-01-04, 19:38:14
Mich persönlich interessiert, ob der R600 so neu sein wird wie der G80.

Kommt ganz drauf an was Du mit neu genau meinst. Ich wuerde momentan R600 tatsaechlich als einen hybriden zwischen Xenos und R5x0 bezeichnen, waehrend G80 wohl mit sehr wenigen Aspekten der vorigen NV Architekturen verwandt ist.

deekey777
2007-01-04, 20:28:57
Kommt ganz drauf an was Du mit neu genau meinst. Ich wuerde momentan R600 tatsaechlich als einen hybriden zwischen Xenos und R5x0 bezeichnen, waehrend G80 wohl mit sehr wenigen Aspekten der vorigen NV Architekturen verwandt ist.
Die Thread-Verwaltung wäre da eine der Fragen: Ist der R600-"Ultra-Threaded-Processor" eine Weiterentwicklung des R520/R580 oder des Xenos. Auch stellt sich die Frage, wie groß die Threads sein werden. Bei dem Übergang vom R520 zum R580 stieg die Threadgröße von 16 Pixeln auf 48. Beim G80 sind es 32 Pixel oder 16 Vertizen, beim Xenos 16.

PS: Einen neuen und hoffentlich letzten Teil wird es nach dem Update der Forumssoftware geben (hoffentlich ist bis dahin das "Review" vergessen).

Ailuros
2007-01-04, 21:14:03
Die Thread-Verwaltung wäre da eine der Fragen: Ist der R600-"Ultra-Threaded-Processor" eine Weiterentwicklung des R520/R580 oder des Xenos. Auch stellt sich die Frage, wie groß die Threads sein werden. Bei dem Übergang vom R520 zum R580 stieg die Threadgröße von 16 Pixeln auf 48. Beim G80 sind es 32 Pixel oder 16 Vertizen, beim Xenos 16.

PS: Einen neuen und hoffentlich letzten Teil wird es nach dem Update der Forumssoftware eröffnet (hoffentlich ist bis dahin das "Review" vergessen).

http://www.xbitlabs.com/images/video/gf8800/specifications/DX10_specs.gif

http://www.xbitlabs.com/articles/video/display/gf8800_2.html

Gast
2007-01-04, 21:24:18
Kommt ganz drauf an was Du mit neu genau meinst. Ich wuerde momentan R600 tatsaechlich als einen hybriden zwischen Xenos und R5x0 bezeichnen, waehrend G80 wohl mit sehr wenigen Aspekten der vorigen NV Architekturen verwandt ist.

Du hats selbst gesagt, das die Shader ein Zwischending vom R5x0 und vom Xenos sind.

Der Xenos hat eine MADD-Vec4-ALU und eine ADD-Scalare-ALU.
(Anders komm ich nicht auf 9 Flops)

Die R5x0-Serie hat MADD3+ADD3 und MADD+ADD, d.h. der R600 könnte MADD4 und eine MADD haben.
Das wären genau 10 Flops und bei 64 Shader und bei 800Mhz wären das 512 Gflops.

Das fände ich ziemlich ausgeglichen. Wie findet ihr diese Idee?

seahawk
2007-01-04, 21:58:10
:)

deekey777
2007-01-04, 22:21:40
Du hats selbst gesagt, das die Shader ein Zwischending vom R5x0 und vom Xenos sind.

Der Xenos hat eine MADD-Vec4-ALU und eine ADD-Scalare-ALU.
(Anders komm ich nicht auf 9 Flops)

Die R5x0-Serie hat MADD3+ADD3 und MADD+ADD, d.h. der R600 könnte MADD4 und eine MADD haben.
Das wären genau 10 Flops und bei 64 Shader und bei 800Mhz wären das 512 Gflops.

Das fände ich ziemlich ausgeglichen. Wie findet ihr diese Idee?
Die Idee hatte ich auch (R520er VS-ALUs bieten auch 10 Flops pro Takt).
Tja, das Problem ist, dass der gleiche Ailuros gegen gerade Zahlen allergisch ist.
;(
seahawk, etwas mehr schreiben als nur einen Smiley. :)

Ailuros
2007-01-04, 23:07:19
TK Einheiten auf Papier ;)

deekey777
2007-01-04, 23:15:19
In der neuen PCGH steht, dass die Herausgeber der Zeitschrift mit dem R600 nicht vor Ende Februar rechnen.;(

Ailuros
2007-01-04, 23:39:35
In der neuen PCGH steht, dass die Herausgeber der Zeitschrift mit dem R600 nicht vor Ende Februar rechnen.;(

Wenn ja dann in sehr begrenzten Mengen. Wo genau ist mein Link ueber das chinesische Neue Jahr? ;)

Steht sonst noch was interessantes drin? (ich hab ja keinen Zugang zu der Zeitschrift hier)

deekey777
2007-01-04, 23:53:48
Ich habe die PCGH in erster Linie wegen des G80-Artikels geholt. In diesem wird sehr verständlich erklärt, warum die skalaren ALUs des G80 so effektiv sind.

Ailuros
2007-01-04, 23:56:21
Ich habe die PCGH in erster Linie wegen des G80-Artikels geholt. In diesem wird sehr verständlich erklärt, warum die skalaren ALUs des G80 so effektiv sind.

Solche Artikel sollten mit dem Segen von PCGH (nach der naechsten Ausgabe von der Zeitschrift) irgendwie ins Netz kommen.

deekey777
2007-01-05, 00:41:55
An sich steht im aths' Artikel zum G80 wirklich alles, nur ist in der PCGH anhand der grafischen Darstellung noch deutlicher, wo die Stärke bei der Ersparnis liegt.
Von aths:
Der G80 hat nun "skalar" genannte ALUs, aber immer für 16 Pixel zusammen. Man kann deshalb auch von einer Vec16-ALU sprechen, die für 16 Pixel jeweils eine einzelne Vektor-Komponente, sprich einen Skalar berechnet. Im Klartext: Der G80 hat keine 128 skalaren Pipelines. Ebensowenig hat der G70 24 Pixel-Pipelines – es sind sechs Quadpipes. Der G80 hat acht Vec16-Pipelines, die aber effizienter genutzt werden als die G70-Rechenwerke.
Angenommen, im Shadercode folgen drei skalare Operationen aufeinander. Diese drei Operationen benötigen im NV40 und G70 (oder in einer aktuellen Radeon-GPU) zwei Takte, weil dort pro Takt maximal zwei unterschiedliche Operationen "nebeneinander" ausgeführt werden können. Dabei gibt es noch weitere Einschränkungen, die uns hier aber im Detail nicht interessieren. Wie schon gesagt berechnet die Quadpipeline pro Takt vier Pixel. Der G80 benötigt für drei skalare Operationen natürlich drei Takte, und nicht nur zwei – aber berechnet dies dann auch für die vierfache Pixelmenge (16 statt vier Pixel)! "Effektiv" benötigt er also 0,75 statt zwei Takte.

Und jetzt die PCGH-Tabelle:
Für 16 Pixel braucht man 4 Takte beim G71 pro Quad-Pipe, beim G80 auch. Die G71-ALUs sind ja Vec4-ALUs (3+1, 2+2), sie können also bis zu Vec4- bzw. Vec3+Scal-Operationen pro Pixel in einem Takt ausführen (RGBA). Die Vec16-ALU braucht dafür vier Takte: Zuerst wird Rot berechnet, dann Grün, Blau und zB Alpha. Bei Vec3 sind es beim G71 weiterhin vier Takte, beim G80 nur drei usw. Die Quad-Pipe des G71 läuft mit 650 MHz, die Vec16-ALU des G80 mit 1350 MHz.
Darum sind 64 Vec4-ALUs nie und nimmer 256 "Vec1-ALUs".

robbitop
2007-01-05, 11:05:23
Hohoho, Vorsicht. Der R520 ist (schon) alles andere als ein aufgebohrter R300.
Im R520 steckt noch jede Menge vom R300.

paul.muad.dib
2007-01-05, 11:08:24
Wie Demirug schon geschrieben hat: Die Leute sind ausgehungert. Und ich wette, die meisten wissen, dass an diesem "Review" irgendwas stinkt. Trotzdem hofften viele insgeheim, dass dieser Quatsch echt ist.


Dazu kann ich mich zählen, wäre halt schön, wenn das stimmen würde. Andererseits wird es mit der neuerlichen Verschiebung noch unwahrscheinlicher. Wenn der R600 so gut läuft, dann könnte ATI ihn doch jetzt schon herausbringen. Und wenn nur wenige Chips diese Taktraten schaffen, dann könnten sie den Takt um 10% senken, wäre immer noch schnell genug.
Zu den Einführungspreisen wäre die Nachfrage eh' nicht so hoch, aber damit können sie immerhin schon mal was anbieten.
Mit dem Respin könnten sie dann die Ausbeute erhöhen und die Preise senken.

Du hats selbst gesagt, das die Shader ein Zwischending vom R5x0 und vom Xenos sind.

Der Xenos hat eine MADD-Vec4-ALU und eine ADD-Scalare-ALU.
(Anders komm ich nicht auf 9 Flops)

Die R5x0-Serie hat MADD3+ADD3 und MADD+ADD, d.h. der R600 könnte MADD4 und eine MADD haben.
Das wären genau 10 Flops und bei 64 Shader und bei 800Mhz wären das 512 Gflops.

Das fände ich ziemlich ausgeglichen. Wie findet ihr diese Idee?

Ich habe keine Ahnung, wie viele Dimensionen die meisten eingesetzten Vektoroperationen haben und wieviel Rohleistung dementsprechend bei Vec4 gegenüber 4 Vec1 typischerweise verlorengeht.

Aber diese Vorgehensweise entspricht imo nicht ATIs Philosophie. Bis jetzt haben sie immer relativ wenig Rohleistung mit hoher Effizienz angeboten.

Und eine effiziente Auslastung erreicht man wohl mit skalaren Unified Alus, die zudem noch möglichst flexibel angesprochen werden können, also ansprechbar von jedem Quad durch eine Threading Einheit.

Ist natürlich auch eine Frage des Transistor Bedarf ob Effizienz billiger oder teurer als Rohleistung ist.

Ailuros
2007-01-05, 11:12:17
Darum sind 64 Vec4-ALUs nie und nimmer 256 "Vec1-ALUs".

Sind es denn wirklich 64 Vec ALUs? Ich hab ernsthafte Gruende dies zu bezweifeln und warte erst den Launch ab, denn ich kann als Laie aus meiner Position nicht entscheiden welche der gegensprechenden Fraktionen recht hat.

Und ja selbstverstaendlich ist es korrekter G80 als 8-cluster chip anzusehen. Dass die 128 SPs nur eine oede Marktingnummer sind ist doch klar; als Reaktion wirbt man jetzt mit einer um etliche Male hoeheren Nummer.

Momentan kann ich nur die groben Marktingzahlen erreichen und versuche diese als Laie in eine halbwegs logische Reihe zu bringen. Aber bei der Transistoren-Anzahl des R600 kann ich bei bestem Willen nicht wissen wohin all dieses eingeflossen ist. Lass TA/TF und ROPs links liegen (wobei diese ohnehin insgesamt weniger sind) und denk nach wieviel Transistoren pro Cluster ATI genau investiert haben koennte. Gibt es wirklich keinen einzigen Weg wenn man mehr Transistoren pro cluster verbratet, eine aehnliche Effizienz zu erreichen selbst wenn nicht alle Einheiten scalar sind (ehrliche Frage)?

deekey777
2007-01-05, 11:13:47
Im R520 steckt noch jede Menge vom R300.
Was spricht denn dagegen? Gar nichts. Die ROPs sind bis auf MSAA bei FP-Formaten und dem 1010102 gleich, die TMUs sind gleich, die PS-ALUs sind dem Vec3+1-Schema treu geblieben usw.
Aber es ist kein aufgebohrter R300, das wäre der R420, zB Phasenkonzept des R420 gegen Threading-Konzept des R520.

PS: Ich sehe gerade, dass es die Quotes mit dem Update verlinkt werden. :up:

Gast
2007-01-05, 11:33:29
Aber diese Vorgehensweise entspricht imo nicht ATIs Philosophie. Bis jetzt haben sie immer relativ wenig Rohleistung mit hoher Effizienz angeboten.Höh? R420 vs. NV40?

deekey777
2007-01-05, 11:39:52
Sind es denn wirklich 64 Vec ALUs? Ich hab ernsthafte Gruende dies zu bezweifeln und warte erst den Launch ab, denn ich kann als Laie aus meiner Position nicht entscheiden welche der gegensprechenden Fraktionen recht hat.
64 Extreme-ALUs? :biggrin:



Momentan kann ich nur die groben Marktingzahlen erreichen und versuche diese als Laie in eine halbwegs logische Reihe zu bringen. Aber bei der Transistoren-Anzahl des R600 kann ich bei bestem Willen nicht wissen wohin all dieses eingeflossen ist. Lass TA/TF und ROPs links liegen (wobei diese ohnehin insgesamt weniger sind) und denk nach wieviel Transistoren pro Cluster ATI genau investiert haben koennte. Gibt es wirklich keinen einzigen Weg wenn man mehr Transistoren pro cluster verbratet, eine aehnliche Effizienz zu erreichen selbst wenn nicht alle Einheiten scalar sind (ehrliche Frage)?
Ich werfe eine weitere Frage rein: MIMD vielleicht? Das kostet (Logik-)Transistoren.
Edit: Oder eine feinere SIMD-Unterteilung, die auch Logik-Transistoren kostet.

paul.muad.dib
2007-01-05, 12:07:47
Höh? R420 vs. NV40?

R420 war eine Notlösung, weil R400 gecancelt wurde. R400 sollte Dank USA auch auf Effizienz setzen.

Außerdem ist eben die Frage, wie man Effizienz definiert. Der NV40 kann viel einem Takt tun, riskiert aber, dass bestimmte Einheiten (Mul) ungenutzt bleiben. Der R420 kann wenig in einem Takt tuen, nutzt aber möglichst viele Einheiten aus.

seahawk
2007-01-05, 12:23:05
Sind es denn wirklich 64 Vec ALUs? Ich hab ernsthafte Gruende dies zu bezweifeln und warte erst den Launch ab, denn ich kann als Laie aus meiner Position nicht entscheiden welche der gegensprechenden Fraktionen recht hat.

Und ja selbstverstaendlich ist es korrekter G80 als 8-cluster chip anzusehen. Dass die 128 SPs nur eine oede Marktingnummer sind ist doch klar; als Reaktion wirbt man jetzt mit einer um etliche Male hoeheren Nummer.

Momentan kann ich nur die groben Marktingzahlen erreichen und versuche diese als Laie in eine halbwegs logische Reihe zu bringen. Aber bei der Transistoren-Anzahl des R600 kann ich bei bestem Willen nicht wissen wohin all dieses eingeflossen ist. Lass TA/TF und ROPs links liegen (wobei diese ohnehin insgesamt weniger sind) und denk nach wieviel Transistoren pro Cluster ATI genau investiert haben koennte. Gibt es wirklich keinen einzigen Weg wenn man mehr Transistoren pro cluster verbratet, eine aehnliche Effizienz zu erreichen selbst wenn nicht alle Einheiten scalar sind (ehrliche Frage)?

Mal ganz aus dem grauen raus.

Wenn die VEC4 Einheiten selber flexibeler sind, dann evtl. schon.

Köntnen sie nicht nur 4+1 sondern auch 3+1+1 und 2+2+1 oder gar 2+1+1+1dann wäre der Verlust gegenüber rein skalaren Einheiten selbst im ungünstigsten Fall realtiv begrenzt. Während man im günstigsten Fall eine höheren max. Output erreicht.

reunion
2007-01-05, 12:40:56
Ich habe keine Ahnung, wie viele Dimensionen die meisten eingesetzten Vektoroperationen haben und wieviel Rohleistung dementsprechend bei Vec4 gegenüber 4 Vec1 typischerweise verlorengeht.


Natürlich lassen sich einzelnen Vektorprozessoren besser auslasten, als eine vec4-ALU. Allerdings darf man das auch nicht überschätzen. Flexible vec4-ALU erlauben eine Splittung im Verhältnis 2:2 oder auch 3:1, sodass, falls man einen passenden Befehl findet, man auch wieder eine sehr gute Auslastung erreichen kann, und das natürlich bei einen geringeren Transistorenaufwand.


Aber diese Vorgehensweise entspricht imo nicht ATIs Philosophie. Bis jetzt haben sie immer relativ wenig Rohleistung mit hoher Effizienz angeboten.


R580 ist vielleicht effektiv im Bezug auf das angestrebte Ziel von ATi, aber zumindest wenn man die Features außer Acht lässt, mit Sicherheit nicht effizient. Effizient lässt sich bei einer GPU IMHO nur über Leistung/Die-Fläche, oder über Leistung pro Watt definieren, und hier hat der R580 doch ein gewisses Defizit.

Wenn die VEC4 Einheiten selber flexibeler sind, dann evtl. schon.

Köntnen sie nicht nur 4+1 sondern auch 3+1+1 und 2+2+1 oder gar 2+1+1+1dann wäre der Verlust gegenüber rein skalaren Einheiten selbst im ungünstigsten Fall realtiv begrenzt. Während man im günstigsten Fall eine höheren max. Output erreicht.


Naja, der Haken daran ist, dass man auch immer einen passenden zweiten, oder in deinen Fällen dritten Befehl benötigt, der die Splittung dann auch ermöglicht. Denn was nützt mir eine 2:2 Splittung, wenn aktuell nur eine vec2-Operation in der Pipeline liegt?

Die ALUs des G80 sind hingegen immer voll ausgelastet, solange keine Operation die 16 Pixel unterschreitet. Hier hat G80 ein kleines Defizit in vergleich zu einer herkömmlichen vec4-ALU, die in der regel immer nur ein Quad gleichzeitig berechnet, und so mit einer feineren Granularität aufwarten kann.

dildo4u
2007-01-05, 13:46:42
Der R600 kann kommen auch gerne als Crossfire das passende Netzteil kommt noch im Q1 2007. ;)

http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/januar/ces_vorstellung_2000-watt-netzteils/

Sterems
2007-01-05, 14:11:31
Glaubt ihr das Ati vielleicht zum Launch auch ne Midhighend Karte aKA X2800 Xl für ungefähr 280 Euro Launcht?Die Karte sollte dann natürlich so schnell wie eine 8800 GTs sein...

Der R600 kann kommen auch gerne als Crossfire das passende Netzteil kommt noch im Q1 2007. ;)

http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2007/januar/ces_vorstellung_2000-watt-netzteils/

Das Netzteil ist dann wohl für 4 X2800 XTS in mega Quadfire.........

AnarchX
2007-01-05, 14:16:19
Glaubt ihr das Ati vielleicht zum Launch auch ne Midhighend Karte aKA X2800 Xl für ungefähr 280 Euro Launcht?Die Karte sollte dann natürlich so schnell wie eine 8800 GTs sein...


Das ein kleineres High-End-Modell auf R600-Basis kommt ist anzunehmen, wobei aber etwas fraglich ist ob dieses auch zum eigentlichen Launch schon kommt, wenn man schon so mit der großen Variante solche Probleme hat.

Den Preis halte ich auch etwas zu niedrig angesetzt, denke mal eine "X2800XL" wird deutlich über 300€ kosten.

Aber einfach mal abwarten, wird bestimmt bald dazu mehr Infos geben.

Gast
2007-01-05, 14:42:44
Das ein kleineres High-End-Modell auf R600-Basis kommt ist anzunehmen, wobei aber etwas fraglich ist ob dieses auch zum eigentlichen Launch schon kommt, wenn man schon so mit der großen Variante solche Probleme hat.

Den Preis halte ich auch etwas zu niedrig angesetzt, denke mal eine "X2800XL" wird deutlich über 300€ kosten.

Aber einfach mal abwarten, wird bestimmt bald dazu mehr Infos geben.
Ja denke ich auch. Allerdings muss man mal abwarten, was ATi für Spitzenmodel haben will. Könnte mir vorstellen, dass die Verkaufspreise kurz nach dem Release hier in Deutschland so um die 750 € liegen werden. Hängt natürlich auch von der Verfügbarkeit ab, aber unter 650 € wird sie mit großer Wahrscheinlichkeit nicht den Besitzer wechseln. Für "Mid High End Modelle" würde ich so um die 400 bis 450 € veranschlagen.

paul.muad.dib
2007-01-05, 14:44:18
Glaubt ihr das Ati vielleicht zum Launch auch ne Midhighend Karte aKA X2800 Xl für ungefähr 280 Euro Launcht?Die Karte sollte dann natürlich so schnell wie eine 8800 GTs sein...

Ja, bis jetzt gab's ja immer eine etwas kleinere Variante gleich mit.

9700 pro, 9700
X800 XT, X800 pro
X1800 XT, X1800 XL

Aber die XL oder pro wird wohl so bei 350-450 liegen und die XT bei 500-600, schätze ich mal. Es sei denn, es gibt zum gleichen Preis schon eine schnellere Karte von Nvidia.


//edit:
Mehr als 600 Euro für eine einzelne Karte glaube ich eher nicht. Immerhin gibt es dann die Konkurrenz aus X1950 XTX CF oder einer im Preis gefallenen 8800 GTS SLI.
Finde 600 schon arg viel, normalerweise kosten neue Karten ja um die 500.

|MatMan|
2007-01-05, 14:57:41
Was spricht denn dagegen? Gar nichts. Die ROPs sind bis auf MSAA bei FP-Formaten und dem 1010102 gleich, die TMUs sind gleich, die PS-ALUs sind dem Vec3+1-Schema treu geblieben usw.
Aber es ist kein aufgebohrter R300, das wäre der R420, zB Phasenkonzept des R420 gegen Threading-Konzept des R520.

Ja natürlich war der Vergleich mit R300 etwas reißerisch... Aber für mich ist R520/ R580 einfach eine stetige Weiterentwicklung des R300 (über die Zwischenstufe R420), oder eben der Verkauf des gleichen alten Krams, welcher etwas optimiert und erweitert wurde + eine Menge Marketing geblubber wie z.B. der Ringbus.

Ich meine es ist nicht schlimm an etwas bewährtem fest zu halten und darauf aufzubauen, macht man ja überall so, ich selber auch oft :)
Aber manchmal muss man halt richtig von vorne anfangen um alte Limitationen über Bord zu werfen. nVidia scheint das häufiger gemacht zu haben und ich hoffe ATI war beim R600 auch so mutig bzw. es hat geklappt und nicht wie beim (ominösen) R400...

Gast
2007-01-05, 14:57:49
Mehr als 600 Euro für eine einzelne Karte glaube ich eher nicht. Immerhin gibt es dann die Konkurrenz aus X1950 XTX CF oder einer im Preis gefallenen 8800 GTS SLI.
Finde 600 schon arg viel, normalerweise kosten neue Karten ja um die 500.
Ja, theoretisch schon. Aber kurz nach Release wirds einen "enormen" Run auf die Karten geben. Und je nach Verfügbarkeit kann es schnell Engpässe geben. Und wenn sich viele angenommene Spezifikationen der Karte bewahrheiten sollen, wird sie von den Herstellungskosten einer der teuersten Consumer- karten, die je gebaut wurde. Auch Nv hat ja mit der GTX so um die 620-600 € angefangen. Momentan hat sie sich um die 550 € eingependelt. Sollte der R600 wirklich manchmal 20 % und mehr besser performen, wäre ein Preis von knapp 700 € durchaus gerechtfertigt.

deekey777
2007-01-05, 14:59:03
Die ALUs des G80 sind hingegen immer voll ausgelastet, solange keine Operation die 16 Pixel unterschreitet. Hier hat G80 ein kleines Defizit in vergleich zu einer herkömmlichen vec4-ALU, die in der regel immer nur ein Quad gleichzeitig berechnet, und so mit einer feineren Granularität aufwarten kann.
Die Vec16-ALU berechnet maximal 16 Pixel pro Takt, es können auch 8 Pixel sein (und 8 Vertizen zB). Die TCPs werkeln immer an Threads, der Pixel-Thread hat die Größe von 32 Pixeln, sprich die einzelnen TCPs führen Instructions für 32 Pixel pro Batch aus, aber für maximal 16 pro Takt.
Zum Vergleich: Der Pixel-Thread beim R520 hat die Größe von 16 Pixeln, beim R580 sind dagegen schon 48.

Ailuros
2007-01-05, 15:05:51
Ich werfe eine weitere Frage rein: MIMD vielleicht? Das kostet (Logik-)Transistoren.
Edit: Oder eine feinere SIMD-Unterteilung, die auch Logik-Transistoren kostet.

AFAIK SIMD und insgesamt zwischen den clusters MIMD (ebenso wie R5x0/G80).

Ailuros
2007-01-05, 15:07:39
Mal ganz aus dem grauen raus.

Wenn die VEC4 Einheiten selber flexibeler sind, dann evtl. schon.

Köntnen sie nicht nur 4+1 sondern auch 3+1+1 und 2+2+1 oder gar 2+1+1+1dann wäre der Verlust gegenüber rein skalaren Einheiten selbst im ungünstigsten Fall realtiv begrenzt. Während man im günstigsten Fall eine höheren max. Output erreicht.

Mit dem Gedanken spiele ich auch schon seit einiger Zeit; der Haken ist dann eben dass mehrere splits auch mehr Transistoren brauchen afaik.

deekey777
2007-01-05, 15:08:45
AFAIK SIMD und insgesamt zwischen den clusters MIMD (ebenso wie R5x0/G80).
Die VS-ALUs waren bisher MIMD (G70 sowie R520).

Ailuros
2007-01-05, 15:15:25
Das ein kleineres High-End-Modell auf R600-Basis kommt ist anzunehmen, wobei aber etwas fraglich ist ob dieses auch zum eigentlichen Launch schon kommt, wenn man schon so mit der großen Variante solche Probleme hat.


Ich hab zwar nicht die blasseste Ahnung was das Thema betrifft, aber es gibt mehr Gruende dass eine leicht beschnittene R600-Variante entweder zur gleichen Zeit oder sogar etwas frueher erscheint (siehe R520 Launch) als spaeter.

Ailuros
2007-01-05, 15:16:11
Die VS-ALUs waren bisher MIMD (G70 sowie R520).

NV4x/G7x ja; R5x0 nein.

Coda
2007-01-05, 15:18:23
Gibt es wirklich keinen einzigen Weg wenn man mehr Transistoren pro cluster verbratet, eine aehnliche Effizienz zu erreichen selbst wenn nicht alle Einheiten scalar sind (ehrliche Frage)?

Laut B3D kann der G8x wirklich immer volle Auslastung seiner Einheiten fahren wenn es möglich ist. Besser geht's halt nicht.

Mit dem Gedanken spiele ich auch schon seit einiger Zeit; der Haken ist dann eben dass mehrere splits auch mehr Transistoren brauchen afaik.

Wenn man so viel splittet, dann kommt man halt irgendwann da raus wo nVIDIA ist ;)

Was mich halt wurmt: nVIDIA hat durch die Taktdomäne potentiell ziemlich viele Transistoren sparen können (was sie wohl in die optimale Auslastung der Einheiten gesteckt haben), R600 hat aber auch nicht viel mehr. Woher soll da dann die Leistung kommen? Brute-Force doppelt so viele zieht halt nicht wenn nicht auch die Auslastung optimal ist.

Ailuros
2007-01-05, 15:19:36
Sollte der R600 davon nicht genug haben?^^

Etwa auf gleichem Niveau schaetzungsweise wenn man bei G80 das NVIO Dingsbums mitberechnet. Das gerade meinte ich ja in einem meiner vorigen Posts. Mit weniger TEX Einheiten und ROPs und insgesamt weniger clusters (aber dafuer um einiges "breitere") sieht das Transistoren-budget in etwa gleich aus. Ist aber nur eine rein spekulative These von mir die nicht unbedingt Sinn machen muss.

Ailuros
2007-01-05, 15:26:16
Was mich halt wurmt: nVIDIA hat durch die Taktdomäne potentiell ziemlich viele Transistoren sparen können (was sie wohl in die optimale Auslastung der Einheiten gesteckt haben), R600 hat aber auch nicht viel mehr. Woher soll da dann die Leistung kommen? Brute-Force doppelt so viele zieht halt nicht wenn nicht auch die Auslastung optimal ist.

Deshalb stell ich ja auch dumme Fragen LOL. Ich kann Dich versichern dass ATI stur darauf besteht dass die ALUs superscalar sind und ich hab nicht an einer Stelle sondern an 5 insgesamt gefragt. Mir fehlt eben dieser eine kleine Flecken dass mein pre-release Puzzle auch schoen zusammenpasst. Momentan fehlen mir ein paar Stuecke und ich sitz hier mit einem Hammer und versuche das Ding hinzubiegen....grrrmmmffffffff :mad:

deekey777
2007-01-05, 15:29:31
NV4x/G7x ja; R5x0 nein.
Hat der R520 darum eine schwache DB-Leistung im Vertex-Teil?

Coda
2007-01-05, 15:51:57
Wenn man dyn. branching benützt schon.

Nakai
2007-01-05, 16:30:39
So endlich kein Gast mehr, als registrierter Benutzer hat man mehr Möglichkeiten^^

64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle

Das ist von Level505. Ja ich weiß, der Test ist unseriös, dennoch gibt mir dies zu denken.
Man kann viel mit 4-Way SIMD Unified Shaders meinen, wobei ich immernoch meine das man die Shader auf 128 Shader Operationen begrenzt hat um eine höhere Flexibilität zu erreichen.
Wäre das überhaupt möglich?

Deshalb stell ich ja auch dumme Fragen LOL. Ich kann Dich versichern dass ATI stur darauf besteht dass die ALUs superscalar sind und ich hab nicht an einer Stelle sondern an 5 insgesamt gefragt. Mir fehlt eben dieser eine kleine Flecken dass mein pre-release Puzzle auch schoen zusammenpasst. Momentan fehlen mir ein paar Stuecke und ich sitz hier mit einem Hammer und versuche das Ding hinzubiegen....grrrmmmffffffff

Superscalarität bei Vec4-ALUs sind doch nicht möglich.
Weiterhin wird nicht gesagt, was für Berechnungen diese ALUs können.
Ich denke ATI bleibt bei einem Verhältnis hin zum ADD.
Da ATI keine gerade Zahl benutzen wird(ail), geh ich davon aus, dass es entweder 9 Flops oder 11 Flops sind.(Vll auch 13)
Um dennoch flexibeler als NV zu sein und da die Shader eine Mischung aus Xenos und R5x0 sein sollen, muss ATI eine ziemlich aufwändige Konstruktion geschaffen haben.
Vll. MADD4 und MADD+ADD:confused:

mfg Nakai

robbitop
2007-01-05, 17:40:50
Der Begriff "superskalar" ist ja relativ weitläufig. Ich würde mich nicht daran festbeissen. Schon gar nicht, wenn die Leute die das Zeug rausgeben (ATI selbst vieleicht?) durch irgendeine wuselige/kreative Definition irgendetwas behaupten. Ähnliche Sprüche habe ich von IHVs zu vielen Dingen schon gehört (bzgl des Splittings der NV3x ALUs z.B.).

Coda
2007-01-05, 17:47:32
"Superskalar" bedeutet aber zumindest das zwei unterschiedliche Ops in der ALU gleichzeitig ausgeführt werden können.

seahawk
2007-01-05, 17:58:07
Mit dem Gedanken spiele ich auch schon seit einiger Zeit; der Haken ist dann eben dass mehrere splits auch mehr Transistoren brauchen afaik.

Dann lese ich das BlaBla über Videofunktionen, Mulitmedia-blabla von ATI und vermute, dass da auch wieder ne ganze Menge Transistoren für draufgingen. Aber irgendetwas muss da sein, dass über Vec4+1 hinausgeht.

robbitop
2007-01-05, 18:01:34
"Superskalar" bedeutet aber zumindest das zwei unterschiedliche Ops in der ALU gleichzeitig ausgeführt werden können.

Tjaja siehst du .. siehst du. Das konnte sogar schon R300. Durch schwammige Tipps der IHVs wird man desöfteren auch mal aufs Glatteis geführt.

Mal angenommen der R600 hat immernoch Vec3+1 SIMD ALUs (was IMO nicht unwahrscheinlich ist) und der Konkurent bringt den G80 mit "skalaren" ALUs (welche ja in dem Sinne gar nicht skalar sind ^^), würde ich auch nicht zugeben wollen, dass das aktuelle Design in diesem Bereich unflexibler wäre. Meine Antwort wäre es, (so wie Rene Frölecke von ATI es gern tut) Gegenargumente, schwammiges Zeug und Rosinenpickerei zu betreiben. Alles nur rein hyptotetisch. Ich kenne die Quelle von AiL schließlich nicht.

Am Ende zählt sowieso nur, was hinten rauskommt (also an Leistung). Das wird ungefähr (+/-) G80 Niveau sein. Ob das über relativ flexible, wenige ALUs oder relativ unflexible und viele ALUs geschieht, ist doch egal.

Demirug
2007-01-05, 18:07:18
Dann lese ich das BlaBla über Videofunktionen, Mulitmedia-blabla von ATI und vermute, dass da auch wieder ne ganze Menge Transistoren für draufgingen. Aber irgendetwas muss da sein, dass über Vec4+1 hinausgeht.

Warum?

ATI muß ja im Vergleich zu nvidia mehr nachrüsten. Der Ringbus den man wohl immer noch benutzt wird ebenso aufwendiger. nvidia dagen hat sich ja der Memorycrossbar entledigt.

robbitop
2007-01-05, 18:10:13
ATI muß ja im Vergleich zu nvidia mehr nachrüsten.
Inwiefern?


Der Ringbus den man wohl immer noch benutzt wird ebenso aufwendiger. nvidia dagen hat sich ja der Memorycrossbar entledigt.
Was nutzt NV denn nun anstatt des Memorycrossbar Controllers?

StefanV
2007-01-05, 18:12:51
Was nutzt NV denn nun anstatt des Memorycrossbar Controllers?
Hatten wir doch irgendwo anders schon, das man die einzelnen Recheneinheiten direkt mit dem Speicher verbindet...

Demirug
2007-01-05, 18:15:13
Inwiefern?

Bei der Textureeinheit. [/QUOTE]


Was nutzt NV denn nun anstatt des Memorycrossbar Controllers?

Die Crossbar zwischen den Shadern und den ROPs. Das hat schon seinen Grund warum die Memorycontroller jetztzu den ROPs gehören.

Coda
2007-01-05, 18:18:13
Die Crossbar hatte ATi bisher ja nicht mal.

seahawk
2007-01-05, 19:58:20
Warum?

ATI muß ja im Vergleich zu nvidia mehr nachrüsten. Der Ringbus den man wohl immer noch benutzt wird ebenso aufwendiger. nvidia dagen hat sich ja der Memorycrossbar entledigt.

Aber dann hätten sie schon ein erhebliches Effizienzproblem im Vergleich zum G80.

DrumDub
2007-01-05, 20:57:50
Die Crossbar hatte ATi bisher ja nicht mal. höh? natürlich hatte ati das bis zum r520: The memory interface of R420 remains the same structure as R300, with a four 64-bit crossbar bus, however it has been refined in two specific areas. http://www.beyond3d.com/reviews/ati/r420_x800/index.php?p=9#memory

Coda
2007-01-05, 21:04:13
höh? natürlich hatte ati das bis zum r520

Zwischen Shadern und ROPs.

DrumDub
2007-01-05, 21:10:05
Zwischen Shadern und ROPs. damit haste natürlich recht. wüsste auch nicht, dass irgendwer vor nvidia diese idee überhaupt schon mal hatte. was die genialität des g80 desgins ja nur weiter unterstreicht. ;)

reunion
2007-01-05, 22:24:46
[...]Mal angenommen der R600 hat immernoch Vec3+1 SIMD ALUs (was IMO nicht unwahrscheinlich ist) und der Konkurent bringt den G80 mit "skalaren" ALUs (welche ja in dem Sinne gar nicht skalar sind ^^), würde ich auch nicht zugeben wollen, dass das aktuelle Design in diesem Bereich unflexibler wäre. [...]

IMHO wird das Ding zumindest vec4+1 ALUs haben - alleine schon wegen dem US-Design.

Die Crossbar hatte ATi bisher ja nicht mal.

Die hatte nV bisher auch nichtmal. :rolleyes:

ATI muß ja im Vergleich zu nvidia mehr nachrüsten. Der Ringbus den man wohl immer noch benutzt wird ebenso aufwendiger. nvidia dagen hat sich ja der Memorycrossbar entledigt

Bei der Textureeinheit.

Wie meinst du das? nV hat bei G80 im Vergleich zum direkten Vorgänger G71 soweit ich das beurteilen kann ziemlich viel über den Haufen geworfen. Viel mehr kann ja ATi da kaum im Vergleich zum R580 "nachrüsten". Vorallem, wenn man bedenkt, dass G71 doch auch einige Defizite hatte.

Die Crossbar zwischen den Shadern und den ROPs. Das hat schon seinen Grund warum die Memorycontroller jetztzu den ROPs gehören.

Bei acht Shaderclustern und sechs ROPs-Clustern (AFAIK), dürfte die Crossbar aber auch nicht gerade schlank sein.

dargo
2007-01-05, 22:38:50
Auch Nv hat ja mit der GTX so um die 620-600 € angefangen. Momentan hat sie sich um die 550 € eingependelt. Sollte der R600 wirklich manchmal 20 % und mehr besser performen, wäre ein Preis von knapp 700 € durchaus gerechtfertigt.
NV hat bei 599$ für eine G8800GTX angefangen und bis heute hat sich daran nichts geändert.

Gast
2007-01-05, 22:55:42
NV hat bei 599$ für eine G8800GTX angefangen und bis heute hat sich daran nichts geändert.
Naja, ich meinte ja auch die durchschnittlichen Preise, die man in Deutschland bei einem Händler berappen musste/muss.

Ailuros
2007-01-05, 23:08:02
Wie meinst du das? nV hat bei G80 im Vergleich zum direkten Vorgänger G71 soweit ich das beurteilen kann ziemlich viel über den Haufen geworfen. Viel mehr kann ja ATi da kaum im Vergleich zum R580 "nachrüsten". Vorallem, wenn man bedenkt, dass G71 doch auch einige Defizite hatte.

Er sagte doch Textur-einheiten. Ob und wieviel hier R580 nachruesten koennte kann man dann als Beispiel hier sehen:

http://www.xbitlabs.com/images/video/gf8800/results/mdolenc_fillrate.gif

http://www.xbitlabs.com/articles/video/display/gf8800_16.html


Bei acht Shaderclustern und sechs ROPs-Clustern (AFAIK), dürfte die Crossbar aber auch nicht gerade schlank sein.

6*64 vs. 16*32

reunion
2007-01-05, 23:22:06
Er sagte doch Textur-einheiten. Ob und wieviel hier R580 nachruesten koennte kann man dann als Beispiel hier sehen:

http://www.xbitlabs.com/images/video/gf8800/results/mdolenc_fillrate.gif

http://www.xbitlabs.com/articles/video/display/gf8800_16.html


Zuerst hat er allgemein gesagt, dass ATI mehr nachrüsten muss, erst als robbitop nach einen Beispiel fragte, kamen die TMUs. Und hier fehlt auch nur die FP-Filterung. Dafür sind die TMUs schon entkoppelt. Dass die reine Texelfüllrate bei nV höher ist, ist logisch, da auch der theoretische output duetlich höher ist. Die hohe Z-Füllrate liegt an den speziellen ROPs von nV, die allerdings auch schon bei RV530 verwendung finden, aber wohl aus magelndem Nutzen bei keinem anderen ATi-Chip übernommen wurden.

Was mich bei deinem Graph auch noch wundert, ist die relativ geringe Füllrate auf G80 im Verglich zu dem theoretischen Daten.


6*64 vs. 16*32

Er hat doch gesagt, dass nV bei G80 keine Crossbar mehr zwischen den ROPs und den Speichercontrollern hat, sondern nurnoch zwischen den Shadern und den ROPs, und das die SC nun mit dem ROPs direkt verbunden sind, also zu den ROPs gehören. Das bedeutet 8*6 vs. 16*1 (da immer nur der gesamten SC angesprochen werden kann, und nicht jedes einzelne Bit), wobei ATi ja keine Crossbar hat, sondern einen Ringbus (ja, ich weiß, es ist kein echter Ringbus^^).

Coda
2007-01-06, 00:23:21
Viel mehr kann ja ATi da kaum im Vergleich zum R580 "nachrüsten". Vorallem, wenn man bedenkt, dass G71 doch auch einige Defizite hatte.

Ich zähl mal auf:

FP16-Filtering
FP32-Filtering
Vollständiger Support für Non-Power-of-2-Textures
Vollständige Orthogonalität für alle Formate was das Filtering allgemein angeht.

Nein das ist nicht trivial. Vor allem was npot angeht.

Was das Filtering angeht so war NV40 schon fast auf D3D10-Niveau, was für "Defizite" meinst du? (Es ging nicht die um Qualität der Filterung)

Das war übrigens auch der Hauptgrund warum ich die Finger von den X1000-Karten gelassen hab für meine Zwecke.

reunion
2007-01-06, 00:32:50
Ich zähl mal auf:

FP16-Filtering
FP32-Filtering
Vollständiger Support für Non-Power-of-2-Textures
Vollständige Orthogonalität für alle Formate was das Filtering allgemein angeht.

Nein das ist nicht trivial. Vor allem was npot angeht.


Hier muss ATi mit D3D10 zwangsläufig nachziehen. Aber okay, von den letzten zwei Punkten wusste ich nichts, hier fehlt mir das nötige Gruindwissen.


Was das Filtering angeht so war NV40 schon fast auf D3D10-Niveau, was für "Defizite" meinst du? (Es ging nicht die um Qualität der Filterung)


Das bezog sich nicht (nur) auf die Filterung, sondern allgemein auf den gesamten G71-Chip im Vergleich zu G80. Was auch klar aus dem Kontext hervorgeht, sofern man nicht wie du einfach zwei Sätze herausreißen würde, und diese für sich passend zusammenschnippelt. Und natürlich zählt dazu auch die Qualität.

Ailuros
2007-01-06, 03:09:51
Zuerst hat er allgemein gesagt, dass ATI mehr nachrüsten muss, erst als robbitop nach einen Beispiel fragte, kamen die TMUs. Und hier fehlt auch nur die FP-Filterung.

Und die TMUs zaehlen auch als Beispiel. Es fehlt nicht "nur" die FP-Filterung.

Dafür sind die TMUs schon entkoppelt.

Nur ist es eines der Gruende dass R5x0 fuer die fehlende Fuellrate kompensieren kann; bei RV530 hilft es aber leider oefters nicht besonders viel.

Dass die reine Texelfüllrate bei nV höher ist, ist logisch, da auch der theoretische output duetlich höher ist. Die hohe Z-Füllrate liegt an den speziellen ROPs von nV, die allerdings auch schon bei RV530 verwendung finden, aber wohl aus magelndem Nutzen bei keinem anderen ATi-Chip übernommen wurden.

Na die ROPs zwischen den beiden wuerde ich an Deiner Stelle nicht so leichten Herzens vergleichen.

Was mich bei deinem Graph auch noch wundert, ist die relativ geringe Füllrate auf G80 im Verglich zu dem theoretischen Daten.

Weil 4.5GTexels/s bei quad texturing nicht genug sind oder was? Nur wahlweise 3 Zahlen da es OT ist:

MDolenc/2048*1536*32

575/900
FFP - Pure fillrate - 13406.568359M pixels/sec
FFP - Quad texture - 4466.980469M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3818.514404M pixels/sec

575/1000
FFP - Pure fillrate - 13437.008789M pixels/sec
FFP - Quad texture - 4529.229004M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3820.126953M pixels/sec

630/900
FFP - Pure fillrate - 14423.335938M pixels/sec
FFP - Quad texture - 4730.705078M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 4121.472168M pixels/sec


Er hat doch gesagt, dass nV bei G80 keine Crossbar mehr zwischen den ROPs und den Speichercontrollern hat, sondern nurnoch zwischen den Shadern und den ROPs, und das die SC nun mit dem ROPs direkt verbunden sind, also zu den ROPs gehören.

Oder vielleicht sogar anders rum:

http://www.beyond3d.com/reviews/nvidia/g80-arch/images/g80-diag-full.png
http://www.beyond3d.com/reviews/nvidia/g80-arch/index.php?p=05

Das bedeutet 8*6 vs. 16*1 (da immer nur der gesamten SC angesprochen werden kann, und nicht jedes einzelne Bit), wobei ATi ja keine Crossbar hat, sondern einen Ringbus (ja, ich weiß, es ist kein echter Ringbus^^).

Wofuer genau soll 8*6 stehen? Es sind 6 ROP partitions mit jeweils 4 ROPs, wobei fuer jede partition ein DRAM Paar zusteht. Auf ATI's Seite hast Du pro ring stop einen ROP.

Eine Kleinigkeit waere hier noch:

575/900
FFP - Z pixel rate - 71389.796875M pixels/sec
575/1000
FFP - Z pixel rate - 78053.726563M pixels/sec
630/900
FFP - Z pixel rate - 72927.804688M pixels/sec

:biggrin:

Coda
2007-01-06, 03:21:36
Oder vielleicht sogar anders rum:

Andersrum? :|

Eine Kleinigkeit waere hier noch:

Die ROPs laufen halt immer noch in der VRAM-Clock-Domain.

Ailuros
2007-01-06, 03:35:43
Die ROPs laufen halt immer noch in der VRAM-Clock-Domain.

Immer noch? ROPs liefen auf allen vorigen chips bei der jeweiligen Taktrate und afaik ist es auch bei G80 nicht anders.

Coda
2007-01-06, 03:38:47
Nur ab NV4x soweit ich mich entsinne. Bei ATi ist das gar nicht so.

Ailuros
2007-01-06, 04:07:30
Nur ab NV4x soweit ich mich entsinne. Bei ATi ist das gar nicht so.

Nein. Es wurde abermals bestaetigt dass sowohl auf NV4x als auch auf G7x die ROPs mit dem Core-takt verbunden sind. Und es ist auch nicht anders mit G80:

Der G80 hat zwei Taktdomänen: Die Shader-ALUs (zu denen hier auch die Interpolatoren gehören) takten bei der GeForce 8800 GTX mit 1350 MHz, der Rest (zum Beispiel die Textureinheiten und ROPs) mit 575 MHz.

http://www.3dcenter.de/artikel/2006/12-28_a.php

Coda
2007-01-06, 04:17:48
Err. Dann machen deine Benchmarks grad aber mal überhaupt keinen Sinn. Und bei NV4x bin ich auch noch nicht so davon überzeugt.

Ailuros
2007-01-06, 04:26:31
Err. Dann machen deine Benchmarks grad aber mal überhaupt keinen Sinn. Und bei NV4x bin ich auch noch nicht so davon überzeugt.

Bei der Zixel Fuellrate darf ausnahmsweise auch mal die Bandbreite limitieren ;) Zu NV4x bin ich mir so sicher wie ich sein kann; die ersten 6800nonU hatten eben alle 16 ROPs aktiv obwohl ein quad deaktiviert war.

Gast
2007-01-06, 11:53:05
Meine Meinung zu den "Fake"Bench des R600

Denke das die Werte in etwa stimmen sollten, und ATI damit den Käufer unentschlossen werden lassen will, auf ..... Ah da kommt noch was .... und übertrifft sogar die 8800 GTX....
Da kommt aber auch was von NV,- dies stimmt auch wieder.
Somit will ATI mal einen Vorgeschmack präsentieren was kommen wird, ich rechne mit entgültigen Treibern und Optimierung +10 bis 15% über diesen
R600 Werten. Der R600 wird sich mit dem G81 messen lassen müssen,- und da werden sich beide die Waage in etwa halten. Dann ginge ATI´s Konzept sicherlich auf und könnten den R600 Refresh bringen,- in aller Gelassenheit da NV ihr Pulver schon verschossen hat,- und auch ATI nun mit event. Dual GPU Karten aufwarten könnte.
Aber wie gesagt, MEINE persönliche Meinung.

Winter[Raven]
2007-01-06, 12:09:05
Also wenn der R600 wirlich erst zur Cebit kommen soll, dann wird er sich ohne jede Frage gegen den G81 behaupten müssen, und dies wird bestimmt nicht so leicht sein. Bis dann der R650 kommt, kann NV am Nachfolger arbeiten...

ATI wird dieses Jahr nicht einfach haben.

reunion
2007-01-06, 12:09:41
Weil 4.5GTexels/s bei quad texturing nicht genug sind oder was?


Das ist nichtmal doppelt soviel wie ein R580, welcher nur ein Viertel des theoretischen Outputs eines G80 hat.


Wofuer genau soll 8*6 stehen? Es sind 6 ROP partitions mit jeweils 4 ROPs, wobei fuer jede partition ein DRAM Paar zusteht. Auf ATI's Seite hast Du pro ring stop einen ROP.


Es sind 8 Shadercluster und 6 ROP-Cluster, welche über eine Crossbar verbunden sind.


Eine Kleinigkeit waere hier noch:

575/900
FFP - Z pixel rate - 71389.796875M pixels/sec
575/1000
FFP - Z pixel rate - 78053.726563M pixels/sec
630/900
FFP - Z pixel rate - 72927.804688M pixels/sec

:biggrin:

Dass G80 durch seine 32 Z-Ops pro Cluster eine wahnwitzige Z-Füllrate erreicht, ist klar, für was man diese "Doom 3-Optimierung" allerdings noch immer benötigt, verstehe ich nicht ganz.

;5134326']Also wenn der R600 wirlich erst zur Cebit kommen soll, dann wird er sich ohne jede Frage gegen den G81 behaupten müssen, und dies wird bestimmt nicht so leicht sein. Bis dann der R650 kommt, kann NV am Nachfolger arbeiten...

ATI wird dieses Jahr nicht einfach haben.

Ohne zu wissen, wie die Performance bei R600 aussehen wird, ist das vollkommen haltlos. Und falls nV auf den 65nm wartet, wird es mit G81 ohnehin bis zum Jahresende dauern.

Gast
2007-01-06, 12:43:18
Dass G80 durch seine 32 Z-Ops pro Cluster eine wahnwitzige Z-Füllrate erreicht, ist klar, für was man diese "Doom 3-Optimierung" allerdings noch immer benötigt, verstehe ich nicht ganz.
Das ist bestimmte keine Doom3 Optimierung. Es gibt einige Spiele die einen Z-Pass benötigen. Viele neue Effekte benötigen ihn auch und bei D3D10 sind auch viele Konzepte darauf ausgelegt (wie predicated rendering). Dort kann man den Z-Buffer nun endlich auch als Textur binden.
Seh es einfach als D3D10 Optimierung.

Winter[Raven]
2007-01-06, 12:46:28
Ohne zu wissen, wie die Performance bei R600 aussehen wird, ist das vollkommen haltlos. Und falls nV auf den 65nm wartet, wird es mit G81 ohnehin bis zum Jahresende dauern.

Ailuros meinte mal NV wird wohl den Refresh nicht in 65µ herstellen...

Gast
2007-01-06, 12:55:11
Wie könnte man denn die Speicherchips positionieren um ein 512Bit SI zu erreichen?
Rund um die Karte, dafür müsste die Karte etwas mehr als ein Cm höher sein oder auf der Rückseite, dafür benötigt man aber 20 Layer PCB.

mfg Nakai

Hauwech
2007-01-06, 13:39:26
Frage: es werden doch teilweise Meldungen über neue Methoden bei Stacked Chips von Speicherchips ausgegeben. Würde das irgendwelche Vorteile beim GDDR RAM bringen oder wäre das hier gar nicht anwendbar?

Coda
2007-01-06, 14:26:02
Dass G80 durch seine 32 Z-Ops pro Cluster eine wahnwitzige Z-Füllrate erreicht, ist klar, für was man diese "Doom 3-Optimierung" allerdings noch immer benötigt, verstehe ich nicht ganz.

Da spricht mal wieder der Experte.

LovesuckZ
2007-01-06, 17:01:46
Dass G80 durch seine 32 Z-Ops pro Cluster eine wahnwitzige Z-Füllrate erreicht, ist klar, für was man diese "Doom 3-Optimierung" allerdings noch immer benötigt, verstehe ich nicht ganz.


Multisampling Anti-Aliasing?
Immerhin lese ich dies sehr oft im Zusammenhang mit der Z-Füllrate.
Abgesehen vom G80, schafft auch Xenos mit 4AA mit seinen 8 ROPs 64 - Z-Ops.

(+44)
2007-01-06, 17:06:46
Irgendwie hab ich ein gutes Gefühl bezüglich R600 wird schneller und nVidia muss wieder nachlegen...

Denn: Mit Glück gibts die 8800GTX-Karten in ein paar Monaten zum Ausverkaufspreis, da ATi nen schnelleren R600 gebracht hat und nVidia mit der 8900GTX nachgezogen ist.

Bei der X1800XT512 wars doch genauso, nach der X1900XT/7900GTX sind die Teile extrem günstig geworden :)

reunion
2007-01-06, 17:31:46
Da spricht mal wieder der Experte.

Da spricht mal wieder Mr. Arrogant. :rolleyes:
Wenn du dir zu gut bist, mir zu helfen, kannst du dir den Kommentar auch gleich schenken. Aber dann könntest du dich ja nicht wichtig machen. :mad:

Multisampling Anti-Aliasing?
Immerhin lese ich dies sehr oft im Zusammenhang mit der Z-Füllrate.
Abgesehen vom G80, schafft auch Xenos mit 4AA mit seinen 8 ROPs 64 - Z-Ops.

Vermutlich hast du recht. Danke.

Coda
2007-01-06, 18:12:27
Da spricht mal wieder Mr. Arrogant. :rolleyes:
Wenn du dir zu gut bist, mir zu helfen, kannst du dir den Kommentar auch gleich schenken. Aber dann könntest du dich ja nicht wichtig machen. :mad:

Das war schon einfach mal so ein Kommentar wo mir einfach die Hutschnur hochgeht. Du tust immer so als würde nVIDIA nicht ganz genau wissen was sie tun.

reunion
2007-01-06, 18:33:22
Das war schon einfach mal so ein Kommentar wo mir einfach die Hutschnur hochgeht. Du tust immer so als würde nVIDIA nicht ganz genau wissen was sie tun.

Ich habe bewusst geschrieben "das verstehe ich nicht", und nicht "das ist doch Blödsinn", oder "nV weiß nicht was sie tun". Aber du legst dir ja nicht zum ersten mal alles so zurecht, wie es dir passt.

Spasstiger
2007-01-06, 19:08:01
Dass G80 durch seine 32 Z-Ops pro Cluster eine wahnwitzige Z-Füllrate erreicht, ist klar, für was man diese "Doom 3-Optimierung" allerdings noch immer benötigt, verstehe ich nicht ganz.

http://www.3dcenter.org/artikel/2006/12-28_b.php
Die G80-ROPs sind demnach für 4x Multisampling optimiert. Die auf den ersten Blick unvernünftig hohe Zahl von bis zu 192 Z-Tests pro Takt – sofern keine Farbe im Spiel ist – bringt Nutzen bei einem vorgezogenen Z-Pass. Bisher dauerte ein vorgezogener Z-Pass im Vergleich zum eigentlichen Rendering noch so lange, so dass die im anschließenden Farb-Rendering gesparte Füllrate damit kaum aufgewogen wurde – zumal der Vertexshader zweimal benutzt werden muss.

Beim G80 stehen die Chancen besser, mit dieser Technik die Gesamtgeschwindigkeit zu steigern, zumal man sich den zweiten Vertexshader-Pass (mittels Zwischenspeicherung der Ergebnisse des ersten Passes) sparen kann. 3D-Engines mit Stencil-Schatten benötigen ohnehin einen vorgezogenen Z/Stencil-Pass. Kurz gesagt: Von der Z/Stencil-Rohleistung profitiert jede entsprechende Anwendung, angepasste Software kann nochmals deutlich effizienter mit der Vertex- und Z/Stencil-Leistung umgehen.


Doom 3 ist auf einem G80 eh total CPU-limitiert, selbst in 1600x1200 mit 4xAA. Sogar 2560x1600 mit 8xAA sollte flüssig spielbar sein auf einer 8800 GTX.

Gast
2007-01-06, 19:46:50
Ich würde das ganze andersrum aufziehen: Durch die Optimierung auf 4xAA fällt eben auch die Zixel-Füllrate höher aus - beinahe zwangsläufig, wenn man bedenkt, dass evtl. die Blender komplett orthogonal auch auf Skalar-Basis rechnen.


Q

Ailuros
2007-01-07, 10:26:23
Das ist nichtmal doppelt soviel wie ein R580, welcher nur ein Viertel des theoretischen Outputs eines G80 hat.

Huh?

650*16= 10400
575*32= 18400
-------------------------
+77%

(nach xbit labs)
G80 = 4290
R580 = 2500
-------------------------
+72%

(verwechsel die bilerp Rate nicht mit reiner Texel fuellrate)

Es sind 8 Shadercluster und 6 ROP-Cluster, welche über eine Crossbar verbunden sind.

Die ROP-Partitions und das was Du als Crossbar bezeichnest ist vereinfacht ein und das selbe. 6 partitions fuer 384bit/768MB/24ROPs, 5 partitions fuer 320bit/620MB/20ROPs und umso weniger je nach der Anzahl der partitions.

Wenn Du schon so zaehlen willst dann ist es fuer R600 nicht 16:1, sondern 4:16.

Dass G80 durch seine 32 Z-Ops pro Cluster eine wahnwitzige Z-Füllrate erreicht, ist klar, für was man diese "Doom 3-Optimierung" allerdings noch immer benötigt, verstehe ich nicht ganz.

Single cycle 4xMSAA, dual cycle 8xMSAA. Wenn Du bei den Xenos ROPs 4xMSAA mitberechnest kommst Du fuer jeweils einer der insgesamt 8 ROPs auf 32c/64z pro ROP. Faellt der Groschen jetzt? ;)

Ohne zu wissen, wie die Performance bei R600 aussehen wird, ist das vollkommen haltlos. Und falls nV auf den 65nm wartet, wird es mit G81 ohnehin bis zum Jahresende dauern.

65nm kommt fuer beide IHVs frueher als ihr erwartet. Jahresende waere verheerender fuer ATI.

Nakai
2007-01-07, 10:30:48
65nm kommt fuer beide IHVs frueher als ihr erwartet. Jahresende waere verheerender fuer ATI.

Also dann wohl zur Jahresmitte.:confused:

Ailuros
2007-01-07, 10:32:55
Also dann wohl zur Jahresmitte.:confused:

H2 2007 hoechstwahrscheinlich. Fuer mainstream/low end Q2 07' kommt von jetzt an alles in 80nm (fuer alles G8x).

Nakai
2007-01-07, 10:37:37
Da NV wohl im 80Nm-Beriech bleibt, muss ATI den Refresh des R600 schon im Spätsommer bringen. Das wären etwa 3 - 5 Monate nach dem R600, falls er im März gelaunsht wird. Das erinnert schon stark am R520 damals...^^

Anscheinend braucht ATI den 65Nm-Bereich dringender als NV, was auch klar ist, sie müssen den Rückstand bezüglich der Zeit aufholen.

mfg Nakai

dargo
2007-01-07, 11:23:35
65nm kommt fuer beide IHVs frueher als ihr erwartet.
H2 2007 hoechstwahrscheinlich. Fuer mainstream/low end Q2 07' kommt von jetzt an alles in 80nm (fuer alles G8x).

Hmm, du meinst also die High-End Produkte werden vor den Mainstream/Lowend Produkten auf 65nm umgestellt?
Das wäre allerdings unüblich. Sonst ist man immer den anderen Weg gegangen um das Risiko beim Die-Shrink zu minimieren.

Gast
2007-01-07, 12:51:44
das heisst die mainstream G8x kommen noch in 80nm?
dachte 65nm wär da schon etwas weiter

Flamehaze
2007-01-07, 19:23:54
Vielleicht gibts bald ein paar Bilder vom R600, schließlich zeigt AMD auf der CES schon zwei Prototypen von der Grafikkarte.

http://uk.theinquirer.net/?article=36757

Hvoralek
2007-01-07, 19:35:09
Vielleicht gibts bald ein paar Bilder vom R600, schließlich zeigt AMD auf der CES schon zwei Prototypen von der Grafikkarte.

http://uk.theinquirer.net/?article=36757"We're talking about full-size, 12-inch boards [...]." - Das klingt nicht allzu ermutigend, was die Abmessungen der Karten angeht.

Markus89
2007-01-07, 19:51:09
...sixteen Samsung 32MB memory chips...

ehm, das sind aber ja nur 512, oder?

AnarchX
2007-01-07, 19:53:42
ehm, das sind aber ja nur 512, oder?

Vielleicht nur auf einer Seite und auf der anderen Seite sind die anderen 16 Stück.
Aber ist halt eine typischen INQ-Meldung... X-D

Black-Scorpion
2007-01-07, 19:58:06
Wo soll eine ~31cm Karte reinpassen?

AnarchX
2007-01-07, 20:01:15
Wo soll eine ~31cm Karte reinpassen?

Dort wo eine 7900GX2 reinpasste.;)
Aber wie schon im Artikel erwähnt soll es ja ein Prototyp sein, das finale Layout fällt vielleicht noch etwas kürzer aus.

seahawk
2007-01-07, 20:15:15
Nur wenn sie jetzt immer noch die Protoypen vorzeigen müsssen, dann kann man einen Launch vor Mitte bis Ende Feb. locker vergessen.

deekey777
2007-01-07, 20:19:29
Vielleicht ist das PCB so innovativ, dass die Roten Angst vor Industriespionage haben.;) :D

Relic
2007-01-07, 20:38:31
Vielleicht ist das PCB so innovativ, dass die Roten Angst vor Industriespionage haben.;) :D

Sie sind wohl in Anbetracht des G80 eher Grün vor Neid geworden und probieren händeringend schneller zu sein. :D

deekey777
2007-01-07, 20:44:58
Sie sind wohl in Anbetracht des G80 eher Grün vor Neid geworden und probieren händeringend schneller zu sein. :D

Es gab schon vor Monaten Gerüchte, dass das PCB zumindest kürzer sein wird als bei der 8800GTX.

chrisihamm
2007-01-07, 20:51:51
relicSie sind wohl in Anbetracht des G80 eher Grün vor Neid geworden und probieren händeringend schneller zu sein.



Ich würde den Mund nicht so voll nehmen,vielleicht kommt da ja was viel besseres auf uns zu,als Nvidia es je bauen könnte.:eek:



mfg

AnarchX
2007-01-07, 20:53:42
vielleicht kommt da ja was viel besseres auf uns zu,als Nvidia es je bauen könnte

Wenn man sich die Architekturbetrachtungen zum G80 anschaut, ist dies nicht unbedingt einfach.;)

Spasstiger
2007-01-07, 20:56:31
Ich würde den Mund nicht so voll nehmen,vielleicht kommt da ja was viel besseres auf uns zu,als Nvidia es je bauen könnte.:eek:
Der G80-Refresh dürfte aber zum R600 ebenbürtige Spieleperformance liefern, sonst wäre so ein Refresh sinnlos.
Ist denn eigentlich schon was zu neuen AA-Modi beim R600 bekannt? Und wurde das AF nochmals verbessert? 32:1 AF mit der Winkelunabhängigkeit des G80, das wäre was Feines. Nur wird der R600 wahrscheinlich nicht so das TMU-Monster werden wie der G80.

Gast
2007-01-07, 21:24:21
http://de.theinquirer.net/2007/01/07/ces_007_amd_zeigt_zwei_r600gra.html

LovesuckZ
2007-01-07, 21:27:37
Der G80-Refresh dürfte aber zum R600 ebenbürtige Spieleperformance liefern, sonst wäre so ein Refresh sinnlos.


Mit dem Gang auf 80nm soll der Chip bei gleicher Größe ca. 20% kleiner sein, munkeln die Leute im Beyond3d.com Forum. Da ATi anscheinend eine ähnliche DIE - Größe hat wie Nvidia zur Zeit mit dem G80, wäre solch ein Refresh auch eine Gewinnmaximierung für Nvidia.

Colin MacLaren
2007-01-07, 22:32:45
Weiß nicht ob es schon jemand gepostet hat, dann entschuldige ich mich, aber hier gibt's angeblich Benchmarks mit einem Vorserienmodell die recht vielversprechend ausschauen: http://level505.com/

reunion
2007-01-07, 23:14:37
http://www.3dcenter.org/artikel/2006/12-28_b.php


Doom 3 ist auf einem G80 eh total CPU-limitiert, selbst in 1600x1200 mit 4xAA. Sogar 2560x1600 mit 8xAA sollte flüssig spielbar sein auf einer 8800 GTX.

Danke.

Huh?

650*16= 10400
575*32= 18400
-------------------------
+77%

(nach xbit labs)
G80 = 4290
R580 = 2500
-------------------------
+72%

(verwechsel die bilerp Rate nicht mit reiner Texel fuellrate)


Sollte das bei Quad-Texturing nicht egal sein?

Mit dem Gang auf 80nm soll der Chip bei gleicher Größe ca. 20% kleiner sein, munkeln die Leute im Beyond3d.com Forum. Da ATi anscheinend eine ähnliche DIE - Größe hat wie Nvidia zur Zeit mit dem G80, wäre solch ein Refresh auch eine Gewinnmaximierung für Nvidia.

Es sind AFAIK genau 19%, die man durch ein Shrink von 90nm auf 80nm gewinnt. Das Die des G80 ist 484mm² groß, bei R600 wird mit knapp über 400mm² spekuliert, was sich durch die Abbildungen mit dem Münze schon recht genau sagen lässt. nV wird hier also maximal aufholen, wenn man den NVIO-Chip auch integriert, dürfte die Größe sogar relativ gleich bleiben.

Ailuros
2007-01-08, 06:52:44
Sollte das bei Quad-Texturing nicht egal sein?

Ich verstehe die Frage nicht.

Hvoralek
2007-01-08, 10:33:35
Sollte das bei Quad-Texturing nicht egal sein?Meinst Du, ob nicht die Extra- Filtereinheiten der G80-TMUs hier greifen müssten? Falls ja: Das denke ich nicht. Bei Quad- Texturing werden zwar mehrere Werte pro Pixel gefiltert, es müssen aber ebenso viele adressiert werden. Damit dreht die Hälfte der Filtereinheiten Däumchen und die Leistung passt.

drmaniac
2007-01-08, 10:38:08
http://de.theinquirer.net/2007/01/07/ces_007_amd_zeigt_zwei_r600gra.html

ähm... "sechzehn 32-MB-Speicherchips" ??

Weiß nicht ob es schon jemand gepostet hat, dann entschuldige ich mich, aber hier gibt's angeblich Benchmarks mit einem Vorserienmodell die recht vielversprechend ausschauen: http://level505.com/

kein Problem, wurde auf den letzten 15 Seiten diskutiert :biggrin:

robbitop
2007-01-08, 11:06:23
IMHO wird das Ding zumindest vec4+1 ALUs haben - alleine schon wegen dem US-Design.
Was hat das eine mit dem anderen zu tun? Für Geometrie brauchst du auch nicht mehr als 4 Komponenten. Bisher wurde das Skalare im VS bei NV/ATI für einige Situationen zum Beschleunigen bestimmter VS genutzt.


Die hatte nV bisher auch nichtmal. :rolleyes:
Seit NV40 nutzt man einen Crossbar zwischen den Fragmentprozessoren und den ROPs und dann einen Memorycrossbar zw den ROPs und dem SI. (Augenrollen ist übrigens unhöflich)

beinahe zwangsläufig, wenn man bedenkt, dass evtl. die Blender komplett orthogonal auch auf Skalar-Basis rechnen.


Q
Könntest du das ein wenig ausführen? :)
Ich wüsste nicht wo alphablender groß von skalarer behandlung profitieren. Beim Alphablending (was ja nichts anderes als 1xLERP ..also 1xMUL und 2xADD ist) braucht man zwangsweise RGB von einem Pixel im FB gleichzeitig. Eine "skalare" Ansteuerung hingegen würde nur Steuerungslogik kosten.

Wie kommst du auf diese These?

Gast
2007-01-08, 12:21:07
Könntest du das ein wenig ausführen? :)
Ich wüsste nicht wo alphablender groß von skalarer behandlung profitieren. Beim Alphablending (was ja nichts anderes als 1xLERP ..also 2xMUL und 1xADD ist) braucht man zwangsweise RGB von einem Pixel im FB gleichzeitig. Eine "skalare" Ansteuerung hingegen würde nur Steuerungslogik kosten.

Wie kommst du auf diese These?
Fiel mir nur grad mal so ein und würde doch passen bei der Skalar-Ausrichtung des G80. Anstatt zwangsweise RGBA zu schreiben könnte man damit (und mit den entsprechenden Anpassungen) ja auch beliebige Kombinationen schreiben, zum Beispiel viermal soviele "Skalare" gleicher Bittiefe.


Q

Gast
2007-01-08, 12:29:11
ähm... "sechzehn 32-MB-Speicherchips" ??War doch ein Vorserienmodell, vielleicht hat dieses tatsächlich nur 512 MiB VRAM. Zumindest für das Topmodell würde ich aber schon 1 GiB erwarten, da man so eben mehr VRAM als die 8800GTX hat, was marketingtechnisch von Vorteil ist. 16 Chips a 32 bit passt auch zum 512-bit-SI.

robbitop
2007-01-08, 12:44:23
Fiel mir nur grad mal so ein und würde doch passen bei der Skalar-Ausrichtung des G80. Anstatt zwangsweise RGBA zu schreiben könnte man damit (und mit den entsprechenden Anpassungen) ja auch beliebige Kombinationen schreiben, zum Beispiel viermal soviele "Skalare" gleicher Bittiefe.


Q
Es bringt (wie eine skalare Ausrichtung von TMUs z.B) aber gegenüber Blendern mit SIMD Vec3 Komponte hier keinen Vorteil und würde nur zur Verschwendung von Transistoren führen. Wie gesagt, für Alphablending brauche ich für jedes Pixel eh die RGB Werte und zwar gleichzeitig.

Gast
2007-01-08, 13:01:03
Es bringt (wie eine skalare Ausrichtung von TMUs z.B) aber gegenüber Blendern mit SIMD Vec3 Komponte hier keinen Vorteil und würde nur zur Verschwendung von Transistoren führen. Wie gesagt, für Alphablending brauche ich für jedes Pixel eh die RGB Werte und zwar gleichzeitig.
Vielleicht können die Einheiten in den ROPs (ich sage jetzt mal absichtlich nicht Blender) ja auch mehrfach genutzt werden? Alphablending oder eben zusätzliche Z-Werte zu den normalen Z-Einheiten.

Meine Tests mit Z-Overdraw könnten in diese Richtung deuten - müssen es aber nicht.

Q

robbitop
2007-01-08, 13:03:20
Die Z-Test Units sind andere Units als die Blender. Die gehören aber beide in die ROPs.

Was sagen denn deine Z-Ovdraw Tests, wenn man fragen darf?

Gast
2007-01-08, 13:20:44
Die Z-Test Units sind andere Units als die Blender. Die gehören aber beide in die ROPs.

Was sagen denn deine Z-Ovdraw Tests, wenn man fragen darf?
Vielleicht hat Nvidia eine Möglichkeit gefunden, da Transistoren mehrfach zu nutzen? Ich weiß es nicht.

Bezgl. Z-Overdraw, ROPs und G80 sollten wir vielleicht ein neues Thema aufmachen.


Q

robbitop
2007-01-08, 14:07:30
Vielleicht hat Nvidia eine Möglichkeit gefunden, da Transistoren mehrfach zu nutzen? Ich weiß es nicht.

Bezgl. Z-Overdraw, ROPs und G80 sollten wir vielleicht ein neues Thema aufmachen.


Q
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=342636

Coda
2007-01-08, 15:05:42
Die hatte nV bisher auch nichtmal. :rolleyes:

Klar tut man. Anders wäre es wohl kaum möglich weniger ROPs als Pixelshader zu verbauen.

paul.muad.dib
2007-01-08, 21:07:17
Bei level505 tut sich nichts mehr. Ich frage mich, ob der zweite Teil des "Tests" noch kommt.

Ailuros
2007-01-08, 21:13:21
Bei level505 tut sich nichts mehr. Ich frage mich, ob der zweite Teil des "Tests" noch kommt.

Vielleicht trottelt jetzt das floppy drive :biggrin:

paul.muad.dib
2007-01-08, 21:21:02
Vielleicht trottelt jetzt das floppy drive :biggrin:

Der war gut! ROFL

Gast
2007-01-09, 11:36:57
Nun geht´s langsam los, kommen erste Details zum Vorschein,
also doch G81 gegen R600!!
Jupp!

http://dailytech.com/article.aspx?newsid=5630

seahawk
2007-01-09, 11:57:19
Was ist daran toll ? Es deutet imho nur daraufhin, dass die negativsten Erwartungen zum Thema Verfügbarkeit beim R600 erfüllt werden und 1Q/07 eben Ende März bis Anfang April bedueten wird. Aber das haben hier schon vor einiger zeit einige geschrieben.

Der bezug zu G81 erschließt sich mir gerade nicht ?

deekey777
2007-01-09, 11:57:29
ATi targets CeBIT for R600 launch - Willy Deeplung exclusive! (http://www.hexus.net/content/item.php?item=7441)
ATi keeps on spinning to try to get R600 right (http://www.hexus.net/content/item.php?item=7437)
... Da kann man noch weiter so machen.
Aber:
The final silicon for R600 will be "A13."
Immernoch nicht fertig?

reunion
2007-01-09, 12:08:05
Nun geht´s langsam los, kommen erste Details zum Vorschein,
also doch G81 gegen R600!!
Jupp!

http://dailytech.com/article.aspx?newsid=5630

Interessant find ich vorallem das:

The company has also added the R610 and R630 GPUs to the roadmap. In the past, ATI has used lower number codenames to denote entry-level products. We would suspect R610 would be the entry-level R600 cutdown, and R630 would be the mid-range chipset. The Radeon roadmap puts both of these products on the shelf before June 2007.

seahawk
2007-01-09, 12:15:04
Naja, 5 Monate Rückstand im Low-End und Midrange-Segement beim Thema DX10 mit VISTA in den Regalen und in den OEM PCs wäre wohl auch tödlich gewesen. Hoffen wir für ATI, dass es eher RV570 sind, als X1600XT.

reunion
2007-01-09, 12:16:31
Ich verstehe die Frage nicht.

Das die Adress-Einheiten fehlen.

Meinst Du, ob nicht die Extra- Filtereinheiten der G80-TMUs hier greifen müssten? Falls ja: Das denke ich nicht. Bei Quad- Texturing werden zwar mehrere Werte pro Pixel gefiltert, es müssen aber ebenso viele adressiert werden. Damit dreht die Hälfte der Filtereinheiten Däumchen und die Leistung passt.

Ja, das meinte ich. Danke.

Was hat das eine mit dem anderen zu tun? Für Geometrie brauchst du auch nicht mehr als 4 Komponenten. Bisher wurde das Skalare im VS bei NV/ATI für einige Situationen zum Beschleunigen bestimmter VS genutzt.


Naja, die Vertexshader schaffen normal vec4+1 pro Takt AFAIK. Da das Design nun die ALUs vereint, wird R600 vermutlich auch vec4+1 unterstützten, um die VS nicht auszubremsen IMO. Auch das Xenos ebenfalls einen vec4+1 Pipeline hat, spricht dafür.


Seit NV40 nutzt man einen Crossbar zwischen den Fragmentprozessoren und den ROPs und dann einen Memorycrossbar zw den ROPs und dem SI.


Okay.


(Augenrollen ist übrigens unhöflich)


Ansichtssache. Ich benutze das eher, um Dinge, die sonst vielleicht untergehen würden, hervorzuheben bzw. zu verdeutlichen, oder um auf mich seltsam wirkende Aussagen entsprechend mit einem kritischen Akzent auszustatten. Falls das allerdings falsch angekommen ist: Sorry.

reunion
2007-01-09, 12:19:39
Aber:

Immernoch nicht fertig?

"Das finale Silicon bei R600 wird A13 sein". Das sagt absolut gar nichts darüber aus, ob dieses schon fertig ist, oder nicht.

deekey777
2007-01-09, 12:43:09
Die Vertex-ALUs des R580 sind Vec4+1-ALUs, aber das sind sie auch beim G70. Der G80 hat skalare Einheiten. Aber ich glaube auch nicht an skalare ALUs beim R600.
Aber da wäre noch die Sache mit dem Splitten:
Das wurde schon einmal angesprochen (entweder in diesem Teil oder im vorigen). Wenn mich nicht alles täuscht, ist das Problem, das passende Paar zu finden. Und D3D10 soll da strenger sein, was das Splitten angeht.
"Superskalar" bedeutet aber zumindest das zwei unterschiedliche Ops in der ALU gleichzeitig ausgeführt werden können.
Und da stellt sich die nächste Frage: Warum besteht ATi, dass man von der Süperskalarität spricht.
A) Superskalar klingt besser als skalar (auch Superman klingt besser als Man).
B) Siehe A+robbitops Einwände.
C) Der G80 kann nur eine (skalare) Instruction pro Kanal ausführen.
D) Und was kann der R600?
"Das finale Silicon bei R600 wird A13 sein". Das sagt absolut gar nichts darüber aus, ob dieses schon fertig ist, oder nicht.
War doof ausgedrückt:
An A13 wird schon seit Dezember gearbeitet. Und vom R600 ist immernoch nichts zu sehen. Entweder ist der Respin immernoch nicht geglückt, oder der R600 A13 ist fertig, aber der Rest nicht (zB das PCB).
Andererseits: Der G80 war seit 2002 in Entwicklung, und laut dem einen NV-Hoshi war der geplannte Termin irgendwann im Herbst 2005. Auch wenn es beim R600 so lange dauert, darf nicht unberücksichtigt bleiben, dass keiner so richtig weiß, wir lange an dem R600 schon gearbeitet wird.

Mr Power
2007-01-09, 13:17:12
We don't know the state of play with the A13 spin but do understand that ATi has got A12 running at a speed of 1GHz.

That's around half the target speed of the production version [...]

Jetzt doch wieder um die 2GHz? Oder haben die oder ich irgendwas falsch verstanden?

robbitop
2007-01-09, 14:04:56
Wie gesagt, die Geometrieberechnung braucht nur 4 Komponenten. Der skalare Kanal ist bei einigen SFUs zum Beschleunigen da, aber wird eben nicht immer genutzt. Es ist also keine Voraussetzung oder so. :)

Zum Begriff Superskalar. Mag besser klingen als "skalar" hat aber nichts damit zu tun. Superskalar heißt einfach nur, dass eine Recheneinheit mehr als eine Instruktion pro Takt schafft. Die R300 ALUs können ja dank CoIssue auch 2 Instruktionen gleichzeitig Vec3 + 1x Skalar. Die NV4x ALUs sind sogar noch etwas flexibler in dieser Hinsicht (2:2 und 3:1 splits sind möglich).

Mit skalar meint man ja nur die Granularität. Eine MIMD4 ALU kann also 4 skalare Instruktionen pro Takt durchführen.
Der G80 hat ja eigentlich gar keine skalaren ALUs. Er hat Vec16 SIMD ALUs, die eine einzige große Instruktion bearbeiten. Da es sich hier aber um "nur" je eine Komponente (R,G oder B) pro Pixel handelt und für 16 Pixel gleichzeitig je 1 Skalar berechnet wird, holte die Marketingabteilung sicher zu diesem Schlagwort aus. Die Kontrolllogikosten für 16 verschieden Pixel pro ALU dürfte aber teuer gewesen sein.

In der Tat ist die 16er Granularität gar nicht soweit davon entfernt, da 16 Skalare aus verschiednen Pixeln fast immer mit ein und der selben Instruktion anfallen. 16 scheint ein sweetspot in Punkto Aufwand für Kontrolllogik und Leistung zu sein. Man könnte in Zukunft vieleicht auf 32 billig die Rechenleistung steigern aber die Effizienz pro Einheit senken oder die Effizienz durch die Verbesserung der Granularität auf Kosten der Logik erhöhen. Es wird sich zeigen, welcher Weg besser ist.
Auch hätte man Vec4 ALUs lassen können und deren Anzahl skalieren. Das Endresultat in Punkto P/L ist das was zählt nicht die Effizienz pro Einheit.
Man versucht immer den bestmöglichen Punkt aus beidem zu ermitteln.

Coda
2007-01-09, 14:25:42
C) Der G80 kann nur eine (skalare) Instruction pro Kanal ausführen.

Wenn das Mul irgendwann doch noch funktioniert nicht.

deekey777
2007-01-09, 14:36:25
Wenn das Mul irgendwann doch noch funktioniert, nicht.
Das war mein zweiter Gedanke, als ich mein Posting durchlas (der erste war: "Was'n das für ein Quatsch?").

Zum Begriff Superskalar. Mag besser klingen als "skalar" hat aber nichts damit zu tun. Superskalar heißt einfach nur, dass eine Recheneinheit mehr als eine Instruktion pro Takt schafft. Die R300 ALUs können ja dank CoIssue auch 2 Instruktionen gleichzeitig Vec3 + 1x Skalar. Die NV4x ALUs sind sogar noch etwas flexibler in dieser Hinsicht (2:2 und 3:1 splits sind möglich).
Das weißt du. Nur wer macht sich schon die Mühe nachzulesen, was "superskalar" wirklich bedeutet? Auch 128 Stream-Prozessoren klingen deutlich besser als 8 Vec16-ALUs.

Coda
2007-01-09, 14:43:36
"Vec16-ALU" ist genauso falsch meiner Meinung nach. Das legt den Vergleich zu den traditionellen Vec4-ALUs nahe und das ist definitiv Käse.

deekey777
2007-01-09, 14:47:29
"Vec16-ALU" ist genauso falsch meiner Meinung nach. Das legt den Vergleich zu den traditionellen Vec4-ALUs nahe und das ist definitiv Käse.
Wie wär's damit: Die Recheneinheiten des G80 sind im Cluster zu je 2 Gruppen zusammengefasst (8+8), es kann somit an PS+PS/VS+VS/GS+GS, PS+VS, VS+GS gearbeitet werden.

Coda
2007-01-09, 15:17:28
Die Recheneinheiten des G80 sind im Cluster zu je 2 Gruppen zusammengefasst (8+8), es kann somit an PS+PS/VS+VS/GS+GS, PS+VS, VS+GS gearbeitet werden.

Huh? Woher kommt das denn?

deekey777
2007-01-09, 15:24:26
Huh? Woher kommt das denn?
http://www.beyond3d.com/forum/showpost.php?p=902451&postcount=5
Man sieht es auch auf nVidias Bildchen:
http://img299.imageshack.us/img299/7308/g80dia2fv2.png
http://www.beyond3d.com/forum/showthread.php?t=36769

Ailuros
2007-01-09, 16:05:55
Das die Adress-Einheiten fehlen.

Und die sind bei stinknormalem quad texturing mit 1xAF inwiefern relevant?

Wenn das Mul irgendwann doch noch funktioniert nicht.

Geduld ;)

Wie wär's damit: Die Recheneinheiten des G80 sind im Cluster zu je 2 Gruppen zusammengefasst (8+8), es kann somit an PS+PS/VS+VS/GS+GS, PS+VS, VS+GS gearbeitet werden.

Obwohl das 8*2 stimmt, kannst Du beruhigt den Rest streichen.

reunion
2007-01-09, 16:20:20
Und hier kommt FUAD:
http://www.the-inquirer.net/default.aspx?article=36799

Ailuros
2007-01-09, 16:24:35
Was soll daran neu sein? Schon vor Seiten wurde etwas ueber das chinesische neue Jahr angedeutet.

robbitop
2007-01-09, 16:39:41
Und die sind bei stinknormalem quad texturing mit 1xAF inwiefern relevant?


Was er damit sagen will, ist, dass die Textureinheiten zur Hälfte stillstehen, da der G80 "nur" an 32 Texturen gleichzeitig arbeiten kann aber dennoch 64x bilineare Samples raushauen kann. Das kann er aber nur nutzen, sobald das jeweilige Texel mindestens 2x Bi Samples bekommt (also 2xbiAF oder 1xtriAF).

Ailuros
2007-01-09, 16:54:14
Was er damit sagen will, ist, dass die Textureinheiten zur Hälfte stillstehen, da der G80 "nur" an 32 Texturen gleichzeitig arbeiten kann aber dennoch 64x bilineare Samples raushauen kann. Das kann er aber nur nutzen, sobald das jeweilige Texel mindestens 2x Bi Samples bekommt (also 2xbiAF oder 1xtriAF).

Weiss er auch dass der vorerwaehnte Fuellraten-tester AF nicht in Betracht nimmt und muss man wirklich erwaehnen dass alles ohne AF heutzutage auf ultra high end GPUs absoluter Schwachsinn ist?

deekey777
2007-01-09, 16:56:36
http://forums.vr-zone.com/showthread.php?t=120679
Boah, die Dell-User werden wohl immer zurecht behaupten, dass deren R600er länger ist.:biggrin:

dildo4u
2007-01-09, 17:07:23
Ups da wird man whol die 8800GTX gegenüber der R600 als das grüne kompackte Sparwunder bezeichnen.Auf dem Renderbild sieht man zwei 4Pol plus ein 6Pol PCI-E Stromanschluss.

deekey777
2007-01-09, 17:10:42
Ups da wird man whol die 8800GTX gegenüber der R600 als das grüne kompakte Sparwunder bezeichnen.Auf dem Renderbild sieht man zwei 4Pol plus ein 6Pol PCI-E Stromanschlüsse.

Ich wüßte nicht, dass die 8800GTX im Vergleich zur 7900GX2 als "kompakt" bezeichnet wurde.
Mit 9 Zoll wäre die R600er deutlich kürzer als eine 8800GTX.

robbitop
2007-01-09, 17:14:02
Weiss er auch dass der vorerwaehnte Fuellraten-tester AF nicht in Betracht nimmt?
Das ändert ja an seiner Aussage nichts. ;)
Kann man denn Trilinear einstellen?

Bei Füllratentestern funktioniert übrigens idR kein AF, da keine Verzerrung der Texel vorliegt.


und muss man wirklich erwaehnen dass alles ohne AF heutzutage auf ultra high end GPUs absoluter Schwachsinn ist?
Ack, aber das hat IMO wenig mit seiner Aussage über deinen Synthie zu tun.

paul.muad.dib
2007-01-09, 17:14:04
Also diese Kühllösung sieht nicht so ausgereift wie bei NV aus. Man hätte den Kühlkörper und damit die Kühlfläche noch ein ganzes Stück größer machen können.

Aber mit Heatpipes siieht das nach sehr viel Verlustleistung aus.


Immerhin haben ATI Käufer damit den längsten...

deekey777
2007-01-09, 17:16:57
Immerhin haben ATI Käufer damit den längsten...


12'' für die OEM-Version und 9'' für die Endkunden. Die 8800GTX hat eine Länge von 10,6''.

Black-Scorpion
2007-01-09, 17:17:38
Und was soll an ~23cm so lang sein?
Das ist ungefähr so groß wie die X800 XL AGP.

Ailuros
2007-01-09, 17:19:29
Das ändert ja an seiner Aussage nichts. ;)
Kann man denn Trilinear einstellen?

Bei Füllratentestern funktioniert übrigens idR kein AF, da keine Verzerrung der Texel vorliegt.


In Archmark aendern sich die Resultate mit trilinear und/oder 2xAF (egal ob 2x oder 16xAF) dann schon:

http://www.3declipse.com/?page_id=17

dildo4u
2007-01-09, 17:20:02
Für die High-End Version wird man dann whol in die Höhe bauen und ein riesen Lüfter wird whol Pflicht sein die ganzen Stromanschlüsse machen mir Angst.

Gast
2007-01-09, 17:21:40
ich frage mich gerade, ob sie bei der Länge den Platz für den Lüfter mitrechnen?

Gast
2007-01-09, 17:23:24
vielleicht bezieht sich die Angabe bezüglich der Länge nur auf das PCB`?

seahawk
2007-01-09, 17:24:45
12'' für die OEM-Version und 9'' für die Endkunden. Die 8800GTX hat eine Länge von 10,6''.

Was umfaßt den Lieferumfang einen OEM wohl mehr, als den Lieferumfang bei einer OEM Version - bzw. was muss ein IHV wohl für eine Retailversion extra bezahlen, falls er es von ATI haben will...

robbitop
2007-01-09, 17:27:16
In Archmark aendern sich die Resultate mit trilinear und/oder 2xAF (egal ob 2x oder 16xAF) dann schon:

http://www.3declipse.com/?page_id=17

Bei deinen Benches sehe ich kaum Unterschiede zw 1xAF und 16xAF, was für nicht verzerrte Texturen hinweist (der Betrachter schaut also von oben auf die Textur).

Gast
2007-01-09, 17:34:43
Also diese Kühllösung sieht nicht so ausgereift wie bei NV aus. Man hätte den Kühlkörper und damit die Kühlfläche noch ein ganzes Stück größer machen können.

Aber mit Heatpipes siieht das nach sehr viel Verlustleistung aus.


Immerhin haben ATI Käufer damit den längsten...
Der Lüfter wird wahrscheinlich alles andere als leise sein, wenn der genügend Luft durch den langen Kühlkanal und großen Kühlkörper fördern soll. Ich würde sogar drauf tippen, dass der unter Vollast saulaut wird.

dargo
2007-01-09, 17:40:57
Also diese Kühllösung sieht nicht so ausgereift wie bei NV aus. Man hätte den Kühlkörper und damit die Kühlfläche noch ein ganzes Stück größer machen können.

Und woran erkennst du das? An den Bildern?

1. Wenn ich es richtig erkenne sind die Spannungswandler im Weg.
2. Schon mal an das max. Gewicht der Graka gedacht?

Für die High-End Version wird man dann whol in die Höhe bauen und ein riesen Lüfter wird whol Pflicht sein die ganzen Stromanschlüsse machen mir Angst.
Schon vergessen, dass eine G8800GTX zwei PCIe Anschlüsse hat? ATI scheint einfach nur einen anderen Weg zu gehen. Die G8800GTX kann mit max. 6 +12V Leitungen, der R600 anscheinend mit max. 7 Leitungen versorgt werden.

Zocker_28
2007-01-09, 17:50:51
Ich glaub nicht das die so aussehen wird, gab doch mal ne NV die so ausgesehen hat oder ?
Oder war das ne Vodoo ?
Jedenfalls auch mit so eine Henkel dran, und ich glaube (hoffe) das ATI draus gelernt hat mit diesen Lauten Lüftern.

Black-Scorpion
2007-01-09, 17:51:10
Es ist immer wieder erstaunlich wie man von einem Bild auf die Lautstarke des Lüfters kommt und sieht das der Sau laut ist.

Low Rider
2007-01-09, 18:55:29
Wenn ihr wollt, male ich euch ein neues Bild einer R600-Karte. Dann auch kurz und leise und alle sind zufrieden :smile:

Coda
2007-01-09, 19:27:15
Und was soll an ~23cm so lang sein?
Das ist ungefähr so groß wie die X800 XL AGP.

Das ist nur das PCB. Die Karte + Lüfter ist Full-Length wie man am "Griff" hinten sieht.

Black-Scorpion
2007-01-09, 19:36:45
Das ist nur das PCB. Die Karte + Lüfter ist Full-Length wie man am "Griff" hinten sieht.
Du glaubst doch nicht etwa das so eine Retail Karte aussieht?
Außerdem sind die 12' Karten für OEM Hersteller.
Für Endkunden sind die Karten 9', also etwa 23cm.
Was anderes würde auch schwerlich in die normalen Gehäuse passen.

Coda
2007-01-09, 19:42:08
Du glaubst doch nicht etwa das so eine Retail Karte aussieht?

Kommt drauf an. Die Karte hat schon eine ziemlich hohe Verlustleistung.

horn 12
2007-01-09, 19:43:33
Kopiert aus anderem Forum:
ich glaub es weiss wovon er spricht:

Ok, daß der R600 zur Cebit kommt hatten wir ja schon. Die aktuelle Rev ist A12 und ist 12 inch (~30,5cm) lang. Die finale Rev ist A13 und 9 inch (~22,8cm) lang. Der Kühler wird komplett Kupfer sein.

XL & XT = GDDR3
XTX = GDDR4


Also 3 Versionen, sehr gut und hoffe der Preis passt dazu.
Sollte die Karte Final wirklich nur ca.23 cm lang werden und der Verbrauch etwas unter 200 Watt liegen, oder gar weiters darunter, dürfte es für ATI leicht sein die Karte an den Mann zu bringen.

reunion
2007-01-09, 19:58:17
Ich kann mir nicht vorstellen, dass man für OEM-Hersteller eine eigenen, wesentlich längerer, und damit teurere Platine fertigen will. Das wäre doch absolut sinnlos. Vermutlich hat hier wieder irgendjemand etwas falsch aufgefasst. IMHO ist das 12" Board noch ein Vorserienboard, und die 9" Karten werden in den Handel kommen, womit die Karte deutlich kürzer als eine 8800GTX wäre.

Ich glaub nicht das die so aussehen wird, gab doch mal ne NV die so ausgesehen hat oder ?
Oder war das ne Vodoo ?
Jedenfalls auch mit so eine Henkel dran, und ich glaube (hoffe) das ATI draus gelernt hat mit diesen Lauten Lüftern.

Ja, es gab AFAIK mal mehrere Bilder eines NV40 Vorserienboards, welches ebenfalls extrem lang war und einen Henkel hinten dran hatte.

deekey777
2007-01-09, 20:17:49
Die Länge von 12 Zoll ist meiner Meinung nach kein Problem, es gibt keinen Grund, aus der Mücke einen Elefanten zu machen.
reunion, auch wenn ein so langes PCB teurer sein kann, bedeutet dies nicht, dass ein kürzeres billiger sein muss, eher im Gegenteil (gerade im OEM-Geschäft wird auf jeden Cent geachtet).
Wenn das lange PCB samt Kühlung günstiger sein wird und die Hersteller freie Wahl haben, wofür entscheiden sie sich?
Abwarten und Tee trinken. Bei VR-Zone weiß man nie, ob sie Recht haben und wissen, wovon sie schreiben, oder irgendwas nachplappern.

Black-Scorpion
2007-01-09, 20:18:18
Kommt drauf an. Die Karte hat schon eine ziemlich hohe Verlustleistung.
Auf was soll es da ankommen?
Retail kannst du so eine Karte vergessen wenn du sie verkaufen willst.
Ich schätze mal das genau will ATI/AMD aber. ;)
Selbst wenn man den Laufwerkskäfig ausbauen kann, fehlen noch die Halterungen für den "Henkel".

Gast
2007-01-09, 20:24:45
Ja, es gab AFAIK mal mehrere Bilder eines NV40 Vorserienboards, welches ebenfalls extrem lang war und einen Henkel hinten dran hatte.

Dell z.B. hat bei den Karten oftmals nen anhängsel dran ...

http://ad.impress.co.jp/tie-up/dellcontact0206/newpro/051025/images/ph04.jpg

Ich find das 12" Monster jedenfalls echt cool - leider würd es net ins Case passen :(

seahawk
2007-01-09, 20:27:52
Keine Angst es wird kürzere Kühllösungen geben, nicht unbedingt am Launchtag aber es wird sie geben. Alles andere wäre ja auch nicht so richtig Toxic.

Gast
2007-01-09, 20:30:37
Der Text auif VR-Zone sagt doch klipp und klar das die LANGE version "OEM only" ist ... für endkunden wird es das Teil also nicht geben.

Na ja, die 7900GTO und 7900GX2 sollten ja auch net im Regal landen :D

seahawk
2007-01-09, 20:39:24
2 PCBs für die gleiche KArte mag ich mal bezweifeln. Außer natürlich man möchte einige wenige karten ala 7900GX2 vorab anausgesuchte OEMs ....

Wobei es kein neues Gerücht ist, dass die Kühllösung größer als das PCB sein soll. Und ich möchte nochmal zu bedenken geben, dass bei einer OEM Version die Kühllösung zwangsweise dabei ist, während bei einer Retailversion der IHV die Kühllösung zusätzlich von ATI kaufen muss oder eine eigene verwenden kann.

dargo
2007-01-09, 21:03:59
2 PCBs für die gleiche KArte mag ich mal bezweifeln.
Wie kommst du auf 2 PCBs?

Es ist eigendlich relativ einfach. Wenn man sich das Bild mal anschaut

29874

sieht man, dass dieses Kunststoff Dingsbums unter dem Lüfter quadratisch ist und das Mass (h) in etwa 8cm beträgt. Wenn man jetzt von den 12" die 8cm abzieht kommt man ja auf die 9" die das PCB hat. Sollte also die Retail Grafikkarte 9" betragen wird ATI zwangsläufig einen anderen Kühler als hier abgebildet verwenden müssen.

StefanV
2007-01-09, 21:10:41
Hm, AMD könnt ja auch sowas verbauen, als Lüfter:
http://www.order.conrad.com/m/5000_5999/5700/5700/5701/570184_BB_00_FB.EPS.jpg

Mr. Lolman
2007-01-09, 23:14:32
Bei deinen Benches sehe ich kaum Unterschiede zw 1xAF und 16xAF, was für nicht verzerrte Texturen hinweist (der Betrachter schaut also von oben auf die Textur).

Bei Quadtexturing (trilinear, HQ ) bricht er um 50% weg^^

Gast
2007-01-09, 23:42:01
Auf was soll es da ankommen?
Retail kannst du so eine Karte vergessen wenn du sie verkaufen willst.
Ich schätze mal das genau will ATI/AMD aber. ;)
Selbst wenn man den Laufwerkskäfig ausbauen kann, fehlen noch die Halterungen für den "Henkel".
ich brauch nicht mal die hdds ausbauen und würd die rein bekommen
und ja das ist ein ganz normaler midi-tower

nicht alle kaufen sich mickrige gehäuse :stachel

reunion
2007-01-10, 00:47:52
Keine Angst es wird kürzere Kühllösungen geben, nicht unbedingt am Launchtag aber es wird sie geben. Alles andere wäre ja auch nicht so richtig Toxic.
Wobei es kein neues Gerücht ist, dass die Kühllösung größer als das PCB sein soll.


Die Karte ist so nie und nimmer die finale Verkaufsversion. Das ist einfach ein Vorserienboard, bei welchem Dinge wie die länge der Platine oder die Kühllösung schlicht egal sind. Der Lüfter selbst ist ja mal mindestens fünf cm vom eigentlichen Kühlkörper entfernt, das hier noch eine deutliche Platzersparnis drin ist, sollte klar sein.

reunion
2007-01-10, 00:56:47
Die Länge von 12 Zoll ist meiner Meinung nach kein Problem, es gibt keinen Grund, aus der Mücke einen Elefanten zu machen.
reunion, auch wenn ein so langes PCB teurer sein kann, bedeutet dies nicht, dass ein kürzeres billiger sein muss, eher im Gegenteil (gerade im OEM-Geschäft wird auf jeden Cent geachtet).
Wenn das lange PCB samt Kühlung günstiger sein wird und die Hersteller freie Wahl haben, wofür entscheiden sie sich?
Abwarten und Tee trinken. Bei VR-Zone weiß man nie, ob sie Recht haben und wissen, wovon sie schreiben, oder irgendwas nachplappern.

Trotzdem sind zwei unterschiedliche Platinen für einen identischen Chip Blödsinn. Das wäre ein Novum in der Geschichte der Halbleiterindustrie. Höhere Stückzahlen bedeuten einen niedrigeren Preis pro Platine, das spricht gegen jeglichen logischen Zusammenhang. Ich kann mir höchstens vorstellen, dass die alten A12 Revision vielleicht durch einen höheren stromverbrauch einen aufwändigere Platine benötigt, und deshalb dieses Gerücht kursiert, diese wird aber dann IMHO sicher nicht in den Handel kommen.

Hm, AMD könnt ja auch sowas verbauen, als Lüfter:
http://www.order.conrad.com/m/5000_5999/5700/5700/5701/570184_BB_00_FB.EPS.jpg

Natürlich, so würde man zwar sämtliche Erweiterungsslots blockieren, und hat dabei noch nichtmal einen Kühlkörper darunter, aber sonst siehts ganz toll aus. :|

Gast
2007-01-10, 01:51:12
kann mich noch daran erinnern, dass alle karten von einen zum anderen ende des gehäuses gingen und am ende arrettiert worden.

wozu die aufregung alles schon dagewesen.

seahawk
2007-01-10, 07:46:48
Die Karte ist so nie und nimmer die finale Verkaufsversion. Das ist einfach ein Vorserienboard, bei welchem Dinge wie die länge der Platine oder die Kühllösung schlicht egal sind. Der Lüfter selbst ist ja mal mindestens fünf cm vom eigentlichen Kühlkörper entfernt, das hier noch eine deutliche Platzersparnis drin ist, sollte klar sein.

Ich sage doch, dass es andere Kühllösungen geben wird.

PCGH_Carsten
2007-01-10, 09:52:52
Trotzdem sind zwei unterschiedliche Platinen für einen identischen Chip Blödsinn. Das wäre ein Novum in der Geschichte der Halbleiterindustrie.
7900GX2 vs. 7950GX2?

Byteschlumpf
2007-01-10, 10:14:44
Dell z.B. hat bei den Karten oftmals nen anhängsel dran ...

http://ad.impress.co.jp/tie-up/dellcontact0206/newpro/051025/images/ph04.jpg

Ich find das 12" Monster jedenfalls echt cool - leider würd es net ins Case passen :(
Der hintere Teil soll wahrscheinlich den Halt der Karte im Gehäuse verbessern.
Mit Spoiler sieht das jedenfalls viel cooler aus! :D

[](-__-)[]
2007-01-10, 10:33:45
Darüber hinaus wurde den Kollegen die Information zugespielt, dass Grafikkarten mit dem R600 offenbar in zwei verschiedenen Größen erscheinen sollen. So wird es die Consumer-Version, die für den Endkunden bestimmt ist, eine Länge von neun Zoll besitzen. Dies entspricht etwa 23 cm und damit exakt den Abmessungen von nVidias Flaggschiff, der GeForce 8800 GTX (ComputerBase-Test). Die Version des R600, die ihren Weg in Workstations und OEM-PCs finden wird, soll dagegen sogar zwölf Zoll groß sein. Mit einer Länge von rund 30 cm würde man damit vieles bisher Dagewesene in den Schatten stellen.

Mir ist klar dass das hier schon bekannt ist!

Aber ich will auf etwas anderes hinaus.

Die Consumer Version wird ja die selbe Leistungsfähigkeit wie die Workstation Version haben, vielleicht weniger Ram, denn die Workstation kommt definitiv mit 1024 MB Ram.

Kann durch diesen Größenunterschied nicht darauf schließen, dass der R600 eine hohe Leistungsaufnahme hat, floglich natürlich warm wird, was dazu führt, dass der Lüfter nicht leise genug für die Workstationkarte ist, sodass ein größerer Kühler und mit einen größeren Lüfter, weniger RPM, verwendet werden muss?

paul.muad.dib
2007-01-10, 10:40:35
Natürlich, so würde man zwar sämtliche Erweiterungsslots blockieren, und hat dabei noch nichtmal einen Kühlkörper darunter, aber sonst siehts ganz toll aus. :|

Nicht umbedingt. Wenn der über die Länge der sonstigen Karten hinausragt, dann stört das diese nicht.

seahawk
2007-01-10, 12:01:48
7900GX2 vs. 7950GX2?

War die 7900GX2 nicht eher eine Art "Prototyp", der nie Retail gehen sollte. Während ich mir nicht vorstellen kann, dass ATI dauerhaft / absichtlich zwei PCBs fertigen möchte.

reunion
2007-01-10, 12:02:25
7900GX2 vs. 7950GX2?

Damit hast du zwar nicht ganz unrecht, allerdings war die 7900GX2 eher eine Designstudium, um schnellstmöglich Quad-SLi zu ermöglichen, die bald durch die 7950GX2 ersetzt wurde. R600 hingegen ist kein Schnellschuss, sondern schon lange geplant.

StefanV
2007-01-10, 12:08:15
Trotzdem sind zwei unterschiedliche Platinen für einen identischen Chip Blödsinn. Das wäre ein Novum in der Geschichte der Halbleiterindustrie.
Hm...
x1900GT?
7800/7900 GT vs GTX
8800GTS vs GTX

Nur mal so einige Beispiele.

Achja, beim R200 gabs auch noch eins mit 128MiB und BGA RAM statt 64MiB und TSOP...

reunion
2007-01-10, 12:36:15
Hm...
x1900GT?
7800/7900 GT vs GTX
8800GTS vs GTX

Nur mal so einige Beispiele.

Achja, beim R200 gabs auch noch eins mit 128MiB und BGA RAM statt 64MiB und TSOP...

Deine Vergleiche hinken, und das weißt du auch.
Die 8800GTS benötigt deutlich weniger Strom wie die GTX, und kann so auf einen Stromanschluss plus ein paar Spannungswandler verzichten, das macht die Platine natürlich kleiner. Die 7900-Serie ist der Nachfolger der 7800-Serie, hier wurde natürlich auch die Platine etwas optimiert, zudem wurde durch den 90nm Pozess auch deutlich Strom gespart, was sich wieder positiv auf die Platinengröße auswirkt. Bei R200 sagst du im Grunde selbst, warum hier zwei unterschiedliche Platinen erforderlich waren, und bei X1900GT weiß ich nicht was du meinst.

Es ist auch nicht ausgeschlossen, dass ein R600 XTX eine großere Platine als die GT-Version haben wird, für unrealistisch halte ich allerdings zwei identische Chips mit gleicher Speichergröße, gleicher Anzahl an aktivierten Einheiten, etc. aber unterschiedlichen Platinen. Das macht IMHO keinen Sinn.

seahawk
2007-01-10, 12:47:05
Der Logik folgend könnte man ja sagen, dass es die Topversion des R600 erstmal nur für OEMs geben wird und die Retailversion erstmal nur ne XL ... ne das ist natürlch Quark ... wobei... X1800.... - ok ist Quark

StefanV
2007-01-10, 12:47:06
Wo hinkt denn der Vergleich der Radeon 8500?? :|
Bei der 6800 gabs auch 'ein paar' verschiedene Platinenlayouts, warum ist doch egal...

Außerdem hast das mit der G-Force 7 nicht wirklich verstanden, da meinte ich nicht 7800/7900 sondern GT vs GTX.

=Floi=
2007-01-10, 13:21:02
http://pics.computerbase.de/1/6/7/9/9/1.jpg
der hintere stromstecker ist der normale 6pin stecker aber was ist der vordere mit den 8 pins für einer?

seahawk
2007-01-10, 13:37:53
2x4 PCI-E

PCGH_Carsten
2007-01-10, 14:09:48
War die 7900GX2 nicht eher eine Art "Prototyp", der nie Retail gehen sollte. Während ich mir nicht vorstellen kann, dass ATI dauerhaft / absichtlich zwei PCBs fertigen möchte.
Damit hast du zwar nicht ganz unrecht, allerdings war die 7900GX2 eher eine Designstudium, um schnellstmöglich Quad-SLi zu ermöglichen, die bald durch die 7950GX2 ersetzt wurde. R600 hingegen ist kein Schnellschuss, sondern schon lange geplant.

Nichtsdestotrotz waren es zwei PCBs, andere Beispiele hat Stefan ja schon gebracht. Und wenn es wirklich verschiedene PCBs beim R600 sein sollten, wird sich Ati sicherlich auch etwas dabei gedacht haben. Zum Spaß entwickelt man ja keine Leiterplatine, schließlich kostet das auch einen Haufen Geld.


edit:
Was man auch in Betracht ziehen sollte: GDDR3 und GDDR4 sind nicht pinkompatibel. Wenn es wirklich "Pele" und "Ufo" geben sollte, dann gibt's auch zwei PCBs allein schon vom RAM her.

Botcruscher
2007-01-10, 19:00:19
Es wird auf jeden Fall Zeit das etwas durchsickert.