PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 3 (der letzte?)


Seiten : 1 2 3 [4]

Die gelbe Eule
2007-02-08, 06:35:47
Also verstehe ich das so, daß man mehr könnte, aber vielleicht der Performanceverlust gegenüber G80 zu gefährlich wäre, es als ultimative Option offiziell zuzulassen, right?
Gerade bei so einem Transistormonster sollte man erwarten, daß die Qualität das wichtigeste ist und nicht mehr der Balken unter Auflösungen die eh keiner nutzt, bzw. erst dort die Unterschiede deutlich werden, was der eine schneller oder langsamer kann.

Ailuros
2007-02-08, 07:47:43
Also verstehe ich das so, daß man mehr könnte, aber vielleicht der Performanceverlust gegenüber G80 zu gefährlich wäre, es als ultimative Option offiziell zuzulassen, right?
Gerade bei so einem Transistormonster sollte man erwarten, daß die Qualität das wichtigeste ist und nicht mehr der Balken unter Auflösungen die eh keiner nutzt, bzw. erst dort die Unterschiede deutlich werden, was der eine schneller oder langsamer kann.

So viel weiss ich nun auch wieder nicht; eine laienhafte These von mir waere dass mehr als X samples fundamentalere Aenderungen mit sich gefuehrt haette was das grid, triangle setup oder weiss der Geier auch immer.

ATI sollte IMHLO sich einfach mal anders wenden und full scene RGSS zulassen, entweder nur reines Supersampling oder irgend eine hybride Implementierung. Erstens einmal koennte IMO mit der Bandbreite und 1GB Speicher eine G80 schwer nachholen und zweitens wuerde ATI somit eine gesunde Portion von bisherigen NV-Kunden schnappen. Ich bin zwar persoenlich kein besonderer SSAA-Anhaenger wegen der Resourcen-Verschwendung die SS mit sich bringt, aber da anscheinend NV mit Absicht den Zugang zu jeglichem FS-SSAA verweigert - obwohl dieses durchaus moeglich ist - waere es ein Gedanke. Ich verdaechtige aber dass beide IHVs nicht zu solchen Loesungen greifen werden, weil sie ohnehin schon viel zu viel Zeit verplempern zwei verschieden OSs mit Treibern zu unterstuetzen. Im Fall von NV dienten die hybriden Modi bis jetzt eher eine hohe Sample-anzahl behaupten zu koennen; mit CSAA geht es jetzt eben leichter und im Profi-Markt wie z.B. Quantum3D wird auf den neuesten Systemen auch kein SSAA mehr benutzt.

Verstaendlicherweise werden sich die jeweiligen Sample-Anzahlen auf SLi/CF verdoppeln und so ganz irrelevant zur ganzen Geschichte ist dieser "Verkaufsgrund" dann auch wieder nicht.

Auf jeden Fall erwarte ich 16xMSAA auf keiner D3D10 GPU fuer die absehbare Zukunft, ausser Intel werkelt mit IMG's IP rum und kommt tatsaechlich mit standalone GPUs an. Hat ein solcher "exotischer" Design dann auch die dementsprechenden ROPs, verbratet er dann nicht unbedingt viel mehr Bandbreite und/oder Speicher wie CSAA.

LovesuckZ
2007-02-08, 07:56:58
ATI sollte IMHLO sich einfach mal anders wenden und full scene RGSS zulassen, entweder nur reines Supersampling oder irgend eine hybride Implementierung. Erstens einmal koennte IMO mit der Bandbreite und 1GB Speicher eine G80 schwer nachholen

Ich glaube nicht, dass der r600 beim Einsatz von Supersampling von seiner hohen Bandbreite gebrauch machen kann. Aus meiner Sicht krankt es dann an der texturleistung.

Ailuros
2007-02-08, 08:11:39
Ich glaube nicht, dass der r600 beim Einsatz von Supersampling von seiner hohen Bandbreite gebrauch machen kann. Aus meiner Sicht krankt es dann an der texturleistung.

Supersampling waere ohnehin nicht fuer die neuesten Spiele gedacht und waere so oder so von begrenzter Brauchbarkeit. Wieviele alte Spiele kann man heute auf G7x mit entweder 8xS oder 16xS genau fluessig spielen? Fuer diese Faelle liegt die R600 Fuellrate immer noch im Ueberfluss.

LovesuckZ
2007-02-08, 08:17:22
Fuer diese Faelle liegt die R600 Fuellrate immer noch im Ueberfluss.

Ebenso wie bei der 8800GTX. Ich bezweifel, dass sich das Konkurrenz - Modell aufgrund der deutlich höheren Bandbreite absetzen kann.
Immerhin reduzieren zusätzliche 4 Texture-Samples die Texturaufleistung auf 1/4. Da werden wohl die 86,4 GB/s Bandbreite der 8800GTX locker reichen...

Raff
2007-02-08, 08:39:18
Daher böten sich ja Hybriden an, idealerweise RGSS + RGMS. Durch den MS-Anteil kann man die Geometrie etwas hübscher machen und nebenbei noch die Bandbreite stressen. ;)

MfG,
Raff

Ailuros
2007-02-08, 09:33:04
Ebenso wie bei der 8800GTX. Ich bezweifel, dass sich das Konkurrenz - Modell aufgrund der deutlich höheren Bandbreite absetzen kann.
Immerhin reduzieren zusätzliche 4 Texture-Samples die Texturaufleistung auf 1/4. Da werden wohl die 86,4 GB/s Bandbreite der 8800GTX locker reichen...

Gilt das gleiche auch fuer die Z-Fuellrate/Bandbreite Relation?

robbitop
2007-02-08, 09:47:01
RGSSAA zu realisieren dürfte ATI/NV ein müdes Lächeln kosten. Aber anhand des fps Verlustes dürfte das die beiden IHVs nicht interessieren. Bis auf ein paar Freaks in irgendwelchen Foren will sowieso keiner SSAA.

LovesuckZ
2007-02-08, 09:48:31
Gilt das gleiche auch fuer die Z-Fuellrate/Bandbreite Relation?

Das weiß ich nicht.
Aber wenn man sich die Ergebnisse bei Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/februar/vista-forceware_hybrid-aa_g80/) ansieht, dann ist 4xMSAA doppelt so schnell wie 2x2 SSAA. Ich glaube nicht, dass mehr Speicherbandbreite das Ergebnis deutlich verbessern würde.

Die gelbe Eule
2007-02-08, 09:51:36
Es muss ja auch dem breiten Anwender irgendwie im Nert verständlich gemacht werden, das er mit einer bestimmten Qualität, bestimmte Vorteile hat, wofür er etwas Performance lassen könnte. Nur das wird er/sie niemals in Benchmarks lesen können, weil das die IHVs nicht so haben wollen. Ein brutal geiles Bild sieht im Stand toll aus, nur mit der Diashow läßt sich nichts anfangen.

Ich frage mich, warum braucht man 1GB RAM und das noch in GDDR4 mit den hohen Taktaten, wenn man doch eh keine besseren Modi anbieten möchte? Geht es wirklich nur darum, in 2560x1600 ein paar fps weiter vorne zu stehen?

paul.muad.dib
2007-02-08, 09:58:16
Kleine Überlegung:

Wieviele Leute wissen überhaupt was AA/AF ist und wollen es einsetzen?

Wieviele von denen kennen den Unterschied zwischen Supersampling und Multisampling?

Und wieviele der zweiten Gruppe wollen nun tatsächlich zumindest einen SS Anteil?

Da werden wohl nicht mehr genug übrigbleiben, um das zu einem Verkaufgrund zu machen.
Solange außerdem der AF ordentlich implementiert ist und die Spieleentwickler ordentliche Shader erstellen, das ist ja auch ein Lernprozess, braucht es imo kein SSAA mehr.

Die gelbe Eule
2007-02-08, 10:13:40
Ich denke wer 500€ für ein Stück Hardware ausgibt, weiß was er möchte. Die Zeiten mit in CS 1.6 100fps sind lange vorbei. Der Spieler möchte schon wissen, wie er sein System so aussehen läßt, wie die Hersteller es mit Hochglanzscreenshots zeigen.

Ailuros
2007-02-08, 10:15:13
Das weiß ich nicht.
Aber wenn sich die Ergebnisse bei Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/februar/vista-forceware_hybrid-aa_g80/) ansieht, dann ist 4xMSAA doppelt so schnell wie 2x2 SSAA. Ich glaube nicht, dass mehr Speicherbandbreite das Ergebniss deutlich verbessern würde.

Ich erwarte dass R600 mit 1xAA nicht unbedingt schneller sein wird als G80, aber durchaus einen geringeren Leistungsverlust haben koennte fuer 4x oder mehr AA. Das Beispiel von Computerbase ist trotzdem nicht schlecht, da man in 1280 auch immer noch ziemlich CPU-limitiert ist. Hier verliert die G80 mit 4xMSAA ~23% und mit 4xSSAA ~64%, was mir einen Faktor von 2.8 gibt stets von 1xAA.

So wie es aussieht haben R600/G80 womoeglich in etwa die gleiche Z Fuellrate; im einen Fall aber mit =/>120GB und im zweiten 86.4GB/s. Auf jeden Fall "stockt" die Bandbreite die Z Fuellrate auf R600 wohl erstmal nicht.

PCGH_Carsten
2007-02-08, 10:21:16
Schön auch zu sehen, dass man beinahe 55 Prozent mehr als das rechnerische Sechzehntel der Fps-Leistung mit 4x4 SSAA erreicht. :) Schade allerdings, dass trotzdem nichtmal 15 Fps herauskommen. :(

Ailuros
2007-02-08, 10:29:28
Schön auch zu sehen, dass man beinahe 55 Prozent mehr als das rechnerische Sechzehntel der Fps-Leistung mit 4x4 SSAA erreicht. :) Schade allerdings, dass trotzdem nichtmal 15 Fps herauskommen. :(

So und jetzt erklaer mir mal was der Dichter genau bei B3D sagen wollte; auf jeden Fall ist R600 kein R580+D3D10 falls es um eine solche Andeutung ging.

Die gelbe Eule
2007-02-08, 10:31:52
Nur wer würde es wirklich nutzen? Es gibt schon so wenige HighEnd User, da sind die Geeks unter denen mit solchen Wünschen, auch wenn sie Recht haben, diejenigen welche müde belächelt werden.

DrumDub
2007-02-08, 10:48:57
Der chip kann schon theoretisch in 2D auf niedrigere Taktraten umschalten; der Unterschied des ALU domains ist aber so gross, dass das umschalten eben nicht immer nach Plan laufen wuerde. Wer noch G7x Treiber Ueberreste im System bei einer G80 Installation hatte, musste oefters zusehen wie die Leistung aus dem Blauen auf 1/3 purzelte und nur eine saubere Treiberinstallation rettete den Tag. G7x und co haben 2D clock domains, G8x eben nicht. (Dargo ich hoffe das reicht erstmal als Erklaerung ;) ). ist zwar ot, aber danke für diese aufklärung. jetzt hat man endlich mal nen technischen hintergrund zu der sache.

PCGH_Carsten
2007-02-08, 12:04:21
So und jetzt erklaer mir mal was der Dichter genau bei B3D sagen wollte; auf jeden Fall ist R600 kein R580+D3D10 falls es um eine solche Andeutung ging.
Doch, darum ging es (2*R580+D3D10; inklusive aller Implikationen). Zumindest von der Anzahl der Funktionseinheiten und auch bei den PS-ALUs werden Sie IMO keine bewährte Technologie einfach auf den Müll werfen.

Ailuros
2007-02-08, 12:16:09
Doch, darum ging es (2*R580+D3D10; inklusive aller Implikationen). Zumindest von der Anzahl der Funktionseinheiten und auch bei den PS-ALUs werden Sie IMO keine bewährte Technologie einfach auf den Müll werfen.

Xenos ALUs fehlt IMO ein wenig Flexibilitaet; fueg diese hinzu und dann bist Du wohl eher auf dem richtigen Pfad. Und es sind 4 clusters und nicht 6.

PCGH_Carsten
2007-02-08, 12:19:21
Ich bleibe gespannt - Fehlinformationen streuen kann bestimmt nicht nur Nvidia ;)

robbitop
2007-02-08, 12:56:27
64xVec4/5 ALUs klingt jedenfalls ein bisschen arg wenig, bzw ein bisschen zu einfach für R600. Da kommt bestimmt noch der ein oder andere Knaller.

deekey777
2007-02-08, 15:21:16
Also verstehe ich das so, daß man mehr könnte, aber vielleicht der Performanceverlust gegenüber G80 zu gefährlich wäre, es als ultimative Option offiziell zuzulassen, right?
Gerade bei so einem Transistormonster sollte man erwarten, daß die Qualität das wichtigeste ist und nicht mehr der Balken unter Auflösungen die eh keiner nutzt, bzw. erst dort die Unterschiede deutlich werden, was der eine schneller oder langsamer kann.
Nein, doch. Jein.
Bei B3D gibt einen interessanten Gedankengang von Geo. Nehmen wir an, der R600 hat die gleiche maximale MSAA-Stufe wie der G80 (max. 8xMSAA). Der R600 hat max. 150 GB/s Speicherbandbreite, der G80 "nur" 84 GB/s. Der G80 beherrscht das CSAA, was eine bandbreitenschonende Maßnahme ist. Was hat der R600 nicht?
Der Performance-Verlust wäre mit 1:1-MSAA (zB vermeintliches 8xMSAA bei beiden Kontrahenten) bei einem Grafikchip mit über 100 GB/s Speicherbandbreite geringer.
Aber da ist die Frage der Texturfilterung: Selbst wenn der R600 die gleiche Qualität bietet, kann er bei der Performance mithalten?
Xenos ALUs fehlt IMO ein wenig Flexibilitaet; fueg diese hinzu und dann bist Du wohl eher auf dem richtigen Pfad. Und es sind 4 clusters und nicht 6.
96 ist auch durch 4 teilbar. Nur ein Scherz.
Man darf nicht vergessen, dass nVidia so auch AMD auch kleinere Chips bauen (werden). Da wäre meiner Meinung nach bei 16 Recheneinheiten und vier TMUs Ende im Gelände.

64xVec4/5 ALUs klingt jedenfalls ein bisschen arg wenig, bzw ein bisschen zu einfach für R600. Da kommt bestimmt noch der ein oder andere Knaller.
Bin zu faul, jetzt zu suchen, aber Xmas antwortete darauf: "Und was ist dann der Highendchip?";)
Ich hab's:
Es geht hier immerhin um einen Zeitabstand von eineinhalb Jahren. ATI muss von vornherein Skalierbarkeit vorsehen, da sie ja eine ganze Chipfamilie entwickeln müssen, und auch nicht die Fortschritte in der Fertigungstechnik exakt voraussagen können. Ich kann mir durchaus vorstellen dass man da zunächst mehr Chipvarianten betrachtet (sowohl nach oben als auch nach unten) als am Ende hergestellt werden.

Wenn R600 64 Vec5 MAD ALUs hat, wie heißt dann der High-End-Chip?

Nakai
2007-02-08, 15:53:49
Wieso nicht? So wäre die ADD-ALU durch ein Mul erweitert worden.
Und wenn dieser Shader ähnlich dem Xenos splittbar sei, also das er Befehle verarbeiten kann, die zusammen 5 ergeben, wäre eine ausreichende Flexibilität gegeben. Wobei ich immer noch meine das es 2 ALUs werden, Vec4 und MAD-Scalar, wobei die Vec4 wie der Xenos gesplittet werden kann.
(Ich frag mich trotzdem, wie man für 64 Vec4+Scalar oder Vec5 so viele Transis verschwenden kann, wenn der R600 über 700 Millionen geht.)

96 ist auch durch 4 teilbar. Nur ein Scherz.
Man darf nicht vergessen, dass nVidia so auch AMD auch kleinere Chips bauen (werden). Da wäre meiner Meinung nach bei 16 Recheneinheiten und vier TMUs Ende im Gelände.

Es gab mal irgendwo eine nette Überlegung, dass es vll 96 "kleinere" Shader werden.

mfg Nakai

Gast
2007-02-08, 16:07:26
aber da anscheinend NV mit Absicht den Zugang zu jeglichem FS-SSAA verweigert - obwohl dieses durchaus moeglich ist - waere es ein Gedanke. In einem aktuellen Vista-Treiber funktionieren die Hybridmodi wieder.

Hvoralek
2007-02-08, 16:12:59
Ob die Shader bei G80 wirklich so effizient sind, wird sich erst zeigen müssen. Zwar dürfte die Auslastung sehr gut sein, aber die Kosten dafür waren sicherlich auch nicht unerheblich.Ich bezog mich auf die Relation zur theoretischen Leistung, nicht auf Pro- Transistor- Effizienz.

robbitop
2007-02-08, 16:14:04
Wieso nicht? So wäre die ADD-ALU durch ein Mul erweitert worden.
Das war keine "echte" ALU, sondern eine MiniALU die eh meist mit anderen Dingen beschäftigt war (input modifier, perspektiv korrektur).
Woran siehst du dass diese noch existent wäre. Wenn R600 aus Xenos stammt, dann sind diese MiniALUs nun passé.


Und wenn dieser Shader ähnlich dem Xenos splittbar sei, also das er Befehle verarbeiten kann, die zusammen 5 ergeben, wäre eine ausreichende Flexibilität gegeben.
Inwiefern sind die Xenos ALUs denn splitbar? (genau bitte)
Und was ist eine "ausreichende" Flexibilität?


Wobei ich immer noch meine das es 2 ALUs werden, Vec4 und MAD-Scalar, wobei die Vec4 wie der Xenos gesplittet werden kann.
(Ich frag mich trotzdem, wie man für 64 Vec4+Scalar oder Vec5 so viele Transis verschwenden kann, wenn der R600 über 700 Millionen geht.)
Und was soll das bringen? (genau bitte)
Wir wissen doch noch gar nicht wie R600 aussieht. Die 64 ALUs sind bisher nicht gesichert. Übrigens ist es verdammt teuer, D3D10 ALUs zu bauen (die müssen nämlich eine ganze Menge können!).



Es gab mal irgendwo eine nette Überlegung, dass es vll 96 "kleinere" Shader werden.
Was sind denn "kleinere" Shader?

reunion
2007-02-08, 16:16:28
Wobei Dein Einwand nochmal genau wo ist? Da Du anscheinend auch noch zusaetzlich etwas vergesslich bist, schlag einige Monate zurueck und es wird nicht schwer sein zu sehen dass ich selber davor warnte dass man von den Spezifikationen irre gefuehrt werden kann. Auf ersten Blick klingen manche Aspekte zu bescheiden, aber dafuer wird die kreative Mathe der Marketing-Abteilung schon sorgen; genauso eben wie G80 im Grunde keine 128SPs sondern eher 16*Vec8 ALUs hat. Grosse Zahlen verkaufen sich besser.

Welche "Wahrheit" willst Du denn genau hoeren? Und ja natuerlich sind theoretische Zahlen mit Vorsicht zu geniessen, was aber ebenso fuer zweistellige als auch fuer dreistellige ALU counts gilt. Im einen Fall denkt der Laie wohl "Mist wo ist denn dann der high end chip" und im zweiten "wow das Ding wird um einen Faktor von 2.5x den G80 in den Boden stampfen". Pick your poison.


64 Vec5-ALUs, 32 TMUs, 16 ROPs, 512-bit SI. Ich behaupte einfach mal damit kann man G80 nicht schlagen, auch wenn es sich nur um theoretische Zahlen handelt, da die Auslastung der einzelnen Einheiten bei diesem nach jetztigem Stand der Dinge sehr gut sein soll. Außerdem benötigt man dafür keine >700mio Transistoren. Auf was ich hinaus will, ist, dass hier noch wesentliche Teileaspekte fehlen, bzw. falsch sind.

Coda
2007-02-08, 16:17:06
Übrigens ist es verdammt teuer, D3D10 ALUs zu bauen (die müssen nämlich eine ganze Menge können!).
Eigentlich nicht. Integer-Zeug kannst auch auf den FP-ALUs rechnen. Man musste halt noch Bitshifts usw. einbauen, aber soo viel ist das nicht.

robbitop
2007-02-08, 16:20:50
Eigentlich nicht. Integer-Zeug kannst auch auf den FP-ALUs rechnen. Man musste halt noch Bitshifts usw. einbauen, aber soo viel ist das nicht.
Was ist mit der IEEE-754 compliance? Das Integerformat kann man m.W. nicht so einfach auf einer D3D9 ALU rechnen (mit geforderter Genauigkeit).
Die ganzen Rundungsregeln und der Umgang mit Nichtzahlen kommt auch noch hinzu.

dargo
2007-02-08, 16:22:01
Der chip kann schon theoretisch in 2D auf niedrigere Taktraten umschalten; der Unterschied des ALU domains ist aber so gross, dass das umschalten eben nicht immer nach Plan laufen wuerde. Wer noch G7x Treiber Ueberreste im System bei einer G80 Installation hatte, musste oefters zusehen wie die Leistung aus dem Blauen auf 1/3 purzelte und nur eine saubere Treiberinstallation rettete den Tag. G7x und co haben 2D clock domains, G8x eben nicht. (Dargo ich hoffe das reicht erstmal als Erklaerung ;) ).
Was meinst du mit erstmal? Wird etwa früher oder später NV dazu offiziell Stellung nehmen?

Außerdem stellt sich mir die Frage ob diese Design Entscheidung auf Kosten des Stromverbrauchs in 2D richtig war. Ich meine gut, Performance ist zwar sehr wichtig. Aber der 2D Stromverbrauch eben auch. Heißt das etwa NV wird dieses Design weiter fortsetzen und wir sehen bei den nächsten Chips ebenfalls einen viel zu hohen Stromverbrauch in 2D?

reunion
2007-02-08, 16:23:21
Ich bezog mich auf die Relation zur theoretischen Leistung, nicht auf Pro- Transistor- Effizienz.

Sorry, dann habe ich das falsch aufgefasst. Wobei eine hohe Auslastung streng gesehen nichts mit Effizienz zu tun hat.

Woran siehst du dass diese noch existent wäre. Wenn R600 aus Xenos stammt, dann sind diese MiniALUs nun passé.

Wenn AiL hier nicht falsche Infos bekommen hat, dann ist die zusätzliche ADD fix. Zumindest hatte es das weiter hinten angegeben.

Heißt das etwa NV wird dieses Design weiter fortsetzen und wir sehen bei den nächsten Chips ebenfalls einen viel zu hohen Stromverbrauch in 2D?

Wenn man auf die höhere Clockdomain der ALUs nicht verzichten will, ist das naheliegend. Und das könnte sich bis zu den Lowend-Chips durchziehen. Ich bin gespannt, ob auch diese einen NVIO bekommen, oder ob man diesen hier zugunsten der Kosten und des 2D-Stromverbrauchs integriert, und dafür auf die hohe ALU-Taktrate verzichtet. Aber wer weiß, vielleicht findet nV doch noch eine Lösung, die beides möglich macht.

robbitop
2007-02-08, 16:29:54
Wenn AiL hier nicht falsche Infos bekommen hat, dann ist die zusätzliche ADD fix. Zumindest hatte es das weiter hinten angegeben.
Ja aber kein ADD4 wie früher.

dargo
2007-02-08, 16:39:21
Ich frage mich, warum braucht man 1GB RAM und das noch in GDDR4 mit den hohen Taktaten, wenn man doch eh keine besseren Modi anbieten möchte? Geht es wirklich nur darum, in 2560x1600 ein paar fps weiter vorne zu stehen?
Ich denke mal das kann man dem 512Bit SI verdanken. Der R600 kommt einige Monate später und die einzige sinnvolle Alternative wären 512MB Vram. Da aber der G80 schon 768MB bietet würde ATI da wohl etwas blöd darstehen. Deswegen ist die einzige logische Steigerung 1GB Vram.

paul.muad.dib
2007-02-08, 16:45:17
Ein Desing mit 64 ALUs und 32 TMUs kann ich mir irgendwo nicht vorstellen. Bei r580 hat ATI noch groß propagiert, dass die geforderte Shaderleistung viel stärker zunimmt als die Texturleistung/Füllrate.

Und jetzt sollen sie auf einmal gegenüber dem r580 die Füllrate mehr als verdoppeln (TMUx2xtaktsteigerung) und die Shaderleistung kaum erhöhen (48 PS + 8 VS -> 64 US).

Das würde entweder heißen, dass r580 im NAchhinein viel zu wenig Füllrate hatte (oder sie erst jetzt gebracht wird, wo auch die entsprechnende Speicherbandbreite zur Verfügung steht), oder aber, dass der Trend auf einmal nicht mehr zu Shadern, sondern zu Füllrate geht.

Zweiteres kann man wohl ausschließen, ersteres halte ich zumindest für unwahrscheinlich.
Insofern glaube ich, dass:

1. Entweder weniger TMUs vorhanden sind, dann bräuchte ATI aber kein 512 bit SI,

2. Oder mehr Alus eingebaut werden (96?),

3. Oder falls die 64 zutrifft, diese deutlich mehr können (2 MAD?)


Die These, r580 x2 + DX10 würde ich ATI schon zutrauen. Von der Transistorzahl kommt es ganz gut hin. Allerdings wäre die Effizienz in Hinblick auf Transitorzahl wohl ziemlich schlecht, da der r580 hier nicht gerade glänzt und bei einer Verdopplung des Designs wohl weniger als eine Verdopplung der Leistung herauskäme.

PCGH_Carsten
2007-02-08, 17:01:22
Was ist mit der IEEE-754 compliance? Das Integerformat kann man m.W. nicht so einfach auf einer D3D9 ALU rechnen (mit geforderter Genauigkeit).
Die ganzen Rundungsregeln und der Umgang mit Nichtzahlen kommt auch noch hinzu.
Ich schmücke mich jetzt mal nicht mit Demirugs Federn:
"...Darum modifizierte Nvidia eine der beiden ALU-Gruppen so, dass damit korrrekte Integer-Berechnungen möglich sind. Die FP32-ALUs (32 Bit Gleitkommagenauigkeit) verfügen bereits über zwei vernetzte Rechenwerke für die Mantisse (24 Bit) und den Exponenten (8 Bit). Eine Erweiterung um Integer-Berechnungen kostet weniger Transistoren, als hätte man separate INT-Einheiten integriert. Unter OpenGL geht man sogar noch einen Schritt weiter und bietet das neue Format separat an." (PCGH 02/2007, S.153)

Wenn Nvidia das kann, werden Atis Ingenieure sicherlich auch auf diese Idee gekommen sein.

seahawk
2007-02-08, 17:16:26
Ein Desing mit 64 ALUs und 32 TMUs kann ich mir irgendwo nicht vorstellen. Bei r580 hat ATI noch groß propagiert, dass die geforderte Shaderleistung viel stärker zunimmt als die Texturleistung/Füllrate.

Und jetzt sollen sie auf einmal gegenüber dem r580 die Füllrate mehr als verdoppeln (TMUx2xtaktsteigerung) und die Shaderleistung kaum erhöhen (48 PS + 8 VS -> 64 US).

Das würde entweder heißen, dass r580 im NAchhinein viel zu wenig Füllrate hatte (oder sie erst jetzt gebracht wird, wo auch die entsprechnende Speicherbandbreite zur Verfügung steht), oder aber, dass der Trend auf einmal nicht mehr zu Shadern, sondern zu Füllrate geht.

Zweiteres kann man wohl ausschließen, ersteres halte ich zumindest für unwahrscheinlich.
Insofern glaube ich, dass:

1. Entweder weniger TMUs vorhanden sind, dann bräuchte ATI aber kein 512 bit SI,

2. Oder mehr Alus eingebaut werden (96?),

3. Oder falls die 64 zutrifft, diese deutlich mehr können (2 MAD?)


Die These, r580 x2 + DX10 würde ich ATI schon zutrauen. Von der Transistorzahl kommt es ganz gut hin. Allerdings wäre die Effizienz in Hinblick auf Transitorzahl wohl ziemlich schlecht, da der r580 hier nicht gerade glänzt und bei einer Verdopplung des Designs wohl weniger als eine Verdopplung der Leistung herauskäme.

Wenn man so an R550/R580 denkt dann macht das alles so woe spekuliert wird Sinn.

Nakai
2007-02-08, 17:19:20
1.
Das war keine "echte" ALU, sondern eine MiniALU die eh meist mit anderen Dingen beschäftigt war (input modifier, perspektiv korrektur).
Woran siehst du dass diese noch existent wäre. Wenn R600 aus Xenos stammt, dann sind diese MiniALUs nun passé.

2. Inwiefern sind die Xenos ALUs denn splitbar? (genau bitte)
Und was ist eine "ausreichende" Flexibilität?


3. Und was soll das bringen? (genau bitte)
Wir wissen doch noch gar nicht wie R600 aussieht. Die 64 ALUs sind bisher nicht gesichert. Übrigens ist es verdammt teuer, D3D10 ALUs zu bauen (die müssen nämlich eine ganze Menge können!).



4. Was sind denn "kleinere" Shader?



Zu 1.: Diese Mini-ALU konnte nur ein scalares ADD. Für rechtviel anderes war die eh nicht zu gebrauchen.
Vll wird sie durch eine scalare MAD-ALU ersetzt.

Zu 2.: 5 zu 4+1.
Ausreichende Flexibilität, wenn es nach mir ginge, max 3 Befehle pro Takt.
(Also 1+2+2 oder 3+1+1, wäre jedenfalls bei 64 Shader eine gute Basis)

Zu 3 .: 64 oder 96 sind wohl wahrscheinlich. :rolleyes:

Zu 4.: Scalar oder wie beim Xenos das ADD.

mfg Nakai

LovesuckZ
2007-02-08, 18:00:17
Ich glaube nicht, dass der r600 beim Einsatz von Supersampling von seiner hohen Bandbreite gebrauch machen kann. Aus meiner Sicht krankt es dann an der texturleistung.

Da man mit dem DxTweaker 2x2 OGSSAA erzwingen kann, mal ein paar Werte.
Spiel war Call of Duty 2 in 1680*1050 (alles auf High) mit 16xHQAF.
Zu erst gemessene Werte mit Fraps:


621C/1000S
2007-02-08 17:24:16 - CoD2SP_s
Frames: 305 - Time: 10000ms - Avg: 30.500 - Min: 26 - Max: 33

621C/500S
2007-02-08 17:27:32 - CoD2SP_s
Frames: 262 - Time: 10000ms - Avg: 26.200 - Min: 24 - Max: 29

310,5C/1000S
2007-02-08 17:34:56 - CoD2SP_s
Frames: 166 - Time: 10000ms - Avg: 16.600 - Min: 15 - Max: 18

Man erkennt deutlich, dass mit abnehmder Speicherbandbreite, hier 80% weniger, die Frames gerade mal um 16 zurückgeht.
Dagegen verläuft der Einbruch bei der Verringerung des Coretaktes fast linear.

Nun nochmal Werte mit der "raff Demo"


621C/1000S
34,6

310,5C/1000S
19,7

621C/500S
28,7

Gleiches Ergebnis. Daher würde ATi sich mit der höheren Bandbreite beim Einsatz von Supersampling kaum von nVidia absetzen können

robbitop
2007-02-08, 18:08:12
Ich schmücke mich jetzt mal nicht mit Demirugs Federn:
"...Darum modifizierte Nvidia eine der beiden ALU-Gruppen so, dass damit korrrekte Integer-Berechnungen möglich sind. Die FP32-ALUs (32 Bit Gleitkommagenauigkeit) verfügen bereits über zwei vernetzte Rechenwerke für die Mantisse (24 Bit) und den Exponenten (8 Bit). Eine Erweiterung um Integer-Berechnungen kostet weniger Transistoren, als hätte man separate INT-Einheiten integriert. Unter OpenGL geht man sogar noch einen Schritt weiter und bietet das neue Format separat an." (PCGH 02/2007, S.153)

Wenn Nvidia das kann, werden Atis Ingenieure sicherlich auch auf diese Idee gekommen sein.
Da geht's um die G80 ALUs und die sind so gut wie neu.

Zu 1.: Diese Mini-ALU konnte nur ein scalares ADD. Für rechtviel anderes war die eh nicht zu gebrauchen.
Vll wird sie durch eine scalare MAD-ALU ersetzt.
Beim R5xx? Nein es war eine ADD4 ALU. Wie soll denn ein Input Modifier für eine Vec4 Op in einem Takt sonst vonstatten gehen.


Zu 2.: 5 zu 4+1.
Ausreichende Flexibilität, wenn es nach mir ginge, max 3 Befehle pro Takt.
(Also 1+2+2 oder 3+1+1, wäre jedenfalls bei 64 Shader eine gute Basis)
Aha? :|


Zu 4.: Scalar oder wie beim Xenos das ADD.

Und davon dann 96? Und jeder mit eigener Steuerungslogik? Da machte man sich mit steuerlogik tot. Dann lieber eine größere SIMD Unit so bauen, dass sie nur die skalaren Kanäle übernimmt. (also alles R oder G oder B)

Nakai
2007-02-08, 20:51:33
Und davon dann 96? Und jeder mit eigener Steuerungslogik? Da machte man sich mit steuerlogik tot.

Wieso? Eine Scalare MADD-ALU und eine Vec4-MADD in einer ALU.

Beim R5xx? Nein es war eine ADD4 ALU. Wie soll denn ein Input Modifier für eine Vec4 Op in einem Takt sonst vonstatten gehen.

Ich dachte du sprichst vom Xenos.

Aha?

Spekulation über R600.;D

Wenn du mich nicht hier haben und mich fertig machen willst, sag mir das ins Gesicht. So eine herablassende Art ist nicht gut für eine Diskussion.;)

mfg Nakai

robbitop
2007-02-08, 20:58:27
Wieso? Eine Scalare MADD-ALU und eine Vec4-MADD in einer ALU.

Achso. Was soll das in dem Falle bringen?
Ich finde diese Vec5 Dinger sowieso reichlich unsinnig...ich bin gespannt ob das überhaupt so kommt. Ich zweifle da.



Wenn du mich nicht hier haben und mich fertig machen willst, sag mir das ins Gesicht. So eine herablassende Art ist nicht gut für eine Diskussion.;)

Für sowas gibt's PNs.
Die Artikel CineFX, NV40 inside, die NV40 Trilogie sowie auf B3D den Xenos Artikel kann ich übrigens sehr empfehlen. ;)

reunion
2007-02-08, 21:02:08
Hier noch ein paar "News":
http://www.digitimes.com/bits_chips/a20070208PB200.html
http://www.sdbear.com/2/lib/200702/07/20070207259.htm
http://www.sdbear.com/2/lib/200702/08/20070208182.htm

Gmax
2007-02-08, 21:13:15
Ich frage mich, ob ATI wie beim X1950 es den Grafikkarten Herstellern überläßt, welchen Lüfter sie beim R600 verwenden.

Wäre eine externe Lösung auch denkbar? Cabled PCI Express Details; External GFX Support (http://www.vr-zone.com/?i=4612)

AnarchX
2007-02-08, 21:19:53
Wäre eine externe Lösung auch denkbar? Cabled PCI Express Details; External GFX Support (http://www.vr-zone.com/?i=4612)

Sehr seltsam, dass dies gerade jetzt kommt...
Immerhin gab es vor langer Zeit mal diese Spekulation (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4609897#post4609897).

Vielleicht hat sich ja ATi entschieden den R650 gleich als externe Lösung zu planen um sich nicht mehr mit den Kühlproblemen herumzuschlagen die man in einem ATX-Case hat. ;)

Ansonsten könnte das aber etwas mit den Plänen der beiden IHVs mit der Unterstützung von bis zu 8 GPUs(nV) bzw. 4 GPUs zu tun haben.

Auf jeden Fall kommt da wohl dieses Jahr noch einiges auf uns zu.

Gmax
2007-02-08, 21:34:26
Danke für den Link.
Man könnte ja auch den R600 mit einer Aluiminium Chassis ummanteln, bevor man ihn ins Gehäuse reinbaut.

Ailuros
2007-02-09, 04:41:10
Ein Desing mit 64 ALUs und 32 TMUs kann ich mir irgendwo nicht vorstellen. Bei r580 hat ATI noch groß propagiert, dass die geforderte Shaderleistung viel stärker zunimmt als die Texturleistung/Füllrate.

Und jetzt sollen sie auf einmal gegenüber dem r580 die Füllrate mehr als verdoppeln (TMUx2xtaktsteigerung) und die Shaderleistung kaum erhöhen (48 PS + 8 VS -> 64 US).

Das würde entweder heißen, dass r580 im NAchhinein viel zu wenig Füllrate hatte (oder sie erst jetzt gebracht wird, wo auch die entsprechnende Speicherbandbreite zur Verfügung steht), oder aber, dass der Trend auf einmal nicht mehr zu Shadern, sondern zu Füllrate geht.

Zweiteres kann man wohl ausschließen, ersteres halte ich zumindest für unwahrscheinlich.
Insofern glaube ich, dass:

1. Entweder weniger TMUs vorhanden sind, dann bräuchte ATI aber kein 512 bit SI,

2. Oder mehr Alus eingebaut werden (96?),

3. Oder falls die 64 zutrifft, diese deutlich mehr können (2 MAD?)


Die These, r580 x2 + DX10 würde ich ATI schon zutrauen. Von der Transistorzahl kommt es ganz gut hin. Allerdings wäre die Effizienz in Hinblick auf Transitorzahl wohl ziemlich schlecht, da der r580 hier nicht gerade glänzt und bei einer Verdopplung des Designs wohl weniger als eine Verdopplung der Leistung herauskäme.

ALU:TMU ratio je nach Zaehlweise 4:1 oder 2:1 ;)

Ailuros
2007-02-09, 05:08:09
Da man mit dem DxTweaker 2x2 OGSSAA erzwingen kann, mal ein paar Werte.
Spiel war Call of Duty 2 in 1680*1050 (alles auf High) mit 16xHQAF.
Zu erst gemessene Werte mit Fraps:


621C/1000S
2007-02-08 17:24:16 - CoD2SP_s
Frames: 305 - Time: 10000ms - Avg: 30.500 - Min: 26 - Max: 33

621C/500S
2007-02-08 17:27:32 - CoD2SP_s
Frames: 262 - Time: 10000ms - Avg: 26.200 - Min: 24 - Max: 29

310,5C/1000S
2007-02-08 17:34:56 - CoD2SP_s
Frames: 166 - Time: 10000ms - Avg: 16.600 - Min: 15 - Max: 18

Man erkennt deutlich, dass mit abnehmder Speicherbandbreite, hier 80% weniger, die Frames gerade mal um 16 zurückgeht.
Dagegen verläuft der Einbruch bei der Verringerung des Coretaktes fast linear.

Zwischen 96GB und 48GB sehe ich 50% Bandbreiten-Unterschied und einen durchschnittlichen Leistungsunterschied von 15%. Was genau soll daran merkwuerdig sein und wer hat behauptet dass die Leistung linear mit zunehmender Bandbreite steigt?

ATI koennte jubeln wenn sie allein dank der zusaetzlichen Bandbreite 15% an Leistung across the board dazugewinnen koennten. Der Bandbreiten-Unterschied liegt ja nicht bei 50%.

Was Du noch haettest mitlesen sollen ist dass bis jetzt Radeons generell mit AA einen kleineren Einbruch hatten und dass die high end Modelle auch noch mit 25% mehr Speicher kommen.

LovesuckZ
2007-02-09, 07:43:57
Zwischen 96GB und 48GB sehe ich 50% Bandbreiten-Unterschied und einen durchschnittlichen Leistungsunterschied von 15%.
Was genau soll daran merkwuerdig sein und wer hat behauptet dass die Leistung linear mit zunehmender Bandbreite steigt?


Es zeigt, dass bei einer Verdopplung der Speicherbandbreite nur ca. jedes 6MHz in Leistung umgesetzt wurde.

ATI koennte jubeln wenn sie allein dank der zusaetzlichen Bandbreite 15% an Leistung across the board dazugewinnen koennten. Der Bandbreiten-Unterschied liegt ja nicht bei 50%.

Der Bandbreitenvorteil liegt nach heutigen Spekulationen bei ca. 78%. Das würde dann eine Mehrgewinn von ca. 11% ergeben. Nicht genug, um von einem deutlichen Vorteil bei Supersamplung zu reden.
Der Mehrspeicher wird nicht viel an Leistung bringen, da alleine die Grundgechwindigkeit beim Supersampling zu stark einbricht, dass man auch annährend an die kritische Grenze des Speichers kommen würde. Und ob ein Spiel nun mit 15 oder 10 Frames läuft, wird wohl ganz, ganz viele nicht berühren.

paul.muad.dib
2007-02-09, 08:10:50
Und ob ein Spiel nun mit 15 oder 10 Frames läuft, wird wohl ganz, ganzviele nicht berühren.

Da bin ich mir jetzt nicht so sicher, schließlich ist der Balken länger.

Die gelbe Eule
2007-02-09, 08:27:21
Und der Balken sagt immernoch Unspielbarkeit aus. 30fps konstant, dann ok, darunter tut es weh.

Ailuros
2007-02-09, 08:31:21
Es zeigt, dass bei einer Verdopplung der Speicherbandbreite nur ca. jedes 6MHz in Leistung umgesetzt wurde.

CoD2 kann man sowieso weder mit 26 noch mit 30fps fluessig spielen IMO. In einem jeglichem Sim wo man keine extravagante Leistung braucht, koennten diese "6fps" die Spielbarkeit entscheiden.

Der Bandbreitenvorteil liegt nach heutigen Spekulationen bei ca. 78%. Das würde dann eine Mehrgewinn von ca. 11% ergeben. Nicht genug, um von einem deutlichen Vorteil bei Supersamplung zu reden.

Ob es nun wirklich 1.2 GHz GDDR4 sein werden, werden wir schon sehen. IMO etwas zu viel. Ich hoere viel zu oft von 1 bzw. 2 GHz BS und da ich mir sicher bin dass das Ding keine clock domains hat, kann es nur eines bedeuten.

Der Mehrspeicher wird nicht viel an Leistung bringen, da alleine die Grundgechwindigkeit beim Supersampling zu stark einbricht, dass man auch annährend an die kritische Grenze des Speichers kommen würde. Und ob ein Spiel nun mit 15 oder 10 Frames läuft, wird wohl ganz, ganzviele nicht berühren.

Ich hab schon eine Idee im Hinterkopf, aber ich bezweifle dass sie es je fuer single GPUs einsetzen werden.

Es ist ja auch nur eine hoechst theoretische Debatte denn viel von SSAA werden wir wohl nicht mehr sehen.

Raff
2007-02-09, 08:35:56
15 statt 10 kann aber in einigen Fällen auch 24 statt 16 oder 30 statt 20 Fps bedeuten. Also im Grunde "spielbar" vs. "grenzwertig".

MfG,
Raff

LovesuckZ
2007-02-09, 08:38:10
15 statt 10 kann aber in einigen Fällen auch 24 statt 16 oder 30 statt 20 Fps bedeuten. Also im Grunde "spielbar" vs. "grenzwertig".


Das Beispiel bezog sich auf den Speicher.
Das ist der Knackpunkt: Wenn der Speicher beim Supersampling zum limitierenden Faktor wird, ist die Grundleistung sowieso schon im Keller.

seahawk
2007-02-09, 09:01:24
15 statt 10 kann aber in einigen Fällen auch 24 statt 16 oder 30 statt 20 Fps bedeuten. Also im Grunde "spielbar" vs. "grenzwertig".

MfG,
Raff

Gut, mit dem Argument kann man immer kommen, aber ers kann eben genauso den Unterschied zwischen 8 und 12 FPS machen.

Die gelbe Eule
2007-02-09, 09:09:19
Die Fälle wo man sich dann aber mit dem niedrigen Wert rumschlägt, laden dann zur Diashow ein, da freue ich mich nicht mehr, daß woanders doppelt so viele Frames anliegen.

Ailuros
2007-02-09, 09:30:48
Das Beispiel bezog sich auf den Speicher.
Das ist der Knackpunkt: Wenn der Speicher beim Supersampling zum limitierenden Faktor wird, ist die Grundleistung sowieso schon im Keller.

Ist eigentlich ne gute Idee fuer ein mini-writeup: Speicherverbrauch mit TSAA

Nakai
2007-02-09, 14:08:13
http://vr-zone.com/?i=4622

Sagt mir nichts vom Boardlayout.

mfg Nakai

James Ryan
2007-02-09, 14:10:47
Naja, zeigt nur dass VR-Zone mit ihrer "Zeichnung" vor einigen Wochen genau richtig lag.

MfG :cool:

PCGH_Carsten
2007-02-09, 14:12:36
Da geht's um die G80 ALUs und die sind so gut wie neu.
Du hast die letzten beiden Zeilen überlesen. Warum sollte Ati das nicht können?

DrumDub
2007-02-09, 14:22:57
http://vr-zone.com/?i=4622 240-270w? heftig, heftig. passt zumindest hierzu: http://forum.ncix.com/forums/index.php?mode=showthread&forum=218&threadid=1256877&pagenumber=1&subpage=1

Gmax
2007-02-09, 14:23:34
270W for 12" version and 240W for 9.5" version

Warum dieser 30 Watt Unterschied?

Ailuros
2007-02-09, 14:24:39
Warum dieser 30 Watt Unterschied?

OEM= A13
retail= A15

robbitop
2007-02-09, 14:29:28
Du hast die letzten beiden Zeilen überlesen. Warum sollte Ati das nicht können?
Da geht's doch nur darum, wie man "günstig" das Integer Format integriert. :uclap: Was ist mit dem "Rest" (der deutlich teurer sein dürfte)?

NV hat aber nichts "umgebaut". Sondern clever neugebaut (was teuer war).
Natürlich kann ATI auch D3D10 ALUs bauen, oder was wolltest du mir jetzt damit sagen?

AnarchX
2007-02-09, 14:33:01
http://vr-zone.com/?i=4622


Wenn das stimmen sollte, ist ja der G80 dagegen ein richtiges Stromsparwunder.
Da kann man wohl glücklich sein, wenn man mit einem potentiellen 2D-Modus des R600XT den Lastverbrauch der 8800GTX erreicht. ;)

Gmax
2007-02-09, 14:33:04
Also ATI is preparing for a GPGPU product, the FireStream/Stream Processor board with no less than 4GB of local video memory + 2 Wasserkühlungen in Vorbereitung

http://vr-zone.com/index.php?i=4627

LovesuckZ
2007-02-09, 14:35:22
Oh, nur die XTX mit 1Gib Speicher und die XT mit 512Mib...

PCGH_Carsten
2007-02-09, 14:38:17
Da geht's doch nur darum, wie man "günstig" das Integer Format integriert. :uclap: Was ist mit dem "Rest" (der deutlich teurer sein dürfte)?

NV hat aber nichts "umgebaut". Sondern clever neugebaut (was teuer war).
Natürlich kann ATI auch D3D10 ALUs bauen, oder was wolltest du mir jetzt damit sagen?
Der Integer-Support war vor einer oder zwei Seiten noch eines deiner Hauptanliegen in Sachen Transistorcount - ist er dir jetzt so egal?

btw, PN hin oder her: Deine Ausdrucksweise und Smileywahl wirken zunehmen arrogant. Ist das gewollt oder hast du nur schlechte Laune momentan?

James Ryan
2007-02-09, 14:39:15
Oh, nur die XTX mit 1Gib Speicher und die XT mit 512Mib...

Damit dürfte die XT relativ uninteressant werden, es sei denn, es wird sie zu einem günstigen Preis geben.
Wenn NVIDIA schnell einen G80 Mini-Refresh hinterher schiebt und damit die Preise auch der Gf 8800 GTX deutlich sinken, hat ATi ein Problem.

MfG :cool:

Ailuros
2007-02-09, 14:39:30
Oh, nur die XTX mit 1Gib Speicher und die XT mit 512Mib...

LOL was hattest Du denn erwartet? Der Preisunterschied wird dann schon einiges erklaeren.

Sterem
2007-02-09, 14:39:44
Oh, nur die XTX mit 1Gib Speicher und die XT mit 512Mib...


Das finde ich ganz und garnich schön.;( Ati hätte der Xt auch 1 Gb Speicher Spendieren sollen.Ich seh es schon kommen:Ne mein jung kauf dir die Karte nich>die hat nur 512 MB Speicher.:(

AnarchX
2007-02-09, 14:44:59
Die X2900XT wird wohl schon relativ deutlich von der X2900XTX entfernt sein.
Was die Bezeichnung "XT" imo doch etwas fraglich macht, da dies ja nicht ganz zu Benutzung dieser Bezeichnung in der Vergangenheit passt.

robbitop
2007-02-09, 14:46:52
Der Integer-Support war vor einer oder zwei Seiten noch eines deiner Hauptanliegen in Sachen Transistorcount - ist er dir jetzt so egal?

Carsten, ich bitte dich in einem Satz zu formulieren, was du mir mit dem Zitat sagen wolltest und worum es dir konkret geht. :)

Dass NV die Integerfunktion clever eingebaut hat? (ist die Frage, wie clever genau.. in Zahlen) Allerdings fällt mit der IEE-754 compliance noch einiges an. Das alles macht die Einheiten teuer. Hinzu kommt, je nach Ansatz, eine teure Steuerlogik.

Worum diskutieren wir eigentlich gerade?
Dass D3D10 Einheiten teuer sind? (Antwort: je nach Realisierung)
Dass es sich lohnt D3D9 Einheiten umzubauen? (Frage des Standpunktes)
Dass es von D3D9 zu D3D10 bei den ALUs kein weiter Weg ist? (kommt auf die Relationen an, aber es ist jedenfalls kein Klacks)

IMO ist G80 schon ein Indikator dafür, dass USC und D3D10 Realisierung bei doppelter Leistung nicht gerade günstig ist.

LovesuckZ
2007-02-09, 14:47:18
LOL was hattest Du denn erwartet? Der Preisunterschied wird dann schon einiges erklaeren.

512Mib finde ich in angesicht der 640Mib der 8800GTS als zu wenig.
Wir haben hier mal gerätselt, ob ATis Memorycontroller genauso flexible wäre wie der von nVidia. Anscheinend ist er jetzt wohl nicht...
Wenn es sich im Preis widerspiegelt sollte, dann wird wohl nur GDDR3 verwendet werden. 800-900MHz scheinen für die XT realistisch zu sein. Ist auch in Massen verfügbar und sollte daher nicht mehr so teuer sein.

Gast
2007-02-09, 14:50:30
Ist eigentlich ne gute Idee fuer ein mini-writeup: Speicherverbrauch mit TSAA
Der ist doch nicht höher.

Gast
2007-02-09, 14:55:09
512Mib finde ich in angesicht der 640Mib der 8800GTS als zu wenig.
Wir haben hier mal gerätselt, ob ATis Memorycontroller genauso flexible wäre wie der von nVidia. Anscheinend ist er jetzt wohl nicht...

Woran willst du das festmachen? Dass ATI beim kleineren Modell den Speichercontroller nicht beschneidet? Schon ein R300 konnte einzelnen SC deaktivieren. Ist das gleiche Spiel wie bei 8800GTX 640MB und 320MB Version. Man kann eben den Speicher nur halbieren. Vielleicht git es ja später auch eine XT mit einem GB RAM.

reunion

Gmax
2007-02-09, 14:59:54
Naja, mal sehen. Ob die Daten als Fakt anzusehen sind, steht in den Sternen. Vielleicht hat die XT ja doch 1 Gig DDR3 Ram... Würde mMn mehr Sinn machen.

Gast
2007-02-09, 15:02:44
Es würde mich interessieren ob der R600 diese Wattleistung auch im Idle-Modus fährt (wie beim G80). Ansonsten wäre es egal, denn im 3D-Modus kann er das ruhig schlucken. Aber man zockt ja nicht die ganze Zeit, sondern ist auch eine lange Zeit im 2D-Modus: in Foren, schreibt Emails und chattet. Gibt es da schon Infos zu oder kann man einen Trend zum Verhalten von alten ATI-Karten erkennen ?

Außerdem hat es nichts damit zu tun, dass wenn jemand sich eine Highend-Karte leisten kann, sich auch nichts aus dem Strombedarf macht. Da muss man auch nicht immer den grünen Daumen oben haben, denn Fakt ist, man zahlt die Karte einmal, die Stromabrechnung kommt aber jeden Monat ins Haus (natürlich nur für die, die eine eigene Wohnung haben; den Anderen wird das erst auffalen, wenn sie eine Wohnung ihr Eigen nennen können)

MfG
-GHOST

boxleitnerb
2007-02-09, 15:04:26
Also gleich fast das Doppelte für sagen wir mal im sehr optimistischen Fall 1/3 mehr Leistung? Ich weiss ja nicht...

AnarchX
2007-02-09, 15:07:42
Naja, mal sehen. Ob die Daten als Fakt anzusehen sind, steht in den Sternen. Vielleicht hat die XT ja doch 1 Gig DDR3 Ram... Würde mMn mehr Sinn machen.

Eigentlich schon, immerhin konnte man 1GB GDDR3 wenn auch nur 1.4ns im Sommer 2006 auch schon für knapp 500€ verkaufen bei der GX2.

Aber vielleicht zielt ja ATi auf einen Preis <400€ ab.

Gmax
2007-02-09, 15:07:55
Also gleich fast das Doppelte für sagen wir mal im sehr optimistischen Fall 1/3 mehr Leistung? Ich weiss ja nicht...

Vielleicht braucht die XT gar nicht mehr Ram, um gegen die GTS zu bestehen.
Lassen wir uns überaschen.

LovesuckZ
2007-02-09, 15:14:03
Woran willst du das festmachen? Dass ATI beim kleineren Modell den Speichercontroller nicht beschneidet?

An der Speicherbestückung. Ich gehe davon aus, dass ATi 32-bit Unterteilung beim Memorycontroller hat und 64Mib Speicher für die XTX verwendet. Dann benötigen sie 16 Stück.
Wenn die XT nun aber nur 512MiB hat, dann könnten sie 8 deaktivieren, was auch das Speicherinterface einschränken würde oder sie verwenden 16 32Mib Speichersteine.

Schon ein R300 konnte einzelnen SC deaktivieren.

Mir sind nur 128 - bit und 256 - bit bewusst. Zwischenzustände gab es meiner Meinung nach nicht.

Ist das gleiche Spiel wie bei 8800GTX 640MB und 320MB Version. Man kann eben den Speicher nur halbieren. Vielleicht git es ja später auch eine XT mit einem GB RAM.
reunion

Bei der GTS wird der Speicher halbiert, aber von GTX auf GTS hat man einen anderen Weg genommen.
AMD halbiert dagegen die Speichermenge bei der XT um die Hälfte, erhält sich aber die 512-bit. Ich wüsste nicht, warum man das machen sollte, wenn ein flexibler Speichercontroller zur Verfügung stünde.


Es würde mich interessieren ob der R600 diese Wattleistung auch im Idle-Modus fährt (wie beim G80). Ansonsten wäre es egal, denn im 3D-Modus kann er das ruhig schlucken. Aber man zockt ja nicht die ganze Zeit, sondern ist auch eine lange Zeit im 2D-Modus: in Foren, schreibt Emails und chattet. Gibt es da schon Infos zu oder kann man einen Trend zum Verhalten von alten ATI-Karten erkennen ?

Das ist eine Milchmädchenrechnung.
Wenn die 8800GTX unter 2D 15 Watt mehr und unter 3D 30 Watt weniger verbraucht, müsstest man sich immer doppelt so lange im 2D Modus aufhalten als man im 3D sich befunden hat.
Spielst du mal 5h am Stück, musst du, um den Verbrauch auszugleichen, 10h im 2D Modus sein.

Coda
2007-02-09, 15:17:01
AMD halbiert dagegen die Speichermenge bei der XT um die Hälfte, erhält sich aber die 512-bit. Ich wüsste nicht, warum man das machen sollte, wenn ein flexibler Speichercontroller zur Verfügung stünde.
He? Seit wann hat benötigte Bandbreite was mit Speicherausbau zu tun?

Gast
2007-02-09, 15:18:30
Wenn die 8800GTX unter 2D 15 Watt mehr und unter 3D 30 Watt weniger verbraucht, müsstest man sich immer doppelt so lange im 2D Modus aufhalten als man im 3D sich befunden hat. Selbst als ich noch recht oft am PC gespielt habe, kamen höchstens 2 Stunden 3D-Volllast auf 10 Stunden Betrieb. Aber imho sollte man sich nicht immer so am Stromverbrauch von Hardwarekomponenten aufhängen. Das sind Pfennigbeträge.

Gast
2007-02-09, 15:21:22
Woran willst du das festmachen? Dass ATI beim kleineren Modell den Speichercontroller nicht beschneidet? Schon ein R300 konnte einzelnen SC deaktivieren. Ist das gleiche Spiel wie bei 8800GTX 640MB und 320MB Version. Man kann eben den Speicher nur halbieren. Vielleicht git es ja später auch eine XT mit einem GB RAM.

reunion

Eine Halbierung des Speicherinterfaces und eine Beibehaltung des SI bei Halbierung der Chipkapazität ist nicht das gleiche.

LovesuckZ
2007-02-09, 15:21:27
He? Seit wann hat benötigte Bandbreite was mit Speicherausbau zu tun?

Sie haben in diesem Zusammenhang nichts miteinander zu tun.
Es ging mir nur darum aus meiner Sicht zu erklären, warum ich denke, dass der Speichercontroller nicht so flexible wäre wie beim G80.
Das die Bandbreite gleich bleibt, wenn man statt 1024MiB nur 512Mib Speicher verwendet, ist mir bewusst.


Selbst als ich noch recht oft am PC gespielt habe, kamen höchstens 2 Stunden 3D-Volllast auf 10 Stunden Betrieb.

Bei 12h/Tag stellt sich dann wieder die Frage, ob man sich nicht einen zwei PC anschafft, welches für die 10h verwendet wird und noch weniger Strom verbraucht.

horn 12
2007-02-09, 15:30:23
die X2900 xt wird weitaus schneller sein als die 8800 GTS, und gar die X2900 XL wird die GTS in Schach halten können, zu Preisen etwas über 380 / unter 300 Euro.

StefanV
2007-02-09, 15:33:23
Passt aber nicht zu den Buchsen -> 2x 6 Pin + PCIe = 225W, no more...

dargo
2007-02-09, 15:37:37
240-270w? heftig, heftig. passt zumindest hierzu: http://forum.ncix.com/forums/index.php?mode=showthread&forum=218&threadid=1256877&pagenumber=1&subpage=1
Halte ich für Unsinn.

Coda
2007-02-09, 15:46:06
Was ist mit der IEEE-754 compliance?
NV4x kann mit FP16 schon denorms usw.

Das Integerformat kann man m.W. nicht so einfach auf einer D3D9 ALU rechnen (mit geforderter Genauigkeit).
Nein, dafür müsste man natürlich die ALU etwas breiter machen (Mantisse 32-Bit), aber der Northwood macht Integer-Muls ja auch auf der FPU (ja, das ist ein anderes Thema und auch krank :D)

Die ganzen Rundungsregeln und der Umgang mit Nichtzahlen kommt auch noch hinzu.
Siehe oben.

Man wird garantiert keine zweite ALU dafür einbauen. Das ist total Banane.

robbitop
2007-02-09, 15:49:42
NV4x kann mit FP16 schon denorms usw.
Nett :) Die R5xx ALUs auch? (von denen gingen Carsten und ich ja aus)
Das ist ja noch längst nicht alles was IEE-754 fordert.




Man wird garantiert keine zweite ALU dafür einbauen. Das ist total Banane.
Nein das nicht, eher eine ALU die das vernünftig beherrscht.

Coda
2007-02-09, 15:53:57
Nett :) Die R5xx ALUs auch? (von denen gingen Carsten und ich ja aus)
So wie ich ATI kenne eher nicht.

Das ist ja noch längst nicht alles was IEE-754 fordert.
Was ist denn sonst noch so böse? Denorms ist der größte Brocken.

Nein das nicht, eher eine ALU die das vernünftig beherrscht.
Ich schätze es sind halt <50% mehr Logik.

DrumDub
2007-02-09, 15:57:02
Passt aber nicht zu den Buchsen -> 2x 6 Pin + PCIe = 225W, no more... mhh.. das stimmt allerdings.

robbitop
2007-02-09, 15:57:58
Was ist denn sonst noch so böse? Denorms ist der größte Brocken.
Die neuen Rundungsregeln z.B.


Ich schätze es sind halt <50% mehr Logik.
Immerhin. Hinzu kommt sicher noch ein Stück Kontrollogik für die USC Funktionalität (inkl Load Balancing usw).

Coda
2007-02-09, 16:06:10
Die neuen Rundungsregeln z.B.
Es ist doch eh immer nur default aktiv (ich hab zumindest keinen Entry-Point gesehen um das umzuschalten in D3D10).

Immerhin. Hinzu kommt sicher noch ein Stück Kontrollogik für die USC Funktionalität (inkl Load Balancing usw).
Was nichts mit den ALUs zu tun hat.

reunion
2007-02-09, 16:06:48
An der Speicherbestückung. Ich gehe davon aus, dass ATi 32-bit Unterteilung beim Memorycontroller hat und 64Mib Speicher für die XTX verwendet. Dann benötigen sie 16 Stück.
Wenn die XT nun aber nur 512MiB hat, dann könnten sie 8 deaktivieren, was auch das Speicherinterface einschränken würde oder sie verwenden 16 32Mib Speichersteine.


Richtig. Und auf was willst du jetzt hinaus?
nV kann nicht, nV muss durch die fehlende Crossbar zwischen ROPs und SC auch den VRAM beschneiden, wenn man einen ROPs-Cluster deaktiviert, da man dann nicht mehr alle RAM-Bausteine ansprechen kann. ATi kann, wenn man das 512-bit SI erhalten will, nur zwischen 512 und 1024 MB VRAM auswählen, da es eben aufgrund des verfügbaren Speichers keine andere Möglichkeit gibt.


Mir sind nur 128 - bit und 256 - bit bewusst. Zwischenzustände gab es meiner Meinung nach nicht.


Ob ich jetzt eins, zwei, drei, oder vier SC deaktivieren, sollte völlig egal sein. Man orientiert sich hat wie fast immer an Zweierpotenzen, um keine krumme VRAM-Größe zu haben.


Bei der GTS wird der Speicher halbiert, aber von GTX auf GTS hat man einen anderen Weg genommen.
AMD halbiert dagegen die Speichermenge bei der XT um die Hälfte, erhält sich aber die 512-bit. Ich wüsste nicht, warum man das machen sollte, wenn ein flexibler Speichercontroller zur Verfügung stünde.


Ja, die GTS meinte ich natürlich. Ich verstehe nicht, auf was du hinaus willst. Man skaliert eben über den Speichertakt. Natürlich könnte man jetzt bei den XT auch nur 15 SC, also 480-bit aktivieren, nur kann ich dann eben nurnoch zwischen 960, oder 480MB VRAM auswählen.

Coda
2007-02-09, 16:07:16
mhh.. das stimmt allerdings.
Deshalb sind's ja auch 6-Pin-Stecker.
Edit: Brainfart... sorry.

AnarchX
2007-02-09, 16:08:16
Passt aber nicht zu den Buchsen -> 2x 6 Pin + PCIe = 225W, no more...

Dann schau nochmal genauer hin, da sind noch ein paar Kontakte links.
Vielleicht wird diese für OEM gedachte Karte ja über den PCIe-Port mit mehr als 75W versorgt(PCIe 2.0). ;)

reunion
2007-02-09, 16:10:04
Du meinst 8-Pin. Trotzdem sind die 270 Watt völliger Blödsinn, dazu brauch ich keine Glaskugel.

AnarchX
2007-02-09, 16:12:25
Du meinst 8-Pin. Trotzdem sind die 270 Watt völliger Blödsinn, dazu brauch ich keine Glaskugel.

Wer weiss, von 1W pro MHz auf 1/3W pro MHz wäre ja auch keine schlechte Leistung.
Irgendetwas ist wohl an den Gerüchten der 300W-D3D10-GraKa dran die in der Vergangenheit aufkamen...

Coda
2007-02-09, 16:13:35
VR-Zone schreibt normal aber keinen Mist...

reunion
2007-02-09, 16:14:19
http://vr-zone.com/?i=4622

Sagt mir nichts vom Boardlayout.

mfg Nakai

Schon der Abstand zwischen dem Kühler und dem Lüfter zeigt, dass hier noch enormes Optimierungspotenzial vorhanden ist. Vermutlich ging es nur darum, eine ausreichend Länge für den Henkel zu erreichen.

Gast
2007-02-09, 16:14:37
die X2900 xt wird weitaus schneller sein als die 8800 GTS, und gar die X2900 XL wird die GTS in Schach halten können, zu Preisen etwas über 380 / unter 300 Euro.Horn, du raffst es aber auch nicht? Wenn du schon spekulierst, kennzeichne das gefälligst auch so. So wie du es schreibst, könnte man ja meinen, dass es gesicherte Fakten sind.

dargo
2007-02-09, 16:17:17
Vielleicht wird diese für OEM gedachte Karte ja über den PCIe-Port mit mehr als 75W versorgt(PCIe 2.0). ;)Afaik fließen auch bei PCIe 2.0 nicht mehr als 75W über den Slot.

reunion
2007-02-09, 16:18:41
Wer weiss, von 1W pro MHz auf 1/3W pro MHz wäre ja auch keine schlechte Leistung.
Irgendetwas ist wohl an den Gerüchten der 300W-D3D10-GraKa dran die in der Vergangenheit aufkamen...

Ja, von den Vorserienmodelle, die - wie du schon sagst - fast 1W pro Mhz brauchten. Eins steht jedenfalls fest: ~300W kannst du mit dem Kühler niemals wegkühlen, selbst wenn der Lüfter mit 6000rpm läuft. Auch ist das Board trotz 512-bit SI sogar kürzer als bei einer 8800GTX. Bei 300W Verlustleistung wären wohl schon 20cm für die Spannungswandler fällig. :ugly:

VR-Zone schreibt normal aber keinen Mist...

Nicht sein erst, oder? VR-Zone bestand zB AFAIK bis einen Tag vorm Release darauf, dass R520 32 Pipelines haben wird.

LovesuckZ
2007-02-09, 16:20:30
ATi kann, wenn man das 512-bit SI erhalten will, nur zwischen 512 und 1024 MB VRAM auswählen, da es eben aufgrund des verfügbaren Speichers keine andere Möglichkeit gibt.

Darum geht es mir.
Der Bruch an der Speichermenge zwischen XTX und XT finde ich brutal hart. Mehr Speicher und dafür ein schmaleres Interface wäre aus meiner Sicht der bessere Weg. Warum nicht eine XT mit 768Mib und 384-Bit?

Natürlich könnte man jetzt bei den XT auch nur 15 SC, also 480-bit aktivieren, nur kann ich dann eben nurnoch zwischen 960, oder 480MB VRAM auswählen.

Nach dem Schaubild des Ring-Bus (r520) sind immer zwei Speicherchips mit je 32-bit an einem "Ring-Stop". Es stellt sich die Frage, ob solch ein "Ring-Stop" deaktiviert werden könnte. Wenn ja, könnte ATi genauso wie Nvidia in 64-bit Sprüngen skalieren.
Es kann aber auch sein, dass ein Deaktivieren der "Ring-Stops" nicht möglich ist und das Speicherinterface immer 512-bit betragen muss.
Gibt es einen r520/r580, welcher nur 128-bit hat?

Coda
2007-02-09, 16:21:42
Nicht sein erst, oder? VR-Zone bestand zB AFAIK bis einen Tag vorm Release darauf, dass R520 32 Pipelines haben wird.
Vielleicht in den falschen Hals bekommen? (16 TMU + 16 ALU?)
Quellen scheinen sie auf jeden Fall zu haben, bei G80 lagen sie ja richtig (bis auf wieder Unkorrektheiten weil sie's nicht besser wissen).

Der Kühler sieht auf jeden Fall nach min. ~200W aus - das kann ich dir auch ohne Kristallkugel sagen.

dargo
2007-02-09, 16:23:46
Auch ist das Board trotz 512-bit SI sogar kürzer als bei einer 8800GTX. Bei 300W Verlustleistung wären wohl schon 20cm für die Spannungswandler fällig. :ugly:

Das frage ich mich die ganze Zeit auch. Wie soll man die Spannungsversorgung auf einem 23-24cm PCB für ein ~240W Monster unterbringen? :|
Und dann wäre noch die Sache mit dem 512Bit SI.

Von 300W brauchen wir erst gar nicht sprechen, das ist Bullshit³.

AnarchX
2007-02-09, 16:23:53
Es kann aber auch sein, dass ein Deaktivieren der "Ring-Stops" nicht möglich ist und das Speicherinterface immer 512-bit betragen muss.
Gibt es einen r520/r580, welcher nur 128-bit hat?

RV570 wird sowohl bei der X1950Pro(256Bit) und der X1650XT(128Bit) verwendet.

Coda
2007-02-09, 16:26:16
Das frage ich mich die ganze Zeit auch. Wie soll man die Spannungsversorgung auf einem 23-24cm PCB für ein ~240W Monster unterbringen? :|
Digital PWM.

dargo
2007-02-09, 16:26:44
Der Bruch an der Speichermenge zwischen XTX und XT finde ich brutal hart.
Wo steht es, dass es keine XT mit 1GB Vram geben wird?

AnarchX
2007-02-09, 16:28:13
Wo steht es, dass es keine XT mit 1GB Vram geben wird?
Zum Launch wohl jedenfalls nicht laut VR-Zone:
As for R600XT, it will have 512MB of GDDR3 memories onboard, 9.5" long and consumes 240W of power. (http://www.vr-zone.com/index.php?i=4622)

Vielleicht helfen ja die Hersteller nach...

dargo
2007-02-09, 16:33:45
Der Kühler sieht auf jeden Fall nach min. ~200W aus - das kann ich dir auch ohne Kristallkugel sagen.
Seit wann hat die Größe des Kühlkörpers eine Aussagekraft über die Verlustleistung der Graka? :|

Digital PWM.
Du meinst sowas hier?
http://pics.computerbase.de/1/6/6/3/3/20.jpg
http://pics.computerbase.de/1/6/6/3/3/17.jpg

Ok, auf dem ersten Blick spart das natürlich einiges an Platz. Nur, die Bilder zeigen eine "poppelige" ~75W Graka. Wie wird das wohl für ein Monter @240-300W aussehen. Außerdem, durch den 1GB Vram sehe ich die einzige Möglichkeit den Speicher auf beiden Seiten zu verbauen. Dann müssen aber einige Widerstände, Kondensatoren auf der Rückseite vom PCB an eine andere Stelle verlagert werden (siehe Rückseite der X1950Pro). Da wird der Platz immer knapper.

reunion
2007-02-09, 16:38:39
Darum geht es mir.
Der Bruch an der Speichermenge zwischen XTX und XT finde ich brutal hart. Mehr Speicher und dafür ein schmaleres Interface wäre aus meiner Sicht der bessere Weg. Warum nicht eine XT mit 768Mib und 384-Bit?


Genauso hart wie der Bruch zwischen 8800GTS 640MB und 320MB. Die Speicherhersteller orientieren sich halt wie fast überall in der IT-Industrie an Zweierpotenzen. Warum nicht 768Mib und 384-Bit? - zB weil man dann die Speicherbandbreite enorm beschneiden muss. Speziell, wenn man auch noch billigeren GDDR3 verwenden will, hat man schnell deutlich weniger Speicherbandbreite, für einen Chip, der bis auf ein paar MHz weniger vermutlich identisch mit der XTX ist. Ich bin ohnehin davon überzeugt, dass es wie immer in der Vergangenheit auch eine XT mit voller Speicherbestückung geben wird, deshalb ist diese Diskussion müßig.


Nach dem Schaubild des Ring-Bus (r520) sind immer zwei Speicherchips mit je 32-bit an einem "Ring-Stop". Es stellt sich die Frage, ob solch ein "Ring-Stop" deaktiviert werden könnte. Wenn ja, könnte ATi genauso wie Nvidia in 64-bit Sprüngen skalieren.


ATi kann definitiv in 32-bit Sprüngen skalieren. Das zeigen schon die X1300-Karten mit 32-bit SI. Und natürlich kann ATi einzelnen Controller deaktivieren, sonst wäre eine X1650XT zB gar nicht möglich.

Der Kühler sieht auf jeden Fall nach min. ~200W aus - das kann ich dir auch ohne Kristallkugel sagen.

Ohne zu wissen, wie schnell der Lüfter dreht, ist eine solche Aussage sinnlos. Ich werde dich nach dem Launch nochmal darauf ansprechen. Jetzt führt das sowieso zu nichts. Es sind übrigens wie man auf dem Bild von VR-Zone der OEM-Version sieht, nur zwei 6-Pin PCIe-Stecker, also max. 225W, wenn man wirklich das letzte Quäntchen ausreizen kann/will. Die 270W sind also definitiv schonmal blödsinn.

http://vr-zone.com/?i=4622

AnarchX
2007-02-09, 16:42:05
ATi kann definitiv in 32-bit Sprüngen skalieren. Das zeigen schon die X1300-Karten mit 32-bit SI.
Die hat aber keinen Ringbus-Kontroller.
Ich würde vermuten ATi kann wohl nur immer halbieren, was man wohl bei einer kleineren X2900-Karte tun wird.

deekey777
2007-02-09, 16:45:04
VR-Zone schreibt normal aber keinen Mist...
Wenn es um nVidia(-Grafikkarten) geht, scheint VR-Zone wirklich einen guten Insider zu haben. Bei Infos zu ATi-Grafikkarten nicht immer.

Es gibt X1600SE. :)

LovesuckZ
2007-02-09, 16:46:15
Genauso hart wie der Bruch zwischen 8800GTS 640MB und 320MB.

Na, die Karten sind in einem Preisgebiet, welches nicht mit der XT und XTX verglichen werden kann.

Warum nicht 768Mib und 384-Bit? - zB weil man dann die Speicherbandbreite enorm beschneiden muss. Speziell, wenn man auch noch billigeren GDDR3 verwenden will, hat man schnell deutlich weniger Speicherbandbreite, für einen Chip, der bis auf ein paar MHz weniger vermutlich identisch mit der XTX ist.

Aufgrund der Verspätung braucht AMD mehrere Karten. Die GTS und die GTX sind seit der Markteinführung im Preis gefallen. Ich denke nicht, dass AMD mit 499$ als Maximalpreis einsteigen wird.
Die GTS 320, die GTS 640 und die GTX nehmen zwischen 299$ - 499$ heute (bzw. bald) alles ein. Zwei Versionen des r600 für drei Gebiete? Welche Karte soll mit der XT angegriffen werden? Die GTX? Dann hat sie zu wenig Speicher. Die GTS 640? Dann fehlt wieder der GTX - Killer im Sortiment.

Ich bin ohnehin davon überzeugt, dass es wie immer in der Vergangenheit auch eine XT mit voller Speicherbestückung geben wird, deshalb ist diese Diskussion müßig.

Nur weil etwas in der Vergangenheit so war, muss es heute nicht auch stimmen.

/edit: Neue Bilder? http://www.overclockers.com/articles1411/

dargo
2007-02-09, 16:49:39
Zum Launch wohl jedenfalls nicht laut VR-Zone:
As for R600XT, it will have 512MB of GDDR3 memories onboard, 9.5" long and consumes 240W of power. (http://www.vr-zone.com/index.php?i=4622)

Wie gesagt, vr-zone glaube ich erstmal gar nichts. Aus einem einfachen Grund. Die behaupten nämlich, dass die 1GB 9,5" XTX 240W verbrauchen soll, genauso viel wie die 512MB 9,5" XT. Was für mich absolut keinen Sinn ergibt. Vorallem, wenn man bedekt, dass die XTX höhere Taktraten haben soll.

Die GTS und die GTX sind seit der Markteinführung im Preis gefallen.
Das einzige was gefallen ist, ist die GTS 640MB. Und zwar genau um 50$.


Ich denke nicht, dass AMD mit 499$ als Maximalpreis einsteigen wird.

Davon würde ich stark ausgehen. Ich denke, die XTX mit 1GB Vram wird bei mindestens 599$, eher 649-699$ liegen.

LovesuckZ
2007-02-09, 16:55:57
Das einzige was gefallen ist, ist die GTS 640MB. Und zwar genau um 50$.

Wir wissen doch wie die Marktwirtschaft funktioniert:
Die Verfügbarkeit der Karten werden am anfang knapp sein. Daraus resultiert ein hoher Preis und schwupps sind die Karten teurer als sie hätten sein sollen.
Jedoch hat AMD das Problem, dass nVidia schon am Markt ist. Deren Preise sind auf einem Niveau, auf welchen AMD bei der Markteinführung nicht sein möchte.

PCGH_Carsten
2007-02-09, 16:56:39
Carsten, ich bitte dich in einem Satz zu formulieren, was du mir mit dem Zitat sagen wolltest und worum es dir konkret geht. :)
Nvidia hat die Implementierung der Integer-Funktionen offenbar recht sparsam gelöst – ich sehe keinen Grund, warum Ati dies nicht hätte ebenfalls tun können, da ihnen die D3D10-Specs ebenfalls schon seit Jahren bekannt sind.

Anarchy-HWLUXX
2007-02-09, 16:57:04
/edit: Neue Bilder? http://www.overclockers.com/articles1411/



Richtige Bilder !!!!!11111111

Geilo :D


... der Lüfter verballert alleine 24W auf maximum :eek:

Und se hat Stromanschlüsse im 8+6 format ...

reunion
2007-02-09, 16:58:22
Die hat aber keinen Ringbus-Kontroller.


Ach ja, das hatte ich nicht bedacht. Trotzdem, ATi will offensichtlich keine krummen VRAM-Größen. Deshalb wird eben nur halbiert. nV skaliert jetzt frei, da es beim G80 durch das krumme SI ohnehin schon egal ist.


Ich würde vermuten ATi kann wohl nur immer halbieren, was man wohl bei einer kleineren X2900-Karte tun wird.

Wenn man SC X deaktivieren kann, dann kann man auch SC Y deaktivieren, sonst kann man sich das auch gleich sparen. Es ist ja logischerweise nicht immer der gleiche SC defekt.

Die GTS 320, die GTS 640 und die GTX nehmen zwischen 299$ - 499$ heute (bzw. bald) alles ein. Zwei Versionen des r600 für drei Gebiete? Welche Karte soll mit der XT angegriffen werden? Die GTX? Dann hat sie zu wenig Speicher. Die GTS 640? Dann fehlt wieder der GTX - Killer im Sortiment.


Wie du schon selbst andeutest: ATi wäre blöd, wenn sie keine XT mit einem GB bringen würde, vorallem, da man das faktisch mit null Aufwand bewerkstelligen könnte.

Gast
2007-02-09, 17:00:17
Wir wissen doch wie die Marktwirtschaft funktioniert:
Die Verfügbarkeit der Karten werden am anfang knapp sein. Daraus resultiert ein hoher Preis und schwupps sind die Karten teurer als sie hätten sein sollen.
Jedoch hat AMD das Problem, dass nVidia schon am Markt ist. Deren Preise sind auf einem Niveau, auf welchen AMD bei der Markteinführung nicht sein möchte.


Lol, wenn du mal nen bisschen weiterdenkst kommst du vielleicht auch drauf warum sie auf dieses Niveau gesunken sind.

Ps: Deine sändig propagierte und offensichtlich eingeschränkte Sichtweise ist teilweise eine Zumutung.

dargo
2007-02-09, 17:01:23
Wir wissen doch wie die Marktwirtschaft funktioniert:
Die Verfügbarkeit der Karten werden am anfang knapp sein. Daraus resultiert ein hoher Preis und schwupps sind die Karten teurer als sie hätten sein sollen.

Das ändert aber nichts daran, dass nur der Preis der GTS korrigiert worden ist. :)


Jedoch hat AMD das Problem, dass nVidia schon am Markt ist. Deren Preise sind auf einem Niveau, auf welchen AMD bei der Markteinführung nicht sein möchte.
Verstehe nicht so ganz was du damit sagen willst. Die GTX kostet immer noch 599$. Sollte das Produkt von AMD bei 599$ aufhören wird die Karte genauso bei ~500€ liegen. Dass die Shops Neuvorstellungen ausnutzen, dafür kann NV und AMD nichts.

crux2005
2007-02-09, 17:02:04
Gibt es einen r520/r580, welcher nur 128-bit hat?


Nope. Radeons mit einem < 128Bit Si haben aber keinen RingBus.

robbitop
2007-02-09, 17:05:18
Es ist doch eh immer nur default aktiv (ich hab zumindest keinen Entry-Point gesehen um das umzuschalten in D3D10).

Sie wollen dennoch unterstützt werden.


Was nichts mit den ALUs zu tun hat.
Direkt nicht, aber es schlägt aufs Transistorbudget.

Nvidia hat die Implementierung der Integer-Funktionen offenbar recht sparsam gelöst – ich sehe keinen Grund, warum Ati dies nicht hätte ebenfalls tun können, da ihnen die D3D10-Specs ebenfalls schon seit Jahren bekannt sind.
Ok, das habe ich nie angezweifelt. ;)

LovesuckZ
2007-02-09, 17:06:56
Das ändert aber nichts daran, dass nur der Preis der GTS korrigiert worden ist. :)

Korrigiert wurde nur der unverbindliche Preis des Herstellers. ;)

Verstehe nicht so ganz was du damit sagen willst. Die GTX kostet immer noch 599$. Sollte das Produkt von AMD bei 599$ aufhören wird die Karte genauso bei ~500€ liegen. Dass die Shops Neuvorstellungen ausnutzen, dafür kann NV und AMD nichts.

Denkst du wirklich, dass nur die Shops dies ausnutzen?
nVidia und AMD werden am Anfang die wenigen Chips wohl nur an besondere Partner geben. Und das geht bis zum Käufer weiter.
Erst mit Eintritt des höhreren Angebotes statt der Nachfrage sinkt der Preis.
Für AMD wird das aber ein Problem sein, da sie ein Konkurrenzprodukt haben, an welchen sie sich orientieren müssen. Der UVP spielt dabei nur eine untergeordnete Rolle.

Gast
2007-02-09, 17:07:58
Richtige Bilder !!!!!11111111

Geilo :D


... der Lüfter verballert alleine 24W auf maximum :eek:

Und se hat Stromanschlüsse im 8+6 format ...
Wenn der dann wirklich mal mit voller Leistung laufen sollte, gibt das bei der Größe ein nettes Laufgeräusch.

PCGH_Carsten
2007-02-09, 17:08:10
Es sind übrigens wie man auf dem Bild von VR-Zone der OEM-Version sieht, nur zwei 6-Pin PCIe-Stecker, also max. 225W, wenn man wirklich das letzte Quäntchen ausreizen kann/will. Die 270W sind also definitiv schonmal blödsinn.
Wie man auf dem Bild sieht, sind zwei 6-Pin-Stecker verlötet - neben dem linken sind allerdings noch Lötstellen, um einen 8-Pin-Stecker draus zu machen - genau wie bei der 8800 GTX.

Das kann nun zweierlei bedeuten: Frühes Sample mit niedrigeren Taktraten und aus Rücksicht auf (damals?) kaum verfügbare PCIe-2.0-Netzteile zwei 6er-Stecker.

Oder eben deine Annahme, dass der Gesamtverbrauch doch unter 225 Watt liegt und man später sogar allein mit einem 8-Pin-Anschluss auskommt.

edit: Da habe ich wohl etwas lange getippt

reunion
2007-02-09, 17:09:24
Nope. Radeons mit einem 128Bit Si haben aber keinen RingBus.

RV570 wird auch bei den X1650XTs verwendet, und dieser hat definitiv einen Ringbus.

AnarchX
2007-02-09, 17:12:22
Wie man auf dem Bild sieht, sind zwei 6-Pin-Stecker verlötet - neben dem linken sind allerdings noch Lötstellen, um einen 8-Pin-Stecker draus zu machen - genau wie bei der 8800 GTX.

Das kann nun zweierlei bedeuten: Frühes Sample mit niedrigeren Taktraten und aus Rücksicht auf (damals?) kaum verfügbare PCIe-2.0-Netzteile zwei 6er-Stecker.

Oder eben deine Annahme, dass der Gesamtverbrauch doch unter 225 Watt liegt und man später sogar allein mit einem 8-Pin-Anschluss auskommt.

Vielleicht ist ja die Karte von overclockers.com mit 6+8Pin ein finales Sample, die dann mit 814MHz einen entsprechenden Verbrauch hat, wie ihn VR-Zone vermeldet.

deekey777
2007-02-09, 17:12:27
Nur der RV515 und Abkömmlinge hat keinen Ringbus-MC, alle anderen haben einen.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=05
Although RV530 is a considerably smaller chip than R520, and only contains a 128-bit interface it does still utilise the same ring bus design, but in this instance uses two 128-bit internal busses. RV515 is too small to house such a memory controller, so defaults to more traditional crossbar design, although this time features 4x32-bit channels, which is the first time ATI have done this.

Die gelbe Eule
2007-02-09, 17:15:15
Wenn nun ein 8 Pin und 6 Pin gebraucht werden, aber der 8Pin bereits im C2D Board steckt, braucht man garantiert neue PSUs und hier scheiden sich dann bereits die Geister. Es wird kein Hersteller eine PSU herausbringen, welche bei 500W liegt und dann 2x6 PIN und 2x8PIN fährt, nur damit man mit ATi konform geht. Dabei hätte man nur eine GTX oder ATi angechlossen, CF (3x8PIN) geht dann immernoch nicht. Wer also meint hier sparen zu können, wird bestimmt überrascht werden.

dargo
2007-02-09, 17:15:29
Korrigiert wurde nur der unverbindliche Preis des Herstellers. ;)

Von nichts anderem habe ich gesprochen.


nVidia und AMD werden am Anfang die wenigen Chips wohl nur an besondere Partner geben. Und das geht bis zum Käufer weiter.
Erst mit Eintritt des höhreren Angebotes statt der Nachfrage sinkt der Preis.

Tja, dann könnte das für R600 Käufer sogar ein Vorteil sein. ;)
Ein bestimmter Bereich ist schon mit dem G80 gesättigt.

reunion
2007-02-09, 17:17:21
Nur der RV515 und Abkömmlinge hat keinen Ringbus-MC, alle anderen haben einen.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=05

Wenn ich das so lesen, fragt man sich schon, warum die High-End-Karten einen Ringbus haben sollen, und ausgerechnet die LowEnd-Karte X1300 eine Crossbar, welche ja angeblich "wesentlich besser ist als der "Ringbus". Den ATI nur verbaut, um Transitoren zu sparen."

Coda
2007-02-09, 17:18:03
Sie wollen dennoch unterstützt werden.
Das glaube ich nicht, Tim. Das wäre völlig sinnlos, weil es eh nirgends benützt wird.

Wenn nun ein 8 Pin und 6 Pin gebraucht werden, aber der 8Pin bereits im C2D Board steckt, braucht man garantiert neue PSUs.
Das ist glaub ein anderer Stecker. Außerdem wird ATI da einfach nen Adapter beilegen (PCIe+Molex).

PCGH_Carsten
2007-02-09, 17:21:43
Nope. Radeons mit einem < 128Bit Si haben aber keinen RingBus.
X1600 XT?

seahawk
2007-02-09, 17:22:32
http://www.overclockers.com/articles1411/pic3.jpg

Damit sind 270W schon versorgbar.

http://www.overclockers.com/articles1411/pic5.jpg

Das Kühldesing erinnert mich ja irgendwie an die 5800Ultra. :D

Aber ich denke AMD wird schon ne ordentlich Silentlösung anbieten. Und der Open/Close-Deckel dürfte wohl für Crossfire sein. Biede KArten können dann von der "Außenseite" Luft ansaugen.

reunion
2007-02-09, 17:24:39
Ich sehe gerade da ist sogar ein Anschluss für einen zweiten Lüfter vorhanden. Daraus könnte man schließen, dass die Retail-Version zwei Lüfter haben wird.

Anarchy-HWLUXX
2007-02-09, 17:25:16
Sind hier im Forum Hotlinks erlaubt ? OC.com wird es nicht freuen ...

reunion
2007-02-09, 17:28:47
Wenn nun ein 8 Pin und 6 Pin gebraucht werden, aber der 8Pin bereits im C2D Board steckt, braucht man garantiert neue PSUs und hier scheiden sich dann bereits die Geister. Es wird kein Hersteller eine PSU herausbringen, welche bei 500W liegt und dann 2x6 PIN und 2x8PIN fährt, nur damit man mit ATi konform geht. Dabei hätte man nur eine GTX oder ATi angechlossen, CF (3x8PIN) geht dann immernoch nicht. Wer also meint hier sparen zu können, wird bestimmt überrascht werden.

Das hat nichts mit "ATI-konform" zu tun, das ist PCIe2.0 konform, und wird mittelfristig bei jeder Karte zum Standard. Der 8 Pin Anschluss wird den 6 Pin Anschluss ersetzten.

Die gelbe Eule
2007-02-09, 17:30:54
Das glaube ich nicht, Tim. Das wäre völlig sinnlos, weil es eh nirgends benützt wird.


Das ist glaub ein anderer Stecker. Außerdem wird ATI da einfach nen Adapter beilegen (PCIe+Molex).

Ich kenne die Specs nicht für 8PIN, aber ich denke dort wird die Rail mit etwas mehr Ampere anliegen müssen, als bei 6PIN. Warum man aber nicht 2x6PIN fahren möchte, ist mir schleierhaft, könnte man doch sofort auf 2x8PIN umsteigen. Es sieht einfach danach aus, daß dieses Teil unheimlich viel Strom fressen wird und zwar mehr als der G80. Ob ein Respin da noch was drehen kann, ich wage es zu bezweifeln.

reunion
2007-02-09, 17:58:27
ATi plant angeblich auch wieder eine FireStream-Karte auf R600-Basis mit 4(!) GB VRAM: http://www.the-inquirer.net/default.aspx?article=37529

Außerdem soll auch wieder eine Uber-Ed. auf Wasserkühlbasis kommen: http://www.the-inquirer.net/default.aspx?article=37543

Wie du schon selbst andeutest: ATi wäre blöd, wenn sie keine XT mit einem GB bringen würde, vorallem, da man das faktisch mit null Aufwand bewerkstelligen könnte.

BTW, in den Treibern gibt es angeblich vier verschiedenen R600-Einträge. Die Infos von VR-Zone sind also unvollständig.

Wie man auf dem Bild sieht, sind zwei 6-Pin-Stecker verlötet - neben dem linken sind allerdings noch Lötstellen, um einen 8-Pin-Stecker draus zu machen - genau wie bei der 8800 GTX.

Das kann nun zweierlei bedeuten: Frühes Sample mit niedrigeren Taktraten und aus Rücksicht auf (damals?) kaum verfügbare PCIe-2.0-Netzteile zwei 6er-Stecker.

Oder eben deine Annahme, dass der Gesamtverbrauch doch unter 225 Watt liegt und man später sogar allein mit einem 8-Pin-Anschluss auskommt.

edit: Da habe ich wohl etwas lange getippt

Es könnte zB auch sein, dass man den 6-Pin Anschluss nicht mehr benötigt, wenn man den mit 8 Pins verwendet. Davon wird zumindest bei B3D momentan ausgegangen.

dargo
2007-02-09, 18:24:33
Es könnte zB auch sein, dass man den 6-Pin Anschluss nicht mehr benötigt, wenn man den mit 8 Pins verwendet. Davon wird zumindest bei B3D momentan ausgegangen.
Wozu hat man dann überhaupt den 6Pin Anschluss verbaut :confused:

reunion
2007-02-09, 18:28:56
Offensichtlich sind die ersten sechs Pins der beiden Anschlüsse identisch. Also entweder zweimal sechs, oder einmal acht.

dargo
2007-02-09, 18:47:57
Offensichtlich sind die ersten sechs Pins der beiden Anschlüsse identisch. Also entweder zweimal sechs, oder einmal acht.
Ok, das würde Sinn machen.

seahawk
2007-02-09, 19:03:52
Das glaube ich nicht. Wozu sollte man sich diese Komplexität auf die Karte setzen, wenn man dann nur einen 8er und entsprechende Adapter mitliefern müßte.

reunion
2007-02-09, 19:10:46
Das glaube ich nicht. Wozu sollte man sich diese Komplexität auf die Karte setzen, wenn man dann nur einen 8er und entsprechende Adapter mitliefern müßte.

So ein "acht-Pin-Kabel" muss AFAIK 225W liefern können. Verdammt viel IMHO, um hier einfach einen Adapter zu verwendet. Wie Quasar weiter hinten schon angab, hat auch die 8800GTX einmal 8, und einmal 6 Pins für die Stromversorgung. Allerdings sind bei dieser nur zweimal sechs Pins nach außen geführt, da es zum damaligen Zeitpunkt wohl mangels Netzteile schlicht keinen Sinn machte, auch einen 8 Pin Anschluss zu verbauen. So erreicht man jedenfalls die maximale Kompatibilität, da man auch mit zwei alten sechs-Pin-Steckern auskommt, und gleichzeitig den maximalen Komfort, da man bei neueren Netzteilen auf zwei Kabel verzichten kann.

Gast
2007-02-09, 19:25:33
So ein "acht-Pin-Kabel" muss AFAIK 225W liefern können. Verdammt viel IMHO, um hier einfach einen Adapter zu verwendet. Wie Quasar weiter hinten schon angab, hat auch die 8800GTX einmal 8, und einmal 6 Pins für die Stromversorgung. Allerdings sind bei dieser nur zweimal sechs Pins nach außen geführt, da es zum damaligen Zeitpunkt wohl mangels Netzteile schlicht keinen Sinn machte, auch einen 8 Pin Anschluss zu verbauen. So erreicht man jedenfalls die maximale Kompatibilität, da man auch mit zwei alten sechs-Pin-Steckern auskommt, und gleichzeitig den maximalen Komfort, da man bei neueren Netzteilen auf zwei Kabel verzichten kann.


also wird es wohl keine adapter geben?

reunion
2007-02-09, 19:26:48
also wird es wohl keine adapter geben?

Ich kann mir jedenfalls nicht vorstellen, dass man aus einem einfachen HDD-Stecker 225W ziehen kann über eine(!) 12V-Leitung.

Anarchy-HWLUXX
2007-02-09, 19:40:36
Ich kann mir jedenfalls nicht vorstellen, dass man aus einem einfachen HDD-Stecker 225W ziehen kann über eine(!) 12V-Leitung.

Öm ... es gibt 6->8 pin adapter (wurden bei der PCIe 2.0 vorstellung gezeigt) ... ansonsten braucht man für 4pin Molex->6pin auch zwei seperate stränge vom NT.

StefanV
2007-02-09, 19:42:14
kann an auch nicht, die ~22A sind viel zu viel dafür.
~100W sind aber eigentlich kein Problem für das Kabel, auch wenn man meist Alu Leitungen benutzt...

reunion
2007-02-09, 19:53:38
Öm ... es gibt 6->8 pin adapter (wurden bei der PCIe 2.0 vorstellung gezeigt).

Ja, aber die kamen AFAIK auch alle vom Netzteil. Also einmal sechs Pins, und einmal zwei Pins zum dranstecken, ähnlich wie beim 20/24Pin Mainboardstecker.

So oder so, glaubt hier wirklich jemand, ATi würde mit den 300W, die PCIe2.0 liefern kann (also 75W über den Slot und 225W über das 8-Pin-Kabel) nicht auskommen? Der zusätzliche 6-Pin Stecker lässt höchstens vermuten, dass man auch mit 225W, also zweimal 6-Pin auskommt. Sonst könnte man sich den zweiten 6-Pin-Stecker tatsächlich sparen.

Die gelbe Eule
2007-02-09, 19:55:27
Ist doch traurig das sie überhaupt in den Bereich fahren. Wahrscheinlich werden nur bestimmte PSU zertifiziert, damit die Karte ordentlich läuft.

aylano
2007-02-09, 19:58:14
Ich glaube wegen den ATI-Aussagen schon länger, dass ATI hauptsätzlich mit guten Übertaktungsfähigkeiten punkten will. Und damit meine ich nicht nur "Freaks", die sich dabei auskennen, sondern bei denen, die das noch nicht gemacht haben. (a la Massentauglicher)

ATI hat ja gesagt, dass die R600-Karte ja für 230 Watt ausgelegt sein wird. Und das müsste ja nicht nur der Stromzufuhr sondern eigentlich auch für die Kühlung gelten.

Dazu hat ATI gesagt, dass so eine R600-Karte im Standard-Takt eben kaum mehr Watt (vielleicht 180 Watt) verbraucht als eine G80 von irgendwann.

Also, deshalb glaube ich, dass es so abläuft.

Wer mit R600-Standard-Takt spielt hat mit dieser Standard-Kühlung eine ziehmlich (bzw. überraschend) leise High-End Karte.
Aber wer mehr Power will, kann relaitv einfach und ohne Mehrkosten die Karte auf 230 Watt hochdrehen, aber mit den Nachteil, dass es nicht mehr ganz so leise ist.

Da der Trend zu einer immer schnelleren High-End Karte bzw. System a la Quad-Sli geht, bereitet ATI & Co auch schon Wassergekühlte Systeme vor, für die, die noch ein bischen mehr raushohlen wollen, aber dafür noch mehr Geld drauflegen wollen.

So hab ich die ATI-Aussagen interpretiert. Und diese Vorgehensweise würde ja auch ein bischen nach AMD-Strategie a la "Silent-(Stromspar)-Systeme oder abolsut Stromfressend alias 4x4 gehen.

Aber anderseits wurden die ATI-Aussagen auch zu einer Zeit gemacht, wo noch eine X2800 kommen hätte sollen, die ja AFAIK mittlerweile durch eine X2900 ersetzt wurde.

Nun ja, bin gespannt wie es wirklich aussehen wird.

reunion
2007-02-09, 19:59:11
Ist doch traurig das sie überhaupt in den Bereich fahren. Wahrscheinlich werden nur bestimmte PSU zertifiziert, damit die Karte ordentlich läuft.

nV benötigt ebenfalls zweimal 6-Pin-Stecker beim G80. Und damit kann man R600 auch betreiben, sonst würde der zweite Stecker keine Sinn machen. Im übrigen sagt das überhaupt nichts über den tatsächlichen Stromverbauch aus, da der Stecker 225W liefern kann, nicht liefern muss. Jeder zukünftige Karte, die mit dem 75W des Slots nicht auskommt, wird diesen Stecker haben, sofern sie PCIe 2.0 konform ist.

Black-Scorpion
2007-02-09, 19:59:55
Es ist eher traurig das hier User schon Sachen als gesichert ansehen ohne eine Retailkarte je gesehen zu haben.
Nichtmal ein Bild davon ist aufgetaucht.

Die gelbe Eule
2007-02-09, 20:02:58
Wenn man einen Lüfter verbaut, der alleine 25W zieht, ist es wohl AMD scheißegal, was er an Strom verbrät. Ich kann mich noch erinnern, das AMD vor dem Aufkauf ATi geholfen hat, die Wärme die hier verursacht wird (genau aufpassen, Verlustleistung!) irgendwie abzuführen, alleine bekam das ATi wohl nicht auf die Reihe. Das Resulat sehen wir ja nun. Die Option welche Sparkle hat und auch auf einer GeCube zu sehen ist, mit dem Peltierelement, wäre vielleicht der bessere Ansatz gewesen.

Black-Scorpion
2007-02-09, 20:06:56
Halt mal die Füße still.
G80 ist auch nicht gerade das Stromsparwunder.
Und wie schon gesagt ist auf dem Bild eine OEM Karte zu sehen.
Hast du schon eine Retailkarte gesehen?

Gast
2007-02-09, 20:08:15
Halt mal die Füße still.
G80 ist auch nicht gerade das Stromsparwunder.


Im Vergleich zu was?

LovesuckZ

Black-Scorpion
2007-02-09, 20:12:02
Komm lass es einfach.
Sobald das Wort Strom in Verbindung mit G80 auftaucht, kann man drauf warten das du anspringst.
Ich werde mit dir bestimmt keine Diskussion darüber anfangen weil es nichts bringt.

reunion
2007-02-09, 20:13:24
Wenn man einen Lüfter verbaut, der alleine 25W zieht, ist es wohl AMD scheißegal, was er an Strom verbrät.

Ja, bei 12V. Selbst der Lüfter meiner ASUS X1950pro ist mit 1A spezifiziert. Bei 3V ergibt das 0.2 Sone.

Die gelbe Eule
2007-02-09, 20:14:06
Halt mal die Füße still.
G80 ist auch nicht gerade das Stromsparwunder.
Und wie schon gesagt ist auf dem Bild eine OEM Karte zu sehen.
Hast du schon eine Retailkarte gesehen?

Ist auch noch so eine andere Sache, man munkelt das es vor Mai nichts wird, ließ zumindest Asien verlauten. Respin ahoi?

K4mPFwUr$t
2007-02-09, 20:18:59
@Die gelbe Eule
die zusammenarbeit mit AMD wird man erst im R700 wiederfinden.
der R600 wird laut ATI das letzte stromfressmonster werden.
oder erwartest du das ATI / AMD so schnell ihr ganzes personal umstricken können, besonders bei etwas größeren unternehmen.

also kannst du das nicht ernst meinen das AMD der stromverbrauch völllig egal sei.
zumal du bedenken musst das der luftkanal der OEM version riesig ist, ein laues lüftchen würde diesen riesigen kanal nicht durchqueren können.
dafür müsste das kühlkonzept anders aufgebaut sein, oder schon alleine die finnendichte des heatpipe blocks.

R700 soll ja in planung mit mehreren cores oder dies sein, oder irgendwas war mit monoltischer bauweise die rede.

reunion
2007-02-09, 20:21:32
Ist auch noch so eine andere Sache, man munkelt das es vor Mai nichts wird, ließ zumindest Asien verlauten. Respin ahoi?

Na was du nicht alles zu wissen glaubst. :rolleyes:
Da ist wohl eher der Wunsch danach Vater des Gedanken. Kannst das ja gerne im März nochmal behauptet. :smile:

dargo
2007-02-09, 20:24:02
Der Lüfterhersteller der OEM Version ist zumindest der selbe wie bei einer X1900XT:

http://www.techpowerup.com/reviews/Diamond/X1900XT/images/hsf1.jpg

Das heißt wohl nichts gutes. ;(

K4mPFwUr$t
2007-02-09, 20:29:22
millennium ist nicht nur für den referenz lüfter der X1900XT verantwortlich.
aber so gesehen was lockt die leute mehr an? ein etwas niedrigerer preis oder vieleicht eine bessere aber 20-30€ teurere kühllösung?
dabei jetzt aber nicht von euch ausgehen, die doch etwas wert drauf legen.

radiallüfter neigen eh immerhin zu zwerggrößen, daher viel umdrehung für ein wenig luftbewegung. aufgrund der länge des luftkanals beim R600 OEM braucht man rein technisch gesehen einen lüfter der mehr durchsatz hat als bei der x1900XT ;)

Gast
2007-02-09, 20:38:37
Der Lüfterhersteller der OEM Version ist zumindest der selbe wie bei einer X1900XT:

http://www.techpowerup.com/reviews/Diamond/X1900XT/images/hsf1.jpg

Das heißt wohl nichts gutes. ;(
Vor allem hat der nur 5W. Der neue hat 24W. Wenn der auf Vollgas geht, dürfte sich der anhören wie ne kleine hochlaufende Gasturbine.

dargo
2007-02-09, 20:40:50
aber so gesehen was lockt die leute mehr an? ein etwas niedrigerer preis oder vieleicht eine bessere aber 20-30€ teurere kühllösung?
dabei jetzt aber nicht von euch ausgehen, die doch etwas wert drauf legen.

Naja, mir ist es wichtig, dass er in 2D sehr leise ist. Bei Last darf er ruhig mal etwas lauter sein. Aber ich kann da nur meine Ansprüche nennen.


aufgrund der länge des luftkanals beim R600 OEM braucht man rein technisch gesehen einen lüfter der mehr durchsatz hat als bei der x1900XT ;)
Nicht unbedingt. Der Kühlkörper der OEM ist mindestens doppelt so groß wie der X1900XT. Außerdem hat der noch 4 Heatpipes.

K4mPFwUr$t
2007-02-09, 20:45:53
Nicht unbedingt. Der Kühlkörper der OEM ist mindestens doppelt so groß wie der X1900XT. Außerdem hat der noch 4 Heatpipes.
wie von dir gesagt "nicht umbedingt" aber viele kühlfinnen und 4 heatpipes bremsen halt den luftstrom doch etwas ab. ist wie bei einem radiators einer wasserkühlung, auch wenn der lüfter 65m³/h hat, kommt effektiv hinter dem radiator ~50m³/h raus. aber das kann man wiederum nur bedingt vergleichen wegns radial und axial. aber im grunde gesehen bleibt ja das "abbremsen" des luftstromes weiterhin vorhanden.

aber da hat jeder seine persönlichen ansichten, die untereinander varieren können ^^

Naja, mir ist es wichtig, dass er in 2D sehr leise ist. Bei Last darf er ruhig mal etwas lauter sein. Aber ich kann da nur meine Ansprüche nennen.
für mich ist der ref bzw. stock cooler eh wurst, da mein system wassergekühl ist und bleiben soll.
so gesehen gibt es x verschiedene gruppen mit verschiedenen ansprüchen.

Gast
2007-02-09, 20:52:03
wie von dir gesagt "nicht umbedingt" aber viele kühlfinnen und 4 heatpipes bremsen halt den luftstrom doch etwas ab. ist wie bei einem radiators einer wasserkühlung, auch wenn der lüfter 65m³/h hat, kommt effektiv hinter dem radiator ~50m³/h raus. aber das kann man wiederum nur bedingt vergleichen wegns radial und axial. aber im grunde gesehen bleibt ja das "abbremsen" des luftstromes weiterhin vorhanden.

aber da hat jeder seine persönlichen ansichten, die untereinander varieren können ^^


für mich ist der ref bzw. stock cooler eh wurst, da mein system wassergekühl ist und bleiben soll.
so gesehen gibt es x verschiedene gruppen mit verschiedenen ansprüchen.
Umsonst wird der neue Lüfter auch nicht 24W haben. Bei der X1900XT lief afaik der Lüfter unter Last ca. mit 2,8W bei max. möglichen 5W. Der 24W Lüfter läuft wahrscheinlich unter Last dann mit ca. 13W. Ansonsten wäre das ganze völlig überdimensioniert und unnötig, und wer macht das schon?

dargo
2007-02-09, 20:58:58
Der 24W Lüfter läuft wahrscheinlich unter Last dann mit ca. 13W. Ansonsten wäre das ganze völlig überdimensioniert und unnötig, und wer macht das schon?
Jetzt wo du es sagst fällt mir ein, hat ATI nicht mal gesagt der R600 Kühler wäre in der Lage bis zu 250W abzuführen? Sogesehen könnte man den Lüfter bei "moderater" Verlustleistung sehr langsam drehen lassen.

Gmax
2007-02-09, 21:03:33
Ich bin gespannt, ob Firmen wie HIS oder GeCube die Karte vom Verkaufstart ab mit ihren eigenen Kühler bestücken :rolleyes:

Gast
2007-02-09, 21:05:04
Jetzt wo du es sagst fällt mir ein, hat ATI nicht mal gesagt der R600 Kühler wäre in der Lage bis zu 250W abzuführen? Sogesehen könnte man den Lüfter bei "moderater" Verlustleistung sehr langsam drehen lassen.
Wenn dem so wäre, würden sie aus kostengründen wohl einen billigeren verbauen. Kann sein, dass der R600 schon so um die 250W verbraucht.

K4mPFwUr$t
2007-02-09, 21:05:18
Jetzt wo du es sagst fällt mir ein, hat ATI nicht mal gesagt der R600 Kühler wäre in der Lage bis zu 250W abzuführen? Sogesehen könnte man den Lüfter bei "moderater" Verlustleistung sehr langsam drehen lassen.
war der kühlt nicht auf 240W TDP konzipiert. wie üblich wird der lüfter bei recht nierdriger GPU temp noch langsam regeln. wenn es dem kleinen zu hitzig wird, hätte er genug reserven für kurz 100% fanspeed um wieder in kühlere regionen zu kommen. wäre schon komisch wenn man bei jeder temp 100% fahren würde, demnach müsste ATI sich verpflichtet fühlen ein paar ohrenstöpsel bei zulegen ;D

Wenn dem so wäre, würden sie aus kostengründen wohl einen billigeren verbauen. Kann sein, dass der R600 schon so um die 250W verbraucht.
TDP vieleicht, aber der reale wert liegt immer darunter. es muss ja noch ein gewisser "sicherheitsbuffer" vorhanden sein. sonst könnte es in einigen situationen eng werden, zu eng.

Gast
2007-02-09, 21:14:37
war der kühlt nicht auf 240W TDP konzipiert. wie üblich wird der lüfter bei recht nierdriger GPU temp noch langsam regeln. wenn es dem kleinen zu hitzig wird, hätte er genug reserven für kurz 100% fanspeed um wieder in kühlere regionen zu kommen. wäre schon komisch wenn man bei jeder temp 100% fahren würde, demnach müsste ATI sich verpflichtet fühlen ein paar ohrenstöpsel bei zulegen ;D


TDP vieleicht, aber der reale wert liegt immer darunter. es muss ja noch ein gewisser "sicherheitsbuffer" vorhanden sein. sonst könnte es in einigen situationen eng werden, zu eng.
Ja sicher, aber wenn ATi schon in Erwägung zieht, einen 24W überhaupt zu verbauen, drückt das aus, dass sie mit ihrem Chipdesign bei den heutigen Platzverhältnissen so langsam an Grenzen stoßen. Kann sein, dass der R600 nicht so viel Strom zieht, aber dafür kühler als R580 oder G80 sein muss um stabil zu laufen. Und die 2 Stromanschlüsse auf dem PCB könnten wie schon erwähnt bei der Retailversion in Form einer 2-Lüfterlösung zum Einsatz kommen. Insgesamt eine recht heikle Angelegenheit, jedenfalls für ihr Spitzenmodell.

deekey777
2007-02-09, 21:17:41
Die Bilder zeigen doch die OEM-Version und nicht die fertige Retail-Version. Auch soll die OEM-Version anders als die Retail-Version eine ältere Revision des R600 nutzen, nämlich A13 (Retail A15).
Irgendwie schließt ihr von der OEM-Version gleich auf die Retail-Version.

(+44)
2007-02-09, 21:30:40
Die Bilder zeigen doch die OEM-Version und nicht die fertige Retail-Version. Auch soll die OEM-Version anders als die Retail-Version eine ältere Revision des R600 nutzen, nämlich A13 (Retail A15).
Irgendwie schließt ihr von der OEM-Version gleich auf die Retail-Version.

Sagen wir's so - egal wie populistisch und voreilig die aktuellen Meinungen sein mögen - bleiben wir realistisch und erwarten keine Wunder von dern fertigen Karten!

StefanV
2007-02-09, 21:55:26
Der Lüfterhersteller der OEM Version ist zumindest der selbe wie bei einer X1900XT:

http://www.techpowerup.com/reviews/Diamond/X1900XT/images/hsf1.jpg

Das heißt wohl nichts gutes. ;(
Und auf nVidia Kühlern, z.B. dem 6800U Quirl sitzt ein Delta Lüfter (genau: BFB0712H), der selbe Lüfterhersteller (Millenium) dürfte AFAIK auch den Quirl auf der 7800GTX verbrochen haben, wenn ichs recht in Erinnerung hab.
Kurz: das ist Blödsinn, was du hier gemacht hast, aufgrund eines Produktes auf ein anderes zu schließen, zumal das Problem eher der Lufttunnel ist und nicht der Quirl...

Jetzt wo du es sagst fällt mir ein, hat ATI nicht mal gesagt der R600 Kühler wäre in der Lage bis zu 250W abzuführen? Sogesehen könnte man den Lüfter bei "moderater" Verlustleistung sehr langsam drehen lassen.
Das ist Blödsinn weil wird nicht unbedingt gehen (ok, sind Radiallüfter, da geht sowas eher)...

Die Lüfter haben halt nur einen gewissen Bereich in dem sie operieren können, man kann nicht einfach 'nen 12W Lüfter nehmen und den mit 3V laufen lassen, das wird nix.
Einmal sind die Lager nicht selten deutlich lauter zum anderen brauchts 'ne gewisse Spannung damit die Teile überhaupt erstmal anlaufen...

Hab hier btw momentan noch 2 12V Intel Lüfter, die bekommst NIEMALS leise, bauartbedingt.

Wie sowas klingt, wirst als C2D User sicherlich kennen...
In diesem Punkt sind die Intel Lüfter (immer noch) äußerst 'vorbildlich' :ugly:

Undertaker
2007-02-09, 22:07:25
was heißt verbrochen? die 7800gtx war doch extrem leise?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/24/#abschnitt_lautstaerke

Gast
2007-02-09, 22:16:38
was heißt verbrochen? die 7800gtx war doch extrem leise?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/24/#abschnitt_lautstaerke
Extrem leise ist vielleicht übertrieben. Unter Last war er angenehm und zu ertragen. Lag vor allem daran, dass er nie richtig gefordert wurde. Wenn man an der Lüftersteuerung rumgepfuscht hatte, konnte es aber passieren, dass er recht laut wurde.

Gast
2007-02-09, 22:46:29
Beliebig kann man den Luftstrom nicht variieren, so wie die Strömungswiderstände darin vorhanden sind. Unterhalb eines gewissen Schwellenwertes bewegt sich da gar keine Luftsäule. Also wird es eine Mindestdrehzahl geben, die bestimmt nicht bei 10% der Maximaldrehzahl sein wird. Das Lüfterdesign ist auch grotte, ich dachte, die hätten gelernt.

dildo4u
2007-02-10, 00:00:31
Heftig aber wenn man sich mal anguckt wo wir bei den Netzteilen sind kein Wunder 720 850 1000Watt alles dabei.Ich schätze die NT Hersteller haben schon länger die Verbrauchswerte des R600.Möchte nicht wissen wie viel Watt man für ein R600 Crossfire Ready Netzteil braucht whol minimal 650W.

Gast
2007-02-10, 00:29:40
TDP 240Watt finde ich schon heftig, wenn ein G80 da grademal 160Watt auf die Waagschale wirft. Mit dem von Intel propagierten "Watt per Performance" kann man da nicht antreten ^^
Klar der TDP ist worst case, aber was ist bei einer GPU bitte worst case? Die geht doch immer in die vollen... Sagen wir 200Watt im 3DBetrieb und das ist definitiv zuviel, vorallem wird die Rückseite der Karte sichernicht nur lau warm. Das heitzt die CPU und die Onboardkomponenten heutiger Mainboards nochmal gut auf, kann man jetzt schon live mit einer GTS sehen, das CPU Temps da leicht ansteigen da die Karte Hitze nach oben abgibt.

Ailuros
2007-02-10, 02:58:44
Extrem leise ist vielleicht übertrieben. Unter Last war er angenehm und zu ertragen. Lag vor allem daran, dass er nie richtig gefordert wurde. Wenn man an der Lüftersteuerung rumgepfuscht hatte, konnte es aber passieren, dass er recht laut wurde.

Gilt aber fuer alle GPUs, wo man den Luefter via SW steuern kann. Konkurrierende Loesungen sind dann noch lauter als das Ding.

Gast
2007-02-10, 03:07:29
Wow, 240 Watt nur die Grafikkarte. Das ist heftig. Ich hatte eigentlich vor einem Jahr damit gerechnet, dass der Energieverbrauch in der Zukunft sinken wird, aber da habe ich mich wohl geirrt. Und ich beschwere mich über meine X1800 XT. :eek:

Fetza
2007-02-10, 05:06:24
TDP 240Watt finde ich schon heftig, wenn ein G80 da grademal 160Watt auf die Waagschale wirft. Mit dem von Intel propagierten "Watt per Performance" kann man da nicht antreten ^^
Klar der TDP ist worst case, aber was ist bei einer GPU bitte worst case? Die geht doch immer in die vollen... Sagen wir 200Watt im 3DBetrieb und das ist definitiv zuviel, vorallem wird die Rückseite der Karte sichernicht nur lau warm. Das heitzt die CPU und die Onboardkomponenten heutiger Mainboards nochmal gut auf, kann man jetzt schon live mit einer GTS sehen, das CPU Temps da leicht ansteigen da die Karte Hitze nach oben abgibt.

lass doch einfach eine gehäuseseite offen.

greetz

Fetza



Wie sowas klingt, wirst als C2D User sicherlich kennen...
In diesem Punkt sind die Intel Lüfter (immer noch) äußerst 'vorbildlich' :ugly:
´
mein core duo 2 boxed lüfter ist äußerst leise, von daher kann ich diese lüfter nur loben.

Gast
2007-02-10, 07:36:52
´
mein core duo 2 boxed lüfter ist äußerst leise, von daher kann ich diese lüfter nur loben.


Wow, oben fängt einer an von der Kühlerkonstruktion einer Vorserienkarte auf die Leisungsaufnahme zu schließen und wird dann so gepostet als wäre das ne Tatsache. Menschen sind so einfach zu manipulieren...

AnarchX
2007-02-10, 09:32:11
[ATi 65nm RV610/RV630 Cards Info]
VR-Zone has gotten some concrete information on the process technology and memory interface of RV610 and RV630. Both will be based on 65nm process technology from TSMC. RV610, the low end version will only have 64-bit memory interface and we have told you earlier that there will be 2 variants at launch; RV610LE which is DDR2 based and RV610PRO which is DDR3 based. The RV610LE card has 4 layers and consumes 25W of power while RV610PRO has 6 layers and consumes 35W of power. RV630, the mainstream version will have 128-bit memory interface and comes in 3 variants; DDR4, DDR3 and DDR2. The power consumption stood at 128W, 93W and 75W respectively. There will be samples in March and expected launch in April.
http://www.vr-zone.com/index.php?i=4630

:uup:

Ronny145
2007-02-10, 09:36:19
Krass, wenn schon der RV630 in 65nm bei 100 Watt oder mehr liegt, dann kann der R600 in der Praxis wirklich bei 200 Watt liegen. Hoffentlich stimmt das nicht.

dargo
2007-02-10, 09:40:50
Die Lüfter haben halt nur einen gewissen Bereich in dem sie operieren können, man kann nicht einfach 'nen 12W Lüfter nehmen und den mit 3V laufen lassen, das wird nix.
Einmal sind die Lager nicht selten deutlich lauter zum anderen brauchts 'ne gewisse Spannung damit die Teile überhaupt erstmal anlaufen...

Deswegen läuft der X1900XT Lüfter auch mit 12V für ca. 1-2 Sekunden beim Booten. ;)
Und so klein ist der Regelbereich des X1900XT Lüfters gar nicht. Von ca. 1200RPM bis 5000RPM (oder warens sogar 6000RPM?).

Mal davon abgesehen, ich finde den 24W Lüfter der OEM Version einfach nur noch krank. Umso mehr bin ich jetzt auf die Retail Version gespannt.

reunion
2007-02-10, 09:45:16
Abwarten. Schon die Angaben der 270W des R600 sind unrealistisch, da man das mit zwei 6-Pin-Stecker nicht mal annähernd liefern kann. Auch ist das 64-bit SI für den Lowend-Chip wohl bestenfalls ein Witz, schon zu R7XXX-Zeiten hatte man hier AFAIK auf 128-bit gesetzt. Noch dazu sollen die Chips in 65nm kommen. Auch ATi kann Fehlinformationen streuen - VR-Zone hatte noch nie einen guten Draht zu ATi in der Vergangenheit.

AnarchX
2007-02-10, 09:48:31
Abwarten. Schon die Angaben der 270W des R600 sind unrealistisch, da man das mit zwei 6-Pin-Stecker nicht mal annähernd liefern kann. Auch ist das 64-bit SI für den Lowend-Chip wohl bestenfalls ein Witz, schon zu R7XXX-Zeiten hatte man hier AFAIK auf 128-bit gesetzt. Noch dazu sollen die Chips in 65nm kommen. Auch ATi kann Fehlinformationen streuen - VR-Zone hatte noch nie einen guten Draht zu ATi in der Vergangenheit.

Das kann man nur hoffen, ansonsten würde es etwas desaströs für ATi aussehen. ;)
(Vielleicht wurden ja diese "Fehlinformationen" von den Netzteilherstellern gestreut? :uponder:)

dargo
2007-02-10, 09:49:09
[ATi 65nm RV610/RV630 Cards Info]

http://www.vr-zone.com/index.php?i=4630

:uup:
128W bei einer Mainstream Graka in 65nm? Das glaube ich nie.

Edit:
Wieviele Transistoren soll der RV630 haben? 200-300 Mio.?
Nee, sorry, aber die Angaben von vr-zone sind imho Blödsinn.

reunion
2007-02-10, 09:57:25
Edit:
Wieviele Transistoren soll der RV630 haben? 200-300 Mio.?
Nee, sorry, aber die Angaben von vr-zone sind imho Blödsinn.

Eher weniger, denn für ein 256-bit SI ist es sich ja laut VR-Zone trotz 65nm nicht mehr ausgegangen. :ugly:

Im Ernst: Ich würde schon ~400mio schätzen, falls die 720mio des R600 ungefähr stimmen sollten.

AnarchX
2007-02-10, 09:58:11
Edit:
Wieviele Transistoren soll der RV630 haben? 200-300 Mio.?
Nee, sorry, aber die Angaben von vr-zone sind imho Blödsinn.

~400Mio+ bei vielleicht 900MHz+, wer weiss.... ;)

dargo
2007-02-10, 10:20:06
Im Ernst: Ich würde schon ~400mio schätzen, falls die 720mio des R600 ungefähr stimmen sollten.
Doch so viel? :eek:
Aber 128W bei 65nm? Das kann doch niemals stimmen. Da ist man nicht mehr weit von einer G8800GTX mit einem Mainstream Produkt entfernt. X-D
Wenn das der Fall ist hat AMD ein echtes Problem.

reunion
2007-02-10, 10:27:55
Doch so viel? :eek:


Glaub ich schon. Mit 60% des High-End-Chips kann man für den Midragechip schon rechnen. Dank 65nm dürfte das Die allerdings trotzdem kleiner sein, als bsw. ein RV570. Den man heute mit 256-bit SI für weit unter 200€ verscherbelt.

StefanV
2007-02-10, 10:34:44
Deswegen läuft der X1900XT Lüfter auch mit 12V für ca. 1-2 Sekunden beim Booten. ;)

Nein, der läuft 1-2 Sekunden weil der Lüfter vom BIOS geregelt wird, das aber erstmal geladen werden muss, was seine Zeit dauert...
Aus dem Grunde funzt das auch bei Crossfire mit einer Karte erst beim Windows start...
Abwarten. Schon die Angaben der 270W des R600 sind unrealistisch, da man das mit zwei 6-Pin-Stecker nicht mal annähernd liefern kann. Auch ist das 64-bit SI für den Lowend-Chip wohl bestenfalls ein Witz, schon zu R7XXX-Zeiten hatte man hier AFAIK auf 128-bit gesetzt. Noch dazu sollen die Chips in 65nm kommen. Auch ATi kann Fehlinformationen streuen - VR-Zone hatte noch nie einen guten Draht zu ATi in der Vergangenheit.
Meine x1300HM hat ein 64bit SI, das ist auch immer so gewesen, beim untersten Low End.
Auch zu R100 Zeiten hatte das kleinste Produkt ein 64bit Interface -> Radeon VE aka Radeon 7000, die 7500 gabs auch mit 64bit Interface.
Die 9000 zwar nicht, die 9200 dafür aber schon, gleiches bei der 9600 (SE) bzw 9550...

Du siehst, auch bei AMD haben die kleinsten Karten ein 64bit Interface, ist bei nV aber auch nicht anders (6200/7100 bzw 7300GS)...


mein core duo 2 boxed lüfter ist äußerst leise, von daher kann ich diese lüfter nur loben.
Das halt ich mal für glatt gelogen, zumindest @12V...

Oder andersrum: der ist leise weil der geregelt ist, manche sogar doppelt :ugly: (und nein, das ist kein Scherz!)
Auf vollen Touren rattert das Ding, so dass man meinen könnt, das hätt 'nen Lagerschaden...

Ist aber normal bei Intel Box Lüftern, haben sie alle, Nidec Lüfter sind halt nicht so prickelnd, Delta ist besser...
Und ja, ich hatte schon einige Intel Box Kühler und das betrifft sie alle...

reunion
2007-02-10, 10:48:38
Meine x1300HM hat ein 64bit SI, das ist auch immer so gewesen, beim untersten Low End.
Auch zu R100 Zeiten hatte das kleinste Produkt ein 64bit Interface -> Radeon VE aka Radeon 7000, die 7500 gabs auch mit 64bit Interface.
Die 9000 zwar nicht, die 9200 dafür aber schon, gleiches bei der 9600 (SE) bzw 9550...

Du siehst, auch bei AMD haben die kleinsten Karten ein 64bit Interface, ist bei nV aber auch nicht anders (6200/7100 bzw 7300GS)...


Ich habe dir weiter hinten schonmal gesagt, dass ich vom Chip, nicht von den Karten rede. Dass es natürlich auch Karten geben wird, bei denen nur 64-bit, oder gar 32-bit SI nach außen geführt werden, sollte klar sein.

Nakai
2007-02-10, 10:53:27
Naja VR-Zone halt.
Interessant finde ich, dass VR-Zone von den 3 Modellen auf einen so hohen Stromverbrauch schließt. Unsinn

Der R600 wird wohl an die 200 Watt verbrauchen. (Ist aber immer noch zu hoch!)
Der RV630 wird dann wohl 75 bis 100 Watt verbrauchen. (Je nach R600 Verbrauch)
Der RV610 dann wohl an die 30 Watt.

Erstmal auf Benches warten...;D

mfg Nakai

[MK2]Mythos
2007-02-10, 10:54:19
Naja, ich hab in der Vergangenheit gelernt, das der Begriff "leise" doch extrem subjektiv ist. Leute, die behaupten sie hätten eine leise Grafikkarte, weil sie aus dem sonst so leisen PC nicht herauszuhören ist (siehe X1800), sollten mal die Füße still halten. :) Damit sprech ich niemanden hier im speziellen an.

K4mPFwUr$t
2007-02-10, 11:02:10
da kann ich mythos nur zustimmen, was einige leute leise finden geht ja mal garnicht ;D

Zocker_28
2007-02-10, 13:48:32
Diese Thema nervt ganz schön, dann kauft euch ne Geforce 2 oder was auch immer, Strom und Lautstärke Interessiert bei Highend nicht (find ich).:rolleyes:

[MK2]Mythos
2007-02-10, 14:11:37
Du hast dir die passende Antwort auf deinen Kommentar schon selber gegeben, DU findest das Highend und leise Hardware nicht zusammen passt, ich will dir auch nichts anderes einreden, aber es gibt durchaus auch Menschen, die einen leisen PC + Highend Grafik haben möchten.
So, jetzt zurück zum Thema bitte.

dargo
2007-02-10, 14:36:27
Diese Thema nervt ganz schön, dann kauft euch ne Geforce 2 oder was auch immer, Strom und Lautstärke Interessiert bei Highend nicht (find ich).:rolleyes:
Seit wann ist ein RV630 High-End? :|

Zocker_28
2007-02-10, 14:41:27
Ich rede ja nicht von einer Spezielen Karte ich hab das im allgemeinen gesagt:smile:

Gast
2007-02-10, 14:42:56
Ich habe dir weiter hinten schonmal gesagt, dass ich vom Chip, nicht von den Karten rede. Dass es natürlich auch Karten geben wird, bei denen nur 64-bit, oder gar 32-bit SI nach außen geführt werden, sollte klar sein.Hat Nvidia beim G72 für die 7300GS auch so gemacht, während mit dem Vorgänger NV44 noch ein 128-bit-SI möglich war. Kann schon sein, dass ATI hier den Weg von NV einschlägt um die Margen zu erhöhen.

Gast
2007-02-10, 15:01:12
Diese Thema nervt ganz schön, dann kauft euch ne Geforce 2 oder was auch immer, Strom und Lautstärke Interessiert bei Highend nicht (find ich).:rolleyes:
Die Leute sind halt schon etwas geschockt, teilweise zu recht. Dir kanns egal sein, hast ja ne Wasserkühlung. Aber 24 W - Lüfter in nem Home-PC ist schon extrem. Normal haben das starke Deltalüfter bei ner Größe um die 92 mm. Der Lüfter ist hier kleiner, also wird es bei einem starken Rauschen nicht bleiben.
Wenn das so weiter geht, können die bald Warnhinweise anbringen: "Achtung, Aufenthalt in der Nähe der Ansaugöffnung nur bei ausgeschaltetem Rechner erlaubt". Oder ein Schutzgitter vor der Luftschraube anbringen, wegen akuter Verletzungsgefahr.

The_Invisible
2007-02-10, 15:20:55
Die Leute sind halt schon etwas geschockt, teilweise zu recht. Dir kanns egal sein, hast ja ne Wasserkühlung. Aber 24 W - Lüfter in nem Home-PC ist schon extrem. Normal haben das starke Deltalüfter bei ner Größe um die 92 mm. Der Lüfter ist hier kleiner, also wird es bei einem starken Rauschen nicht bleiben.
Wenn das so weiter geht, können die bald Warnhinweise anbringen: "Achtung, Aufenthalt in der Nähe der Ansaugöffnung nur bei ausgeschaltetem Rechner erlaubt". Oder ein Schutzgitter vor der Luftschraube anbringen, wegen akuter Verletzungsgefahr.

zumindest dann wenn das wasser brodelt dürfte es ihn auch was ausmachen :D

mfg

HOT
2007-02-10, 15:49:30
Kann das sein, dass der R600 aus mehreren Chips besteht? Das würde einiges erklären...

dargo
2007-02-10, 15:53:02
Kann das sein, dass der R600 aus mehreren Chips besteht? Das würde einiges erklären...
Wie meinst du das? Mit zwei Cores?
Das soll afaik erst mit dem R700 kommen.

Gast
2007-02-10, 16:06:30
Das soll afaik erst mit dem R700 kommen.Selbst da glaub ich nicht dran. Die Dinger müssten verdammt breit untereinander angebunden werden, damit das ganze effizient ist.

K4mPFwUr$t
2007-02-10, 16:07:12
der R600 ist der letzte chip, wo nur ATI ihre finger mit drin haben.
der r700 wird aus mehreren cores bestehen und evtl. monoltisch in der herstellung sein. so das man nur noch die cores "kopieren" und zusammenhängen muss.

high end: x4 cores
mid end: x2 cores
low end: x1 coresä

so in der richtung

Gast
2007-02-10, 16:12:47
der r700 wird aus mehreren cores bestehen Das klingt ja so als wärst du dir da sehr sicher.

AnarchX
2007-02-10, 16:24:03
Some more information has been leaked and confirmed.

R600 XTX : 1GB Memory GDDR4
R600 XT: 512MB Memory GDDR4
R600 XL: 512MB Memory GDDR3

RV610 and RV630 were scheduled for April, but have been pushed back by a month to May and it could even become a bit later than that.

RV630 is the replacement for the X1650Pro and X1650XT.
RV610Pro & RV610LE are the replacements for the X1300 series.

And last but not least, in Q3 the RV670 will be launched which is the replacement for the popular X1950Pro.

The lowend and midrange AMD cards slipping a month (or more) doesn't have to be bad since nVidia hasn't shipped out their G84 and G86 designkits to manufacturers. And if they don't do it by early next week, the launch of their cards will most likely also slip from the end of March to April because of the Chinese New Year.
http://www.beyond3d.com/forum/showpost.php?p=925670&postcount=1368

Scheint wohl der 65nm Prozess doch nicht soweit zu sein bzw. war man bei ATi zu optimistisch.
Aber auf die kleinen nV-Karten muss man auch noch warten.

dargo
2007-02-10, 16:32:04
Selbst da glaub ich nicht dran. Die Dinger müssten verdammt breit untereinander angebunden werden, damit das ganze effizient ist.
Was meinst du damit?

reunion
2007-02-10, 16:36:49
http://www.beyond3d.com/forum/showpost.php?p=925670&postcount=1368

Scheint wohl der 65nm Prozess wohl doch nicht soweit zu sein bzw. war man bei ATi zu optimistisch.

Ist das nicht derselbe, der von den 5-10% Performancevorteil von R600 ggü. G80 unter D3D10 gesprochen hat, was sich dann später als Fehlinformation herausgestellt hat? Und falls er recht haben sollte, verschiebt sich G86/G84 vermutlich auch um ein Monat, sodass die Ausgangslage identisch bleibt. Ob das jetzt am Prozess oder sonstwas liegen würde, sei mal dahingestellt.

Coda
2007-02-10, 16:53:24
Was meinst du damit?
Was soll er damit schon meinen? Sehr viel Bandbreite.

dargo
2007-02-10, 16:56:00
Was soll er damit schon meinen? Sehr viel Bandbreite.
Und wozu, wenn ich fragen darf?
Ich dachte beim R700 oder später erwartet uns sowas ähnliches wie die Bauweise vom Kentsfield.

AnarchX
2007-02-10, 17:02:36
Und wozu, wenn ich fragen darf?
Ich dachte beim R700 oder später erwartet uns sowas ähnliches wie die Bauweise vom Kentsfield.
Eben, beim Kentsfield sind ja die Kerne über einen FSB von 8GB/s verbunden und nun überlege mal mit welcher Bandbreite aktuelle GPUs an den VRAM angebunden sind. ;)
Alles in allem ist die Realisierung sicherlich nicht einfach.

dildo4u
2007-02-10, 17:06:14
Was ein Quark sorry Leute man hat doch mit dem R600 ein Design was man beliebig erweitern kann wozu dann zwei seperate Cores beim R700? Ist eh OT hier diese Spekulation.

X.Perry_Mental
2007-02-10, 17:06:28
Und wozu, wenn ich fragen darf?
Ich dachte beim R700 oder später erwartet uns sowas ähnliches wie die Bauweise vom Kentsfield.
Genau. Und da müssen sich beide Cores die Datentransferleistung des Frontsidebus (max. rund 8,5 GByte/s) teilen. Diese recht simple und wenig performante / elegante Verdrahtung ist auch eins der Hauptprobleme beim Kentsfield. Bei Multicore-GPUs wird man wohl was wesentlich besseres brauchen.

dargo
2007-02-10, 17:19:12
Eben, beim Kentsfield sind ja die Kerne über einen FSB von 8GB/s verbunden und nun überlege mal mit welcher Bandbreite aktuelle GPUs an den VRAM angebunden sind. ;)
Alles in allem ist die Realisierung sicherlich nicht einfach.

Ich dachte an sowas hier:

30221

Und bis der R700 oder gar R800 erscheint haben wir vielleicht schon GDDR5. Ich sehe da also bei der Speicherbandbreite keine Probleme mit einem 512Bit SI und eventuell 2,5 bis 3Ghz Speichertakt.

reunion
2007-02-10, 17:29:53
Eben, beim Kentsfield sind ja die Kerne über einen FSB von 8GB/s verbunden und nun überlege mal mit welcher Bandbreite aktuelle GPUs an den VRAM angebunden sind. ;)
Alles in allem ist die Realisierung sicherlich nicht einfach.

Mein Gott. Was macht man denn heute bei SLi/CF? Ein PCIe 4x Interfance und fertig. Eine "echte" Multicorelösung, bei denen sich alle Cores denselben RAM, etc. teilen halte ich für unrealistisch. Auch bei Xenos ist die Verbindung von Core zu eDRAM nicht ohne Grund auf 32GB/s begrenzt. Aber wer weiß, vielleicht ist man bis dahin schon so weit, dass soetwas möglich wird. Sofern ATi das wirklich anstrebt und nach Xenos überhaupt weiterforscht.

Gast
2007-02-10, 17:35:14
Ich sehe da also bei der Speicherbandbreite keine Probleme mit einem 512Bit SI und eventuell 2,5 bis 3Ghz Speichertakt.Es ist ja auch nicht von der Speicherbandbreite die Rede. Die Cores untereinander müssen sehr schnell kommunizieren können, damit das ganze effizient ist.

Außerdem ergibt es keinen Sinn zwei Kerne auf einem Die zu integrieren, wie deine Zeichnung zeigt. Da kann man auch einfach die Anzahl der Funktionseinheiten hochskalieren, was effektiver sein sollte.

Mein Gott. Was macht man denn heute bei SLi/CF? Ein PCIe 4x Interfance und fertig.Und wie effizient ist SLI bei 8 GPUs? In irgendeinem Spekuthead hat mal jemand von angeblichen 8 Cores für R700 geredet. Ich glaube aber nicht daran.

seahawk
2007-02-10, 17:35:57
Back to topic plz

dargo
2007-02-10, 17:39:07
Es ist ja auch nicht von der Speicherbandbreite die Rede. Die Cores untereinander müssen sehr schnell kommunizieren können, damit das ganze effizient ist.

Wie kommuniziert CF/SLI untereinander?


Außerdem ergibt es keinen Sinn zwei Kerne auf einem Die zu integrieren, wie deine Zeichnung zeigt. Da kann man auch einfach die Anzahl der Funktionseinheiten hochskalieren, was effektiver sein sollte.

Was ist billiger herzustellen - zwei 400 Mio. Transistoren GPUs oder eine GPU mit 800 Mio.?

Eine "echte" Multicorelösung, bei denen sich alle Cores denselben RAM, etc. teilen halte ich für unrealistisch.
Ich meinte auch eher, dass Core 1 auf den linken Speicher und Core 2 auf den Rechten zugreift. Bei 2,5Ghz Speichertakt und 512Bit SI wäre die Bandbreite je Core immerhin bei 160GB/s, was ja fast doppelt so viel ist wie heute bei einer G8800GTX.

reunion
2007-02-10, 17:42:19
Wie kommuniziert CF/SLI untereinander?


Was ist billiger herzustellen - zwei 400 Mio. Transistoren GPUs oder eine GPU mit 800 Mio.?


Da müsstest du aber dann bei jedem Die ein extra 512-bit SI nach außen führen mit entsprechendem Speicher. Dass das keinen Sinn macht, sollte klar sein. Entweder man hat eine ausreichend schnelle Verbindung zwischen den Dies, oder man kann sich das auch gleich sparen.

K4mPFwUr$t
2007-02-10, 17:42:25
zumal die yield nicht vergessen werten sollte. je mehr transis pro die, desto höher die chance das der IC nicht lauffähig ist.

nebenbei würde man nur einen core entwickeln müssen und nicht jedes mal pro segment einen eigenen.

robbitop
2007-02-10, 17:52:10
Wenn man Kerne skalieren will, dann tut man es nicht auf die SLI/CF Art. Das wäre Verschwendung von Speichermenge und skaliert auch nicht so gut wie eine Skalierung der Anzahl der Recheneinheiten.

Da kommt also nur eine Verbindung im 3 stelligen GB/s Bereich zwischen den DICE in Frage, damit die Cores gegenseitig auf die Caches und SIs zugreifen können. Ein weiterer Vorteil wäre 100%ige Kompatibilität (im Gegensatz zu CF/SLI).

Aber ob man sowas IM GPU Bereich umsetzen wird...so sicher wäre ich mir nicht.

Da geht's weiter: Teil 4.