PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation


Seiten : [1] 2 3 4 5

deekey777
2006-11-11, 14:32:45
Was allgemeines: Postings wie "R600 ist Müll" oder "R600 macht alles platt" sind sehr unerwünscht, auch unerwünscht sind Postings mit Kaufabsichten ohne weiteres. Bleibt sachlich, hier geht es nicht um Wünsche, sondern um unbestätigte Infos.

"Specs" (http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187):
Der R600 ist ein Hybrid aus dem R520/R580 und dem Xenos
96 ALUs (hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4946911#post4946911)), Unified Shader Architektur
sehr flexibel
höherer Verbrauch als beim G80 (bis zu 50 W)
80 nm gefertigt
Der R600 hat mit dem Xenos weniger gemeinsam, als man denkt. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4951196#post4951196)
Die Diskussion ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4945285#post4945285).
ATI dives into stream computing (http://www.techreport.com/etc/2006q4/stream-computing/index.x?pg=1)
The next generation, he said, could potentially have 96 shader processors and will exceed half a teraflop of computing power.
ATI has R600 silicon out: Game developers and special customers have it (http://www.theinquirer.net/default.aspx?article=35614)
ATis R600 setzt auf PCIe 2.0? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/)
[ATi R600 Card Re-Design In Progress] (http://www.vr-zone.com/?i=4293)
Nicht uninteressant:
From China with Love [G80, R600 and G81 info] (http://forums.anandtech.com/messageview.cfm?catid=31&threadid=1949593)
Bilder des R600? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5022261#post5022261)
750 MHz und keine Taktdomains? (http://www.beyond3d.com/forum/showpost.php?p=885260&postcount=1226)
Neue Infos? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5070847#post5070847)
Wie immer: Wenn irgendwas fehlt, schreibt mir eine PM. Und bevor ihr etwas fragt, schaut unbedingt in den ursprünglichen Thread rein.
R600 schon im dritten Quartal 2006? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273969)
Letztes Posting. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4975480#post4975480)

[](-__-)[]
2006-11-12, 00:37:05
Darf man hier posten?

Meine These, bezüglich es Stromverbrauchs. Das der R600 190 nein fast 200 Watt verbraucht, glaubst du doch selber nicht?

Wenn das der Fall wäre dann müsste der R600 a) mehr Transistoren haben, oder b) deutlich höher getaktet sein. Beides halte ich für unwarscheinlich.

Der R600 wird in 80nm gefertigt werden, der G80 wird in 90nm gefertigt. Mehr Tranistoren sind also unwarscheinlicher, als eine hohe Taktfrequenz






..............


Nun ist es so, dass da ATI eine neue Technik anwendet, die mit der X1700 Mobility Einzug gehalten hat.

So wird die X1700 zwar immer noch in 90 nm breiten Strukturen gefertigt, nun allerdings aber unter Einbeziehung der „Strained Silicon“-Technologie. Durch diese wird der Abstand zwischen den Transistorgittern vergrößert, der Strom kann einfacher fließen und man erreicht bei gleichem Stromverbrauch höhere Taktraten. So lassen sich laut ATi bei gleichbleibender Geschwindigkeit bis zu 20 Prozent Strom einsparen.
................

Außerdem wird doch GDDR4 zum Einsatz kommen. Gut, dessen Vorteil, weniger Leistung aufzunehmen, wird warscheinlich wieder relativiert, indem er höher getaktet wird.

Wenn man mal von 1000 Mhz ausgeht, wegen der begrenzten Stückzahl, dann wird der GDDR4 schonmal weniger verbrauchen, als der GDDR3 der G80.

Ich denke nicht, dass der R600 mehr verbauchen wird, wenn es ein Unterschied gibt, dann wird dieser zur Gunsten der R600 ausfallen.

Da die Hitzeentwicklung bei der R600 pro cm² steigen wird, kann es gut sein, dass der R600 schwieriger zu kühlen sein dürfte und ein noch besseres Kühlsystem bräuchte.

Meine Theorie als Laie.

Ronny145
2006-11-12, 00:52:29
Du vergleichst den R600 mit dem G80, das ist schonmal völlig falsch. Die 50 Watt kommen von Ailuros, schau dir nochmal den alten Thread an. Das muss aber nicht bedeuten, dass der R600 am Ende immer noch 50 Watt mehr verbraucht! Und der Vergleich mit dem G80 ist wie gesagt unsinnig. Schau dir die X1950XTX an, hat ~300 Milionen weniger Transistoren aber verbraucht trotzdem "nur" 20 Watt weniger. Und da der R600 sehr warscheinlich wieder deutlich mehr Transistoren als der R580 hat, wäre das schonmal locker möglich, 80 nm hin oder her. Der Speicher macht kaum was aus.

dildo4u
2006-11-12, 00:57:08
(-__-)[]']Darf man hier posten?

Meine These, bezüglich es Stromverbrauchs. Das der R600 190 nein fast 200 Watt verbraucht, glaubst du doch selber nicht?

Meine Theorie als Laie.
Guck dir dazu mal diese News an ATI setzt meiner Meinung beim R600 nach nicht umsonst auf PCI-E 2.0.

"Durch den Einsatz eines zusätzlichen 2x4-Anschlusses neben dem von PCIe 1.1 bekannten 6-poligen Anschlusses wird bei PCIe 2.0 eine maximale Leistungsaufnahme der Grafikkarte von 300 Watt abgesegnet."

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/

[](-__-)[]
2006-11-12, 01:03:10
Du vergleichst den R600 mit dem G80, das ist schonmal völlig falsch. Die 50 Watt kommen von Ailuros, schau dir nochmal den alten Thread an. Das muss aber nicht bedeuten, dass der R600 am Ende immer noch 50 Watt mehr verbraucht! Und der Vergleich mit dem G80 ist wie gesagt unsinnig. Schau dir die X1950XTX an, hat ~300 Milionen weniger Transistoren aber verbraucht trotzdem "nur" 20 Watt weniger. Und da der R600 sehr warscheinlich wieder deutlich mehr Transistoren als der R580 hat, wäre das schonmal locker möglich, 80 nm hin oder her. Der Speicher macht kaum was aus.

Meinst du mich? Wenn ja:

Das ist kompletter Unsinn, weil die R580 eine ganz andere Architektur, wie die der R600 haben wird und die R580 nicht mit der Strained Silicon“-Technologie aufweißen kann, was einen um 20% niedrigeren Energieverbrauch zur Folge hat.

Der Speicher macht alleine schon 10 Watt aus, wenn die Taktraten nahe am GDDR3, der nVidia liegen. Bei der X1950 XTX sinds ja schon 1000 Mhz. Ich denke, dass man hierbei bleiben wird.

[](-__-)[]
2006-11-12, 01:08:55
Guck dir dazu mal diese News an ATI setzt meiner Meinung beim R600 nach nicht umsonst auf PCI-E 2.0.

"Durch den Einsatz eines zusätzlichen 2x4-Anschlusses neben dem von PCIe 1.1 bekannten 6-poligen Anschlusses wird bei PCIe 2.0 eine maximale Leistungsaufnahme der Grafikkarte von 300 Watt abgesegnet."

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/

Oh man. Das habe ich schon heute gelesen. Nur weil die neue 2.0 Spezifikation eine Versorgung von 300 Watt ermöglicht, heisst das noch lange nicht, dass die R600 auch mehr schlucken wird.

Dagegen spricht sowieso so viel.

Als hätte ATI diesen Standard hervorgebracht.

1. Du brauchst nicht zwingend eine externe Stromversorgung, da 150 Watt über den BUS
2. Ist es gut fürs Marketing

dildo4u
2006-11-12, 01:12:13
(-__-)[]']

2. Ist es gut fürs Marketing
Das glaub ich eher nicht ich persönlich kenne wenige Leute die sich freuen wenn sie jetzt schon wieder ein neues Board kaufen müssen wenn sie vieleicht grad 150-200€ für ein High-End PCI-E Board ausgegeben haben.

Ronny145
2006-11-12, 01:15:08
(-__-)[]']Meinst du mich? Wenn ja:

Das ist kompletter Unsinn, weil die R580 eine ganz andere Architektur, wie die der R600 haben wird und die R580 nicht mit der Strained Silicon“-Technologie aufweißen kann, was einen um 20% niedrigeren Energieverbrauch zur Folge hat.

Der Speicher macht alleine schon 10 Watt aus, wenn die Taktraten nahe am GDDR3, der nVidia liegen. Bei der X1950 XTX sinds ja schon 1000 Mhz. Ich denke, dass man hierbei bleiben wird.


Das war ein Beispiel. Du vergleichst doch auch mit dem G80, die Architektur ist ebenfalls anders, also auch Unsinn was du schreibst. Und wie der R600 aussieht weißt du nicht. Laut Ailuros verbraucht der nicht Serienreife R600 momentan 50 Watt mehr. Ich würde auch drauf wetten, dass der R600 am Ende mehr vebraucht, das hoffe ich aber nicht.

Und 10 Watt durch den Speicher, wow beeindruckend. Ich weiß gar nicht was du mit der Taktfrequenz immer willst, die Spannung spielt eine wichtigere Rolle.

[](-__-)[]
2006-11-12, 01:27:31
Das glaub ich eher nicht ich persönlich kenne wenige Leute die sich freuen wenn sie jetzt schon wieder ein neues Board kaufen müssen wenn sie vieleicht grad 150-200€ für ein High-End PCI-E Board ausgegeben haben.

Da hat ja jemand aufgepasst.

Abwärtskompatibilität zu PCIe 1.1 ist gewährleistet.

Deswegen bleiben ja die 6 poligen PCIe Stecker auch auf den PCB erhalten und das noch eine ganze Zeit lang.

Ist doch schick auf der Verpackung! PCI Express 2.0

[](-__-)[]
2006-11-12, 01:37:14
Das war ein Beispiel. Du vergleichst doch auch mit dem G80, die Architektur ist ebenfalls anders, also auch Unsinn was du schreibst.

Wenn dann müsstest du die R580 mit dem G70 vergleichen. Nur weil die ATI da mehr verbraucht, heisst das noch lange nicht, dass dies jetzt wieder der Fall sein wird.


Und wie der R600 aussieht weißt du nicht. Laut Ailuros verbraucht der nicht Serienreife R600 momentan 50 Watt mehr. Ich würde auch drauf wetten, dass der R600 am Ende mehr vebraucht, das hoffe ich aber nicht.

Das glaube ich nicht, da ja die Final Taktraten noch garnicht erreicht werden.
Wie willst du 190 Watt Wärme abführen?


Und 10 Watt durch den Speicher, wow beeindruckend. Ich weiß gar nicht was du mit der Taktfrequenz immer willst, die Spannung spielt eine wichtigere Rolle.

Kannst du lesen? Ich habe doch bereits geschrieben, dass der GDDR4 weniger Strom aufnimmt, was natürlich nochmals durch die gesenkte Spannung, zu GDDR3, erreicht wird.

Nun hat ja nVidia den Takt des GDDR3 von 800Mhz auf 900 Mhz angehoben hat.

Wenn ATI nun bei 1000 Mhz GDDR3 Takt bleibt, macht das 10 Watt aus, wenn nicht mehr.

Ronny145
2006-11-12, 01:52:30
(-__-)[]']Wenn dann müsstest du die R580 mit dem G70 vergleichen. Nur weil die ATI da mehr verbraucht, heisst das noch lange nicht, dass dies jetzt wieder der Fall sein wird.
Ich vergleiche gar nichts, denn das war ein Beispiel, dass man so eine Rechnung nicht so einfach machen kann. Außerdem gehts hier um den R600.
(-__-)[]']
Das glaube ich nicht, da ja die Final Taktraten noch garnicht erreicht werden.
Wie willst du 190 Watt Wärme abführen?

Das gleiche hat man vor einiger Zeit über 150 Watt gesagt, scheint ja doch noch recht einfach zu gehen mit leiser Kühlung. Und jetzt kommst du schon wieder mit der Taktrate an, die hat in dem Fall fast gar nichts zu sagen.

[](-__-)[]
2006-11-12, 02:05:59
Ich vergleiche gar nichts, denn das war ein Beispiel, dass man so eine Rechnung nicht so einfach machen kann. Außerdem gehts hier um den R600.

Hä? :confused:



Das gleiche hat man vor einiger Zeit über 150 Watt gesagt, scheint ja doch noch recht einfach zu gehen mit leiser Kühlung. Und jetzt kommst du schon wieder mit der Taktrate an, die hat in dem Fall fast gar nichts zu sagen.

Deine bisherige Argumentation:

"Und der Vergleich mit dem G80 ist wie gesagt unsinnig. Schau dir die X1950XTX an, hat ~300 Milionen weniger Transistoren aber verbraucht trotzdem "nur" 20 Watt weniger."

Darum meinte ich, dass du die R580 dann auch mit der G70 vergleichen sollst, nicht mit der G80.

Wegen der Hitzeentwicklung.

Was ist das wieder für ein Quatsch, den du da schreibst? Man soll also, dir nichts mir nichts, plötzlich 50 Watt mehr "wegkühlen", wo doch auch die Die kleiner geworden ist?

Dual Slot Kühler können auch nicht neu erfunden werden.

Gast
2006-11-12, 03:12:57
pci2.0 only wirds sicher ned

The Jackal
2006-11-12, 03:42:16
200 Watt OMG. Die haben es wohl nicht war gemacht???

R600 512 Bit SI DDR4 Monster mit 1 GB GRAM

Das währe doch die einzige Erklärung für den Stromverbrauch.

Winter[Raven]
2006-11-12, 04:17:50
200 Watt OMG. Die haben es wohl nicht war gemacht???

R600 512 Bit SI DDR4 Monster mit 1 GB GRAM

Das währe doch die einzige Erklärung für den Stromverbrauch.

a) Kein 512 Bit SI
b) Kein 1 GB Ram

Schon mal auch an Herstellungsprobleme oder HW selbst gedacht?

Gast
2006-11-12, 09:51:41
...Laut Ailuros verbraucht der nicht Serienreife R600 ...



Was das soll?! A wühlt sich den ganzen Tag durch englischsprachige Foren, seine Speculatius sind keine gesicherten Erkenntnisse. Also bitte nicht Annahmen aufgrund anderer Annahmen zur Tatsache erklären. Danke

Coda
2006-11-12, 10:09:56
Das wäre doch die einzige Erklärung für den Stromverbrauch.

Das Speicherinterface hat keine große Auswirkung darauf. Es sind einfach viele Transistoren verbunden mit einem hohen Takt.

AnarchX
2006-11-12, 10:23:36
'
b) Kein 1 GB Ram


Wenn ATI auf 256bit+GDDR4 setzt werden es sehr wahrscheinlich 1GB, nur 512MB wird man wohl kaum noch verbauen.
1GB sind bei 256bit wirtschafltich machbar.

Majestic
2006-11-12, 10:25:50
Das glaub ich eher nicht ich persönlich kenne wenige Leute die sich freuen wenn sie jetzt schon wieder ein neues Board kaufen müssen wenn sie vieleicht grad 150-200€ für ein High-End PCI-E Board ausgegeben haben.

Pfff wegen ner neuen Karten schon wieder ein neues Mainboard. :rolleyes:
Ich würde mir nur wegen dem R600 bestimmt keine neues Mainboard holen. Die Karte sollte schon abwärtskompatibel sein sonst wird sie wohl so einige Absatzschwierigkeiten haben (abgesehen von den verrückten ;D ).

Winter[Raven]
2006-11-12, 10:27:08
Wenn ATI auf 256bit+GDDR4 setzt werden es sehr wahrscheinlich 1GB, nur 512MB wird man wohl kaum noch verbauen.
1GB sind bei 256bit wirtschafltich machbar.

1 GB DDR 4 soll wirtschaftlich sein?

AnarchX
2006-11-12, 10:29:38
']1 GB DDR 4 soll wirtschaftlich sein?

Imo nicht viel unwirtschaftlicher als 768MB GDDR3@384bit.;)

Aber wer weiss, vielleicht überrascht uns ATi auch mit einem 384bit SI.

Coda
2006-11-12, 11:12:29
Ich wette auf 8x32 Bit und ein hoher GDDR4-Takt.

Winter[Raven]
2006-11-12, 11:22:33
Ich wette auf 8x32 Bit und ein hoher GDDR4-Takt.

Ack ...:biggrin:

dargo
2006-11-12, 11:41:45
(-__-)[]']
Kannst du lesen? Ich habe doch bereits geschrieben, dass der GDDR4 weniger Strom aufnimmt, was natürlich nochmals durch die gesenkte Spannung, zu GDDR3, erreicht wird.

Nun hat ja nVidia den Takt des GDDR3 von 800Mhz auf 900 Mhz angehoben hat.

Wenn ATI nun bei 1000 Mhz GDDR3 Takt bleibt, macht das 10 Watt aus, wenn nicht mehr.
Ich glaube du überschätzt den GDDR4 zu sehr was den Stromverbrauch angeht.

Mal zwei Vergleiche für dich. :)

X1900XTX (650/775Mhz GDDR3) - max. 120,7W
X1950XTX ( 650/1000Mhz GDDR4) - max. 124,7W

Du siehst also, dass der Stromverbrauch bei GDDR4 kaum eine Rolle spielt. Vorallem nicht wenn ATI beim 256Bit SI bleibt. Weil sie dann den R600 mit ~1400Mhz (GDDR4) takten werden müssen um mit dem G80, was die Speicherbandbreite angeht, mitzuhalten.

Winter[Raven]
2006-11-12, 11:50:09
Ist eigentlich GDDR4 in Massen verfügbar?

Ronny145
2006-11-12, 12:00:07
Ich glaube du überschätzt den GDDR4 zu sehr was den Stromverbrauch angeht.

Mal zwei Vergleiche für dich. :)

X1900XTX (650/775Mhz GDDR3) - max. 120,7W
X1950XTX ( 650/1000Mhz GDDR4) - max. 124,7W

Du siehst also, dass der Stromverbrauch bei GDDR4 kaum eine Rolle spielt. Vorallem nicht wenn ATI beim 256Bit SI bleibt. Weil sie dann den R600 mit ~1400Mhz (GDDR4) takten werden müssen um mit dem G80, was die Speicherbandbreite angeht, mitzuhalten.



Genau, deswegen ist das zu vernachlässigen. Die 5 Watt (wenn überhaupt) sind nicht entscheident. Wäre natürlich toll, wenn der R600 in der Region vom G80 bleiben könnte oder sogar drunter, aber das traue ich Ati nicht zu. Man muss sich mal den R580 anschauen und Wunder erwarte ich nicht.

dargo
2006-11-12, 12:01:37
']Ist eigentlich GDDR4 in Massen verfügbar?
Was heißt in Massen?

Bisher braucht afaik nur ATI für die X1950XTX GDDR4, von daher ...


Genau, deswegen ist das zu vernachlässigen. Die 5 Watt (wenn überhaupt) sind nicht entscheident. Wäre natürlich toll, wenn der R600 in der Region vom G80 bleiben könnte oder sogar drunter, aber das traue ich Ati nicht zu. Man muss sich mal den R580 anschauen und Wunder erwarte ich nicht.
Von ~5W zugunsten GDDR3 kann man bei einem R600 eh nicht mehr sprechen. Wie gesagt, ATI müsste den GDDR4 Speicher bei einem 256Bit SI um ~500Mhz höher takten als der GDDR3 Speicher der G8800GTX getaktet ist. Und schon verbraucht der GDDR4 mit ~1400Mhz mehr als GDDR3 mit 900Mhz. Natürlich unter der Vorraussetzung, dass die Spannung des GDDR3 bei der G8800GTX identisch mit der Spannung vom GDDR3 der X1900XTX ist und die Spannung vom GDDR4 eines R600 mir ~1400Mhz identisch mit der Spannung vom GDDR4 einer X1950XTX ist.

Sollte ATI uns mit einem 384Bit SI überraschen sieht es wieder ganz anders aus.

Wenn ATI auf 256bit+GDDR4 setzt werden es sehr wahrscheinlich 1GB, nur 512MB wird man wohl kaum noch verbauen.

Ich halte 1GB Vram auch für realistisch bei einem 256Bit SI. Zb. eine X2xxxXT mit 512MB und eine X2xxxXTX mit 1024MB Vram.
Wobei man hier wieder das Problem mit den 16 Speicherchips hat, hmm ... :uponder:

The Jackal
2006-11-12, 13:07:42
Ist Samsung nicht schon weiter mit der Entwicklung der GDDR4 (höhere Speicherdichten). Da hab ich doch vor 2 Monaten was drüber gelesen. Ich finde den Artikel jetzt aber nicht auf die schnelle.

Auserdem hat ja NV 2 unterschiedliche PCB's. Wieso sollte ATi nicht in der lage sein auch 2 unterschiedliche zu fertigen. Eines für die XT/XTX und eines für die GTO und CO.

Auserdem kann man ja die Plätze für die weiteren 8 Chips auf der XT einfach frei lassen. Siehe 7800 GTX 256MB

dargo
2006-11-12, 13:29:44
Eine Frage hätte ich noch zum PCIe 2.0 des R600. Das Ding wird doch abwärtskompatibel sein oder?
Alles andere wäre doch purer Wahnsinn was die Verkaufserfolge angeht, oder?

Gast
2006-11-12, 13:47:19
Eine Frage hätte ich noch zum PCIe 2.0 des R600. Das Ding wird doch abwärtskompatibel sein oder?
Alles andere wäre doch purer Wahnsinn was die Verkaufserfolge angeht, oder?

Ja wird er! Falls man normales PCie 1.1 benutzt benötigt man die 2 zusätzlichen 4 Pol Stromanschlüsse.

Und was bringt eigentlich das Redesign des R600?
Wird Strained Silicon verwendet?
Welche finalen Taktraten wird er ungefähr haben?

Das wären einige Fragen die mich interessieren.


Sollte ATI uns mit einem 384Bit SI überraschen sieht es wieder ganz anders aus.

Halte ich für unwahrscheinlich, wobei das mit der Meldung über den Redesign, eher eine gewagte Aussage von mir ist.
Hmm Redesign?
Was versteht man eigentlich darunter?

[MK2]Mythos
2006-11-12, 13:48:29
Eine Frage hätte ich noch zum PCIe 2.0 des R600. Das Ding wird doch abwärtskompatibel sein oder?
Alles andere wäre doch purer Wahnsinn was die Verkaufserfolge angeht, oder?

Natürlich wird PCIE 2.0 abwärtskompatibel sein. Alles andere wäre grober wirtschaftlicher Unfug.

AnarchX
2006-11-12, 13:50:30
Wobei man hier wieder das Problem mit den 16 Speicherchips hat, hmm ... :uponder:

Das Problem hat ATi schon anderswo gelöst:
http://img204.imageshack.us/img204/821/firestreambacksn3.jpg

Die 1024Mbit GDDR-Chips müssten doch imo auch irgendwann mal kommen?

Ein R600 mit nur 512MB wäre nämlich eine sehr unkluge Idee, wenn man sich anschaut, dass eine 88GTS in FarCry in 1920x1400 8xAA/16xAF HDR plötzlich 3mal so schnell ist eine X1950XTX 6xAA/.... .

Gast
2006-11-12, 13:59:25
Meint ihr dass ATI auch die entsprechende Logik verbauen wird, um die AF Optimierungen abzuschaffen, wie nun bei der G80 erfolgt?
Sicherlich ist die entwicklung des R600 schon lange im Gange und vlt hat ATI nicht damit gerechnet, dass nV so ein extrem gutes AF ermöglicht, und bleiben bei ihrer bisherigen Philosophie, die gutes AF nur durch Deaktivierung der Optimierungen ermöglicht.

Bei der Speicherfrage vermute ich ebenfalls 512MB GDDR4 mit einer sehr hohen Taktrate schon allein wegen Marketing (GDDR4 usw) und vielleicht später ein Refresh mit 384bit

dargo
2006-11-12, 14:01:14
Das Problem hat ATi schon anderswo gelöst:
http://img204.imageshack.us/img204/821/firestreambacksn3.jpg

Stimmt, ich habe wieder nicht nachgedacht. :redface:
Wir gehen ja immer noch von einem 256Bit SI.

Black-Scorpion
2006-11-12, 14:04:28
Du kannst dir sicher sein das auch der G80 noch AF Optimierungen hat die man auch nicht abschalten kann.

StefanV
2006-11-12, 14:06:12
Eine Frage hätte ich noch zum PCIe 2.0 des R600. Das Ding wird doch abwärtskompatibel sein oder?
Alles andere wäre doch purer Wahnsinn was die Verkaufserfolge angeht, oder?
Natürlich nicht, denn ATi will ja, das ihre Hardware NICHT in non PCIe-2.0 Brettern läuft, die ja auch überall, an jeder Ecke zu kaufen sind, seit 4 Jahren :ugly:

Gast
2006-11-12, 14:07:22
Du kannst dir sicher sein das auch der G80 noch AF Optimierungen hat die man auch nicht abschalten kann.Welche Art von Optimierung meinst du?

dildo4u
2006-11-12, 14:09:04
Natürlich nicht, denn ATi will ja, das ihre Hardware NICHT in non PCIe-2.0 Brettern läuft, die ja auch überall, an jeder Ecke zu kaufen sind, seit 4 Jahren :ugly:Wenn die ATI über den PCI-E Steckplatz über 75Watt zieht wirds auf einem PCI-E 1.1 Board Problematisch.Laut Computerbase sind sogar die 2x6Pol Anschlüsse an der 8800GTX zu wenig und außerhalb/unterhalb der benötigten Specs was will ATI machen 3 verbaun oder was wahrscheinlicher ist über PCI-E 2.0 mher ziehen.

dargo
2006-11-12, 14:12:48
Bei der Speicherfrage vermute ich ebenfalls 512MB GDDR4 mit einer sehr hohen Taktrate schon allein wegen Marketing (GDDR4 usw) und vielleicht später ein Refresh mit 384bit
Also bei einem Refresh würde ich nicht von einem anderen SI ausgehen. Das wäre wohl zu teuer. Wenn, dann schon eher bei der nächsten Genaration (R700). Eventuell dann gleich auf 512Bit SI. Wobei selbst das wäre wohl zuviel. Man muss sich nur mal ausrechnen was 384Bit mit ~2000Mhz GDDR4 für eine Bandbreite bedeutet - sagenhafte 192000 MB/s. :eek:

Was ist denn nochmal momentan das Maximum für GDDR4? 2000Mhz?

Das wären dann bei einem 256Bit SI für den Refresh des R600 128000 MB/s, was eigendlich locker reichen sollte oder?
Dann schon eher 1600-1800Mhz mit 104200-115200 MB/s. Ein GDDR4 mit 2000Mhz dürfte nicht gerade billig sein. X-D

[](-__-)[]
2006-11-12, 14:14:03
Ich glaube du überschätzt den GDDR4 zu sehr was den Stromverbrauch angeht.

Mal zwei Vergleiche für dich. :)

X1900XTX (650/775Mhz GDDR3) - max. 120,7W
X1950XTX ( 650/1000Mhz GDDR4) - max. 124,7W

Du siehst also, dass der Stromverbrauch bei GDDR4 kaum eine Rolle spielt. Vorallem nicht wenn ATI beim 256Bit SI bleibt. Weil sie dann den R600 mit ~1400Mhz (GDDR4) takten werden müssen um mit dem G80, was die Speicherbandbreite angeht, mitzuhalten.

Nur ist die Taktrate auch in dem Beispiel nicht gleich. Bist du auch sicher, dass beide XTX gleich viel RAM haben?

1,4 GHz GDDR4, naja. Machbar ist es schon, davon hat man auch immer wieder gesprochen. Nur wenn da bis zu 1 GB GDDR4 verbaut werden soll, wirds ein bißchen sehr teuer, zumal die Verfügbarkeit auch begrenzt sein sollte.

[](-__-)[]
2006-11-12, 14:20:06
Wenn die ATI über den PCI-E Steckplatz über 75Watt zieht wirds auf einem PCI-E 1.1 Board Problematisch.Laut Computerbase sind sogar die 2x6Pol Anschlüsse an der 8800GTX zu wenig und außerhalb/unterhalb der benötigten Specs was will ATI machen 3 verbaun oder was wahrscheinlicher ist über PCI-E 2.0 mher ziehen.

Na, die 6 poligen PCIe Stecker bleiben ja auf den PCB erhalten, somit kann man den Restbedarf über diese Stromzufuhr beziehen.

dargo
2006-11-12, 14:21:38
(-__-)[]']Nur ist die Taktrate auch in dem Beispiel nicht gleich. Bist du auch sicher, dass beide XTX gleich viel RAM haben?
Ja, natürlich ist die nicht gleich. Ich würde jetzt mal schätzen (an meinem Beispiel), dass 775Mhz GDDR3 genauso viel Strom zieht wie ~900Mhz GDDR4. Du musst aber bedenken, sollte der R600 ein 256Bit SI haben, muss ATI den GDDR4 mit 1350Mhz takten um die gleiche Bandbreite (86400 MB/s) wie die G8800GTX zu erreichen (ich glaube kaum, dass ATI da deutlich drunter sein will). Und dann sind wir schon bei 450Mhz mehr wie eine G8800GTX. Von daher sehe ich keinen Vorteil für den GDDR4 beim R600, wenns um den Stromverbrauch geht.

Und ja, beide XTX haben in meinem Beispiel 512MB Vram.

Black-Scorpion
2006-11-12, 14:22:15
Welche Art von Optimierung meinst du?
Briliniear z.B. das bei Games erzwungen wird.

dildo4u
2006-11-12, 14:28:12
(-__-)[]']Na, die 6 poligen PCIe Stecker bleiben ja auf den PCB erhalten, somit kann man den Restbedarf über diese Stromzufuhr beziehen.Ich hab mich doch klar ausgedrückt über die 2X6Pol Anschlüsse kann man keine 150W oder mher Watt beziehen man muss noch Strom über den Steckplatz beziehen.Und wenn der R600 bei über 180Watt liegt wirds knapp mit den 75W über den PCI-E1.1 Steckplatz mit zwei zusätzlichen 6 Pol Anschlüssen.Also muss man entweder mher Stromanschlüsse verbaun oder mher als 75Watt über den Steckplatz beziehen was nur mit PCI-E 2.0 geht und genau dann kann man die Karte nicht mher auf einem PCI-E 1.1 Board nutzen.

dargo
2006-11-12, 14:32:13
(-__-)[]']Na, die 6 poligen PCIe Stecker bleiben ja auf den PCB erhalten, somit kann man den Restbedarf über diese Stromzufuhr beziehen.
Also, soweit ich es richtig verstanden habe bleibt bei PCIe 2.0 der 6 poliger PCIe Stromanschluss erhalten und wird durch einen 2x 4 poligen Anschluss ergänzt. Somit fließen weiterhin max. 75W über den PCIe Slot, max. 75W über den 6 poligen externen Stecker und max. 150W über den neuen externen 2x 4 poligen Stecker. Also insgesamt max. 300W. Außerdem wird die Bus-Frequenz von 2,5 auf 5Ghz angehoben.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/

Soweit alles korrekt?

Ich hab mich doch klar ausgedrückt über die 2X6Pol Anschlüsse kann man keine 150W oder mher Watt beziehen man muss noch Strom über den Steckplatz beziehen.
Also, ich weiß jetzt nicht so recht was du genau meinst. Am Beispiel der G8800GTX mit den 2 6poligen Steckern - sie könnte max. 225W ziehen. 75W vom PCIe Slot und 2x 75W über die externen Stecker.

Edit:
Sind diese 96 ALUs des R600 schon bestätigt oder erstmal reine Spekulation?

[](-__-)[]
2006-11-12, 14:49:20
Ich hab mich doch klar ausgedrückt über die 2X6Pol Anschlüsse kann man keine 150W oder mher Watt beziehen man muss noch Strom über den Steckplatz beziehen.Und wenn der R600 bei über 180Watt liegt wirds knapp mit den 75W über den PCI-E1.1 Steckplatz mit zwei zusätzlichen 6 Pol Anschlüssen.Also muss man entweder mher Stromanschlüsse verbaun oder mher als 75Watt über den Steckplatz beziehen was nur mit PCI-E 2.0 geht und genau dann kann man die Karte nicht mher auf einem PCI-E 1.1 Board nutzen.

Hmm? Für Boards mit PCIe 1.1 Schnittstelle wird da so ablaufen: 75 Watt über den BUS, die andere Hälfte des Bedarfs wird über die "externe" Versorgung (6 polige PCIe) bezogen.

Sollte das Board über PCIe 2.0 verfügen, können gleich 150 Watt über den Bus bezogen werden und 150 Watt über die 6poligen PCIe Stecker.

Die neueren Netzteile, die jetzt auf den Markt kommen, werden das schon möglich machen.

[](-__-)[]
2006-11-12, 14:51:06
Also, soweit ich es richtig verstanden habe bleibt bei PCIe 2.0 der 6 poliger PCIe Stromanschluss erhalten und wird durch einen 2x 4 poligen Anschluss ergänzt. Somit fließen weiterhin max. 75W über den PCIe Slot, max. 75W über den 6 poligen externen Stecker und max. 150W über den neuen externen 2x 4 poligen Stecker. Also insgesamt max. 300W. Außerdem wird die Bus-Frequenz von 2,5 auf 5Ghz angehoben.

http://www.computerbase.de/news/hard..._r600_pcie_20/

Soweit alles korrekt?


Ja, so habe ich das auch gelesen bzw. verstanden.

AnarchX
2006-11-12, 15:08:45
Briliniear z.B. das bei Games erzwungen wird.
Das hat aber nix mit dem Treiber, sondern mit dem Game, welches BriAF anfordert.;)

btw.
Das Wort "Optimierung" sollte man nicht immer so negativ belegen...

Snoopy1978
2006-11-12, 15:12:31
Ja da soll wirtschaftlich sein(laut Speicherherstellern).
Einige Firmen haben schon vor etwas längerer Zeit zum Thema GDDR4 bekannt gegeben das die neuen Speicherbausteine besonders zur Zusammenstellung von Gesamtspeichervolumen ab 1GB geeignet wären.

reunion
2006-11-12, 15:40:41
Das glaub ich eher nicht ich persönlich kenne wenige Leute die sich freuen wenn sie jetzt schon wieder ein neues Board kaufen müssen wenn sie vieleicht grad 150-200€ für ein High-End PCI-E Board ausgegeben haben.

Glaubt denn hier wirklich jemand, ATi würde in kürze eine Karte rausbringen, für die es noch keinerlei Boards gibt? Ein bisschen Hirn täte manchmal not. PCIe 2.0 ist selbstverständlich voll abwärtskompatibel. Alles was ATi macht, ist, dass man sich an schon lange abgesegneten Spezifikationen hält, während sich nV mit ihren zwei sechspoligen Steckern im Grunde außerhalb jeglicher Absegnung bewegt.

']Ist eigentlich GDDR4 in Massen verfügbar?

Bekommst du nicht genügend X1950XTX?

Hvoralek
2006-11-12, 15:44:53
(-__-)[]']Ist doch schick auf der Verpackung! PCI Express 2.0 Ich erinnere mich gerade mit Grausen an die ganzen Mediamarkt&Co.- Kataloge, wo mit "Neueste Grafikkartengeneration für maximale Leistung und beste Effekte" oder so ähnlich geworben wurde und dahinter dann irgendeine low- cost- Karte steckt, aber mit PCIe, das ja viiiel moderner, schneller und besser ist als AGP :rolleyes:

Das Speicherinterface hat keine große Auswirkung darauf. Es sind einfach viele Transistoren verbunden mit einem hohen Takt.Probleme mit dem Fertigungsprozess sind weniger wahrscheinlich, oder?

Meint ihr dass ATI auch die entsprechende Logik verbauen wird, um die AF Optimierungen abzuschaffen, wie nun bei der G80 erfolgt?
Sicherlich ist die entwicklung des R600 schon lange im Gange und vlt hat ATI nicht damit gerechnet, dass nV so ein extrem gutes AF ermöglicht, und bleiben bei ihrer bisherigen Philosophie, die gutes AF nur durch Deaktivierung der Optimierungen ermöglicht.Die AF der R5xxer ist nicht viel schlechter als das des G80, ist glaube nicht, dass man daran etwas ändern muss. Und jeder, der sich um so etwas überhaupt kümmert, wird das auch im Treiber einstellen können.

Das Problem hat ATi schon anderswo gelöst:
http://img204.imageshack.us/img204/821/firestreambacksn3.jpgWas für eine Karte ist das denn?

Briliniear z.B. das bei Games erzwungen wird.Brilinear ist auch etwas anderes als bedenklich anisotrop.

AnarchX
2006-11-12, 15:48:39
Die AF der R5xxer ist nicht viel schlechter als das des G80, ist glaube nicht, dass man daran etwas ändern muss. Und jeder, der sich um so etwas überhaupt kümmert, wird das auch im Treiber einstellen können.
Vielleicht 32x wuAF bei ATI?
Immerhin muss man ja bei einer neuen Generation auch etwas neues auf der Bildqualitätsfeatures-Liste bringen.
8xMSAA wird wohl wahrscheinlich auch kommen bei ATi.


Was für eine Karte ist das denn?


Eine ATi FireStream mit 1GB.

reunion
2006-11-12, 15:50:51
Was ist denn nochmal momentan das Maximum für GDDR4? 2000Mhz?


Nach wie vor 0.7ns, also 1.4Ghz.

Hvoralek
2006-11-12, 15:51:07
Vielleicht 32x wuAF bei ATI?
Immerhin muss man ja bei einer neuen Generation auch etwas neues auf der Bildqualitätsfeatures-Liste bringen.
8xMSAA wird wohl wahrscheinlich auch kommen bei ATi.Das wäre auch eine Möglichkeit. Allerdings sollte das wirklich nur noch selten zum Tragen kommen.

Eine ATi FireStream mit 1GB.An was für einem Interface?

AnarchX
2006-11-12, 15:56:00
An was für einem Interface?
256bit, also 2 Chips pro 32bit-Channel.

dargo
2006-11-12, 16:06:20
Bekommst du nicht genügend X1950XTX?
Der GDDR4 der X1950XTX taktet aber nur mit 1000Mhz, imo zu wenig für einen R600 mit 256Bit SI. Damit hätte man gerade die Bandbreite einer G8800GTS erreicht. Für eine High-End Grafikkarte von ATI viel zu wenig, gerade auch weil sie paar Monate später kommt.

Nach wie vor 0.7ns, also 1.4Ghz.
Mehr nicht? Autsch.
Dann dürfte so ein Speicherchip nicht gerade günstig sein.

AnarchX
2006-11-12, 16:10:58
Nach wie vor 0.7ns, also 1.4Ghz.

Von Samsung gab es aber doch schonmal eine Info von 0.6ns -> 1600MHz (http://www.xbitlabs.com/news/memory/display/20060214062714.html).

reunion
2006-11-12, 16:25:04
Der GDDR4 der X1950XTX taktet aber nur mit 1000Mhz, imo zu wenig für einen R600 mit 256Bit SI. Damit hätte man gerade die Bandbreite einer G8800GTS erreicht. Für eine High-End Grafikkarte von ATI viel zu wenig, gerade auch weil sie paar Monate später kommt.


Samsung produziert bereits seit Juni diese 0.7ns GDDR4-Chips in Massenproduktion, ich kann mir nicht vorstellen, dass es da zu Engpässen kommt.


Mehr nicht? Autsch.
Dann dürfte so ein Speicherchip nicht gerade günstig sein.

Es war bis jetzt eigentlich fast immer so, dass man für eine neue High-End-Generation den schnellsten verfügbaren Speicher verbaut - ich sehe darin nichts problematisches. Auch nV setzt mit den 1.1ns GDDR3-Chips das Maximum der Fahnenstange ein, warum man allerdings nicht den wesentlich energieeffizienteren GDDR4-Speicher verbaut, bleibt fraglich.

Von Samsung gab es aber doch schonmal eine Info von 0.6ns -> 1600MHz (http://www.xbitlabs.com/news/memory/display/20060214062714.html).

Ja, das sind allerdings nur Customer Samples.

dargo
2006-11-12, 16:31:40
Samsung produziert bereits seit Juni diese 0.7ns GDDR4-Chips in Massenproduktion, ich kann mir nicht vorstellen, dass es da zu Engpässen kommt.

Hmm, Massenproduktion ist so ne Sache. Wer braucht momentan einen GDDR4 Speicher mit 1,4Ghz?
Ich bin halt davon ausgegangen, dass man nicht unbedingt den schnellsten verfügbaren GDDR4 nehmen muss damit der Endpreis der Grafikkarte nicht unnötig in die Höhe "schießt".

Einen Vorteil hat ATI aber. NV braucht momentan keinen GDDR4. Von daher sollte es nicht zu Engpässen kommen.

reunion
2006-11-12, 16:48:48
Hmm, Massenproduktion ist so ne Sache. Wer braucht momentan einen GDDR4 Speicher mit 1,4Ghz?
Ich bin halt davon ausgegangen, dass man nicht unbedingt den schnellsten verfügbaren GDDR4 nehmen muss damit der Endpreis der Grafikkarte nicht unnötig in die Höhe "schießt".

Einen Vorteil hat ATI aber. NV braucht momentan keinen GDDR4. Von daher sollte es nicht zu Engpässen kommen.

Nur weil man aktuell noch keine solchen Karten im Endkundenmarkt findet, bedeutet das nicht, dass diese Chips nicht nachgefragt werden. ATI (und wohl auch nV) füllen mit Sicherheit längst ihre Lager damit. Dass ein Gigabyte 0.7ns GDDR4-Speicher pro Karten nicht ganz billig sein wird, sollte klar sein, allerdings dürfte auch das 384-bit Speicherinterfance von nV die Kosten deutlich in die Höhe schrauben.

Generell sollte man nicht den Fehler machen, und nur nach der Speicherbandbreite gehen. ATi hat durch die höhere Taktfrequenz auf jeden Fall die niedrigere Zugriffszeit, und auch die Granularität des Speichercontrollers ist mit 8x32-bit wesentlich feiner als bei nV mit 6x64-bit. Und wer weiß, vielleicht gibt es auch noch ein paar Fortschritte beim "Ringbus". In dieser Hinsicht sehe ich keine Probleme für ATi - auch nicht mit einem 256-bit Speicherinterfance.

dargo
2006-11-12, 17:03:48
Generell sollte man nicht den Fehler machen, und nur nach der Speicherbandbreite gehen. ATi hat durch die höhere Taktfrequenz auf jeden Fall die niedrigere Zugriffszeit, und auch die Granularität des Speichercontrollers ist mit 8x32-bit wesentlich feiner als bei nV mit 6x64-bit. Und wer weiß, vielleicht gibt es auch noch ein paar Fortschritte beim "Ringbus". In dieser Hinsicht sehe ich keine Probleme für ATi - auch nicht mit einem 256-bit Speicherinterfance.
Hmm, aus diesem Blickwinkel habe ich das noch gar nicht betrachtet. Da ist schon was dran wenn man sich mal die X1900XT und die G7900GTX anschaut - 48GB/s gegen 51,2GB/s. Trotzdem ist die ATI oft schneller.

Hvoralek
2006-11-12, 17:12:00
Generell sollte man nicht den Fehler machen, und nur nach der Speicherbandbreite gehen. ATi hat durch die höhere Taktfrequenz auf jeden Fall die niedrigere Zugriffszeit, und auch die Granularität des Speichercontrollers ist mit 8x32-bit wesentlich feiner als bei nV mit 6x64-bit. Und wer weiß, vielleicht gibt es auch noch ein paar Fortschritte beim "Ringbus". In dieser Hinsicht sehe ich keine Probleme für ATi - auch nicht mit einem 256-bit Speicherinterfance.Spielt die Zugriffszeit bei GPUs überhaupt eine Rolle?

reunion
2006-11-12, 17:20:15
Hmm, aus diesem Blickwinkel habe ich das noch gar nicht betrachtet. Da ist schon was dran wenn man sich mal die X1900XT und die G7900GTX anschaut - 48GB/s gegen 51,2GB/s. Trotzdem ist die ATI oft schneller.

Naja, das liegt natürlich nicht nur am Speichercontroller, allerdings trägt dieser sicher auch seinen Teil dazu bei. Es gilt eben wie immer: Viele Wege führen nach Rom. Während sich ATi bei R520 dazu entscheiden hat, durch eine feinere Granularität den Verschnitt zu reduzieren, und damit die Effizienz zu steigern, geht nV beim G80 einen anderen Weg und verbreitert das Interfance. Aus diesem Grund sollte man mit plumpen Zahlenvergleichen vorsichtig sein.

Spielt die Zugriffszeit bei GPUs überhaupt eine Rolle?

Natürlich, die Zugriffszeit spielt immer einer Rolle für die Performance. Auch wenn diese bei GPUs bei weitem nicht so wichtig ist wie zB bei CPUs.

Xmas
2006-11-12, 17:32:54
ATi hat durch die höhere Taktfrequenz auf jeden Fall die niedrigere Zugriffszeit
Seit wann ist höherer Takt automatisch gleich niedrigerer Latenz?

Black-Scorpion
2006-11-12, 17:40:11
Das hat aber nix mit dem Treiber, sondern mit dem Game, welches BriAF anfordert.;)

btw.
Das Wort "Optimierung" sollte man nicht immer so negativ belegen...
Wenn im Treiber TriAF eingestellt wird sollte das auch genommen werden und nicht das was das Game will.
Deswegen wird es ja im Treiber erzwungen und nicht auf Anwendungsgesteuert und im Game eingestellt.

reunion
2006-11-12, 17:42:15
Seit wann ist höherer Takt automatisch gleich niedrigerer Latenz?

War vielleicht missverständlich ausgedrückt. Man kann natürlich auch bei höherem Takt eine schlechtere Latenz haben. Allerdings sinkt bei steigendem Takt und sonst unveränderte Settings logischerweise die Zugriffszeit.

Gast
2006-11-12, 18:14:48
Das hat aber nix mit dem Treiber, sondern mit dem Game, welches BriAF anfordert.;) Ein Spiel, das Bri-AF anfordert? Gibts das?

Manche Spiele fordern in der Tat Bi-AF an, wenn man ingame die Einstellungen tätigt. Allerdings kann man das meist umgehen, indem man ingame auf trilinear stellt und AF im Treiber einstellt. Das einzige Spiel, wo es bei NV eine Zwangs-Bri-Optimierung gibt, ist afaik UT2003/2004. Bei ATI gibts mit AI-low generell nur bri, außer bei eingefärbten MIPs.

Xmas
2006-11-12, 18:40:01
War vielleicht missverständlich ausgedrückt. Man kann natürlich auch bei höherem Takt eine schlechtere Latenz haben. Allerdings sinkt bei steigendem Takt und sonst unveränderte Settings logischerweise die Zugriffszeit.
Die bestmögliche stabile Zugriffszeit ist relativ unabhängig vom Takt. Man kann lediglich bei bestimmten Takt/Timing-Kombinationen näher an diese Zeit herankommen.

[](-__-)[]
2006-11-12, 18:41:15
Hmm, Massenproduktion ist so ne Sache. Wer braucht momentan einen GDDR4 Speicher mit 1,4Ghz?
Ich bin halt davon ausgegangen, dass man nicht unbedingt den schnellsten verfügbaren GDDR4 nehmen muss damit der Endpreis der Grafikkarte nicht unnötig in die Höhe "schießt".

Einen Vorteil hat ATI aber. NV braucht momentan keinen GDDR4. Von daher sollte es nicht zu Engpässen kommen.

Logisch gedacht schon. Nur kann man warscheinlich da was vertraglich machen und so Samsung dazu bringen, mehr GDDR4 für ATI/AMD, als für nVidia bereit zustellen.

Gast
2006-11-12, 18:42:41
Laut Computerbase sind sogar die 2x6Pol Anschlüsse an der 8800GTX zu wenig und außerhalb/unterhalb der benötigten Specs
wo steht das bitte - ich finde es auf cb nicht.

Gast
2006-11-12, 18:45:53
Briliniear z.B. das bei Games erzwungen wird.
trilineare reduzierung hat aber nichts mit af zu tun.

Gast
2006-11-12, 19:09:25
zum thema speicher:
mit gddr4 kommt man aktuell auf 89,6 gbyte/s. die 8800 gtx hat 86,4 gb/s. dafür braucht man bei gddr3 die schlechten latenz-takte nicht zu verstecken.

gddr3 mit 900 mhz läuft bei cl11 laut spec, gddr4 bei 1400 mhz bei cl20.

dazu noch die burst-rate von 8 bei gddr4, auf die auch erstmal optimiert werden will.

deekey777
2006-11-12, 19:27:32
Aus dem ersten Posting:
http://www.vr-zone.com/?i=4293
Und die CB-Meldung, die auf der Meldung von vr-zone basiert:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/
Steht hier irgenwas über den Verbrauch des R600? Nein.
Aber hier: http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Ok getting some info on the r600, ATi's seems to be going for brute force here, very high clocks, and the power usage seems to be a bit higher then the g80 gtx around 50 watts higher (confirmed but still this might change with new drivers).
Von wem sind diese Infos? Ich vermute von den Leuten, die einen der R600-Prototypen haben und und daraus auf die Endversion schlussfolgern.

der Lustige
2006-11-12, 19:44:42
Wann wird denn der R600 nun erwartet?

AnarchX
2006-11-12, 19:45:37
Wann wird denn der R600 nun erwartet?
Q1 2007

Gast
2006-11-12, 20:03:16
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187

Von wem sind diese Infos? Ich vermute von den Leuten, die einen der R600-Prototypen haben und und daraus auf die Endversion schlussfolgern.

Hi Dk77

Glaubts du das auch performance vergleiche durchsickern können?

StefanV
2006-11-12, 20:07:57
Nö, eher nicht, denn dann würden alle die eine R600 haben, ordentlich haue bekommen...

Ganz ab davon das die Prototypen sicherlich nicht mit dem Finalen Takt takten...

Ist eher in die Kategorie 'slow shit but works' einzuordnen.

deekey777
2006-11-12, 20:08:36
Hi Dk77

Glaubts du das auch performance vergleiche durchsickern können?
Nein, glaube ich nicht. Schon beim R520 war es so, dass einige Entwickler seit Frühjahr damit rumspielen durften, aber diese Prototypen waren niedriger getaktet. Du kannst davon ausgehen, dass die Leute mit einer R600 damit nicht spielen, sondern Spiele/Anwendungen dafür entwickeln.

up¦²
2006-11-12, 22:18:50
ATi R600 Card Re-Design In Progress

A re-design for R600 card and cooling is currently underway to make it shorter and better cooled. The original R600 card design is 12 inches long and ATi is probably trying to shorten it to at least 8800GTX length.
...
The R600 card we seen will conform to the new PCI-SIG graphics spec of delivering 225/300W power for high-end graphics cards. Therefore it will have a new 2x4 pin connector for additional power on top of the current 6-pin connector.
http://wwww.vr-zone.com/?i=4293

12 inches => 30.48cm :wink:

Hvoralek
2006-11-12, 22:26:29
http://wwww.vr-zone.com/?i=4293

12 inches => 30.48cm :wink:Ist es so schwer, vorher zumindest einen Blick auf die letzten Beiträge vor Dir (zB #73) oder auf den ersten hier zu werfen?

up¦²
2006-11-12, 22:41:20
Ist es so schwer, vorher zumindest einen Blick auf die letzten Beiträge vor Dir (zB #73) oder auf den ersten hier zu werfen?
Sorry, hatte zwar alles überflogen aber trotzdem übersehn ...
Explizit war es ja nicht erwähnt, aber stimmt: war verlinkt :redface:
Bloß: muss deshalb zitiert und b-r-e-i-t reagiert werden, was nochmal soooviel Platz einnimmt? Scheint mir übertrieben ... :rolleyes:

Fetza
2006-11-13, 01:18:46
Was glaubt ihr eigentlich bezüglich embedded ram? Das könnte ich mir als größtes feature für den r600 vorstellen. Immerhin hat der xbox chip ja auch 4 mb embbeded ram.

Greetz

Fetza

StefanV
2006-11-13, 02:23:08
Was glaubt ihr eigentlich bezüglich embedded ram? Das könnte ich mir als größtes feature für den r600 vorstellen. Immerhin hat der xbox chip ja auch 4 mb embbeded ram.

Greetz

Fetza
Kanssu vergessen, das wird nix!!

Und ohne SOI kein Z-RAM...

Ailuros
2006-11-13, 04:39:07
Eigentlich sind es ja 10MB eDRAM aber ist ja auch nicht so wichtig.

Was jetzt den moeglichen Stromverbrauch von R600 betrifft, betonte ich eher dass die zeitigen niedrig getakteten samples relativ viel verbrauchen. Wenn sie die Taktrate und Treiber in Griff bekommen wird sich das Ganze schon aendern, aber es sieht trotzdem nicht nach weniger als G80 am Ende aus.

AF Filterungs-Optimierungen: nun R600 sollte wohl nicht den Xenos Pfad hier folgen sonst wird's ziemlich langsam am Ende. Dass sie kein brilinear verwenden werden ist ziemlich unwahrscheinlich, ausser sie haben "fast-trilinear" TMUs eingebaut was wohl der einzige Weg ist single cycle tri zu erreichen mit dem kleinst moeglichen HW-Aufwand. Klingt mir aber nicht danach.

AA: falls sie auf nur 8x MSAA bleiben wie gemunkelt wird, ist es schon etwas merkwuerdig, denn auf ihren bisherigen desktop Designs waren bis zu 3 loops freigeschaltet.

Hvoralek
2006-11-13, 11:11:06
Ich halte eDRAM beim R600 für sehr unwahrscheinlich. Wenn man nicht die selben Probleme bekommen möchte wie bei der 360, müsste der erheblich größer sein. ZB für 4xAA in UXGA und FP16 (wirklich das Mindeste, was das Teil können müsste) bräuchte man ohne Tiling etwa 120 MiB (1600x1200 x 4 x 2x4x2).

AF Filterungs-Optimierungen: nun R600 sollte wohl nicht den Xenos Pfad hier folgen sonst wird's ziemlich langsam am Ende.Wie sieht es denn mit der AF- Qualität von Xenos aus?

Xmas
2006-11-13, 11:21:09
AA: falls sie auf nur 8x MSAA bleiben wie gemunkelt wird, ist es schon etwas merkwuerdig, denn auf ihren bisherigen desktop Designs waren bis zu 3 loops freigeschaltet.
Mehr ROP-Durchläufe ist nicht das einzige was man für mehr Samples braucht.

Ailuros
2006-11-13, 11:21:11
Wie sieht es denn mit der AF- Qualität von Xenos aus?

Wo kann man die denn ueberhaupt bewundern? ;) Spass beiseite da Xenos keinerlei Optimierungen eingebaut hat, wuerde ich sagen ausgezeichnet gut.

Hvoralek
2006-11-13, 11:24:48
Spass beiseite da Xenos keinerlei Optimierungen eingebaut hat, wuerde ich sagen ausgezeichnet gut.Bist Du sicher? Es würde mich wundern, wenn dort, wo es ohnehin kaum jemanden interessiert, nicht so viele Transistoren gespart werden wie möglich.

AnarchX
2006-11-13, 11:24:54
Wo kann man die denn ueberhaupt bewundern? ;) Spass beiseite da Xenos keinerlei Optimierungen eingebaut hat, wuerde ich sagen ausgezeichnet gut.

Wie sieht es mit der Winkelabhängigkeit bei Xenos aus, gibt es dazu Infos von ein paar XBox360-Devs?

Ailuros
2006-11-13, 11:29:59
Bist Du sicher? Es würde mich wundern, wenn dort, wo es ohnehin kaum jemanden interessiert, nicht so viele Transistoren gespart werden wie möglich.

Und wer sagt Dir dass Optimierungen nicht auch Transistoren kosten koennen?

Each of the filtered texture units have Bilinear sampling capabilities per clock and for Trilinear and other higher order (Anisotropic) filtering techniques each individual unit will loop through multiple cycles of sampling until the requested sampling and filtering level is complete. The texture address processor has some general purpose shader ability and is able to apply offsets from the input texture co-ordinates which can be used with higher order filtering techniques. The Anisotropic filtering capabilities adapts the number of samples taken dependant on the gradient of the surface that it is sampling, which is fairly normal for Anisotropic filtering mechanisms, ATI says that the anisotropic filtering quality is improved from previous generations of hardware. As Xenos is the controller of a UMA, the entirety of system RAM is available to the texture samplers, although they will not perform any operations on the eDRAM memory.

http://www.beyond3d.com/articles/xenos/index.php?p=06

Coda
2006-11-13, 11:33:40
Und wer weiß, vielleicht gibt es auch noch ein paar Fortschritte beim "Ringbus".

Ein Fortschritt wäre wieder eine Crossbar :rolleyes:

Ailuros
2006-11-13, 11:34:14
ROFL :D

Hvoralek
2006-11-13, 11:47:51
Und wer sagt Dir dass Optimierungen nicht auch Transistoren kosten koennen?Ist/ war nicht das Einsparen von Transistoren einer der Hauptgründe für wa AF?

ATI says that the anisotropic filtering quality is improved from previous generations of hardware.Müsste demnach besser sein als auf R4xx.

Ailuros
2006-11-13, 12:08:59
Ist/ war nicht das Einsparen von Transistoren einer der Hauptgründe für wa AF?

Schon und ich erwartete auch dass Du so etwas erwaehnst; AF ist zwar adaptiv aber eben nicht so adaptiv wie auf PC GPUs und nein das hat natuerlich nichts mit winkelabhaengigkeit zu tun.

Müsste demnach besser sein als auf R4xx.

Ich schaetze eher R5x0-HQ Nivaeu.

Gast
2006-11-13, 12:30:07
Ein Fortschritt wäre wieder eine Crossbar :rolleyes:
Die scheint aber auch überbewertet, wie's aussieht.

Zauberer
2006-11-13, 14:10:24
Wie sieht es mit der Winkelabhängigkeit bei Xenos aus, gibt es dazu Infos von ein paar XBox360-Devs?
Lol, ich habe noch kein XBOX360 Spiel gesehen das AF nutzt.
Leider habe ich auch nicht so viel Geld, dass ich mit jedes Spiel kaufen kann.
Ich denke Du musst schon sehr viel Glück haben, dass hier ein Xbox360-Dev hier schreibt.

AA sieht man schon, aber es kann sein das die Füllrate für AF einfach nicht ausreicht.
Es könnte auch sein, dass der Xenon HQ-AF (ca. so wie auf der 8800) bietet, darum verbraucht es zu viel Füllrate, Winkelabhängiges AF kostet nicht so viel Füllrate.
Das könnte ja gut für den R600 sein.

Ich denke auch, dass AF für die meisten Konsolen-DEVs gar nicht so wichtig ist, wenn noch Leistung da ist stecken die es in Effekte, AF kennen ja sowieso die Konsolenspieler nicht, was man nicht kennt vermist man nicht. ;D.
Ich habe noch auf keiner Konsole AF gesehen, ok Berichte zu den PS3 Spielen sind rar.
Kennt einer ein gutes PS3 Tech-Review?
Die PS3 ist ja schon drausen in Japan, wenn auch ausverkauft. ;)
Wäre interessant, ob die PS3 Spiele wirklich AF und AA haben, und somit optisch besser als die Xbox360-Spiele sind.

Coda
2006-11-13, 14:53:31
Die scheint aber auch überbewertet, wie's aussieht.

Überbewertet? Nunja, der "Ringbus" war schlicht und einfach eine Sparmaßnahme seitens ATi. Eine Crossbar ist rein prinizipiell immer die schnellste mögliche Punkt-zu-Punkt-Verbindung in einem Chip.

Deshalb ist der Werberummel den ATi deswegen veranstaltet schon ziemlich ironisch ;)

deekey777
2006-11-13, 15:48:49
Ist/ war nicht das Einsparen von Transistoren einer der Hauptgründe für wa AF?

Bei ATi höchst wahrscheinlich, aber nicht bei nVidia: Hier kamen eher Transistoren hinzu.

Gast
2006-11-13, 18:26:56
Bei ATi höchst wahrscheinlich, aber nicht bei nVidia: Hier kamen eher Transistoren hinzu.

Ihr solltet mal zwischen dem Mehraufwand für WU-AF Berechnung und der Logik für die Bri Geschichte unterscheiden. Beides kostet sicher Transistoren.

Coda
2006-11-13, 19:34:21
Bei ATi höchst wahrscheinlich, aber nicht bei nVidia: Hier kamen eher Transistoren hinzu.

Ne auch nicht. Bei NV4x war nVIDIA aufm krassen Transistorspartripp.

Hvoralek
2006-11-13, 20:30:21
Bei ATi höchst wahrscheinlich, aber nicht bei nVidia: Hier kamen eher Transistoren hinzu.Wenn ich mir R5xx- HQ ansehe, scheinen die Leistungsgewinne dadurch nicht so enorm zu sein. Und wenn die Schaltungen für wu- AF bei Nvidia vorhanden sind, warum hat man es nicht vor einem Jahr freigeschaltet?

Seltsam, dass ATI bei Xenos Transistoren aufwendet für ein BQ- Element, das ohnehin kaum zum Einsatz kommt (ich erinnere mich nicht an einen einzigen 360- Screenshot mit AF) und das nur ein sehr kleiner Teil der Klientel überhaupt bemerken dürfte. Aber gut, das ist hier OT.

Gast
2006-11-13, 23:11:00
Grade bei Gamestar.de aufgeschnappt:
"Konkret soll es besonders bei der Länge entsprechender Boards Probleme gegeben haben. Diese sind derzeit rund 30cm lang. Ziel ist es, eine Länge von 28cm zu erreichen,..."

Das es Probleme mit der Kühlung gibt is glaub schon länger bekannt bei den Highenmonstern, allerdings wenn für Februar erst kaufbare Modelle vorgesehen werden, ist im Januar ja nicht mit einem Hardlaunch (selbst in homöopatischen Mengen) zu rechnen.

Quelle: http://www.gamestar.de/news/pc/hardware/amd/1466117/amd.html

Die gelbe Eule
2006-11-14, 00:02:44
Wenn es nichtmal ein fertiges PCB gibt, dauert es wohl noch ein Weilchen. 2cm dürften keinen Käufer abhalten, aber PCI-E 2.0 und die Wärmeabfuhr schon ...

aylano
2006-11-14, 01:06:23
2cm dürften keinen Käufer abhalten, aber PCI-E 2.0 und die Wärmeabfuhr schon ...
Also, ich kann mir nicht unbedingt vorstellen, dass PCI-E 2.0 wegen den viel höheren Stromverbrauch eingeführt wird.

Deshalb glaub ich, dass es Folgende Varianten geben wird.

PCI-E 2.0 wird von ATI eingeführt, weil ...

1) man damit noch viel stärker Übertakten kann und die Rekord-Benches von Nvidea viel stärker übertrumpfen könnte.
Aber für den Grundtakt würde der PCI-E 1.0 vollkommend ausreichen.

2) der R600 wegen dem extremen Stromverbrauch und der extremen Mehrleistung den PCI-E 2.0 braucht.

Also, wenn eines der beiden nicht eintretet, dann dürfte ATI bis 65nm-R600 so ziehmliche Probleme bekommen, was man wahrscheinlich (siehe letztes Jahr) auch nicht zu 100% ausschließen kann.

Für Variante 1 spricht, dass ATI die R600 kompatibel für viele mainboards macht und somit das weitermacht, was sie AFAIK die letzten Jahre gemacht hat. Somit eigentlich die wahrscheinlichste Variante.

Für Variante 2 müsste ATI ja auch einen Überraschungs-Chipsatz mit PCI-E 2.0 gleichzeitig rausbringen, die ja AFAIK ursprünglich erst Mitte 2007 geplant waren.
Damit der R600 dann auch Konkurrenzfähig in P/L bleibt, müsste sie dann auch dementsprechend schneller sein, was bei einem 150 oder 200 Euro-High-End-Mainboard recht viel sein müsste.

Interessant ist eigentlich schon, dass Nvidea und ATI mit der jetztigen Neuen Generation extreme Strünge in Sachen Stromverbrauch und Leistung macht und das "fast gleichzeitig". Hat es schon solche Sprünge gegeben???

Armaq
2006-11-14, 02:15:52
Ja. Als die 6800er Serie rauskam.

Fetza
2006-11-14, 04:32:57
Von der performance her, war der sprung von der radeon 8700 zur 9700 auch ähnlich groß. Technologisch ist es aber glaube ich einzigartig bisher, seit einführung der 3d grafikkarten.

StefanV
2006-11-14, 05:09:42
8500, 'ne 8700 gabs nie (auch wenns Gerüchte über einen R250 gab).

Gast
2006-11-14, 11:45:02
Grade bei Gamestar.de aufgeschnappt:
"Konkret soll es besonders bei der Länge entsprechender Boards Probleme gegeben haben. Diese sind derzeit rund 30cm lang. Ziel ist es, eine Länge von 28cm zu erreichen,..."

Quelle: http://www.gamestar.de/news/pc/hardware/amd/1466117/amd.html

Deutet doch auf ein sehr breites SI hin, da ja ATI bei der Nutzung des PCB´s doch eher konservativ zu Werke ging.

joe kongo
2006-11-14, 12:11:29
Nur als Info: Die 8800GTX hat einen 6poligen Anschluss UND einen 8poligen Anschluss für die Stromversorgung, wobei letzterer nur mit einer 6poligen
Buchse bestückt worden ist.

Gast
2006-11-14, 12:44:51
Ich denke ATI löst das Problem mit der Spannungsversorgung anders: PCI-E2.0 oder externes Netzteil - ahnlich dem ASUS X1800XTPE Abkömmling.

[MK2]Mythos
2006-11-14, 17:40:00
Wenn es nichtmal ein fertiges PCB gibt, dauert es wohl noch ein Weilchen. 2cm dürften keinen Käufer abhalten, aber PCI-E 2.0 und die Wärmeabfuhr schon ...

Es sollte eigentlich jedem klar sein das der R600 selbstverständlich auch in PCI-E 1.1 Boards läuft, anzunehmen das es PCI-E 2.0 only wird ist, sorry, völliger Blödsinn. IMO vermarktet ATi den R600 als PCI-E 2.0 Chip nur, um mit selbigen werben zu können und um sich mit mehr als einem externen Stromanschluß nicht wie NVIDIA ausserhalb von gewissen Spezifikationen zu bewegen. Zur Wärmeabfuhr, ich glaube nicht, das ATi sich mit verkappten Lüftern nochmal so blamieren will wie mit der R520/R580 Generation. NVIDIA schaffts schließlich seit geraumer Zeit auch bei immer höheren Verlustleistungen leiser zu kühlen.

reunion
2006-11-14, 18:06:05
Mythos']Es sollte eigentlich jedem klar sein das der R600 selbstverständlich auch in PCI-E 1.1 Boards läuft, anzunehmen das es PCI-E 2.0 only wird ist, sorry, völliger Blödsinn.

Eben, jede PCIe 2.0-Karte ist per Spezifikation voll abwärtskompatibel. PCIe 2.0 erlaubt darüberhinaus bei entsprechenden Boards die doppelte Datenrate im Vergleich zu seinem Vorgänger, und bietet außerdem die Möglichkeit - falls benötigt - einer Karte bis zu 300W Leistung zur Verfügung zu stellen. PCIe 2.0 bringt also nur Vorteile - völlig lächerlich, wie hier einige versuchen künstliche Nachteile herzuphilosophieren. Es hat sich ja auch niemand aufgeregt, als die erste AGP 2x, 4x, oder 8x Karte erschien.

Ein Fortschritt wäre wieder eine Crossbar :rolleyes:

Hab' ja auch nichts gegenteiliges behauptet.

[](-__-)[]
2006-11-14, 18:42:34
Sind schon Boards mit PCI-E 2.0 Standard erhältlich, oder kommen die noch?

sulak
2006-11-14, 18:56:59
Bisher gibts keinen Chipsatz der PCI-E 2.0 kann, is die Spec eigentlich schon Final? Im Oktober war es Revision 0.9 die ich zuletzt gesehen habe.
Damals meine ich was von Release Candidate gelesen zu haben, was aber nicht heist das eine 1.0 noch folgt. Kann auch ein Grund sein warum ATI sich etwas mehr Zeit mit dem PCB lassen muss, wenn sie die Spec voll erfüllen wollen.
Intel hat für Q2 2007 glaub nen Chipsatz in der Pipeline, aber das eher ein Servermainboard da kommt auch DDR3 ins Spiel.

Gast
2006-11-14, 19:36:00
Überbewertet? Nunja, der "Ringbus" war schlicht und einfach eine Sparmaßnahme seitens ATi. Eine Crossbar ist rein prinizipiell immer die schnellste mögliche Punkt-zu-Punkt-Verbindung in einem Chip.

Deshalb ist der Werberummel den ATi deswegen veranstaltet schon ziemlich ironisch ;)

Schau dir den G80 an - auch ohne Crossbar zwischen ROP und RAM ist die Speicherleistung offenbar nicht so erbärmlich. :)


Q

Coda
2006-11-14, 19:57:41
War ja nur ne feststellung. Was hat G80 denn?

Gast
2006-11-14, 20:09:54
Direkte Verbindungen zwischen ROP und RAM.


Q

Coda
2006-11-15, 00:22:02
Na dann is halt die Crossbar vorher. Was ist das Problem? X-D

X.Perry_Mental
2006-11-15, 10:11:53
Viele neue R600-Infos vom Inquirer (http://uk.theinquirer.net/?article=35707):

Wieder Ringbus, intern 1024Bit, extern 512Bit, 700-800MHz GPU, 64 Shader als 4-way SIMD units ...

Ailuros
2006-11-15, 10:33:16
Ich wuerde denken dass arithmetic logic unit leicher ist fuer jemand der nur Bahnhof versteht als 4*way single instruction multiple data LOL :biggrin:

Hakkerstiwwel
2006-11-15, 10:37:14
Wie groß is eigentlich die Wahrscheinlichkeit dass Ati den R600 mit "Fast14" fertigen laesst? Immerhin haben sie die Technologie schon vor 2 Jahren lizensiert und die angepeilten Taktraten waeren ohne imo sehr problematisch zu erreichen.

BlackBirdSR
2006-11-15, 10:40:27
R600 = K7, G80 = P4 .... ich lach mich tot.

Die paar Infos die INQ da liefert sind entweder höchst spekulativ (512Bit externern Speicherbus) oder einfach nur nachplappern von irgendwelchen details die irgendjemand irgendwo mal aus Spass gesagt haben könnte.

Auf der anderen Seite klingen die Werte 64/16 Vec4 gar nicht so abgefahren. Eher schon konservativ ;)
Und wie nah ist INQ nun dran?

deekey777
2006-11-15, 10:40:53
64 ALUs also.
Aus dem ersten Posting: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4946911#post4946911
http://www.techreport.com/etc/2006q4/stream-computing/index.x?pg=1
Orton pegged the floating-point power of today's top Radeon GPUs with 48 pixel shader processors at about 375 gigaflops, with 64 GB/s of memory bandwidth. The next generation, he said, could potentially have 96 shader processors and will exceed half a teraflop of computing power.
Na gut, die Aussage ist zitiert, darum hier die volle Präsentation:
http://ati.amd.com/companyinfo/events/StreamComputing/index.html
Auch wenn Orton nicht gesagt hat, dass es 96 ALUs sein werden, kann man auch nicht sagen, dass es 64 ALUs sind.
Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units.
Ach nö, der Typ hat mir meine Idee für meinen Monster-Flame geklaut! ;(
Man stelle sich vor, der R580 hat 56 solcher ALUs. Und wenn man ihn auf 900 MHz taktet - ohoh. Diese Rechnung ist für den Popo.

BlackBirdSR
2006-11-15, 10:44:23
Wie groß is eigentlich die Wahrscheinlichkeit dass Ati den R600 mit "Fast14" fertigen laesst? Immerhin haben sie die Technologie schon vor 2 Jahren lizensiert und die angepeilten Taktraten waeren ohne imo sehr problematisch zu erreichen.

Man kann Fast14 nicht einfach einsetzen oder damit fertigen.
Man muss sein Design beinahe von Anfang an damit erstellen und darauf aufbauen.
Ob die R600 das nutzt ist fraglich. Sehr effektiv wäre soetwas z.B für ALUs gewesen die einen weitaus höheren Takt nutzen als der restliche Chip selbst.
Aber Ooops, das ist ja der G80 von dem ich jetzt spreche :rolleyes:

Hakkerstiwwel
2006-11-15, 10:52:24
Man kann Fast14 nicht einfach einsetzen oder damit fertigen.
Man muss sein Design beinahe von Anfang an damit erstellen und darauf aufbauen.
Ob die R600 das nutzt ist fraglich. Sehr effektiv wäre soetwas z.B für ALUs gewesen die einen weitaus höheren Takt nutzen als der restliche Chip selbst.
Aber Ooops, das ist ja der G80 von dem ich jetzt spreche :rolleyes:
R600 isoll ja ein Hybrid zwischen R400 und R580 sein. Iirc haette R400 fast14 nutzen sollen (oder tut er es?). Eventuell geht Ati sogar absichtlich seit R5x0 nicht weiter n die Breite um die Vorteile von Fast14 zu einem spaeteren Zeitpunkt ausspielen zu koennen.
Hier noch mal ein link auf die damalige news des Techreports
http://www.extremetech.com/article2/0,3973,1518127,00.asp

Coda
2006-11-15, 10:53:03
First of all, the GPU is a logical development that started with the R500Xenos, or Xbox GPU, but without the 10MB eDRAM part. Unlike the Xbox GPU, the R600 has to be able to support a large number of resolutions and, if we take a look at today's massive 5Mpix resolutions, it is quite obvious that R600 should feature at least five times more eDRAM than Xbox 360 has.

Danach bin ich ausgestiegen... *kotz*

BlackBirdSR
2006-11-15, 10:54:52
R600 isoll ja ein Hybrid zwischen R400 und R580 sein. Iirc haette R400 fast14 nutzen sollen (oder tut er es?). Eventuell geht Ati sogar absichtlich seit R5x0 nicht weiter n die Breite um die Vorteile von Fast14 zu einem spaeteren Zeitpunkt ausspielen zu koennen.
Hier noch mal ein link auf die damalige news des Techreports
http://www.extremetech.com/article2/0,3973,1518127,00.asp

Ich denke nicht, dass man mit dem R400 schon so weit gewesen wäre. Selbst beim R600 halte ich ds noch für verfrüht. Wie gesagt kann man nicht einfach ein Häkchen setzen und dann nutzt man Fast14 und hat 60% mehr Performance.

Hakkerstiwwel
2006-11-15, 11:09:31
Ich denke nicht, dass man mit dem R400 schon so weit gewesen wäre. Selbst beim R600 halte ich ds noch für verfrüht. Wie gesagt kann man nicht einfach ein Häkchen setzen und dann nutzt man Fast14 und hat 60% mehr Performance.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1547110&postcount=220

Damals war R420 aktuell. nex-nex gen nur so dahingesagt oder wusste Demi damals schon mehr?

deekey777
2006-11-15, 11:15:43
Im Jahr 2003 war noch der R400 aktuell. ;) Erst als ATi mitbekam, dass der R400 mit deutlicher Verspätung als der NV40 fertig wird, kam der Notplan "Loki" zum Einsatz.
Darum schrieb Demirug nex-nex gen. Vielleicht wird der R700 mit Fast14 gefertigt.

Hakkerstiwwel
2006-11-15, 11:20:15
Im Jahr 2003 war noch der R400 aktuell. ;) Erst als ATi mitbekam, dass der R400 mit deutlicher Verspätung als der NV40 fertig wird, kam der Notplan "Loki" zum Einsatz.
Darum schrieb Demirug nex-nex gen. Vielleicht wird der R700 mit Fast14 gefertigt.
Korrekt. Das Posting stammt aber vom Feb04, damals war gesichert dass R420 und nicht R400 kommt.

Ailuros
2006-11-15, 11:27:35
Im Jahr 2003 war noch der R400 aktuell. ;) Erst als ATi mitbekam, dass der R400 mit deutlicher Verspätung als der NV40 fertig wird, kam der Notplan "Loki" zum Einsatz.
Darum schrieb Demirug nex-nex gen. Vielleicht wird der R700 mit Fast14 gefertigt.

Das erklaert mir aber kein bisschen warum dem R420 dann R5x0 folgte denn Xenos war Sommer 2005 fertig.

Waehrend die Konkurrenz unendlich auf der etwa gleichen Basis-Architektur wiederkaut (NV4x/G7x), entwickelt man einen R4x0 (der zugegebenen nur sehr kurze Zeit brauchte), einen fundamental unterschiedlichen USC und einen R5x0 SM3.0 chip.

Wenn Xenos wirklich schneller als R5x0 ist wie es ATI's PR Machine nett hindreht, frage ich mich warum man so viel R&D Unkosten fuer R5x0 entfestet hat.

deekey777
2006-11-15, 11:29:20
Korrekt. Das Posting stammt aber vom Feb04, damals war gesichert dass R420 und nicht R400 kommt.
Darum:
Ich denke nicht, dass man mit dem R400 schon so weit gewesen wäre. Selbst beim R600 halte ich ds noch für verfrüht. Wie gesagt kann man nicht einfach ein Häkchen setzen und dann nutzt man Fast14 und hat 60% mehr Performance.
Die Entwicklung des R400 begann irgenwann 2002, Mitte 2003 wurde langsam klar, dass dieser zu spät fertig wird, ergo musste der R390 R420 schnell ran.
Andersrum: Wird der Xenos/C1 mit Fast14-Technologie gefertigt? Nein.

DrumDub
2006-11-15, 11:42:27
Wenn Xenos wirklich schneller als R5x0 ist wie es ATI's PR Machine nett hindreht, frage ich mich warum man so viel R&D Unkosten fuer R5x0 entfestet hat. wann haben sie das gesagt?

ich glaube auch, dass es eher anders war, als dk777 es beschrieben hat. ati wollte früh auf usc setzen, aber mit der verzögerung von vista und damit d3d10 (die specs standen ja wohl schon 2002), hatte sich r400 erledigt. hinzu kam, dass man mit dem design von r400 keine chance hatte wesentlich schneller als der r3x0 zu sein... daraus folgte dann die entscheidung für r4x0 und daraus folgte r5x0... nebenbei hat man mit xenos als erste usa gemacht, weil ms genau das wollte... allerdings könnte genau das r&d gekostet haben, die nv für den g80 übrig hatte...

Ailuros
2006-11-15, 11:55:32
wann haben sie das gesagt?

ich glaube auch, dass es eher anders war, als dk777 es beschrieben hat. ati wollte früh auf usc setzen, aber mit der verzögerung von vista und damit d3d10 (die specs standen ja wohl schon 2002), hatte sich r400 erledigt. hinzu kam, dass man mit dem design von r400 keine chance hatte wesentlich schneller als der r3x0 zu sein... daraus folgte dann die entscheidung für r4x0 und daraus folgte r5x0... nebenbei hat man mit xenos als erste usa gemacht, weil ms genau das wollte... allerdings könnte genau das r&d gekostet haben, die nv für den g80 übrig hatte...

Der originale R400 wurde zu vorzeitig gestartet was die Entwicklung betrifft fuer D3D10 und man sieht am Xenos dass das letztere etwas mehr als SM3.0 kompliant ist. Unter R420 Niveau wuerde ich das Ding als PC Variante aber nicht unbedingt einschaetzen was die Leistung betrifft.

deekey777
2006-11-15, 12:36:45
Das erklaert mir aber kein bisschen warum dem R420 dann R5x0 folgte denn Xenos war Sommer 2005 fertig.

Waehrend die Konkurrenz unendlich auf der etwa gleichen Basis-Architektur wiederkaut (NV4x/G7x), entwickelt man einen R4x0 (der zugegebenen nur sehr kurze Zeit brauchte), einen fundamental unterschiedlichen USC und einen R5x0 SM3.0 chip.

Wenn Xenos wirklich schneller als R5x0 ist wie es ATI's PR Machine nett hindreht, frage ich mich warum man so viel R&D Unkosten fuer R5x0 entfestet hat.
Ich hab mal gehört, dass Xenos für eine Konsole entwickelt wurde (wer hat eigentlich die Kohle beigesteuert?). ;)
(PS) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4354349#post4354349)
Ich habe gestern oder vorgestern was dazu geschrieben, weiß aber nicht wo und überhaupt, ob ich ihn gepostet habe.;(
Das kennt fast jeder: R300 -> R420 -> R520/R580 und R400 -> Xenos/C1 -> R600. Das Zeug ist uralt, und aus heutiger Sicht kann man nicht eindeutig sagen, ob diese Zeit-/Entwicklungslinie jemals richtig war.
Einer der Lieblingssprüche ist "R520 ist nur ein um SM 3.0 aufgebohrter R300". Wie soll das gehen? Aus rein nüchterner Sicht hat sich da auch nicht viel getan: Die ROPs sind nur um FP16-MSAA erweitert worden, es gibt jetzt fast winkelunabhängige Filterung, die Vertex- und Pixel-ALUs wurden um SM 3.0 erweitert. Mehr nicht. Oder nicht mehr?
Mit der R520 wurde das Phasen-Konzept aufgegeben, oder zumindest ist da etwas, was den Namen "Threading-Konzept" rechtfertigt. Woher kam dieses mit seinen bis zu 4 Dispatchern? Warum hat der G80 etwas, was als Thread Processor bezeichnet wird? Wäre es nicht möglich, dass dieses Threading-Konzept aus dem R400 übernommen wurde?
Der R400 ist ein Mysterium, da ist die weibliche Periode gar nichts dagegen (ob-Werbung :biggrin: ), es gibt nichts außer Hörensagen. Gar nichts. Es kann gut sein, dass der R400 schon längst tot ist, aber nicht die Ideen aus seiner Entwicklung. Warum wäre es nicht möglich, dass der R520 schon einen Teil dieser Ideen beinhaltet und zwar das Threading-Konzept? Wenn das so wäre, hätte man bei der Entwicklung des R520 auf den R400 zurückgegriffen.
Das ist zwar Blasphemie, aber wer sagt denn, dass der R520 kein Hybrid aus dem R400 und R300 ist (mit deutlichem R300-Gewicht)?
Wäre es so undenkbar, dass es beim R600 nicht ähnlich ist? Man entfernt das, was nicht mehr gebraucht wird, fügt hinzu, was für D3D10 nötig ist.

Ailuros
2006-11-15, 12:41:22
R400 war ein quasi Xenos (frag mich jetzt nicht ob er gleichsoviele Einheiten hatte) mit einer zusaetzlichen Tesselations-Einheit die es ja in fruehen D3D10 drafts noch gab.

Eben weil der Unterschied zwischen R3xx/4xx und R5xx so gross ist, kann ich den zusaetzlichen Aufwand fuer so viele unterschiedliche Architekturen schwer verdauen.

R600 ist ein hybrider chip zwischen R5xx und Xenos und nein das heisst nicht dass er kein USC ist.

robbitop@work
2006-11-15, 12:42:07
Iirc haette R400 fast14 nutzen sollen (oder tut er es?).
Wo hast du das denn her? Zu der Zeit hat man das gerade erst lizensiert. Fast14 ist ein PR Begriff für individuelle Transistoren. Das machen IBM/Intel/AMD seit Ewigkeiten. NV scheint's für die ALUs auch genutzt zu haben. Für den ganzen Chip wäre es auch etwas tricky aufgrund der Leistungsaufnahme bei so vielen Logiktransistoren. Natürlich ist das Synchronisieren der Clockdomains untereinander sicher auch nicht ganz ohne.

Wie auch immer:
ATI kündigt an, NV liefert (USC, custom transistors) ;)

robbitop@work
2006-11-15, 12:46:33
Wenn Xenos wirklich schneller als R5x0 ist wie es ATI's PR Machine nett hindreht, frage ich mich warum man so viel R&D Unkosten fuer R5x0 entfestet hat.
Demirug erwähnte mal, dass Xenos @PC nicht konkurrenzfähig gewesen wäre (leuchtet ein, denn mah hat wie du sagtest R5xx entwickelt). Wer weiß, welche Bottlenecks daran schuld waren.

Ich glaube, Xenos wirklich auf den PC zu bringen klingt leichter als gesagt. Das hätte sicher nochmal 'zig Monate gekostet, da das Ding eher auf die Bedürfnisse einer Konsole als auf DX ausgerichtet war. AFAIK hat man da so einiges weggelassen und anderes wieder etwas übertrieben. Details kennst du sicher x-mal besser als ich.

Ailuros
2006-11-15, 12:54:17
Ich glaube, Xenos wirklich auf den PC zu bringen klingt leichter als gesagt. Das hätte sicher nochmal 'zig Monate gekostet, da das Ding eher auf die Bedürfnisse einer Konsole als auf DX ausgerichtet war. AFAIK hat man da so einiges weggelassen und anderes wieder etwas übertrieben. Details kennst du sicher x-mal besser als ich.

R5x0 zu entwickeln war sicher nicht leichter.

DrumDub
2006-11-15, 14:18:06
R5x0 zu entwickeln war sicher nicht leichter. aber welche alternative hätte ati gehabt?

was r400 und d3d10 betrifft: wann genau wurde d3d10 (bzw. damals noch wgf) denn festgezurrt? ich hab da ende 2002 im kopf. r400 muss demnach ca. 2000 begonnen worden sein?

X.Perry_Mental
2006-11-15, 14:22:14
Es geht weiter beim Inquirer (http://uk.theinquirer.net/?article=35708):

Gast
2006-11-15, 14:49:17
Es geht weiter beim Inquirer (http://uk.theinquirer.net/?article=35708):

Meinen die das ernst?
Ist da was dran?

Gast
2006-11-15, 14:55:20
Anscheinend, was ich lese, haben die das Board schon gesehen...kann ich nicht glauben.
Ich glaube, das die irgendetwas falsch verstanden haben...

Hvoralek
2006-11-15, 15:02:12
The PCB will be shorter than 8800GTX's in every variant, and you can compare it to X1950XT and 7900GTXAlso etwa 23 cm? Bei einem angeblichen 512- bit- SI? :|

Gast
2006-11-15, 15:02:46
Also etwa 23 cm? Bei einem angeblichen 512- bit- SI? :|
das wer doch was.

w0mbat
2006-11-15, 15:06:12
So wie ich´s verstanden habe hat der INQ schon eine Karte oder wenigstens gesehen.

Moralelastix
2006-11-15, 15:13:08
Also Entwarnung in Sachen Stromverbrauch?

"The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX"
http://uk.theinquirer.net/?article=35708



Was ich auch net versteh warum solche Anstrengungen unternommen werden das Board kurz zu bekommen wenn es höchstens so lang is wie das von der GTX passt es doch auch?
Sollten sie lieber versuchen den Stromverbauch unter GTX Niveau zu drücken.

Hvoralek
2006-11-15, 15:13:12
So wie ich´s verstanden habe hat der INQ schon eine Karte oder wenigstens gesehen.Das klingt schon so und es ist diesmal nicht Fuad, insofern könnte vlt etwas dran sein. Dann wäre das wohl wirklich "the most packed product in history of 3D graphics". 16 Speicherchips auf einem 23cm- PCB ist rein vom Platz her wohl nur möglich, wenn man die Hälfte davon auf die Kartenrückseite verlagert (Da gab es im vorherigen Teil des Threads mal ein Bild von, schon etwas seltsam).

Wie sieht es aus mit 512bit- SI und 12 Layern? Ich verstehe davon zu wenig, um das einzuschätzen, aber iirc hieß es, dafür bräuchte man eher 18-20.

Grafikfetischist.
2006-11-15, 15:15:56
Nehmen wir mall an die Specs stimmen.

Kann man daraus jetzt schon ungefähr abschätzen wie schneller der R600 ungefähr ist?

Grafikfetischist.
2006-11-15, 15:16:23
Nehmen wir mall an die Specs stimmen.

Kann man daraus jetzt schon ungefähr abschätzen wie schneller der R600 ungefähr ist?
ich meine schnell

Hvoralek
2006-11-15, 15:17:39
Also Entwarnung in Sachen Stromverbrauch?

"The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX"
http://uk.theinquirer.net/?article=35708Das deckt sich doch mit den "imM 50 Watt mehr als die 8800 GTX, daran wird gearbeitet", die hier im Forum schon herumgeisterten.

Zocker_28
2006-11-15, 15:18:43
Mein Gott wenn das stimmt, muhahahah.

Coda
2006-11-15, 15:19:39
but each memory chip has its own 32-bit wide physical connection to the chip's RingBus memory interface.

Nur schade, dass das schon immer so ist :rolleyes:

Der Rest ist genauso FUD. Wenn das Ding >150W verbraucht, was sicher so sein wird ist das PCB nicht kürzer als eine GX2. Unmöglich.

X.Perry_Mental
2006-11-15, 15:22:28
Der Rest ist genauso FUD. Wenn das Ding >150W verbraucht, was sicher so sein wird ist das PCB nicht kürzer als eine GX2. Unmöglich.
Warum soll das unmöglich sein? Oder meinst du unvorstellbar?

Moralelastix
2006-11-15, 15:23:24
Was auch gut klingt ist der Kühler:
quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper

Also scheinbar net solche Alufinnen sondern welche aus Kupfer.

Coda
2006-11-15, 15:23:32
Warum soll das unmöglich sein?

Die Spannungsregler machen bei G80 GTX schon allein 1/3 des PCB aus und das sind schon digitale PWMs statt herkömlicher MOSFETs.

Und R600 verbraucht definitiv mehr, soviel ist sicher.

Moralelastix
2006-11-15, 15:24:17
Nur schade, dass das schon immer so ist :rolleyes:

Der Rest ist genauso FUD. Wenn das Ding >150W verbraucht, was sicher so sein wird ist das PCB nicht kürzer als eine GX2. Unmöglich.


"longer-than-the-PCB"

Coda
2006-11-15, 15:24:54
"longer-than-the-PCB"

Was willst du mir damit sagen? Das Inq. Bullshit schreibt? Nichts neues.

Das 512-Bit-SI wird genauso wenig stattfinden, darauf könnt ihr schonmal Wetten abschließen. Dafür reichen 12 Layer nicht.

Hvoralek
2006-11-15, 15:25:00
Wenn das Ding >150W verbraucht, was sicher so sein wird ist das PCB nicht kürzer als eine GX2. Unmöglich.Eine GX misst laut CB 23 cm (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/4/#abschnitt_impressionen).

Moralelastix
2006-11-15, 15:26:27
Was willst du mir damit sagen? Das Inq. Bullshit schreibt?

Na, scheinbar ragt der Kühler über das PCB hinaus.

Coda
2006-11-15, 15:27:14
Na, scheinbar ragt der Kühler über das PCB hinaus.

Scheinbar labert Inq einfach Schwachsinn, wie in 99% aller Fälle?

Eine GX misst laut CB 23 cm (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/4/#abschnitt_impressionen).

Und jetzt?

Hvoralek
2006-11-15, 15:27:49
Na, scheinbar ragt der Kühler über das PCB hinaus.Was bringt eine kurze, dichtbepackte Platine, wenn die Karte wegen des Lüfters trotzdem 30 cm lang ist?

X.Perry_Mental
2006-11-15, 15:28:11
Was willst du mir damit sagen? Das Inq. Bullshit schreibt? Nichts neues.
Vielleicht möchte er damit sagen, dass eine kurze Platine nicht unmöglich ist, wenn man die nötige Kühlfläche zur Verfugung hat.

Moralelastix
2006-11-15, 15:29:41
Na wenn du mehr weißt immer her damit.:)

Coda
2006-11-15, 15:29:48
Wenn die Platine so kürz sein würde und noch dazu ein 512-Bit-SI müsste man die Hälfte der Speicherchips auf der Rückseite platzieren. nVIDIA hat es mit einer einseitigen Bestückung auf 12 Layer gebracht, für beidseitig hätte das Ding um die 20. Viel zu teuer.

Und 16 Speicherchips um die GPU herum zu platzieren ist auch so gut wie unmöglich.

Ich tippe immer noch auf 256-Bit-SI mit GDDR4 und hohem Takt.

Vielleicht möchte er damit sagen, dass eine kurze Platine nicht unmöglich ist, wenn man die nötige Kühlfläche zur Verfugung hat.

Aber vielleicht laber auch Inq nur mal wieder Bullshit? (Hab ich das schonmal erwähnt?)

Hvoralek
2006-11-15, 15:30:24
Und jetzt?Deine Aussage, man bräuchte mindestens GX2- Maße, deckt sich mit dem "compare it to X1950XT and 7900GTX" des Inqui-*hust*.

Moralelastix
2006-11-15, 15:34:22
"Aber vielleicht laber auch Inq nur mal wieder Bullshit? (Hab ich das schonmal erwähnt?)"

Haste die ersten schrägen Angaben zum G80 auch so veralbert?

Was bringt eine kurze, dichtbepackte Platine, wenn die Karte wegen des Lüfters trotzdem 30 cm lang ist?

Muss ja nicht so viel sein.

X.Perry_Mental
2006-11-15, 15:37:00
Aber vielleicht laber auch Inq nur mal wieder Bullshit? (Hab ich das schonmal erwähnt?)
Ja, hast du. Wenn man sich aber mal die Mühe macht und vergangene Inquirer-Meldungen nachschlägt wird man feststellen, dass hier bei so ziemlich jeder Inq-Meldung (vermutlich aus Tradition) erstmal "Bulls**t" geschrien wird. Manchmal zu Recht, aber des Öfteren wird hier sehr oft "Das stimmt nicht" mit "Ich kann mir nicht vorstellen, dass das stimmt" verwechselt.

Coda
2006-11-15, 15:38:09
Haste die ersten schrägen Angaben zum G80 auch so veralbert?

Was hat das jetzt mit G80 zu tun? Es ist einfach nur Blödsinn.

Ja, hast du. Wenn man sich aber mal die Mühe macht und vergangene Inquirer-Meldungen nachschlägt wird man feststellen, dass hier bei so ziemlich jeder Inq-Meldung (vermutlich aus Tradition) erstmal "Bulls**t" geschrien wird. Manchmal zu Recht, aber des Öfteren wird hier sehr oft "Das stimmt nicht" mit "Ich kann mir nicht vorstellen, dass das stimmt" verwechselt.

Jaja. Wir werden sehen.

Hvoralek
2006-11-15, 15:40:36
Muss ja nicht so viel sein.Und selbst wenn es nur ein oder zwei cm sind: Was nützt es, die Platine krampfhaft zusammenzuschrumpfen, wenn der Lüfter übersteht? Der Platz ist so oder so weg.

Moralelastix
2006-11-15, 15:46:46
Und selbst wenn es nur ein oder zwei cm sind: Was nützt es, die Platine krampfhaft zusammenzuschrumpfen, wenn der Lüfter übersteht? Der Platz ist so oder so weg.

Ich hab auch keine Ahnung.
Aus Kostengründen, ein PCB für alle Varianten der Topmodelle?
Mir währe es lieber anstatt eines kurzen PCBs wenn sie den Stromverbauch unter GTX Niveau bekommen würden.

Coda
2006-11-15, 15:49:54
Als ob "PCB-Kosten" (was die Länge angeht, Layer sind schon wieder ne andere Sache) bei solchen angedachten Dimensionen noch relevant wären. Leute denkt bitte mal bissel nach...

Moralelastix
2006-11-15, 15:54:02
Alleine nur das Überarbeiten des Desings eines solchen PCBs dürfte doch auch schon entsprechende Kosten verursachen?

Hvoralek
2006-11-15, 15:57:04
Alleine nur das Überarbeiten des Desings eines solchen PCBs dürfte doch auch schon entsprechende Kosten verursachen?Wieviele Kosten würde es wohl verursachen, eine Platine krampfhaft von 30 cm auf 23 zu quetschen?

Zocker_28
2006-11-15, 16:03:44
Die Spannungsregler machen bei G80 GTX schon allein 1/3 des PCB aus und das sind schon digitale PWMs statt herkömlicher MOSFETs.

Und R600 verbraucht definitiv mehr, soviel ist sicher.

Es ist überhauptnix sicher, weil keine was genaues weiss, also.........

Gast
2006-11-15, 16:04:43
Es geht nicht um die Länge, sondern eventuell darum, dass man mit einem Design eventuell alle Varianten erzeugen kann. Redundantes Design kann in der Fertigung und im Bestellwesen ne Menge Geld sparen.

Moralelastix
2006-11-15, 16:12:35
Vielleicht verbaut Ati bei den neuen Karten diese neueren Spannungswandler die man schon hier und da auf den teueren Mainboards sehen kann?
Ohne Kondensatoren usw.

Siehe rechts oben direkt zwischen CPU Sockel und dem Kupferkühler.
http://www2.abit.com.tw/upload/products/in9-32x-max_top_500.jpg

Coda
2006-11-15, 16:20:00
Vielleicht verbaut Ati bei den neuen Karten diese neueren Spannungswandler die man schon hier und da auf den teueren Mainboards sehen kann?
Ohne Kondensatoren usw.

Ich hab doch schon gesagt: Das macht nVIDIA bei G80 auch schon und die Spannungsregler verbrauchen trotzdem 1/3 des PCB.

Moralelastix
2006-11-15, 16:22:36
Soweit ich das beurteilen kann sind das noch die altbekannten Spannungswandler:

http://www.xbitlabs.com/images/video/gf8800/gf8800_card_front_nc_bg.jpg

Coda
2006-11-15, 16:24:06
Und wo sind dann die Spulen?

w0mbat
2006-11-15, 16:25:40
@Coda: Wieso bist du dir so 100%tig sicher? Ich meine AMD/ATi hat einiges drauf und ich denke die packen das schon. Früher dachte man auch viele wäre unmöglich.

Moralelastix
2006-11-15, 16:26:59
http://www.bit-tech.net/news_images/foxconn_digital_pwm_technology/article_img.jpg

Bit-tech.net:
CeBIT 2006: We saw an interesting new implementation on a couple of Foxconn motherboards today. They've managed to re-work the circuitry that regulates the voltage supplied to the CPU.

Rather than the standard capacitors and PWM mosfets, Foxconn has implemented a digital ASIC and a number of SMD components. This means that the space around the CPU socket is improved, because there are no capacitors likely to impede with some of the larger heatsinks available on the market.

That's not all though, Foxconn claim that their PWM design improves the cooling properties of the motherboard. In fact, their digital PWM should also improve the stability of the voltage supply to the processor, meaning that there should be improvements in vCore stability when overclocking.

There are some smaller PWMs that are cooled by a very small heatsink, but overall the area seems to run cooler and without obstruction from the large capacitors that can often hinder larger heatsink installations.

Coda
2006-11-15, 16:30:55
Wieso bist du dir so 100%tig sicher?

Erfahrung. Jedes Mal wenn ne neue GPU-Generation angekündigt wird (und vor allem wenn die Konkurenz Next-Gen schon auf dem Markt hat) wird FUD verbreitet dass es nur so kracht.

Und ein kürzeres PCB als eine GX2 bei einer GPU die >150W verbraucht und angeblich ein 512-Bit-SI haben soll ist einfach nur grotesk.

...

Ich weiß schon was du meinst.

Moralelastix
2006-11-15, 16:34:07
"Ich weiß schon was du meinst."

Na dann ist es doch nicht so unwarscheinlich das ATI dank eines kompakteren Entwurfs bei den Spannungswandlern viel Platz sparen könnte.

Coda
2006-11-15, 16:37:32
Meinen Quellen (und die sind normalerweise verlässlich) nach ist das PCB des R600 im Moment noch länger als das von G80 GTX. Das ist mein Problem...

deekey777
2006-11-15, 16:40:51
http://www.beyond3d.com/forum/showpost.php?p=865881&postcount=2432

Gast
2006-11-15, 16:41:19
Na dann ist es doch nicht so unwarscheinlich das ATI dank eines kompakteren Entwurfs bei den Spannungswandlern viel Platz sparen kann.Wie Coda schon gesagt hat, nutzt eben auch NV beim G80 diese Art Spannungswandler und trotzdem brauchen sie noch recht viel Platz auf dem PCB.

Ich kann mir kaum vorstellen, dass der Kram stimmt, den der Inq da wieder verbreitet. Vor allem an das 512-bit-SI will ich nicht so ganz glauben. Ich tippe auch eher auf 256 bit und hochtaktendem GDDR4.

Beim R520 wurde der gleiche Unsinn verbreitet (von wegen 8 Quads und iirc sogar 512-bit-SI) und was am Ende rauskam, wissen wir ja alle. Das gleiche bei G71. 32 Pipelines @ 750 MHz ahoi.

Gast
2006-11-15, 16:43:22
http://www.beyond3d.com/forum/showpost.php?p=865881&postcount=2432Da hat NV oder sonst jemand Fuad aber ganz schön an der Nase rumgeführt. ;)

StefanV
2006-11-15, 16:45:44
Sacht mal Leute, könnt ihr nicht lesen oder wollt ihr das nicht?!

Coda hat doch oben gesagt, WENN die Karte MEHR ALS 150W verbrät MUSS sie mindestens so lang sein, wie eine GX2.

Im Umkehrschluss könnt man daraus basteln, das die Karte kleiner sein könnte, wenn dem nicht so sein muss, die Karte also weit weniger verbrät, logisch, oder?!

Kleiner Denkanstoß: man hat ein paar Problemchen mit den Spannungsreglern, die auch irgendwie untergebracht werden 'dürfen'...

deekey777
2006-11-15, 16:46:26
Da hat NV oder sonst jemand Fuad aber ganz schön an der Nase rumgeführt. ;)
Und was lernen wir daraus? ;)

Überhaupt: Das mit dem längeren PCB ist alter Hut, TheInq macht wieder Newsverwertung.
Wenn ich mir aber das leere PCB der X1950Pro anschaue...

StefanV
2006-11-15, 16:46:41
Vielleicht verbaut Ati bei den neuen Karten diese neueren Spannungswandler die man schon hier und da auf den teueren Mainboards sehen kann?
Ohne Kondensatoren usw.
Du meinst, wie sie es auf der x1800 und x1900 getan haben?? :devil: :ugly:

deekey777
2006-11-15, 16:48:52
Du meinst, wie sie es auf der x1800 und x1900 getan haben?? :devil: :ugly:
X1950Pro.

Moralelastix
2006-11-15, 16:55:59
Das rechts unten?
http://www.xbitlabs.com/images/video/x1950pro-gf7900gs/rx1950pro_card_front_nc_bg.jpg

x1950xtx:
http://www.xbitlabs.com/images/video/ati-x1950xtx/atyt_rx1950xtx_card_pcb_bg.jpg

Palpatin
2006-11-15, 17:00:02
Die ham ja eh geschrieben: the board should not consume more power than a Geforce 8800GTX. Eigentlich ne ziemlich klare Aussage das es deutlich weniger sein wird kann ich mir aber beim besten willen net vorstellen.

Gast
2006-11-15, 17:33:13
Die ham ja eh geschrieben: the board should not consume more power than a Geforce 8800GTX. Eigentlich ne ziemlich klare Aussage das es deutlich weniger sein wird kann ich mir aber beim besten willen net vorstellen.

Etwa 10 - 50 Watt mehr, also an die 200.

Also jetzt wieder 64 USCs, also 16 TMUs und 16 ROPs.
Wenn man aber nicht dem Inq traut, dann werdens etwa 96 ALUs mit 32(24) TMUs und 16(12) ROPs.....mhhh.

Man ich will endlich richtige Informationen...^^

Gmax
2006-11-15, 18:59:35
http://www.theinquirer.net/default.aspx?article=35708

Wird wohl die schwerste Karte der PC Geschichte :eek:

Hvoralek
2006-11-15, 19:02:08
http://www.theinquirer.net/default.aspx?article=35708Was meinst Du, worum es die letzten beiden Seiten ging?

Gast
2006-11-15, 19:10:26
Das deckt sich doch mit den "imM 50 Watt mehr als die 8800 GTX, daran wird gearbeitet", die hier im Forum schon herumgeisterten.

Leute, lernt mal lesen. Da steht "thermal budget"

Gast
2006-11-15, 19:16:02
Nur schade, dass das schon immer so ist :rolleyes:

Der Rest ist genauso FUD. Wenn das Ding >150W verbraucht, was sicher so sein wird ist das PCB nicht kürzer als eine GX2. Unmöglich.

sag mal bitte was du für ne ausbildung hast ?

Majestic
2006-11-15, 20:01:22
Das würde mich auf mal interessieren. Bei so viel geballten interdiziplinären Wissen müssen seine synaptischen Verdrahtungen manigfalltig sein....
Nein war ein Witz ;) Aber interessieren würds mich wirklich :)

Gmax
2006-11-15, 20:12:46
Was meinst Du, worum es die letzten beiden Seiten ging?

lol sorry, hab ich übersehen.

tombman
2006-11-16, 03:38:24
Wie ist die Meldung zu werten, daß der R600 64 Vec4 hat? Sollte doch schneller als 128 Skalare sein, oder?

Die gelbe Eule
2006-11-16, 03:57:35
Wenn das Teil so schwer sein soll, was kann das dann bedeuten?
Massig Kupfer eingesetzt, weil das Teil scheiße heiß wird, was wiederum bedeutet hohe Verlustleistung und hoher Stromverbrauch.

Gerade hier sollten die Leute die beim G80 schimpfen erst recht Abstand nehmen.

Das Teil könnte schnell werden, nur welche Kompromisse muss man eingehen?

nagus
2006-11-16, 07:51:41
also laut aktuellen gerüchten sieht die sache folgendermaßen aus (aus dem rage3d-forum zusammengefasst)

R600
700-800Mhz core
64 Unified ALUs (256 scalar units)
16ROPs
1024-bit Ring Bus
512-bit External
1024MB-2048MB GDDR4 @ bis zu 2.2Ghz (140GB/s)

also ich find das super ;)
wer noch warten kann sollte vielleicht in erwägung ziehen, dass die g80 in ein oder 2 monaten deutlich günstiger wird bzw. für wen geld keine rolle spielt die R600 interessant werden könnte.

Winter[Raven]
2006-11-16, 08:33:41
Schau an, wer wieder da ist.......


wer noch warten kann sollte vielleicht in erwägung ziehen, dass die g80 in ein oder 2 monaten deutlich günstiger wird bzw. für wen geld keine rolle spielt die R600 interessant werden könnte.[/

Das Problem ist ja nur, das der G80 Refresh auch vor der Tür stehen wird...;D

Gouvernator
2006-11-16, 08:58:32
']Schau an, wer wieder da ist.......




Das Problem ist ja nur, das der G80 Refresh auch vor der Tür stehen wird...;D
Ja und ? Um dann wieder mit SLi eine Karte zu übeholen, das kennen wir...:biggrin:

nagus
2006-11-16, 09:29:08
']Schau an, wer wieder da ist.......




Das Problem ist ja nur, das der G80 Refresh auch vor der Tür stehen wird...;D

eh, es is eh immer das gleiche ;) nur finde ich persönlich, dass es in 2 monaten besser ist zu entscheinden... dann haben beide firmen den technologiesprung vollzogen und die designs werden sich die nächsten 2-3 jahre nicht so drastisch ändern... erst wieder wenn DX11 kommt. jetzt sofort auf das erstbeste pferd zu springen ist IMHO voreilig. warten schadet ja nicht ;) wer ungeduldig ist muss halt dann damit rechnen, dass in 2 monaten die geile grafikkarte (ich sag nichts gegen den g80... ist wirklich SPITZE das teil! extremst super!) überholt wird.

Gast
2006-11-16, 09:34:30
Ja und ? Um dann wieder mit SLi eine Karte zu übeholen, das kennen wir...:biggrin:

Hast du auch was sinnvolleres beizutragen als nur zu Bashen?

[MK2]Mythos
2006-11-16, 10:05:34
Wenn das Teil so schwer sein soll, was kann das dann bedeuten?
Massig Kupfer eingesetzt, weil das Teil scheiße heiß wird, was wiederum bedeutet hohe Verlustleistung und hoher Stromverbrauch.

Gerade hier sollten die Leute die beim G80 schimpfen erst recht Abstand nehmen.

Das Teil könnte schnell werden, nur welche Kompromisse muss man eingehen?

Erst PCIE 2.0, jetzt der "zu schwere Kühler".
Lies doch bitte erstmal genau was berichtet wird, bevor du verurteilst.
In der Meldung stand doch klipp und klar das der Kühler auch für zukünftige Grafikkarten mit bis zu 220 - 250 Watt Verlustleistung entwickelt wurde und das er bei der R600 Generation im Prinzip Overkill darstellt, also noch massig Reserven bietet. Ich finde anhand der bisherigen Gerüchte ist der Kompromiss zwischen Geschwindigkeit / Verbrauch / Hitzeentwicklung beim R600 weitaus besser als bei der R520 / R580 Generation.

BlackBirdSR
2006-11-16, 10:13:49
also laut aktuellen gerüchten sieht die sache folgendermaßen aus (aus dem rage3d-forum zusammengefasst)



So sieht die Sache nicht aus. Das sind nur bisherige Spekulationen mit teils möglichen Grenzwerten. Man sollte das auch so darstellen und nicht als eine Möglichkeit darstellen wie die Karte dann aussieht.


R600
700-800Mhz core
64 Unified ALUs (256 scalar units)
16ROPs
1024-bit Ring Bus
512-bit External
1024MB-2048MB GDDR4 @ bis zu 2.2Ghz (140GB/s)


Das mit den 256 scalar Units ist Schwachfug. Eine Vec4 Einheit auszulasten ist schwerer als bei einer skalaren Einheit. Das sollte klar sein. Dass diese Vec4 Einheiten auch nicht als 256 unabhängige ALUs betrieben werden können scheint wohl logisch. Somit sind 256 skalare Einheiten ein rein theoretischer Wert, wenn man unbedingt etwas braucht um den Leichtgläubigen vorzumachen, dass R600 so viel mehr Power als G80 hat.

Auch die 1GB-2GB GDDR4 bis zu 2.2GHz sind reichlich sinnlos.
Nur weil etwas im Bereich des Möglichen ist, muss dies noch lange nicht auscgeschöpft werden. ATI wäre schön blöd.
1GB Speicher mag durchaus logisch klingen bei einer 512Bit Anbindung. 2GB sind für PCs jedoch sinnlos (siehe Adressraum). Zumal der Preis und der Vorteil dadurch in keinerlei Relation stehen. Gleiches gilt für die Taktraten.
Warum 1.4GHz ausschöpfen, wenn man dadurch nur 5% gewinnt, allerdings 20% mehr Aufwand betreiben muss?





also ich find das super ;)
wer noch warten kann sollte vielleicht in erwägung ziehen, dass die g80 in ein oder 2 monaten deutlich günstiger wird bzw. für wen geld keine rolle spielt die R600 interessant werden könnte.

Ich find diese Art des Spekulations-Hype gar nicht super.
Du hättest es vielleicht so machen sollen:

R600
Angeblich 700-800Mhz Kern-Takt um schwächere Teile der Architektur auf benötigtes Level zu bringen.
64 Unified ALUs, wahrscheinlich Vec4. theoretisch leicht höhere Leistung (Takt mit eingerechnet), praktisch spielt auch Auslastung etc eine Rolle.
16ROPs, klingt wenig. Wird wohl durch den Takt ausgegelichen.
1024-bit Ring Bus
512-bit External
1024MB Speicher möglich bei 512-Bit Anbindung. 2GB für professionelle Modelle (64Bit Unterstützung fast schon zwingend. GDDR3/4 möglich. Taktraten theoretisch bis 1.4GHz. Praktisch wohl eher darunter um Spielraum nach oben zu haben. Ca 90-100GB/s Speicherbandbreite.

Ist natürlich nicht so schön kurz, knapp und beeindruckend gehyped. Aber... naja..

deekey777
2006-11-16, 10:39:21
also laut aktuellen gerüchten sieht die sache folgendermaßen aus (aus dem rage3d-forum zusammengefasst)

R600
[...]
also ich find das super ;)
wer noch warten kann sollte vielleicht in erwägung ziehen, dass die g80 in ein oder 2 monaten deutlich günstiger wird bzw. für wen geld keine rolle spielt die R600 interessant werden könnte.
Also ich finde, dass diese Specs nur eine Zusammenfassung hiervon ist:
http://www.theinquirer.net/default.aspx?article=35707
http://www.theinquirer.net/default.aspx?article=35708

Was interessantes:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4704279#post4704279

Gouvernator
2006-11-16, 10:43:05
Hast du auch was sinnvolleres beizutragen als nur zu Bashen?
Ich gehe immer von übertakteten Karten aus und in letzter Zeit war ATi immer so nach Gefühl 1,5mal schneller als NV. Und jetzige Specs bestätigen nur diesen Trend :tongue:

Gast
2006-11-16, 10:49:59
Ich gehe immer von übertakteten Karten aus und in letzter Zeit war ATi immer so nach Gefühl 1,5mal schneller als NV. Und jetzige Specs bestätigen nur diesen Trend :tongue:

Muss man es verstehen, was du da geschrieben hast?

Was für OC-Karten? 1,5 schneller in was? und welche jetzige Specs? Das einziege was wir derzeit mit sicherheit sagen können, ist das ATI die Karte sehr hoch takten muss, daraus läßt sich auf eine Schwäche in der Architektur schließen...

deekey777
2006-11-16, 10:53:12
Muss man es verstehen, was du da geschrieben hast?

Was für OC-Karten? 1,5 schneller in was? und welche jetzige Specs? Das einziege was wir derzeit mit sicherheit sagen können, ist das ATI die Karte sehr hoch takten muss, daraus läßt sich auf eine Schwäche in der Architektur schließen...
Was für eine Schwäche?
PS: Die 128 skalare ALUs des G80 laufen mit 1350 MHz: Ist das eine Schwäche der G80-Architektur?

Gouvernator
2006-11-16, 10:53:52
1,5 schneller in was?
Na! In hoher Auflösung plus AA ! Schon seit GF6800Ultra Zeiten...Wobei, die 6800Ultra konnte nicht mal BF2 flüssig darstellen...

Gast
2006-11-16, 11:04:35
Ja und ? Um dann wieder mit SLi eine Karte zu übeholen, das kennen wir...:biggrin:

Hat doch bestens funktioniert mit SLI und auch der GX2 findest du nicht?
Also ich gugge mir nur mal so die Verkaufszahlen und die Marktverbreitung seit der 6800 und dem G70 an.
Mehr muss man da ja nicht wissen, wer nun am ende den Sieg eingefahren hat und wer sich hat kaufen lassen bzw. ins Hintertreffen geraten ist :)

robbitop@work
2006-11-16, 11:08:30
Die Spannungsregler machen bei G80 GTX schon allein 1/3 des PCB aus und das sind schon digitale PWMs statt herkömlicher MOSFETs.

Und R600 verbraucht definitiv mehr, soviel ist sicher.

1. besteht ein PWM nicht aus nem FET und nem Tiefpassfilter?

2. der NVIO scheint ziemlich viel sinnlos PCB Fläche zu vergeuden

Gast
2006-11-16, 11:10:50
Was für eine Schwäche?
PS: Die 128 skalare ALUs des G80 laufen mit 1350 MHz: Ist das eine Schwäche der G80-Architektur?

DK777, ich spreche jetzt nicht von den einzelnen Domains die mit anderen Zahlen laufen... Wir Reden ja davon das ATI >700 Mhz anpeilt für den Chip. Was und wie hoch bei den Internas nun getaktet wird, müssen wir abwarten. Die hohe Taktung ist ja nicht zum Spaß, geht man dabei das Risiko ein, das die Margen und die Yelds in den Keller gehen.......

Gast
2006-11-16, 11:12:27
Ich gehe immer von übertakteten Karten aus und in letzter Zeit war ATi immer so nach Gefühl 1,5mal schneller als NV. Und jetzige Specs bestätigen nur diesen Trend :tongue:

Die "Specs" sind an den Haare herbeigezogen.

robbitop@work
2006-11-16, 11:14:06
Und wo sind dann die Spulen?
Für einen Tiefpassfilter braucht man nicht unbedingt Spulen. Endweder man schaltet Tiefpassfilter (also ein RC - Spannungsteiler) in Reihe, um die Glättung zu verbessern oder man fügt eine Spule dem RC Glied hinzu.
Natürlich ist die Sache hier ein wenig komplexer, da es sich ja um aktive Tiefpassfilter und nicht um passive handelt.

robbitop@work
2006-11-16, 11:15:38
http://www.bit-tech.net/news_images/foxconn_digital_pwm_technology/article_img.jpg

Bit-tech.net:
CeBIT 2006: We saw an interesting new implementation on a couple of Foxconn motherboards today. They've managed to re-work the circuitry that regulates the voltage supplied to the CPU.

Rather than the standard capacitors and PWM mosfets, Foxconn has implemented a digital ASIC and a number of SMD components. This means that the space around the CPU socket is improved, because there are no capacitors likely to impede with some of the larger heatsinks available on the market.

That's not all though, Foxconn claim that their PWM design improves the cooling properties of the motherboard. In fact, their digital PWM should also improve the stability of the voltage supply to the processor, meaning that there should be improvements in vCore stability when overclocking.

There are some smaller PWMs that are cooled by a very small heatsink, but overall the area seems to run cooler and without obstruction from the large capacitors that can often hinder larger heatsink installations.

PWMs ohne Tiefpassfilter? Dann müssen die ja ziemlich hoch takten...

Zocker_28
2006-11-16, 11:15:54
Hab hier noch was gefunden:

http://www.xbitlabs.com/news/video/display/20060525104243.html

deekey777
2006-11-16, 11:17:46
DK777, ich spreche jetzt nicht von den einzelnen Domains die mit anderen Zahlen laufen... Wir Reden ja davon das ATI >700 Mhz anpeilt für den Chip. Was und wie hoch bei den Internas nun getaktet wird, müssen wir abwarten. Die hohe Taktung ist ja nicht zum Spaß, geht man dabei das Risiko ein, das die Margen und die Yelds in den Keller gehen.......
Sieh dir mein Posting richtig an: Da ist eine Frage, die du nicht beantwortet hast oder nicht beantworten kannst.
Darum:
Hast du auch was sinnvolleres beizutragen als nur zu bashen?
Also noch mal:
Das einziege was wir derzeit mit sicherheit sagen können, ist das ATI die Karte sehr hoch takten muss, daraus läßt sich auf eine Schwäche in der Architektur schließen...
Was für eine Schwäche?

Gouvernator
2006-11-16, 11:22:37
ATi takten die Karte deshalb so hoch um NV wieder mal in gewohnter Manier in den A%$& zu treten :D

deekey777
2006-11-16, 11:24:37
ATi takten die Karte deshalb so hoch um NV wieder mal in gewohnter Manier in den A%$& zu treten :D
Noch so ein sinnvoller Beitrag und du kriegst 'ne Auszeit zum Nachdenken.

Gast
2006-11-16, 11:26:49
Egal wie die Leistungen real sind, meist entscheidet Marketing und Gerüchte die realen Verkaufzahlen. Deswegen stört es mich, dass immer polemisiert wird, anstatt faktennah zu bleiben. Das ist hier leider auch häufig der Fall. Nicht dass es auch Gegenstimmen gibt, aber gerade im Vorfeld ist es doch augenfällig, gerade was die Meinungsbildner angeht.

schapy
2006-11-16, 11:39:59
Hauptsache schnell - DX10 finde ich noch uninterressant!

Matthias1981
2006-11-16, 11:41:11
Warum müssen denn die ganzen Nvidia Fanboys hier immer reinschreiben. Des issn Ati Thread. Fahr mal mim BMW nachts zum Wörthersee treffen. Is des selbe dass da geflamt wird. aber muss halt im jeweiligen Thread bleiben

deekey777
2006-11-16, 11:43:53
Warum müssen denn die ganzen Nvidia Fanboys hier immer reinschreiben. Des issn Ati Thread. Fahr mal mim BMW nachts zum Wörthersee treffen. Is des selbe dass da geflamt wird. aber muss halt im jeweiligen Thread bleiben
Das reicht jetzt. Ab hier werden Postings weder gelöscht nocht verwarnt.

Gouvernator
2006-11-16, 11:47:05
Die reagieren ausserst überempfindlich wenn NV wieder hinten liegt, egal ob in richtigen benchmarks oder nur in Gerüchten :) Aber, ATi taktet deshalb so hoch um gewissen Polster zu haben, damit NV nicht schon beim nächsten G8x komplett die Nase vorne hat.

deekey777
2006-11-16, 12:10:45
Die reagieren ausserst überempfindlich wenn NV wieder hinten liegt, egal ob in richtigen benchmarks oder nur in Gerüchten :) Aber, ATi taktet deshalb so hoch um gewissen Polster zu haben, damit NV nicht schon beim nächsten G8x komplett die Nase vorne hat.
Nein, so einfach ist das nicht, man braucht deutlich mehr als nur mehr Takt. Wenn man eine X1950XTX mit 700 MHz laufen läßt, erreicht sie dann die Leistungen der 8800GTX? Oder gleich mit 900 MHz?
Beim R600 wird man brauchen: hohen Takt und mehr Recheneinheiten, um mit dem G80 mitzuhalten.

DrumDub
2006-11-16, 12:38:31
Die Diskussion um X1950XTX vs. 8800GTX ist jetzt hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=333373

Das Thema des Threads ist R600!

xL|Sonic
2006-11-16, 12:39:59
Laut den letzten "News" vom Inq soll der R600 doch ein 512er SI haben. Ist da was dran? Bräuchte man denn dann überhaupt noch so hohe Taktraten um den G80 zu schlagen? Die Bandbreite müsste dann mit GDDR4 ja um ein vielfaches höher sein oder?

DrumDub
2006-11-16, 12:41:41
Laut den letzten "News" vom Inq soll der R600 doch ein 512er SI haben. Ist da was dran? ist extrem unwahrscheinlich, wegen eines dazu nötigen 20layer pcbs, das einfach zu teuer wäre... aber auschließen kanns wohl keiner...

xL|Sonic
2006-11-16, 12:46:00
Sollte der R600 aber erst im 1. Quartal 2007 erscheinen, wäre es dann nicht wahrscheinlicher? Das sind ja je nachdem bis zu 5 Monate noch. Sodass man quasi eine XTX mit 512er SI anbietet, die es nur in sehr geringen Stückzahlen gibt um die Benchmarkkrone überlegen für sich zu entscheiden und die XTs dann mit einem kleineren SI ausstatten auf einem "kleineren" PCB mit weniger Speicherbestückung?

robbitop@work
2006-11-16, 12:58:41
Die Inquirer Specs scheinen ziemlich danaben zu liegen. Ist eben blöd, wenn man sich mit jedem Müll abfertigen läßt und ohne nachzudenken es einfach nur postet.
AiL hat ja einen netten Link gegeben, auf dem ein B3D'ler sich die Mühe gemacht hat, zusammenzusammeln, was TheInq zum G80 alles geschrieben hat.
Drin stand nur Crap (32 Pixelpipelines und 16 VS/ dann was zu 48 gemischten Pipes uswusf).
In letzter Zeit versuchen die IHVs mit Absicht die Leute auf's Glatteis zu führen und streuen absichtlich Fehlinfos. (das ging mit NV4x/R4xx los -> Extremepipelines, oder den 6x2 Pipes im NV40 +2x2 aus dem VS *lol*)
Beim G80 wurde auch jeder nassgemacht, als plötzlich ein USC vor uns stand und Kirk monate vorher noch impliziert hat, dass NV an keinem USC baut.

Die Specs klingen IMO sinnfrei. Man muss bedenken, dass das Ganze 1. bezahlbar sein soll und 2. Gewinn bringen muss.
GDDR4 mit hohem Takt macht bei 256 Bit Sinn. Zwar würde ich Orton nicht unbedingt glauben schenken, da er ähnliches erzählen könnte wie Kirk damals aber er redete von 96 Shader-Units.
AiL, mit verdammt guten Quellen, redet von 24 TMUs, 16 ROPs und ~500 Mio Transistoren. Das passt alles recht gut zusammen. Die aritmetische Leistung wäre bei über 0,5 TFLOPs/sec. Das Teil wäre ca 2xR580 von der Performance und es gäbe mal wieder ein Kopf an Kopf rennen. Aber auch das ist nur eine Speku von vielen.

Aber ca 2x Vorgängerspeed bringt man seither bei jeder Generation schon. Das tat auch NV, also wird's knapp.

Gast
2006-11-16, 13:10:34
Die reagieren ausserst überempfindlich wenn NV wieder hinten liegt, egal ob in richtigen benchmarks oder nur in Gerüchten :) Aber, ATi taktet deshalb so hoch um gewissen Polster zu haben, damit NV nicht schon beim nächsten G8x komplett die Nase vorne hat.

Na hoffentlich geht das für ATI nicht so in die Hose wie bei der X1800XT oder auf den Nachfolgern.
Der G80 hat schon ordentlich vorgelegt und ist "nur" in 0.09 gefertigt und es gibt ein Zeitfenster von mindestens 4 Monaten, dass Nvidia vorn liegt. Das ist schon ein ziemlich fetter Happen.

Und momentan muss eigentlich niemand der nun ein NV "Fanboy" oder sonst etwas ist panisch werden, wobei da sowieso albern ist, da es hier nur im Grafikkarten geht und ich nichts davon habe ob nun ATI oder NV vorn liegen.

Aber aktuell können diejenigen die meinen, dass Nvidia unbedingt vorne liegen muss sich eigentlich gemütlich zurücklehnen. Gerüchte sind wie gesagt das was sie sind "Gerüchte" und bis es fertige Produkte im Laden wirklich zu kaufen gibt, sind diese Daten irrelevant.
G80 gibts zu kaufen, bietet die beste Bildqualität mit der weit besten Performance. Als Bonus gibt es schon heute DX10 Unterstützung. Die Karte hat also eine gewisse "zukunftsfähigkeit" und wird die größere Verbreitung bei Entwicklungsstudios finden.
Von ATI gibbet in dieser Richtung halt zur Zeit und in den nächsten Monaten schlicht und ergreifend nichts ausser heisse Luft.

Gast
2006-11-16, 14:32:34
Na hoffentlich geht das für ATI nicht so in die Hose wie bei der X1800XT oder auf den Nachfolgern.
Der G80 hat schon ordentlich vorgelegt und ist "nur" in 0.09 gefertigt und es gibt ein Zeitfenster von mindestens 4 Monaten, dass Nvidia vorn liegt. Das ist schon ein ziemlich fetter Happen.

Aber aktuell können diejenigen die meinen, dass Nvidia unbedingt vorne liegen muss sich eigentlich gemütlich zurücklehnen. Gerüchte sind wie gesagt das was sie sind "Gerüchte" und bis es fertige Produkte im Laden wirklich zu kaufen gibt, sind diese Daten irrelevant.
G80 gibts zu kaufen, bietet die beste Bildqualität mit der weit besten Performance. Als Bonus gibt es schon heute DX10 Unterstützung. Die Karte hat also eine gewisse "zukunftsfähigkeit" und wird die größere Verbreitung bei Entwicklungsstudios finden.
Von ATI gibbet in dieser Richtung halt zur Zeit und in den nächsten Monaten schlicht und ergreifend nichts ausser heisse Luft.

Was hat das mit dem R600 zu tun.
Der X1800XT und die Nachfolger sind nicht in die Hose gegangen. Da war imho ein sehr nettes Produkt.

Ich würde gern mal wissen wie real die Daten von Inq sind. Wenn Ail wenigstens die Specs hat, soll er doch sagen, ob es sich hierbei um Unug handelt oder ob nur einige Infos falsch sind.

Onkeltom421
2006-11-16, 15:31:38
Was hat das mit dem R600 zu tun.
Der X1800XT und die Nachfolger sind nicht in die Hose gegangen. Da war imho ein sehr nettes Produkt.

Ich würde gern mal wissen wie real die Daten von Inq sind. Wenn Ail wenigstens die Specs hat, soll er doch sagen, ob es sich hierbei um Unug handelt oder ob nur einige Infos falsch sind.

Wenn er unter NDA steht darf er es nicht sagen.

andererGast
2006-11-16, 15:32:52
Der X1800XT und die Nachfolger sind nicht in die Hose gegangen. Da war imho ein sehr nettes Produkt.Für ATI ist das Projekt x1800xt mächtig in die Hose gegangen. So meinte das wohl auch der andere Gast. Klar war sie dann trotzdem eine brauchbare Karte mit konkurrenzfähiger Performance, aber sie hätte eben einige Monate früher kommen müssen.

Gast
2006-11-16, 15:38:38
Für ATI ist das Projekt x1800xt mächtig in die Hose gegangen. So meinte das wohl auch der andere Gast. Klar war sie dann trotzdem eine brauchbare Karte mit konkurrenzfähiger Performance, aber sie hätte eben einige Monate früher kommen müssen.

genauso hab ich es gemeint :)
Monate zu spät, ergonomisch ineffizienter als die Konkurenz und mit kurzem GTX512 Update dann auch gleich wieder in die Schranken gewiesen. Von der späteren GX7 wollen wir lieber erst gar nicht reden.
Beim R600 muss ATI sich schon ordentlich ins Zeug legen. Wie gesagt ich habe nichts davon, wenn der R600 schlecht wird bin aber erstmal nur pessimistisch aufgrund des deutlich späteren Erscheinens. Sollte es eine X1800XT werden glaube ich nämlich, dass es das letzte High End Produkt von ATI war. Ich denke da sollten alle entsprechend vorgewarnt sein.
Der R600 muss was reissen ansonsten dreht AMD in diesem Marktsegment den Geldhahn zu.

Gast
2006-11-16, 15:39:18
[QUOTE=Gast]genauso hab ich es gemeint :)
Von der späteren GX7 wollen wir lieber erst gar nicht reden.
QUOTE]
GX2 meinte ich!

deekey777
2006-11-16, 15:41:52
Für ATI ist das Projekt x1800xt mächtig in die Hose gegangen. So meinte das wohl auch der andere Gast. Klar war sie dann trotzdem eine brauchbare Karte mit konkurrenzfähiger Performance, aber sie hätte eben einige Monate früher kommen müssen.

Wäre die X1800er ein paar Monate früher veröffentlicht worden, so wäre die X1800XT mit 500-550 MHz getaktet. Es gab irgendein Problem mit fremder IP, das den Takt auf höchstens 550 MHz begrenzte, womit die Fertigstellung des R520, aber auch des R580 verzögert wurde.

Ja, die letzten 12-18 Monate sind nicht ganz rosig für ATi, aber wenn man bedenkt, dass der R600 zum größten Teil auf der R520-Technologie basieren soll, gleicht es sich wieder aus (sprich es war nicht ganz umsonst).

robbitop@work
2006-11-16, 15:44:34
Ja, die letzten 12-18 Monate sind nicht ganz rosig für ATi, aber wenn man bedenkt, dass der R600 zum größten Teil auf der R520-Technologie basieren soll, gleicht es sich wieder aus (sprich es war nicht ganz umsonst).
Das möchte ich bezweifeln. Woher hast du das?

Hvoralek
2006-11-16, 18:51:39
Hab hier noch was gefunden:

http://www.xbitlabs.com/news/video/display/20060525104243.htmlDas ist von Mai diesen Jahres ;)

MMn auch nicht wirklich interessant, sondern leeres Marketingbla.

[](-__-)[]
2006-11-16, 19:47:08
Alt? http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/neue_geruechte_atis_r600-chip/

512 BIT ;D

Hvoralek
2006-11-16, 19:49:06
(-__-)[]']Alt? http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/neue_geruechte_atis_r600-chip/

512 BIT ;DDie käuen doch einfach nur das wieder, was der Inqui*hust* zuletzt geschrieben hat.

Gast
2006-11-16, 20:17:18
Nie und nimmer 512 Bit...

Ich glaube einfach das der Inq einfach alte News mit neuen Gerüchten kombiniert....mehr nicht...
Keine 64 Vec4 Usc sonder 96 Vec3...

Gast
2006-11-16, 20:19:04
Das möchte ich bezweifeln. Woher hast du das?

Razor1 hat das geschrieben...(anderes Forum^^)

Das scheint auch der Fall zu sein, es sieht jedenfalls danach aus.

deekey777
2006-11-16, 20:21:59
Das möchte ich bezweifeln. Woher hast du das?
http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
Wo ich das mit dem Teil aufgeschnappt habe, weiß ich gar nicht mehr.