PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 2


Seiten : [1] 2 3 4 5

deekey777
2006-12-11, 11:52:25
Was allgemeines: Postings wie "R600 ist Müll" oder "R600 macht alles platt" sind sehr unerwünscht, auch unerwünscht sind Postings mit Kaufabsichten ohne weiteres. Bleibt sachlich, hier geht es nicht um Wünsche, sondern um unbestätigte Infos.
Weiterhin: Verzichtet aufs OT. Das ist sehr störend und zerstört den Thread. Ein kleiner Ausflug in die Geschichte ist unproblematisch, um die heutigen Probleme zu erklären, mehr ist nur störend.
Über die Leistung der aktuellen 8800 gibt es einen eigenen Thread im Grafikchips-Forum, hier haben Diskussionen über diese im Bezug auf die X1950 nichts zu suchen.
"Specs" (http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187):
Der R600 ist ein Hybrid aus dem R520/R580 und dem Xenos
96 ALUs (hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4946911#post4946911)), Unified Shader Architektur
sehr flexibel
höherer Verbrauch als beim G80 (bis zu 50 W)
80 nm gefertigt
Der R600 hat mit dem Xenos weniger gemeinsam, als man denkt. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4951196#post4951196)
Die Diskussion ab hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4945285#post4945285).
ATI dives into stream computing (http://www.techreport.com/etc/2006q4/stream-computing/index.x?pg=1)
The next generation, he said, could potentially have 96 shader processors and will exceed half a teraflop of computing power.
ATI has R600 silicon out: Game developers and special customers have it (http://www.theinquirer.net/default.aspx?article=35614)
ATis R600 setzt auf PCIe 2.0? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/november/atis_r600_pcie_20/)
[ATi R600 Card Re-Design In Progress] (http://www.vr-zone.com/?i=4293)
Nicht uninteressant:
From China with Love [G80, R600 and G81 info] (http://forums.anandtech.com/messageview.cfm?catid=31&threadid=1949593)
Bilder des R600? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5022261#post5022261)
750 MHz und keine Taktdomains? (http://www.beyond3d.com/forum/showpost.php?p=885260&postcount=1226)
Neue Infos? (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5070847#post5070847)
Develop Conference 2006 - D3D10 (http://www.beyond3d.com/articles/develop-d3d10/)
Moving on to D3D10, Richard mentioned that the first D3D10 drivers under Vista won't be heavily optimised, and that using existing ATI D3D9 hardware on Vista, or the upcoming new part, will show modest improvements because of the new runtime. But given that developers currently code around a flawed runtime and driver model, performance differences won't be huge.
512-bit-Speicherinterface. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5084861#post5084861)
Wie immer: Wenn irgendwas fehlt, schreibt mir eine PM. Und bevor ihr etwas fragt, schaut unbedingt in den ursprünglichen Thread rein.
R600 schon im dritten Quartal 2006? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273969)
Letztes Posting. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4975480#post4975480)
Teil 1.

Gast
2006-12-11, 14:33:03
Hast für die bis zu 50 Watt höheren Verbrauch auch ne Quelle? Ich mein das bei 80nm keine Quelle steht ist ok da das mittlerweile ein weitbekannter Fakt sein sollte.
Beim Verbrauch kann aber sicher streiten ich kann mich hier an News erinnern in welchen gesagt wurde das der R600 eben nicht mehr als ein G80 verbrauchen wird.

Snoopy1978
2006-12-11, 15:50:18
Also ich kann mich erinnern das im September oder Oktober in der Gamestar gestanden hat das der R600 etwa 180 bis 200 Watt schluckt.
Diese Angaben waren eine Reaktion darauf, das ein Online-Magazin (welches behauptet hatte eine komplette Grafikkarte mit Ati´s kommendem Flaggschiff R600 gesichtet zu haben) berichtet hatte daß der Chip eine 3-Slot Kühlung spendiert bekommt und 300 Watt saugt.Das mit der 3-Slot Kühlung wurde auch hier im Forum diskutiert und die 3-Slot geschichte auch.

Gast
2006-12-11, 16:01:51
Das ist korrekt. Aber bei nV laufen sie ja dafür mit doppeltem Takt.
Mit welchem Takt sie beim R600 laufen werden ist ja noch nicht gesagt.

K4mPFwUr$t
2006-12-11, 16:02:50
man bedenke das ATI sicherlich damals einen unoptimierteren R600 core hatte als er zum release sein wird. 300w wäre etwas viel, liegt an der unoptimierten karte von damals und 3 slot kühler muss auch nicht kommen ...

AnarchX
2006-12-11, 16:03:46
Mit welchem Takt sie beim R600 laufen werden ist ja noch nicht gesagt.
Momentan ist aber der Informationsstand "keine Taktdomains beim R600", wenn man welche hätte dann würde man wohl auch nicht den Rest des Chips auf 700-800MHz bringen "müssen".

Gast
2006-12-11, 16:07:59
Also ich kann mich erinnern das im September oder Oktober in der Gamestar gestanden hat das der R600 etwa 180 bis 200 Watt schluckt.In der Gamestar stand auch mal, dass R520 mit Sicherheit 32 Pipelines haben wird.

Gast
2006-12-11, 16:46:21
ich verstehe nicht, daß jetzt auch noch auf dem r420 rumgehackt wird. auf längere sicht war der r420, wie man jetzt leicht belegen kann, die weitaus permormantere alternative als der g40! s.h. ne x800xtpe ist in etwa das equivalent zum 7800gt, in bezug auf performance.[...]
Dafür solltest du andere Dinge nicht vergessen: Wie lange konnten X8xx-User bsw. Splinter-Cell 3 nur im 1.1-Modus spielen? Können Sie bis heute Far Cry mit HDR-Rendering auf ihrem PC sehen? Oblivion? Echtzeitschatten in G3?

Und das sind nur die Dinge, die mir aktuell gerade einfallen. Performance ist zwar sehr wichtig, aber ganz sicher nicht alles. Für High-End hat Ati mit dem R580 alles richtig gemacht (bis auf den Kühler), aber im Mainstream hat man erst jetzt mit der X1950 Pro brauchbar (bezogen nicht nur auf Fps und BQ) nachgelegt. Im Lower Mainstream gibts auch erst seit kurzem die sehr brauchbare X1650 XT (obwohl dieses Segment mir allgemein schon zu lahm ist). Mobil fängt Ati erst langsam an, wieder neu Fuß zu fassen.

Ailuros
2006-12-11, 21:34:46
Momentan ist aber der Informationsstand "keine Taktdomains beim R600", wenn man welche hätte dann würde man wohl auch nicht den Rest des Chips auf 700-800MHz bringen "müssen".

Es gibt nur eine Frequenz fuer den core.

nagus
2006-12-12, 06:21:29
What did we learn? Unfortunately, some of the more exciting items are under NDA until CES but we did pick up a few tidbits here and there. It appears the AMD/ATI R600 graphics cards are still on schedule for an early Q1 2007 launch and should provide some very serious competition to the GeForce 8800 series. However, all of the expected benefits and performance improvements of this release will also bring some serious power requirements. We heard power consumption numbers hovering around 430~450W for the high-end CrossFire setup while under full load. Those are power requirements just for the cards according to our sources who said the first silicon spins actually consumed even more power. What the final numbers will be is anyone's guess but be prepared to start looking at 800W+ power supplies in the near future if you want to run extreme performance GPU configurations.

Quelle: http://www.anandtech.com/tradeshows/showdoc.aspx?i=2887

Lenon
2006-12-12, 06:28:13
Oh Gott... also wenn sich das doch bewahrheitet, dann geht das ganze für mich in die falsche Richtung :(

Dabei bin ich sooo frittig auf den R600

seahawk
2006-12-12, 07:11:42
430-440W für ein Crossfire System ist besser als G80.

Gast
2006-12-12, 07:28:27
430-440W für ein Crossfire System ist besser als G80.Richtig lesen. ;)
Those are power requirements just for the cardsDas wäre also keineswegs besser als G80.

X.Perry_Mental
2006-12-12, 08:49:38
We heard power consumption numbers hovering around 430~450W for the high-end CrossFire setup while under full load. Those are power requirements just for the cards according to our sources who said the first silicon spins actually consumed even more power.
430~450W nur für Crossfire /2 = 215~225W für eine Karte unter Voll-Last (schreibt man das jetzt in einem Wort mit 2 oder 3 L ?). Das passte dann recht gut zu den alten Inquirer-Gerüchten (http://uk.theinquirer.net/?article=35708), wonach der Kühler (größer als die Platine) 250W abführen kann, und ca. 15% "überdimensioniert" ist. Ca. 220W für die Top-Karte als Maximum ist aber schon heftig.

Lenon
2006-12-12, 09:07:52
Ca. 220W für die Top-Karte als Maximum ist aber schon heftig.

Das ist für viele sicherlich ein KO Kriterium

Ailuros
2006-12-12, 09:30:50
Der Stromverbrauch von Multi-GPU Systemen ist nie X/2 fuer jede einzelne GPU.

http://www.techreport.com/reviews/2006q3/radeon-x1950xtx/index.x?pg=9

X1950XTX@CF = 370W
X1950XTX = 270W
----------------------
Differenz = +37%

Gast
2006-12-12, 09:35:23
Das wäre noch schlimmer...
Aber ich bezwefeil, dass eine r600 Karte mehr als 150 Watt verbrauchen wird. Im schlimmsten Fall wird es wohl um die 20 Watt mehr sein als bei der 8800GTX.

LovesuckZ

X.Perry_Mental
2006-12-12, 09:38:20
Der Stromverbrauch von Multi-GPU Systemen ist nie X/2 fuer jede einzelne GPU.

http://www.techreport.com/reviews/2006q3/radeon-x1950xtx/index.x?pg=9

X1950XTX@CF = 370W
X1950XTX = 270W
----------------------
Differenz = +37%
Eine X1950XTX braucht 270W? Dann ist der R600 ja sparsamer ?! Und warum ziehen beide Karten zusammen nur 100 Watt mehr?

EDIT: Habe gerade im verlinkten Artikel gesehen, dass das die Last des kompletten Rechners an der Steckdose ist - damit klärt sich das dann. Die Rechnung von oben stimmt dann aber so nicht ganz, da die Last für beide R600-Karten ohne Rechner angegeben war. Da kommt mir die /2 Rechnung dann schon nicht mehr so verkehrt vor.

Tomi
2006-12-12, 10:04:48
Für mich geht der Stromverbrauch Wahn ist eine unschöne Richtung. Vor allem da man ja nicht nur daddelt. Wenn der Rechner selbst beim Internet surfen 400 Watt zieht, ist für mich absolut die Grenze überschritten.

Der Trend geht dann wohl zum Zweitrechner für Office und Internet und zum spielen wird dann die Höllenmaschine hochgefahren und Frauchen muss dann in der Zeit den PLASMA ausschalten und auf der 37cm Röhre im Schlafzimmer gucken ;).

Wann ist denn mal bei Grafikkarten mit einer anderen Technologie als Brute Force zu rechnen? Beim P4 hatte ich mich schon vor 2 Jahren gefragt, wie man 4 GHZ (die dann doch nicht kamen) kühlen will. Dann kam der C2D....effizienter, sparsamer, kühler.

Warum geht das nicht auch bei Grafikkarten?

Ailuros
2006-12-12, 10:16:13
Das wäre noch schlimmer...
Aber ich bezwefeil, dass eine r600 Karte mehr als 150 Watt verbrauchen wird. Im schlimmsten Fall wird es wohl um die 20 Watt mehr sein als bei der 8800GTX.

LovesuckZ

Anand hat sich wohl verfuselt, denn das Zeug klingt mir eher nach System-Verbrauch.

seahawk
2006-12-12, 10:19:12
Fpr die XTX ist es ca. 380W zu 270W Last bei CF gegen Single Card für das Gesamtsystem. Also rein GPU betrachtet ungefähr 80-90%.

Das könnte schon bis zu 150W+ für eine Karte bedeuten.

Wobei man wirklich auf die Kühllösung gespannt sein muss, Mir wurde schon merhfach gesagt, dass man das Ding sinnvoll eigentlich nur wasserkühlen kann, da es mit Kühler spürbar größer als ne 8000GTX ist.

Ailuros
2006-12-12, 10:23:03
ROFL aus 230 mach 150 :P

http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=16

Ein high end System bestueckt mit einer GTX wird zwischen 280 und 300+W (je nach Fall) gemessen.

Waeren es tatsaechlich 230W oder mehr fuer die GPU, wuerde die G80 gegen eine R600 eher wie ein IGP aussehen LOL ;D

***edit: ein kleiner Anhang denn es wird nicht mehr lange dauern bis die ersten zuverlaessigen Infos heraussickern. Ich hab zwar oefters gewarnt dass es kein "G80-Killer" ist, aber seid vorsichtig beim durchlesen von den wahren Spezifikationen. Eine erste Reaktion in der Art "ist das alles" liegt total daneben. R600 ist durchaus konkurrenzfaehig, man kann aber bei falschen Interpretationen sehr leicht zu vorzeitigen und falschen Schlussfolgerungen kommen. ;)

******edit Nr.2:

http://www.beyond3d.com/forum/showpost.php?p=889679&postcount=1363 ;)

seahawk
2006-12-12, 10:45:15
Wenige aber extrem felxibele Einmheiten. Sagen wir 64 Scalar Ops gegen 128, die dafür aber wesentlich weniger Leerlauf haben, wenn sie branchen müssen.

ShadowXX
2006-12-12, 11:03:23
Anand hat sich wohl verfuselt, denn das Zeug klingt mir eher nach System-Verbrauch.
Ich glaube nicht das Anand sich da "verfuselt" hat, sonst würde das nicht so deutlich extra im Text stehen (wobei man natürlich anmerken muss, dass es sowieso eine 3te Quelle Zitiert wird):

Those are power requirements just for the cards according to our sources who said the first silicon spins actually consumed even more power.

ShadowXX
2006-12-12, 11:05:04
Wenige aber extrem felxibele Einmheiten. Sagen wir 64 Scalar Ops gegen 128, die dafür aber wesentlich weniger Leerlauf haben, wenn sie branchen müssen.
AFAIK ist der G80 beim branchen verdammt gut (besser als ein r580).

seahawk
2006-12-12, 11:10:19
ROFL aus 230 mach 150 :P

http://www.techreport.com/reviews/2006q4/geforce-8800/index.x?pg=16

Ein high end System bestueckt mit einer GTX wird zwischen 280 und 300+W (je nach Fall) gemessen.

Waeren es tatsaechlich 230W oder mehr fuer die GPU, wuerde die G80 gegen eine R600 eher wie ein IGP aussehen LOL ;D

***edit: ein kleiner Anhang denn es wird nicht mehr lange dauern bis die ersten zuverlaessigen Infos heraussickern. Ich hab zwar oefters gewarnt dass es kein "G80-Killer" ist, aber seid vorsichtig beim durchlesen von den wahren Spezifikationen. Eine erste Reaktion in der Art "ist das alles" liegt total daneben. R600 ist durchaus konkurrenzfaehig, man kann aber bei falschen Interpretationen sehr leicht zu vorzeitigen und falschen Schlussfolgerungen kommen. ;)

******edit Nr.2:

http://www.beyond3d.com/forum/showpost.php?p=889679&postcount=1363 ;)

Naja, 230W+ würde langsam selbst mit 2 Stromanschlüssen auf der Karte eng werden. Um 200W-220W dürften aber wahrscheinlioch sein sein.

Coda
2006-12-12, 11:15:37
200W? das kann ich mir nicht vorstellen. 150W okay...

deekey777
2006-12-12, 12:25:50
Say, how would you guys feel about much simplified ALUs (in that they're pipelined and do less each clock), but that you get four scalar ones for each single vector one? Like with the 8800? And that they're individually relocatable (in that you make batches of all the ones who have to execute the same op), instead of simple quads?
Erinnert mich an das:
http://www.heise.de/ct/06/24/032/default.shtml
Die Shader-ALUs sind „unified“ ausgelegt und lassen sich je nach Bedarf als Vertex- oder Pixel-Shader konfigurieren. Für die üblichen Berechnungen schaltet Nvidia beispielsweise vier ALUs zusammen, die als Vertex-Shader einen Koordinatenvektor (x,y,z,w) und als Pixel-Shader einen Pixel-Farbwert (r,g,b,alpha) verarbeiten. In herkömmlicher Zählweise besitzt der GeForce 8800 GTX also 32 Shader-Einheiten, die es in der Konfiguration von 8 Vertex- und 24 Pixel-Shadern beim GeForce 7800 auch schon gibt. Seine höhere Leistung bezieht der Chip in erster Linie aus der von 650 auf 1350 MHz gesteigerten Taktfrequenz. Zusätzlich sollen die 8800er-ALUs effizienter sein, da der Chip sich je nach Situation unterschiedlich konfigurieren kann und seine 32 Shader-Einheiten damit besser auslastet.
Und das, was die c't schreibt, ist absoluter Quark.
Es macht einfach keinen Sinn, 4 scalare ALUs zusammenzuschalten.

Gast
2006-12-12, 12:33:51
******edit Nr.2:

http://www.beyond3d.com/forum/showpost.php?p=889679&postcount=1363 ;)
Klingt interessant. Leider kann ich DiGuru momentan nicht so ganz einordnen, was seinen "Informationsgrad" anbelangt. Aber _ein_ 'freier' Pool aus vielen Skalarprozessoren wäre natürlich schöner, als acht Pools aus vielen:16 Skalarprozessoren.

Allerdings wäre das IMO auch mit einer nochmals komplizierteren Steuerlogik usw. verbunden - wenn es wirklich so ist, wie es klingt: Die Abschaffung des Quads.

Gast
2006-12-12, 12:34:31
Es macht einfach keinen Sinn, 4 scalare ALUs zusammenzuschalten.
Erklärung?

Coda
2006-12-12, 12:40:25
Weil man dann gleich Vec4-ALUs verwenden kann. Die skalaren Einheiten haben den Vorteil das keine "Bubbles" auftreten, in denen eine oder mehrere Komponenten der Vec4-ALU nicht benützt werden können (z.B. wenn man nur Vec3 rechnet - was nicht so ungewöhnlich ist).

ShadowXX
2006-12-12, 12:42:35
Klingt interessant. Leider kann ich DiGuru momentan nicht so ganz einordnen, was seinen "Informationsgrad" anbelangt. Aber _ein_ 'freier' Pool aus vielen Skalarprozessoren wäre natürlich schöner, als acht Pools aus vielen:16 Skalarprozessoren.

Allerdings wäre das IMO auch mit einer nochmals komplizierteren Steuerlogik usw. verbunden - wenn es wirklich so ist, wie es klingt: Die Abschaffung des Quads.
Nur wäre so ein Design wie du es dir vorstellst wohl nicht skalierbar (für Midrange und Low-Cost).

Coda
2006-12-12, 12:46:33
Nicht unbedingt. Wenn die Steuerlogik so ausgelegt ist dass sie mit n ALUs umgehen kann wäre das schon möglich.

deekey777
2006-12-12, 12:57:45
Erklärung?
Weil du damit den Output reduzierst. Der G80 bzw. seine Vec16-ALU werkelt pro Takt an 4 Quads. Wenn diese zusammengeschaltet werden, sinkt der Output von 4 Quad auf einen Quad. Auch wenn diese pro Takt mehr Rechenoperationen durchführen können (was heißt hier mehr, es sind bei heutigen Vec3+1-ALUs des R580 gerade mal eine (skalare) Operation mehr als beim G80), so sinkt die Menge an parallel berechneten Quads. Und die Vec16-ALUs takten nicht umsonst mit bis zu 1350 MHz.

Gast
2006-12-12, 13:16:47
Weil man dann gleich Vec4-ALUs verwenden kann. Die skalaren Einheiten haben den Vorteil das keine "Bubbles" auftreten, in denen eine oder mehrere Komponenten der Vec4-ALU nicht benützt werden können (z.B. wenn man nur Vec3 rechnet - was nicht so ungewöhnlich ist).
Ich habe das zusammenschalten eigentlich eher als "option" verstanden - d.h. sie werden "verschaltet" (wozu auch immer), wenn es mehr als "Vec1" zu beackern gibt.

Bei einer "zwangsweisen" Verschaltung zu Vec4 gebe ich euch natürlich völlig recht.

Gast
2006-12-12, 13:17:49
Nur wäre so ein Design wie du es dir vorstellst wohl nicht skalierbar (für Midrange und Low-Cost).
Oh doch - es wäre sogar beliebig skalierbar, weil, so wie ich es mir vorstelle (und deshalb halte ich es auch für zu aufwendig) ist die Steuerlogik pro ALU vorhanden.

Coda
2006-12-12, 13:32:00
Ich habe das zusammenschalten eigentlich eher als "option" verstanden - d.h. sie werden "verschaltet" (wozu auch immer), wenn es mehr als "Vec1" zu beackern gibt.

Es wird aber nichts "verschalten". Es werden die Vektoroperationen eben beliebig auf die Skalareinheiten verteilt.

Der G80 bzw. seine Vec16-ALU

Wie kommst du eigentlich auf Vec16-ALU?

BlackBirdSR
2006-12-12, 13:38:26
Wie kommst du eigentlich auf Vec16-ALU?

Arbeiten die einzelnen ALUs nicht immer an ihren 16 Pixeln geleichzeitig?
Wäre ähnlich einer Vec16-ALU.

Gast
2006-12-12, 13:46:48
Es wird aber nichts "verschalten". Es werden die Vektoroperationen eben beliebig auf die Skalareinheiten verteilt.
Ja, aber zur Illustration für technisch weniger versierte Leser ist der Vergleich, dass vier SPs für die Arbeit einer Vec4-ALU nötig sind, IMO angebracht. Nur weil das Wort "verschaltet" drinsteckt, würde ich nicht gleich die ganze Erklärung verteufeln.

Ich bin sicher, die Designer der Chips könnten das Prinzip auch so detailliert und exakt erklären, dass auch Programmierer kaum etwas davon verstünden. ;)

Ailuros
2006-12-12, 13:59:49
Ja, aber zur Illustration für technisch weniger versierte Leser ist der Vergleich, dass vier SPs für die Arbeit einer Vec4-ALU nötig sind, IMO angebracht. Nur weil das Wort "verschaltet" drinsteckt, würde ich nicht gleich die ganze Erklärung verteufeln.

Solche Vereinfachungen helfen uns Durchschnittslesern tatsaechlich. Und ich will auch hoffen dass diese Andeutung hier hilft die Unterschiede etwas besser zu verstehen. Ein weiterer waere dann natuerlich 800 vs. 1350MHz ;)

robbitop
2006-12-12, 14:04:35
Soweit ich weiß, sind diese Vec16 ALUs sogar SIMD. Sie führen für 16 Pixel jeweils für ein skalar (z.B. R,G,B oder A) eine Operation aus.
Das ist aber nicht weiter tragisch, genügend Pixel diese Operation erforderlich ist.

128 skalare Einheiten suggerieren ja, dass jede Einheit zur gleichen Zeit eine eigene Instruktion (unabhängig von den anderen) ausführen kann. Tatsächlich kann G80 pro Takt "nur" 8 verschiedene Instruktionen ausführen. Diese dann aber immerhin für 16 Pixel gleichzeitig.

Gast
2006-12-12, 14:05:34
Solche Vereinfachungen helfen uns Durchschnittslesern tatsaechlich. Und ich will auch hoffen dass diese Andeutung hier hilft die Unterschiede etwas besser zu verstehen. Ein weiterer waere dann natuerlich 800 vs. 1350MHz ;)

Keine unterschiedlichen Taktfrequenzen und dann 800Mhz?
Bedeutet das, dass die Karte deutlich weniger "Pixelpipelines" besitzt und somit den hohen Takt benötigt?

LovesuckZ

Ailuros
2006-12-12, 14:10:59
Keine unterschiedlichen Taktfrequenzen und dann 800Mhz?
Bedeutet das, dass die Karte deutlich weniger "Pixelpipelines" besitzt und somit den hohen Takt benötigt?

LovesuckZ

Kommt ganz drauf an was Du mit "Pixelpipelines" meinst. Weniger clusters ja, aber dafuer sind sie auch um einiges "fetter" ;)

Ailuros
2006-12-12, 14:12:14
Soweit ich weiß, sind diese Vec16 ALUs sogar SIMD. Sie führen für 16 Pixel jeweils für ein skalar (z.B. R,G,B oder A) eine Operation aus.
Das ist aber nicht weiter tragisch, genügend Pixel diese Operation erforderlich ist.

128 skalare Einheiten suggerieren ja, dass jede Einheit zur gleichen Zeit eine eigene Instruktion (unabhängig von den anderen) ausführen kann. Tatsächlich kann G80 pro Takt "nur" 8 verschiedene Instruktionen ausführen. Diese dann aber immerhin für 16 Pixel gleichzeitig.

Das klingt mir ein bisschen zu vereinfacht; nach "aussen" sind die 8 clusters (wie auch bei anderen vorigen GPUs) in MIMD arrangiert.

deekey777
2006-12-12, 14:16:00
Keine unterschiedlichen Taktfrequenzen und dann 800Mhz?
Bedeutet das, dass die Karte deutlich weniger "Pixelpipelines" besitzt und somit den hohen Takt benötigt?

LovesuckZ
800 MHz - aber für alles. Die 8800GTX hat 575 MHz für die TMUs, 1350 für die Vec16-ALUs und wieder 575 MHz für ROPs.
Und jetzt fragt sich, was genau müssen die 800 MHz ausgleichen?
Kommt ganz drauf an was Du mit "Pixelpipelines" meinst. Weniger clusters ja, aber dafuer sind sie auch um einiges "fetter" ;)
Und man darf nicht vergessen, dass unsere Muskulatur das Fettverbrennungsorgan Nr. 1 ist. :D
Fett ist gesund, zu viel Fett eher hinderlich.

Ailuros
2006-12-12, 14:21:49
Und jetzt fragt sich, was genau müssen die 800 MHz ausgleichen?

Weniger Einheiten in mehreren Stellen. Dass diverse Einheiten in D3D10 GPUs um einiges mehr faehiger sind als bei D3D9.0 ist ja mittlerweile nichts neues; jetzt fehlt nur noch zu wissen ueber was genau jede Einheit faehig ist und erst zuletzt die Anzahl dieser.

Gast
2006-12-12, 14:24:49
Kommt ganz drauf an was Du mit "Pixelpipelines" meinst. Weniger clusters ja, aber dafuer sind sie auch um einiges "fetter" ;)

Noch "fetter" als beim G80?
Imo steckt dort in so einem Cluster doch schon viel drin. 16 Skalareeinheiten, 8 TFU, 4TAU...
Ich denke, dass es bei ATi dann an den "Pixelpipelines" mangel könnte und somit der hohe Takt benötigt wird.

LovesuckZ

Ailuros
2006-12-12, 14:25:57
Und man darf nicht vergessen, dass unsere Muskulatur das Fettverbrennungsorgan Nr. 1 ist. :D
Fett ist gesund, zu viel Fett eher hinderlich.

Tja wenn ich zunehme friert es mich weniger im Winter und ich schwitze eben mehr im Sommer :P Uebrigens total OT: ich weiss das mehrfachen Posts in einer Reihe stoeren, aber in einem lokalem Forum dass ich besuche schmelzt das Forum alle Posts vom gleichem Poster (wenn nacheinander innerhalb von kurzer Zeit gepostet) automatisch zusammen. Es hat sich fuer mich (da ich die oede Tendenz leider habe viel zu posten LOL) als aeusserst praktisch gezeigt und Threads werden um einiges uebersichtlicher. Nur ein kleiner Vorschlag [/end of OT]

Ailuros
2006-12-12, 14:29:48
Noch "fetter" als beim G80?
Imo steckt dort in so einem Cluster doch schon viel drin. 16 Skalareeinheiten, 8 TFU, 4TAU...
Ich denke, dass es bei ATi dann an den "Pixelpipelines" mangel könnte und somit der hohe Takt benötigt wird.

LovesuckZ

Errr ich meinte auf keinenfall ROPs, TP/TAs usw. sondern nur die reinen ALUs. Ganz genau kann ich mir das noch nicht ausrechnen, aber es wuerde mich nicht wundern wenn man mit ca. 700MHz auf Gleichstand kommen koennte. Auf G80 sind es 8 clusters; R600 hat um einiges weniger aber dafuer koennen sie auch viel pro Takt ausfuehren. Schieb noch den ~800MHz vs. 1350MHz Unterschied dazu dann wird es nicht allzu schwer sein sich das vorzustellen.

robbitop
2006-12-12, 14:59:28
Das klingt mir ein bisschen zu vereinfacht; nach "aussen" sind die 8 clusters (wie auch bei anderen vorigen GPUs) in MIMD arrangiert.
Ja ich habe das pro Cluster betrachtet. ;) Ich wüßte nicht, inwiefern es zu vereinfacht war für diesen Thread. Zeig' mir eine geeignetere Version um einen Cluster zu betrachten. ^^

Ja die 8x Cluster (mit ihren Vec16 "umgedrehten" SIMD) sind insgesamt im MIMD Form angeordnet. Das war ja schon immer so. Streng genommen jedoch stimmt das nicht. MIMD bedeutet, dass Instruktionen jedes Kanals zur gleichen Zeit passieren, also in einer MIMD Operation geschehen. Soweit ich das weiß, kann jedoch jede Quadpipe unabhängig von den anderen Pipes Operationen durchführen. Also wäre das streng genommen kein MIMD. Korrigiert mich, wenn ich falsch liege (im Detail diesmal bitte).

Coda
2006-12-12, 15:07:43
Das war ja schon immer so.

Nay. G7x arbeitet bei allen 24 Pipelines die gleiche Instruction ab.

Sunrise
2006-12-12, 15:12:09
...und somit den hohen Takt benötigt?
Gell, Ailuros? :D

aylano
2006-12-12, 15:19:52
We heard power consumption numbers hovering around 430~450W for the high-end CrossFire setup while under full load. Those are power requirements just for the cards according to our sources who said the first silicon spins actually consumed even more power. What the final numbers will be is anyone's guess but be prepared to start looking at 800W+ power supplies in the near future if you want to run extreme performance GPU configurations.
Hab ich das richtig verstanden.
Das ist noch nicht die Finale Version, die dann etwas weniger Verbraucht, aber dem Wirkungsgrade der Netzteile.

Bei Angenommen 400 Watt (Finaler 2er R600er) und einem 80%-Netzteil, müssten die Zwei Grafikkarten also dann praktisch 500 Watt verbrauchen?

Gaestle
2006-12-12, 15:34:39
Gell, Ailuros? :D

WTF?

Gast
2006-12-12, 15:39:52
Auch Alurios und Sunrise wissen nicht mehr als wir.....

Coda
2006-12-12, 15:48:51
Na das du dich da mal nicht täuscht ;)

Gast
2006-12-12, 15:50:09
Kommt,ihr tut doch nur so ob ihr schon mehr wisst...;)

robbitop
2006-12-12, 16:11:44
Nay. G7x arbeitet bei allen 24 Pipelines die gleiche Instruction ab.
:-O Wirklich? Und R580?

Coda
2006-12-12, 16:37:56
Gute Frage... Aus der Branch-Granularität würde eigentlich MIMD folgen, aber da bin ich jetzt überfragt.

Gast
2006-12-12, 16:45:56
Kommt,ihr tut doch nur so ob ihr schon mehr wisst...;)Da wäre ich mir nicht so sicher. Ailuros Zukunftsandeutungen haben sich in der Vergangenheit verdammt oft bewahrheitet und auch Sunrise weiß wovon er spricht. ;)

Gast
2006-12-12, 17:27:18
Hab ich das richtig verstanden.
Das ist noch nicht die Finale Version, die dann etwas weniger Verbraucht, aber dem Wirkungsgrade der Netzteile.

Bei Angenommen 400 Watt (Finaler 2er R600er) und einem 80%-Netzteil, müssten die Zwei Grafikkarten also dann praktisch 500 Watt verbrauchen?
Hier in diesem Thread wurde mal erwähnt, dass die GPU mit ca. 1,1 / 1,2 Volt laufe und dabei 80 Ampere ziehen soll. Also würde sie so um die 90 Watt verbraten. Kommen noch der Speicher, PCB und Wandlerverluste hinzu, würde ich sagen, dass ein R600 nicht mehr als 150 Watt (Peak) verbraten wird. Alles andere wäre auch mit Dual Slot Kühlung bei annehmbaren Geräuschpegel nicht unter 100 °C zu kühlen.

Ailuros
2006-12-12, 18:32:49
Auch Alurios und Sunrise wissen nicht mehr als wir.....

Dann muesstest Du aber mehr wissen als Du oeffentlich verraten darfst LOL :biggrin:

dargo
2006-12-12, 18:33:15
Hier in diesem Thread wurde mal erwähnt, dass die GPU mit ca. 1,1 / 1,2 Volt laufe und dabei 80 Ampere ziehen soll. Also würde sie so um die 90 Watt verbraten. Kommen noch der Speicher, PCB und Wandlerverluste hinzu, würde ich sagen, dass ein R600 nicht mehr als 150 Watt (Peak) verbraten wird. Alles andere wäre auch mit Dual Slot Kühlung bei annehmbaren Geräuschpegel nicht unter 100 °C zu kühlen.
Meine Schätzung sieht so aus:

GPU - ~90W
Speicher - ~30W (1GB GDDR3)
PCB inkl. Stromversorgung - ~50W

Insgesamt ca. 170-180W.

Ailuros
2006-12-12, 18:37:08
:-O Wirklich? Und R580?

4*way MIMD arranged SIMD quads ;)

nagus
2006-12-12, 19:18:02
http://www.hexus.net/content/item.php?item=7437

Willy boy's trawl of the back-street markets of Taipei has given us some background to the delays suffered by the R600 DirectX 10 graphics processor - All the might of the AMD/ATi combine can't deliver R600 on time - and he continues to spill the Beanz...

ATi has attempted to create good working versions of the R600 a number of times but, for various reasons, has needed to re-spin the GPU. The company is now up to spin A13.

...

Gast
2006-12-12, 19:26:30
Wer kann dies bitte ins Deutsche übersetzen?
Dank!

StefanV
2006-12-12, 19:31:04
Extremkurzfassung:
Axy -> x = Silicon revision, y = Metalrevision

Beim A11 Steppint hat jemand vergessen ein paar Interne Dinge mit der Außenwelt zu verbinden.

Sonst steht da nix wirklich wichtiges, was man nicht eh schon weiß...

dargo
2006-12-12, 19:33:06
Und was soll das mit dem 1Ghz?
Die A12 Revision liess sich auf 1Ghz übertakten?

Blutmaul
2006-12-12, 19:40:10
Und was soll das mit dem 1Ghz?
Die A12 Revision liess sich auf 1Ghz übertakten?

Geht vielleicht um den Speicher, der dann nur mit "1000 Mhz" lief...die GPU wird kein Gigaherz erreichen.

StefanV
2006-12-12, 19:40:56
Nee, ATi hat das Teil auf 1GHz laufen gehabt...

Whatever they mean...

Blutmaul
2006-12-12, 19:42:15
Laut dem Text oben ist das nur 50% der Zielgrösse.
Keine GPU läuft mit 2000 Mhz, das glaube ich niemals!

deekey777
2006-12-12, 19:49:32
A12 also: A12 silicon ready - shock (http://www.theinquirer.net/default.aspx?article=14302)
nagus: Wenn du nochmal einen Fullquote ablieferst, kriegst sieben Tage Auszeit!

dargo
2006-12-12, 20:02:23
Geht vielleicht um den Speicher, der dann nur mit "1000 Mhz" lief...die GPU wird kein Gigaherz erreichen.
Was hat aber die A12 Revision der GPU mit dem GDDR Speicher zu tun :confused:
Könnte das bitte jemand mit dem 1Ghz genauer erklären?

Gouvernator
2006-12-12, 20:10:29
Was hat aber die A12 Revision der GPU mit dem GDDR Speicher zu tun :confused:
Könnte das bitte jemand mit dem 1Ghz genauer erklären?
Die gewaltige Bandbreite braucht wahrscheinlich sehr hohen GPU Takt. Sonst liegt alles brach.

dargo
2006-12-12, 20:25:40
Die gewaltige Bandbreite braucht wahrscheinlich sehr hohen GPU Takt. Sonst liegt alles brach.
Also waren doch 1Ghz GPU-Takt möglich.

Diese Information finde ich insofern interessant weil die ganze Zeit von geplanten max. 800Mhz die Rede war. Das wäre dann mal wieder nach langer Zeit der Fall, dass ATI die GPU nicht am oberen Limit laufen lässt.

deekey777
2006-12-12, 20:31:27
Nur weil 1 GHz erreicht wurden, heißt es nicht, dass sie auch in der Serie erreicht werden, denn da spielt noch der Verbrauch eine wichtige Rolle.
Und: Wenn A12 so toll war, warum dann noch ein Respin?
Die gewaltige Bandbreite braucht wahrscheinlich sehr hohen GPU Takt. Sonst liegt alles brach.
Die vielen MHz gleichen die eine oder andere nicht verfügbare Einheit aus.

seahawk
2006-12-12, 20:33:00
Wenn es stimme würde und A12 1GHz und half the targe speed hätte, dann hätte oder müßte A13 ca. 2Ghz abliefern.

Also stimmt das wohl was mit den Zahlen nicht. Höchsten A12 lief mit Half of the Target Speed of 1Ghz.

Gast
2006-12-12, 20:33:49
Meine Schätzung sieht so aus:

GPU - ~90W
Speicher - ~30W (1GB GDDR3)
PCB inkl. Stromversorgung - ~50W

Insgesamt ca. 170-180W.
Warum 50 W für die Stromversorgung und das PCB? Ich denke, das wären zum Gesamtverbrauch betrachtet, irrsinnig große Verluste. Würde ja bedeuten, dass einfach 50 W ohne Nutzen direkt in Wärme umgewandelt werden.
Die Spannungswandler dieser Größenordnung haben in der Regel einen Wirkungsgrad von ca. 90 %. Bei 150 W Gesamtverbrauch wären das zum Beispiel 15 W die dann direkt in Wärme verpuffen.

Undertaker
2006-12-12, 20:34:06
Meine Schätzung sieht so aus:

GPU - ~90W
Speicher - ~30W (1GB GDDR3)
PCB inkl. Stromversorgung - ~50W

Insgesamt ca. 170-180W.

ist das mit ob gddr3 oder gddr4 denn nun mittlerweile schon gesichert? 50W für pcb und stromversorgung wären auch äußerst happig :O

Gouvernator
2006-12-12, 20:35:47
Nur weil 1 GHz erreicht wurden, heißt es nicht, dass sie auch in der Serie erreicht werden
Die Voraussetzungen sind aber dafür erschaffen worden, deshalb mit oder ohne Serie - 1ghz werden fallen , mit normalo Kühlung.

dargo
2006-12-12, 20:36:38
Nur weil 1 GHz erreicht wurden, heißt es nicht, dass sie auch in der Serie erreicht werden, denn da spielt noch der Verbrauch eine wichtige Rolle.

Das habe ich auch nicht behauptet. Mir gehts nur darum, dass die Serien-GPUs nicht wieder völlig am Limit laufen.

AnarchX
2006-12-12, 20:36:55
Na das sieht ja nicht unbedingt nach einem planmässigen Launch des R600 aus, hoffentlich nimmt es nicht so eine Dimension wie beim R520 an.:|

deekey777
2006-12-12, 20:38:21
Die Voraussetzungen sind aber dafür erschaffen worden, deshalb mit oder ohne Serie - 1ghz werden fallen , mit normalo Kühlung.
Mit "Normalo-Kühlung"? Woher willst du das wissen?
http://www.hexus.net/content/item.php?item=7436
Das ist die zweite News von Hexus, die irgendwie seltsam ist.
Das habe ich auch nicht behauptet. Mir gehts nur darum, dass die Serien-GPUs nicht wieder völlig am Limit laufen.
Müssen sie auch gar nicht, Ail hat doch angedeutet, dass der R600 mit weniger konkturrenzfähig ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5075283#post5075283


***edit: ein kleiner Anhang denn es wird nicht mehr lange dauern bis die ersten zuverlaessigen Infos heraussickern. Ich hab zwar oefters gewarnt dass es kein "G80-Killer" ist, aber seid vorsichtig beim durchlesen von den wahren Spezifikationen. Eine erste Reaktion in der Art "ist das alles" liegt total daneben. R600 ist durchaus konkurrenzfaehig, man kann aber bei falschen Interpretationen sehr leicht zu vorzeitigen und falschen Schlussfolgerungen kommen. ;)

Und das da:
Solche Vereinfachungen helfen uns Durchschnittslesern tatsaechlich. Und ich will auch hoffen dass diese Andeutung hier hilft die Unterschiede etwas besser zu verstehen. Ein weiterer waere dann natuerlich 800 vs. 1350MHz ;)

Gouvernator
2006-12-12, 20:41:34
Mit "Normalo-Kühlung"? Woher willst du das wissen?
Aus Erfahrung ;)
Die 800mhz vor dem Launch r580 die so hier und da gefallen sind... hab ich erreichen können mit Wakü ohne Eis.

dargo
2006-12-12, 20:46:25
Warum 50 W für die Stromversorgung und das PCB? Ich denke, das wären zum Gesamtverbrauch betrachtet, irrsinnig große Verluste. Würde ja bedeuten, dass einfach 50 W ohne Nutzen direkt in Wärme umgewandelt werden.
Die Spannungswandler dieser Größenordnung haben in der Regel einen Wirkungsgrad von ca. 90 %. Bei 150 W Gesamtverbrauch wären das zum Beispiel 15 W die dann direkt in Wärme verpuffen.
Dazu hätte ich gerne eine Quelle. :)

Ich beziehe meine Angaben von einer X1800XT bzw. X1900XT (je 512MB). Bin mir nicht mehr sicher welche von diesen Karten gemessen wurde.

Dabei kann ich mich erinnern, dass die GPU bei knapp 60W lag. Wenn wir davon ausgehen, dass 512MB GDDR3 ca. 15W brauchen und eine X1800XT bei max. ~110W liegt kann man sich ausrechnen was der Rest verschluckt.

Die Frage ist halt nur, was die ganzen Bauteile auf dem PCB brauchen und wie effizient die Stromversorgung arbeitet. Vielleicht habe ich mit den 50W etwas zu dick aufgetragen. Aber bei so einer komplexen Grafikkarte mit dem R600 würde ich von min. 40-45W ausgehen wenn schon ~35W bei einer X1800XT oder X1900XT verpulvert werden.

deekey777
2006-12-12, 20:48:41
Aus Erfahrung ;)
Die 800mhz vor dem Launch r580 die so hier und da gefallen sind... hab ich erreichen können mit Wakü ohne Eis.
Du muss aber den Stromverbrauch berücksichtigen. Es bringt nicht, einen GHz-Grafikchip auf den Markt zu schmeißen, dem kein Netzteil gewachsen ist.
Aber wie gesagt: Wenn der R600 A12 so toll gewesen sein soll, warum dann ein Respin? Vielleicht ist das der umgekehrte Fall der R520 A14->A15: Man hatte zwar einen funktionsfähigen Grafikchip, er lief aber mit höchstens 500-500 MHz.
Vielleicht wird der R600 A13 nicht mehr so hohe Takte erreichen, dafür aber wird es fertig sein.

Gouvernator
2006-12-12, 20:52:53
Die vielen MHz gleichen die eine oder andere nicht verfügbare Einheit aus.
Welche denn? Bei über 700mio Transen, einigen mehr als bei 8800?!

dargo
2006-12-12, 20:53:14
Müssen sie auch gar nicht, Ail hat doch angedeutet, dass der R600 mit weniger konkturrenzfähig ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5075283#post5075283

Umso besser. :)
Je weiter man vom Limit entfernt ist desto besser die Ausbeute. Zusätzlich kann man u.U den Stromverbrauch senken. Eventuell reichen schon für 800Mhz 1,1V.

Coda
2006-12-12, 20:56:54
Welche denn? Bei über 700mio Transen, einigen mehr als bei 8800?!

R520 hatte auch weniger Pipelines und dafür mehr Transistoren als G7x. Das steht in keinem Zusammenhang.

Zudem hat nVIDIA effektiv die doppelte Anzahl Einheiten durch die Taktverdopplung der ALUs.

deekey777
2006-12-12, 21:00:05
Welche denn? Bei über 700mio Transen, einigen mehr als bei 8800?!
Moment, es sind nicht mehr als beim G80. Schließlich hat der G80 seinen NVIO. Und beides Zusammen kann/soll über 700 Mio Transistoren ergeben.
So oder so: Der R600 soll im Vergleich zum G80 weniger haben, dafür ist das, was er hat "fetter".
Mit nur Fett kannst du aber gegen die 32 TMUs des G80 nicht vorgehen, da muss der hohe Takt dazu. Das gleiche gilt wohl für die arithmetische Leistung: Wo die Anzahl der Recheneinheiten nicht ausreicht, gleicht der hohe Takt diesen Nachteil aus (was bei 8 Vec16-ALUS@1350 MHz nicht so einfach ist).

Gouvernator
2006-12-12, 21:01:28
R520 hatte auch weniger Pipelines und dafür mehr Transistoren als G7x. Das steht in keinem Zusammenhang.

Zudem hat nVIDIA effektiv die doppelte Anzahl Einheiten durch die Taktverdopplung der ALUs.
Ja stimmt, nur es gibt in Moment leider nichts was auf eine ähnliche Situation hinweist. Ich kann sogar so dreist sein und behaupten das R600 mit etwas mehr Transistoren entsprechend mehr Leistung bietet wie damals G7x gegenüber r520 ;D Ist echt Zeitverschwendung andere Chipgenerationen hier mit neustem NV/ATI Kram zu vergleichen ;)

deekey777
2006-12-12, 21:08:07
Ja stimmt, nur es gibt in Moment leider nichts was auf eine ähnliche Situation hinweist. Ich kann sogar so dreist sein und behaupten das R600 mit etwas mehr Transistoren entsprechend mehr Leistung bietet wie damals G7x gegenüber r520 ;D Ist echt Zeitverschwendung andere Chipgenerationen hier mit neustem NV/ATI Kram zu vergleichen ;)
Wenn du hier mal wieder was behauptest, ohne dies irgendwie zu belegen, kann es passieren, dass meine PM an dich ihre Wirkung entfaltet. Nur so am Rande.
Zudem hat nVIDIA effektiv die doppelte Anzahl Einheiten durch die Taktverdopplung der ALUs.
Der G80 hat auch deutlich mehr an Einheiten an sich.

Gouvernator
2006-12-12, 21:12:40
Du behauptest schliesslich auch das r600 weniger hat als 8800 ohne irgendwas konkretes zu nennen.

andernfalls kann du ja komplett den thread sperren bis jemand von Ati oder andere mit Tests vorbei kommen.

pps: ich zieh mich zurück ich habs satt unterschwellige pro NV posts zu lesen

Coda
2006-12-12, 21:12:53
Der G80 hat auch deutlich mehr an Einheiten an sich.

Aber nicht so breite (Vector vs. Scalar).

Gast
2006-12-12, 21:15:11
Wie sicher ist es, dass der R600 weniger Strom verbraucht als beispielsweise eine 8800GTX?

deekey777
2006-12-12, 21:16:48
Du behauptest schliesslich auch das r600 weniger hat als 8800 ohne irgendwas konkretes zu nennen.

andernfalls kann du ja komplett den thread sperren bis jemand von Ati oder andere mit Tests vorbei kommen.
Kann es sein, dass du in den Thread eingestiegen bist, ohne die wenigen Seiten durchgelesen zu haben?

Zu Yellow: :uclap:
Aber nicht so breite (Vector vs. Scalar).
Was meine nächste Frage ist: Wie oft kommen Operationen >Vec1 vor?

deekey777
2006-12-12, 22:10:00
Weiß jemand, was heute bei Hexus so los ist?
Die Nr. 3: http://www.hexus.net/content/item.php?item=7439

Seemingly, ATi has been aiming to achieve 11,000 3DMark scores at 750MHz. That's tasty and may mean the R600 offers a strong challenge to NVIDIA's G80 GPU given that, as we reported in HEXUS.Beanz a few hours ago, ATi's already got samples running at 1GHz and has higher targets in mind
:| Vielleicht doch Clockdomains?

Coda
2006-12-12, 22:14:44
Was meine nächste Frage ist: Wie oft kommen Operationen >Vec1 vor?

Soll das ein Scherz sein? Verdammt oft. Pixelshader sind fast nur Vec3 + Scalar und das führt man dann halt wenn möglich per Splitting auf einer Vec4-ALU aus. Vertexshader arbeiten praktisch nur auf Vec3 oder Vec4.

Demirug
2006-12-12, 22:24:50
Soll das ein Scherz sein? Verdammt oft. Pixelshader sind fast nur Vec3 + Scalar und das führt man dann halt wenn möglich per Splitting auf einer Vec4-ALU aus. Vertexshader arbeiten praktisch nur auf Vec3 oder Vec4.

Vec2 für Texturkoordinaten sind ebenfalls immer mehr im kommen.

Das Problem beim splitten ist immer ein passendes Paar zu finden. Vor allem da D3D10 wohl strengere Regeln bezüglich dem ändern der Rechenreihenfolge hat.

Coda
2006-12-12, 22:26:08
Das Problem beim splitten ist immer ein passendes Paar zu finden.

Klar. Das sind ja die angesprochenen Blasen wenn man Vector-ALUs hat...

Gast
2006-12-12, 22:48:40
Na das sieht ja nicht unbedingt nach einem planmässigen Launch des R600 aus, hoffentlich nimmt es nicht so eine Dimension wie beim R520 an.:|

Dmit hättest du sicherlich kein problem.:|

deekey777
2006-12-12, 22:48:53
Soll das ein Scherz sein? Verdammt oft. Pixelshader sind fast nur Vec3 + Scalar und das führt man dann halt wenn möglich per Splitting auf einer Vec4-ALU aus. Vertexshader arbeiten praktisch nur auf Vec3 oder Vec4.
Das bedeutet, dass eine Vec3+1-Operation vier Mal durch die Vec16-ALUs des G80? Warum ist der G80 trotzdem so schnell?

Coda
2006-12-12, 23:03:17
Es sind eben keine Vec16-ALUs :rolleyes:

Demirug
2006-12-12, 23:14:46
Das bedeutet, dass eine Vec3+1-Operation vier Mal durch die Vec16-ALUs des G80? Warum ist der G80 trotzdem so schnell?

Kauf dir die nächste PCGH da versuche ich es zusammen mit Carsten zu erklären. *SCNR*

Es sind eben keine Vec16-ALUs :rolleyes:

Im Sinne des SIMD sind es schon 16xFPUs. In diesem Sinne hat der G70 aber auch 4x(RGBA-FPUs)

deekey777
2006-12-12, 23:19:45
Kauf dir die nächste PCGH da versuche ich es zusammen mit Carsten zu erklären. *SCNR*

Aus Rache werde ich den Artikel abtippen und hier veröffentlichen. :biggrin:
Wie wär's mit einem Teaser?

Ailuros
2006-12-13, 00:30:07
Welche denn? Bei über 700mio Transen, einigen mehr als bei 8800?!

Was bekommst Du wenn Du eine eins einen Strich und eine zwei malst?

StefanV
2006-12-13, 00:34:04
Was bekommst Du wenn Du eine eins einen Strich und eine zwei malst?
zweiundvierzig? :devil:
Kauf dir die nächste PCGH da versuche ich es zusammen mit Carsten zu erklären. *SCNR*
Wann tut die kommen??
Welche Ausgabe?
Weissu welches Spiel beiliegen wird? :devil:

Ailuros
2006-12-13, 00:37:18
Ja stimmt, nur es gibt in Moment leider nichts was auf eine ähnliche Situation hinweist. Ich kann sogar so dreist sein und behaupten das R600 mit etwas mehr Transistoren entsprechend mehr Leistung bietet wie damals G7x gegenüber r520 ;D Ist echt Zeitverschwendung andere Chipgenerationen hier mit neustem NV/ATI Kram zu vergleichen ;)

G7x:R5x0 = 6:4
G8x:R6x0 = 8:-x-? :|

deekey777
2006-12-13, 00:59:25
G7x:R5x0 = 6:4
G8x:R6x0 = 8:-x-? :|
5,3333333333

ATi targets CeBIT for R600 launch - Willy Deeplung exclusive! (http://www.hexus.net/content/item.php?item=7441)
:|

Ailuros
2006-12-13, 01:01:50
Valentine's Day? :love4: :love4: :love4: :love4:

seahawk
2006-12-13, 07:23:46
Und Verfügbarkeit ab CeBit. Was bedeuten kann, dass NVs Mainstream-DX10-Karten zeitgleich mit dem R600 in die Läden kommen. Gleicheztig würdees bedeuten, dass NV 4-5 Monate unbedrängte an der Öeistungsspitze haben wird un der R600 innerhalb von 3 Monaten auf den Refresh treffen könnte. Der Vergleich zum R520 wird imho treffender.

w0mbat
2006-12-13, 10:28:01
Naja, wenn der R600 wirklich mit 2GHz takten wird kann man ihn eher mit der 9700Pro vergleichen.

seahawk
2006-12-13, 10:38:14
Wenn er hell genug leuchtet kann man ihn auch mit der Sonne vergleichen. 2GHZ Chiptakt dürfte wohl etwas unrealistisch.

Gouvernator
2006-12-13, 10:48:06
Wenn es nur an der Kühlung liegt? Man kann die Dinger aber auch schön ohne GPU Kühler verkaufen. Oder einfach sagen Wakü ist Pflicht...

AnarchX
2006-12-13, 10:55:33
Wenn es nur an der Kühlung liegt? Man kann die Dinger aber auch schön ohne GPU Kühler verkaufen. Oder einfach sagen Wakü ist Pflicht...
Wer soll das bitte bezahlen?;)

Wenn er wirklich 2GHz erreichen will, muss der R600 doch schon ziemlich einfach gestrickt sein, was aber bei 723Mio Trans. nicht wirklich danach ausschaut.
(Natürlich bliebe auch die Option, dass sich die 2GHz auf eine Clockdomain beziehen, was aber momentan nicht realistisch scheint.)

Momentan sieht es aber wieder etwas danach aus, dass die "Taktik" von ATi daneben ging.
Mal sehen wie sich der R600 gegen den G81 schlagen wird, der wohl nicht lange nach ihm erscheinen wird...

Gast
2006-12-13, 10:58:13
Wenn es nur an der Kühlung liegt? Man kann die Dinger aber auch schön ohne GPU Kühler verkaufen. Oder einfach sagen Wakü ist Pflicht...

Oder man packt gleich die Bauteile in eine tüte und eine Anleitung dazu...
ATi wird sicher keine Lösung bringen, die nicht marktkompatible ist sprich die nur von relativ wenigen Leuten korrekt eingesetzt werden kann sondern eine LuKü mit möglicherweise größeren Ausmaßen als es bisher der Fall ist.
Wenn überhaupt was "vorgeschrieben" wird dann wohl eher der EInsatz von Gehäuselüftern.

mfg lilgefo~

Gast
2006-12-13, 11:06:55
Stefan: PCGH 02/2007, ab 3.1. im Handel, ca. vier Seiten.

Ailuros
2006-12-13, 11:08:03
Der Vergleich zum R520 wird imho treffender.

Mehr als Du Dir vorstellen kannst und nein es ist nicht nur auf die Veroeffentlichungs-termine bezogen.

deekey777
2006-12-13, 11:09:58
Momentan sieht es aber wieder etwas danach aus, dass die "Taktik" von ATi daneben ging.
Mal sehen wie sich der R600 gegen den G81 schlagen wird, der wohl nicht lange nach ihm erscheinen wird...
Welche "Taktik" ging denn daneben? Der hohen Takte? Wenn der Typ schreibt, dass mit der Revision A12 monströse 1 GHz erreicht wurden und trotzdem eine weitere Revesion nötig ist, dann lag wohl ein anderes Problem vor.
Beim R520 A14 gab es ein Problem mit fremder IP, die beim R520 eingesetzt wurde: Der Chip ging nicht über 550 MHz, was zu wenig war. Es wurde gefixt und siehe da: Der R520 A15 war bis zu 650 MHz schnell (die "PE" zählt nicht). Beim R600 scheint nicht der Takt das Problem zu sein, sondern was anderes.

AnarchX
2006-12-13, 11:10:21
Mehr als Du Dir vorstellen kannst und nein es ist nicht nur auf die Veroeffentlichungs-termine bezogen.
Da wird wohl ATi bald einen R680 nachschieben müssen oder?

Welche "Taktik" ging denn daneben? Der hohen Takte? Wenn der Typ schreibt, dass mit der Revision A12 monströse 1 GHz erreicht wurden und trotzdem eine weitere Revesion nötig ist, dann lag wohl ein anderes Problem vor.
Die Mischung halt aus dem verwenden von neuster und problematischer Fertigungsgröße und das Anpeilen von hohen Taktraten um Designschwächen entgegen zu wirken, diesmal ist wohl ersteres das Problem, woran zweiteres ja nicht unbedingt auch unschuldig sein muss.
Bei den 1GHz ist es imo auch ein Frage wie sie erreicht wurden.

BlackBirdSR
2006-12-13, 11:14:16
Mehr als Du Dir vorstellen kannst und nein es ist nicht nur auf die Veroeffentlichungs-termine bezogen.

Hast du schon einen Zeitrum, ab wann wir mit dem Nachfolger des R600 rechnen dürfen, der dann ATIs richtiges High-End Produkt wird?

Ich könnte mir vorstellen, dass R600 durch seine Verzögerungen nicht lange im aktiven Amt sein wird.

Ailuros
2006-12-13, 11:15:15
Wer soll das bitte bezahlen?;)

Wenn er wirklich 2GHz erreichen will, muss der R600 doch schon ziemlich einfach gestrickt sein, was aber bei 723Mio Trans. nicht wirklich danach ausschaut.
(Natürlich bliebe auch die Option, dass sich die 2GHz auf eine Clockdomain beziehen, was aber momentan nicht realistisch scheint.)

Momentan sieht es aber wieder etwas danach aus, dass die "Taktik" von ATi daneben ging.
Mal sehen wie sich der R600 gegen den G81 schlagen wird, der wohl nicht lange nach ihm erscheinen wird...

2GHz Frequenzen fuer GPU chips koennte man in etwa >2010 erwarten (und nein ich meine jetzt nicht clock domains).

Von dem abgesehen der Laecherlichkeit zuliebe, ISVs bekamen samples vom vorigen Spin die leicht unter 400MHz liefen und Anand hat da tatsaechlich recht, die Dinger waren regelrecht Heizofen (und nein es ist keine Uebertreibung). Man musste ergo erstmal die ROP Probleme beseitigen, die Taktrate auf =/<800MHz bekommen und zur gleichen Zeit den auch so hohen Stromverbrauch etwas besser kontrollieren. Wer jetzt glaubt dass man mit dem Ding nicht 1GHz sondern sogar gleich 2GHz erreichen koennte, hat absolut keine Verbindung zur Realitaet.

Der letzte spin soll gut gelaufen sein, ergo duerften die von Hexus spekulierten Daten auch stimmen.

Gast
2006-12-13, 11:15:48
Welche "Taktik" ging denn daneben? Der hohen Takte? Wenn der Typ schreibt, dass mit der Revision A12 monströse 1 GHz erreicht wurden und trotzdem eine weitere Revesion nötig ist, dann lag wohl ein anderes Problem vor.
Beim R520 A14 gab es ein Problem mit fremder IP, die beim R520 eingesetzt wurde: Der Chip ging nicht über 550 MHz, was zu wenig war. Es wurde gefixt und siehe da: Der R520 A15 war bis zu 650 MHz schnell (die "PE" zählt nicht). Beim R600 scheint nicht der Takt das Problem zu sein, sondern was anderes.

Evtl unterscheidet sich ATis Taktik ja dadurch von der nVidias dass sie den Chip so ausliefern wollen wie er funktionell konzipiert war, also zB. mit Spannungsabsenkung und der Verfügbarkeit aller ALUs :D (vorausgesetzt nVidia hatte das jemals in Planung, was aber anzunehmen ist).

Gouvernator
2006-12-13, 11:16:45
Oder man packt gleich die Bauteile in eine tüte und eine Anleitung dazu...
ATi wird sicher keine Lösung bringen, die nicht marktkompatible ist sprich die nur von relativ wenigen Leuten korrekt eingesetzt werden kann sondern eine LuKü mit möglicherweise größeren Ausmaßen als es bisher der Fall ist.
Wenn überhaupt was "vorgeschrieben" wird dann wohl eher der EInsatz von Gehäuselüftern.

mfg lilgefo~
Hm, woher willst du das wissen? Manche mögens es halt schnell... egal mit oder ohne Wakü. Wenn Ati mit ihrem 700mio. und 2 ghz Takt neues Terrain beschreitet? Dann sieht es so aus - Ati baut ein wassergekühltes Teil als Hig-End und den Rest für die Masse lüftgekühlt als NV Konkurrenz.

Ailuros
2006-12-13, 11:17:06
Hast du schon einen Zeitrum, ab wann wir mit dem Nachfolger des R600 rechnen dürfen, der dann ATIs richtiges High-End Produkt wird?

Ich könnte mir vorstellen, dass R600 durch seine Verzögerungen nicht lange im aktiven Amt sein wird.

Ich wuerde zeitgleich zu RV6x0 schaetzen und dieses soll nach der Geruechtemuehle erst mit 65nm ankommen (H2 2007?).

Ailuros
2006-12-13, 11:20:21
Hm, woher willst du das wissen? Manche mögens es halt schnell... egal mit oder ohne Wakü. Wenn Ati mit ihrem 700mio. und 2 ghz Takt neues Terrain beschreitet? Dann sieht es so aus - Ati baut ein wassergekühltes Teil als Hig-End und den Rest für die Masse lüftgekühlt als NV Konkurrenz.

Es gibt keine 2GHz nichtmal mit 65nm und nein auch nicht fuer die gesamten R6x0 Nachfolger. Wie Du darauf kommst oder woher Du dieses extravagante Wunschtraeume genau herbekommst kann ich zwar nicht wissen, aber entweder sind es nur harmlose Tagestraeume oder irgend ein Spinner will Dich auf die Palme fuehren. Oben nachlesen hilft....*seufz*

Gouvernator
2006-12-13, 11:53:10
Von dem abgesehen der Laecherlichkeit zuliebe, ISVs bekamen samples vom vorigen Spin die leicht unter 400MHz liefen und Anand hat da tatsaechlich recht, die Dinger waren regelrecht Heizofen (und nein es ist keine Uebertreibung).
Meinst du das hier? Nun, 400mhz-->750mhz-->1000mhz es geht mit Riesenschritten aber in die Richtung. Oder nicht? Und wenn es "nur" 1500mhz werden dann hat man quasi das doppelte von 11000 punkten @750mhz :D

Coda
2006-12-13, 11:59:42
Meinst du das hier? Nun, 400mhz-->750mhz-->1000mhz es geht mit Riesenschritten aber in die Richtung. Oder nicht?

Nein wirklich nicht.

seahawk
2006-12-13, 12:00:53
Hast du schon einen Zeitrum, ab wann wir mit dem Nachfolger des R600 rechnen dürfen, der dann ATIs richtiges High-End Produkt wird?

Ich könnte mir vorstellen, dass R600 durch seine Verzögerungen nicht lange im aktiven Amt sein wird.

Es soll ja ein 65nm Produkt sein, so dass man nicht vor 2HJ07 erwarten sollte, wobei auch dort wieder ähnliche Probleme wie beim R600 möglich sind, falls ATI den bsiherigen weg weiterverfolgt. Wobei ich eher einen R580 Schritt erwarte, jetzt, da AMD das Sagen hat und Pünktlichkeit der Produkte ganz oben auf der Prioritätenliste steht.

Das Problem ist nur, dass NV gerüchteweise einen Refresh-Variante des G80 in 80nm und eine spätere Variante in 65nm plant. Es ist kein Zufall, dass Newcommer im Grafikkartenmarkt momemtan mit NV-Produkten einsteigen.

Gast
2006-12-13, 12:04:42
Omg was fällt Ati nur ein?Ich finde es eine Frechheit das der Launch immer weiter nach hinten geschoben wird.Langsam verliere ich mein Ati Fanboy status.

DrumDub
2006-12-13, 12:06:16
Omg was fällt Ati nur ein?Ich finde es eine Frechheit das der Launch immer weiter nach hinten geschoben wird.Langsam verliere ich mein Ati Fanboy status. wenns nur das ist: r520 kam auch nen halbes jahr zu spät. ;)

Gouvernator
2006-12-13, 12:13:46
Omg was fällt Ati nur ein?Ich finde es eine Frechheit das der Launch immer weiter nach hinten geschoben wird.Langsam verliere ich mein Ati Fanboy status.

Nenne mir wenigstens einen Grund warum jetzt neue Grafikkarten sinnvoll sind? Ich hab schon vor knapp einem Jahr dagestanden ohne Software für die X1900 und jetzt ist es immernoch nicht viel anders.
Von unoptimierten 08/15 Titeln mal abgesehen...

Ailuros
2006-12-13, 12:22:30
Meinst du das hier? Nun, 400mhz-->750mhz-->1000mhz es geht mit Riesenschritten aber in die Richtung. Oder nicht? Und wenn es "nur" 1500mhz werden dann hat man quasi das doppelte von 11000 punkten @750mhz :D

Vielleicht solltest Du Dir ausnahmsweise mal die Unterschiede zwischen R520 und R580 genauer ansehen. Nur zur Errinnerung die letztere taktet nur um 25MHz mehr. Und genau diese Masche werden mit hoechster Wahrscheinlichkeit sowohl G8x als auch R6x0 refreshes in der absehbaren Zukunft folgen: mehr Einheiten und nur marginal hoehere Frequenzen + schnellerer Speicher.

Hoffnung stirbt natuerlich am letzten aber wie Rys auf B3D schon sagte, die 2.0 GHz sind total laecherlich und nein das Ding hat garantiert keine clock domains.

***edit: ich brauch ein bisschen mehr Farbe in meinem Post....

http://www.beyond3d.com/reviews/ati/r520/images/vs.gif

http://www.beyond3d.com/reviews/ati/r520/index.php?p=02

Gast
2006-12-13, 12:52:50
Nenne mir wenigstens einen Grund warum jetzt neue Grafikkarten sinnvoll sind? Ich hab schon vor knapp einem Jahr dagestanden ohne Software für die X1900 und jetzt ist es immernoch nicht viel anders.
Von unoptimierten 08/15 Titeln mal abgesehen...
jaja, wäre wohl auch wieder toll, wenn R600 auf SM4 verzichten würde und stattdessen 25% mehr Speed als G80 hat, wie es zu R420-Zeiten der Fall war...

Ailuros
2006-12-13, 12:52:54
Das Problem ist nur, dass NV gerüchteweise einen Refresh-Variante des G80 in 80nm und eine spätere Variante in 65nm plant. Es ist kein Zufall, dass Newcommer im Grafikkartenmarkt momemtan mit NV-Produkten einsteigen.

Ein 256bit mainstream-Produkt wird auf 80nm hergestellt.

seahawk
2006-12-13, 13:21:02
Ich meine aber mich zu erinnern, dass es mal Andeutungen gab, dass man sowohl einen 80nm Schritt, als auch einen 65nm Schritt plant.

Demirug
2006-12-13, 13:27:00
Ich meine aber mich zu erinnern, dass es mal Andeutungen gab, dass man sowohl einen 80nm Schritt, als auch einen 65nm Schritt plant.

Ja aber es ist nie genau gesagt worden auf welche Chips man sich dabei genau bezog.

seahawk
2006-12-13, 14:00:34
Stimmt. Wobei es theroetsich für das Flagship schon Siin macht, da man heir gerade sehr große Dies hat. Und 65nm aller Vorraussicht nach nicht für den gerüchteweisen Launchtermin des Refreshs bereit sein sollte, wenn man davon ausgeht, dass NV wieder einen Hardlauch plant.

Die einzige Gegenfrage ist nun, was bringt 80nm wirklich und was kann man noch aus 90nm rausholen.

Sorry for ot. :(

Blutmaul
2006-12-13, 14:30:38
Stimmt. Wobei es theroetsich für das Flagship schon Siin macht, da man heir gerade sehr große Dies hat. Und 65nm aller Vorraussicht nach nicht für den gerüchteweisen Launchtermin des Refreshs bereit sein sollte, wenn man davon ausgeht, dass NV wieder einen Hardlauch plant.

Die einzige Gegenfrage ist nun, was bringt 80nm wirklich und was kann man noch aus 90nm rausholen.

Sorry for ot. :(

Ich würde glauben, das es umgekehrt mehr Sinn macht...Mainstream so klein wie möglich, Highend so schnell wie möglich und Kosten egal...

mapel110
2006-12-13, 14:34:43
Ich würde glauben, das es umgekehrt mehr Sinn macht...Mainstream so klein wie möglich, Highend so schnell wie möglich und Kosten egal...
Ein neuer Prozess ist am Anfang auch teurer. Das kann man so pauschal nicht sehen.

Blutmaul
2006-12-13, 14:42:18
Ein neuer Prozess ist am Anfang auch teurer. Das kann man so pauschal nicht sehen.

Schon, aber die Mid- und Lowend GPUs sind weniger Anspruchsvoll, oder?

Naja, der R600 hört sich inzwischen an, wie eine Netburst-GPU :tongue:

DrumDub
2006-12-13, 14:58:57
Naja, der R600 hört sich inzwischen an, wie eine Netburst-GPU :tongue: der war jetzt aber gemein. ;D

Coda
2006-12-13, 16:01:59
Naja, der R600 hört sich inzwischen an, wie eine Netburst-GPU :tongue:

Von der Technik ist das aber eher G80 ;)

deekey777
2006-12-13, 16:57:33
***edit: ich brauch ein bisschen mehr Farbe in meinem Post....

http://www.beyond3d.com/reviews/ati/r520/images/vs.gif

http://www.beyond3d.com/reviews/ati/r520/index.php?p=02

:|
Hat das irgendwas damit zu tun: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4191804#post4191804 (+ RLZs Posting)?

aylano
2006-12-13, 17:00:09
Meine Schätzung sieht so aus:

GPU - ~90W
Speicher - ~30W (1GB GDDR3)
PCB inkl. Stromversorgung - ~50W

Insgesamt ca. 170-180W.

Wie sieht das beim G80 ca. aus???

Zumindestens wäre die Aufteilung GPU:Rest mit 1:1 nicht mal so schlecht.

Coda
2006-12-13, 17:43:05
:|
Hat das irgendwas damit zu tun: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4191804#post4191804 (+ RLZs Posting)?

Evtl. ist es ja sogar so was: (Wenn man schon von Xenos+R5xx-Hybrid redet :rolleyes:)

http://www.mental-asylum.de/files/r600alu.png

Gmax
2006-12-13, 18:24:12
Von der Technik ist das aber eher G80 ;)

LoL, du hast ATI gerettet. Ich frage mich, wann endlich Bilder vom Board auftauchen :rolleyes:

doppel D
2006-12-13, 18:26:35
Wenn der R600 Technisch überzeugen kann besteht noch hofnung.:hoff:

The_Invisible
2006-12-13, 18:45:37
Nenne mir wenigstens einen Grund warum jetzt neue Grafikkarten sinnvoll sind? Ich hab schon vor knapp einem Jahr dagestanden ohne Software für die X1900 und jetzt ist es immernoch nicht viel anders.
Von unoptimierten 08/15 Titeln mal abgesehen...

glaubst du beim R600 gibt es dann D3d10 Software zuhauf?

ansonsten wäre ein grund der speed, kauf dir doch G80 SLI wenn du speed haben willst anstatt auf ne pseudo 2ghz R600 zu hoffen die in 2 Monaten kommt.

mfg

seahawk
2006-12-13, 19:39:52
Und du kannst die 2GHz Radeon ja auch im Crossfire fahren. :D

DrumDub
2006-12-13, 20:13:06
Und du kannst die 2GHz Radeon ja auch im Crossfire fahren. :D hoffentlich wird dann der nächste winter härter. ;D

Gast
2006-12-13, 20:40:48
hoffentlich wird dann der nächste winter härter. ;D
Und vor allem der nächste Sommer kühler! :biggrin:

seahawk
2006-12-13, 20:56:40
hoffentlich wird dann der nächste winter härter. ;D
Sonst macht das Gespann dem Fire-Namen alle Ehre. ;D

Armaq
2006-12-13, 21:45:36
Also das hier schon Moderatoren rumspammen...

Crossfire bezieht sich nunmal auch auf die Wärme unterm Computertisch.

Kann jemand eigentlich mal eine kurze Zwischenrechnung aufstellen, was die Rechenkraft anbelangt? Von mir auch aus in GFlops. :D

Odal
2006-12-13, 21:47:25
also zusammenfassend was ich hier jetzt zwischen den zeilen herausgelesen habe

wird der R600 auf dem Papier ähnlich wie bei der X1800xt vs. 7800GTX erstmal weniger imposant (damals wars ja noch einfacher mit 16vs24 pipes zu vergleichen) aber im endeffekt wird er 15-20% vor dem G80 liegen da die Alus etc. flexibler sind bzw. mehr können bzw. effizienter sind.

Gouvernator
2006-12-13, 21:52:28
glaubst du beim R600 gibt es dann D3d10 Software zuhauf?

ansonsten wäre ein grund der speed, kauf dir doch G80 SLI wenn du speed haben willst anstatt auf ne pseudo 2ghz R600 zu hoffen die in 2 Monaten kommt.

mfg
Also was ich an Speed will das schafft keine r600@2000mhz crossfire =) Warten warten also

seahawk
2006-12-13, 21:55:47
also zusammenfassend was ich hier jetzt zwischen den zeilen herausgelesen habe

wird der R600 auf dem Papier ähnlich wie bei der X1800xt vs. 7800GTX erstmal weniger imposant (damals wars ja noch einfacher mit 16vs24 pipes zu vergleichen) aber im endeffekt wird er 15-20% vor dem G80 liegen da die Alus etc. flexibler sind bzw. mehr können bzw. effizienter sind.

15-20% im Schnitt würde mich überraschen, wenn es keine Press Edition gibt.

deekey777
2006-12-13, 21:59:37
Also das hier schon Moderatoren rumspammen...

Crossfire bezieht sich nunmal auch auf die Wärme unterm Computertisch.

Kann jemand eigentlich mal eine kurze Zwischenrechnung aufstellen, was die Rechenkraft anbelangt? Von mir auch aus in GFlops. :D
Moderator, Moderator und nicht Moderatoren. ;D
Wessen Rechenkraft? Des R600? Ohne zu wissen, wieviel wovon ist, müssen es mindestens 500 GFlop/s sein. Der R580 schafft allein schon über 400 GFlop/s:
The table above breaks down the number of floating point operations that the R580 can handle per-cycle, which adds to 656 FLOPs per cycle. When this is applied to the clockspeed of 650MHz it equates to 426.6GLOPS/s.
Wenn die US-ALUs des R600 den VS-ALUs des R520/R580 entsprechen, sind es 10 Flop pro Takt. (Die PS-ALUs des R520/R580 schaffen dagegen 12 Flop/Takt.)
Nehmen wir an, die "Specs von Rage3D" stimmen, und es sind 64 "5D"-ALUs, komme ich auf 512 GFlop/s. Der G80 kommt auf 524 oder so (wenn die zweite MUL funktioniert, trotzdem ist die 8800GTX extrem schnell und schafft dabei weniger GFlop/s als der R580!).
also zusammenfassend was ich hier jetzt zwischen den zeilen herausgelesen habe

wird der R600 auf dem Papier ähnlich wie bei der X1800xt vs. 7800GTX erstmal weniger imposant (damals wars ja noch einfacher mit 16vs24 pipes zu vergleichen) aber im endeffekt wird er 15-20% vor dem G80 liegen da die Alus etc. flexibler sind bzw. mehr können bzw. effizienter sind.
Eben nicht. Sie können zwar mehr, aber sie haben nicht die Effzienz der Vec16-ALUs des G80.
Schaut euch mal die Artikel zum G80 an, wo die Funktionsweise der Vec16-ALUs des G80 erklärt wird. Ich kann dir absolut zustimmen, dass die einzelne ALU des R600 (wenn sie so sind wie oben beschrieben) der einzelnen ALU des G80 überlegen sind, aber das gleicht der G80 mit dem doppelt so hohen Takt und der riesigen Anzahl aus.

Hauwech
2006-12-13, 22:29:50
Also wenn ich so die "Informationen" über 1 GHz lese, frage ich mich wie realistisch die für den Massenmarkt sind. Wäre interessant zu wissen wie die erreicht wurden, wenn es denn stimmt.

dargo
2006-12-13, 22:30:46
Ich kann dir absolut zustimmen, dass die einzelne ALU des R600 (wenn sie so sind wie oben beschrieben) der einzelnen ALU des G80 überlegen sind, aber das gleicht der G80 mit dem doppelt so hohen Takt und der riesigen Anzahl aus.
Mich würde mal interessieren wieso du immer vom doppelten Takt sprichst wenn der GPU Takt vom R600 noch gar nicht bekannt ist?
Oder meinst du die 575Mhz zu 1350Mhz des G80?

deekey777
2006-12-13, 22:34:11
Mich würde mal interessieren wieso du immer vom doppelten Takt sprichst wenn der GPU Takt vom R600 noch gar nicht bekannt ist?
Oder meinst du die 575Mhz zu 1350Mhz des G80?
Ba, erwischt. Ich schreibe immer vom R580 zu G80 (hier geht's ja um die arithmetische Leistung). Wenn der R600 mit 800 MHz taktet, dann sollte der Taktvorteil des G80 schrumpfen, aber da wären immernoch die acht Vec16-ALUs (das sind 128 irgendwas, sprich 16 Vertizen und 112 Pixel zum Bleistift).

Demirug
2006-12-13, 22:37:13
Also wenn ich so die "Informationen" über 1 GHz lese, frage ich mich wie realistisch die für den Massenmarkt sind. Wäre interessant zu wissen wie die erreicht wurden, wenn es denn stimmt.

Mit entsprechend viele Pipeline Stufen sind >= 1 GHZ kein Problem. Aber wie wir beim p4 gesehen haben hat das seinen Preis.

Demirug
2006-12-13, 22:39:14
Ba, erwischt. Ich schreibe immer vom R580 zu G80 (hier geht's ja um die arithmetische Leistung). Wenn der R600 mit 800 MHz taktet, dann sollte der Taktvorteil des G80 schrumpfen, aber da wären immernoch die acht Vec16-ALUs (das sind 128 irgendwas, sprich 16 Vertizen und 112 Pixel zum Bleistift).

Wie kommst du auf 112 Pixel? Ein Pixel besteht mindestens aus RGB.

Hauwech
2006-12-13, 22:48:35
Mit entsprechend viele Pipeline Stufen sind >= 1 GHZ kein Problem. Aber wie wir beim p4 gesehen haben hat das seinen Preis.

Nee, das meinte ich eigentlich nicht. Ich dachte eher daran ob das jetzt evtl nur mit (zu) hoher Spannung ging was dann in, einfach mal ins Blaue geschätzte, 150 W resultierte was aber halt für den Markt witzlos ist.

Oder ob es halt nur 1 oder 2 Chips waren die diesen Takt erreicht haben und der Rest schon wesentlich früher die Leiterbahnen gestreckt hat. Mundgeblasene und Fußbemalte Chips wenn man so will.

Mir ist klar das >= 1GHz a la P4 kein Problem wären, so "dumm" schätze ich ATI aber nun wirklich nicht ein.

edit: Ich mein, 1 GHz klingen ja toll, aber wenn es nur PR Müll ist, ich weiss nicht was das bringen soll.

Hvoralek
2006-12-13, 22:52:59
Wie kommst du auf 112 Pixel? Ein Pixel besteht mindestens aus RGB.Rechnet nicht jede Skalareinheit des G80 an einem "eigenen" Pixel und braucht dafür eben mehrere Takte?

deekey777
2006-12-13, 22:58:52
Wie kommst du auf 112 Pixel? Ein Pixel besteht mindestens aus RGB.
Kauf dir die nächste PCGH da versuche ich es zusammen mit Carsten zu erklären. *SCNR*

:biggrin:
Doof ausgedrückt.
Nicht pro Takt, aber Takt bereinigt sind es mehr als beim R580, oder?
Beim R580 sind es 48 Pixel, beim G80 wären es 112 zB durch vier (RGBA) und mal 2 (1350 MHz). Bei RGB sind es immer noch über 70 Stück.
Mist, gerade wurde mein Glaube an den G80 erschüttert.
Rechnet nicht jede Skalareinheit des G80 an einem "eigenen" Pixel und braucht dafür eben mehrere Takte?
Ja. Und ich glaube, das war sein Einwand.

Demirug
2006-12-13, 22:59:43
Rechnet nicht jede Skalareinheit des G80 an einem "eigenen" Pixel und braucht dafür eben mehrere Takte?

Natürlich aber das muss man eben beim Vergleich mit einer RGBA FPU berücksichtigen den diese bracht ja nur einen Takt für den ganzen Pixel.

Demirug
2006-12-13, 23:07:41
:biggrin:
Doof ausgedrückt.
Nicht pro Takt, aber Takt bereinigt sind es mehr als beim R580, oder?
Beim R580 sind es 48 Pixel, beim G80 wären es 112 zB durch vier (RGBA) und mal 2 (1350 MHz). Bei RGB sind es immer noch über 70 Stück.
Mist, gerade wurde mein Glaube an den G80 erschüttert.

Die GFlops waren doch schon mal ein guter Ausgangspunkt.

Jetzt müssen wir uns nur noch überlegen wo die jeweiligen Chips architekturbedingt wie viel Leistung verschenken.

BTW Die allgemein verwendete GFlops Berechnung beim G80 stimmt wohl nicht ganz. Zu den 16*(2[MAD]+1[MUL]) kommen wohl noch 4 Spezialfunktionen (Sin, Cos,…) hinzu.

deekey777
2006-12-13, 23:10:59
Aber für diese SF braucht der G80 doch vier Takte?

561,6 GFlop/s bei der 8800GTX?

Odal
2006-12-13, 23:11:37
15-20% im Schnitt würde mich überraschen, wenn es keine Press Edition gibt.

vielleicht nicht mit dem launch treiber da ja der G80 dahingehend etwas Vorsprung hat...aber im endeffekt hört sich das hier im thread nach 15-20% mehrleistung im schnitt an

ausserdem schiebt NVidia ja relativ bald den G81 nach welcher den R600 wohl wieder leicht übertrumphen wird bzw. zumindest gleichzieht

Demirug
2006-12-13, 23:17:31
Aber für diese SF braucht der G80 doch vier Takte?

Ja deswegen auch nur 4 und keine 16 zusätzlicher FLOPS pro Takt.

deekey777
2006-12-14, 00:14:00
Die GFlops waren doch schon mal ein guter Ausgangspunkt.

Jetzt müssen wir uns nur noch überlegen wo die jeweiligen Chips architekturbedingt wie viel Leistung verschenken.

BTW Die allgemein verwendete GFlops Berechnung beim G80 stimmt wohl nicht ganz. Zu den 16*(2[MAD]+1[MUL]) kommen wohl noch 4 Spezialfunktionen (Sin, Cos,…) hinzu.
Kann der G80 bei seiner Flexibilität überhaupt zu viel an Leistung verschenken (abgesehen von der vermissten MUL)?

Überhaupt: Auch wenn der R600 von den GFlop/s her dem G80 ebenbürtig sein sollte, hat der G80 bzw. die 8800GTX ihre 32 "Monster-"TMUs. Da wird der vermutlich sehr hohe Takt der R600 nicht viel ausmachen können, um diese Leistung in den Boden zu stampfen, insbesondere wenn die TEX-Leistung immernoch wichtiger ist (besser gesagt sind aktuelle Spiele arithmetisch nicht fordernd genug).

Demirug
2006-12-14, 00:44:27
Gut erkannt. Allerdings könnte ATI vielleicht noch was über die Z-Cull Performance rausholen. Da waren sie ja immer recht gut.

Coda
2006-12-14, 01:34:38
Ist das bei G80 nicht auch verbessert worden? Was hindert nVIDIA eigentlich daran Hier-Z zu verwenden? Patente?

deekey777
2006-12-14, 01:37:41
http://www.hexus.net/content/item.php?item=7455

And finally, a bit more availability info for you. While "Dragon's Head" and "Cat's Eye" will be available at R600 launch, we'll be waiting for an extra thirty days before "UFO" comes flying in.
UFO soll ein R600 mit GDDR3-Speicher sein (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5060569), könnte also passen. Und was ist mit Pele?:|

Gast
2006-12-14, 08:52:46
http://www.hexus.net/content/item.php?item=7455


UFO soll ein R600 mit GDDR3-Speicher sein (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5060569), könnte also passen. Und was ist mit Pele?:| Pele soll doch der R600 mit GDDR4 sein. Vielleicht sind "Dragon's Head" und "Cat's Eye" zwei Pele-Versionen.

Gast
2006-12-14, 09:04:47
Ist das bei G80 nicht auch verbessert worden? Was hindert nVIDIA eigentlich daran Hier-Z zu verwenden? Patente?
Verbessert ja, aber aktuelle Treiber kranken immer noch an dramatisch einbrechender Verwerfungsrate bei aktivem MSAA.


Q

robbitop
2006-12-14, 10:18:31
4*way MIMD arranged SIMD quads ;)
Nö, wenn ich Coda richtig verstehe kannst du das MIMD gegen das SIMD tauschen. ;)
(klingt aber ziemlich seltsam)

Coda
2006-12-14, 11:50:38
Nene passt schon. R5xx ist MIMD of SIMD ähnlich G8x.

Gast
2006-12-14, 12:06:43
Warum soll der R600 denn Technisch gut sein?Gibts da was genaueres?

robbitop
2006-12-14, 12:07:41
Nene passt schon. R5xx ist MIMD of SIMD ähnlich G8x.
Das ist klar. Ich dachte er sprach den G70 an.

Wobei MIMD doch auch nicht unbedingt stimmt. Bei MIMD müssen alle Instruktionen einer Operation gleichzeitig ausgeführt werden. Bist du dir sicher, dass alle Quadpipes im R5xx gleichzeitig ihre Operationen ausführen? Ich dachte immer die machen das unabhängig voneinander (dann ist es kein MIMD mehr).

deekey777
2006-12-14, 12:10:15
Warum soll der R600 denn Technisch gut sein?Gibts da was genaueres?
Irgendwie verstehe ich die erste Frage nicht. Warum soll er technisch nicht gut sein? Bzw. was verstehst du unter "technisch gut"?

Gast
2006-12-14, 12:31:12
Irgendwie verstehe ich die erste Frage nicht. Warum soll er technisch nicht gut sein? Bzw. was verstehst du unter "technisch gut"?

Ich habe die Frage wegen Codas anspielung gestellt.

deekey777
2006-12-14, 12:38:41
Ich habe die Frage wegen Codas anspielung gestellt.
Meinst du das?
Ist das bei G80 nicht auch verbessert worden? Was hindert nVIDIA eigentlich daran Hier-Z zu verwenden? Patente?
Da war ATi schon immer Weltmeister.
http://www.3d-center.de/artikel/2004/07-30.php
Das schafft aber eine GeForce-Karte ab GeForce3 auch schon, obwohl GeForce-Karten bis einschließlich der GeForceFX 5950 Ultra gerade einmal eine einzige Quadpipeline haben. Early-Z wird bei GeForce-Chips vor den Pipelines gemacht. Die GeForce 6800 Serie kann nun sogar 16 Quads pro Takt verwerfen, also 64 Pixel. Im "Nichtrechnen" ist der NV40-Chip unter Doom 3 demnach viermal schneller als ein R420/R423-Chip. Sofern aber die Z-Test-Methode nicht mitten im Rendervorgang geändert wird, kann der R420/R423-Chip sein HyperZ nutzen und bis zu vier 8x8-Kacheln (also bis zu 256 Pixel) pro Takt aussortieren.
Oder das:
Nene passt schon. R5xx ist MIMD of SIMD ähnlich G8x.
Da ist eine gewisse Ähnlichkeit beim R520 und Co.

Gast
2006-12-14, 12:41:44
Ich meine die aussage.

Zitat von Blutmaul
Naja, der R600 hört sich inzwischen an, wie eine Netburst-GPU

Coda:Von der Technik ist das aber eher G80

deekey777
2006-12-14, 12:44:17
Ich meine die aussage.

Zitat von Blutmaul
Naja, der R600 hört sich inzwischen an, wie eine Netburst-GPU

Coda:Von der Technik ist das aber eher G80
Warum zitierst du denn diese nicht?;(
Der G80 hat viele kleine Recheneinheiten: Damit sie eine der Konkurrenz ebenbürtige Leistung erreichen, laufen sie mit sehr hohen Takt.

crux2005
2006-12-14, 13:09:11
561,6 GFlop/s bei der 8800GTX?

Ja ich weiß, es ist hier OT, aber wie viel GFlop/s hat der 8800GTX dann ? :crazy:

w0mbat
2006-12-14, 13:26:14
518

robbitop
2006-12-14, 13:27:30
Warum sollte NV Hierachial Z nutzen? Deren Early Z geht einfach einen anderen Weg. Je nach Situation ist mal die eine Variante besser und mal die andere.

Gast
2006-12-14, 13:33:13
518

Du schätzer.

crux2005
2006-12-14, 13:38:44
518

ja ja :rolleyes:
das habe ich ja auch in allen Reviews gelesen

aber wenn man die GFlop/s so errechnet ?

Zu den 16*(2[MAD]+1[MUL]) kommen wohl noch 4 Spezialfunktionen (Sin, Cos,…) hinzu.

Ailuros
2006-12-14, 13:40:17
Evtl. ist es ja sogar so was: (Wenn man schon von Xenos+R5xx-Hybrid redet :rolleyes:)

http://www.mental-asylum.de/files/r600alu.png

Nein.

Gast
2006-12-14, 13:41:43
Nein.

Und wieso nicht?

Ailuros
2006-12-14, 13:49:59
Und wieso nicht?

Weil seine Illustration zu viel FLOPs gibt LOL :D

deekey777
2006-12-14, 13:50:44
Weil seine Illustration zu viel FLOPs gibt LOL :D

10 Stück, reicht doch.

Ailuros
2006-12-14, 13:55:08
Warum sollte NV Hierachial Z nutzen? Deren Early Z geht einfach einen anderen Weg. Je nach Situation ist mal die eine Variante besser und mal die andere.

ATI kombiniert HierZ mit earlyZ sowieso schon seit ein paar Generationen. Der fundamentalere Unterschied zwischen den beiden Architekturen ist dass ATI screen space tiling benutzt was aber sowohl Vor- und Nachteile haben kann. Ironischerweise gibt es ein ziemlich neues Patent von Herrn Zhu (NVIDIA) dass ueber SST handelt ;)

Ailuros
2006-12-14, 13:56:16
10 Stück, reicht doch.

Ich bin allergisch gegen gerade Zahlen :biggrin:

robbitop
2006-12-14, 14:03:41
ATI kombiniert HierZ mit earlyZ sowieso schon seit ein paar Generationen. Der fundamentalere Unterschied zwischen den beiden Architekturen ist dass ATI screen space tiling benutzt was aber sowohl Vor- und Nachteile haben kann. Ironischerweise gibt es ein ziemlich neues Patent von Herrn Zhu (NVIDIA) dass ueber SST handelt ;)
Ob nun Screenspace Tiling (ATI) oder Quadbatches (NV) kommt auf ein Ähnliches heraus. Selbst S3 setzt seit dem Columbia ein solches Verfahren ein.
Natürlich benötigt ein Hir Z auch eine Art Early Z. Aber nur ein relativ einfaches. Das Early Z von NV geht dort einen etwas anderen Weg.

Ailuros
2006-12-14, 14:09:00
Ob nun Screenspace Tiling (ATI) oder Quadbatches (NV) kommt auf ein Ähnliches heraus. Selbst S3 setzt seit dem Columbia ein solches Verfahren ein.

Nein.


Natürlich benötigt ein Hir Z auch eine Art Early Z. Aber nur ein relativ einfaches. Das Early Z von NV geht dort einen etwas anderen Weg.

Weil ATI auch kein komplizierteres earlyZ dank HierZ braucht.

Gast
2006-12-14, 14:12:17
Ich bin allergisch gegen gerade Zahlen :biggrin:

Mhh, Ratestunde hier....wie wärs mit 7^^...

Der R600 erinnert mich jetzt wirklich an den X1800XT oder R520. Also wenig Einheiten aber gute Auslastung und mit viele Funktionen oder?

boxleitnerb
2006-12-14, 14:16:03
Ailuros, wäre nett, wenn du deine Neins auch erklären könntest. Sonst klingt das nämlich sehr herablassend und könnte provokativ wirken. Und dass sowas zu OT führt, ist ja leider bekannt ;)

deekey777
2006-12-14, 14:20:04
Ailuros, wäre nett, wenn du deine Neins auch erklären könntest. Sonst klingt das nämlich sehr herablassend und könnte provokativ wirken. Und dass sowas zu OT führt, ist ja leider bekannt ;)
Herablassend ist das keineswegs, nur fies. Ist aber immernoch besser, als auf die nächste Ausgabe der PCGH zu verweisen.:biggrin:
Wenn es keine Zehn war und es eine ungerade Zahl sein soll, dann kann es eine Xenos-ALU sein: 5D und 9 Flop pro Takt.

Coda
2006-12-14, 14:23:23
Bei MIMD müssen alle Instruktionen einer Operation gleichzeitig ausgeführt werden.

Das ist SIMD (Single Instruction Multiple Data). Bei MIMD führt jedes Quad andere Instructions aus.

Bist du dir sicher, dass alle Quadpipes im R5xx gleichzeitig ihre Operationen ausführen? Ich dachte immer die machen das unabhängig voneinander (dann ist es kein MIMD mehr).

Du verwechselst da was. MIMD stimmt schon. (Multiple Instruction Multiple Data).

NV4x/G7x sind komplett SIMD (alle Quads führen das gleiche aus).

Ailuros
2006-12-14, 14:34:21
Ailuros, wäre nett, wenn du deine Neins auch erklären könntest. Sonst klingt das nämlich sehr herablassend und könnte provokativ wirken. Und dass sowas zu OT führt, ist ja leider bekannt ;)

Ich erklaere sie nur wenn ich 100% sicher bin dass ich sie auch erklaeren darf. Sonst kannst Du mit ja gerne die Unkosten bezahlen wenn ich fuer die Veroeffentlichung klassifizierter Info angeklagt werde. Die einzige Loesung waere eigentlich meine Klappe ganz zu halten und mich im geheimen mir stets in die Faust zu kichern wenn ich etwas lese. Was von den beiden arroganter ist, kann jeder fuer sich entscheiden.

Ailuros
2006-12-14, 14:36:23
NV4x/G7x sind komplett SIMD (alle Quads führen das gleiche aus).

Haarspalterei Modus: ausser den VS *rennt um sein Leben* :P

robbitop
2006-12-14, 14:41:16
Das ist SIMD (Single Instruction Multiple Data). Bei MIMD führt jedes Quad andere Instructions aus.



Du verwechselst da was. MIMD stimmt schon. (Multiple Instruction Multiple Data).

NV4x/G7x sind komplett SIMD (alle Quads führen das gleiche aus).

Ich verwechsle da gar nichts. Ich habe mich vieleicht nur unklar ausgedrückt.

SIMD: Nur eine Instruktion für alle Kanäle.
MIMD: Für jeden Kanal eine eigene Instruktion.

Jedoch werden bei MIMD alle Instruktionen zwangsweise gleichzeitig durchgeführt. Und genau diesen Punkt bezweifle ich bei den R5xx Pipes.

robbitop
2006-12-14, 14:44:28
Nein.

Beides sind Aufteilungsverfahren für die Quadpipes. Nur dass Screentiling ganze Blöcke aufteilt und es bei Quadbatches nicht unbedingt Blöcke ergeben müssen. (zumal S3 HirZ ebenfalls einsetzt und die kein Screentiling haben, sondern ein anderes Verfahren)



Weil ATI auch kein komplizierteres earlyZ dank HierZ braucht.
Weil sie einen anderen Weg gehen. Weder das eine noch das andere Verfahren ist nachweislich das bessere.

Coda
2006-12-14, 14:46:16
Jedoch werden bei MIMD alle Instruktionen zwangsweise gleichzeitig durchgeführt.

Was meinst du mit gleichzeitig? MIMD heißt nur dass die Prozessoren zwar das gleiche Programm ausführen aber an welcher Position diese Programme sich befinden ist komplett unabhängig.

Gast
2006-12-14, 16:15:11
Beides sind Aufteilungsverfahren für die Quadpipes. Nur dass Screentiling ganze Blöcke aufteilt und es bei Quadbatches nicht unbedingt Blöcke ergeben müssen. (zumal S3 HirZ ebenfalls einsetzt und die kein Screentiling haben, sondern ein anderes Verfahren)



Weil sie einen anderen Weg gehen. Weder das eine noch das andere Verfahren ist nachweislich das bessere.

Allgemein gilt dass das HirZ effektiver arbeitet und im Schnitt aller Fälle mehr verwirft.

robbitop
2006-12-14, 16:45:47
Allgemein gilt dass das HirZ effektiver arbeitet und im Schnitt aller Fälle mehr verwirft.
Weil du das sagst? Dafür will ich eine Quelle. Ich will Beweise, Werte sehen. Und ja nicht irgendwelche Synthies, wo großflächiger Overdraw vorhanden ist. Wie du das anstellen willst? Keine Ahnung. Das ist ja das Problem. Man kann es in Realworldspielen nicht wirklich quantisieren, ohne dass Verfäslchung entsteht (da ja noch viele andere Dinge mithineinspielen).

ShadowXX
2006-12-14, 16:48:33
Weil du das sagst? Dafür will ich eine Quelle. Ich will Beweise, Werte sehen. Und ja nicht irgendwelche Synthies, wo großflächiger Overdraw vorhanden ist. Wie du das anstellen willst? Keine Ahnung. Das ist ja das Problem. Man kann es in Realworldspielen nicht wirklich quantisieren, ohne dass Verfäslchung entsteht (da ja noch viele andere Dinge mithineinspielen).
Den Einwurf von Quasar hattest du gelesen?

Ich schätze das er sich das nicht so ganz aus den Fingern gesaugt hat.

ScottManDeath
2006-12-14, 16:54:31
...Die einzige Loesung waere eigentlich meine Klappe ganz zu halten und mich im geheimen mir stets in die Faust zu kichern wenn ich etwas lese.

Och, ich bin damit ganz gut gefahren bis jetzt ;) Man kann ja, nach Release dann Details, soweit public ausplaudern, bzw Unklarheiten beseitigen, aber davor :redface:

robbitop
2006-12-14, 16:58:36
Den Einwurf von Quasar hattest du gelesen?

Ich schätze das er sich das nicht so ganz aus den Fingern gesaugt hat.
Habe ich nicht. Hast du mal einen Link?

Gast
2006-12-14, 17:02:25
Mhh es scheint das der R600 einige Überraschungen hat.
Nach meiner Ansicht wird er 64 Vec5 Shader haben, die 9 Flops leisten.
Wobei diese Vec5-ALUs ziemlich flexibel wären.
Damit wäre der R600 im Grundzustand kaum schneller als der R580, aber er könnte unheimlich von Treibern und anderen Verbesserungen profitieren.
Was ich gelesen habe, wird der R600 ein ziemlich gutes Registermanagement haben.

Black-Scorpion
2006-12-14, 17:40:38
Habe ich nicht. Hast du mal einen Link?
Ich bin zwar nicht der Gast, aber er meint bestimmt den Beitrag.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5081778#post5081778

robbitop
2006-12-14, 18:42:16
Das hatte aber nichts mit HirZ zu tun. Natürlich sinkt die Verwerfungsrate, wenn MSAA aktiv ist, da die Z-Test Units gebraucht werden, um die n-fache Anzahl an Z-Werten in den VRAM zu schreiben. So können sie gleichzeitig natürlich weniger Z-Tests machen. Das sollte allerdings in der Praxis nicht limitieren.

nagus
2006-12-15, 07:44:09
hab was nettes "gefunden" ;)

Quelle: AMD Financial Analysts Day

More interestingly, in his verbal remarks Orton reported (at roughly the 1:22:30 mark of the webcast) that one of R600's key advantages would be "new levels of memory bandwidth to the graphics subsystem, and bandwidth is critical to graphics performance." As all graphics geeks know, AMD pioneered the move to GDDR4 memory with the Radeon X1950 XTX, which gave them a temporary advantage in bandwidth. However, in the period since NVIDIA has released the 384-bit GeForce 8800 GTX, whose memory bandwidth crushes the X1950 XTX by 86.4GB/s to 64.0GB/s. It is impossible that AMD could regain a significant enough advantage in bandwidth to be cited by Orton as a major competitive advantage without following NVIDIA north of the 256-bit bus that has been a mainstay of the ATI/AMD high-end products since 2002's Radeon 9700 Pro.

As such, Beyond3D now believes that the persistent rumours that R600 will feature a 512-bit bus to graphics memory are most likely true, and at any rate believes that R600 must feature an external bus greater than 256-bit in order to back up the smack AMD's Executive Vice President laid down.

jetzt sollten die letzten zweifel ausgeräumt sein ;)

Gast
2006-12-15, 08:19:32
512 bit *händereib* bitte laß die karte abgehen wie früher die 9700pro

seahawk
2006-12-15, 08:27:25
Das einzige was ich daraus lese ist, dass sie wieder GDDR4 verwenden.Bei der 1950XTX verwendet man GDDR4@1000Mhz, Samsung produziert nun aber auch GDDR4 @ 1400Mhz. Damit hätte man 89,6 GB/s und wäre im Verglöeich zur X1950XTX bei einem new level of bandwith.

nagus
2006-12-15, 08:32:45
Das einzige was ich daraus lese ist, dass sie wieder GDDR4 verwenden.Bei der 1950XTX verwendet man GDDR4@1000Mhz, Samsung produziert nun aber auch GDDR4 @ 1400Mhz. Damit hätte man 89,6 GB/s und wäre im Verglöeich zur X1950XTX bei einem new level of bandwith.

ich verstehe nicht wieso es manche leute einfach nicht begreifen. JEDES verdammte "Gerücht" besagt, dass es 512bit sein werden und dave orton würde wohl kaum von einem "new level" sprechen wenn sie nicht nvidia deutlich schlagen.

HALLO aufwachen!!!!

seahawk
2006-12-15, 08:40:20
Wo steht, dass der R600 zur G80 vergleicht ? Und Gerüchte sind Gerüchte ...

AnarchX
2006-12-15, 09:24:58
hab was nettes "gefunden" ;)

Quelle: AMD Financial Analysts Day

[...]


Wie wäre es denn mal mit einem Link, sonst könnte man auch auf die Idee kommen, dass du dir den Text ausgedacht hast.;)

MuLuNGuS
2006-12-15, 09:35:25
512bit finde ich jetzt nicht so schockierend...wird NV früher oder später auch anbieten.

interessant wird der stromverbrauch.
®

seahawk
2006-12-15, 09:42:50
512bit und GDDR4 bedeutet bei langsamster Taktung (1100 Mhz) einen Banbreitenvorteil von um 50% gegenüber dem G80. Das finde ich erstmal schon schockierend.

AnarchX
2006-12-15, 09:45:32
512bit und GDDR4 bedeutet bei langsamster Taktung (1100 Mhz) einen Banbreitenvorteil von um 50% gegenüber dem G80. Das finde ich erstmal schon schockierend.
Genauso schockierend dürfte in diesem Szenario auch der Preis ausfallen...;)

Botcruscher
2006-12-15, 10:16:08
Ob die Karte nun 600 oder 700€kostet spielt in dem Bereich keine Rolle.

Gast
2006-12-15, 10:19:30
hehe, über den Sinn solch einer großen Bandbreite haben wir auch schon diskutiert hier, aber manche wollen ja nicht begreifen...

Gouvernator
2006-12-15, 11:06:48
Genauso schockierend dürfte in diesem Szenario auch der Preis ausfallen...;)

Mich kann nicht viel schokieren ich hab bereits für 1900XTX 699€ ausgegeben...Und die anderen die immer 2 davon kaufen erst recht nicht... Genau so mit dem Strom...

Hvoralek
2006-12-15, 11:25:17
Wie wäre es denn mal mit einem Link, sonst könnte man auch auf die Idee kommen, dass du dir den Text ausgedacht hast.;)http://www.beyond3d.com/

Wenn Du den Text komplett gelesen hättest, hättest Du es Dir auch selbst denken können: As such, Beyond3D now believes that the persistent rumours that R600 will feature a 512-bit bus to graphics memory are most likely true [...] :wink:

mapel110
2006-12-15, 11:29:03
http://www.beyond3d.com/

Wenn Du den Text komplett gelesen hättest, hättest Du es Dir auch selbst denken können: :wink:
Hm, also wenn Beyond3D irgendwelche Gerüchte kommentiert, dann ist da auch was dran. Das war bislang immer so. Die wissen halt, welche Gerüchte wahr oder falsch sind. Sie müssen nur auf ihre Formulierungen achten.
Aber Sinn sehe ich in der großen Bandbreite nicht. Oder ATI hat sehr hohe AA-Modi implementiert?!

AnarchX
2006-12-15, 11:34:29
http://www.beyond3d.com/

Wenn Du den Text komplett gelesen hättest, hättest Du es Dir auch selbst denken können: :wink:

Die Mühe mach ich mir nicht unbedingt, lese doch lieber direkt die Original-Quelle.;)

Aber Sinn sehe ich in der großen Bandbreite nicht. Oder ATI hat sehr hohe AA-Modi implementiert?!
Ailuros deutetet ja an, dass der die Situation G80/R600, sehr ähnlich der von G70/R520 sein soll.
Viellieicht gibt es ja bis zu 12xMSAA, auch wenn die Sinnhaftigkeit davon fraglich wäre.

Das 512bit-SI sehe ich weiterhin kritisch, vorallem mit den vergangenen Gerüchten um R600 und GDDR4.
Warum sollte man denn so massiv die Bandbreite erhöhen, wenn auch weniger reichen würde um den Mitbewerber um ein gesundes Maß zu übertrumpfen?
Aber vielleicht ist es ja gerade notwendig um dieses Maß zu erreichen und man weiß vielleicht schon etwas mehr über den G81 bei ATi. ;)

Hvoralek
2006-12-15, 11:41:47
Hm, also wenn Beyond3D irgendwelche Gerüchte kommentiert, dann ist da auch was dran. Das war bislang immer so. Die wissen halt, welche Gerüchte wahr oder falsch sind. Sie müssen nur auf ihre Formulierungen achten.Ich fange langsam auch an, das zu glauben. Selbst wenn sich dieses "new levels of bandwidth" nur auf die X1950XTX bezieht und nicht auf die 8800 GTX, braucht man mehr als ein 256- bit- SI. Naja, wobei ich dem Marketing beider Unternehmen einiges zutrauen würde.

Aber Sinn sehe ich in der großen Bandbreite nicht. Oder ATI hat sehr hohe AA-Modi implementiert?!Was für einen Sinn die Bandbreite hat, wird man erst sagen können, wenn man weiß, wie hoch sie wirklich ist und wie der Chip aussieht. Aber würde ATI so viel Aufwand treiben, nur um dann zB "1xx GiB/s" auf die Packung schreiben zu können?

Ailuros deutetet ja an, dass der die Situation G80/R600, sehr ähnlich der von G70/R520 sein soll.
Viellieicht gibt es ja bis zu 12xMSAA, auch wenn die Sinnhaftigkeit davon fraglich wäre.Gerade wenn die Bandbreite wirklich so enorm ist, könnte man ihn auch so verstehen, dass das R600- Spitzenmodell mit AA bedeutend schneller werden dürfte als die 8800 GTX, die beiden ohne/ mit wenig AA aber etwa gleichauf liegen (wie die X1800XT ggü der 7800 GTX). Weitere Assoziation: Das Spitzenmodell könnte zunächst einmal erheblich teurer sein als die 8800 GT: Wenn das mit dem Speicher stimmt, klingt das ziemlich plausibel.

seahawk
2006-12-15, 11:46:55
Beyond 3D scheint von GDDR4 @ 1200MHZ mit 512bit anzugehen. 153,6 GB/s ? Das wäre eine annährende Verdopplung gegenüber dem G80.

aths
2006-12-15, 11:52:27
Das 512bit-SI sehe ich weiterhin kritisch, vorallem mit den vergangenen Gerüchten um R600 und GDDR4.
Warum sollte man denn so massiv die Bandbreite erhöhen, wenn auch weniger reichen würde um den Mitbewerber um ein gesundes Maß zu übertrumpfen?Als die Grund-Specs des R600 festgezurrt wurden, hatte ATI doch keine Ahnung gegen was für eine Karte sie damit antreten.

Speicherbandbreite ist wichtig. Aber nicht alles. Programmiert man bestimmte komplexe Effekte für D3D10-Karten, spart man im Vergleich mit der D3D9-Version in der Regel Bandbreite.

Beyond 3D scheint von GDDR4 @ 1200MHZ mit 512bit anzugehen. 153,6 GB/s ? Das wäre eine annährende Verdopplung gegenüber dem G80.78% mehr sind imo nicht gleich "annähernd eine Verdopplung". Sollte die Zahl von 720 Mio. Transistoren stimmen (was soweit ich weiß kein echtes Gerücht ist sondern nur mal so von irgendjemanden in den Raum geworfen wurde) frage ich mich, welche Einheiten AMD mit der Speicherbandbreite auslasten will.

Volles 8x sparse Multisampling mit TAA-SS halte ich für die aktuelle Generation für genug, was AA-Qualität angeht. Interessant übrigens auch: Je besser die Kantenglättungsqualität, umso nerviger Texturflimmern.

AnarchX
2006-12-15, 12:06:04
Als die Grund-Specs des R600 festgezurrt wurden, hatte ATI doch keine Ahnung gegen was für eine Karte sie damit antreten.


Aber verwendeter Speicher und Auslieferungstakt gehören imo nicht zu den Grundspecs.
Warum bei 512bit nicht noch auf GDDR3 setzen, damit sind auch Bandbreiten jenseits der 100GB/s möglich und man hätte auch noch Optionen für den Refresh.

robbitop
2006-12-15, 12:14:59
Hm warum erscheint es allen unmöglich, dass ATI ein 384 Bit SI einsetzt?

Gast
2006-12-15, 12:15:22
Beyond 3D scheint von GDDR4 @ 1200MHZ mit 512bit anzugehen. 153,6 GB/s ? Das wäre eine annährende Verdopplung gegenüber dem G80.

Nur wird diese Karte dann nicht mehr der Konkurrent sein.
Vielleicht geht Nvidia mit einer "Ultra" auch auf GDDR4@1200MHZ und somit liege der Vorteil nurnoch bei 33%.

LovesuckZ

deekey777
2006-12-15, 12:27:06
R600 has 512-bit external memory bus, Orton promises it takes no prisoners (http://www.beyond3d.com/#news36695)
Da steht doch deutlich, dass es 512 bit sein sollen. UFO oder Pele?
Na ja: Baut mir einen Chip, egal was es koste...
http://img267.imageshack.us/img267/8570/amdad9cf8.jpg

Hoffentlich fragt jetzt niemand, ob der R600 eDRAM wie Xenos nutzt.

In other tidbits, Orton also vowed to be first to the 65nm technology process, but did not disclose which product he had in mind for the honor, nor even product type, GPU or chipset. Our graphics-oriented notes (and a few selected slides) on the rest of the conference are included inside, if you dare to take the red pill.

robbitop
2006-12-15, 12:28:53
R600 has 512-bit external memory bus, Orton promises it takes no prisoners (http://www.beyond3d.com/#news36695)
Da steht doch deutlich, dass es 512 bit sein sollen.

Nur hat B3D es dazugedichtet. ATI/AMD hat kein Wort davon gesagt. Insofern ist das nicht gesichert.

Spasstiger
2006-12-15, 12:31:58
Spricht eigentlich etwas für ein 384 Bit SI mit GDDR4? Auch das würde zu einem Vorsprung gegenüber Nvidia reichen.

Gast
2006-12-15, 12:36:17
Nur hat B3D es dazugedichtet. ATI/AMD hat kein Wort davon gesagt. Insofern ist das nicht gesichert.

Aber zu 95% sicher.

robbitop
2006-12-15, 12:38:58
Aber zu 95% sicher.
Eher zu 96,57324657214663446746754...% :|

deekey777
2006-12-15, 12:40:37
Nur hat B3D es dazugedichtet. ATI/AMD hat kein Wort davon gesagt. Insofern ist das nicht gesichert.
Nur ist B3D nicht Inquirer. In den meisten Fällen ist es fast immer so: Die "Insider", die nichts sagen dürfen, posten Gerüchte/News/Äußerungen anderer, denen man wiederum weniger traut. Sie verraten zwar weiterhin nichts, indirekt dagegen schon.
...
Speicherbandbreite ist wichtig. Aber nicht alles. Programmiert man bestimmte komplexe Effekte für D3D10-Karten, spart man im Vergleich mit der D3D9-Version in der Regel Bandbreite.

Bei der Masse an D3D10-Spielen wird dieser Vorteil keine große Spielen, denn die ersten D3D10-Grafikkarten sind mangels D3D10-Spiele nunmal nur schnellere D3D9-Grafikkarten.

Coda
2006-12-15, 12:43:06
Ich glaube was das SI angeht inzw. gar nichts mehr. Ich wäre weder von 256, 384 noch 512 Bit überrascht...

Bei 512 Bit wäre ich halt immer noch neugierig wie sie die Speicherchips platzieren wollen und vor allem wieviel Layer das PCB hat X-D

seahawk
2006-12-15, 12:59:16
Es soll ja eines der dicksten PCBs ever sein.

Wenn man aber jetzt mal animmt, das die Taktung um 1GHZ und das 512Bit PCB stimmen, dann wäre es ja ein Gedanke das man den Chip evtl. von einigen Funktionen erleichtert hat man z.B. bei bandbreitensparenden Maßnahmen Dinge weggelassen hat, weil man sowieso zuviel davon hat.

Ailuros
2006-12-15, 13:04:38
Nur hat B3D es dazugedichtet. ATI/AMD hat kein Wort davon gesagt. Insofern ist das nicht gesichert.

B3D hat es kein bisschen noetig etwas dazuzudichten und schon gar nicht auf Tabloid-Niveau zu spielen.

Da ich aber persoenlich stets zumindest auf wenigstens eine Anzeige warte bevor ich langsam meine eigenen Karten aufmache, sag ich Dir jetzt dass es gesichert ist. Und als kleiner Bonus das MSAA ist nichts besonderes. :P

Gast
2006-12-15, 13:07:57
Es stellt isch auch die Frage, ob nach dem Zusammenschluss AMD/ATI sich nicht für ATI neue Möglichkeiten der Optimierung eines Layouts ergeben haben. AMD sollte die deutlich besseren Tools haben, genauso wie Intel. Dadurch könnte der Takt wesentlich höher geworden sein, als es ATI alleine jemals hinbekommen hätte. Damit könnte auch die Speicherbandbreite viel besser ausgenutzt werden.

Gast
2006-12-15, 13:08:46
Nur hat B3D es dazugedichtet. ATI/AMD hat kein Wort davon gesagt. Insofern ist das nicht gesichert.

Allerdings, so sehe ich das auch. Besonders sollte B3D sich einmal den X1950 XTX Launch anschauen: Dort wurde auch stark der Vergleich mit der angeblichen Vorgängergeneration "X850 XT" bemüht und die Performance-Verdopplung dieser gegenüber herausgestellt.

Zudem: Mit 1,4 GHz GDDR4 hat man selbst gegenüber der X1950 XTX satte 40% Luft nach oben - da haben Marketing-Leute schon größere Elefanten aus kleineren Mücken aufgeblasen. ;)


Ich sage nicht, dass es unmöglich ist, nur, dass man das aus dieser vagen Aussage Ortons nicht zwingend ableiten sollte.
Q

Gast
2006-12-15, 13:08:51
das die Taktung um 1GHZEs gibt wohl keine Clockdomains beim R600 und 1 GHz Chiptakt halte ich nicht für wahrscheinlich. Dann schon eher das 512-bit-SI. ;)

AnarchX
2006-12-15, 13:10:03
Es stellt isch auch die Frage, ob nach dem Zusammenschluss AMD/ATI sich nicht für ATI neue Möglichkeiten der Optimierung eines Layouts ergeben haben. AMD sollte die deutlich besseren Tools haben, genauso wie Intel. Dadurch könnte der Takt wesentlich höher geworden sein, als es ATI alleine jemals hinbekommen hätte. Damit könnte auch die Speicherbandbreite viel besser ausgenutzt werden.
CPUs != GPUs... ;)
Zudem wird jedenfalls der Zusammenschluss beim R600 noch keine Auswirkung haben können.