PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 3 (der letzte?)


Seiten : 1 2 [3] 4

reunion
2007-02-02, 10:17:05
Die Frage ist was ein MAinstreamchip ist. Eine Art 1950PRO z.B., nur plant ATI ja auch abgespeckte Versionen des R600 mit deaktivierten Teilen des Chips. Daneben braucht man akut keine Mainstreamlösung.

Primär wichtig sind

a) High-End
b) Einstiegssegment
c) OEM Performance Segment also NAchfolger für X1600 und 7600.

Den Rest kann man mit defekten High-End-Chips und Chips der Vorgängergenration erstmal abdecken.

Das hat man bei der R500-Serie auch geglaubt. Das Ergebnis war dann, dass die 7600GT ein Verkaufsschalger wurde, der ATi total die Margen versaute, da man nur mit völlig überteuerten Chips dagegenhalten konnte. Ich hoffe doch, dass man daraus gelernt hat, und diesmal eine performate Midragelösung anbietet.

seahawk
2007-02-02, 10:22:39
Das hat man bei der R500-Serie auch geglaubt. Das Ergebnis war dann, dass die 7600GT ein Verkaufsschalger wurde, der ATi total die Margen versaute, da man nur mit völlig überteuerten Chips dagegenhalten konnte. Ich hoffe doch, dass man daraus gelernt hat, und diesmal eine performate Midragelösung anbietet.

wäre die X1600XT nicht für den opo gwesen, dann wäre die 7600GT nicht so unangefochten gewesen.

reunion
2007-02-02, 10:37:37
wäre die X1600XT nicht für den opo gwesen, dann wäre die 7600GT nicht so unangefochten gewesen.

Eben. Und genau deshalb wird man diesmal hoffentlich so schlau sein, und wirklich einen halben R600 bringen, und nicht wieder irgendeinen tw. stark abgespeckten Zwitter. Dank 65nm sollte ja diesmal genug Platz zur Verfügung stehen.

Gast
2007-02-02, 13:37:33
65mn ist doch erst für gegen Ende des Jahres angekündigt. Viel zu spät wieder, die Mainstream Produkte bringt NV doch schon zur Cebit und kann dann im Q1 2008 diese auf 65mn umstellen.

So ganz versteh ich auch nicht, das wenn im Mainstream Segment soviel Geld verdient wird, ATI dann einen Highend Chip (R580) gebaut hat der sich schlecht zu einem Mainstream Chip "herunter designen" ließ.
Irgend jmd hier im Forum behauptet doch auch das sogar die Mainstream Chips als Vorlage dienen und darauf aufbauend als "Abfall Produkt" das Highend entsteht...

dargo
2007-02-02, 14:01:13
Den Rest kann man mit defekten High-End-Chips und Chips der Vorgängergenration erstmal abdecken.
Mit den Vorgängern kannst du gar nichts abdecken da keine DX10 Features.

Mr Power
2007-02-02, 14:10:05
R600 makes Board Partners happy:

http://www.theinquirer.net/default.aspx?article=37387

seahawk
2007-02-02, 14:53:46
Mit den Vorgängern kannst du gar nichts abdecken da keine DX10 Features.

Und es betrifft nur den Makrt den heute die 1950PRO 7900GS besetzen.

Unterhalb kommen neue Chips (wichtig für OEM) diese könnten in der Topversion schon auf dem Niveau einer 7900GS/1950GT sein. (ohne AA/AF) Alles darüber deckt man mit kastrierten High-End-Chips ab. Gerade bei der ersten Generation dies Transistormonster dürfte es eine rechthohen Anteil an teilunbrauchbaren Chips geben, die man so verbraten kann. Die 4 Versionen der R600 lassen recht wenig Platz für einen Chip der zwischen die kommenden RV630 passen.

Nakai
2007-02-02, 15:55:07
Also nochmal eine Spekulation:
Also nach Informationen soll der R600 in einem frühen Stadium der Treiber bei 400Mhz genausoschnell wie die X1950XTX gewesen sein.
Dadurch wäre er bei 800Mhz und mehr Treiber deutlich stärker als der G80.
(Aber der G80 kann auch noch bessere Treiber bekommen.)
Unified-Shader bringen in etwa 20% mehr Shaderleistung durch die bessere Granularität.
Weiterhin unterliegt der R600 immer noch einem TMU:Shader-Verhältnis.
Nun zu den ROPs. Da Z-Berechnungen immer wichtiger werden, könnten verbesserte Xenos-Rops verwendet werden.

Erste Vermutung aufbauend auf 400Mhz also gleicher Leistung des R580+:

32 TMUs
16 ROPs
64 Shader

Das Verhältnis von SHADER:TMU:ROP beträgt 4:2:1. Das würde zum Xenos passen, welcher aber ein 6:2:1 Verhältnis hatte.
Bei 400Mhz wären das 12800 Mtex/s, 6400Mpix/s und die Shaderleistung sollte dann in etwa 12 FLOPs pro Shader betragen.
(Vec5+1?)

Naja wäre das Verhältnis von SHADER:TMU:ROP 6:2:1, also ein doppelter verbesserter Xenos, könnte die Shaderleistung genau 8 FLOPs sein.(Vec4?)
(Wohl eher 9? MADD+ADD Vec3)

Also:
32TMUs
16 ROPs
96 Shader


Aber ehrlich gesagt sind diese Angaben sehr schwammig.

mfg Nakai

deekey777
2007-02-02, 16:32:48
Vec5+1?
Nein. :)
Die Vec4-ALUs des R580 berechnen immer vier Kanäle RGBA. Es gibt Fälle, wo man nur drei Kanäle Berechnen muss, dann kann man die ALU splitten Vec3 (drei Kanäle) und eine weitere skalare Operation (+1). Beim G70 kann die Vec4-ALU in je 2 Kanäle gesplittet werden (Vec2-Operationen wie Berechnung der Textur-Koordinaten), also 2+2.
Dann gibt es die "5D"-ALUs, also Vec4+1 (VS-ALUs des G70 oder beim Xenos). Sie können eine skalare Oeration und eine Vec4-Operation ausführen (eine Operation für vier Kanäle).
Aber so einfach ist das Splitten gar nicht:
Vec2 für Texturkoordinaten sind ebenfalls immer mehr im kommen.

Das Problem beim splitten ist immer ein passendes Paar zu finden. Vor allem da D3D10 wohl strengere Regeln bezüglich dem ändern der Rechenreihenfolge hat.
Und da fragt man sich: Warum nicht einfach "16 skalare ALUs"? Da braucht man nichts zu splitten und erreicht immer die höchste Effizienz.

32 TMUs
16 ROPs
64 Shader
Auch der G80 hat 32 TMUs, nur sind diese fetter (siehe zB aths' Artikel zum G80).

Nakai
2007-02-02, 16:46:45
Die Vec4-ALUs des R580 berechnen immer vier Kanäle RGBA. Es gibt Fälle, wo man nur drei Kanäle Berechnen muss, dann kann man die ALU splitten Vec3 (drei Kanäle) und eine weitere skalare Operation (+1). Beim G70 kann die Vec4-ALU in je 2 Kanäle gesplittet werden (Vec2-Operationen wie Berechnung der Textur-Koordinaten), also 2+2.
Dann gibt es die "5D"-ALUs, also Vec4+1 (VS-ALUs des G70 oder beim Xenos). Sie können eine skalare Oeration und eine Vec4-Operation ausführen (eine Operation für vier Kanäle).
Aber so einfach ist das Splitten gar nicht:

Frage: Wie kommt dann der Xenos auf 9 Flops pro Shader?
Vec4 macht alleine schon 8 Flops, woher kommt dan der eine FLOP?

mfg Nakai

deekey777
2007-02-02, 16:52:43
Frage: Wie kommt dann der Xenos auf 9 Flops pro Shader?
Vec4 macht alleine schon 8 Flops, woher kommt dann die eine FLOP?

mfg Nakai

Vec4+1
Der Xenos hat ja "5D"-ALUs: 4+4+1=9.

robbitop
2007-02-02, 17:19:57
Und da fragt man sich: Warum nicht einfach "16 skalare ALUs"? Da braucht man nichts zu splitten und erreicht immer die höchste Effizienz.


Weil die Dinger in brauchbarer Anzahl teuer sind. NV brauchte zusaetzlich noch custom transistors um die Shader so extrem hoch takten zu koennen um deren Anzahldefizit auszugleichen.
Entweder man geht den Weg der teuren wenigen Einheiten oder den der billigen und vielen Einheiten.


Frage: Wie kommt dann der Xenos auf 9 Flops pro Shader?
Vec4 macht alleine schon 8 Flops, woher kommt dan der eine FLOP?
Ganz einfach: das Vec4 ist MAD und das skalare ist ADD.


Unified-Shader bringen in etwa 20% mehr Shaderleistung durch die bessere Granularität.
Was haben USCs mit der Granularitaet zu tun und wo nimmst du diese pauschale Zahl her?


Nun zu den ROPs. Da Z-Berechnungen immer wichtiger werden, könnten verbesserte Xenos-Rops verwendet werden.
Z Tests werden immer wichtiger? :|
Die Laenge eines Shaders wird immer laenger ja. Aber die Anzahl von benoetigten Z Tests steigt nicht. Warum auch?
(bei MSAA tut sie es ja, aber ein Takt pro Pixel und ein Z Test ist durch. Filtern, Blenden, Shaden...das kostet alles um Welten mehr)


Das Verhältnis von SHADER:TMU:ROP beträgt 4:2:1. Das würde zum Xenos passen, welcher aber ein 6:2:1 Verhältnis hatte.
Du weisst schon, dass C1 48x SIMD ALUs, 16 TMUs und 8 ROPs hatte?

Was soll eigentlich das ganze Gezaehle? Das sagt absolut nichts aus. Allerspaetestens seit G80 sollten doch nun mal alle wachgeworden sein.

deekey777
2007-02-02, 17:30:30
Weil die Dinger in brauchbarer Anzahl teuer sind. NV brauchte zusaetzlich noch custom transistors um die Shader so extrem hoch takten zu koennen um deren Anzahldefizit auszugleichen.
Entweder man geht den Weg der teuren wenigen Einheiten oder den der billigen und vielen Einheiten.

Ich wollte noch darauf hinweisen, aber ein Liter Apfelsaft aufeinmal hatte reinigende Kräfte. ;(

Gast
2007-02-02, 17:33:27
Also nochmal eine Spekulation:
Also nach Informationen soll der R600 in einem frühen Stadium der Treiber bei 400Mhz genausoschnell wie die X1950XTX gewesen sein.
Dadurch wäre er bei 800Mhz und mehr Treiber deutlich stärker als der G80.
(Aber der G80 kann auch noch bessere Treiber bekommen.)


Abgesehen davon, dass diese Zahlen niemand kontrollieren kann:
"Deutlich schneller" ist vollkommen falsch.
Es gibt viele Spiele, in welchen eine 8800GTX über den Faktor 2 schneller ist als die X1950XTX. Mit A.I off steigt der Faktor auf 3 und mehr.

LovesuckZ

Gast
2007-02-02, 17:41:21
Abgesehen davon, dass diese Zahlen niemand kontrollieren kann:
"Deutlich schneller" ist vollkommen falsch.
Es gibt viele Spiele, in welchen eine 8800GTX über den Faktor 2 schneller ist als die X1950XTX. Mit A.I off steigt der Faktor auf 3 und mehr.

LovesuckZ


Lovesucks, bitte erspare uns doch deinen Kreuzzug im Namen der Richtigstellung. Wer am Ende schneller ist wird sich zeigen, das weiss du genau so wenig wie der von Dir gequotete Gast. Das hier ist der Spekulationsthread zum R600, dass da gerne ein bisschen gehypt wird ist normal, war beim G80 nicht anders. Was rauskommt wird man sehen.

Gast
2007-02-02, 17:45:40
Lovesucks, bitte erspare uns doch deinen Kreuzzug im Namen der Richtigstellung.

Es wurde Bezug auf die 8800GTX genommen und eine Angabe zur Leistung gemacht, vorallen bei der 8800GTX, die einfach nicht stimmt.
Und was ist an einem "Kreuzzug im Namen der Richtigstellung" schlecht?
Das gehypet wird, ist doch in Ordnung. Das irgendwelche Fantasiezahlen angewendet werden, darf ich doch wohl als "falsch" beschreiben.

LovesuckZ

Nakai
2007-02-02, 18:07:46
Was haben USCs mit der Granularitaet zu tun und wo nimmst du diese pauschale Zahl her?

Natürlich ist die Granularität immer sehr wichtig.
Die 20% kommen selbst von ATI, als sie behauptet haben, dass der Xenos 20% mehr Performance durch die Flexibilität der Shader erhalten hat. Sicherlich kann man das nicht so ganz auf den R600 übertragen, dennoch sollte der R600 einiges vom Xenos drin haben.

Du weisst schon, dass C1 48x SIMD ALUs, 16 TMUs und 8 ROPs hatte?

Les nochmal durch, du hast den Nebensatz übersehen.

Z Tests werden immer wichtiger?
Die Laenge eines Shaders wird immer laenger ja. Aber die Anzahl von benoetigten Z Tests steigt nicht. Warum auch?

Sicherlich hast du hierbei recht, aber wer einen R600 kauft, sollte eine bei einer bestimmten Auflösung diese Leistung benutzen.

Ganz einfach: das Vec4 ist MAD und das skalare ist ADD.

Liegt das ADD parallel zu den MAD4?

Abgesehen davon, dass diese Zahlen niemand kontrollieren kann:
"Deutlich schneller" ist vollkommen falsch.

Wenn die Treiber stimmen. Aber das tun sie noch nicht. Der G80 ist hierbei schon weiter.

Was soll eigentlich das ganze Gezaehle? Das sagt absolut nichts aus. Allerspaetestens seit G80 sollten doch nun mal alle wachgeworden sein.

Inwiefern?
Wenn du auf due 64 TMUs ansprichst, das sind nur "32" ganze und "32" halbe TMUs.
Selbst die 128 Shader kann man als 8 Vec16 zählen.
Die grundlegenden Einheiten bleiben beim R600 von den Vorgängern erhalten und daraus sollte man schließen können.

mfg Nakai

Ailuros
2007-02-02, 18:07:58
Also nochmal eine Spekulation:
Also nach Informationen soll der R600 in einem frühen Stadium der Treiber bei 400Mhz genausoschnell wie die X1950XTX gewesen sein.

Bist Du sicher dass das Dev-sample mit einer X1950XTX verglichen wurde?

Dadurch wäre er bei 800Mhz und mehr Treiber deutlich stärker als der G80.

Schneller schon IMHO; die Frage ist nur wie "deutlich" genau und wie oft sich dieses "deutliche" ueberhaupt zeigt? Oder interessiert keinen der theoretische durchschnittliche Unterschied?


Unified-Shader bringen in etwa 20% mehr Shaderleistung durch die bessere Granularität.

Haengt wohl eher von der Effizienz der Thread-scheduler und der Reifheit des Compilers ab; garantiert ist auf jeden Fall so was nicht IMO.


Weiterhin unterliegt der R600 immer noch einem TMU:Shader-Verhältnis.
Nun zu den ROPs. Da Z-Berechnungen immer wichtiger werden, könnten verbesserte Xenos-Rops verwendet werden.

Erste Vermutung aufbauend auf 400Mhz also gleicher Leistung des R580+:

32 TMUs
16 ROPs
64 Shader

Das Verhältnis von SHADER:TMU:ROP beträgt 4:2:1. Das würde zum Xenos passen, welcher aber ein 6:2:1 Verhältnis hatte.
Bei 400Mhz wären das 12800 Mtex/s, 6400Mpix/s und die Shaderleistung sollte dann in etwa 12 FLOPs pro Shader betragen.

Wieso 12 FLOPs?

(Vec5+1?)

Naja wäre das Verhältnis von SHADER:TMU:ROP 6:2:1, also ein doppelter verbesserter Xenos, könnte die Shaderleistung genau 8 FLOPs sein.(Vec4?)
(Wohl eher 9? MADD+ADD Vec3)

Also:
32TMUs
16 ROPs
96 Shader

Nein. Gute hints hast Du ja in vorigen Posts schon bekommen.

Gast
2007-02-02, 18:12:43
Abgesehen davon, dass diese Zahlen niemand kontrollieren kann:
"Deutlich schneller" ist vollkommen falsch.
Es gibt viele Spiele, in welchen eine 8800GTX über den Faktor 2 schneller ist als die X1950XTX. Mit A.I off steigt der Faktor auf 3 und mehr.

LovesuckZ
Dann müsste ein R580 bei ausgeschaltetem A.I. über 33% seiner Performance gegenüber A.I. low verlieren, wenn ich mich nicht verrechnet habe.

Nakai
2007-02-02, 18:17:19
Wieso 12 FLOPs?

Der R600 wird viel von den Vorgänger noch drin haben, also dem Xenos und R5x0.

Die 20% kommen selbst von ATI, als sie behauptet haben, dass der Xenos 20% mehr Performance durch die Flexibilität der Shader erhalten hat.(also als ATI die Shader konfiguriert und unified laufen lies

Deswegen meine ich, dass die grundlegenden Unifiedfunktionen vom Xenos kopiert wurden, was du als Thread-Scheduler proklamierst.
Ich hab einfach mal 12 FLOP genommen, weil die eben gerade so schön passen, außerdem könnte man beim R600 die gleichen Shader wie beim R300, R4x0 oder R5xo nehmen.^^

Bist Du sicher dass das Dev-sample mit einer X1950XTX verglichen wurde?

Es könnte aber auch eine X1900XTX gewesen sein können. Wobei ich mir da keine Sorgen mache. Die X1950XTX hat ihre Leistung durch den höheren Speichertakt erhalten, der R600 wird wohl hierbei neue an neuen Gebieten vorstoßen.

mfg Nakai

Ailuros
2007-02-02, 18:17:54
Natürlich ist die Granularität immer sehr wichtig.
Die 20% kommen selbst von ATI, als sie behauptet haben, dass der Xenos 20% mehr Performance durch die Flexibilität der Shader erhalten hat. Sicherlich kann man das nicht so ganz auf den R600 übertragen, dennoch sollte der R600 einiges vom Xenos drin haben.

Siehe oben. Und da R600 offensichtlich mehr clusters als Xenos hat, hatte man auch mit anderen Konstanten zu kaempfen was die Granularitaet betrifft.

Liegt das ADD parallel zu den MAD4?

Was genau meinst Du mit parallel? (ehrliche Frage)

Wenn die Treiber stimmen. Aber das tun sie noch nicht. Der G80 ist hierbei schon weiter.

Also mein G80 sieht genauso aus wie beim Kauf im November; ergo nix da bis jetzt mit besseren Treibern.

Inwiefern?
Wenn du auf due 64 TMUs ansprichst, das sind nur "32" ganze und "32" halbe TMUs.

Es gibt keine ganzen und halben TMUs. Es gibt Textur Filterung und Textur Address Einheiten; hat man jetzt in einem Fall eine doppelte Anzahl hat man einen klaren Vorteil bei AF.

Selbst die 128 Shader kann man als 8 Vec16 zählen.
Die grundlegenden Einheiten bleiben beim R600 von den Vorgängern erhalten und daraus sollte man schließen können.

Streng genommen sind es keine Vec-Einheiten, aber wenn es schon sein muss sind es eher 16* Vec8 ALUs. Und nein die grundlegenden Einheiten beim R600 haben nach ATI selber ueberhaupt nichts gemeinsam mit Vorgaengern. Wenn die ersten Marketing-Gedusel dann ankommen wirst Du Dich kranklachen muessen wie "wenig" die angeblichen 128 SPs des G80 mit den geworbenen SPs des R600 dann erscheinen werden.

Was dann was entspricht koennen uns nur ausfuehrliche Tests unabhaengiger Quellen zeigen.

Ailuros
2007-02-02, 18:21:58
Der R600 wird viel von den Vorgänger noch drin haben, also dem Xenos und R5x0.

Xenos hat 9 FLOPs pro ALU, denn es sind 5D ALUs. Willst Du eine Xenos oder R5x0 fuer R600 haben? :biggrin:

Deswegen meine ich, dass die grundlegenden Unifiedfunktionen vom Xenos kopiert wurden, was du als Thread-Scheduler proklamierst.

Wehe wenn R600 eine Kopie vom Xenos Scheduler haben sollte; dann koennte NV schon jetzt jubeln.

Ich hab einfach mal 12 FLOP genommen, weil die eben gerade so schön passen, außerdem könnte man beim R600 die gleichen Shader wie beim R300, R4x0 oder R5xo nehmen.^^

Liegt aber leider daneben ;)

Es könnte aber auch eine X1900XTX gewesen sein können. Wobei ich mir da keine Sorgen mache. Die X1950XTX hat ihre Leistung durch den höheren Speichertakt erhalten, der R600 wird wohl hierbei neue an neuen Gebieten vorstoßen.

Sicher wenn er ueber die 800MHz Grenze leicht steigt schon ;)

Nakai
2007-02-02, 18:29:47
Bei dir weiß ich eben wo ich bin...;)

Was genau meinst Du mit parallel? (ehrliche Frage)

Also die R300-Shader(die auch im R4x0 und beim R5x0 drin sind) bestehen nach meinem Wissen aus 2 ALUs. Also einer Scalaren-MADD+ADD-ALU und einer Vec3-MADD+ADD-ALU. Mit parallel mein ich, das das ADD beim Xenos neben der Vec4-ALU liegt, wie die Scalare neben der Vec3 beim R300.
Natürlich kann man das nicht sp sehen, da es 2 unterschiedliche Architekturen sind.

Wehe wenn R600 eine Kopie vom Xenos Scheduler haben sollte; dann koennte NV schon jetzt jubeln.

Natürlich muss der Scheduler verbessert werden, erstmal auf 64 oder mehr Shader hochskaliert werden und dann noch verbessert mit der Auslastung der Einheiten und der Aufgabenverteilung werden.

mfg Nakai

Ailuros
2007-02-02, 18:55:57
Also die R300-Shader(die auch im R4x0 und beim R5x0 drin sind) bestehen nach meinem Wissen aus 2 ALUs. Also einer Scalaren-MADD+ADD-ALU und einer Vec3-MADD+ADD-ALU. Mit parallel mein ich, das das ADD beim Xenos neben der Vec4-ALU liegt, wie die Scalare neben der Vec3 beim R300.
Natürlich kann man das nicht sp sehen, da es 2 unterschiedliche Architekturen sind.

Man kann sie auch "Sub-ALUs" oder "dual-issue" ALUs nennen. Eigentlich besteht jegliche R5x0 ALU aus:

Sub ALU 1

* 1 Vec3 ADD + Input Modifier
* 1 Scalar ADD + Input Modifier

Sub ALU 2

* 1 Vec3 ADD/MUL/MADD
* 1 Scalar ADD/MUL/MADD

-----------------------------------------
Xenos ist dann eben:

* 1 Vec4 ADD/MUL/MADD
* 1 Scalar ADD/MUL/MADD

Bin ich jetzt total verrueckt und versuche alle Einheiten als skalare zu vermarkten, hab ich dann gleich angebliche 240 SPs auf Xenos, was aber auch noch ziemlich moderat ist im Vergleich zu den Werten von R600 *wink nudge*


Natürlich muss der Scheduler verbessert werden, erstmal auf 64 oder mehr Shader hochskaliert werden und dann noch verbessert mit der Auslastung der Einheiten und der Aufgabenverteilung werden.

Xenos hat auch keine Geometry Shader; ein mehr shading stage reicht schon dass man jegliche vorige Arbeit gewaltig umkrempeln muss.

Gast
2007-02-02, 18:58:30
Bin ich jetzt total verrueckt und versuche alle Einheiten als skalare zu vermarkten, hab ich dann gleich angebliche 240 SPs auf Xenos, was aber auch noch ziemlich moderat ist im Vergleich zu den Werten von R600 *wink nudge*


"Ziemlich moderat"?
Dann werden es wohl 480 "SP" sein. ;)

LovesuckZ

Nakai
2007-02-02, 18:58:53
* 1 Vec4 ADD/MUL/MADD
* 1 Scalar ADD/MUL/MADD

Das wären 10 Flops oder kann die Scalare nur ein ADD?

mfg Nakai

deekey777
2007-02-02, 19:02:48
Natürlich ist die Granularität immer sehr wichtig.
Die 20% kommen selbst von ATI, als sie behauptet haben, dass der Xenos 20% mehr Performance durch die Flexibilität der Shader erhalten hat. Sicherlich kann man das nicht so ganz auf den R600 übertragen, dennoch sollte der R600 einiges vom Xenos drin haben.

Diese Äußerung kommt nicht von ATi, sondern... Keine Ahnung.
http://www.beyond3d.com/forum/showpost.php?p=830326&postcount=196
Es ging nicht so sehr um die Granularität, sondern um den "Non-unified"-Fall: Ein Drittel bearbeitet VS, die anderen beiden PS.
Man kann diese Aussage auf gar nichts übertragen, sie bleibt nur beim C1 gültig.
"Ziemlich moderat"?
Dann werden es wohl 480 "SP" sein. ;)

LovesuckZ
96 5D-ALUs?

Ailuros
2007-02-02, 19:09:15
"Ziemlich moderat"?
Dann werden es wohl 480 "SP" sein. ;)

LovesuckZ

Mit der wahren Transistoren-anzahl und hypothetischen 480 SPs, wuerde ATI dann aber tatsaechlich mit "pixie dust" entwickeln LOL ;)

Das wären 10 Flops oder kann die Scalare nur ein ADD?

mfg Nakai

Du hast recht; ich hab mal wieder zu schnell getippt und zu wenig nachgedacht (na diesmal hab ich die Entschuldigung von 40C Fieber LOL). Es ist tatsaechlich nur ein ADD und 9 FLOPs fuer Xenos.

Nakai
2007-02-02, 19:13:42
Okay aber dann könnte, der R600 tatsächlich die Shader des Xenos haben.

mfg Nakai

deekey777
2007-02-02, 19:39:49
AMD sets "Tech Day" dates for R600 launch? (http://www.beyond3d.com/forum/showthread.php?p=921130#post921130)
Auch CJ hat vorher Ähnliches geschrieben. (http://www.beyond3d.com/forum/showpost.php?p=920845&postcount=976)

;(

reunion
2007-02-02, 20:07:07
96 5D-ALUs?

Zu viel IMHO. Vermutlich werden es die eh schon ziemlich lange im Raum schwebenden 64 vec4+1 ALUs, also 320 SPs.

Mit der wahren Transistoren-anzahl und hypothetischen 480 SPs, wuerde ATI dann aber tatsaechlich mit "pixie dust" entwickeln LOL ;)


Also eine im Vergelich zu G80 geringe Transistorenanzahl? Habe ich mir fast schon gedacht.

crux2005
2007-02-02, 20:20:59
AMD sets "Tech Day" dates for R600 launch? (http://www.beyond3d.com/forum/showthread.php?p=921130#post921130)
Auch CJ hat vorher Ähnliches geschrieben. (http://www.beyond3d.com/forum/showpost.php?p=920845&postcount=976)

;(

Interessant

Some Nvidia green is about to get smoked as we heard R600 with some software tweaks will actually be faster than we all anticipated.

/sorry ;( , der Link: http://www.the-inquirer.net/default.aspx?article=37407

reunion
2007-02-02, 20:28:51
Ein Link dazu wäre auch kein Fehler:
http://www.the-inquirer.net/default.aspx?article=37407

seahawk
2007-02-02, 21:34:06
Es ist zu erwarten, dass sie die bekannten Ergebnisse der G80 deutlich übertreffen werden. Der G80 Ausverkauf hat mit der 320MB Version nicht ohne Grund begonnen.

Winter[Raven]
2007-02-02, 21:38:54
Es ist zu erwarten, dass sie die bekannten Ergebnisse der G80 deutlich übertreffen werden. Der G80 Ausverkauf hat mit der 320MB Version nicht ohne Grund begonnen.

deutlich? nichts gegen dich, aber ich will es erst sehen bevor ich es glaube ;)

Gmax
2007-02-02, 22:34:18
Ein Link dazu wäre auch kein Fehler:
http://www.the-inquirer.net/default.aspx?article=37407

VR-Zone sagt dev. nicht vor April und die anderen nicht vor Mai :(

http://www.vr-zone.com/?i=4572

Gast
2007-02-02, 22:39:00
Dann müsste ein R580 bei ausgeschaltetem A.I. über 33% seiner Performance gegenüber A.I. low verlieren, wenn ich mich nicht verrechnet habe.


nicht unbedingt die regel, aber 20-30% verliert der R580 durchaus öfters in grakalimitierten einstellungen, wenn man AI deaktiviert.

Hvoralek
2007-02-03, 00:15:03
Auch der G80 hat 32 TMUs, nur sind diese fetter (siehe zB aths' Artikel zum G80).Weißt Du denn schon, wie die R600- TMUs aussehen?

Gast
2007-02-03, 01:44:41
Hm 6 Monate nach G80 kommt also der R600. Ist es schon quasi der Refresh? Man hat ja den Chip 3mal getweak was Gerüchte besagen um dortin zu kommen wo man jetzt ist (Taktfrequenz). Ein 500-600MHz GPU 384Bit-SI R600 wäre sicher auch möglich gewesen (oder kommt sogar als abgespeckte Variante). Aber nun ist ja die Timeframe wieder so verzogen wie beim G70 Launch, und diesmal wird der NV Refresh bzw. selbe GPU anderer Prozess nicht solange brauchen.

Anders ausgedrückt um mal die Zeitlinie in ein Bild zu fassen, ist der R600 jetzt da wo der R580 zeitmäßig gegen den R520 stand.

April: R600 Release (~+20% Performance over G80 [AA-Modi anyone...])
Sommer07 (spätestens August): G80 auf 80mn (Equivalent wie R600 XTX XXL)
Januar08: G90 (G80 Refresh, 65mn, mehr Einheiten, 512BIT SI für 1GB Sticker)
Mai08: R700 (R600 Refresh auf 65mn + das Übliche)

robbitop
2007-02-03, 09:25:55
Weißt Du denn schon, wie die R600- TMUs aussehen?
Wenn er eine gute Glaskugel hat. ;)

horn 12
2007-02-03, 09:30:27
Die durchgesickerten Benchmarks des R600 werden +-10% stimmen und teilweise noch darüber liegen. Deshalb die Attacke von NV an die Käufer, denn ist mal der R600 da, wird sich Nvidia schwer tun dagegenzuhalten, auch mit einem Minirefresh des G80. In den nä. Tagen werden immer mehr Infos zum R600 auftauchen und auch erste inoffizielle Bench, denn die Karte ist bereits in Fertigung.
Die ATI Preise werden bei Verfügbarkeit Mitte März unter 500 Euro liegen, nur das Topmodell wird über 500-550 Euro zu Buche schlagen (1GB GDDR4)

Ailuros
2007-02-03, 09:30:28
Also eine im Vergelich zu G80 geringe Transistorenanzahl? Habe ich mir fast schon gedacht.

Wie bitte? Ich wollte nur sagen dass die Transistorenanzahl mit angeblichen 420 "SPs" um einiges hoeher waere als ca. 700M.

Winter[Raven]
2007-02-03, 09:42:07
Die durchgesickerten Benchmarks des R600 werden +-10% stimmen und teilweise noch darüber liegen. Deshalb die Attacke von NV an die Käufer, denn ist mal der R600 da, wird sich Nvidia schwer tun dagegenzuhalten, auch mit einem Minirefresh des G80. In den nä. Tagen werden immer mehr Infos zum R600 auftauchen und auch erste inoffizielle Bench, denn die Karte ist bereits in Fertigung.
Die ATI Preise werden bei Verfügbarkeit Mitte März unter 500 Euro liegen, nur das Topmodell wird über 500-550 Euro zu Buche schlagen (1GB GDDR4)

Glaskugel?

Es wird mal wieder so ein mixed bag ;) werden, mal wird der G80 vorne sein, mal der R600 aber der G80 Destroyer ist der R600 nicht :P

Ailuros
2007-02-03, 09:43:14
Die durchgesickerten Benchmarks des R600 werden +-10% stimmen und teilweise noch darüber liegen. Deshalb die Attacke von NV an die Käufer, denn ist mal der R600 da, wird sich Nvidia schwer tun dagegenzuhalten, auch mit einem Minirefresh des G80. In den nä. Tagen werden immer mehr Infos zum R600 auftauchen und auch erste inoffizielle Bench, denn die Karte ist bereits in Fertigung.
Die ATI Preise werden bei Verfügbarkeit Mitte März unter 500 Euro liegen, nur das Topmodell wird über 500-550 Euro zu Buche schlagen (1GB GDDR4)

Ja natuerlich jedesmal wenn ATI eine high end GPU verspaetet auf den Ladentisch bringt, verkauft NV nachdem ueberhaupt nichts mehr. :rolleyes:

Ich frage mich nur, wieso ploetzlich aus dem +40 und +60% nur noch ein moderates +/-10% wurde und wieso jemand hier wohl doch nicht der Depp des Dorfes wahr als er von zu hohen Erwartungen warnte.

Ailuros
2007-02-03, 09:46:14
Weißt Du denn schon, wie die R600- TMUs aussehen?

Ich haette ne andere ehrliche Frage zum Thema:

soll ich bei verkorksten Vergleichen zwischen konkurrierenden GPUs 64:32 oder 32:16 zaehlen?

reunion
2007-02-03, 09:50:19
Wie bitte? Ich wollte nur sagen dass die Transistorenanzahl mit angeblichen 420 "SPs" um einiges hoeher waere als ca. 700M.

Sorry, dann habe ich da wohl zu viel hineininterpretiert.

robbitop
2007-02-03, 09:53:12
soll ich bei verkorksten Vergleichen zwischen konkurrierenden GPUs 64:32 oder 32:16 zaehlen?
Entweder ich erlerne Gedankenlesen oder du fuehrst deine Frage mit ein wenig Hintergrund aus. :)

horn 12
2007-02-03, 09:59:52
Mit den +-10% meinte ich die durchgesickerten Benchmarks vor vielen Seiten, also deine 40-60% "würden in etwa" wiederum stimmen.
Der R600 ist der Gegenpart zum G81, letzterer könnte aber durchaus mit dem R600 mithalten, (Glaskugel zu Recht) dies soll mal wieder FÜR Nvidia gesagt sein.:cool:
Auch mit vielen anderen "Glaskugelgeschichten" behielt ich Recht, auch wenn meist viel viel zu spät! Dies gebe ich offen zu.;D

robbitop
2007-02-03, 10:06:57
Die gefakten Benches meinst du?

Ailuros
2007-02-03, 10:16:15
Mit den +-10% meinte ich die durchgesickerten Benchmarks vor vielen Seiten, also deine 40-60% "würden in etwa" wiederum stimmen.
Der R600 ist der Gegenpart zum G81, letzterer könnte aber durchaus mit dem R600 mithalten, (Glaskugel zu Recht) dies soll mal wieder FÜR Nvidia gesagt sein.:cool:
Auch mit vielen anderen "Glaskugelgeschichten" behielt ich Recht, auch wenn meist viel viel zu spät! Dies gebe ich offen zu.;D

Fuer 10% Unterschied braucht NV keinen Refresh. Es gibt schon Vendors die mit 630/1000MHz G80-er verkaufen.

Nirgends hab ich weder 40-60% noch 10% Unterschied behauptet; es ist nur der uebliche bestandlose Quark der hier und da herumfliesst. Die 10% sind AMDs eigene Angabe aber nur ausschliesslich fuer D3D10-Leistung, wobei sie keinen Pieps ueber D3D9 angegeben haben.

Ist die "Glaskugelgeschichte" dass NV nach dem Erscheinen des R600 ihre eigenen GPUs schwer oder schlecht verkaufen wird, auch von Dir oder kaut hier jemand anders Eukalyptus auf nem Dreifuss?

Ich meine es ehrlich nicht boese, aber glaubt mir auch nicht jeden Mist die jede 0815 moechtegern-Seite daherlabert. Natuerlich wird R600 insgesamt leicht schneller sein, aber sooo leicht ueberredet man das Publikum mit nur "angeblichen" 10% Unterschied nun auch wieder nicht. Dafuer muesste das insgesamte Paket nur noch Vorteile und keinen einzigen anderen Nachteil haben.

Nakai
2007-02-03, 10:53:35
Naja ich hoffe ATI bringt einen Hammer, denn nach Gerüchten sollte schon Ende 2007 bzw. 2008 der G90 mit Physikbeschleunigung kommen, der Knickbruch ATIs?

Nirgends hab ich weder 40-60% noch 10% Unterschied behauptet; es ist nur der uebliche bestandlose Quark der hier und da herumfliesst. Die 10% sind AMDs eigene Angabe aber nur ausschliesslich fuer D3D10-Leistung, wobei sie keinen Pieps ueber D3D9 angegeben haben.

Du denkst also dass der R600 den G80 in den meisten Disziplinen schlagen kann? Das bezweifle ich langsam...

mfg Nakai

AnarchX
2007-02-03, 10:57:18
Naja ich hoffe ATI bringt einen Hammer, denn nach Gerüchten sollte schon Ende 2007 bzw. 2008 der G90 mit Physikbeschleunigung kommen, der Knickbruch ATIs?


Auch der G80 sollte schon für Physikberechnungen taugen, wie es aussieht wird da wohl etwas zur CeBIT kommen. ;)

Winter[Raven]
2007-02-03, 11:00:19
Naja ich hoffe ATI bringt einen Hammer, denn nach Gerüchten sollte schon Ende 2007 bzw. 2008 der G90 mit Physikbeschleunigung kommen, der Knickbruch ATIs?

Hammer? Jetzt mal im ernst... was kann ATI noch besser machen als Nv's G80?

- AF? Nope
- AA? Nope, wenn es bei den 8x bleiben sollte, wurde mal irgendwo erwähnt...
- Erweiterte Direct 3d Support? nope
- Lüfter? Nope
- Stromverbrauch? Nope

Diesesmal könnte es für AMD schwer werden sich von der Konkurrenz abzugrenzen...

reunion
2007-02-03, 11:00:45
Selbst ein R580 sollte sich dank der guten dB-Performance und der hohen Shaderleistung bereits sehr gut für Physikberechnungen eignen, das ist also defintiv kein Genickbruch für ATi. Im übrigen sieht es momentan so aus, als ob G90 nicht viel mehr als ein breiterer G80 werden wird.

;5220652']Diesesmal könnte es für AMD schwer werden sich von der Konkurrenz abzugrenzen...

Soetwas gilt immer für beide Konkurrenten. Und das war mit D3D10 auch zu erwarten. Es wird mehr und mehr nur noch die nackte Leistung zählen. Wer hier schneller ist, hat fast alles gewonnen. Wobei es natürlich schon noch einge Unterschiedungsmerkmale geben wird.

Ronny145
2007-02-03, 11:08:43
;5220652']
- Stromverbrauch? Nope

Diesesmal könnte es für AMD schwer werden sich von der Konkurrenz abzugrenzen...


Der Idle Verbrauch kann sehr wohl verbessert werden.

Winter[Raven]
2007-02-03, 11:11:25
Selbst ein R580 sollte sich dank der guten dB-Performance und der hohen Shaderleistung bereits sehr gut für Physikberechnungen eignen, das ist also defintiv kein Genickbruch für ATi. Im übrigen sieht es momentan so aus, als ob G90 nicht viel mehr als ein breiterer G80 werden wird.



Soetwas gilt immer für beide Konkurrenten. Und das war mit D3D10 auch zu erwarten. Es wird mehr und mehr nur noch die nackte Leistung zählen. Wer hier schneller ist, hat fast alles gewonnen. Wobei es natürlich schon noch einge Unterschiedungsmerkmale geben wird.

@reunion

Gut, sind also der selben Meinung... was folgt? Sollte der R600 nicht die % an Perf. rausholen, kann sich Nvidia schon mal die Händchen reiben.

Der Idle Verbrauch kann sehr wohl verbessert werden.

Bis jetzt ist es doch immer noch nicht geklärt ob das jetzt ne fester HW-Fehler ist, oder es nur Treiberspielerei darstellt.
Gibts dazu eigentlich was neues?

Hvoralek
2007-02-03, 11:14:53
;5220652']was kann ATI noch besser machen als Nv's G80?
[...]
- AA? Nope, wenn es bei den 8x bleiben sollte, wurde mal irgendwo erwähnt...Was wäre mit FSSGSSAA?

soll ich bei verkorksten Vergleichen zwischen konkurrierenden GPUs 64:32 oder 32:16 zaehlen?Wenn diese Zahlen zur Debatte stehen, laufen beide Möglichkeiten auf ein 2:1- Verhältnis hinaus. Es ging mir aber eher darum, ob nicht auch ATI diesmal etwas "seltsame" TMUs verbauen könnte. Gut, eher unwahrscheinlich.

AnarchX
2007-02-03, 11:29:32
Was wäre mit FSSGSSAA?


Sehr wahrscheinlich bei ATi... X-D

Wobei aber ATi doch mit EATM und co. einige interessante Erweiterungen hat, die wohl mit X2... marktreif werden könnten.

Hvoralek
2007-02-03, 11:31:12
Sehr wahrscheinlich bei ATi... X-DNatürlich nicht, aber das könnten sie noch besser machen :biggrin:

reunion
2007-02-03, 11:38:50
;5220671']@reunion

Gut, sind also der selben Meinung... was folgt? Sollte der R600 nicht die % an Perf. rausholen, kann sich Nvidia schon mal die Händchen reiben.

Wie schon gesagt, dein Satz lässt sich genauso auf ATi ummünzen: Sollte R600 "die % Perf." rausholen,...

The_Invisible
2007-02-03, 11:57:34
interessant wird ob sie nun optimierungen + fixes trennen, profilsupport für cf anbieten und standardmäßig HQ-AF aktiviert haben.

sonst kann man die ersten benches sowieso wieder in die tonne kloppen

mfg

Gmax
2007-02-03, 12:01:34
Ati hat doch selbst schon gesagt, daß der kommende R700
ein Strom sparender Multicore wird.
3 mal dürft ihr raten, wazu ein Core verwendet werden wird.

Winter[Raven]
2007-02-03, 12:10:48
Wie schon gesagt, dein Satz lässt sich genauso auf ATi ummünzen: Sollte R600 "die % Perf." rausholen,...

?

Eigentlich nicht... auch wenn ATI die xx% bringen könnte, hält Nv derzeit alle Zügel in der Hand.

Black-Scorpion
2007-02-03, 12:55:47
;5220652']Hammer? Jetzt mal im ernst... was kann ATI noch besser machen als Nv's G80?

- AF? Nope
- AA? Nope, wenn es bei den 8x bleiben sollte, wurde mal irgendwo erwähnt...
- Erweiterte Direct 3d Support? nope
- Lüfter? Nope
- Stromverbrauch? Nope

Diesesmal könnte es für AMD schwer werden sich von der Konkurrenz abzugrenzen...
Die Glaskugel möcht ich auch mal haben.

Gast
2007-02-03, 13:09:02
Die Glaskugel möcht ich auch mal haben.Was hat das mit Glaskugel zu tun? Mit dem G80 hat NV ein nahezu rundum perfektes Produkt geliefert. Da ist es doch nur logisch, dass es für ATI verdammt schwer wird das zu überbieten. Da braucht man keine Glaskugel um das zu erkennen.

Winter[Raven]
2007-02-03, 13:10:22
Was den für ne Glasskugel? Ließ doch einfach die 29 Seiten durch, da steht doch schon so ziemlich alles da was man wissen muss.

p.s. wenn du schon irgendetwas als Glasskugel bezeichnest, überleg doch einfach mal logisch... ;) Was kann AMD besser machen?

2B-Maverick
2007-02-03, 13:11:21
Was hat das mit Glaskugel zu tun? Mit dem G80 hat NV ein nahezu rundum perfektes Produkt geliefert. Da ist es doch nur logisch, dass es für ATI verdammt schwer wird das zu überbieten. Da braucht man keine Glaskugel um das zu erkennen.

Ein funktionierender Stromsparmodus wäre für NV schon mal ein Anfang. Alleine deshalb verkneife ich mir die 8800er Karten erst einmal.
edit: aber sonst haste schon recht ;)

CU
Markus

Black-Scorpion
2007-02-03, 13:15:46
Was hat das mit Glaskugel zu tun? Mit dem G80 hat NV ein nahezu rundum perfektes Produkt geliefert. Da ist es doch nur logisch, dass es für ATI verdammt schwer wird das zu überbieten. Da braucht man keine Glaskugel um das zu erkennen.
Man braucht also keine Glsskugel um jetzt schon zu wissen wie der Verbrauch und der Lüfter ist?
Dann ist es eben raten ins blaue.
Und der Stromverbrauch vom G80 (Idle) ist von einem nahezu perfekten Produkt meilenweit entfernt.

Black-Scorpion
2007-02-03, 13:19:47
;5220995']Was den für ne Glasskugel? Ließ doch einfach die 29 Seiten durch, da steht doch schon so ziemlich alles da was man wissen muss.

p.s. wenn du schon irgendetwas als Glasskugel bezeichnest, überleg doch einfach mal logisch... ;) Was kann AMD besser machen?
Hat schon einer eine Karte gesehen?
Da kannst du hier noch 100 Seiten durchlesen und man weiß im Bezug auf den Lüfter und den Stromverbrauch nichts.
Und ja, man kann z.B. den Idle Verbrauch senken.
Und nein, wie es aussieht funktioniert das beim G80 auch mit den nächsten 50 Treibern nicht.

LovesuckZ
2007-02-03, 13:30:17
Ein funktionierender Stromsparmodus wäre für NV schon mal ein Anfang. Alleine deshalb verkneife ich mir die 8800er Karten erst einmal.
edit: aber sonst haste schon recht ;)
CU
Markus

Der "Stromsparmodus" funktioniert doch...
Immerhin hat die Karte 3mal soviele Transistoren wie der G71 und verbraucht gerade mal 25% (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/37/#abschnitt_stromverbrauch) mehr Strom...

Gast
2007-02-03, 13:34:17
Ein funktionierender Stromsparmodus wäre für NV schon mal ein Anfang.Deshalb auch das "nahezu". ;) Wobei mir persönlich der Stromverbrauch völlig egal ist, weshalb G80 für mich mittlerweile perfekt ist seit dem die Hybridmodi wieder funktionieren. Ok, SGSSAA wäre noch fein, aber ich will mal realistisch bleiben. ;)

reunion
2007-02-03, 13:47:13
;5220833']?

Eigentlich nicht... auch wenn ATI die xx% bringen könnte, hält Nv derzeit alle Zügel in der Hand.

Wenn du das sagtst.

;5220995']Was den für ne Glasskugel? Ließ doch einfach die 29 Seiten durch, da steht doch schon so ziemlich alles da was man wissen muss.

p.s. wenn du schon irgendetwas als Glasskugel bezeichnest, überleg doch einfach mal logisch... ;) Was kann AMD besser machen?

Man kann immer alles besser machen. Perfektion gibt es in diesem Markt nicht. Ein Produkt ist nur so gut, wie es die Konkurrenz zulässt. Wäre NV30 vor R300 mit etwas moderateren Taktraten gekommen, hätten ihn auch alle als sehr gut empfunden. Über G80 zu urteilen, ohne die Konkurrenz gesehn zu haben, halte ich für sehr gewagt.

Warte mal ab, wie es bsw. mit dem Stromverbauch und dem Kühler von G80 aussieht, wenn nV durch R600 gezwungen wird, die Taktarten und den Vcore anzuheben. Dann ist es mit niedrigen Stromverbrauch und leisen Kühler ganz schnell vorbei. G80 zeigt im Vergleich zur Vorgängergeneration kaum Schwächen, das sollte allerdings auch selbstverständlich sein. Doch an R600 wird man sich den großteil der Lebenszeit messen müssen.

Gast
2007-02-03, 14:05:31
interessant wird ob sie nun optimierungen + fixes trennen, profilsupport für cf anbieten und standardmäßig HQ-AF aktiviert haben.

sonst kann man die ersten benches sowieso wieder in die tonne kloppen

mfg
Ich hoffe, dass der R600 in vielen Reviews mit A.I. off getestet wird, denn im jetzigen Zustand ist A.I. low/advanced mit Anspruch auf maximale Bildqualität in vielen Games ein Hohn. In Standbildern ist das so gut wie nicht zu sehen, aber dafür in Bewegung umso mehr.

dargo
2007-02-03, 14:05:37
Der "Stromsparmodus" funktioniert doch...

Was für Stromsparmodus? :|
Wenn der Chip keiner Last ausgesetzt ist, ist es wohl selbstverständlich, dass der Stromverbrauch geringer ist als unter Last. Mit Stromsparen hat das allerdings nichts zu tun.

LovesuckZ
2007-02-03, 14:12:21
Mit Stromsparen kann das allerdings nichts zu tun.

Man kann Strom nicht sparen!
Abgesehen davon hat die Karte immer dreimal soviele Transistoren. Egal ob im 2D Modus oder im 3D Modus. Das sie da mehr verbraucht, ist doch vollkommen klar. Und gesenkte Taktraten bringen wieviele? 5%?
Das kann jeder auch per Hand machen, wenn er diese 5% unbedingt haben will...

Nakai
2007-02-03, 14:28:39
Transistoranzahl hat nichts mit Verbrauch zu.
Der Vergleich hinkt ein bisschen.

mfg Nakai

dargo
2007-02-03, 14:41:18
Transistoranzahl hat nichts mit Verbrauch zu.
Der Vergleich hinkt ein bisschen.

Bei LovesuckZ hat das auch keinen Sinn, völliger NV Fanboy.

Und gesenkte Taktraten bringen wieviele? 5%?
Das kann jeder auch per Hand machen, wenn er diese 5% unbedingt haben will...
Wie oft denn noch? Eine Taktreduzierung bringt kaum was, die Spannung ist viel wichtiger.

Hvoralek
2007-02-03, 14:56:58
Wie oft denn noch? Eine Taktreduzierung bringt kaum was, die Spannung ist viel wichtiger.Auch der Takt alleine kann einiges bringen, wenn man ihn weit genug reduziert (Verbrauch ~ Takt). Die Spannung kommt noch hinzu. Wenn man z.B. den Takt halbiert und dafür die Spannung um 1/4 verringern kann, sinkt der Verbrauch auf etwa 1/2 * (3/4)² = 9/32. In dem Beispiel könnte man dadurch etwa 72% einsparen.

LovesuckZ
2007-02-03, 15:06:19
Bei LovesuckZ hat das auch keinen Sinn, völliger NV Fanboy.


Nennt man Diskussionpartner.
Aber andere Meinungen als die eigene sind ja heute verpönt...

deekey777
2007-02-03, 15:15:20
Bei LovesuckZ hat das auch keinen Sinn, völliger NV Fanboy.

Auf solche Ausdrücke ist hier zu verzichten! So ein Ton muss nicht sein.

Nakai
2007-02-03, 15:15:39
Auch der Takt alleine kann einiges bringen, wenn man ihn weit genug reduziert (Verbrauch ~ Takt). Die Spannung kommt noch hinzu. Wenn man z.B. den Takt halbiert und dafür die Spannung um 1/4 verringern kann, sinkt der Verbrauch auf etwa 1/2 * (3/4)² = 9/32. In dem Beispiel könnte man dadurch etwa 72% einsparen.

Dennoch ist Spannungsreduzierung wichtiger, als Taktreduzierung.^^:wink:

mfg Nakai

Undertaker
2007-02-03, 15:18:33
nachdem meine gts mittlerweile nur noch mit 250mhz im 2d-betrieb läuft, kann man sich über den stromverbrauch eigentlich nicht weiter beklagen... und die lautstärke ist selbst im 3d-modus noch geringer als die konkurrenz ;) klar wäre eine zusätzliche spannungssenkung schön, aber zumindest bin ich jetzt auf einem verbrauchsniveau mit dem ich leben kann

deekey777
2007-02-03, 15:21:11
nachdem meine gts mittlerweile nur noch mit 250mhz im 2d-betrieb läuft, kann man sich über den stromverbrauch eigentlich nicht weiter beklagen... und die lautstärke ist selbst im 3d-modus noch geringer als die konkurrenz ;) klar wäre eine zusätzliche spannungssenkung schön, aber zumindest bin ich jetzt auf einem verbrauchsniveau mit dem ich leben kann

Da es sich geklärt hat: zurück zum Thema.
:ulove:

sklave_gottes
2007-02-03, 16:04:39
Der "Stromsparmodus" funktioniert doch...
Immerhin hat die Karte 3mal soviele Transistoren wie der G71 und verbraucht gerade mal 25% (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/37/#abschnitt_stromverbrauch) mehr Strom...

du weist das hier das ganze system gemessen wird ?
Ich würde eher mal sagen 100% mehr strom.
Und das ist echt sehr viel mehr. Zu viel!
Da wird der r600 bestimmt besser saussehen.

Aber ansonsten ist der g80 ein guter chip, bin mal gespannt was der r600 noch besser machen kann. Und ob es reicht für 4-6 monate mehr zeit.

mfg martin

Gast
2007-02-03, 16:55:57
Ich hoffe, dass der R600 in vielen Reviews mit A.I. off getestet wird, denn im jetzigen Zustand ist A.I. low/advanced mit Anspruch auf maximale Bildqualität in vielen Games ein Hohn.Ich hoffe ja immer noch darauf, dass ATI sich ganz von diesem AI-Gedöns verabschiedet. AI-low sieht auf einem R580 in manchen Spielen verdammt fies aus, während es auf einer 9800pro noch voll in Ordnung ist. Da G80 jetzt auch sehr gute AF-Qualität ohne fiese Optimierungen zu bieten hat, hoffe ich mal, dass ATI die Cheats endlich vom AI-Schalter trennt. Dass sie durchaus lernfähig sind, haben sie ja bewiesen indem sie alle Karten ab R520 mit einem nahezu winkelunabhängigem AF ausgestattet haben. Ohne diese Aktion von ATI hätten wir wohl auch im G80 noch NV4x-AF.

Gast
2007-02-03, 16:56:27
Übrigens: Sklave_Gottes, schön dich mal wieder hier zu sehen. :)

Fetza
2007-02-03, 20:16:44
;5220995']Was den für ne Glasskugel? Ließ doch einfach die 29 Seiten durch, da steht doch schon so ziemlich alles da was man wissen muss.

p.s. wenn du schon irgendetwas als Glasskugel bezeichnest, überleg doch einfach mal logisch... ;) Was kann AMD besser machen?

Tja, alleine schonmal aufgrund der tatsache, das ati mit dem xenos seine erste unified shader technik erproben konnte, könnte sich als äußerst positiv entwickeln. Genauso gut kann man auch zb die tatsache, das ati bereits gutes af in der r5xx generation hatte als argument dafür nehmen, das sie es einfach eins zu eins übernehmen und daher entwicklungszeit sparen, was nv investieren musste.

Die frage was amd besser machen kann ist übrigends einfach: alles! (theoretisch) Was wirklich besser wird, wird im märz zu sehen sein. Aber logisch ist in jedem fall das ati schon mehr erfahrung mit unified shadern hat.

greetz

Fetza

Winter[Raven]
2007-02-03, 20:22:57
@Fetza,

bei beiden Firmen arbeiten mehr als fähige Leute um schon beim Designen zu wissen was und wo ne Flaschenhalz entstehen wird.

Ich nehme die Erfahrung aus dem Xenon nicht sehr ernst. Natürlich schön zu testen und lernen aber ich würde gern trotzdem noch warten ^_^

seahawk
2007-02-03, 20:31:57
Nimmt man die BQ Qualität der bekannten Produkte also X1950XT und 8800, dann sind die Unterschiede marginal, was bei der kommenden Generation zählt ist Speed und zwar Speed bei extrem hohen Auflösungen > 1600x1200 und hohen AA+AF Settings. Und da dürfte die höhere Fillrate ca. 30. die höhere Shaderleistung ca. 20% und die höhere Bandbreite ca. 80% für einen Vorteil der R600 sorgen der zwischen 20-50% liegen wird.

dargo
2007-02-03, 20:51:34
Nimmt man die BQ Qualität der bekannten Produkte also X1950XT und 8800, dann sind die Unterschiede marginal, was bei der kommenden Generation zählt ist Speed und zwar Speed bei extrem hohen Auflösungen > 1600x1200 und hohen AA+AF Settings. Und da dürfte die höhere Fillrate ca. 30. die höhere Shaderleistung ca. 20% und die höhere Bandbreite ca. 80% für einen Vorteil der R600 sorgen der zwischen 20-50% liegen wird.
Das sehe ich auch so. Das HQ-AF des R5x0 ist schon sehr gut. Da muss ATI fast nichts mehr verbessern. Ich freue mich schon bei der Bandbreite auf 8xMSAA. Für 17 bis 19" Zocker durchaus interessant.

Winter[Raven]
2007-02-03, 20:57:45
17" || 19"?

Komischerweise, schaft mein 19" nur 1280x1024 :P *gg*

Hvoralek
2007-02-03, 21:03:39
;5222163']17" || 19"?

Komischerweise, schaft mein 19" nur 1280x1024 :P *gg*Deswegen sprach er wohl von 17''/ 19''. Geringe native Auflösung --> Verwendung hoher AA- Modi --> hohe relative Anforderungen an die Bandbreite.

dargo
2007-02-03, 21:03:47
;5222163']17" || 19"?

Komischerweise, schaft mein 19" nur 1280x1024 :P *gg*
Und wo ist das Problem? Da mich mein 19" TFT auch auf 1280x1024 begrenzt investiere ich doch überschüssige Leistung einfach in 8xMSAA. :)

LovesuckZ
2007-02-03, 22:02:11
Genauso gut kann man auch zb die tatsache, das ati bereits gutes af in der r5xx generation hatte als argument dafür nehmen, das sie es einfach eins zu eins übernehmen und daher entwicklungszeit sparen, was nv investieren musste.


Der G80 scheint keine Verwandschaft mit der CineFX Architektur zu haben. Daher ist es egal, dass der NV4x und G7x winkelabhängiges AF hatten.
Auch der Punkt mit der Erfahrung in einer Unified Shader Architektur ist nicht richtig, da Nvidia nach ihren Angaben seit 2002 am G80 gearbeitet haben. Laut ihnen sollte die Karte schon am Ende vom Jahr 2005 auf dem Markt kommen. Also zeitgleich mit der Xbox 360.

Und wo ist das Problem? Da mich mein 19" TFT auch auf 1280x1024 begrenzt investiere ich doch überschüssige Leistung einfach in 8xMSAA. :)

Ironischer Weise spielt sich die höhere Speicherbandbreite und -menge in dieser Auflösung nicht annnährend so stark aus.

dargo
2007-02-03, 22:08:26
Ironischer Weise spielt sich die höhere Speicherbandbreite und -menge in dieser Auflösung nicht annnährend so stark aus.
Warte erstmal ab bis Crysis und UT3 rauskommen. Im Februar kannst du es auch mit TDU testen.

LovesuckZ
2007-02-03, 22:11:00
Warte erstmal ab bis Crysis und UT3 rauskommen. Im Februar kannst du es auch mit TDU testen.

Das sind dann drei Spiele.
Das Problem ist, dass es viel mehr Spiele auf dieser Welt gibt. Und nicht nur alte oder "keiner kauft diese" Spiele. Ein Fifa, ein Need for Speed und sonstige Blockbuster sind auf der Auflösung von einem 17/19" Monitor nicht gerade die G80/r600 Killer. ;)

dargo
2007-02-03, 22:17:52
Das sind dann drei Spiele.
Das Problem ist, dass es viel mehr Spiele auf dieser Welt gibt. Und nicht nur alte oder "keiner kauft diese" Spiele. Ein Fifa, ein Need for Speed und sonstige Blockbuster sind auf der Auflösung von einem 17/19" Monitor nicht gerade die G80/r600 Killer. ;)
Das macht nichts. Dann kann ein 17-19" TFT User halt den R600 länger behalten. Wenn ich mir schon überlege, dass ein R600 in TDU mit 8xMSAA bei 1280 flüssig läuft (reine Spekulation), das wäre der Hammer. Dann könnte man bei "hungrigeren", späteren Games immer noch auf 4xMSAA runter um flüssige Frameraten zu erreichen. Wäre schon schön, wenn die Graka bei mir länger als 1 Jahr hält.

Edit:
Nochmal was zu den 3 Spielen.
Kane & Lynch: Dead Men, Stranglehold, Alone in the Dark 5, Halo 2, Sabotage, Huxley, Alan Wake, Brothers in Arms: Hell´s Highway, Bioshock, Elveon, Assassin´s Creed um nur mal ein paar zu nennen. Alles Games für 2007, viele mit der Unreal Engine 3. ;)

LovesuckZ
2007-02-03, 22:20:56
Das macht nichts. Dann kann ein 17-19" TFT User halt den R600 länger behalten. Wenn ich mir schon überlege, dass ein R600 in TDU mit 8xMSAA bei 1280 flüssig läuft (reine Spekulation), das wäre der Hammer. Dann könnte man bei "hungrigeren", späteren Games immer noch auf 4xMSAA runter um flüssige Frameraten zu erreichen.

Das ist alles auch auf dem G80 (-> GTX) möglich.
Das Problem am reinem 8xMSAA Modus sind die 8 Color - Samples. Das macht sich bei TSAA verdammt bemerkbar. Aber vielleicht hat ATi auch sowas wie CSAA. Finde ich eine gute Mischung, wenn man keine Hybrid - AA Modien zur Verfügung hat.

/edit: CoD2 getestet: Mit TSAA und 8 Color - Samples bricht die Framezahl in 1280*1240 um 60% ein gegenüber 16xCSAA mit seinem 4 Color - Samples. Die Framezahl sinkt von 45 auf 28.

Fetza
2007-02-03, 22:24:43
;5222077']@Fetza,

bei beiden Firmen arbeiten mehr als fähige Leute um schon beim Designen zu wissen was und wo ne Flaschenhalz entstehen wird.

Ich nehme die Erfahrung aus dem Xenon nicht sehr ernst. Natürlich schön zu testen und lernen aber ich würde gern trotzdem noch warten ^_^

Schon richtig, mir gings auch darum, das du ja schon vorab - also eben ohne zu warten - sagst ati könne wohl nichts besser machen, weil nv endlich wieder einen chip gefertigt hat, der sowohl gute qualität, als auch performance bietet. Man darf auch nicht vergessen, das es bisher noch kaum echte informationen zum chip gibt.


Der G80 scheint keine Verwandschaft mit der CineFX Architektur zu haben. Daher ist es egal, dass der NV4x und G7x winkelabhängiges AF hatten.
Auch der Punkt mit der Erfahrung in einer Unified Shader Architektur ist nicht richtig, da Nvidia nach ihren Angaben seit 2002 am G80 gearbeitet haben. Laut ihnen sollte die Karte schon am Ende vom Jahr 2005 auf dem Markt kommen. Also zeitgleich mit der Xbox 360.



Ironischer Weise spielt sich die höhere Speicherbandbreite und -menge in dieser Auflösung nicht annnährend so stark aus.

Natürlich ist das richtig, denn wenn ich an einem produkt arbeite, während ein anderer hersteller es bereits zur marktreife gebracht hat, hat dieser einen nicht bestreitbaren vorteil, zumal der xenos es ja ziemlich drauf hat. Somit kann man klar festhalten das ati jetzt kurz vor der veröffentlichung seines zweiten unified shader produktes steht. Während nv seit ende 2006 das erste produkt ausliefert. Und das die xbox ende 2005 erschien ist korrekt, aber du weisst genauso gut wie ich, das ati den xenos ein paar monate vorher fertig haben musste für die massenfertigung.

Und das nv den g80 2005 releasen wollte wusste ich noch garnicht, finde es aber äußerst interessant, denn in dem fall würde das bedeuten, das hier jemand wohl ein paar derbe probs hatte :)

Nochmal kurz zu dem punkt mit cineFX. Du weisst schon das cineFX mit jedem darauf folgenden produkt besser wurde oder? Ich denke mal das eine verbesserung darauf beruht, das sich die ingenieure angucken, was an der bestehenden technik zu verbessern wäre. Selbiges wird Ati auch machen/gemacht haben, und dann wären wir bei dem punkt zweite generation der unified shader.;)
greetz

LovesuckZ
2007-02-03, 22:33:18
Natürlich ist das richtig, denn wenn ich an einem produkt arbeite, während ein anderer hersteller es bereits zur marktreife gebracht hat, hat dieser einen nicht bestreitbaren vorteil, zumal der xenos es ja ziemlich drauf hat. Somit kann man klar festhalten das ati jetzt kurz vor der veröffentlichung seines zweiten unified shader produktes steht. Während nv seit ende 2006 das erste produkt ausliefert. Und das die xbox ende 2005 erschien ist korrekt, aber du weisst genauso gut wie ich, das ati den xenos ein paar monate vorher fertig haben musste für die massenfertigung.

Ich bestreite nicht, dass es das zweite "Unified Shader" Produkt ist. Nur die Sache mit der Erfahrung und dadurch das bessere Produkt bestreite ich.
Wr wissen nicht, ob der G80 in Sachen "Unified Shader" besser oder schlechter ist als Xenos. Was ist, wenn er besser ist und ATi eine schlechtere Architektur als Grundlage nimmt?

Nochmal kurz zu dem punkt mit cineFX. Du weisst schon das cineFX mit jedem darauf folgenden produkt besser wurde oder? Ich denke mal das eine verbesserung darauf beruht, das sich die ingenieure angucken, was an der bestehenden technik zu verbessern wäre. Selbiges wird Ati auch machen/gemacht haben, und dann wären wir bei dem punkt zweite generation der unified shader.;)
greetz

CineFX wurde verbessert. Aber es gibt einige Gemeinsamkeiten zwischen dem G71 und den FX Karten.
Der G80 dagegen scheint neu zu sein und nicht auf CineFX aufzubauen. Natürlich wird man sich überlegt haben, was man von CineFX übernehmen bzw. besser machen kann. Jedoch war ATi bei dem Start der Entwicklung im Jahre 2002 wohl nicht wirklich von Bedeutung. Und da sie erst am Ende vom Jahr 2005 vernünftiges AF in ihrer Geschichte angeboten haben, hat Nvidia diese Tatsache beim G80 selbst entschieden.

reunion
2007-02-03, 23:20:19
Auch der Punkt mit der Erfahrung in einer Unified Shader Architektur ist nicht richtig, da Nvidia nach ihren Angaben seit 2002 am G80 gearbeitet haben. Laut ihnen sollte die Karte schon am Ende vom Jahr 2005 auf dem Markt kommen. Also zeitgleich mit der Xbox 360.


Wenn du so argumentierst, könnte man jetzt auch mit R400 kommen. ATi bastelt definitiv schon länger an einen US-Design. Ob das ein Vorteil war, wird sich zeigen.

Jedoch war ATi bei dem Start der Entwicklung im Jahre 2002 wohl nicht wirklich von Bedeutung.


Spätestens mit dem erscheinen des R300, und das war im Jahre 2002, war ATi sehrwohl von Bedeutung. Und auch wenn man vorher nicht so hohe Marktanteile wie nV hatte, wird sich nV mit Sicherheit auch an den ATi-Chips bereichert haben. Ist ja logisch, man wäre ja blöd, wenn man das nicht machen würde. Im übrigen ist es ja nicht so, dass man im laufe der Entwicklung keine Änderungen mehr vornehmen könnte. Es ist sogar üblich, dass sich von der Planungphase bis zum fertigen Produkt aufgrund von Fehleinschätzungen, aber auch aufgrund von Marktgegebenheiten einiges noch ändert.


Und da sie erst am Ende vom Jahr 2005 vernünftiges AF in ihrer Geschichte angeboten haben, hat Nvidia diese Tatsache beim G80 selbst entschieden

Das sehe ich nicht so. Spätestens mit den ersten R520-Samples (und die gab es wesentlich früher), die an Entwickler rausgingen, wusste nV bescheid. Die Vermutung liegt sogar nahe, dass bereits Xenos wu-AF bietet. IMHO wurde man von der R500-Generation am falschen Fuß erwischt. Nachdem schon NV20 einen hochwertigeren AF-Modus als G70 bot, und man zugunsten der Performance das AF Schritt für Schritt zusammenstutzte, kam plötzlich ATi (die bis dahin in punkto AF-Qualität nur müde belächelt wurden), mit einem wesentlich besseren AF als man es selbst bot. Das man in einer solchen Situation nur eines machen kann, nämlich eine Flucht nach vorne, ist klar. G80 beherrscht aber AFAIK auch noch winkelabhängiges AF, allerdings wurde das in finalen Treibern verständlicherweise nie freigeschaltet. Dass es ohne R5XX genau so aussehen würde, wage ich zu bezweifeln.

laser114
2007-02-04, 00:04:55
K-Hardware (http://www.k-hardware.de/news.php?s=c&news_id=6249):

Hatten wir bis vor kurzem noch die Hoffnung, dass AMD vielleicht die CeBIT in Hannover für den Launch des R600 auswählen würde, mussten wir diese Wunschvorstellung heute zu Grabe tragen, als bekannt wurde, dass die Präsentation des Hoffnungsträgers aus Kanada höchstwahrscheinlich am 11. März in Amsterdam stattfinden werde.

Quelle: Diverse



---

Die Seite hat zwar weniger mit Hardware zu tun, berichtete aber bisher immer nur das, was ich bereits gelesen hatte. Woher kommt denn dieser "Termin", sowie die Ortsinfo?

Zocker_28
2007-02-04, 00:21:11
Schade, naja den 1 Monat hält die GTS auch noch durch ;D

3d
2007-02-04, 00:28:07
ich hab keine lust mehr zu warten.
wird langsam zeit, daß ein paar infos und benchmarks durchsickern.

hoffentlich wird der idle stromverbrauch nicht so hoch wie bei dem G80.

Gast
2007-02-04, 00:36:42
Der G80 is eh kein gegner nun mehr. So spät wie der R600 kommt :(
NV haut bald neuen chip nach, da lang die paar % was der R600 schneller sein soll nisch aus.
Ati hat das rennen erstmal verlorn.

mapel110
2007-02-04, 00:37:08
K-Hardware (http://www.k-hardware.de/news.php?s=c&news_id=6249):
Quelle: Diverse
Die Seite hat zwar weniger mit Hardware zu tun, berichtete aber bisher immer nur das, was ich bereits gelesen hatte. Woher kommt denn dieser "Termin", sowie die Ortsinfo?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5219416&postcount=530
Daher kommen die Infos. aaaaaaaaaaaaaaaaaaaaaaaaaalt, srykthx. ;(

Ailuros
2007-02-04, 08:07:51
Nimmt man die BQ Qualität der bekannten Produkte also X1950XT und 8800, dann sind die Unterschiede marginal, was bei der kommenden Generation zählt ist Speed und zwar Speed bei extrem hohen Auflösungen > 1600x1200 und hohen AA+AF Settings.

Nicht fuer lange; es reicht wenn neue Spiele auf die Regale kommen und schon kann man >1600+AA teilweise schon wieder vergessen.


Und da dürfte die höhere Fillrate ca. 30. die höhere Shaderleistung ca. 20% und die höhere Bandbreite ca. 80% für einen Vorteil der R600 sorgen der zwischen 20-50% liegen wird.

Pixel/Z Fillrate = G80
AF Fillrate = G80
Bandwidth = R600
Shader Fillrate (theoretical maximum in GFLOPs) = R600 (if G80 w/o MUL; with MUL the scale weighs in G80's direction.

Und das sind nur theoretisch maximale Zahlen; aber es sollte reichen Dir zu zeigen dass Du das Ganze wohl doch etwas mehr ueberdenken solltest.

Ailuros
2007-02-04, 08:28:44
Wenn du so argumentierst, könnte man jetzt auch mit R400 kommen. ATi bastelt definitiv schon länger an einen US-Design. Ob das ein Vorteil war, wird sich zeigen.

Eben nicht. Es gibt vier insgesamt IHVs die seit den fruehen Definierungen vom damaligen DirectX Next USCs entwickelt haben.



Das sehe ich nicht so. Spätestens mit den ersten R520-Samples (und die gab es wesentlich früher), die an Entwickler rausgingen, wusste nV bescheid. Die Vermutung liegt sogar nahe, dass bereits Xenos wu-AF bietet. IMHO wurde man von der R500-Generation am falschen Fuß erwischt. Nachdem schon NV20 einen hochwertigeren AF-Modus als G70 bot, und man zugunsten der Performance das AF Schritt für Schritt zusammenstutzte, kam plötzlich ATi (die bis dahin in punkto AF-Qualität nur müde belächelt wurden), mit einem wesentlich besseren AF als man es selbst bot. Das man in einer solchen Situation nur eines machen kann, nämlich eine Flucht nach vorne, ist klar. G80 beherrscht aber AFAIK auch noch winkelabhängiges AF, allerdings wurde das in finalen Treibern verständlicherweise nie freigeschaltet. Dass es ohne R5XX genau so aussehen würde, wage ich zu bezweifeln.

Bullshit. Erstens ist die R5x0 AF Qualitaet auf quasi NV3x und nicht NV2x Nivaeu und zweitens war es tatsaechlich von Anfang an so geplant dass NV4x/G7x die einzigen Zwischenschieber mit degradiertem AF auf der roadmap waren. Als ich damals die 6800 vor deren offiziellen Veroeffentlichung in die Hand bekam und ueber das AF fragte, hiess es klipp und klar dass an Transistoren gespart wurde und dass es sich erst mit der naechsten Generation aendern wird.

Dass mit der Winkelabhaengigkeit in fruehen Treibern ist das albernste Argument ueberhaupt; die Recheneinheiten sind fuer sehr niedrige Winkelabhaengigkeit ausgelegt. Man kann sie programmieren weniger zu rechnen, aber dass es Verschwendung ist kannst Du Dir wohl vorstellen. Es war ein einfacher Treiberbug; get over it.

robbitop
2007-02-04, 08:50:02
Die AF Blume vom NV40 spricht eine andere Sprache. Da sieht es nicht so aus, als haette man da grossartig Transistoren gespart, eher als haette man das WA AF extra eingebaut um mit ATI "gleichzuziehen"

Hvoralek
2007-02-04, 08:54:33
Ironischer Weise spielt sich die höhere Speicherbandbreite und -menge in dieser Auflösung nicht annnährend so stark aus.Für die Bedeutung der Bandbreite gegenüber den anderen Eckdaten spielt die Auflösung fast keine bis gar keine Rolle. Mit höherer Auflösung steigen zwar die Bandbreitenanforderungen, aber im gleichen Maße auch die an alles andere bis auf die Geometrieleistung (Bei USCs steigt deshalb die Bedeutung von Bandbreite und Texelfüllrate mit steigender Auflösung geringfügig an). Wenn also z.B. in WUXGA Bandbreite der Flaschenhals der GraKa ist, wird sie das auch in SXGA sein und auch in VGA. Was wirklich Bandbreite kostet und auch fast nichts anderes, sind höhere (MS-) AA- Modi. Deshalb ist 8xAA (oder mehr?) unabhängig von der Auflösung neben Riesentexturen so ziemlich das einzige, was man mit so einer Menge Bandbreite machen kann. Dass R600 damit anfangs kaum auszulasten sein wird, sollte natürlich klar sein.

Warte erstmal ab bis Crysis und UT3 rauskommen..., die beide eher arithmetiklastig sein dürften. Warum nimmst Du bei den Spielen oder auch bei den später genannten eine hohe Bandbreitenlast an? FP16 alleine macht so viel auch nicht aus und das gibt es auch in etlichen heutigen Spielen.

Ailuros
2007-02-04, 09:07:29
Die AF Blume vom NV40 spricht eine andere Sprache. Da sieht es nicht so aus, als haette man da grossartig Transistoren gespart, eher als haette man das WA AF extra eingebaut um mit ATI "gleichzuziehen"

Und die Logik dahinter waere? Ach ja ein IHV vermiest mit Absicht einen bisherigen Vorteil nur um der Konkurrenz ein bisschen "nachzuhelfen". Macht Sinn....:rolleyes:

Hvoralek
2007-02-04, 09:10:21
Wenn es nur um Leistungseinsparungen ging und die TMUs an sich vollständig sind, hätte man nicht spätestens beim R520- Erscheinen Treiber mit vernünftiger Filterung vorgelegt?

Ailuros
2007-02-04, 09:19:24
Wenn es nur um Leistungseinsparungen ging und die TMUs an sich vollständig sind, hätte man nicht spätestens beim R520- Erscheinen Treiber mit vernünftiger Filterung vorgelegt?

*snip*

NV40 has changed the algorithm for
computing the size of the footprint mainly for transistor-saving reasons (both by reducing the math complexity and by reducing the texturing latency, which affects area elsewhere), not for angle-dependence.

*snip*

This is mostly the reason why AF was not angle-dependent before NV40: The saved transistor cost was marginal (only one texture pipe at the time), and the performance difference just wasn't there.

*anonymous NV engineer* ;)

dargo
2007-02-04, 09:31:30
..., die beide eher arithmetiklastig sein dürften. Warum nimmst Du bei den Spielen oder auch bei den später genannten eine hohe Bandbreitenlast an? FP16 alleine macht so viel auch nicht aus und das gibt es auch in etlichen heutigen Spielen.
Mal ne Gegenfrage. Warum erhöht man bei den Grakas immer weiter die Bandbreite? Bestimmt nicht aus Spass.

mapel110
2007-02-04, 09:36:47
Mal ne Gegenfrage. Warum erhöht man bei den Grakas immer weiter die Bandbreite? Bestimmt nicht aus Spass.
AA in hohen Auflösungen ist mittlerweile das Einzige, was neben AF die Hersteller voneinander unterscheidet. Besonders bei DX10 ist das der Fall.
Man hat die Treiber bei beiden Herstellern nicht umsonst DAU-tauglich gemacht. Man muss der breiten Masse klar machen, was AA ist, damit sie auch in Zukunft neue Karten kaufen.

dargo
2007-02-04, 09:41:33
Man muss der breiten Masse klar machen, was AA ist, damit sie auch in Zukunft neue Karten kaufen.
Naja, ob der breiten Masse AA wichtig ist sei mal dahin gestellt. Diese interessiert sich nicht für High-End.

Hvoralek
2007-02-04, 09:42:12
Mal ne Gegenfrage. Warum erhöht man bei den Grakas immer weiter die Bandbreite? Bestimmt nicht aus Spass.I.W. wegen größerer Texturen, höherer AA- Modi und (u.a.) FP16; das sind die Sachen, die hpts. Bandbreite brauchen. Du hast nur mMn ungeschickte Beispiele aufgeführt, bei denen die Bandbreitenanforderungen besonders hoch sein sollen im Vergleich zu anderen Leistungsmerkmalen. Gerade die UE3 gilt als arithmetisch sehr fordernd und Crysis dürfte es, dem bisherigen Material nach, auch sein.

reunion
2007-02-04, 09:46:15
Und die Logik dahinter waere? Ach ja ein IHV vermiest mit Absicht einen bisherigen Vorteil nur um der Konkurrenz ein bisschen "nachzuhelfen". Macht Sinn....:rolleyes:

Hat man ja gemacht, oder? Und bei den wenigen Transitoren, die das laut deinen Zitaten kosten soll, ergibt das erst recht keinen Sinn. Der Punkt ist, dass das damals kein Schwein interresierte, bis auf ein paar Freaks. Die Absicht dahinter war doch klar: "Wir werden mit nV3x ständig mit ungerechten Vergleichen künstliche eingebremst, also senken wir die AF-Qualität auf R3xx-Niveau. Die Leute schauen ohnehin nur auf die Balken."

Hvoralek
2007-02-04, 09:49:05
Hat man ja gemacht, oder? Und bei den wenigen Transitoren, die das laut deinen Zitaten kosten soll, ergibt das erst recht keinen Sinn. This is mostly the reason why AF was not angle-dependent before NV40: The saved transistor cost was marginal (only one texture pipe at the time), and the performance difference just wasn't there.Ich verstehe das so, dass man damit vor NV40 kaum Transistoren hätte einsparen können.

dargo
2007-02-04, 09:49:36
Du hast nur mMn ungeschickte Beispiele aufgeführt, bei denen die Bandbreitenanforderungen besonders hoch sein sollen im Vergleich zu anderen Leistungsmerkmalen.
Ok, vielleicht hatte ich mich wirklich ungünstig ausgedrückt. Ich meinte, dass bei den grafischen Leckerbissen 2007 allgemein die Ansprüche an Rohleistung und Bandbreite ansteigen werden. Und da brauche ich keine 2000-er Auflösung mit 4xAA um einen G80/R600 an die Grenzen zu bringen.

reunion
2007-02-04, 09:53:47
Ich verstehe das so, dass man damit vor NV40 kaum Transistoren hätte einsparen können.

Du hast recht.

robbitop
2007-02-04, 10:01:19
Und die Logik dahinter waere? Ach ja ein IHV vermiest mit Absicht einen bisherigen Vorteil nur um der Konkurrenz ein bisschen "nachzuhelfen". Macht Sinn....:rolleyes:
Die strategische Logik entzieht sich wohl vielen von uns. Dennoch aendert das nichts am Faktum der NV40 Blume.

seahawk
2007-02-04, 11:01:44
Die strategische Logik entzieht sich wohl vielen von uns. Dennoch aendert das nichts am Faktum der NV40 Blume.

Es gibt recht viele Möglichkeiten warum na si gehandelt haben könnte. Auch wenn es wenige Transistoren waren so waren es evtl. gerade soviele um den Chip mehr Richtung SM3.0 zu kriegen, was evtl. wichtiger angesehen wurde. Die FX Architektur war ja nun nicht gerade schlank und man könnte daher einfach alle Punkte abgesucht haben bei denen man Transistoren sparen konnte. Eine Anpassung an ATI halte ich schon von der zeitlichen Schiene für ziemlich unwahrscheinlich.

robbitop
2007-02-04, 11:07:04
Es gibt recht viele Möglichkeiten warum na si gehandelt haben könnte. Auch wenn es wenige Transistoren waren so waren es evtl. gerade soviele um den Chip mehr Richtung SM3.0 zu kriegen, was evtl. wichtiger angesehen wurde. Die FX Architektur war ja nun nicht gerade schlank und man könnte daher einfach alle Punkte abgesucht haben bei denen man Transistoren sparen konnte. Eine Anpassung an ATI halte ich schon von der zeitlichen Schiene für ziemlich unwahrscheinlich.
Am AF haben sie eben keine Transistoren gespart, das ist eben der Crux. Die AF Blume sieht ueberhaupt nicht danach aus. Das ganze sieht so aus, als haette man das Design kuenstlich auf ein WA-AF beschraenkt.

Die Idee stammt uebrigens nicht von mir sondern aus den Koepfen von Leuten wie Xmas, aths, wayvey und wie sie alle heissen. Allerdings ist das IMO fuer jeden nachvollziehbar.

Hvoralek
2007-02-04, 11:11:32
Am AF haben sie eben keine Transistoren gespart, das ist eben der Crux. Die AF Blume sieht ueberhaupt nicht danach aus. Das ganze sieht so aus, als haette man das Design kuenstlich auf ein WA-AF beschraenkt.Wenn das eine künstliche Beschränkung ist, warum hat man nicht im Herbst 2005 Treiber ohne sie gebracht?

Für mich sieht die NV4x- AF- Blume übrigens der eines R300 zum Verwechseln ähnlich. Woran erkennt man diesen Unterschied denn?

robbitop
2007-02-04, 11:19:05
Wenn das eine künstliche Beschränkung ist, warum hat man nicht im Herbst 2005 Treiber ohne sie gebracht?

Für mich sieht die NV4x- AF- Blume übrigens der eines R300 zum Verwechseln ähnlich. Woran erkennt man diesen Unterschied denn?
Weils anscheinend keine SW Beschraenkung war. Wie gesagt, mir entzieht sich das ganze ebenfalls.

Schalt mal 2xAF an. Dann wirst du sehen, dass der NV40 in der Lage ist eine line of anisotropy annaehernd winkelunabhaengig zu berechnen. Das kann R300 nicht. Ab 4x wirds schlimmer und ab 8x ist es R300 style.

Jedoch beweist 2xAF dass die LOA Logik fuer alle Winkel an Board ist. Und das ist eben das teure.

Hvoralek
2007-02-04, 11:39:16
Weils anscheinend keine SW Beschraenkung war. Wie gesagt, mir entzieht sich das ganze ebenfalls.Wäre es nicht immer noch sinnvoller, durch wa- AF die paar Transistoren, die es bringt, zu sparen, als erst komplette TMUs zu bauen und die dann durch zusätzliche Schaltungen hardwareseitig auszubremsen? :confused:

Schalt mal 2xAF an. Dann wirst du sehen, dass der NV40 in der Lage ist eine line of anisotropy annaehernd winkelunabhaengig zu berechnen. Das kann R300 nicht. Ab 4x wirds schlimmer und ab 8x ist es R300 style.

Jedoch beweist 2xAF dass die LOA Logik fuer alle Winkel an Board ist. Und das ist eben das teure.Ok, ich hatte nur 16x- AF- Blumen im Kopf. Aber stimmt, 2x ist wu auf NV4x. Sehr seltsam.

robbitop
2007-02-04, 11:43:40
Ja waere es. Vieleicht wurde NV40 mit WU AF geplant, aber das performante WA AF von ATI und die breite Akzeptanz dieses Verfahrens koennten fuer eine Umstimmung gesorgt haben. Am Ende wissen das wohl nur ein paar Leute bei NV.

Coda
2007-02-04, 12:04:07
Also ich bin mir da inzwischen nicht mehr so sicher, ohne die genauen Algorithmen zu kennen die auf den GPUs verwendet werden. Evtl. muss man das ja mal selber runterschreiben um es kapieren zu können.

Ailuros
2007-02-05, 06:06:46
Ja waere es. Vieleicht wurde NV40 mit WU AF geplant, aber das performante WA AF von ATI und die breite Akzeptanz dieses Verfahrens koennten fuer eine Umstimmung gesorgt haben. Am Ende wissen das wohl nur ein paar Leute bei NV.

Wieviel Leistungsunterschied zeigte sich auf G80 auf dem ersten Treiber wo die hoehere Winkelabhaengigkeit noch da war? Null. Und ja die naechste logische Antwort darauf waere der Unterschied was HW betrifft und um das eben genau ging es auch bei NV4x. Es wurde tatsaechlich die HW beschnitten und er sagte auch warum die Transistoren-sparerei nicht viel Sinn auf <NV4x machte: er erwaehnte nur "eine texture pipe". Jetzt muss man natuerlich erstmal entziffern was er damit meinte, aber Sinn macht das Ganze schon.

Waere die ganze Debatte nicht "off the record" gewesen, koennte ich 3 Interviews daraus kompilieren und manches waere auch heute noch sehr aktuell; es ging ueber D3D10, ATI's ring stop Dingsbums, caches, cache bandwidth und vieles anderes interessante; Datum Oktober 05'. Es gab zwar keine hints in Richtung USC fuer G80, aber herausraten konnte man einiges (ausserhalb USC). Ich kaempfe schon seit zwei Monaten fuer ein G80 Q&A mit NV, aber sie scheinen sich hoeflichst vor jeder Aussage mit etwas Substanz mit Absicht zu druecken. Grosse Seiten finden hier keinen Durchbruch, somit sind die Chancen fuer mich armen Deppen eher unter Null :(

Ailuros
2007-02-05, 06:17:21
Wäre es nicht immer noch sinnvoller, durch wa- AF die paar Transistoren, die es bringt, zu sparen, als erst komplette TMUs zu bauen und die dann durch zusätzliche Schaltungen hardwareseitig auszubremsen? :confused:

Die Recheneinheiten sind eben nicht komplett; koennte man via SW die gleiche WA wie bei 2x auch mit 16x anwenden auf NV4x, waere es verstaendlicherweise schneckenlangsam.

Die Winkel der Blumen zwischen R3xx/4xx und NV4x sind uebrigens nicht gleich; schaut mal etwas genauer hin.

Ok, ich hatte nur 16x- AF- Blumen im Kopf. Aber stimmt, 2x ist wu auf NV4x. Sehr seltsam.

Ich hab mit Absicht nur wahlweise zitiert. Wenn sie nicht unter der Druck der Oeffentlichkeit liegen koennen sie verdammt ehrlich werden; kleines Beispiel:

I really don't like the downward spiral of progressively reduced image quality. It's easy to do something fast when you don't have to produce
the correct result :)

....dieses kam nach einer ausfuehrlichen Erklaerung wie man versucht hatte ATI's Optimierungen quasi nachzumachen. Die Begrenzungen liegen aber tatsaechlich in HW was die WA betrifft.

crux2005
2007-02-05, 15:57:35
Bin ich jetzt total verrueckt und versuche alle Einheiten als skalare zu vermarkten, hab ich dann gleich angebliche 240 SPs auf Xenos, was aber auch noch ziemlich moderat ist im Vergleich zu den Werten von R600 *wink nudge*

was spricht eigentlich beim R600 gegen 320 "SP"s ?

Gast
2007-02-05, 16:15:08
Dass er vor 2008 kommen soll? :D

LovesuckZ
2007-02-05, 16:33:45
was spricht eigentlich beim R600 gegen 320 "SP"s ?

320 "SP" wären 64 Vec5 Recheneinheiten. Da spricht nichts dagegen.

Gast
2007-02-05, 20:58:29
Ohne diese Aktion von ATI hätten wir wohl auch im G80 noch NV4x-AF.


sicher nicht, zu der zeit als bekannt wurde dass der R5xx brauchbares AF liefert, war das G80-design schon im endstadium.

AnarchX
2007-02-05, 21:32:55
[New ATi R600 Details Appear]

end of March it appears now and there are 3 SKUs; XTX, XT and XL.

a new hardware Crossfire for R600 family which can be bridgeless yet faster.

The retail card is half an inch longer at 9.5" and the OEM/SI version remains the same at 12". It comes with 512-bit memory bus and 1GB DDR4 at more than 2GHz frequency. Core clock remains a mystery as yet.

http://www.vr-zone.com/index.php?i=4595

Nakai
2007-02-05, 21:52:48
Dummer BLOG! (http://www.pcgameshardware.de/blog/2007/02/05/day-seventyfour-neue-details-zur-ersten-r600-karte/)

Also ich weiß nicht so recht, was dieser Blog soll. Naja ich wills euch nicht vorenthalten.

mfg Nakai

Coda
2007-02-05, 22:05:06
Was da für Dreck drinsteht ist genial :D

Gmax
2007-02-05, 22:20:10
Eine echte Revolution steckt hinter dem Begriff “GPS-Morphing”. So funktioniert’s: Je nach Region werden Objekte anders dargestellt. Die Region wird durch den eingebauten GPS-Empfänger bestimmt. Spieler, die in Houston/USA wohnen werden mit fetteren Spielfiguren konfrontiert, da die anzahl der Übergewichtigen in der Region besonders hoch ist. Wer in San Francisco oder Köln lebt, wird auf eine höhere Anzahl homosexueller Figuren treffen. Lebt der Spieler in den neuen Bundesländern, wirkt die Spielumgebung marode und mehr Arbeitslose laufen herum. Wer in Afghanistan residiert, wird nur vermummte Frauen antreffen. Hier stellt sich mir wieder die klassische Frage: Muss soviel Realismus wirklich sein? Was, wenn ein Afghane ein Strippoker spiel kauft und die virtuellen Schnitten gar nicht ausziehen kann? Ist das überhaupt legal? Hier besteht dringender Gesprächsbedarf seitens der Politiker!

:biggrin: :biggrin: Ich wußte doch, daß der R600 was besonderes wird!

Botcruscher
2007-02-05, 22:53:15
Yes AGP lebt!:biggrin:

Mit einer einer breiten Verfügbarkeit der Karte ist wohl erst ab April zu rechnen. Mit einer schmalen Verfügbarkeit sogar schon ab März. Wer also einen schmaleren AGP-Slot hat, wird früher bedient.

Superheld
2007-02-05, 23:10:58
"muss sich die Konkurrenz ganz warm anziehen - vor allem wenn Sie in unbeheizten Gebäuden residiert!":ulol3:

Gast
2007-02-05, 23:48:34
"muss sich die Konkurrenz ganz warm anziehen - vor allem wenn Sie in unbeheizten Gebäuden residiert!":ulol3:

Ich hätte gerne eine "Moped 2000"............

Fetza
2007-02-06, 04:29:05
Dummer BLOG! (http://www.pcgameshardware.de/blog/2007/02/05/day-seventyfour-neue-details-zur-ersten-r600-karte/)

Also ich weiß nicht so recht, was dieser Blog soll. Naja ich wills euch nicht vorenthalten.

mfg Nakai

alter, wie geil is das denn!:D

greetz

AnarchX
2007-02-06, 13:59:39
[ATi RV610 & RV630 Info Emerged]
We have gotten some concrete information on the RV610 and RV630. The card samples will start appear in March and the launch slated for April timeframe. There will be 3 variants of RV630 supporting DDR2, DDR3 or DDR4. For low-end RV610, it will be built on 65nm process and there are 2 variants; RV610LE supporting DDR2 and RV610PRO supporting DDR3. Memory clock for RV610LE stood at 400Mhz while RV610PRO is at 700MHz.
http://www.vr-zone.com/?i=4596

Nakai
2007-02-06, 14:29:05
Mhh, find ich etwas zu früh, war aber irgendwie klar, dass ATI die ganze Serie released.

mfg Nakai

Gast
2007-02-06, 17:20:53
65-nm-GPUs schon im April? Erscheint mir ziemlich früh, selbst für Low-End.

reunion
2007-02-06, 17:41:46
ATI's R600 driver indicates four flavours ahead (http://www.the-inquirer.net/default.aspx?article=37462)
"R600" = ati2mtag_R600, PCI\VEN_1002&DEV_9402
"R600" = ati2mtag_R600, PCI\VEN_1002&DEV_9403
"R600" = ati2mtag_R600, PCI\VEN_1002&DEV_9400
"R600" = ati2mtag_R600, PCI\VEN_1002&DEV_9401

[ati2mtag_R600.GeneralConfigData]
MaximumDeviceMemoryConfiguration=512
MaximumNumberOfDevices=4

"R600 Secondary" = ati2mtag_R600, PCI\VEN_1002&DEV_9421
"R600 Secondary " = ati2mtag_R600, PCI\VEN_1002&DEV_9422
"R600 Secondary " = ati2mtag_R600, PCI\VEN_1002&DEV_9423
"R600 Secondary " = ati2mtag_R600, PCI\VEN_9420



ATI RV610 and R630 to launch in April (http://www.the-inquirer.net/default.aspx?article=37463)
DAAMIT is not that far away from launching its mainstream and entry level DirectX 10 products.
Nvidia will beat it with its G86 and G84 launch but we heard that AMD plans to introduce the mainstream R610 and entry level RV630 in April. This will roughly take place a month after the original R600 launch.

Hvoralek
2007-02-06, 17:52:17
65-nm-GPUs schon im April? Erscheint mir ziemlich früh, selbst für Low-End.Wie sicher/ wahrscheinlich ist denn, dass RV610/630 schon in 65 nm gefertigt werden?

reunion
2007-02-06, 17:54:23
Wie sicher/ wahrscheinlich ist denn, dass RV610/630 schon in 65 nm gefertigt werden?

Sehr sicher. ATI CEO Dave Orton gab dies AFAIK höchstpersönlich vor einiger Zeit in einem Interview auf B3D an. Nv ist eben sehr konservativ, wenn es um neue Herstellungsprozesse geht. ATi war auch bei 90nm trotz massiven Verspätungen von R520 deutlich früher dran. Xenos wurde schon in 90nm gefertigt, da hatte nV gerademal High-End auf 110nm umgestellt AFAIK. Außerdem will ja auch nV noch im 2. Halbjahr in 65nm fertigen.

Hvoralek
2007-02-06, 17:55:35
Sehr sicher. ATI CEO Dave Orton gab dies AFAIK höchstpersönlich vor einiger Zeit in einem Interview auf B3D an.Sagte er da nicht nur, dass keine R/V6xx in 90 nm kommen würden? Oder gab es noch ein Interview?

Gast
2007-02-06, 18:05:48
Sehr sicher. ATI CEO Dave Orton gab dies AFAIK höchstpersönlich vor einiger Zeit in einem Interview auf B3D an. Nv ist eben sehr konservativ, wenn es um neue Herstellungsprozesse geht. ATi war auch bei 90nm trotz massiven Verspätungen von R520 deutlich früher dran. Xenos wurde schon in 90nm gefertigt, da hatte nV gerademal High-End auf 110nm umgestellt AFAIK. Außerdem will ja auch nV noch im 2. Halbjahr in 65nm fertigen.


NV ist eben mit der FX ziemlich auf die Schnauze gefallen und sie haben daraus gelernt. Bei ATI steht dieser Lernprozess noch bevor, mit dem R520 sind sie schon einmal in der FXe Fußstapfen getreten und beim R600 sieht es nicht besser aus, die Teile sind einfach zu spät dran.

reunion
2007-02-06, 18:08:49
Sagte er da nicht nur, dass keine R/V6xx in 90 nm kommen würden? Oder gab es noch ein Interview?

Ich bilde mir ein, dass es noch ein zweites gab, finde es allerdings momentan nicht mehr. Allerdings machte Orton auch beim "conference call" zum letzten Quartalsergebnis von ATi sehr klare Andeutungen:

http://www.beyond3d.com/forum/showthread.php?t=29612

Natürlich könnte man das auch auf spätere Chips beziehen. So oder so, es wird sich ohnehin bald auflösen.

dargo
2007-02-06, 18:11:31
NV ist eben mit der FX ziemlich auf die Schnauze gefallen und sie haben daraus gelernt. Bei ATI steht dieser Lernprozess noch bevor, mit dem R520 sind sie schon einmal in der FXe Fußstapfen getreten und beim R600 sieht es nicht besser aus, die Teile sind einfach zu spät dran.
Tja, ohne jetzt die Performance vom R600 und dessen Treiber zu kennen könnte ich auch sagen der G80 war einfach zu früh dran wie man an den Treibern und dem Idle Stromverbrauch sehen kann. ;)

Gast
2007-02-06, 19:46:08
G80 has been rushed out trough the door as fast as that because it would be too little too late now. Like the Parhelia "almost" DX9 part, and its first 256 bits memory architecture but bad efficiency. nVidia now: Almost 512 bits memory bus width. Almost 512 MB or almost 1 GB memory. If this is ever needed on G80 is irrelevant. Numbers are lower, that counts! People would still buy FX 5200 if there would be 512 MB of memory >4ns. DX huhh..? what? Will it play Vista or Mahjongg or DNF? thats the question not...?

seahawk
2007-02-06, 20:03:31
Tja, ohne jetzt die Performance vom R600 und dessen Treiber zu kennen könnte ich auch sagen der G80 war einfach zu früh dran wie man an den Treibern und dem Idle Stromverbrauch sehen kann. ;)

Sagen wir so die Verspätung des R600 war nicht schädlich für den G80. Ohne den zeitlichen Abstand wäre die Sache recht einseitig.

AnarchX
2007-02-06, 20:26:37
Sagen wir so die Verspätung des R600 war nicht schädlich für den G80. Ohne den zeitlichen Abstand wäre die Sache recht einseitig.

Wobei ein fiktiver R600 im November 2006 wohl doch etwas anders ausgesehen hätte, als den welcher der jetzt gelauncht wird.;)

Dass nV wohl mit dem G80 im Ziellauf Probleme hatte, kann man natürlich nicht verleugnen, was wohl auch auf Kosten eines 2D-Modus ging, hinzu kommt noch die erhöhte Belastung für das Treiberteam einmal durch die neue Architektur und Vista.
Trotzdem ist das Ergebnis doch durchaus passabel.
Und ATi hat nun mit dem R600 die Pflicht dies zu übertreffen, wobei wohl der G80-Refresh schon im Hintergrund Druck auswirkt.
Deshalb scheint man auch die Bezeichung X2900... zu wählen, damit man andeutet, dass man halt keine verspätetes Produkt abliefert.

Gast
2007-02-06, 20:28:39
hier mal eine zusammenfassung für neueinsteiger:

http://www.3dchip.de/artikel/2007/R600/R600-1.php

AnarchX
2007-02-06, 20:33:18
hier mal eine zusammenfassung für neueinsteiger:

http://www.3dchip.de/artikel/2007/R600/R600-1.php

"256-bit 512MB 1.8GHz GDDR4 RAM", 65nm,... - den Link sollte man getrost zur Seite legen, da sind die Links die DK777 im ersten Post zusammengefasst hat, um einiges sinnvoller.

seahawk
2007-02-06, 21:41:14
Wobei ein fiktiver R600 im November 2006 wohl doch etwas anders ausgesehen hätte, als den welcher der jetzt gelauncht wird.;)

Dass nV wohl mit dem G80 im Ziellauf Probleme hatte, kann man natürlich nicht verleugnen, was wohl auch auf Kosten eines 2D-Modus ging, hinzu kommt noch die erhöhte Belastung für das Treiberteam einmal durch die neue Architektur und Vista.
Trotzdem ist das Ergebnis doch durchaus passabel.
Und ATi hat nun mit dem R600 die Pflicht dies zu übertreffen, wobei wohl der G80-Refresh schon im Hintergrund Druck auswirkt.
Deshalb scheint man auch die Bezeichung X2900... zu wählen, damit man andeutet, dass man halt keine verspätetes Produkt abliefert.

Das ist der Punkt, R600 wird sich nicht lange mit G80 in seiner bekannten Form messen müssen. Viele vergessen wie "alt" G80 im April schon ist.

Die gelbe Eule
2007-02-06, 22:15:05
Der Haken scheint wohl GDDR4 Ram zu sein, welcher immernoch nicht in den gewollten Mengen verfügbar ist. Ganz ehrlich, wer kauft sich Rev 1 mit dem halben Takt, wenn er 3-4 Wochen später die gleiche Karte mit eben doppelt so schnellem bekommen kann?

dargo
2007-02-06, 22:17:28
Hä? Was für halben Takt? :|

Die gelbe Eule
2007-02-06, 22:18:33
256-bit 512MB 900 MHz GDDR3 RAM ( Februar)
256-bit 512MB 1.8GHz GDDR4 RAM ( März, neue Revision

dargo
2007-02-06, 22:20:06
256-bit 512MB 900 MHz GDDR3 RAM ( Februar)
256-bit 512MB 1.8GHz GDDR4 RAM ( März, neue Revision
Und du glaubst noch an das 256Bit SI? :|

Die gelbe Eule
2007-02-06, 22:22:38
Ja, weil ATi hier genauso unter Druck steht und ein größeres SI bestimmt für den Refresh plant. Bisher wurde vieles nach unten korrigiert, die Wunderkarte ist es auch wie die G80 nicht.

dargo
2007-02-06, 22:25:28
Ja, weil ATi hier genauso unter Druck steht und ein größeres SI bestimmt für den Refresh plant. Bisher wurde vieles nach unten korrigiert, die Wunderkarte ist es auch wie die G80 nicht.
Eine X1950XTX hat 64GB/s an Speicherbandbreite und ein R600 soll 57,6GB/s haben. :lol:

Die gelbe Eule
2007-02-06, 22:27:50
Und Du meinst das reicht huetzutage nicht aus?

http://babelfish.altavista.com/babelfish/urltrurl?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f176%2f176224.shtml

R600 vielleicht erst im Mai?

dargo
2007-02-06, 22:31:28
Und Du meinst das reicht huetzutage nicht aus?

Das ist doch nicht dein Ernst oder?
Meinst du NV hat dem G80 86,4GB/s aus Spass verpasst? Selbst die GTS hat noch 64GB/s.

mapel110
2007-02-06, 22:34:42
512bit SI kann man als gesichert ansehen. Ich hab jedenfalls bis dato noch kein "falsches Gerücht" auf der Hauptseite von Beyond3D gelesen.

LovesuckZ
2007-02-06, 22:37:23
512bit SI kann man als gesichert ansehen. Ich hab jedenfalls bis dato noch kein "falsches Gerücht" auf der Hauptseite von Beyond3D gelesen.

Ist es auch.
Wenn B3D etwas schreibt, dann ist das schon als Fakt anzusehen.

Ailuros
2007-02-06, 22:57:43
G80 laeuft sowohl in 2D auch in 3D bei exakt gleichen Frequenzen und in etwa aus dem gleichen Grund wieso es den NVIO gibt. Es war eine bewusste Design-wahl.

Ihr koennt es von mir aus als einen fehlerhaften oder vorzeitigen Design ansehen, aber dann frage ich mich was der konkurrierende chip wohl sein sollte. Haette man ihn zeitgleich zur G80 veroeffentlicht, haette das Ding pro MHz fast 1W verbruzelt.

Die gelbe Eule
2007-02-07, 06:35:14
Ich möchte wissen, wie ATi es fertigbringen will, Speicher mit 1.8GHz zu verbauen, wenn es bisher nur 1.4GHz unter GDDR4 in der Massenproduktion gibt. Hynix ist nichtmal mit GDDR4 angefangen.

seahawk
2007-02-07, 06:57:28
Wofür soll ATI 1.8GHZ GDDR4 brauchen ? 1200er wird reichen und das verbauen sie ja schon recht lange.

LovesuckZ
2007-02-07, 09:30:22
Already fairly soon introduce AMD GPU R600. In the near future, TSMC will begin production of the chip to the top 80 nm. Overseas colleagues reported that the new graphics engine will be significantly faster predecessor. In the performance of certain operations, productivity R600 likely to be eight times higher than any of the R580. That is quite logical. GPU R600, as we have said, is based on a unified architecture sheiderna and contains 64 processor 16 clusters zakraske coated pixels, 512-bit access to the memory. Each uniform processor, we expect will be able to carry out up to five operations per clock cycle (4 +1). Moreover, the frequency of the final audit A15 chip is 814 MHz.
maschinelle Übersetzung von thg.ru (http://translate.google.com/translate?u=http%3A%2F%2Fwww.thg.ru%2Ftechnews%2F20070202_134424.html&langpair=ru%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Hab es hier noch nicht gefunden.

Ich möchte wissen, wie ATi es fertigbringen will, Speicher mit 1.8GHz zu verbauen, wenn es bisher nur 1.4GHz unter GDDR4 in der Massenproduktion gibt. Hynix ist nichtmal mit GDDR4 angefangen.

Garnicht. Wenn es kein Speicher mit der Taktrate von 1800MHz gibt, kann dieser auch nicht eingesetzt werden...

Ailuros
2007-02-07, 09:37:55
Wenn man dem Kauderwelsch glauben sollte:

64* 9 FLOPs (vec4 + scalar) * 0.814GHz = 469 GFLOPs

seahawk
2007-02-07, 09:48:54
Was in der Mitte zwischen dem theoretischen Maximum und dem praktischen Maximum des G80 wäre. (MUL nicht aktiv)

Ailuros
2007-02-07, 10:14:40
Was in der Mitte zwischen dem theoretischen Maximum und dem praktischen Maximum des G80 wäre. (MUL nicht aktiv)

....und wer sagte gerade dass alle aufgefuehrten R600 Einheiten nur fuer general shading gedacht sind? ;)

Mein Kopfzerbrechen liegt zwischem dem was ATI vermarkten wird und den Andeutungen ueber Vec4+scalar. Das letztere im Vergleich zu ausschliesslich scalaren Einheiten, hat eher einen Effizienz-Nachteil. Noch dazu dass Vec4+scalar nicht gerade optimal ist; in viel zu vielen Situationen hockt eine der Vec4 Einheiten nur dumm rum.

Anarchy-HWLUXX
2007-02-07, 10:20:12
Moreover, the frequency of the final audit A15 chip is 814 MHz.

A15 :eek: soviel zu 1000MHz mit A13 ;)

Ailuros
2007-02-07, 10:26:07
A15 :eek: soviel zu 1000MHz mit A13 ;)

A13 haette in seiner finalen Form ca. 750MHz geliefert; es gibt einen Unterschied zwischen dem was ein chip im Labor maximal erreichen kann und der wahren finalen Taktrate.

robbitop
2007-02-07, 10:29:50
Noch dazu dass Vec4+scalar nicht gerade optimal ist; in viel zu vielen Situationen hockt eine der Vec4 Einheiten nur dumm rum.
Die werden sicher splitbar sein. Vec3 wird ja häufig benötigt. Wenn man bei ATI clever war, kann man 2x skalare absplitten. Wenn nicht, hat man viel zu oft verschnitt. Wobei Es auch einige wichtige Vec2 Operationen gibt. Aber an die skalare Herangehensweise von NV kommt das Prinzip in Punkto Effizienz bestimmt nicht heran. Dafür sind einfache SIMD Units auch entsprechend günstiger.

seahawk
2007-02-07, 10:31:33
....und wer sagte gerade dass alle aufgefuehrten R600 Einheiten nur fuer general shading gedacht sind? ;)

Mein Kopfzerbrechen liegt zwischem dem was ATI vermarkten wird und den Andeutungen ueber Vec4+scalar. Das letztere im Vergleich zu ausschliesslich scalaren Einheiten, hat eher einen Effizienz-Nachteil. Noch dazu dass Vec4+scalar nicht gerade optimal ist; in viel zu vielen Situationen hockt eine der Vec4 Einheiten nur dumm rum.

Ich dneke auch, dass dieses mal vieles anders sein könnte, als bei den letzten Generationen an Chips.

LovesuckZ
2007-02-07, 10:38:36
Die werden sicher splitbar sein. Vec3 wird ja häufig benötigt. Wenn man bei ATI clever war, kann man 2x skalare absplitten. Wenn nicht, hat man viel zu oft verschnitt. Wobei Es auch einige wichtige Vec2 Operationen gibt.

Xenos kann anscheinend nur in Vec4 und 1 Skalar splitten.
Mal sehen ob ATi einfach nur das Xenos Konzept übernimmt oder etwas mehr getan hat.

AnarchX
2007-02-07, 10:43:54
Auf den ersten Blick scheint die GPU-Leistung, wenn den die Quellen stimmen sollten, doch etwas ernüchternd für eine Karte die im April(?) erhältlich sein wird.

Und diesmal scheint man ja auch nicht durch überlegene Effizienz punkten zu können, wie bei G70 vs R520.

Wenn denn nun die Gerüchte stimmen, dass ASUS schon ein Dual-GF8-PCB entwickelt und man dann auf dieses die auch spekulierten 80nm G80 + Lowend-GDDR4 setzt.
Da sollte ATi doch wirklich schon den 65nm Refresh in der Hinterhand haben, mit dem man eine ähnlich Lösung realisieren könnte(einen Eintrag für 4 R600 GPUs die zusammenarbeiten sollen gibt es ja schon im Cat.).

seahawk
2007-02-07, 10:56:32
Die werden sicher splitbar sein. Vec3 wird ja häufig benötigt. Wenn man bei ATI clever war, kann man 2x skalare absplitten. Wenn nicht, hat man viel zu oft verschnitt. Wobei Es auch einige wichtige Vec2 Operationen gibt. Aber an die skalare Herangehensweise von NV kommt das Prinzip in Punkto Effizienz bestimmt nicht heran. Dafür sind einfache SIMD Units auch entsprechend günstiger.

Die Frage ist ob dies das Transisotrbudget hergab. Ich meine je flexibeler man die ALUs macht, desto kleiner ist der Schritt zu reinen Skalareinheiten. Zumindest am Anfang dürfte die zu erwartende höher Füllrate dem R600 schon helfen G80 zu distanzieren.

Ailuros
2007-02-07, 10:57:43
Die werden sicher splitbar sein. Vec3 wird ja häufig benötigt. Wenn man bei ATI clever war, kann man 2x skalare absplitten. Wenn nicht, hat man viel zu oft verschnitt. Wobei Es auch einige wichtige Vec2 Operationen gibt. Aber an die skalare Herangehensweise von NV kommt das Prinzip in Punkto Effizienz bestimmt nicht heran. Dafür sind einfache SIMD Units auch entsprechend günstiger.

Dementsprechende splits sind die einzige logische Erklaerung, denn ATI wird die Dinger ja als superskalar vermarkten.

Anarch,

65nm kommt fuer beide IHVs frueher als generell erwartet.

Die Frage ist ob dies das Transisotrbudget hergab.

Ja.

Ich meine je flexibeler man die ALUs macht, desto kleiner ist der Schritt zu reinen Skalareinheiten.

Erstens kommt es mit einem gewissen Aufwand und zweitens kommt es trotzdem nicht zu 100% Gleichstand.

Zumindest am Anfang dürfte die zu erwartende höher Füllrate dem R600 schon helfen G80 zu distanzieren.

Wieviel Fuellrate soll denn R600 genau haben?

AnarchX
2007-02-07, 11:17:14
Anarch,

65nm kommt fuer beide IHVs frueher als generell erwartet.
Da sollte es sich der potentielle Käufer einer R600-Karte wohl nochmal gründlich überlegen, ob er im April noch zu solch einer greifen sollte, wenn denn bald darauf nV mit ihrem Refresh kommt und ATi wohl auch bald eine "X2950" nachschieben wird.
Ist der R600 gar ein Papiertiger, der nie den Handel in ausreichenden Mengen erreichen wird? :|

LovesuckZ
2007-02-07, 11:23:04
Wieviel Fuellrate soll denn R600 genau haben?

Ich nehme an, dass AMD maximal 32 TFU/TAU haben wird. Wobei dann in diesem Fall das Verhältnis zwischen TMU und Recheinheiten wieder auf 1:2 zusammen schrumpfen würde. Da ATi aber schon beim r580 ein Verhältnis von 1:3 hatte, könnten auch 24 TFU/TAU möglich sein.

Winter[Raven]
2007-02-07, 11:26:36
p.s. ihr solltet ab und zu die Postings von Ailuros etwas genauer lesen ;)

Füllrate geht an G80 ;)

Pixel/Z Fillrate = G80
AF Fillrate = G80
Bandwidth = R600
Shader Fillrate (theoretical maximum in GFLOPs) = R600 (if G80 w/o MUL; with MUL the scale weighs in G80's direction.

Ailuros
2007-02-07, 11:32:13
Wobei das obrige schon einen Fehler hat, denn ich hatte mit 750MHz gerechnet; mit 814MHz sind die Zixel Raten fast identisch ;)

16*8z*814= 104192
24*8z*575= 110400

Gast
2007-02-07, 11:51:23
Wie immer sagen solche theoretischen Zahlenspielchen nur sehr wenig aus, das hat die Vergangenheit oft genug bewießen. Und das wird mit zunehmender komplexität natürlich immer gravierender. Für was braucht ATi denn ~700mio Transitoren, wenn man angeblich durchgehend weniger Leistung und weniger Effizienz haben soll? Trotzdem spricht man von höherer Performance, und das die Boadpartner "happy" sind mit R600. Abwarten und Tee trinken. Orton hatte ja in der Vergangenheit schonmal die ALU-Anzahl 96 anklingen lassen. Auch sind die momentan an die Öffentlichkeit gelangten Infos größtenteils sehr wiedersprüchlich.

reunion

Ailuros
2007-02-07, 12:08:10
Wie immer sagen solche theoretischen Zahlenspielchen nur sehr wenig aus, das hat die Vergangenheit oft genug bewießen.

Eben die GFLOP Rate einer R580 ist hoeher als die einer G80 ohne den MUL :P

Und das wird mit zunehmender komplexität natürlich immer gravierender. Für was braucht ATi denn ~700mio Transitoren, wenn man angeblich durchgehend weniger Leistung und weniger Effizienz haben soll?

Wer sprach denn genau von weniger Leistung? Mal fettgedruckt vielleicht ist es leichter zum lesen und verdauen: R600 wird im Durchschnitt um eine logische Marge schneller sein als G80.

Was jetzt die Effizienz der ALUs alleine betrifft, stimmen bisherige Thesen dann kosten zusaetzliche splits auch mehr Transistoren.

Trotzdem spricht man von höherer Performance, und das die Boadpartner "happy" sind mit R600.

Vielleicht solltest Du dann nicht wahlweise lesen, denn das oben fettgedruckte hab ich mehr als nur oefters erwaehnt.


Orton hatte ja in der Vergangenheit schonmal die ALU-Anzahl 96 anklingen lassen. Auch sind die momentan an die Öffentlichkeit gelangten Infos größtenteils sehr wiedersprüchlich.

reunion

Verdammt kreative Mathe eben, im genauso albernsten Sinn wie die noch nicht erwaehnte Vermarktungsanzahl von angeblichen SPs. 64 ganze und 32 halbe Aepfel eben ;)

Gast
2007-02-07, 12:14:43
Wer sprach denn genau von weniger Leistung? Mal fettgedruckt vielleicht ist es leichter zum lesen und verdauen: R600 wird im Durchschnitt um eine logische Marge schneller sein als G80.


Weniger Füllrate, sowohl was Texel, als auch Z-Füllrate betrifft, weniger Shaderleitung, und geringere Effizienz im Vergleich zu G80. Und das alles trotz wesentlich höheren Taktraten. Woher soll die Mehrleistung denn kommen? Und für was braucht man dafür soviele Transitoren? Nee, das ergibt in meine Augen keinen Sinn. Irgendetwas stimmt an den Daten nicht.

reunion

BlackBirdSR
2007-02-07, 12:58:14
Weniger Füllrate, sowohl was Texel, als auch Z-Füllrate betrifft, weniger Shaderleitung, und geringere Effizienz im Vergleich zu G80. Und das alles trotz wesentlich höheren Taktraten. Woher soll die Mehrleistung denn kommen? Und für was braucht man dafür soviele Transitoren? Nee, das ergibt in meine Augen keinen Sinn. Irgendetwas stimmt an den Daten nicht.

reunion

Caches, Speicherbandbreite, I/O, AA-Tricks, AF-Tricks, Shadercompiler, spezielle Support-Einheiten im Chip....
814MHz Takt für alle Logik-Bereiche im Chip... also schnellere Verarbeitung gewisser Schritte abseits der puren Shaderleistung...

Es gibt viele potentielle Aspekte die eine Pi*Daumen Rechnung stark verfälschen können. Warum sollte die R600 nicht 10-15% schneller sein als eine G80? Immerhin ist er wohl auch größer, teurer, höher getaktet und theoretisch komplexer.

Hvoralek
2007-02-07, 12:58:51
;5231606']p.s. ihr solltet ab und zu die Postings von Ailuros etwas genauer lesen ;)

Füllrate geht an G80 ;)Er hat ausdrücklich von AF- Füllrate gesprochen. Wenn also ohne AF R600 vorne liegt, deutet das auf 32 "normale" TMUs hin.

Weniger Füllrate, sowohl was Texel, als auch Z-Füllrate betrifft, weniger Shaderleitung, und geringere Effizienz im Vergleich zu G80. Und das alles trotz wesentlich höheren Taktraten. Woher soll die Mehrleistung denn kommen? Und für was braucht man dafür soviele Transitoren? Nee, das ergibt in meine Augen keinen Sinn. Irgendetwas stimmt an den Daten nicht.

reunionDie Effizienz der Shader kann kaum höher sein als bei G80, wie die Gesamtarchitektur aussieht, wird man abwarten müssen. Und einen Vorteil hat R600 zumindest: Bandbreite. In 8x MSAA kann es bei G80 schon erheblich dabei klemmen.

Nakai
2007-02-07, 14:09:01
Er hat ausdrücklich von AF- Füllrate gesprochen. Wenn also ohne AF R600 vorne liegt, deutet das auf 32 "normale" TMUs hin.

Wenn das ATi-typische TMUs werden, kann man diese nicht als normal bezeichnen.:rolleyes:
Im Gegensatz zu NV-TMUs können die etwas mehr. NV hat ja hierbei den Umweg über die Adressier-TMUs gemacht.

Die Effizienz der Shader kann kaum höher sein als bei G80, wie die Gesamtarchitektur aussieht, wird man abwarten müssen. Und einen Vorteil hat R600 zumindest: Bandbreite. In 8x MSAA kann es bei G80 schon erheblich dabei klemmen.

Wieso Füllrate?
Der R600 wird mit 814Mhz in fast allen Bereichen den G80 schlagen.
Der G80 hat eigentlich nur 32 TMUs die filtern und addressieren können. Der R600 auch, aber mit deutlich höherem Takt.
Wenn der R600 wahrscheinlich 32 dieser Dinger drin hat, hat er eine maximale Texelfüllrate von 26048Mtex/s.
Okay ich weiß, dass Zahlen nicht viel sagen, aber ich gehe davon aus, dass der R600 besser mit der Füllrate allgemein umgehen wird, so war es beim R5X0 auch.

Die Effizienz der Shader kann kaum höher sein als bei G80, wie die Gesamtarchitektur aussieht

Wenn der R600 tatsächlich 96 Shader hat und diese aufsplittbar sind, wird der R600 mehr Flexibilität haben als angenommen. Vll mehr als der G80, dafür hat dieser mehr Shadertakt.

mfg Nakai

Gast
2007-02-07, 14:32:43
Wenn das ATi-typische TMUs werden, kann man diese nicht als normal bezeichnen.:rolleyes:
Im Gegensatz zu NV-TMUs können die etwas mehr.Was können die ATI-TMUs denn mehr? Ich dachte eigentlich bisher, dass das Gegenteil der Fall ist und NVs TMUs deutlich mehr können. Die TMUs im R580 sind doch fast noch auf dem Stand von 2002, wohingegen NV seit 2004 Dinge wie die Filterung von Float-Texturen bietet.

LovesuckZ
2007-02-07, 14:36:39
Wenn der R600 tatsächlich 96 Shader hat und diese aufsplittbar sind, wird der R600 mehr Flexibilität haben als angenommen. Vll mehr als der G80, dafür hat dieser mehr Shadertakt.
mfg Nakai

Warum sollten 96 Recheneinheiten mit Vec4 + 1 Skalar(e) bzw. Vec3 + 1Skalar(e) eine bessere Flexibilität ermöglichen?

robbitop
2007-02-07, 14:38:02
Die Frage ist ob dies das Transisotrbudget hergab. Ich meine je flexibeler man die ALUs macht, desto kleiner ist der Schritt zu reinen Skalareinheiten. Zumindest am Anfang dürfte die zu erwartende höher Füllrate dem R600 schon helfen G80 zu distanzieren.
Wenns wirklich nur Vec5 Units sind: dann sind die nicht teuer. Vor allem nicht 64 Stück davon (ich hab ehrlich gesagt 96+ erwartet).

BTW wieso höhere Füllrate? G80 kann pro Takt 64 bi Samples ausspucken. Ich glaube nicht, dass R600 da auch nur rankommt.

Dementsprechende splits sind die einzige logische Erklaerung, denn ATI wird die Dinger ja als superskalar vermarkten.

Schon die R300 ALUs sind superskalar. Das heisst doch nur, dass mehrere Instruktionen gleichzeitig ausführbar sind. Also alles ab einem Split wäre "superskalar".

AnarchX
2007-02-07, 14:39:47
Okay ich weiß, dass Zahlen nicht viel sagen, aber ich gehe davon aus, dass der R600 besser mit der Füllrate allgemein umgehen wird, so war es beim R5X0 auch.

Nur hat G80 in diesem Belang aufgeholt: ALUs und TMUs sind nun auch entkoppelt.
Weiterhin hat ein G80 ja nicht nur irgendwelche 32 TMUs. ;)

seahawk
2007-02-07, 14:41:24
Aber er kann nur 32 Texel auswerfen oro Takt. Außerdem taktet der R600 höher.

del_4901
2007-02-07, 14:48:07
Der G80 ist einfach ein verdammt krankes Design. (im positiven Sinn) Das sollen die Ati Ingeneure erstmal nachbauen! Performance technisch sind sie ja auf dem besten Wege. Ich bin mir ziehmlich sicher das der R600 schneller ist als der G80, denn nicht umsonnst hat sich die Entwicklung solange hingezogen. Jeder will schließlich auch mal der beste sein. (Giants in the Playground) Aber von der flexibillität gehe ich davon aus, das Ati noch nicht soweit ist wie NV, das wird sich sicherlich im Laufe des R800 ändern. Das Know How ist schließlich vorhanden. Nv wird aber in der Zeit nicht schlafen! CUDA ist z.B ne ziehmlich coole Sache, das soll Ati erstmal nachbauen, dann sehen wir weiter. Aber wie ich die "Giants" kenne will da jeder wieder sein eigenes Süppchen kochen. Und damit fliegt einer von beiden gewaltigst auf die Fresse ...

robbitop
2007-02-07, 14:49:19
Wenn das ATi-typische TMUs werden, kann man diese nicht als normal bezeichnen.:rolleyes:
Im Gegensatz zu NV-TMUs können die etwas mehr. NV hat ja hierbei den Umweg über die Adressier-TMUs gemacht.
Was sind denn "normale" TMUs und warum sind die von ATI nicht "normal"?
TMUs sind schon immer aus Adresseinheiten und Filtereinheiten bestehend.


Wieso Füllrate?
Der R600 wird mit 814Mhz in fast allen Bereichen den G80 schlagen.Glaskugel?

Der G80 hat eigentlich nur 32 TMUs die filtern und addressieren können. Der R600 auch, aber mit deutlich höherem Takt.
Also fällt pro Texel nur ein bilineares Sample an?



Wenn der R600 wahrscheinlich 32 dieser Dinger drin hat, hat er eine maximale Texelfüllrate von 26048Mtex/s.
Okay ich weiß, dass Zahlen nicht viel sagen, aber ich gehe davon aus, dass der R600 besser mit der Füllrate allgemein umgehen wird, so war es beim R5X0 auch.
Das hat seine Ursache im Threadingkonzept.



Wenn der R600 tatsächlich 96 Shader hat und diese aufsplittbar sind, wird der R600 mehr Flexibilität haben als angenommen. Vll mehr als der G80, dafür hat dieser mehr Shadertakt.

Ach die R5xx, R4xx, R3xx ALUs waren nicht splitbar?


Höre in Zukunft bitte mal auf den "Pinguin". ;)

Aber er kann nur 32 Texel auswerfen oro Takt. Außerdem taktet der R600 höher.
Ach.. fällt pro Texel etwa nur ein Bi-Sample an? Dann ist das Design von NVIDIA natürlich Schwachsinn. (naja für NFS3 könnte das fast noch hinkommen)

Nakai
2007-02-07, 14:56:08
Warum sollten 96 Recheneinheiten mit Vec4 + 1 Skalar(e) bzw. Vec3 + 1Skalar(e) eine bessere Flexibilität ermöglichen?

Eben wegen dem Splitten.

Ach die R5xx, R4xx, R3xx ALUs waren nicht splitbar?

Natürlich waren sie splittbar, aber es stört mich eben, dass viele durch die geringere Anzahl an Einheiten behaupten dass der R600 weniger flexibel sei.

Was sind denn "normale" TMUs und warum sind die von ATI nicht "normal"?

Wie war das mit dem Stallen der Pipeline beim G7x?

Glaskugel?

Teilweise.

Das hat seine Ursache im Threadingkonzept.

Stimmt, hab ich übersehen.

Also fällt pro Texel nur ein bilineares Sample an?

Kann ich dir nicht sagen, weil...

Ich empfehle dir dringend, ein paar Grundlagenartikel zu lesen

mfg Nakai

deekey777
2007-02-07, 14:56:19
Ach.. fällt pro Texel etwa nur ein Bi-Sample an? Dann ist das Design von NVIDIA natürlich Schwachsinn. (naja für NFS3 könnte das fast noch hinkommen)
Du bist phies.;(
Leute, lest den Artikel: http://www.3d-center.de/artikel/2006/12-28_b.php
All die schöne Rechenleistung im Shader nützt wenig, wenn nicht auch anständige Texturierungs-Leistung vorhanden wäre. Der G80 hat nach traditioneller Zählweise 32 TMUs (24 bei der GTS-Version), wobei jede TMU pro Takt bis zu zwei bilineare Samples berechnen kann. Dabei müssen die beiden Samples aus derselben Textur stammen. Somit lässt sich trilineare Filterung und anisotrope Filterung beschleunigen. Trilinear anisotrope Filterung ließe sich sogar noch mal zusätzlich beschleunigen. Ob Nvidia diese (völlig legale) Optimierung nutzt, um bei trilinear anisotroper Filterung 25 Prozent der Samples zu sparen, muss noch ausgemessen werden (unser dafür gedachtes Tool hat leider noch einen seltsamen Flaschenhals, so dass wir bisher noch keine vernünftigen AF-Füllratenmessungen vornehmen konnten).

up¦²
2007-02-07, 15:01:53
Kilowatt ahoi! :biggrin:
R600 supports Quad setups (http://uk.theinquirer.net/?article=37484)

seahawk
2007-02-07, 15:03:13
Da steht er kann 32 gefilterte Texel auswerfen. Die Fähigkeit 64 zu berechnen beschleunigt "nur" trilineare Filterung und AF.

Hvoralek
2007-02-07, 15:03:52
Natürlich waren sie splittbar, aber es stört mich eben, dass viele durch die geringere Anzahl an Einheiten behaupten dass der R600 weniger flexibel sei.Das hängt nicht mit der Anzahl der Einheiten zusammen, sondern mit deren Aufbau. Wenn es nur auf die Anzahl ankäme (warum sollte es das denn?), wäre wohl R600 "flexibler"; beim G80 muss man wohl von "nur" 16 physisch vorhandenen Einheiten sprechen.

Wie war das mit dem Stallen der Pipeline beim G7x?Das hängt mW nicht mit dem Aufbau der TMUs zusammen, sondern mit dem der gesamten Pixepipeline bis G7x.

Kann ich dir nicht sagen, weil...Ich empfehle dir dringend, ein paar Grundlagenartikel zu lesenWoher und von wem stammt denn das Zitat und an wen war/ ist es gerichtet?

robbitop
2007-02-07, 15:05:54
Natürlich waren sie splittbar, aber es stört mich eben, dass viele durch die geringere Anzahl an Einheiten behaupten dass der R600 weniger flexibel sei.
Wenn hier "traditionelle" SIMD Units zum Einsatz kommen (also RGBA+x), dann sind die ALUs per se weniger flexibel. Sind aber auch billiger.

Wieso geringere Anzahl? Der G80 hat 16x "spezielle" Vec8 ALUs an Board.
Diese können 128 skalare Komponenten gleichzeitig bearbeiten.
Sollte R600 64x SIMD5 ALUs haben, kann R600 320 skalare Komponenten bearbeiten. Das sagt aber alles noch nichts aus, da hier kein Bezug zum Takt und zur Effizienz vorhanden ist.
Ich gehe von einem ca pari aus, was aritmetische Leistung angeht.



Wie war das mit dem Stallen der Pipeline beim G7x?
Was hat das mit den TMUs zu tun?



Teilweise.

Dann haben wir neben Nagus also noch einen wissenden ATI/TSMC Mitarbeiter. Gut für's Forum. ;)

dargo
2007-02-07, 15:06:38
Ihr koennt es von mir aus als einen fehlerhaften oder vorzeitigen Design ansehen, aber dann frage ich mich was der konkurrierende chip wohl sein sollte. Haette man ihn zeitgleich zur G80 veroeffentlicht, haette das Ding pro MHz fast 1W verbruzelt.
Und eben deswegen hat man den nicht vorzeitig veröffentlicht. ;)
Hängt das jetzt wirklich nur an dem NVIO? Kann ich gar nicht glauben. Gibt es irgendeinen plausiblen Grund warum man den in 2D nicht auch untertakten/untervolten sollte.

del_4901
2007-02-07, 15:07:17
Eben wegen dem Splitten.


Das ist totaler Schwachsinn!
4 Scalar ALUs sind genauso gut wie eine Vec4 ALU, hier ist also kein Vorteil in der Vektorisierung vorhanden, außer das man vllt. Transistoren einspaart. Die man, wenn man eine "splitbare" Vec4 ALU aufbaut, wieder bräuchte.


Und ich halte es für höchst unwarscheinlich das der R600 "splitbare" (was für ein Unwort) ALUs bekommt.

AnarchX
2007-02-07, 15:07:55
Kilowatt ahoi! :biggrin:
R600 supports Quad setups (http://uk.theinquirer.net/?article=37484)

Fragt sich wie man das praktisch umsetzen will? ;)

Ich denke mal die richtige Umsetzung wird es wohl erst mit dem 65nm Refresh geben, mit Dual-Platinen experementiert man ja in letzter Zeit schon.

Ein andere Lösung dieses Problems wäre natürlich die Karten aus dem Gehäuse auszulagern mit ePCIe, was ja auch schon mal spekuliert wurde im Bezug auf den R600.

Coda
2007-02-07, 15:08:02
Da steht er kann 32 gefilterte Texel auswerfen. Die Fähigkeit 64 zu berechnen beschleunigt "nur" trilineare Filterung und AF.
Ahja. Und wo genau braucht man noch bilineare Filterung?

LovesuckZ
2007-02-07, 15:08:04
Eben wegen dem Splitten.


Warum liefert die 8800GTX gegenüber dem r580 eine bessere Pixelshaderleistung (siehe Xbitmarks), trotzdem er eine geringere GFlops - Zahl und der r580 die Möglichkeit zum splitten hat?

robbitop
2007-02-07, 15:08:51
Da steht er kann 32 gefilterte Texel auswerfen. Die Fähigkeit 64 zu berechnen beschleunigt "nur" trilineare Filterung und AF.
Ach nur...naja dann.
Es beschleunigt alle Filtervorgänge, wenn pro Texel mehr als ein bi Sample anfällt. Also so gut wie immer. Ansonsten haben wir ja noch AF (oder spielt ein G8x Käufer etwa ohne?).
AF wird sehr günstig beim G80, und ebenfalls vernünftige Filterung ohne große Optimierungen. Dem R5xx tut die Abschaltung der Optimierungen, wie HT4U und meine eigenen Erfahrungen zeigen, sehr weh. (das AI Geflimmer mag ja nicht jeder)
Filterung ist teuer und kostet nunmal und genau das geht beim G80 aufgrund der großen Füllrate noch mit moderatem fps Abfall.

Nakai
2007-02-07, 15:09:52
Das ist totaler Schwachsinn!
4 Scalar ALUs sind genauso gut wie eine Vec4 ALU, hier ist also kein Vorteil in der Vektorisierung vorhanden, außer das man vllt. Transistoren einspaart. Die man, wenn man eine "splitbare" Vec4 ALU aufbaut, wieder bräuchte.


Und ich halte es für höchst unwarscheinlich das der R600 "splitbare" (was für ein Unwort) ALUs bekommt.

Nicht ganz;D

Von der maximalen Leistung schon, aber nicht von der Flexibilität.

robbitop
2007-02-07, 15:14:05
OMG. Pinguin!
Ist der G80 Techartikel nicht online? *guck* doch ist er

seahawk
2007-02-07, 15:14:58
Ach nur...naja dann.
Es beschleunigt alle Filtervorgänge, wenn pro Texel mehr als ein bi Sample anfällt. Also so gut wie immer. Ansonsten haben wir ja noch AF (oder spielt ein G8x Käufer etwa ohne?).
AF wird sehr günstig beim G80, und ebenfalls vernünftige Filterung ohne große Optimierungen. Dem R5xx tut die Abschaltung der Optimierungen, wie HT4U und meine eigenen Erfahrungen zeigen, sehr weh. (das AI Geflimmer mag ja nicht jeder)
Filterung ist teuer und kostet nunmal und genau das geht beim G80 aufgrund der großen Füllrate noch mit moderatem fps Abfall.

Da will ich Dir gar nicht widersprechen. Mir ging es nur um die reine Bi-Leistung. Und evtl. kann der R600 ja auch 32x2 ....

Und eben deswegen hat man den nicht vorzeitig veröffentlicht. ;)
Hängt das jetzt wirklich nur an dem NVIO? Kann ich gar nicht glauben. Gibt es irgendeinen plausiblen Grund warum man den in 2D nicht auch untertakten/untervolten sollte.

Mal so eine Idee. Evtl machen die diversen unterscheidlichen Taktdömänen des G80 die Sache komplexer.

robbitop
2007-02-07, 15:19:05
Da will ich Dir gar nicht widersprechen. Mir ging es nur um die reine Bi-Leistung. Und evtl. kann der R600 ja auch 32x2 ....
Was ist denn mit der reinen Bi-Leistung? Wo ist die denn relevant? Warum nicht gleich Point-Sampling Leistung vergleichen? ;)

Vieleicht kann der R600 das auch. Beide Hersteller haben in der Vergangenheit erstaunlicherweise vieles ja fast gleichzeitig herausgebracht.

del_4901
2007-02-07, 15:27:00
Nicht ganz;D

Von der maximalen Leistung schon, aber nicht von der Flexibilität.

Na dann sag mir, was eine Vec4 / Vec3 / Vec2 ALU kann, was 4 / 3 / 2 Scalare Einheiten nicht können?

Hast du dafür keine Beispiele, ist die Sache hiermit für mich erledigt.

Hvoralek
2007-02-07, 15:28:04
Und evtl. kann der R600 ja auch 32x2 ....Dann würde allerdings Ailuros Angabe zur AF- Füllrate (G80 > R600) nicht stimmen. Naja, es sei denn, R600 taktet niedriger :wink:

robbitop
2007-02-07, 15:35:40
Na dann sag mir, was eine Vec4 / Vec3 / Vec2 ALU kann, was 4 / 3 / 2 Scalare Einheiten nicht können?

Hast du dafür keine Beispiele, ist die Sache hiermit für mich erledigt.
skalare ALUs haben weniger Verschnitt und sind somit pro Kanal schneller.

Gast
2007-02-07, 15:40:02
Dann würde allerdings Ailuros Angabe zur AF- Füllrate (G80 > R600) nicht stimmen. Naja, es sei denn, R600 taktet niedriger :wink:

Ohne Ail zu nahe treten zu wollen, aber der hängt auch nur den ganzen Tag im B3d Forum und versucht das zu interpretieren was er dort aufschnappt. Es sind also keinesfalls gesicherte Tatsachen.

Nicht umsonst wird sich diesbezüglich gerne um eine klare Antwort gedrückt und eher eine Wischi Waschi Aussage mit einem ;) kommentiert.

del_4901
2007-02-07, 15:49:06
skalare ALUs haben weniger Verschnitt und sind somit pro Kanal schneller.

Das ist nicht die Antwort auf die Frage.
(halte dich zurück, ich kenn die Antwort schon aus erster Hand)

Nehmen wir an man rechnet nur mit Vec3, dann müsste ja eine Vec3 ALU mehr können als 3 Scalare, wenn man von der (falschen) Annahme ausgeht das die eine Vec3 ALU flexibeller währe. In allen anderen Fällen (wo nicht mit Vec3/6/9 gerechnet wird) lassen sich sehr einfach Gegenbeispiele finden, die aber erstmal in dieser Betrachtung uninteressant sein sollen.

Also NaKai, jetzt bist du am Zug.

robbitop
2007-02-07, 15:49:43
Nunja AiL hat duchaus ein paar gute Kontakte zu Leuten bei IHVs.

Hvoralek
2007-02-07, 15:53:40
Ohne Ail zu nahe treten zu wollen, aber der hängt auch nur den ganzen Tag im B3d Forum und versucht das zu interpretieren was er dort aufschnappt. Es sind also keinesfalls gesicherte Tatsachen.

Nicht umsonst wird sich diesbezüglich gerne um eine klare Antwort gedrückt und eher eine Wischi Waschi Aussage mit einem ;) kommentiert.Soweit ich mich erinnere, waren die eindeutigen Äußerungen, die er bisher gebracht hat (etwa zu G80), i.d.R. richtig. Was seine Quellen im Einzelnen auch sein mögen, gehe ich erst einmal davon aus, dass sie auch diesmal stimmen. Dass er sich oft um klare Aussagen drückt, könnte auch einen Grund mit drei Buchstaben haben :wink:

deekey777
2007-02-07, 16:29:36
Na dann sag mir, was eine Vec4 / Vec3 / Vec2 ALU kann, was 4 / 3 / 2 Scalare Einheiten nicht können?

Hast du dafür keine Beispiele, ist die Sache hiermit für mich erledigt.
Sie können eine Vec4-Operation in einem Takt berechnen, eine skalare Einheit aber 4 Takte. Vier skalare Nicht kleckern, sondern klotzen:
Ein Vec4-ALU-Quad braucht für 4 Quads (=16 Pixel) mit je 4 Vec4-Operationen vier Takte. Eine Vec16-ALU des G80 braucht dafür....

auch vier Takte. Und dabei läufen die ALUs mit bis zu 1350 MHz, was im Vergleich zum G71 die doppelte Frequenz ist. Das bedeutet, dass eine G80-Vec16-ALU das Doppelte schafft als ein Vec4-ALU-Quad des G71.

Und für eine Vec3-Operation braucht eine einzelne skalare ALU des G80 nur drei Takte...

Egal.
Hier wurde CUDA ins Spiel gebracht, da dachte ich gleich an CTM von AMD. Wird AMD für die R600-Generation wieder ein neues CTM schreiben/veröffentlichen? Wird das R580-CTM mit dem R600 kompatibel sein?

Gast
2007-02-07, 16:45:03
Wird AMD für die R600-Generation wieder ein neues CTM schreiben/veröffentlichen?Das denk ich doch mal stark. Warum sollte man aufhören, wo es doch gerade erst richtig losgeht?
Wird das R580-CTM mit dem R600 kompatibel sein?Demirug meinte mal, dass ATIs Lösung hier sehr hardwarenah ist. So hardwarenah, dass eine Kompatibilität mit zukünftigen Produkten nicht unbedingt gegeben sein muss.

Nakai
2007-02-07, 16:52:19
Na dann sag mir, was eine Vec4 / Vec3 / Vec2 ALU kann, was 4 / 3 / 2 Scalare Einheiten nicht können?

Hast du dafür keine Beispiele, ist die Sache hiermit für mich erledigt.

Sie können eine Vec4-Operation in einem Takt berechnen, eine skalare Einheit aber 4 Takte. Vier skalare Nicht kleckern, sondern klotzen:
Ein Vec4-ALU-Quad braucht für 4 Quads (=16 Pixel) mit je 4 Vec4-Operationen vier Takte. Eine Vec16-ALU des G80 braucht dafür....

Das wollt ich so ungefähr grad posten. :(

Also NaKai, jetzt bist du am Zug.

Zu spät...;(

Deswegen ist es wichtig die ALUs zu splitten. Die Vec4 ALU beim G70 ist ein gutes Beispiel hierfür. Sie kann als Vec4-ALU handeln, als 2+2, als 1+1, als 3+1 und 2+1.
Eine Vec4 kann daher nicht in einem Takt 4 scalare Befehle durchführen, sondern nur einen.
Könnte sich die Einheit splitten, wie beim G70 dann schon 2 Befehle.
Die ALUs beim R580 sind 1+3, wobei die Vec3 sich nochmal aufsplitten kann. Somit könnte er sich in 1+(1+1) aufsplitten und daher 3 scalare Befehle durchführen.(oder 1+(2+1)!)

Was der R600 kann, ist etwas anders. Nun könnte man meinen, dass die Shader wie die des Xenos sind, was aber nicht so stimmt.

Also BtT würd ich sagen.

mfg Nakai

deekey777
2007-02-07, 16:57:53
Nakai: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5077873#post5077873
Das ist das Problem.

Hvoralek
2007-02-07, 17:01:19
Das wollt ich so ungefähr grad posten. :( Das sagt nur, dass eine Vektoreinheit im besten Fall genauso abschneidet wie skalare mit insgesamt ebenso vielen Kanälen. So wie ich AlphaTier verstanden habe, wollte er Beispiele, bei denen Vektoreinheiten besser dastehen (abgesehen davon, dass man mit ihnen Transistoren sparten kann).

robbitop
2007-02-07, 17:03:51
Deswegen ist es wichtig die ALUs zu splitten. Die Vec4 ALU beim G70 ist ein gutes Beispiel hierfür. Sie kann als Vec4-ALU handeln, als 2+2, als 1+1, als 3+1 und 2+1.
Nein. Es ist ein 3:1 Split möglich als auch ein 2:2 Split.



Die ALUs beim R580 sind 1+3, wobei die Vec3 sich nochmal aufsplitten kann. Somit könnte er sich in 1+(1+1) aufsplitten und daher 3 scalare Befehle durchführen.(oder 1+(2+1)!)
Wo hast du das denn her? :|
Eine R580 ALU kann natürlich nur einen 3:1 Split.


Was der R600 kann, ist etwas anders. Nun könnte man meinen, dass die Shader wie die des Xenos sind, was aber nicht so stimmt.

Das weiß man noch nicht.

Nakai
2007-02-07, 17:25:44
1. Nein. Es ist ein 3:1 Split möglich als auch ein 2:2 Split.


2. Wo hast du das denn her? :|
Eine R580 ALU kann natürlich nur einen 3:1 Split.


3.Das weiß man noch nicht.

Zu 1.: Hatte das in anderer Erinnerung.

Zu 2.: Verwechselt mit Xenos. Finde ich etwas uneffektiv nich?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5049003&postcount=3

Zu 3.: Eigentlich naheliegend, oder?;)


Danke für de Link.

del_4901
2007-02-07, 17:25:53
Das denk ich doch mal stark. Warum sollte man aufhören, wo es doch gerade erst richtig losgeht?
Demirug meinte mal, dass ATIs Lösung hier sehr hardwarenah ist. So hardwarenah, dass eine Kompatibilität mit zukünftigen Produkten nicht unbedingt gegeben sein muss.

Da muss nur einer nen Compiler für schreiben, an der Stelle ist ATi entweder inkompetent oder einfach nur faul.

Coda
2007-02-07, 18:01:02
Zu 2.: Verwechselt mit Xenos.
Tut er nicht. R300-R580 können in der Tat nur einen 3:1-Split in den PS-ALUs.

Nakai
2007-02-07, 18:06:26
Tut er nicht. R300-R580 können in der Tat nur einen 3:1-Split in den PS-ALUs.

Ich hab mit Xenos verwechselt meinte ich.

mfg Nakai

Hvoralek
2007-02-07, 18:15:54
Ich hab mit Xenos verwechselt meinte ich.
Demnach soll Xenos also eine Vec3- ALU haben, die sich auch noch splitten lässt? :|

Nakai
2007-02-07, 18:20:21
Demnach soll Xenos also eine Vec3- ALU haben, die sich auch noch splitten lässt? :|

Nein eben nicht. Ich hab das splitten mit dem Xenos verwechselt.
Er hat natürlich eine Vec4+ADD-Scalar.

mfg Nakai

ScottManDeath
2007-02-07, 18:55:11
Tut er nicht. R300-R580 können in der Tat nur einen 3:1-Split in den PS-ALUs.

Ich tippe mal faul bzw. nicht genügend man-power vorhanden.

Ailuros
2007-02-07, 21:08:03
Ohne Ail zu nahe treten zu wollen, aber der hängt auch nur den ganzen Tag im B3d Forum und versucht das zu interpretieren was er dort aufschnappt. Es sind also keinesfalls gesicherte Tatsachen.

Nicht umsonst wird sich diesbezüglich gerne um eine klare Antwort gedrückt und eher eine Wischi Waschi Aussage mit einem ;) kommentiert.

Wenn ich so viel wie hier bei B3D aussagen wuerde, wuerden mir die B3D-Kerle sofort eins ueber den Deckel jagen und das gilt genauso fuer ATI als auch fuer NVIDIA. Da Du absolut keine Ahnung hast um was es sich genau handelt, unterhalte Dir lieber den Schwachsinn.

Ich sage oeffentlich das aus was ich aussagen will und ich entscheide auch was und wieviel ich privat und zu wem weiterleite; und das stets mit absolutem Respekt zu dem was jeder Administrator gerne oder eben nicht gerne sehen will.

del_4901
2007-02-07, 21:18:52
Wenn ich so viel wie hier bei B3D aussagen wuerde, wuerden mir die B3D-Kerle sofort eins ueber den Deckel jagen und das gilt genauso fuer ATI als auch fuer NVIDIA. Da Du absolut keine Ahnung hast um was es sich genau handelt, unterhalte Dir lieber den Schwachsinn.

Ich sage oeffentlich das aus was ich aussagen will und ich entscheide auch was und wieviel ich privat und zu wem weiterleite; und das stets mit absolutem Respekt zu dem was jeder Administrator gerne oder eben nicht gerne sehen will.

So ein NDA ist doch nicht zum Spass da. Versetz dich mal in die Lage derer, welche das NDA aufsetzen. Dafür kann es viele Gründe geben, sei es um einen Vorsprung zu bewahren, oder die Vermeidung von Halbwissen. Oder wie in den meißen Fällen ist das Produkt einfach noch unfertig, da würdest du auch keine "Reviews" von haben wollen, wenn es deine Entwicklung währe.

BTW die meißen NDA fangen damit an, das man nicht sagen darf das man so ein NDA eingegangen ist, mit gutem Grund!

Aber naja ich will hier niemanden bekehren. Jeder muss selber wissen ob er den Maulkorb aufbehält oder nicht.

robbitop
2007-02-07, 21:21:16
Ich tippe mal faul bzw. nicht genügend man-power vorhanden.
Naja der 2:2 Split hat beim NV4x ja so viel nicht gebracht.

Gast
2007-02-07, 21:27:01
Aber er kann nur 32 Texel auswerfen oro Takt. Außerdem taktet der R600 höher.

aber er kann auch bei tri und 2xAF 32 texel auswerfen, der R600 nur mehr 16.

mapel110
2007-02-07, 21:32:04
aber er kann auch bei tri und 2xAF 32 texel auswerfen, der R600 nur mehr 16.
Hat ATI also die Texturleistung zu stark vernachlässigt. Wäre ja nicht das erste Mal, siehe 1600er.

reunion
2007-02-07, 21:33:42
Caches, Speicherbandbreite, I/O, AA-Tricks, AF-Tricks, Shadercompiler, spezielle Support-Einheiten im Chip....
814MHz Takt für alle Logik-Bereiche im Chip... also schnellere Verarbeitung gewisser Schritte abseits der puren Shaderleistung...

Es gibt viele potentielle Aspekte die eine Pi*Daumen Rechnung stark verfälschen können. Warum sollte die R600 nicht 10-15% schneller sein als eine G80? Immerhin ist er wohl auch größer, teurer, höher getaktet und theoretisch komplexer.

Eben, und gerade weil er größer und teurer sein soll, sollte auch mindestens soviele Einheiten wie bei G80 Platz haben. Die bis jetzt durchgesickerten Spekulationen passen IMHO nicht mit den prognostizierten Leistungsangaben überein. Natürlich gibt es da noch viele weitere Dinge, die man nicht unberücksichtigt lassen kann, aber das wichtigste bei einem Garfikchip ist nunmal die Füllrate und die Shaderleistung, auch wenn solche theoretischen Daten immer mit Vorsicht zu genießen sind.

Aber ohne das Gesamtkonzept zu kennen, ist eine solche Diskussion mehr oder weniger sinnlos. Die wirklich brisanten Dinge kommen leider ohnehin erst kurz vorm Launch.

Die Effizienz der Shader kann kaum höher sein als bei G80, [..]

Ob die Shader bei G80 wirklich so effizient sind, wird sich erst zeigen müssen. Zwar dürfte die Auslastung sehr gut sein, aber die Kosten dafür waren sicherlich auch nicht unerheblich.

Gast
2007-02-07, 22:06:45
Hat ATI also die Texturleistung zu stark vernachlässigt. Wäre ja nicht das erste Mal, siehe 1600er.


wenn, dann werden es die sogenannten "optimierungen" schon richten ;)

ScottManDeath
2007-02-07, 22:13:54
Naja der 2:2 Split hat beim NV4x ja so viel nicht gebracht.


Oehm, ich hatte eigentlich gedacht, dass ich den CMT / CUDA post von DK777 zitiert habe :redface:

Coda
2007-02-07, 22:15:54
Naja der 2:2 Split hat beim NV4x ja so viel nicht gebracht.
Hm hm. Also bei Texturing-Zeug wird viel mit 2D gerechnet. Kommt auf den Shader an.

Ailuros
2007-02-08, 05:55:39
So ein NDA ist doch nicht zum Spass da. Versetz dich mal in die Lage derer, welche das NDA aufsetzen. Dafür kann es viele Gründe geben, sei es um einen Vorsprung zu bewahren, oder die Vermeidung von Halbwissen. Oder wie in den meißen Fällen ist das Produkt einfach noch unfertig, da würdest du auch keine "Reviews" von haben wollen, wenn es deine Entwicklung währe.

BTW die meißen NDA fangen damit an, das man nicht sagen darf das man so ein NDA eingegangen ist, mit gutem Grund!

Aber naja ich will hier niemanden bekehren. Jeder muss selber wissen ob er den Maulkorb aufbehält oder nicht.


Mein NDA mit NV zu verleugnen waere Schwachsinn, da damals mit der Focus Gruppe es ziemlich viel Radau gab.

B3D ist eine Geschichte fuer sich; Rys ist ein ausgezeichneter Administrator und ein guter Freund. In der Vergangenheit waren die Beziehungen zwischen B3D und NV nie besonders "rosig". Heutzutage versucht er nicht nur eine bessere Beziehung zu NV herzustellen, aber auch gleiche Abstaende zu allen IHVs zu halten.

Ich hatte nur eine einzige "merkwuerdige" Frage im IRC Kanal gestellt ueber R600 und wurde sofort "ueberfallen" ich soll mich zurueckhalten. Aber genug mit dem OT Zeug (sorry DK777 :P )

Die gelbe Eule
2007-02-08, 06:18:59
Wie merkwürdig war die Frage denn? Gehört ja immerhin zum R600 ;)

Ailuros
2007-02-08, 06:22:25
Eben, und gerade weil er größer und teurer sein soll, sollte auch mindestens soviele Einheiten wie bei G80 Platz haben. Die bis jetzt durchgesickerten Spekulationen passen IMHO nicht mit den prognostizierten Leistungsangaben überein. Natürlich gibt es da noch viele weitere Dinge, die man nicht unberücksichtigt lassen kann, aber das wichtigste bei einem Garfikchip ist nunmal die Füllrate und die Shaderleistung, auch wenn solche theoretischen Daten immer mit Vorsicht zu genießen sind.

Wobei Dein Einwand nochmal genau wo ist? Da Du anscheinend auch noch zusaetzlich etwas vergesslich bist, schlag einige Monate zurueck und es wird nicht schwer sein zu sehen dass ich selber davor warnte dass man von den Spezifikationen irre gefuehrt werden kann. Auf ersten Blick klingen manche Aspekte zu bescheiden, aber dafuer wird die kreative Mathe der Marketing-Abteilung schon sorgen; genauso eben wie G80 im Grunde keine 128SPs sondern eher 16*Vec8 ALUs hat. Grosse Zahlen verkaufen sich besser.

Welche "Wahrheit" willst Du denn genau hoeren? Und ja natuerlich sind theoretische Zahlen mit Vorsicht zu geniessen, was aber ebenso fuer zweistellige als auch fuer dreistellige ALU counts gilt. Im einen Fall denkt der Laie wohl "Mist wo ist denn dann der high end chip" und im zweiten "wow das Ding wird um einen Faktor von 2.5x den G80 in den Boden stampfen". Pick your poison.


Was jetzt die Fuellraten betrifft, waren diese je ATI's Staerke in letzter Zeit? Xenos hat auf Papier 8 GTexels/s mit 216 GFLOPs/s.

Aber ohne das Gesamtkonzept zu kennen, ist eine solche Diskussion mehr oder weniger sinnlos. Die wirklich brisanten Dinge kommen leider ohnehin erst kurz vorm Launch.

.....wobei ich aber jetzt gleich Frage ob es eine so grosse Suende ist zu versuchen schon jetzt das Publikum vor zu grossen vorzeitigen Enttaeuschungen und/oder zu grossen Freuden zu schonen. Meine "Wahrheit" liegt nuechtern irgendwo in der Mitte. R600 cliff notes (zum N-sten Mal): schneller als G80 aber kein "G80-Killer" und mit dem kann jeder leben.


Ob die Shader bei G80 wirklich so effizient sind, wird sich erst zeigen müssen. Zwar dürfte die Auslastung sehr gut sein, aber die Kosten dafür waren sicherlich auch nicht unerheblich.

Die "Handarbeit" der ALUs hat gekostet, aber in "man-hours" und re-spins definitiv nicht mehr als das endlose ROP/Frequenz-Gewarkel dass R600 durchziehen musste.

Der grosse Gewinn der G80 ALUs ist eben der 1.35GHz clock domain; man sparte sich somit eine Unmenge zusaetzlicher Einheiten (stell Dir vor wieviele er gebraucht haette wenn sie auf universal 575MHz stecken geblieben waeren), musste aber zur gleichen Zeit die Unkosten fuer NVIO und die fehlende Flexibilitaet fuer 2D einbussen.

Der chip kann schon theoretisch in 2D auf niedrigere Taktraten umschalten; der Unterschied des ALU domains ist aber so gross, dass das umschalten eben nicht immer nach Plan laufen wuerde. Wer noch G7x Treiber Ueberreste im System bei einer G80 Installation hatte, musste oefters zusehen wie die Leistung aus dem Blauen auf 1/3 purzelte und nur eine saubere Treiberinstallation rettete den Tag. G7x und co haben 2D clock domains, G8x eben nicht. (Dargo ich hoffe das reicht erstmal als Erklaerung ;) ).

Ailuros
2007-02-08, 06:23:40
Wie merkwürdig war die Frage denn? Gehört ja immerhin zum R600 ;)

Warum er nicht mehr als X MSAA unterstuetzt; schon die Frage alleine so wie sie formuliert ist war zu gefaehrlich.