PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R5xx - Eine ineffiziente Architektur?


StefanV
2006-01-05, 21:25:32
Hm, wenn ich mir die Offizielle Meldung zu der Anzahl der Schaltungen R520 so anschaue, entsteht der Eindruck, als ob ATi sinnlos irgendwelche Transistoren rausgehaun hat, so nach dem Motto 'wenn wir schon keine bessere Architektur hinbekommen, machen wir wenigstens die komplexeste'.

del_4901
2006-01-05, 21:30:42
Hm, wenn ich mir die Offizielle Meldung zu der Anzahl der Schaltungen R520 so anschaue, entsteht der Eindruck, als ob ATi sinnlos irgendwelche Transistoren rausgehaun hat, so nach dem Motto 'wenn wir schon keine bessere Architektur hinbekommen, machen wir wenigstens die komplexeste'.

ich denke mal die "testen" schon Teile von der nächsten Gen. (Shader 4.0 WGF2/Dx10) Wie Nv damals mit den Nv3x. Um den Vorsprung, den Nv hat wieder aufzu/einzuholen. Unter Vorsprung zähl ich mal nicht Balkenlänge sondern Gewinnmarge.

r00t
2006-01-05, 21:30:48
Hm, wenn ich mir die Offizielle Meldung zu der Anzahl der Schaltungen R520 so anschaue, entsteht der Eindruck, als ob ATi sinnlos irgendwelche Transistoren rausgehaun hat, so nach dem Motto 'wenn wir schon keine bessere Architektur hinbekommen, machen wir wenigstens die komplexeste'.

du bist komisch anderseits empfiehlst du jedem hier ne X1800er karte...bist aber unzufrieden mit dessen architektur!

wenns dir nich passt: mach ne eigene graka firma auf^^

StefanV
2006-01-05, 21:35:14
ich denke mal die "testen" schon Teile von der nächsten Gen. (Shader 4.0 WGF2/Dx10) Wie Nv damals mit den Nv3x. Um den Vorsprung, den Nv hat wieder aufzu/einzuholen. Unter Vorsprung zähl ich mal nicht Balkenlänge sondern Gewinnmarge.
Davon hab ich als Endkunde aber leider nichts...

Das 3DLeistungs/Transistor Verhältnis ist beim R520 btw ziemlich fürn Hintern...

mapel110
2006-01-05, 21:37:49
-kein Vertextexturing
-kein FP16 Filtering

+bessere AF-Qualität
+besseres AA
+FP16 inkl AA
+gesteigerte pro-Mhz-Leistung (hat irgendwer getestet, weiß nit mehr wer X1800 vs X800 bei gleichem Takt), könnte u.a. am verbesserten Speichercontroller liegen.

Und da man nicht weiß, was davon wie viele Transistoren kostet,, kann man hier lange diskutieren.

del_4901
2006-01-05, 21:39:43
Davon hab ich als Endkunde aber leider nichts...

Das 3DLeistungs/Transistor Verhältnis ist beim R520 btw ziemlich fürn Hintern...
Ja das ist dem Hersteller aber in dem Moment egal. Der versucht nur seinen Marktanteil auszubauen, und die Produktionskosten zu minimieren, sowie die Einnahmen zu maximieren. GPUs sind inzwischen so komplex, das wenn man seine Fühler nicht zeitig genug austreckt und Erfahrungen sammelt, entweder ein Product extrem verzögert wird, oder ein Product sich als Rohrkalpierer enttarnt ... oder beides :) der Nv30 ist ein sehr gutes Beispiel! Die Erfahrung die Nv durch diesen (absichtlichen) "Fehler" gesammelt hat, muss Ati erstmal aufhohlen.

dildo4u
2006-01-05, 21:57:12
Hohe Taktraten gute Performance funzende Video Beschleunigung nö ich finde ATI hat da nix verschwendet die Karte ist auch Kaum Komplexer als eine 7800GTX und die kommt noch in 110nm.

aoe_forever
2006-01-05, 22:07:42
Davon hab ich als Endkunde aber leider nichts...

Das 3DLeistungs/Transistor Verhältnis ist beim R520 btw ziemlich fürn Hintern...

Jo, der Meister spricht. Sagen wir mal so, die gebotene Leistung (mit flimmerfreiem AA/AF) bekommt man bei ATI einfach sauber hin, Nvidia eiert halt wie seither einfach dumm rum... von dem Chaos bei ihren Nforce4-Chipsätzen mal ganz zu schweigen (korrupte Downloads mit Onboard-LAN, korrupte Daten auf SATA-Drives usw.).

Gruß,
Michael

PS.: Achja, Bild von meinem Auto innen.... einfach mal nach Porsche Boxster googlen... :-)

Gast
2006-01-05, 22:25:41
Davon hab ich als Endkunde aber leider nichts...

Das 3DLeistungs/Transistor Verhältnis ist beim R520 btw ziemlich fürn Hintern...
Dir entstehen aber auch keine Nachteile dadurch.

Gast
2006-01-05, 23:27:15
Hm, wenn ich mir die Offizielle Meldung zu der Anzahl der Schaltungen R520 so anschaue, entsteht der Eindruck, als ob ATi sinnlos irgendwelche Transistoren rausgehaun hat, so nach dem Motto 'wenn wir schon keine bessere Architektur hinbekommen, machen wir wenigstens die komplexeste'.
Nö, Ati hat eben einen anderen Weg gewählt, als Nvidia. Erinnerst du dich noch an das Interview auf B3D mit David Orton, warum Ati kein SM3 im R420 integriert habe? Sinngemäß sagte er sowas wie: Wir mussten uns entscheiden zwischen Speed und Features. Sie (nvidia) haben da ein paar Dinge gemacht, die wir erst noch mal analysieren müssen.

Textur-Adressierung durch einen Shadercore, anstelle einer eigens dafür eingerichteten Einheit, keine riesigen Cache-Strukturen im Chip um die TMUs auf Trab zu halten, "einfacherer" Speichercontroller, einfachere AF-Logik (dabei bin ich mir allerdings immer noch nich sicher) und sicherlich noch einige Dinge.

Ati hat das Problem des R300, welches diesem das Staunen der Welt einbrachte, bis heute mitgeschleppt und musste es mit dem ersten SM3-Chip ausbaden: Ortons Vorgabe für den R300 war: Baut mir den Chip, mit dem wir Nvidias Chips in den Boden stampfen, um jeden Preis.

Das musste ATi damals sicherlich so machen, um nicht Nvidia das Feld allein zu überlassen, aber wirtschaftlich war das nicht so besonders toll. Normalerweise produziert man ja nur etwas, das "regulär" etwas schneller als die Konkurrenz ist, um möglichst oft, möglichst kleine Upgrades zum vollen Preis zu verkaufen.


Q

Odal
2006-01-05, 23:47:53
lol ;D das ich das nochmal erleben darf, payne nörgerlt an ATI chips/karten rum. Sagmal payne hast du gesoffen? :D

@topic

ist doch klar das der X1800 nicht so das performancemonster ist trotz enormen transistorcount

an den R520 wurden auch nur ein paar sachen rangestrickt wenn man den R300 + Nachfolger betrachtet
wie wir aus der vergangenheit kennen wird erst ein bis zwei refreshgenerationen später so richtig nutzen aus einer architektur gezogen..und diese architektur ist auch nicht der R520 sondern der RV530 ala x1600

derzeit noch gurken karten aber später könnten darauf aufbauende GPUs ihre leistung entfalten

dargo
2006-01-06, 00:33:15
Ist eigendlich bekannt wieviele Transistoren der Videoprozessor und das winkelunabhängige AF gekostet haben?

Tjell
2006-01-06, 00:35:15
...
Ati hat das Problem des R300, welches diesem das Staunen der Welt einbrachte, bis heute mitgeschleppt und musste es mit dem ersten SM3-Chip ausbaden: Ortons Vorgabe für den R300 war: Baut mir den Chip, mit dem wir Nvidias Chips in den Boden stampfen, um jeden Preis.

Das musste ATi damals sicherlich so machen, um nicht Nvidia das Feld allein zu überlassen, aber wirtschaftlich war das nicht so besonders toll. Normalerweise produziert man ja nur etwas, das "regulär" etwas schneller als die Konkurrenz ist, um möglichst oft, möglichst kleine Upgrades zum vollen Preis zu verkaufen.


Q
:rolleyes: [nachdenkliches Schweigen]

Hmm... ich antworte doch hierauf. In Kurzform (um nicht off-topic zu werden und keinen neuen Glaubenskrieg anzuzetteln).
Zum Zeitpunkt der Entwicklung von NV30 und R300 war die DX9-Spezifikation noch nicht fix. Microsoft hat mit beiden Herstellern die Anforderungen erörtert, und es ergab sich rein durch die frühere Fertigstellung des R300, daß dessen durchgängig auf FP24 ausgelegte Pixelshader als Standard-Genauigkeit festgelegt wurde. Der NV30 mit jeder Menge FX12 und FP16-Schaltkreisen und dafür nur geringer FP32-Leistung war damit zum Verlierer bei SM2.0-Anforderungen verdammt. "Wer zuerst kommt, mahlt zuerst." Die Weisheit wurde abermals unter Beweis gestellt.

Dein Post käut lediglich die landläufig entstandene "Urban Legend" wieder.




Zum R520:
Es ist evident, daß der Chip sich ziemlich verspätet hat, weshalb nun der Nachfolger quasi über Nacht vor der Türe steht. Dennoch hat sich ATI sehr ins Zeug gelegt, um den architektonischen Rückstand zu NVIDIA (seit NV30) so weit wie möglich aufzuholen. Der R300 (und Derivate/Nachfolger) ist ein absolut einmaliger Glücksfall, da er mit minimalem Transistoraufwand ein Maximum an Leistung und Bildqualität auf den Schirm zaubern kann - allein durch DX9 in der verabschiedeten Form begründet!

Den designtechnischen Rückstand hat ATI (meiner Meinung) nun fast wieder aufgeholt. Nicht jedoch beim (noch) aktuellen High-End-Chip R520, sondern beim RV530 und neueren Varianten.

Da der R580 auf dem besseren Design der kleinen Brüder/Vorgänger basieren wird, ist von einer wesentlichen Weiterentwicklung in Sachen Effizienz auszugehen.

Damit sehe ich NVIDIA mit den G7x und ATI mit den R5xx auf sehr ähnlichem Leistungs- und Technologie-Niveau.

Entscheidend wird jedoch sein, welche Erkenntnisse die beiden mit Ihren bis dato entwickelten Architekturen gewonnen haben und zu welchen Schlüssen sie diese führen. Daraus wird sich dann in direkter Abhängigkeit von den DX10-Anforderungen ablesen lassen, wer seine Hausaufgaben besser gemacht haben wird, um SM4.0 effektiv und effizient umzusetzen.

Ailuros
2006-01-06, 00:37:08
-kein Vertextexturing
-kein FP16 Filtering

+bessere AF-Qualität
+besseres AA
+FP16 inkl AA
+gesteigerte pro-Mhz-Leistung (hat irgendwer getestet, weiß nit mehr wer X1800 vs X800 bei gleichem Takt), könnte u.a. am verbesserten Speichercontroller liegen.

Und da man nicht weiß, was davon wie viele Transistoren kostet,, kann man hier lange diskutieren.

+ leistungsfaehiges dynamisches branching im PS

- maessiges dynamisches branching im VS

Und ja der Leistungsverlust mit AA ist zwischen R4xx und R520 dank dem Speichercontroller gesunken (siehe B3D R520 review).

Ailuros
2006-01-06, 00:43:29
Zum Thema:

Nur weil R520 321M Transistoren gegen die 302 der Konkurrenz hat heisst das bei weitem nicht dass die Architektur nicht effizient ist.

Die Masche war intern hoehere Bildqualitaet (bessere AA Leistung + winkelunabhaengeres AF) zuerst und dann spaeter (R580) hoehere ALU Leistung.

Beim R580 schaetze ich irgenwo 380-400M und mehr oder weniger auf dem Niveau wird auch G7x liegen. NV wird es nicht leicht haben die ALU-Leistung hier zu uebertreffen ausser es sind 8 quads@730MHz und dann hat ATI immer den Speichercontroller, wobei natuerlich unbekannt ist ob und was NV etwas in dieser Abteilung angerichtet hat.

Ich sehe bei bestem Willen keine Transistoren-Verschwendung, ausser jemand koennte das neue AF gestolen bleiben was nicht gerade billig ist.

Gast
2006-01-06, 00:44:28
Zum Zeitpunkt der Entwicklung von NV30 und R300 war die DX9-Spezifikation noch nicht fix. Microsoft hat mit beiden Herstellern die Anforderungen erörtert, und es ergab sich rein durch die frühere Fertigstellung des R300, daß dessen durchgängig auf FP24 ausgelegte Pixelshader als Standard-Genauigkeit festgelegt wurde. Der NV30 mit jeder Menge FX12 und FP16-Schaltkreisen und dafür nur geringer FP32-Leistung war damit zum Verlierer bei SM2.0-Anforderungen verdammt. "Wer zuerst kommt, mahlt zuerst." Die Weisheit wurde abermals unter Beweis gestellt.

Dein Post käut lediglich die landläufig entstandene "Urban Legend" wieder.

Ich würde dir sogar zustimmen, aber sogar in Sachen 1.1-Shader, wo der NV30 noch seine gesamte Rechenkraft nutzen konnte, hatte er gegen den R300 das Nachsehen.
Das wiederum zeigt, daß nicht allein MS oder Nvidia dafür sorgten, dass der R300 so durchschlagend gut dastand. :)


Q

StefanV
2006-01-06, 00:44:59
:rolleyes: [nachdenkliches Schweigen]

Hmm... ich antworte doch hierauf. In Kurzform (um nicht off-topic zu werden und keinen neuen Glaubenskrieg anzuzetteln).
Zum Zeitpunkt der Entwicklung von NV30 und R300 war die DX9-Spezifikation noch nicht fix. Microsoft hat mit beiden Herstellern die Anforderungen erörtert, und es ergab sich rein durch die frühere Fertigstellung des R300, daß dessen durchgängig auf FP24 ausgelegte Pixelshader als Standard-Genauigkeit festgelegt wurde. Der NV30 mit jeder Menge FX12 und FP16-Schaltkreisen und dafür nur geringer FP32-Leistung war damit zum Verlierer bei SM2.0-Anforderungen verdammt. "Wer zuerst kommt, mahlt zuerst." Die Weisheit wurde abermals unter Beweis gestellt.

Dein Post käut lediglich die landläufig entstandene "Urban Legend" wieder.
Diese Urban Legend ist einfach Bullshit, die von irgendwem erfunden wurde, um die bescheidene Performance der nV3x Serie zu begründen.

Fakt ist, das die Rx3x0 Serie einfach mehr Shaderpower hat, aufgrund des anderen/besseren Designs, wenn wir uns den Aufbau genau anschauen, dann werden wir feststellen, das die nV30 nur ein 128bit Speicherinterface hat und 4 Pipelines, die R300 hat 8...

Das die 2. TMU nur unter ganz bestimmten Umständen arbeiten kann, hat man auch verschwiegen bzw ist kaum jemanden bekannt, ergo kann man den nV30 nur mit der 9600 vergleichen, bei gleichem Takt ist sie erstaunlicherweise in genau diesen Regionen, wo die 9600 (Pro/XT) sich befindet.

Was aber auch nicht anders zu erwarten ist, die nV35 ist btw mehr oder minder 'ne 9600 mit einem 256bit Speicherinterface...

die nV Chips muss man einfach eine klasse niedriger ansetzen, dann passts irgendwie relativ gut, auch wenn der Preis dann unverschämt hoch war/ist

Ergo: FX5800 gegen 9600XT.

Ich würde dir sogar zustimmen, aber sogar in Sachen 1.1-Shader, wo der NV30 noch seine gesamte Rechenkraft nutzen konnte, hatte er gegen den R300 das Nachsehen.
Das wiederum zeigt, daß nicht allein MS oder Nvidia dafür sorgten, dass der R300 so durchschlagend gut dastand. :)


Q
nV hat halt nicht damit gerechnet, das ATi mit 'nem '2 Quad' Teil ankommt und hielt weiterhin an ihrem Steinalten, aber recht ineffizienten '4x2' Design fest.

Das der R300 weitaus schneller war, ist also kein Wunder gewesen...
nV hatte damals nichts, was (performancemäßig) übers ATi Mid End hinaus ging.

Ailuros
2006-01-06, 00:47:37
Bis hier war das Thema interessant; verbraucht Ihr jetzt wieder unnoetig Bandbreite fuer den oeden alten NV3x vs. R3xx Mist wird's aeusserst langweilig. Es ist eine heutige Tatsache dass alles NV3x zum erbrechen langsam ist in allem >DX8.1.

deekey777
2006-01-06, 00:49:12
Im seligen R520-Thread mit seinen >520 Seiten gab es einige Überlegungen, warum der R520 so viele Transistoren hat.

Gast
2006-01-06, 00:50:26
NV wird es nicht leicht haben die ALU-Leistung hier zu uebertreffen ausser es sind 8 quads@730MHz und dann hat ATI immer den Speichercontroller, wobei natuerlich unbekannt ist ob und was NV etwas in dieser Abteilung angerichtet hat.
Wie kommst du auf diese Rechnung? Was rechnest du da gegeneinander auf? 16*3 Shadereinheiten im R580 gegen 32*2 im G7x? (8 Quads à 2 ALUs) Dann bräuchte NV aber deutlich weniger Takt als 730 MHz.


Q

StefanV
2006-01-06, 00:50:42
Bis hier war das Thema interessant; verbraucht Ihr jetzt wieder unnoetig Bandbreite fuer den oeden alten NV3x vs. R3xx Mist wird's aeusserst langweilig. Es ist eine heutige Tatsache dass alles NV3x zum erbrechen langsam ist in allem >DX8.1.
Machen wirs uns einfach und sagen einfach, das der nV30/35 nur ein Quad hatte, die da drunter nur ein halbes und lassen diese sinnlose 'abba eigentlich ist der nV3x ganz gut gewsen' Schwachsinn mal sein und begraben mal die Toten und lassen sie endlich mal ruhen.

-AMEN

Das da oben ist ev. technisch nicht ganz korrekt, pi mal Daumen kann man aber durchaus diese Aussage treffen, da sie (shader)performancemäßig garnicht so falsch ist

StefanV
2006-01-06, 00:51:58
Wie kommst du auf diese Rechnung? Was rechnest du da gegeneinander auf? 16*3 Shadereinheiten im R580 gegen 32*2 im G7x? (8 Quads à 2 ALUs) Dann bräuchte NV aber deutlich weniger Takt als 730 MHz.

Q
Die ATi TMUs sind aber (zum Teil) vom Rest entkoppelt, so dass der ATi Chip (in der Theorie) effizienter sein könnte...

In der Praxis wirds sich zeigen.

Tjell
2006-01-06, 00:52:18
Stefan, Du bist nicht im Bilde. Du hast seinerzeit einfach wohl einige Interviews mit MS, ATI und NVIDIA verpennt, aus denen diese damaligen Begebenheiten klar hervorgehen.
Schade, daß ich die damaligen Print-Magazine nicht mehr habe, im Netz findet man ja kaum detailierte Artikel "solchen Alters" von "damals".
Aber eigentlich ist jedem hier Deine Ansicht auch hinlänglich bekannt, was NV30 vs R300 angeht.

Belassen wir es einfach bei unseren beiden Posts, sonst artet das wieder aus. Okay?

ERGÄNZUNG
Diese leidige Historie geht leider in die derzeitigen Chiparchitekturen mit Ihren Vor- und Nachteilen über. Chip-Evolution. ;)
Der große Schnitt wäre R500 (für ATI) gewesen, leider war der jedoch nicht marktgerecht.

Gast
2006-01-06, 00:56:21
Bis hier war das Thema interessant; verbraucht Ihr jetzt wieder unnoetig Bandbreite fuer den oeden alten NV3x vs. R3xx Mist wird's aeusserst langweilig. Es ist eine heutige Tatsache dass alles NV3x zum erbrechen langsam ist in allem >DX8.1.
Das diente meinerseits lediglich zur Erläuterung, warum das Design des R520 so verhältnismäßig viele Transistoren brauchte. Sry, ich hätte es besser wissen sollen.


*sichwiedervondannenschleicht*
Q

Gast
2006-01-06, 00:58:38
Die ATi TMUs sind aber (zum Teil) vom Rest entkoppelt, so dass der ATi Chip (in der Theorie) effizienter sein könnte...

In der Praxis wirds sich zeigen.
Deswegen habe ich extra nachgefragt, wie Ailuros seine Rechnung begründet. Eben weil er von reiner ALU-Leistung sprach.

Und einen Faktor, wie effizient welche Architektur nun "generell" sei, würde ich kaum wagen wollen, zu postulieren.


*sichendgültigverabschiedet*
Q

Ailuros
2006-01-06, 01:43:43
Machen wirs uns einfach und sagen einfach, das der nV30/35 nur ein Quad hatte, die da drunter nur ein halbes und lassen diese sinnlose 'abba eigentlich ist der nV3x ganz gut gewsen' Schwachsinn mal sein und begraben mal die Toten und lassen sie endlich mal ruhen.

-AMEN

Das da oben ist ev. technisch nicht ganz korrekt, pi mal Daumen kann man aber durchaus diese Aussage treffen, da sie (shader)performancemäßig garnicht so falsch ist

Letzter (hoffentlich) Kommentar von mir zum Thema und ich sag gerne dass ich mich des oefteren gerne korrigieren lasse:

http://www.beyond3d.com/forum/showpost.php?p=526953&postcount=934

Ailuros
2006-01-06, 01:49:40
Wie kommst du auf diese Rechnung? Was rechnest du da gegeneinander auf? 16*3 Shadereinheiten im R580 gegen 32*2 im G7x? (8 Quads à 2 ALUs) Dann bräuchte NV aber deutlich weniger Takt als 730 MHz.


Q

R5xx ALU:
4D MADD
4D ADD

8+4 = 12 FLOPs

R520 = 16 * 12 * 0.625
R580 = 16 * 36 * 0.65

G7x ALU:

2* 4D MADD

8+8 = 16 FLOPs

G70 = 24 * 16 * 0.43 (oder 0.55 je nach Geschmack)
G7x = 32 * 16 * ?

***edit: steht natuerlich offen bis mir jemand sagt dass es sich um BS handelt; eine Begruendung waere aber auch erwuenscht.

Ailuros
2006-01-06, 01:55:32
ERGÄNZUNG
Diese leidige Historie geht leider in die derzeitigen Chiparchitekturen mit Ihren Vor- und Nachteilen über. Chip-Evolution. ;)
Der große Schnitt wäre R500 (für ATI) gewesen, leider war der jedoch nicht marktgerecht.

"Ur-R400" eher und die wichtigsten Bestandteile sind im C1/Xenos immer noch drin. Durch die Roadmap-Aenderung wurde aus dem "alten" R500 dann R600.

Tjell
2006-01-06, 02:08:07
"Ur-R400" eher und die wichtigsten Bestandteile sind im C1/Xenos immer noch drin. Durch die Roadmap-Aenderung wurde aus dem "alten" R500 dann R600.
Ups. Hasseräääsch. :)

MadManniMan
2006-01-06, 03:53:22
-AMEN

Nee, eben nich. Fräulein MadManniMan hatte lange Zeit eine 5800 und eine 9500 Pro (welche in ihrer o/c-heit eine 9600 XT im Regen stehen läßt) parallel laufen - und erstere hatte bis vor kurzem mehr Argumente auf ihrer Seite.
Erst jetzt greift allmählich die Shaderproblematik wirklich.
Du übertreibst mal wieder maßlos - warum kommst Du nicht auf ein vernünftiges Maß in Deiner Darstellung runter? Bedarf nach Provokation?

---

Hat jemand mal schnell die Transen-Zahlen vom R200 und NV20/25 zur Hand? Ich bin grad zu blöd, das auf b3d zu finden ;( Bräuchte die Zahlen für die Überlegung, ob einer meiner Gedanken dem Thread eine Inspiration gäbe...

mapel110
2006-01-06, 04:50:03
Nee, eben nich. Fräulein MadManniMan hatte lange Zeit eine 5800 und eine 9500 Pro (welche in ihrer o/c-heit eine 9600 XT im Regen stehen läßt) parallel laufen - und erstere hatte bis vor kurzem mehr Argumente auf ihrer Seite.
Erst jetzt greift allmählich die Shaderproblematik wirklich.
Du übertreibst mal wieder maßlos - warum kommst Du nicht auf ein vernünftiges Maß in Deiner Darstellung runter? Bedarf nach Provokation?

---

Hat jemand mal schnell die Transen-Zahlen vom R200 und NV20/25 zur Hand? Ich bin grad zu blöd, das auf b3d zu finden ;( Bräuchte die Zahlen für die Überlegung, ob einer meiner Gedanken dem Thread eine Inspiration gäbe...
R200 hatte etwa 60 Mio, NV20 57 Mio, NV25 63 Mio
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index2_a_technik_2.php
Falls hier nicht gelogen wird. ;)

Coda
2006-01-06, 05:14:08
Da ist übrigens nen Fehler. Die GeForce 4 hat keinen 10bit RAMDAC ;)

MadManniMan
2006-01-06, 05:18:49
R200 hatte etwa 60 Mio, NV20 57 Mio, NV25 63 Mio
http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index2_a_technik_2.php
Falls hier nicht gelogen wird. ;)

Jetzt erinner ich mich - zumindest ähnliche Zahlen hatte ich auch im Kopf, wagte sie jedoch nicht auszusprechen, hehe.

Aber zum Gedankengang: der R200 hatte mit PS1.4 schon wesentlich eher ein paar Fragmentbearbeiter ähnlich den neuen an Bord, als es die... naja, "parametisierbareren, leicht erweiterten" Combiner vom NV20/25, also bom PS1.1/1.3 waren.

Ich spekulier mal wild umher und sage, daß so ein 1.4er Pixelshader durchaus mehr Transen denn ein 1.1/1.3er verbraucht. Beträchtlich gar!
Was können wir auf der anderen Seite dagegen halten? Multisampling nciht, das war bei ATi nur kaputt, aber verbaut. Winkelunabhängiges AF jedoch ham wir nur bei den GFs - und das könnte für den relativen "Transistorausgleich" verantwortlich sein.

Mein kleines Hirn schlußfolgert daraus, daß der Transenverbrauch vom HQ-AF des R5XX druchaus nicht zu unterschätzen ist - zumal man die Quad-Anzahl in Relationen setzen muß (wenn auch nicht direkt proportional) und die Möglichkeit, LQ-AF parallel immernoch anzubieten freilich auch nochmal extra kostet.

Also ganz ehrlich: ich wüßte nicht, wo der R520 Transen verschwenden würde. Zumindest nicht in größerem Maße, als das bei anderen Chips geschehen ist.


Nur son paar Gedanken, Manni

Gast
2006-01-06, 09:41:13
R5xx ALU:
4D MADD
4D ADD

8+4 = 12 FLOPs

R520 = 16 * 12 * 0.625
R580 = 16 * 36 * 0.65

G7x ALU:

2* 4D MADD

8+8 = 16 FLOPs

G70 = 24 * 16 * 0.43 (oder 0.55 je nach Geschmack)
G7x = 32 * 16 * ?

***edit: steht natuerlich offen bis mir jemand sagt dass es sich um BS handelt; eine Begruendung waere aber auch erwuenscht.

Ah, ok. FLOPS sind natürlich auch eine gute Möglichkeit, die Geschichte zu beziffern. Ich war wohl etwas festgefahren in den MADDs und ADs und MULs. Danke Ailuros!


*geradeaufgewachtist*
Q

Gast
2006-01-06, 09:54:14
Jetzt erinner ich mich - zumindest ähnliche Zahlen hatte ich auch im Kopf, wagte sie jedoch nicht auszusprechen, hehe.

Aber zum Gedankengang: der R200 hatte mit PS1.4 schon wesentlich eher ein paar Fragmentbearbeiter ähnlich den neuen an Bord, als es die... naja, "parametisierbareren, leicht erweiterten" Combiner vom NV20/25, also bom PS1.1/1.3 waren.

Ich spekulier mal wild umher und sage, daß so ein 1.4er Pixelshader durchaus mehr Transen denn ein 1.1/1.3er verbraucht. Beträchtlich gar!
Was können wir auf der anderen Seite dagegen halten? Multisampling nciht, das war bei ATi nur kaputt, aber verbaut. Winkelunabhängiges AF jedoch ham wir nur bei den GFs - und das könnte für den relativen "Transistorausgleich" verantwortlich sein.

Mein kleines Hirn schlußfolgert daraus, daß der Transenverbrauch vom HQ-AF des R5XX druchaus nicht zu unterschätzen ist - zumal man die Quad-Anzahl in Relationen setzen muß (wenn auch nicht direkt proportional) und die Möglichkeit, LQ-AF parallel immernoch anzubieten freilich auch nochmal extra kostet.

Also ganz ehrlich: ich wüßte nicht, wo der R520 Transen verschwenden würde. Zumindest nicht in größerem Maße, als das bei anderen Chips geschehen ist.


Nur son paar Gedanken, Manni
Ich kenne zwar keine genauen Zahlen, könnte mir aber denken, daß sich viele Vor- und Nachteile von Ati bzw. Nvidia in den TMUs selbst und in den ROPs gegenseitig in etwa wieder aufheben – Transistormäßig.

Dem besseren AF von ATis TMUs stehen die FP16-Filter- und die PCF-Fähigkeit für Depth-Stencil-Maps von Nvidias TMU gegenüber, der FP16-AA-Fähigkeit von ATis ROP steht die Double-Z-Fähigkeit von Nvidias ROP gegenüber (gilt dann nicht mehr für R580 und RV530, ich frage mich allerdings, wieso ATi hier nicht erstmal auf "nur" zwei Recheneinheiten gesetzt hat, alle drei scheint man beim RV530 sehr oft nicht ordentlich füttern zu können).

Hyper-Z kostet m.E. auch mehr Transistoren, als Nvidias Early-Z Methode, ebenso, wie die AA-Sampler in den ROPs. Allerdings könnte das durchaus wieder durch die VTF-Fähigkeit der VS ausgeglichen werden.

Meiner Meinung nach läuft der gravierende Unterschied auf die Pixelprozessoren hinaus, wo ein Quad bei ATi eben deutlich teurer ist, als bei Nvidia. Das ist ihrer effizienten Architektur geschuldet, die die vorhandenen Ressourcen meist besser ausnutzen kann, als es bei CineFX der Fall ist. Wie immer gilt auch hier: Nichts im Leben ist umsonst – wenn ATis Weg nur Vorteile brächte, glaube ich nicht, dass Nvidias Ingenieure zu dumm waren, das auch zu erkennen. Man hat sich halt anders entschieden und beide müssen nun mit den Vor- und Nachteilen leben.

Die R520-Periode, die ja wohl bald zuende sein wird, war ein Unglück für ATi. Nicht so ein großes, wie der NV30 für Nvidia, der sich ja über eine ganze Generation hinzog und auch mit NV35 und 38 nicht unbedingt besser wurde, aber ein Unglück nichts desto trotz. Erst die Verspätung aufgrund des Bugs und der Umstellung auf den neuen Prozess, dann die unerwartet guten Resultate, die Nvidia mit dem G70 und dem 0,11µ Prozess hatte.

Aber mit dem R580 wird sich das sicherlich wieder ausgehen, da hier der schmerzhafte Schritt bereits hinter ihnen liegt und man sich dem Ausbau der, IMO, gelungenen Architektur widmen kann.

*hoffend*
Q

Pirx
2006-01-06, 11:57:06
Stimmt es, daß sich bei den Füllraten im Vergleich R520/R580 sogut wie nichts ändern wird? Der nächste nV-Chip wird dort ja wohl zulegen durch Verbreiterung und vielleicht sogar höheren Takt. Ist man hier schon in Regionen, wo überwiegend die Shaderfähigkeiten limitieren?

Im Moment sieht es für mich so aus, als ob der R520 in Bezug auf Leistungsfähigkeit/Transistorcount eher ineffizienter als die Konkurrenz ist (und man da auch nicht mehr viel Spielraum hat) und in Bezug auf die Ausnutzung der theoretischen Leistung sehr effizient (was aber nichts bringen könnte, wenn der Konkurrent in der Lage wäre, ein kleines Monster auf den Weg zu bringen)

aths
2006-01-06, 12:33:49
Textur-Adressierung durch einen Shadercore, anstelle einer eigens dafür eingerichteten Einheit,Doch. Auch GeForce-Karten haben eine separate Tex-Unit, welche ihre Daten dann an die TMU weiterreicht.

keine riesigen Cache-Strukturen im Chip um die TMUs auf Trab zu haltenDoch. Allerdings werden wegen großer Quad-Batches auch große Caches gebraucht.


Da ist übrigens nen Fehler. Die GeForce 4 hat keinen 10bit RAMDAC ;)Doch.

Gast
2006-01-06, 12:43:36
Doch. Auch GeForce-Karten haben eine separate Tex-Unit, welche ihre Daten dann an die TMU weiterreicht.

Doch. Allerdings werden wegen großer Quad-Batches auch große Caches gebraucht.
Wow, selten habe ich so gut begründete Argumente gelesen. Wäre es zuviel verlangt, uns/mir mitzuteilen woher du deine Gewißheiten nimmst?

Ailuros
2006-01-06, 12:43:36
Stimmt es, daß sich bei den Füllraten im Vergleich R520/R580 sogut wie nichts ändern wird? Der nächste nV-Chip wird dort ja wohl zulegen durch Verbreiterung und vielleicht sogar höheren Takt. Ist man hier schon in Regionen, wo überwiegend die Shaderfähigkeiten limitieren?

Im Moment sieht es für mich so aus, als ob der R520 in Bezug auf Leistungsfähigkeit/Transistorcount eher ineffizienter als die Konkurrenz ist (und man da auch nicht mehr viel Spielraum hat) und in Bezug auf die Ausnutzung der theoretischen Leistung sehr effizient (was aber nichts bringen könnte, wenn der Konkurrent in der Lage wäre, ein kleines Monster auf den Weg zu bringen)


Stimmt schon. Und ja in heutigen dx9.0 Spielen ist die interne Shader-Fuellrate wichtiger als einfache Texel-Fuellraten.

Verfolge mal die Leistung einer X1600XT; es ist quasi eine R580 in "Mini-Format". Waerend diese 4 TMUs und 12 ALUs hat, wird R580 16 TMUs und 48 ALUs haben. Bei beiden gibt es das 3:1 ALU<->TMU Verhaeltnis.

X1600 verhaelt sich eben ziemlich maessig in aelteren Spielen wie UT2k4 z.B., zeigt sich aber extrem konkurrenzfaehig in Spielen wie FEAR.

Sehr grosse Unterschiede was die Leistung betrifft erwarte ich bei den kommenden GPUs nicht unbedingt, ueberhaupt da die fehlende Bandbreite und andere Flaschenhaelse jegliches Potential vorruebergehend aufhalten werden.

Odal
2006-01-06, 13:06:17
soll heissen die shaderpower steigt enorm an aber diesen vorteil können sie nur begrenzt ausspielen da andere sachen limitieren?

was ist denn eigentlich in naher zukunft (1-2 jahre) zu erwarten. Werden Spiele noch deutlich mehr von Shaderpower profitieren oder limitiert trotzdem eher was anderes und an die (non DX10) GPUs werden eben erstmal nur shadereinheiten drangestrickt weil die eben am billigsten sind und man wenigstens teilweise mehrleistung draus ziehen kann?

up¦²
2006-01-06, 13:25:37
Warum ist die X1x00 serie so elend schwach in AOE3, obwohl es kein ogl ist?

http://img2.pcpop.com/ArticleImages/0x0/0/153/000153511.jpg

PcPop China (http://www.pcpop.com/doc/0/112/112603_18.shtml)

Odal
2006-01-06, 13:31:10
vielleicht eine SM3 schwäche?

gibts da auch ein bench mit Shaders=High? also nicht "Very High" also SM2?

ja gibts, sie verliert zwar 9% mehr als eine GT/GTX bei der Benutzung von SM3 aber sie ist auch mit SM2 noch deutlich unterlegen

Gast
2006-01-06, 13:36:37
vielleicht eine SM3 schwäche?

gibts da auch ein bench mit Shaders=High? also nicht "Very High" also SM2?
Jop.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/10/#abschnitt_age_of_empires_3
SM2...
Entweder Treiberprobleme oder die Progger haben Mist gebaut.

deekey777
2006-01-06, 13:38:52
http://www.tomshardware.com/2005/12/02/vga_charts_viii/page7.html

*hust* 5900 *hust*
Wenn das stimmt, dann haben die Entwickler zumindest einen einwandfreien SM 2.0 Modus geliefert.

Ailuros
2006-01-06, 13:46:28
soll heissen die shaderpower steigt enorm an aber diesen vorteil können sie nur begrenzt ausspielen da andere sachen limitieren?

Nagel auf Kopf getroffen :)

was ist denn eigentlich in naher zukunft (1-2 jahre) zu erwarten. Werden Spiele noch deutlich mehr von Shaderpower profitieren oder limitiert trotzdem eher was anderes und an die (non DX10) GPUs werden eben erstmal nur shadereinheiten drangestrickt weil die eben am billigsten sind und man wenigstens teilweise mehrleistung draus ziehen kann?

Bandbreite und Speichermengen werden weiterhin IMO limitieren.

Gast
2006-01-06, 14:14:45
http://www.tomshardware.com/2005/12/02/vga_charts_viii/page7.html

*hust* 5900 *hust*
Wenn das stimmt, dann haben die Entwickler zumindest einen einwandfreien SM 2.0 Modus geliefert.
lol, da kann man wohl AoE3 als Benchmark vergessen..

Odal
2006-01-06, 14:15:37
Nagel auf Kopf getroffen :)



Bandbreite und Speichermengen werden weiterhin IMO limitieren.


blos pixelprozessoren brauchen doch kaum bandbreite...
was bandbreite frisst sind doch TMUs und ROPs
und gerade TMUs werden doch in den nächsten jahren unwichtiger da man statt einen sack voll texturen draufzukloppen ein kleines shaderprogramm hat was oberflächen festlegt.

deekey777
2006-01-06, 14:20:21
lol, da kann man wohl AoE3 als Benchmark vergessen..

Wieso das denn? Wenn die Entwickler die Fähigkeiten der FX-Serie ausgereizt haben und die Tester keine linken Arme haben, warum nicht.

Odal
2006-01-06, 14:23:54
http://www.tomshardware.com/2005/12/02/vga_charts_viii/page7.html

*hust* 5900 *hust*
Wenn das stimmt, dann haben die Entwickler zumindest einen einwandfreien SM 2.0 Modus geliefert.


meinst du die haben extra einen NV30 Pfad eingebaut und nutzen PS2.a?
das glaub ich nicht, sehr seltsam alles.

zu erkennen (auf der china seite) ist das SM3 nen haufen FPS frisst also schon tüchtig shader benutzt werden müssten. Wenn man sich aber anguckt das die FX5900 soweit oben ist (welche ja nicht gerade berühmt für ihre shaderstärke ist) stellt sich mir die frage: "Limitiert da vielleicht was ganz anderes?"

Coda
2006-01-06, 14:34:10
Doch. Allerdings werden wegen großer Quad-Batches auch große Caches gebraucht.Die Texturecache-Größe wird von nVIDIA und ATI gern mit "a few kilobyte" angegeben. Riesig ist etwas anderes.

Doch.Sie unterstützt kein 10bit Framebuffer-Format. Nichtmal die GeForce 7 tut das.

Gast
2006-01-06, 15:05:28
Warum ist die X1x00 serie so elend schwach in AOE3, obwohl es kein ogl ist?
Ich könnte mir vorstellen, daß es an den Schatten liegt.

Gründe:
- In der Intro vom Demo sprangen die FPS wahnsinnig in die Höhe, wenn man Schatten deaktivierte (auf ATi mehr als bei Nvidia)
- Im Gegensatz zu BF2, NfS:MW und dem 3DMark05 sehen die Schattenränder bei den ATis nicht verpixelt aus, das den TMUs fehlende PCF (wenn denn PSM mit PCF benutzt wird) müsste also in den Shadern nachgeholt werden
- Schon die Geforce3, also auch die FXen, boten PCF "für umsonst" in den TMUs (THGs Benchmark halte ich trotzdem für Blödsinn, weil da einfach alles durcheinander geworfen wird.)


*freundlichgrüßend*
Q

up¦²
2006-01-06, 15:32:16
Irgendwie ist R5xx ein auf den kopf gesetzter Xenos :redface:

16 pipelines mit je 3 ALUs,aber nicht so flexibel (nur pixelshader :wink: ) =48ALUs total

Dagegen Xedos:
3 pipelines mit je 16 ALUs, aber jede pipeline kann (quasi als array von shaderengines :rolleyes: ) pixelshader und vertexshaderauch = 48 ALUs total.

Coda
2006-01-06, 16:03:57
Irgendwie ist R5xx ein auf den kopf gesetzter Xenos :redface:Nein. Xenos hat mit R5xx nicht die Bohne zu tun, außer evtl. die ALUs an sich.

Das PCF "for free" von nVIDIA ist ziemlich mies. Da gefällt mir ATIs Lösung mit fetch4 viel besser, leider können das nur RV515 und RV530. Bei den großen gibts das erst ab R580.

deekey777
2006-01-06, 16:09:05
Nein. Xenos hat mit R5xx nicht die Bohne zu tun, außer evtl. die ALUs an sich.

Das PCF "for free" ist aber ziemlich mies. Da gefällt mir ATIs Lösung mit dem fetch4 viel besser, leider können das nur RV515 und RV530. Bei den großen gibts das erst ab R580.

Fetch4 gibt es zZ doch nur beim RV530*, oder?


*Ab RV530.

Gast
2006-01-06, 16:11:03
Das PCF "for free" von nVIDIA ist ziemlich mies. Da gefällt mir ATIs Lösung mit fetch4 viel besser, leider können das nur RV515 und RV530. Bei den großen gibts das erst ab R580.
Eine weitere Erklärung hierzu wäre nett. So kann ich die Argumentation mangels Vorhandensein nicht nachvollziehen.


*hoffend*
Q

Gast
2006-01-06, 16:12:11
Fetch4 gibt es zZ doch nur beim RV530*, oder?


*Ab RV530.
Nee, der Lütte kann's auch schon. Stand in einem ATi-Paper drin.


Q

LordDeath
2006-01-06, 16:21:37
und gerade TMUs werden doch in den nächsten jahren unwichtiger da man statt einen sack voll texturen draufzukloppen ein kleines shaderprogramm hat was oberflächen festlegt.

dennoch sollte die füllrate einer neueren karte nicht sinken, sondern wenigstens gleich bleiben! so limitiert man sich doch einfach wieder selbst...

Odal
2006-01-06, 16:28:22
das hab ich ja nicht gesagt das sie sinken soll...dann limitiert die füllrate das ist klar..darum sind die x1600 ja auch so verkrüppelt

ich meinte nur wenn man an jetzige chips einfach nur mehr shadereinheiten dranstrickt kann der speicher/interface doch garnicht limitieren

Coda
2006-01-06, 16:29:44
Fetch4 gibt es zZ doch nur beim RV530*, oder?Hm kann sein, dass es das wirklich nur bei den 12ALU/Quad-Chips gibt. Ist auch nicht wichtig.

Eine weitere Erklärung hierzu wäre nett. So kann ich die Argumentation mangels Vorhandensein nicht nachvollziehen.Das nVIDIA PCF benützt ein festgelegtes Samplemuster, was nicht gerade optimal ist. Mit Pixelshader 3 und dem vPos Register ist es möglich bei jedem Pixel ein etwas anders rotiertes Muster zu nehmen. Der PCF-Fetch ist in den Pixelshadern aber etwas langsam, da hilft fetch4.

Ich sagte: Mir gefällt die ATI-Lösung besser. Das sie noch nicht überall implementiert ist dabei nicht wichtig.

ich meinte nur wenn man an jetzige chips einfach nur mehr shadereinheiten dranstrickt kann der speicher/interface doch garnicht limitierenWenn du damit die Pixelshader-ALUs meinst hast du recht. Bei den Vertex-ALUs ist es schon wieder etwas anderes.

deekey777
2006-01-06, 16:31:38
Nee, der Lütte kann's auch schon. Stand in einem ATi-Paper drin.


Q

Wußte ich gar nicht.

Demirug
2006-01-06, 16:48:15
Das nVIDIA PCF benützt ein festgelegtes Samplemuster, was nicht gerade optimal ist. Mit Pixelshader 3 und dem vPos Register ist es möglich bei jedem Pixel ein etwas anders rotiertes Muster zu nehmen. Der PCF-Fetch ist in den Pixelshadern aber etwas langsam, da hilft fetch4.

Fetch 4 hat das gleiche feste Sample Muster wie das was nVidia für PCF nutzt.

Tjell
2006-01-06, 17:36:48
http://www.tomshardware.com/2005/12/02/vga_charts_viii/page7.html

*hust* 5900 *hust*
Wenn das stimmt, dann haben die Entwickler zumindest einen einwandfreien SM 2.0 Modus geliefert.
Was zur Hölle...?!? :confused:
DX8-Modus für die FX5900 würde das erklären. Man müßte mal einen Blick auf die Optik bei AOE3 riskieren.

aths
2006-01-06, 18:03:15
Die Texturecache-Größe wird von nVIDIA und ATI gern mit "a few kilobyte" angegeben. Riesig ist etwas anderes.Der Texture Cache ist das eine. Das andere sind Caches (oder Register-Fifos) die u. a. auch Daten für/von der TMU halten können.

Sie unterstützt kein 10bit Framebuffer-Format. Nichtmal die GeForce 7 tut das.Für einen 10-Bit-RAMDAC braucht man kein 10-Bit-Framebuffer-Format. Die 8-Bit-Werte werden anhand der Gamma-LUT, die 256 10-Bit-Einträge enthält, auf 10 Bit aufgeblasen um bei der Gammakorrektur Colorbanding zu vermeiden.

Ailuros
2006-01-06, 20:55:17
blos pixelprozessoren brauchen doch kaum bandbreite...
was bandbreite frisst sind doch TMUs und ROPs
und gerade TMUs werden doch in den nächsten jahren unwichtiger da man statt einen sack voll texturen draufzukloppen ein kleines shaderprogramm hat was oberflächen festlegt.

Wieso nimmt dann der Bandbreiten-bedarf auf GPUs nicht ab mit der Zeit? Ich verstehe schon dass Du - gerechtfertigt - den Widerspruch sehen kannst, aber die Ansprueche an Aufloesungen wachsen auch konstant in den letzten Jahren und das ist auch nicht das einzige.

Noch schlimmer wird es mit floating point HDR werden, sowohl was die Bandbreite als auch den Speicherverbrauch betrifft; kommt noch AA dazu noch schlimmer.

deekey777
2006-01-06, 21:06:09
Wieso nimmt dann der Bandbreiten-bedarf auf GPUs nicht ab mit der Zeit? Ich verstehe schon dass Du - gerechtfertigt - den Widerspruch sehen kannst, aber die Ansprueche an Aufloesungen wachsen auch konstant in den letzten Jahren und das ist auch nicht das einzige.

Noch schlimmer wird es mit floating point HDR werden, sowohl was die Bandbreite als auch den Speicherverbrauch betrifft; kommt noch AA dazu noch schlimmer.

Hatte nicht jemand vor etwa 2 Jahren einen Spruch abgelassen, das AA sei tot? ;) :biggrin:

robbitop
2006-01-06, 21:14:50
Nein. Xenos hat mit R5xx nicht die Bohne zu tun, außer evtl. die ALUs an sich.

Wie kommst du darauf? Dann wären es ja 5D ALUs, die auch VS Aufgaben übernehmen könnten. Wenn man das nicht nutzte, wäre es ja Transistorverschwendung noch und nöcher. Bist du dir da sicher?

Odal
2006-01-06, 21:17:16
Hatte nicht jemand vor etwa 2 Jahren einen Spruch abgelassen, das AA sei tot? ;) :biggrin:

da waren auch TFTs noch nicht so verbreitet ;)

die Röhre ist tot und Otto-Normalverbraucher TFTs bringen nur 1280x1024 bei 19 zoll
da ist treppchenbildung unumgänglich ohne AA

Gast
2006-01-06, 21:20:52
Wie kommst du darauf? Dann wären es ja 5D ALUs, die auch VS Aufgaben übernehmen könnten. Wenn man das nicht nutzte, wäre es ja Transistorverschwendung noch und nöcher. Bist du dir da sicher?
Die ALUs der Vertexshader sind 5D.

robbitop
2006-01-06, 21:27:31
Die ALUs der Vertexshader sind 5D.
Die PS ALUs meine ich.

aths
2006-01-07, 10:41:59
Wie kommst du darauf? Dann wären es ja 5D ALUs, die auch VS Aufgaben übernehmen könnten."5D", also 4+1, ist nur eine Leistungsoptimierung. Vertextransformationen nutzen 4D-Vektoren.

robbitop
2006-01-07, 11:29:45
"5D", also 4+1, ist nur eine Leistungsoptimierung. Vertextransformationen nutzen 4D-Vektoren.
Die C1 ALUs sind allerdings 5D (darauf wollte ich hinaus).

Ailuros
2006-01-07, 11:46:12
Hatte nicht jemand vor etwa 2 Jahren einen Spruch abgelassen, das AA sei tot? ;) :biggrin:

Keine Ahnung wen oder was Du jetzt meinen solltest, aber Kirk sagte in einem Extremetech Q&A dass er fuer die vorhersehbare Zukunft erwartet dass wir immer noch bei multisampling bleiben, aber langfristig vielleicht dann zu extrem hohen Aufloesungen kommen.

Ich kann mir zwar schwer vorstellen wie und warum das zweite Sinn machen sollte, ausser Bildschirme in einem Jahrzent werden nicht allzu viel groesser als 24-30" und haben dann verrueckt hohe Aufloesungen. Ich kann bei bestem Willen nicht verstehen wieso AA redundant werden koennte wenn bei Bildschirmen der Zukunft die Bildflaeche und Aufloesungen parallel groesser werden sollten.

Ailuros
2006-01-07, 11:50:12
da waren auch TFTs noch nicht so verbreitet ;)

die Röhre ist tot und Otto-Normalverbraucher TFTs bringen nur 1280x1024 bei 19 zoll
da ist treppchenbildung unumgänglich ohne AA

Sei Dir bloss nicht so sicher dass wir in sagen wir mal einem Jahrzent (wenn nicht sogar um einiges weniger) immer noch TFT/LCDs haben werden.

Ailuros
2006-01-07, 11:55:17
Nein. Xenos hat mit R5xx nicht die Bohne zu tun, außer evtl. die ALUs an sich.

Das PCF "for free" von nVIDIA ist ziemlich mies. Da gefällt mir ATIs Lösung mit fetch4 viel besser, leider können das nur RV515 und RV530. Bei den großen gibts das erst ab R580.

Geht es hier um "texture latency hiding"?

Gast
2006-01-07, 13:21:28
Die C1 ALUs sind allerdings 5D (darauf wollte ich hinaus).
Jo, war mir klar, aber es kann ja auch sein, daß für den Xenox/C1 die Vertexshader Pate standen bzw. andersherum. :)

Halte ich zwar eigentlich für unwahrscheinlich, aber es ist eine weitere Übereinstimmung.


Q

Gast
2006-01-07, 13:23:51
Keine Ahnung wen oder was Du jetzt meinen solltest, aber Kirk sagte in einem Extremetech Q&A dass er fuer die vorhersehbare Zukunft erwartet dass wir immer noch bei multisampling bleiben, aber langfristig vielleicht dann zu extrem hohen Aufloesungen kommen.

Ich kann mir zwar schwer vorstellen wie und warum das zweite Sinn machen sollte, ausser Bildschirme in einem Jahrzent werden nicht allzu viel groesser als 24-30" und haben dann verrueckt hohe Aufloesungen. Ich kann bei bestem Willen nicht verstehen wieso AA redundant werden koennte wenn bei Bildschirmen der Zukunft die Bildflaeche und Aufloesungen parallel groesser werden sollten.
Mark Rein war das auf der Präsentation zum NV40. "AA is dead". Er meinte aber (IMO) eher, dass man aufgrund der vielen Post-Processing Effekte, wie z.B. der ekelhaft übertrieben Weichzeichner, der aktuell so "in" ist, man nicht mehr viel vom fehlenden AA sehen würde.

Einigen Promo-Videos der XBox360 (bsw. Gears of War) sah man an einigen Stellen das fehlende AA zwar an, an anderen fiel es allerdings kaum auf. :)


Q

aths
2006-01-07, 13:43:59
Mark Rein will in 1600x1200 spielen und alle Effekte haben, und dann, wenn die Leistung stimmt, vielleicht noch AA. Ich widerspreche Mark Rein hier natürlich und halte AA für prinzipiell wichtig.

robbitop
2006-01-07, 13:58:38
Jo, war mir klar, aber es kann ja auch sein, daß für den Xenox/C1 die Vertexshader Pate standen bzw. andersherum. :)

Halte ich zwar eigentlich für unwahrscheinlich, aber es ist eine weitere Übereinstimmung.


Q
hm das ist denkbar ... aber ob es wahrscheinlich ist? Ich könnte mir vorstellen reine VS3 Units sind effektiver und kostengünstiger.

Odal
2006-01-07, 14:16:50
Sei Dir bloss nicht so sicher dass wir in sagen wir mal einem Jahrzent (wenn nicht sogar um einiges weniger) immer noch TFT/LCDs haben werden.


ja schon klar du meinst organisches material und so komische folien etc.

ja nur bis sich sowas mal richtig durchsetzt wenn die technik mal marktreif ist das dauert etliche jahre (sieht man ja auch an den TFTs)

afaik war z.b. bei diesen organischen dingern ein problem das so hohe auflösungen nicht machbar waren (aber mein kentnisstand ist da schon etliche jahre alt :D )
zumindest wird es die nächsten jahre erstmal TFTs geben

ich glaube auch fast das wir in 10 jahren nicht mehr an normalen Bildschirmen spielen sondern zum gamen uns das bild mittels spezialbrillen direkt vors auge projeziert wird.
zukunft wird auch sein eine mehr räumlich darstellung zu liefern statt dieser planaren auf TFTs und Monitoren...
Elsa 3D Relevator&Co funktionieren ja nur mit röhren...

ob sich dann später trotzdem hohe auflösungen realisierern lassen bleibt abzuwarten

robbitop
2006-01-07, 14:26:15
ja schon klar du meinst organisches material und so komische folien etc.

ja nur bis sich sowas mal richtig durchsetzt wenn die technik mal marktreif ist das dauert etliche jahre (sieht man ja auch an den TFTs)

afaik war z.b. bei diesen organischen dingern ein problem das so hohe auflösungen nicht machbar waren (aber mein kentnisstand ist da schon etliche jahre alt :D )
zumindest wird es die nächsten jahre erstmal TFTs geben

ich glaube auch fast das wir in 10 jahren nicht mehr an normalen Bildschirmen spielen sondern zum gamen uns das bild mittels spezialbrillen direkt vors auge projeziert wird.
zukunft wird auch sein eine mehr räumlich darstellung zu liefern statt dieser planaren auf TFTs und Monitoren...
Elsa 3D Relevator&Co funktionieren ja nur mit röhren...

ob sich dann später trotzdem hohe auflösungen realisierern lassen bleibt abzuwarten

Mit OLED und SED sind bereits Technologien da, die kurz vor der Marktreife stehen im Monitorbereich. OLEDs werden schon bei MP3 Playern und AFAIK Handies eingesetzt. SED gibt es schon Monitore, die gezeigt worden sind. Das geht in den nächsten 2 Jahren los. Das Schöne ist, dass die Vorteile der CRT und TFT Welt gemischt werden. SED verbraucht wenig Strom, flimmert nicht, hat keine feste native Auflösung mehr und ist flach. Weiterhin keine Schlieren und kein Blickwinkel oder Schwarzlichtproblem mehr. Bei OLED dürfte es ähnlich sein. AFAIK ist SED aber schon etwas näher am Markt als OLED ...letztere haben AFAIR noch Probleme mit der Lebensdauer.

Sunrise
2006-01-07, 14:29:49
Mark Rein will in 1600x1200 spielen und alle Effekte haben, und dann, wenn die Leistung stimmt, vielleicht noch AA. Ich widerspreche Mark Rein hier natürlich und halte AA für prinzipiell wichtig.
Mark Reins Aussagen waren noch nie sonderlich tiefgründig oder (um eine möglichst diplomatische Bezeichnung zu finden) beliebt.

Oblivion
2006-01-07, 14:56:54
Mark Reins Aussagen waren noch nie sonderlich tiefgründig oder (um eine möglichst diplomatische Bezeichnung zu finden) beliebt.

Is nicht wirklich Topic aber für die, die Aussage noch nicht kennen: Kantenglättung ist toll für alte Spiele, bringt aber für aktuelle und künftige Spiele mit aufwendigeren Engines zu große Leistungseinbußen. Ich kann es nicht ertragen, wenn unsere Engine durch Kantenglättung auf sechs Bilder pro Sekunde einbricht.

Coda
2006-01-07, 15:17:03
Die PS ALUs meine ich.Xenos hat nur eine Art von ALUs. Ich denke ATI hat da schon etwas vom PC-Design übernommen und nicht das Rad neu erfunden ;)

Fetch 4 hat das gleiche feste Sample Muster wie das was nVidia für PCF nutzt.Hast ja recht. Ich finde trotzdem dass dafür rotierte Muster deutlich besser sind und man es deshalb nicht fest verdrahten sollte.

robbitop
2006-01-07, 15:20:49
Xenos hat nur eine Art von ALUs. Ich denke ATI hat da schon etwas vom PC-Design übernommen und nicht das Rad neu erfunden ;)

Nein nein ich meine die PS ALUs vom R520 ;)
Bei den VS ALUs könnt ich mir es schon eher vorstellen. Aber theoretisch könnte man die auch einfach je nach Aufgabe einfach abwandeln.

Demirug
2006-01-07, 15:25:45
Hast ja recht. Ich finde trotzdem dass dafür rotierte Muster deutlich besser sind und man es deshalb nicht fest verdrahten sollte.

Das ist eine Schattentextur. Was willst du da rotieren? Wenn man die nicht vollständig für den betroffenen Bereich abtastete hat man sowieso wieder unterfiltert.

Coda
2006-01-07, 15:27:30
Den Filterkernel abhängig von vPos. Gibt dann eher ein Rauschen anstatt den üblichen Blockartefakten. Das sieht man nicht so.

Gast
2006-01-07, 16:19:13
SED verbraucht wenig Strom, flimmert nicht, hat keine feste native Auflösung mehr und ist flach. Weiterhin keine Schlieren und kein Blickwinkel oder Schwarzlichtproblem mehr. Bei OLED dürfte es ähnlich sein. AFAIK ist SED aber schon etwas näher am Markt als OLED ...letztere haben AFAIR noch Probleme mit der Lebensdauer.


doch, sowohl SED als auch OLED haben eine fixe auflösung uns müssen alle andere interpolieren (im prinzip hat sogar ein CRT eine "fixe" auflösung, nur ist diese nicht wirklich erreichbar, so dass er immer interpoliert)

beide haben ein fixes pixelraster, beim einen aus nanoröhren und beim anderen eben aus den OLEDs aufgebaut.

mit den anderen punkten hast du aber natürlich recht, schlieren gibt es keine mehr, schwarz ist wirklich schwarz, und der blickwinkel ist auch unproblematisch (bei pva-panels allerdings auch).