Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
xL|Sonic
2005-03-30, 13:42:27
Nunja,
es kann ja sein, dass ähnlich wie bei der x800er Serie es wieder eine XT PE Version mit 32 pipes gibt, die extrem selten bis gar nicht auf dem Markt erscheint um Benchmarks massiv zu gewinnen und die restliche Ausführung 24 Pipes bekommt (mit deaktivierten oder defekten pipes) und später könnte man ja, wenn der Fertigungsprozess ausgereift ist und der Markt es erfordert dann auch die 32 Pipes forcieren, mit evt. entsprechender Speicheranbindung bzw. generell schnellerem Speicher.
Ailuros
2005-03-30, 16:57:54
Egal ob es jetzt 4, 6 oder 8 quads sind, sind es auf jeden Fall so viele von Anfang an und dabei ist es egal ob die Verfuegbarkeit der high end Modelle relativ gering sein wird.
Was der INQ mal wieder erzaehlt ist der absolute Schwachsinn. Wieso sollte ein IHV so bloed sein, einen 8 quad chip zu entwickeln und mit Absicht selbst die wenigen voll funktionierenden chips als 6 quad Loesungen zu verkaufen ist mir fremd. Erstens einmal eine Verschwendung von Transistoren und zweitens wird der Stromverbrauch ungerechtfertigt hoeher sein als er sein koennte.
Will man heute einen X-quad chip dann wird dieser auch so gebaut; spaetere Refreshes koennen dann immer noch als X+2 gebaut werden, ohne relativ grossen Aufwand.
Jesus
2005-03-30, 17:23:12
Will man heute einen X-quad chip dann wird dieser auch so gebaut; spaetere Refreshes koennen dann immer noch als X+2 gebaut werden, ohne relativ grossen Aufwand.
Das gab es aber eigentlich noch nie, einfach mal 4 pipes dranflanschen :)
Quasar
2005-03-30, 17:23:54
Das gab es aber eigentlich noch nie :)
Was gab es noch nie? Daß Chips in ihrem Vollausbau verkauft wurden oder daß später einfach Quads hinzugeschustert wurden?
Jesus
2005-03-30, 17:24:50
Was gab es noch nie? Daß Chips in ihrem Vollausbau verkauft wurden oder daß später einfach Quads hinzugeschustert wurden?
letzteres
-error-
2005-03-30, 17:49:34
Da kommt mir selbst die Gamestar Angabe von 20 bis 24 Pipes realistischer vor :rolleyes:
Hmm, das hat man jetzt aber schon paar mal gehört, also 24 extreme Pipes entsprechen 32 Pipes.
Cenmocay
2005-03-30, 21:02:21
Da kommt mir selbst die Gamestar Angabe von 20 bis 24 Pipes realistischer vor :rolleyes:
lies mal den text vom inq denn das hast du nicht
Demirug
2005-03-30, 21:09:09
Hmm, das hat man jetzt aber schon paar mal gehört, also 24 extreme Pipes entsprechen 32 Pipes.
Diese "extreme Pipes" waren aber auch schon in Verbindung mit dem R420 im Umlauf.
Ailuros
2005-03-31, 10:58:12
Das gab es aber eigentlich noch nie, einfach mal 4 pipes dranflanschen :)
4 "pipes" aka 1 quad wohl nicht; eher wohl gleich 4 quads.
***edit: und das genauso im relativen Sinn wie auch im vorigen Post; wie fundamental sind die Aenderungen pro quad zwischen R3xx und R4xx genau? (110M fuer 2 quads R3xx, 160M fuer 4 quads R4xx *hust*).
Ailuros
2005-03-31, 11:05:34
Hmm, das hat man jetzt aber schon paar mal gehört, also 24 extreme Pipes entsprechen 32 Pipes.
Koennte durchaus auch sein dass man die Faehigkeiten der ROPs falsch gelesen bzw. interpretiert hat. Es wird ja auch nicht das erste Mal sein wo 32 in ATI Dokumenten (betreffend Z/stencil) auftaucht.
zeckensack
2005-03-31, 15:01:20
4 "pipes" aka 1 quad wohl nicht; eher wohl gleich 4 quads.
***edit: und das genauso im relativen Sinn wie auch im vorigen Post; wie fundamental sind die Aenderungen pro quad zwischen R3xx und R4xx genau? (110M fuer 2 quads R3xx, 160M fuer 4 quads R4xx *hust*).1)Längere Shader (>=512 vs >=112 Instruktionen pro Pass)
2)Zusätzliche Logik für brilineare Filter
robbitop
2005-03-31, 15:02:31
1)Längere Shader (>=512 vs >=112 Instruktionen pro Pass)
2)Zusätzliche Logik für brilineare Filter
selbst für einen Refresh wäre das IMO noch zu wenig.
mapel110
2005-03-31, 15:11:50
selbst für einen Refresh wäre das IMO noch zu wenig.
Immerhin mehr als ein nie zu benutzender F-Buffer und Smoothvision 2.0 auf 2.1, wo nur auf TRI verzichten wird beim AF auf non-primary stages(R300->R350). :ugly:
robbitop
2005-03-31, 15:13:03
Immerhin mehr als ein nie zu benutzender F-Buffer und Smoothvision 2.0 auf 2.1, wo nur auf TRI verzichten wird beim AF auf non-primary stages(R300->R350). :ugly:
Ich bin der Meinung, dass all das im R300 vorhanden ist, allerdings erst im R350 "freigeschaltet" wurde. An ATI kann man sich was Refreshes angeht nicht orientieren. Die brachten nie echte Refreshes.
Ailuros
2005-03-31, 15:25:32
1)Längere Shader (>=512 vs >=112 Instruktionen pro Pass)
2)Zusätzliche Logik für brilineare Filter
Fuegt jetzt ein IHV einem existierenden Design in der Zukunft nochmal 2 mehr quads hinzu, ist da der Aufwand theoretisch groesser?
Es ging ja darum dass es angeblich nie einen Fall gab wo man einfach quads hinzupappte; im relativem Sinn ist es aber schon geschehen. Ein theoretischer 6-quad Nachfolger fuer NV40 wuerde auch nicht unbedingt mehr Aufwand bedeuten als das obrige und gleiches gilt natuerlich auch theoretisch fuer jegliche R5xx Nachfolger (obwohl der R580 doch woanders aufgepumpt wird als mit der Anzahl der quads).
mapel110
2005-03-31, 15:26:46
Ich bin der Meinung, dass all das im R300 vorhanden ist, allerdings erst im R350 "freigeschaltet" wurde.
Türlich, einfach nur das Design leicht modifiziert zur höheren Taktbarkeit. Mehr wird da nicht passiert sein.
An ATI kann man sich was Refreshes angeht nicht orientieren. Die brachten nie echte Refreshes.
Najo, Geforce3 ->> Geforce ti 500; sowas gibts also bei nvidia auch, auch wenn der Unterschied in den Codenamen bei nvidia wohl geringer ist, als bei ATI.
Ailuros
2005-03-31, 15:29:58
Ich bin der Meinung, dass all das im R300 vorhanden ist, allerdings erst im R350 "freigeschaltet" wurde. An ATI kann man sich was Refreshes angeht nicht orientieren. Die brachten nie echte Refreshes.
Kommt ganz drauf an wie Du "Refresh" definierst. Hoehere Takraten sind schon gut genug fuer einen Refresh; im Fall von NVIDIA gab es so einige der letzteren wie z.B GF2 PRO/Ultra, Ti500 u.a.
robbitop
2005-03-31, 15:33:21
Nah! Das waren alles keine Refreshes, da sie sogar auf den selben Core setzten. GF2 pro/Ultra war derselbe NV15 Core wie die GTS, nur eben selektiert. Selbiges mit der Ti Reihe.
Aber:
NV10 ->NV15
NV20 -> NV25
NV30 -> NV35
das waren IMO noch echte Refreshes. Mehr pro Taktleistung.
Übertakten und eine passende Validation sind für mich kein Refresh.
tombman
2005-03-31, 15:53:31
Ok, die Meldung is vom INQ, aber trotzdem.
http://www.the-inquirer.com/?article=22202
Es scheint so als ob zuerst nur 24 pipelines aktiviert werden, und später je nach Bedarf und Konkurrenz (:naughty:) auf die vollen 32 pipelines aufgeschalten wird :D Im AMR Modus wären das dann bis zu 64 pipelines die für einen gamer schufften müssen :D :hammer:
Und wenn ich ne Frau wäre, wär ich jetzt feucht ;)
deekey777
2005-03-31, 15:57:44
Wissen wir schon, denn für solche Meldungen gibt's einen Thread im Speku-Bereich.
PingpiN
2005-03-31, 16:00:13
Wissen wir schon, denn für solche Meldungen gibt's einen Thread im Speku-Bereich.
Glaubt ihr das ein R520 schneller sein würde als 2 6800 ULTRAS ? : :cool:
Silent3sniper
2005-03-31, 16:01:59
Dann noch Preise unter 100€ und ich kauf mir bei jeder neuen Grafikkartengeneration eine neue Graka :ugly:
deekey777
2005-03-31, 16:02:34
Glaubt ihr das ein R520 schneller sein würde als 2 6800 ULTRAS ? : :cool:
Hängt vom Performancegewinn mit SLI ab. Ist aber davon auszugehen.
Glaubt ihr das ein R520 schneller sein würde als 2 6800 ULTRAS ? : :cool:
Mit Sicherheit!
mapel110
2005-03-31, 16:05:21
Wenns auf Speicherbandbreite ankommt, sollte SLI mit den 6800 Ultras schneller sein. Es sei denn, R520 hat 512bit Speicherinterface, aber das scheint ausgeschlossen.
p.s. *merge*
im ATI-Hilfe-Forum ists doch etwas ungünstig.
Es sei denn, R520 hat 512bit Speicherinterface, aber das scheint ausgeschlossen.
Wieso? Als die 256bit PCBs mit dem R300 kamen, meinten vorher auch alle, dass ein 256bit PCB unmöglich sei.
Guter Punkt. Ich frage mich, welcher RAM bei "nur" 256Bit genug Bandbreite für ein 8 Quad-Monster bereitstellen soll. 1,5-2 GHz DDR-Speicher? Ansonsten verpufft die Power erstmal, bzw. man kann AF "4 free" aktivieren. Wobei das im Laufe der Zeit immer weniger werden sollte, da immer mehr Shaderpower gefragt ist.
MfG,
Raff
Und wenn man mal an HDR denkt, was schon ein Viertel der Bandbgreite nutzen wird im Falle von 256bit, dann spricht vieles für den Kraftakt einer 512bittigen Anbindung.
Ailuros
2005-03-31, 17:28:35
Wenns auf Speicherbandbreite ankommt, sollte SLI mit den 6800 Ultras schneller sein. Es sei denn, R520 hat 512bit Speicherinterface, aber das scheint ausgeschlossen.
p.s. *merge*
im ATI-Hilfe-Forum ists doch etwas ungünstig.
Rechnest Du 2*35.2GB/sec? Da liegt aber ein PCI-E bus dazwischen. Die Antwort waere wohl korrekter wenn Du sagen wuerdest, das es so sein koennte wo immer die Bandbreite nicht besonders limitiert, ergo in shader/AF-lastigen Faellen als Beispiel und dabei darf das Spiel auch nicht allzu viele RTTs haben.
12.8GPixels/sec wird R520 wohl nicht erreichen, ausser ATI schraubt einen industriellen Luefter an das Ding und taktet es mit 800MHz. Sonst eben 6 quads@533MHz, aber ich bin bei den 4 quads immer noch steckengeblieben bis sich das Gegenteil beweisst.
Ailuros
2005-03-31, 17:36:03
Nah! Das waren alles keine Refreshes, da sie sogar auf den selben Core setzten. GF2 pro/Ultra war derselbe NV15 Core wie die GTS, nur eben selektiert. Selbiges mit der Ti Reihe.
Aber:
NV10 ->NV15
NV20 -> NV25
NV30 -> NV35
das waren IMO noch echte Refreshes. Mehr pro Taktleistung.
Übertakten und eine passende Validation sind für mich kein Refresh.
Fuer Dich vielleicht nicht, aber solange diverse Varianten eines Produkts mit verschiedenen Taktraten und einem hoeheren Strassenpreis verkauft werden verdienen sie auch diesen Titel.
Genauso wie 9700PRO->9800PRO->9800XT oder jetzt R420->R480.
Die NV2x/Ti Reihe war ein quasi Lueckenfueller um die Verspaetungen durch den Xbox Design zu maskieren (ergo wurden auch NV25 und NV30 um jeweils ein Halbjahr verschoben); der eigentlich geplante Refresh fuer NV20 haette nach 6 Monaten NV25 sein sollen; da hast Du natuerlich Recht.
Nur was der Verbraucher auf den Regalen sieht ist viel wichtiger als die wahre Geschichte hinter den Kulissen.
robbitop
2005-03-31, 18:19:38
Fuer Dich vielleicht nicht, aber solange diverse Varianten eines Produkts mit verschiedenen Taktraten und einem hoeheren Strassenpreis verkauft werden verdienen sie auch diesen Titel.
Genauso wie 9700PRO->9800PRO->9800XT oder jetzt R420->R480.
Die NV2x/Ti Reihe war ein quasi Lueckenfueller um die Verspaetungen durch den Xbox Design zu maskieren (ergo wurden auch NV25 und NV30 um jeweils ein Halbjahr verschoben); der eigentlich geplante Refresh fuer NV20 haette nach 6 Monaten NV25 sein sollen; da hast Du natuerlich Recht.
Nur was der Verbraucher auf den Regalen sieht ist viel wichtiger als die wahre Geschichte hinter den Kulissen.
Die Sichtweise ist mir zu oberflächlich.
Die Sichtweise ist mir zu oberflächlich.
Worauf beziehst Du dich?
zeckensack
2005-03-31, 20:18:51
selbst für einen Refresh wäre das IMO noch zu wenig.Was hat das damit zu tun? :conf2:
Ailuros wollte wissen worin sich die Quadpipes zwischen R3xx und R4xx unterscheiden, und das ist nunmal die Antwort. Die Gesamtperformance ist aufgrund der verdoppelten Quad-Anzahl und höherer Takte natürlich auch gestiegen.
Wenn dir das, wie du sagst, für einen Refresh nicht reicht, dann betrachtest du R420 nicht als brauchbaren R300-Refresh, oder wie oder was? :|
Wieso? Als die 256bit PCBs mit dem R300 kamen, meinten vorher auch alle, dass ein 256bit PCB unmöglich sei.
Wenn du dir die 3DCenter-Artikel des Jahres 2002 anschaust, wirst du sehen dass ein paar Monate vor dem R300 schon zwei andere Hersteller ihre Karten mit 256bit-Interface vorstellten. Und nicht wenige hatten sich das vom NV30 auch erhofft.
Ein Problem eines 512bit-Interfaces wäre, dass man keine Karten mit weniger als 512MiB anbieten könnte. Denn dafür braucht man 16 x32-Speicherbausteine, welche es aber bei GDDR3 kleiner als 256Mib gar nicht gibt.
robbitop
2005-04-01, 07:31:12
Wenn dir das, wie du sagst, für einen Refresh nicht reicht, dann betrachtest du R420 nicht als brauchbaren R300-Refresh, oder wie oder was? :|
partiell richtig ;)
Jedoch stieg die Anzahl der Ausführungseinheiten an und steigerte die pro Takt Leistung. Bri gabs ja schon im RV350. Als Refresh würd ichs also durchgehen lassen. Die Leistung spricht natürlich eine andere Sprache.
Quasar
2005-04-01, 07:55:51
Ein Problem eines 512bit-Interfaces wäre, dass man keine Karten mit weniger als 512MiB anbieten könnte. Denn dafür braucht man 16 x32-Speicherbausteine, welche es aber bei GDDR3 kleiner als 256Mib gar nicht gibt.
Wäre das wirklich ein echtes Problem? Eigentlich wird GDDR3 doch eher wegen hoher Taktraten verwendet (und der Leistungsersparnis bei eben diesen hohen Taktraten). Wenn ich jetzt eine vermeintliche Abspeck-Version des R520 mit 256MB anbieten wollte, bei der, sagen wir, noch 3 Quads aktiv sind, könnte ich für vergleichbare Bandbreite anstelle von 256Bit-DDR-500MHz-GDDR3 doch problemlos 512Bit-DDR-300MHz-DDR1 benutzen.
Ähnlich machen es doch die GF6800, LE oder 5900XT vor: Breite Anbindung statt hoher Taktraten, wie bsw. die 6600GT sie bietet.
Ailuros
2005-04-01, 08:39:23
Die Sichtweise ist mir zu oberflächlich.
Wieso? Sobald ein respin fuer hoehere Taktraten einsetzt (was auch meistens der Fall ist), entfaellt erstmal die quasi Uebertaktung die Du erwaehnt hast.
Es ist ja nicht so dass "Refresh" irgend etwas besonderes designiert, sondern eher etwa aehnliches vom gleichen Zeug mit X mehr (oder manchmal weniger) Kleinigkeiten. Fundamentale Aenderungen in der Architektur (und auch Algorithmen) gibt es ja nie. Meistens dann eben um X-Prozent schneller.
NVIDIA griff uebrigens zu Refreshes mit etwas mehr als nur hoeheren Taktraten stets wenn man entweder eine Luecke fuellen wollte oder einfach mit der Konkurrenz mithalten zu koennen.
Um es noch deutlicher zu machen falls NVIDIA vor Q3/4 einen NV4x Refresh tatsaechlich veroeffentlicht, sehe ich eigentlich nur 2 Optionen fuer die Zeit als man Entscheidungen getroffen hat:
a) quad-Anzahl erhoehen auf einem mit 130nm "verwandten" Herstellungsprozess
b) Taktrate erhoehen und der Umschwung auf 90nm
Hab ich jetzt theoretisch in der einen Hand 6 quads @ =/>400MHz oder 4 quads @ =/> 600MHz, sind wohl beide eigentlich Refreshes nur ist der Aufwand im zweiten Fall um einiges groesser.
Es gibt schon Geruechte ueber einen 2*NV41@110nm aehnlichen chip; falls das Zeug auch fuer die Anzahl der VS Einheiten zustimmen sollte, versucht man nur damit die Leistung fuer theoretische 8*700MHz der Konkurrenz zu kompensieren.
robbitop
2005-04-01, 09:40:22
ich tippe auf Variante a) ;)
Ailuros
2005-04-01, 10:15:03
Wenn du dir die 3DCenter-Artikel des Jahres 2002 anschaust, wirst du sehen dass ein paar Monate vor dem R300 schon zwei andere Hersteller ihre Karten mit 256bit-Interface vorstellten. Und nicht wenige hatten sich das vom NV30 auch erhofft.
Ein Problem eines 512bit-Interfaces wäre, dass man keine Karten mit weniger als 512MiB anbieten könnte. Denn dafür braucht man 16 x32-Speicherbausteine, welche es aber bei GDDR3 kleiner als 256Mib gar nicht gibt.
Womoeglich ne bloede Frage: wuerde sich die Unterteilung eines Speichercontrollers aendern bei mehr als 4 quads?
Ailuros
2005-04-01, 10:18:47
ich tippe auf Variante a) ;)
Ende des Jahres kommt Variante b) nur mit >4 quads. Beide sind Refreshes ;)
robbitop
2005-04-01, 11:19:39
Womoeglich ne bloede Frage: wuerde sich die Unterteilung eines Speichercontrollers aendern bei mehr als 4 quads?
Ist doch alles durch Crossbars entkoppelt.
Ende des Jahres kommt Variante b) nur mit >4 quads. Beide sind Refreshes
hu?
Exxtreme
2005-04-01, 11:53:58
Könnte ein Aprilscherz sein!
4 quads of 8 pipes, 3 quads enabled out of the gate depending on nV response
shooting for ~700c/~800m
350 to 380 transistors
90nm low-k
Shader Model 3.0+, FP32, _pp, etc full DX9c support and more
16x MSAA with SSAA and mixed modes at lower levels
8192 x 8192 texture support
it will be known as X900 with XL, XT and XTPE versions. They'll be at the beta testers store shortly, same coupon code as before.
http://www.rage3d.com/board/showthread.php?t=33810319
Ailuros
2005-04-01, 11:56:55
hu?
H2 2005 = 90nm NV4x-Refresh
ShadowXX
2005-04-01, 12:07:26
Könnte ein Aprilscherz sein!
4 quads of 8 pipes, 3 quads enabled out of the gate depending on nV response
shooting for ~700c/~800m
350 to 380 transistors
90nm low-k
Shader Model 3.0+, FP32, _pp, etc full DX9c support and more
16x MSAA with SSAA and mixed modes at lower levels
8192 x 8192 texture support
it will be known as X900 with XL, XT and XTPE versions. They'll be at the beta testers store shortly, same coupon code as before.
http://www.rage3d.com/board/showthread.php?t=33810319
Wenn die Daten stimme, muss nV hoffen das das wirklich nur ein Aprilscherz ist....
Interesannterweise fehlen aber auch bei diesen Angaben, die Angaben über den Speicherbus bzw. die Taktfrequenz des Rams.
Ailuros
2005-04-01, 12:10:17
4 quads of 8 pipes, 3 quads enabled out of the gate depending on nV response
Was sind "4 quads of 8 pipes"?
1 quad = 4 SIMD Kanaele = "4 pipes" (wie wir wohl alle wissen)
Das Ziel liegt tatsaechlich bei 700MHz was den core betrifft, aber siehe eher ultra-high-end. Was nun 800MHz GDDR3 betrifft, wie lange ist es her dass X850XT PE auf Regalen erschienen ist? Dabei ging es von R420/560MHz auf R480/590MHz GDDR3.
Uebrigens sind 3 quads *700MHz eigentlich 8.4GPixels/sec, wobei R480 schon 8.6GPixels/sec sind ;)
Ailuros
2005-04-01, 12:13:12
Wenn die Daten stimme, muss nV hoffen das das wirklich nur ein Aprilscherz ist....
Interesannterweise fehlen aber auch bei diesen Angaben, die Angaben über den Speicherbus bzw. die Taktfrequenz des Rams.
Gibt es eigentlich 8-way SIMDs? (siehe vorigen Post)
****edit:
700c/800m deutet wohl auf 700MHz core und 800MHz GDDR3....
ShadowXX
2005-04-01, 12:14:38
Was sind "4 quads of 8 pipes"?
1 quad = 4 SIMD Kanaele = "4 pipes" (wie wir wohl alle wissen)
Das Ziel liegt tatsaechlich bei 700MHz was den core betrifft, aber siehe eher ultra-high-end. Was nun 800MHz GDDR3 betrifft, wie lange ist es her dass X850XT PE auf Regalen erschienen ist? Dabei ging es von R420/560MHz auf R480/590MHz GDDR3.
Uebrigens sind 3 quads *700MHz eigentlich 8.4GPixels/sec, wobei R480 schon 8.6GPixels/sec sind ;)
Du hast recht....als ich den Text gelesen habe, ist mir gar nicht aufgefallen, das sich "quads" und 8 irgendwie beisst....
@AiL
warum sollte es sowas nicht geben? Von der Theorie her bestimmt machbar. Nur würde es dann wohl nicht "quads" sondern "octs" (oder so) heissen.
Ich gehe allerdings mehr von einem Aprilscherz aus....
Es könnte natürlich sein, das es im "orginal" hies: "a quad acting like 8 pipes" (oder so ähnlich).
Dann wirds wieder ein ganzes Stück realistischer...
Ailuros
2005-04-01, 12:22:47
@AiL
warum sollte es sowas nicht geben? Von der Theorie her bestimmt machbar. Nur würde es dann wohl nicht "quads" sondern "octs" (oder so) heissen.
Ich gehe allerdings mehr von einem Aprilscherz aus....
4 quads of 8 pipes ist ein Oxymoron (wie Du schon bemerkt hast).
Ich bin zwar nur ein Laie aber ich hab bis jetzt nur von 4-way SIMDs gehoert bzw. gelesen.
Ailuros
2005-04-01, 12:30:54
Es könnte natürlich sein, das es im "orginal" hies: "a quad acting like 8 pipes" (oder so ähnlich).
Bei Zixeln vielleicht? ;D
Ich hab das Gefuehl dass man hier eher R580 (16/1/3/1) mit R520 (16/1/1/1) verwirrt, denn der Satz oben koennte unter Umstaenden auf Texturen bezogen Sinn machen (relativ). Nach Wavey soll die letzte Zahl rechts fuer Z/stencil stehen.
Exxtreme
2005-04-01, 12:55:42
OK Leute, das ist ein Aprilscherz. Ich habe die Bestätigung dafür. ;)
deekey777
2005-04-01, 13:01:57
OK Leute, das ist ein Aprilscherz. Ich habe die Bestätigung dafür. ;)
Lass mich raten: Du hast den NV48 in die Hände bekommen und aus dessen Spezifikationen leitest du die Specs für den R520. Alles ist relativ im Umkehrschluß.*
*Der Sinn dieses Postings bleibt dem Verfasser vorbehalten.
Exxtreme
2005-04-01, 13:06:17
Lass mich raten: Du hast den NV48 in die Hände bekommen und aus dessen Spezifikationen leitest du die Specs für den R520. Alles ist relativ im Umkehrschluß.*
*Der Sinn dieses Postings bleibt dem Verfasser vorbehalten.
Nein, nicht ganz. Ich habe eine offizielle Bestätigung, daß das ein Aprilscherz ist. =)
Ailuros
2005-04-01, 13:08:52
OK Leute, das ist ein Aprilscherz. Ich habe die Bestätigung dafür. ;)
Och eigentlich nicht allzu viel schlimmer als der restliche Quark der hier und da mal ueber jegliche zukuenftige Graka kursiert :D
Wäre das wirklich ein echtes Problem? Eigentlich wird GDDR3 doch eher wegen hoher Taktraten verwendet (und der Leistungsersparnis bei eben diesen hohen Taktraten). Wenn ich jetzt eine vermeintliche Abspeck-Version des R520 mit 256MB anbieten wollte, bei der, sagen wir, noch 3 Quads aktiv sind, könnte ich für vergleichbare Bandbreite anstelle von 256Bit-DDR-500MHz-GDDR3 doch problemlos 512Bit-DDR-300MHz-DDR1 benutzen.
Ähnlich machen es doch die GF6800, LE oder 5900XT vor: Breite Anbindung statt hoher Taktraten, wie bsw. die 6600GT sie bietet.
Möglich wäre das, allerdings rechne ich nicht damit dass man den "vollen" R520 nur mit 512MiB bekommt.
Womoeglich ne bloede Frage: wuerde sich die Unterteilung eines Speichercontrollers aendern bei mehr als 4 quads?
Das glaube ich nicht, nur wenn das Interface selbst breiter würde vielleicht.
Übrigens, statt NV41@110nm kannst du auch einfach NV42 schreiben ;)
r3ptil3
2005-04-01, 13:55:59
Könnte ein Aprilscherz sein!
4 quads of 8 pipes, 3 quads enabled out of the gate depending on nV response
shooting for ~700c/~800m
350 to 380 transistors
90nm low-k
Shader Model 3.0+, FP32, _pp, etc full DX9c support and more
16x MSAA with SSAA and mixed modes at lower levels
8192 x 8192 texture support
it will be known as X900 with XL, XT and XTPE versions. They'll be at the beta testers store shortly, same coupon code as before.
http://www.rage3d.com/board/showthread.php?t=33810319
das kein gar kein aprilscherz sein, seht doch mal seit wan dieser thread offen seit, seit januar !
deekey777
2005-04-01, 13:59:11
das kein gar kein aprilscherz sein, seht doch mal seit wan dieser thread offen seit, seit januar !
Lies dir doch den Thread durch.
Exxtreme
2005-04-01, 14:01:37
das kein gar kein aprilscherz sein, seht doch mal seit wan dieser thread offen seit, seit januar !
Lies den Thread GENAU!
ShadowXX
2005-04-01, 14:06:16
Nein, nicht ganz. Ich habe eine offizielle Bestätigung, daß das ein Aprilscherz ist. =)
Du hast also einen r520 in den Händen ;D
(just a joke)
Exxtreme
2005-04-01, 14:19:21
Du hast also einen r520 in den Händen ;D
(just a joke)
Darf ich nicht sagen. ;(
Aber der Thread dort ist ein Aprilscherz. Das weiss ich 100%'ig da ich eine offizielle Bestätigung habe.
robbitop
2005-04-01, 15:39:51
Du hast also einen r520 in den Händen ;D
(just a joke)
so wie der Typ von Rage3D damals (oder wars Driverheaven?) :D
Leonidas
2005-04-02, 12:38:29
Könnte ein Aprilscherz sein!
http://www.rage3d.com/board/showthread.php?t=33810319
Alles, was sich "Shader Model 3.0+" nennt, ist ein Aprilscherz. Dafür brauch ich nichtmal eine Bestätigung.
Leonidas
2005-04-02, 12:39:44
Möglich wäre das, allerdings rechne ich nicht damit dass man den "vollen" R520 nur mit 512MiB bekommt.
Es ist ziemlich sicher, daß es jenen als 256MB und als 512MB geben wird.
Leonidas
2005-04-02, 12:40:22
Du hast also einen r520 in den Händen ;D
Nein. Kommt erst im Juni.
ShadowXX
2005-04-02, 13:43:53
Nein. Kommt erst im Juni.
Ich sollte anfangen mit "ironie on/off"-Tags zu schreiben......
Das Exxtreme keinen r520 hat, war wohl (uns allen) klar.
Interessant beim r520 werden wohl eigentlich nur 4 Fragen:
a.) 16 oder 24 Pipes (ich tendiere zu 16)
b.) wie "schnell" ist SM3.0 (im vergleich zum nv40)
c.) Hat er "besseres" AF als r3x0/r4x0
d.) gibts noch mehr "Filtertricks"
Das er "echtes" HDR beherschen wird setze ich einfach mal vorraus....
reunion
2005-04-02, 14:24:25
a.) 16 oder 24 Pipes (ich tendiere zu 16)
Das ist mir zu eingeschränkt gedacht.
Die Pipeanzahl ist eigendlich irrelevant, um daraus etwas ableiten zu können müsste man wissen wieviel eine Pipe leisten kann.
Sehr intressant wäre im übrigen auch die verfügbare Speicherbandbreite.
Ailuros
2005-04-02, 14:27:28
Übrigens, statt NV41@110nm kannst du auch einfach NV42 schreiben ;)
Stimmt :) NV42 ist der 3 quad@450MHz (momentan) oder?
Interessant beim r520 werden wohl eigentlich nur 4 Fragen:
a.) 16 oder 24 Pipes (ich tendiere zu 16)
b.) wie "schnell" ist SM3.0 (im vergleich zum nv40)
c.) Hat er "besseres" AF als r3x0/r4x0
d.) gibts noch mehr "Filtertricks"
a) Kommt ganz drauf an was das eigentliche Ziel war. Verfuegbare Bandbreite mit X-GDDR3 kann sich wohl nicht aendern; die Frage ist dann wohl eher ob man mit dieser Bandbreite ueberhaupt noch einen nennenswerten Unterschied zwischen z.B. 11 und 16GPixels/sec sehen koennte (stets relativiert). 6 quads@~700MHz wuerde auch neue Stromverbrauch-rekorde heissen und ich hab hier irgendwie das Gefuehl dass NVIDIA diese "Krone" fuer ultra high end fuer diese Runde auch wieder behalten wird.
b) Hoffentlich erstmal effizienter.
c) R500/Xenon hat 16*1bi AFAIK.
d) *Aechz* hoffentlich nicht. Genug damit :|
reunion
2005-04-02, 14:33:52
c) R500/Xenon hat 16*1bi AFAIK.
Bei jedem Winkel?
Ailuros
2005-04-02, 14:37:12
Das ist mir zu eingeschränkt gedacht.
Die Pipeanzahl ist eigendlich irrelevant, um daraus etwas ableiten zu können müsste man wissen wieviel eine Pipe leisten kann.
Sehr intressant wäre im übrigen auch die verfügbare Speicherbandbreite.
Was eine "pipe" leisten kann? 2*0 erstmal :P
Spass beiseite man kann sich schon eine relative Shaderleistung vorstellen wenn man die Anzahl der quads und die Taktrate. Im Grunde hast Du schon recht, aber relativiert zu heutigen GPUs sah ich 12*475MHz auf X800PRO und 16*350MHz auf 6800GT mit etwa aehnlicher Leistung zwischen diesen.
Mit dieser Logik kann man sich schon eine Vorstellung machen (die aber auch natuerlich nicht sicher sein wird) was eventuell 24*500MHz oder 16*675MHz geben koennte oder?
Obwohl SM3.0, sind ein paar Grundsaetze der pipeline von der vorigen Generation immer noch in R520 vorhanden; in dem Bereich macht der R500 einen anderen Absatz und hat sich da die vereinten Einheiten der 6er Generation "geliehen".
Ailuros
2005-04-02, 14:39:11
Bei jedem Winkel?
Ich verstehe Deine Frage nicht. Ich sagte nur dass es 16 bilineare TMUs haben soll. Waeren es tri-TMUs gewesen koennte ich auf das Verzichten von Winkel-abhaengigkeit vielleicht spekulieren.
Mr. Lolman
2005-04-02, 14:59:47
Ich sollte anfangen mit "ironie on/off"-Tags zu schreiben......
Das Exxtreme keinen r520 hat, war wohl (uns allen) klar.
Interessant beim r520 werden wohl eigentlich nur 4 Fragen:
a.) 16 oder 24 Pipes (ich tendiere zu 16)
b.) wie "schnell" ist SM3.0 (im vergleich zum nv40)
c.) Hat er "besseres" AF als r3x0/r4x0
d.) gibts noch mehr "Filtertricks"
Das er "echtes" HDR beherschen wird setze ich einfach mal vorraus....
Imo sind auch 32 Pipes nicht allzu unrealistisch. (auch wenn mit nem 256bit Interface der Einbruch mit SSAA wohl geringer wär als bei MSAA ;))
Ich war auch der Erste im Forum hier, der fest davon überzeugt war, dass der R420 mit 16 Pipes kommt (zu einem Zeitpunkt wo das noch jeder für unrealistisch hielt)
Ailuros
2005-04-02, 15:08:43
Imo sind auch 32 Pipes nicht allzu unrealistisch. (auch wenn mit nem 256bit Interface der Einbruch mit SSAA wohl geringer wär als bei MSAA ;))
Es wird sowieso nach den bisherigen Angaben keine Supersampling-Unterstuetzung auf R520 geben.
Ich war auch der Erste im Forum hier, der fest davon überzeugt war, dass der R420 mit 16 Pipes kommt (zu einem Zeitpunkt wo das noch jeder für unrealistisch hielt)
Nur leider munkelt man von Frequenzen die ueber 650MHz steigen sollen und diesmal sind es auch keine SM2.0/SM2.0+ SIMDs mehr.
Demirug
2005-04-02, 15:24:42
Es wird sowieso nach den bisherigen Angaben keine Supersampling-Unterstuetzung auf R520 geben.
Das Problem habe ich inzwischen mehr oder mider gelösst.
Ailuros
2005-04-02, 15:35:45
Das Problem habe ich inzwischen mehr oder mider gelösst.
Wie meinen? (ich muss wohl den relevanten Post/Aussage verpasst haben, falls es einen solchen gab).
Adam D.
2005-04-02, 15:37:44
Naja, Demi hat ja SS-Support auch für R3XX hinbekommen (DXTweaker), also sollte er es auch für den R520 schaffen. Glaube ich... :redface:
Ailuros
2005-04-02, 15:58:39
Ach so. Hat eigentlich jemand eine Ahnung wo der Leistungsverlust mit 4xOGSS (Fuellraten-limitiertes Messprogramm/Benchmark bevorzugt) auf R3xx/4xx liegt?
Demirug
2005-04-02, 15:59:43
Ach so. Hat eigentlich jemand eine Ahnung wo der Leistungsverlust mit 4xOGSS (Fuellraten-limitiertes Messprogramm/Benchmark bevorzugt) auf R3xx/4xx liegt?
Frag mal Raff der hat ein wenig gebencht.
xL|Sonic
2005-04-02, 17:39:21
Selbst die jetzigen ATI Chips können doch von Hause aus SSAA, auch wenns nur beim Mac per Treiber auswählbar ist.
MarcWessels
2005-04-02, 18:41:02
Imo sind auch 32 Pipes nicht allzu unrealistisch. (auch wenn mit nem 256bit Interface der Einbruch mit SSAA wohl geringer wär als bei MSAA ;))
Ich war auch der Erste im Forum hier, der fest davon überzeugt war, dass der R420 mit 16 Pipes kommt (zu einem Zeitpunkt wo das noch jeder für unrealistisch hielt)
Dann würde ich glatt wieder auf ATI umsteigen! :D
http://www.tbreak.com/reviews/article.php?id=363
interview mit sapphire r520 wird auch kurz erwähnt
reunion
2005-04-02, 18:48:01
Ich verstehe Deine Frage nicht. Ich sagte nur dass es 16 bilineare TMUs haben soll. Waeren es tri-TMUs gewesen koennte ich auf das Verzichten von Winkel-abhaengigkeit vielleicht spekulieren.
Sorry, dann habe ich dich falsch verstanden.
reunion
2005-04-02, 18:52:25
Imo sind auch 32 Pipes nicht allzu unrealistisch. (auch wenn mit nem 256bit Interface der Einbruch mit SSAA wohl geringer wär als bei MSAA ;))
Benötigt SSAA bei gleicher Sampleanzahl wirklich weniger Bandbreite als MSAA?
AFAIK wird bei SSAA die Auflösung intern "hochskaliert", was ja auch nicht gerade Bandbreitenschonend ist.
Exxtreme
2005-04-02, 19:11:28
Benötigt SSAA bei gleicher Sampleanzahl wirklich weniger Bandbreite als MSAA?
AFAIK wird bei SSAA die Auflösung intern "hochskaliert", was ja auch nicht gerade Bandbreitenschonend ist.
MSAA braucht weniger Bandbreite wenn Colorcompression verfügbar/aktiviert ist, was bei ATi seit dem R300 und bei Nvidia ab dem NV30 drinne ist. Ohne Colorcompression brauchen beide Verfahren IIRC ca. genausoviel Bandbreite.
MadManniMan
2005-04-02, 19:16:43
Hui, obleich ich fast jeden Tag hier unterwegs bin, habe ich jetzt erst diesen Thread entdeckt - ich hatte mich schon gewundert, warum sich niemand um den R520 kümmert :usweet:
Da dieser Thread aber nun schon 92 Seiten, wollte ich darum bitten, mal eine ganz kurze Zusammenfassung zu posten, die die Erkenntnisse dieses Themas zusammenfaßt. Wäre lieb ;(
r3ptil3
2005-04-02, 19:23:05
http://www.tbreak.com/reviews/article.php?id=363
interview mit sapphire r520 wird auch kurz erwähnt
scheint wohl so als wird es auch vom r520 agp geben oder war das auch schon vorher klar?
Jesus
2005-04-02, 19:31:02
Hui, obleich ich fast jeden Tag hier unterwegs bin, habe ich jetzt erst diesen Thread entdeckt - ich hatte mich schon gewundert, warum sich niemand um den R520 kümmert :usweet:
Da dieser Thread aber nun schon 92 Seiten, wollte ich darum bitten, mal eine ganz kurze Zusammenfassung zu posten, die die Erkenntnisse dieses Themas zusammenfaßt. Wäre lieb ;(
Welche Erkenntnisse? Ist doch alles nur Spekulation :rolleyes:
-error-
2005-04-02, 19:38:11
Neue Erkentnisse? So langsam müsste mal etwas Klarheit ans Tageslicht kommen, bis Mai ist es ja nicht mehr lange.
reunion
2005-04-02, 22:16:25
Hui, obleich ich fast jeden Tag hier unterwegs bin, habe ich jetzt erst diesen Thread entdeckt - ich hatte mich schon gewundert, warum sich niemand um den R520 kümmert :usweet:
Da dieser Thread aber nun schon 92 Seiten, wollte ich darum bitten, mal eine ganz kurze Zusammenfassung zu posten, die die Erkenntnisse dieses Themas zusammenfaßt. Wäre lieb ;(
Momentan spekuliert man realistisch betrachtet mit diesen Eckdaten:
Radeon X² 800 XT PE:
-90nm lowk
-16 pipes
-700mhz Core
-700mhz GDDR3
-256-bit Speicherinfance
-SM3.0
reunion
2005-04-02, 22:18:32
MSAA braucht weniger Bandbreite wenn Colorcompression verfügbar/aktiviert ist, was bei ATi seit dem R300 und bei Nvidia ab dem NV30 drinne ist. Ohne Colorcompression brauchen beide Verfahren IIRC ca. genausoviel Bandbreite.
Thx, hab ich mir auch fast gedacht.
Mr. Lolman
2005-04-02, 22:23:32
MSAA braucht weniger Bandbreite wenn Colorcompression verfügbar/aktiviert ist, was bei ATi seit dem R300 und bei Nvidia ab dem NV30 drinne ist. Ohne Colorcompression brauchen beide Verfahren IIRC ca. genausoviel Bandbreite.
Echt? Ich dachte, SSAA geht hauptsächlich auf die Füllrate, so wie eben das schalten auf ne höhere Auflösung vglw mehr Füllrate als Bandbreite zieht (oder stimmt das etwa auch nicht :eek: )
Adam D.
2005-04-02, 22:23:36
Momentan spekuliert man realistisch betrachtet mit diesen Eckdaten:
Radeon X² 800 XT PE:
-90nm lowk
-16 pipes
-700mhz Core
-700mhz GDDR3
-256-bit Speicherinfance
-SM3.0
Ich kenne mich damit nicht so gut aus: Wieviel schneller wäre der R520 denn mit oben genannten Eckadten unter günstigsten Verhältnissen im Vergleich zu R480/NV40?
Mr. Lolman
2005-04-02, 22:25:15
Ich kenne mich damit nicht so gut aus: Wieviel schneller wäre der R520 denn mit oben genannten Eckadten unter günstigsten Verhältnissen im Vergleich zu R480/NV40?
Vielleicht 50%?
Auf jeden Fall zu wenig für ne neue GraKageneration.
mapel110
2005-04-02, 22:25:48
Echt? Ich dachte, SSAA geht hauptsächlich auf die Füllrate, so wie eben das schalten auf ne höhere Auflösung vglw mehr Füllrate als Bandbreite zieht (oder stimmt das etwa auch nicht :eek: )
SSAA braucht gleichermaßen Füllrate und Bandbreite. Steht auch in den AA-Artikeln auf 3DCenter.
Vielleicht 50%?
Auf jeden Fall zu wenig für ne neue GraKageneration.
Wenn es bald Games gibt, die SM3 einsetzen, kann sich der Abstand zur vorigen SM2-Generation aber nochmal merklich erhöhen, wenn SM3 nicht nur für neue Effekte eingesetzt wird, sondern auch um die SM2-Effekte zu beschleunigen.
Adam D.
2005-04-02, 22:29:21
Vielleicht 50%?
Auf jeden Fall zu wenig für ne neue GraKageneration.
Für eine Generation schon. Wäre es ein Refresh, sähe es anders aus. Aber ein bisschen mehr hatte ich mir schon erhofft. Naja, vielleicht irrt ihr euch ja alle und das Teil wird der Überbringer ;D
dildo4u
2005-04-02, 22:30:15
Vielleicht 50%?
Auf jeden Fall zu wenig für ne neue GraKageneration.
Warum?Wie soll ATI 1jahr nach dem R420 100% mher speed bringen und dann noch so nebenbei PS3.0 einbaun? Einzig und allein der 100% sprung von R300 auf r420 hat fast 2jahre gedauert ohne nennenswerte weiterentwicklung des chips selbst.
Cenmocay
2005-04-02, 22:30:53
Vielleicht 50%?
Auf jeden Fall zu wenig für ne neue GraKageneration.
also wenns unter 1024 4xaa 8xaf in farcry oder eq2 50% schneller ist wär ich zufrieden
Mr. Lolman
2005-04-02, 22:31:51
SSAA braucht gleichermaßen Füllrate und Bandbreite. Steht auch in den AA-Artikeln auf 3DCenter.
Wo? Denn wenn, dann widersprechen sich die Artikel ein bisschen:
Eine gewisse Ausnahme bilden hier die KYRO-Karten. Durch ihre besondere Architektur arbeiten sie praktisch nie am Füllratenlimit (das galt jedenfalls jeweils zum Zeitpunkt, als die Karten auf den Markt kamen). Damit wirken sich hohe Auflösungen oder Supersampling weniger auf die Endleistung aus. Zumindest zu ihrem Erscheinen waren sie prinzipiell CPU-limitiert, weshalb man mit Kantenglättung die Performance nicht allzu stark beeinträchtigte.
Auch wenn ich bei meiner V5 Singlechip-Rendering aktivier, bleibt die Speicherbandbreite gleich und die Füllrate sowie die AA Performance verringert sich um die Hälfte...
dildo4u
2005-04-02, 22:32:04
also wenns unter 1024 4xaa 8xaf in farcry oder eq2 50% schneller ist wär ich zufrieden
In der auflösung nie und nimmer.
Mantikor
2005-04-02, 22:32:38
also wenns unter 1024 4xaa 8xaf in farcry oder eq2 50% schneller ist wär ich zufrieden
Hängen die beiden Spiele nicht eher an der CPU?
reunion
2005-04-02, 22:33:51
Vielleicht 50%?
Auf jeden Fall zu wenig für ne neue GraKageneration.
Da R420 vor noch nichtmal einem Jahr vorgestellt wurde verwundert das auch nicht.
Mr. Lolman
2005-04-02, 22:33:56
Warum?Wie soll ATI 1jahr nach dem R420 100% mher speed bringen und dann noch so nebenbei PS3.0 einbaun? Einzig und allein der 100% sprung von R300 auf r420 hat fast 2jahre gedauert ohne nennenswerte weiterentwicklung des chips selbst.
Ja wenns keine Konkurrenz gibt...
edit: Wie war denn das gleich nochmal mit R200 vs. R300? ;)
Cenmocay
2005-04-02, 22:34:41
Hängen die beiden Spiele nicht eher an der CPU?
na dann spiel mal farcry mit geforce 4 mit aa af :biggrin:
Adam D.
2005-04-02, 22:36:59
Hängen die beiden Spiele nicht eher an der CPU?
Jo, eigentlich schon. Da reichen auch 4xAA und 8:1AF nicht. Ich merk's ja selbst bei meinem 3200+, der bei solchen Einstellungen noch limitiert.
Mr. Lolman
2005-04-02, 22:40:47
Wenn es bald Games gibt, die SM3 einsetzen, kann sich der Abstand zur vorigen SM2-Generation aber nochmal merklich erhöhen, wenn SM3 nicht nur für neue Effekte eingesetzt wird, sondern auch um die SM2-Effekte zu beschleunigen.
Sind 10%* für dich merklich, oder übst du dich nur im Marketinggeschwätz? ;) Denn wirklich mehr schafft ne 6800 Ultra nicht mal von SM1.1 -> SM3.0 (Bei SC3)
http://www.firingsquad.com/hardware/splinter_cell_chaos_theory_1/page4.asp
* sind sogar nur ein bisschen mehr als 5%, hatte die falsche Seite verlinkt gehabt (mit AA/AF)
reunion
2005-04-02, 22:46:29
edit: Wie war denn das gleich nochmal mit R200 vs. R300? ;)
Was auch nur aufgrund des verbreiterten Speicherinfance machbar war.
Mr. Lolman
2005-04-02, 22:59:38
Was auch nur aufgrund des verbreiterten Speicherinfance machbar war.
Dann wär die 9500pro nicht so gut dagestanden.
reunion
2005-04-02, 23:14:36
Dann wär die 9500pro nicht so gut dagestanden.
Ist sie das wirklich?
AFAIK lag die 9500pro nur knapp über einer Geforce TI 4K6.
MarcWessels
2005-04-02, 23:14:42
Jo, eigentlich schon. Da reichen auch 4xAA und 8:1AF nicht. Ich merk's ja selbst bei meinem 3200+, der bei solchen Einstellungen noch limitiert.
Naja, kommt auf die Stellen an.
Mit meiner R9700Pro jedenfalls konnte ich FarCry nur in 800x600 + 4xAF spielen, jetzt mit der 6800GT@Ultra (427/1145) @ 1024x768 + 16xAF ohne AA. Außerdem ist (wahrscheinlich durch die größere Anzahl der Pipes?) ein Hakler bei der ersten Unterhaltung im Trainingslevel verschwunden. Meine niedrigste Framerate, die ich bislang mit dem Pentium M @ 2.7GHz hatte (in einem Außenlevel) betrug 51fps, stell ich's so ein, dass gar keine Sprites mehr angezeigt werden (sondern alle Bäume etc. aus Polygonen), sind's 41fps. In dem Fall isses also wieder eine CPU-Limitierung.
Mr. Lolman
2005-04-02, 23:53:37
Ist sie das wirklich?
AFAIK lag die 9500pro nur knapp über einer Geforce TI 4K6.
Stimmt AFAIK. Aber wo lag die 8500? Meistens leicht unter ner Ti4200:
http://www.xbitlabs.com/images/video/tyan-tachyon-g9500pro/ut2003.gif
/edit: Mit AA/AF ist die 9500p sogar richtig geil dagestanden: http://www.xbitlabs.com/images/video/tyan-tachyon-g9500pro/ut2003_fsaa_af.gif
Mr. Lolman
2005-04-02, 23:56:50
Naja, kommt auf die Stellen an.
Mit meiner R9700Pro jedenfalls konnte ich FarCry nur in 800x600 + 4xAF spielen, jetzt mit der 6800GT@Ultra (427/1145) @ 1024x768 + 16xAF ohne AA.
Bist du so empfindlich für niedrige fps? Ich hab FC auf meiner 9700p@400/350
mit 1024x768 4xAA/4x PerfAF bzw mit 1280x1024 2xAA/4xPerf AF gespielt. Gut da gingen die fps schon mal in die sehr tiefen 20er, aber für Singleplayer, und der dafür gebotenen Grafikpracht wars ok :|
MarcWessels
2005-04-02, 23:59:57
Bist du so empfindlich für niedrige fps?
Ja, bin ich! :) Ich freu mich schon darauf, irgendwann FC mit min 60 spielen zu können - im Moment geil ich mich an MP2, Rally Trophy, JK II u.a. in 1600x1200 4xAA 16xAF auf - Bildquali inkl. min 60fps. :D
Exxtreme
2005-04-03, 00:05:54
Echt? Ich dachte, SSAA geht hauptsächlich auf die Füllrate, so wie eben das schalten auf ne höhere Auflösung vglw mehr Füllrate als Bandbreite zieht (oder stimmt das etwa auch nicht :eek: )
SSAA haut auf Bandbreite und Füllrate. Der Unterschied zwischen MSAA und SSAA ist eigentlich recht simpel. Bei SSAA wird alles in höherer Auflösung gerendert und dann runterskaliert. Bei MSAA vor dem Rendern und Runterskalieren geprüft ob der Pixel an einem Polygonrand liegt oder nicht. Ist es der Fall dann werden alle Subpixel gerendert und runterskaliert, was die Füllrate für die einzelnen Subpixel kostet. Ist es nicht der Fall dann wird ein Farbwert rausgehauen, was sehr viel weniger Füllrate kostet und zwar nur für einen Pixel. Deshalb kann man nicht sagen, daß MSAA keinerlei Füllrate kostet denn die Polygonkanten müssen nach wie vor gegättet werden. Für die Polygoninnenflächen sind dann die Texturfilter da. Ausnahmen sind mal wieder Alphatexturing etc. Da wirkt weder der Texturfilter noch das MSAA.
mapel110
2005-04-03, 00:12:21
Sind 10%* für dich merklich, oder übst du dich nur im Marketinggeschwätz? ;) Denn wirklich mehr schafft ne 6800 Ultra nicht mal von SM1.1 -> SM3.0 (Bei SC3)
http://www.firingsquad.com/hardware/splinter_cell_chaos_theory_1/page4.asp
* sind sogar nur ein bisschen mehr als 5%, hatte die falsche Seite verlinkt gehabt (mit AA/AF)
Ich rede auch von SM2-Shader, die man mit SM3 vereinfachen könnte. :|
Mr. Lolman
2005-04-03, 00:14:49
Ich rede auch von SM2-Shader, die man mit SM3 vereinfachen könnte. :|
Stimmt. War'n Denkfehler.
Quasar
2005-04-03, 00:42:36
Wo? Denn wenn, dann widersprechen sich die Artikel ein bisschen:
Wo ist da der Widerspruch?
Auch wenn ich bei meiner V5 Singlechip-Rendering aktivier, bleibt die Speicherbandbreite gleich und die Füllrate sowie die AA Performance verringert sich um die Hälfte...
Arbeiten im "normalen" Modus nicht zwei 128Bit-Speicherinterfaces mit 166MHz, im Single-Chip nur noch eines mit 128Bit/166MHz?
Zu der Konfusion: Füllrate wird in jedem Fall "mehr" verbraucht. Bandbreite kann man durch gutes Caching und Synergieeffekte meist wohl auf < +100% halten, insbesondere bei modernen Chips.
MadManniMan
2005-04-03, 01:44:24
Danke für die Informationen, für die 90 Seiten hätte ich beim besten Willen keine Zeit gehabt!
Ist bekannt, ob es neben dem "eigentlichen" R520 Budgetabwandlungen in der näheren Zukunft geben soll?
Und nochwas: wie sieht es mit Effizienzfeatures aus? Und tut sich was an AA und AF?
Ailuros
2005-04-03, 02:03:58
Wo? Denn wenn, dann widersprechen sich die Artikel ein bisschen:
Auch wenn ich bei meiner V5 Singlechip-Rendering aktivier, bleibt die Speicherbandbreite gleich und die Füllrate sowie die AA Performance verringert sich um die Hälfte...
Du fragst aber ueber einen TBDR (siehe "KYRO" im Zitat) und nicht ueber herkoemmliche IMRs. Auf einem TBDR bekommst Du Bandbreiten-freies (stets relativ zu verstehen) SSAA, wobei die Fuellrate genauso beinflusst wird wie auf einem IMR (2 samples = 1/2 Fuellrate, 4 samples = 1/4 Fuellrate usw.) oder Bandbreiten- und Fuellraten-freies MSAA.
Ailuros
2005-04-03, 02:11:37
Sind 10%* für dich merklich, oder übst du dich nur im Marketinggeschwätz? ;) Denn wirklich mehr schafft ne 6800 Ultra nicht mal von SM1.1 -> SM3.0 (Bei SC3)
http://www.firingsquad.com/hardware/splinter_cell_chaos_theory_1/page4.asp
* sind sogar nur ein bisschen mehr als 5%, hatte die falsche Seite verlinkt gehabt (mit AA/AF)
Miesestes Beispiel ueberhaupt. Ich wuerde sagen Ihr wartet erstmal ab bis die ersten wahren SM2.0+ engines erscheinen, und was Leistung mit SM3.0 betrifft so komplizierte Shader, dass branching auch einen guten Vorteil mit sich bringen wird. Es wird wahrscheinlich noch dauern, denn ich kann schwer laengere als 200 Instruktionen pro Shader selbst naechstes Jahr sehen.
Nur weil die Entwickler im gegebenen Fall spinnen heisst das noch gar nichts.
Ailuros
2005-04-03, 02:18:43
Danke für die Informationen, für die 90 Seiten hätte ich beim besten Willen keine Zeit gehabt!
Ist bekannt, ob es neben dem "eigentlichen" R520 Budgetabwandlungen in der näheren Zukunft geben soll?
Und nochwas: wie sieht es mit Effizienzfeatures aus? Und tut sich was an AA und AF?
Eine komplette Linie ist geplant, nur werden die restlichen Modelle etwas spaeter vorgestellt.
Fuer die Filterung erwarte ich nichts besonders neues; was AA betrifft sind Aenderungen nicht auszuschliessen, aber was genau will noch keiner verraten. Hoffentlich kein oeder SW-Trick.
Das einzige was ich mir vorstellen koennte ist 8x sparsed MSAA, aber dann wohl leider durch 4 sample loops; wird zwar sehr schoen sein aber eher brauchbar fuer aeltere Spiele. Meine racing-sims wuerden davon aber definitiv profitieren ;)
Exxtreme
2005-04-03, 02:40:59
Du fragst aber ueber einen TBDR (siehe "KYRO" im Zitat) und nicht ueber herkoemmliche IMRs. Auf einem TBDR bekommst Du Bandbreiten-freies (stets relativ zu verstehen) SSAA, wobei die Fuellrate genauso beinflusst wird wie auf einem IMR (2 samples = 1/2 Fuellrate, 4 samples = 1/4 Fuellrate usw.) oder Bandbreiten- und Fuellraten-freies MSAA.
AA ist nie bandbreiten- bzw. füllratenfrei. Auch auf einem TBDR nicht.
Exxtreme
2005-04-03, 02:43:47
Das einzige was ich mir vorstellen koennte ist 8x sparsed MSAA, aber dann wohl leider durch 4 sample loops; wird zwar sehr schoen sein aber eher brauchbar fuer aeltere Spiele. Meine racing-sims wuerden davon aber definitiv profitieren ;)
Ist doch wurst ob 4 sample loops oder nicht. ;) Wenn sich ATi dafür entscheidet dann hat das sicherlich seine Gründe wie z.B. zu knappe Bandbreite etc.
MadManniMan
2005-04-03, 02:50:44
Hach, endlich wieder Vorfreude auf ein neues Line-Up ... aber anfang letzten Jahres war diese noch größer - woran das wohl lag ;)
Eine komplette Linie ist geplant, nur werden die restlichen Modelle etwas spaeter vorgestellt.
Dennoch bin ich überrascht, wie groß ATi die Macht der NV4Xer einzuschätzen Scheint, daß das gesamte Angebot nach so kurzer Zeit neu besetzt wird - aber uns kann es nur freuen!
Ist bekannt, ob Rialto mehr als nur den R520 selbst ziert?
Fuer die Filterung erwarte ich nichts besonders neues; was AA betrifft sind Aenderungen nicht auszuschliessen, aber was genau will noch keiner verraten. Hoffentlich kein oeder SW-Trick.
Gerade bei der - für mich eindeutig - zu erwartenden Füllratenlastigkeit der neuen Karten wäre doch sicherlich Raum für bessere AF Modi. Ich bin enttäuscht, denn dein Wort scheint mir verläßlich.
Das einzige was ich mir vorstellen koennte ist 8x sparsed MSAA, aber dann wohl leider durch 4 sample loops; wird zwar sehr schoen sein aber eher brauchbar fuer aeltere Spiele. Meine racing-sims wuerden davon aber definitiv profitieren ;)
Gegengift für die Looping-Plage waren doch mehr ROPs, mehr als 16 bzw. 24 erwartest du ergo nicht?
MadManniMan
2005-04-03, 02:56:01
AA ist nie bandbreiten- bzw. füllratenfrei. Auch auf einem TBDR nicht.
Komm schon, du weißt in welchem Rahmen Ail das meint. MSAA ist Pseude-Füllratenverbrennungsfrei bzw. ist der Verlust kaum der Rede wert, schon das Einstellen eines beschissenerweise optimierten um den Faktor 2 höheren AF-Grades kann mehr Füllrate schlucken. In Verbindung mit einem TBDR kann man Dank des im Vergleich mit einem IMR Bandbreitenfrei scheindenden MSAA ein eben solches mit wahnwitzigen Samplezahlen fahren...
mapel110
2005-04-03, 03:01:49
Dennoch bin ich überrascht, wie groß ATi die Macht der NV4Xer einzuschätzen Scheint, daß das gesamte Angebot nach so kurzer Zeit neu besetzt wird - aber uns kann es nur freuen!
Ist bekannt, ob Rialto mehr als nur den R520 selbst ziert?
Wenn ATI kein SM3 für wenigstens Mid Range anbieten würde, hätten sie kaum Chancen Ende des Jahres noch Karten zu verkaufen, außer im High End.
Wäre also mehr als peinlich und schmerzhaft.
Der Rialto-chip wird sicher häufig eingesetzt werden und laut Sapphire plant man auch noch zumindest dieses Jahr weiterhin AGP anzubieten.
Gerade bei der - für mich eindeutig - zu erwartenden Füllratenlastigkeit der neuen Karten wäre doch sicherlich Raum für bessere AF Modi. Ich bin enttäuscht, denn dein Wort scheint mir verläßlich.
Vielleicht lässt sich ATI ja was für Alphatestkanten einfallen. Wäre schön, wenn sie die selbe Idee gehabt haben, wie Demirug. =) Das würde auch mehr Bildqualität bringen.
Alternativ wie schon im anderen Thread gesagt 2048x1536 Benchmarks ahoi. :D
MadManniMan
2005-04-03, 03:19:09
Wenn ATI kein SM3 für wenigstens Mid Range anbieten würde, hätten sie kaum Chancen Ende des Jahres noch Karten zu verkaufen, außer im High End.
Wäre also mehr als peinlich und schmerzhaft.
Ich hätte damals nicht erwartet, den unteschiedlichen SMs mal soviel Gewicht zugemessen wird, wenn es auch im Endeffekt heute nur logisch erscheint.
Der Rialto-chip wird sicher häufig eingesetzt werden und laut Sapphire plant man auch noch zumindest dieses Jahr weiterhin AGP anzubieten.
Freut mich! Meinen Desktop-Rechner werd ich bestimmt nicht sobald auf PCIe umsatteln ;)
Vielleicht lässt sich ATI ja was für Alphatestkanten einfallen. Wäre schön, wenn sie die selbe Idee gehabt haben, wie Demirug. =) Das würde auch mehr Bildqualität bringen.
Ich würde mich dennoch drüber freuen, wenn wir kein ATAA bräuchten, weil in Zukunft der Content dementsprechend anders wäre, aber das ist Träumerei...
Ich kann mir nicht vorstellen, daß ATi außerdem ein ATAA bringt, daß besser als Demis ist - zumal ATi solchem keine Relevanz zusprechen dürfte, wie man an der Ablehnung gegenüber SS erkennt.
Alternativ wie schon im anderen Thread gesagt 2048x1536 Benchmarks ahoi. :D
Ich tu mal Copy-Paste:
Das Doofe: der TFT-Boom war damals noch nicht absehbar, momentan manifestiert sich 1280*1024 als Zielauflösung :|
mapel110
2005-04-03, 03:29:03
Ich kann mir nicht vorstellen, daß ATi außerdem ein ATAA bringt, daß besser als Demis ist - zumal ATi solchem keine Relevanz zusprechen dürfte, wie man an der Ablehnung gegenüber SS erkennt.
Na ich hab davon zwar keine Ahnung, aber wenn man dafür eine Lösung in Hardware gießen kann, wäre das glaube schon eine gute Sache und vielleicht auch garnicht mal so langsam.
Ich tu mal Copy-Paste:
Das Doofe: der TFT-Boom war damals noch nicht absehbar, momentan manifestiert sich 1280*1024 als Zielauflösung :|
TFTs sind nicht zum Zocken geeignet. :P
*auf-5ms-displays-wart*
MadManniMan
2005-04-03, 04:29:05
Na ich hab davon zwar keine Ahnung, aber wenn man dafür eine Lösung in Hardware gießen kann, wäre das glaube schon eine gute Sache und vielleicht auch garnicht mal so langsam.
Mir persönlich wären ehrlich gesagt Verfahren lieber, die irgend ein Shaderantialiasing betreiben - ich hoffe immernoch inständig auf besseren Content... also was Alphatest und beschissen designte Texturen betrifft ;)
TFTs sind nicht zum Zocken geeignet. :P
*auf-5ms-displays-wart*
CRTs mögen besser zum Zocken sein, aber der Komfort eines TFTs ist für mich derartig unverzichtbar geworden, daß neben meinem Lappi-LCD, dem 15" TFT rechts daneben und dem 17" TFT in meiner eigenen Wohnung der 17" CRT langsam verrottet ;(
Bisher hat sich niemand an meinen TFTs gestört, effektiv schaffen sie runde 30(Notebook bzw. 15"er) bzw. 25ms(der 17"er). Das Feeling ist ein Anderes, das geb ich zu, aber am Spielspaß ändert es in diesem Bereich zumindest bei mir Nichts. Selbst Q3A fetzt auf dem 17"er - wobei ich zugeben muß, das auf den andern noch nicht probiert zu haben ;) Und dieser TFT gehört unter den 16ms Boliden zur "alten Garde" - Acer 1721h ahoi!
Wie dem auch sei - 1024 ist die alte Standardauflösung, 1280 wird wohl in den nächsten Quartalen/Jahren die nächste werden ... ich selbst und mein Umfeld achtet bei Benches auf die Auflösungen, die wir auch nutzen, auch wenn höhere natürlich Aufschluß auf zukünftige Titel geben könnten.
Mir persönlich wären ehrlich gesagt Verfahren lieber, die irgend ein Shaderantialiasing betreiben - ich hoffe immernoch inständig auf besseren Content... also was Alphatest und beschissen designte Texturen betrifft ;)
CRTs mögen besser zum Zocken sein, aber der Komfort eines TFTs ist für mich derartig unverzichtbar geworden, daß neben meinem Lappi-LCD, dem 15" TFT rechts daneben und dem 17" TFT in meiner eigenen Wohnung der 17" CRT langsam verrottet ;(
Bisher hat sich niemand an meinen TFTs gestört, effektiv schaffen sie runde 30(Notebook bzw. 15"er) bzw. 25ms(der 17"er). Das Feeling ist ein Anderes, das geb ich zu, aber am Spielspaß ändert es in diesem Bereich zumindest bei mir Nichts. Selbst Q3A fetzt auf dem 17"er - wobei ich zugeben muß, das auf den andern noch nicht probiert zu haben ;) Und dieser TFT gehört unter den 16ms Boliden zur "alten Garde" - Acer 1721h ahoi!
Wie dem auch sei - 1024 ist die alte Standardauflösung, 1280 wird wohl in den nächsten Quartalen/Jahren die nächste werden ... ich selbst und mein Umfeld achtet bei Benches auf die Auflösungen, die wir auch nutzen, auch wenn höhere natürlich Aufschluß auf zukünftige Titel geben könnten.
Nix egegen dich Manni, aber bei solchen Aussagen kann man nur die Augen verdrehen. Bevor Du dir nochmal Gedanken über Grafik machst, solltest Du dir erstmal über die Basis, nämlich die Projektionsgeräte vor deinen Augen, Gedanken machen.
Das ist ja so, als Schuhmacher auf seinen F1Boliden 175er Reifen aufzieht und dann noch behauptet, dass das schon passt.
MadManniMan
2005-04-03, 05:16:55
Nix egegen dich Manni, aber bei solchen Aussagen kann man nur die Augen verdrehen. Bevor Du dir nochmal Gedanken über Grafik machst, solltest Du dir erstmal über die Basis, nämlich die Projektionsgeräte vor deinen Augen, Gedanken machen.
Das ist ja so, als Schuhmacher auf seinen F1Boliden 175er Reifen aufzieht und dann noch behauptet, dass das schon passt.
Gib dich zu erkennen, Garstiger du :D
Dir ist schon klar, daß sich beim Thema CRT vs. TFT die Geister, ergo die Geschmäcker scheiden? Willst du über sowas diskutieren?
Ich stelle jedem frei, TFTs als Spieleuntauglich zu befinden, dennoch bitte ich um ebensolche Meinungsäußerung aus der anderen Ecke. Ich selbst störe mich nur äußerst selten an den Schlieren, bisher hat einzig FIFA 2005 merklich unter der mäßigen Reaktionszeit meines 25ms 15"ers gelitten. Auf dem 17"er hab ich es noch nicht ausprobiert, aber ich nehme an, daß dieses Spiel einfach nicht so gut auf aktuellen TFTs "funktioniert".
Andererseits war ich seit jeher der Q3A-"Pr0" unter den mir bekannten Zockern und wurde nicht schlechter, als ich auf TFTs umstieg.
Meine Meinung bleibt also: trotz mäßiger Farbdarstellung und Reaktionszeiten kann ich Spielen mit einem TFT genauso viel Spaß entlocken, wie mit einem CRT.
robbitop
2005-04-03, 06:57:44
Wie oft haben wir das mit dem Looping der ROPs nun schon durchgekaut?
Die Zeiten von Bi ST sind vorbei. Wenn pro Pixel viermal geloopt werden muss, spielt das in den meisten Fällen keine Rolle. Die Berechnung eines Pixels kann schon mal 10-100 Takte kosten, je nach Filterung und länge der Instruktion.
Aus diesem Grunde konnte NV auch Transistoren beim NV43 sparen, ohne groß dafür büssen zu müssen. 16 Doppel ROPs sind absolut genug.
Was das AA angeht bei ATI, auf meine Frage nach neuem ATI entgegnete mir Fröleke, dass in nächster Zeit nichts geplant sei. Er meinte nach einigem Nachhaken meinerseits, dass man vieleicht irgendwann mal darüber nachdenkt, etwas Neues in dem Bereich zu bringen.
Man kann sichs auch IMO leisten. Ein unschlagbares Multisampling und eh viel zu knappe Bandbreite.
MadManniMan
2005-04-03, 07:10:41
Wie oft haben wir das mit dem Looping der ROPs nun schon durchgekaut?
Die Zeiten von Bi ST sind vorbei. Wenn pro Pixel viermal geloopt werden muss, spielt das in den meisten Fällen keine Rolle. Die Berechnung eines Pixels kann schon mal 10-100 Takte kosten, je nach Filterung und länge der Instruktion.
Aus diesem Grunde konnte NV auch Transistoren beim NV43 sparen, ohne groß dafür büssen zu müssen. 16 Doppel ROPs sind absolut genug.
Komm mal runter von deinem hohen Roß, Oberlehrlerl du! Liegt das an der Uhrzeit, oder was reißt dich zu dem Einleitungssatz hin? :naughty:
Es gibt in der "Engine mit Content drin" Welt dort draußen noch andere Dinge als Shader-only Optik und viele Texturschichten - der Bri-Filter(den ich persönlich immer ausstelle, weil ich ihn nicht ertrage) trägt auch noch dazu bei... will heißen: es gibt genug Szenen, in denen eine der Pipe-Zahl entsprechende ROP-Anzahl noch etwas raushauen könnte - warum auf zusätzliche Leistung verzichten?
Außerdem hast du in deinem ROP-Wahn ( :D ) vollkommen verkannt, was ich eigentlich zum Ausdruck bringen wollte: ich hatte nämlich gefragt, wie man ROPs auslegen muß, damit diese weniger loopen müssen.
Was das AA angeht bei ATI, auf meine Frage nach neuem ATI entgegnete mir Fröleke, dass in nächster Zeit nichts geplant sei. Er meinte nach einigem Nachhaken meinerseits, dass man vieleicht irgendwann mal darüber nachdenkt, etwas Neues in dem Bereich zu bringen.
Man kann sichs auch IMO leisten. Ein unschlagbares Multisampling und eh viel zu knappe Bandbreite.
Naja, zumindest die Auswahl könnten se einem in Zukunft lassen, ob man die Gamma-Anpassung wirklich haben will. Wars auf meinem CRT noch ein sinnvoller Effekt, so wirds spätestens Beim 4fach auf meinen TFTs eher kontraproduktiv.
Was ATi machen könnte? Wenn sie schon "nur" das 6fach behalten(was ich auch als ausreichend empfinde), dann sollen se doch nochmal Speed rausholen. Wie? Keine Ahnung, bin ja auch kein Inge.
ShadowXX
2005-04-03, 10:12:09
Ich hätte damals nicht erwartet, den unteschiedlichen SMs mal soviel Gewicht zugemessen wird, wenn es auch im Endeffekt heute nur logisch erscheint.
Wenn jetzt sogar schon Lego Star Wars mit SM3.0 kommt (Bilder darüber incl. der Schleichwerbung von "Lego" für nV) folgen später, muss ATI quasi in die puschen kommen.
(Ich war wirklich mehr als überrascht, als ich mein Gestern von Amazon.com erhaltenes Paket installierte. HDR bzw. Pseudo HDR ist auch drin.)
Die Nutzung von SM3.0 scheint sich schneller zu verbreiten als manch Trojaner in I-Net.
Zum AF & BriFilter:
Ich glaube auch, das es bei genau den "gleichen" Winkelabhängigkeiten die jetzt schon bestehen bleiben wird, alleine aus dem Grund, weil sonst die Benchmarkbalken nicht in dem Grad steigen würden, wie ATI es gerne hätte......
Und genau aus dem Grund würde mich die eine oder andere neue "Optimierung" auch nicht besonders Wundern.
Brip-Filterung Ahoi..... ;D (das wäre ein Bri-Filter mit etwas Point-Sampling an "unauffälligen" stellen...)
reunion
2005-04-03, 11:03:02
Brip-Filterung Ahoi..... ;D (das wäre ein Bri-Filter mit etwas Point-Sampling an "unauffälligen" stellen...)
Da jeder Grafikchip heute zumindest bi TMUs hat, würde das keinen Leistungsvorteil bringen.
ShadowXX
2005-04-03, 11:48:04
Da jeder Grafikchip heute zumindest bi TMUs hat, würde das keinen Leistungsvorteil bringen.
Ist klar....war auch nicht so ernst gemeint (ich dachte der smilie dahinter würde dies deutlich machen).
Aber ich glaube, dass ATI die schon bekannten Filtertricks auch im r520 belassen wird....FullTri wirds wohl weiterhin nur über umwege geben.
MarcWessels
2005-04-03, 11:59:07
TFTs sind nicht zum Zocken geeignet. :P
Ganz meine Meinung und als alter Pro Pinball-Zocker brauche ich 1600x1200, was aber wiederum bei nahezu allen aktuellen 3D-Spielen ohnehin zu ruckelig ist - selbst ein 6800Ultra-SLI-Kombi ist dort in vielen Titeln (zumindest mit 16xAF und 4xAA) für meinen Geschmack zu langsam.
Dann das "alte" Thema HD-DVD: Ich brauche eine native Auflösung von 1920x1080 Pixeln (für 1080P NICHT 1080i!). Hätte ich so ein Panel, wäre das wiederum zur 1600x1200er Spielauflösung unpassend, ganz zu schweigen von der für Spielfilme nicht gerade begeisternden mangelhaften Graustufenauflösung.
CRTs sind einfach viel flexibler!
Gib dich zu erkennen, Garstiger du :D
Wer A sagt muss auch B *hint* sagen. :D
Ailuros
2005-04-03, 13:58:09
AA ist nie bandbreiten- bzw. füllratenfrei. Auch auf einem TBDR nicht.
Ich sagte ja dass man das "frei" Zeug relativ ansehen muss. In diesem relativen Sinn war Supersampling auf KYRO "Bandbreiten-frei".
2.8GB/sec Bandbreite auf K2; die Leistung kannst Du mit anderen Loesungen der Zeit und um einiges hoehere Bandbreite leicht vergleichen.
Ailuros
2005-04-03, 14:01:25
Ist doch wurst ob 4 sample loops oder nicht. ;) Wenn sich ATi dafür entscheidet dann hat das sicherlich seine Gründe wie z.B. zu knappe Bandbreite etc.
Bei einer MSAA + stenciling Kombination bricht die Leistung mit drei loops aka 6x sparsed auf heutigen 16 ROP Loesungen bis auf ~70% ein.
Das ein solcher Modus nur begrenzte Brauchbarkeit haben wird, muss man wohl nicht betonen. Und das mit der knappen Bandbreite haut auch nicht hin, wenn man theoretisch 8x samples fuer 1600*1200 anwenden will...
Ailuros
2005-04-03, 14:06:35
Gegengift für die Looping-Plage waren doch mehr ROPs, mehr als 16 bzw. 24 erwartest du ergo nicht?
Es kann durchaus sein dass sich ATI in der Zwischenzeit was von den Doppel-ROPs von NV4x was abgeschielt hat (wuerde auch Sinn machen), aber nein mehr als 16 ROPs generell (fuer beide IHVs) erwarte ich nicht in kommender Zeit und das egal wieviele quads auf solch einem Ding vorhanden sind.
Außerdem hast du in deinem ROP-Wahn ( ) vollkommen verkannt, was ich eigentlich zum Ausdruck bringen wollte: ich hatte nämlich gefragt, wie man ROPs auslegen muß, damit diese weniger loopen müssen.
Tjaaaa alternative Loesungen gaebe es vielleicht schon um die Leistung waehrend der loops zu minimalisieren; ich bezweifle aber dass der Entwicklungs- und Logik-Aufwand am Ende es doch Wert sein wuerde.
OT: Ist das hier ein "temporal-AA" relativiertes Pantent?
http://v3.espacenet.com/textdoc?DB=EPODOC&IDX=US2004183816&F=0
Ich verstehe wieder mal Bahnhof von dem Zeug und hab wirklich keine Lust das Ding ein dutzend Mal durchzulesen um nur das 1/3-el zu verstehen...
***edit: oder wohl doch nicht temp-AA relevant....hmmmm :|
Demirug
2005-04-04, 13:53:20
OT: Ist das hier ein "temporal-AA" relativiertes Pantent?
http://v3.espacenet.com/textdoc?DB=EPODOC&IDX=US2004183816&F=0
Ich verstehe wieder mal Bahnhof von dem Zeug und hab wirklich keine Lust das Ding ein dutzend Mal durchzulesen um nur das 1/3-el zu verstehen...
***edit: oder wohl doch nicht temp-AA relevant....hmmmm :|
Indirekt hat es was mit temp AA zu tun. Es geht um die Bestimmung von Sample Positionen beim MSAA. Da sich diese ja beim Temp AA von Frame zu Frame ändert hat es was mit temp aa zun tun.
robbitop
2005-04-04, 14:24:48
Es gibt in der "Engine mit Content drin" Welt dort draußen noch andere Dinge als Shader-only Optik und viele Texturschichten - der Bri-Filter(den ich persönlich immer ausstelle, weil ich ihn nicht ertrage) trägt auch noch dazu bei... will heißen: es gibt genug Szenen, in denen eine der Pipe-Zahl entsprechende ROP-Anzahl noch etwas raushauen könnte - warum auf zusätzliche Leistung verzichten?
Außerdem hast du in deinem ROP-Wahn ( :D ) vollkommen verkannt, was ich eigentlich zum Ausdruck bringen wollte: ich hatte nämlich gefragt, wie man ROPs auslegen muß, damit diese weniger loopen müssen.
1. Damit warst nicht du angesprochen.
2. NV43 beweist, dass es so ist ;-)
3. Der Trend geht noch mehr in diese Richtung
4. Entschuldige meinen Ton, es ist nicht bös gemeint, nur ist diese Thematik schon recht häufig besprochen worden.
@AiL
70% Einbruch ja. Aber was ist bei AF oder noch mehr, was ist bei intensivem Pixelshading? Wieviele Farbwerte kommen in der Praxis heute und vor allem in Zukunft pro Takt noch heraus? 16 bei Bi ST. Bei MT und AF vieleicht noch 4 oder 2. Bei Pixelshading kann das noch schlimmer werden. Somit ist das kein großer Bottleneck und er wird zunehmend unbedeutender. Natürlich wäre es schöner, wenn es mehr ROP Leistung gäbe, jedoch muss man bei jedem Design irgendwo auch Kompromisse schließen.
Ailuros
2005-04-04, 16:53:28
@AiL
70% Einbruch ja. Aber was ist bei AF oder noch mehr, was ist bei intensivem Pixelshading? Wieviele Farbwerte kommen in der Praxis heute und vor allem in Zukunft pro Takt noch heraus? 16 bei Bi ST. Bei MT und AF vieleicht noch 4 oder 2. Bei Pixelshading kann das noch schlimmer werden. Somit ist das kein großer Bottleneck und er wird zunehmend unbedeutender. Natürlich wäre es schöner, wenn es mehr ROP Leistung gäbe, jedoch muss man bei jedem Design irgendwo auch Kompromisse schließen.
Von akzeptabler Leistung mit 8x sparse via 4 loops kann trotzdem nie die Rede sein unter diesen Vorraussetzung und darum geht es gerade eben.
Natuerlich werden Kompromisse abgeschlossen, nur leider wird da eben gerade zu kurz geschnallt wo es mich am meisten stoert, u.a. auch Textur-filterung und Antialiasing.
Es kann ja sein dass Dir 4x RGMS mit winkelabhaenigem AF als "gut genug" vorkommt, mir aber persoenlich leider nicht.
Wie lange ist es schon her seit der R300-Veroeffentlichung? Wieso bitteschoen duerfte ich NICHT wahre hoehere Qualitaet fuer beide Bereiche erwarten, wenn ich schon >650 euro am Anfang fuer R520 hinblaettern sollte?
Oder wenn Du's anders haben willst (wie schon auf B3D gepostet) kann ich bitte in der absehbaren Zukunft Texturqualitaet a la 16x SSAA + 16xAF haben mit einem zumindest analogen Leistungsverlust von 4x Multisampling? Jemand blubberte gerade was dass Carmack sich im geheimen ueber programmierbare Filterung geaeussert hat; kann sein dass ich in die falsche Richtung denke, aber fuer mich sind solche Aspekte wichtiger als tonnenweise Shader-Instruktionen und float-HDR dass in manchen Faellen die Texturen eher vergruselt.
Ich hab eine sehr sehr praezise Vorstellung von Bildqualitaet und Features und ja manchmal auch fast unrealistische Ansprueche.
robbitop
2005-04-04, 17:20:21
Von akzeptabler Leistung mit 8x sparse via 4 loops kann trotzdem nie die Rede sein unter diesen Vorraussetzung und darum geht es gerade eben.[/quoute]
Du vergisst, dass bei 8xMS auch und vor Allem die Bandbreite ein Problem sein wird. 4 Loops sollten bei keinem aktuellen Spiel großartig schlimm sein. Ich kenne jedenfalls so gut wie keine Szenen in Spielen, in denen Pixel mit anisotroper Texturfilterung und/oder Pixelshading unter 4 Takten mit der finalen Berechnung eines Pixels fertig wären.
[Quote=Ailuros]
Es kann ja sein dass Dir 4x RGMS mit winkelabhaenigem AF als "gut genug" vorkommt, mir aber persoenlich leider nicht.
Sagte ich sowas? Ich denke nicht. Somit: ack
Wie lange ist es schon her seit der R300-Veroeffentlichung? Wieso bitteschoen duerfte ich NICHT wahre hoehere Qualitaet fuer beide Bereiche erwarten, wenn ich schon >650 euro am Anfang fuer R520 hinblaettern sollte?
Die solltest du natürlich bekommen. Laut Aussage Frölekes, wird R520 über kein neues AA verfügen. Bei 6xsparse sollten die 2 Loops nicht der Flaschenhals sein sondern die Bandbreite. Ob R520 hier signifikante Vorteile bringen kann: dunno
Oder wenn Du's anders haben willst (wie schon auf B3D gepostet) kann ich bitte in der absehbaren Zukunft Texturqualitaet a la 16x SSAA + 16xAF haben mit einem zumindest analogen Leistungsverlust von 4x Multisampling? Jemand blubberte gerade was dass Carmack sich im geheimen ueber programmierbare Filterung geaeussert hat; kann sein dass ich in die falsche Richtung denke, aber fuer mich sind solche Aspekte wichtiger als tonnenweise Shader-Instruktionen und float-HDR dass in manchen Faellen die Texturen eher vergruselt.
1. das denke ich nicht
2. weiß ich nicht
Ich hab eine sehr sehr praezise Vorstellung von Bildqualitaet und Features und ja manchmal auch fast unrealistische Ansprueche.
Das kenne ich von mir selbst ;)
MadManniMan
2005-04-04, 20:40:33
Aaaaah... B ;) Alles klar :D
Und Robbi, kein Problem ;)
Ailuros
2005-04-05, 08:06:44
1. das denke ich nicht
Nur mal so nebenbei, die "Klammer" fuer das negative LOD bias seit den 71.20 fuer NV4x beseitigt zwar das meiste des Problems, aber ganz ist das Zeug nun auch wieder nicht weg.
Mir wird es so langsam zu bunt, fuer zwei GPU Generationen jetzt (und das unabhaengig vom IHV) zu LOD-Fummeleien stellenweise greifen zu muessen, damit ich keine tanzende Maender auf meinem Bildschirm bekomme.
Laut Aussage Frölekes, wird R520 über kein neues AA verfügen. Bei 6xsparse sollten die 2 Loops nicht der Flaschenhals sein sondern die Bandbreite. Ob R520 hier signifikante Vorteile bringen kann.
Die R5xx-Linie wird theoretisch bis zu >100GB/sec Bandbreite unterstuetzen. Am Anfang wird die Bandbreite wohl eher begrenzt sein, aber ich will auch allen ernstes bezweifeln dass ein wahres 8x sparse MSAA mehr Bandbreite verbraten wuerde als 8xS.
Mit wenigstens einem Schuss von HW-back end Unterstuetzung koennte sich "temp-AA" sogar zu etwas sehr gutem entwickeln; in dem Fall bleibt eben noch die (um einiges wichtigere) Textur-Filterung.
ShadowXX
2005-04-05, 10:06:02
....... in dem Fall bleibt eben noch die (um einiges wichtigere) Textur-Filterung.
Glaubst du wirklich, dass ATI etwas an Ihren Texturfiltern ändern wird??
Ich befürchte, dass wenn es einen Änderung geben sollte, dass diese eher in den (für uns) negativen Bereich gehen wird....noch mehr Tricks, Cheats & Co.
marlurau
2005-04-05, 13:42:47
Was anderes: Kann der Titel nicht endlich angepasst werden ?
Statt " Anfang 2005" --- "im ersten Halbjahr"
Oder stört dies niemanden?
Da die Grafikkarte erst Mitte/ Ende Juni präsentiert werden soll, kanns doch so enden ,daß erst im August das Ding kaufbar wird.
mapel110
2005-04-05, 13:53:51
Was anderes: Kann der Titel nicht endlich angepasst werden ?
Statt " Anfang 2005" --- "im ersten Halbjahr"
Oder stört dies niemanden?
Da die Grafikkarte erst Mitte/ Ende Juni präsentiert werden soll, kanns doch so enden ,daß erst im August das Ding kaufbar wird.
Der Titel bleibt so zwecks Wiedererkennung.
Sunrise
2005-04-05, 15:10:38
Die R5xx-Linie wird theoretisch bis zu >100GB/sec Bandbreite unterstuetzen.
XDR-memory implementation, based on your "secret" source ? ;)
Gut, dass du "R5XX-Linie" schreibst, denn ATI wird wohl entscheiden müssen, wie schnell entsprechende Mengen verfügbar sind um dann ein paar "Schallmauern" zu durchbrechen. Fragt sich nur wann genau ?
R580 sollte jedoch ein heißer Kandidat dafür sein.
robbitop
2005-04-05, 15:23:50
XDR-memory implementation, based on your "secret" source ? ;)
Gut, dass du "R5XX-Linie" schreibst, denn ATI wird wohl entscheiden müssen, wie schnell entsprechende Mengen verfügbar sind um dann ein paar "Schallmauern" zu durchbrechen. Fragt sich nur wann genau ?
R580 sollte jedoch ein heißer Kandidat dafür sein.
Laut Fröleke von ATI denkt man in nächster Zukunft nicht über XDR/QBM und andere Speicherarten nach.
Sunrise
2005-04-05, 16:30:42
Laut Fröleke von ATI denkt man in nächster Zukunft nicht über XDR/QBM und andere Speicherarten nach.
Kommt diese Aussage direkt aus einem Interview ? Quelle ?
Die Frage ist nämlich, ob man einem "Marketing"-Manager solche Aussagen glauben schenken möchte. Es gibt da mehr als ein Dutzend Gründe, die ihn dazu veranlassen könnten, die Katze vorerst noch im Sack zu belassen. René vertritt ATI sicher am besten, wenn er die Zügel etwas ruhiger in der Hand behält.
Hieße dann auch indirekt, dass man vorerst zu (davon gehe ich jetzt einfach mal aus) neuen Bandbreiten-intensiven AA-Verfahren "Nein" sage. Korrigiere mich, falls ich falsch liege.
ShadowXX
2005-04-05, 16:38:00
Kommt diese Aussage direkt aus einem Interview ? Quelle ?
Die Frage ist nämlich, ob man einem "Marketing"-Manager solche Aussagen glauben schenken möchte. Es gibt da mehr als ein Dutzend Gründe, die ihn dazu veranlassen könnten, die Katze vorerst noch im Sack zu belassen. René vertritt ATI sicher am besten, wenn er die Zügel etwas ruhiger in der Hand behält.
Hieße dann auch indirekt, dass man vorerst zu (davon gehe ich jetzt einfach mal aus) neuen Bandbreiten-intensiven AA-Verfahren "Nein" sage. Korrigiere mich, falls ich falsch liege.
Das hat Robbitop doch schon mehrfach erwähnt, das ATI nicht daran denkt, in nächster Zeit neue AA-Modi hinzuzunehmen.
....Wie ich schon öfter mal sagte...ich würde nicht zu viel "unmögliches" vom r520 erwarten...
reunion
2005-04-05, 18:38:48
R520 has Shader Model 3.x support
IT'S STILL NOT crystal clear what ATI implemented in its 24 to 32 pipelines, 300 millions+ transistor beast but we know that we can expect to see Shader Model 3.x.
This implies that we might see some programmability beyond what we saw with Nvidia Shader Model 3.0 but we still can not be 100% sure about that.
We don’t know what actually can be improved in ATI hardware, but we are certain that R520 and all the R5xx chips will actually be at least Shader Model 3.0 compatible if not even more.
R520 is expected in June, so ATI is definitely counting its last weeks of glorification of Shader Model 2.0b and the stories of what we'll be able to do with it. ATI will change the record and by Q4 will only talk about Shader Model 3.0 as it is the right time to do so. µ
http://www.the-inquirer.net/?article=22345
Demirug
2005-04-05, 18:42:55
Ach FUAD mal wieder. Wen der gute wenigstens mal die DX9 Spec lesen würde.
Quasar
2005-04-05, 18:44:41
Man merkt dem INQ-Zeug der letzten Zeit IMO verstärkt an, daß Fuad nichts weiß.
mapel110
2005-04-05, 18:47:37
NOT crystal clear; might see; still can not be 100% sure about that; don’t know; if not even more.
Damit ist doch alles gesagt, was er weiß. :biggrin:
Demirug
2005-04-05, 18:49:41
Man merkt dem INQ-Zeug der letzten Zeit IMO verstärkt an, daß Fuad nichts weiß.
Ach erst in letzter Zeit? Ich dachte das war schon immer offensichtlich?
robbitop
2005-04-05, 18:52:02
Kommt diese Aussage direkt aus einem Interview ? Quelle ?
Die Frage ist nämlich, ob man einem "Marketing"-Manager solche Aussagen glauben schenken möchte. Es gibt da mehr als ein Dutzend Gründe, die ihn dazu veranlassen könnten, die Katze vorerst noch im Sack zu belassen. René vertritt ATI sicher am besten, wenn er die Zügel etwas ruhiger in der Hand behält.
Hieße dann auch indirekt, dass man vorerst zu (davon gehe ich jetzt einfach mal aus) neuen Bandbreiten-intensiven AA-Verfahren "Nein" sage. Korrigiere mich, falls ich falsch liege.
Ich habe ihn interviewt. Und ich glaube nicht, dass er mich belügt.
zu Fuad:
ich habe ihm diesbezgl mal eine Mehl geschrieben. Er meint, er schreibt nur das, was er auf Dokumenten sieht. Als ich ihm antwortete, dass man als Redakteur mal etwas Skepsis und Interesse an den Tag legen sollte, hat der Gute nicht mehr geantwortet.
Quasar
2005-04-05, 18:55:09
Ach erst in letzter Zeit? Ich dachte das war schon immer offensichtlich?
Ich meinte eigentlich, daß er diesmal offenbar keine seiner diffusen Quellen hat anzapfen können und sich seinen Krempel komplett aus den Fingern saugen muss.
Wird IMO jedenfalls immer deutlicher - erst die Meldung, daß ATi eine komplette Produktreihe auf R520-Architektur starten wird und jetzt solche Geschichten.
robbitop
2005-04-05, 18:57:50
Ich meinte eigentlich, daß er diesmal offenbar keine seiner diffusen Quellen hat anzapfen können und sich seinen Krempel komplett aus den Fingern saugen muss.
Wird IMO jedenfalls immer deutlicher - erst die Meldung, daß ATi eine komplette Produktreihe auf R520-Architektur starten wird und jetzt solche Geschichten.
Das war mir schon seit 2003 klar. Damals wurde R420 von ihm monatelang als SM3 Chip gehandelt, wobei es sogar mir damals völlig klar war, dass nach dem Cancle vom R400 keine Zeit bleibt einen SM3 Chip zu designen und R420 wohl "nur" 2xR300 sein wird.
Mit "Fudo" hat er aber IMO den Höhepunkt bewiesen *gg*
Demirug
2005-04-05, 18:58:52
Ich meinte eigentlich, daß er diesmal offenbar keine seiner diffusen Quellen hat anzapfen können und sich seinen Krempel komplett aus den Fingern saugen muss.
Wird IMO jedenfalls immer deutlicher - erst die Meldung, daß ATi eine komplette Produktreihe auf R520-Architektur starten wird und jetzt solche Geschichten.
Achso das meinst du. Ich denke die Löcher haben nVidia und ATI bei der letzten Runde geschlossen.
Quasar
2005-04-05, 18:59:19
Das war mir schon seit 2003 klar.
Du bist ja auch ub0r-1337, wir Normalsterblichen brauchen dafür etwas länger.
Achso das meinst du. Ich denke die Löcher haben nVidia und ATI bei der letzten Runde geschlossen.
Die meisten anscheinend ja.
robbitop
2005-04-05, 19:04:00
Du bist ja auch ub0r-1337, wir Normalsterblichen brauchen dafür etwas länger.
veralbern kann ich mich selbst ;)
wenn ich das schon 2003 wusste, dann wusstest du es insgeheim sicher schon länger *g*
Sunrise
2005-04-05, 19:05:48
Ich meinte eigentlich, daß er diesmal offenbar keine seiner diffusen Quellen hat anzapfen können und sich seinen Krempel komplett aus den Fingern saugen muss.
Wird IMO jedenfalls immer deutlicher - erst die Meldung, daß ATi eine komplette Produktreihe auf R520-Architektur starten wird und jetzt solche Geschichten.
Der Informationsgehalt der heutigen "News" ist in der Tat gleich "NULL".
@robbitop:
Danke für die Aufklärung. Ich meinte übrigens eigentlich nicht, dass er "lügt", sondern eher, dass er entweder nichts sagen darf oder es derzeit noch nichts Definitives zu sagen gibt, weil bspw. entsprechende Planungen bzgl. Verfügbarkeit / andere Faktoren noch keine klareren Aussagen nach außen zulassen.
Demirug
2005-04-05, 19:09:27
FUAD gehört nicht zu den Leuten die nichts sagen dürfen.
mapel110
2005-04-05, 19:09:42
Damals wurde R420 von ihm monatelang als SM3 Chip gehandelt, wobei es sogar mir damals völlig klar war, dass nach dem Cancle vom R400 keine Zeit bleibt einen SM3 Chip zu designen und R420 wohl "nur" 2xR300 sein wird.
2xR300? Also mit 16 Pipes hat nahezu niemand gerechnet, auch für den nvidia-chip(NV40) nicht. btw OW hat sogar nur mit 8 Pipes beim R4xx gerechnet. :)
Selbst wenn man damals von einem gecancelten R400 ausging, konnte man nicht mit so wenig Änderungen am Design rechnen, wie es letzendlich nur gab.
Leonidas kam ja dann mit der Meldung, dass der R420 nur ein SM2.x chip wird.
Quasar
2005-04-05, 19:11:38
FUAD gehört nicht zu den Leuten die nichts sagen dürfen.
Ich glaube, Froeleke war gemeint.
Sunrise
2005-04-05, 19:17:37
FUAD gehört nicht zu den Leuten die nichts sagen dürfen.
Wäre in der Tat komisch, oder ? FUAD ohne Sprachrohr nach außen, ich würde definitiv etwas vermissen. ;)
Gemeint war natürlich René Fröleke, "Technical PR Manager" bei ATi.
Hauwech
2005-04-05, 19:25:12
Ach naja, Fuad muss halt interessant bleiben. Das bleibt er nur wenn er viele News liefert. Das viele davon kompletter Unsinn sind stört ihn aber anscheinend nicht weiter. Zumindest falls einige seiner tollen News zutreffen kann er immer noch behaupten, dass er es ja gewusst hat. Das soll ja auch schon so geschehen sein.
Zumindest würde es Sinn machen, wenn ATI sein Lineup komplett auf SM3 umstellt. Kann für uns Spieler nur gut sein. Im Moment hat man SM2.0 und SM2.0b im Angebot. Demnächst kommt noch SM3 hinzu, gesund kann das eigentlich nicht sein.
ShadowXX
2005-04-05, 20:12:45
Zumindest würde es Sinn machen, wenn ATI sein Lineup komplett auf SM3 umstellt.
Das das früher oder später passiert, kann sich jeder an seinen 10 Fingern abzahlen....dafür braucht man keine "Quellen".
Kann für uns Spieler nur gut sein. Im Moment hat man SM2.0 und SM2.0b im Angebot. Demnächst kommt noch SM3 hinzu, gesund kann das eigentlich nicht sein.
ATI wird dadurch IMHO den einen oder anderen Kunden vor den Kopf stossen....aber das scheinen Sie wohl mit einzukalkulieren.
Ich bin gespannt auf die Marketingpapieren von ATI, die plötzlich SM3.0 in den höchsten Tönen loben werden.....
Hauwech
2005-04-05, 22:13:55
Das das früher oder später passiert, kann sich jeder an seinen 10 Fingern abzahlen....dafür braucht man keine "Quellen".
ATI wird dadurch IMHO den einen oder anderen Kunden vor den Kopf stossen....aber das scheinen Sie wohl mit einzukalkulieren.
Ich bin gespannt auf die Marketingpapieren von ATI, die plötzlich SM3.0 in den höchsten Tönen loben werden.....
So sicher wäre ich mir da aber auch nicht. Zweimal hat ATI durch Umbenennung was "Neues" geliefert und es hat sich gut verkauft, warum sollte es nicht ein drittes mal funktionieren?
Wo neu drauf steht, ist schliesslich auch neu drin, oder nicht? Ob da nun ein a oder b oder c in ganz klein drauf ist, egal, Hauptsache die 9 ist fett druff. :)
Ailuros
2005-04-06, 01:10:57
XDR-memory implementation, based on your "secret" source ? ;)
Gut, dass du "R5XX-Linie" schreibst, denn ATI wird wohl entscheiden müssen, wie schnell entsprechende Mengen verfügbar sind um dann ein paar "Schallmauern" zu durchbrechen. Fragt sich nur wann genau ?
R580 sollte jedoch ein heißer Kandidat dafür sein.
Eher GDDR4 und dieses wird wohl mit allerhoechster Wahrscheinlichkeit bis Ende des Jahres verfuegbar sein; R5xx soll bis zu 1600MHz Speicher unterstuetzen koennen und das sind eben 102.4GB/sec. Die Zahl ist wohl fuer die Lebzeiten und die Speicher-verfuegbarkeit nur ein theoretisches maximum, dennoch werden wir wohl bis zum Ende des Jahres wohl schon ueber 50GB/sec auf GPUs sehen.
Gaestle
2005-04-06, 12:40:12
Eher GDDR4 und dieses wird wohl mit allerhoechster Wahrscheinlichkeit bis Ende des Jahres verfuegbar sein; R5xx soll bis zu 1600MHz Speicher unterstuetzen koennen und das sind eben 102.4GB/sec. Die Zahl ist wohl fuer die Lebzeiten und die Speicher-verfuegbarkeit nur ein theoretisches maximum, dennoch werden wir wohl bis zum Ende des Jahres wohl schon ueber 50GB/sec auf GPUs sehen.
Rechnet das Marketing bei Deinem Beispiel dann eigentlich (statt wie bei DDR MHZ *2 - weil ja DDR) bei GDDR4 MHZ * 4 (weil ja QDR)?
Oder anders: wieviel physikalischen Takt beinhaltet die 1600MHz-Angabe?
Grüße
Demirug
2005-04-06, 12:41:21
Habe ich was verpasst oder wo steht das es sich bei DDR4 um QDR Speicher handeln wird?
Gaestle
2005-04-06, 12:50:06
Habe ich was verpasst oder wo steht das es sich bei DDR4 um QDR Speicher handeln wird?
Upps... naja, ich dachte... wohl vor allem falsch.
Außerdem habe ich XDR und QDR verwechselt bzw. gleichgesetzt...
Siehe post #1652 und folgende in diesem Thread...
Grüße
Ailuros
2005-04-06, 13:17:07
Rechnet das Marketing bei Deinem Beispiel dann eigentlich (statt wie bei DDR MHZ *2 - weil ja DDR) bei GDDR4 MHZ * 4 (weil ja QDR)?
Oder anders: wieviel physikalischen Takt beinhaltet die 1600MHz-Angabe?
Grüße
Bis zu 1600MHz und ja das sind echte Frequenzen und keine effektiven.
Den R5xx-Refresh (R580?) koennte man also dann schon mit sagen wir mal 900-1000MHz GDDR4 irgendwo Ende 2005 erwarten. 1000MHz@256bit = 64GB/sec.
Quasar
2005-04-06, 13:18:44
Ich denke, es spielt kaum eine wirkliche Rolle, wie hoch sich der Memory-Controller noch zur Arbeit überreden läßt - der verfügbare Speicher wird dem viel eher einen Riegel vorschieben.
Sunrise
2005-04-06, 14:32:46
Ich denke, es spielt kaum eine wirkliche Rolle, wie hoch sich der Memory-Controller noch zur Arbeit überreden läßt - der verfügbare Speicher wird dem viel eher einen Riegel vorschieben.
Sehe ich ähnlich.
@Ail:
Danke für deine Ausführungen, jetzt wird mir deutlich klarer wie deine >100GB/s zustande kamen. Die Ausführungen / Planungen von Samsung - der momentan einzig nennenswerte GDDR3(4)-Produzent - sind allerdings dermaßen wage und über-optimistisch, dass ich mich nicht traue abzuschätzen, wann genau entsprechender Speicher verfügbar wird. 50GB/s Ende dieses Jahres ist eine relativ gute konservative Schätzung, damit könnte ich mich anfreunden.
Ailuros
2005-04-07, 10:11:45
Ich denke, es spielt kaum eine wirkliche Rolle, wie hoch sich der Memory-Controller noch zur Arbeit überreden läßt - der verfügbare Speicher wird dem viel eher einen Riegel vorschieben.
Selbst wenn nicht, ich bezweifle sowieso dass ein R5xx je zu so schnellem verfuegbarem Speicher kommt fuer die analogen Lebzeiten der chips. Sunrise's Post oben macht genau so viel Sinn; diese "bis zu" Zahlen sollte man sowieso in sehr relativem Sinn ansehen.
Das "aber" der Geschichte ist, dass angenommen tatsaechlich 4 quads auf R5xx, waechst die verfuegbare Bandbreite um einiges von den ~37GB/sec einer R480 und es wird auch in dem Fall die um einiges hoehere Fuellrate besser "gefuettert". R480 ist ja ohnehin schon viel zu viel Bandbreiten-limitiert, deshalb auch IMO der nicht nennenswerte Leistungs-Unterschied zu einer R420, selbst in den extremsten Faellen (ich hab 2-3% Unterschied in Erinnerung beim letzten B3D Vergleich).
MarioK
2005-04-07, 13:25:50
hi,
http://www.xbitlabs.com/news/memory/display/20050406145727.html
"Infineon’s new GDDR3 512Mb memory chips, which can be installed onto graphics cards that feature 512MB or even 1GB of memory, are capable of operating at effective 1600MHz, providing 51.2GB/s of bandwidth per graphics card with 256-bit memory access. The package of such devices is a JEDEC compliant 136-ball FBGA package with 11mm x 14mm x 1.2mm dimensions. Operating voltage of 800MHz GDDR3 chips is 1.8V.
Infineon said it had begun shipping samples of its high-speed GDDR3 chips in February, 2005 to industry leading customers. Volume production is scheduled for the second half of 2005, which may indicate that graphics cards featuring 512MB or even 1GB of memory by Infineon will be available only in Q3 or Q4 2005."
mario
-error-
2005-04-07, 14:48:54
Wann kommt es denn zur einer Limiterung, des 256BIT-BUS? Der schnelle Ram muss doch dann dauf die Informationen warten und wird so garnicht ausgereitzt oder?
Limitierung des Bus? WTF?
Wenn dann wird der Grafikchip durch die maximale Datenübertragungsrate limitiert, und das ist ziemlich häufig der Fall.
Gaestle
2005-04-07, 14:54:39
Wann kommt es denn zur einer Limiterung, des 256BIT-BUS? Der schnelle Ram muss doch dann dauf die Informationen warten und wird so garnicht ausgereitzt oder?
512Mb sind nicht 512Bit.
Falls es falsch ist, versteck ich es schonmal - quasi im "vorauseilenden Gehorsam":
Die 512Mb beziehen sich IMHO auf die Kapazität je Chip, und das wären 512Megabit = 64MB (weil 1Byte = 8bit).
Grüße...
-error-
2005-04-07, 15:11:23
512Mb sind nicht 512Bit.
Falls es falsch ist, versteck ich es schonmal - quasi im "vorauseilenden Gehorsam":
Die 512Mb beziehen sich IMHO auf die Kapazität je Chip, und das wären 512Megabit = 64MB (weil 1Byte = 8bit).
Grüße...
Hö? Ich schrieb von der Speicheranbindung, nicht von der Kapazität!
-error-
2005-04-07, 15:12:44
Limitierung des Bus? WTF?
Wenn dann wird der Grafikchip durch die maximale Datenübertragungsrate limitiert, und das ist ziemlich häufig der Fall.
Wie? Der Grafikship bremst sich selbst aus? Kann ich mir nicht vorstellen.
Gaestle
2005-04-07, 15:13:54
Hö? Ich schrieb von der Speicheranbindung, nicht von der Kapazität!
Sorry, Mistverständniss.
Aber warum sollte die Bandbreite des Speichers den Speicher selbst limitieren?
*grübel*
Grüße...
R480 ist ja ohnehin schon viel zu viel Bandbreiten-limitiert, deshalb auch IMO der nicht nennenswerte Leistungs-Unterschied zu einer R420, selbst in den extremsten Faellen
Er ist außerhalb der Bandbreite ja auch nur 20MHz ( =3,8%) schneller, was im besten Falle 1:1 durchschlagen könnte.
Dagegen stieg die Bandbreite um 5,3% - der R480 ist also eher weniger am Bandbreitenlimit.
Wie? Der Grafikship bremst sich selbst aus? Kann ich mir nicht vorstellen.Nein, der RAM limitiert den Grafikchip, nicht den Bus :rolleyes:
Bis zu 1600MHz und ja das sind echte Frequenzen und keine effektiven.Von was träumst du nachts?
robbitop
2005-04-07, 15:51:50
Wie? Der Grafikship bremst sich selbst aus? Kann ich mir nicht vorstellen.
Für jeden Frame muss der Framebuffer geschrieben werden. Dieser besteht aus Color und Z Buffer.
Ein Colorwert zu schreiben kostet 32 Bit und ein Z Wert kostet 24 Bit.
Z lässt sich in der Praxis ~3:1 komprimieren. Sind also 40 Bit pro Pixel.
Wenn du 16 Pipelines hast, möchtest du im Idealfall 16 Pixel pro Takt in den Speicher schreiben. Das bedeutet du brauchst 640 Bit. Bei einem DDR Interface wären das 320 Bit pro Takt die zu übertragen sind.
Bei einem 256 Bit DDR Interface sollte der Speicher also mit einem Faktor von 1,25 takten, damit beim bilinearen ST 16 Farb und Z Werte geschrieben werden können. Wenn das nicht der Fall ist, leidet die Füllrate darunter (siehe ST Test von 3DMark).
AA verschlimmert das Ganze natürlich. 2 AA Samples benötigen doppelt so viele Farb und Tiefeninformationen. Die Colorcompression fängt dies sehr gut ab (bis auf Polygonränder hast du im Bild nämlich pro Pixel dann 2 gleiche Farbwerte). Die Z Kompression kann das allerdings nur noch ein wenig abfedern. Letztendlich brauchst du bei AA effektiv mehr Bandbreite um dort nicht die Füllrate einbrechen zu lassen.
Du siehst, selbst heutige GPUs sind z.T. bandbreitenlimitiert.
Bei stärkerer Texturfilterung, AF und sehr langen Shadern dauert es allerdings mehrere Takte bis die 16 Farbwerte fertig sind. Somit müssen die 320 Bit nicht in einem Takt geschrieben werden sondern in mehreren. Hier fangen die Caches gut ab. Bei zunehmender aritmetischer Arbeit mit Pixelshadern wird Bandbreite immer unwichtiger.
nomadhunter
2005-04-07, 15:53:36
Wann kommt es denn zur einer Limiterung, des 256BIT-BUS? Der schnelle Ram muss doch dann dauf die Informationen warten und wird so garnicht ausgereitzt oder?
Busbreite und Taktfrequenz spielen im Grunde die gleiche Rolle. Immerhin ist ja Bandbreite=Busbreite*Taktfrequenz. 800Mhz schneller RAM, der mit 512Bit angebunden werden, müsste dann also so schnell sein wie 1600Mhz schneller, der aber nur 256Bit Speicherbus hat. Der RAM selbst wird von niemandem ausgebremst. Eine Busbreiteerhöhung um den Faktor x hat dann also den gleichen Effekt wie eine Takterhöhung um denselben Faktor x.
Ailuros
2005-04-08, 11:59:49
Von was träumst du nachts?
Maximale theoretische Frequenz von GDDR4. Wie oft muss ich noch wiederholen dass diese Zahlen nur im obrigen fettgedruckten Sinn anzusehen sind? Fuer 2006 werden =/>60GB/sec wohl nicht so uebertrieben viel am Ende klingen.
Er ist außerhalb der Bandbreite ja auch nur 20MHz ( =3,8%) schneller, was im besten Falle 1:1 durchschlagen könnte.
Dagegen stieg die Bandbreite um 5,3% - der R480 ist also eher weniger am Bandbreitenlimit.
Stimmt. Bitte mir einen weiteren brainfart anzurechnen ;)
Ailuros
2005-04-08, 12:13:34
Bei zunehmender aritmetischer Arbeit mit Pixelshadern wird Bandbreite immer unwichtiger.
Bei zunehmender Shader-laenge wird wohl auch die interne Praezision skalieren muessen oder?
Maximale theoretische Frequenz von GDDR4. Wie oft muss ich noch wiederholen dass diese Zahlen nur im obrigen fettgedruckten Sinn anzusehen sind? Fuer 2006 werden =/>60GB/sec wohl nicht so uebertrieben viel am Ende klingen.Meinst du jetzt "3200 Mhz" oder "1600Mhz"? Weil ersteres kann ich mir bei R5xx nicht vorstellen.
Gaestle
2005-04-08, 12:24:57
Mal was anderes:
Was haltet Ihr von der Spekulation aus den News, von wegen R520 = 2Quads Unified + 4Quads R420 ? Das müsste doch TAKTBEREINIGT eine tendenziell geringere SM3-Performance als bei NV zur Folge haben, oder?
Wie müsste man sich denn den Aufbau dann überhaupt vorstellen? Sind diese Unified-Shader dann auch "pro Pipe" zwei Einheiten die beides können (in Anlehnung an die alte Pixel/Vertex-Trennung) oder ist dass dann nur eine Einheit, die beides abarbeitet? (Ich weiss, was "unified" bedeutet.) Oder nur eine Unified-Einheit pro Quad?
Wie muss man sich die Performance einer solchen Unified-Einheit im vgl. zur derzeitigen NV-SM3-Einheit vorstellen?
Grüße
Demirug
2005-04-08, 12:26:06
Bei zunehmender Shader-laenge wird wohl auch die interne Praezision skalieren muessen oder?
Eher nicht. FP32 sollte noch sehr lange reichen. Für reine Farbberechnungen sogar FP16. Die Länge kommt ja im wesentlichen dadurch zustanden das man mehr Effekte auf einen Pixel in einem Pass anwendet. Die Praezision muss daher lediglich für die einzelnen Teileffekte ausreichen.
In diesem Zusammenhang sollte man vielleicht auch noch wissen das DirectX die CPU aus performancegründen in den FP32 Modus zwingt wenn man es nicht explizit anders angibt.
Demirug
2005-04-08, 12:29:23
Mal was anderes:
Was haltet Ihr von der Spekulation aus den News, von wegen R520 = 2Quads Unified + 4Quads R420 ? Das müsste doch TAKTBEREINIGT eine tendenziell geringere SM3-Performance als bei NV zur Folge haben, oder?
Wie müsste man sich denn den Aufbau dann überhaupt vorstellen? Sind diese Unified-Shader dann auch "pro Pipe" zwei einheiten die beides können (für Vertex- und Pixel) oder ist dass dann eine eine Einheit, die beides abarbeitet? Oder nur eine Unified-Einheit pro Quad?
Grüße
Der Aufbau dafür wäre IMHO dermassen komplex das sich sowas nicht lohnen würde. Wenn man Unified Shader hätte welche diese Taktraten mitmachen dann würde man sie wohl allgemein für den ganzen Chip nutzen.
Gaestle
2005-04-08, 12:41:02
Der Aufbau dafür wäre IMHO dermassen komplex das sich sowas nicht lohnen würde. Wenn man Unified Shader hätte welche diese Taktraten mitmachen dann würde man sie wohl allgemein für den ganzen Chip nutzen.
Kann man die Quads getrennt takten?
Grüße
Demirug
2005-04-08, 12:44:39
Kann man die Quads getrennt takten?
Grüße
Können könnte man das schon. Allerdings macht es das ja noch komplizierter.
Ailuros
2005-04-08, 12:57:19
Meinst du jetzt "3200 Mhz" oder "1600Mhz"? Weil ersteres kann ich mir bei R5xx nicht vorstellen.
1600MHz GDDR4 fuer 2005/6 maximal. Von hoeherem Speichertakt fuer GDDR4 konnte ich sowieso bis jetzt nichts lesen.
Wenn ich "MHz" benutze dann sind es wahre Frequenzen; sonst steht einfach "effektiv" bei mir neben der Zahl.
Ailuros
2005-04-08, 13:00:19
Eher nicht. FP32 sollte noch sehr lange reichen. Für reine Farbberechnungen sogar FP16. Die Länge kommt ja im wesentlichen dadurch zustanden das man mehr Effekte auf einen Pixel in einem Pass anwendet. Die Praezision muss daher lediglich für die einzelnen Teileffekte ausreichen.
In diesem Zusammenhang sollte man vielleicht auch noch wissen das DirectX die CPU aus performancegründen in den FP32 Modus zwingt wenn man es nicht explizit anders angibt.
Ich dachte dass je mehr FP32 man benutzt, desto mehr wird auch an Bandbreite verbraucht (nichts radikales, aber auf jeden Fall nicht gleich wie bei ausschliesslich FP16).
Uhm, man braucht eigentlich nur mehr Platz im Registerfile, ansonsten dürfte auf NV40 FP16 und FP32 im Shader gleich schnell sein.
Demirug
2005-04-14, 10:18:47
Uhm, man braucht eigentlich nur mehr Platz im Registerfile, ansonsten dürfte auf NV40 FP16 und FP32 im Shader gleich schnell sein.
Es gibt ein paar wenige Dinge welche der NV40 mit FP16 etwas schneller kann.
Hast recht. Normalisieren in einem Takt usw., hab ich vergessen...
Aber an der internen Bandbreite sollte es wirklich nicht scheitern
Demirug
2005-04-14, 12:34:48
Hast recht. Normalisieren in einem Takt usw., hab ich vergessen...
Aber an der internen Bandbreite sollte es wirklich nicht scheitern
Es gibt auch noch einen FP16 Interpolator.
robbitop
2005-04-14, 13:36:27
Laut NV Dokumenten ist manchmal bei FP32 schon Platznot im Registerfile.
Cenmocay
2005-04-14, 14:07:36
so leute nun mal wieder zu was interessantem :biggrin: werden die neuen karten noch im mai vorgestellt oder is das noch unsicher ?
werden die beiden hersteller wieder solche herstellungsprobs haben, denn bei jeder "neuen" generation wird der prozess ja wieder verfeinert ?
erlauben kann man sich das wie beim letztenmal ja nicht,selbst ein halbes jahr und jetzt noch keine vernünftige verfügbarkeit
robbitop
2005-04-14, 14:10:40
laut TSMC soll der 90nm Prozess in Sachen Verfügbarkeit viel besser werden als der 130nm LowK Prozess. Es wäre anzunehmen, dass die Verfügbarkeit nach einer gewissen Anlaufzeit recht gut wird.
Cenmocay
2005-04-14, 14:34:39
schön zu hören,kaufe karten seit voodoozeiten und hab so eine verfügbarkeit wie bei den x800 noch nie erlebt
aber könnte der deal mit der xbox nicht zu einem prob werden,den retail markt und die millionen xboxen mit grakas versorgen kostet sicher viele resourcen ?
robbitop
2005-04-14, 14:45:47
schön zu hören,kaufe karten seit voodoozeiten und hab so eine verfügbarkeit wie bei den x800 noch nie erlebt
aber könnte der deal mit der xbox nicht zu einem prob werden,den retail markt und die millionen xboxen mit grakas versorgen kostet sicher viele resourcen ?
Geld kostet es. Ressourcen hat man schon investiert. Ergebnis war keine Innovation im Desktopprodukt und dafür im Konsolenprodukt.
Aber man muss Geld ausgeben, um welches zu verdienen. Genug Cash sollte ATI haben, um die Kosten auszulegen.
Hast recht. Normalisieren in einem Takt usw., hab ich vergessen...
Aber an der internen Bandbreite sollte es wirklich nicht scheitern
Laut NVidia ist aber die interne Bandbreite nicht ausreichend, um alle Einheiten voll mit FP32-Inputs zu versorgen.
Quasar
2005-04-14, 21:49:03
Geld kostet es. Ressourcen hat man schon investiert. Ergebnis war keine Innovation im Desktopprodukt und dafür im Konsolenprodukt.
Aber man muss Geld ausgeben, um welches zu verdienen. Genug Cash sollte ATI haben, um die Kosten auszulegen.
Warum sollten sie? Wie die letzten Jahre zeigten, verdient es sich besser, wenn man sich ins gemachte Nest legt und selbst nur das allernötigste an Innovation bringt.
robbitop
2005-04-14, 22:25:00
Warum sollten sie? Wie die letzten Jahre zeigten, verdient es sich besser, wenn man sich ins gemachte Nest legt und selbst nur das allernötigste an Innovation bringt.
Dann hätte NV ja statt NV3x auch einen verbesserten, doppelten NV2x bringen können. Der hätte in punkto Balkenlänge R3xx vernichtet. Und günstiger wär er auch geworden ;-)
Dann hätte NV ja statt NV3x auch einen verbesserten, doppelten NV2x bringen können. Der hätte in punkto Balkenlänge R3xx vernichtet. Und günstiger wär er auch geworden ;-)
Glaube ehrlich gesagt nicht, dass selbst ein verbesserter NV2x zu DX9 in der Lage gewesen wäre. Wäre zudem FX12 nicht von MS "verboten" worden, wäre Nvidia mit NV3x auch nicht so extrem unter die Räder gekommen.
Ailuros
2005-04-15, 03:07:29
Dann hätte NV ja statt NV3x auch einen verbesserten, doppelten NV2x bringen können. Der hätte in punkto Balkenlänge R3xx vernichtet. Und günstiger wär er auch geworden ;-)
NV30 wurde ja schon um einiges verspaetet; wie lange kann man ueberhaupt auf dem gleichen Zeug weiterkauen?
Anstatt wie anfangs geplant NV25 etwa ein Halbjahr nach NV20 zu liefern, schob man Ti200/500 dazwischen und rueckte die NV25 und NV30 Vorstellungen weiter in die Zukunft. Eben wegen dem XBox-Design und den dafuer notwendigen Resourcen.
Um vieles unterschiedlich war es bei ATI seit R300 nun auch wieder nicht. Ein Consolen-Design und eine Roadmap-Aenderung kann man hier auch sehen.
Mehr als einmal waere in beiden Faellen zu viel des Guten...
Joe_kurz_als_Haast
2005-04-15, 06:52:46
Es gibt ein paar wenige Dinge welche der NV40 mit FP16 etwas schneller kann.
Ist nicht FP24 ist der Standard mit dem ausschliesslich alle PS.2.0B nach DX9 Standard berechnet werden, zudem dass aber nur 1% der aktuellen Games sind?
Der NV40 ist sicherlich mit PS3.0 einen Schritt weiter als R420, aber wollen wir doch mal sehen wieviel er tatsächlich kann wenn ein Gegenpart rauskommt von ATI der auch PS3.0 unterstützt.
Ich denke das sich dann der Markt, wie anno 2003/2004 erneut in Richtung ATI verschieben wird.
Mehr als die Hälfte der heutigen Gamer setzen noch Grafikkarten aus der Generation 2003/2004 ein. Der Rest ist aufgeteilt zu je 50% ATI/nvidia aktuelle HW aus 2005.
Wie siehst du das Demirug?
Demirug
2005-04-15, 07:27:23
Ist nicht FP24 ist der Standard mit dem ausschliesslich alle PS.2.0B nach DX9 Standard berechnet werden, zudem dass aber nur 1% der aktuellen Games sind?
Nicht ausschliesslich. Alle DX9 Shadermodele haben zwei Genauigkeiten zur Auswahl. Zum einen FP16 als Partial Precision desweiteren FP24 für alle SM2 Variante und FP32 für SM3.
Der NV40 ist sicherlich mit PS3.0 einen Schritt weiter als R420, aber wollen wir doch mal sehen wieviel er tatsächlich kann wenn ein Gegenpart rauskommt von ATI der auch PS3.0 unterstützt.
Ich denke das sich dann der Markt, wie anno 2003/2004 erneut in Richtung ATI verschieben wird.
Das wird stark davon abhängen was nVidia als Gegenpart zum R520 setzten wird.
Mehr als die Hälfte der heutigen Gamer setzen noch Grafikkarten aus der Generation 2003/2004 ein. Der Rest ist aufgeteilt zu je 50% ATI/nvidia aktuelle HW aus 2005.
Wie siehst du das Demirug?
Es wäre schön wenn die Gamer derart moderne Hardware ihr eigen nennen würden. In Summe sollte man lieber von etwas weniger ausgehen.
robbitop
2005-04-15, 07:39:53
NV30 wurde ja schon um einiges verspaetet; wie lange kann man ueberhaupt auf dem gleichen Zeug weiterkauen?
Anstatt wie anfangs geplant NV25 etwa ein Halbjahr nach NV20 zu liefern, schob man Ti200/500 dazwischen und rueckte die NV25 und NV30 Vorstellungen weiter in die Zukunft. Eben wegen dem XBox-Design und den dafuer notwendigen Resourcen.
Um vieles unterschiedlich war es bei ATI seit R300 nun auch wieder nicht. Ein Consolen-Design und eine Roadmap-Aenderung kann man hier auch sehen.
Mehr als einmal waere in beiden Faellen zu viel des Guten...
Ich meine, wenn man NV30 gar nicht erst konzipiert hätte. Stattdessen NV2x für den Desktop und die XBOX und 2002 (Anfang/Mitte) einen doppelten verbesserten NV2x. Das wäre zeitlich kein Problem gewesen, behaupte ich mal. Aber das wäre eine Innovationsbremse geworden...eine verdammt schnelle ;) (analog zum R420)
Quasar
2005-04-15, 07:57:38
Dann hätte NV ja statt NV3x auch einen verbesserten, doppelten NV2x bringen können. Der hätte in punkto Balkenlänge R3xx vernichtet. Und günstiger wär er auch geworden ;-)
Ja, das hätten sie. Und zumindest zum Launchzeitpunkt des R300 wäre ihnen daraus auch kein Nachteil erwachsen - da gab es ja noch nichtmal DX9. ;D
Danach wär's allerdings schwierig geworden - man konnte ja nicht argumentieren, daß der R300 für DX9-Titel durch die Bank sowieso zu langsam sei. Insofern hätten sie dann ein Problem mit einem reinen DX8-Part.
robbitop
2005-04-15, 08:03:07
Ja, das hätten sie. Und zumindest zum Launchzeitpunkt des R300 wäre ihnen daraus auch kein Nachteil erwachsen - da gab es ja noch nichtmal DX9. ;D
Danach wär's allerdings schwierig geworden - man konnte ja nicht argumentieren, daß der R300 für DX9-Titel durch die Bank sowieso zu langsam sei. Insofern hätten sie dann ein Problem mit einem reinen DX8-Part.
Man hätte damals DX9 solange ausgebremst, wie man heute SM3 ausbremst. So what? Es gab wenige Spiele, die FP Shader brauchten, um besser als Int Shader auszusehen. Dann schön werbetechnisch "FP16/24 ist noch unnötig"...oder so ;)
Was ein IHV nicht hat, macht er natürlich runter.
BlackBirdSR
2005-04-15, 08:13:54
Wie realisitsch ist das anzusehen, dass ein 2 Quad NV20 Nachfolger die R3xx so abgezogen hätte?
Ich meine: Das AA würde doch prozentual mehr verlieren, das AF zwar super schön aber sehr langsam, und hätte R3xx nicht immernoch mehr Shaderperformance gehabt?
Ailuros
2005-04-15, 08:25:30
Ich meine, wenn man NV30 gar nicht erst konzipiert hätte. Stattdessen NV2x für den Desktop und die XBOX und 2002 (Anfang/Mitte) einen doppelten verbesserten NV2x. Das wäre zeitlich kein Problem gewesen, behaupte ich mal. Aber das wäre eine Innovationsbremse geworden...eine verdammt schnelle ;) (analog zum R420)
Von der Leistung und dem config jetzt mal abgesehen waere das was Du vorschlaegst aber dann eher als ob heute ATI noch einen core praesentieren wuerde der weiterhin wie R420 auf der genau gleichen SM2.0+ Basis aufbaut.
R3xx-->R3xx(+) aka R420-->R3xx(++)....
So wie sich die roadmap damals dank der XBox entwickelte haette Dein theoretischer 2*NV2x irgendwo in 2003 erscheinen muessen um NV30 erstmal zu ersetzen. Waere aber auch zum disaster wahrscheinlich geworden, weil sie praktisch ein ganzes Jahr verpatzt haben dank low-k 130nm@TSMC.
Man hätte damals DX9 solange ausgebremst, wie man heute SM3 ausbremst. So what? Es gab wenige Spiele, die FP Shader brauchten, um besser als Int Shader auszusehen. Dann schön werbetechnisch "FP16/24 ist noch unnötig"...oder so
Das mit dem ausbremsen von SM3.0 hat vielleicht einen Anhaltspunkt, aber ich bezweifle dass wir selbst nach der R520 Vorstellung und noch einige Zeit viel mehr von SM3.0 sehen werden als Leistungs-steigerungen von Entwicklern. Die Entwickler die daran interessiert waren und sind haben sich schon damit beschaeftigt. Klar wird R520 noch einen weiteren Schub geben, aber ich will jetzt mal bezweifeln dass wir verrueckt lange Shader und/oder Uebertonnen von vertex texturing z.B. in Spielen bis Ende 2006 sehen werden.
Uebrigens lagen Spiele wie FarCry, HL2 schon seit Ewigkeit unter Entwicklung. Ohne dass NVIDIA einen NV3x praesentiert haette, bezweifle ich dass es die Entwickler aufgehalten haette ihre Spiele so zu entwickeln und NVIDIA haette sich womoeglich am Ende noch schlimmer blamiert. NV3x war ja sowieso schon um einen sehr grossen Grad schneller als NV2x was dx8.x Zeug betrifft und am wichtigsten: low-end wie NV34 haette sich NIE so gut verkauft am Ende was wohl sehr miserable Verkaufszahlen haette bedeuten koennen.
Der Unterschied zwischen dx8.1 und base-level dx9.0 ist IMHO zu gross fuer solche Turnereien.
Quasar
2005-04-15, 08:32:10
Wie realisitsch ist das anzusehen, dass ein 2 Quad NV20 Nachfolger die R3xx so abgezogen hätte?
Zumindest in Sachen Rohleistung hätte man aber durch geringere Komplexität sicherlich auch einen höheren Takt fahren können. Die 500MHz, die der nV30 schaffte, wären, denke ich, mit einem 2-Quad nV25 auch drin gewesen (inkl. der
bekannten Kühllösung).
BilboBeutlin
2005-04-15, 11:21:28
Ist nicht FP24 ist der Standard mit dem ausschliesslich alle PS.2.0B nach DX9 Standard berechnet werden, zudem dass aber nur 1% der aktuellen Games sind?
Der NV40 ist sicherlich mit PS3.0 einen Schritt weiter als R420, aber wollen wir doch mal sehen wieviel er tatsächlich kann wenn ein Gegenpart rauskommt von ATI der auch PS3.0 unterstützt.
Ich denke das sich dann der Markt, wie anno 2003/2004 erneut in Richtung ATI verschieben wird.
Mehr als die Hälfte der heutigen Gamer setzen noch Grafikkarten aus der Generation 2003/2004 ein. Der Rest ist aufgeteilt zu je 50% ATI/nvidia aktuelle HW aus 2005.
Wie siehst du das Demirug?
Den NV40 müssen wir bestimmt ncht mit dem R520 vergleichen, eher NV48 & Co. Der R520 wird schnell, keine Frage, aber wie schnell? Die Verdoppelung der Leistung ist, wenn er bei 16x1 bleibt, schon rechnerisch nicht möglich.
Godmode
2005-04-16, 15:13:34
Wann werden die neuen GPUs dann vorgestellt? Im Mai schon, oder eher erst Juni,Juli?
Ailuros
2005-04-16, 16:04:11
Wann werden die neuen GPUs dann vorgestellt? Im Mai schon, oder eher erst Juni,Juli?
Das letzte Mal dass ich darueber hoerte war es fuer Ende Mai projeziert; aber das muss auch nicht eine absolute Garantie sein. Wir werden wohl erst irgendwo Mitte Mai kluger darueber.
Hauwech
2005-04-16, 16:52:50
Das letzte Mal dass ich darueber hoerte war es fuer Ende Mai projeziert; aber das muss auch nicht eine absolute Garantie sein. Wir werden wohl erst irgendwo Mitte Mai kluger darueber.
War für den NV48 nicht irgendwo Mitte April im Gespräch? Oder doch Mai?
Cenmocay
2005-04-16, 16:59:14
eher juni
Demirug
2005-04-16, 17:04:44
War für den NV48 nicht irgendwo Mitte April im Gespräch? Oder doch Mai?
Was willst du den mit einem NV48? Das ist doch nur eine GF 6800 xyz.
Hauwech
2005-04-16, 17:05:32
eher juni
Hmm dachte Nvidia wollte vor dem R520 was bringen. Naja, egal, vielleicht warten sie noch ab um den Takt eventuell noch anzupassen. *shrug*
Hauwech
2005-04-16, 17:08:34
Was willst du den mit einem NV48? Das ist doch nur eine GF 6800 xyz. Öhm, naja, NV48 als uhmm Oberbegriff für Refreshchip halt. Von mir aus auch NV47 oder NV49 oder als ominöser G70 halt. Quasi der Antwortchip auf den R520. Falls es den gibt :)
Demirug
2005-04-16, 17:15:10
Öhm, naja, NV48 als uhmm Oberbegriff für Refreshchip halt. Von mir aus auch NV47 oder NV49 oder als ominöser G70 halt. Quasi der Antwortchip auf den R520. Falls es den gibt :)
Also G70.
Ailuros
2005-04-16, 17:23:10
War für den NV48 nicht irgendwo Mitte April im Gespräch? Oder doch Mai?
Obwohl die Geruechtekueche fluestert dass NVIDIA frueher vorstellen wird, hab ich das Gefuehl dass man vielleicht doch etwas den Atem anhaelt.
ShadowXX
2005-04-16, 19:28:14
Also G70.
Das "hört" sich so an, als wenn du schon was weisst....zumindest Gerüchteweise.
Falls du allerdings ein NDA unterschrieben hast, darfst du ja nicht mal das beantworten.
mapel110
2005-04-16, 19:36:41
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=206856&highlight=g70
viel mehr wird er auch nicht wissen. ;)
Demirug
2005-04-16, 21:15:10
Das "hört" sich so an, als wenn du schon was weisst....zumindest Gerüchteweise.
Falls du allerdings ein NDA unterschrieben hast, darfst du ja nicht mal das beantworten.
Ich weiss nur das der NV48 für bekannte GF6800er Typen verbaut wird und das daneben nur noch den G70 gibt muss dieser ja für Nextgen sein.
TheGood
2005-04-16, 21:35:50
Ich weiss nur das der NV48 für bekannte GF6800er Typen verbaut wird und das daneben nur noch den G70 gibt muss dieser ja für Nextgen sein.
Mein ich nur oder ist es so:
Atm gibts nicht wirklich handfeste Infos zu beiden Chips, jeder stocher in irgendwas rum und vermutet nur das und das wäre machbar.
So schlimm wie bei diesem Release war das doch noch nie???!!!
HAben die zwei IHV´s ihre Stellen wirklcih so dciht bekommen???
ShadowXX
2005-04-16, 21:43:52
Mein ich nur oder ist es so:
Atm gibts nicht wirklich handfeste Infos zu beiden Chips, jeder stocher in irgendwas rum und vermutet nur das und das wäre machbar.
So schlimm wie bei diesem Release war das doch noch nie???!!!
HAben die zwei IHV´s ihre Stellen wirklcih so dciht bekommen???
Ja, scheint so.
Ich fand das Sie es letztesmal schon ziemlich "abgedichtet" bekommen hatten (da wurde ja sogar absichtlich "Falschinfos" rausgegeben, damit man undichte Stellen besser lokalisieren konnte).
Aber inzwischen scheinen Sie alle Löcher gestopft zu haben....bin inzwischen so gespannt wie noch nie bei GraKas, wie den der r520 und der öminöse G70 "aussehen" werden.
Cenmocay
2005-04-16, 22:03:22
So schlimm wie bei diesem Release war das doch noch nie???!!!
???
war schon immer so,der nv30 z.b sollte laut den leuten hier und anders wo der überchip werden und dann wars ein flop
Hauwech
2005-04-16, 23:02:55
war schon immer so,der nv30 z.b sollte laut den leuten hier und anders wo der überchip werden und dann wars ein flop
Mit FX12 und FP16 war er gar nicht mal so schlecht ;)
ShadowXX
2005-04-17, 00:40:15
war schon immer so,der nv30 z.b sollte laut den leuten hier und anders wo der überchip werden und dann wars ein flop
Nein...es lag damals mehr daran, das die technischen Daten des nV30 sich auf dem "Papier" ziemlich gut lasen...zu gut wie sich später herausstellte.
Ebenfalls kam dazu, das niemand von ATI solchen einen Chip wie den r300 "erwartet" hat, speziell an das 256-Bit Speicherinterface wollte fast gar keiner glauben.
StefanV
2005-04-17, 00:45:38
Mit FX12 und FP16 war er gar nicht mal so schlecht ;)
im Vergleich zur nV30, ja, im Vergleich zur R300, nein.
TheCounter
2005-04-17, 12:24:15
ATi Mitarbeiter tragen "FUDO" T-Shirts (http://www.theinquirer.net/?article=22582)
Ha, na wenn das mal nicht lustig ist :D
deekey777
2005-04-17, 16:27:38
Next Gen GPUs Info : R520 & NV50/G70 (http://www.vr-zone.com/?i=2010&s=1)
ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June. NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy. None the least, we heard that NV50/G70 is a dual-core monster(?) with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines(?). The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology.
TheCounter
2005-04-17, 16:32:37
Next Gen GPUs Info : R520 & NV50/G70 (http://www.vr-zone.com/?i=2010&s=1)
ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June. NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy. None the least, we heard that NV50/G70 is a dual-core monster(?) with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines(?). The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology.
Hey, na endlich >1000EUR für eine Nvidia Grafikkarte :ugly:
Für die kleineren Versionen sind dann so 500EUR fällig :ugly:
Spass bei seite, ist das nicht ein bischen arg Übertrieben bezüglich DualCore Grafikchips?
Ailuros
2005-04-17, 16:41:24
Next Gen GPUs Info : R520 & NV50/G70 (http://www.vr-zone.com/?i=2010&s=1)
ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June. NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy. None the least, we heard that NV50/G70 is a dual-core monster(?) with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines(?). The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology.
Ich moechte allzugerne wissen, was die Kerle genau rauchen bevor sie sich ans keyboard setzen.
ShadowXX
2005-04-17, 16:43:32
Hey, na endlich >1000EUR für eine Nvidia Grafikkarte :ugly:
Für die kleineren Versionen sind dann so 500EUR fällig :ugly:
Spass bei seite, ist das nicht ein bischen arg Übertrieben bezüglich DualCore Grafikchips?
Ähmmmm...warum sollten Sie ein DualCore-Die bringen, wenn Sie stattdessen einfach auch 32Pipes so integrieren könnten.
Das mit dem DC-Die ist einfach unlogisch (und würde sehr wahrscheinlich sogar etwas mehr Transistoren als ein reine 32Pipe-Die kosten).
Ich glaube, der von denen Sie diese Infos haben (und woher, da scheinbar weder nV noch ATI was sagen) hat sich während er dies Ihnen "verraten" hat innerlich vor lachen auf dem Boden gewältzt.
Hat Fudo die Web-Site gewechselt??
@Ailuros
jo...das Zeug was die Rauchen, möchte ich auch gerne mal in die Finger bekommen.
Ailuros
2005-04-17, 17:07:05
*schielt boesartig auf den Drucker*....irgendwo muss ein weisses T-shirt herumliegen....hmmmm :|
:D
seahawk
2005-04-17, 17:17:16
Ich moechte allzugerne wissen, was die Kerle genau rauchen bevor sie sich ans keyboard setzen.
Schon der Link zu dem Referenzkühler ist echt :up: ;)
Next Gen GPUs Info : R520 & NV50/G70 (http://www.vr-zone.com/?i=2010&s=1)
ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June. NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy. None the least, we heard that NV50/G70 is a dual-core monster(?) with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines(?). The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology.
ja laß es so kommen :O
DC und 32 pipes,das wäre nett ;)
seit r200->r300 ist nix gutes mehr gekommen,es ist wieder zeit für einen richtigen ! technologie/speedsprung.....und nicht immer diese kleinen minimalsprünge
Jesus
2005-04-17, 18:00:31
ja laß es so kommen :O
DC und 32 pipes,das wäre nett ;)
seit r200->r300 ist nix gutes mehr gekommen,es ist wieder zeit für einen richtigen ! technologie/speedsprung.....und nicht immer diese kleinen minimalsprünge
ah ja, "dual core" gpu... also nur noch 2 Shadereinheiten :rolleyes: , oder 2 GPUs auf einer Karte :eek:
Nicht jeden Müll glauben den man irgendwo aufschnappt ;)
es sage nur das es toll wäre wenns so kommt,kleiner ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.