PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R500/NV50


Seiten : [1] 2

ice cool69
2004-04-20, 01:42:50
Spekulieren wir doch mal über die kommende Generation nach R420/NV40+Refreshs.
Glaubt ihr es wird 512bit-Speicherbandbreite geboten? Welche Shader wird es geben?

Lustiger Troll
2004-04-20, 01:58:21
Also dann spekulier ich doch einfach mal ins blaue :)

NV50
~400 Mio Transistoren
0,11um oder sogar 0,09um, hergestelt bei IBM
512 MB 512 Bit GDDR3 800 Mhz (1600 Mhz DDR)
Coretakt ~700 Mhz
SM 3.0 (DX 9.0c)
16 MB Ondiecache :)
Pixelpiplines 32*1 64*0
Vertexunits 12
nur noch FP32

R500
~300 Mio Transistoren
0.13um bei TSMC
512 MB 512 Bit GDDR3 800 Mhz (1600 Mhz DDR)
Coretakt ~600 Mhz
SM 3.0 (DX 9.0c)
Pixelpiplines 32*1 64*0
Vertexunits 12
FP24 und FP32

So das ganze ist reine Spekulation mit ein bischen Träumerei meinerseits ;).

Ailuros
2004-04-20, 02:05:30
Zu viel Trauemerei....

90nm ohne jeglichen Zweifel fuer beide fuer mich, viel zu frueh fuer 512bit Busse und dass NVIDIA bei IBM fuer den high end bleibt bin ich mir auch nicht so sicher.

Pixelpipelines? Was war das nochmal genau? :kratz:

:D

ice cool69
2004-04-20, 02:21:58
Also ich halte 512 Bit Speicherbus für absolut realistisch. Warum auch nicht? Die Speicherbandbreite wird mit den heutigen 16 Pipelines wieder zum Flaschenhals.

Ich gehe von

16x2 Pipelines aus, 512 Bit Speicherbus, Taktraten um die 700 MHz.

Da ATI die Shader 3.0 überspringen will und beim nächsten Chip sicherlich nicht wieder 2.X-Shader zum Einsatz kommen gehe ich von Shader 4.X für beide Chips aus (nVidia wird bestimmt auch nicht bei 3.X bleiben).

Ich denke auch dass die Shader-Performance wiedermal in eine neue Leistungsdimension gestoßen wird, 512 MB SPeicher werden die Spitzenmodelle sicherlich auch vorweisen können.

Mehr als das wäre eine Überraschung, weniger wäre eine Enttäuschung.

Achja, ich gehe davon aus dass der R500 ein wahres Transistorenmonster, größer als der NV50, werden wird, ich habs im Gefühl dass der ganz dick wird!! :D

Ailuros
2004-04-20, 02:29:06
Warum auch nicht?

Lektuere:

http://www.beyond3d.com/forum/viewtopic.php?p=135494&highlight=512bit#135494

seahawk
2004-04-20, 08:45:31
512 Bit Bus - ist unrealistisch

0,09 auch eher unwahrscheinlich.

Wahrscheinlich :

- Direct X Next
- Vereinigung von Pixel- und Vertexshadern
- keine Pipelinestruktur mehr (wesentlich flexibeler Struktur)
- max. 350-400 Millionen Transistoren
- unwesentlich höhere Taktraten (max. 600 Mhz)

aths
2004-04-20, 09:23:07
Original geschrieben von ice cool69
Glaubt ihr es wird 512bit-Speicherbandbreite geboten? Da bin ich skeptisch.
Original geschrieben von ice cool69
Welche Shader wird es geben? Vermutlich 4.0.

aths
2004-04-20, 09:31:14
Original geschrieben von seahawk
- Vereinigung von Pixel- und Vertexshadern
- keine Pipelinestruktur mehr (wesentlich flexibeler Struktur)Muss nicht so kommen. SM 4.0 erlaubt weiterhin diskreten Aufbau, der HW-mäßig zwischen PS und VS unterscheidet. Ob NV50 wirklich "unified" Shader-Hardware haben wird? Da bin ich skeptisch. Beim NV50 erwarte ich eher einen weiterentwickelten NV40.

Quasar
2004-04-20, 09:39:57
Original geschrieben von ice cool69
Glaubt ihr es wird 512bit-Speicherbandbreite geboten?

Da stimme ich aths mal unumwunden zu. Warum sollte man von 30+ Gigabyte pro Sekunde auf nur 64Kilobyte runtergehen? X-D

micki
2004-04-20, 10:00:50
ich erwarte einen zusätzlichen geometrie prozessor (geometrie-shader?) ala vu1 bei der ps2, damit kann man dann die vertexshader füttern.

MfG
micki

Ailuros
2004-04-20, 11:37:26
Original geschrieben von seahawk
512 Bit Bus - ist unrealistisch

0,09 auch eher unwahrscheinlich.

Wahrscheinlich :

- Direct X Next
- Vereinigung von Pixel- und Vertexshadern
- keine Pipelinestruktur mehr (wesentlich flexibeler Struktur)
- max. 350-400 Millionen Transistoren
- unwesentlich höhere Taktraten (max. 600 Mhz)

Die Frage ist dann eher wie >350M in >90nm reinpassen sollten und dazu auch noch mit "maximal" 600MHz?

Ihr Jungs koennt mich ja gerne korrigieren, aber 110nm sieht mir fuer solche Boliden theoretisch erstmal als sehr sehr eng aus.

AlfredENeumann
2004-04-20, 12:09:20
Ab einer bestimmten Coregröße gehe ich eher von einem DUAL-Core Design aus um die Ausbeute zu erhöhen, oder um Funktionsverschiedene Teile zu trennen, sodaß man einen PS/VS part hat und den Rest.

512Bit Speicherinterface halte ich bei den High-End parts auf jedenfall für wahrscheinlich. Dürfte meiner meinung nach günstiger sein als ultra-schneller Speicher.

Fertigung in 0.11 für den High-End.

seahawk
2004-04-20, 12:23:28
Original geschrieben von Ailuros
Die Frage ist dann eher wie >350M in >90nm reinpassen sollten und dazu auch noch mit "maximal" 600MHz?

Ihr Jungs koennt mich ja gerne korrigieren, aber 110nm sieht mir fuer solche Boliden theoretisch erstmal als sehr sehr eng aus.

Ich meinte nicht unbedingt, dass alles in einem Chip vereinigt sein muss.

Bei ATI haben wir jetzt wohl beim Wechsel von 0,15 zu 0,13 ungefähr 50-60% mehr Transistoren und ca 20-25% mehr Clockspeed. (wenn die Gerüchte stimmen)

Wenn die nächste Generation eine ähnliche Steigerung bringt, sind die Werte als Maximalwerte nicht vollkommen unrealistisch.

Hälst Du 0,09 schon für den R500/NV50 realistisch ??

Gast
2004-04-20, 12:25:04
260w stromverbauch ;) ;D

Ailuros
2004-04-20, 12:47:32
Original geschrieben von seahawk
Hälst Du 0,09 schon für den R500/NV50 realistisch ??

Warum nicht? Sieht 90nm problematisch aus im CPU Markt? Angenommen wir wuerden H1 2005 fuer die beiden ansetzen (was mir persoenlich als zu frueh klingt), was genau spricht dagegen?

Alfred machte einen guten Punkt; schaut Euch doch erst mal den P20 genauer an und denkt dann weiter was Moeglichkeiten der Zukunft betrifft.

Zool
2004-04-20, 13:20:18
Ein 512Bit Speicherinterface liegt sehr wohl im Bereich des möglichen. Schon die "uralte" Playstation 2 hat eine 1024Bit Anbindung des Speichers, auch wenn die RDRAM-Module dort nicht sehr hoch getaktet sind.

Nur tippe ich auch auf einen noch monströseren Stromverbrauch als die 110Watt vom NV40. Mit dem NV50/R400 werden NVidia und Ati an den CPU-Herstellern entgültig vorbeiziehen. Es sei den Intels Tejas brauchen 200Watt.

Auf jeden Fall kann man sich schon mal auf Waküs für Grakas als Standard einstellen.

deekey777
2004-04-20, 13:24:53
Externe Netzteile...

Speicherinterface mit 512bit Anbindung bei Grafikkarten ist schon jetzt möglich, aber die Kosten...

Coda
2004-04-20, 13:34:55
Schon die "uralte" Playstation 2 hat eine 1024Bit Anbindung des Speichers
Ja zum Speicher auf dem Chip, das ist was gänzlich anderes...

Desti
2004-04-20, 13:35:10
Original geschrieben von Lustiger Troll
Also dann spekulier ich doch einfach mal ins blaue :)

NV50
~400 Mio Transistoren
0,11um oder sogar 0,09um, hergestelt bei IBM
[...]

http://nvidia.com/object/IO_11332.html :P

Winter[Raven]
2004-04-20, 13:43:48
Original geschrieben von Desti
http://nvidia.com/object/IO_11332.html :P

Desti, damit bezieht sich Nvidia ehe auf Mid-Low End Produkte die in 0.11µ produziert werden sollen.

Für den NV50 erwarte ich:

- 0.09µ.
- ~300 Millionen Transis
- ~500 mhz Takt
- 256 bit Speicherinterface
- Was die Architektir angeht, da wird es wohl ned das wichtigeste Sein.

Desti
2004-04-20, 14:02:38
Original geschrieben von Winter[Raven]
Desti, damit bezieht sich Nvidia ehe auf Mid-Low End Produkte die in 0.11µ produziert werden sollen.

[...]

Ich gehe von High-End aus, 90nm werden noch auf sich warten lassen. Auch die Transistorinflation wird meiner Meinung nach nicht mehr so schnell weiter schreiten.

Ailuros
2004-04-20, 14:05:00
Original geschrieben von deekey777
Externe Netzteile...

Speicherinterface mit 512bit Anbindung bei Grafikkarten ist schon jetzt möglich, aber die Kosten...

Moeglich schon, selbst wenn man die Unkosten mal zur Seite schieben wuerde.

Hat jemand ne Ahnung wie die Burst-Raten mit zukuenftigem Speicher aussehen koennte? DDR2 hat einen burst von 4, ergo 4*512bits= 2048bits. Wieso klingt mir das mit den heutigen Vorraussetzungen eher als ein Lese-Effizienz Alptraum?

Gast
2004-04-20, 14:06:34
Ich gehe davon aus, dass der NV50 wegen der Verspätung von DX10/Longhorn zum NV60 wurde, und dass Nvidia anfangs 2005 einen weiteren SM3 Chip auf den Markt bringen wird, welcher auf dem NV40 basiert.

Aqualon
2004-04-20, 14:11:04
Ist wirklich die Bandbreite der limitierende Faktor oder spielt in naher Zukunft die Latenz eine größere Rolle? Falls ja wäre ein 512Bit Interface wohl eher nachteilig für die Performance.

Aqua

Spake
2004-04-20, 15:53:28
nv wird wohl wieder einmal früher als ati auf kleinere fertigung umsteigen also zB.: auf 0.09
aber Ati wird wohl entwerder bei 0.13 bleiben ;)
oder zu 0.11 wechseln
afaik scheint TSMC ja eine megatolle ausbeute zu haben bei 0.09 und Ati müsste bei denen pro wafer und nicht wie nv bei IBM pro funktionierendem chip zahlen...

was den 512 bit bus angeht -> solange 3DLabs oder MAtrox keinen 512 bus einführen werden es Ati und nv auch nett tuen :D

dass was garantiert kommen wird ist schnellerer gddr3 speicher und weitere HZ/LMA verbesserungen
außerdem hat nv ja auch tbdr-entwikcler mit 3dfx gekauft oder?

im übrigen mal eine frag zum erscheinungstermin?:
sollte der R420 überhaupt einen refresh bekommen?
ich dachte er bekommt gar keinen und dafür kommt der R500 schon ende des jahres ...

Gast
2004-04-20, 17:00:36
Wann genau kommen denn DX10 und OGL 2.0? Dies wäre doch schon mal ein Anhaltspunkt, um über die NexGens zu spekulieren.
Denn der R500 soll ja schon Ende des Jahres kommen, NV50 kommt vermutlich 2Q05.
Wenn es keine API-Entwicklungen gibt, kann nur an der Geschwindigkeit gearbeitet werden. Oder man designt einfach ins Blaue hinein und bekommt dann so etwas wie den NV30.

Haben die Bitboys ihren Super-Chip (DX 7) nicht mit einem 512-Bit-Bus designt, um bei 1024x768 noch 4xAA darstellen zu können?

Aquaschaf
2004-04-20, 17:01:52
Warum soll ATI länger beim älteren Prozess bleiben?
Wenn ich mich nicht irre hat sich das bezahlen pro Chip nur auf den NV30 bezogen.

Godmode
2004-04-20, 17:05:13
Original geschrieben von Aquaschaf
Warum soll ATI länger beim älteren Prozess bleiben?
Wenn ich mich nicht irre hat sich das bezahlen pro Chip nur auf den NV30 bezogen.

Weil sie das beim 130 Nm Prozess auch gemacht haben, sie setzen erst richtig darauf, wenn sie wirklich sicher sind, dass das gut geht. Vorher testen sie die Prozesse mit kleineren Chips wie zb dem RV360 aus.

seahawk
2004-04-20, 17:09:44
@ Ail :

Naja, so toll laufen die ersten Prescottversuche auch nicht. Höhere Verlustleistung, mehr Strombedarf, kaum besser taktbar. Aber so eine CPU ist auch wiederum vergleichsweise einfach, im Vergleich zu einem 300 Millionenmonsterchip. (wenn man mal den Cache nicht berücksichtigt)

Im 1H2005 (2Q2005) ist es möglich. Trotzdem vermute ich, dass beide gerade bei den Highendchips er vorsichtig mit einem Prozesswechsel umgehen. Die können besser weniger Chips pro Wafer verkraften, als eine erhebliche Verspätung gegenüber der Konkurrenz. (High-End)

Möglich ist 0,09, sicher imho noch nicht.

drmaniac
2004-04-20, 18:15:05
also 512MB sind ja schon fuer den NV40 im Sommer angekuendigt... ich denke also bis zum NV50/R500 werden es 512 und 1GB sein :D

und ich tippe ganz stark auf externe Netzteile :D oder eben einen eigenen Stecker am Netzteil, neuer ATX/BTX Standart dann...

Crazytype
2004-04-20, 18:18:05
Imo werden GPUs bald kaum mehr kühlbar sein.
350-500 Millionen Transitoren - wie hier vermutet wurde- und langsame Verkleinerungen der Fertigungstechnologie.
Kleine Frage, der Nv40 wird doch noch auf 130 nm gefertigt?
Warum sollten sie 110 dann überspringen?

ShadowXX
2004-04-20, 19:17:35
ich schliesse mich mal aths an und gehe eher von einem 256Bit-Breiten QDR-Speicherinterface aus...

Gast
2004-04-20, 19:17:37
Original geschrieben von Crazytype
Imo werden GPUs bald kaum mehr kühlbar sein.
350-500 Millionen Transitoren - wie hier vermutet wurde- und langsame Verkleinerungen der Fertigungstechnologie.
Kleine Frage, der Nv40 wird doch noch auf 130 nm gefertigt?
Warum sollten sie 110 dann überspringen?
Wie wäre es denn mit einer GPU, deren Interface nicht unter dem Chip sitzt, sondern am Rand, so daß sie in ein Loch in der GraKa eingesetzt wird und von beiden Seiten gekühlt werden kann? Würde man wieder auf Slotprozessoren wechseln könnten auch CPUs so gekühlt werden?
Ich glaube hier gibt es zwei entscheidende Fragen:
1. Ist es möglich, eine solche "Ringsockel"-Lösung zu verwenden ohne die Montage der GraKas zu kompliziert und fehleranfällig zu machen?
2. Kann man auf dem Rand des DIEs überhaupt genug Kontakte und Leitungen verlegen?
Auf beide Fragen würde ich antworten, daß es heutzutage gnadenloser Overkill wäre, in 1 1/2 bis 2 Jahren aber zumindest für Highest Possible End möglich. Oder auch nur eine Spinnerei, aber ich mag den Gedanken...

AlfredENeumann
2004-04-20, 23:50:36
Original geschrieben von Spake
...und nicht wie nv bei IBM pro funktionierendem chip zahlen...




schon wieder dieses besagte Gerücht.
Ich hätte gerne mal eine Quelle dafür.
Denn wenn NV nur für Funktionierende DIE zahlt, dann frage ich mich warum gelegentlich auf Pressekonferenzen und Conference-Calls überhaupt von ausbeute gesprochen wird.

Ailuros
2004-04-21, 00:38:12
Original geschrieben von seahawk
@ Ail :

Naja, so toll laufen die ersten Prescottversuche auch nicht. Höhere Verlustleistung, mehr Strombedarf, kaum besser taktbar. Aber so eine CPU ist auch wiederum vergleichsweise einfach, im Vergleich zu einem 300 Millionenmonsterchip. (wenn man mal den Cache nicht berücksichtigt)

Im 1H2005 (2Q2005) ist es möglich. Trotzdem vermute ich, dass beide gerade bei den Highendchips er vorsichtig mit einem Prozesswechsel umgehen. Die können besser weniger Chips pro Wafer verkraften, als eine erhebliche Verspätung gegenüber der Konkurrenz. (High-End)

Möglich ist 0,09, sicher imho noch nicht.

H1 2005 ist IMHO auch schon sehr sehr optimistisch ;)

IHVs muessen wissen auf welchen Prozess sie ihren Design auslegen werden; so was entscheidet man auch nicht im letzten Moment.

CrazyIvan
2004-04-21, 01:10:04
Original geschrieben von seahawk
- keine Pipelinestruktur mehr (wesentlich flexibeler Struktur)


Was wäre denn ne denkbare Alternative? Kann mir da nur völlig von einander unabhängige parallel arbeitende Funktionseinheiten vorstellen. Aber ob das so viel bringt im Vergleich zum Aufwand? Pipelines sind doch schon relativ parallel und eigentlich auch net direkt unflexibel, da ja normalerweise eh jedes Pixel durch jede Funktionseinheit durch MUSS - ganz egal, ob in ner Pipeline oder einzeln.

Corrail
2004-04-21, 12:30:18
Original geschrieben von Gast
Wann genau kommen denn DX10 und OGL 2.0? Dies wäre doch schon mal ein Anhaltspunkt, um über die NexGens zu spekulieren.

AFAIK soll OpenGL 2.0 bei der Siggraph 2004 (also August) vorgestellt werden. Ich nehman dass beim ARB Juni Treffen werden dann noch die letzten Sachen beschlossen werden und dann August/September OpenGL 2.0 raus kommt (wenn alles nach Plan verläuft...)
Über DX10 kann ich nichts sagen. So wie es aber derzeit ausschaut kommt DX10 irgendwann 05/06 raus.

Ailuros
2004-04-21, 12:42:03
Ich will hoffen dass es das OGL2.0 werden wird dass die meisten erwarten und nicht schon wieder eine OGL1.x Variante.

Corrail
2004-04-21, 12:47:46
So wies ausschaut, wird aber OpenGL 2.0 nur OpenGL 1.5 + GLSL + Superbuffer oder VBO/PBO/EXT_render_target

HOT
2004-04-21, 15:06:25
Beide SM3.0
Beide um die 300Mio Transistoren
Beide ca. 500-600MHz
Beide 110nm Fertigung bei TSMC
Beide korrektes AF und 8x AA (welches auch immer)
Nv: 16x2 o. 32x0Pipes
ATI: 16x1TriTMU Pipes
Shaderspeed bei beiden ähnlich


an SM4.0 glaub ich erst für NV60/R600 und serie6 oder noch später.

Ailuros
2004-04-21, 15:28:54
http://pc.watch.impress.co.jp/docs/2004/0421/kaigai01l.gif

http://pc.watch.impress.co.jp/docs/2004/0421/kaigai02l.gif

http://pc.watch.impress.co.jp/docs/2004/0421/kaigai085.htm

Spake
2004-04-21, 18:30:30
Original geschrieben von AlfredENeumann
schon wieder dieses besagte Gerücht.
Ich hätte gerne mal eine Quelle dafür.
Denn wenn NV nur für Funktionierende DIE zahlt, dann frage ich mich warum gelegentlich auf Pressekonferenzen und Conference-Calls überhaupt von ausbeute gesprochen wird.
hab zwar leider keine quelle welche wirklich 100% sicher ist aber ien paar mutmaßungen...
-nv hat IBM einen schönen batzen geld bezahlt ohne überhaupt dafür chips zu bekommen
könnte ja sein dass sie damit nicht nur IBM "gebten" haben für sie zu produzieren sondern auch eben so einen deal mit chips zu schließen
-wenn ich funktionierende chips sage könnte es ja auhc gut sein dass sich darin eben auch chips befinden wo man teile deaktivieren muiss damit sie funzen(wie Ati es bei seine SE karten macht...)
-wenn man auf einer pressekonferenz sagt dass man einen bessere ausbeute als z.B.: Ati bei TSMc hat dann macht sich das doch positiv auf die meinung über nv bemerkbar

Iwan
2004-04-21, 23:17:01
Nach einer News auf Hardwareluxx.de (diese hier) (http://www.hardwareluxx.de/story.php?id=129) bin ich mir ziemlich sicher das ein 512Bit SI bei der NV50/R500 NICHT kommen wird. 1GHz Real-Takt sollte dann doch genug Bandbreite mitbringen. =)

Gast
2004-04-22, 01:54:57
Aufgrund der momentanen Enwicklung der Leistungs-aufnahme, bzw Wärme-entwicklung neuerer Grafik-Chips frage ich mich, ob es Sinn machen würde (oder überhaupt möglich ist), den Chip nach außen zu verlagern.

Also in der Art, das in der PCI-Express Steckplatz nur eine Art Interface-Karte kommt, die dann mit einem Verbindungskabel das eigentliche Grafik-System (extern) füttert. Das externe System könnte dann problemlos einen eigenen Netz-Anschluss, bzw eine vernünftige Kühlmöglichkeit (ohne Platz-Not) integrieren. Was zudem den Vorteil hätte, das die PC-Innentemperatur auch merklich entlastet wird. (Ist ja mit Festplatten,CPU,etc.. ohnehin schon heiß genug)

Oder markieren die momentanen Chips schon eher die Spitze die Leistungs-aufnahme/Wärme-abgabe, und das Problem entspannt sich mit besseren Produktions-Verfahren ?

CrazyIvan
2004-04-22, 04:10:56
Tja, an der Bandbreite müsste es noch nichtmal mangeln, aber die Latenzen wären wohl inakzeptabel. Der Signalweg wäre eindeutig zu lang.

Ich persönlich würde eher ein externes Netzteil wie zu Zeiten der Voodoo 5 6000 (?) bevorzugen. Aber dies dürfte die Kosten/Einheit enorm erhöhen und wird wohl auch von deshalb von den IHVs nicht angeboten bzw. empfohlen.


Oder markieren die momentanen Chips schon eher die Spitze die Leistungs-aufnahme/Wärme-abgabe, und das Problem entspannt sich mit besseren Produktions-Verfahren ?

Wird wohl eher noch schlimmer als besser. Schließlich machts die CPU Industrie vor. Und in Sachen Fertigung hängt der GraKa Sektor um ca. 2 Jahre hinterher. Also vorerst keine Entspannug - völlig neue Konzepte müssen her...

robbitop
2004-04-22, 08:56:01
@aths

was bringt dich zu dem Schluss, skeptisch über Unified Shader zu sein. Und wie stellst du dir NV50 als "erweiterten NV40" vor?
Ein Sprung wie von NV30 auf NV40? Kleiner oder größer und warum?

Ich habe ein paar Dinge mal gelesen zB IDLP und dass NV50 das bisher ambitionierteste Projekt von NV sei (PR???) und schon seit vielen Jahren in Entwicklung ist.

Gab vor 3 Jahren oder so einen Besuch bei NV irgendeiner Seite und da war NV50 schon länger in den Rechenfarmen.

ShadowXX
2004-04-22, 09:07:39
Original geschrieben von robbitop
was bringt dich zu dem Schluss, skeptisch über Unified Shader zu sein. Und wie stellst du dir NV50 als "erweiterten NV40" vor?
Ein Sprung wie von NV30 auf NV40? Kleiner oder größer und warum?


Ich gehe beim nv50 auch eher von einem nv40-Update aus, bei dem das SM3.0 wirklich schnell läuft und dann auch für Spiele wirklich brauchbar ist...(eben mehr als hier und da etwas Performanceverbesserung, falls das mit der SM3.0 Implementation des nv40 überhaupt machbar ist...)


Ich habe ein paar Dinge mal gelesen zB IDLP und dass NV50 das bisher ambitionierteste Projekt von NV sei (PR???) und schon seit vielen Jahren in Entwicklung ist.


Da liesst man irgendwie bei jedem nV-Chip....auch beim nv30 hiess es: "das ambitionierteste Projekt von nV bisher..."....und das wird man wohl auch bei jedem weiteren neuen Chip hören...

aths
2004-04-22, 09:33:02
Original geschrieben von robbitop
@aths

was bringt dich zu dem Schluss, skeptisch über Unified Shader zu sein.Logisch gesehen wird es wohl unified. Ob der NV50 auch physisch unified Shader hat, hier bin ich skeptisch. ATI hingegen scheint ganz wild darauf, die Shader auch HW-mäßig zu verschmelzen. Wir werden sehen.

Original geschrieben von robbitop
Und wie stellst du dir NV50 als "erweiterten NV40" vor?
Ein Sprung wie von NV30 auf NV40? Kleiner oder größer und warum?Der NV40 ist in vielen Bereichen ein echtes Neudesign. GeForce3 trägt noch recht viel von der GF256 mit sich herum, die FX 5800 hat noch eine Menge GeForce3 (ok, konkret GF4 Ti) in sich. Ich kann mir schwer vorstellen, dass sie vom NV40 das meiste über Board geworfen haben und schon wieder ein grundlegendes Neudesign entwickelten. (Der NV50 ist vom Design her ja praktisch fertig, der NV60 in Entwicklung.)

Der NV50 wird vermutlich wieder FP-TMUs haben, vielleicht aber ohne Denorm-Support (die API verlangt es nicht und es kostet Transistoren.) Ich bin mal gespannt, ob es einen "technischen" Refresh des NV40 geben wird mit einer leicht verbesserten Pipeline, oder nur ein Speedupgrade. Der NV50 könnte eine etwas verstärkte NV40-Pipe haben, die vielleicht weniger anfällig beim Branching ist. Ein radikales Neudesign wie vom NV38 -> NV40 erwarte ich nicht, aber natürlich (wie bei jedem runden Zehner) durchaus wichtige Neuerungen – in Form zusätzlicher Schaltkreise.
Original geschrieben von robbitop
Ich habe ein paar Dinge mal gelesen zB IDLP und dass NV50 das bisher ambitionierteste Projekt von NV sei (PR???) und schon seit vielen Jahren in Entwicklung ist.Der jeweils neuste Chip ist jeweils immer der größte, und demzufolge auch ambitionierteste :)
Original geschrieben von robbitop
Gab vor 3 Jahren oder so einen Besuch bei NV irgendeiner Seite und da war NV50 schon länger in den Rechenfarmen. Dass das drei Jahre her ist, kann ich mir jetzt schwer vorstellen.

robbitop
2004-04-22, 09:48:38
wäre ein physischer Unified Shader nicht deutlich besser als ein getrennter?
Somit kann man doch deutlich effektiver Rechnen, da alle Einheiten alles machen können und on demand gerechnet wird.
zB: heutzutage braucht kein Gamer 6xVS Units. Bei einer Unified Architektur könnten die on demand dann bei PS Ops mitrechnen oder?

Warum denkst du, wird NV einen anderen Weg gehen als ATi?
Es hieß doch alle 18Monate eine neue Generation.

Naja dann heisst es mal wieder "abwarten"...

Ailuros
2004-04-22, 10:16:34
Alle 18 Monate eine Generation heisst dann wohl Herbst 2005.

zB: heutzutage braucht kein Gamer 6xVS Units

Und dass soll was heissen? Das sich die Anzahl der Einheiten bei einem theoretischen unified grid reduzieren wuerden?

Wieso braucht der Gamer heute keine 6xVS? Wer soll denn die verrueckten Poly-Raten in Spielen wie UT2k4, FarCry und dergleichen erstmals behandeln?

robbitop
2004-04-22, 10:27:09
bei unified ist eben alles on demand. Braucht man mehr Geometrieleistung bekommt man die. Braucht man was anderes bekommt mans..so wird alles besser ausgelastet.
Die 6xVS waren nur ein bsp.

Sunrise
2004-04-22, 10:50:34
Original geschrieben von robbitop
bei unified ist eben alles on demand. Braucht man mehr Geometrieleistung bekommt man die. Braucht man was anderes bekommt mans..so wird alles besser ausgelastet.
Die 6xVS waren nur ein bsp.
Das Problem bei "on Demand" ist oft, dass dieser auch entsprechend intelligent verteilt werden muss, um die HW wirklich voll auszulasten. Man wird hier ein sehr gutes Management benötigen, um die "Pool-Units" immer mit Daten zu füttern. Die genaue Struktur ist sicherlich Ansichtssache, aber das Teil "voll auszufahren" dürfte nicht gerade einfach sein.

Ein Shadercompiler wie wir ihn jetzt haben, scheint also nur der Anfang zu sein, da sehe ich deutlich "dickere", umfangreichere und vor allem intelligentere Algorithmen auf uns zukommen.

ATI scheint ja schon eine ganze Weile an diesem Prinzip zu feilen, auch hat man unter anderem öfter das Schlagwort "virtual memory" vernommen, was bei OpenGL-Beschleunigern ja schon eine ganze Weile (z.B. 3DLabs) eingesetzt wird.

Eine theoretische Betrachtung würde sich übrigens vielleicht mal für einen 3DCenter-"Future"-Artikel anbieten, aths und Demi könnten uns da sicherlich einige Theorien näherbringen. Dieser sollte sich wegen der Praxisrelevanz zwar auch mit DirectXNext vereinen lassen, aber es schadet nie, auch mal einen Schritt weiter zu gehen.

aths
2004-04-22, 10:59:31
Original geschrieben von robbitop
wäre ein physischer Unified Shader nicht deutlich besser als ein getrennter?
Somit kann man doch deutlich effektiver Rechnen, da alle Einheiten alles machen können und on demand gerechnet wird."on demand" wird ohnehin gerechnet. Man könnte aber die Last besser verteilen, ja. Allerdings bräuchte man hierfür auch spezielle Logik.
Original geschrieben von robbitop
zB: heutzutage braucht kein Gamer 6xVS Units. Sagst du so. Der Early-Z-Pass z. B. verdoppelt mal eben die Geometrielast. R420 wird vermutlich einen 8-fachen VS anbieten.
Original geschrieben von robbitop
Warum denkst du, wird NV einen anderen Weg gehen als ATi?Warum unterscheiden sich Radeons und GeForces in vielen wichtigen Punkten?

aths
2004-04-22, 11:00:31
Original geschrieben von robbitop
bei unified ist eben alles on demand. "On demand" heißt "auf Bestellung". Keine Graka rechnet was, ohne dass es "bestellt" wurde.

robbitop
2004-04-22, 15:57:21
Original geschrieben von aths
Warum unterscheiden sich Radeons und GeForces in vielen wichtigen Punkten?

sag du es mir ;)

aths
2004-04-23, 10:13:18
Original geschrieben von robbitop
sag du es mir ;) Man sieht ja, dass ATI und NV in der Vergangenheit unterschiedliche Ansätze verfolgt haben, daraus schließe ich dass das auch in Zukunft so sein wird. Zumal es meistens keinen "besten" Weg gibt.

robbitop
2004-04-23, 10:45:42
aber ein physisches Unified Grid könnte diesmal günstiger sein?

ow
2004-04-23, 11:14:19
.

aths
2004-04-23, 11:16:35
Original geschrieben von robbitop
aber ein physisches Unified Grid könnte diesmal günstiger sein? Beides hat seine Vor- und Nachteile. NV äußerte sich da nicht so begeistert, was natürlich nicht ausschließt, dass sie es doch machen.

robbitop
2004-04-23, 11:24:19
@ow
es geht nicht darum, was ich erwarte. Das ist eine normale Frage ;)

@aths
zumeist äußern sich IHVs schlecht über Sachen, wenn sie sie nicht machen. Dazu müssen diese Dinge nicht schlecht sein.
Siehe 256bit DDR. NV meinte ernsthaft, dass das nicht nötig wäre ect. Dasselbe in grün was TBDR betrifft. =)
PR ist was Feines.

aber gut zu wissen, dass es viele Vor- und Nachteile gibt.

ow
2004-04-23, 11:33:01
.

aths
2004-04-23, 11:44:49
Original geschrieben von ow
Das wird erst die Praxis zeigen was "guenstiger" ist (wobei auch dieses "guenstiger" hier noch zu definieren waere;)) Die Frage ist imo, ob NV50 wirklich schon DX-Next kompatibel sein wird, und wie viel vom NV40 noch im NV50 steckt.

Soweit ich weiß, soll der R500 in etwa einem Jahr kommen. Dann sollte auch der NV50 produktionsreif sein. Geben wir den Chips meinetwegen etwa 1 1/2 Jahre Zeit, dann haben wir zwar wohl noch immer kein Longhorn, aber vielleicht trotzdem schon DX-Next. Somit wäre zu erwarten, dass beide Chips SM 4.0 beherrschen. Der 4.0-er sieht afaik für PS und VS den gleichen Befehlssatz vor. Was ich nicht weiß ist, wie dann Shader in HLSL programmiert werden, also ob man einen Generalshader schreibt oder noch in VS und PS trennt. Soweit ich weiß, erlauben die SM 4.0-Specs die im Gespräch sind, separate VS und PS-Hardware. Aber zu solchen Details sollte sich lieber jemand äußern, der da drin steckt.

Ich kann mir schwer vorstellen, dass Nvidia nach dem NV40, der viel neues bringt, dieses für den NV50 gleich wieder über Board wirft. Geschichtlich gesehen arbeitet NV evolutionär, selbst über die runden Zehner hinweg. Würde man die DX-Next Specs kennen, die afaik noch nicht fix sind, könnte man wohl eher abschätzen, inwieweit der NV40 als Basis dafür taugt.

Andererseits könnte es ja auch sein, dass die Minimalanforderung zugunsten von NV gesenkt wird, während ATI mit dem R500 vielleicht den technisch überlegenen Chip hat, eben weil sie auf den R300/R420 nicht viel Rücksicht genommen haben. Mit solchen Spekulationen begibt man sich aber wirklich aufs Glatteis, das einzige was ich weiß ist in diesem Falle, dass ich nichts weiß.

Bislang war es so, dass ATI mit jeder "echten" neuen Generation von der Feature-Palette her die NV-Produkte spielend überbot. Das ist natürlich keine Garantie, dass das beim R500 auch so sein wird.

Xmas
2004-04-23, 12:08:35
Original geschrieben von aths
Bislang war es so, dass ATI mit jeder "echten" neuen Generation von der Feature-Palette her die NV-Produkte spielend überbot. Das ist natürlich keine Garantie, dass das beim R500 auch so sein wird.
Nur lief es andersrum genauso, weil die Generationen nicht gleichzeitig erschienen. Die enorme Verspätung des NV30 hat das ganze etwas verzerrt. So hat die Technologieführerschaft ständig gewechselt:
GeForce 1
GeForce 2
Radeon
GeForce 3
Radeon 8500
Radeon 9700
(GeForceFX)
GeForce 6800

Ailuros
2004-04-23, 13:35:50
Ich kann mir schwer vorstellen, dass Nvidia nach dem NV40, der viel neues bringt, dieses für den NV50 gleich wieder über Board wirft. Geschichtlich gesehen arbeitet NV evolutionär, selbst über die runden Zehner hinweg. Würde man die DX-Next Specs kennen, die afaik noch nicht fix sind, könnte man wohl eher abschätzen, inwieweit der NV40 als Basis dafür taugt.

Ob SM4.0 oder SM3.0, unified grids in HW oder Treiber, wo ist der Unterschied? Was DX-Next wichtiges auf den Tisch versuchen zu bringt (und das auch schon seit langem in previews bekannt ist) ist das I/O Modell, Topology, Tesselation usw usw.

In diesem Aspekt wenn man einen Chip haben will der so nahe wie moeglich an DX-Next in den obrigen Abteilungen liegt, braucht man einiges mehr und um einiges wichtigeres als nur shader instruction slots.

Das Ziel mal ganz vereinfacht von DX-Next sollte klar sein: nur noch in der Mehrzahl AI und physics der CPU ueberlassen. Quasi "unlimited resources" koennte auf Papier NV40 schon behaupten, aber zum vorigen Satz fehlt wohl noch ein sehr wichtiges Stueck oder?

Zauberer
2004-05-16, 02:10:23
Ich habe zwar nicht so viel Ahnung wie andere User hier, aber ich denke wenn der R500/NV50 nicht min 16 (trilinear Filternde) Pipelines mit je 2TMUs hat, ist er ne Enttäuschung.
Bei dem R420 und NV40 bin ich aber positiv überrascht.
Ich hätte auf 8 Pipelines mit je 2 TMUs beim R420 getippt und mit 8 "echten" Pipelines beim NV40 mit auch 2 TMUs pro Pipeline.

Ich weiß man soll nicht mehr stur Pipelines zählen, aber beide Hersteller propagieren ja Ihre echten "16" Pipelines.

Und die Taktfrequenz hätte ich auch so bei 400 MHz gehalten. Da lag ich bei NV ja richtig nur ATI hat mich überrascht. Und außerdem finde ich es blöd, das ATI genau so teuer wie NVidia geworden ist.
Eine 8500 hat mal die Hälfte von einer Geforce 3 gekostet.
Die X800XT sollte auch nur die Hälfte von der GF6800Ultra kosten.
250€ sind dann immer noch ne menge Geld für ne Karte die sowieso nach 6 Monaten ausgetauscht wird. Ich spekuliere mal das der R500 noch Ende 2004 kommt, das wäre richtig Geil! Realistisch wäre leider wohl 9-12 Monate, denke ich.

robbitop
2004-05-16, 11:40:31
die Kosten haben schon ihre Gründe, oder soll ATI dir ihre Grafikkarten subventionieren? :rolleyes:

@AiL
meinst du die berüchtigten 3 P's? ;)

Ailuros
2004-05-16, 12:05:05
Man kann Topology/Tesselation auch vielleicht ueber die Shader laufen lassen, nur sollte man dann keine besondere Leistung erwarten.

So in etwa wie einen sehr flexiblen und hochprogrammierbaren VS (array; ob SIMD oder MIMD). Natuerlich waere eine getrennte programmierbare primitive Einheit um einiges besser, aber sie kostet auch wiederum viel in Hardware.

Die Frage ist hier eigentlich ob man nur ein schnelleres SM3.0 Modell erwartet (SW basierte Vereinigung der unit calls nicht ausgeschlossen) oder >SM3.0 + advanced HOS. Das letztere sieht dann schon eher nach SM4.0 aus. Wie das jetzt in Hardware implementiert wird ist eigentlich egal momentan; hier ist es eher ein Thema der Design-Entscheidungen der IHVs.

Crushinator
2004-05-16, 18:17:10
Meine R500-Erwartungen:

- 0.09µ
- ~250 MTransistors
- ~550+ MHz Core
- 256 Bit Interface
- non unified units
- SM3
- H1/2005

robbitop
2004-05-16, 18:40:31
Takt und Transistoranzahl wird sicher höher sein.

Crushinator
2004-05-16, 19:08:22
Original geschrieben von robbitop
Takt und Transistoranzahl wird sicher höher sein. Du darfst mich gerne an mein Posting erinnern, wenn dem nächstes Jahr so sein sollte. ;)

robbitop
2004-05-16, 19:10:52
ich spekulier ja auch nur ;)

Zauberer
2004-05-17, 02:11:47
Original geschrieben von crushinator
Meine R500-Erwartungen:

- 0.09µ
- ~250 MTransistors
- ~550+ MHz Core
- 256 Bit Interface
- non unified units
- SM3
- H1/2005

Ich denke so:
- 0.11µ (ich denke 0.09µ ist zu früh für 4Q2004/1Q2005, weil 0.11µ wird voraussichtlich Sommer 2004 bei TSMC verfügbar sein, bis man einen schnellen hochkomplexen Grafikchip damit herstellen könnte 1/2 Jahr dauern, siehe NV30 als erster 0.13µ Chip. Und 0.09µ ist im Vergleich zu 0.11µ schwer zu Handhaben, siehe ersten komplexeren Chip von Intel " Prescott")
- ~300+ MTransistors
- ~600+ MHz Core
- 256 Bit Interface
- Shader 4.0

Und natürlich das was ich oben geschrieben habe.

Die Webseite von TSMC verwird mich ein bisschen, da steht nur was von 0.13µ und Nexsys(soll ne 0.09µ Technologie sein).
0.09µ ist schon verfügbar, aber scheinbar nur für einfache Chips.
Darum denke ich, dass die den 0.11µ Prozess für ein 300 Mtransistor Monster zur Serienreife bringen werden.
Wenn der 0.09µ Prozess gut ist, soll man ihn nehmen, aber wenn ich den Prescott so sehe scheint die 0.09µ Technologie bullschitt zu sein, also lieber einen guten 0.11µ Prozess als einen schlechten 0.09µ Prozess.

robbitop
2004-05-17, 10:45:49
wer lesen kann ist klar im Vorteil:
110nm ist ein auf lowcost optimierter Prozess mit 130nm Variablen OHNE Option auf lowk.
110nm ist nie für HighEnd Chips gedacht und wird vermutlich nicht auf diese Last ausgelegt sein. Ausserdem kann man laut DaveB 130nm lowk sogar noch höher Takten. Somit wird RV370 und vieleicht NV44 in 110nm gefertigt, um Kosten zu sparen. Aber für HighEnd Chips wird ein Sprung auf 90nm nötig sein.

Man wird also noch ~1Jahr mit 130nm auskommen müssen.

reunion
2004-05-17, 14:25:41
Meine R500 Specs: ;)

- 90nm lowk
- 300 mio Transistoren
- 24x1 bi (Pixel x Texel)
- 256-bit Speicherinfance
- 600mhz Coretakt
- 1ghz GDDR3 Speichertakt
- 512MB-Ram
- Shader 4.0
- Erscheinungtermin Q4/2005

Winter[Raven]
2004-05-17, 14:44:06
- Erscheinungtermin Q4/2005

hmm ... das würde dann aber bedeuten ATI wird uns wieder paar Refresh-chips ala R420 servieren.

Ich bin begeistert! <-- Ironisch gemeint.

reunion
2004-05-17, 15:07:25
Original geschrieben von Winter[Raven]
hmm ... das würde dann aber bedeuten ATI wird uns wieder paar Refresh-chips ala R420 servieren.

Ich bin begeistert! <-- Ironisch gemeint.

ATI hat mal verkündet nurmehr alle 18 Monate eine neue Generation, das wäre dann Ende 2005 für den R500...

duckofdeath
2004-05-17, 15:17:16
ich glaub aber trotzdem dass ati das erst mit dem r500 wahrmacht weil das schätzomative ein monster wird und vlt die unreal 3 engine mitte/ende 2005 schätzomative nutzen aus sm3 ziehen wird.

robbitop
2004-05-17, 18:46:07
einigen hier macht das Pipelinezählen immernoch sehr großen Spaß, hm?

Ailuros
2004-05-17, 19:20:45
Original geschrieben von reunion
Meine R500 Specs: ;)

- 90nm lowk
- 300 mio Transistoren
- 24x1 bi (Pixel x Texel)
- 256-bit Speicherinfance
- 600mhz Coretakt
- 1ghz GDDR3 Speichertakt
- 512MB-Ram
- Shader 4.0
- Erscheinungtermin Q4/2005

Komischerweise sieht es bei den angeblichen geleakten specs des Xbox2 chips immer noch nach 16*1/bilinear aus.

300M Transistoren und 600MHz ist verdammt optimistisch fuer 90nm, und keine SM4.0 vor R6xx.

Ailuros
2004-05-17, 19:21:45
Original geschrieben von duckofdeath
ich glaub aber trotzdem dass ati das erst mit dem r500 wahrmacht weil das schätzomative ein monster wird und vlt die unreal 3 engine mitte/ende 2005 schätzomative nutzen aus sm3 ziehen wird.

U3 = ~2006

robbitop
2004-05-17, 19:58:02
16 bilineare Samples sind ja wohl erstmal mehr als genug, jetzt brauchen wir wieder bandbreite und effizienzsteigerung. Dass TMUs recht nutzlos werden ist ein schleichender Vorgang...mathemathische Leistung wird immer wichtiger..

Zauberer
2004-05-17, 20:42:36
Original geschrieben von robbitop
einigen hier macht das Pipelinezählen immer noch sehr großen Spaß, hm?
Ja, ich kann es noch gar nicht fassen das NV und ATI bei 16 echten Pipelines angekommen sind, einfach Wahnsinn die Rohpower(für heutige Verhältnisse).

Original geschrieben von Ailuros
Komischerweise sieht es bei den angeblichen geleakten specs des Xbox2 Chips immer noch nach 16*1/bilinear aus.

300M Transistoren und 600MHz ist verdammt optimistisch fuer 90nm, und keine SM4.0 vor R6xx.
Ich möchte aber min. 16 trilineare Samples haben! ;)
Und vielleicht bekommt die XBOX 2 (oder NEXT?) einen Aufguss vom R420? :D
Und gibt es da nicht das Gerücht, dass ATI SM3.0 überspringt und in Ihrer nächsten Generation gleich auf SM4.0 setzt. Abwärtskompatibilität wird natürlich erhalten, denn das war bis jetzt immer so, der R500 wird also mindestens SM3.0 haben.

Original geschrieben von reunion
ATI hat mal verkündet nunmehr alle 18 Monate eine neue Generation, das wäre dann Ende 2005 für den R500...
Die aktuelle ATI Grafikgeneration basiert auf dem R300 der 3Q/2002 auf dem Markt kam, ergo bei 18 Monaten ist die nächste (R500) 1Q/2004 fällig.
Die Roadmap scheint durcheinander geworfen zu sein, da man den R400 gecancelt hat. Wäre der R400 gar nicht in Planung gewesen, hätten wir heute nicht den R420 sondern gleich den R500 sehen können.
Der R400 und der R420 hat Forschung und Entwicklungskosten vom R500 verschlungen und ATI sieht keine Notwendigkeit den R500 so schnell wie möglich zu veröffentlichen.
Trotzdem ist der R420 nur ne Zwischenlösung .
Es gibt verschiedene unabhängige Vergleiche das eine X800 mit 8 Pipelines und gleicher Taktfrequenz und Bandbreite "genau" so schnell wie eine 9800 ist.
Ergo ist der R420 (X800 XT) ein R3x0 (9800 XT)mit 8 Pipelines mehr und ein paar Detailverbesserungen.

Original geschrieben von robbitop
16 bilineare Samples sind ja wohl erst mal mehr als genug, jetzt brauchen wir wieder bandbreite und Effizienzsteigerung. Dass TMUs recht nutzlos werden ist ein schleichender Vorgang...mathematische Leistung wird immer wichtiger..
Braucht man nicht für fotorealistische hochauflösende Texturen mehr Texturleistung?
Bandbreite ist natürlich auch sehr wichtig oder es werden Techniken entwickelt die Bandbreite sparen, es gab da doch mal einen Kyro Chip oder?

robbitop
2004-05-17, 20:54:37
"Braucht man nicht für fotorealistische hochauflösende Texturen mehr Texturleistung?"
Nein, wie ich schon sagte wird arithmetische Rechenleistung immer wichtiger. NV40 ist bereits darauf hinentwickelt.
Irgendwann werden die TMUs sicher komplett ausrangiert. Und frei programmierbare Rechenwerke übernehmen dann eben die Sache. Somit bekommt man einfach mehr Details und Leben in die Spiele.

Xmas
2004-05-17, 21:12:22
Wenn man freien Speicherzugriff hat, kann man prinzipiell auf spezialisierte Hardware, sprich TMUs verzichten. Nur wird man nie auf Texturen verzichten können. Es gibt Daten, die lassen sich nicht errechnen.

robbitop
2004-05-17, 21:14:52
aber der Trend geht zurück und mathematische Operationen hauen längst nicht mehr so rein wie Farbinformationen.
Somit werden denke ich die FPU's wieder "vermehrt" und aufgebohrt.

aths
2004-05-17, 22:50:54
Original geschrieben von robbitop
16 bilineare Samples sind ja wohl erstmal mehr als genug, jetzt brauchen wir wieder bandbreite und effizienzsteigerung. Dass TMUs recht nutzlos werden ist ein schleichender Vorgang...mathemathische Leistung wird immer wichtiger.. TMUs werden wichtiger, arithmetische Leistung wird noch wichtiger.

Winter[Raven]
2004-05-17, 22:59:15
Original geschrieben von aths
TMUs werden wichtiger, arithmetische Leistung wird noch wichtiger.

Tjö, und der Nv40 ist das Paradebeispiel für arithmetische Leistung.

Meine Specs für den R500.

- 90nm lowk
- ~250 mio Transistoren
- 16x1 bi (Pixel x Texel)
- 256-bit Speicherinfance
- 600mhz Coretakt
- ~ 1ghz GDDR3 Speichertakt
- 512MB-Ram
- Shader 3.0
- Erscheinungtermin Q4/2005

robbitop
2004-05-17, 22:59:29
könntest du das mit den TMUs vertiefen? Das interessiert mich sehr.

Zauberer
2004-05-17, 23:56:40
Original geschrieben von robbitop
"Braucht man nicht für fotorealistische hochauflösende Texturen mehr Texturleistung?"
Nein, wie ich schon sagte wird arithmetische Rechenleistung immer wichtiger. NV40 ist bereits darauf hinentwickelt.
Irgendwann werden die TMUs sicher komplett ausrangiert. Und frei programmierbare Rechenwerke übernehmen dann eben die Sache. Somit bekommt man einfach mehr Details und Leben in die Spiele.
Na da habe ich mal eine Frage, sieht das Gesicht vom G-Man (HL2) nicht realistischer als ein Gesicht vom einem Menschen, in den Filmen wie Toy Story (2), Monster AG oder Shrek (2) aus?

Das liegt daran das gerenderte Zehnen oft Comichaft aussehen.
Darum finde ich besser den Fotorealistischen Weg zu gehen, anstatt in Echtzeit zu Redern.
Also am Besten das beste von beiden, also auf komplexe Models Fotorealistische Texturen in 3D draufpappen.

Der Vergleich zwischen HL2 und Shrek ist ziemlich krass, Supercomputer gegen HomePC, aber trotzdem finde ich das vor allem die "Haut" bei HL2 besser als in Shrek aussieht.
Ich meine natürlich die Menschen und nicht die Monster!

http://people.freenet.de/ballzauberer/G-Man.jpg

Wer meine Signatur liest weiß, das ich nicht alles Ernst meine und das auch Spaß dabei ist. ;)
Das schreibe ich bevor welche behaupten ich würde spinnen.
Ich habe ja Toy Story, Monster AG oder Shrek ausgesucht, da diese Filme ja Comichaft aussehen sollen, dass ändert aber nichts an der Tatsache das mache Dinge nicht so real wie in "normalen" PC Spielen aussehen.

Mal ne off-Topic Frage:
Final Fantasy fand ich von der Grafik ziemlich genial!
Eigentlich ist das von der Grafik her, der beste Animierte Film, kennt einer einen Bessern?

DrumDub
2004-05-18, 00:50:37
Original geschrieben von Zauberer
Mal ne off-Topic Frage:
Final Fantasy fand ich von der Grafik ziemlich genial!
Eigentlich ist das von der Grafik her, der beste Animierte Film, kennt einer einen Bessern?

nope. gibt in dem bereich nicht besseres. hab den film damals im kino auf nem dlt(?)-projektor gesehen. absolut genial.

wobei ich die mischung von computeranimiation und anime auch sehr geil finde, wie es bei "ghost in the shell" praktiziert wurde. immerhin ist der film schon gut acht jahre alt.

http://www.giantginkgo.com/archives/thermoptic.jpg

Ailuros
2004-05-18, 08:14:33
Ich möchte aber min. 16 trilineare Samples haben!
Und vielleicht bekommt die XBOX 2 (oder NEXT?) einen Aufguss vom R420?
Und gibt es da nicht das Gerücht, dass ATI SM3.0 überspringt und in Ihrer nächsten Generation gleich auf SM4.0 setzt. Abwärtskompatibilität wird natürlich erhalten, denn das war bis jetzt immer so, der R500 wird also mindestens SM3.0 haben.

XBox2 soll angeblich zwischen R5xx und R6xx liegen. Und nochmal das mit dem SM3/4.0 macht fast keinen nennenswerten Unterschied wenn es keine Unterstuetzung von advanced HOS geben wird.

Das angebliche Dokument behauptet fuer XBox2 folgendes:

16 bilinear texture fetches per cycle
Max throuput per cycle:

1 vertex
1 triangle
2 (2*2) pixel quads + Z/stencil

Das Problem ist stets Bandbreite. Trilineare TMUs waere eine alternative Loesung, aber dann wuerden die zahllosen AF Optimierungen keinen Sinn mehr machen, was wohl aber wiederum an Leistung kosten wuerde.

Ailuros
2004-05-18, 08:21:04
Original geschrieben von Winter[Raven]
Tjö, und der Nv40 ist das Paradebeispiel für arithmetische Leistung.

Meine Specs für den R500.

- 90nm lowk
- ~250 mio Transistoren
- 16x1 bi (Pixel x Texel)
- 256-bit Speicherinfance
- 600mhz Coretakt
- ~ 1ghz GDDR3 Speichertakt
- 512MB-Ram
- Shader 3.0
- Erscheinungtermin Q4/2005

Erscheinungstermine kann man schwer vorraussehen. 250M aber nur wenn sie 2 ALU ops pro SIMD haben ; bei 3 ALU ops wuerde ich mehr Transistoren schaetzen und natuerlich um einiges niedrigere Takraten (</= 500/800MHz).

aths
2004-05-18, 09:29:16
Original geschrieben von robbitop
könntest du das mit den TMUs vertiefen? Das interessiert mich sehr. Ist als Nebenthema für einen Artikel geplant :)

robbitop
2004-05-18, 09:50:50
was du alles in deine Artikel packst ... :D

Winter[Raven]
2004-05-18, 10:35:44
Erscheinungstermine kann man schwer vorraussehen. 250M aber nur wenn sie 2 ALU ops pro SIMD haben ; bei 3 ALU ops wuerde ich mehr Transistoren schaetzen und natuerlich um einiges niedrigere Takraten (</= 500/800MHz).

Um die Wahrheit zusagen, erwarte ich von dem R500 nix anderes als mal wieder einen Chip der dem R420 basiert mit Shadern 3.0 und paar internen verbesserungen.

ATi wird wohl die vorhandene Architektur wirklich bis zum letzen Moment ausschlachten.

Ich kann mir auch nicht vorstellen dass der R500 wenn er in 0.90µ gefertig werden soll vor Q3-Q4 2005 kommen wird, für die ist es neuland, und wer sich aufs Glatteis traut, mussdamit auch rechnen auf die schnauze zufliegen.

Ailuros
2004-05-18, 11:00:02
SM3.0 und auf R420 basierend kommt leicht zum Oxymoron. Sonst haette R4xx schon SM3.0. Es sind hier radikalere Aenderungen noetig und ich hab das Gefuehl dass das R3xx/R4xx Geruest dafuer nicht mehr viel taugt.

ow
2004-05-18, 12:43:28
.

TheGood
2004-05-18, 13:38:26
scheint leider noch nicht bei allen angekommen zu sein ;)

Gast
2004-05-18, 15:48:20
R500:

800MHz / 800MHz
16x2 / 32x1 Pixelpipeline-Architektur
512-Bit Speicheranbindung
512MB GDDR3 Speicher
12 Vertexshadereinheiten
350 Mio. Transistoren
PS und VS 3.0
DirectX 10

*träum*

Zauberer
2004-05-18, 22:36:53
Original geschrieben von Gast
R500:

800MHz / 800MHz
16x2 / 32x1 Pixelpipeline-Architektur
512-Bit Speicheranbindung
512MB GDDR3 Speicher
12 Vertexshadereinheiten
350 Mio. Transistoren
PS und VS 3.0
DirectX 10

*träum*

Na, wenn Du schon so Träumst: ;)
Dann müssen auch Shader 4.0 in DX10 (Next) rein!
Weil das steht bestimmt fest, dass Microsoft in der nächsten DX Version Shader 4.0 reinpackt.
Warum nicht gleich 16 Shadereinheiten und 400 Mio. Transistoren?
Na ich denke das sind eher R600 Specs. :D

Ailuros
2004-05-19, 01:52:33
Original geschrieben von Gast
R500:

800MHz / 800MHz
16x2 / 32x1 Pixelpipeline-Architektur
512-Bit Speicheranbindung
512MB GDDR3 Speicher
12 Vertexshadereinheiten
350 Mio. Transistoren
PS und VS 3.0
DirectX 10

*träum*

a) Es heisst immer noch DX-Next.
b) SM3.0 = DX9.0, SM4.0 = > DX9.0
c) Hoert sich nach einen ziemlich bloeden chip an; abgesehen davon dass die Transistoren viel zu wenig sind.

Schmeisst doch nicht einfach Zahlen zusammen, von denen Ihr in der Mehrzahl keine Ahnung habt wofuer sie stehen oder was ihr Zusammenhang ist.

Iwan
2004-05-19, 16:29:34
mir sin die speks sowas von egal, hauptsache die GPUs bringen wieder so einen Performance-Zuwachs wie R420/NV40. dann will ich schon zufrieden sein :bäh:

betasilie
2004-05-19, 16:53:52
Original geschrieben von Ailuros
Schmeisst doch nicht einfach Zahlen zusammen, von denen Ihr in der Mehrzahl keine Ahnung habt wofuer sie stehen oder was ihr Zusammenhang ist.
Machen sie doch. =)

Rampage 2
2004-05-20, 23:04:10
Original geschrieben von drmaniac
also 512MB sind ja schon fuer den NV40 im Sommer angekuendigt... ich denke also bis zum NV50/R500 werden es 512 und 1GB sein :D

und ich tippe ganz stark auf externe Netzteile :D oder eben einen eigenen Stecker am Netzteil, neuer ATX/BTX Standart dann...

VoodooVolts goes NV-Volts;D...

...allerdings bräuchte man in diesem Fall 3-4 externe Stecker *eg*

Ailuros
2004-05-21, 18:48:24
Original geschrieben von Iwan
mir sin die speks sowas von egal, hauptsache die GPUs bringen wieder so einen Performance-Zuwachs wie R420/NV40. dann will ich schon zufrieden sein :bäh:

So sollte es immer sein fuer den Normalverbraucher. Das Zahlengewaerkel ist ziemlich sinnlos.

ice cool69
2004-05-25, 01:49:32
Naja dass sich die Transistorenzahl in die Richtung X2 der heutigen Generation bewegt ist ja wohl logisch, 1GB RAM ist auch mehr als wahrscheinlich, SM 4.0/DXnext sogar schon angekündigt, 512 Bit Speicheranbindung eine zu erwartende Weiterentwicklung.

Klar was Vertexshader, Taktraten, Tri-TMUs, eDram etc. betrifft kann man wirklich nur raten/schätzen, aber oben genanntes ist ja wohl alles schon mehr oder weniger Fakt.

Gast2k4
2004-05-26, 20:01:28
Ich hab zwar wenig Ahnung von der Technik von Grafikkarten sag aber auch ein paar Spekulationen meinerseits. Diesen Herbst wird ja auf 110 nµ umgestiegen und ich glaube auch dass dies so bleiben wird, denn ein Umstieg auf 90 nµ wäre zu kostenaufwendig und ristkant, siehe Intel mit dem Prescott. GPU und Speicher hertz lass ich mal, wie wärs mit einer besseren Pro Takt Leistung :D ? Ich weiß zwar nicht ob die Speicherbandbreite mit dem Speicherinterface etwas zu tun hat ( 256 Bit Radeon 9800XT z.B.) aber ich halte eine Speicherbandbreite von 50+GB/sec für realistisch und falls dies ein 512 Bit Speicherinterface benötigt auch :D. 512 MB GDDR3 werden wir womöglich auf den High End Grafikkarten sehen. Ich bin jetzt mal ganz außenseitermäßig und sage die nächste Grafikkartengeneration wird 24 Pipelines haben. Ob sie DirectX Next unterstützen ist meiner Ansicht nach fraglich, hängt von Microsoft ab. Sollte Shader 3.0 auf dem Nv4x als passabel erweisen, rechne ich bei Nvidia mit PS 4.0 und bei ATI mit PS 3.0 wenn nicht sogar PS 4.0. Hängt meines Achtens davon ab, wie gut PS 3.0 ausgenützt wird.

ice cool69
2004-05-28, 00:20:28
@ Gast2k4

Sorry aber einige Dinge die du angesprochen sind sind geradezu höchst unwahrscheinlich.

NV50 wird Shader 4.0 haben? Sehe ich genauso.
ATI eher Shader 3.0?
Du scheinst nicht aufgepasst zu haben, ATI überspring die 3.0-Generation da die R300 nicht gut auf diese abgestimmt werden konnte.

Jedoch zu glauben dass ATI mit dem R500 einen S3.0-Beschleuniger und nicht gleich einen S4.0-Beschleuniger baut ist nicht nur absolut unwahrscheinlich sondern einfahc nur falsch.

Ich denke sogar dass ATI bei Shader 4.0 den Ton angeben wird da die XBOX2 mit einem ATI-Chip ausgerüstet sein wird, ergo ist die Zusammenarbeit mit M$ sehr hoch und M$ wird diesen Chip pushen.

betasilie
2004-05-28, 00:24:01
Original geschrieben von ice cool69
Ich denke sogar dass ATI bei Shader 4.0 den Ton angeben wird da die XBOX2 mit einem ATI-Chip ausgerüstet sein wird, ergo ist die Zusammenarbeit mit M$ sehr hoch und M$ wird diesen Chip pushen.
Ack. ATI entwickelt zusammen mit M$ SM4.0. NV wird es da ziemlich schwer haben gegen anzustinken.

ice cool69
2004-05-28, 00:39:30
Naja nvidia wird gezwungen sein ein recht ähnliches Design vorzuzeigen.
Jedenfalls werden sie nicht die Möglichkeit haben eigene Brötchen zu backen, ansonsten würde es wohl ähnlich aussehen wie mit dem NV3X.

Ailuros
2004-05-28, 01:03:48
Original geschrieben von Gast2k4
Ich hab zwar wenig Ahnung von der Technik von Grafikkarten sag aber auch ein paar Spekulationen meinerseits.

Ehrlich zu sein ist ein Vorteil. Erlaube mir aber trotzdem.

Diesen Herbst wird ja auf 110 nµ umgestiegen und ich glaube auch dass dies so bleiben wird, denn ein Umstieg auf 90 nµ wäre zu kostenaufwendig und ristkant, siehe Intel mit dem Prescott.

110nm wird von den Foundries nur fuer value/mainstream angeboten. Nachdem gibt es dann low-k 90nm fuer "high performance" und das dann sowieso nicht frueher als irgendwann in 2005 und bis dahin haben IHVs noch genug Zeit die Sache auszubuegeln.

GPU und Speicher hertz lass ich mal, wie wärs mit einer besseren Pro Takt Leistung :D ?

Message an ATI? Accepted :)

Ich weiß zwar nicht ob die Speicherbandbreite mit dem Speicherinterface etwas zu tun hat ( 256 Bit Radeon 9800XT z.B.) aber ich halte eine Speicherbandbreite von 50+GB/sec für realistisch und falls dies ein 512 Bit Speicherinterface benötigt auch :D. 512 MB GDDR3 werden wir womöglich auf den High End Grafikkarten sehen.

Je breiter der Bus, desto hoeher die Bandbreite. 512bit wird noch einige Zeit auf sich warten lassen und man kann 50+GB/sec locker mit 800+MHz GDDR3 auf einem 256bit bus bekommen.

Ich bin jetzt mal ganz außenseitermäßig und sage die nächste Grafikkartengeneration wird 24 Pipelines haben.

Die Sache bleibt wohl vorruebergehend bei 16 SIMD Kanaelen stecken, wobei nicht unbedingt das Gleiche gueltig sein muss fuer die Anzahl der FPU/ALUs pro SIMD.

Ob sie DirectX Next unterstützen ist meiner Ansicht nach fraglich, hängt von Microsoft ab. Sollte Shader 3.0 auf dem Nv4x als passabel erweisen, rechne ich bei Nvidia mit PS 4.0 und bei ATI mit PS 3.0 wenn nicht sogar PS 4.0. Hängt meines Achtens davon ab, wie gut PS 3.0 ausgenützt wird.

SM4.0 = vereinte Einheiten von PS/VS3.0 mit "unlimited resources". Nix PS4.0.

ice cool69
2004-05-28, 01:27:17
Wofür steht eigentlich SM 4.0? Was heißt SM?

Ailuros
2004-05-28, 01:36:46
Shader Model 4.0

Fuer PS/VS3.0 braucht man minimal 512 instruction slots und es kann bis zu 32768 slots gehen. Bei SM4.0 sind die PS/VS vereint und die Anzahl der slots "unbegrenzt".

http://www.beyond3d.com/articles/directxnext/

ice cool69
2004-05-28, 01:40:24
Ah, SM = Shader Model. Gibts es ab SM4.0 keine getrennten PS/VS mehr oder wie soll ich das verstehen?

betasilie
2004-05-28, 01:50:01
Original geschrieben von ice cool69
Ah, SM = Shader Model. Gibts es ab SM4.0 keine getrennten PS/VS mehr oder wie soll ich das verstehen?

Original geschrieben von Ailuros
Bei SM4.0 sind die PS/VS vereint und die Anzahl der slots "unbegrenzt".

http://www.beyond3d.com/articles/directxnext/

;)

Ailuros
2004-05-28, 01:50:21
DX-Next wird (mal ganz vereinfacht) wohl keine Unterschied mehr sehen zwischen PS und VS. Ob jetzt IHVs ihre VPUs mit getrennten Einheiten bauen werden oder nicht ist eine ganz andere Sache; moeglich waere es schon, welches die absolut bessere Loesung sein koennte kann man wohl schwer beantworten.

betasilie
2004-05-28, 02:06:49
Original geschrieben von Ailuros
DX-Next wird (mal ganz vereinfacht) wohl keine Unterschied mehr sehen zwischen PS und VS. Ob jetzt IHVs ihre VPUs mit getrennten Einheiten bauen werden oder nicht ist eine ganz andere Sache; moeglich waere es schon, welches die absolut bessere Loesung sein koennte kann man wohl schwer beantworten.
Mich würde auch interessieren wie die ersten GPUs das handeln werden. ... Ich würde drauf tippen, dass bei den ersten SM4.0 GPUs die Units fest aufgeteilt sind, was aber bei späteren Applikationen Nachteile haben wird, wenn diese dynamische Lastansprüche an VS- und PS-Operationen haben werden.

ice cool69
2004-05-28, 02:51:57
Ich schätze dass eine Einheit welche sowohl PS als auch VS-Operationen ausführen kann in der Theorie besser klingt, wie du schon sagtest ist sie bei einer unausgewogenen Anzahl von PS/VS-Instruktionen flexibler.

Hab ich das jetzt richtig ausgedrückt?

Ailuros
2004-05-28, 08:49:56
Original geschrieben von betareverse
Mich würde auch interessieren wie die ersten GPUs das handeln werden. ... Ich würde drauf tippen, dass bei den ersten SM4.0 GPUs die Units fest aufgeteilt sind, was aber bei späteren Applikationen Nachteile haben wird, wenn diese dynamische Lastansprüche an VS- und PS-Operationen haben werden.

Obwohl es wohl eher eine Antwort fuer die Profis hier waere, schaetze ich dass es mit gutem multi-threading kein besonderes Problem sein sollte.

**edit: ja ice das war richtig ausgedrueckt.

ow
2004-05-28, 09:50:49
.

Ailuros
2004-05-28, 10:20:59
Original geschrieben von ow
Es ist kaum anzunehmen, dass sich MS hier auf eine Firma verlaessst die noch nichtmal in der Lage ist, eine SM3 Hardware zu designen.
Es wird fuer ATi extrem schwer werden, den technischen Rueckstand wieder aufzuholen.

Nicht unbedingt; kommt ganz drauf an wie R500/NV50 wirklich dann im Vergleich aussehen. Die Frage ist dann eher was NVIDIA's Ziel mit NV50 war/ist; sollte das Ziel 2*NV40 Leistung sein dann sieht es nicht danach aus als ob so viel Platz fuer extra Features uebrig bleiben koennte.

Ehrlich gesagt sehe ich wenig Relation was die beiden betrifft mit zukuenftigen APIs.

ow
2004-05-28, 10:41:48
.

betasilie
2004-05-28, 11:26:42
Original geschrieben von ow
Es ist kaum anzunehmen, dass sich MS hier auf eine Firma verlaessst die noch nichtmal in der Lage ist, eine SM3 Hardware zu designen.
Es wird fuer ATi extrem schwer werden, den technischen Rueckstand wieder aufzuholen.
Schonmal dran gedacht, dass ATI zum derzeitigen Zeitpunkt ganz bewusst noch keine SM3.0 auf den Markt auf dem Markt geworfen hat?

Klar, für dich als guten ATI-Freund stellt sich das gleich als Unvermögen dar, aber wenn Du dich mal einen Moment frei machst von deiner emotionalen Befangenheit, wirst Du meiner Aussage vielleicht was abgewinnen können.

LovesuckZ
2004-05-28, 11:33:53
Original geschrieben von betareverse
Schonmal dran gedacht, dass ATI zum derzeitigen Zeitpunkt ganz bewusst noch keine SM3.0 auf den Markt auf dem Markt geworfen hat?


Und die Gruende waeren?

DrumDub
2004-05-28, 11:37:31
Original geschrieben von LovesuckZ
Und die Gruende waeren?

keine r&d ressourcen mehr frei, wegen r500, xbox2 und nintendo next?

[dzp]Viper
2004-05-28, 11:38:53
Original geschrieben von LovesuckZ
Und die Gruende waeren?

einsparen von entwicklungskosten

es lassen sich genug gründe finden - auch du dürfest die mit einwenig nachdenken sehr schnell finden....


Aber ob das nun so ist oder nicht, wissen wir nicht - darum finde ich die aussage von ow auch mal wieder sehr "fanboy" like....

LovesuckZ
2004-05-28, 11:41:43
Original geschrieben von DrumDub
keine r&d ressourcen mehr frei, wegen r500, xbox2 und nintendo next?

Ich bezweifel, dass man seit Frühjahr 2002 am "xbox2 und nintendo next" Chip gearbeitet haette.

LovesuckZ
2004-05-28, 11:44:03
Original geschrieben von [dzp]Viper
es lassen sich genug gründe finden - auch du dürfest die mit einwenig nachdenken sehr schnell finden....


Natuerlich, nur diese würden ja wieder im "'fanboy' like" abdriften.

ow
2004-05-28, 11:50:30
.

ow
2004-05-28, 11:53:33
.

ow
2004-05-28, 11:55:09
.

Quasar
2004-05-28, 11:56:08
Ganz einfach. Weil sie nicht bereit waren, die nötige Die-Size für einen SM3.0-Chip bei gleichzeitig vernünftiger Performance aufzubringen.

Laut Dave Orton waren sie wohl überrascht, daß nV mit "nur" 15% mehr Die-Size ausgekommen ist, als sie selber und dabei ähnliche Eckdaten vorweisen kann, sprich, nicht an der Pipeline-Anzahl sparen musste.

edit:
Bezog sich auf:
Original geschrieben von ow
Nein, warum sollten sie?
Da SM3.0 DX9-Standard ist wird ATi sowieso SM3.0 HW irgendwann brauchen. Nur ist der R300 (=aufgebohrter R200)eine technologische Sackgasse gewesen, wie man jetzt weiss. Hat aber Demi ja alles schonmal erklaert

DrumDub
2004-05-28, 12:01:17
Original geschrieben von LovesuckZ
Ich bezweifel, dass man seit Frühjahr 2002 am "xbox2 und nintendo next" Chip gearbeitet haette.

richtig. die frage ist: hat ati je angefangen einen sm 3.0 chip zu designen?

ow
2004-05-28, 12:01:32
.

Quasar
2004-05-28, 12:08:08
Original geschrieben von DrumDub
richtig. die frage ist: hat ati je angefangen einen sm 3.0 chip zu designen?

R400?

DrumDub
2004-05-28, 12:10:03
Original geschrieben von ow
?

Bislang wurden Chip immer noch in der Reihenfolge der technischen Entwicklung der APIs entworfen.
Es gibt keinen Grund, einer Shadermodell zu ueberspringen.

nv hat sm 1.4 übersprungen. ;)

Waere genau so unsinnig als wenn NV jetzt sagen wurde "wir brauchen kein SM4.0 und NV50 sondern gehen gleich zu SM5.0 und NV60".

richtig. ati hat es nicht auf die reihe bekommen dem nv40 shadermodelmäßig was gegenüberzustellen. ob und wie der r500 ein sm 3.0 chip sein wird und der nv50 ein sm 4.0, ist meines erachtens nach nicht zu beantworten.

auf jeden fall muss der r500 ein komplett neues design sein, was die shaderunit angeht. die frage ist, ob das beim nv50 auch nötig ist. aus letzterem könnte sich ein nachteil ergeben.

ow
2004-05-28, 12:13:13
..

DrumDub
2004-05-28, 12:13:40
Original geschrieben von Quasar
R400?

ja, sehr wahrscheinlich. dann frage ich mal anders: warum hat ati dieses projekt aufgegeben? ;)

Quasar
2004-05-28, 12:18:10
Ganz einfach. Weil sie nicht bereit waren, die nötige Die-Size für einen SM3.0-Chip bei gleichzeitig vernünftiger Performance aufzubringen.

Laut Dave Orton waren sie wohl überrascht, daß nV mit "nur" 15% mehr Die-Size ausgekommen ist, als sie selber und dabei ähnliche Eckdaten vorweisen kann, sprich, nicht an der Pipeline-Anzahl sparen musste.

ow
2004-05-28, 12:19:12
.

Quasar
2004-05-28, 12:21:30
Original geschrieben von ow
Hatte NV da eine neue Chipgeneration gebracht? Nicht dass ich wuesste. Der NV2x Core war nicht auf PS1.4 aufzubohren, da musst was neues her, was mit den FXen dann ja auch kam.


Genausogut könnte man in Bezug auf SM3.0 und R420 sagen:

"Hat ATi da eine neue Chipgeneration gebracht? Nicht dass ich wuesste. Der R3xx Core war nicht auf SM3.0 aufzubohren, da müsste was neues her, was mit den R400 dann aber leider gecancelt wurde."
;)

DrumDub
2004-05-28, 12:40:29
Original geschrieben von Quasar
Genausogut könnte man in Bezug auf SM3.0 und R420 sagen:

"Hat ATi da eine neue Chipgeneration gebracht? Nicht dass ich wuesste. Der R3xx Core war nicht auf SM3.0 aufzubohren, da müsste was neues her, was mit den R400 dann aber leider gecancelt wurde."
;)

jupp. das beisst sich die katze in den schwanz. ich denke, sm 4.0 wird erstmal einen endpunkt in der entwicklung darstellen. zumindest sind die theoretischen beschränkuengn mit sm 4.0 sehr gering, wenn ich gewisse aussagen richtig verstanden habe. mehr als mit sm 4.0 möglich sein wird, wird wohl erstmal in hardware gar nicht zu realisieren zu sein, wenn ich mir die größe der heutigen gpus so ansehe.

ow
2004-05-28, 12:45:05
.

[dzp]Viper
2004-05-28, 12:46:00
Original geschrieben von ow

1 Strafpunkt weil mir diese persoenlichen Angriffe auf den Sack gehen.


Wenn du keine Argumente hast, dann brauchst du hier nicht mitzudiskutieren.

du drehst jetzt vollkommen am Rad oder?

Gibst mir nen Punkt weil ich nicht deiner Meinung bin und deine Aussage als "fanboymäßig" betrachte...
Und unterdessen schlagen sich andere hier die köpfe ein und flamen was das Zeug hält.. :no:

Sorry aber irgendwie finde ich das leicht "komisch"...

Ich halte mich jetzt raus aus diskussionen wo du mitmachst - is mir zu gefährlich...

ow
2004-05-28, 12:46:48
.

ow
2004-05-28, 12:49:32
.

LovesuckZ
2004-05-28, 12:50:56
Original geschrieben von DrumDub
nv hat sm 1.4 übersprungen. ;)


SM1.4? Gibt es wirklich VS 1.4?
Ansonsten, ATi hat auch das PS/VS 2.a übersprungen :).
Der Vergleich PS1.4 <> SM3.0 ist ein bisschen weit hergeholt, da das SM3.0 eigentlich auch als DX 10 bezeichnet werden koennte. PS1.4 sind eigentlich nur eine Erweiterung der PS1.1, also sowas wie PS2.a.

[dzp]Viper
2004-05-28, 12:55:20
Original geschrieben von ow
Wie man ja sieht ist der Punkt voellig gerechtfertigt.

Ausser persoenlichen Beleidigungen kommt ja nix von dir.

achso
ich hab deine aussage als "fanboymäßig" betrachtet.. hm... beleidigung?

Nur beleidigungen? Aha - wo den sonst noch ausser die die ich jetzt vielleicht oben gemacht habe (auch wenn das nicht unbedingt eine beleidung ist...)

Naja - meine Meinung über dich hat sich hiermit wiedereinmal bestätigt...

Wie gesagt, ich halte mich da jetzt raus... Sollen andere Moderatoren über dich entscheiden...

StefanV
2004-05-28, 13:01:27
Original geschrieben von Quasar
Ganz einfach. Weil sie nicht bereit waren, die nötige Die-Size für einen SM3.0-Chip bei gleichzeitig vernünftiger Performance aufzubringen.

Hm, mal sehen, was nV so in der Pipe hat:

nV50+ Ableger

Hm, mal sehen, was ATi so in der Pipe hat:
R500 + Ableger
XBox2 Chip
Gamecube Chip

Hm, für mich schauts eher so aus, als ob ATI sich dazu entschieden hat, für diese Generation weniger Entwicklungsaufwand aufzubringen, um sich eher auf künftige Chips konzentrieren zu müssen...

Nicht das ihnen noch eine ähnliche Blamage wie nV mit dem nV30 passiert :eyes:

HOT
2004-05-28, 13:03:19
Es kann durchaus sein, dass ATI den R300 nicht mehr als Grundlage für den R500 nehmen möchte. Somit halte ich SM3.0 von ATI für sehr unwahrscheinlich. Ich denke, dass ATI massgeblich an SM4.0 mitgewirkt hat, weil sie eben einen neuen eigenen Standard bringen wollen. Ich halte es überigens für genauso unwahrscheinlich, dass die XBox2 einen SM3.0/4.0 Chip bekommt, sondern nur einen aufgebohrten R300.
Das hört sich jetzt zwar bitter an, aber ATI kann ja bei einem Konsolenchip den R300 weiterentwickeln, ohne sich an irgendwelche PC Standards halten zu müssen, wie gesagt, hauptsache das Ergebnis stimmt. Deshalb gibt es IMHO ja auch eine XBox2 Demokarte, die auf R300 Technologie basiert.

ATI wird sicher nicht dieses und auch nicht nächstes Jahr mit dem R500 um die Ecke kommen, ich denke, dass sie eine ganze Weile brauchen werden, um eine neue Technologie zu entwickeln. NV hat diesen Schritt mit dem NV40 schon hinter sich gebracht, deshalb war der ja auch so unglaublich teuer in R & D. Sie haben ja wirklich alles am Renderingteil neu designt. Neue TMUs, neue Shadereinheiten, komplett neue Vertexshader, total andere Fertigung usw.
Ich finde, dass der NV40 kaum noch Verwandschaft mit dem NV30, aber ebensowenig mit der Geforce4 besitzt. NV hat sich für beide Chips sehr in Unkosten gestürzt, während ATI vor Jahren ein neues Design entwickelte und seit dem nichts mehr änderte. Der NV50 hingegen wird sicher nur ein verbesserter um SM4.0 erweiterter NV40, da das NV40 Design meiner Meinung nach relativ nahe am IMR Optimum ist.

LovesuckZ
2004-05-28, 13:03:59
Original geschrieben von Stefan Payne
Nicht das ihnen noch eine ähnliche Blamage wie nV mit dem nV30 passiert :eyes:

Das schaffen sie schon noch, viel fehlt ja nicht mehr...

Winter[Raven]
2004-05-28, 13:04:07
Original geschrieben von betareverse
Ack. ATI entwickelt zusammen mit M$ SM4.0. NV wird es da ziemlich schwer haben gegen anzustinken.

Löl?

Das glaubst du wohl selber nicht, oder? Die NV4x Architektur ist schon sogut wie 4.0, laut Demirug kann man dem NV40 die 4.0 Version durch Treiber beibringen. ATI hat deutlich mehr zutun.

HOT
2004-05-28, 13:05:48
Original geschrieben von LovesuckZ
Das schaffen sie schon noch, viel fehlt ja nicht mehr...

Wieso? Im Gegensatz zum NV30 ist der R420 er ja schneller und sparsamer als die Konkurrenz. Der Vergleich zieht also nicht.

HOT
2004-05-28, 13:07:16
Original geschrieben von Winter[Raven]
Löl?

Das glaubst du wohl selber nicht, oder? Die NV4x Architektur ist schon sogut wie 4.0, laut Demirug kann man dem NV40 die 4.0 Version durch Treiber beibringen. ATI hat deutlich mehr zutun.

Es gibt definitiv HardwareCaps, die verhindern, dass der NV40 SM4.0 kann. Aber im Grundsatz macht NV sicher nur ein Update. ATI macht wohl eher ein "neu"Design.

aths
2004-05-28, 13:08:55
Original geschrieben von ow

1 Strafpunkt weil mir diese persoenlichen Angriffe auf den Sack gehen.


Wenn du keine Argumente hast, dann brauchst du hier nicht mitzudiskutieren. Das ewige, reine ATI-Gebashe von dir hat nunmal zur Folge, dass du einen bestimmten Eindruck erweckst.

Gestern unterhielt ich mich mit einigen Leuten von ATI, und kann ihre Entscheidung jetzt besser nachvollziehen. Unabhängig ob ich das kann oder nicht, zeichnet sich jetzt schon ab, dass sie mit ihrer Strategie durchkommen werden.

Du spulst immer die gleichen (für sich genommen berechtigten) Argumente ab, ohne zu versuchen mal andere Seiten zu sehen. Dadurch wird die Stimmung aufgeheizt und du gehst dann mit dem Strafzettel rum? Das kann's nicht sein, imo.

HOT
2004-05-28, 13:09:32
Original geschrieben von ow
Wie man ja sieht ist der Punkt voellig gerechtfertigt.

Ausser persoenlichen Beleidigungen kommt ja nix von dir.

Die Reaktion finde ich ehrlichgesagt auch übertrieben...

Quasar
2004-05-28, 13:13:04
Original geschrieben von Stefan Payne
Hm, mal sehen, was nV so in der Pipe hat:

nV50+ Ableger

Hm, mal sehen, was ATi so in der Pipe hat:
R500 + Ableger
XBox2 Chip
Gamecube Chip

Hm, für mich schauts eher so aus, als ob ATI sich dazu entschieden hat, für diese Generation weniger Entwicklungsaufwand aufzubringen, um sich eher auf künftige Chips konzentrieren zu müssen...

Nicht das ihnen noch eine ähnliche Blamage wie nV mit dem nV30 passiert :eyes:

Das mag alles sein, die Aussage, die du von mir zitiertest, ist allerdings aus dem Interview mit Herrn Orton auf B3D.
Als Scheff seiner Firma dürfte er 'ein wenig' mehr diesbezüglich wissen, als du oder ich.

LovesuckZ
2004-05-28, 13:13:04
Original geschrieben von HOT
Wieso? Im Gegensatz zum NV30 ist der R420 er ja schneller und sparsamer als die Konkurrenz. Der Vergleich zieht also nicht.

Das gehoert nicht hier, daher nur noch ein Post:
Schneller: Preiskategorieabhaengig.
Sparsamer: War auch der NV30 im 2D Modus.
Ansonsten: Cheats, schlechteres einsetzbares Featureset (kein PS3.0 -> über CPU), Lügen.
Ich sehe viele Parallelen, sie müssen ja nicht immer nur im Speed zu suchen sein.

Ich halte es überigens für genauso unwahrscheinlich, dass die XBox2 einen SM3.0/4.0 Chip bekommt, sondern nur einen aufgebohrten R300.


SM3.0 ist für Entwickler die Zukunft, da einiges einfacher ist und man bei vernünftiger Implantierung bei statischen und dynamischen branching (Schleifen?) deutlich Leistung einsparen kann.
Sollte die GPU in der Xbox2 kein SM3.0 faehiges Design haben, dann waere dies für die einfache Potentierung von PC Games auf die Box vom Nachteil und damit ein Pluspunkt der jetzigen zu nichte gemacht.

Winter[Raven]
2004-05-28, 13:13:11
Original geschrieben von HOT
Es gibt definitiv HardwareCaps, die verhindern, dass der NV40 SM4.0 kann. Aber im Grundsatz macht NV sicher nur ein Update. ATI macht wohl eher ein "neu"Design.

Ist schon klar ;)

Ich habe nur gesagt was Demirug mal gepostet hat :), und das war nunmal die Möglichkeit 4.0 auf NV4x, der Sinn und Unsinn dieser Möglichekeit lassen wir mal raus.

//EDIT:

Bezüglich ATI's R500, so erwarte ich erst den R600 mit 4.0 Support. Man muss bei den heutigen GPU's nach Evolution vorgehen, und nicht auf Teufel komm raus implementierung. Sowas könnte ein großer Schuß nach hinten werden.

Beim NV50 bleibe ich bei 4.0 Support, da NV einfach weniger zudesignen hat und man sicherlich den Support der Dev's sichern will.

aths
2004-05-28, 13:17:58
Original geschrieben von DrumDub
ja, sehr wahrscheinlich. dann frage ich mal anders: warum hat ati dieses projekt aufgegeben? ;) Folgendes ist ein Mix aus Andeutungen seitens ATI und eigener Interpretation:

Ursprünglich wollte sich ATI mit NV über 3.0 verständigen. Von den Chipentwicklern kam aber das Echo, dass ein richtiger neuer Chip mit toller 3.0-Performance sehr groß werden würde. Marktforschungsdaten belegten, dass die User eher nach Performance gierten, als nach neuen Shader-Features. Also cancelte ATI das R400-Projekt, weil sie absahen dass es nicht realisierbar wäre (zu großer Die, noch nicht die notwendigen Tools.) Das ist ca. 2 Jahre her.

Jetzt sehen sie, dass NV zwar 3.0 bietet, aber nicht mit der Performance, die ATI mit ihrem R400 im Sinn hatte.

ow
2004-05-28, 13:18:14
.

LovesuckZ
2004-05-28, 13:20:55
Original geschrieben von aths
Jetzt sehen sie, dass NV zwar 3.0 bietet, aber nicht mit der Performance, die ATI mit ihrem R400 im Sinn hatte.

Ist es für ATi nicht schwerer beim r500 ein vernünftiges SM3.0 Design zu bringen, wenn man keine Vorkenntnisse hat?

StefanV
2004-05-28, 13:21:58
Original geschrieben von LovesuckZ
Ist es für ATi nicht schwerer beim r500 ein vernünftiges SM3.0 Design zu bringen, wenn man wohr keine Vorkenntnisse hat?

Nö, wieso??

aths
2004-05-28, 13:22:03
Original geschrieben von Winter[Raven]
Ist schon klar ;)

Ich habe nur gesagt was Demirug mal gepostet hat :)Wo hat er das?

Winter[Raven]
2004-05-28, 13:23:51
Original geschrieben von aths
Wo hat er das?

Ahhh, das war in dem R420 Speku-tread ... X-D

Kannst ihn ja per PN ansprechen und danach fragen.

aths
2004-05-28, 13:24:58
Original geschrieben von LovesuckZ
Ist es für ATi nicht schwerer beim r500 ein vernünftiges SM3.0 Design zu bringen, wenn man keine Vorkenntnisse hat? Ja und nein. Schwerer, weil sie noch keine eigene 3.0-HW zum testen haben. Leichter, weil sie den R300/420 wegwerfen und was neues entwickeln könnten (Stichwort Unified Shader.) Beim R500 vermute ich eher 4.0 als 3.0.

NV steht vor dem Problem, mit dem NV40 zwar 3.0-HW zu haben, aber in einer Grafik-Pipe, die ja recht tief ist, einfach noch die Branch-Unit anzufügen – das bringt das Feature, aber auf Kosten der Leistung.

aths
2004-05-28, 13:25:36
Original geschrieben von Winter[Raven]
Ahhh, das war in dem R420 Speku-tread ... X-D

Kannst ihn ja per PN ansprechen und danach fragen. Wenn du das anführst, kannst du das doch mal raussuchen und verlinken.

robbitop
2004-05-28, 13:29:17
@aths

genau das mit dem "Durchkommen" stört aber einfach. NV wäre mit einem verdoppelten und verbesserten NV25 sicher auch "durchgekommen". 16 Texel/Takt, Colocompression, 256bit, rund 90Mio Transistoren (lt Demirug) und 350MHz Takt, wäre man vieleicht sogar zu R300 Zeit an die Performancekrone gekommen. Aber was ist mit der Technologie?
Sicher SM2 braucht man erst jetzt so langsam, um die aktuellen Spiele in voller Pracht darzustellen, aber von 2002 bis heute sind immerhin 2 Jahre, wo SM2 kaum zum Einsatz kam, da hätte SM1.3 sicher noch gereicht.
Dass ATi seit 2000/01 seit dem R200 nicht mehr viel gemacht haben und damit auch noch durchkommen, stört mich persönlich schon.

just my 2 cents

ow
2004-05-28, 13:33:26
.

Demirug
2004-05-28, 13:34:03
Ich habe damals gesagt das SM4 im wesentlichen SM3 entspricht mit unlimitierten Resourcen. Das wiederum bedeutet das man aus einem SM3 fähigen Chip im Prinzip aleine durch den Treiber einen SM4 Chip machen kann indem der Chip die Shader die nicht aufeinmal ausgeführt werden können entsprechend zerlegt.

Das ganze spielt aber inzwischen keine Rolle mehr da MS wohl festgelegt hat das ein Grafikchip der nächsten Generation den vollen Funktionsumfang bringen muss. Ein IHV darf sich also nicht mehr aussuchen was er implementiert und was nicht. In diesem Funktionsumfang wird es nun mit an sicherheit grenzende Wahrscheinlichkeit Dinge gegeben die der NV40 nicht kann. Damit ist er dann automatisch raus aus dem Spiel auch wenn nVidia damit SM4 realisieren könnte.

Winter[Raven]
2004-05-28, 13:42:33
Original geschrieben von Demirug
Ich habe damals gesagt das SM4 im wesentlichen SM3 entspricht mit unlimitierten Resourcen. Das wiederum bedeutet das man aus einem SM3 fähigen Chip im Prinzip aleine durch den Treiber einen SM4 Chip machen kann indem der Chip die Shader die nicht aufeinmal ausgeführt werden können entsprechend zerlegt.

Das ganze spielt aber inzwischen keine Rolle mehr da MS wohl festgelegt hat das ein Grafikchip der nächsten Generation den vollen Funktionsumfang bringen muss. Ein IHV darf sich also nicht mehr aussuchen was er implementiert und was nicht. In diesem Funktionsumfang wird es nun mit an sicherheit grenzende Wahrscheinlichkeit Dinge gegeben die der NV40 nicht kann. Damit ist er dann automatisch raus aus dem Spiel auch wenn nVidia damit SM4 realisieren könnte.

Und ich war gerade beim suchen, nach deinem Zitat ... X-D, warst aber schneller ... ^^.

Also zusammengefasst, wäre es theoretisch möglich, Aufgrund der Specserweiterungen durch M$ ehe unwarscheinlich.

@ Gurus :)

Kann einer von euch den ILDP Gerücht beim NV50 erläutern? Was es ist und was es bringt?

DrumDub
2004-05-28, 13:44:13
Original geschrieben von aths
Folgendes ist ein Mix aus Andeutungen seitens ATI und eigener Interpretation:

Ursprünglich wollte sich ATI mit NV über 3.0 verständigen. Von den Chipentwicklern kam aber das Echo, dass ein richtiger neuer Chip mit toller 3.0-Performance sehr groß werden würde. Marktforschungsdaten belegten, dass die User eher nach Performance gierten, als nach neuen Shader-Features. Also cancelte ATI das R400-Projekt, weil sie absahen dass es nicht realisierbar wäre (zu großer Die, noch nicht die notwendigen Tools.) Das ist ca. 2 Jahre her.

Jetzt sehen sie, dass NV zwar 3.0 bietet, aber nicht mit der Performance, die ATI mit ihrem R400 im Sinn hatte.

na also. das macht doch völlig sinn. :)

ati sprach ja selber davon, dass der ursprüngliche r400 zu ambitioniert war. ob das stimmt, weiß ich natürlich nicht.

aths
2004-05-28, 13:50:35
Original geschrieben von robbitop
@aths

genau das mit dem "Durchkommen" stört aber einfach. NV wäre mit einem verdoppelten und verbesserten NV25 sicher auch "durchgekommen".NV ist damals mit einem aufgebohrten NV20 ziemlich gut weggekommen.

ATIs Philosophie ist traditionell seit der Radeon: Jedes neue Feature (was dann auch funktioniert :)) sollte schnell genug für "echten" Einsatz in Spielen sein. ATI behauptet jetzt, die 3.0-Features auf dem NV40 seien nicht schnell genug. Diese Frage kann man imo nicht einfach mit ja oder nein beantworten. Aus ATIs Sicht hat ATI es gut gemacht, aus NVs Sicht ist NV der schlauere. Keiner sieht dabei das ganze Bild.

Auch von uns Unbeteiligten sieht (bzw. kenn) keiner alle Details. Insofern, die persönliche Meinung (ich bin von ATIs Tritt auf die Technologiebremse auch nicht begeistert) sollte man imo nicht überbewerten, wenn ein Produkt beurteilt wird.

Original geschrieben von robbitop
16 Texel/Takt, Colocompression, 256bit, rund 90Mio Transistoren (lt Demirug) und 350MHz Takt, wäre man vieleicht sogar zu R300 Zeit an die Performancekrone gekommen. Aber was ist mit der Technologie?
Sicher SM2 braucht man erst jetzt so langsam, um die aktuellen Spiele in voller Pracht darzustellen, aber von 2002 bis heute sind immerhin 2 Jahre, wo SM2 kaum zum Einsatz kam, da hätte SM1.3 sicher noch gereicht.
Dass ATi seit 2000/01 seit dem R200 nicht mehr viel gemacht haben und damit auch noch durchkommen, stört mich persönlich schon.

just my 2 cents Beim NV40 gibt es Dinge, die ich für nützlicher halte als das (recht langsame) branching. Das wären FP16-TMUs, Tonemapping via RAMDAC (beides entlastet letztlich "nur" den Pixelshader) und z. B. TMUs im VS (gehört zur 3.0-Spec, ja.)

HOT
2004-05-28, 13:50:41
Original geschrieben von LovesuckZ
Ist es für ATi nicht schwerer beim r500 ein vernünftiges SM3.0 Design zu bringen, wenn man keine Vorkenntnisse hat?

Das ist sicher kein Hindernis.
ATI hat eben mehr Zeit für eine neue Generation. Was dabei rum kommt werden wir sehen. Die Chancen stehen 50/50 bei 4.0 Chips, dass ATI besser bzw. schlechter als NV darstehen wird.
Ich gehe sogar soweit zu behaupten, dass NV und ATI so gleich darstehen werden, wie noch nie.

DrumDub
2004-05-28, 13:51:19
Original geschrieben von ow
Ich glaube nicht, dass es da (oder generell irgendwo) einen Endpunkt in der Entwicklung geben wird.

na ja, so lange wir keine nanotransistoren haben, wird schon eng, allein wegen der leckströme.

bei 90nm haben ja sowohl intel als auch amd schon arge probleme damit. das problem wird sich bei kleinern strukturgrößen sicherlich nicht in luft auflösen, auch wenn man da dinge optimieren kann.

aths
2004-05-28, 13:51:38
Original geschrieben von ow
So langsam wird die Luft sehr duenn fuer ATi. Woran machst du das fest?

ice cool69
2004-05-28, 13:53:01
ATI hielt SM3.0 also für zu aufwändig für das zu erwartende Ergebnis, NV war hier anderer Meinung.
Man wird sehen wer Recht hat, NV ist jedenfalls ein finanziell größeres Risiko eingegangen, könnte dafür aber auch die Krone zurückholen.
Man wird sehen.

DrumDub
2004-05-28, 14:01:18
Original geschrieben von LovesuckZ
SM1.4? Gibt es wirklich VS 1.4?
Ansonsten, ATi hat auch das PS/VS 2.a übersprungen :).
Der Vergleich PS1.4 <> SM3.0 ist ein bisschen weit hergeholt, da das SM3.0 eigentlich auch als DX 10 bezeichnet werden koennte. PS1.4 sind eigentlich nur eine Erweiterung der PS1.1, also sowas wie PS2.a.

hast ja recht. es gibt nur vs 1.1 und damit kein sm 1.4. der sprung von ps 1.1 auf 1.3 war afaik kleiner als der von ps 1.3 auf 1.4.

HOT
2004-05-28, 14:02:48
Original geschrieben von ow
Ich bezweifele, dass sie noch lange damit durchkommen.
So langsam wird die Luft sehr duenn fuer ATi.

Kann ich mir net vorstellen. Die Chips sind schnell, die Bildqualität gewohnt (mässig ;D), modding ist möglich usw.
Die x800 pro wird ein Verkaufsrenner, weil die ganzen Moddingkiddis (tschuldigung :D) da wieder zuschlagen werden und die Karten fleissig an die DAUs weiterempfehlen.
Von der 6800 ist noch bei keinem Händler was zu sehen, die X800 gibts aber nächste Woche an jeder Strassenecke.

Selbst wenn sich technologisch im Nachteil sind, der Chip ist auf dem Markt klar im Vorteil. Und wenn sich ATI damit millionen in R & D Ressourcen spren kann und auf den neuen Chip konzentrieren kann, werden sie damit durchkommen ;)

ow
2004-05-28, 14:03:09
.

aths
2004-05-28, 14:04:18
Original geschrieben von DrumDub
hast ja recht. es gibt nur vs 1.1 und damit kein sm 1.4. der sprung von ps 1.1 auf 1.3 war afaik kleiner als der von ps 1.3 auf 1.4. HW-mäßig gibt es den Sprung nicht, nur von <1.0 zu 1.4, bzw. von 1.1 zu 1.3, bzw. von 1.3 zu 2.X 2_A.

1.3 ist 1.1 mit einigen neuen Instruktionen, aufgebohrtem Read Limit, und der Möglichkeit der Z-Änderung im Pixelshader (letzteres konnte schon GF3, aber offenbar fehlten andere Features die für 1.3 erforderlich waren.)

1.4 ist vom Grundgedanke her sehr anders aufgebaut, wenn man mit 1.1-1.3 vergleicht.

ow
2004-05-28, 14:05:35
.

ow
2004-05-28, 14:08:10
.

DrumDub
2004-05-28, 14:10:28
aths & ow

ja. das meinte ich eigentlich auch. habs etwas unglücklich ausgedrückt. hätte wohl eher sagen sollen, dass ps 1.4 näher an 2.0 dran ist, als an 1.3.

HOT
2004-05-28, 14:18:11
Original geschrieben von ow
Das ist eine Meinung die ich akzeptiere.
Ich behalte mir dennoch vor, das anders zu sehen.;) Ich hatte auch weniger den unmittelbar bevorstehenden Zeitraum im Sinne als vielmehr die nahe Zukunft (ab 6 Monaten, so etwa Nov./Dez. 04)

Gut... was langfristig passieren kann, weiss man natürlich nicht. Es kann ja durchaus sein, dass NV hier irgendwann mal deutliche Vorteile vorweisen wird, das kommt auf die Spieleentwickler an. Die Erfahrung zeigt aber, dass es meist erst nach 1 1/2 - 2 Jahren "kritisch" wird. Ab da gibt es aber sicherlich massive Nachteile, hier stellt sich aber die Frage, ob hier nicht auch der NV40 ein die breduollie gerät ;)

HOT
2004-05-28, 14:19:48
Original geschrieben von DrumDub
aths & ow

ja. das meinte ich eigentlich auch. habs etwas unglücklich ausgedrückt. hätte wohl eher sagen sollen, dass ps 1.4 näher an 2.0 dran ist, als an 1.3.

Eigentlich müsste PS1.4 eher SM1.1A heissen ;) und PS1.3 SM1.1B :P

betasilie
2004-05-28, 14:37:26
Original geschrieben von ow
Nein, warum sollten sie?
Da SM3.0 DX9-Standard ist wird ATi sowieso SM3.0 HW irgendwann brauchen. Nur ist der R300 (=aufgebohrter R200)eine technologische Sackgasse gewesen, wie man jetzt weiss. Hat aber Demi ja alles schonmal erklaert
z.B.:
Original geschrieben von Quasar
Ganz einfach. Weil sie nicht bereit waren, die nötige Die-Size für einen SM3.0-Chip bei gleichzeitig vernünftiger Performance aufzubringen.

ATI macht im Grunde genau das, was Du beim R300 immer kritisiert hast, die Gewinnspanne vergrößern.

ATIs GPUs sind kleiner/günstiger in der Produktion, weil sie die Transistoren für SM3.0 sparen. Für NV war dieser Schritt notwendig, weil ihre Architektur es quasi vorgeschrieben hat, aber ATI kann in aller Seelenruhe mit ihrer SM2.+ R420-GPU voll auf Performance setzen bei relativ niedrigen Produktionskosten, ohne Tranistoren für SM3.0 zu verschwenden.

Der NV40 wird sowieso kaum von SM3.0 profitieren in realen Anwendungen, nicht zuletzt weil SM30 überhaupt erst interessant wird für die meisten Entwickler, wenn NV und ATI SM3.0 Karten anbieten und diese performanter sind, als ein NV40. ATI konnte somit alle wichtig Resourcen auf den R500 ansetzen, der mit Sicherheit davon profitieren wird.

Wenn wir mal ehrlich sind ist es doch wirtschaftlich ideal, wenn man mit so einer "angestaubten" Architektur, die lediglich verbreitert wurde und eine 3Dc-Unit verpasst bekommen hat, immer noch voll auf Augenhöhe mit NVs NV40 ist. ;) Der NV40 ist schweine teuer und bietet in der Praxis keine Vorteile gegenüber R420-Karten.

DrumDub
2004-05-28, 14:41:55
Original geschrieben von HOT
Eigentlich müsste PS1.4 eher SM1.1A heissen ;) und PS1.3 SM1.1B :P

häh? hab ich was verpasst? oder meinst du das jetzt in anspielung auf ps 2.A und ps 2.B?

DrumDub
2004-05-28, 14:47:05
Original geschrieben von betareverse
Der NV40 ist schweine teuer und bietet in der Praxis keine Vorteile gegenüber R420-Karten.

ähmm... nein. das ist ein sehr simplifizierendes pauschalurteil, welches die technologischen überlegenheit (bis auf 6xmsaa und 3dc) des nv40 ausblendet. das dies für den spieler wohl zu lebzeiten des nv 40 nicht relevant sein wird, steht auf einem anderen blatt.

betasilie
2004-05-28, 14:53:23
Original geschrieben von HOT
Ich halte es überigens für genauso unwahrscheinlich, dass die XBox2 einen SM3.0/4.0 Chip bekommt, sondern nur einen aufgebohrten R300.
Das hört sich jetzt zwar bitter an, aber ATI kann ja bei einem Konsolenchip den R300 weiterentwickeln, ohne sich an irgendwelche PC Standards halten zu müssen, wie gesagt, hauptsache das Ergebnis stimmt. Deshalb gibt es IMHO ja auch eine XBox2 Demokarte, die auf R300 Technologie basiert.
Halte ich für absoluten quatsch, weil die X-Box2 mit der PS3 konkurieren will. Außerdem hat M$ schonmal angedeutet, dass die X-Box2 eine API nutzen wird, die DX-Next sehr nahe kommt.

Original geschrieben von HOT
ATI wird sicher nicht dieses und auch nicht nächstes Jahr mit dem R500 um die Ecke kommen, ich denke, dass sie eine ganze Weile brauchen werden, um eine neue Technologie zu entwickeln.

Aha, dir ist klar, dass der R500 für Ende 2004 Anfang 2005 angekündigt ist? Wie auch immer ist es ziemlich ugly anzunehmen, dass ATI bis 2006 mit dem R4xx auskommt. :freak:

Original geschrieben von HOT
Der NV50 hingegen wird sicher nur ein verbesserter um SM4.0 erweiterter NV40, da das NV40 Design meiner Meinung nach relativ nahe am IMR Optimum ist.
Dass der NV50 SM4.0 beherrscht, bezweifel ich mal ganz stark.

Ich denke der NV50 wird die erste GPU von NV, die SM3.0 von der Performance her nutzbar macht. Beim NV40 ist ja nur ein Bruchteil des SM3.0 wirklich einsetzbar, weil einfach in vielen Bereichen noch Nadelöhre sind.

betasilie
2004-05-28, 14:57:28
Original geschrieben von DrumDub
ähmm... nein. das ist ein sehr simplifizierendes pauschalurteil, welches die technologischen überlegenheit (bis auf 6xmsaa und 3dc) des nv40 ausblendet. das dies für den spieler wohl zu lebzeiten des nv 40 nicht relevant sein wird, steht auf einem anderen blatt.
Ack. Ich rede von den Spielern, denn wir reden hier vom Spielemarkt und nicht vom Profimarkt, afaik.

Und keine Frage, ich lobe NV für diese Vorreiterrolle und ich tadel ATI für diese Technologiebremse, aber ich als Gamer werde mir meine Karte nicht nach einem Featureset aussuchen, dass mir in der Spielepraxis in absehbarer Zeit keine Vorteile bringen wird. Das mag zu guterletzt das Zünglein an der Waage sein, aber mehr auch nicht.

LovesuckZ
2004-05-28, 15:02:53
Original geschrieben von betareverse
ATIs GPUs sind kleiner/günstiger in der Produktion, weil sie die Transistoren für SM3.0 sparen.

LowK.

Der NV40 wird sowieso kaum von SM3.0 profitieren in realen Anwendungen, nicht zuletzt weil SM30 überhaupt erst interessant wird für die meisten Entwickler, wenn NV und ATI SM3.0 Karten anbieten und diese performanter sind, als ein NV40.

Noe, die Entwickler werden nicht auf ATi warten. Wieso auch? Speed ist nicht das einzige entscheidende Merkmal für einen Entwickler.
Und als Spieler braeuchte ich jedenfalls kein 3Dc, nach dir...

Zauberer
2004-05-28, 15:03:26
Also dieses geflammte geht mir auf den Geist.

Anstatt über den R500 oder NV50 zu diskutieren, wird hier über aktuelle Produkte, User und Firmen hergezogen.
Ich will ja keine Namen nennen, aber jedem sollte doch klar sein das SM3.0 von Anfang an in der DX9.0 Spec stand.
Erst bei der nächsten DX Version wird es einen Wechsel geben SM4.0!


Ich glaube ATI und NVidia gehen Pleite (oder werden aufgekauft), weil die Entwicklung des R500/NV50 sie in den Ruin treiben werden.
Beide Firmen haben es in ihrer mehr als 10 Jährigen Firmengeschichte noch "nie" Geschafft einen SM4.0 Chip auf den Markt zu bringen.
Darum wird Microsaft seine eigene Grafikchipfirma gründen (bzw. Aufkaufen), weil zum Release der XBOX2 gib es ATI und NVidia nicht mehr. Dann können Sie zur DxNext "zeitgleich" eine NextKarte vorstellen.


Komisch finde ich das "the inquirer" schon oft recht gehabt hat.
Die haben schon vor ca. 1 Jahr (weiß die Zeit nicht so genau) berichtet das der R400 gecancelt wurde und einen R420 auf Basis des R3xx entwickeln.
Komisch woher die das wussten, findet Ihr nicht?
Da stand schon fest das der R420 keine SM3.0 beherrscht, auch dass die Ganzen Entwicklungsbemühungen in den R500 gegangen sind.
Also ich der warte einen Leistungs- und Entwicklungsschupp vom R500, der so groß wie beim R200 gegen den R300 war.

Crushinator
2004-05-28, 15:13:18
Original geschrieben von betareverse
(...) Dass der NV50 SM4.0 beherrscht, bezweifel ich mal ganz stark. Das sollte allerdings auch für R500 gelten. SM4 ist ausgehend von heutigen Entwicklungen bei den Herstellungsprozessen nicht vor (very late) 2006 wirtschaftlich verantwortbar in Hardware zu gießen. Wenn R500 nächstes Jahr rauskommt, könnte er deshalb kein SM4 unterstützen.

Winter[Raven]
2004-05-28, 15:27:07
Also wirklich Beta, du schmeißt hier mit Behauptungen um dich, die du nicht BELEGEN KANNST.

ATIs GPUs sind kleiner/günstiger in der Produktion, weil sie die Transistoren für SM3.0 sparen.

Laut NV's Ceo ist der Nv40 billiger herzustellen ... X-D

Der NV40 ist schweine teuer und bietet in der Praxis keine Vorteile gegenüber R420-Karten.

Aha, wie kommst du dazu?

aths
2004-05-28, 15:34:05
Original geschrieben von betareverse
ATIs GPUs sind kleiner/günstiger in der Produktion, weil sie die Transistoren für SM3.0 sparen. Für NV war dieser Schritt notwendig, weil ihre Architektur es quasi vorgeschrieben hat, aber ATI kann in aller Seelenruhe mit ihrer SM2.+ R420-GPU voll auf Performance setzen bei relativ niedrigen Produktionskosten, ohne Tranistoren für SM3.0 zu verschwenden. Die Transistoren sind imo nicht verschwendet.

Original geschrieben von betareverse
Der NV40 ist schweine teuer und bietet in der Praxis keine Vorteile gegenüber R420-Karten. Noch nicht.

betasilie
2004-05-28, 15:42:17
Original geschrieben von crushinator
Das sollte allerdings auch für R500 gelten. SM4 ist ausgehend von heutigen Entwicklungen bei den Herstellungsprozessen nicht vor (very late) 2006 wirtschaftlich verantwortbar in Hardware zu gießen. Wenn R500 nächstes Jahr rauskommt, könnte er deshalb kein SM4 unterstützen.
Klar. Ich wollte auch keinen anderen Eindruck erwecken.

betasilie
2004-05-28, 15:43:59
Original geschrieben von aths
Die Transistoren sind imo nicht verschwendet.

Noch nicht.
Ich lass mich gerne vom Gegenteil überzeugen. ... Welche Spiele meinst Du denn werden massiv von SM3.0 profitieren?

Quasar
2004-05-28, 15:53:11
Original geschrieben von betareverse
Wenn wir mal ehrlich sind ist es doch wirtschaftlich ideal, wenn man mit so einer "angestaubten" Architektur, die lediglich verbreitert wurde und eine 3Dc-Unit verpasst bekommen hat, immer noch voll auf Augenhöhe mit NVs NV40 ist. ;)
Solange man den Bogen nicht überspannt und rechtzeitig den Sprung auf ein wirklich neues Produkt schafft (d.h. bevor die Kunden verärgert sind) - ja.

Original geschrieben von betareverse
Der NV40 ist schweine teuer und bietet in der Praxis keine Vorteile gegenüber R420-Karten.

222:160=1,3875
Der NV40 besitzt ~38% mehr Transistoren (okay, kommt drauf an, wie man schätzt), aber nur eine 10-15% größere Die-Fläche.

Der NV40 wird in einem herkömmlichen 013µ-Prozeß gefertigt, der R420 mittels low-k Die-Elektrika.

Hast du zufällig Zahlen zur Hand, wieviel ein fertig belichteter Wafer im jeweiligen Prozess bei TSMC kostet und ob für beide schon 300m-Wafer zur Verfügung stehen oder eventuell für den low-k-Prozess nicht?

aths
2004-05-28, 15:54:25
Original geschrieben von betareverse
Ich lass mich gerne vom Gegenteil überzeugen. Darauf komme ich zurück :) wenn du 4.0-fähige Hardware hast.
Original geschrieben von betareverse
... Welche Spiele meinst Du denn werden massiv von SM3.0 profitieren? Die Frage halte ich in dieser Form für ungünstig gestellt.

4.0 wird, aus logischer Sicht, ein erweitertes 3.0 sein, wobei 3.0 ein sehr stark erweiterter 2.0 ist. Während man 3.0-HW wahrscheinlich auf 4.0 aufbohren kann, kann man auf 2.0 basierender HW nicht mal 3.0-fähige machen (bzw. nur mit Inkaufnahme erheblicher Kompromisse.)

Der NV40 öffnet, u. a. mit dem 3.0-Support, die Tür zur nächsten "echten" neuen Generation von Shader-Spielen. Ob die dann 3.0 oder 4.0 nutzen, ist Wurst.

ATIs 1.4-er PS öffnete die Tür zu den 2.0 nutzenden Spielen, die wir heute sehen.

Wieso grenzt du die Frage auf Spiele ein?

Quasar
2004-05-28, 15:57:09
Original geschrieben von betareverse
Ich lass mich gerne vom Gegenteil überzeugen. ... Welche Spiele meinst Du denn werden massiv von SM3.0 profitieren?

Wenn Spiel X auf mit Engine Y auf Architektur Z entwickelt wird, folgt daraus, daß Architektur W erst im Nachhinein angepaßt wird/werden muss.

Wohin das Leistungs- und PR-technisch führen kann, hat HL2 mit Gabe "Technology Partner" Newell eindrucksvoll bewiesen - die 7M US-Dollar waren IMO sehr gut angelegt von ATi.

Ähnliches steht momentan mit der U3-Engine im Raume.

DrumDub
2004-05-28, 16:04:24
Original geschrieben von Quasar
Wenn Spiel X auf mit Engine Y auf Architektur Z entwickelt wird, folgt daraus, daß Architektur W erst im Nachhinein angepaßt wird/werden muss.

Wohin das Leistungs- und PR-technisch führen kann, hat HL2 mit Gabe "Technology Partner" Newell eindrucksvoll bewiesen - die 7M US-Dollar waren IMO sehr gut angelegt von ATi.

Ähnliches steht momentan mit der U3-Engine im Raume.

absolut. das ist halt wie bei den waschmaschinenherstellern, die (mit) für calgon werben. :freak:

synergieeffekt nennt man das wohl.

Winter[Raven]
2004-05-28, 16:06:16
Ähnliches steht momentan mit der U3-Engine im Raume.

Der Technologiepartner ist Nvidia, oder?

HOT
2004-05-28, 16:13:27
Original geschrieben von betareverse
Halte ich für absoluten quatsch, weil die X-Box2 mit der PS3 konkurieren will. Außerdem hat M$ schonmal angedeutet, dass die X-Box2 eine API nutzen wird, die DX-Next sehr nahe kommt.


Das muss ja nichts heissen, sondern es kann sein, dass ATI den R300 in eine andere Richtung weiterentwickelt dafür.


Aha, dir ist klar, dass der R500 für Ende 2004 Anfang 2005 angekündigt ist? Wie auch immer ist es ziemlich ugly anzunehmen, dass ATI bis 2006 mit dem R4xx auskommt. :freak:


ATI hat offiziell bisher nichts angekündigt. Und ich sage dir, wenn du dir die Evolution des Fertigungsprozesses bei TSMC anschaust, wird das ganz sicher noch bis 2006 dauern, bis ATI einen wirklichen SM4.0 Chip auf die Beine stellen wird. NV wird genauso auf den Fertigungsprozess warten müssen, dort rechne ich auch nicht vor 2006 mit einem 4.0er Design. Du solltest akzeptieren, dass es nicht mehr so schnell gehen kann, wie es bisher ging, da die Grenzen des wirtschaftlich sinnvoll technisch Machbaren immer näher rücken. Stichwirt Speicher und Stichwort Fertigung.


Dass der NV50 SM4.0 beherrscht, bezweifel ich mal ganz stark.

Ich denke der NV50 wird die erste GPU von NV, die SM3.0 von der Performance her nutzbar macht. Beim NV40 ist ja nur ein Bruchteil des SM3.0 wirklich einsetzbar, weil einfach in vielen Bereichen noch Nadelöhre sind.

Wenn man es aus der Geschichte heraus weiterführt wird der definitiv SM4.0 (wahrscheinlich sogar mehr) supporten.

HOT
2004-05-28, 16:17:13
Original geschrieben von Winter[Raven]
Der Technologiepartner ist Nvidia, oder?

Das ändert nichts an der Tatsache, dass die Engine auf SM2.0 ausgelegt ist. Ist eben der Minimumstandard, alles was darüber kommt ist doll, ändert aber nix am Featureset, höchstens an der Speed.

Quasar
2004-05-28, 16:22:16
Original geschrieben von DrumDub
absolut. das ist halt wie bei den waschmaschinenherstellern, die (mit) für calgon werben. :freak:

synergieeffekt nennt man das wohl.

Schlimmer. Calgon wirkt wenigstens bei allen Waschmaschinen gleich, soweit ich weiß. :)

DrumDub
2004-05-28, 16:25:04
Original geschrieben von Quasar
Schlimmer. Calgon wirkt wenigstens bei allen Waschmaschinen gleich, soweit ich weiß. :)

hast ja recht. :)

mir fiel halt nix besseres ein.

Winter[Raven]
2004-05-28, 16:55:45
Original geschrieben von HOT
Das ändert nichts an der Tatsache, dass die Engine auf SM2.0 ausgelegt ist. Ist eben der Minimumstandard, alles was darüber kommt ist doll, ändert aber nix am Featureset, höchstens an der Speed.

Soll ja keine Kritik von mir werden :), war ehe nur eine Frage.

Gast
2004-05-28, 18:06:47
Original geschrieben von Quasar
222:160=1,3875
Der NV40 besitzt ~38% mehr Transistoren (okay, kommt drauf an, wie man schätzt), aber nur eine 10-15% größere Die-Fläche.

Der NV40 wird in einem herkömmlichen 013µ-Prozeß gefertigt, der R420 mittels low-k Die-Elektrika.

Hast du zufällig Zahlen zur Hand, wieviel ein fertig belichteter Wafer im jeweiligen Prozess bei TSMC kostet und ob für beide schon 300m-Wafer zur Verfügung stehen oder eventuell für den low-k-Prozess nicht?

die ausbeute ist das um und auf in dieser rechnung! ich koennte mir vorstellen, dass der r420 aufgrund seiner kleineren die-flaeche oeffter funktionstuechtig auf einem wafer zu finden ist. weiters werden ja noch pro`s und se`s benoetigt....

fizzo
2004-05-28, 18:09:27
sorry, der gast war ich!

zahlt eigentlich nv immer noch pro funktionierende die?

StefanV
2004-05-28, 18:17:37
Original geschrieben von fizzo
sorry, der gast war ich!

zahlt eigentlich nv immer noch pro funktionierende die?

AFAIK galt das nur für den NV30.

kami
2004-05-28, 18:18:53
IIRC bezahlen die bei IBM auch nur pro funktionierendem Die.

betasilie
2004-05-28, 21:52:26
Original geschrieben von Quasar
Wenn Spiel X auf mit Engine Y auf Architektur Z entwickelt wird, folgt daraus, daß Architektur W erst im Nachhinein angepaßt wird/werden muss.

Wohin das Leistungs- und PR-technisch führen kann, hat HL2 mit Gabe "Technology Partner" Newell eindrucksvoll bewiesen - die 7M US-Dollar waren IMO sehr gut angelegt von ATi.

Ähnliches steht momentan mit der U3-Engine im Raume.
Klar, aber die U3 Engine kommt frühestens 2006 und der NV40 wird mit Sicherheit nicht die Karte 1. Wahl sein für das Game und die Engine. ;)

Original geschrieben von HOT
Das muss ja nichts heissen, sondern es kann sein, dass ATI den R300 in eine andere Richtung weiterentwickelt dafür.

Ich weiß es nicht, aber ich wette drauf, dass die X-Box2 keine PU haben wird, die auf der R3xx Architektur basiert. Da wette ich drauf. Eher wahrscheinlich ist eine GPU, die nahezu dem R600 entspricht.

Original geschrieben von HOT
ATI hat offiziell bisher nichts angekündigt. Und ich sage dir, wenn du dir die Evolution des Fertigungsprozesses bei TSMC anschaust, wird das ganz sicher noch bis 2006 dauern, bis ATI einen wirklichen SM4.0 Chip auf die Beine stellen wird. NV wird genauso auf den Fertigungsprozess warten müssen, dort rechne ich auch nicht vor 2006 mit einem 4.0er Design. Du solltest akzeptieren, dass es nicht mehr so schnell gehen kann, wie es bisher ging, da die Grenzen des wirtschaftlich sinnvoll technisch Machbaren immer näher rücken. Stichwirt Speicher und Stichwort Fertigung.

Nun, ich gehe auch nicht davon aus, dass der R500 SM4.0 unterstützen wird. Naja, wenn Du meinst der R500 kommt erst 2006. Ich denke er kommt in weniger als 12 Monaten, auch drauf wette ich. :bigl:

Original geschrieben von HOT
Wenn man es aus der Geschichte heraus weiterführt wird der definitiv SM4.0 (wahrscheinlich sogar mehr) supporten.
Ist nicht völlig unmöglich, aber imho sehr unwahrscheinlich.

betasilie
2004-05-28, 21:59:06
Original geschrieben von Quasar
Solange man den Bogen nicht überspannt und rechtzeitig den Sprung auf ein wirklich neues Produkt schafft (d.h. bevor die Kunden verärgert sind) - ja.

Und genau das ist meine These weswegen ATI den R420 gebracht hat. :)

Original geschrieben von Quasar
222:160=1,3875
Der NV40 besitzt ~38% mehr Transistoren (okay, kommt drauf an, wie man schätzt), aber nur eine 10-15% größere Die-Fläche.

Der NV40 wird in einem herkömmlichen 013µ-Prozeß gefertigt, der R420 mittels low-k Die-Elektrika.

Hast du zufällig Zahlen zur Hand, wieviel ein fertig belichteter Wafer im jeweiligen Prozess bei TSMC kostet und ob für beide schon 300m-Wafer zur Verfügung stehen oder eventuell für den low-k-Prozess nicht?
So weit ich weiß, ist die Ausbeute bei beim R420 wesentlich höher, als beim NV40 und IBM ist sicherlich auch nicht günstiger als TSMC. Hinzu kommt, dass ein dichter bepackte die auch zu einer geringeren Ausbeute führt, was sicherlich nicht förderlich für die NV40 Ausbeute ist.

Ich denke über das Thema kann man streiten. Für mich jedenfalls spricht alles dafür, dass der R420 ATI um einiges günstiger kommt, als der NV40 NV. Aber vielleicht irre ich mich ja , wer weiß das schon. ;)

robbitop
2004-05-28, 22:13:52
ja die Ausbeuten waren schlecht bei IBM aber sie sind laut dem Verantwortlichen von Fishkill besser geworden. Und sie werden immer besser. Man hat vorher halt nur mit CPUs zu tun gehabt.

betasilie
2004-05-28, 22:20:38
Original geschrieben von aths
Darauf komme ich zurück :) wenn du 4.0-fähige Hardware hast.

Nun, ich bin schlicht der Meinung, dass die compliance Vorraussetzungen für eine DX Version den Maßstab in der Spielebranche angeben. Daher halte ich SM2.0 für relevant, SM3.0 nicht wirklich, was wohl auch davon abhängt wann DX-Next kommt.
SM4.0 wird sicherlich wieder sehr wichtig, weil es halt den compliance Level für DX-Next darstellt.

Original geschrieben von aths
Die Frage halte ich in dieser Form für ungünstig gestellt.

(... Wieso grenzt du die Frage auf Spiele ein? ...)

Das ist die relevanteste Frage überhaupt, denn "wir" kaufen uns die Karte zum Spielen, und die Antwort wäre somit signifikant für die Notwendigkeit einer SM3.0-Karte für den Gamer, die den primären Umsatz in der Branche machen.

Dass Du SM3.0 ganz toll findest ist klar, aber der normale Gamer hat nix von SM3.0, wenn es keine Spiele gibt, die durch SM3.0 wirklich sichtbare Vorteile haben.

Von daher wäre eine Antwort doch ganz doll. X-D
Original geschrieben von aths
4.0 wird, aus logischer Sicht, ein erweitertes 3.0 sein, wobei 3.0 ein sehr stark erweiterter 2.0 ist. Während man 3.0-HW wahrscheinlich auf 4.0 aufbohren kann, kann man auf 2.0 basierender HW nicht mal 3.0-fähige machen (bzw. nur mit Inkaufnahme erheblicher Kompromisse.)

Der NV40 öffnet, u. a. mit dem 3.0-Support, die Tür zur nächsten "echten" neuen Generation von Shader-Spielen. Ob die dann 3.0 oder 4.0 nutzen, ist Wurst.

ATIs 1.4-er PS öffnete die Tür zu den 2.0 nutzenden Spielen, die wir heute sehen.
Das mag ja alles stimmen und vielleicht kommt das NV beim NV50/60 nochmal zugute.

Ich will SM3.0 auch garnicht schlecht machen, die
Technologie ist spitze und sicherlich ist SM3.0 und SM4.0 die Zukunft, aber wann wird diese Zukunft für den Gamer relevant und wann gibt es GPUs, die SM3.0 auch performant beherrschen? Nur weil NV mit SM3.0 eine neue Technologiegenration beschritten hat, muss das den Gamer von heute nicht unbedingt beim Kauf tangieren.

Ich wehre mich schlicht dagegen SM3.0 als Kaufargument beim NV40 zu verstehen, jedenfalls ist ein kein gewichtiges für den Anwender.

Wenn mir jemand Spiele nennt, die SM3.0 in absehbarer massiv einsetzen, dann ändere ich meine Meinung auch ganz schnell wieder. :)

robbitop
2004-05-28, 22:27:25
ich sage nur Videoprozessor und nette Technologie mit der man rumspielen kann. Die Performance ist nett und der Preis ist bei gleicher Leistung dann wohl auch nicht deutlich höher als bei ATi.
Und wer ein High End System hat macht sich nur lächerlich über Meckereien wegen der 20W mehr.

betasilie
2004-05-28, 22:36:00
Original geschrieben von robbitop
ich sage nur Videoprozessor und nette Technologie mit der man rumspielen kann. Die Performance ist nett und der Preis ist bei gleicher Leistung dann wohl auch nicht deutlich höher als bei ATi.
Und wer ein High End System hat macht sich nur lächerlich über Meckereien wegen der 20W mehr.
Ja, mal abwarten wie sich die Preise einpendeln. Und dann mal schauen, was SM3.0 bei FarCry bringt und 3Dc bei HL2. ;)

Gast2k4
2004-05-28, 22:45:07
Thx @ ice cool69 und Ailuros, bin jetzt besser aufgeklärt für zukünftige Technologien :).

Ailuros
2004-05-29, 02:45:36
Original geschrieben von ow
Ich glaube nicht, dass es eine erneute Verdoppelung der Leistung geben wird, denn soviel BQ kann man nicht mehr einsparen.;)

Es gibt immer noch point sampling (ja ich weiss bloeder Scherz). Arithmetische Effizienz kann sehr wohl und sogar leichter als gedacht verdoppelt werden und um diese geht es ja hauptsaechlich heutzutage.

Ailuros
2004-05-29, 02:51:06
Original geschrieben von Gast2k4
Thx @ ice cool69 und Ailuros, bin jetzt besser aufgeklärt für zukünftige Technologien :).

Keine Ursache.

*******************

Mal schoen langsam mit dem SM4.0 Zeug (als ob es soooo einen grossen Unterschied zu SM3.0 machen wird; ohne advanced HOS ist es dann sowieso ein vereintes SM3.0 on steroids pfff).

aths
2004-05-29, 13:31:19
Original geschrieben von betareverse
Klar, aber die U3 Engine kommt frühestens 2006 und der NV40 wird mit Sicherheit nicht die Karte 1. Wahl sein für das Game und die Engine. ;)Die Unreal-Engine wird bis dahin im jeweiligen Entwicklungzustand weiterhin lizenziert. Es kann gut möglich sein, gewisse Techniken von der Engine schon früher zu sehen. Hier punktet der NV40 vielleicht nicht gerade mit SM 3.0, aber mit FP-TMUs :) Selbst wenn die FP-Filterung 2 Takte brauchen sollte (was ich gerade zu klären versuche) kommt man noch erheblich günstiger bei weg, als wenn man die Filterung im Pixelshader nachstellen muss.

aths
2004-05-29, 13:36:55
Original geschrieben von betareverse
Nun, ich bin schlicht der Meinung, dass die compliance Vorraussetzungen für eine DX Version den Maßstab in der Spielebranche angeben. Daher halte ich SM2.0 für relevant, SM3.0 nicht wirklich, was wohl auch davon abhängt wann DX-Next kommt.
SM4.0 wird sicherlich wieder sehr wichtig, weil es halt den compliance Level für DX-Next darstellt.Ja und nein, imo. 3DMark'03 nutzt bei Mother Nature vor allem Pixelshader 1.4, weil man halt das meiste damit schon machen kann. Wenn es 4.0-fähige HW gibt, wird sie kaum leistungsstark genug sein, dass gleich alles auf ihr schnell genug läuft, wenn man 4.0 ausnutzen will. Kann man 4.0 nicht ausnutzen, kann man gleich 3.0 nehmen und damit die NV40-Familie (sowie einige zukünftige XGI-Chips :)) bedienen.

Original geschrieben von betareverse
Das ist die relevanteste Frage überhaupt, denn "wir" kaufen uns die Karte zum Spielen, und die Antwort wäre somit signifikant für die Notwendigkeit einer SM3.0-Karte für den Gamer, die den primären Umsatz in der Branche machen.Der Gamer braucht *jetzt* kein SM 3.0 HW-Support. Wer, wie ich, eher revolutionär aufrüstet (der Zwischenschritt mit dem Athlon XP und der 5900 XT war bei mir so nicht geplant) und längerfristig denkt, für den kommt eine 2.0-er Karte kaum noch ins Haus.

Original geschrieben von betareverse Dass Du SM3.0 ganz toll findest ist klar, aber der normale Gamer hat nix von SM3.0, wenn es keine Spiele gibt, die durch SM3.0 wirklich sichtbare Vorteile haben.

Von daher wäre eine Antwort doch ganz doll. X-D Es ist möglich, mit 3.0, und mit den anderen NV40-Features erst recht, BQ- und/oder Speed-Vorteile zu haben.

Original geschrieben von betareverse
Nur weil NV mit SM3.0 eine neue Technologiegenration beschritten hat, muss das den Gamer von heute nicht unbedingt beim Kauf tangieren.Das ist richtig. Der NV40 bietet allerdings mehr als nur SM 3.0.

Original geschrieben von betareverse
Ich wehre mich schlicht dagegen SM3.0 als Kaufargument beim NV40 zu verstehen, jedenfalls ist ein kein gewichtiges für den Anwender.

Wenn mir jemand Spiele nennt, die SM3.0 in absehbarer massiv einsetzen, dann ändere ich meine Meinung auch ganz schnell wieder. :) :eyes: "Spiele" ... gibt es nur Spiele?

Leistungsmäßig sind R420 und NV40 ungefähr auf dem gleichen Level. Wenn ATIs Produkte nicht spürbar billiger sind, würde mir kein Grund einfallen, vom NV40 die Finger zu lassen (sofern ich jetzt aufrüsten müsste.)

betasilie
2004-05-29, 13:39:07
Original geschrieben von aths
Die Unreal-Engine wird bis dahin im jeweiligen Entwicklungzustand weiterhin lizenziert. Es kann gut möglich sein, gewisse Techniken von der Engine schon früher zu sehen. Hier punktet der NV40 vielleicht nicht gerade mit SM 3.0, aber mit FP-TMUs :) Selbst wenn die FP-Filterung 2 Takte brauchen sollte (was ich gerade zu klären versuche) kommt man noch erheblich günstiger bei weg, als wenn man die Filterung im Pixelshader nachstellen muss.
Ok, technsich mag das zuteffen, aber ich glaube nich daran, dass Du die U3 und die relevanten Techniken aus dieser vor 2006 sehen wirst.


Und nochmal was zur Technik des R500. Ich behaupte mal, dass der R500 die erste GPU sein sein, die SM3.0 inkl. echtem adaptivem DM beherrschen wird und damit würde er sich schon um einiges vom NV40 abheben.

betasilie
2004-05-29, 13:46:01
Original geschrieben von aths
Ja und nein, imo. 3DMark'03 nutzt bei Mother Nature vor allem Pixelshader 1.4, weil man halt das meiste damit schon machen kann. Wenn es 4.0-fähige HW gibt, wird sie kaum leistungsstark genug sein, dass gleich alles auf ihr schnell genug läuft, wenn man 4.0 ausnutzen will. Kann man 4.0 nicht ausnutzen, kann man gleich 3.0 nehmen und damit die NV40-Familie (sowie einige zukünftige XGI-Chips :)) bedienen.
Bestimmt richtig, aber Du hast den zeitlichen Rahmen außer Acht gelassen. SM4.0 Spiele werden vielleicht auch sehr gut auf SM3.0 Karten laufen, aber auf dem NV40? Auf den NV40 wird das imo nicht zutreffen, vielleicht auf NV50 und R500, schon alleine weil mit SM4.0 Speilen wohl nicht vor Ende 2006 zu rechnen ist.

Original geschrieben von aths
Der Gamer braucht *jetzt* kein SM 3.0 HW-Support. Wer, wie ich, eher revolutionär aufrüstet (der Zwischenschritt mit dem Athlon XP und der 5900 XT war bei mir so nicht geplant) und längerfristig denkt, für den kommt eine 2.0-er Karte kaum noch ins Haus.
Nun, ich plane die 6800 oder die X800 nicht bis Ende 2007 in meinem Rechner zu lassen und ich denke nur die wenigsten Käufer in dieser Preisklasse behalten ihre Karte 3 Jahre oder länger.

Original geschrieben von aths
Es ist möglich, mit 3.0, und mit den anderen NV40-Features erst recht, BQ- und/oder Speed-Vorteile zu haben.

Möglich sicher, aber ist es realistisch, dass Spiele in nächster Zeit IQ-Vorteile haben werden durch SM3.0 und bei den Speedvorteilen wäre mal interessant wie hoch diese ausfallen können bei den Topengines, wie DIII, CryTek-Engine und der HL2-Engine.

Original geschrieben von aths
Das ist richtig. Der NV40 bietet allerdings mehr als nur SM 3.0.

Und was?
Original geschrieben von aths :eyes: "Spiele" ... gibt es nur Spiele?
Für mich ja, jedenfalls was die 3D-Echtzeitanwendungen angeht. Was meinst Du denn, welche Applikationen den Kunden solcher Karten sonst noch tangieren sollten bei der Kaufentscheidung?

aths
2004-05-29, 13:48:17
Original geschrieben von betareverse
Ok, technsich mag das zuteffen, aber ich glaube nich daran, dass Du die U3 und die relevanten Techniken aus dieser vor 2006 sehen wirst.We'll see. Mark Rein schloss das zumindest nicht aus.

Original geschrieben von betareverse
Und nochmal was zur Technik des R500. Ich behaupte mal, dass der R500 die erste GPU sein sein, die SM3.0 inkl. echtem adaptivem DM beherrschen wird und damit würde er sich schon um einiges vom NV40 abheben. NV40 kann auch adaptives DM.

aths
2004-05-29, 13:52:06
Original geschrieben von betareverse
Bestimmt richtig, aber Du hast den zeitlichen Rahmen außer Acht gelassen. SM4.0 Spiele werden vielleicht auch sehr gut auf SM3.0 Karten laufen, aber auf dem NV40? Auf dem R420 würden sie dann jedenfalls überhaupt nicht laufen. Wenn sie auf dem NV40 langsam sind, könnte man die Auflösung senken etc ...

Echte 4.0-Spiele werden auf 3.0-Karten natürlich gar nicht laufen, doch auf diese werden wir ohnehin noch sehr lange warten müssen.

Ich habe hier ein Buch rumstehen, das heißt "GPU Gems", und beschreibt in den letzten Kapiteln Ansätze, die GPU für Dinge zu nehmen, die mit Grafik nichts zu tun haben. Schon der für Beispiele herangezogene NV35 ist dafür teilweise geeignet. Der NV40 wäre das noch viel mehr. Wenn du nur spielen willst, wozu überhaupt der Stress mit einem PC, warum keine Konsole?


Original geschrieben von betareverse
Möglich sicher, aber ist es realistisch, dass Spiel in nächster Zeit IQ-Vorteile haben werden durch SM3.0 und bei den Speedvorteilen wäre mal interessant wie hoch diese ausfallen können bei den Topengines, wie DIII, CryTek-Engine und der HL2-Engine. Das weiß ich nicht, wie gut die Entwickler ihre Engines pflegen (also für neue Technologien updaten.)

Original geschrieben von betareverse Für mich ja, jedenfalls was die 3D-Echtzeitanwendungen angeht. Was meinst Du denn, welche Applikationen den Kunden solcher Karten sonst noch tangieren sollten bei der Kaufentscheidung?Warum dann keine Konsole?

betasilie
2004-05-29, 13:55:59
Original geschrieben von aths
We'll see. Mark Rein schloss das zumindest nicht aus.
Sorry, aber der Typ erzählt den guten, langen Tag so viel Mist, dass ich ihm das nicht glauben kann.

Original geschrieben von aths
NV40 kann auch adaptives DM.
Echt? Demirug hat gemeint der NV40 kann "nur" dynamisches DM. Und wieso hat NV in den Techdemos dann kein adaptives DM gezeigt?

betasilie
2004-05-29, 14:09:27
Original geschrieben von aths
Auf dem R420 würden sie dann jedenfalls überhaupt nicht laufen. Wenn sie auf dem NV40 langsam sind, könnte man die Auflösung senken etc ...

Ok, das ist sicherlich ein gutes Argument, aber wie gesagt werde ich und viele andere auch in 2007 keine 6800er mehr im Rechner haben. Daher spricht dieses Beispiel wohl eher R500 und NV50 an.

Original geschrieben von aths
Echte 4.0-Spiele werden auf 3.0-Karten natürlich gar nicht laufen, doch auf diese werden wir ohnehin noch sehr lange warten müssen.

Klar, wir werden auch auf echte SM2.0 Games wohl noch länger warten müssen. ;)

Original geschrieben von aths
Ich habe hier ein Buch rumstehen, das heißt "GPU Gems", und beschreibt in den letzten Kapiteln Ansätze, die GPU für Dinge zu nehmen, die mit Grafik nichts zu tun haben. Schon der für Beispiele herangezogene NV35 ist dafür teilweise geeignet. Der NV40 wäre das noch viel mehr. Wenn du nur spielen willst, wozu überhaupt der Stress mit einem PC, warum keine Konsole?
Bei Spielen wegen der Auflösung, wegen der Eingabegeräte, wegen der Leistung, wegen der Netzwerkfähigkeit von Spielen, und ansonsten wegen der Officearbeit, wegen Bildbearbeitung, wegen Multimedia (Filme gucken, Musik hören), Internetzugang, etc.

Das war schon wirklich ein etwas armer Seitenhieb oder wie soll ich das sonst verstehen? :| Ich kaufe mir aber keine Karte wegen Features von denen ich in Spielen nichts haben werde, aber wenn die Karten ungefähr das selbe P/L-Verhältniss haben, werde ich selbstverständlich zum NV40 greifen.

Original geschrieben von aths
Warum dann keine Konsole?
Siehe oben. 'Bin von dir solche blöden Floskeln garnicht gewohnt! :eyes:

Und btw ahbe ich auch die eine oder andere Konsole hier stehen, wenn auch nicht in Betrieb, welche aber z.Zt. wohl alleine von der Leistung keine Konkurrenz zum PC darstellen.

Ailuros
2004-05-30, 01:43:18
HW basierendes DM wird sich nur durchsetzen wenn alle IHVs es endlich implementieren werden; unter der Vorraussetzung dass bis dann DM nicht von einer anderen fortschrittlicheren Technik ueberrant wird (siehe EMBM --> PS).

Fuer wirklich nutzvolle und advanced HOS braeucht man noch ein kleines etwas, das NV schon zweimal aus ihrer Feature-Liste gestrichen hat.

betasilie
2004-05-30, 02:18:00
Original geschrieben von Ailuros
HW basierendes DM wird sich nur durchsetzen wenn alle IHVs es endlich implementieren werden; unter der Vorraussetzung dass bis dann DM nicht von einer anderen fortschrittlicheren Technik ueberrant wird (siehe EMBM --> PS).

Fuer wirklich nutzvolle und advanced HOS braeucht man noch ein kleines etwas, das NV schon zweimal aus ihrer Feature-Liste gestrichen hat.
Jo, da stimmt wohl. Ich bin in diesem Kontext mal auf die SM4.0 Specs gespannt.

Ailuros
2004-05-30, 09:06:41
Ich hab Angst dass topology/tesselation auch nicht sehr viel besseres Glueck haben wird als adaptive Tesselation in dx9.0.

Demirug
2004-05-30, 09:15:30
Original geschrieben von Ailuros
Ich hab Angst dass topology/tesselation auch nicht sehr viel besseres Glueck haben wird als adaptive Tesselation in dx9.0.

So wie es ja derzeit aussieht erklärt MS bei DX-Next oder WGF wie es jetzt wohl heist so ziemlich alles zum Plicht Feature.

Wobei WGF Chips wohl eine Rückkehr zu ganz alten Konzepten darstellen werden.

Ailuros
2004-05-30, 09:52:17
Aaaahhhh das klingt schon besser :)

Dumme Laien-Frage: wofuer steht WGF?

Winter[Raven]
2004-05-30, 10:07:52
Wobei WGF Chips wohl eine Rückkehr zu ganz alten Konzepten darstellen werden

Unteranderem das Bilderbuchreife AF?

Demirug
2004-05-30, 10:11:04
Original geschrieben von Ailuros
Aaaahhhh das klingt schon besser :)

Dumme Laien-Frage: wofuer steht WGF?

Windows Graphics Foundation.

Einen PPP gibt es dort übrigens auch nennt sich Geometry Shader.

Demirug
2004-05-30, 10:12:54
Original geschrieben von Winter[Raven]
Unteranderem das Bilderbuchreife AF?

Nein, es geht hier dabei eher darum das ein WGF Chip im wesentlichen einen Stream-Prozessor darstellt. Das ist ähnlich dem was früher mal als Medien-Prozessoren gekannt hat.

Ailuros
2004-05-30, 10:13:37
Original geschrieben von Demirug
Windows Graphics Foundation.

Einen PPP gibt es dort übrigens auch nennt sich Geometry Shader.

Wunderbar. YMMD :D






















(you made my day :P )

Winter[Raven]
2004-06-01, 13:01:50
Wann soll den eigentlich jetzt der NV50 kommen?

@ Demirug, Exxtreme, ATHS und Xmas ^^.

Kann einer von euch den ILDP Gerücht beim NV50 erläutern? Was es ist und was es bringt?

aths
2004-06-01, 13:40:35
Original geschrieben von Winter[Raven]
Wann soll den eigentlich jetzt der NV50 kommen?Dauert noch bissel.

robbitop
2004-06-01, 14:42:07
Q2/3 2005?
Ich denke mal fast zeitgleich zum R520
Vorraussetzung ist ein für VPUs sehr gut funktionierender 90nm Prozess. Und davon sind wir noch ziemlich entfernt.

Quasar
2004-06-01, 14:46:58
Original geschrieben von aths
Dauert noch bissel.

Bezgl. gewisser Features und deren Performance scheint man sich bei nV aber bereits ziemlich genau festgelegt zu haben. :)

Gast
2004-06-01, 20:03:50
http://www.anandtech.com/showdoc.html?i=2068

Nun da der NV45 kein Refresh ist, und es der NV48 sein wird, wird der NV50 wohl noch bissl in der Tasche schlummern.
Sehe die Sache von daher wie folgt:
NV48 = Refresh der mit Glück die "fehlenden" oder zu langsamen (siehe Branching) Features des NV40 für SM3 liefert
NV50 = da erwarte ich dass es ein DXNext Chip wird, Release in einem Jahr, aller frühst.
Allerdings ist die Abkehr zu einer "R4XX" Taktik auch nicht abwägig, aka brachiale SM3 Geschwindikeit. Allerdings scheints dafür wohl keine Anhaltspunkte zu geben...

D-Swat
2004-06-01, 21:02:59
Warum sollte die nächste Generation(NV50/R500) schon DX-Next kompatibel sein?
Die Chips werden ca. Anfang/Mitte 2005 auf den Mark kommen, DX-Next AFAIK mit Longhorn 2006/2007.
1. Glaub ich nicht das die DX-Next specs schon so früh fest stehen werden.
2. Warum einen DX-Next Chip auf den Markt werfen, wenn DX-Next erst mehr als ein Jahr später kommen wird?

Ich erwarte eher das beide SM3.0 haben. ATI zum ersten mal und nVidia mit ordentlicher Leistung für dynamic Branching.

ironMonkey
2004-06-01, 22:01:26
Das ist aber sehr Optimistisch wenn man denkt das NV50/R500 Anfang/Mitte 05 kommen, da werden die vieleicht vorgestellt mit viel Glück, aber mit kaufen ist da nix.

Bestell dir mal ne 6800Ultra oder eine X800XT...........

Zudem weiß man nicht wie lang die Pause wird nach NV50/R500 weil jedes Jahr um "den Titel" kämpfen ist alles andere als billig.

Gast
2004-06-01, 22:11:54
OK, sagen wir Vorstellen im Sommer, kaufbar dann, wenn die Chip"Back"Fabriken es mit 0,09 und low-k schaffen diese Chips zu Produzieren.
Ist ja eine Sache den Chip zu basteln und dann in Silizium gießen und an den Kunden bringen (siehe aktuelle Situation :))

Zauberer
2004-06-26, 11:20:42
Ich erwarte eigentlich vom R500 den größten Leistungssprung aller Zeiten und die Meinung habe ich schon seit 2 Jahren!

Darum bin ich immer noch der Meinung das der R500 (bzw. R500-Technik) SM4.0 und Tri-TMUs haben wird.

Ich befürchte aber das die R500-Technik erst in 1-2 Jahren kommen wird.
Aus dem R500 wird R520 das Gleiche wie beim R400 und R420.
Wenn ATI seiner Namensgebung treu sein wird (was zu erwarten ist), dann ist der R520 ein aufgemotzter R400, weil der R420 ein aufgemotzter R300 ist.
Ergo wird der R520 ein nur SM3.0 Chip und kein SM4.0 wie der R500.
Bei NV sieht es ähnlich aus, nach dem FX-Schrott haben die endlich mal wieder einen konkurrenzfähigen und technologisch vorgeschrittenen Technologie-Chip.
Ergo wird der NV50 ein Aufguss vom NV40 sein.

LovesuckZ
2004-06-26, 12:48:14
Original geschrieben von Zauberer
Jetzt im Ernst der Sprung von SM3.0->SM4.0 ist schon größer als von SM2.0 auf SM3.0,[...]


Interessante These.
Es fehlt nur noch die Aufzaehlungen der Features, welche das SM4.0 im Gegensatz zum SM3.0 unterstuetzt.

Zauberer
2004-06-26, 12:53:06
Original geschrieben von LovesuckZ
Interessante These.
Es fehlt nur noch die Aufzaehlungen der Features, welche das SM4.0 im Gegensatz zum SM3.0 unterstuetzt.
Du bist ja schnell *Bo-Ey* :o
Alleine die Tatsache das man nicht mehr zwischen PS und VS unterscheidet finde ich schon ein krasser Technologie Sprung.

Ailuros
2004-06-26, 14:23:42
Ich hab die letzten Seiten nicht mitverfolgt aber hat man die Codenamen-Veraenderungen bei der roadmap von ATI verfolgt, dann konnte man sehen dass die Xenon VPU mit hoechster Wahrscheinlichkeit ein hybride zwischen R5xx und R6xx sein koennte.

Das koennte Generationen wie folgendes kategorisieren:

R5xx = SM3.0+
R6xx = (entry level) SM4.0

Die zeitigen Wahrsager platzieren momentan R500 fuer H1 2005 und NV50 fuer H2. Schiebt man den gewoehnlichen Optimismus zur Seite, dann wohl eher H2 fuer beide.