Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

reunion
2004-06-07, 21:22:05
Original geschrieben von robbitop
Ich meine aber dass es scheinbar (laut einer Quelle aus dem Großhandel die ich namentlich nicht nenne) einen Trend gibt, dass die 9700er jetzt reihenweise abrauchen.
Die FX Karten sind dagegen nicht so aufgefallen.


Vielleicht liegt das auch einfach daran das die 9700er sind blendend verkauft hat während die FXen kaum absatzt gefunden haben? Logisch das dann mehr defekte 9700er zurückgeschickt werden...

robbitop
2004-06-07, 21:29:06
Das könnte sein.
Ich werde ihn mal nach relativen Zahlen fragen.

StefanV
2004-06-07, 21:30:00
Original geschrieben von reunion
Vielleicht liegt das auch einfach daran das die 9700er sind blendend verkauft hat während die FXen kaum absatzt gefunden haben? Logisch das dann mehr defekte 9700er zurückgeschickt werden...

Naja, vorallendingen an welche Anwendergruppe...

Ich denke mal, daß die 9700 nicht selten an 'Computer BILD' Leser verkauft wurde, die FXen eher selten und auch eher an Freaks oder ähnlichem...

Da ists klar, daß die 9700 eher abraucht, schließlich haben die CB Leser nur irgendwelche schlecht durchlüfteten (Stangen) PCs, die Freaks hingegen ordentlich durchlüftete, teilweise sogar offene Rechner...

StefanV
2004-06-07, 21:32:04
Original geschrieben von robbitop
Das könnte sein.
Ich werde ihn mal nach relativen Zahlen fragen.

Naja, Blanke Zahlen sind meist für die TOnne...

Beispiel:

ich hab 2 Karten, eine FX und eine 9700, von der FX kommen 10 zurück, von der 7900 75.

Verkauft wurden von der FX 100 exemplare, von der 7900 aber 1500...

So schauts wieder ganz anders aus, oder? ;)

robbitop
2004-06-07, 21:47:38
Stefan liess meinen Post nochmal.

"relativ" und "absolut" sind bekannte Begriffe?
was du meinst, sind absolute Zahlen, ich erfrage relative.

Zu was relativ? Natürlich zu den Verkaufszahlen.

Quasar
2004-06-07, 21:49:19
Original geschrieben von Stefan Payne
Da ists klar, daß die 9700 eher abraucht, schließlich haben die CB Leser nur irgendwelche schlecht durchlüfteten (Stangen) PCs, die Freaks hingegen ordentlich durchlüftete, teilweise sogar offene Rechner...

Dann ist's nichtsdestotrotz entweder ein Designfehler oder mangelnde "Systemvoraussetzungen" - die sich AFAIK nur wenig bis gar nicht mit der Lüftungssituation in des Käufers PC beschäftigen.
Ausgegangen werden muss eigentlich von einem engen Gehäuse ohne Zusatzkühlung bis auf das Netzteil.

aths
2004-06-07, 21:59:42
Original geschrieben von Quasar
Für CineFX 2.0, ja. CineFX I war recht schnell weitestgehend ausgereizt, da wurde AFAIK nur noch an der Genauigkeit oder per Patch an den Shadern eines Games selber herumgeschraubt.Bestimmte Optimierungen, die für CineFX2 vorgenommen wurden, nützen sogar CineFX 1 :) Letztlich hat CineFX2 aber komplexere Optimierungsregeln als der Vorgänger, ja.

Original geschrieben von Quasar
nV35/6/8 profitiert mind. doppelt so stark von FP16, nV30 höchstens von INT12. Naja, was heißt jetzt doppelt so stark? NV35 kann bei FP16 mehr schneller berechnen als NV30, aber die meisten Units sind halt für FP32 ausgelegt. Vielleicht hat der NV35 genügend Rechenkraft, dass andere Flaschenhälse bei FP32 limitieren.

Quasar
2004-06-07, 22:21:55
Original geschrieben von aths
Naja, was heißt jetzt doppelt so stark?

Doppelt so stark heisst, daß der Performancegewinn durch FP16 doppelt so hoch ausfiel (natürlich nicht immer, aber wenigstens in einem realen Spiel).


Far Cry Retail vs. Patch 1.1 (Auflösung und Settings habe ich leider nicht mit aufgeschrieben damals, waren aber gleich zwischen den beiden) in Bugs Cooler-Demo.


FX5800U +20,2%
FX5950 +47,2%

(Sind ja sogar mehr als doppelt soviel ;) )

robbitop
2004-06-07, 22:36:19
Beim NV30 gabs nur eine FP32 MAD FPU pro Pipeline statt wie beim NV35 2 davon. Aber die Anzahl der Temporären Register ist bei beiden Chips gleich.

und 2 Einheiten brauchen bei gleicher Auslastung wie eine Einheit, theoretisch doppelt soviele Register...die sind aber nicht da...im Grenzfall (FP32 -> FP16) kann es also dazu kommen, dass der Gewinn deswegen sehr viel höher beim NV35 ausfällt.

aths
2004-06-07, 22:40:31
Original geschrieben von Quasar
Doppelt so stark heisst, daß der Performancegewinn durch FP16 doppelt so hoch ausfiel (natürlich nicht immer, aber wenigstens in einem realen Spiel).


Far Cry Retail vs. Patch 1.1 (Auflösung und Settings habe ich leider nicht mit aufgeschrieben damals, waren aber gleich zwischen den beiden) in Bugs Cooler-Demo.


FX5800U +20,2%
FX5950 +47,2%

(Sind ja sogar mehr als doppelt soviel ;) ) Wenn generell auf FP16 runtergeschaltet wird?

Quasar
2004-06-07, 23:00:59
Wenn ich Zeit habe, prüfe ich das morgen Mal mit Thomas' Patch-DLLs.

AlfredENeumann
2004-06-07, 23:10:12
Original geschrieben von robbitop
Ich meine aber dass es scheinbar (laut einer Quelle aus dem Großhandel die ich namentlich nicht nenne) einen Trend gibt, dass die 9700er jetzt reihenweise abrauchen.
Die FX Karten sind dagegen nicht so aufgefallen.


Kann ich nicht Bestätigen. Hab mir gerade unsere Retouren bei defekter Ware im Bereich Grafikarten angeschaut. Da gibts keine ungereimtheiten bei uns.

Ailuros
2004-06-07, 23:43:59
Original geschrieben von robbitop
@AiL
in diesem Punkt hast du Recht.

Ich meine aber dass es scheinbar (laut einer Quelle aus dem Großhandel die ich namentlich nicht nenne) einen Trend gibt, dass die 9700er jetzt reihenweise abrauchen.
Die FX Karten sind dagegen nicht so aufgefallen.

Wenn meine FX abrauchen würde, hätte ich selbst schuld, natürlich. Daran glaub ich aber kaum. Die wird seit ca nem Jahr schon sehr stark gequält. Ich errinnere an die Zalman aktion bei seijin damals.

Wenn meine Vermutung stimmt, sind die Radeon PCBs einfach näher am Limit konstruiert. Es ist aber eben nur eine Vermutung und da wir hier im Spekuforum sind, darf ich das ;)

Indizien sind dafür da und das nicht im Freundeskreis sondern in einem weit größeren Rahmen.

Da braeuchte man um zu quasi Schlussvolgerungen zu kommen wie schon erwaehnt wurde genaue Zahlen. Hat man z.B. 80 R300 in einem gewissen Zeitraum verkauft und es sind 5 davon krepiert und im Gegenteil 20 NV35 und davon nur eine eingegangen ist, sagt mir das nicht viel.

Der PCB sieht bei weitem nicht ueberfoerdert oder zu vollgestopft aus; das Ding ist sogar kleiner als die Audigy2. Dahingegen war die Leadtek A250 ein absolutes Monster :D

robbitop
2004-06-08, 00:13:24
wie gesagt, ich erfrage relative Zahlen.
Aber AEN deutet schon an, dass ich mich offenbar irre (danke für den Hinweise AEN!! :) ).

@AiL
was glaubst du woran es sonst liegt, dass beide IHVs so komplett verschieden große PCBs verwenden?
Beide VPUs nehmen scheinbar recht ähnlich viel Leistung auf. Allerdings ist der RAM Takt der FXen höher. Bei der X800 ist dies allerdings nicht mehr so und trotzdem ist ihr PCB kleiner. (gut hier verpulvert der R420 20W weniger als der NV40...aber das PCB ist auch kleiner als das des FX5700 GDDR3).
hast du eine Antwort darauf?

Ailuros
2004-06-08, 00:44:05
Hmmm erstmal ist mir jetzt mal ganz ehrlich die Groesse des PCBs mehr oder weniger gleichgueltig, so lange das Ding in den PC reinpasst.

Eine gute Antwort hab ich auf Deine Frage zwar nicht, aber Designs zwischen Schmieden sind stets unterschiedlich. Wenn ich mir die alte Hercules 4500 so ansehe dann ist es eigentlich ein ziemlich grosser fuer die Verhaeltnisse PCB der auch ziemlich leer ist.

Das Oxymoron ist dann eben dass neuere ATI/NV Karten weder zu vollgestopft oder zu leer - je nach Fall - erscheinen.

Ich bin jetzt zu faul nachzusuchen aber wie sieht es mit den PCB layers vergleichsmaessig bei jeder Generation zwischen den Beiden aus?

Quasar
2004-06-08, 09:12:01
Original geschrieben von aths
Wenn generell auf FP16 runtergeschaltet wird?

So, mal kurz schon was vorhandenes ausgegraben:

Folgender Shader:

ps_2_0

def c0, 0.0f, 0.0f, 2.0f, 0.0f
def c1, 0.4f, 0.5f, 0.9f, 16.0f
dcl t0.xy
dcl t1.xyz
dcl t2.xyz
dcl_2d s0
dcl_2d s1
dp3_pp r1.w, t1, t1
rsq_pp r1.w, r1.w
mul_pp r1.xyz, t1, r1.w
add_pp r0.xyz, c0, -t2
dp3_pp r0.w, r0, r0
rsq_pp r0.w, r0.w
mad_pp r0.xyz, r0, r0.w, r1
dp3_pp r0.w, r0, r0
rsq_pp r0.w, r0.w
mul_pp r0.xyz, r0, r0.w
texld_pp r2, t0, s0
dp3_pp r2.w, r2, r2
rsq_pp r2.w, r2.w
mul_pp r2.xyz, r2, r2.w
dp3_pp r1.w, r2, r0
dp3_pp r1.xyz, r2, r1
pow_pp r1.w, r1.w, c1.w
mad_pp r1.xyz, r1, c1, r1.www
texld_pp r0, t0, s1
mul_pp r0, r1, r0
mov_pp oC0, r0

bringt auf einem nV30U mit recht aktuellem Shadercompiler (FW60.72) grade mal 14,1% mehr Leistung. Eine FX5950 gewinnt 29,6%.
Ich hoffe, daß hier nicht reine Bandbreite gemessen wird, aber für mein laienhaftes Shaderverständnis sehen viele der Anweisungen nach AOps aus.
BTW, die 6800U gewinnt hier 49,1%.... :gruebel:

Demirug
2004-06-08, 09:27:12
Original geschrieben von Quasar
BTW, die 6800U gewinnt hier 49,1%.... :gruebel:

Kleiner Tipp:

dp3_pp r1.w, t1, t1
rsq_pp r1.w, r1.w
mul_pp r1.xyz, t1, r1.w

entspricht

nrm_pp r1.xyz, t1

Der Treiber kann wohl expandierte Makros erkennen und die Expandierung wieder rückgängig machen.

Quasar
2004-06-08, 09:35:33
Jetzt schon? Dann kann der FW60.72 sooo furchtbar unoptimiert ja nicht sein.

Oder ist gerade diese Op, die ja aufm NV40 "for free" (beinahe) sein soll, als eine der ersten in den neuen Compiler reingerutscht? Würde ja Sinn machen.

aths
2004-06-08, 09:59:17
Original geschrieben von Quasar
Jetzt schon? Dann kann der FW60.72 sooo furchtbar unoptimiert ja nicht sein.Auf die Pipe ist etwas komplizierter zu optimieren als dass es reicht, einige Makros wieder rückgängig zu machen.
Original geschrieben von Quasar
Oder ist gerade diese Op, die ja aufm NV40 "for free" (beinahe) sein soll, als eine der ersten in den neuen Compiler reingerutscht? Würde ja Sinn machen. Pro Takt kann eine NV40-Pipe NRM_PP oder ein Fog-Blending_PP zusätzlich zu anderen Operationen ausführen, während ein NRM "effektiv" beide Shader Units für einen Takt blockiert (in der Tat braucht NRM erst einen Takt auf Unit 2, dann einen Takt auf Unit 1.)

Mehr Details – when it's done :)

Quasar
2004-06-08, 11:39:24
Original geschrieben von aths
Auf die Pipe ist etwas komplizierter zu optimieren als dass es reicht, einige Makros wieder rückgängig zu machen.

Natürlich, aber die Sachen, mit denen ich potentiell am meisten angeben könnte, würde ich versuchen, zuerst einzubauen.

aths
2004-06-08, 13:40:00
Original geschrieben von Quasar
Natürlich, aber die Sachen, mit denen ich potentiell am meisten angeben könnte, würde ich versuchen, zuerst einzubauen. Zuerst wird das reingekommen sein, was am einfachsten zu implentieren ist. Ich nehme an (wir sind im Spekulations-Forum :)) dass ein guter Optimizer auf die Verfügbarkeit echter HW angewiesen ist. Kaum jemand wird die Pipe mit all ihren Zusammenhängen durchschauen. Trial and Error gehört zum Optimierungsprozess wohl dazu.

Ailuros
2004-06-09, 00:20:08
Falls das letzte auf einen Shader-Optimizer fuer NV40 bezogen war, dann wuerde ich nicht soooo grosse Unterschiede wie bei vorigen Generationen erwarten.

robbitop
2004-06-09, 00:45:46
wenn man den groben Aufbau der beiden Pipelines kennt, dann weiss man, dass nur diese Schlussfolgerung naheliegen kann.

q@w
2004-06-09, 08:38:16
Original geschrieben von Ailuros
Falls das letzte auf einen Shader-Optimizer fuer NV40 bezogen war, dann wuerde ich nicht soooo grosse Unterschiede wie bei vorigen Generationen erwarten.

Mein nV30 gewinnt auch mit dem neuesten 61.32 ggü. dem 45.23 so gut wie gar nicht an Shaderleistung. Er scheint im Rahmen seines Designs recht gut ausgelastet.

Aber im Vergleich zum NV35 denke ich, daß man nicht so einfach sagen kann, wieviel der NV40 relativ dazugewinnt.
Bei ersterem weiß man ja nichtmal gaynau, wieviel nun realer Gewinn durch den Compiler ist, und wieviel davon durch Shadertausch/FP16/Int12 gewonnen wurde.

;Q

P.S.:
Hat eigentlich schon jemand die R300 mal ohne Compiler probiert? Den Regeintrag habe ich am Wochenede auch noch gesehen - k.A. ob der auch funzt, aber er ist vorhanden.

Ailuros
2004-06-09, 18:25:25
Aber im Vergleich zum NV35 denke ich, daß man nicht so einfach sagen kann, wieviel der NV40 relativ dazugewinnt.

Viel weniger und das haengt eher mit der Architektur des NV40 zusammen. Falls Du NVIDIA fragen wuerdest, waere die wahrscheinlichste Antwort dass man ueberhaupt keinen Compiler fuer NV40 benoetigt.

aths
2004-06-09, 18:53:05
Original geschrieben von Ailuros
Viel weniger und das haengt eher mit der Architektur des NV40 zusammen. Falls Du NVIDIA fragen wuerdest, waere die wahrscheinlichste Antwort dass man ueberhaupt keinen Compiler fuer NV40 benoetigt. NV sagte, dass man angeblich keine handoptimierten Shader mehr benötige X-D. Eine allgemeine Shader-Optimierungsstufe im Treiber ist dringend anzuraten, ich wüsste nicht warum Nvidia das abstreiten sollte.

Ailuros
2004-06-09, 19:00:42
Nochmal vereinfacht: ein shader compiler wird Dir nicht mehr die gleichen guten Resultate bringen wie auf NV3x. Eventuell kannst Du ja nachfragen.

LovesuckZ
2004-06-09, 19:02:36
Original geschrieben von Ailuros
Nochmal vereinfacht: ein shader compiler wird Dir nicht mehr die gleichen guten Resultate bringen wie auf NV3x. Eventuell kannst Du ja nachfragen.

Vielleicht gibt es schon "einen" im 60.72? Denn Vergleiche mit neueren zeigen kaum einen Leistungssprung unter SM2.0.

Ailuros
2004-06-09, 19:13:02
Original geschrieben von LovesuckZ
Vielleicht gibt es schon "einen" im 60.72? Denn Vergleiche mit neueren zeigen kaum einen Leistungssprung unter SM2.0.

Wie gross ist der Leistungssprung und hat schon jemand genau analysieren koennen was genau vorgeht?

Ganz vereinfacht der Optimizer brachte auf NV3x so viel genau wegen diversen HW-Schwaechen die aber wenn nicht ganz dann zu ihrer Mehrzahl auf NV40 beseitigt wurden.

Bekommt man beispielsweise im einen Fall 40% und im zweiten an die 10% mehr, ist es dann genau das was ich eigentlich meine.

aths
2004-06-09, 19:16:03
Original geschrieben von Ailuros
Nochmal vereinfacht: ein shader compiler wird Dir nicht mehr die gleichen guten Resultate bringen wie auf NV3x. Eventuell kannst Du ja nachfragen. Ohne Shader-Compiler würde der NV40 grauenhaft performen.

Original geschrieben von LovesuckZ
Vielleicht gibt es schon "einen" im 60.72? Denn Vergleiche mit neueren zeigen kaum einen Leistungssprung unter SM2.0. Bestimmte Optimierungen nimmt der 60.72 schon vor, ja.

zeckensack
2004-06-09, 20:00:14
Ohne "Shader-Compiler" würde der NV40 nur ein schwarzes Bild zeigen.

aths
2004-06-09, 20:25:12
Genau. Deshalb meinen wir eigenlich den Optimierer :)

robbitop
2004-06-09, 21:44:24
allein schon um Dual Issue optimal auszufahren braucht man einen guten Shadercompiler. Da ist sicher noch ein wenig drin. Bedingt durch seine hoch parallel arbeitende Architektur wird NV40 vieleicht nicht so utopisch viel wie NV35 durch einen Shadercompiler gewinnen, aber 10-20% sind sicher drin.

Quasar
2004-06-10, 01:44:24
Original geschrieben von aths
Bestimmte Optimierungen nimmt der 60.72 schon vor, ja.

Ja, bsw. sowas:

Original geschrieben von Demirug
Der Treiber kann wohl expandierte Makros erkennen und die Expandierung wieder rückgängig machen.

:|

Ailuros
2004-06-10, 01:45:07
Original geschrieben von aths
Genau. Deshalb meinen wir eigenlich den Optimierer :)

Tatsaechlich. Aendert aber nichts an den Schaetzungen was die moeglichen Resultate betrifft.

Tigerchen
2004-06-10, 06:27:59
Original geschrieben von Quasar
Dann ist's nichtsdestotrotz entweder ein Designfehler oder mangelnde "Systemvoraussetzungen" - die sich AFAIK nur wenig bis gar nicht mit der Lüftungssituation in des Käufers PC beschäftigen.
Ausgegangen werden muss eigentlich von einem engen Gehäuse ohne Zusatzkühlung bis auf das Netzteil.


Interessant wäre auch die Zahl der Overclockerkarten die da abrauchen. Unabhängig vom Hersteller dürfte die OC-Fraktion da so einiges auf dem Kerbholz haben.

Tigerchen
2004-06-10, 06:40:28
Original geschrieben von Ailuros
Tatsaechlich. Aendert aber nichts an den Schaetzungen was die moeglichen Resultate betrifft.

Interessant.
Mal was Ähnliches.Dürfte aber noch zum Thema gehören.
Hab diese Frage schon mal aths gestellt und die erwartete Antwort bekommen. Hier kannst du es lesen:

Wie effizient können Shadercompiler bei längeren Shadern mit Verzweigungen werden?


Siehst da auch ein Problem? Oder hat aths doch recht?

Ailuros
2004-06-10, 07:04:03
(zeckensack wird wohl vor Freude huepfen) IMHO vertraegt sich branching generell nicht sehr gut mit SIMD Architekturen. PS SIMDs sind meistens ziemlich "tief", was wohl auch einige Latenz normalerweise heisst. Ich schaetze es haengt vieles vom buffering im Endeffekt aus und weniger von einem Compiler oder Optimizer (kann aber auch total falsch liegen).

Auf jeden Fall sind die bisherigen 8 oder 9 Takte zwischen branching points wohl uebertrieben und es sollte mit zukuenftigen Treibern um einiges sinken. Man braucht eben branching fuer sehr komplizierte und lange Shader und obwohl es nicht immer ein Segen ist (und das gilt fuer alle SIMD basierende Architekturen) kann man jegliche Latenz und/oder Overhead wohl gut verstecken indem man anderes tasks in der Zwischenzeit vornimmt. **edit: hier werden wohl multithreading faehige Einheiten auf zukuenftigen Architekturen den groesseren Unterschied machen.**

Der Punkt von branching ist ja im Grunde auch nicht dass man jetzt ploetzlich auf heutigen Architekturen in SM3.0 basierenden Spielen ploetzlich 100fps als Beispiel bekommt (obwohl dieses durchaus moeglich ist, wenn Shader sich mit kleinen render targets beschaeftigen), sondern dass Entwickler mit komplizierteren und shader-lastigeren Spielen erstmal zum entwickeln anfangen koennen.

Alles IMHO und wohl nicht ganz fehlerfrei ;)

Demirug
2004-06-10, 08:55:11
Ailuros, die Latenz stellt eigentlich kein Problem da da diese durch massives Multithreading völlig ausgeglichen werden. Problematisch ist lediglich das mehrer Pixel sich den gleichen Instruction Pointer teilen müssen.

Was nun die 8 bis 9 Takte angeht so wird das zwar wohl weniger werden aber laut Aussage von nVidia verursacht jeder Befehl (if, else, endif) der mit dynamischem Branching zu tun hat 2 Takte Latzenz. Wobei ich inzwischen sogar einen Verdacht habe wie diese zustande kommen.

Die Frage ist nur ob der Rest der FPU für die zwei Takte vollständig blockiert ist oder ob man sie anderweitig nutzen kann.

Quasar
2004-06-10, 09:01:23
Original geschrieben von Tigerchen

Interessant wäre auch die Zahl der Overclockerkarten die da abrauchen. Unabhängig vom Hersteller dürfte die OC-Fraktion da so einiges auf dem Kerbholz haben.


Das sowieso. :=)

Ailuros
2004-06-11, 01:18:51
Original geschrieben von Demirug
Ailuros, die Latenz stellt eigentlich kein Problem da da diese durch massives Multithreading völlig ausgeglichen werden. Problematisch ist lediglich das mehrer Pixel sich den gleichen Instruction Pointer teilen müssen.

Dass heutige Architekturen multithreading benutzen ist mir schon klar, aber ist es wirklich schon so weit dass man sagen kann dass ein Optimum erreicht wurde und man nicht mehr viel Platz fuer effizientere MT Implementierungen hat? (siehe auch Deinen letzten Satz).

Coda
2004-06-11, 01:19:57
Meine Assembler vs. Pascalerfahrungen lassen mich nichts Gutes ahnen.
Argh. Wie kann man nur so nen dermaßen schlechten Optimierer wie Pascal hatte mit nem Compiler von 2004 vergleichen.

Demirug
2004-06-11, 07:37:54
Original geschrieben von Ailuros
Dass heutige Architekturen multithreading benutzen ist mir schon klar, aber ist es wirklich schon so weit dass man sagen kann dass ein Optimum erreicht wurde und man nicht mehr viel Platz fuer effizientere MT Implementierungen hat? (siehe auch Deinen letzten Satz).

Das Optimum ist sicherlich noch nicht erreicht den dazu müsste jeder Pixel unabhängig berechnet werden.

aths
2004-06-11, 09:52:32
Original geschrieben von Demirug
Das Optimum ist sicherlich noch nicht erreicht den dazu müsste jeder Pixel unabhängig berechnet werden. Am NV40 wären noch andere Dinge zu optimieren. Die Entscheidung, ob beide Branches berechnet werden müssen, kann offenbar nicht pro Quad getroffen werden. Für einige Quads werden Branches durchgeloopt obwohl man das gar nicht braucht.

Tigerchen
2004-06-11, 15:49:56
Original geschrieben von Coda
Argh. Wie kann man nur so nen dermaßen schlechten Optimierer wie Pascal hatte mit nem Compiler von 2004 vergleichen.

Du meinst die künstliche Intelligenz heutiger Compiler ist wirklich besser geworden? Bin ja nicht mehr auf dem neuesten Stand. Aber du bist dir da ganz sicher?

ShadowXX
2004-06-11, 15:58:01
Original geschrieben von Tigerchen

Du meinst die künstliche Intelligenz heutiger Compiler ist wirklich besser geworden? Bin ja nicht mehr auf dem neuesten Stand. Aber du bist dir da ganz sicher?


Definitiv...das Merkt man schon wenn man mal was mit VC5 und VC7 compiliert...(und bei CPU-Optimierungen das gleiche nimmt)

Davon abgesehen ist das Pascal vs. Assembler Beispiel IMHO schlecht gewählt...

Ailuros
2004-06-11, 18:20:17
Original geschrieben von aths
Am NV40 wären noch andere Dinge zu optimieren. Die Entscheidung, ob beide Branches berechnet werden müssen, kann offenbar nicht pro Quad getroffen werden. Für einige Quads werden Branches durchgeloopt obwohl man das gar nicht braucht.

(entschuldigt wenn es verkorkst in Deutsch klingt) aber ich hab irgendwie das Gefuehl dass die 2 A-OPs "seriell" sind, was mich eben zum Gedanken leitet dass man eher schwer zu grossen Leistungsspruengen durch einen Compiler kommen kann.

aths
2004-06-11, 20:05:49
Original geschrieben von Ailuros
(entschuldigt wenn es verkorkst in Deutsch klingt) aber ich hab irgendwie das Gefuehl dass die 2 A-OPs "seriell" sind,Das Gefühl habe ich auch.
Original geschrieben von Ailuros
was mich eben zum Gedanken leitet dass man eher schwer zu grossen Leistungsspruengen durch einen Compiler kommen kann. Gerade deshalb brauchts eine Optimierung – um die Shader Units vernünftig auslasten zu können. Ich schätze die mittlere Auslastung bei ausgereifter Optimierung auf 2 - 2,5 Instruktionen pro Takt.

Ailuros
2004-06-11, 20:42:19
In einem solchen Fall ist es aber ziemlich schwer erstmal einen Compiler einzusetzen. Selbst wenn dann klingen mir 2 oder 2.5 Instruktionen zwischen branching points aber sehr optimistisch.

Sie sollten froh sein wenn sie die uebertriebenen 8-9 Takte bis jetzt, in etwa halbieren koennen in der absehbaren Zukunft.

aths
2004-06-11, 22:03:56
Original geschrieben von Ailuros
In einem solchen Fall ist es aber ziemlich schwer erstmal einen Compiler einzusetzen. Selbst wenn dann klingen mir 2 oder 2.5 Instruktionen zwischen branching points aber sehr optimistisch.

Sie sollten froh sein wenn sie die uebertriebenen 8-9 Takte bis jetzt, in etwa halbieren koennen in der absehbaren Zukunft. Ich vermute, wir reden aneinander vorbei. Ich meinte, der NV40 kann mit seinen "2 Shader-Units" pro Takt ca. 2 - 2,5 Takte ausführen. Branching ansich kostet auch einige Takte. In der Praxis gibt es weitere Nachteile, die in einem Artikel beschrieben werden, wenn dieser denn mal fertig wird.

Ailuros
2004-06-12, 01:57:07
Ooooops ich dachte Du meinst 2-2.5 Instruktionen zwischen branching points...brainfart alert. ,)

deekey777
2004-08-03, 16:11:30
ATI's R520 is codenamed Fudo (http://www.theinq.com/?article=17622)

"If you are called :cop:Fuad:cop: in my country, Bosnia and Herzegovina you will get nick name Fudo."

reunion
2004-08-25, 19:07:56
A VERY KNOWLEDGEABLE friend told us about the so-called "Fudo" chip, the one that is scheduled to arrive in 2005. S/H/e also confirmed some of the things that we already knew, validated it and at the same time gave us many leads where to hunt further.
Fudo, as we've reported before, is the codename for the R520 we can definitely confirm that from many sources including some people from ATI management. Can we call them hot shots? Is that politically correct? I guess they won't mind - they know we like them at least as much as they like us if not more.

The "Fudo" chip will have Shader model 3.0, according to our sources. It's too early for Shader 4.0 as this nice shader model won't show up till 2006 or even later.

As we suggested before, Shader Model 4.0 will come with Longhorn and our friends suggested that Windows Graphics Foundation is responsible for it. Unfortunately we all know that Longhorn is slated to arrive in 2006 or even later, so Shader Model 4.0 will be something for years to come and too late for the R520.

Good old Graphzilla, also known as Nvidia, will make a good marketing space for ATI as it will come with its Shader 3.0 part six months after, but just in time to pick up on many games that poor Nvidia spent a lot of time and money on. Life is simply not fair.

One more thing, the R520 will be developed by the R300 team – I cannot remember whether that is the East or West Coast team. You know what? Those guys made graphic turn over for ATI in summer two years ago. We don't know quite what to expect but it's full of Eastern, or Western promise. µ


http://www.theinquirer.net/?article=18086

betasilie
2004-08-25, 19:19:54
[i]Good old Graphzilla, also known as Nvidia, will make a good marketing space for ATI as it will come with its Shader 3.0 part six months after, but just in time to pick up on many games that poor Nvidia spent a lot of time and money on. Life is simply not fair.

Ne böse Aussage, aber irgendwie könnte im Kern was dran sein.

ShadowXX
2004-08-25, 19:47:05
One more thing, the R520 will be developed by the R300 team – I cannot remember whether that is the East or West Coast team. You know what? Those guys made graphic turn over for ATI in summer two years ago. We don't know quite what to expect but it's full of Eastern, or Western promise. µ


http://www.theinquirer.net/?article=18086

Wenn das stimmt, bin ich mal gespannt, ob es wieder so ein guter Chip wie der r300 wird...

ice cool69
2004-08-27, 13:49:00
Na die werden schon in der Lage sein nen guten Chip zu bauen.

Aber Anfang 2005? Kann ich das glauben?

Demirug
2004-08-27, 13:58:02
Na die werden schon in der Lage sein nen guten Chip zu bauen.

Aber Anfang 2005? Kann ich das glauben?

Wenn es ein Derivat des XBox II Grafikteils wird könnte das schon hinkommen.

SamLombardo
2004-08-27, 15:51:52
[i]

The "Fudo" chip will have Shader model 3.0, according to our sources. It's too early for Shader 4.0 as this nice shader model won't show up till 2006 or even later.

http://www.theinquirer.net/?article=18086

Hm. Das heisst aber auch, dass SM3.0 schneller als man denkt standard wird, wie heute 2.0 - ergo: die Gründe jetzt eine teure Ati Gpu kaufen, auf der SM3.0 fehlt werden immer weniger. (bitte nicht als geflame auffassen)

Wie seht Ihr das?

LovesuckZ
2004-08-27, 16:02:24
Wie seht Ihr das?

War zu erwarten, wenn man den Anschluss im Entwicklerbereich nicht verpassen moechte.
Und wie wir wissen, ist dies das Terrain des Siegers.

Demirug
2004-08-27, 16:40:17
Hm. Das heisst aber auch, dass SM3.0 schneller als man denkt standard wird, wie heute 2.0 - ergo: die Gründe jetzt eine teure Ati Gpu kaufen, auf der SM3.0 fehlt werden immer weniger. (bitte nicht als geflame auffassen)

Wie seht Ihr das?

Mach dir keine Hoffnung. Intel spielt beim 3.0 Zug nicht mit. Der Widerstand 3.0 überhaupt einzusetzten würde allerdings natürlich geringer wenn auch ATI was 3.0 taugliches hat.

betasilie
2004-08-27, 16:54:40
Hm. Das heisst aber auch, dass SM3.0 schneller als man denkt standard wird, wie heute 2.0 - ergo: die Gründe jetzt eine teure Ati Gpu kaufen, auf der SM3.0 fehlt werden immer weniger. (bitte nicht als geflame auffassen)

Wie seht Ihr das?
Standard wird es deswegen noch lange nicht. Vieleicht wird SM3.0 etwas schneller optinonal angeboten werden, aber mehr auch nicht. Und optische Unterschiede wird es sowieso praktisch keine geben, außer wenn es der Performancevorteil von SM3.0 zulässt.

Sei froh wenn SM2.0 erstmal Standard wird. Und bis dahin ist es noch ein langer Weg. ;)

xL|Sonic
2004-08-27, 17:12:28
Hm. Das heisst aber auch, dass SM3.0 schneller als man denkt standard wird, wie heute 2.0 - ergo: die Gründe jetzt eine teure Ati Gpu kaufen, auf der SM3.0 fehlt werden immer weniger. (bitte nicht als geflame auffassen)

Wie seht Ihr das?

Zumal Windows Longhorn mit WGF usw. vor der Tür steht, SM3.0 ist derzeit genauso wenig ein Grund sich nen nv40 zu holen wie der fehlende Support von SM3.0 von ATI.
ich sehe das ähnlich wie betareverse.

ice cool69
2004-08-27, 17:25:53
Sorry aber ich kauf mir sicher keine 2.0-Karte mehr.
Wenn ich 400€ oder mehr in eine neue Karte investiere dann geht es mir gegen den Strich dann Abstriche machen zu müssen.
Denn nicht vielleicht dieses Jahr aber in einem Jahr wird 3.0 Vorteile bei der Geschwindigkeit und/oder Grafikqualität ausmachen.

ironMonkey
2004-08-27, 17:37:02
Sorry aber ich kauf mir sicher keine 2.0-Karte mehr.
Wenn ich 400€ oder mehr in eine neue Karte investiere dann geht es mir gegen den Strich dann Abstriche machen zu müssen.
Denn nicht vielleicht dieses Jahr aber in einem Jahr wird 3.0 Vorteile bei der Geschwindigkeit und/oder Grafikqualität ausmachen.



Schau dir mal HL² Bilder an zwischen PS 1.4 und 2.0............das ist ein mehr als gutes Beispiel das man nicht immer das neuste haben muss, für Hobbybastler ist 3.0 sehr wichtig, damit man schon testen kann etc, aber für dich und mich als Endverbraucher eher nur ein Aufdruck auf der Packung....Nvidia hat halt mit dem NV40 beide Seiten zufrieden gestellt ATI mit dem R420 nur eine.

Zumal ja keiner schrieb das der R520 in Q1 05 im Handel erhältlich ist.


Gruß

reunion
2004-08-27, 17:41:19
Wenn das stimmt, bin ich mal gespannt, ob es wieder so ein guter Chip wie der r300 wird...

Ich bin vorallem gespannt ob der 90nm lowk Prozess für einen Chip der annähernd die 300mio Transistorenmarke kratzen sollte schon dieses Jahr ausreichend entwickelt ist.

betasilie
2004-08-27, 17:56:36
Sorry aber ich kauf mir sicher keine 2.0-Karte mehr.
Wenn ich 400€ oder mehr in eine neue Karte investiere dann geht es mir gegen den Strich dann Abstriche machen zu müssen.
Denn nicht vielleicht dieses Jahr aber in einem Jahr wird 3.0 Vorteile bei der Geschwindigkeit und/oder Grafikqualität ausmachen.
SM3.0 ist ja nicht das enizige was für eine 6800er spricht. ;) ... Und klar, wenn man SM3.0 hat, kann es nicht schaden. Es wird sicher noch bis zum NV50 das eine oder andere Game geben, was von SM3.0 profitiert, nur stellt das imo kein primäres Kaufargument für 2004 und 2005 dar

Auf der anderen Seite wird 3Dc bei den ATI Karten sichelrich schöne Resultate zeigen. Schau dir mal Doom3 an. Wenn die 3Dc genutzt hätten für die Normalmaps, hätten die einige grobe Texturen durch schöne hochauflösende ersetzen können. ... Bei HL2 gehe ich mal stark von aus, dass 3Dc den ATI-Karten schon sichtbare Vorteile verschaffen werden.

deekey777
2004-08-27, 23:07:19
3Dc und parallax mapping - geht das überhaupt gut?
Auch eine interessante Sache ist, dass Vampire: Bloodlines mit SM 3.0 Support kommen soll; es gibt Gerüchte, dass Vampire 2 fertig sein soll, aber nicht released werden darf, bevor ein anderes Source-Spiel draussen ist - Half-Life 2.

Demirug
2004-08-27, 23:20:52
3Dc und parallax mapping - geht das überhaupt gut?

Man könnte die Highmap in eine zusätzliche Texture (nur ein Kanal) speichern. Von den 16 die man hat dürfte ja meist noch eine frei sein. Ist aber eben eine zusätzliche Belastung für den Texturecache.

Gast
2004-08-27, 23:50:57
Wenn das stimmt, bin ich mal gespannt, ob es wieder so ein guter Chip wie der r300 wird...

Was meinst du mit "gut"?
Wenn du die Architektur meinst, die sehr gut an DX9 angepasst wurde (was Anno 2000 war, nicht die a/b/c Erweiterungen), dann kann der R520 so etwas ja nicht wiederholen, da mit erscheinen von Longhorn die Technik einen Sprung macht, der eben seit erscheinen von DX9 auf sich warten lies.
Ergo is der R520 "nur" ein Lückenfüller...
Ich kann nicht beurteilen in wieweit die kommende Architektur für ein konformen WGF Chip genutzt werden kann, aber so ein "einfaches" Upgrade wie von R300 zu R420 wird es sicher nicht sein, oder?

ice cool69
2004-08-28, 00:08:30
Shader 3.0 wird wohl das Hauptupgrade sein. Desweiteren erwarte ich auch einige Detailverbesserungen wie zB 128bit Farbpräzision.

Klar ist 3.0 kein sehr schwerwiegendes Kaufkriterium, bei annähernd gleichschnellen Chips wie NV40 und R420 ziehe ich aber die modernere Variante vor.
Irgendwie gehört es "belohnt" wenn jemand so ein modernes Chipdesign vorlegt wie nVidia beim NV40, genauso wie ich damals den R300 als deutlich besser angesehen habe als den NV30/35, weshalb meine Karte eine R9500pro ist.

Da ich mit der Leistung meiner Karte jedoch noch halbwegs zufrieden bin (Doom3 und Far Cry sind bei mittleren Details flüssig spielbar und Half Life 2 wird es vorraussichtlich auch sein) werde ich sicherlich noch keine neue Karte Kaufen.
Erst wenn ich bei neuen Spielen auf minimale Details runterstellen muss ist es Zeit upzugraden. Mal sehn was der R520 vorweisen kann ;)

Ich hoffe nur meine CPU ist bis dahin nicht zu lahm (XP3200+).

Gute N8

ShadowXX
2004-08-28, 10:18:32
Was meinst du mit "gut"?
Wenn du die Architektur meinst, die sehr gut an DX9 angepasst wurde (was Anno 2000 war, nicht die a/b/c Erweiterungen), dann kann der R520 so etwas ja nicht wiederholen, da mit erscheinen von Longhorn die Technik einen Sprung macht, der eben seit erscheinen von DX9 auf sich warten lies.
Ergo is der R520 "nur" ein Lückenfüller...
Ich kann nicht beurteilen in wieweit die kommende Architektur für ein konformen WGF Chip genutzt werden kann, aber so ein "einfaches" Upgrade wie von R300 zu R420 wird es sicher nicht sein, oder?

Mit "gut" meinte ich, ob es das ArtX Team (wie gesagt wenn es stimmt) schafft eine SM3.0 Chip zu designen, der das im Bereich SM3.0 darstellt, das vorher der r300 im SM2.0 darstellte....

(anders gesagt....ob die SM3.0 Lösung beim r520 besser/schneller implementiert ist als beim nv40...wobei man natürlich nicht sagen kann, ob nV mittels refresh ebenfalls die implementation schon besser realisieren kann...vielleicht fehleten ja nur ein "paar" Transistoren für eine wesentlich bessere implementation, die aber absolut nicht mehr übrig waren....)

Dann wäre natürlich auch noch die Frage, ob Sie auch FP-Framebuffer und besseres HDR-Handling mit einbauen...

Ich hoffe jedenfalls, das der r520 nicht schon wieder ein r300, aber diesmal mit "angebauten", halbherzigen SM3.0 Support wir....

(Ich würde beim nächsten GraKa-Kauf nämlich gerne mal wieder die echte Wahl zwischen 2 Chips haben...bei r3x0 vs. nv3x war nicht viel auszusuchen (r3x0, was sonst) und auch diesmal wahr es für mich bei r420 vs. nv40 sofort klar welcher Chip, der der Wahl ist (nv40, was sonst (<-das ist nur meine Meinung, die von mir aus mit niemanden sonst übereinstimmen muss und mit der ich auch keinen überzeugen will))

Ernsthaft gesagt muss ATI so einen Chip wie den nv40 erst mal hinbekommen....ich werde den r520 am Featueset vom nv40 messen...und wenn ATI da nix ordentliches gebacken bekommt, dann muss ich sagen, dass der r300 wohl ein "One-Hit-Wonder" war....(von dem ATI aber wohl noch längere Zeit ganz gut leben kann....zumindest bis WGF)

Gast
2004-08-28, 11:20:21
Mit "gut" meinte ich, ob es das ArtX Team (wie gesagt wenn es stimmt) schafft eine SM3.0 Chip zu designen, der das im Bereich SM3.0 darstellt, das vorher der r300 im SM2.0 darstellte....

(anders gesagt....ob die SM3.0 Lösung beim r520 besser/schneller implementiert ist als beim nv40...wobei man natürlich nicht sagen kann, ob nV mittels refresh ebenfalls die implementation schon besser realisieren kann...vielleicht fehleten ja nur ein "paar" Transistoren für eine wesentlich bessere implementation, die aber absolut nicht mehr übrig waren....)

Dann wäre natürlich auch noch die Frage, ob Sie auch FP-Framebuffer und besseres HDR-Handling mit einbauen...

Ich hoffe jedenfalls, das der r520 nicht schon wieder ein r300, aber diesmal mit "angebauten", halbherzigen SM3.0 Support wir....

(Ich würde beim nächsten GraKa-Kauf nämlich gerne mal wieder die echte Wahl zwischen 2 Chips haben...bei r3x0 vs. nv3x war nicht viel auszusuchen (r3x0, was sonst) und auch diesmal wahr es für mich bei r420 vs. nv40 sofort klar welcher Chip, der der Wahl ist (nv40, was sonst (<-das ist nur meine Meinung, die von mir aus mit niemanden sonst übereinstimmen muss und mit der ich auch keinen überzeugen will))

Ernsthaft gesagt muss ATI so einen Chip wie den nv40 erst mal hinbekommen....ich werde den r520 am Featueset vom nv40 messen...und wenn ATI da nix ordentliches gebacken bekommt, dann muss ich sagen, dass der r300 wohl ein "One-Hit-Wonder" war....(von dem ATI aber wohl noch längere Zeit ganz gut leben kann....zumindest bis WGF)

Ich lach mich kaputt!

Der NV40 ist technisch gesehen ein Wrack, zu hoher Stromverbrauch, zu hoher Leistungsverlust, zu hohe Abwärme, zu gering VERFÜGBAR in der Highendversion, zu wenige Marktanteil, kein 100% ziges PCI Express Design.

Einfach nur Schrott der nv auch nicht weiterhelfen wird langsam aber sicher auszusterben!

ShadowXX
2004-08-28, 11:25:16
Ich lach mich kaputt!

Der NV40 ist technisch gesehen ein Wrack, zu hoher Stromverbrauch, zu hoher Leistungsverlust, zu hohe Abwärme, zu gering VERFÜGBAR in der Highendversion, zu wenige Marktanteil, kein 100% ziges PCI Express Design.

Einfach nur Schrott der nv auch nicht weiterhelfen wird langsam aber sicher auszusterben!

So früh morgens sollte man noch nichts Hochprozentiges trinken......

Gast
2004-08-28, 11:28:55
So früh morgens sollte man noch nichts Hochprozentiges trinken......

Das sollte ich dich fragen!

Alle Umfragen sehen ATI vorne, selbst hier ! Mehr als 60% setzen ATI ein!
Alle Benchmarks die die PCI Express Lösungen beider vergeleichen sehen die ATI Native Lösung vorne
In allen PS Anwendungen ist die X800 vorne

Es ist nur ein GAme (Dumm3) welches auf nv optimiert wurde und ihr glaubt wirklcih an den Wihnachtsmann in Grün!

es ist traurig aber wahr Ihr seit OUT!

ironMonkey
2004-08-28, 11:31:29
;D ..der war gut.



Ich würde den R520 aber nicht an den Features messen mit dem NV40, der R300/350 unterliegt ja in der hinsicht auch dem NV30/35, auf der anderen Seite entwickeln die schon recht lange den R520 wo man eigentlich einiges erwarten könnte, halt etwas mehr als nur Power.



Gruß

ironMonkey
2004-08-28, 11:34:47
Das sollte ich dich fragen!

Alle Umfragen sehen ATI vorne, selbst hier ! Mehr als 60% setzen ATI ein!
Alle Benchmarks die die PCI Express Lösungen beider vergeleichen sehen die ATI Native Lösung vorne
In allen PS Anwendungen ist die X800 vorne

Es ist nur ein GAme (Dumm3) welches auf nv optimiert wurde und ihr glaubt wirklcih an den Wihnachtsmann in Grün!

es ist traurig aber wahr Ihr seit OUT!

Les dir mal die erste Seite des Threads durch, da kann man eigentlich mehr als gut rauslesen das der R420 auf Grund zeitlicher Probleme nur eine Übergangslösung ist´.


Gruß

ShadowXX
2004-08-28, 11:37:23
Das sollte ich dich fragen!

Alle Umfragen sehen ATI vorne, selbst hier ! Mehr als 60% setzen ATI ein!
Alle Benchmarks die die PCI Express Lösungen beider vergeleichen sehen die ATI Native Lösung vorne
In allen PS Anwendungen ist die X800 vorne

Es ist nur ein GAme (Dumm3) welches auf nv optimiert wurde und ihr glaubt wirklcih an den Wihnachtsmann in Grün!

es ist traurig aber wahr Ihr seit OUT!

Falls du meinen Text mal richtig gelesen hättest, hättest du bemerkt, das ich von meiner persönlichen Meinung sprach....

Davon abgesehen, hab ich vor dem nv40 einen r350 gehabt...kenne ATI Karten also auch ziemlich gut...

Und ja, das der ATI oftmals schneller ist, ist mir ebenfalls bewusst...kratzt mich allerdings nicht.
Der nv40 erledigt in den Bereichen, wofür ich ihn gekauft habe, seine Arbeit sehr gut, mit mehr als genug FPS....

Und wenn 60% aller Leute von Hochhaus springen, spring ich trotzdem nicht hinterher...

Jemand der sich gerne eine x800 kaufen möchte beglückwünsche ich zu seiner Wahl...ist auch ein netter Chip....nur hatte er eben nicht mein Anforderungsprofil...vielleicht siehts beim r520 wieder anders aus, ich bin absolut nicht an eine Marke gebunden.....mir ist es wirklich schnurzegal, von wem der Chip auf meiner GraKa ist....

SamLombardo
2004-08-28, 16:13:42
Komisch, dass die aggressiven anti-Nvidia Flames immer von Gästen kommen. (Na, wer hat sich ausgeloggt? :P ) Lustig sind die tollen und zutiefst treffenden *lol* Argumente aber allemal.

PS. Sorry für OT

Sam

Exxtreme
2004-08-28, 16:35:18
Nicht mal annähernd, wohl eher ein aufgebohrter R100, sowohl was Features als auch Speed angeht. Höchstens der eDRAM (oder 1T-SRAM, wie auch immer) reißt ihn noch ein bisschen raus.

Kann man so nicht sagen. Der Flipper ist zwar eher DX7 als DX8, kann aber bis zu 8 Texturen pro Pass auftragen und andere Dinge. Und er hat ein Feature namens Virtual Texturing, welches es IIRC noch nie auf dem PC gab. =)

Ailuros
2004-08-28, 16:57:14
Kann man so nicht sagen. Der Flipper ist zwar eher DX7 als DX8, kann aber bis zu 8 Texturen pro Pass auftragen und andere Dinge. Und er hat ein Feature namens Virtual Texturing, welches es IIRC noch nie auf dem PC gab. =)

Virtual Texturing ist nichts Neues ausserhalb dem PC space.

---------------------------------------------------------

Zum Thema:

Von allen bisherigen Indizien sieht es so aus als ob R520 tatsaechlich ein vollgebratener SM3.0 chip sein wird und ja mit float blending und natuerlich FP32 Praezision. Wer etwas fortschrittlichere WGF Features erwartet, der sollte nochmal ueberdenken dass M$ staendig ihre Veroeffentlichungsdaten fuer LONGHORN verschiebt und keiner der beiden IHVs wird so bloed sein Transistoren fuer Einheiten zu verschwenden die nur in OGL als Beispiel durch SW unterstuetzt werden koennen. Ein paar Kleinigkeiten hier und da qualifizieren aber trotzdem keiner dieser Architekturen als SM4.0 kompliant gennant zu werden, nicht mal halbwegs.

Was den Veroeffentlichungstermin von R520 betrifft: ATI hat diesen irgendwo in Mitte 2005 projeziert, was wohl verstaendlicherweise u.a. auch vom Herstellungsprozess abhaengt. Anders uebersetzt das obrige ist der bestmoegliche Fall, kann aber auch um einiges naeher an den NV50 Release ruecken.

NV50 ist im Gegenteil etwa in Q4 2005 zu erwarten mit breiterer Verfuegbarkeit Q1 2006 nach neuestem Standpunkt (nichts Neues steht ja schon seit Tagen in aktuellen newsblurbs grosser Seiten).

Ergo werden wir drei verschiedene SM3.0 kompliante Produkt-Familien hoechstwahrscheinlich bis zum LONGHORN bzw. WGF Release haben:

NV4x/R5xx/NV5x

Beide werden dann versuchen mit NV6x/R6xx so nahe wie moeglich an den offiziellen WGF release zu ruecken.

Ailuros
2004-08-28, 17:00:55
Komisch, dass die aggressiven anti-Nvidia Flames immer von Gästen kommen. (Na, wer hat sich ausgeloggt? :P ) Lustig sind die tollen und zutiefst treffenden *lol* Argumente aber allemal.

PS. Sorry für OT

Sam

Fanboys werden je nach dem Grad der Unsicherheit aggressiver. War von der anderen Seite nach dem R300 Release auch nicht anders. ;)

Quasar
2004-08-28, 17:22:28
Das sollte ich dich fragen!
Alle Umfragen sehen ATI vorne, selbst hier ! Mehr als 60% setzen ATI ein!
Alle Benchmarks die die PCI Express Lösungen beider vergeleichen sehen die ATI Native Lösung vorne
In allen PS Anwendungen ist die X800 vorne
Es ist nur ein GAme (Dumm3) welches auf nv optimiert wurde und ihr glaubt wirklcih an den Wihnachtsmann in Grün!
es ist traurig aber wahr Ihr seit OUT!
Umfragen? Hm, 1933 gab es Umfragen, die die NSDAP vorn gesehen haben - war das etwa eine gute Entscheidung? Analog könnte man jetzt von den Milliarden Fliegen anfange, die angeblich auch nicht irren, oder der Frage, ob du hinterherspringst, wenn 60% der anderen von einer Brücke hopsen... ;)

Thema PCI-e:
Welche Benchmarks sehen da einen Unterschied bei ansonsten gleichen Karten zur AGP-Version? Die einzigen, die ich kenne, die ein Feature von PCI-e nutzen, nämlich den beschleunigten Rückkanal, sehen eher ein trauriges Bild bei ATi.

Thema Doom3:
Allein schon deine niedliche Verballhornung "dumm3" zeigt, auf welchem Level deine Argumentation stattfindet.Davon abgesehen gibt es noch einige anderes Games, wo ATi nicht vorn liegt. Darüberhinaus gibt es auch noch sowas wie Bildqualität (lieber nicht IQ schreiben - das wird sonst noch als Beleidigung ausgelegt) - kommt die bei ATi auch erst mit dem R520?

Thema Out:
Du ahnst nicht, in wie vielerlei Hinsicht ich sehr gern "out" bin - wer immer "hip" tut und der Masse hinterher läuft, beweist eigentlich nur, daß er keine eigene Meinung hat.

betasilie
2004-08-28, 19:40:55
Shader 3.0 wird wohl das Hauptupgrade sein. Desweiteren erwarte ich auch einige Detailverbesserungen wie zB 128bit Farbpräzision.

Klar ist 3.0 kein sehr schwerwiegendes Kaufkriterium, bei annähernd gleichschnellen Chips wie NV40 und R420 ziehe ich aber die modernere Variante vor.
Irgendwie gehört es "belohnt" wenn jemand so ein modernes Chipdesign vorlegt wie nVidia beim NV40, genauso wie ich damals den R300 als deutlich besser angesehen habe als den NV30/35, weshalb meine Karte eine R9500pro ist.

Da ich mit der Leistung meiner Karte jedoch noch halbwegs zufrieden bin (Doom3 und Far Cry sind bei mittleren Details flüssig spielbar und Half Life 2 wird es vorraussichtlich auch sein) werde ich sicherlich noch keine neue Karte Kaufen.
Erst wenn ich bei neuen Spielen auf minimale Details runterstellen muss ist es Zeit upzugraden. Mal sehn was der R520 vorweisen kann ;)

Ich hoffe nur meine CPU ist bis dahin nicht zu lahm (XP3200+).

Gute N8

Mhhhhhhhhhhhhhhhhhhhhhhhhhhhh.

Der NV40 ist mit Sicherheit in Relation vom Vergleich R300 zu NV30 meilenweit entfernt vom vom R300.

Ich für meinen Teil habe mich für eine 6800GT entschieden, und bin sehr zufrieden aus diversen Gründen, aber die X800er Serie (mit 16 Pipes) ist nur ein Katzensprung entfernt vom NV40. Einen dramatischen Unterschied, wie beim NV30 zum R300. gibt es mit Sicherheit nicht.

M@g
2004-08-28, 20:16:30
Also wäre das Feature Set auf SM3 quasi festgesetzt. Alles was darüber hinausgeht is sicher willkommen, aber wird ATI den Weg gehen? Der R300 tat das jedenfalls nicht.
Böse Zungen sehen da schon parallelen zur PS1.4 Geschichte...
Bei 16 "Pipes" wird es wohl erstmal bleiben, an der "herkömmlichen" Texturefilterung wird sich ja nicht viel ändern in absehbarer Zukunkft, oder?
ATI ist im Bezug auf die nächste Generation sicher die größere Unbekannte, was sie denn alles in den Chip stecken, zumindest aber hat der nV40 gezeigt wo es hingeht.

ironMonkey
2004-08-28, 20:41:56
Eigentlich hat der R300 gezeigt wo es hingeht, Leistung ohne ende, Features, gutes AA und nicht so schönes aber dafür schnelles AF. NV hat aus der Sicht eher nachgezogen und den Chip auf den aktuellen Stand der Technik gebracht.


Das der R520 eine Karte ala 8500er wird, glaube ich nicht, sonst währe der R400 derzeit erhältlich.



Gruß

MikBach
2004-08-28, 21:59:28
Eigentlich hat der R300 gezeigt wo es hingeht, Leistung ohne ende, Features, gutes AA und nicht so schönes aber dafür schnelles AF. NV hat aus der Sicht eher nachgezogen und den Chip auf den aktuellen Stand der Technik gebracht.


Das der R520 eine Karte ala 8500er wird, glaube ich nicht, sonst währe der R400 derzeit erhältlich.
Gruß

Vollkommen richtig. Wer anders denkt, der sollte mal weiter überelgen. Dem habe ich nichts mehr hinzu zu fügen.

M@g
2004-08-28, 22:46:02
Eigentlich hat der R300 gezeigt wo es hingeht, Leistung ohne ende, Features, gutes AA und nicht so schönes aber dafür schnelles AF.
GrußDas meinte ich nicht, und finde das etwas zu kurz Gedacht, da eine neue Generation mehr Leistung bringen sollte, und da sollte man doch schönes und schnelles AF mittlerweile erwarten können.
Desweiteren bezog ich mich eher auf neue Features ala TrueForm, 3DC & EMBM. Virtual Displacement Mapping ist im kommen, sowas interessiert mich persönlich mehr, als ein längerer FPS Balken, den bekomme ich mit Sicherheit, die Frage ist nur was es das nächste mal kosten wird. Qualität runterschrauben kann jeder, aber das Niveau halten und die Qualität (garniert mit neuen Features) erhöhen...

Ich denke das ist "weiter Gedacht" :)

Coda
2004-08-29, 02:36:19
Der NV40 ist technisch gesehen ein Wrack, zu hoher Stromverbrauch, zu hoher Leistungsverlust, zu hohe Abwärme, zu gering VERFÜGBAR in der Highendversion, zu wenige Marktanteil, kein 100% ziges PCI Express Design.
10W mehr? Sehr extrem, wirklich Oo
Ich wusste nicht das Verfügbarkeit oder Marktanteil ein Feature is...
Und das PCIe Interface juckt auch nicht, das interessiert die Perfo nicht.

PS 3.0, MRT und voller Floating Point Texture Support sind ein technisches Wrack? Interessante Theorie.

Ailuros
2004-08-29, 05:32:51
Also wäre das Feature Set auf SM3 quasi festgesetzt. Alles was darüber hinausgeht is sicher willkommen, aber wird ATI den Weg gehen? Der R300 tat das jedenfalls nicht.
Böse Zungen sehen da schon parallelen zur PS1.4 Geschichte...
Bei 16 "Pipes" wird es wohl erstmal bleiben, an der "herkömmlichen" Texturefilterung wird sich ja nicht viel ändern in absehbarer Zukunkft, oder?
ATI ist im Bezug auf die nächste Generation sicher die größere Unbekannte, was sie denn alles in den Chip stecken, zumindest aber hat der nV40 gezeigt wo es hingeht.

Um mal wieder "devil's advocate" zu spielen: ich sehe beim NV40 (ausser dass Multisampling im Treiber auf 4xRGMS begrenzt ist und der Algorithmus nicht programmierbar ist) eher einen Trend seitens NVIDIA jeden bloeden Filtertrick von ATI nachzumachen. Das gilt natuerlich auch andersrum fuer ATI und "brilinear".

ATI ist fuer mich was R520 betrifft (und natuerlich auch nach der geleakten "Save the nanosecond" ppt Praesentation) nicht der grosse Unbekannte, sondern eher NV50. Eine Stream-Prozessor artige GPU oder nicht?

Virtual Displacement Mapping ist im kommen, sowas interessiert mich persönlich mehr.....

Du brauchst keine R520 oder NV40/50 fuer parallax mapping. Fuer echtes DM aber dann schon. Und es sieht dann von allen Blickwinkeln genauso gut aus ;)

Gast
2004-08-29, 09:26:32
10W mehr? Sehr extrem, wirklich Oo
Ich wusste nicht das Verfügbarkeit oder Marktanteil ein Feature is...
Und das PCIe Interface juckt auch nicht, das interessiert die Perfo nicht.

PS 3.0, MRT und voller Floating Point Texture Support sind ein technisches Wrack? Interessante Theorie.


Der Stromverbrauchstest ist ein Test von sehr vielen gewesen!

Zig andere behaupten das Gegenteil, selbst die grünen haben höhere Werte angegeben.

Es ist wie hier, trau nicht dem S/W GEDRUCKTEN auf deinem Screen.

Quasar
2004-08-29, 12:26:20
Vollkommen richtig. Wer anders denkt, der [...]
...ist schlicht nicht deiner Meinung.
T-O-L-E-R-A-N-Z

Dem habe ich nichts mehr hinzuzufügen.

[BTW, gab's hier einen Datenbankfehler, oder wo ist mein Posting von gestern abend hin?]

edit:
Hat sich erledigt, hab's gefunden

Ailuros
2004-08-29, 12:57:58
Der Stromverbrauchstest ist ein Test von sehr vielen gewesen!

Zig andere behaupten das Gegenteil, selbst die grünen haben höhere Werte angegeben.

Es ist wie hier, trau nicht dem S/W GEDRUCKTEN auf deinem Screen.

Hmmmm dann sollte ich wohl froh sein dass ich die hoechste Leistung momentan herausholen kann pro Watt; effektiv ein 2:1 ratio verglichen zu einer 9800XT. Trotz allem wird mich hoeherer Stromverbrauch nicht davon abhalten in absehbarer Zukunft zu einer staerkeren Karte zu greifen und nein Ego-Trip Modelle wie XT PE oder Ultras kommen bei mir nicht ins Haus.

Stromverbrauch ist ein bloedes Argument fuer eine heutige Kaufentscheidung. Ein =/>400W hochqualitatives PSU ist sowieso angesagt fuer heutige Verhaeltnisse um auf absolut Nummer Sicher zu gehen.

deekey777
2004-09-03, 10:23:21
The R520 "Fudo" could have 300 million transistors (http://www.theinq.com/?article=18232)

Wie hoch wird der VPU-Takt sein? 200MHz? 250 MHz? :biggrin:

Ailuros
2004-09-03, 11:20:23
Ich hab schon oft mit dem Gedanken gespielt mal Inquirer versuchen was zuzuschicken um zu sehen wie schnell es auf deren Hauptseite kommt.

Hier wurde naehmlich wieder der INQ verarscht und man kichert sich bei einem IHV momentan zu Tode ueber deren Dummheit.

Wie hoch wird der VPU-Takt sein? 200MHz? 250 MHz?

Bei low-k 90nm sollten 500MHz zumindest durchaus moeglich sein; dabei muessen es auch nicht unbedingt gleich 300M Transistoren sein.

reunion
2004-09-14, 17:01:15
Ich schmeiß das mal hier rein:

THE XBOX 2 CHIP MIGHT be already finished, according to a German web site. According to Gamestar.de, the graphics core is finalised and it may be used by both XboX 2 and a future Nintendo console. It seems that both Microsoft and Nintendo will license the same marchitecture and it's possible we will end up with the same graphic chip for both consoles.
Knowing Microsoft, I don’t see this happening and I would imagine that Nintendo might flee from ATI due to the nature of the Microsoft–ATI deal. I don’t think that Microsoft would be happy knowing that Nintendo would have the same core.

Last time I head, this chip was codenamed R500, not the R520 that will be used for graphic cards only and will be directly derived from the R520 "Fudo" chip. We can expect at least Shader 3.0+ compatibility but we are not sure about the chip's specification.

We were told not to expect this console before the end of 2005 so it's still quite some way away.

http://www.theinquirer.net/?article=18432

Ailuros
2004-09-14, 18:04:08
Inquirer? :|

R500 = R6xx nach dem Roadmapshift. Hoechstwahrscheinlich WGF kompliant, was wohl schon wieder dem Xenon chip vorrausliegt.

Gast
2004-09-14, 18:57:53
Ich schmeiß das mal hier rein:

We can expect at least Shader 3.0+ compatibility but we are not sure about the chip's specification.


http://www.theinquirer.net/?article=18432

SM3.0+ dann gibts also wieder ein paar neue DX9 Profile :)
Ist doch davon auszugehen das das + auf einen Chip hinweist, der etwas "mehr" bietet als es SM3.0 vorschreibt.
Oder es is nur Marketing Bla...

nagus
2004-09-14, 18:58:31
Falls du meinen Text mal richtig gelesen hättest, hättest du bemerkt, das ich von meiner persönlichen Meinung sprach....

Davon abgesehen, hab ich vor dem nv40 einen r350 gehabt...kenne ATI Karten also auch ziemlich gut...

Und ja, das der ATI oftmals schneller ist, ist mir ebenfalls bewusst...kratzt mich allerdings nicht.
Der nv40 erledigt in den Bereichen, wofür ich ihn gekauft habe, seine Arbeit sehr gut, mit mehr als genug FPS....

Und wenn 60% aller Leute von Hochhaus springen, spring ich trotzdem nicht hinterher...

Jemand der sich gerne eine x800 kaufen möchte beglückwünsche ich zu seiner Wahl...ist auch ein netter Chip....nur hatte er eben nicht mein Anforderungsprofil...vielleicht siehts beim r520 wieder anders aus, ich bin absolut nicht an eine Marke gebunden.....mir ist es wirklich schnurzegal, von wem der Chip auf meiner GraKa ist....

die fx6800ultra ist ein hochgezüchtetes monster-design ohne wirklich brauchbare features (welches game verwendet SM3.0 und schaut dabei irgnedwie anders aus als mit SM2.0?)

SM3.0 und Dumm3-Benchmarks sind ja ganz "nette" zuckerl, aber für jemanden der nicht 100% dumm3 gestört ist (ob das spiel shice ist oder nicht, schön oder hässlich ist mir egal... wegen EINEM einzigen spiel kaufe ich mir nicht eine grafikkarte um 500 euro! ), sind diese zwei argumente irrelevant.

ATI hingegen hat mit der x800 eine in ALLEN bereichen sehr schnelle grafikkarte gebaut die weniger leistung frisst, weniger abwärme erzeugt, leiser billiger und besser verfügbar ist als jede andere NV40.

Gast
2004-09-14, 19:07:37
X800, welche Karte nutzt den den Chip bitte, dann bring mal Beispiele, ist zwar das Spekulationsforum aber das riecht eher nach Fangerede oder Unwissen.
Auserdem sei mir der Hinweis gestatet, das es GeForce OHNE FX heist :) wenn es um NV4X Chips/Karten geht.

Solltest du einen Vergleich zwischen X800XTPE und GF6800Ultra in Erwägung gezogen haben kann man dir teilweise zustimmen, nur mit einer guten Verfügbarkeit, und da denke ich stimmt mir jeder zu, sind beide Hersteller wahrlich nicht gesegnet...

Solltest du einen Vergleich zwischen X800PRO und GF6800GT gemeint haben, nun das ist Ansichtssache, da sich die Karten nicht viel geben in der Praxis.
"Leiser" dürfte seit dem NV5 Silencer (der bei Galaxy Standartmäßig verbaut) nicht mehr DER Unterschied sein, Abwärme lass ich mal im Raume stehn.

Ailuros
2004-09-14, 19:26:19
ATI hingegen hat mit der x800 eine in ALLEN bereichen sehr schnelle grafikkarte gebaut die weniger leistung frisst, weniger abwärme erzeugt, leiser billiger und besser verfügbar ist als jede andere NV40.

Zu stark generalisiert und natuerlich viel zu einseitig praesentiert:

X800XT/PE > 6800 Ultra (Leistung)
6800Ultra > X800XT/PE (Stromverbrauch)

X800PRO ~= 6800GT (Leistung und Stromverbrauch)

6800 = kein direkter Konkurrent jedoch:

6800 =/> 9800XT (Leistung)
9800XT >> 6800 (Stromverbrauch)

Jeder andere NV40.....ja aber sicher doch..... :|

SamLombardo
2004-09-17, 22:49:04
die fx6800ultra ist ein hochgezüchtetes monster-design ohne wirklich brauchbare features (welches game verwendet SM3.0 und schaut dabei irgnedwie anders aus als mit SM2.0?)

SM3.0 und Dumm3-Benchmarks sind ja ganz "nette" zuckerl, aber für jemanden der nicht 100% dumm3 gestört ist (ob das spiel shice ist oder nicht, schön oder hässlich ist mir egal... wegen EINEM einzigen spiel kaufe ich mir nicht eine grafikkarte um 500 euro! ), sind diese zwei argumente irrelevant.

ATI hingegen hat mit der x800 eine in ALLEN bereichen sehr schnelle grafikkarte gebaut die weniger leistung frisst, weniger abwärme erzeugt, leiser billiger und besser verfügbar ist als jede andere NV40.

Mit der Meinung stehst Du aber leider etwas auf verlorenem Posten. :P Selbst gestandene Ati "Fans" akzeptieren, dass NV in dieser Generation die bessere Hardware bietet. Quasi umgekehrt zur NV30/R300 Situation. Aber eine objektive Herangehensweise deinerseits ist wohl nicht zu erwarten. Und dass du Doom3 als Dumm3 bezeichnest zeigt leider das Niveau des beleidigten Fanboys, der sauer ist, weil ihm die Realitäten nicht gefallen :(

nagus
2004-09-17, 23:35:30
Mit der Meinung stehst Du aber leider etwas auf verlorenem Posten. :P Selbst gestandene Ati "Fans" akzeptieren, dass NV in dieser Generation die bessere Hardware bietet. Quasi umgekehrt zur NV30/R300 Situation. Aber eine objektive Herangehensweise deinerseits ist wohl nicht zu erwarten. Und dass du Doom3 als Dumm3 bezeichnest zeigt leider das Niveau des beleidigten Fanboys, der sauer ist, weil ihm die Realitäten nicht gefallen :(


LOL.. doom3 IST (leider muss ich sagen) eine der größten reinfälle (und hypes) die ich je erlebt hab. praktisch unspielbar langsam auf mid-range karten, dummes level-design, dumme und extrem nervige viecher (stichwort imp), für den enormen hardware-hunger viel zu schlechte grafik... da ist sogar noch ein schwarzer raum ohne inhalt "langsam" ... ums mal so auszudrücken.

... und nebenbei bemerkt ist erwiesenermaßen das top-ati modell bei GLEICHER bildqualität praktisch nicht langsamer als die 6800ultra... und so dumm, dass ich mir wegen EINEM einzigen spiel eine spezielle grafikkarte kaufe nur weil id mit nvidia "ins bett steigt" ... naja... so dumm bin ich nun auch wieder nicht ;)


dumm3 ist "ganz" nett ... aber SICHER nicht das maß aller dinge.
im ernst... nur wegen diesem dummen spiel so geil auf die 6800er zu sein ist, verzeihung, ziemlich engstirnig und beknackt.

Mancko
2004-09-18, 00:16:01
LOL.. doom3 IST (leider muss ich sagen) eine der größten reinfälle (und hypes) die ich je erlebt hab. praktisch unspielbar langsam auf mid-range karten, dummes level-design, dumme und extrem nervige viecher (stichwort imp), für den enormen hardware-hunger viel zu schlechte grafik... da ist sogar noch ein schwarzer raum ohne inhalt "langsam" ... ums mal so auszudrücken.

... und nebenbei bemerkt ist erwiesenermaßen das top-ati modell bei GLEICHER bildqualität praktisch nicht langsamer als die 6800ultra... und so dumm, dass ich mir wegen EINEM einzigen spiel eine spezielle grafikkarte kaufe nur weil id mit nvidia "ins bett steigt" ... naja... so dumm bin ich nun auch wieder nicht ;)


dumm3 ist "ganz" nett ... aber SICHER nicht das maß aller dinge.
im ernst... nur wegen diesem dummen spiel so geil auf die 6800er zu sein ist, verzeihung, ziemlich engstirnig und beknackt.

also du redest ja wohl den totalen Quark.
Deine Verallgemeinerungen treffen nunmal nicht zu.
Ich würde Dir zustimmen und sagen, die X800XT PE ist schneller als die GF6800Ultra. Der Unterschied ist jedoch minimal. Hinzu kommt, dass die X800XT PE so gut wie nirgends verfügbar ist. Bei der GF6800U siehts zwar auch nicht rosig aus aber immerhin besser als bei der XT PE.

Bei der GF6800GT vs X800pro sieht die Sache anders aus. Die GF6800GT ist klar oberhalb der X800pro einzuordnen und bei vergleichbarer und vor allem spielbarer Bildqualität sowieso.
Hier hat ATI Nvidia einfach unterschätzt.
Für die 6800non Ultra und die 6800LE hat ATI gar nichts zu bieten. Die Produkte stehen derzeit quasi konkurenzlos da. So wie ATIs derzeit verfügbare Produktpalette aussieht, wollten sie gemütlich mit der X800pro und eventuell einer XT durchkommen und den Rest mit der 9800XT/pro der 9600XT sowie deren PCI-E Abkömmlinge X600 und X300 durchkommen.
Vor allem letztere sind eine Frechheit und ABzocke des Kunden.
Sie haben aber einen kleinen Schönheitsfehler in Ihrer Rechnung gehabt. Sie haben schlichtweg nicht damit gerechnet, dass Nvidia ganze 4 NV40 Produkte launchen wird und somit 9800XT sowie 9600XT nach unten katapultiert wurden. Die Situation verschärft sich nun noch durch die 6600GT und 6600.
Zum Glück für sie wird es bis zur X700 Reihe nicht mehr lange dauern. Nur noch paar Wochen bis zur Verfügbarkeit.
Alles in allem bietet Nvidia momentan die rundere Palette.

Es wird interessant zu sehen wie sich der NV41 und NV44 auf das Marktgeschehen auswirken werden. Nach jetzigem Stand der Dinge und den Erkentnissen behaupte ich mal frech, dass ATI wieder Marktanteile abgeben wird in den nächsten 6 Monaten.
Vor allem im Umfeld 6800non Ultra bis 6800Ultra werden sie ziemlich unter Druck geraten. Die X800 ist einfach nicht gut genug und vor allem durch ihren überhöhten Preis sehr schlecht positioniert. Momentan ist die 6800GT der klare Verkaufsschlager.
Überall gut bei der Musik und eigentlich oberhalb der x800pro und bei Doom3 auf und davon. So eine Niederlage wie ATI bei Doom3 eingesteckt hat, wird Nvidia bei HL2 nicht einstecken. Von den angeblichen Vorabbenches von ATI und den Marketing Aussagen von Gabe Newell ist nach jetztigem Stand der Dinge nicht mehr viel übrig geblieben. Die NV4x Reihe liegt dank hervorragender Shaderleistung gut im Rennen. Damit hat ATI nicht gerechnet und zum Pech für sie hat sich HL2 so verspätet. Ich glaube nicht, dass eine 6800GT von einer X700 in Hl2 zersägt wird bzw. eingeholt wird so wie die X800pro von der GF6600GT in Doom3.

Und ob dir Doom3 nun gefällt oder nicht interessiert sowieso keinen. Mit Relegionskonvertierungen in deine Fanboysicht brauchst gar nicht erst beginnen. Für die Mehrheit ist Doom3 derzeit das Game und im Gegensatz zu HL2 war es verfügbar als ATI schlecht in den Benchmarks dastand. Ich glaub das wird bei HL2 umgekehrt nicht der Fall sein.
Doom3 - und da gibts gar kein Herumreden - war eine ziemlich heftige Schlappe für ATI die sich bei vielen Daus hervorragend festgesetzt hat.

Du musst einst ganz ganz schnell begreifen, ansonsten machst du dich lächerlich, Nvidia ist nicht mehr in der Lage wie zu NV3x Zeiten. Nvidia hat aus dem Desaster gelernt und NV3x ist für Nvidia Geschichte. Aus vorbei und vergessen. Nvidia redet nur noch über NV4x und mit der Reihe liegen sie sehr gut im Rennen und haben eigentlich nichts zu befürchten. Wenn es keine Pannen mit NV41 und NV44 gibt, haben sie die mächtigste Produktpalette in ihrer Geschichte. Sehr leistungsfähig und im Featurebereich weit vor der Konkurenz. Vor allem im Mainstream und Low End wird das zum tragen kommen. Warum soll ich zu einer ATI Low End Karte oder Mainstreamkarte kaufen, wenn die gleiche Performance + mehr Features zum gleichen Preis bei der Konkurenz geboten wird. Da gibts keinen Grund es sei denn ich bin mit einer Firma verheiratet aber das sind die wenigsten.
Du brauchst nicht denken, nur weil auf einschlägigen Webseiten das Verhältnis an Fanboy 50:50 ist, dass es draussen auch so ist. Da gibts keine Fanboys. Da wird das werbewirksamste gekauft - vollkommen egal von wem. Ich behaupte Mal, dass Nvidias Chancen ein wenig besser stehen, was werbewirksamkeit angeht. Deswegen denke ich hat ATI vorerst seinen Höhepunkt im PC GPU Business erreicht bzw. erreicht ihn in den nächsten 3 Monaten.

Ailuros
2004-09-18, 00:21:07
LOL.. doom3 IST (leider muss ich sagen) eine der größten reinfälle (und hypes) die ich je erlebt hab. praktisch unspielbar langsam auf mid-range karten, dummes level-design, dumme und extrem nervige viecher (stichwort imp), für den enormen hardware-hunger viel zu schlechte grafik... da ist sogar noch ein schwarzer raum ohne inhalt "langsam" ... ums mal so auszudrücken.

... und nebenbei bemerkt ist erwiesenermaßen das top-ati modell bei GLEICHER bildqualität praktisch nicht langsamer als die 6800ultra... und so dumm, dass ich mir wegen EINEM einzigen spiel eine spezielle grafikkarte kaufe nur weil id mit nvidia "ins bett steigt" ... naja... so dumm bin ich nun auch wieder nicht ;)


dumm3 ist "ganz" nett ... aber SICHER nicht das maß aller dinge.
im ernst... nur wegen diesem dummen spiel so geil auf die 6800er zu sein ist, verzeihung, ziemlich engstirnig und beknackt.


Es ist wohl in Deiner besten Interesse die Punkte die er in dem von Dir selber zitierten Absatz machte, total zu uebersehen und Dich nur auf Doom3 konzentrieren. NVIDIA hat zweifellos die effizientere Architektur fuer diese Runde, ueberhaupt takt-normalisiert. Ja es war genau anders rum bei der vorigen Generation, aber fuer mich persoenlich sind es in jedem der beide Faelle dumme Ausreden, egal ob jetzt NV-fans NV3x oder ATI-fans R420 verteidigen.

Engstirnig und becknackt ist dann wohl eher wenn man nicht objektiv sein kann ein paar Wahrheiten einzugestehen.

MikBach
2004-09-18, 11:58:20
Solltest du einen Vergleich zwischen X800PRO und GF6800GT gemeint haben, nun das ist Ansichtssache, da sich die Karten nicht viel geben in der Praxis.
"Leiser" dürfte seit dem NV5 Silencer (der bei Galaxy Standartmäßig verbaut) nicht mehr DER Unterschied sein, Abwärme lass ich mal im Raume stehn.
Tolles Argument. Wenn du die ganzen Modelle aller Hersteller vergleichst, wirst du bemerken, dass die Galaxy eher eine Ausnahme als die Regel ist. Ausserdem ist die Bemerkung, dass man da den Silencer verbauen kann für die meisten irrelevant. Wer opfert schon gerne die Garantie bei einer 400€-Karte? Nur Freaks.
Mit der Meinung stehst Du aber leider etwas auf verlorenem Posten. :P Selbst gestandene Ati "Fans" akzeptieren, dass NV in dieser Generation die bessere Hardware bietet. Quasi umgekehrt zur NV30/R300 Situation. Aber eine objektive Herangehensweise deinerseits ist wohl nicht zu erwarten. Und dass du Doom3 als Dumm3 bezeichnest zeigt leider das Niveau des beleidigten Fanboys, der sauer ist, weil ihm die Realitäten nicht gefallen :(
Die bessere Hardware hat Nvidia beim NV40 schon(das war zu FX-Zeiten theoretisch auch so). Nur ein Reinfall, wie es die FX-Serie war/ist ist der R420 sicherlich nicht. Oder glaubst du, dass es in Zukunft Spiele geben wird, wo der NV40 100% schneller sein wird als der R420(wie das bei FC und R350/NV35 der fall ist)?
Die Sitution ist nicht umgekehrt. Bei dieser Generation ist ATI und Nvidia fast Gleichwertig. Der Unterschied ist minimal.

Da dieser (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=170169) Thread geschlossen wurde, würde mich mal interessieren, was die Befürworter des NV40 dazu sagen.
Ist schon seltsam, dass bei Mainstreamspielen der NV40 sehr gut abschneidet, bei Spielen, die kaum gebencht werden(oder noch relativ neu sind), jedoch teilweise untergeht.
Siehe auch den Thread von beta:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=170036

Das könnte natürlich die Treiberstrategie Nvidia´s erklären. ;)
Viele Betatreiber um zu optimieren, die Kunden spielen schön Betatester, zumindest die, die es sich zutrauen, und Nvidia ist fein raus. :down:

Sorry für OT, aber das ist ja schon fast normal, dass jeder Thread der mit Grafikkarten zu tun hat, mit einem kleinen "Krieg" ob NV40 oder R420 enden muss.

LovesuckZ
2004-09-18, 12:19:40
Das könnte natürlich die Treiberstrategie Nvidia´s erklären. ;)
Viele Betatreiber um zu optimieren, die Kunden spielen schön Betatester, zumindest die, die es sich zutrauen, und Nvidia ist fein raus. :down:


Langsam solltest du fuer deine Luegen abgestraft werden!
Aber ich moechte gerne Beweise sehen, dass alle neuesten "Betatreiber" von Nvidia kommen* und, wie du es sagst, Betatreiber waeren.

* Das heißt, sie wurden nicht von Entwickler/Reviewer veroeffentlicht.

MikBach
2004-09-18, 13:19:22
Langsam solltest du fuer deine Luegen abgestraft werden!
Aber ich moechte gerne Beweise sehen, dass alle neuesten "Betatreiber" von Nvidia kommen* und, wie du es sagst, Betatreiber waeren.

* Das heißt, sie wurden nicht von Entwickler/Reviewer veroeffentlicht.
Was für Lügen?
Schu dir mal an wie viele Betatreiber von Nvidia kommen, bevor es einen Final gibt. Das ist bei ATI ganz anders.
Der offizielle "Final"Treiber auf der Nvidia Homepage ist der 61.77.
Was die Hersteller für Treiber als "Final" ansehen ist mir echt sowas von egal.
Ich spreche hier von Treibern, die man bei Nvidia runterladen kann(Final) und den ganzen anderen die es noch gibt(Beta).
Und schau mal wie viele Treiber es mit einer höheren Version gibt. Ich kann dir da leider nicht weiterhelfen, weil ich da nicht mehr durchblicke. ;)
Vielleicht kann das dir auf die geistigen Sprünge helfen:
http://www.winfuture.de/downloadrubrikseite,42,5,9.html
http://www.winfuture.de/downloadrubrikseite,42,5,10.html

Und ich lüge? Alles klar. :hammer:

edit: BTW ich habe geschrieben könnte, also auch wenn ich falsch liegen sollte, ist es keine Lüge. ;)

Gast
2004-09-18, 13:34:40
Ich verstehe gar nicht warum die Leute immer auf die kühlere X800 Reihe verweisen. Sicher ist sie kühler, aber bietet sie FP32 in dem Maße wie es der NV40 tut? Nein. Spätestens wenn der R520 mit durchgehend FP32 da ist, dann können wir mal über Temperaturen reden wenn die Transistormenge ungefähr gleich ist.

Und für nagus:

Die X800XT-PE ist ein hochgezüchtetes Steinzeit-Design ohne wirklich brauchbare Features (welches Game verwendet SM2.b und schaut dabei irgendwie anders aus als mit SM2.0?)

Das Design an sich ist ja gut aber es bietet eben nichts neues.

@LS
Gib dir keine Mühe. Die Art wie MikBach "argumentiert" ist eh unzulässig. Behauptungen aufstellen und wenn man Beweise für seine "Argumente" geliefert bekommen möchte, fordert er Gegenbeweise die _DU_ ihm liefern sollst _ohne_ das er irgendwelche Beweise vorgelegt hat. Von daher sinnlos.

Gast
2004-09-18, 13:46:22
Schu dir mal an wie viele Betatreiber von Nvidia kommen, bevor es einen Final gibt. Das ist bei ATI ganz anders.

Betatreiber werden ja nicht von NV ins Netz gestellt. Ati wird sicher genauso viele Betaversionen ihrer Treiber haben, nur werden die wohl nicht so sehr "geleakt" wie die NV Treiber (bei NV hats schon Tradition das alle 2-3 Wochen eine Beta den Weg ins Netz findet).
Is einer gezwungen sich die Betas anzutun? Nein, der offizielle Treiber funst einwandfrei, also was soll das gepiense...

MikBach
2004-09-18, 13:48:24
Die X800XT-PE ist ein hochgezüchtetes Steinzeit-Design ohne wirklich brauchbare Features (welches Game verwendet SM2.b und schaut dabei irgendwie anders aus als mit SM2.0?)
Ein Steinzeit-Design, welches Shader mit einer Länge berechnen kann, dass wenn man solche in Spielen massiv einsetzten würde, NV40/R420 nur noch im Zeitlupentempo ablaufen würden.
Was willst du mehr?
Welches Game verwendet SM3.0 und schaut dabei anders aus als mit SM2.0?
Richtig, gar keins.

Gib dir keine Mühe. Die Art wie MikBach "argumentiert" ist eh unzulässig. Behauptungen aufstellen und wenn man Beweise für seine "Argumente" geliefert bekommen möchte, fordert er Gegenbeweise die _DU_ ihm liefern sollst _ohne_ das er irgendwelche Beweise vorgelegt hat. Von daher sinnlos.
Hä? Gehts noch?
Wo habe ich in meinem letzten Post falsch argumentiert?
Ich habe doch Beweise vorgelegt. Da stehen 2 Links. Man muss sie nur anklicken. ;)

Gast
2004-09-18, 13:49:30
Tolles Argument. Wenn du die ganzen Modelle aller Hersteller vergleichst, wirst du bemerken, dass die Galaxy eher eine Ausnahme als die Regel ist. Ausserdem ist die Bemerkung, dass man da den Silencer verbauen kann für die meisten irrelevant. Wer opfert schon gerne die Garantie bei einer 400€-Karte? Nur Freaks.

Ich bin kein Freak, also nimm diese Beleidung bitte zurück, ich möchte eben eine leise und kühle Karte haben, das ist wohl normal.

mbee
2004-09-18, 13:50:12
Die X800XT-PE ist ein hochgezüchtetes Steinzeit-Design ohne wirklich brauchbare Features (welches Game verwendet SM2.b und schaut dabei irgendwie anders aus als mit SM2.0?)


Vom mir aus hat die X800 ein "Steinzeitdesign"
Der "optische" Gewinn mit SM 3.0 hält sich jedoch auch in Grenzen (dient ja auch eher einer höheren Geschwindigkeit) und man sollte erst einmal abwarten bis ausreichend SM 3.0 Spiele verfügbar sind: Ich schätze eher, dass bis dahin schon die nächsten Chip-Generationen den Ton angeben.

ATIS 3DC könnte evtl. auch noch ein nettes Feature sein, das bei einigen Games zum Einsatz kommt, wenn es nicht das gleiche Schicksal wie Trueform erleidet.

Fakt ist: Der NV40 hat unbestritten die fortschrittlichere Technologie. Bis ich mir eine neue Karte zulege, bevorzuge ich allerdings das "Steinzeitdesign" meiner XT PE, das mir bei 1600x1200 UND AA/AF im Durchschnitt bei aktuellen D3D-Titeln eine leicht bessere Performance liefert als das fortschrittlichere NV-Design.

Kann sein, dass meine nächste Karte dann wieder eine NVIDIA wird, ich habe in der Hinsicht keine Scheuklappen.

MikBach
2004-09-18, 14:04:16
Ich bin kein Freak, also nimm diese Beleidung bitte zurück,
Hab ich was verpasst?
Wo ist denn Freak eine Beleidigung? Ich kenn die genaue Definition des Begriffs Freak nicht, für mich ist z.B. ein Kino-Freak jemand, der sich fürs Kino begeistert. Ein Spielefreak für Spiele. Ich sehe den Begriff als neutral an. Habe mich früher selbst gerne als PC-Freak bezeichnet.
Freak ist für mich so was wie "Fan".

Gast
2004-09-18, 14:06:21
Ein Steinzeit-Design, welches Shader mit einer Länge berechnen kann, dass wenn man solche in Spielen massiv einsetzten würde, NV40/R420 nur noch im Zeitlupentempo ablaufen würden.
Was willst du mehr?
Welches Game verwendet SM3.0 und schaut dabei anders aus als mit SM2.0?
Richtig, gar keins.

Hä? Gehts noch?
Wo habe ich in meinem letzten Post falsch argumentiert?
Ich habe doch Beweise vorgelegt. Da stehen 2 Links. Man muss sie nur anklicken. ;)

Da ist doch schon wieder dieser Bezug auf SM3.0. Warum kreidest du es SM3.0 an und nennst SM2.b nicht im gleichen Atemzug? Schaut FC mit SM2.b besser aus als mit SM2.0? Schaut FC schlechter mit SM3.0 als mit SM2.b aus?

MikBach
2004-09-18, 14:23:20
Da ist doch schon wieder dieser Bezug auf SM3.0. Warum kreidest du es SM3.0 an und nennst SM2.b nicht im gleichen Atemzug?
weil:
(welches Game verwendet SM2.b und schaut dabei irgendwie anders aus als mit SM2.0?)
Darauf meine Gegenfrage:

Welches Game verwendet SM3.0 und schaut dabei anders aus als mit SM2.0?


Schaut FC mit SM2.b besser aus als mit SM2.0? Schaut FC schlechter mit SM3.0 als mit SM2.b aus?
Das ist der Punkt.
OK. Lösen wir mal das Ratespielchen auf.
Ob SM2.0, 2.A, 2.B oder SM3 ist egal. Alles sieht gleich aus.

PS hat sich nett mit euch diskutiert, Gäste.

Hauwech
2004-09-18, 14:24:08
Um mal auf R520 schon Anfang 2005 zu kommen. Glaube nicht daran. 512MB Karten erst nächstes Jahr und die wahrscheinlich auch nur mit dem Refresh R480.
Wenn R520 Anfang 2005 kommen würde dann würde es keinen Sinn machen da noch ein Refresh einzuschieben imho. Es sei denn ATI würde die R480 Produktion begrenzen (100.000 Stück oder so) um die Zeit zwischen Nvidia Refresh NV48 und Start des R520 zu überbrücken um eventuell nicht in Rückstand zu geraten.

Anfang 2005 fangen vielleicht die ersten Tapeouts mit R520 Chips an wenn alles so läuft wie ATI sich das vorstellt aber geben wird es die Karten wohl eher Spätsommer/Herbst 2005. Sind wir doch mal ehrlich: Weder von ATI noch von NVidia sind die "dicken" Karten in letzter Zeit in kurzer Zeit nach dem Launch in richtigen Stückzahlen verfügbar gewesen.

Anfang 2005 ist zu dehnbar um da wirklich was daraus abzulesen. Solche Zeitangaben halte ich für Wunschdenken, egal ob ATI oder Nvidia oder andere Hersteller.

MikBach
2004-09-18, 14:28:53
Ich glaube eher an Mitte2005.

LovesuckZ
2004-09-18, 16:20:47
Schu dir mal an wie viele Betatreiber von Nvidia kommen, bevor es einen Final gibt.

Zeige bitte, dass diese Treiber direkt von Nvidia veroeffentlicht werden.

Was die Hersteller für Treiber als "Final" ansehen ist mir echt sowas von egal.
Ich spreche hier von Treibern, die man bei Nvidia runterladen kann(Final) und den ganzen anderen die es noch gibt(Beta).

Dies ist wieder eine Luege. Solange ein Treiber nicht ausdruecklich mit dem Betasstatus tituliert wurde, ist er genauso "gut"/"schlecht" wie jeder andere auch.
Dann kommt dazu, dass Nvidia keine Treiber anbieten muss, da dein Vertragsverhaeltnis mit einen Partner bzw. den Haendler abgeschlossen wurde. Er ist fuer die Unterstuetzung zu staendig.*
Die Haelfte der letzten veroeffentlichten Treiber hat ein WHQL Zertifikat. Wenn dies fuer dich auch als Symbol eines Betatreiber gilt, wieso installierst du dann ueberhaupt etwas? :ugly:

Und ich lüge? Alles klar. :hammer:

Ja, da du deine Behauptungen nie beweist und es in diesem Maße keine Unwissenheit mehr ist -> Luege.

* Nvidia schließt jegliche Garantieleistungen beim Benutzen des Referenztreibers aus. Soviel dazu, dass dieser als einziger "Final" zu gelten haette.

reunion
2004-09-18, 18:04:13
Um mal auf R520 schon Anfang 2005 zu kommen. Glaube nicht daran. 512MB Karten erst nächstes Jahr und die wahrscheinlich auch nur mit dem Refresh R480.
Wenn R520 Anfang 2005 kommen würde dann würde es keinen Sinn machen da noch ein Refresh einzuschieben imho. Es sei denn ATI würde die R480 Produktion begrenzen (100.000 Stück oder so) um die Zeit zwischen Nvidia Refresh NV48 und Start des R520 zu überbrücken um eventuell nicht in Rückstand zu geraten.

Anfang 2005 fangen vielleicht die ersten Tapeouts mit R520 Chips an wenn alles so läuft wie ATI sich das vorstellt aber geben wird es die Karten wohl eher Spätsommer/Herbst 2005. Sind wir doch mal ehrlich: Weder von ATI noch von NVidia sind die "dicken" Karten in letzter Zeit in kurzer Zeit nach dem Launch in richtigen Stückzahlen verfügbar gewesen.

Anfang 2005 ist zu dehnbar um da wirklich was daraus abzulesen. Solche Zeitangaben halte ich für Wunschdenken, egal ob ATI oder Nvidia oder andere Hersteller.

Naja, der X-box2 Chip (R500) soll bereits fast fertig sein und kurz vor der Massenproduktion stehen und da der R520 vermutlich auf diesen basiert würde ich 1H/2005 als durchaus realistisch ansehen.

http://www.hartware.de/news_37210.html

Demirug
2004-09-18, 18:17:21
Naja, der X-box2 Chip (R500) soll bereits fast fertig sein und kurz vor der Massenproduktion stehen und da der R520 vermutlich auf diesen basiert würde ich 1H/2005 als durchaus realistisch ansehen.

http://www.hartware.de/news_37210.html

Vom Konzept stehen sich die beiden Chips vielleicht nahe aber R520 muss viel mehr Leistung bringen als der XBox Chip. Der Aufwand ist mindestens genauso hoch wie der um vom R360 auf den R420 zu kommen.

Zudem wissen wir ja auch nicht 100% genau was ATI MS liefern muss. Beim R520 braucht ATI dagegen am Ende chips.

Ailuros
2004-09-18, 18:59:20
Das ist der Punkt.
OK. Lösen wir mal das Ratespielchen auf.
Ob SM2.0, 2.A, 2.B oder SM3 ist egal. Alles sieht gleich aus.

Wenn 2.0_b oder 3.0 nur fuer als Pfade fuer Leistungszuwachs dienen dann wohl ja.

Naja, der X-box2 Chip (R500) soll bereits fast fertig sein und kurz vor der Massenproduktion stehen und da der R520 vermutlich auf diesen basiert würde ich 1H/2005 als durchaus realistisch ansehen.

R520 hat vom XBox2 chip eigentlich nur die SM3.0 komplianz, sonst gibt es sehr wichtige Unterschiede zwischen den chips.

Xenon=! Ur-R500.

MikBach
2004-09-18, 19:21:33
LS,
entweder du verstehst mich wirklich nicht oder du willst mich nicht verstehen.
Zeige bitte, dass diese Treiber direkt von Nvidia veroeffentlicht werden.
Wo habe ich denn bitte geschrieben, dass diese Treiber von Nvidia veröffentlich werden? Ich habe nur geschrieben, dass sie von Nvidia kommen. ;)
Oder glaubst du, dass diese Treiber von den Partnern von Nvidia programmiert wurden?
Ich habe doch geschrieben, dass der letzte veröffentlichte offizelle Treiber von Nvidia der 61.77 ist, den man von der Homepage downloaden kann. Das beisst sich doch ein wenig mit deiner Aussage. ;)

Dies ist wieder eine Luege. Solange ein Treiber nicht ausdruecklich mit dem Betasstatus tituliert wurde, ist er genauso "gut"/"schlecht" wie jeder andere auch.
Dann kommt dazu, dass Nvidia keine Treiber anbieten muss, da dein Vertragsverhaeltnis mit einen Partner bzw. den Haendler abgeschlossen wurde. Er ist fuer die Unterstuetzung zu staendig.
Die Haelfte der letzten veroeffentlichten Treiber hat ein WHQL Zertifikat. Wenn dies fuer dich auch als Symbol eines Betatreiber gilt, wieso installierst du dann ueberhaupt etwas? :ugly:
Für mich sind Finaltreiber jene, die auch zum Download auf der Homepage von Nvidia angeboten werden, sehe ich bei ATI genauso. Ob die anderen jetzt Betastatus haben oder nicht, juckt mich ehrlich gesagt ziemlich wenig!
Diese Treiber werden von Nvidia geproggt und nicht auf der eigenen Hompage veröffentlicht. Sehr seltsam. Sollen also die Partner die Versuchskaninchen spielen? Warum proggt Nvidia Treiber und bietet sie nicht öffentlich an? Das ist doch irgendwie unlogisch.

Ja, da du deine Behauptungen nie beweist und es in diesem Maße keine Unwissenheit mehr ist -> Luege.
Hör bitte auf mich des Lügens zu bezichtigen, weil
1. Um zu lügen müsste ich es 100% wissen, was ich nicht tu. Dazu müsste ich bei Nvidia selbst arbeiten, um ihre Treiberpolitik zu kennen, und es "beweisen" zu können, wie du es sagst. Alles was ich von mir gebe sind Vermutungen. Wie kann das dann eine Lüge sein, wenn man selbst zugibt, dass man es nicht 100% weiss und nur vermutet.
2. Ich habe geschrieben "könnte", das schliesst schon direkt eine Lüge aus.

Man, beruhige dich mal, trink mal ein Bierchen und sehe die ganze Sache bisschen gelassener. :)

PS und wäre vielleicht besser, wen wir wieder zum Topic posten. ;)

LovesuckZ
2004-09-18, 19:53:02
Wo habe ich denn bitte geschrieben, dass diese Treiber von Nvidia veröffentlich werden? Ich habe nur geschrieben, dass sie von Nvidia kommen. ;)
Oder glaubst du, dass diese Treiber von den Partnern von Nvidia programmiert wurden?

Schu dir mal an wie viele Betatreiber von Nvidia kommen, bevor es einen Final gibt.

Es ist wohl klar, dass die Treiber von Nvidia programmiert werden und nicht vom Mann im Mond.
Da du aber sagst, dass die Treiber von nvidia kommen würden (= absichtlich veroeffentlicht), anders macht es keinen Sinn, musst du dies auch beweisen.

Ich habe doch geschrieben, dass der letzte veröffentlichte offizelle Treiber von Nvidia der 61.77 ist, den man von der Homepage downloaden kann. Das beisst sich doch ein wenig mit deiner Aussage. ;)

Welche?
Nvidia muss nicht, veroeffentlicht aber referenztreiber. Ich sehe da kein "beißen" mit meiner Aussage.

Ob die anderen jetzt Betastatus haben oder nicht, juckt mich ehrlich gesagt ziemlich wenig!

Ist Diskussionsgrundlage, also "juckt" es dich ("den ganzen anderen die es noch gibt(Beta))".

Diese Treiber werden von Nvidia geproggt und nicht auf der eigenen Hompage veröffentlicht. Sehr seltsam. Sollen also die Partner die Versuchskaninchen spielen? Warum proggt Nvidia Treiber und bietet sie nicht öffentlich an? Das ist doch irgendwie unlogisch.

Weil Nvidia dies nicht braucht?
Sie haben unterschiedliche Versionen ihrer Treiber und viele dieser werden regulaer nie das Licht der Oeffentlichkeit erblicken.
Einige werden von den Partner veroeffentlicht (mit WHQL Zertifikat). Andere gelangen durch Verwandte oder um Ecken ins Internet. Und nicht die Reviewer vergessen, welche viele Treiber ebenfalls ins Internet stellen.
Treiber von Partner gehen wir jeder andere durch eine Kontrolle, dass diese Fehler aufweisen, ist doch normal. Dies ist bei anderen Herstellern genauso (egal ob Nvidia, Ai oder sonstige Vertreter).

Alles was ich von mir gebe sind Vermutungen. Wie kann das dann eine Lüge sein, wenn man selbst zugibt, dass man es nicht 100% weiss und nur vermutet.

Vermutungen sind auch Luegen, wenn man diese nicht argumentativ stuetzen kann.
Ich kann alles vermuten, ich muss aber auch ein grund dazu haben. Dies liegt bei dir nicht vor, da du nur Vermutungen, egal welches Thema es sich bei einer Diskussions um Nvidia handelt, aufstellst, jedoch keine Beispiele bringst.

Man, beruhige dich mal, trink mal ein Bierchen und sehe die ganze Sache bisschen gelassener. :)


Ich bin gelassen, dass sieht man daran, dass ich keine anderen Leute mehr anflame (nicht auf dich bezogen :) ).

Ailuros
2004-09-18, 20:01:32
Warum proggt Nvidia Treiber und bietet sie nicht öffentlich an? Das ist doch irgendwie unlogisch.

Jeder IHV entwickelt eine gesunde Zahl von beta Treibern. Ob diese nun durch indirekte Kanaele zur Oeffentlichkeit kommen oder nicht, haengt aber von den IHVs ab und wie streng diese sind mit Sicherheitsmassnahmen.

Es gibt fuer beide IHVs "freiwillige" Versuchskaninchen die diese Treiber ausprobieren und "feedback" and die IHVs zurueckgeben koennen. Theoretisch ist die Veroeffentlichung eigentlich ueberfluessig.

Die wahre Verantwortung fuer jeglichen support tragen tatsaechlich die Hersteller (vendors) und nicht die IHVs; ausser es wird HW direkt vom IHV hergestellt und verkauft (wie es frueher noch bei ATI war).

Ailuros
2004-09-18, 20:04:20
PS und wäre vielleicht besser, wen wir wieder zum Topic posten.

Schoen. R520 ist bei ATI intern fuer Mitte 2005 projeziert.

betasilie
2004-09-18, 20:04:22
LS,
entweder du verstehst mich wirklich nicht oder du willst mich nicht verstehen.
Er versteht dich nicht. Aber das das Phänomen sollte doch mitlerweile bekannt sein. ;)

MikBach
2004-09-18, 20:35:15
Vermutungen sind auch Luegen, wenn man diese nicht argumentativ stuetzen kann.
Ich kann alles vermuten, ich muss aber auch ein grund dazu haben. Dies liegt bei dir nicht vor, da du nur Vermutungen, egal welches Thema es sich bei einer Diskussions um Nvidia handelt, aufstellst, jedoch keine Beispiele bringst.
Ach komm schon LS, die Beispiele sind schon da. Man muss sie nur in Verbindung bringen.

Ich bin gelassen, dass sieht man daran, dass ich keine anderen Leute mehr anflame (nicht auf dich bezogen :) ).
Ja, keinen anderen, nur mich. ;(

R520 ist bei ATI intern fuer Mitte 2005 projeziert.
Meine Rede, das sehe ich auch so.

PS so jetzt aber genug von PCs und Grafikkarten. Party ist angesagt.

Ailuros
2004-09-19, 01:39:56
Projection= best case scenario

robbitop
2004-09-19, 01:51:19
@AiL
ist R520 denn nun von der Xenon/R400 Architektur abgeleitet oder von der R2xx/3xx Reihe?

Ailuros
2004-09-19, 02:13:33
@AiL
ist R520 denn nun von der Xenon/R400 Architektur abgeleitet oder von der R2xx/3xx Reihe?

Ein SM3.0 chip kann wohl sehr wenig mit R2xx/3xx gemeinsam haben oder?

Dass die Xenon GPU ein ganz anderes Tier sein wird brauch ich Dir gerade nicht sagen. Der erste Punkt waere eDRAM und der zweite vereinte Einheiten (wenn dieses auch so ist bei Xenon).

reunion
2004-09-28, 17:17:32
THE NEXT GENERATION Xbox chip will be ready as soon as the end of the first quarter of next year.
This chip comes as a derivatove of the R520 chip better known under its code name Fudo and will be of a similar architecture to the upcoming desktop chip. The only main difference will be an integrated frame buffer that you don’t see that often on desktop cards.

At this time, sources said the Xbox 2 development kit includes a 9800XT card and platform and you can only achieve five to 10 FPS with Xbox 2 working titles.

That’s why a full developer's kit will be available in late Q1 2005. This kit will include the flagship R500 chip that will give the right measure of graphics performance.

From an aarchitectural point of view, we are talking about at least 16 pipelines powered by two TMUs (Texture Memory Units) which roughly give you twice as much power as the current X800 generation of cards that have only one TMU. This will occur only in multitexture games but nowadays all games use more then one texture per pass.

If Xbox games works at 60 FPS you can imagine that R500 will end up more then six times faster then Radeon 9800. R500 looks like a heck of a good chip to me so does Fudo - R520 I guess.

http://www.theinquirer.net/?article=18729

Ailuros
2004-09-29, 01:38:22
Ich moechte dem Inquirer danken, dass seine Redakteure sehr gut und sehr schlecht diverse Foren lesen koennen. Von zuverlaessigen Quellen kann da kaum die Rede sein.

Die Haelfte stimmt fast schon und es wird nur das bestaetigt was schon seit Monaten in Foren herumschwirrt und die andere Haelfte ist nur idiotischer Quatsch.

seahawk
2004-09-29, 10:40:38
Langsam wird der Inq. dämlich

Gast
2004-09-29, 10:55:43
Langsam wird der Inq. dämlich

Kenn andere Seiten hier, die schon lange damlich sind!

Koennte auch sagen, wer im Glashaus sitzt soll nicht mit Steinen schmeissen!

robbitop
2004-09-29, 10:56:03
es sind 16 TMUs beim Xenon und R520 wird weitaus mächtiger.
Naja Fudo vergleicht ja inzwischen auch DirectX mit WGF und schnallt dabei nicht, dass DX ein Paket aus vielen APIs ist.

Gast
2004-09-29, 11:01:16
[QUOTE=robbitop]es sind 16 TMUs beim Xenon und R520 wird weitaus mächtiger.
Naja Fudo vergleicht ja inzwischen auch DirectX mit WGF und schnallt dabei nicht, dass DX ein Paket aus vielen APIs ist.[/QUOTE

Gewagte Vermutung!

robbitop
2004-09-29, 11:41:13
sagte jemand der die Specs übersehen hat *omg*

Pirx
2004-09-29, 12:21:38
ok ich lass es sry

Ailuros
2004-09-30, 00:57:51
Kenn andere Seiten hier, die schon lange damlich sind!

Koennte auch sagen, wer im Glashaus sitzt soll nicht mit Steinen schmeissen!

Du koenntest ja damit anfangen es zu belegen mit einfachen Beispielen. :D

Tarkin
2004-09-30, 09:10:10
http://www.digitimes.com

ATI to roll out R500 for Xbox 2 in 1Q 2005

"ATI is scheduled to launch its R480 high-end graphics chip in the coming quarter and the R500 in 1Q 2005. See full story later."

:biggrin:

Ailuros
2004-09-30, 12:11:18
http://www.digitimes.com

ATI to roll out R500 for Xbox 2 in 1Q 2005

"ATI is scheduled to launch its R480 high-end graphics chip in the coming quarter and the R500 in 1Q 2005. See full story later."

:biggrin:

Spricht nur vom finalen Silizium der Xenon GPU und R480. Mit einem Refresh-chip knapp vor Weihnachten dieses Jahres, ist es wohl ein bisschen uebertrieben sich einen naechster Generation PC chip schon nach ein paar Monaten zu erhoffen.

Und nochmal:

Ur-R400 = R500
Ur-R500 = R600

...nach dem Roadmap-shift. Dass die Behauptung der aehnlichen Leistung nur Marketing-Geblubber ist, sollte man nochmal betonen. Xenon wird durch seinen onchip framebuffer sehr limitiert sein; es gibt auch nicht viel Grund fuer etwas anderes da Consolen keine verrueckt hohe Aufloesungen vorraussetzen. Die Aussage von ATI soll hier nur zeigen, dass Xenon und R520 sehr verwandt sind. Das Gegenteil hat man hier eher selten behauptet.

Tarkin
2004-09-30, 12:33:01
http://www.digitimes.com/news/a20040930A7056.html

ATI Technologies is expected to roll out a new GPU, codenamed R500, for the Xbox 2 in the first quarter of next year, according to market sources.

The R500 will be built using a 90nm process at Taiwan Semiconductor Manufacturing Company (TSMC) and will deliver performance similar to ATI’s next-generation high-end graphics chip, the R520, the sources said.

ATI is cooperating with Microsoft to develop the chip, but the software vendor will be responsible for placing orders with TSMC. ATI will receive royalties from Microsoft based on the number of chips produced.

In related news, the sources said that ATI has completed the tape-out of its R480 chip, which is due to launch in the fourth quarter. The R480 is being manufactured at TSMC, using a 0.11-micron process. :D

reunion
2004-09-30, 13:07:14
In related news, the sources said that ATI has completed the tape-out of its R480 chip, which is due to launch in the fourth quarter. The R480 is being manufactured at TSMC, using a 0.11-micron process. :D

Hätte ich mir nicht gedacht das man den ursprünglich als Low-Cost dekratierten 110nm prozess von TSMC jetzt beim neuen Flagschiff R480 verwedet...

ironMonkey
2004-09-30, 13:19:14
Hätte ich mir nicht gedacht das man den ursprünglich als Low-Cost dekratierten 110nm prozess von TSMC jetzt beim neuen Flagschiff R480 verwedet...

Naja, mal davon abgesehen muss ja eh nur der Speicher ordentlich an Geschwindigkeit zu legen um einen Abstand zum R420 raus zu holen.


Gruß

Sunrise
2004-09-30, 15:10:04
Hätte ich mir nicht gedacht das man den ursprünglich als Low-Cost dekratierten 110nm prozess von TSMC jetzt beim neuen Flagschiff R480 verwedet...
Gewissen Leuten einen *hint* zu geben, reicht leider oft nicht ;)

Siehe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2123923#post2123923
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2006347#post2006347

seahawk
2004-09-30, 17:20:56
Zu Weihnachten schon der R480 ?? Hmm, da würde ich mir nicht zuviel erwarten.

reunion
2004-09-30, 17:28:05
Zu Weihnachten schon der R480 ?? Hmm, da würde ich mir nicht zuviel erwarten.

Da braucht es auch nicht viel, etwas mehr Speichertakt und schon sollte ein deutlicher leistungsschub erreichbar sein.

seahawk
2004-09-30, 17:51:04
Naja, mir ist es egal, dann wird die X800XT billiger und kann meine 9700pro ablösen.

ironMonkey
2004-09-30, 20:33:14
Naja, mir ist es egal, dann wird die X800XT billiger und kann meine 9700pro ablösen.


Ich glaube eher die stirbt aus ohne je wirklich da gewesen zu sein, wenn man sich derzeit so umschaut findet immer noch recht selten eine kaufbare X800XT( von PCI-E mal abgesehen).


Gruß

Gast1234
2004-09-30, 20:46:08
Xenon wird durch seinen onchip framebuffer sehr limitiert sein; es gibt auch nicht viel Grund fuer etwas anderes da Consolen keine verrueckt hohe Aufloesungen vorraussetzen. Die Aussage von ATI soll hier nur zeigen, dass Xenon und R520 sehr verwandt sind. Das Gegenteil hat man hier eher selten behauptet.

Dient der eDram Buffer nicht in erster linie nur für die Farbwerte und
das Anti-Alaising,während man den Hauptspeicher als externen Grafikspeicher
verwendet???

seahawk
2004-09-30, 21:23:13
Ich glaube eher die stirbt aus ohne je wirklich da gewesen zu sein, wenn man sich derzeit so umschaut findet immer noch recht selten eine kaufbare X800XT( von PCI-E mal abgesehen).


Gruß

Das ist wahr. Deswegen erwarte ich auch keinen großen Sprung mit dem R420. Anscheinend hat ATI Probleme ausreichende Mengen der XT zu produzieren. Man darf also von einer schlechten Ausbeute ausgehen.

Das wird der R480 wohl verbessern. Dazu etwas mehr Takt und schnellerer Speicher.

klaus2002
2004-10-01, 07:27:56
Diese News sind auf www.ati-news.de zu lesen!
Der R520 soll sein Debüt auf der CeBit 2005 feiern! Sein "kleiner" Bruder der R500 ist die GPU für die XBox2!

[...Laut Informationen die den Jungs vorliegen, nutzen die derzeitigen XBox 2 Entwickler-Kits Radeon 9800 XT Karten, die bei den aktuell in der Entwicklung befindlichen Spielen auf maximal fünf bis zehn Frames kommen sollen. Geht man davon aus, dass die Spiele auf der Xbox 2 mit circa 60 Frames laufen werden, so ergibt sich daraus, dass der R500 ungefähr die sechsfache Leistung einer 9800 XT haben muss...]


Schon wieder so ein enormer Leistungsschub wie bei den x800 Karten!

Gast
2004-10-01, 07:58:43
wenn man dazu die andere news liest das es keinen herbst refresh der aktuellen highend karten geben wird (nv und ati) dann könnte es wirklich sein das im frühjahr der r520 anrollt. bei leistungsprognosen bin ich dann immer skeptisch, aber man kann davon ausgehen das ati shader 3.0 und mehr anbieten wird.
leider werden aktuelle pcs nie richtig ausgenutzt im vergleich zu konsolen aus denen wirklich das letzte quentchen leistung rausprogrammiert wird. bin immer noch begeistert was meine xbox teilweise für grafiken liefert, vor allem wenn man bedenkt was da für hardware drin steckt

reunion
2004-10-01, 10:34:58
Kann gelöscht werden...

reunion
2004-10-01, 10:36:32
Diese News sind auf www.ati-news.de zu lesen!
Der R520 soll sein Debüt auf der CeBit 2005 feiern! Sein "kleiner" Bruder der R500 ist die GPU für die XBox2!

[...Laut Informationen die den Jungs vorliegen, nutzen die derzeitigen XBox 2 Entwickler-Kits Radeon 9800 XT Karten, die bei den aktuell in der Entwicklung befindlichen Spielen auf maximal fünf bis zehn Frames kommen sollen. Geht man davon aus, dass die Spiele auf der Xbox 2 mit circa 60 Frames laufen werden, so ergibt sich daraus, dass der R500 ungefähr die sechsfache Leistung einer 9800 XT haben muss...]


Schon wieder so ein enormer Leistungsschub wie bei den x800 Karten!

Dann bleibt nurnoch die Frage ob bis dahin der 90nm lowk Prozess bei TSMC wirklich schon soweit ist einen ca. 250-300mio Transistorenchip in außreichenden Stückzahlen zu liefern...

MechWOLLIer
2004-10-01, 15:44:20
Und selbst wenn der R520 auf der CeBIT präsentiert wird, was heißt das schon?
Kann durchaus sein, dass die Auslieferung erst Monate später beginnen würde. Der R480 muss seinen Sinn ja auch noch erfüllen.

Ailuros
2004-10-02, 03:11:52
Dient der eDram Buffer nicht in erster linie nur für die Farbwerte und
das Anti-Alaising,während man den Hauptspeicher als externen Grafikspeicher
verwendet???

Leuchtet nur alleine diese Tatsache nicht ein Birnchen auf dass die beiden Architekturen fundamentale Unterschiede und render targets haben?

Ailuros
2004-10-02, 03:38:51
Quote von www.ati.news.de:

Wie auf the Inquirer zu lesen ist, wird ATI den R520 (Codename: Fudo) bereits Anfang 2005 bringen. Zurzeit munkelt man, dass der Next Generation Chip auf der CeBIT 2005 sein Debüt feiern wird. Besonders interessant an dem R520 ist, dass er sich in leicht abgewandelter Form (R500) auch in der Xbox 2 wieder finden wird. Der größte Unterschied zwischen dem Abkömmling für Microsofts Next Generation Konsole und seinem Desktop-Pendant ist, dass der R500 über einen integrierten Frame-Buffer verfügen wird. Gemeinsam soll den beiden Chips aber die Architektur sein, die angeblich auf einem „Fundament“ einer 16x2 Pipeline-Struktur baut. Besonders bei Spielen mit mehreren Texturschichten dürfte sich die zweite TMU (Texture Memory Unit) durchaus als Vorteil erweisen. Anderslautenden Meldungen könnte es sich beim Fudo aber genau so gut um einen 24x1 Chip handeln, was sich zwar im ersten Moment recht unwahrscheinlich anhört, aber hätte man vor einem Jahr gedacht, dass wir jetzt schon Grafikkarten mit 16 Pixel-Pipelines haben?

Darüber hinaus wissen die Kollegen von the Inquirer auch etwas über die Performance zu berichten. Laut Informationen die den Jungs vorliegen, nutzen die derzeitigen XBox 2 Entwickler-Kits Radeon 9800 XT Karten, die bei den aktuell in der Entwicklung befindlichen Spielen auf maximal fünf bis zehn Frames kommen sollen. Geht man davon aus, dass die Spiele auf der Xbox 2 mit circa 60 Frames laufen werden, so ergibt sich daraus, dass der R500 ungefähr die sechsfache Leistung einer 9800 XT haben muss. Natürlich handelt es sich hierbei nur um theoretische Zahlenspiele, aber eine grobe Richtung lässt sich dennoch daraus erkennen.

Als Quelle gibt es darunter einen Link zum relevanten Inquirer Artikel....

a) Fudo ist ein Scherz von seitens ATI, der mit Absicht ruebergeschleusst wurde um zu sehen wie schnell die Banausen auf den Quark einsteigen. Die Kerle bei ATI lachen sich wohl immer noch krank darueber.

b) Projezierungen und dementsprechend leaks (von meistens unbekammten Zeitpunkt) sollte man mit aeusserst hoher Vorsicht herauslesen oder sogar interpretieren da viel zu viele Faktoren mitspielen die sich innerhalb von Wochen um so einiges aendern koennen. NV40 war zuerst fuer Ende 2003 und dann spaeter fuer Cebit 2004 projeziert; diejenigen mit einem halbwegs guten Gedaechtnis wissen wohl wann die wirkliche Vorstellung eintrat und wann die erste Massen-Verfuegbarkeit.

c) Genauso vorsicht sollte gebeten sein was ein IHV der Presse oder AIB Partnern weitergibt und das oft mit Absicht (so in etwa wie in (a) oben, nur dass es sich beim INQ um eine tabloid trash site handelt). Wo ist der 200M Transistoren chip der einen tape-out hinter sich haben sollte in einer Presse-Veroeffentlichung von ATI etwa ein Jahr vor R420 und wo sind die 8 "extremen" pipelines des R420? Man sorgt mit Absicht fuer Verwirrung und das gilt fuer alle IHVs.

Und selbst wenn der R520 auf der CeBIT präsentiert wird, was heißt das schon?
Kann durchaus sein, dass die Auslieferung erst Monate später beginnen würde. Der R480 muss seinen Sinn ja auch noch erfüllen.

Ich weiss persoenlich nur was ueber einen Consolen-chip was CeBIT betrifft. Der Rest Deines Posts liegt etwa bei dem was ich auch erwarte. Eine so fruehe Vorab-Ankuendigung mit etlichen Monaten spaeter Verfuegbarkeit waere ein sehr schlechte Idee, ausser ATI/NVIDIA haben ihre Taktik nach dem R410/NV43 wieder geaendert und es wird Monate vor der Verfuegbarkeit angekuendigt/praesentiert.

Im Grunde macht es tatsaechlich mehr Sinn nur ein paar Wochen oder so nahe wie moeglich an Verfuegbarkeit anzukuendigen. Es kann durchaus sein dass sich die Taktik bei den beiden doch nicht geaendert hat und dass man eben doch sich selber viel zu optimistisch eingeschaetzt hat.

Es verbleibt wohl aber nichtdestominder momentan fast Tatsache dass wir im naechsten Jahr keine neue Generation von NVIDIA auf Regalen sehen werden, was auch nicht die Moeglichkeit ausschliescht dass 2005 ein "ATI-Jahr" sein koennte.....

seahawk
2004-10-02, 16:51:46
Mal eine Theorie, die ich gehört habe. ATI kann selbst beim R480 den Takt im Vergleich zur X800XT PE nur noch geringfügig erhöhren, da das Design und der Prozess bereits am Limit sind.

NV hingegen hat beim NV48 sowhol bei der Fertigung als auch beim Design noch einiges gefunden und konnte so Effizienz und Takt erhöhen.

Was würde die Kunden mehr davon abhlaten dann einen NV-Chip zu kaufen, als Gerüchte über eine in Kürze erscheinde ATI Karte der Nachfolgergeneration.

ironMonkey
2004-10-02, 17:35:10
Mal eine Theorie, die ich gehört habe. ATI kann selbst beim R480 den Takt im Vergleich zur X800XT PE nur noch geringfügig erhöhren, da das Design und der Prozess bereits am Limit sind.

NV hingegen hat beim NV48 sowhol bei der Fertigung als auch beim Design noch einiges gefunden und konnte so Effizienz und Takt erhöhen.

Was würde die Kunden mehr davon abhlaten dann einen NV-Chip zu kaufen, als Gerüchte über eine in Kürze erscheinde ATI Karte der Nachfolgergeneration.


Der höhere Takt wird einfach mit mehr Spannung erkauft, von R300 auf R350 wurde die Spannung um 0,2 Volt angehoben und von R350 auf R360 wurden nochmal 0,1 Volt drauf gelegt, ATI muss ja derzeit ca.10Watt weniger kühlen wie NV, also das ist wohl weniger das Problem, eher muss man schauen das man schnellen Speicher bekommt wie schon weiter oben geschrieben, die Bandbreite ist ca. um 75% gestiegen, die Leistung der VPU um ca.300% und da das Design das selbe ist braucht man nicht lange überlegen wie man zu mehr Geschwindigkeit kommt.


Gruß

Ailuros
2004-10-02, 19:40:32
Mal eine Theorie, die ich gehört habe. ATI kann selbst beim R480 den Takt im Vergleich zur X800XT PE nur noch geringfügig erhöhren, da das Design und der Prozess bereits am Limit sind.

NV hingegen hat beim NV48 sowhol bei der Fertigung als auch beim Design noch einiges gefunden und konnte so Effizienz und Takt erhöhen.

Was würde die Kunden mehr davon abhlaten dann einen NV-Chip zu kaufen, als Gerüchte über eine in Kürze erscheinde ATI Karte der Nachfolgergeneration.

Hoere ich zum ersten Mal. Herstellungsprozess, Taktraten und anderer Firlefanz hin und her....erklaert mir mal erstmal lieber woher man fuer diese den benoetigten schnelleren Speicher in genuegender Anzahl zeitig genug finden soll; wobei dieses genauso fuer einen R4xx refresh und umso einiges mehr fuer den R520 gilt und natuerlich auch NV4x und Nachfolger.

Lasst mich mal mit den spekulativen Nummern hier spielen:

X800XT PE = 8320MPixels/s & 35.8GB/s
INQ's Fudo = 16640MPixels/s & (wieviel?)GB/s

Wuerde ich jetzt mal 50GB/s fuer den zweiten einschaetzen, braeuchten wir 780MHz GDDR3. Entweder bin ich verrueckt oder ich verpasse hier irgend etwas....

Speicher bekommt wie schon weiter oben geschrieben, die Bandbreite ist ca. um 75% gestiegen.

Das aendert nichts an der Tatsache dass die Fuellraten zu Bandbreite-Effizienz auf selbst R420 zu wuenschen uebrig laesst. Welcher Hersteller soll den die Speicher aus dem Aermel zaubern? Selbst 500-550MHz GDDR3 ist heute noch extrem limitiert in Verfuegbarkeit.

Quasar
2004-10-02, 20:05:23
Man könnte so frech sein, ein 512Bit- (oder je nach Fähigkeit des Controllers auch 384Bit-) breites Speicherinterface nutzen.

Ailuros
2004-10-03, 04:28:43
Man könnte so frech sein, ein 512Bit- (oder je nach Fähigkeit des Controllers auch 384Bit-) breites Speicherinterface nutzen.

a) Damit kann man aber die "Verwandtschaft" mit Xenon dann vergessen.

b) Selbst wenn es Sinn gemacht haette, bezweifle ich dass man ueberhaupt Zeit hatte fuer solche Abenteuer.

Ohne eine effektive Loesung fuer Lese-Effizienz mit breiteren Bussen, ist es fraglich ob man Bandbreite am Ende doch noch dazugewinnt.

Zweifler047
2004-10-04, 14:28:47
Ich denke mal das der Xenon Chip nicht die Revolution ist,allein weil
es nur ein 90nm Chip ist,die Speicheranbindung von 22Gbyte/s nicht gerade
der Bringer ist,überhaupt kann ich da nichts revolutionäres finden einen
Industriegrafikchip zu modifizieren und in abgespeckter Form für
eine Konsole herauszubringen,ich will richtige Customchips haben die
wirklich neue Funktionen bieten.Und stimmt es eingentlich das die
Fertige Xbox2 wieder die lahmarschige Uma Technik verwendet??

Ailuros
2004-10-05, 01:00:10
Ich denke mal das der Xenon Chip nicht die Revolution ist,allein weil
es nur ein 90nm Chip ist,die Speicheranbindung von 22Gbyte/s nicht gerade
der Bringer ist,überhaupt kann ich da nichts revolutionäres finden einen
Industriegrafikchip zu modifizieren und in abgespeckter Form für
eine Konsole herauszubringen,ich will richtige Customchips haben die
wirklich neue Funktionen bieten.Und stimmt es eingentlich das die
Fertige Xbox2 wieder die lahmarschige Uma Technik verwendet??

~33GB/s fuer Xenon + ~22GB/s fuer eDRAM. 90nm zeigt aber gerade dass der chip nicht mager in Transistoren-Anzahl sein wird, sonst haette auch low-k 130nm ausgereicht.

robbitop
2004-10-05, 07:41:55
naja vor Allem der eDRAM schluckt ja schon eine ganze Menge Transistoren. Dazu ein so fortgeschrittenes Design, und nicht wenig Ausführungseinheiten an der Zahl ... logisch, dass das gute Stück ziemlich "groß" wird..

fizzo
2004-10-05, 08:28:15
gibt es schon geruechte inwieweit sich die gpu des xenon von der des gamecube-revolution unterscheiden soll?

Ailuros
2004-10-05, 11:02:54
naja vor Allem der eDRAM schluckt ja schon eine ganze Menge Transistoren. Dazu ein so fortgeschrittenes Design, und nicht wenig Ausführungseinheiten an der Zahl ... logisch, dass das gute Stück ziemlich "groß" wird..

Falls das Ding tatsaechlich vereinte Einheiten hat wie gemurmelt wird, passt das schon. Die Anzahl der ALU ops pro Takt muss ja auch nicht um jeden Willen der Anzahl von wahren ALUs entsprechen oder? :wink:

xL|Sonic
2004-10-05, 13:41:03
gibt es schon geruechte inwieweit sich die gpu des xenon von der des gamecube-revolution unterscheiden soll?

Sollen wohl beide den gleichen Chip bekommen. Das stand glaube mal in der man!ac.

robbitop
2004-10-05, 18:30:50
Falls das Ding tatsaechlich vereinte Einheiten hat wie gemurmelt wird, passt das schon. Die Anzahl der ALU ops pro Takt muss ja auch nicht um jeden Willen der Anzahl von wahren ALUs entsprechen oder? :wink:
wahre Worte :)

jedoch sollte die Logik zur dynamischen Lastverteilung und Organisiation eines solchen Arrays auch eine gewisse Komplexität besitzen. Ich bin gespannt.

Ailuros
2004-10-05, 19:01:54
wahre Worte :)

jedoch sollte die Logik zur dynamischen Lastverteilung und Organisiation eines solchen Arrays auch eine gewisse Komplexität besitzen. Ich bin gespannt.

Deshalb erwaehnte ich ja auch Komplexitaet. :wink: Ob es sich nun schon in Xenon getragen hat oder spaeter kommt weiss ich so genau nun auch nicht (die Wahrscheinlichkeit ist aber gross ueberhaupt von den etwas zu optimistischen Daten in Diagrammen); ich weiss nur dass ATI auf vereinte Einheiten fuer die absehbare Zukunft gesetzt hat. Spiegelt sich ja auch in geleakten Dokumenten wieder.

Crazytype
2004-10-07, 23:04:16
Sollen wohl beide den gleichen Chip bekommen. Das stand glaube mal in der man!ac.

Wahrscheinlich unterschiedlich getaktet.

dildo4u
2004-11-01, 23:09:21
ATI Talks R5xx

"ATI held an Analyst conference last week in which numerous point of ATI's business were discussed. Reports indicate that following the meeting Goldman Sachs have come back with numerous impressions of ATI's R5xx series, some of which are inline with elements that we've discussed before.

The reports state that ATI have confirmed they are due to launch their new architecture, the basis of the R5xx series, in the first half of 2005. Goldman also believes the architecture to be based on Shader 3.0 and be very focused on the memory interface and bus. The expectation is that GDDR4 memory technology will ramp in production in late 2005 and the memory interface will be compatible with it and be designed to scale to speeds of 1.2GHz (2.4GHz effective) over its lifetime. "

http://www.beyond3d.com/index.php#news17745

seahawk
2004-11-02, 07:48:28
Vorstellung 1.HJ 2005 ist durchaus denkbar.

robbitop
2004-11-02, 10:25:55
wenn TSMCs' NexGen 90nm Prozess bis dahin soweit ist, ja.

seahawk
2004-11-02, 10:27:30
Ach, für erste Testsamples im Juni sollte es ziemlich sicher reichen. Die Verfügbarkeit in Mengen sehe ich allerdings erst für frühstens das 4Q05.

Gast
2004-11-02, 11:01:16
Das Tapeout soll auch schon passiert sein!

seahawk
2004-11-02, 11:01:52
Für den R480

wuzetti
2004-11-02, 11:24:44
Für den R480

nö. anscheinend bereits schon für die 90nm produkte. guckst du hier:
http://www.beyond3d.com/forum/viewtopic.php?topic=17745&forum=9

robbitop
2004-11-02, 11:31:14
das tapeout ist afaik Xenon.

Ailuros
2004-11-03, 03:43:29
Ach, für erste Testsamples im Juni sollte es ziemlich sicher reichen. Die Verfügbarkeit in Mengen sehe ich allerdings erst für frühstens das 4Q05.

2 Quartale Abstand zwischen Vorstellung und Verfuegbarkeit? Das waere eine schoene Blamage. Hoechstens ein Quartal nach Vorstellung, sonst gibt es unendliche und gerechtfertigte Meckerei.

mapel110
2004-11-03, 03:48:11
sonst gibt es unendliche und gerechtfertigte Meckerei.

Und? Die gibts jetzt auch, aber von Meckern wirds nicht besser.

Würd zu gern wissen, ob es bei den IHVs eine Rolle spielt bei der Produktplanung, ob sichergestellt ist, dass das Produkt auch lieferbar sein wird oder ob nicht doch der Benchmarkbalken zu wichtig geworden ist.

Ailuros
2004-11-03, 03:52:51
Und? Die gibts jetzt auch, aber von Meckern wirds nicht besser.

Würd zu gern wissen, ob es bei den IHVs eine Rolle spielt bei der Produktplanung, ob sichergestellt ist, dass das Produkt auch lieferbar sein wird oder ob nicht doch der Benchmarkbalken zu wichtig geworden ist.

Zu feiste Konkurrenz; langfristig sieht mir die Masche als eine sehr boese Falle fuer beide IHVs aus. Sie sollten sich wirklich auf einen Verhandlungstisch setzen und zu einem quasi "Ehren-Abkommen" kommen wo die Verlaengerung zwischen Produktions-zyklen auch ausgemacht wird.

Man macht ja somit eigentlich nur Konkurrenz zu eigenen existierenden Produkten.

seahawk
2004-11-03, 07:45:13
2 Quartale Abstand zwischen Vorstellung und Verfuegbarkeit? Das waere eine schoene Blamage. Hoechstens ein Quartal nach Vorstellung, sonst gibt es unendliche und gerechtfertigte Meckerei.

X800XT PE :wink:

robbitop
2004-11-03, 08:56:53
X800XT PE :wink:
die 6800U ist auch nur in homaopathischen Mengen zu bekommen :-(

reunion
2004-11-03, 14:28:46
ATI’s Next-Generation Product ‘R520’ Taped Out

ATI Technologies’ next-generation high-end visual processing unit code-named R520 has been taped out, reports Beyond3D web-site citing analysts from Goldman Sachs research firm who had presumably been at ATI’s Analyst Day last week. The news confirms ATI is on-track to launch its new high-end product in the first half of 2005.

A high-ranking source close to ATI Technologies confirmed X-bit labs that the chip had been taped out, which means that the completed design of the processor has been sent to an ATI’s foundry partner. The source said the chip would be made using 90nm process technology, presumably at TSMC, and will be launched commercially in the first half of next year.

Not much is known about the architecture and capabilities of the code-named R520 product that was initially referred as the R500. What is clear at the moment is that the new graphics chip will sport Shader Model 3.0 – pixel shaders 3.0 and vertex shaders 3.0 – bringing additional programming capabilities to ATI’s graphics processors as well as some other innovations. ATI’s architecture will not resemble that of the previous generation products and NVIDIA’s GeForce 6 architecture known as NV4x, particularly ATI will implement efficient flow-control, a crucial feature for pixel shaders 3.0, that will not bring speed penalty it does on existing SM3.0 hardware, according to sources.

Some sources claim that the R500 is a code-name of ATI’s graphics processor that will be submitted for Microsoft’s next Xbox console. The shader core of the R500 was reported to have 48 Arithmetic Logic Units (ALUs) that can execute 64 simultaneous threads on groups of 64 vertices or pixels. ALUs are automatically and dynamically assigned to either pixel or vertex processing depending on load. The ALUs can each perform one vector and one scalar operation per clock cycle, for a total of 96 shader operations per clock cycle. Texture loads can be done in parallel to ALU operations. At peak performance, the GPU can issue 48 billion shader operations per second, it was said.

Earlier this year sources close to ATI said the company had been developing GDDR4, a new standard for graphics. The GDDR4 memory builds upon the GDDR3 standard, just like the latter evolved from the GDDR2 specification, therefore, it is possible to expect the technology to utilize the point-to-point nature. There are no revolutions, it was said, but special tweaks to bolster clock-speeds of DRAMs used on graphics cards brought by GDDR4. The initial goals for the GDDR4 were to complete the process of standardization by the end of 2004 and push up the frequencies towards the 1.40GHz (2.80GHz effective) level. Lower clock-speeds, e.g. 1.00GHz (2.00GHz effective) are achievable by the GDDR3 technology, according to Samsung Electronics, who plans to debut such memory by the end of the year.

Usually it takes graphics companies from 90 to 120 days to start commercial production of graphics processors from the initial tape-out. In case the first silicon of a 0.13 micron chips did not work correctly, it might take up to 14 weeks to tape out another one with the issue addressed. Typically with thinner manufacturing technologies it takes lower time to address certain design flaws, a process that is known as re-spin.

ATI’s previous-generation RADEON X800-series of graphics processors was taped out in late December, 2003, and was launched formally in May, 2004.

Officials from ATI Technologies did not comment for the news-story.


http://www.xbitlabs.com/news/video/display/20041103035406.html

Gast
2004-11-03, 16:31:31
Klingt für mich nach ’nem wahren Schlachtschiff, sprich einem Leistungssprung. Ich hätte nicht gedacht, daß so schnell schon eine neue Generation von ATi kommt. Vielleicht hat die parallele Entwicklung an dem Xbox-Chip diese Geschwindigkeit erlaubt. Aber für welche Software soll im Juni ’05 dieser Chip sinnvoll sein? Selbst Doom 3 wird eine Karte mit diesem Chip unterfordern.

reunion
2004-11-03, 16:45:36
Klingt für mich nach ’nem wahren Schlachtschiff, sprich einem Leistungssprung. Ich hätte nicht gedacht, daß so schnell schon eine neue Generation von ATi kommt. Vielleicht hat die parallele Entwicklung an dem Xbox-Chip diese Geschwindigkeit erlaubt. Aber für welche Software soll im Juni ’05 dieser Chip sinnvoll sein? Selbst Doom 3 wird eine Karte mit diesem Chip unterfordern.

ACK, alles andere wäre auch ziemlich enttäuschend, immerhin konzentrieren sich die gesamten Resourcen seit dem R300 auf diesen Chip. R420 ist ja nicht vielmehr als ein verdoppelter r300.

Demirug
2004-11-03, 16:53:41
Klingt für mich nach ’nem wahren Schlachtschiff, sprich einem Leistungssprung. Ich hätte nicht gedacht, daß so schnell schon eine neue Generation von ATi kommt. Vielleicht hat die parallele Entwicklung an dem Xbox-Chip diese Geschwindigkeit erlaubt. Aber für welche Software soll im Juni ’05 dieser Chip sinnvoll sein? Selbst Doom 3 wird eine Karte mit diesem Chip unterfordern.

So gross erscheint mir der Sprung nicht unbedingt. Schon beim R420 hat ATI rechnerisch mit ähnlichen Zahlen geworben.

robbitop
2004-11-03, 17:42:26
wenn man so viele ALUs und das noch in einem Array realisieren will dann kommt da sicher eine große Anzahl an benötigten Transistoren dabei raus.
Ich kann mir vorstellen, dass sie wie NV seit dem NV30 an der Steuerlogik sparen und das über den Treiber machen (VLIW).

Was ist eigentlich aus IDLP geworden?

Gast
2004-11-03, 18:34:43
ATI’s Next-Generation Product ‘R520’ Taped Out
Texture loads can be done in parallel to ALU operations. At peak performance, the GPU can issue 48 billion shader operations per second, it was said.
http://www.xbitlabs.com/news/video/display/20041103035406.html

Wie sind denn die 48 Milliarden Shader Operations gemessen worden, is das auch so ne pi mal daumen Aussage wie früher die Polygon/sec Angabe?

Oder kann man irgendwie daraus Rückschlüsse auf die Architektur ziehen? Gibts solche Zahlen auch zur gegenwärtigen Generation, wär mal was.

Tigerchen
2004-11-03, 18:49:43
ACK, alles andere wäre auch ziemlich enttäuschend, immerhin konzentrieren sich die gesamten Resourcen seit dem R300 auf diesen Chip. R420 ist ja nicht vielmehr als ein verdoppelter r300.

Wird schon seinen Grund haben warum daß das R300 Team so lange an dem Design feilen durfte. R4xx ist nicht mehr als ein gelungener Lückenfüller.
Ich gehe auch davon aus daß der R520 SM 3.0 auch wirkllich beschleunigt und nicht nur unterstützt. Alles andere wäre wirklich enttäuschend.

Quasar
2004-11-03, 19:02:28
Wie sind denn die 48 Milliarden Shader Operations gemessen worden, is das auch so ne pi mal daumen Aussage wie früher die Polygon/sec Angabe?

Oder kann man irgendwie daraus Rückschlüsse auf die Architektur ziehen? Gibts solche Zahlen auch zur gegenwärtigen Generation, wär mal was.

48.000.000.000 Shader-Ops pro Sekunde? :devil:

Die R420-Generation wurde mit 5 Ops pro Pipe und Takt veranschlagt.

Im Falle einer X800 XTPE wären das also schon 41.600.000.000 - komisch, klingt gar nicht mehr so beeindruckend.

reunion
2004-11-03, 19:09:24
48.000.000.000 Shader-Ops pro Sekunde? :devil:

Die R420-Generation wurde mit 10 Ops pro Pipe und Takt veranschlagt.

Im Falle einer X800 XTPE wären das also schon 83.200.000.000 - komisch, man wird doch nicht etwa einen Rückschritt planen?

Kommt darauf an wie man zählt. :rolleyes:

Xmas
2004-11-03, 19:14:59
Wie sind denn die 48 Milliarden Shader Operations gemessen worden, is das auch so ne pi mal daumen Aussage wie früher die Polygon/sec Angabe?

Oder kann man irgendwie daraus Rückschlüsse auf die Architektur ziehen? Gibts solche Zahlen auch zur gegenwärtigen Generation, wär mal was.
Das sind keine Pi-mal-Daumen-Aussagen, sondern das theoretische Maximum. Was man daraus vor allem schließen kann, ist die anvisierte Taktfrequenz des Chips, sollten die Angaben stimmen: 500 MHz.

Damit kann man nur sehr grobe Rückschlüsse auf die Architektur ziehen. Im vergleich zur aktuellen Generation kann man in etwa von einer Verdopplung sprechen, allerdings werden keine Angaben zur Texturing-Leistung gemacht. Hier wäre es durchaus möglich dass es nur 24 statt 32 TMUs werden, wie wohl die meisten erwarten.

Quasar
2004-11-03, 19:18:36
Kommt darauf an wie man zählt. :rolleyes:
Jaja, hab ja schon neu gezählt... ;)
(Man könnte aber auch evtl. auf 9 kommen. 2*(3+1)+1)

Gast
2004-11-03, 19:31:30
Zu feiste Konkurrenz; langfristig sieht mir die Masche als eine sehr boese Falle fuer beide IHVs aus. Sie sollten sich wirklich auf einen Verhandlungstisch setzen und zu einem quasi "Ehren-Abkommen" kommen wo die Verlaengerung zwischen Produktions-zyklen auch ausgemacht wird.

Man macht ja somit eigentlich nur Konkurrenz zu eigenen existierenden Produkten.

es können sich nur 2 gleichwertige an einem tisch setzen und das sehe ich bei nv nicht!

Xmas
2004-11-03, 22:16:24
es können sich nur 2 gleichwertige an einem tisch setzen und das sehe ich bei nv nicht!
Du siehst bei NV keine zwei Gleichwertige?
:confused:

Gast
2004-11-03, 22:36:59
Immer dieser Ruf nach Absprachen. Wollt Ihr vielleicht lieber die Planwirtschaft? Wozu soll das gut sein? Nur dank der harten Konkurrenz der beiden Hersteller bekommt man heute Karten mit solcher Leistung.
Meine Kristallkugel sagt mir: Der nächste Chip von ATi walzt alles platt, was nVIDIA zu dem Zeitpunkt zu bieten hat, nur wird diese Leistung dann noch niemand brauchen (außer natürlich die digitalen Manta-Fahrer.) :)

Exxtreme
2004-11-03, 22:40:52
es können sich nur 2 gleichwertige an einem tisch setzen und das sehe ich bei nv nicht!
Technisch ist NV immer noch top und hat mit dem NV40 was deutlich Fortschrittlicheres als ATi... zumindest im Bereich der Shader und einiger anderer Goodies.

aths
2004-11-03, 22:47:51
[COLOR="#000088"]
Wird schon seinen Grund haben warum daß das R300 Team so lange an dem Design feilen durfte. R4xx ist nicht mehr als ein gelungener Lückenfüller.
Ich gehe auch davon aus daß der R520 SM 3.0 auch wirkllich beschleunigt und nicht nur unterstützt. Alles andere wäre wirklich enttäuschend.Beschleunigt wirds auch beim NV40, oder meinst du, das rechnet die CPU? Da man davon ausgehen kann, dass R5xx mehr Rohleistung hat als NV40, werden Applikationen die SM3 nutzen natürlich schneller laufen.

Gast
2004-11-03, 22:55:38
@ aths
warum vergleichst du den R5xx mit dem NV40?? Ich glaub der NV50 wäre besser angebracht, da er ja sowieso PS3 unterstützt, denn ich denke nicht das er schon PS4 kann.

robbitop
2004-11-03, 22:55:53
Immer dieser Ruf nach Absprachen. Wollt Ihr vielleicht lieber die Planwirtschaft? Wozu soll das gut sein? Nur dank der harten Konkurrenz der beiden Hersteller bekommt man heute Karten mit solcher Leistung.
Meine Kristallkugel sagt mir: Der nächste Chip von ATi walzt alles platt, was nVIDIA zu dem Zeitpunkt zu bieten hat, nur wird diese Leistung dann noch niemand brauchen (außer natürlich die digitalen Manta-Fahrer.) :)
was nützt es uns wenn beide ihr Produkt als Paperlaunch machen?
6 Monate später gibts immer noch kaum was zu kaufen.
R520 wird sich gegen NV50 behaupten müssen ... und wie es dann aussehen wird, kann wohl kaum jmd voraussagen

mapel110
2004-11-03, 23:00:06
was nützt es uns wenn beide ihr Produkt als Paperlaunch machen?
6 Monate später gibts immer noch kaum was zu kaufen.
R520 wird sich gegen NV50 behaupten müssen ... und wie es dann aussehen wird, kann wohl kaum jmd voraussagen

najo, derzeit siehts aber so aus, als ob R520 ein halbes Jahr früher als NV50 gelaucht wird.

deekey777
2004-11-03, 23:00:07
@ aths
warum vergleichst du den R5xx mit dem NV40?? Ich glaub der NV50 wäre besser angebracht, da er ja sowieso PS3 unterstützt, denn ich denke nicht das er schon PS4 kann.


Weil ihn das stört(-e):"..., daß der R520 SM 3.0 auch wirkllich beschleunigt und nicht nur unterstützt."

deekey777
2004-11-03, 23:01:34
najo, derzeit siehts aber so aus, als ob R520 ein halbes Jahr früher als NV50 gelaucht wird.


...Und zum Launch des NV50 in den Regalen steht? ;(

aths
2004-11-03, 23:10:39
@ aths
warum vergleichst du den R5xx mit dem NV40?? Ich glaub der NV50 wäre besser angebracht, da er ja sowieso PS3 unterstützt, denn ich denke nicht das er schon PS4 kann.PS4 wirds so auch nicht geben.

Ich halte es für gut möglich, dass der R5xx featuremäßig mehr drauf hat als NV50, und zugleich schneller ist als das zeitlich nächstliegende NV-Produkt.

Was ich nicht verstehe ist, wieso sich einige so schwer damit tun, zu sehen, dass SM3 gerade zur Beschleunigung komplexer Effekte gedacht ist, und stattdessen davon reden dass ein Chip SM3 auch beschleunigen und nicht nur unterstützen solle. Bei solchen Postings sehe ich leider nicht, dass der Schreiber die technischen Zusammenhänge kennt, er sieht nur die Oberfläche.

Ailuros
2004-11-04, 03:20:08
Wird schon seinen Grund haben warum daß das R300 Team so lange an dem Design feilen durfte. R4xx ist nicht mehr als ein gelungener Lückenfüller.
Ich gehe auch davon aus daß der R520 SM 3.0 auch wirkllich beschleunigt und nicht nur unterstützt. Alles andere wäre wirklich enttäuschend.



Bei viel mehr als 500MHz Taktrate vielleicht schon; sonst eigentlich nicht.

Nett uebrigens dass der R4xx endlich als Lueckenfueller abgestempelt wurde; es wurde auch so langsam Zeit.

Ailuros
2004-11-04, 03:21:48
@ aths
warum vergleichst du den R5xx mit dem NV40?? Ich glaub der NV50 wäre besser angebracht, da er ja sowieso PS3 unterstützt, denn ich denke nicht das er schon PS4 kann.

NV4x/R5xx/NV50 = SM3.0

.....
.....
......
NV6x/R6xx (prior to WGF release) = SM4.0

Ailuros
2004-11-04, 03:25:26
es können sich nur 2 gleichwertige an einem tisch setzen und das sehe ich bei nv nicht!

Ein ziemlich grosskotziger Kommentar. Mir ist kein Monopol im Grafik-markt momentan von ATI bekannt und es wird wohl auch nicht so leicht dazu kommen.

Was immer Du mit dem Zeug im Hinterkopf hattest, NVIDIA und ATI sind direkte Konkurrenten. Wenn ATI nicht gegen NV konkurriert dann gegen wen genau?

Gast
2004-11-04, 07:48:13
Ein ziemlich grosskotziger Kommentar. Mir ist kein Monopol im Grafik-markt momentan von ATI bekannt und es wird wohl auch nicht so leicht dazu kommen.

Was immer Du mit dem Zeug im Hinterkopf hattest, NVIDIA und ATI sind direkte Konkurrenten. Wenn ATI nicht gegen NV konkurriert dann gegen wen genau?

Dir ist kein Vorsprung bekannt??? Dann hilft dir vieleicht folgender Input:

- 100% native PCI Express
- Einziger Chip mit 6 Vertex Shadern im Midrange (X700)
- 80% Marktanteil im Notebookbereich
->>> Prognose für 2005 + 40% mehr Notebookverkäufe
- Einziger Chip im Entrylevel mit 4 Pixelshadern - 9250

etc. ..........

Ailuros
2004-11-04, 08:28:34
- 100% native PCI Express

Ein sicher sehr wichtiger Punkt weil:

a) Es keine PCI-E Loesungen von NVIDIA gibt.
b) Der Leistungs-Unterschied zwischen AGP und PCI-E "gigantisch" ist (eher gleich gar nichts in heutigen Spielen).
c) Die Kompatibilitaet von X300/600/700 PCI-E ja gerade der Hammer sein muss.

- Einziger Chip mit 6 Vertex Shadern im Midrange (X700)

Ein Schachzug um im professionellen Markt gegen die VS-Monster von 3DLabs als Beispiel kontern zu koennen. Wozu man 6 VS im mainstream erstmal braucht kannst Du mir nicht erklaeren?

- 80% Marktanteil im Notebookbereich
->>> Prognose für 2005 + 40% mehr Notebookverkäufe

Umsatz fuer beide fuer das vergangene Quartal ist ungefaehr etwas hoeher als 500Mio$. NV verkauft eben Eier und ATI Grafik-chips und chipsets. :D

- Einziger Chip im Entrylevel mit 4 Pixelshadern - 9250

Junge Du hast Dir Muehe gegeben...!!! ;D

Vertex Shader werden ja in den meissten heutigen Spielen so stark gebraucht werden, dass sich Futuremark nicht mal in den Fuss geschossen hat mit 3dmark05'.

Nein bevor Du weiterhin sinnlos dahinblubberst moechte ich jetzt hoeren welche grossen bekannten Spiele-engines von heute bis zu 2006 so hohen VS load wie in 3dmark05' benutzen werden.


Dass ATI nur mit SM2.0 bzw SM2.0+ antanzt fuer ihre gesamte Produktlinie, laesst Du ebenmal links liegen und dass die Verkaufszahlen im high end Bereich um einiges besser sind als vor einem Jahr fuer NVIDIA hat auch noch keiner mitbekommen. Die Relation im high end Bereich war im 1. Halbhjahr 2003 bei 80:20 fuer ATI und ist momentan bei 60:40 fuer ATI. Wie die Geschichte weitergehen wird in jeden Markt-segment (ueberhaupt wenn die Verfuegbarkeit fuer beide weiterhin steigen wird) hab ich jetzt keine Lust einzuschaetzen, Prozentuale davon bekomm ich dafuer weder vom einen noch vom anderen.

ATI und NV sitzen uebrigens oefters an Verhandlungstischen als Du Dir vorstellen kannst. Ich hab zwar keine Hoffnung dass Du das trollen so leicht aufgeben wirst, aber Grund zum kichern brauchen wir alle mal ab und zu. :P

robbitop
2004-11-04, 08:58:36
AiL
don't feed the trolls ;)

zum R520
R300 kam auch früher als NV30 und musste sich jedoch mit NV30 messen und hatte bis dahin keine Konkurrenz.
Allerdings munkelt man bei B3D von einem geheimnisvollen NV47 der mehr Quads bekommen soll (dafür bräuchte man dann auch 90nm) um vorerst gegen R520 mithalten zu können.
Ich schenke allerdings diesem Gerücht keinen Glauben.

reunion
2004-11-04, 10:42:17
zum R520
R300 kam auch früher als NV30 und musste sich jedoch mit NV30 messen und hatte bis dahin keine Konkurrenz.


Ja, aber erst als NV30 kam, bis dahin wurde der NV25 gegen den R300 gebencht( und verlor natürlich hoffnugslos)
Man konkurriert immer gegen das zur gleichen zeit verfügbare konkurrenzprodukt, wenn NV50 ein halbes Jahr später kommt muss sich der NV40 eben (bis zum erscheinen der NV50) mit dem R520 messen.

robbitop
2004-11-04, 11:11:27
Ja, aber erst als NV30 kam, bis dahin wurde der NV25 gegen den R300 gebencht( und verlor natürlich hoffnugslos)
Man konkurriert immer gegen das zur gleichen zeit verfügbare konkurrenzprodukt, wenn NV50 ein halbes Jahr später kommt muss sich der NV40 eben (bis zum erscheinen der NV50) mit dem R520 messen.

wurde er ja. Ein vermessener Vergleich IMO.

aths
2004-11-04, 11:15:58
Dir ist kein Vorsprung bekannt??? Dann hilft dir vieleicht folgender Input:

- 100% native PCI Express
- Einziger Chip mit 6 Vertex Shadern im Midrange (X700)
- 80% Marktanteil im Notebookbereich
->>> Prognose für 2005 + 40% mehr Notebookverkäufe
- Einziger Chip im Entrylevel mit 4 Pixelshadern - 9250

etc. ..........ATI hat eine konkurrenzfähige Produktserie, das steht außer Frage. Einen Vorsprung sehe ich aber nur partiell.

Natives PCI-E bietet NV aktuell nur beim NV43. Allerdings ist mir weder ein Bench, noch ein theoretisch begründbares Argument bekannt, warum Nvidias Bridge-Lösung schlechter sein solle. Glaubt man bestimmten "Dokumenten", liefert Nvidias Bridge ein saubereres Signal als ATIs natives Interface. Glaubt man diesem "Dokument" nicht, bleibt die Frage, warum die NV-Produkte lange vor ATIs Produkten von der PCI Sig in die Liste aufgenommen wurden.

6 Vertexshader im Midrange sind nicht wenig, die Frage ist, wo das Vorteile bringt. NV43 hat MIMD-Vertexshader, kann seine nur drei VS also effizienter nutzen, dafür bietet R410 mehr Rohpower – wenn auch leider nach wie vor nur mit VS_2_0-Support. Hier steht Rohpower vs. besserer Effizienz und (vor allem) dem besseren Featureset.

Im Notebookbereich liegt ATI vor NV. Im Profi-Bereich professioneller OpenGL-Beschleuniger liegt NV vor ATI. Im Bereich vom Offline-Rendering und vom Echtzeit-Vorschaurendering bei DCC hat NV ebenfalls die besseren Karten.

Die 5200 hat zwar nur 4 DX8-Pixelshader und nur 2 DX9-Pixelshader, unterstützt allerdings das 2_A-Profil, also Rechnungen in FP32, Programme mit bis zu 512 (in OpenGL bis zu 1024) Befehlen usw., weiterhin Nview inkl. Bildschärfe :) und nützlichen Software-Tools. Das hat ATI im Entry-Level-Bereich nicht. (Im High-End leider auch nicht.)

Wenn es um eine preiswerte, aber brauchbare Karte für DX9-Spiele geht, ist man mit einer ATI-Karte natürlich besser beraten.

Ailuros
2004-11-04, 12:58:48
zum R520
R300 kam auch früher als NV30 und musste sich jedoch mit NV30 messen und hatte bis dahin keine Konkurrenz.

Falls R520 um einige Zeit frueher als NV50 veroeffentlicht werden sollte, wird er sich sowieso gegen NV40 messen. SM3.0 vs. SM3.0 ich sehe da nichts falsches dabei. Und wenn R520 ein effektiverer Design sein sollte, na und? Normalerweise muesste er auch besser sein wenn er schon etwa ein Jahr spaeter als NV40 erscheinen soll.

Allerdings munkelt man bei B3D von einem geheimnisvollen NV47 der mehr Quads bekommen soll (dafür bräuchte man dann auch 90nm) um vorerst gegen R520 mithalten zu können.
Ich schenke allerdings diesem Gerücht keinen Glauben.

Nicht dass ich wuesste. Vor Weihnachten wird die Verfuegbarkeit der bisherigen NV4x Modelle angeblich stark steigen und dann kommt AFAIK ein Refresh mit hoeheren Taktraten.

Soll ich all den netten Geruechten ueber ATI glauben schenken, muss die Firma im ersten Halbjahr fuer eine Xenon Praesentation fertig sein, einen Refresh, multi-GPU R4xx und R520 in einem sehr knappen Zeitraum vorstellen. Irgendwas ist hier ueberfluessig. ;)

Robbitop@FH
2004-11-04, 13:11:53
Falls R520 um einige Zeit frueher als NV50 veroeffentlicht werden sollte, wird er sich sowieso gegen NV40 messen. SM3.0 vs. SM3.0 ich sehe da nichts falsches dabei. Und wenn R520 ein effektiverer Design sein sollte, na und? Normalerweise muesste er auch besser sein wenn er schon etwa ein Jahr spaeter als NV40 erscheinen soll.



Nicht dass ich wuesste. Vor Weihnachten wird die Verfuegbarkeit der bisherigen NV4x Modelle angeblich stark steigen und dann kommt AFAIK ein Refresh mit hoeheren Taktraten.

Soll ich all den netten Geruechten ueber ATI glauben schenken, muss die Firma im ersten Halbjahr fuer eine Xenon Praesentation fertig sein, einen Refresh, multi-GPU R4xx und R520 in einem sehr knappen Zeitraum vorstellen. Irgendwas ist hier ueberfluessig. ;)

1. naja in 90nm hat man ein ganz anderes Transistorbudget und kann somit deutlich mehr Ausführungseinheiten verbauen und man muss viele Restriktionen nicht eingehen. NV40 ist kein Gegner für R520

2. ein SLI R420 sollte keine großartige HW Änderung benötigen. Software und vA PCB müssten dort "umgestellt" werden. MultiCorefähig sind alle aktuellen Radeons prinzipiell (AFR und Supertiling).
Das sollte nicht nenneswert Ressourcen abziehen.

aber ein Multi R420 wäre ziemlich sinnlos, da man R520 damit evl das Wasser abgraben könnte. Vieleicht bringt man erst mit R520 SLI.


Was hällst du von dem Gerücht, dass Shader im R520 nicht mehr getrennt sind und in einem Array? Klingt nicht unmöglich aber es wird schwierig zu managen (transistoraufwändig). IDLP käme da nicht schlecht.
Die Steuerlogik müsste dann der Treiber übernehmen, damit nicht allzuviele Transistoren draufgehen.
Hier erwarte ich viel Potential in den Treibern, da es relatives Neuland für ATi ist.

Ailuros
2004-11-04, 13:54:06
Was hällst du von dem Gerücht, dass Shader im R520 nicht mehr getrennt sind und in einem Array? Klingt nicht unmöglich aber es wird schwierig zu managen (transistoraufwändig). IDLP käme da nicht schlecht.
Die Steuerlogik müsste dann der Treiber übernehmen, damit nicht allzuviele Transistoren draufgehen.
Hier erwarte ich viel Potential in den Treibern, da es relatives Neuland für ATi ist.

Dass es die Moeglichkeit gibt hab ich schon selber erwaehnt, da es bei Xenon zumindest schon so ist, aber auch keine Garantie darstellt da Consolen andere Ansprueche haben.

Wieso soll es Transistoren-aufwendiger sein als mit getrennten Einheiten? Ich schaetze an die 250M.

naja in 90nm hat man ein ganz anderes Transistorbudget und kann somit deutlich mehr Ausführungseinheiten verbauen und man muss viele Restriktionen nicht eingehen. NV40 ist kein Gegner für R520.

Welches Transistoren-budget genau? R520 soll einen kleineren die als R420 haben und deshalb werden sie angeblich versuchen auf hoehere Taktraten zu zielen, was dann logischerweise auch hoeher sein muesste als 222M@400MHz.

ein SLI R420 sollte keine großartige HW Änderung benötigen. Software und vA PCB müssten dort "umgestellt" werden. MultiCorefähig sind alle aktuellen Radeons prinzipiell (AFR und Supertiling).
Das sollte nicht nenneswert Ressourcen abziehen.

AFR wurde seit MAXX aufgegeben. Was Euch allen so superleicht klingt, heisst fuer ATI falls sie darauf tatsaechlich springen sollte etwa 6 Monate spaetere Vorstellung nach NV's SLI. Fundamente sind schon da, aber ein paar Modifikationen sind dann schon notwendig in den Treibern. Es geht nicht nur um load balancing, sondern auch wie man Daten ueber PCI-E rueberjagt, damit sich die beiden boards auch eine Szene teilen und ergo zusammenarbeiten koennen.

robbitop
2004-11-04, 14:02:07
Dass es die Moeglichkeit gibt hab ich schon selber erwaehnt, da es bei Xenon zumindest schon so ist, aber auch keine Garantie darstellt da Consolen andere Ansprueche haben.

Wieso soll es Transistoren-aufwendiger sein als mit getrennten Einheiten? Ich schaetze an die 250M.



Welches Transistoren-budget genau? R520 soll einen kleineren die als R420 haben und deshalb werden sie angeblich versuchen auf hoehere Taktraten zu zielen, was dann logischerweise auch hoeher sein muesste als 222M@400MHz.



AFR wurde seit MAXX aufgegeben. Was Euch allen so superleicht klingt, heisst fuer ATI falls sie darauf tatsaechlich springen sollte etwa 6 Monate spaetere Vorstellung nach NV's SLI. Fundamente sind schon da, aber ein paar Modifikationen sind dann schon notwendig in den Treibern. Es geht nicht nur um load balancing, sondern auch wie man Daten ueber PCI-E rueberjagt, damit sich die beiden boards auch eine Szene teilen und ergo zusammenarbeiten koennen.

1. es kostet enorm an Steuerlogik einen Array zu verwalten.
Und wenn man eh gleich einen Array macht, dann wäre es sinnvoll SM3 zu überspringen und gleich SM4 anzusteuern.
IDLP würde die Effizienz der Einheiten erhöhen, würde nochmal mehr Transistoren kosten.
Und da man von 32ALUs ausgeht, kostet das viele Transistoren. Gerade weil diese FP32 können müssen (das allein macht diese schon 50% größer als die ALUs beim R4xx).

2. 90nm ermöglicht ein deutlich höheres Transistorenbudget als 130nm ;)
Die 240Mio bei B3D sind noch Spekulation...

Das passt alles IMO nicht zusammen.
Ein 32x FP32 ALU Monster mit Steuerlogik für dynamischer Verteilung VS/PS "klingt" einfach sehr "groß" :)

Ailuros
2004-11-04, 14:12:13
1. es kostet enorm an Steuerlogik einen Array zu verwalten.
Und wenn man eh gleich einen Array macht, dann wäre es sinnvoll SM3 zu überspringen und gleich SM4 anzusteuern.
IDLP würde die Effizienz der Einheiten erhöhen, würde nochmal mehr Transistoren kosten.
Und da man von 32ALUs ausgeht, kostet das viele Transistoren. Gerade weil diese FP32 können müssen (das allein macht diese schon 50% größer als die ALUs beim R4xx).

32 ALU Einheiten oder theoretisch maximale 32 ALU OPs pro Takt? Nur mal so aus Neugierde.... :P

2. 90nm ermöglicht ein deutlich höheres Transistorenbudget als 130nm ;)
Die 240Mio bei B3D sind noch Spekulation...

Ach ja? Dass wir hier mit Fakten und Daten von oeffentlichen whitepapers reden ist mir wohl entgangen LOL. Ich sagte ~250 um klarer zu sein.

das passt alles IMO nicht zusammen.
Ein 32x FP32 ALU Monster mit Steuerlogik für dynamischer Verteilung VS/PS "klingt" einfach sehr "groß" :)

Ja ja nach Deiner Logik muesste Xenon auch ein noch groesseres ALU Monster sein und ueber 400M wiegen..... :| ;D

***edit: was verstehst Du unter "dynamischer" Verteilung ueberhaupt?

Gast
2004-11-04, 19:04:43
ÖHM; wenn der R520 jetzt wirklich sein TapeOut hatte, warum entwickelt Ati dann den Refresh R480, oder hamse das eingestellt? Passt doch irgendwie nicht, den neuesten Chip (dens in der Highend Version nicht zu kaufen gibt) gleich eins runterzustufen, den Refresh wohl komplett in die Tonne zu kiken und in 3-4Monaten die neue Generation einleuten...
Nicht gerade wirtschaftlich und Ati hat sicher nicht die Finanzielle Power so stark in den Markt zu drücken. Auserdem wärs doch ein Horror Scenario für die Marketing Abteilung, bedenkt man wie sehr man den R420 beworben hat, und nu isser altes Eisen? Das amused die User sicher nicht...

ironMonkey
2004-11-04, 19:25:18
ÖHM; wenn der R520 jetzt wirklich sein TapeOut hatte, warum entwickelt Ati dann den Refresh R480, oder hamse das eingestellt? Passt doch irgendwie nicht, den neuesten Chip (dens in der Highend Version nicht zu kaufen gibt) gleich eins runterzustufen, den Refresh wohl komplett in die Tonne zu kiken und in 3-4Monaten die neue Generation einleuten...
Nicht gerade wirtschaftlich und Ati hat sicher nicht die Finanzielle Power so stark in den Markt zu drücken. Auserdem wärs doch ein Horror Scenario für die Marketing Abteilung, bedenkt man wie sehr man den R420 beworben hat, und nu isser altes Eisen? Das amused die User sicher nicht...


Der R420 ist ja auch nur eine Notlösung( is ja von daher eh n altes Eisen) und warum währe das schlimm fürs Marketing?????Wenn man an die 9800er Serie denkt, zuerst war die 9800Pro 128mb die schnellste Karte dann die 256mb Version und kurz darauf die XT.......

Der Refresh macht schon Sinn, bis der R520 in den Läden steht vergehen noch einige Monate,der Refresh kostet ATI kein/kaum Geld, ist ja nur schneller, der R520 dagegen hat sicher einiges gekostet, sind ja dann über 3 Jahre Entwicklung bis er erhältlich sein wird.

Gast
2004-11-04, 20:10:16
Der R420 ist ja auch nur eine Notlösung( is ja von daher eh n altes Eisen) und warum währe das schlimm fürs Marketing?????Wenn man an die 9800er Serie denkt, zuerst war die 9800Pro 128mb die schnellste Karte dann die 256mb Version und kurz darauf die XT.......

Der Refresh macht schon Sinn, bis der R520 in den Läden steht vergehen noch einige Monate,der Refresh kostet ATI kein/kaum Geld, ist ja nur schneller, der R520 dagegen hat sicher einiges gekostet, sind ja dann über 3 Jahre Entwicklung bis er erhältlich sein wird.


Das ist aber egal, da ATI Gewinn ausweist und anstatt von nv keine Verluste macht!

Das ist ein grosser Unterschied!

robbitop
2004-11-04, 20:29:44
32 ALU Einheiten oder theoretisch maximale 32 ALU OPs pro Takt? Nur mal so aus Neugierde.... :P



Ach ja? Dass wir hier mit Fakten und Daten von oeffentlichen whitepapers reden ist mir wohl entgangen LOL. Ich sagte ~250 um klarer zu sein.



Ja ja nach Deiner Logik muesste Xenon auch ein noch groesseres ALU Monster sein und ueber 400M wiegen..... :| ;D

***edit: was verstehst Du unter "dynamischer" Verteilung ueberhaupt?

1. eine R300 ALU kann bis zu 3 Operationen pro Takt berechnen (besonders spezielle Funktionen für die MiniALUs zähle ich nicht auf).
1 skalares MUL oder ADD und 1MUL3/ADD3 UND eine T-Op. Wobei nicht jeden Takt eine T-Op benötigt wird. Ausserdem kann die R300 ALU 1x SFU gegen die beiden A-Ops eintauschen.
Was die R5xx ALUs können, weiss ich nicht. Sicher mehr
-> wie ich auf 32 ALUs komme? Aths/Xmas oder Demi (einer der drei) ging davon aus (weils sinnvoll wäre).

2. nein wir spekulieren. Ich wollte dich lediglich damit darauf aufmerksam machen, dass noch andere Spekulationen neben der B3D Version möglich sind und dass es IMO nicht so recht zusammenpasst.

3.dynamische Lastverteilung der Shader. Je nach Aufgabenstellung die Verteilung der ALUs für den Pixel oder den Geometriebereich.
Sowas kostet Transistoren und ist sicher nicht einfach.

Ailuros
2004-11-05, 01:14:05
Der Refresh macht schon Sinn, bis der R520 in den Läden steht vergehen noch einige Monate,der Refresh kostet ATI kein/kaum Geld, ist ja nur schneller, der R520 dagegen hat sicher einiges gekostet, sind ja dann über 3 Jahre Entwicklung bis er erhältlich sein wird.

Ein Refresh kommt mit Sicherheit nicht umsonst; ueberhaupt wenn die Chance eines zweiten molex connectors besteht :D

Ailuros
2004-11-05, 01:27:51
1. eine R300 ALU kann bis zu 3 Operationen pro Takt berechnen (besonders spezielle Funktionen für die MiniALUs zähle ich nicht auf).
1 skalares MUL oder ADD und 1MUL3/ADD3 UND eine T-Op. Wobei nicht jeden Takt eine T-Op benötigt wird. Ausserdem kann die R300 ALU 1x SFU gegen die beiden A-Ops eintauschen.
Was die R5xx ALUs können, weiss ich nicht. Sicher mehr
-> wie ich auf 32 ALUs komme? Aths/Xmas oder Demi (einer der drei) ging davon aus (weils sinnvoll wäre).

Ich fragte ganz was anderes; nahmlich ob es sich um 32 physikalische Einheiten handelt oder nicht.

2. nein wir spekulieren. Ich wollte dich lediglich damit darauf aufmerksam machen, dass noch andere Spekulationen neben der B3D Version möglich sind und dass es IMO nicht so recht zusammenpasst.

Dabei quotest Du aber Wavey mehr als nur oefters hehehe ;) Spass beiseite, meine Signatur unten...*hust* was aber nicht auch heissen kann dass ich total falsch liegen koennte. Wird auch nicht das erste mal sein.

3.dynamische Lastverteilung der Shader. Je nach Aufgabenstellung die Verteilung der ALUs für den Pixel oder den Geometriebereich.
Sowas kostet Transistoren und ist sicher nicht einfach.

Multithreading oder applications stack.

Nochmal:

The R3xx and the R4xx have a rather interesting way of tiling things. Our setup unit sorts primitives into tiles, based on their area coverage. Some primitives fall into 1 tile, some into a few, some cover lots. Each of our backend pixel pipes is given tiles of work. The tiles themselves are programmable in size (well, powers of 2), but, surprisingly, we haven't found that changing their size changes performance that much (within reason). Most likely due to the fact that with high res displays, most primitives are large. There is a sweet spot in the performance at 16, and that hasn't changed in some time. Even the current X800 use 16, though I think we need to revisit that at some point in the future. Possibly on a per application basis, different tile sizes would benefit things. On our long list of things to investigate.

Anyway, each pipe has huge load balancing fifos on their inputs, that match up to the tiles that they own. Each pipe is a full MIMD and can operate on different polygons, and, in fact, can be hundreds of polygons off from others. The downside of that is memory coherence of the different pipes. Increasing tile size would improve this, but also requires larger load balancing. Our current setup seems reasonably optimal, but reviewing that, performance wise, is on the list of things to do at some point. We've artificially lowered the size of our load balancing fifos, and never notice a performance difference, so we feel, for current apps, at least, that we are well over-designed.

In general, we have no issues keeping all our units busy, given the current polygons. I could imagine that if you did single pixel triangles in one tile over and over, that performance could drop due to tiling, but memory efficiency would shoot up, so it's unclear that performance overall would be hurt. The distribution of load accross all these tiles is pretty much ideal, for all the cases we've tested. Super tiling is built on top of this, to distribute work accross multiple chips.

As well, just like other vendors, we have advance sequences that distribute alu work load to our units, allocate registers and sequence all the operations that need to be done, in a dynamic way. That's really a basic requirement of doing shading processing. This is rarely the issue for performance.

Performance issues are still very texture fetch bound (cache efficiency, memory efficiency, filter types) in modern apps, as well as partially ALU/register allocation bound. There's huge performance differences possible depending on how your deal with texturing and texture fetches. Even Shadermark, if I recall correctly, ends up being texture bound in many of its cases, and it's very hard to make any assumptions on ALU performance from it. I know we've spent many a time in our compiler, generating various different forms of a shader, and discovering that ALU & register counts don't matter as much as texture organization. There are no clear generalizable solutions. Work goes on.

http://www.beyond3d.com/forum/viewtopic.php?p=389402&highlight=#389402

ATI koennte sehr wohl ein Monster bauen aber fuer 2005 und 90nm wird es dann doch viel zu gross und viel zu teuer. Ich kann vieles bei B3D als Spekulation abstempeln, die Aussagen aber eines key-engineers eben nicht. Im zweiten fettgedruckten Teil des obrigen quotes erscheint mir die Konzentration woanders zuerst zu sein.

tombman
2004-11-05, 05:55:01
R520 taped out :D
http://www.xbitlabs.com/news/video/display/20041103035406.html

2005 kommt die mega-shader power :D

Gast
2004-11-05, 07:27:58
R520 taped out :D
http://www.xbitlabs.com/news/video/display/20041103035406.html

2005 kommt die mega-shader power :D

ATI’s previous-generation RADEON X800-series of graphics processors was taped out in late December, 2003, and was launched formally in May, 2004.

Hey, wir können hiermit eine Formel definieren!!!!

Launch = Tapeout Month + 5

Das würde bedeuten:

November + 5 = April

Samples auf der Cenit 2005??? Das wäre der Knall im All!

Wenn ich bedenke was vorher noch von ATI kommt ist das schon sehr beeindruckend.

drmaniac
2004-11-05, 07:40:14
"und Ati hat sicher nicht die Finanzielle Power so stark in den Markt zu drücken"


hm naja ;) ich glaube schon das die die Kohle haben :D

Gast
2004-11-05, 07:46:32
"und Ati hat sicher nicht die Finanzielle Power so stark in den Markt zu drücken"


hm naja ;) ich glaube schon das die die Kohle haben :D

Schau dir das Ergebnis vom FY2004 an und vergleiche es mit nv, dann weist du wieviel Kohle ATI in den 12 Monaten als Rücklage gebildet hat um NEUE DESIGNS aus der Tasche zu ziehen!

Tigerchen
2004-11-05, 16:55:07
Bei viel mehr als 500MHz Taktrate vielleicht schon; sonst eigentlich nicht.

Nett uebrigens dass der R4xx endlich als Lueckenfueller abgestempelt wurde; es wurde auch so langsam Zeit.


Ich habe nie etwas anderes behauptet. Im Gegenteil. Ich habe immer darauf hingewiesen daß R500 NextGen ist und Loki nur Plan B.

Tigerchen
2004-11-05, 16:58:28
PS4 wirds so auch nicht geben.

Ich halte es für gut möglich, dass der R5xx featuremäßig mehr drauf hat als NV50, und zugleich schneller ist als das zeitlich nächstliegende NV-Produkt.

Was ich nicht verstehe ist, wieso sich einige so schwer damit tun, zu sehen, dass SM3 gerade zur Beschleunigung komplexer Effekte gedacht ist, und stattdessen davon reden dass ein Chip SM3 auch beschleunigen und nicht nur unterstützen solle. Bei solchen Postings sehe ich leider nicht, dass der Schreiber die technischen Zusammenhänge kennt, er sieht nur die Oberfläche.


War mir schon beim schreiben klar daß du drauf anspringst.
Versuch doch einfach mal zu verstehen was ich schreibe und interpretiere nicht immer alles um.

Gast
2004-11-05, 18:40:51
@ Tigerchen das hätte man auch per PN regeln können, muss man hier immer jemanden direkt angreifen und das in der öffentlichkeit breit treten, stichwort: "Der Ton macht die Musik..."

Zum Topic:
Für den Fall das der R520 wirklich 1/2 Jahr vor dem NV50 kommt, wäre es da nicht auf seiten NV´s realistisch einen 3. Refresh zu bringen?
Diesmal nicht wie die FX5950 sondern eher im Verhältnis FX5800-FX5900. Ein aufgebohrter NV40 dessen schwächen ausgebügelt/der mit mehr Power in einigen Bereichen versehen wird. Man muss ja irgendwie mithalten, oder man tüschelt es so hin wie mans mit der SM2 Performance gemacht hat, und wie es Ati imoment mit dem fehlenden SM3 Feature tut. Motto: "Brauch man nicht, aber hauptsach man kanns mal angugen..."

Exxtreme
2004-11-05, 19:39:44
Für den Fall das der R520 wirklich 1/2 Jahr vor dem NV50 kommt, wäre es da nicht auf seiten NV´s realistisch einen 3. Refresh zu bringen?
Diesmal nicht wie die FX5950 sondern eher im Verhältnis FX5800-FX5900. Ein aufgebohrter NV40 dessen schwächen ausgebügelt/der mit mehr Power in einigen Bereichen versehen wird. Man muss ja irgendwie mithalten, oder man tüschelt es so hin wie mans mit der SM2 Performance gemacht hat, und wie es Ati imoment mit dem fehlenden SM3 Feature tut. Motto: "Brauch man nicht, aber hauptsach man kanns mal angugen..."
Die Frage ist jetzt wie gut der R520 tatsächlich wird und ob ein getunter NV40 gegen ihn bestehen kann. IIRC hat ATi das R3xx-Team auf den R520 angesetzt. Und daß das R3xx-Team richtige Killer-GPUs designen kann, das haben sie schon bewiesen.

Hier muss Nvidia jetzt abwägen ob sie Resourcen in NV4x-Tuning stecken oder sich auf den NV50 konzentrieren. Ich würde eher zur zweiten Möglichkeit greifen.

betasilie
2004-11-05, 19:41:31
Hier muss Nvidia jetzt abwägen ob sie Resourcen in NV4x-Tuning stecken oder sich auf den NV50 konzentrieren. Ich würde eher zur zweiten Möglichkeit greifen.
Sehe ich anders. Der NV50 kommt erst ende 2005. Wenn der R520 so gut wird, wie ich es auch erwarte, dann sollte NV einen guten NV48 bringen, um nicht völlig abzuloosen. ;)

seahawk
2004-11-05, 19:43:15
NV wird mit NV50 kontern. Featuremäßig dürfte der R520 abgesehen von den ATI Spezialitäten dem NV40 entsprechen. Es gibt noch keinen Standard für Features über SM 3.0. Und es gibt (außer evtl. OGL) keine API die diese nutzen könnte. Erst WGF wird/könnte dies ändern.

Hinsichtlich NV50. ATI wird gegen Ende des Jahres den R480 bringen. Dieser muss sich ja auch noch rechnen, also muss er mindestens 3-6 Monate das Topmodell sein. Ein Vorziehen des R520 in das 1HJ05 macht nur Sinn, wenn man davon ausgeht, dass

a.) SM 3.0 absolut notwendig wird in High-Endchips
b.) man davon ausgeht, dass der R480 gegen den NV48 alt aussieht

Bei einem Release im July/August 05 kann NV wahrscheinlich relativ zeitnah mit dem NV50 kontern.

mapel110
2004-11-05, 19:44:34
Hier muss Nvidia jetzt abwägen ob sie Resourcen in NV4x-Tuning stecken oder sich auf den NV50 konzentrieren. Ich würde eher zur zweiten Möglichkeit greifen.

Ich zur ersten. NV50 wird wohl ein WGF chip, und von den Features her ohnehin einen R520 overrulen, da gilts für nv wieder erstmal Erfahrungen zu sammeln, genauso wie bei atis R600. :)

Und den NV40 ein bisschen zu tunen, dürfte nicht viele Resourcen in Anspruch nehmen bzw auf jedenfall nicht so schwieriig sein, wie eine komplett neue Architektur auf Speed zu trimmen(NV50).

Exxtreme
2004-11-05, 19:56:12
Ich zur ersten. NV50 wird wohl ein WGF chip, und von den Features her ohnehin einen R520 overrulen, da gilts für nv wieder erstmal Erfahrungen zu sammeln, genauso wie bei atis R600. :)

Hmmm, das steht noch nicht fest ob der NV50 featuremässig weiter sein wird als der R520. =) Soweit liegen die Chips zeitlich nicht ausseinander. Die Frage ist auch ob es schon eine finale Spezifikation von WGF gibt.

Und den NV40 ein bisschen zu tunen, dürfte nicht viele Resourcen in Anspruch nehmen bzw auf jedenfall nicht so schwieriig sein, wie eine komplett neue Architektur auf Speed zu trimmen(NV50).
Wie gesagt, es hängt ab ob ein getunter NV40 gegen den R520 bestehen kann. Nach alter ATi-Tradition dürfte der R520 mindestens doppelt so schnell sein wie der R420.

Quasar
2004-11-05, 20:05:40
Hmmm, das steht noch nicht fest ob der NV50 featuremässig weiter sein wird als der R520. =)
Das denke ich auch. ATi wird hier kaum nochmal ihr altes R300-Design aufbohren können und hat somit wieder die Chance zu einem frischen Start.


Nach alter ATi-Tradition dürfte der R520 mindestens doppelt so schnell sein wie der R420.
Das dürfte abzuwarten sein - ähnliches hat man vom nV30 ja auch erwartet, damals.
Anstreben wird ATi es sicherlich, aber ob sich das umsetzen lassen wird - auch im Hinblick auf die Tauglichkeit des Herstellungsprozesses - ist eben nicht nur von ATi abhängig.

mapel110
2004-11-05, 20:09:23
Das denke ich auch. ATi wird hier kaum nochmal ihr altes R300-Design aufbohren können und hat somit wieder die Chance zu einem frischen Start.


hm, bei Exxtreme könnt ich mir denken, dass er sagen will, dass NV50 auch ps3.0 sein wird, bei deinen Worten kommt mir eher in den Sinn, dass R520 mehr als ein PS3.0 chip ist.

Gast
2004-11-05, 20:09:32
Da man bei so großen Chips nicht mehr allzuviel an der Taktschraube drehn kann, denke ich mal das es gut möglich ist, die 16 "Pipes" des NV40 auf 24 zu erweitern, dürfte ja nicht so ein Problem sein bei der Architektur. Macht doch Sinn, würde aber glaube ich nicht Nvidia entsprechen, da sie ja eher auf Features/Technik setzen anstelle von Brute Power.
Denke auch das der R520 später kommt als angepriesen, da wird man vermutlich auf wirklich ausreichend und schnellen GDDR3 warten (wenn man das alte Spielchen weitertreibt, jede neue Generation mit min. 1/4 mehr Bandbreite auf die Piste zu schicken).

Der NV50 muss sich ja nur teils mit dem R520 messen, dadurch das Ati hier die Entwicklung von NV entkoppelt hat, läuft der NV50 Refresh (wenns bei solchen Zyklen bleibt) schon fast gegen den R600 auf, wenn der nicht zu einem R620 wird wie der R400-R420 :)

Problem is ja leider das das wirklich schwer abzuschätzen ist, wie NV auf den R520 reagiert, Zeit hatten sie ja, denke ihnen war es spätestens seit dem Erscheinen des R420 bewusst, das sie 2005 in die Bredullie geraten werden.

mapel110
2004-11-05, 20:12:56
denke ihnen war es spätestens seit dem Erscheinen des R420 bewusst, das sie 2005 in die Bredullie geraten werden.

Das glaube ich nicht, Tim. :D

Exxtreme
2004-11-05, 20:16:37
Das dürfte abzuwarten sein - ähnliches hat man vom nV30 ja auch erwartet, damals.
Naja, der NV30 war schon deutlich schneller als der NV25. Mit AA + AF war Faktor 2 sogar drin. Nur verblasste das angesichts des R300.

Gast
2004-11-05, 20:19:10
Wie meinen? Ich denke schon das der R520 ein Problemchen darstellt für NV, Ati kann ja gar nicht bei 16 "Pipes" bleiben, sonst würde man doch die FPS Geile Kundschaft vergraulen, da der R520 in jetzigen Spielen kaum mehr Speed bringen dürfte.

Exxtreme
2004-11-05, 20:22:33
hm, bei Exxtreme könnt ich mir denken, dass er sagen will, dass NV50 auch ps3.0 sein wird, bei deinen Worten kommt mir eher in den Sinn, dass R520 mehr als ein PS3.0 chip ist.
Also ich schätze, daß der NV50 eher SM3.0 als WGF ist. Und Demi meinte mal, daß man evtl. per Treiber einen SM3.0-Chip SM4.0/WGF-fähig machen kann.

Demirug
2004-11-05, 20:35:49
Also ich schätze, daß der NV50 eher SM3.0 als WGF ist. Und Demi meinte mal, daß man evtl. per Treiber einen SM3.0-Chip SM4.0/WGF-fähig machen kann.

Das hat sich erledigt nachdem MS festgelegt hat das es bei WGF defakto keine Caps mehr geben wird. Die These auf die du dich hier beziehst stammt noch aus der Zeit als von WGF lediglich bekannt war das die Shader unlimitierte Resourcen zur verfügung stellen müssen. Das hätte man auch über den Treiber durch automatische Multipass zerlegung erreichen können.

Ein WGF Chip (bzw ein Chip mit einigen WGF Konzepten) würde allerdings auch einen sehr guten DX9 Chip abgeben.

robbitop
2004-11-05, 20:48:41
Und daß das R3xx-Team richtige Killer-GPUs designen kann, das haben sie schon bewiesen.
.

Nur hat man diesmal keine Architektur auf die man aufbauen kann.
R300 war im Prinzip Refresh/Bugfix/Erweiterung/interne Duplikation eines R200.
Man hatte einfach die Zeit auf einer bestehenden Basis die Fehler auszumerzen und sich aufs Wesentliche zu konzentrieren.
Siehe NV30 -> NV40.

---
Ich glaube allerdings nicht, dass NV48 gegen R520 herhalten muss. NV48 ist der Gegner von R480.
Wavey meinte, dass man NV4x um ein paar Quads bereichern und shrinken will um mithalten zu können, wenn R520 deutlich vor NV50 kommt. (ich zweifle daran, weil es unsinnig wäre noch einen Chip dazwischen zu quetschen. Dann hat man halt ein paar Monate keinen Konkurenten.)
Das Featureset vom NV40 ist sehr modern. Mit NV50 sollte dann ein sehr guter SM3 Chip mit weniger Restriktionen und mehr Ausführungseinheiten an der Reihe sein.

Ich persönlich schätze den R520 etwas weiter ein als NV50. NV50 wird noch ziemlich stark CineFX (1/2/3) basieren. R520 scheint hingegen ziemlich frisch und neu (ob das immer so gut ist, ist die andere Frage).

Wenn man tatsächlich gleich ein Shader Array besitzt, wäre es sinnvoll gleich einen WGF Chip zu konzipieren IMO. Oder aber einen SM3 Chip dem nur noch minimales zu WGF fehlt, so dass man im R600 eine sehr gute Basis hat.
R2xx/3xx Architektur hat dann ausgedient.

mapel110
2004-11-05, 20:52:27
tja, nur "leider" scheint R480 tot zu sein.
wirds wohl nicht geben.

Quasar
2004-11-05, 20:56:13
Naja, der NV30 war schon deutlich schneller als der NV25. Mit AA + AF war Faktor 2 sogar drin. Nur verblasste das angesichts des R300.
AA und AF kann man IMO relativ isoliert von der Rohleistung betrachten. Und da der nV30 genau wie nV20/5/8 nur ein Quad besaß, musste sehr viel über die Taktraten gemacht werden.

In Sachen PS1.1 waren pro Takt gerade mal ~15-20% mehr pro Takt drin.