PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42

dildo4u
2005-09-26, 21:39:17
Denkt ihr wirklich alle das ATI eine verspätete High-End Karte bringen wird, die dem Monate alten Konkurrenten im prestigereichesten Benchmark unterelegen sein wird? Sowas kann sich niemand erlauben, und ganz bestimmt nicht ATI. Die Masse schaut nun mal auf diesen Benchmark und wer da unterliegt, hat die Masse bestimmt nicht auf seiner Seite. Aus reinem Überlebensinteresse kann ATI dort eigentlich nur schneller sein.
Intel hat sich von 90nm auch Takraten über 4GHZ und eine geringe Verlustleitung versprochen was passiert ist haben wir alle gesehen und ATI kann nicht ewig warten ihre neue Generation rauszubringen wenn nvidia schon vor 3monaten Vorgelegt hat.

Demirug
2005-09-26, 21:40:53
Denkt ihr wirklich alle das ATI eine verspätete High-End Karte bringen wird, die dem Monate alten Konkurrenten im prestigereichesten Benchmark unterelegen sein wird? Sowas kann sich niemand erlauben, und ganz bestimmt nicht ATI. Die Masse schaut nun mal auf diesen Benchmark und wer da unterliegt, hat die Masse bestimmt nicht auf seiner Seite. Aus reinem Überlebensinteresse kann ATI dort eigentlich nur schneller sein.

Wollen != Können.

Mit dem NV30 ist nVidia auf die Nase gefallen. Wobei ATI gegenüber nVidia zumindestens was die API angeht Planugssicherheit hat. Im Gegenzug haben sie zwei Konsolen am Hals und wollten SM3 wohl auch ursprünglich überspringen.

Die gelbe Eule
2005-09-26, 21:42:04
Wenn ihr schon vom Schwanzmark redet, da wird nur noch geschaut was beim SLI oder CF rumkommt. Wer da letztendlich das bessere Paket hat, werden die Treiber zeigen.

reunion
2005-09-26, 21:43:41
']3DMurks != Games...

Beim 3dmark limitiert ab einer gewissen Vertexpower wie bei den meisten Games die Füllrate, so einfach ist das. Deshalb sagt der 3dmark IMHO sehrwohl was über die Realgameperformance aus.

Franzmann-Jan
2005-09-26, 21:44:24
Wenn sich ATI und Nvidia wirklich nur auf SLI und CF oder wie der Dreck auch heißt fokussieren, dann gute nacht.

Coda
2005-09-26, 21:46:22
Beim 3dmark limitiert ab einer gewissen Vertexpower wie bei den meisten Games die Füllrate, so einfach ist das. Deshalb sagt der 3dmark IMHO sehrwohl was über die Realgameperformance aus.Wenn mehr Füllrate da ist können auch wieder mehr Vertexdaten verarbeitet werden.

3d
2005-09-26, 21:49:08
Naja, die Fläche ist aber eigendlich gleich durch den HS ... meinst du das ernst oder bist du besoffen? :biggrin:

ich sag das ding macht etwa 9000 punkte. (+/-5%)

dargo
2005-09-26, 21:53:11
Beim 3dmark limitiert ab einer gewissen Vertexpower wie bei den meisten Games die Füllrate, so einfach ist das. Deshalb sagt der 3dmark IMHO sehrwohl was über die Realgameperformance aus.
Das sehe ich etwas anders. Es gibt immernoch genug Games die cpulimitiert sind, wie zb. GT-Legends oder HL2. Selbst in Farcry gibt es Scenen wo es an CPU Leistung mangelt.

Das beste Beispiel ist die G6800GT und die X800XL. Obwohl die G6800GT im 3DMark03 mehr Punkte hat ist sie in Farcry und HL2 langsamer.

dargo
2005-09-26, 21:59:49
meinst du das ernst oder bist du besoffen? :biggrin:

Noch nicht. :D

Ich wollte damit nur sagen, daß die wärmeabgebende Fläche durch den HS vergrößert wird. Der HS kompensiert etwas die schlechtere Wärmeübertragung, bedingt durch das kleinere Die.

deLuxX`
2005-09-26, 22:15:03
Nö. Die Wärmeabgabefähigleit wird immer im gleichen Maße verändert.
Da wird nicht "mehr kompensiert" beim kleineren Die.

-deLuxX`

dargo
2005-09-26, 22:22:36
Nö. Die Wärmeabgabefähigleit wird immer im gleichen Maße verändert.
Da wird nicht "mehr kompensiert" beim kleineren Die.

-deLuxX`
Könnten wir wieder beim Thema bleiben. :rolleyes:

PS: ich möchte nicht mehr näher auf den Winchester oder Newcastle eingehen. Manche haben wohl immer noch nicht mitbekommen, daß die Vcore beim Winchester um 0,1V gesenkt wurde.

Enterprise
2005-09-26, 22:44:07
Wollen != Können.

s was die API angeht Planugssicherheit hat. Im Gegenzug haben sie zwei Konsolen am Hals und wollten SM3 wohl auch ursprünglich überspringen.


Was darf ich jetzt unter Planungsicherheit verstehen? Hinweis auf bestimmtes Feature beim R520 (US trau ich mich nicht zuschreiben) oder ist das auf den nV30 bezogen?

Demirug
2005-09-26, 22:47:07
Was darf ich jetzt unter Planungsicherheit verstehen? Hinweis auf bestimmtes Feature beim R520 (US trau ich mich nicht zuschreiben) oder ist das auf den nV30 bezogen?

Das bezieht sich darauf das zu dem Zeitpunkt als ATI mit dem R520 angefangen hat SM3 als finale Spec schon vorlag. Beim NV30 hatte es nVidia bestenfalls mit einer vorläufigen SM2 Spec zu tun.

Xmas
2005-09-26, 22:49:34
Was darf ich jetzt unter Planungsicherheit verstehen? Hinweis auf bestimmtes Feature beim R520 (US trau ich mich nicht zuschreiben) oder ist das auf den nV30 bezogen?
Als mit dem R520-Design begonnen wurde, war DX9 bereits fertig, inklusive SM3.0. NV30 und DX9 gingen dagegen wohl nicht so ganz dieselbe Richtung.

Winter[Raven]
2005-09-26, 22:59:57
Da stellt man sich die Frage, wer hatte die größere Schuld, NV oder M$?

Auch wenn der NV30 ein sichere Fehleinschätzung seitens Nv warm aber ohne hätten wir nicht NV40 und nicht den G70.

3d
2005-09-26, 23:08:42
also das kann ich so nicht stehen lassen
Ich wollte damit nur sagen, daß die wärmeabgebende Fläche durch den HS vergrößert wird. Der HS kompensiert etwas die schlechtere Wärmeübertragung, bedingt durch das kleinere Die. da wird nix kompensiert, sondern eher noch verschlimmert.
DIE - HS - kühler ist schlechter als
DIE - kühler
durch den hs gibt es nur einen zusätzlichen wärmeübergang. was soll daran vorteilhaft sein?
Das bezieht sich darauf das zu dem Zeitpunkt als ATI mit dem R520 angefangen hat SM3 als finale Spec schon vorlag. Beim NV30 hatte es nVidia bestenfalls mit einer vorläufigen SM2 Spec zu tun. aber war der R300 nicht vor dem NV30 da? erst 9700pro, dann 5800 ultra. so hab ichs im kopf.
warum hats dann ATI gut geschafft und NV nicht?

dargo
2005-09-26, 23:13:18
also das kann ich so nicht stehen lassen
da wird nix kompensiert, sondern eher noch verschlimmert.
DIE - HS - kühler ist schlechter als
DIE - kühler
durch den hs gibt es nur einen zusätzlichen wärmeübergang.

So schlecht kann der Übergang aber gar nicht sein. Schon mal den Kühler bei einem Winchester oder Venice angefasst. Mein Zalman ist nur lau warm. Obwohl der sich unter Last meistens nur mit 1350U/Min dreht.

Verdammt, ich wollte nicht mehr drauf eingehen. :rolleyes:

mapel110
2005-09-26, 23:13:26
Ach Leutz, die NV30-ATI-M$-Geschichte haben wir doch schon zur Genüge durch.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=201617&highlight=nv30+microsoft
Zum Beispiel dort. =)
Zurück zum eigentlichen Threadthema.

3d
2005-09-26, 23:23:16
So schlecht kann der Übergang aber gar nicht sein. Schon mal den Kühler bei einem Winchester oder Venice angefasst. Mein Zalman ist nur lau warm. damit hat sich das thema für mich erledigt. :rolleyes:
Ach Leutz, die NV30-ATI-M$-Geschichte haben wir doch schon zur Genüge durch. ist der R300 nun vor dem NV30 rausgekommen oder nicht?
hab keine lust hunderte von seiten durchzustöbern.

Franzmann-Jan
2005-09-26, 23:23:58
Ja, ist er.

3d
2005-09-26, 23:26:58
dann verstehe ich demirug aber nicht.
...als ATI mit dem R520 angefangen hat SM3 als finale Spec schon vorlag. Beim NV30 hatte es nVidia bestenfalls mit einer vorläufigen SM2 Spec zu tun.
wenn R300 früher draußen war, hatten die dann nicht dasselbe problem?

dildo4u
2005-09-26, 23:33:34
dann verstehe ich demirug aber nicht.

wenn R300 früher draußen war, hatten die dann nicht dasselbe problem?
Nein Nvidia wollte mher als die minimum specs für SM2.0 erfüllen und ist dabei in die Falsche Richtung vorgestoßen aber das Thema hatten wir echt schon x-mal.

Ronny145
2005-09-26, 23:39:16
So schlecht kann der Übergang aber gar nicht sein. Schon mal den Kühler bei einem Winchester oder Venice angefasst. Mein Zalman ist nur lau warm. Obwohl der sich unter Last meistens nur mit 1350U/Min dreht.

Verdammt, ich wollte nicht mehr drauf eingehen. :rolleyes:

3d hat aber Recht. Nicht umsonst montieren viele Übertakter den HS ab. Aber das ist hier OT.

[dzp]Viper
2005-09-26, 23:53:18
So schlecht kann der Übergang aber gar nicht sein. Schon mal den Kühler bei einem Winchester oder Venice angefasst. Mein Zalman ist nur lau warm. Obwohl der sich unter Last meistens nur mit 1350U/Min dreht.

Verdammt, ich wollte nicht mehr drauf eingehen. :rolleyes:

das entfernen des HS beim Venice oder sonst einer CPU/GPU bringt 5-8°C

Ohne Scherz... HS is nur zum Schutz des Die da - aber nicht zur besseren Wärmeübertragung...

Die gelbe Eule
2005-09-26, 23:55:05
Der neue beta Cat bringt nun Support für alle RV Modelle ...

dargo
2005-09-27, 00:08:25
Viper']das entfernen des HS beim Venice oder sonst einer CPU/GPU bringt 5-8°C

Ohne Scherz... HS is nur zum Schutz des Die da - aber nicht zur besseren Wärmeübertragung...
Das will ich auch gar nicht in Frage stellen.

Auch wenn ich mich hier lächerlich mache. Die Tempverbesserung kommt natürlich durch den besseren Kontakt direkt mit dem Die.
Man muss aber auch bedenken, daß heutzutage ausschließlich Kupferkühler oder Aluminiumkühler mit Kupferplatte verwendet werden. Und wir wissen alle, daß Kupfer besser (schneller) die Wärme ableiten kann als Aluminium.

Mich würde mal interessieren was wohl kühler wäre :
90nm CPU mit HS und reiner Alukühler ?
oder
90nm CPU ohne HS und reiner Alukühler ?

Ich erinnere mich noch an die Zeiten beim Athlon XP.
Der Palomino Kern war auch um einiges größer (durch 180nm Fertigungsprozess) wie der Barton oder T-Bred Kern.
Erst beim Barton und T-Bred wurde aber zu einem Alukühler mit Kupferplatte geraten damit sich die Wärme besser (schneller) ableiten lässt.

dargo
2005-09-27, 00:12:15
Der neue beta Cat bringt nun Support für alle RV Modelle ...
Der lässt sich seltsamerweise bei meiner X800XL gar nicht installieren. :confused:

3d
2005-09-27, 00:13:43
@ dargo
lass jetzt bitte gut sein, das thema ist erledigt, es wurde alles gesagt.
(variante 2 wär natürlich kühler)
nu ist schluß.
zzt

bekommt 3dcenter eigentlich eine testkarte?

(ich lad übrigens grad die cod 2 demo, ist um 0uhr rausgekommen) :smile:

tokugawa
2005-09-27, 01:30:34
diskutiert bitte nciht über die Leistungsaufnahme ,
ob nun 60 oder 90 wATT ; wichtig ist die Leistung und die Lautstärke ( ok = abhängig von den WATT die verbraucht werden )


Für mich sind auch die Watt wichtig, weil ich meine eigene Stromrechnung bezahl.

Gut, 30 Watt Unterschied machen zur Zeit eh nocht nicht so viel aus, zumal das es nur der Maximalverbrauch ist.

Trotzdem :) ich find auch den Verbrauch nicht so unwichtig, da Strom immer teurer wird.

deekey777
2005-09-27, 01:35:00
bekommt 3dcenter eigentlich eine testkarte?



So etwas steht eigentlich unter NDA. Ob Leo unter NDA steht? Es soll ein NDA zum NDA geben.
Hoffentlich ist er genau so redselig wie zum Launch der 7800GT. :biggrin:

Ailuros
2005-09-27, 02:25:01
****edit

Ailuros
2005-09-27, 02:28:21
Naja, cool bleiben.
Mir fehlen immer noch sehr wichtige Informationen.

Wurde die G7800GT mit dem flimmerfreien Treiber in HQ gebencht ?
Flimmert die X1800XL ?
Bricht die X1800XL stärker oder schwächer ab bei AA/AF, in Games ?
Wie ausgereift sind die Treiber für den R520 ?

Fragen über Fragen die noch beantwortet werden müssen. ;)


a) In einem synthetischen Benchmark der in 1024 ohne AA/AF laeuft? War wohl eher ein Witz von Dir. Es sind 20 gegen 16 Shader-ALUs falls Ihr Euch immer noch wundert.

b) Wenn sie nach fast einem Jahr nachdem sie an dem Ding im Labor herumgefuchtelt haben, immer noch keine "reife" Treiber haben sind sie schon im *ahem*.

Ailuros
2005-09-27, 02:41:06
Realistisch, die Karte ordnet sich genau dort ein, wo sie Füllratenmäßig mit ihren 550Mhz Chiptakt sein müsste: Zwischen 7800GT und GTX. Die XT wird vermutlich knapp unter der GTX liegen. Hoffentlich hört jetzt endlich dieser Vertexmist auf.

Man muss eben den "Vertex-Mist" mit dem "Pixel-Mist" zusammenrechnen; deshalb sagte ich auch dass die angeblichen 8600 fuer eine R520 ziemlich realistich klingen.

Ailuros
2005-09-27, 02:43:33
Denkt ihr wirklich alle das ATI eine verspätete High-End Karte bringen wird, die dem Monate alten Konkurrenten im prestigereichesten Benchmark unterelegen sein wird? Sowas kann sich niemand erlauben, und ganz bestimmt nicht ATI. Die Masse schaut nun mal auf diesen Benchmark und wer da unterliegt, hat die Masse bestimmt nicht auf seiner Seite. Aus reinem Überlebensinteresse kann ATI dort eigentlich nur schneller sein.

"Off the record" Aussagen haben nie das Gegenteil behauptet und dass schon seit Maerz 2005.

-error-
2005-09-27, 02:45:36
Könnten wir wieder beim Thema bleiben. :rolleyes:

PS: ich möchte nicht mehr näher auf den Winchester oder Newcastle eingehen. Manche haben wohl immer noch nicht mitbekommen, daß die Vcore beim Winchester um 0,1V gesenkt wurde.

Öhm ich habe extra nen Winchester deswegen gekauft, weiß das also sehr wohl ;)

Nur, die Theorie ist nicht ganz verkehrt. Man hat mehr Wärme auf weniger Fläche, als das beim New Castle der Fall ist, obwohl er natürlich mehr Wärme fabriziert, so einfach ist das.

Ailuros
2005-09-27, 02:46:17
Uebrigens falls die neuesten Geruechte ueber RV530 stimmen sollten, dann nochmal gute Nacht X1800XT *aechz*

RV530 und R520 hatten das soft-ground Problem und beide gehen bis zu 600MHz.... :rolleyes:

-error-
2005-09-27, 02:49:58
Es ist doch wohl aber ein schlechter Scherz, dass der RV530 erst gegen Ende des Jahres kommen soll?

Es ist ja noch nichtmal die X800 GTO erhältlich, das kann ATI nicht machen.

Ailuros
2005-09-27, 02:59:31
Es ist doch wohl aber ein schlechter Scherz, dass der RV530 erst gegen Ende des Jahres kommen soll?

Es ist ja noch nichtmal die X800 GTO erhältlich, das kann ATI nicht machen.

Zwischen "wollen" und "koennen" gibt es einen grossen Unterschied. Sie machen es auch sicher nicht mit Absicht, aber als ich vor mehr als einem Halbjahr ihre Design-Entscheidungen bezweifelte, war ich mal wieder der Depp der Geschichte.

Zu hohe Taktraten fuehren zu schlechten yields und eins der miesesten Beispiele war die X700XT@110nm. NVIDIA hat ihre NV43 auf 500MHz mit 1.3V gebracht, waehrend die X700XT mit nur 475MHz mit 1.4V ankam was ausserhalb der Spezifikationen lag.

Ich dachte nach dem R300 Orton sei ein absolutes Genie, aber nach der Eintagsfliege hab ich so manche Zweifel nach so vielen wiederholten Fehlschlaegen durch die letzten ~18 Monate.

-error-
2005-09-27, 03:10:41
Ich dachte nach dem R300 Orton sei ein absolutes Genie, aber nach der Eintagsfliege hab ich so manche Zweifel nach so vielen wiederholten Fehlschlaegen durch die letzten ~18 Monate.

Den R300 als Eintagsfliege zu bezeichnen grenzt schon stark an Majestätsbeleidigung.

Man kann in besser mit dem Wort Revolution bezeichnen.

Wenn man mal überlegt wie lange nVidia gebraucht hat um da hinzukommen wo ATI ist, dann untermauert dies doch nur, was für ein Wurf damals ATI gelungen ist.

Und selbst der R420 ,welcher im Grunde ja auf angestauber R300-Technik basiert, kann noch problemlos mit dem NV40 mitgehen, sogar überholen.

Wir alle sollten ATI dankbar sein!

Franzmann-Jan
2005-09-27, 03:25:16
Zu hohe Taktraten fuehren zu schlechten yields und eins der miesesten Beispiele war die X700XT@110nm. NVIDIA hat ihre NV43 auf 500MHz mit 1.3V gebracht, waehrend die X700XT mit nur 475MHz mit 1.4V ankam was ausserhalb der Spezifikationen lag.

Ja, die X700 war schon das mieseste was aus dem Hause ATI, seit der R300 Revulotion, kam. Man sollte aber nicht vergessen, dass die Entwicklung dieser Karte ein absoluter Sparkurs seitens ATI war. Sie ist ja eigentlich nur ein 9500 Pro refresh. Das diese "Unnötige Notlösung" gegen einen NV43 kein Land sieht, hätte ATI sich wohl denken können. Eine peinliche Vorstellung, die ATI wie jeder weiß bitter zu spüren bekommen hat.

up¦²
2005-09-27, 03:30:07
http://www.hkepc.com/bbs/attachment.php?aid=289022&noupdate=yes

http://www.hkepc.com/bbs/attachment.php?aid=289023&noupdate=yes

http://www.hkepc.com/bbs/attachment.php?aid=289024&noupdate=yes

http://www.hkepc.com/bbs/attachment.php?aid=289025&noupdate=yes

Quelle:
http://www.hkepc.com/bbs/viewthread.php?tid=477088

Nix mit AGP ...
... und 32-bit Memory interface? wie bitte? :tongue: ²

StefanV
2005-09-27, 03:33:12
http://www.hkepc.com/bbs/attachment.php?aid=289022&noupdate=yes

http://www.hkepc.com/bbs/attachment.php?aid=289023&noupdate=yes

http://www.hkepc.com/bbs/attachment.php?aid=289024&noupdate=yes

http://www.hkepc.com/bbs/attachment.php?aid=289025&noupdate=yes

Quelle:
http://www.hkepc.com/bbs/viewthread.php?tid=477088

Nix mit AGP ...
Bilder gehen nicht...

mapel110
2005-09-27, 03:33:43
Quelle:
http://www.hkepc.com/bbs/viewthread.php?tid=477088

Nix mit AGP ...
Hatte schon geschrieben, dass da PCI-E Roadmap drüber steht. Wäre unlogisch, wenn dort AGP-Karten erscheinen würden. ;)
Vielleicht gibts ja noch eine AGP Roadmap.
/edit
nochmal die Bilder
Nr 1
http://img128.imageshack.us/img128/4875/roadmap17iq.jpg
Nr.2
http://img128.imageshack.us/img128/6183/roadmap29wu.jpg
Nr.3
http://img128.imageshack.us/img128/9836/roadmap35nz.jpg
Nr.4
http://img128.imageshack.us/img128/4576/roadmap44wk.jpg

up¦²
2005-09-27, 03:34:25
Mist, ich kann sie nicht mehr backen...
Bitte jemand anders :|

Ailuros
2005-09-27, 03:37:04
Den R300 als Eintagsfliege zu bezeichnen grenzt schon stark an Majestätsbeleidigung.

Man kann in besser mit dem Wort Revolution bezeichnen.

Gut dann eine Eintagsfliege-Revolution; was genau aendert sich daran? Und ich werde es auch nochmal weiter unten erklaeren.

Wenn man mal überlegt wie lange nVidia gebraucht hat um da hinzukommen wo ATI ist, dann untermauert dies doch nur, was für ein Wurf damals ATI gelungen ist.

ATI war von Anfang was 3D betrifft dabei; erst mit der ersten Radeon (R100) gab es Anzeichen dass sie den 3D Grafik Markt endlich mal ernst nehmen wollen. Um den R300 zu erreichen, brauchten sie aber erstmal R100 und dann spaeter R200, welche beide nicht gerade die Ueberschreier waren im Vergleich zu R300.

Und selbst der R420 ,welcher im Grunde ja auf angestauber R300-Technik basiert, kann noch problemlos mit dem NV40 mitgehen, sogar überholen.

Dass sie aber zum ueberholen eine verdammt seltene X800XT PE am Anfang brauchten ist Dir wohl entgangen oder? Dass man die X700XT stornierte wohl genauso und dass es endlich wieder bergauf ging als man 110nm benutzte.

Das Problem auf das ich mich beziehe liegt woanders:

NV30 = 1 quad / 500MHz
R300 = 2 quads / 325MHz

Merkst Du einen Unterschied? Es ging weiter mit:

NV40 = 4 quads / 400MHz
R420 = 4 quads / 520MHz

und heute:

G70 = 6 quads / 430MHz
R520 = 4 quads / 600MHz

NV hat von ihren eigenen Fehlern gelernt und ATI begeht etwa die gleichen NV30 Fehler nach dem R3xx und pumpt nur konstant die Taktrate hoch um konkurrenzfaehiger zu sein. Frueher oder spaeter haette es in eine Sackgasse gefuehrt und die Kroenung war dann natuerlich die Entscheidung auf low-k 90nm zu setzen. Was an fuer sich kein besonders grosses Problem gewesen waere, haette man nur nicht auf 650MHz gezielt. ATI's Ziel was die Taktrate betrifft wurde mit der XT nicht erreicht, da die 600MHz viel zu nahe am sign-off speed liegen.

Franzmann-Jan
2005-09-27, 03:38:31
Bei mir funktionieren sie.... sehr interessant. Aber immernoch sehr wenig details.

Ailuros
2005-09-27, 03:41:16
Ja, die X700 war schon das mieseste was aus dem Hause ATI, seit der R300 Revulotion, kam. Man sollte aber nicht vergessen, dass die Entwicklung dieser Karte ein absoluter Sparkurs seitens ATI war. Sie ist ja eigentlich nur ein 9500 Pro refresh. Das diese "Unnötige Notlösung" gegen einen NV43 kein Land sieht, hätte ATI sich wohl denken können. Eine peinliche Vorstellung, die ATI wie jeder weiß bitter zu spüren bekommen hat.

Da die RV530 aber auch auf 600MHz zielt, wiederholt Probleme gemeldet wurden und da es verdammt viel Platz unterhalb den 5 quads der 7800GT gibt, sieht es auch nicht besonders toll aus. Gleiches Problem wie im vorigen Post.

up¦²
2005-09-27, 03:42:47
Ist ja der Hammer, daß scheinbar ein 32-bit Memory Interface her muß um den RS515 klein zu kriegen ;D

Wäre ja auch ein Witz wenn die billigste Karte die x600, x700 wegfegen würde :biggrin:

Ailuros
2005-09-27, 03:45:49
Ist ja der Hammer, daß scheinbar ein 32-bit Memory Interface her muß um den RS515 klein zu kriegen ;D

Wäre ja auch ein Witz wenn die billigste Karte die x600, x700 wegfegen würde :biggrin:

Mehr oder weniger schon; aber der Trend wird fuer die low-end Karten bei der Konkurrenz auch nicht anders sein.

Die G70/R520 Generation wird eine absolute Augenweide sein fuer die mainstream und budget User und ueberhaupt diesen die von einer 9200 und/oder 5200 aufruesten werden. Dort wird der Unterschied wie Tag und Nacht sein; es sollte wohl klar sein dass sich eine Aufruestung fuer =/>X800/NV40 Inhaber nicht unbedingt lohnt.

Franzmann-Jan
2005-09-27, 03:48:31
Ist ja der Hammer, daß scheinbar ein 32-bit Memory Interface her muß um den RS515 klein zu kriegen ;D

Wäre ja auch ein Witz wenn die billigste Karte die x600, x700 wegfegen würde :biggrin:

Ähm... schon überlegt das die 32-bit Memory Interface Variante die HyperMemory-Version sein könnte? Da sind so Interface-Werte normal

Coda
2005-09-27, 08:26:45
... und 32-bit Memory interface? wie bitte? :tongue: ²"Hypermemory"

Wenn man mal überlegt wie lange nVidia gebraucht hat um da hinzukommen wo ATI ist, dann untermauert dies doch nur, was für ein Wurf damals ATI gelungen ist.Eine Generation? Schneller ging's nicht.

Tomcat70
2005-09-27, 08:45:39
Ich dachte nach dem R300 Orton sei ein absolutes Genie, aber nach der Eintagsfliege hab ich so manche Zweifel nach so vielen wiederholten Fehlschlaegen durch die letzten ~18 Monate.

also den Xenos würd ich durchaus auch als kleines meisterwerk betrachten.
eine eintagsfliege war der r300 sicherlich nicht......denn ATI ist nunmal nicht mehr das ATI vor ArtX.....

Coda
2005-09-27, 09:18:49
also den Xenos würd ich durchaus auch als kleines meisterwerk betrachten.Darüber lässt sich eigentlich keine Aussage machen, weil man die Performance nicht messen kann, vor allem im Gegensatz zu klassischen Architekturen.

eine eintagsfliege war der r300 sicherlich nicht......denn ATI ist nunmal nicht mehr das ATI vor ArtX.....Es sieht aber so aus als würde nVIDIA erstmal wieder die Überhand gewinnen. ATi hat sich etwas lange auf R300 ausgeruht anscheinend.

wuzetti
2005-09-27, 09:35:18
also den Xenos würd ich durchaus auch als kleines meisterwerk betrachten.
und woran misst du dies bzw. woher nimmst du deine erkenntnis? für mich ist Xenos derzeit eine interessante architektur. womit man das ding aber vergleicht bzw. wie man seine performance beurteilt, ist wohl noch offen.

eine eintagsfliege war der r300 sicherlich nicht......denn ATI ist nunmal nicht mehr das ATI vor ArtX.....
bei dir mach ich mir immer bissl sorgen, dass du es persönlich nimmst, wenn man was gg. ATI sagt. nicht bös sein, aber derzeit schaut es eher danach aus, dass R300 eine eintagsfliege war und man sich zu sehr darauf ausgeruht hat. ist wohl auch ein ergebnis dessen, dass man sich zu viel auf einmal aufgeladen hat, z.b. 2 consolendesigns mehr oder weniger gleichzeitig.

Quasar
2005-09-27, 09:58:50
60W ist absolut unrealistisch. Wenn es so wäre würde man einfach höher takten bis man wieder bei >90W ist...

Außerdem bräuchte man für 60W sicherlich keine Dual-Slot-Kühlung bei der XT.
Du kannst nicht einfach höher takten. Irgendwann ist beim "kritischen Pfad" einfach Schluss. Du weißt doch, daß es nicht funktioniert, einen 100-MHz-Riva128 mit <5W einfach so mit 1800 MHz zu betreiben, womit man auch bei ~90W angekommen wäre. :)

Coda
2005-09-27, 10:00:27
Du kannst nicht einfach höher takten. Irgendwann ist beim "kritischen Pfad" einfach Schluss. Du weißt doch, daß es nicht funktioniert, einen 100-MHz-Riva128 mit <5W einfach so mit 1800 MHz zu betreiben, womit man auch bei ~90W angekommen wäre. :)In gewissem Maße mit mehr Spannung ist das schon möglich.

Quasar
2005-09-27, 10:13:41
Dann kannst du mir vielleicht erklären wieso die X850XT einen Dual-Slot-Kühler hat ?
Die liegt nämlich bei ~63W.
Die X800 XT-PE lag laut XBit-Labs bei ~63W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html). Und wurde leise durch einen Single-Slot-Kühler gekühlt.

Die X850 XT (und besonders deren PE-Variante) könnte da evtl. etwas drüberliegen. Umsonst würde ATi den Doppel-Slot-Kühler ja sicherlich nicht verbauen.

BlackArchon
2005-09-27, 10:23:32
Warum eigentlich? Die X800 XT-PE und die X850 XT haben doch beinahe den identischen Takt. Und technisch unterscheiden die sich doch auch nicht?

Coda
2005-09-27, 10:26:23
Mehr Spannung um den höheren Takt zu schaffen vermutlich.

Winter[Raven]
2005-09-27, 10:35:26
Was im Dual-Slot Kühler endet...

Hakkerstiwwel
2005-09-27, 11:12:49
Dual Slot muss nicht unbedingt laut und heiss bedeuten :nono: , sondern auch leise und kuehl. Siehe zbsp HiS IceQ.

Coda
2005-09-27, 11:15:19
Natürlich muss er nicht laut sein, aber Dualslot-Kühlung deutet nunmal auf eine relativ hohe Verlustleistung hin.

Winter[Raven]
2005-09-27, 11:22:51
Schon interessant wie der Dual-Slot Kühler von ATI Persil-Weiß gewaschen wurde...

Hakkerstiwwel
2005-09-27, 11:25:41
Natürlich muss er nicht laut sein, aber Dualslot-Kühlung deutet nunmal auf eine relativ hohe Verlustleistung hin.
Es deutet imo nur darauf hin dass Ati sich mit dem Referenz-Kuehler Gedanken machte (machen musste). Sei es um die Verlustleistung ueberhaupt baendigen zu koennen, oder um sich in diesem Punkt durch Geraeuscharmut von der Konkurenz absetzen zu koennen. Only time will tell. (Licht am Ende des Tunnels kann man auch als entgegenkommenden Zug deuten :ucrazy3: )

Hakkerstiwwel
2005-09-27, 11:30:53
']Schon interessant wie der Dual-Slot Kühler von ATI Persil-Weiß gewaschen wurde...
Schon interessant wie der alte nV Dual-Slot Kuehler in Persil-Weiß gewaschen wurde und seinerzeit weder Lautstaerke noch Leistungsaufnahme eine Rolle spielten. :comfort:
Im Ernst: Dual-Slot ist ein Indiz auf erhoehte Leistungsaufnahme, allerdings noch lange kein Beweis. Wie man mit Dual-Slot richtig Geld machen kann beweist uA HiS

BlackBirdSR
2005-09-27, 11:37:33
Zwischen "wollen" und "koennen" gibt es einen grossen Unterschied. Sie machen es auch sicher nicht mit Absicht, aber als ich vor mehr als einem Halbjahr ihre Design-Entscheidungen bezweifelte, war ich mal wieder der Depp der Geschichte.


Sollte doch einer Menge Leute einleuchten, dass so ein hoher Transistorcount, bei solchen Architekturen bei hohen Taktraten Probleme bekommt.
Wenn mann dann noch unbedingt auf einen neuen Prozess umsteigen will, muss man entweder viel Glück haben, oder gut vorbereitet sein.
Beim NV30 war es doch fast ebenso.

Sollte doch was drann sein, dass man Fehler immer selbst erst machen muss, und nicht von anderen Lernen kann?

dargo
2005-09-27, 11:44:28
Die X800 XT-PE lag laut XBit-Labs bei ~63W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html). Und wurde leise durch einen Single-Slot-Kühler gekühlt.

Die X850 XT (und besonders deren PE-Variante) könnte da evtl. etwas drüberliegen. Umsonst würde ATi den Doppel-Slot-Kühler ja sicherlich nicht verbauen.
Ähm :

X800XT-PE - GPUtakt 520Mhz (oder warens 525Mhz ?)
X850XT - GPUtakt 520Mhz

Und soweit ich weiß hat sich an der GPU-Spannung nichts geändert.
Selbst eine X800XT-PE mit 550Mhz GPU kommt nicht über 66W :

http://www.xbitlabs.com/images/video/ati-powercons/x800xt_power.gif

Deswegen auch das ~ . :wink:
Eine X850XT-PE hat ja 540Mhz GPUtakt. :cool:

Für mich gibts nur eine Erklärung für den Dual-Slot-Kühler. ATI wollte es leiser und/oder kühler haben.

Coda
2005-09-27, 11:52:58
Eine X800 XT PE hat nur Singleslot. Und ich bin mir recht sicher, dass die X850 eine höhere Corespannung hat.

dargo
2005-09-27, 12:26:48
Eine X800 XT PE hat nur Singleslot.

Richtig. Dafür aber einen ziemlich lauten.


Und ich bin mir recht sicher, dass die X850 eine höhere Corespannung hat.
Das glaube ich erst wenn du es mir belegen kannst. :devil:

Mumins
2005-09-27, 12:26:58
Eine X800 XT PE hat nur Singleslot. Und ich bin mir recht sicher, dass die X850 eine höhere Corespannung hat.

Nein, die haben beide ca. 1,4V anliegen.

HOT
2005-09-27, 13:00:10
Eine X800 XT PE hat nur Singleslot. Und ich bin mir recht sicher, dass die X850 eine höhere Corespannung hat.

Der R480 hat die gleiche Corespannung. Der verwendete Kühler hat verdammt hohe Reserven, das ist schon faszinierend. Selbst unter Last arbeitet der Lüfter kaum im hörbaren Bereich und der Lüfter von dem Kühler kann laut werden, da fallen dir die Ohren ab ;) (hört man kurzzeitig beim Einschalten des Rechners). Der R480 wird eher weniger als mehr als der R420 verbrauchen, aber die Kühllösung ist um Welten besser.

Quasar
2005-09-27, 13:00:47
Ähm :

X800XT-PE - GPUtakt 520Mhz (oder warens 525Mhz ?)
X850XT - GPUtakt 520Mhz
[…]
Für mich gibts nur eine Erklärung für den Dual-Slot-Kühler. ATI wollte es leiser und/oder kühler haben.
Leiser denke ich kaum. Denn die XT-PE war schon vergleichsweise ruhig. IIRC ist die X850 XT-PE nicht leiser.

Und ob die paar Grad weniger die Problematik eines Doppelslot-Kühlers aufwiegen?

Mumins
2005-09-27, 13:01:55
Der R480 hat die gleiche Corespannung. Der verwendete Kühler hat verdammt hohe Reserven, das ist schon faszinierend. Selbst unter Last arbeitet der Lüfter kaum im hörbaren Bereich und der Lüfter von dem Kühler kann laut werden, da fallen dir die Ohren ab ;) (hört man kurzzeitig beim Einschalten des Rechners). Der R480 wird eher weniger als mehr als der R420 verbrauchen, aber die Kühllösung ist um Welten besser.

Der Lüfter der X800XT PE war auch etwas zu klein, da hat man bei der X850XT PE eben nachgebessert.

[dzp]Viper
2005-09-27, 13:03:23
Für mich gibts nur eine Erklärung für den Dual-Slot-Kühler. ATI wollte es leiser und/oder kühler haben.

eher:

ATI wollte den Geräuchpegel und die Temperaturen auf dem selben Niveau halten -> Ergo: 2-SlotKühlung

-error-
2005-09-27, 13:36:26
']Schon interessant wie der Dual-Slot Kühler von ATI Persil-Weiß gewaschen wurde...

Flame wo anders ;) Sollen wir wieder die Turbine ins Spiel bringen, hmm? ;D

Ailuros
2005-09-27, 13:41:16
Sollte doch einer Menge Leute einleuchten, dass so ein hoher Transistorcount, bei solchen Architekturen bei hohen Taktraten Probleme bekommt.
Wenn mann dann noch unbedingt auf einen neuen Prozess umsteigen will, muss man entweder viel Glück haben, oder gut vorbereitet sein.
Beim NV30 war es doch fast ebenso.

Sollte doch was drann sein, dass man Fehler immer selbst erst machen muss, und nicht von anderen Lernen kann?


Orton sagte selber dass sie von den Resultaten von Xenos so zufrieden waren auf low-k 90nm dass sie es auch fuer R520 selber gewagt haben. Falls das nicht eine oede PR Ausrede ist und tatsaechlich der Wahrheit entspricht, ueberlasse ich die "tolle" Logik dahinter den Lesern hier, da Xenos nie fuer mehr als 500MHz geplant war....

BlackBirdSR
2005-09-27, 14:13:09
Orton sagte selber dass sie von den Resultaten von Xenos so zufrieden waren auf low-k 90nm dass sie es auch fuer R520 selber gewagt haben. Falls das nicht eine oede PR Ausrede ist und tatsaechlich der Wahrheit entspricht, ueberlasse ich die "tolle" Logik dahinter den Lesern hier, da Xenos nie fuer mehr als 500MHz geplant war....

klingt für mich nach:
Xenos bei 500MHz läuft ganz gut, dann macht sich das auch für unseren R520 bei ~500MHz bezahlt.
Setzt aber vorraus, dass ATI nicht von anfang an auf so hohe Taktraten wollte, setzt vorraus, dass ATI nicht damit gerechnet hat, gegen G70 antreten zu müssen, setzt vorraus, dass ich hier nicht völlig ins Dunkel tappe ;)

TheCounter
2005-09-27, 14:17:32
Der R480 hat die gleiche Corespannung. Der verwendete Kühler hat verdammt hohe Reserven, das ist schon faszinierend. Selbst unter Last arbeitet der Lüfter kaum im hörbaren Bereich

Damit meinst du hoffentlich nicht den Lüfter einer X850XT. Denn dieser ist mit das lauteste was ich bisher gehört habe. Selbst durch eine geschlossene Zimmertür (inkl. geschlossenem Gehäuse) ist er noch zu hören, und das im normalen 2D-Betrieb!

Ich hatte für 4 Monate eine Sapphire X850XT, daher weis ich das so genau. Hab dann auf ne WaKü gewechselt. Neben der etwa 50% niedrigeren Temperatur (45°C statt 90°C unter Last) war der auch noch viel leiser, 0dB ;)

Ich hoff mal das die Lüfter des R520 wieder deutlich leiser werden.

Ailuros
2005-09-27, 14:27:43
klingt für mich nach:
Xenos bei 500MHz läuft ganz gut, dann macht sich das auch für unseren R520 bei ~500MHz bezahlt.
Setzt aber vorraus, dass ATI nicht von anfang an auf so hohe Taktraten wollte, setzt vorraus, dass ATI nicht damit gerechnet hat, gegen G70 antreten zu müssen, setzt vorraus, dass ich hier nicht völlig ins Dunkel tappe ;)

Das originale Ziel fuer R520 war stets =/>650MHz.

Enterprise
2005-09-27, 14:34:14
Ailuros was soll ich mir hoelen? Den R520XT oder die 7800GTX Für meinen neuen Game-PC? Hat sich das Warten gelohnt?

Adam D.
2005-09-27, 14:35:19
Ailuros was soll ich mir hoelen? Den R520XT oder die 7800GTX ? Für meinen neuen Game-PC?
Auf eine Antwort würde ich an deiner Stelle net hoffen ;) Ist wahrscheinlich eh egal, die nehmen sich ja anscheinend nicht viel. Bleibt die Frage, wie dringend du die neue Karte brauchst ;)

Enterprise
2005-09-27, 14:37:15
Noch genug Zeit!

Hakim
2005-09-27, 14:42:09
wann gibts denn endlich erste richtige benchs von der karte? Und wird es so sein das nach ablauf des Countdowns die karten wie bei der G70 zu kaufen sind oder werden Sie nur vorgestellt?

Sunrise
2005-09-27, 15:29:57
Ein Dual-Slot-Kühler wird oft deshalb verwendet, weil man damit deutlich mehr Spielraum hinsichtlich Spannungsanpassungen nach oben hat (höhere Ausbeute einer Menge X an Chips für restriktivere Anforderungen der High-End-Modelle), Rückschlüsse auf die endgültige Verlustleistung würde ich hier primär nicht ziehen. Dies scheint zwar logisch, sagt aber wenig bis nichts über die Stromaufnahme aus. Auch wenn die Spannung bei R480 die gleiche wie bei R420 ist, hat man hier Spielraum geschaffen, um möglichst viele Chips verwenden zu können.

Sunrise
2005-09-27, 15:30:18
klingt für mich nach:
Xenos bei 500MHz läuft ganz gut, dann macht sich das auch für unseren R520 bei ~500MHz bezahlt.
Setzt aber vorraus, dass ATI nicht von anfang an auf so hohe Taktraten wollte, setzt vorraus, dass ATI nicht damit gerechnet hat, gegen G70 antreten zu müssen, setzt vorraus, dass ich hier nicht völlig ins Dunkel tappe ;)

Voraus bitte mit nur einem "r".

Den R520 würde ich nicht mit Xenos vergleichen. Anhand der Aussagen von Orton, war die Erfahrung mit TSMC und NexSys so gut, dass man hier zwei Fliegen mit einer Klappe schlagen wollte. Eine leicht veränderte Architektur bei möglichst guter Marge und konkurrenzfähiger Leistung und natürlich dem Featureset.

Du weißt ja sicher, dass das Design hauptsächlich darüber entscheidet, welche Taktraten bei entsprechender Effizienz man erzielen kann, auch wenn der Fertigungsprozess (die Reife) selbst natürlich auch eine Rolle spielt. ATi hatte R520 nie für 500MHz geplant, da beide auch nicht wirklich vergleichbar sind. Bei R520 braucht ATi den Takt selbst um konkurrenzfähig zu sein (4 Quads), Xenos nutzt den Takt dagegen eher mit Bedacht auf möglichst geringen Stromverbrauch und Leistung im Hintergrund.

Bei R520 zielte ATi auf einen möglichst kleinen Die bei aber deutlich erhöhter Komplexität i.V. zu R480. Um den Die trotzdem möglichst klein zu halten, ging man also wieder den Weg von 4 Quads, musste dabei das Design aber von Anfang an auch entsprechend "aggressiver" auslegen. Eine Sache die ATi schon bei R420 nicht wirklich bekommen ist (hinsichtlich der Ausbeute und dem nötigen R480) aber aus Gründen der Wirtchaftlichkeit ist man diesen schwierigen Weg wieder gegangen. Sollte sich nämlich herausstellen, dass man andere, gravierendere Probleme im Design selbst entdeckt, sitzt man mit prinzipiell funktionstüchtigen aber nicht konkurrenzfähigen Chips da. Die Verspätung des R520 ist ein deutlicher Beweis.

reunion
2005-09-27, 18:08:32
Noch genug Zeit!


Auf die X800XT wirst du noch lange warten müssen.
Ob sich das angesichts der zu erwartenden Leistung, sowie sonstigen "Eckdaten" lohnt, wage ich zu bezweifeln.

reunion
2005-09-27, 18:13:31
wann gibts denn endlich erste richtige benchs von der karte? Und wird es so sein das nach ablauf des Countdowns die karten wie bei der G70 zu kaufen sind oder werden Sie nur vorgestellt?

Die kleineren X1800-Modelle, sowie sämtliche X1300-Karten wird man kurz nach der Vorstellung kaufen können. Auf die X1800XT und sämtliche X1600-Modelle wird man vermutlich noch bis Dezember warten müssen.

dr_mordio
2005-09-27, 18:32:19
Auf die X800XT wirst du noch lange warten müssen.
Ob sich das angesichts der zu erwartenden Leistung, sowie sonstigen "Eckdaten" lohnt, wage ich zu bezweifeln.

du meintest doch sicher die XI800XT und nicht die 800'ter, oder? :wink:

aber ich denke schon, das wenn man gleich am relase tag, bei einem shop ordert, dann wird man schon recht früh eine XT bekommen.
normalerweise, sollten die shops am 5.okt die karten zumindest listen. wer dann gleich bestellt ist halt ganz oben auf der liste.
ich will auch gerne eine XT, aber ich werde nicht gleich am ersten tag bestellen... denn das wär ja wie die katze im sack zu kaufen. ich lass erst ein paar wochen ins land gehen, um zu sehen wie sich die karte schlägt.
denn am anfang werden die üblichen 3dmark und game-benches kommen, aber das sagt noch nichts über die qualität des ganzen aus.
z.b. das G70 flimmern, wurde auch nicht gleich bei den ersten benches erwähnt. von daher, rate ich erstmal die füße still zu halten, falls man eine XT möchte.

MfG
Alex

Die gelbe Eule
2005-09-27, 18:34:25
Die kleineren X1800-Modelle, sowie sämtliche X1300-Karten wird man kurz nach der Vorstellung kaufen können. Auf die X1800XT und sämtliche X1600-Modelle wird man vermutlich noch bis Dezember warten müssen.

Das wird dem CF Launch sehr wehtuen, da man nur im unteren Drittel anbieten kann ...

robbitop
2005-09-27, 18:40:53
Den R300 als Eintagsfliege zu bezeichnen grenzt schon stark an Majestätsbeleidigung.

Man kann in besser mit dem Wort Revolution bezeichnen.

Wenn man mal überlegt wie lange nVidia gebraucht hat um da hinzukommen wo ATI ist, dann untermauert dies doch nur, was für ein Wurf damals ATI gelungen ist.

Und selbst der R420 ,welcher im Grunde ja auf angestauber R300-Technik basiert, kann noch problemlos mit dem NV40 mitgehen, sogar überholen.

Wir alle sollten ATI dankbar sein!
Och wenn man einen NV25 mit 160Mio Transistoren und ein paar Upgrades zusammengebastelt hätte, kämen da in etwas 8 Quads bei raus. Zwar nur mit SM1.1 aber weggehämmert hätte der R420 auch. Features kosten eben.

Eintagsfliege nicht im Sinne von R300 war "schlecht". Eher im Sinne: R300 war bisher "einmalig genial". Vorher und nachher hat ATI bisher noch nichts ähnlich revolutionäres gezeigt. Entweder technisch oder performancetechnisch nicht.

-error-
2005-09-27, 18:54:29
Och wenn man einen NV25 mit 160Mio Transistoren und ein paar Upgrades zusammengebastelt hätte, kämen da in etwas 8 Quads bei raus. Zwar nur mit SM1.1 aber weggehämmert hätte der R420 auch. Features kosten eben.

Eintagsfliege nicht im Sinne von R300 war "schlecht". Eher im Sinne: R300 war bisher "einmalig genial". Vorher und nachher hat ATI bisher noch nichts ähnlich revolutionäres gezeigt. Entweder technisch oder performancetechnisch nicht.

Aber wenn man mal überlegt das nVidia 3 Anläufe gebraucht hat, ist es schon zu respektieren, was ATI da geschaffen hat.

reunion
2005-09-27, 18:55:39
Och wenn man einen NV25 mit 160Mio Transistoren und ein paar Upgrades zusammengebastelt hätte, kämen da in etwas 8 Quads bei raus. Zwar nur mit SM1.1 aber weggehämmert hätte der R420 auch. Features kosten eben.



Und eine Voodoo1 mit 300mio Transistoren hätte auch mindestens 200 Pipelines, zwar nur mit einer maximalen Auflösung von 640 x 480, aber weggeowned hätte er den G70 auch. Featuren kosten eben. :ugly:

Um mal ernst zu werden: Derartige Vergleiche sind doch lächerlich.

Ailuros
2005-09-27, 19:10:50
Ailuros was soll ich mir hoelen? Den R520XT oder die 7800GTX Für meinen neuen Game-PC? Hat sich das Warten gelohnt?

Dieses Produkt was Deinen Anspruechen am besten entspricht und da Du bis jetzt gewartet hast kannst Du wohl auch noch ein paar Tage weiter warten. Ich halte mich grundsaetzlich von solchen Ratschlaegen meistens weg, ausser mich fragt jemand was er von ATI mit 300 euro bekommen kann als Beispiel.

Coda
2005-09-27, 19:13:15
Aber wenn man mal überlegt das nVidia 3 Anläufe gebraucht hat, ist es schon zu respektieren, was ATI da geschaffen hat.Welche 3 Anläufe? NV40 hat doch schon wieder gepasst. NV35 war ein Refresh, in so kurzer Zeit entwickelt man keine neue Architektur.

Und eine Voodoo1 mit 300mio Transistoren hätte auch mindestens 200 Pipelines, zwar nur mit einer maximalen Auflösung von 640 x 480, aber weggeowned hätte er den G70 auch. Featuren kosten eben.

Um mal ernst zu werden: Derartige Vergleiche sind doch lächerlich.Nicht ganz. R420 war Featuremäßig wirklich etwas arg armselig. Und ich meine damit nicht das fehlen von SM 3.0, sondern Teile davon, die auch in SM 2.x zur Verfügung gestellt werden könnten.

Franzmann-Jan
2005-09-27, 19:18:04
Kannst du nicht wenigstens ein "DaumenHoch" Signal geben, für gute Competition zwischen G70 und R520 geben? :rolleyes:

Das Gefühl beim release bitter enttäuscht zu werden würde ich nicht ertragen :biggrin:

aths
2005-09-27, 19:20:26
du meintest doch sicher die XI800XT und nicht die 800'ter, oder?"800'ter"? Soll das Achthundert-ter heißen? Warum das t? Warum der Apostroph, welcher andeutet, dass etwas ausgelassen wurde? Meinst du nicht eher "800-er"?



Flame wo anders ;) Sollen wir wieder die Turbine ins Spiel bringen, hmm? ;DWo anders? Wie wo anders? Meinst du woanders?



Viper']eher:

ATI wollte den Geräuchpegel und die Temperaturen auf dem selben Niveau halten -> Ergo: 2-SlotKühlungMeine Theorie: Die Zweislot-Lösung ist einfach kostengünstiger, und es steht den Boardherstellern frei, eine (aufwändigere) Einslot-Lösung zu entwickeln.

Ailuros
2005-09-27, 19:22:00
Welche 3 Anläufe? NV40 hat doch schon wieder gepasst. NV35 war ein Refresh, in so kurzer Zeit entwickelt man keine neue Architektur.



Zwischen GF1 und GF7, kann ich eigentlich nur die GF5 als Misserfolg sehen.

-error-
2005-09-27, 19:23:07
Welche 3 Anläufe? NV40 hat doch schon wieder gepasst. NV35 war ein Refresh, in so kurzer Zeit entwickelt man keine neue Architektur.


1. FX 5800 Series (Staubsauger lässt grüßen)

Zu heiss, zu langsam, unterstützt kein DX9, mieße Shaderperformance

2. FX 5900 Series

Lansagmer als die R300/R350-R360, im Vergleich zu ATI schlechte DX9- und Shaderperformance

3. 6800 Series

Geschwindigkeitsmäßig gleich auf mit ATI, leicht bessere Shaderperformance, PS3.0, den Rest kennen wir ja

4. 7800 Series

nVidia überholt ATI

Das kannst du nicht von der Hand weißen das es so war :)

Coda
2005-09-27, 19:23:52
Naja, GeForce 1/2 und GeForce 3/4 gehören ja zusammen, also haben sie bei einer "echten" Generation gepatzt.


1. FX 5800 Series (Staubsauger lässt grüßen)

Zu heiss, zu langsam, unterstützt kein DX9, mieße Shaderperformance

2. FX 5900 Series

Lansagmer als die R300/R350-R360, im Vergleich zu ATI schlechte DX9- und Shaderperformance

3. 6800 Series

Geschwindigkeitsmäßig gleich auf mit ATI, leicht bessere Shaderperformance, PS3.0, den Rest kennen wir ja

4. 7800 Series

nVidia überholt ATI

Das kannst du nicht von der Hand weißen das es so war Es reichen auch weniger Leerzeilen, meinst du nicht?

Zum Thema: NV3x ist eine Generation in meiner Rechnung. Und NV4x verbuche ich ganz sicher nicht als kein Erfolg. Die FX 5800 unterstützt sehr wohl DX9, wie kommst du denn auf solchen Stuss? (Nein "Zu langsam, blablabla" lass ich nicht gelten.)

mapel110
2005-09-27, 19:25:17
Zwischen GF1 und GF7, kann ich eigentlich nur die GF5 als Misserfolg sehen.
Und selbst die GF5 war nur ein Misserfolg wegen der starken Konkurrenz, ansonsten hätte sie gut in die Produktlinie gepasst. Bisschen mehr Performance wie die Vorgänger und Features für die Entwickler, wie üblich.

Franzmann-Jan
2005-09-27, 19:25:40
Kannst du nicht wenigstens ein "DaumenHoch" Signal geben, für gute Competition zwischen G70 und R520 geben? :rolleyes:

Das Gefühl beim release bitter enttäuscht zu werden würde ich nicht ertragen :biggrin:

Ailorus, die Frage oder bitte ging an dich.

seahawk
2005-09-27, 19:26:35
X800XL wird single slot, also leise und geringe Leistungsaufnahme. X800XT wird wohl Dualslot, was aber auch auf die Kühlung der BGA und der nicht größergewordenen DIE zu schließen ist. Da wir aber bei 90nm sind, muss die Leistungsaufnahme nicht bei 90W+ liegen. 60-70W ist schon ein Wert der ok geht und niemanden in Bedrängnis stürzen wird.

Die Anzahl der Slots sagt nichts über die Lautstärke, der Silencer rbaucht 2 Slots, ist aber leise. Es gibt aber ebenso viele, kleine Einslotkühler, die schrecklich nervig sind.

Ailuros
2005-09-27, 19:29:11
Kannst du nicht wenigstens ein "DaumenHoch" Signal geben, für gute Competition zwischen G70 und R520 geben? :rolleyes:

Das Gefühl beim release bitter enttäuscht zu werden würde ich nicht ertragen :biggrin:

Ist die Frage an mich gerichtet? :D

Ich hab nirgendwo je gesagt dass R520 nicht ein konkurrenzfaehiges Produkt sein wird; kein "G70-Killer" eben und dass ist ein wesentlicher Unterschied. Und so wie das Zeug in letzter Zeit reinfliesst wird es der Nachfolger von R520 auch nicht besonders leicht haben.

Es geht mir darum falsche Erwartungen zu daempfen und nicht irgendeine kindische Bevorzugung in die eine oder andere Richtung zu zeigen.

Enttaeuscht wirst Du nur sein wenn Du momentan eine X850XT PE besitzt, dann diese mit einer X1800XT ersetzt und dann doch zur ernuechtender Frage kommst..."ja ist das wirklich alles"? Das Zeug ist alles so verdammt relativ dass man wohl auch keine klare Antworten geben kann.

Franzmann-Jan
2005-09-27, 19:34:46
Ja, ich besitze genau diese Karte :) . Danke für die klare Antwort.

StefanV
2005-09-27, 19:39:04
Auf die X800XT wirst du noch lange warten müssen.
Ob sich das angesichts der zu erwartenden Leistung, sowie sonstigen "Eckdaten" lohnt, wage ich zu bezweifeln.
hm?!

Die X800XT gibts doch schon länger ;)

seahawk
2005-09-27, 19:44:42
klingt für mich nach:
Xenos bei 500MHz läuft ganz gut, dann macht sich das auch für unseren R520 bei ~500MHz bezahlt.
Setzt aber vorraus, dass ATI nicht von anfang an auf so hohe Taktraten wollte, setzt vorraus, dass ATI nicht damit gerechnet hat, gegen G70 antreten zu müssen, setzt vorraus, dass ich hier nicht völlig ins Dunkel tappe ;)

Was Sinn macht, wenn man die schelchten Erfahrungen von ATI mit dem 110nm Prozess (X700XT) sieht. Man hat nicht mit einem solchen G70 gerechnet, also dass NV 2 Quads anhängen kann und den Takt auf einem Niveau hält.

-error-
2005-09-27, 19:50:35
Naja, GeForce 1/2 und GeForce 3/4 gehören ja zusammen, also haben sie bei einer "echten" Generation gepatzt.

Es reichen auch weniger Leerzeilen, meinst du nicht?

Zum Thema: NV3x ist eine Generation in meiner Rechnung. Und NV4x verbuche ich ganz sicher nicht als kein Erfolg. Die FX 5800 unterstützt sehr wohl DX9, wie kommst du denn auf solchen Stuss? (Nein "Zu langsam, blablabla" lass ich nicht gelten.)

Sie unterstützt DX9, nur wie? ;D

Du wirst du jetzt nicht etwa behaupten, dass die NV30 und die NV35 nicht zu langsam gewesen sind?

Lassen wir mal die Kirche im Dorf ;)

Enterprise
2005-09-27, 19:52:58
http://www.computerbase.de/forum/attachment.php?attachmentid=34723&d=1127827735


Das hatte ich schon bei CB gepostet, kam nur noch nicht dazu hier das zu posten! Was uns am 30. blüht?

robbitop
2005-09-27, 19:53:26
Und eine Voodoo1 mit 300mio Transistoren hätte auch mindestens 200 Pipelines, zwar nur mit einer maximalen Auflösung von 640 x 480, aber weggeowned hätte er den G70 auch. Featuren kosten eben. :ugly:

Um mal ernst zu werden: Derartige Vergleiche sind doch lächerlich.
Kommt auf die Betrachtung an. Natürlich kann das überzogen werden. Aber klar ist, dass NV3x/4x usw zusätzliche Features gekostet haben, ohne Speed zu bringen. ATI baute seit R300 wirklich nur das ein, was benötigt wurde. Damit ist man natürlich leichter am Ziel. Mehr wollte ich damit nicht sagen.

Letztendlich ist die Entwicklung einer GPU immer mit einer gewissen Balance zw Technik und Performance verbunden. Bei ATI kippte IMO diese Balance.
Bei NV kippte sie und nun gleicht es sich wieder aus. Das wird wohl immer schwanken. Who cares?

deekey777
2005-09-27, 19:58:04
http://www.computerbase.de/forum/attachment.php?attachmentid=34723&d=1127827735


Das hatte ich schon bei CB gepostet, kam nur noch nicht dazu hier das zu posten! Was uns am 30. blüht?

Du hast zu viel verlinkt:
http://www.computerbase.de/forum/attachment.php?attachmentid=34723

Am 30. September 2003 wurde die 9800XT präsentiert.
Sie unterstützt DX9, nur wie? ;D



Schaue mal bei MSDN vorbei, da siehst du was wer warum so in DX9 so unterstützt.

robbitop
2005-09-27, 19:58:19
Sie unterstützt DX9, nur wie? ;D

Du wirst du jetzt nicht etwa behaupten, dass die NV30 und die NV35 nicht zu langsam gewesen sind?

Lassen wir mal die Kirche im Dorf ;)
Es war dennoch nur eine Genereation, die verpatzt war. NV3x. Dagegen kann man innerhalb einer Generation nichts machen.
In Punkto Erfolg und Gesamtpaket wurde ATI von der NV4x Familie geschlagen. NV40 hingegen war ein großer Kraftaufwand und ein verdammt großer Umbau. G70 ist lediglich eine gute Fortsetzung. Lediglich die XT Presse Edition war etwas schneller als die NV40 allerdings vom Gesamtpaket aufgrund der Features in etwa gleich. Aber Midrange/Low Cost war NV4x überlegen. Sieht man ja auch am Markterfolg.

Coda
2005-09-27, 19:59:04
Sie unterstützt DX9, nur wie? ;DSie unterstützt es bei anderer Betrachtung besser als R480.

Du wirst du jetzt nicht etwa behaupten, dass die NV30 und die NV35 nicht zu langsam gewesen sind?Mit dem DX9 das spezifiziert wurde - ja.

Lassen wir mal die Kirche im Dorf ;)Wie du meinst.

-error-
2005-09-27, 20:02:28
Sie unterstützt es bei anderer Betrachtung besser als R420.

Besser unterstützen? Ich schreibe von der NV30.

deekey777
2005-09-27, 20:03:49
Besser unterstützen? Ich schreibe von der NV30.

Genau den meint er.

Coda
2005-09-27, 20:04:01
Ja du hast richtig gehört. Die NV3x kann deutlich komplexere Shaderprogramme ausführen als R420.

reunion
2005-09-27, 20:08:29
Viper']eher:

ATI wollte den Geräuchpegel und die Temperaturen auf dem selben Niveau halten -> Ergo: 2-SlotKühlung


ATi wollte die Ausbeute maximieren.
Je kühler der Core, desto mehr dergleichen erreicht die anvisierte Taktrate.

reunion
2005-09-27, 20:10:39
Nicht ganz. R420 war Featuremäßig wirklich etwas arg armselig. Und ich meine damit nicht das fehlen von SM 3.0, sondern Teile davon, die auch in SM 2.x zur Verfügung gestellt werden könnten.


R420 war eine Notlösung (genau wie R520), man hatte keine Zeit mehr, am R300-Design noch großartig viel zu verändern.

hm?!

Die X800XT gibts doch schon länger ;)

Ich denke es ist offensichtlich, was ich gemeint habe.

Coda
2005-09-27, 20:12:31
R420 war eine Notlösung (genau wie R520), man hatte keine Zeit mehr, am R300-Design noch großartig viel zu verändern.Das spielt keine Rolle, für statisches branching und predication hätten sie genügend Zeit gehabt.

-error-
2005-09-27, 20:16:46
Ja du hast richtig gehört. Die NV3x kann deutlich komplexere Shaderprogramme ausführen als R420.

Was hat das gebracht? Nix, oder habe ich was übersehen?

;D

Der NV30 war eine Missgeburt an GPU, da gibts überhaupt nichts schönzureden :smile:

Coda
2005-09-27, 20:19:13
Wenn DX9 FX12 erlaubt hätte würde das ganz anders aussehen, und das hätte locker bis NV4x gereicht. Oder ist NV30 in DumM³ langsamer als R300? FP-Shader waren von nVIDIA zu Entwicklungszwecken eingebaut, nicht für Benchmarking, ansonsten hätte die Performance anders ausgesehen.

Mit anderen Worten: Die eigentlich vorgesehene Rechenkraft von NV30 konnte außer in PS1.4 Programmen überhaupt nicht benützt werden.

Lass bitte solche undifferenzierten Aussagen. NV30 war keine schlechte GPU, nur R300 war eben besser und das mit der API war nunmal Pech.

reunion
2005-09-27, 20:20:56
Was Sinn macht, wenn man die schelchten Erfahrungen von ATI mit dem 110nm Prozess (X700XT) sieht. Man hat nicht mit einem solchen G70 gerechnet, also dass NV 2 Quads anhängen kann und den Takt auf einem Niveau hält.

R520 sollte schon immer Taktraten von über 650Mhz erreichen.
Offensichtlich hat man jetzt allerdings Probleme, diese auch zu erreichen.

Alles andere wäre auch unlogisch, wenn man bedenkt, dass bereits R480 mit 540Mhz taktet.

MikBach
2005-09-27, 20:22:22
Was hat das gebracht? Nix, oder habe ich was übersehen?

;D
Coda hat aber Recht, der NV3x ist dem R420 in Sachen Fetureset recht deutlich überlegen.

Der NV30 war eine Missgeburt an GPU, da gibts überhaupt nichts schönzureden :smile:
Was Spiele angeht, hast du sicherlich Recht.
Beim Offline-Rendering war die FX aber gar nicht mal so schlecht...;)

robbitop
2005-09-27, 20:27:32
Wenn DX9 FX12 erlaubt hätte würde das ganz anders aussehen, und das hätte locker bis NV4x gereicht. Oder ist NV30 in DumM³ langsamer als R300? FP-Shader waren von nVIDIA zu Entwicklungszwecken eingebaut, nicht für Benchmarking, ansonsten hätte die Performance anders ausgesehen.

Mit anderen Worten: Die eigentlich vorgesehene Rechenkraft von NV30 konnte außer in PS1.4 Programmen überhaupt nicht benützt werden.

Lass bitte solche undifferenzierten Aussagen. NV30 war keine schlechte GPU, nur R300 war eben besser und das mit der API war nunmal Pech.
du meinst hier wohl PS1.3 code? Ab PS 1.4 brach die Leistung ein IIRC.

Coda
2005-09-27, 20:29:57
Nein. PS1.4 war sogar optimal, da noch relativ lange Programme mit FX12 geschrieben werden konnten. Eigentlich das einzig sinnvoll nutzbare für NV30 mit DX9.

MikBach
2005-09-27, 20:37:49
Nein. PS1.4 war sogar optimal, da noch relativ lange Programme mit FX12 geschrieben werden konnten. Eigentlich das einzig sinnvoll nutzbare für NV30 mit DX9.
Trotzdem ist der NV35 langsamer als ein R350 bei UT2004, wo nur ein Shader (1.4) zur Performancesteigerung nötig ist?
Generell ist die Reihenfolge der Shader wichtiger als die Shader selbst.

edit:
Siehe Knightshift, PS1.1-Shader, die FX bricht aber recht deutlich ein...

Coda
2005-09-27, 20:45:49
Hm? Ich dachte immer gerade in UT2003 war nVIDIA vorne. Man hatte ja auch mehr Texelfüllrate. Und komm jetzt bitte nicht mit AF-Benchmarks X-D

Horimoto
2005-09-27, 20:46:14
Hmm was erwartet uns am 30/9/2k5 ?
Die ersten Benchmarks, weil der launch ist doch 5.Okt, das sagt der Countdown aus.
Oder werden RV515/RV530 doch, wie zuvor behauptet, Ende Septbember verfügbar sein?????

MikBach
2005-09-27, 20:49:31
Hm? Ich dachte immer gerade in UT2003 war nVIDIA vorne. Man hatte ja auch mehr Texelfüllrate. Und komm jetzt bitte nicht mit AF-Benchmarks X-D
Dann haben wir gerade aneinander vorbeigeredet. :)
Ich meinte UT04, nicht 03. ;)
Steht auch in meinem Post. :)

Coda
2005-09-27, 20:50:25
Dürfte in UT2004 nicht anders aussehen.

Wenn man NV3x AF vs. R3xx AF oder 6x ATi-AA vs. 8x nV-AA misst ist klar, das ATi vorne ist, aber das ist ja wohl auch Schwachsinn.

seahawk
2005-09-27, 20:51:55
R520 sollte schon immer Taktraten von über 650Mhz erreichen.
Offensichtlich hat man jetzt allerdings Probleme, diese auch zu erreichen.

Alles andere wäre auch unlogisch, wenn man bedenkt, dass bereits R480 mit 540Mhz taktet.

Ja, und NV hätte den NV40 im Refresh nur um 80Mhz höhertakten müssen und die Verhältnisse wären konstant geblieben. Und imho hat das ATI erwartet und nicht 430mhz + 2 Quads extra. Genausowenig hat imho ATI damit gerechnet, dass NV am Launchtag liefern kann und bis heute uneingeschränkt liefert. Wenn der XI800 nicht deutlich vor dem G70 liegt, dann sind die meisten OEM Verträge für erstmal bei NV.

MikBach
2005-09-27, 20:52:35
Dürfte in UT2004 nicht anders aussehen.

Wo hat UT2003 einen PS1.4-Shader?

Coda
2005-09-27, 20:53:06
Auch für's Terrain, genau gleich wie UT2004.

Siehe Knightshift, PS1.1-Shader, die FX bricht aber recht deutlich ein...Sorry, aber das ist Käse³³. Die orginale FX hat noch alle Combiner der NV2x Generation und führt damit PS1.1 sozusagen in "fixed-function" aus. Das muss mit Sicherheit an was anderem liegen.

horn 12
2005-09-27, 21:04:09
Hmm was erwartet uns am 30/9/2k5 ?
Die ersten Benchmarks, weil der launch ist doch 5.Okt, das sagt der Countdown aus.
Oder werden RV515/RV530 doch, wie zuvor behauptet, Ende Septbember verfügbar sein?????


DAS WÄRE IDEAL ; da ich nach MUC fahren muss am 1 oktober !
und es die da´nn zu kaufen gäbe !!
aber wie kommst du nun darauf ?

soll der X1600 XT doch schon ende september in den laden kommen , dann war dies mit ende dezember wohl ein fake , bzw ein Irrtum allseits .

MadManniMan
2005-09-27, 21:04:56
Desire, jemals einen NV30 benützt? Ich schon :|

Die gelbe Eule
2005-09-27, 21:10:14
Man man man ...

Das Thema verkommt echt manchmal, wenn einige meinen, ihre Exkursionen auf R300 und NV30 oder CPUAbwärme Vergleiche auszuweitern.

Versucht mal beim Thema zu bleiben und wendet euch an Fakten die bekannt sind. Normalerweise wäre es sogar besser, den Thread zu schließen und die gesammelten Fakten neuzuordnen, dann wäre eine Diskussionsbasis gegeben. Aber vieles hat echt nichts mehr im entferntesten mit einem R520 zu tun ...

Coda
2005-09-27, 21:16:42
Es gibt doch z.Z. nichts weiter interessantes zu diskuttieren. 16PP/8VS@600Mhz 700Mhz Speicher.

deekey777
2005-09-27, 21:39:32
http://www.computerbase.de/forum/attachment.php?attachmentid=34723&d=1127827735


Das hatte ich schon bei CB gepostet, kam nur noch nicht dazu hier das zu posten! Was uns am 30. blüht?

Dem neuesten Gerücht nach soll Lost Toast am 30. September veröffentlicht werden. http://pc.1up.com/ -> Release Dates

1up.com hatte eine "VALVe-Woche" in der zweiten Septemberwoche, es wäre möglich, daß das Datum stimmt.

StefanV
2005-09-27, 21:46:22
']Schon interessant wie der Dual-Slot Kühler von ATI Persil-Weiß gewaschen wurde...

Achja?!
Schau dir einfach mal den Mist an, den nV zusammengebastelt hat, insbesondere den winzigen Lüfter der 5800/5900 Teile!

Fällt dir was auf?!

Richtig, der Durchmesser ist um Welten kleiner als das, was ATI da zusammengebastelt hat...

Zumal auch gesagt werden sollte, das die ATI x850XT mit etwa 20% läuft...
Der Kühler hat also durchaus noch ein paar reserven...
']Was im Dual-Slot Kühler endet...
Zwangsläufig ja...

Alternativ kann man ja auch HEatpipes nehmen und das ganze Kühlergedöns auf die Rückseite packen, nur der Preis...

robbitop
2005-09-27, 21:50:18
Trotzdem ist der NV35 langsamer als ein R350 bei UT2004, wo nur ein Shader (1.4) zur Performancesteigerung nötig ist?
Generell ist die Reihenfolge der Shader wichtiger als die Shader selbst.

edit:
Siehe Knightshift, PS1.1-Shader, die FX bricht aber recht deutlich ein...
Das teure AF war schuld. Der NV35 besaß nicht im gleichen Maße mehr Rohfüllrate als der R350 als das AF kostete. Teste mal ohne AF ;)
Am Besten einen NV30 Ultra gegen eine 9700 Pro. UT 2004 16x12 No/No.
Du wirst dich wundern. Ich mich hingegen nicht.

robbitop
2005-09-27, 21:53:23
Nein. PS1.4 war sogar optimal, da noch relativ lange Programme mit FX12 geschrieben werden konnten. Eigentlich das einzig sinnvoll nutzbare für NV30 mit DX9.
Nope. Bis PS1.3 kann man die Reg Combiner voll ausfahren. Fixed Function würde ich das nicht unbedingt nennen. Fixed Function heißt das offiziell ab PS1.0 nicht mehr *gg*. Da waren die Combiner sogar noch Co Issue Fähig. Mit PS1.3 Code sind theoretisch 48 Ops pro Takt drin.

IIRC brach der NV40 bei PS1.4 schon ein bisschen ein.

Coda
2005-09-27, 21:55:05
Nope. Bis PS1.3 kann man die Reg Combiner voll ausfahren. Fixed Function würde ich das nicht unbedingt nennen. Fixed Function heißt das offiziell ab PS1.0 nicht mehr *gg*. Da waren die Combiner sogar noch Co Issue Fähig. Mit PS1.3 Code sind theoretisch 48 Ops pro Takt drin.

IIRC brach der NV40 bei PS1.4 schon ein bisschen ein.Einigen wir uns darauf, dass der "programmierbare Teil" von NV30 damit am besten bedient war unter DX9?

tokugawa
2005-09-27, 22:07:32
Sie unterstützt DX9, nur wie? ;D

Du wirst du jetzt nicht etwa behaupten, dass die NV30 und die NV35 nicht zu langsam gewesen sind?

Lassen wir mal die Kirche im Dorf ;)

Schnelligkeit ist nicht das einzige Kriterium.

Was hat das gebracht? Nix, oder habe ich was übersehen?

;D

Der NV30 war eine Missgeburt an GPU, da gibts überhaupt nichts schönzureden :smile:

Naja. Bei kurzsichtiger Betrachtung hast du vielleicht recht.

Aber wenn man's mal wirklich ordentlich betrachtet, hast du unrecht. Das ist dann kein "Schönreden". Dank der sehr fähigen, aber halt nicht besonders schnellen Shader Units der NV3x haben wir recht bald SM 3.0 Techniken bekommen.

Viele Effekte die wir jetzt haben sind im Prinzip auch der NV3x zu verdanken - ich empfehle die Lektüre der GPU Gems Vol 1 - gut, ist zugegebenermaßen ein "NVIDIA-Promoted" Buch, aber nichts destotrotz ein gutes Beispiel dafür, dass die Entwicklung von Shadern die heute die NV40 fordern, schon in der NV3x Zeit begonnen hat (da die NV3x ja "Fast-SM3.0" geboten hatte, zumindest aus Entwicklersicht).


Die NV3x hatte viele Vorzüge die "einfache Spieler" wie du nicht zu würdigen wissen. Natürlich ist das den Spielern wurscht - denen hätte ich auch nicht eine NV3x empfohlen.

Allerdings muß man sehen dass die Vorzüge der NV3x letztendlich in der NV4x Generation dann auch den Spielern zugute kommen - diese können sich früher über Effekte und Techniken freuen, die die NV4x auch ausreizen. Das zählt auch was.

Und genau deswegen ist die NV3x zwar für Spieler ein schwacher Chip... aber definitiv kein Griff ins Klo.

Wobei ich natürlich nicht schönreden will dass sie durchaus ihre Probleme auch hatte. Trotzdem - mir geht die ständige Kritik daran auf den Sack von jenen Leuten die eigentlich jetzt davon profitieren dass die NV3x so war wie sie war (ja, der "common gamer").

Enterprise
2005-09-27, 22:29:49
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3521129&postcount=9608

So jetzt mit funktionierendem Link!

robbitop
2005-09-27, 22:59:34
Einigen wir uns darauf, dass der "programmierbare Teil" von NV30 damit am besten bedient war unter DX9?
Hell, yeah! :)

NV30 war wirklich gar nicht so schlecht, da stimme ich nur zu. Nur ist das Bessere des Guten Feind. Hinzukam teures (aber gutes und nicht beachtetes) AF und die DX Spec die so anders wurde als man dachte. Ich hatte einen NV35 @550MHz und alle nicht FP Shader Games liefen damit terrific!!
Letztendlich war R300 in vielen Bereichen um Einiges besser und vor allem haltbarer.

Coda
2005-09-27, 23:01:29
Das AF von NV30 hätte ich heute gerne zurück: Bei den 10GTexel/s von G70 wäre das verschmerzbar. Und 8x winkelunabhängig ist besser als 16x nur auf einigen Teilen des Bildes.

horn 12
2005-09-27, 23:07:57
verstehe nicht´s mehr langsam !

dann soll nun der RV 515 und RV 530 am 30 September vorgestellt werden und sogleich auch aktuell verfügbar sein ,
da das game Addon zu HL2 Low Cost da rauskommt , oder wie ?
wahrscheinlich ist das game addon dann in den graka Bundles enthalten , als nettes Obendrein Geschenk !
und das würde den Umsatz ( falls RV515 + 530 sofort erhältlich )
enorm steigern , und nvidia müsste sich sicherlich zurecht sehr ärgern !

2 fliegen mit einen Klapppe würden dann sicherlich geschlagen !
hoffe auf dies , sonst sieht mich endgültig nur mehr die X8xx pro / xt wieder .

Coda
2005-09-27, 23:09:48
Lost Coast bekommt jeder der HL² gekauft hat umsonst.

robbitop
2005-09-27, 23:14:28
Das AF von NV30 hätte ich heute gerne zurück: Bei den 10GTexel/s von G70 wäre das verschmerzbar. Und 8x winkelunabhängig ist besser als 16x nur auf einigen Teilen des Bildes.
Da stimme ich dir zu. Nur sehen die Balkenkiddies das eben anders. Und das ist nunmal die Hauptzielgruppe.
Wobei das ATI AF für die geniale Performance echt ok ist.
NV30 AF als HQ Mode und R420 AF als Performance AF. Das wäre neis.

Coda
2005-09-27, 23:23:51
NV30 AF als HQ Mode und R420 AF als Performance AF. Das wäre neis.Nö. Dann würde ich lieber von 16x auf 12x (ja, das kann der NV4x) oder 8x runter. Wie aths schon immer propagiert hat ist ein winkelunabhängier AF-Grad in allen Fällen das beste was man aus einer bestimmten vorhanden "Leistungsfähigkeit" rausholen kann.

Es gibt ja auch keinen rationalen Grund, warum man bei schrägen Flächen weniger AF anwenden sollte, außer dass die meisten Leute zum kontrollieren auf die nächste Bodenfläche schauen...

Ailuros
2005-09-28, 01:32:41
Koennt ihr gefaelligst die NV30-Leiche endlich begraben? :|

Wenn es wirklich um Leichen ginge, ist meine Schaufel lang genug (Alters-bedingt :biggrin: ) auch noch einige von ATI's Leichen der Vergangenheit auszugraben.

Die gelbe Eule
2005-09-28, 01:51:18
Dann wären wir beim Thema:

Kommt der R52 schon Anfang 1995 ;)

aths
2005-09-28, 03:02:54
Wenn es wirklich um Leichen ginge, ist meine Schaufel lang genug (Alters-bedingt :biggrin: ) auch noch einige von ATI's Leichen der Vergangenheit auszugraben.aths' kleine Deutschstunde: Im zweiten Fall Genitiv wird kein Apostroph gesetzt – es geht also um ATIs Leichen.


Aber wenn man's mal wirklich ordentlich betrachtet, hast du unrecht.Steht der Apostroph für ein e, darf er nach den neuen Regeln weggelassen werden. Um den Lesefluss zu wahren, sollte man das imo auch tun. So würde man ja auch nicht "Man kann's auch übertreiben" schreiben, sondern "Man kanns auch übertreiben". Bei bestimmten Zusammenziehungen (z. B. ans, ins) darf der Apostroph ohnehin in keinem Fall geschrieben werden, der Einheitlichkeit zuliebe sollte man ihn imo überall dort weglassen, wo es erlaubt ist.

Das ist dann kein "Schönreden". Dank der sehr fähigen, aber halt nicht besonders schnellen Shader Units der NV3x haben wir recht bald SM 3.0 Techniken bekommen.

Viele Effekte die wir jetzt haben sind im Prinzip auch der NV3x zu verdanken - ich empfehle die Lektüre der GPU Gems Vol 1 - gut, ist zugegebenermaßen ein "NVIDIA-Promoted" Buch, aber nichts destotrotz ein gutes Beispiel dafür, dass die Entwicklung von Shadern die heute die NV40 fordern, schon in der NV3x Zeit begonnen hat (da die NV3x ja "Fast-SM3.0" geboten hatte, zumindest aus Entwicklersicht).Japp, GPU Gem kennt maximal den NV35, welcher von den Shaderfeatures her ja nicht mehr als der NV30 bietet, und stellt einige erstaunliche Ansätze vor, von denen nicht alle mit einer Radeon X850 XT PE realisierbar sind.

Die NV3x hatte viele Vorzüge die "einfache Spieler" wie du nicht zu würdigen wissen. Natürlich ist das den Spielern wurscht - denen hätte ich auch nicht eine NV3x empfohlen.

Allerdings muß man sehen dass die Vorzüge der NV3x letztendlich in der NV4x Generation dann auch den Spielern zugute kommen - diese können sich früher über Effekte und Techniken freuen, die die NV4x auch ausreizen. Das zählt auch was.

Und genau deswegen ist die NV3x zwar für Spieler ein schwacher Chip... aber definitiv kein Griff ins Klo.

Wobei ich natürlich nicht schönreden will dass sie durchaus ihre Probleme auch hatte. Trotzdem - mir geht die ständige Kritik daran auf den Sack von jenen Leuten die eigentlich jetzt davon profitieren dass die NV3x so war wie sie war (ja, der "common gamer").Jupp, wer einfach nur auf die Balken guckt und nur aus solchen Werten die Fähigkeit der Architektur beurteilen will, oder wer nur einen Chip für sich sieht und ihn nicht historisch einordnet, begeht auch aus meiner Sicht einen Fehler. Bei Release rieb ich mir nur die Augen: Laut und langsam, später kamen noch die Benchmark-Cheats dazu. Doch je mehr Zeit vergangen ist, und je mehr ich mich mit GPUs beschäftige, umso mehr sehe ich die Stärken der CineFX-Architektur. Meiner Meinung nach wurde die FX-Serie falsch vermarktet.

Ailuros
2005-09-28, 03:27:44
Doch je mehr Zeit vergangen ist, und je mehr ich mich mit GPUs beschäftige, umso mehr sehe ich die Stärken der CineFX-Architektur. Meiner Meinung nach wurde die FX-Serie falsch vermarktet.

Der FX-Zombie will wohl einfach nicht sterben :D

Spass beiseite, es gibt auf Architekturen genauso Schwaechen wie Staerken. Damit die Staerken im Fall von NV3x theoretisch ueberragen, muesste NVIDIA intern erstmal selber sehen koennen was aber nie - stets "off the record" - der Fall war und ist.

Labberlippe
2005-09-28, 07:41:39
"Hypermemory"

Eine Generation? Schneller ging's nicht.

Hi

2 waren es mit der jetzigen 7800er

Gruss Labberlippe

Labberlippe
2005-09-28, 07:44:33
Natürlich muss er nicht laut sein, aber Dualslot-Kühlung deutet nunmal auf eine relativ hohe Verlustleistung hin.

Hi

Genau solche diskussionen gehen mir am Sack.
Damals hiess es das bei ATi der R300 ein Witz ist, weil er einen Stromstecker benötigt.

Danach hiess es das es Top ist, da die stabilität besser wäre.

Warten wir mal ab, was das Ding wirklich bringt.
Wobei ich auch leichtes Bauchweh hab. :-(

Gruss Labberlippe

Labberlippe
2005-09-28, 07:50:53
Das spielt keine Rolle, für statisches branching und predication hätten sie genügend Zeit gehabt.

Hi

Es ist immer wieder schön zu lesen, was die Programmierer gerne hätten, nur zeigt die Praxis was anders und das hat in der Regel nichs mit der HW zu tun.

Ansonsten wären wir grafisch schon weiter...

Nicht gegen Dich Coda.

Gruss Labberlippe

Labberlippe
2005-09-28, 07:53:47
Nein. PS1.4 war sogar optimal, da noch relativ lange Programme mit FX12 geschrieben werden konnten. Eigentlich das einzig sinnvoll nutzbare für NV30 mit DX9.

Hi

PS 1.4 war optimal?

Da kann ich genug Threads zeigen, wenn ich mir die Zeit nehme, was darüber gelästert wurde weil ATI es hatte ...

Gruss Labberlippe

Labberlippe
2005-09-28, 07:55:40
aths' kleine Deutschstunde: Im zweiten Fall Genitiv wird kein Apostroph gesetzt – es geht also um ATIs Leichen.


Steht der Apostroph für ein e, darf er nach den neuen Regeln weggelassen werden. Um den Lesefluss zu wahren, sollte man das imo auch tun. So würde man ja auch nicht "Man kann's auch übertreiben" schreiben, sondern "Man kanns auch übertreiben". Bei bestimmten Zusammenziehungen (z. B. ans, ins) darf der Apostroph ohnehin in keinem Fall geschrieben werden, der Einheitlichkeit zuliebe sollte man ihn imo überall dort weglassen, wo es erlaubt ist.

Japp, GPU Gem kennt maximal den NV35, welcher von den Shaderfeatures her ja nicht mehr als der NV30 bietet, und stellt einige erstaunliche Ansätze vor, von denen nicht alle mit einer Radeon X850 XT PE realisierbar sind.

Jupp, wer einfach nur auf die Balken guckt und nur aus solchen Werten die Fähigkeit der Architektur beurteilen will, oder wer nur einen Chip für sich sieht und ihn nicht historisch einordnet, begeht auch aus meiner Sicht einen Fehler. Bei Release rieb ich mir nur die Augen: Laut und langsam, später kamen noch die Benchmark-Cheats dazu. Doch je mehr Zeit vergangen ist, und je mehr ich mich mit GPUs beschäftige, umso mehr sehe ich die Stärken der CineFX-Architektur. Meiner Meinung nach wurde die FX-Serie falsch vermarktet.

HI

Mir ist es ehrlich gesagt wurst ob ich einen Punkt bekomme.
Rechtschreibreform hin oder her, aber das geht mir herbe am Sack.
Wenn Du etwas zum Thema zum sagen hat, dann mach es.
Nur steig nicht immer mit diesen Aktionen in einen Thread ein..

Mein lieber Schwam.

Gruss Labberlippe

Coda
2005-09-28, 08:20:10
2 waren es mit der jetzigen 7800erG70 ist NV47.

Es ist immer wieder schön zu lesen, was die Programmierer gerne hätten, nur zeigt die Praxis was anders und das hat in der Regel nichs mit der HW zu tun.

Ansonsten wären wir grafisch schon weiter...Und? Das soll ich jetzt toll finden? Imho hat ATi ganz zurecht nicht soviele R4xx verkauft.

Ein bischen mehr Aufwand und man hätte auch Marketingtechnisch viel besser mit "SM3.0 braucht man nicht" argumentieren können.

PS 1.4 war optimal?

Da kann ich genug Threads zeigen, wenn ich mir die Zeit nehme, was darüber gelästert wurde weil ATI es hatte ...Aufgrund der DX9 Spec, die bei PS 2.0 keine FX12 Berechnungen zuließ - ja. Das eine hat bitte nichts mit dem anderen zu tun.

MadManniMan
2005-09-28, 08:47:19
HI

Mir ist es ehrlich gesagt wurst ob ich einen Punkt bekomme.
Rechtschreibreform hin oder her, aber das geht mir herbe am Sack.
Wenn Du etwas zum Thema zum sagen hat, dann mach es.
Nur steig nicht immer mit diesen Aktionen in einen Thread ein..

Mein lieber Schwam.

Gruss Labberlippe

Es ist Gott sei Dank so, daß Deine Ausdrucksweise selbst in Rage und damit für Deine Verhältnisse außergewöhnlich aufgebrachten Untertons noch wirklich vertretbar ist, wohl aber schade, daß Du Punkte billigend in Kauf nimmst - wenn Du welche verdienen solltest, dann solltest Du Dir auch überlegen, Dein Verhalten anzupassen.
Nur sone kleine Vorahnung, aber wir werden sehen.

MFG, Manni

robbitop
2005-09-28, 09:20:47
Nö. Dann würde ich lieber von 16x auf 12x (ja, das kann der NV4x) oder 8x runter. Wie aths schon immer propagiert hat ist ein winkelunabhängier AF-Grad in allen Fällen das beste was man aus einer bestimmten vorhanden "Leistungsfähigkeit" rausholen kann.

Es gibt ja auch keinen rationalen Grund, warum man bei schrägen Flächen weniger AF anwenden sollte, außer dass die meisten Leute zum kontrollieren auf die nächste Bodenfläche schauen...
Prinzipiell richtig. Nur sieht man das bei vielen Spielen nicht wirklich. Und dann würde ich lieber mehr Performance haben, die ich woanders investieren kann.
Es gibt in der Tat Spiele, wo es auffällt. Aber lange nicht in allen.

robbitop
2005-09-28, 09:26:20
Hi

2 waren es mit der jetzigen 7800er

Gruss Labberlippe
Schon die NV4x Reihe holte ATI ein. ATI besaß lediglich ein High End Produkt, welches kaum verfügbar war, was ein wenig schneller war. Alle anderen Produkte des Marktes waren denen der NV4x unterlegen. Und eine Grafikkarte ist mehr als nur reine Performance. Und je shaderlastiger die Games sind, desto kleiner die Differenz NV40/R420.

Ailuros
2005-09-28, 09:27:07
Aufgrund der DX9 Spec, die bei PS 2.0 keine FX12 Berechnungen zuließ - ja. Das eine hat bitte nichts mit dem anderen zu tun.

Es zeigt aber trotz allem dass NV in diesem Bereich einfach eine "miese" Idee hatte was die SM2.0 Aspekte ihrer ersten Architektur betrifft. Das was im Hinterkopf behalten sollte ist dass NV von all den IHVs (egal wie gross) eigentlich der einzige war der an FX12 dachte afaik. Daher wundert es mich kein bisschen dass die "elegantere" Idee sich am Ende durchgesetzt hat.

Anfuehrungsstriche natuerlich um die Relativitaet der jeweiligen Ausdruecke zu betonen.

Coda
2005-09-28, 09:48:15
Prinzipiell richtig. Nur sieht man das bei vielen Spielen nicht wirklich. Und dann würde ich lieber mehr Performance haben, die ich woanders investieren kann.
Es gibt in der Tat Spiele, wo es auffällt. Aber lange nicht in allen.In den Spielen wo es nicht auffällt, wird eh überall maximal gefiltert (d.h. Klötzengrafik) und die winkelabhängigkeit bringt keine Vorteile.

horn 12
2005-09-28, 12:43:12
sind noch keine X1800 XL
X1600 XT ? Preise bei online shops aufgetaucht ,
dass man die preise für ne echt X1800 XT erfahren würde,
die strassenpreise sollten doch etwas drunter liegen dann schlussendlich !

Tomcat70
2005-09-28, 12:52:11
interessante cod2-benchmarks bezüglich 512MB speicher auf der grafikkarte:

http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=182&page=2

x800xl mit 512mb in 1280x1024 schneller als 7800gtx mit 256mb, ist nicht cod2 noch dazu ein opengl-game?

deekey777
2005-09-28, 12:59:28
aths' kleine Deutschstunde: Im zweiten Fall Genitiv wird kein Apostroph gesetzt – es geht also um ATIs Leichen.
Steht der Apostroph für ein e, darf er nach den neuen Regeln weggelassen werden. Um den Lesefluss zu wahren, sollte man das imo auch tun. So würde man ja auch nicht "Man kann's auch übertreiben" schreiben, sondern "Man kanns auch übertreiben". Bei bestimmten Zusammenziehungen (z. B. ans, ins) darf der Apostroph ohnehin in keinem Fall geschrieben werden, der Einheitlichkeit zuliebe sollte man ihn imo überall dort weglassen, wo es erlaubt ist.
...

Ach aths, gib mal bei Googlefight "fürs" und "für's" ein... ;(

interessante cod2-benchmarks bezüglich 512MB speicher auf der grafikkarte:

http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=182&page=2

x800xl mit 512mb in 1280x1024 schneller als 7800gtx mit 256mb, ist nicht cod2 noch dazu ein opengl-game?
Da soll sich noch jemand fragen, warum die Poppel-XI300 512 MB RAM hat? :biggrin:

Ailuros
2005-09-28, 13:06:07
interessante cod2-benchmarks bezüglich 512MB speicher auf der grafikkarte:

http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=182&page=2

x800xl mit 512mb in 1280x1024 schneller als 7800gtx mit 256mb, ist nicht cod2 noch dazu ein opengl-game?

Ich muss das Ding selber runterziehen und mir anschauen. Es sieht aber schon danach aus dass hier tatsaechlich 512MB Framebuffer einen Unterschied machen. Im von der gelinkten Review wird die Q3a engine erwaehnt, also nach D3D hoert sich mir das nicht an ;)

Ailuros
2005-09-28, 13:08:01
Da soll sich noch jemand fragen, warum die Poppel-XI300 512 MB RAM hat? :biggrin:

Es reicht wenn es einen Schalter fuer TC im demo gibt, dass die These zum Fenster rausfliegt ;) Ich schau mir das Ding lieber erstmal an.

Franzmann-Jan
2005-09-28, 13:20:05
Ich muss das Ding selber runterziehen und mir anschauen. Es sieht aber schon danach aus dass hier tatsaechlich 512MB Framebuffer einen Unterschied machen. Im von der gelinkten Review wird die Q3a engine erwaehnt, also nach D3D hoert sich mir das nicht an ;)

Wo ließt du denn da was von Q3a engine? Wenns wirklich die Q3a engine ist, was ich stark bezweifle, dann wissen wir ja wie in ein paar Jahren die Doom3 engine aussehen wird ;). OpenGL ist es auf jeden Fall, ich finde das merkt man irgendwie vom Spielfluss her. Fragt mich nicht warum.... Erstaunlich wie gut ATI mithält, wenn es "neutrales OpenGL" ist.

Tomcat70
2005-09-28, 13:22:39
Im von der gelinkten Review wird die Q3a engine erwaehnt, also nach D3D hoert sich mir das nicht an ;)

eigentlich wird eher darauf hingewiesen das es NICHT mehr wie cod1 auf der Q3-engine basiert.
----
According to recent previews, the game is based off a totally new engine, unlike the modified Quake III engine of the original Call of Duty.
----

Ailuros
2005-09-28, 13:34:27
Wo ließt du denn da was von Q3a engine? Wenns wirklich die Q3a engine ist, was ich stark bezweifle, dann wissen wir ja wie in ein paar Jahren die Doom3 engine aussehen wird ;). OpenGL ist es auf jeden Fall, ich finde das merkt man irgendwie vom Spielfluss her. Fragt mich nicht warum.... Erstaunlich wie gut ATI mithält, wenn es "neutrales OpenGL" ist.

Zu schnell durchgelesen arghhh...

According to recent previews, the game is based off a totally new engine, unlike the modified Quake III engine of the original Call of Duty.....

Enterprise
2005-09-28, 15:12:54
http://www.hkepc.com/bbs/viewthread.php?tid=479008

Wieder was neues! (mehr oder weniger)

Horimoto
2005-09-28, 15:19:11
Das siht mir verdammt nach US aus:
Shader processors..............

nicht PS und 8 VS, sondern sahder processors........

deekey777
2005-09-28, 15:20:13
http://www.hkepc.com/bbs/viewthread.php?tid=479008

Wieder was neues! (mehr oder weniger)

Die zweite Folie ist am interessantesten, insbesondere weil der R580 dabei ist - Fake?

Tomcat70
2005-09-28, 15:25:52
relative performance rv515=1, r520=5, soll wohl bedeuten faktor 5? das wäre nach den letzten zahlen etwas viel....

Ailuros
2005-09-28, 15:27:01
Das siht mir verdammt nach US aus:
Shader processors..............

nicht PS und 8 VS, sondern sahder processors........

Shader processors = ALUs

Die Zahlen stimmen schon.

Die zweite Folie ist am interessantesten, insbesondere weil der R580 dabei ist - Fake?

R580 hatte schon tape-outs, eben aber noch nicht sein finales afaik.

deekey777
2005-09-28, 15:28:16
relative performance rv515=1, r520=5, soll wohl bedeuten faktor 5? das wäre nach den letzten zahlen etwas viel....

Vielleicht bei 1600x1200 und 6xAA. :ulol:

Seit wann vertraut man den Performance-Angaben einer PR-Folie? :)

...


R580 hatte schon tape-outs, eben aber noch nicht sein finales afaik.

Aber der Folie nach muß er nur noch verpackt werden, und fertig ist's.
Aber hatte der R420 nicht schon 64 ALus? Der C1 hat sogar 48!

Vor hundert Seiten hat Quasar sehr weise Worte zu dem Thema "Anzahl der ALUs" geschrieben.

Tomcat70
2005-09-28, 15:29:41
vorläufige preise:

http://www.hexus.net/content/item.php?item=3566

-----
X1800 XT 512MiB $549
X1800 XT 256MiB $499
X1800 XL 256MiB $449
X1600 XT 256MiB $249
X1600 XT 128MiB $199
X1600 Pro 256MiB $199
X1600 Pro 128MiB $149
X1300 Pro 256MiB $149
X1300 256MiB $129
X1300 128MiB $99
X1300 HM 128MiB $79
------

Enterprise
2005-09-28, 15:30:28
Aber hatte der R420 nicht schon 64 ALus? Der C1 hat sogar 48!

Ailuros
2005-09-28, 15:30:32
relative performance rv515=1, r520=5, soll wohl bedeuten faktor 5? das wäre nach den letzten zahlen etwas viel....

16 ALUs@600MHz vs. 4 ALUs@550MHz
16 SIMD Kanaele@600MHz vs. 4 SIMD Kanaele@550MHz.

Ja es soll einen "bis zu" Faktor darstellen.

Ailuros
2005-09-28, 15:32:47
Aber der Folie nach muß er nur noch verpackt werden, und fertig ist's.

Das daran bei ATI gearbeitet wird heisst bei weitem nicht dass er schon produktionsreif ist. Oder hoerst Du von dem Zeug zum ersten Mal?

Ailuros
2005-09-28, 15:37:43
Aber hatte der R420 nicht schon 64 ALus? Der C1 hat sogar 48!

Nein die R4xx Linie hat mit 4 quads auch 16 ALUs.

Der C1/Xenos hat tatsaechlich 48 ALUs, aber hier handelt es sich erstmal um vereinte ALUs und zweitens hat hier der Begriff ALU eine etwas andere Bedeutung.

Xenos ist im Grund ein 3* 16-way SIMD Prozessor, wobei 3*16 natuerlich 48 ergibt.

Das ALU zu TMU Verhaeltnis ist bis zu R520 immer noch bei 1:1.

Bei RV530, R580 und Xenos ist das Verhaeltnis dann 3:1 und ergo:

RV530 = 12 ALUs/4 TMUs
R580 = 48 ALUs/ 16 TMUs
Xenos = 48 ALUs/16 TMUs

deekey777
2005-09-28, 15:38:18
Das daran bei ATI gearbeitet wird heisst bei weitem nicht dass er schon produktionsreif ist. Oder hoerst Du von dem Zeug zum ersten Mal?

Die Folie sehe ich zum ersten Mal. Daß der R580 sein Tapeout hatte, war schon vor wochen zu lesen.

http://img352.imageshack.us/img352/14/r5xx2a8ym.th.jpg (http://img352.imageshack.us/my.php?image=r5xx2a8ym.jpg)

Das "Ready Now for Fall Shipments" bezieht sich doch auf alle vier Chips?

Tomcat70
2005-09-28, 15:38:28
16 ALUs@600MHz vs. 4 ALUs@550MHz
16 SIMD Kanaele@600MHz vs. 4 SIMD Kanaele@550MHz.

Ja es soll einen "bis zu" Faktor darstellen.

dann stimmen mich die geleakten x1300 werte eigentlich ja doch recht positiv.
wenn man das mit der alten architektur vergleicht, sollte sich doch die effizienz einigermassen gut erhöht haben.

Ailuros
2005-09-28, 15:43:01
dann stimmen mich die geleakten x1300 werte eigentlich ja doch recht positiv.
wenn man das mit der alten architektur vergleicht, sollte sich doch die effizienz einigermassen gut erhöht haben.

Im low-end und mainstream schon; aber wenn ich jetzt von hypothetischen 15k 3dfart Punkten lese brauch ich dann sicher Beruhigungs-Pillen LOL. NVIDIA behauptete auch vor dem NV40 Launch dass er um etwa 8x mal schneller sei als NV35; dass dieses nur bei einigem bloeden Shader der Fall war ist Nebensache.

Die Leistung ist im Durchschnitt schon fuer budget/mainstream/high end so wie sie in ATI's eigener roadmap dargestellt wird.

Ailuros
2005-09-28, 15:44:47
Das "Ready Now for Fall Shipments" bezieht sich doch auf alle vier Chips?

Nein. Es bezieht sich auf die 3 davon.

deekey777
2005-09-28, 15:47:02
Nein. Es bezieht sich auf die 3 davon.

In der Realität, wenn man die Logik einschaltet, aber nicht auf der Folie. :)

Tomcat70
2005-09-28, 15:56:35
Im low-end und mainstream schon; aber wenn ich jetzt von hypothetischen 15k 3dfart Punkten lese brauch ich dann sicher Beruhigungs-Pillen LOL. NVIDIA behauptete auch vor dem NV40 Launch dass er um etwa 8x mal schneller sei als NV35; dass dieses nur bei einigem bloeden Shader der Fall war ist Nebensache.

Die Leistung ist im Durchschnitt schon fuer budget/mainstream/high end so wie sie in ATI's eigener roadmap dargestellt wird.

naja, es gibt ja leider andere limitierungen auch noch umso höher man geht. aber ~10k würden mich nun nicht mehr überraschen.

robbitop
2005-09-28, 16:11:36
In den Spielen wo es nicht auffällt, wird eh überall maximal gefiltert (d.h. Klötzengrafik) und die winkelabhängigkeit bringt keine Vorteile.
In der Theorie ja. In der Praxis nicht. Ursache: Wahrnehmung des Menschen ist nicht perfekt. Das berücksichtigt die Theorie nicht. Das hab ich oft schon selbst erlebt. Sogar den Adleraugen von aths ist das schon passiert.

Coda
2005-09-28, 16:13:38
Du möchtest behaupten dass die Winkelabhängigkeit einen psychologischen Hintergrund hat?

robbitop
2005-09-28, 16:20:06
Du möchtest behaupten dass die Winkelabhängigkeit einen psychologischen Hintergrund hat?
Nein. Ich rede von der Spielepraxis. Da können wir auch gern mal eine Umfrage starten. Oft bringt es keinen signifikanten Nachteil bei guter Performance. In anderen Fällen hingegen überschreitet es den Grenzwert der Wahrnehmung (der Personenabhängig ist). Da wäre dann ein NV30 AF nett.
Ich möchte aber wählen können.
Und ich möchte behaupten, dass bei mir die Schwelle der Wahrnehmung sehr sensibel ist.

Coda
2005-09-28, 16:21:36
Nochmal: Da wo man es nicht sieht bringt die Winkelabhängigkeit nichts.

Sunrise
2005-09-28, 16:25:44
Die Folie sehe ich zum ersten Mal. Daß der R580 sein Tapeout hatte, war schon vor wochen zu lesen.

Die Folien sind schon älter. Kristopher hatte darüber bereits am 13. September geschrieben:

The roadmap also refers to R580, and that the card is working in-house at the moment. R580 is essentailly a clock ramp and pipe ramp of R520, but both of those details have not been disclosed yet (even to AIBs). Unfortunately, the R580 will not ship at the same time as R520.

Man darf 3 mal raten, warum nicht. ;)

robbitop
2005-09-28, 16:46:48
Nochmal: Da wo man es nicht sieht bringt die Winkelabhängigkeit nichts.
Sehe ich anders ;).
Was hast du überhaupt gegen die Freiheit, das AF runterzustellen, wenn dir ein NV30 Mode als HQ (fiktiv natürlich) garantiert wäre? Vieleicht hast du einfach viel viel bessere Augen als ich? Was nützt mir das beste AF, wenn meine Augen den Vorteil nicht sehen?

Oh c'mon! Bitte sag nicht, dass ich dann den AF Grad runterstellen soll? Nope. Denn gerade auf langen Gängen kann der Grad nicht hoch genug sein. Gerade bei Max Payne oder Mafia ist es am Ende immer sehr verschwommen. Auch bei hohen Modi. Bei Schrägen hingegen fällt es meiner Wahrnehmung erst ab einem gewissen Schwellenwert auf. Der ist höher als der Schwellenwert für Böden. Warum?? Ich weiß es nicht. Aber das ist wohl bei der Mehrzahl der User so. Frag' mal Raff oder Lolman.

In der Theorie stimme ich dir natürlich 100%ig zu.

Ailuros
2005-09-28, 19:26:50
naja, es gibt ja leider andere limitierungen auch noch umso höher man geht. aber ~10k würden mich nun nicht mehr überraschen.

Neue GPUs brauchen auch einen neuen 3dmark, oder?

deekey777
2005-09-28, 19:28:59
Neue GPUs brauchen auch einen neuen 3dmark, oder?

Ich habe heute von Futuremark eine Email bekommen, die mir einen Rabatt von ganzen $5 beim Kauf der PC Mark 2005 Advanced gewährt. Vielleicht ein Zeichen?

Franzmann-Jan
2005-09-28, 19:29:58
Naja ich denke R520 und G70 werden sich wohl noch mit dem 3d Mark2005 begnügen müssen. Mitte 2006 kommt wohl der Nachfolger aus dem Hause Futuremark.

Ailuros
2005-09-28, 19:30:41
Ich habe heute von Futuremark eine Email bekommen, die mir einen Rabatt von ganzen $5 beim Kauf der PC Mark 2005 Advanced gewährt. Vielleicht ein Zeichen?

Ja; dass kein Schwein den Mist kauft :biggrin:

Ailuros
2005-09-28, 19:32:32
Naja ich denke R520 und G70 werden sich wohl noch mit dem 3d Mark2005 begnügen müssen. Mitte 2006 kommt wohl der Nachfolger aus dem Hause Futuremark.

Es soll also dieses Jahr keinen neuen 3dmark geben? :| ;D

Horimoto
2005-09-28, 19:46:37
Wie sollte er denn heissen?
3Dmurks05 second edition?
3dmurks05 reloaded?
3dmurks05 revolutionz?

Ich denke auch an ein release Frühjahr/Sommer '06.

könnte aber nciht bald mal wieder ein AQ4 kommen? Auch ohne Spiel dazu? Oder vielleicht mit?

Franzmann-Jan
2005-09-28, 20:15:55
Wahrscheinlich 3Dmark07, wie alle informierten User wissen, wird immer ein Jahr übersprungen. Wenn ich mich recht erinnere ist das seit der Ausführung 2001 so.

Horimoto
2005-09-28, 20:45:33
dann würden wir aber ziemlich lange warten müssen...................
Und ein 3dmark07 in 2005,........
Der 05er ist doch '05, der 03er '03 erschienen oder? Kann mich nimmer erinnern^^

horn 12
2005-09-28, 20:48:12
@Ailuros

nun , einige zeit vergangen !
wie schätzt DU nun den X1600 XT um ca. 249 US ein ?
Performance Mässig mit AA+ AF wohl sicher über der X800 PRO
,wenn nicht über einer X850 PRO , oder sehe ich dies komplett falsch !

die X1600 XT würde dann knapp 215 euro kosten
und die X1800 XL 256 MB ( 449 US ) dann ca. 350 - 360 euro !

und die strassenpreise nochmals - 5 % ca.
dann würde sich sicherlich ein kauf lohnen !

Demirug
2005-09-28, 20:49:08
Für was braucht ihr einen neuen 3dmark? Es gibt ja auch noch kein neues DX.

3d
2005-09-28, 20:56:18
eben, und 2006 wirds wohl noch nix mit SM4.
der 03er hat alles was man braucht. (SM3)

3dmark01, 03, 05... wie gehts wohl weiter?
(der 00er mark zählt nicht)
aber ich denke der 07er könnte schon ende 06 rauskommen.
ist der 05er nicht auch schon ende 04 rausgekommen?

Die gelbe Eule
2005-09-28, 21:34:36
könnte aber nciht bald mal wieder ein AQ4 kommen? Auch ohne Spiel dazu? Oder vielleicht mit?

So wie es aussieht ist alles bei Massive dicht. Zwar funktioniert deren Seite noch, ist aber mittlerweile über 1 Jahr alt. Das AM Forum ist auch dicht.

eben, und 2006 wirds wohl noch nix mit SM4.
der 03er hat alles was man braucht. (SM3)

3dmark01, 03, 05... wie gehts wohl weiter?
(der 00er mark zählt nicht)
aber ich denke der 07er könnte schon ende 06 rauskommen.
ist der 05er nicht auch schon ende 04 rausgekommen?

NextGen VGA, dann haben wir auch einen neuen 3DM. Das ne SE kommen könnte, wenn SM4.0 noch mit DX kommt, wäre möglich.

TheGood
2005-09-28, 21:54:12
Ich gehe auch nicht davon aus dass vor anfang mitte nächstes jahr ein neuer 3dMark rauskommt.
ich denke der wird erst mit r600 und dem neuen von nvidia rauskommen. Und das ist imho frühestens mitte 2006.
Arbeiten tun sie aber schon lange am neuen 3dmark.

reunion
2005-09-28, 23:47:59
X1800 XT: 8VS 4 QUAD, SHADER the CORE structure is nearly identical with R420, only increased SM3.0.

ATI will be able to flaunt that, R5XX is only through DCT test SM3.0 GPU, R520 is on SM3.0 is DONE RIGHT.

Ring Bus there can be equal to 8 32bit MC.

X1800XT in this universe most accurate frequency specification: 625MHz|1500MT/s.

Only can support FP HDR MSAA...

Supports the FP writing coherence compression, new 3DC+

http://bbs.gzeasy.com/index.php?showtopic=460367&st=20

reunion
2005-09-28, 23:49:29
Ati Tray Tools - 1.0.3.750

* Added support for Adaptive anti-aliasing mode. Substantially improves visual image quality by enabling supersampling anti-aliasing on transparent textures, and multi-sampling anti-aliasing on all other textures. This delivers exceptional levels of image quality, while maintaining very high levels of performance. (Only Catalyst 5.9 and up and only if supported by hardware)

StefanV
2005-09-29, 00:16:40
Hm, das klingt durchaus interessant, was der R520 so als 'new features' bietet =) =)

Mal abwaren, was noch alles in ihm steckt, ev. ein 'extreme Quality AF'? ;)

Franzmann-Jan
2005-09-29, 00:21:59
[i]X1800 XT: 8VS 4 QUAD, SHADER the CORE structure is nearly identical with R420, only increased SM3.0.

Ich kann es einfach nicht glauben. Nach den Angaben ist der R520 maximal 10% schneller als ein R480. Was bringt denn soviel Bandbreite wenn man dementsprechend wenig füllrate hat? So gut wie nichts oder?

ATI will be able to flaunt that, R5XX is only through DCT test SM3.0 GPU, R520 is on SM3.0 is DONE RIGHT.

Ring Bus there can be equal to 8 32bit MC.

Kann mir das mal jemand genauer erklären?

Juerg
2005-09-29, 00:29:32
8 32bit MC = 8* 32 bit = 256bit = 8 Memory crossbars = bessere Ausnutzung, Effizienz durch Granularität.

R520 hat anscheinend die richtige SM3 Implementation bekommen während es bei den RV5xx so aussieht wie wenn was arg nahe an der Nicht-Erfüllung der SM3.0 Spec abgespeckt wurde.

Meine Interpretation...

MadManniMan
2005-09-29, 00:52:20
Wir haben also eine Bandbreite von >45GB/s, dabei einen Memory Controller mit einer Granularität, die so bisher nicht da war - die Karte wird für AA ideal ... aber hört! Es deutet sich Transparency AA an! Hierfür wiederum könnte die geringere Füllrate ärgerlich werden, aber immerhin kommt das Feature - scheinbar - überhaupt, was mich freut.

Mit besserem AF rechne ich nicht.

mapel110
2005-09-29, 01:43:00
Ati Tray Tools - 1.0.3.750

* Added support for Adaptive anti-aliasing mode. Substantially improves visual image quality by enabling supersampling anti-aliasing on transparent textures, and multi-sampling anti-aliasing on all other textures.
Seit wann greift MSAA bei Texturen? :confused:

deekey777
2005-09-29, 01:45:12
Seit wann greift MSAA bei Texturen? :confused:

Seit Ati Tray Tools - 1.0.3.750
Ist wohl unglücklich ausgewählt, damit jeder versteht, worum es da geht.

-error-
2005-09-29, 01:46:35
Wir haben also eine Bandbreite von >45GB/s, dabei einen Memory Controller mit einer Granularität, die so bisher nicht da war - die Karte wird für AA ideal ... aber hört! Es deutet sich Transparency AA an! Hierfür wiederum könnte die geringere Füllrate ärgerlich werden, aber immerhin kommt das Feature - scheinbar - überhaupt, was mich freut.

Mit besserem AF rechne ich nicht.

Wenn das Feature kommen würde, sich andere, inklusive mir, sehr freuen.

aths
2005-09-29, 01:54:15
Mit besserem AF rechne ich nicht.Ich schon.

mapel110
2005-09-29, 02:11:14
Ich schon.
Im Vergleich zum Vorgänger R4xx? O_o
Mal angenommen, es würde stimmen. Wie kurzfristig könnte ATI auf den G70 reagiert haben in dem Bereich? Oder falls es keine Reaktion auf G70 ist, welche Taktik steckt dahinter, es zu verbessern bei wohl definitiv geringerer Füllrate als G70?
:uponder:
p.s. Okay, ATI konnte nicht wissen, wie hoch die Füllrate des G70 werden würde.

MadManniMan
2005-09-29, 02:48:57
Ich schon.

Ich schreib zwar eigentlich nur, was mapel auch sagt, aber: was veranlaßt Dich zu dieser Annahme?

Und Desire - jetzt sag schon, haste jemals nen NV30 benützt? :D

-error-
2005-09-29, 02:56:18
Und Desire - jetzt sag schon, haste jemals nen NV30 benützt? :D

Nö, habe ich nich und ich wills auch garnicht. t ;) Wenn die 5800 Ultra schon im 2D Betrieb wegen eines Bildschirmschoner abraucht ... ;D

Die 5800 Ultra hat dennoch irgendwie Kultstatus.

MadManniMan
2005-09-29, 03:12:08
Die 5800 Ultra hat dennoch irgendwie Kultstatus.

...und dabei absolut brauchbar. Unterm Strich kommts nur aufs Preis-Leistungs-Verhältnis an ... und vor allem die 5800 Vanilla war überraschend schnell überraschend günstig.
Aber R.I.P. NV30, es geht hier um den R520!

Ailuros
2005-09-29, 04:28:00
@Ailuros

nun , einige zeit vergangen !
wie schätzt DU nun den X1600 XT um ca. 249 US ein ?
Performance Mässig mit AA+ AF wohl sicher über der X800 PRO
,wenn nicht über einer X850 PRO , oder sehe ich dies komplett falsch !

die X1600 XT würde dann knapp 215 euro kosten
und die X1800 XL 256 MB ( 449 US ) dann ca. 350 - 360 euro !

und die strassenpreise nochmals - 5 % ca.
dann würde sich sicherlich ein kauf lohnen !


Nochmal das Bild von ATI's roadmap ist eindeutig was die Leistung betrifft. Nochmal vertikale Achse ist fuer Leistung und dementsprechend sind die verschiedenen GPUs von ATI selber platziert.

Es kommt darauf an was Du momentan im System hast.

StefanV
2005-09-29, 09:26:58
Im Vergleich zum Vorgänger R4xx? O_o
Mal angenommen, es würde stimmen. Wie kurzfristig könnte ATI auf den G70 reagiert haben in dem Bereich? Oder falls es keine Reaktion auf G70 ist, welche Taktik steckt dahinter, es zu verbessern bei wohl definitiv geringerer Füllrate als G70?
:uponder:
p.s. Okay, ATI konnte nicht wissen, wie hoch die Füllrate des G70 werden würde.
Hm, ev. hat ATI ja TriTMUs in den Chip gepackt, dann würd der Chip bei AF die G70 versägen können...
Ev. meint man ja das mit 'extreme TMUs', das Problem ist, das wir in diesem Bereich wenig bis garnichts erfahren werden, bis der Mist in den Regalen steht...
Schade eigentlich...

Auf jeden würd ich mal von einer mittelprächtigen Überarbeitung ausgehen und erstmal abwarten und Tee rauchen, was am R520 noch alles anders ist als bei anderen...

Coda
2005-09-29, 09:44:52
Hm, ev. hat ATI ja TriTMUs in den Chip gepackt, dann würd der Chip bei AF die G70 versägen können...Auch schon bei Trilinear, wenn nur die Füllrate limitiert.

Ailuros
2005-09-29, 12:10:45
Hm, ev. hat ATI ja TriTMUs in den Chip gepackt, dann würd der Chip bei AF die G70 versägen können...
Ev. meint man ja das mit 'extreme TMUs', das Problem ist, das wir in diesem Bereich wenig bis garnichts erfahren werden, bis der Mist in den Regalen steht...
Schade eigentlich...

Auf jeden würd ich mal von einer mittelprächtigen Überarbeitung ausgehen und erstmal abwarten und Tee rauchen, was am R520 noch alles anders ist als bei anderen...

Da es eine unmittelbare Verbindung zwischen R5x0<-->Xenos gibt (egal dass das letztere ein unified shader core ist), wuerde es mich enorm wundern warum Xenos immer noch bilineare TMUs hat.

reunion
2005-09-29, 14:58:26
ATI R520 AGP cancelled (http://www.the-inquirer.net/?article=26543)

Oblivion
2005-09-29, 15:02:06
ATI R520 AGP cancelled (http://www.the-inquirer.net/?article=26543)

Wenns stimmt (is ja vom Fuad) dann: SELBER SCHULD !!!

wenn sie den selben Fehler nochmal machen dann kann ihnen eh keiner helfen :ubash3:

MadManniMan
2005-09-29, 15:19:05
ATI R520 AGP cancelled (http://www.the-inquirer.net/?article=26543)

(wenns stimmt)

...PCIe is picking up so fast that ATI realised that not that many people will go for AGP version of the card, ...

...wie blöd kann man eigentlich sein? :|

deekey777
2005-09-29, 15:43:34
ATI R520 AGP cancelled (http://www.the-inquirer.net/?article=26543)

Ach kommt, der Typ hat einfach die Folie mit der Road-Map der PCIe-Versionen gesehen und saugt sich die News aus den Fingern. :biggrin:

Von einer AGP-Version der XI800 wurde nie gesprochen, nur auf der alten Road-Map war sie zu sehen.

Enterprise
2005-09-29, 15:59:09
http://www.tomshardware.com/hardnews/20050928_155644.html

Mobile Version --> X1000

Tomcat70
2005-09-29, 16:18:27
nur mehr 5 tage, dann hat der spuk endlich ein ende ;)

eigentlich schon sehr ungewöhnlich wie gut ATI und alle beteiligten diesmal dicht gehalten haben.

-error-
2005-09-29, 16:27:43
nur mehr 5 tage, dann hat der spuk endlich ein ende ;)

eigentlich schon sehr ungewöhnlich wie gut ATI und alle beteiligten diesmal dicht gehalten haben.

Mit welchen Folgen ATI wohl gedroht hat? Und warum haben die das überhaupt gemacht?

Es ist wirklich kein Vorabpreview aufgetaucht, will ATI etwas bis zum Schluss geheimhalten? :uponder:

mapel110
2005-09-29, 17:53:34
Ach kommt, der Typ hat einfach die Folie mit der Road-Map der PCIe-Versionen gesehen und saugt sich die News aus den Fingern.
Den Satz kann man auch ohne Smilie stehen lassen. (y)

StefanV
2005-09-29, 18:05:12
Da es eine unmittelbare Verbindung zwischen R5x0<-->Xenos gibt (egal dass das letztere ein unified shader core ist), wuerde es mich enorm wundern warum Xenos immer noch bilineare TMUs hat.
Eben, das 'Problem' beim R520 ist nicht das, was wir wissen, das ist ja relativ klar (4 Quads, 8 VS and so on), das 'Problem' ist eher das, was wir nicht wissen, wie z.B.

-TriTMUs
-wurde am AF gedreht?
-wenn ja, in welche Richtung?
etc...

Was wir vermuten ist, das ATi was am FSAA gedreht hat, so das es alles glätten könnte, a la Super Sampling (bzw adaptives FSAA)...


Oder andersrum:

Der R520 kann immer noch ein Hammerchip sein, wenn auch nicht von der Performance her, er kanns aber auch nicht werden...

Die Frage ist doch eher nicht, wie schaut die Performance aus oder wie gut ist SM3 implementiert sondern was wurde alles geändert, wie ist die Bildqualität und so weiter :)

Quasar
2005-09-29, 18:06:19
Was wir vermuten ist, das ATi was am FSAA gedreht hat, so das es alles glätten könnte, a la Super Sampling (bzw adaptives FSAA)...

Das können schon X800-Karten und vermutlich alle DX9-Radeons.

Coda
2005-09-29, 18:17:20
Also wenn R520 winkelunabhängiges AF und anständige Performance liefert werd ich ihn mir wohl auch zulegen.

betasilie
2005-09-29, 18:20:38
Also wenn R520 winkelunabhängiges AF und anständige Performance liefert werd ich ihn mir wohl auch zulegen.
Ich auch. =)

Coda
2005-09-29, 18:25:59
Du hast ja keine GTX...

mindfaq
2005-09-29, 18:33:14
Hmm, bei winkelunabhängigem AF würde ich es mir auch noch mal überlegen, wenn der Preis stimmt.

Aber die Wahrscheinlichkeit, dass das passiert, halte ich nicht für sehr groß. ;)

horn 12
2005-09-29, 19:13:56
ati hält sicher eine MEGA Uberaschung parat !

aber dass der R520 NICHT mher uaf agp kommen soll , das finde ich ne totale Enttäuschung , hoffe das Gerücht stimmt nicht ,
und falls doch hofft meine Person ; das der RV 530 mindestens so stark wird wie ne X800 XL ( wenngleich auch mit nur 128 bit interface )
dann würde ich sicherlich für AGP diesen holen !
und bezweifle das langsam nicht mehr !

hoffe und glaube dass ich mich nicht irre ! ;D

Die gelbe Eule
2005-09-29, 19:34:43
Für was haben sie dann den Rialto entwickelt wenn ihn kein Schwanz nutzt?
Fuad hat echt die Pfanne heiss die letzten Wochen ...

deekey777
2005-09-29, 19:58:40
Für was haben sie dann den Rialto entwickelt wenn ihn kein Schwanz nutzt?
Fuad hat echt die Pfanne heiss die letzten Wochen ...
Trotzdem wird man eine neue Platine entwickeln müssen, da hilft der Rialto-Chip recht wenig. Vielleicht könnte man aber die AGP-Platine der X800XL nutzen.

Adam D.
2005-09-29, 20:49:50
ati hält sicher eine MEGA Uberaschung parat !

aber dass der R520 NICHT mher uaf agp kommen soll , das finde ich ne totale Enttäuschung , hoffe das Gerücht stimmt nicht ,
und falls doch hofft meine Person ; das der RV 530 mindestens so stark wird wie ne X800 XL ( wenngleich auch mit nur 128 bit interface )
dann würde ich sicherlich für AGP diesen holen !
und bezweifle das langsam nicht mehr !

hoffe und glaube dass ich mich nicht irre ! ;D
Der RV530 so schnell wie eine X800XL? Was erwartest du dann vom R520XT? Sorry, aber das ist so wahrscheinlich wie 15 Punkte in Mathe für mich. Und du kannst dir denken, wie wahrscheinlich das jetzt ist ;) (1+1=3)

Die gelbe Eule
2005-09-29, 21:17:49
Trotzdem wird man eine neue Platine entwickeln müssen, da hilft der Rialto-Chip recht wenig. Vielleicht könnte man aber die AGP-Platine der X800XL nutzen.

Wieder wird NVidia der Ball zugespielt.

betasilie
2005-09-29, 21:36:08
Du hast ja keine GTX...
Ja, aber vielleicht aus den selben Gründen, aus den Du deine (wenn ich das richtig interpretiere) wieder verkaufen willst.

deekey777
2005-09-29, 21:40:16
Wieder wird NVidia der Ball zugespielt.
Siehst du irgendwo eine 7800GTX AGP?

LordDeath
2005-09-29, 21:44:02
ich glaub eh, dass agp im high end nicht mehr gebraucht wird. im mainstream aber doch!

Black-Scorpion
2005-09-29, 21:48:01
Wieder wird NVidia der Ball zugespielt.
Die haben ja auch so viele 7800er AGP Karten.

Die gelbe Eule
2005-09-29, 21:49:50
Siehst du irgendwo eine 7800GTX AGP?

Muss man jetzt schon? NVidia kann reagieren, ATI will nicht.