PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Coda
2005-08-23, 15:59:41
Auf der gleichen Fläche ja. Das kann man sich ja leicht ausrechnen. Aber ob der Chip auch doppelt so viele Transistoren hat ist eine andere Sache.

R520 wird für AGP kommen.Quelle?

Gast
2005-08-23, 16:00:01
R520 wird für AGP kommen.


Ohoh NDA Bruch, zumal sie gestern erst unterzeichnet wurden!!!

Gast
2005-08-23, 16:08:23
Quelle?

und sowas von leuten die sich für informiert halten,steht schon immer auf der roadmap

reunion
2005-08-23, 16:10:29
Auf der gleichen Fläche ja. Das kann man sich ja leicht ausrechnen. Aber ob der Chip auch doppelt so viele Transistoren hat ist eine andere Sache.


Natürlich, es werden auch höchstwarscheindlich deutlich weniger sein, sonst müssten die beiden Dies annähernd gleich Groß sein.

http://www.xbitlabs.com/images/news/2005-08/r480_r520_bg.jpg

http://www.xbitlabs.com/news/video/display/20050822210504.html


Quelle?

Ich bin es inzwischen leid, immer wieder die gleiche, geleakte ATi-Roadmap zu posten:

http://www.hardwareoc.hu/upload/news/8058_atiroadmap_t5cj.jpg

reunion
2005-08-23, 16:10:47
Ohoh NDA Bruch, zumal sie gestern erst unterzeichnet wurden!!!

Blödsinn.

Coda
2005-08-23, 23:43:38
und sowas von leuten die sich für informiert halten,steht schon immer auf der roadmapEs gibt einen unterschied zwischen technisch informiert sein und jedes Marketing-Paper kennen.

cR@b
2005-08-23, 23:47:45
R520 wird für AGP kommen.

Hmm und ich denke irgendwo gelesen zu haben, dass die diese AGP-Geschichte genauso wie bei nVidia´s Neuling dem G70 in die Hände der Grakahersteller gelegt wurde. Also falls der Hersteller will .. könnte er AGP Versionen rausbringen aber wenn dann eh erst lang nach einer PCI-E Version ... wenn überhaupt !!

reunion
2005-08-24, 12:20:22
Hmm und ich denke irgendwo gelesen zu haben, dass die diese AGP-Geschichte genauso wie bei nVidia´s Neuling dem G70 in die Hände der Grakahersteller gelegt wurde.


nV hat nichtmal ein Referenzdesign für einen G70-AGP.
Es gab ja sogar Gerüchte, wonach der Brückenchip versagen würde.


Also falls der Hersteller will .. könnte er AGP Versionen rausbringen aber wenn dann eh erst lang nach einer PCI-E Version ... wenn überhaupt !!

Wie du siehst, sind sämtliche ATi R(V)5xx-Chips zeitgleich für AGP und PCIe eingetragen.

deekey777
2005-08-24, 13:15:37
Wie alt ist diese Roadmap schon, daß man ihr immer noch trauen kann? Allein die Meldungen, daß die "Value"-Produkte vor der R520XL kommen sollen, machen die Aussagekraft dieser Roadmap beinahe zunichte.

Coda
2005-08-24, 13:30:59
Es gab ja sogar Gerüchte, wonach der Brückenchip versagen würde.Was völliger Blödsinn ist.

reunion
2005-08-24, 14:05:51
Wie alt ist diese Roadmap schon, daß man ihr immer noch trauen kann?


Ist das wirklich von Relevanz?
Eine Roadmap wechselt man nicht wie die Unterhose. Natürlich kann es immer wieder zu Verschiebungen kommen, dass "Grundgerüst" wird allerdings schon lange vorher geplant, und in der Regel auch eingehalten.


Allein die Meldungen, daß die "Value"-Produkte vor der R520XL kommen sollen, machen die Aussagekraft dieser Roadmap beinahe zunichte.

Sehe ich nicht so. Durch die bekannten Fertigungsprobleme mit dem 90nm Prozess verschob sich R520 natürlich deutlich nach hinten, dies macht die anderen Angaben aber nicht weniger glaubwürdig IMHO - oder warum sollte man deshalb beispielsweise den R520-AGP streichen?

reunion
2005-08-24, 14:09:56
Was völliger Blödsinn ist.

Kann sein. Trotzdem verstehe ich nicht, warum man den gesamten AGP-Markt (welcher immer noch deutlich über 50% des Gesamtmarktes ausmacht) derart ausgrenzt.

Mumins
2005-08-24, 14:17:20
Kann sein. Trotzdem verstehe ich nicht, warum man den gesamten AGP-Markt (welcher immer noch deutlich über 50% des Gesamtmarktes ausmacht) derart ausgrenzt.

So ist es, mein Mainboard hat 160€ gekostet, da gehen noch einige neue Prozessoren rein, aber ich bekomme keine aktuelle Graka mehr dafür. Das ist eine Frechheit und meiner Meinung nach pure Absicht um einen neuen Standard zu forcieren.

Gast
2005-08-24, 14:47:11
']Doch doch ... wenn alles nach Plan läuft und das hoff ich mal für ATI wird es den R580 als Ablösung des R520 geben ... jeder darf sich dann ausmalen aus welchen gründen...!

:) Dürfen wir den Grund bitte erfahren????

mapel110
2005-08-24, 14:53:13
:) Dürfen wir den Grund bitte erfahren????
Angeblich hat nvidia einen sehr großen Vorteil mit dem G70, was Shaderspeed angeht gegenüber R520. Und den gilt es mit dem R580 aufzuholen oder besser noch zu überholen. Sind natürlich nur Gerüchte, aber das meinen hier jedenfalls die Experten. :)

Gast
2005-08-24, 15:05:02
Kann das nicht sein, dass der R520 wenn er nach so einer Verspätung rauskommt dann ein umgelabelter R580 ist und der der R580 der auch unter R580 der dann rauskommt nur ein Clock Upgrade des Originalen R580 ist?

ShadowXX
2005-08-24, 15:11:59
Ist das wirklich von Relevanz?
Eine Roadmap wechselt man nicht wie die Unterhose. Natürlich kann es immer wieder zu Verschiebungen kommen, dass "Grundgerüst" wird allerdings schon lange vorher geplant, und in der Regel auch eingehalten.

Sehe ich nicht so. Durch die bekannten Fertigungsprobleme mit dem 90nm Prozess verschob sich R520 natürlich deutlich nach hinten, dies macht die anderen Angaben aber nicht weniger glaubwürdig IMHO - oder warum sollte man deshalb beispielsweise den R520-AGP streichen?

Es gibt auch ein paar die sagen, das diese Roadmap ein Fake ist....musst mal im Thread suchen, da gibts auch ein paar begründungen dazu.

IMHO wird es den r520 nur per Brückenchip für AGP geben und dies wohl genauso wie bei nV in die Hände der Graka-Hersteller gelegt werden.

Im übrigen glaube ich persönlich auch, das das ganze dem Ankurbeln von Chipsatzverkäufen dienen soll. Hat ATI nicht auch letztens ein paar PCIe-Bretter rausgebracht??

deekey777
2005-08-24, 15:21:05
Kann das nicht sein, dass der R520 wenn er nach so einer Verspätung rauskommt dann ein umgelabelter R580 ist und der der R580 der auch unter R580 der dann rauskommt nur ein Clock Upgrade des Originalen R580 ist?

Dann würde ich meinen Glauben an ATi verlieren... :biggrin:
Der R580 soll ein Shadermonster sein.

€: Gerade dachte ich an Ailuros...

Ailuros
2005-08-24, 15:22:20
Kann das nicht sein, dass der R520 wenn er nach so einer Verspätung rauskommt dann ein umgelabelter R580 ist und der der R580 der auch unter R580 der dann rauskommt nur ein Clock Upgrade des Originalen R580 ist?

Nein. R580 wird nicht vor Q4 fertig sein.

IMHO wird es den r520 nur per Brückenchip für AGP geben und dies wohl genauso wie bei nV in die Hände der Graka-Hersteller gelegt werden.

Im übrigen glaube ich persönlich auch, das das ganze dem Ankurbeln von Chipsatzverkäufen dienen soll. Hat ATI nicht auch letztens ein paar PCIe-Bretter rausgebracht??

Das mit den Herstellern duerfte schon stimmen. Da es aber sonst zu teuer wird, haben wohl eher die niedrigsten Modelle vom high end Segment groessere Chancen, was wohl genauso fuer R520 als auch fuer G70 gelten sollte. Von einer AGP Version der 7800GT hab ich auf jeden Fall bis jetzt noch nichts gehoert.

Ailuros
2005-08-24, 15:26:38
Dann würde ich meinen Glauben an ATi verlieren... :biggrin:
Der R580 soll ein Shadermonster sein.

€: Gerade dachte ich an Ailuros...

Uhhmm ja im Vergleich zur G70 und takt-normalisiert eben nicht, denn 24*2 und 16*3 = 48. Obwohl ich noch keine relevante Indizien habe, was waere wenn NV beim 90nm Teil auf 24*3 steigt? Zwar glaube ich nicht daran, aber man kann es auch nicht ausschliessen; nur ein hoeherer Takt fuer den 90nm Nachfolger der G70 klingt mir zu banal.

deekey777
2005-08-24, 20:28:16
Eine Frage:
In einem der Tests stand, daß ATis Highend-Grafikchips seit dem R360 alle miteinander pinkompatibel und die Platinen deswegen nur angepaßt wurden. Mit der Platine der X800XL AGP hätte ATi so eine Platine für eine mögliche R520 AGP, denn ATi wird wohl nie wieder zweigleisig fahren.
Oder sehe ich das ganz falsch?

Winter[Raven]
2005-08-24, 22:14:56
Angeblich hat nvidia einen sehr großen Vorteil mit dem G70, was Shaderspeed angeht gegenüber R520. Und den gilt es mit dem R580 aufzuholen oder besser noch zu überholen. Sind natürlich nur Gerüchte, aber das meinen hier jedenfalls die Experten. :)

Wenn man so glaubt, was man so hört, soll der G70 was Shaderperformance angeht den R520, regelrecht in der Luft zerfetzen :biggrin:

Alles reine Spekulation, versteht sich.

Gast
2005-08-24, 22:25:17
']Wenn man so glaubt, was man so hört, soll der G70 was Shaderperformance angeht den R520, regelrecht in der Luft zerfetzen :biggrin:

Alles reine Spekulation, versteht sich.

Kann ich mir kaum vorstellen, dass der G70 den R520 so zerfetzt! ATi bringt kaum einen Chip raus der schon von vornherein unterlegen ist!

Gast
2005-08-24, 23:07:41
Und was sollen sie tun wenn doch, etwa warten bis man den R580 in Massen produzieren kann? Sicher nicht, raus damit, ein paar rausgepickte Sampels so hoch takten das man grade so die GTX Variante schlägt oder gar nur ein "even" erreicht, das langt um wenigstens etwas Presse zu haben. Irgendwas "HighEnd" brauch man ja um die Midrange-Lowend Varianten (da liegt das Geld) zu befeuern.

Tomcat70
2005-08-24, 23:21:10
']Wenn man so glaubt, was man so hört, soll der G70 was Shaderperformance angeht den R520, regelrecht in der Luft zerfetzen :biggrin:

Alles reine Spekulation, versteht sich.

träum weiter..........die neue generation von nvidia schlägt ja nicht mal die jetzige ati-generation um längen, geschweige denn die neue.
aber sowas wie logik hilft deiner denke ohnehin nicht.
zum glück gibts hier auf 3dc eine ignore-liste, hab sie bisher nicht verwendet, aber deine überflüssigen kommentare kann ich wohl nur auf die art loswerden....

mbee
2005-08-24, 23:34:48
Ist das jetzt ein Kindergarten hier, oder was?
Bis auf die Flimmer-Geschichte kann man vom G70 wohl kaum von einem lahmen Speedupdate sprechen. Ich möchte meine x800 xt pe jedenfalls auf keinen Fall zurück und das will was heißen mit zuvor 3 Generationen ATI ;)

deekey777
2005-08-24, 23:38:43
Uhhmm ja im Vergleich zur G70 und takt-normalisiert eben nicht, denn 24*2 und 16*3 = 48. Obwohl ich noch keine relevante Indizien habe, was waere wenn NV beim 90nm Teil auf 24*3 steigt? Zwar glaube ich nicht daran, aber man kann es auch nicht ausschliessen; nur ein hoeherer Takt fuer den 90nm Nachfolger der G70 klingt mir zu banal.

An sich ist die Taktnormalisierung eine tolle Sache, doch schlauer wird man daraus nicht, besonders nicht, wenn der eine Chip auf die hohen Takte setzt, der andere auf die "breite" Architektur. Nichteinmal beim NV40 vs. R420 wird es klappen.

Gast
2005-08-24, 23:39:16
Ist das jetzt ein Kindergarten hier, oder was?
Bis auf die Flimmer-Geschichte kann man vom G70 wohl kaum von einem lahmen Speedupdate sprechen. Ich möchte meine x800 xt pe jedenfalls auf keinen Fall zurück und das will was heißen mit zuvor 3 Generationen ATI ;)
Selbst schuld,kein Mitleid!
Spätestens im beim Launch der R520 wirst du es bereuen...

mbee
2005-08-24, 23:42:53
Selbst schuld,kein Mitleid!
Spätestens im beim Launch der R520 wirst du es bereuen...
Ich werde nie verstehen, dass einige Exemplare der Gattung Mensch sich anscheinend nur über bestimmte Marken, was Autos, Klamotten und auch Grafikkarten betrifft, definieren können. Irgendwie extrem arm, so was ;)
Ich spiele solange F.E.A.R. mit der schnellstmöglichen Grafikkarte egal von wem sie produziert wird. Sollte der R520 so viel besser sein (was ich nicht glaube), wird eben wieder geswitcht :P

Winter[Raven]
2005-08-25, 00:01:59
träum weiter..........die neue generation von nvidia schlägt ja nicht mal die jetzige ati-generation um längen, geschweige denn die neue.
aber sowas wie logik hilft deiner denke ohnehin nicht.
zum glück gibts hier auf 3dc eine ignore-liste, hab sie bisher nicht verwendet, aber deine überflüssigen kommentare kann ich wohl nur auf die art loswerden....

Jung Jung Jung, du vergleichst eine GF7800 GTX mit den häutigen GameS? Diese sind was Technikanforderungen an Shader angeht ein Furz gegen den was hoffentlich bald erscheinen wird.

Eine >= 3x mehr Performace gegenüber der Vorgeneration ist also nichts ...

//EDIT:

Die Schlacht wird nicht mit DOOM III/Farcry oder SC3 ausgetragen sondern mit schweren Geschützen die noch nicht erschienen sind.

Gast
2005-08-25, 00:37:05
']Jung Jung Jung, du vergleichst eine GF7800 GTX mit den häutigen GameS? Diese sind was Technikanforderungen an Shader angeht ein Furz gegen den was hoffentlich bald erscheinen wird.

Eine >= 3x mehr Performace gegenüber der Vorgeneration ist also nichts ...

//EDIT:

Die Schlacht wird nicht mit DOOM III/Farcry oder SC3 ausgetragen sondern mit schweren Geschützen die noch nicht erschienen sind.

Lieber nvidia-Fanboy,

kaufe dir ein Y-Heft und baue für nvidia eine vernüftige Grafikkarte die NACHFOLGENDES endlich kann!

Pure Video nBugs bei G70
- Kein AA in HDR Modus
- Kein zugesagter H.264 Support möglich

Bonus nBug: Letzter Treiber 77.77 SM3.0 keine WHQL Zertifizierung

PS:
:P Ganz zu schweigen vom Low-Qual.-nBug beim G70 - dem sogg. Flimmer-Effekt!

Das dann noch eine X800GT eine 6600GT um Längen schlägt (www.chip.de) ist das Sahnehäubchen obendrauf! Das ist ENDGEIL!

SKYNET
2005-08-25, 00:55:25
genau, und du kauf dir ne micky maus, da steht dann drinne wie man echtes HDR und SM3.0 in eine ATI bekommt... man brauch nur einen lötkolben, ein elektronenraster-mikroskop und eine ruhige hand... :rolleyes:

also lieber HDR ohne AA, als garkein HDR, sondern nur erschummeltes das über die PS läuft und somit dermaßen langsam ist, das man es nichtmal unter 800*600 richtig nutzen kann. :P

und dank 80er treiber gibt es beim G70 demnächst wieder flimmerfreies AF. :cool:

und ja, die 800GT schlägt die 6600GT, aber die 6800XT wird sie wohl nicht bekommen. ;D

MadManniMan
2005-08-25, 01:54:34
träum weiter..........die neue generation von nvidia schlägt ja nicht mal die jetzige ati-generation um längen, geschweige denn die neue.
aber sowas wie logik hilft deiner denke ohnehin nicht.
zum glück gibts hier auf 3dc eine ignore-liste, hab sie bisher nicht verwendet, aber deine überflüssigen kommentare kann ich wohl nur auf die art loswerden....

Daß es nur um die reine Shader-Performance geht, hast Du aber schon gelesen?

mapel110
2005-08-25, 02:06:12
Lieber nvidia-Fanboy,

kaufe dir ein Y-Heft und baue für nvidia eine vernüftige Grafikkarte die NACHFOLGENDES endlich kann!

Pure Video nBugs bei G70
- Kein AA in HDR Modus
- Kein zugesagter H.264 Support möglich

Bonus nBug: Letzter Treiber 77.77 SM3.0 keine WHQL Zertifizierung

PS:
:P Ganz zu schweigen vom Low-Qual.-nBug beim G70 - dem sogg. Flimmer-Effekt!

Das dann noch eine X800GT eine 6600GT um Längen schlägt (www.chip.de) ist das Sahnehäubchen obendrauf! Das ist ENDGEIL!
Diskutator. fürs ausgeloggte Flamen gibts hier jetzt 2 Punkte. Die Warnung, die du erhalten hast, solltest du ernst nehmen. Wie immer gilt keine Diskussion über die Punkte hier im thread, sondern per PN oder Email.

Ailuros
2005-08-25, 02:31:04
Kann ich mir kaum vorstellen, dass der G70 den R520 so zerfetzt! ATi bringt kaum einen Chip raus der schon von vornherein unterlegen ist!


Alle GPUs vor der R300 und dass schon seit 1998. Da manche damals noch zu jung waren, druecke ich ein Auge zu ;)

mapel110
2005-08-25, 02:36:03
Alle GPUs vor der R300 und dass schon seit 1998. Da manche damals noch zu jung waren, druecke ich ein Auge zu ;)
Außerdem ist Shaderperformance nur eine Seite der Medaille. Vielleicht hat er ja andere Kaufanreize.
Irgendwie vermisse ich ja die Paperlaunches. Bei der GeforceFX war das imo richtig cool mit den 3 Launches. Da gabs immer neues Holz fürs Forumsfeuer. :)

Ailuros
2005-08-25, 02:38:17
Uebrigens koennte wir alle die Sache etwas nuechterner und zivilisierter behandeln? Da man eben 2 zum Tango braucht, sollten die sinnlosen Provokationen von beiden Seiten aufhoeren.

Ailuros
2005-08-25, 02:46:52
Außerdem ist Shaderperformance nur eine Seite der Medaille. Vielleicht hat er ja andere Kaufanreize.
Irgendwie vermisse ich ja die Paperlaunches. Bei der GeforceFX war das imo richtig cool mit den 3 Launches. Da gabs immer neues Holz fürs Forumsfeuer. :)

Das stimmt tatsaechlich; was interessant werden wird ist was und wie hoch genau beim R520 getaktet sein wird. Ich hab das Gefuehl, dass verschiedene "clock domains" keine G70-Exklusivitaet sein werden.

SKYNET
2005-08-25, 02:50:05
Ich hab das Gefuehl, dass verschiedene "clock domains" keine G70-Exklusivitaet sein werden.


wink mit dem zaunpfahl? :| :biggrin: ;)

Gast
2005-08-25, 03:11:32
Cenmocay, deine Taten dürften in naher Zukunft noch Konsequenzen haben. Laß dich überraschen. :)

Mumins
2005-08-25, 07:57:12
d ja, die 800GT schlägt die 6600GT, aber die 6800XT wird sie wohl nicht bekommen

Wie soll das gehen? Eine 6600GT schlägt eine 6800LE, die 6800XT wird nur etwas höher getaktet sein als die 6800LE, von daher dürfte die Karte nicht besser sein als ne 6600GT.

Winter[Raven]
2005-08-25, 10:22:59
Außerdem ist Shaderperformance nur eine Seite der Medaille. Vielleicht hat er ja andere Kaufanreize.
Irgendwie vermisse ich ja die Paperlaunches. Bei der GeforceFX war das imo richtig cool mit den 3 Launches. Da gabs immer neues Holz fürs Forumsfeuer. :)

Nun, kommede Games sind/werden Shaderlimitiert, da gibt es kein wenn und aber.

Wirklich vorstellen kann ich mit nur Vertexlästige oder Füllrate - Schleuder in den der R520 punkten könnte, aber das werden wohl leider nur die Ausnahmen werden ...

Winter[Raven]
2005-08-25, 10:58:10
Uhhmm ja im Vergleich zur G70 und takt-normalisiert eben nicht, denn 24*2 und 16*3 = 48. Obwohl ich noch keine relevante Indizien habe, was waere wenn NV beim 90nm Teil auf 24*3 steigt? Zwar glaube ich nicht daran, aber man kann es auch nicht ausschliessen; nur ein hoeherer Takt fuer den 90nm Nachfolger der G70 klingt mir zu banal.

Daran will ich garnicht denken ... das wäre pervers viel Holz vor der Hüte... das wären ja

16*3 < 24*3 ... was ja 72 wären ... *duck*

HOT
2005-08-25, 11:22:31
']Nun, kommede Games sind/werden Shaderlimitiert, da gibt es kein wenn und aber.

Wirklich vorstellen kann ich mit nur Vertexlästige oder Füllrate - Schleuder in den der R520 punkten könnte, aber das werden wohl leider nur die Ausnahmen werden ...


Halte ich für Quark. Bisher waren AFAIK alle Games hauptsächlich Füllraten und Bandbreitenlimitiert. Das es so ist kann man an der tollen NV Flimmer-Cheaterei sehen beim G70 - oder überhaupt an dem Zwang an Texturfiltern zu sparen. Auch in Zukunft sind Spiele Füllratenlimitiert, die Shaderleistung hat keinen Einfluss, solange die Shader schnell genug sind. Es zählen eben Texel, Texel und noch mehr Texel ;).

mindfaq
2005-08-25, 12:02:19
träum weiter..........die neue generation von nvidia schlägt ja nicht mal die jetzige ati-generation um längen, geschweige denn die neueIch glaube da hat sich jemand die Balken des G70-Review vom 3dcenter angeguckt ohne den Text zu lesen. (6xMSAA vs. 8xS)

Ailuros
2005-08-25, 12:23:43
Halte ich für Quark. Bisher waren AFAIK alle Games hauptsächlich Füllraten und Bandbreitenlimitiert. Das es so ist kann man an der tollen NV Flimmer-Cheaterei sehen beim G70 - oder überhaupt an dem Zwang an Texturfiltern zu sparen. Auch in Zukunft sind Spiele Füllratenlimitiert, die Shaderleistung hat keinen Einfluss, solange die Shader schnell genug sind. Es zählen eben Texel, Texel und noch mehr Texel ;).

ALU-Leistung ist die absehbare Zukunft. Fuellraten-limitierte Spiele sind uebrigens verdammt selten, wenn dann eher CPU-limitiert. Welches heutige Spiel ist denn Deiner Meinung nach "Fuellraten-limitiert"?

Die Flimmerei auf G70 muss noch gruendlich untersucht werden und erst falls und wenn das Zeug erstmal beseitigt wird, werden wir sehen was fuer einen Unterschied in Leistung es ueberhaupt macht; da aber das Ding zwar 24 pixel intern berechnen und nur 16 ausspucken kann, bezweifle ich dass es einen besonderen Unterschied machen wird.

Die Frage ist wieviel der neue Speicher-controller (was mir eher nach einem ring-bus artigem Dingsda klingt) und der moeglich hoeher getaktete Speicher etwas ausmachen werden. Hier wird eben der chip mit mehr Bandbreite versorgt. Da aber diese GPUs den wirklich grossen Unterschied in verrueckt hohen Aufloesungen machen, wird man auch hier der CPU-Limitierung nicht entgehen koennen.

Ailuros
2005-08-25, 12:26:05
']Daran will ich garnicht denken ... das wäre pervers viel Holz vor der Hüte... das wären ja

16*3 < 24*3 ... was ja 72 wären ... *duck*

48@700MHz > 48@550MHz

Coda
2005-08-25, 13:02:07
da aber das Ding zwar 24 pixel intern berechnen und nur 16 ausspucken kann, bezweifle ich dass es einen besonderen Unterschied machen wird.Ist doch Käse. Sobald ein Pixel mehr als 1 Takt braucht (was für 99,99% der heutigen Polygone der Fall sein dürfte) berechnet das Ding effektiv nur noch 12.

HOT
2005-08-25, 13:23:36
ALU-Leistung ist die absehbare Zukunft. Fuellraten-limitierte Spiele sind uebrigens verdammt selten, wenn dann eher CPU-limitiert. Welches heutige Spiel ist denn Deiner Meinung nach "Fuellraten-limitiert"?

Die Flimmerei auf G70 muss noch gruendlich untersucht werden und erst falls und wenn das Zeug erstmal beseitigt wird, werden wir sehen was fuer einen Unterschied in Leistung es ueberhaupt macht; da aber das Ding zwar 24 pixel intern berechnen und nur 16 ausspucken kann, bezweifle ich dass es einen besonderen Unterschied machen wird.

Die Frage ist wieviel der neue Speicher-controller (was mir eher nach einem ring-bus artigem Dingsda klingt) und der moeglich hoeher getaktete Speicher etwas ausmachen werden. Hier wird eben der chip mit mehr Bandbreite versorgt. Da aber diese GPUs den wirklich grossen Unterschied in verrueckt hohen Aufloesungen machen, wird man auch hier der CPU-Limitierung nicht entgehen koennen.


Die CPU Limitierung habe ich mal aussenvor gelassen, darum ging es ja auch nicht. Wenn bei Spielen die Grafik limitiert, ist es die Füllrate. Du hast es ja selbst angesprochen: Die Karten unterscheiden sich eigentlich nurnoch in wahnwitzig hohen Auflösungen, auch das ist nur mit Füllrate und Speicherbandbreite zu erklären, wobei Speicherbandbreite grade bei AA und Füllrate bei AF ein Thema ist. Man versucht ja mit Tests mit AA und AF überhaupt an ein Limit der Grafikkarte zu stossen, das muss dan zwangsläufig Füllrate und Bandbreite sein. Allerdings könnte in einigen Fällen auch die CPU Last der Treiber eine Rolle spielen ;)

Den Unterschied kannst du in folgendem Artikel sehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/

Ronny145
2005-08-25, 14:31:09
War nicht morgen das Event? Ob da überhaupt was vorgestellt wird, Crossfire vielleicht :confused: Mal abwarten...

micki
2005-08-25, 14:45:53
Die CPU Limitierung habe ich mal aussenvor gelassen, darum ging es ja auch nicht. Wenn bei Spielen die Grafik limitiert, ist es die Füllrate. Du hast es ja selbst angesprochen: Die Karten unterscheiden sich eigentlich nurnoch in wahnwitzig hohen Auflösungen, auch das ist nur mit Füllrate und Speicherbandbreite zu erklären
false

höchere auflösung -> mehr pixel -> benötigt mehr pixelshaderleistung. ist als0 nicht nur mir auf die füllrate zurückzuführen.


MfG
micki

deekey777
2005-08-25, 14:55:41
War nicht morgen das Event? Ob da überhaupt was vorgestellt wird, Crossfire vielleicht :confused: Mal abwarten...
CrossFire wurde vor einigen Tagen irgendwo in China mal wieder gezeigt.
€: Aber morgen ist definitv ein Event, wo ATi irgendwas zelebriert.
48@700MHz > 48@550MHz

550 MHz? Ist das nicht der Core&ROP-Takt der Quadro 4500? :confused:

Quasar
2005-08-25, 14:57:22
micki,

das ist dann eben Shaderfüllrate.

Gast
2005-08-25, 15:05:01
http://www2.service.t-online.de/dyn/c/26/66/46/2666460.html

reunion
2005-08-25, 15:19:41
Eine >= 3x mehr Performace gegenüber der Vorgeneration ist also nichts ...


Maßlos übertrieben.

mapel110
2005-08-25, 15:45:03
Maßlos übertrieben.
Shader 21, 22 und 23 sehen aber schon recht gut aus.
http://www.hexus.net/content/reviews/review_print.php?dXJsX3Jldmlld19JRD0xMjk4
Da kommt bestimmt noch was mit neuen Treibern.

Gast
2005-08-25, 15:59:18
Der R523 ist die AGP-Version des R520.

deekey777
2005-08-25, 16:11:27
Der R523 ist die AGP-Version des R520.

Der Tag ist lang...
Wo ist der Sinn? ATi hat einen Bridge-Chip, ATi hätte mit der Monsterplatine für X800XL AGP auch die nötige Basis für eine AGP-Version der R520-Generation. Es gibt keinen Grund, einen nativen AGP-Chip zu entwickeln, es sei denn: R520+Brückenchip=R523...

Gast
2005-08-25, 16:14:01
Vom R480 gibt es auch eine extra AGP-Version, obwohl es die Rialto-Bridge damals auch schon gab.

deekey777
2005-08-25, 16:14:49
Vom R480 gibt es auch eine extra AGP-Version, obwohl es die Rialto-Bridge damals auch schon gab.

Und daraus hast du dir den R523 gesaugt?

Quasar
2005-08-25, 16:15:06
Den Grund hätte es mit derselben Begründung eigentlich auch nicht für den R480/481 geben können. Trotzdem gab es zwei Chips.

ShadowXX
2005-08-25, 16:21:01
micki,

das ist dann eben Shaderfüllrate.

Nur wenn dir die Pixelshader-Leistung fehlt, bringt dir alle Füllrate der Welt nix.

Gast
2005-08-25, 16:22:13
Ich meinte eigentlich den R530, siehe Link.

http://www.rage3d.de/index.php?id=1021

deekey777
2005-08-25, 16:27:55
Ich meinte eigentlich den R530, siehe Link.

http://www.rage3d.de/index.php?id=1021

R530 soll (leider) ein Schreibfehler sein, gemeint ist dagegen der RV530, der auch auf einer AGP-Version zu finden sein wird.

wuzetti
2005-08-25, 16:48:40
Den Grund hätte es mit derselben Begründung eigentlich auch nicht für den R480/481 geben können. Trotzdem gab es zwei Chips.

wenn ich's richtig im kopf habe war die verspätung von rialto der grund für das erscheinen von R481.

Quasar
2005-08-25, 17:05:39
Nur wenn dir die Pixelshader-Leistung fehlt, bringt dir alle Füllrate der Welt nix.
Shaderfüllrate impliziert doch aber schon, daß die Shaderleistung in den Wert mit eingerechnet wird, bzw. diesen maßgeblich bestimmt.

wenn ich's richtig im kopf habe war die verspätung von rialto der grund für das erscheinen von R481.
Das mag natürlich sein, aber einem Chip komplett das Interface zu tauschen erscheint für die "Menge" an AGP-R481 irgendwie übertrieben.

Gast
2005-08-25, 17:18:23
http://www2.service.t-online.de/dyn/c/26/66/46/2666460.html
Was hat dieser Link hier zu bedeuten? :confused:

Der Betreffende weiß bescheid. Um mehr gehts bei dem Link nicht.
Gruß mapel110

wuzetti
2005-08-25, 17:33:09
Das mag natürlich sein, aber einem Chip komplett das Interface zu tauschen erscheint für die "Menge" an AGP-R481 irgendwie übertrieben.

das seh ich schon auch so. aber nachdem ATI von aller welt eins auf die rübe bekommen hat weil sie AGP so vernachlässigt haben (und damit viele kunden verloren haben), dürften sie sich wohl dazu entschieden haben die kröte zu schlucken! ;D

reunion
2005-08-25, 18:04:40
Shader 21, 22 und 23 sehen aber schon recht gut aus.
http://www.hexus.net/content/reviews/review_print.php?dXJsX3Jldmlld19JRD0xMjk4
Da kommt bestimmt noch was mit neuen Treibern.

Der Link funktioniert bei mir nicht. :|

PP
2005-08-25, 18:16:51
CrossFire wurde vor einigen Tagen irgendwo in China mal wieder gezeigt.
€: Aber morgen ist definitv ein Event, wo ATi irgendwas zelebriert.

Ja, aber was? Die ATI Promo girls? ;D
http://global.shuttle.com/ADVNews/Attach/{B1241B96-4505-44A0-B7EC-063FAA03150A}/ATI_launch.jpg
Shuttle.com (http://global.shuttle.com/ADVNews/NewsDetail.asp?CTID=B1241B96-4505-44A0-B7EC-063FAA03150A)

deekey777
2005-08-25, 18:32:58
Der Link funktioniert bei mir nicht. :|

Bei hexus scheint irgendwie nichts zu funktionieren.

Zum ATi Launchevent: Da das gemeinte Sydney in Arschtralien liegt, fängt die Veranstaltung in wenigen Stunden an. :biggrin:

Und da Shuttle dabei was zu sagen hat, tippe ich auf CrossFire.

Gast
2005-08-25, 18:57:25
Dann könnte doch Ati mal ein paar Infos über den R520 mit auf den Weg geben. Nur Crossfire ist doch langweilig. Die hätten mal ein Live Stream anbieten können.

Gast
2005-08-25, 20:16:06
wann beginnt denn ganua die vorstellung , nach unserer zeit wäre dies heute um .... Uhr !
denke nicht dass es Crossfire ist , denn das kennen alle ja bereits
soll fast sicher der R520 XL und seine vorgänger RV530 sein , als vorgeschmack auf dEN
FINALEN R520 XT , der nvidia das fürchten lehrt ,

aber so ist NUR MEINE ANNAHME !

Gast
2005-08-25, 20:23:10
Morgen ab 10:00 Uhr unserer Zeit beginnt das in Sydney, falls ich richtig gerechnet habe.

deekey777
2005-08-25, 20:48:29
wann beginnt denn ganua die vorstellung , nach unserer zeit wäre dies heute um .... Uhr !
denke nicht dass es Crossfire ist , denn das kennen alle ja bereits
soll fast sicher der R520 XL und seine vorgänger RV530 sein , als vorgeschmack auf dEN
FINALEN R520 XT , der nvidia das fürchten lehrt ,

aber so ist NUR MEINE ANNAHME !

Viel Spaß beim Rechnen: http://wwp.greenwichmeantime.com/time-zone/australia/new-south-wales/

Wie mein Vorredner schon sagte, es fängt um 10.00: Die haben jetzt "Winterzeit". :biggrin:

Ailuros
2005-08-26, 00:51:14
Ist doch Käse. Sobald ein Pixel mehr als 1 Takt braucht (was für 99,99% der heutigen Polygone der Fall sein dürfte) berechnet das Ding effektiv nur noch 12.

Immer noch mehr als man eigentlich braucht.

tombman
2005-08-26, 00:58:58
Immer noch mehr als man eigentlich braucht.
"Man" braucht gar nix, is immer alles subjektiv.

Coda
2005-08-26, 01:03:30
Immer noch mehr als man eigentlich braucht.Ja, aber das ROP-Argument zieht in der AF-Frage nicht.

Ailuros
2005-08-26, 01:04:58
Die CPU Limitierung habe ich mal aussenvor gelassen, darum ging es ja auch nicht. Wenn bei Spielen die Grafik limitiert, ist es die Füllrate.

Nochmal: welche heutigen Spiele sind rein Fuellraten-limitiert?

Du hast es ja selbst angesprochen: Die Karten unterscheiden sich eigentlich nurnoch in wahnwitzig hohen Auflösungen, auch das ist nur mit Füllrate und Speicherbandbreite zu erklären, wobei Speicherbandbreite grade bei AA und Füllrate bei AF ein Thema ist. Man versucht ja mit Tests mit AA und AF überhaupt an ein Limit der Grafikkarte zu stossen, das muss dan zwangsläufig Füllrate und Bandbreite sein. Allerdings könnte in einigen Fällen auch die CPU Last der Treiber eine Rolle spielen ;)

Man entgeht einer CPU Limitierung am meisten, wenn man die hoechstmoegliche Aufloesung benutzt und den groessten Teil der Last auf die GPU verschiebt. Wie Du zur obrigen Schlussvolgerung kommst, must Du mir erstmal erklaeren.

Den Unterschied kannst du in folgendem Artikel sehen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/

Tut mir leid aber selbstgebastelte Treiber wo eine GPU nicht richtig anerkannt wird, nehme ich persoenlich keinesfalls ernst. Es gibt tonnenweise Spiele dort draussen die absolut miserable Leistung vorzeigen, wenn der Treiber und die GPU nicht richtig angesprochen werden. Unter diesen Vorraussetzungen sind die Resultate sogar imposant.

Ailuros
2005-08-26, 01:07:50
Nur wenn dir die Pixelshader-Leistung fehlt, bringt dir alle Füllrate der Welt nix.

Eben interne Shader-Fuellrate und Fuellrate sind zwei verschiedene Dinge in meinem Buch. Wenn alles so einfach waere haette Xenos eine miserable "Fuellrate".

Coda
2005-08-26, 01:08:30
Nochmal: welche heutigen Spiele sind rein Fuellraten-limitiert?UT2004

mapel110
2005-08-26, 01:10:25
UT2004
O_o
Hast du vielleicht CPU-Limitiert gelesen?

Ailuros
2005-08-26, 01:10:41
Ja, aber das ROP-Argument zieht in der AF-Frage nicht.

Die Takte aber auch nicht; denn mit den paar Shader-OPs pro Takt sind solche GPUs bei weitem nicht ausgelastet.

Ailuros
2005-08-26, 01:11:28
UT2004

Verdammt CPU-limitiert, ausser Du spielst nur flybys und ballerst auf leere Waende.

Coda
2005-08-26, 01:13:34
O_o
Hast du vielleicht CPU-Limitiert gelesen?Ich rede jetzt von der Grafikkarte und im speziellen dem Pixelteil.

Ailuros
2005-08-26, 01:14:36
Ich rede jetzt von der Grafikkarte und im speziellen dem Pixelteil.

Und? Wo genau und wieso zeigt sich UT2k4 insgesamt als Fuell-raten limitiert?

edit:

CTF Moondragon / 4 bots / full defail

1xAA/1xAF:

1024*768 = 114.217
1600*1200 = 113.238

1xAA/16xAF:

1024*768 = 113.772
1600*1200 = 110.736

2xAA/16xAF:

1024*768 = 113.501
1600*1200 = 110.089

Coda
2005-08-26, 01:42:07
Mir ist schon klar, dass UT2004 CPU limitiert ist, aber im Pixelteil limitiert ganz klar die Füllrate ;)

Ailuros
2005-08-26, 01:52:57
Mir ist schon klar, dass UT2004 CPU limitiert ist, aber im Pixelteil limitiert ganz klar die Füllrate ;)

Das macht das Spiel aber keinenfalls insgesamt Fuell-raten limitiert. Fuell-raten limitert war seinerzeit Quake3Arena.

Ailuros
2005-08-26, 02:00:36
Uebrigens was den Computerbase Artikel betrifft, ich bleibe zwar dabei dass ich nichts von Resultaten wissen will wo die HW nicht richtig anerkannt wird, aber es sieht so aus als ob zu viele die Resultate falsch interpretiert haben.

Ich zitiere:

Nun muss man schlussendlich jedoch anmerken, dass der reale Unterschied zwischen den AF-Optimierungen – also der Abstand der Ergebnisse mit allen Optimierungen (77.77), mit der „Pfeiloptimierung“ (76.10) und ohne jegliche Optimierungen (71.84, identisch mit der Bildqualität des NV4x-Chips) – mit aller Wahrscheinlichkeit geringer ausfällt, wenn die älteren nVidia-Treiber den G70 in Form der GeForce 7800 GTX oder GT erkennen und alle chipinternen Optimierungen (hier ist nicht die Rede von AF-Optimierungen!) aktivieren würden. Aus diesem Grund sind die Benchmarks eher als Richtwert anzusehen, die endgültigen Unterschiede werden wohl nicht so drastisch ausfallen.

Das der Durchschnitt zwischen allen Optimierungen ein und aus ca. bei 30% liegt, ist mir nichts neues:

http://www.mitrax.de/?cont=artikel&aid=24&page=10

Falls die computerbase Messungen ueberhaupt einen Wert haben, dann ist der eigentliche Vergleich zwischen gruen und blau.

Und jetzt zurueck zum R520 ;)

Coda
2005-08-26, 02:13:18
Das macht das Spiel aber keinenfalls insgesamt Fuell-raten limitiert. Fuell-raten limitert war seinerzeit Quake3Arena.Mann muss nur die CPU groß genug und die Grafikkarte klein genug wählen ;)

Was ich eigentlich damit sagen will: UT2004 ist eines der letzten Spiele die keine* Shader einsetzen (* PS 1.4 für's Terrain ist nur Pass-Reduction).

Und gerade in UT2004 hat nVIDIA stark an der Bildqualität geschraubt, was auch einiges bringt, weil es eben sehr füllratenlimitiert ist auf GPU-Seite.

Ailuros
2005-08-26, 02:14:20
Mann muss nur die CPU groß genug und die Grafikkarte klein genug wählen ;)

Uhmmm ja, wenn man unbedingt beweisen will dass man recht hat, sicher ;)

***edit:

Was ich eigentlich damit sagen will: UT2004 ist eines der letzten Spiele die keine* Shader einsetzen (* PS 1.4 für's Terrain ist nur Pass-Reduction).

Irrelevant. Andere Frage: wie sieht es mit HL2 aus?

Coda
2005-08-26, 02:35:58
HL² verwendet für so ziemlich jede Oberfläche einen Pixelshader mit nichtmal so wenig Ops.

Ailuros
2005-08-26, 02:40:02
HL² verwendet für so ziemlich jede Oberfläche einen Pixelshader mit nichtmal so wenig Ops.

Ist aber trotzdem CPU-limitiert....

http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench6.php

Coda
2005-08-26, 02:42:13
Es ging doch grad ums AF oder? Und da ist sicher bei UT2004 immer noch mehr "optimierungs"-Potential da als in HL². Und je Shaderlastiger die Spiele werden umso krasser äußert sich das.

Wenn ein Spiel CPU-limitiert ist, heißt das noch lange nicht, dass die geschwindigkeit Grafikpipeline gar keine Auswirkungen mehr hat.

Aber noch kann man nicht davon reden, dass AF "for free" ist.

Ailuros
2005-08-26, 03:08:31
Aber noch kann man nicht davon reden, dass AF "for free" ist.

Bei rein CPU-limitierten Spielen schon. Auf einer G70 bricht die Leistung erst ein (bis zu 1600 zumindest) in UT2k4 wenn man SSAA einsetzt. Natuerlich wurde mit "quality" getested, aber ich kann mir schwer vorstellen dass sich mit "high quality" zwischen no-AF und AF etwas aendern wuerde.

Es ging doch grad ums AF oder? Und da ist sicher bei UT2004 immer noch mehr "optimierungs"-Potential da als in HL². Und je Shaderlastiger die Spiele werden umso krasser äußert sich das.


Glaubst Du im ernst dass beide IHVs heutzutage noch an der Leistung von UT2k4 drehen? Wenn dann wuerde es viel mehr Sinn machen in Spielen wie Fear, BF2 usw.

Gast
2005-08-26, 04:29:14
Ja, aber was? Die ATI Promo girls? ;D
http://global.shuttle.com/ADVNews/Attach/{B1241B96-4505-44A0-B7EC-063FAA03150A}/ATI_launch.jpg
Shuttle.com (http://global.shuttle.com/ADVNews/NewsDetail.asp?CTID=B1241B96-4505-44A0-B7EC-063FAA03150A)
Vielleicht das?

http://www.ati.com/home/images/main_2122.jpg
http://www.ati.com/buy/promotions/sapphiremobo/index.html

Ailuros
2005-08-26, 04:42:31
http://www.gdhardware.com/events/idf/fall_2005/003.htm

Majestic
2005-08-26, 06:57:24
Dieser Teil klingt einfach wie alle anderen Gerüchte die so in letzter Zeit im Umlauf waren.

We've met with several industry insiders who claim that the R520 is nothing more than a 16 pixel pipeline GPU that'll be clocked at 700MHz and that NVIDIA has a 32-pipe solution it's waiting to pull the trigger on the day after ATI's announcement. Either way, we sure hope neither company gets caught up into a paper-launch.

Gast
2005-08-26, 07:12:05
Dieser Teil klingt einfach wie alle anderen Gerüchte die so in letzter Zeit im Umlauf waren.

Ja also die 32 Pipe Variante bei Nvidia würde ich erst gegen Jahresende bis Q1 2006 erwarten. Als Konter zum R520 wird so denke ich Nvidia den G70 mit einem Dual Slot Kühler auf 500MHZ prügeln und ihm schnelleren Speicher verpassen.

Winter[Raven]
2005-08-26, 08:24:50
Ja also die 32 Pipe Variante bei Nvidia würde ich erst gegen Jahresende bis Q1 2006 erwarten. Als Konter zum R520 wird so denke ich Nvidia den G70 mit einem Dual Slot Kühler auf 500MHZ prügeln und ihm schnelleren Speicher verpassen.

G75 ist als Lösung gegen den R580 gedacht und nicht gegen den R520!

Gast
2005-08-26, 09:19:05
Guten Morgen

nun ist die Warterei bald vorbei !
in knapp ner stunde wissen wie was ati heute um 10 uhr in australien vorstellt
die ganze Welt hofft auf den R520 ;
falls dem so ist bitte sofort verlinken , tests, und erste specs udg .

Ich bin zuversichtlich , das dem so ist , und hoffe das WIR nicht enttäuscht werden !

also , die presse wird sicher bald ihrern Senf dazu geben ,
hoffe auf ein paar geile Links , was auch immer vorgestellt wird.

Godmode
2005-08-26, 09:21:06
Guten Morgen

nun ist die Warterei bald vorbei !
in knapp ner stunde wissen wie was ati heute um 10 uhr in australien vorstellt
die ganze Welt hofft auf den R520 ;
falls dem so ist bitte sofort verlinken , tests, und erste specs udg .

Ich bin zuversichtlich , das dem so ist , und hoffe das WIR nicht enttäuscht werden !

also , die presse wird sicher bald ihrern Senf dazu geben ,
hoffe auf ein paar geile Links , was auch immer vorgestellt wird.

Ich denke es wird NICHT der R520 sein, sonst wüssten wir schon irgendwas. Irgend eine Seite leaked immer Infos sei es Absicht oder durch menschliches Versagen.

Winter[Raven]
2005-08-26, 09:30:58
Guten Morgen

nun ist die Warterei bald vorbei !
in knapp ner stunde wissen wie was ati heute um 10 uhr in australien vorstellt
die ganze Welt hofft auf den R520 ;
falls dem so ist bitte sofort verlinken , tests, und erste specs udg .

Ich bin zuversichtlich , das dem so ist , und hoffe das WIR nicht enttäuscht werden !

also , die presse wird sicher bald ihrern Senf dazu geben ,
hoffe auf ein paar geile Links , was auch immer vorgestellt wird.

Da wirst du leider enttäuscht werden, leider gibt es keinen R520 heute... :(

Gast
2005-08-26, 09:34:56
dann halt viell. die gewünschten infos dazu .
specs , taktraten , pipes , und der gleichen

mit der vorstellung 1 - 2 wochen auf oder ab ,
( die Specs wollen WIR mal haben und ob AGP noch ein Thema ist beim R520 )da wird es auch nicht mehr viel ausmachen ;
ATI MUSS !! !! !! mal was durchsickern lassen ,
NUN REICHT ES LANGSAM an dieser Ungewissheit , denk ich mal !!

Godmode
2005-08-26, 11:05:57
Und wissen wir schon was vorgestellt wird/wurde?

Gast
2005-08-26, 11:57:58
Und sowas nennen die noch Ati Launch Event 2005. Toll gemacht Ati, nur weiter so.

Godmode
2005-08-26, 12:00:59
Und sowas nennen die noch Ati Launch Event 2005. Toll gemacht Ati, nur weiter so.

Kannst mir bitte sagen was gelauncht wurde?

deekey777
2005-08-26, 12:02:31
Wäre es möglich mit der sinnlosen Spammerei aufzuhören?

Wenn Shuttle als Mainboard- PC-Hersteller kräftig die Trommeln für dieses Event schlägt, dann könnte es sein, daß doch keine Grafikkarten vorgestellt werden, sondern mal wieder CrossFire. Hoffentlich irre ich mich gewaltig.

http://www.gdhardware.com/events/idf/fall_2005/003.htm

700MHz? Etwas zuviel.

Gast
2005-08-26, 12:07:16
Wäre es möglich mit der sinnlosen Spammerei aufzuhören?

Wenn Shuttle als Mainboard- PC-Hersteller kräftig die Trommeln für dieses Event schlägt, dann könnte es sein, daß doch keine Grafikkarten vorgestellt werden, sondern mal wieder CrossFire. Hoffentlich irre ich mich gewaltig.


Willste mir meine Meinung verbieten. Das lass mal meine Sorge sein.

@bans3i: Da wird wohl Crossfire gezeigt. Aber warscheinlich ohne Benchmarks oder neuen Infos. Nichts was wirklich interessant oder neu wäre.

mapel110
2005-08-26, 12:09:36
Wäre es möglich mit der sinnlosen Spammerei aufzuhören?

Wenn Shuttle als Mainboard- PC-Hersteller kräftig die Trommeln für dieses Event schlägt, dann könnte es sein, daß doch keine Grafikkarten vorgestellt werden, sondern mal wieder CrossFire. Hoffentlich irre ich mich gewaltig.
Ich würde mal ein Crossfire Barebone erwarten. :ugly:

-=CHICKEN=-
2005-08-26, 12:10:18
was ich an der ganzen sache nicht so ganz verstehe:
crossfire und express 200 wurden doch schon vorgestellt. da macht doch so ein große launch-event irgendwie keinen sinn.
IMHO müssten diese sachen einfach auf den markt "geschmissen" werden und fertig, aber doch nicht noch mal ein launch-event :rolleyes:
vielleicht werden wir ja doch noch mit ner r5xx-präsentation überrascht :smile:

Winter[Raven]
2005-08-26, 12:12:55
was ich an der ganzen sache nicht so ganz verstehe:
crossfire und express 200 wurden doch schon vorgestellt. da macht doch so ein große launch-event irgendwie keinen sinn.
IMHO müssten diese sachen einfach auf den markt "geschmissen" werden und fertig, aber doch nicht noch mal ein launch-event :rolleyes:
vielleicht werden wir ja doch noch mit ner r5xx-präsentation überrascht :smile:

Sowas nennt sich Paperlunch, vor Monaten vorstellen damit man wieder in den Schlagzeilen kommt, die HW aber erst Monatespäter nachliefert und dann ganz offiziell vorstellen.

Gast
2005-08-26, 12:16:07
Ich tippe auf November für den R520 Launch. Verfügbarkeit Dezember/Januar. Das halte ich für realistisch, meine Meinung.

Coda
2005-08-26, 12:38:48
']Sowas nennt sich Paperlunch, vor Monaten vorstellen damit man wieder in den Schlagzeilen kommt, die HW aber erst Monatespäter nachliefert und dann ganz offiziell vorstellen.Schon wieder Papier fressen? *scnr*

Ailuros
2005-08-26, 12:41:20
Wäre es möglich mit der sinnlosen Spammerei aufzuhören?

Wenn Shuttle als Mainboard- PC-Hersteller kräftig die Trommeln für dieses Event schlägt, dann könnte es sein, daß doch keine Grafikkarten vorgestellt werden, sondern mal wieder CrossFire. Hoffentlich irre ich mich gewaltig.

GPUs now October....

700MHz? Etwas zuviel.

Vielleicht....aber dann ultra high end und ultra selten eben.

ShadowXX
2005-08-26, 12:55:19
was ich an der ganzen sache nicht so ganz verstehe:
crossfire und express 200 wurden doch schon vorgestellt. da macht doch so ein große launch-event irgendwie keinen sinn.
IMHO müssten diese sachen einfach auf den markt "geschmissen" werden und fertig, aber doch nicht noch mal ein launch-event :rolleyes:
vielleicht werden wir ja doch noch mit ner r5xx-präsentation überrascht :smile:

Scheint aber nix anderes zu sein, als die nochmalige Vorstellung des Express 200-Boards zu sein.

Zumindest findet man auf ATIs Homepage nix anderes als Haupt-Werbe-Flash.

Insgesamt scheint ATI diese Veranstaltung in Australien nicht als besonders wichtig zu erachten, den man findet auf Ihrer Homepage nicht mal einen Hinweis darauf.....

GPUs now October....


Wir sollten den Thread wirklich langsam mal umbennen......ist das mit dem Oktober jetzt aus einer halbwegs zuverlässiges Informationsquelle??

Langsam möchte ich nämlich wirklich mal wissen, was der r520 so kann...auch wenns inzwischen nur noch technisches interesse ist.

deekey777
2005-08-26, 12:58:45
GPUs now October....
Vielleicht hat ATi Probleme mit dem h264/MPEG4 AVC HW-Decoder und will nicht etwas ankündigen bzw. damit werben, obwohl es nicht funktioniert.
(Ist doch eine tolle Ausrede.)



Vielleicht....aber dann ultra high end und ultra selten eben.
Diese 700MHz werfen aber die Idee durcheinander, daß die Abkürzungen wie XT oder XL bei allen Grafikkarten der 500er Generation den gleichen VPU-Takt bedeuten, es sei denn, es ist eine R520XT PE, dann paßt es schon.

Ich glaube an ATi. Als SC3 herauskam, meinte ein Ubisoftie, daß der fehlende SM2.0 Modus zu verschmerzen ist, da schon im Mai ATis SM 3.0 Generation erscheint. Man könnte so langsam Wtten annehmen: Was erscheint früher - der R520 oder VALVes Lost Coast Map für HL2 (sollte auch im Mai erscheinen)? :biggrin:


€: Wobei der heutige "Event-Tag" nur für die Presse und die Hersteller offen ist, morgen aber für alle mit Shows und so.

Quasar
2005-08-26, 13:05:07
']Sowas nennt sich Paperlunch, vor Monaten vorstellen damit man wieder in den Schlagzeilen kommt, die HW aber erst Monatespäter nachliefert und dann ganz offiziell vorstellen.
Eigentlich nennt es sich offiziell Tech-Preview. :) Damit vermeidet man gekonnt Paperlaunches.

Quasar
2005-08-26, 13:06:36
Was erscheint früher - der R520 oder VALVes Lost Coast Map für HL2 (sollte auch im Mai erscheinen)? :biggrin:
Das wird beides sorgfältig aufeinander abgestimmt sein. =)

reunion
2005-08-26, 14:01:27
http://www.the-inquirer.net/?article=25696

reunion
2005-08-26, 14:05:10
Nochmal: welche heutigen Spiele sind rein Fuellraten-limitiert?



Wenn die CPU schnell genug ist fast jedes Spiel.

mapel110
2005-08-26, 14:07:37
http://www.the-inquirer.net/?article=25696
war zu erwarten und die Vermutung find ich auch zutreffend. Die Entwicklung vom R520 war zu weit fortgeschritten um Crossfire dort anders zu lösen. Obendrein wieder ein Indiz, was für ein Schnellschuss Crossfire eigentlich war/ist.

Wenn die CPU schnell genug ist fast jedes Spiel.
Die CPU ist nunmal heutzutage nie schnell genug dafür.

deekey777
2005-08-26, 14:10:18
http://www.the-inquirer.net/?article=25696

Ist nicht war... Irgendwann schreibt der "Kluge", die Grafikkarte kommt wieder mit einem Kühler, auf dem ein sich drehender Lüfter ist.

Hi Guys,
Just came back from the Australia launch event.

They didn't launch or talk much about R520, but instead 'launched' Crossfire locally.

But they did have a working next gen GPU at the scene and it'll be safe to assume it to be the R520. It was doing realtime decoding of H.264.

From the answers I got, crossfire should ship within the month and next gen will be launched within 50-60 days. Performance is higher than 7800, and the ultra, should it ever come to it.

Other than that, no tech details were divulged.


Geklaut aus dem B3D Forum (http://www.beyond3d.com/forum/showpost.php?p=551677&postcount=679)
Doch hier steht nichts direktes zu RV5125/RV530, obwohl bei ATi im Frühjahr 2003 die 9200/9600/9800 gleichzeitig gelyncht... gelaunched wurden

Gast
2005-08-26, 14:24:55
Ist nicht war... Irgendwann schreibt der "Kluge", die Grafikkarte kommt wieder mit einem Kühler, auf dem ein sich drehender Lüfter ist.


Geklaut aus dem B3D Forum (http://www.beyond3d.com/forum/showpost.php?p=551677&postcount=679)
Doch hier steht nichts direktes zu RV5125/RV530, obwohl bei ATi im Frühjahr 2003 die 9200/9600/9800 gleichzeitig gelyncht... gelaunched wurden


Also einen R520 der in realtime H.264 encodet ist imho nichts Aufregendes. Der Rest von wegen "Performance höher als 7800" eine typische Marketingaussage, also wertlos.

Die Sache mit der Masterkarte stört mich persönlich wesentlich mehr. Wie mapel110 schon sagte, ein technischer Schnellschuss. Von der Leistung her wird es ähnlich wie SLI sein. Gibt es "nicht mehr" als 2xSS, ist selbst ein 8xSGAA irgendwie witzlos und die vorhandene Leistung verpufft in meinen Augen.

deekey777
2005-08-26, 15:30:50
war zu erwarten und die Vermutung find ich auch zutreffend. Die Entwicklung vom R520 war zu weit fortgeschritten um Crossfire dort anders zu lösen. Obendrein wieder ein Indiz, was für ein Schnellschuss Crossfire eigentlich war/ist.

...
Und? Trotzdem sollte das keinen Einfluß auf die Vorstellung des R520 haben, es sei denn, dieser bzw. die auf dem R520 basierende Grafikkarte ist längst fertig, und der Launch wird nur deswegen verzögert, weil man die Master-Karte noch nicht fertig ist: Für die Balkenlänge und Prestige ist es natürlich schlecht, wenn die "X900XTSuperduperPE" die einzelne 7800GTX in Stücke zerfetzt, aber von dem 7800GTX SLI-Verbund überholt wird. Andererseits werden wirklich nur die Ultraextremisten gleich am ersten Tag ein CrossFire-System anschaffen, die meisten dagegen werden mit einer einzelnen glücklich. Ob CrossFire ein Schnellschuß war? Mag sein. Vielleicht auch teurer in der Umsetzung, doch wieso muß ich etwas kaufen, wenn ich einzelne Funktionen nicht nutze? Diese Master-Slave Lösung ist IMHO die bessere Idee.


"An external cable was not a big deal as it provided good quality and as Nvidia told us many moons ago, before you needed to interconnect two cards."
OMG, ein externes Kabel, die Welt geht runter. Doch wozu wird denn das externe Kabel überhaupt benutzt? Nur zur Synchronisation der einzelnen digitalen Bilder und nicht mehr.

derominöseGast
2005-08-26, 15:52:03
Ist das jetzt ein Kindergarten hier, oder was?
Bis auf die Flimmer-Geschichte kann man vom G70 wohl kaum von einem lahmen Speedupdate sprechen. Ich möchte meine x800 xt pe jedenfalls auf keinen Fall zurück und das will was heißen mit zuvor 3 Generationen ATI ;)


echt jetzt? deine posts nach dem einbau der GTX klangen nicht sehr begeistert!

ich würde die X850XT schon einbauen aber eben, ich will sehen ob Nvidia die GTX in den Griff bekommt und deshalb wird sie wohl min. bis zum R520 drin bleiben. Es sollte noch ca. 1 Woche dauern laut Herr Neuschäfer... :redface:
bis auf dieses AF problem der GTX ist sie aber wirklich genial. Die hohen Auflösungen mit TSSAA machen auch das AF Problem für MICH wett.

wenn man bedenkt das die GTX berreits Monate vor dem Release fertig war (siehe die ersten ausgelieferten Karten und deren Fertigungswoche auf dem Chip) mache ich mir da aber keine grossen Hoffnungen das der R520 vor Dezember irgendwo in einem Regal steht... dann hab ich eh schon einen R500 in einer weissen box rumstehen ;D

mbee
2005-08-26, 15:56:31
"Begeistert" hat mich seit dem R300-Launch eigentlich keine Grafikkarte mehr (das Upgrade von einer 9800XT zu einer 800XT PE war lohnend, allerdings nicht derart überwältigend wie der Umstieg auf den R300) ;)
Seit ich das Teil habe, musste ich feststellen, dass die Flimmerei wirklich extrem vom Spiel abhängt: Einen Großteil der Spiele kann ich sogar im Q-Modus zocken ohne dass mich etwas stört. Bei allen Source-Enginge-Spielen flimmert es hingegen bei einigen (nicht allen Texturen bzw. nur bei bestimmten Leveln z.B. in CS:Source) auch im HQ-Modus wirklich heftig! Momentan ist das für mich kein Grund, die Karte zurückzugeben und auf TSAA oder die Geschwindigkeit unter 1600x1200 mit AA (die ATI ist mir hier einfach zu schwachbrüstig und ich habe einen TFT mit dieser Auflösung) zu verzichten. Sollte der R520 bei vergleichbarer Leistung mehr BQ bieten und NVIDIA das Problem nicht in den Griff bekommen, werde ich wohl wieder wechseln. Im Moment bleibt die 7800GTX drin bzw. denke ich sogar über eine zweite Karte (SLI) nach.

derominöseGast
2005-08-26, 16:11:39
ja das waren noch zeiten als ich die 9700pro zum ersten mal in den händen hatte und 10min später im system :biggrin:

mir gehts eben genau gleich. auf die performance UND optik @HQ mit TSSAA wieder verzichten zu müssen würde mir äusserst schwer fallen. HL2 sieht eigentlich sehr gut aus bis eben auf Reiztexturen... die sind dann unter aller würde :mad:

OT: welchen TFT hast du? ich suche einen 21+" mit min. 1600x1200 der zum Zocken geignet ist. Preis egal...

mbee
2005-08-26, 16:21:11
Ich hoffe auch mal, dass NV hier mit dem neuen Treiber was ändert. Einige Games sehen ja selbst mit Q noch wunderbar aus.

OT:NEC 2080UX+
Ist im 20"-Bereich IMO immer noch einer der besten (Bildqualität/Schnelligkeit/Blickwinkel-Abhängigkeit), da mit S-IPS-Panel (würde keinen anderen Panel-Typ empfehlen momentan).

Allerdings sollten man das Teil wirklich zuvor einmal live begutachten, da einige bei dem Panel die sogenannten REBKschen Streifen sehen (siehe www.prad.de). Ich sehe sie nicht bzw. haben neuere Panels diesen Effekt nur noch sehr schwach.

Ansonsten ist im Bereich über 20" wohl der BENQ-Widescreen-TFT, den tombman mal hatte, die optimale Lösung, wenn Geld keine Rolle spielt.

Tomcat70
2005-08-26, 16:22:54
http://www.theinquirer.net/?article=25730

-----
The cards are floating around and ATI could paper launch them even now but would not be able to ship it until the first days of October. That is the rough launch date for this product launch and availability.
-----

up¦²
2005-08-26, 16:26:45
Angeblich hat Ati den R520 zurück gerufen!
http://forum.3dspeed.com.tw/lb5000/topic.cgi?forum=1&topic=123&show=0

Abwarten ... :rolleyes:

reunion
2005-08-26, 16:27:08
http://www.theinquirer.net/?article=25730

-----
The cards are floating around and ATI could paper launch them even now but would not be able to ship it until the first days of October. That is the rough launch date for this product launch and availability.
-----

Wow, INQ hats also auch schon gerafft, dass R520 16 Pipelines haben wird.

Gast
2005-08-26, 16:36:25
http://www.theinquirer.net/?article=25730

-----
The cards are floating around and ATI could paper launch them even now but would not be able to ship it until the first days of October. That is the rough launch date for this product launch and availability.
-----


Also frühestens November wird die zu kaufen sein. Früher wohl nicht. Wird ja immer später das ganze. Hoffentlich kommt die überhaupt noch dieses Jahr.

Gast
2005-08-26, 16:49:02
also nun verstehe ich ATI nicht mehr ,
wieder verspätung !! ;

oder kommt die small version des R520 ( R520 XL )
doch noch im September und auch die RV530 XT ; XL ; im September noch zu kaufen ?
AGP verion + pci-e

und nur das high end schiff kommt dann erst anfang november / mit und ohne crossfire unterstützung !!

Wer kann hier mal ENTGÜLTIG !!!! Klarheit schaffen ?

derominöseGast
2005-08-26, 16:51:10
normal kommt erst highend und dann budget... das wird sicher so bleiben.

betasilie
2005-08-26, 16:54:17
normal kommt erst highend und dann budget... das wird sicher so bleiben.
Sicher ist das garnicht. Wenn ATI im Highendsegment nichts brauchbares liefern, aber im Midrangesegment schon, ist das so durchaus denkbar.

Quasar
2005-08-26, 16:54:47
Wer kann hier mal ENTGÜLTIG !!!! Klarheit schaffen ?
Die, die könnten, dürften kaum dürfen, weil sie sonst Sachen passieren könnten, die sie vermeiden wollen. Ansonsten hätten sie nicht unterschreiben dürfen – aber dann hätten sie auch nicht gekonnt. :confused:

Black-Scorpion
2005-08-26, 16:57:15
Das hättest du auch etwas einfacher schreiben können. ;)

derominöseGast
2005-08-26, 17:00:19
Sicher ist das garnicht. Wenn ATI im Highendsegment nichts brauchbares liefern, aber im Midrangesegment schon, ist das so durchaus denkbar.

dann würde ATI eingestehen das die Produktion ausser kontrolle ist im highend segment. erst midrange hat es noch nie gegeben und ich hoffe für ATI das es dies auch nicht geben wird... prestige zählt extrem!

@anonym: wessen brüste sind das?

Black-Scorpion
2005-08-26, 17:06:44
@anonym: wessen brüste sind das?
Die gehören Susan Ward.
Bin mir aber nicht sicher ob die genauso alt sind wie sie. :rolleyes:

Frank1974
2005-08-26, 17:09:19
Die, die könnten, dürften kaum dürfen, weil sie sonst Sachen passieren könnten, die sie vermeiden wollen. Ansonsten hätten sie nicht unterschreiben dürfen – aber dann hätten sie auch nicht gekonnt. :confused:

Du hättest schreiben sollen ,das für Journalisten oder Insider das NDA( http://de.wikipedia.org/wiki/Non-Disclosure_Agreement ) gilt.
Oder meintest du etwas anderes und ich habe das nur falsch verstanden :confused:

up¦²
2005-08-26, 17:10:16
In Chin. Froren kursiert neuerdings dieses Zitat:
too many changes at a time, just see how long they have to delay it.

even the technologies are superior, they are not matured yet. probably takes 2 generations, 2006/1

up¦²
2005-08-26, 17:18:11
Hier "Fakten":
Receives the most recent news, several thousand R520 chip which ATI originally already completed, now wants the full speed recycling, in front of the reason also has said, was R520 has the slight defect, some 5/1 chip ran 3DMark05 Game3 to be able dying machine or the broken chart, now ATI possibly also must Re Tape-out R520, after NVIDIA possibly also know again the news, changed Roadmap immediately, originally code number G71 24 7800Ultra had to resist ATI R520, right now to cancel, originally 32 versions G7X now changes G71, to promote the date to be also undecided..

Babelfished :wink:
http://forum.3dspeed.com.tw/lb5000/topic.cgi?forum=1&topic=123&show=0

deekey777
2005-08-26, 17:23:49
Wow, INQ hats also auch schon gerafft, dass R520 16 Pipelines haben wird.

Das muß doch gefeiert werden.

Der G71 ist doch der Nachfolger des NV43?

mapel110
2005-08-26, 17:24:29
Hier "Fakten":


Babelfished :wink:
http://forum.3dspeed.com.tw/lb5000/topic.cgi?forum=1&topic=123&show=0
Hört sich nach Blödsinn an, weil G71 kein High End Chip ist.

Gast
2005-08-26, 17:35:17
http://www.theinquirer.net/?article=25730

BlackBirdSR
2005-08-26, 18:46:16
http://www.theinquirer.net/?article=25730

Hört sich endlich nach dem an, was einige leute schon seit Monaten predigen.
R520 und G70 werden sich nicht viel schenken, ATI hat hohe Taktraten aber dadurch auch schlechte Produktionszahlen und den wirklichen Kampf tragen die Refreshs aus.

-error-
2005-08-26, 19:06:48
Öhm ja :rolleyes:

Also hat ATI den R520 wieder eingestampft? Dann macht es doch gar kein Sinn mehr, auf den R520 zu warten, man kauft sich nächtes Jahr eine Karte, die WGF2.0 unterstützt, oder?

Wann kommen denn nächstes Jahr Karten, die WGF unterstützen?

r3ptil3
2005-08-26, 19:17:26
Wann kommen denn nächstes Jahr Karten, die WGF unterstützen?

angeblich ende 2006

acrowley23
2005-08-26, 19:28:21
Hört sich endlich nach dem an, was einige leute schon seit Monaten predigen.
R520 und G70 werden sich nicht viel schenken, ATI hat hohe Taktraten aber dadurch auch schlechte Produktionszahlen und den wirklichen Kampf tragen die Refreshs aus.


Bestärkt mich darin den g70 ,r520 zu überspringen und auf den Refresh umzustellen...solange bleibts bei AGP x800xt :)

Ailuros
2005-08-27, 01:32:51
Hört sich endlich nach dem an, was einige leute schon seit Monaten predigen.
R520 und G70 werden sich nicht viel schenken, ATI hat hohe Taktraten aber dadurch auch schlechte Produktionszahlen und den wirklichen Kampf tragen die Refreshs aus.

No sh*t heh...LOL ;)

Zum Fuad Mist, Schritt fuer Schritt:

DESPITE ALL that has been glittering like gold or pyrites before, it transpires that ATI flagship R520 cunningly nicknamed "Fudo" will feature only sixteen pipelines. The sources close to the company earlier indicated that the R520 might have even more pipes but this won't be the case. The R580 will end up with more pipes but R520 has its higher clock to fight Nvidia's counterpart.

"Quellen" die ATI "nahe" liegen, arbeiten aber nicht bei der Konkurrenz. Wenn dieser Herr nicht ein kompletter Trottel waere der sich von jedem reingelassen werden kann um Spass zu haben, haette er auch nicht einen Haufen Mist in der Vergangenheit geschrieben.

Noch schlimmer er weiss immer nocht nicht wo es langgeht; der Dummheit Nachfolger ist eben dass R580 genauso viel quads wie R520 hat. Natuerlich mit wesentlichen Veraenderungen, aber das wird er ja sowieso erst nach ein paar Monaten schnallen koennen.

Funny thing is that a few quarters back Nvidia was so scared of the R520 that it postponed its NV50 project and brought G70, more pipelines version of tweaked NV40 marchitecture and harvested the market with it.

Kann jemand freundlicherweise dem Kerl die Feder aus der Hand nehmen, denn alle Sachen haben auch ihre Grenzen? Vor einem Jahr wurde nach ihm selber "NV47" und "NV50" einfach "storniert". G70 ist aber was frueher "NV47" hiess und es wird auch keinen chip mit dem Codenamen "NV50" geben; eben ein anderer Name.

Dass beide IHVs ihre WGF2.0 GPU Veroeffentlichung der Vista Vorstellung angepasst hatten, konnte damals schon ein 8-jaehriger erraten....*doppelseufz*

I do hope you have been enjoying my stint of weather forecasting, and I predict that things will precipitate from the skies when the barometer and the Moon are in Uranus.

Replace stint with stink and I'm all game :rolleyes:

Ailuros
2005-08-27, 01:39:01
Öhm ja :rolleyes:

Also hat ATI den R520 wieder eingestampft? Dann macht es doch gar kein Sinn mehr, auf den R520 zu warten, man kauft sich nächtes Jahr eine Karte, die WGF2.0 unterstützt, oder?

Wann kommen denn nächstes Jahr Karten, die WGF unterstützen?

Nein ATI hat gar nichts eingestampft. R520 kommt so langsam im Oktober ins Rollen, was wohl eher heisst dass die Verfuegbarkeit von ultra-high end Modellen leicht besser sein wird als Webseiten fuer Benchmarks auszuliefern. R580 wird dann innerhalb sehr sehr kurzer Zeit das Verfuegbarkeits- und ALU-Pflaster sein (moeglicherweise Ende 2005/ Anfang 2006, letzteres klingt wahrscheinlicher) und dann nach Sommer 2006 kommen dann die beiden WGF2.0 GPUs von beiden IHVs.

Ailuros
2005-08-27, 01:42:45
Wenn die CPU schnell genug ist fast jedes Spiel.

Ich bin mit einem Athlon-FX und einer G70 immer noch CPU-limitiert. Irgend eine brauchbare Idee?

Mr.Magic
2005-08-27, 01:54:06
Auflösung und AA aufdrehen? Eine Grafikkarte so auszureizen, dass sie stärker Limitiert als die CPU ist, mit nVidia-Hardware, doch keine Kunst. Versuch mal 16xAA/16xAF bei 1600x1200, mal sehen ob die CPU dann immer noch der Flaschenhals ist ;D .
Dumme Antwort? Dumme Frage...

SKYNET
2005-08-27, 01:54:34
Hört sich endlich nach dem an, was einige leute schon seit Monaten predigen.
R520 und G70 werden sich nicht viel schenken, ATI hat hohe Taktraten aber dadurch auch schlechte Produktionszahlen und den wirklichen Kampf tragen die Refreshs aus.


bei ATI wird aber nicht mehr viel mit OC gehn, die teile werden am limit laufen.

bei NV gibbet aber noch viel takt rauszuholen... :cool:

sieger nach OC: 100% G70

Ailuros
2005-08-27, 01:55:03
Und? Trotzdem sollte das keinen Einfluß auf die Vorstellung des R520 haben, es sei denn, dieser bzw. die auf dem R520 basierende Grafikkarte ist längst fertig, und der Launch wird nur deswegen verzögert, weil man die Master-Karte noch nicht fertig ist: Für die Balkenlänge und Prestige ist es natürlich schlecht, wenn die "X900XTSuperduperPE" die einzelne 7800GTX in Stücke zerfetzt, aber von dem 7800GTX SLI-Verbund überholt wird.

Das ist die naive Erlaeuterung. Es gab Prototypen vom ersten re-spin schon seit Anfang dieses Jahres.

Das mit der "Zerfetzung" ist auch relativ. Gewiss gibt es die Moeglichkeit dass R520 durch die hoehere Bandbreite bei einem ultra-high end Modell einen Unterschied machen koennte in verrueckt hohen Aufloesungen, aber ich will mal kreative Mathe sehen die mir erklaert wie 16 ALUs bei egal welcher Taktrate die arithmetische Effizienz von 48@430MHz erreichen werden.


Andererseits werden wirklich nur die Ultraextremisten gleich am ersten Tag ein CrossFire-System anschaffen, die meisten dagegen werden mit einer einzelnen glücklich. Ob CrossFire ein Schnellschuß war? Mag sein.

Natuerlich ist es ein Schnellschuss, aber nichtdestominder ein notwendiger Schachzug. Beiden IHVs werden multi-GPU Systeme mehr relativen "Gewinn" im professionellen Markt goennen als im PC desktop Markt. 3DLabs kontert mit "multi-chip" Loesungen und dagegen sind eben G70-Quadros@SLi ein verdammt starker Konkurrent. Gleiches wird auch fuer R520@Crossfire gelten.


OMG, ein externes Kabel, die Welt geht runter. Doch wozu wird denn das externe Kabel überhaupt benutzt? Nur zur Synchronisation der einzelnen digitalen Bilder und nicht mehr.

Wer sagt dass das eigentliche Problem irgendwelcher Kabel-salat ist? Den Partnern von ATI stinkt die ganze Master/Slave Geschichte, weil sie erstens zu umstaendlich in der Herstellung ist und es zweitens ihnen auch umstaendlich und unangenehm ist ihren Kunden dann erklaeren zu muessen warum man unbedingt jetzt A und B kombinieren muss dass es laeuft. Steigen in der absehbaren Zukunft ein oder mehrere Vendors aus was ATI betrifft, wuerde es mich nicht wundern, wenn die Reaktionen im Hintergrund der Wahrheit entsprechen.

Gewiss nicht der Weltuntergang, aber Vendors wollen es eben aus gutem Grund so einfach wie moeglich haben.

SKYNET
2005-08-27, 01:55:09
angeblich ende 2006


wohl kaum, erstes quartal 2006, weil longhorn kommt im frühsommer. =)

mapel110
2005-08-27, 01:57:41
Auflösung und AA aufdrehen? Eine Grafikkarte so auszureizen, dass sie stärker Limitiert als die CPU ist, mit nVidia-Hardware, doch keine Kunst. Versuch mal 16xAA/16xAF bei 1600x1200, mal sehen ob die CPU dann immer noch der Flaschenhals ist ;D .
Dumme Antwort? Dumme Frage...
Thema verfehlt! Es geht darum, welches Game von sich aus Füllratenlimitiert ist. Außerdem fehlt ja durch 16AA die Vergleichsmöglichkeit mit ATI, mit der man zeigen könnte, ob nun wirklich mehr Pixelfüllrate zum Tragen kommt.

@AIL
FX rauftakten, G70 runtertakten. *scnr*

wohl kaum, erstes quartal 2006, weil longhorn kommt im frühsommer. =)
Ja, klar. Deswegen kommt noch ein G70 Refresh von nvidia. :|

Ailuros
2005-08-27, 02:00:26
Auflösung und AA aufdrehen? Eine Grafikkarte so auszureizen, dass sie stärker Limitiert als die CPU ist, mit nVidia-Hardware, doch keine Kunst. Versuch mal 16xAA/16xAF bei 1600x1200, mal sehen ob die CPU dann immer noch der Flaschenhals ist ;D .
Dumme Antwort? Dumme Frage...

Ich kann mit dem 21" CRT hier bis auf 2048*1536*32@75Hz; mehr als 1600*1200 als "wahre" Aufloesung steckt aber nicht drin, ausser man stellt sich mit leichter "Dehnung" der Daten zufrieden.

16xAA heisst aber auch einen heftigen Supersampling-Anteil. Viel Spass bei Spielen wie CoR oder BF2 mit diesem in 1600.

Es war keine dumme Frage; Deine Antwort will ich destotrotz nicht beurteilen, weil ich eben leider ein bisschen mehr Erfahrung hab als ein Anfaenger.

Ailuros
2005-08-27, 02:02:04
@AIL
FX rauftakten, G70 runtertakten. *scnr*

Dazu brauch ich dann aber auch keine G70 am Ende ;)

SKYNET
2005-08-27, 02:07:51
Thema verfehlt! Es geht darum, welches Game von sich aus Füllratenlimitiert ist. Außerdem fehlt ja durch 16AA die Vergleichsmöglichkeit mit ATI, mit der man zeigen könnte, ob nun wirklich mehr Pixelfüllrate zum Tragen kommt.

@AIL
FX rauftakten, G70 runtertakten. *scnr*


Ja, klar. Deswegen kommt noch ein G70 Refresh von nvidia. :|


ja, im spätherbst, und im frühjahr next generation... :P

deekey777
2005-08-27, 02:28:34
Das ist die naive Erlaeuterung.
Nö, ist es nicht. ATi braucht unbedingt die R520CF zum Start oder kurz danach. Klar, die Begründung, die keine Begründung ist, ist weit aus der Luft gegriffen, aber warum nicht?

Es gab Prototypen vom ersten re-spin schon seit Anfang dieses Jahres.
Was auch niemand bezweifelt, doch ohne die Master-Karte ist die Penixlänge dahin. Auf der E3 lief "Alan Wake" in einem R520 System, auch wenn es langsam gewesen sein sollte, es lief.

Das mit der "Zerfetzung" ist auch relativ. Gewiss gibt es die Moeglichkeit dass R520 durch die hoehere Bandbreite bei einem ultra-high end Modell einen Unterschied machen koennte in verrueckt hohen Aufloesungen, aber ich will mal kreative Mathe sehen die mir erklaert wie 16 ALUs bei egal welcher Taktrate die arithmetische Effizienz von 48@430MHz erreichen werden.


In welchen Auflösungen spielt der verwöhnte HW-Extremist? Bestimmt nicht in 1024x768.
Das mit der "Zerfetzung" war eh nicht ernstgemeint, sondern sollte verdeutlichen, warum die R520CF unbedingt schnellstmöglich - am besten gleichzeitig mit dem R520 Sklavenedition - fertig bzw. draußen sein muß.
Interessant bleibt immer noch die Anandtech R5xx Roadmap , wonach die langsamere R520XL zuerst kommen soll, um so nicht alle Karten offenzulegen(sie verdeutlich aber auch, daß ATi Zeit brauchen wird, um genügend höher getaktete R520XT zu produzieren = auszusortieren): Es würde mich nicht wundern, wenn kurz nach dem R520 Launch eine 7800Ultra angekündigt wird.

Natuerlich ist es ein Schnellschuss, aber nichtdestominder ein notwendiger Schachzug. Beiden IHVs werden multi-GPU Systeme mehr relativen "Gewinn" im professionellen Markt goennen als im PC desktop Markt. 3DLabs kontert mit "multi-chip" Loesungen und dagegen sind eben G70-Quadros@SLi ein verdammt starker Konkurrent. Gleiches wird auch fuer R520@Crossfire gelten.

nVidia ist an allem schuld.

Wer sagt dass das eigentliche Problem irgendwelcher Kabel-salat ist? Den Partnern von ATI stinkt die ganze Master/Slave Geschichte, weil sie erstens zu umstaendlich in der Herstellung ist und es zweitens ihnen auch umstaendlich und unangenehm ist ihren Kunden dann erklaeren zu muessen warum man unbedingt jetzt A und B kombinieren muss dass es laeuft. Steigen in der absehbaren Zukunft ein oder mehrere Vendors aus was ATI betrifft, wuerde es mich nicht wundern, wenn die Reaktionen im Hintergrund der Wahrheit entsprechen.

Gewiss nicht der Weltuntergang, aber Vendors wollen es eben aus gutem Grund so einfach wie moeglich haben.
Die Master-Karten werden bestimmt malwieder bei Sapphire gefertigt; für diese wird der Endkunde auch einen saftigen Aufpreis zahlen müssen, was den Aufwand ausgleichen sollte. Und dem Otto-Normal-Multigrafikkarten-User (nicht jedem :biggrin: ) kann man schon einen gewissen Grad an Intelligenz zutrauen, daß er die ganze CrossFire-Geschichte kapiert, insbesondere, wenn sie in seinen Augen zu seinem Vorteil dargestellt wird.
Es mag sein, daß die nVidia-Lösung die vendor-, aber auch die kundenfreundliche Lösung ist, doch hier muß der Kunde immer für die SLi-Technik zahlen, auch wenn er sie gar nicht braucht.

€: Durch den CrossFire-Schnellschuß mit der Master-Karte stellt sich aber niemand die Frage, ob ATi überhaupt eine Alternative hatte, selbst wenn die CF-Geschichte kein Schnellschuß wäre.


ja, im spätherbst, und im frühjahr next generation... :P

Mal sehen, welcher Chip mehr Next Generation sein wird: der R600 oder der auferstandene NV50.

€²: Übrigens hat schon der zweite Teil des ATi Events in Sydney begonnen. :biggrin:

Coda
2005-08-27, 02:52:20
Also ich rechne mit den WGF 2 Chips irgendwie erst Anfang 2007.

Ailuros
2005-08-27, 03:23:56
Nö, ist es nicht. ATi braucht unbedingt die R520CF zum Start oder kurz danach. Klar, die Begründung, die keine Begründung ist, ist weit aus der Luft gegriffen, aber warum nicht?

Du hast aber meines Erachtens als Verbraucher genug Grips, dass Du jegliches PR-Maerchen schnell genug durchschauen kannst. Ich bezweifle zwar nicht dass CF eine wesentliche Rolle zu den generellen Problemen dieses Jahres mitgespielt hat fuer ATI, aber es ist ein endloser Wirrwarr weil die Firma einfach zu viele und zu komplizierte Projekte auf einmal aufgenommen hat.


In welchen Auflösungen spielt der verwöhnte HW-Extremist? Bestimmt nicht in 1024x768.
Das mit der "Zerfetzung" war eh nicht ernstgemeint, sondern sollte verdeutlichen, warum die R520CF unbedingt schnellstmöglich - am besten gleichzeitig mit dem R520 Sklavenedition - fertig bzw. draußen sein muß.
Interessant bleibt immer noch die Anandtech R5xx Roadmap , wonach die langsamere R520XL zuerst kommen soll, um so nicht alle Karten offenzulegen(sie verdeutlich aber auch, daß ATi Zeit brauchen wird, um genügend höher getaktete R520XT zu produzieren = auszusortieren): Es würde mich nicht wundern, wenn kurz nach dem R520 Launch eine 7800Ultra angekündigt wird.

NVIDIA wird nicht zu Paper-launches greifen IMO. Und das heisst wohl dass sie zu einem schnelleren NV4x nur dann greifen werden wenn sie mit 90nm etwas fertig haben. Kann Ende des Jahres sein, oder auch Anfang 2006, aber auf jeden Fall als Antwort auf die kommende R580.

nVidia ist an allem schuld.

Witzbold :D PCIe ist eher daran schuld und dass beide IHVs schon aus dem PC-Grafikmarkt schon fast alles ausgesaugt haben was auszusaugen war; bevor man dann steckenbleibt erweitert man sich eben auch aggressiver in andere Maerkte und zielt auch neue Maerkte gleichzeitig an. Haette NV nichts mit SLi angestellt, dann haetten sie den professionellen high end Markt praktisch an 3DLabs und der Realizm800 verschenkt.


Es mag sein, daß die nVidia-Lösung die vendor-, aber auch die kundenfreundliche Lösung ist, doch hier muß der Kunde immer für die SLi-Technik zahlen, auch wenn er sie gar nicht braucht.

Dabei sind aber NV GPU Preise fast Nacken an Nacken was das Preis/Leistungsverhaeltnis der Konkurrenz betrifft.

Wieviel "zahlt" denn eigentlich der Endkunde in diesem Fall, breche mir das Ganze mal auf in Zahlen und komm mir bloss nicht mit irgend einer These dass NV mit Verlust verkauft. Schau Dir mal die Margen etwas genauer an. Es handelt sich klipp und klar um Design-Entscheidungen hier und obwohl mir die Situation gar nicht gefaellt (glauben kann jeder was er will was dieses betrifft), ATI hat IMHLO viel zu viele falsche Entscheidungen getroffen.

Man schraubt die Taktraten hoch bis zum geht nicht mehr und hat eine miserable Verfuegbarkeit fuer ultra high end R420; X700XT krepiert auch schnell weil eben komischerweise 475MHz@110nm doch nicht moeglich waren (nur eben mit Volt-Werten die ausserhalb der Spezifikation lagen); Crossfire wird mit Tesa-film praesentiert und man fuchtelt bis zum geht nicht mehr an der total verbuggten Southbridge rum bis man diese entbuggt hat und diese den Vendors auch aufzwingen kann; der Master/Slave Quark bringt Vendors zum rot sehen; R520 wird zum re-spin Alptraum da man wieder sich nur auf hoehere Taktraten verlaesst usw usw.

Ein sehenswerter Erfolg trag ich ihnen nur fuer Xenos ein und ich werde auch den Verdacht nicht los dass der Resourcen-Aufwand fuer diese vielleicht die Mutter aller Missgeschicke war.

Trotzdem ist ATI schon seit etlichen Jahren ein Gigant im Grafikmarkt und es wird sich auch nichts dabei aendern. Zwischem dem froehlichen Marketing-Geblubber aber und den Aehnlichkeiten des NV30 die manche dem R520 zuteilen, passt mir unter Vorraussetzungen eher der zweite Fall. Auch NV30 war eine miserable Design-Entscheidung von vorne bis hinten.

Ailuros
2005-08-27, 04:04:56
Mal sehen, welcher Chip mehr Next Generation sein wird: der R600 oder der auferstandene NV50.

"NV50" als Codenamen sollte man vergessen; von dem abgesehen sind beide wohl WGF2.0 kompliant.

Gast
2005-08-27, 11:58:32
.
Es mag sein, daß die nVidia-Lösung die vendor-, aber auch die kundenfreundliche Lösung ist, doch hier muß der Kunde immer für die SLi-Technik zahlen, auch wenn er sie gar nicht braucht.


Äh...
Das würde ich ja gelten lassen, wenn ich als Kunde jetzt für ne 6600GT 50 Euro mehr zahlen muss, weil sie eben SLI fähig ist aber das war ja offensichtlich nicht der Fall.
Du musst irgendwie die letzten 12 Monate geschlafen bzw. etwas verpasst haben.
Es waren Nvidia die für einen sehr sehr langen Zeitraum in essentiell wichtigen Preissegmenten die klar besseren Antworten vom P/L Aspekt her hatten. Ich habe für meine 6600GT vor nem halben Jahr 160 Euro bezahlt - natürlich von Asus.
Zeig mir auch nur ein einziges Produkte von ATI das hier konkurenzfähig war.
Du wirst keins finden. Das einzige was es von ATI gab war die gemessen an der 6600GT überteuerte und langsamere X700pro.

Also fakt ist doch mal, dass Nvidia's SLI Karten absolute price competetive waren. ATI hat ja nicht umsonst Marktanteile in diesem Segment verloren. Da waren sicherlich nicht die SLI User daran schuld. Die sind nur ein geringer Teil. Die SLI Fähigkeit hat also in keinem Fall die Produkte preislich teurer gemacht als die von ATI.
Deswegen kann man deine Aussage so auf keinen Fall stehen lassen.

Und wie AIL schon sagte mit "Verlust" oder Margeneinbußen bei Nvidia hats offensichtlich auch nichts zu tun.
Nvidia's Margen sind auf Rekordniveau. So hoch wie sie noch nie waren 38% und das mit SLI, mit dem deutlich größeren Transistorbudget und mit teilweise größeren Fertigungsprozessen als bei ATI (6800GT z.B).
ATI dagegen hat gerade bei den Margen einen richtigen Sturzflug erlebt.
Offentsichtlich war Nvidia's Design aber effizienter was die Ausprägung in verschiedene Produkte für verschiedene Marktsegmente angeht.

Ich sehe es daher wie AIL. So wie es gelaufen ist, war es eine reine Designentscheidung - in meinen Augen aus der Not heraus geboren.
Nvidia hat ATI mit SLI total überrascht und Nvidia hatte den Luxus, dass sie unbemerkt sich die Zeit für ein kluges Design nehmen konnten.
ATI dagegen musste dann schnell handeln und dann kommen eben so Schnellschüsse wie Crossfire heraus.
Crossfire ist für die Vendor auf jeden Fall ein Aufwand. Man muss die Geschichte mit den Masterkarten einem Kunden erstmal klar machen und ein richtiger Vorteil für den Kunden ergibt sich aus meinen Augen auch nicht.

-error-
2005-08-27, 12:26:42
Crossfire ist die bessere Lösung, da man unterschiedliche Karten miteiander kombinieren kann.

Coda
2005-08-27, 12:29:55
Crossfire ist die bessere Lösung, da man unterschiedliche Karten miteiander kombinieren kann.Erstmal abwarten wie gut Crossfire allgemein skaliert. Da bin ich immer noch sehr skeptisch ohne Interlink. Ich fress auch nen großen Besen wenn es wirklich applikationstransparent läuft.

Das mit den unterschiedlichen Karten ist auch bei Crossfire sehr eingeschränkt. Ich wüsste auch nicht was daran ein großer Vorteil sein soll, SLi/Crossfire Systeme muss man eh zusammen kaufen, damit es sich überhaupt lohne (2 Highend Karten).

-error-
2005-08-27, 12:42:21
Was ich auch ganz interessant finde ist diese Aussage von ATI (aktutelle CT >Netzteiltest< Seite 159)

Anders als erwartet sind die auf dem PCIe-Stecker geforderten Ströme bei heutigen Netzteilen garnicht mal so hoch.
ATI verriert uns, dass die meisten Boards das Leistungslimit des PCIe-Slots von 75 Watt ausreizen und nur den Rest typischerweiße 25 bis 45 Watt, was etwa zwei bis vier Ampare entspricht - über den zuzätzlichen Stromanschluss decken.
Mit der Spitzenleistung von rund 110 Watt pro Grafikkarte ist nach Ansicht von ATI auch schon das Maximum erreicht, denn dank Verbesserung bei der Halbleiterherstellung soll die nächste Generation der Chips sogar wieder etwas weniger Leistung brauchen.

Aus heutiger Sicht dürften folglich 450 bis 500 Watt als Netzteil Spitzenlast für die nächste Zukunft ausreihen.

Gast
2005-08-27, 12:53:15
Sieht man auch am G70, frist etwas weniger Strom als der Vorgänger, mehr Parallelität und weniger MHzWahn hat auch dem CPU Genre gut getan, dazu neue Fertigungstechniken passt schon. Wobei 500Watt Netzteile schon "ordentlich" für Consumer PC's sind *g

-error-
2005-08-27, 13:07:37
Sieht man auch am G70, frist etwas weniger Strom als der Vorgänger, mehr Parallelität und weniger MHzWahn hat auch dem CPU Genre gut getan, dazu neue Fertigungstechniken passt schon. Wobei 500Watt Netzteile schon "ordentlich" für Consumer PC's sind *g

Nun ja, aber wenn man von 700mhz Chiptakt ausgeht, muss das Design schon extrem effizient sein. ATI-Karten hatten schon immer weniger Verlustleistung als die von nVidia, das war schon immer so und das wird auch so bleiben.

Ailuros
2005-08-27, 13:14:37
Crossfire ist die bessere Lösung, da man unterschiedliche Karten miteiander kombinieren kann.

Ach so wie dass Maerchen mit R4xx und R5xx? Bon apetit sag ich nur.

Ailuros
2005-08-27, 13:16:16
Nun ja, aber wenn man von 700mhz Chiptakt ausgeht, muss das Design schon extrem effizient sein. ATI-Karten hatten schon immer weniger Verlustleistung als die von nVidia, das war schon immer so und das wird auch so bleiben.

Ultra high end R520 sind dual slot Loesungen und sie kaempfen schon seit einer Ewigkeit mit Leckstroemen. Es ist auch ein gewaltiger Unterschied zwischen 430 und 650-700MHz.

-error-
2005-08-27, 13:19:06
Ultra high end R520 sind dual slot Loesungen und sie kaempfen schon seit einer Ewigkeit mit Leckstroemen. Es ist auch ein gewaltiger Unterschied zwischen 430 und 650-700MHz.

Najo, die Fläche von der "Die", kann man doch bei GPUs auch so sagen?, ist auch ziemlich klein, die Wärme kann man schlechter abführen. Darum ja auch die Dualslotkühlung.

Aber du hast anscheinend nicht das CT-Zitat gelesen, ATI spricht von weniger Verlustleistung, nicht von mehr! Und trotzdem kann der Chip wärmer werden.

Ist schön zu beobachten beim Winchester vs. Newcastle.

Edit:

Hier nochmal für dich.

(aktutelle CT >Netzteiltest< Seite 159)

Anders als erwartet sind die auf dem PCIe-Stecker geforderten Ströme bei heutigen Netzteilen garnicht mal so hoch.
ATI verriert uns, dass die meisten Boards das Leistungslimit des PCIe-Slots von 75 Watt ausreizen und nur den Rest typischerweiße 25 bis 45 Watt, was etwa zwei bis vier Ampare entspricht - über den zuzätzlichen Stromanschluss decken.
Mit der Spitzenleistung von rund 110 Watt pro Grafikkarte ist nach Ansicht von ATI auch schon das Maximum erreicht, denn dank Verbesserung bei der Halbleiterherstellung soll die nächste Generation der Chips sogar wieder etwas weniger Leistung brauchen.

Aus heutiger Sicht dürften folglich 450 bis 500 Watt als Netzteil Spitzenlast für die nächste Zukunft ausreihen.

Gast
2005-08-27, 13:24:49
Aber du hast anscheinend nicht das CT-Zitat gelesen, ATI spricht von weniger Verlustleistung, nicht von mehr! Und trotzdem kann der Chip wärmer werden.

Ist schön zu beobachten beim Winchester vs. Newcastle.


Das hätte ich gerne mal näher erklärt, warum "darf" der Chip wärmer werden wenn die Verlustleistung sinkt? Klar hab ich nen DIE Shrink hinter mir, aber den kann ich mit Transistoren und Respins wieder etwas größer machen um die Wärme besser abzuführen.
Je wärmer desto "lauter" meine Kühllösung und die erledigt meinen Profit...

-error-
2005-08-27, 13:29:27
Das hätte ich gerne mal näher erklärt, warum "darf" der Chip wärmer werden wenn die Verlustleistung sinkt? Klar hab ich nen DIE Shrink hinter mir, aber den kann ich mit Transistoren und Respins wieder etwas größer machen um die Wärme besser abzuführen.
Je wärmer desto "lauter" meine Kühllösung und die erledigt meinen Profit...

Desto größer der Chip ist, desto besser kann man die Wärme abführen, rein von der Fläche her gesehen.

Wie willst du die Wärme eines grümelgroßen Chips statt einen münzengrößen Chips abführen?

Tomcat70
2005-08-27, 13:32:57
Ultra high end R520 sind dual slot Loesungen und sie kaempfen schon seit einer Ewigkeit mit Leckstroemen. Es ist auch ein gewaltiger Unterschied zwischen 430 und 650-700MHz.

gut das du deine aussagen bezüglich r520 hier (als auch anderswo) immer so präsentierst als wärest du vor ort dabei gewesen.....gleichzeitig kritisiert du den inquirer im übermass. meines erachtens kennst du keine bis kaum mehr tatsächliche fakten zum r520/r580 als alle anderen hier. alles genauso nur dasselbe in der luft-gestochere. was nicht heissen soll das du oder andere total neben der wahrheit liegen. nur die präsentation unterscheidet sich bei dir wesentlich......

taktunterschiede spielen eigentlich nur bei gleicher architektur eine rolle, was hier nehm ich mal an, nicht so sehr der fall sein wird. ausser du nimmst an das ati ein 150w monster als hi-end-lösung vorstellt, was ich jedoch stark bezweifle.....

Gast
2005-08-27, 13:44:51
Crossfire ist die bessere Lösung, da man unterschiedliche Karten miteiander kombinieren kann.

unterschiedlich inwieweit?
Unterschiedliche Vendor? Ok - kann aber SLI demnächst auch.
Unterschiedliche Modelle?
Was isn das für ein toller Vorteil?
Erstens gehts nur innerhalb einer Technologiegeneration und zweitens fällt die bessere Karte dann zurück in den Modus der langsameren.

Wo ist nun also der Vorteil für mich als Kunde, wenn ich eine X850XT-PE mit einer X800Xl oder X800 kombinieren kann, ersterer dann aber in den X800XL Mode zurückfällt?
Das bringt mir doch als Kunde überhaupt nichts und da bei den Folgegenerationen meisst neue Technologie dabei ist, fallen die dann für ein Crossfiresetup auch aus.

Realer Vorteil ( nicht nur einer auf dem Marketingpapier von ATI) für den Kunden gegenüber SLI = 0.
Es geht wiegesagt um sinnhafte Vorteile und nicht irgendein Marketinggeschwätz auf Präsentationsfolien.
Da kann ich genauso gut 2x 6800GT kaufen und bin glücklich.

Gast
2005-08-27, 13:49:39
ausser du nimmst an das ati ein 150w monster als hi-end-lösung vorstellt, was ich jedoch stark bezweifle.....

Wieso glauben eigendlich so viele das ATI unfehlbar ist?Auf jedenfall ist schon schon verdächtig warum ATI den Lauchtermin ständig hinauszögert. Und abgesehen davon das die Verlustleistung von NV auch nicht wirklich hoch. Für die gebotene Leistung und Anzahl an Transistoren ist der G70 doch sehr begnügsam....

Gast
2005-08-27, 13:53:04
Nun ja, aber wenn man von 700mhz Chiptakt ausgeht, muss das Design schon extrem effizient sein. ATI-Karten hatten schon immer weniger Verlustleistung als die von nVidia, das war schon immer so und das wird auch so bleiben.

Na wenn das schon immer so war und immer so bleiben wird, dann muss ich bei der X700XT von ATI wohl schlecht geträumt haben :)
Frag doch nochmal bei ATI nach, wieso das Produkt eingestellt wurde. Oder lies die ersten Reviews, wass sie zum Thema Wärme etc.. zu erzählen haben.
Also irgendwie war Nvidia dort wohl besser als ATI.

Mit so einer These wie du sie aufstellst, begibt man sich schnell aufs Glatteis und macht sich vor allem lächerlich. Das wirkt dann ein bisschen zu sehr nach kindischem Fanboy.

NICHTS aber auch gar nichts ist ewig und wird bleiben wie es ist. Ich erinner mich noch gut, wie viele hier mit einer ähnlichen Argumentation meinten, ATI wird doch insgesamt mal locker vor Nvidia bleiben mit der X8xx/X7xx Serie.
Also wenn ich mir so die Ergebnisse ansehe die beide erzielt haben was einmal das finanzielle und zum anderen die Anerkennung und den Mindshare angeht, würde ich sagen, dass ATI diese Runde klar verloren hat. Du siehst also, dass die Zeiten sich ganz ganz schnell ändern können.
Deine obige These hab ich bereits mit der 6600GT wiederlegt und ich behaupte mal, dass ATI mit dem Transistorbudget einer 6800Ultra auch dort die selbe Verlustleistung erreicht hätte. Da lagen fast immerhin 60 Mio dazwischen wenn mich nicht alles täuscht. Kann sein dass es auch nur 40 waren aber auch das ist ein riesen Brocken.

Tomcat70
2005-08-27, 13:54:17
Wieso glauben eigendlich so viele das ATI unfehlbar ist?Auf jedenfall ist schon schon verdächtig warum ATI den Lauchtermin ständig hinauszögert.

ich denke keinesfalls das ATI unfehlbar ist, nur hat das nichts mit dem inhalt meiner aussage zu tun.

nachdem es nie einen offiziellen launchtermin gab, kann er auch nicht verschoben worden sein......ungeduld war schon immer ein schlechter ratgeber :D

Gast
2005-08-27, 13:56:19
Was war jetzt eigentlich mit dem Ati Launch Event? Konnte da nichts finden.

reunion
2005-08-27, 14:15:08
Ich bin mit einem Athlon-FX und einer G70 immer noch CPU-limitiert. Irgend eine brauchbare Idee?


Mangels Athlon-FX bzw. G70 kann ich dir darauf leider keine Antwort geben. Bei meiner 6600GT limitiert jedenfalls praktisch immer die Füllrate. Und wenn ich mir ansehe, welche Performancevorteile nV durch die Optimierungen - auch beim G70 - erziehlt, wage ich zu bezweifeln, dass das dort viel anders ist.

reunion
2005-08-27, 14:18:05
wohl kaum, erstes quartal 2006, weil longhorn kommt im frühsommer. =)


Erste WGF 2.0-Kompatible-GPU werden sehr viel später als Longhorn erscheinen.

Gast
2005-08-27, 14:20:25
ich denke keinesfalls das ATI unfehlbar ist, nur hat das nichts mit dem inhalt meiner aussage zu tun.

nachdem es nie einen offiziellen launchtermin gab, kann er auch nicht verschoben worden sein......ungeduld war schon immer ein schlechter ratgeber :D

ATI hatte aber sehr wohl einen internen Launchtermin bzw. Fahrplan und der ist jetzt bereits MEHRFACH verschoben worden.
Der Chip hatte sein Tapeout Ende 2004. Bis das Teil im Laden ist, sind also mindestens 9 Monate um. So lange dauert so etwas nicht.
Und wenn ich gerade so die Kommentare einiger Rage3D Admins lese, dann hört man dort nur noch sehr wenig Optimismus raus um nicht zu sagen gar keinen.

@AIL
Irgendwie stinkt Microsoft kann es sein? :)
Das sind schon komische Parallelen. Erst hat das Xbox1 Engagement Nvidia in Rückstand gebracht, jetzt scheint sich die selbe Story zu wiederholen nur eben anders herum.
Liegt wohl aber auch daran, dass ATI hier zwei völlig unterschiedliche Designs für PC und Xbox fährt. Das hatten sie sich ursprünglich mit dem R400 auch anders vorgestellt. Auch da ist M$ sicherlich ein Verursacher, wenn gleich ich überzeugt bin, dass ATI zum jetzigen Zeitpunkt mit einer unified shader architektur im PC Sektor in der Performance wohl nicht so ganz hätte mithalten können. Dafür hat die Konkurenz zusehr den Rohpower der eigenen GPUs aufgedreht.

reunion
2005-08-27, 14:36:47
Ein sehenswerter Erfolg trag ich ihnen nur fuer Xenos ein und ich werde auch den Verdacht nicht los dass der Resourcen-Aufwand fuer diese vielleicht die Mutter aller Missgeschicke war.


Sehe ich auch so. Immerhin fiel seit dem R300 ein gesamtes Ingenieursteam aus, welches sich zuerst mit R400, und dann mit C1 "herumärgerte". Alle Desktopchips mussten ab R300 also von nur einem Team übernommen werden.


Trotzdem ist ATI schon seit etlichen Jahren ein Gigant im Grafikmarkt und es wird sich auch nichts dabei aendern. Zwischem dem froehlichen Marketing-Geblubber aber und den Aehnlichkeiten des NV30 die manche dem R520 zuteilen, passt mir unter Vorraussetzungen eher der zweite Fall. Auch NV30 war eine miserable Design-Entscheidung von vorne bis hinten.

Der Vergleich zu NV30 erscheint wirklich immer passender. Nachdem, was man so hört, scheint ATi sogar Probleme zu haben, den Chip wesentlich höher als R480 zu takten. IMHO wird R520 ein totaler Reinfall.

-error-
2005-08-27, 14:54:38
Na wenn das schon immer so war und immer so bleiben wird, dann muss ich bei der X700XT von ATI wohl schlecht geträumt haben :)
Frag doch nochmal bei ATI nach, wieso das Produkt eingestellt wurde. Oder lies die ersten Reviews, wass sie zum Thema Wärme etc.. zu erzählen haben.
Also irgendwie war Nvidia dort wohl besser als ATI.

Mit so einer These wie du sie aufstellst, begibt man sich schnell aufs Glatteis und macht sich vor allem lächerlich. Das wirkt dann ein bisschen zu sehr nach kindischem Fanboy.

NICHTS aber auch gar nichts ist ewig und wird bleiben wie es ist. Ich erinner mich noch gut, wie viele hier mit einer ähnlichen Argumentation meinten, ATI wird doch insgesamt mal locker vor Nvidia bleiben mit der X8xx/X7xx Serie.
Also wenn ich mir so die Ergebnisse ansehe die beide erzielt haben was einmal das finanzielle und zum anderen die Anerkennung und den Mindshare angeht, würde ich sagen, dass ATI diese Runde klar verloren hat. Du siehst also, dass die Zeiten sich ganz ganz schnell ändern können.
Deine obige These hab ich bereits mit der 6600GT wiederlegt und ich behaupte mal, dass ATI mit dem Transistorbudget einer 6800Ultra auch dort die selbe Verlustleistung erreicht hätte. Da lagen fast immerhin 60 Mio dazwischen wenn mich nicht alles täuscht. Kann sein dass es auch nur 40 waren aber auch das ist ein riesen Brocken.

Wie erklärst du dir das?

Die X700Pro verbraucht 35 Watt unter Last, die 6600GT satte 55!

Das ist doch schon sehr extrem. Klar ist die 6600GT höher getaktet (Ram und GPU), aber selbst wenn man die X700Pro auf diese Taktraten bringt, ist der Verbrauch noch weit unterhalb der der 6600GT.

Ist gibt halt gewisse Dinge die bleiben doch. Zum Beispiel hatte nVIdia immer mehr Transistoren als ATI und Transistoren verbraten bekannterweiße Strom.

http://www.xbitlabs.com/images/video/geforce6600gt-oc/ati_vs_nvidia.gif

Coda
2005-08-27, 15:00:50
Die Mehrzahl an Transistoren erklärt sich eher durch SM 3.0 als durch SLi.

-error-
2005-08-27, 15:05:42
Die Mehrzahl an Transistoren erklärt sich eher durch SM 3.0 als durch SLi.

Toll SLI...

Und SM3.0 braucht man noch nicht, ATI hat wieder mal alles richtig gemacht ;)

Mastersdeath
2005-08-27, 15:33:15
http://www.xbitlabs.com/images/video/geforce6600gt-oc/ati_vs_nvidia.gif

http://www.hardwareluxx.de/jens/graka_iframe.php?bid=93&gid=83

;D

Gast
2005-08-27, 16:03:06
Toll SLI...

Und SM3.0 braucht man noch nicht, ATI hat wieder mal alles richtig gemacht ;)

Einerseits kann man sagen das SM3 atm nicht die große Rolle spielt, aber worauf werden seit einem Jahr Spieleengines entwickelt o.O
Sie haben ihr R300-R420 Gespann auf ein eventuell 700MHz R520 Monster aufgepimpt das aus dem letzten Kühlungsloch pfeift. Sie werden SM3 bringen und sie werden uns sagen das wir es JETZT brauchen, da HL2 ein schönes neues LvL dazu bekommt, bravo... Das gelächter wird groß sein wenn das ATI Marketing seine alten Äußerungen selbst vernichtet...

Da die Spieleengines ala UE3 erst dann rauskommen wenn schon der nächste Schritt zu WGF2 ansteht bräuchte man kein SM3 oder? Denn da gibts ja schon die nächste Generation an GPU's
Ach die wäre ja nicht möglich gewesen, ohne die vorigen Entwicklungen...

Man hätte den R520 auch bei SM2 compilance belassen können, warum hat mans nicht? Pure Speed alleine verkauft sich wohl doch nicht von alleine...

Manche Leute denken einfach in zu kleinen Kreisen, 3DFX hat doch wohl gezeigt was passiert wenn man mit der Technik nicht schritthält.

Gast
2005-08-27, 16:16:52
Wie erklärst du dir das?

Die X700Pro verbraucht 35 Watt unter Last, die 6600GT satte 55!

Das ist doch schon sehr extrem. Klar ist die 6600GT höher getaktet (Ram und GPU), aber selbst wenn man die X700Pro auf diese Taktraten bringt, ist der Verbrauch noch weit unterhalb der der 6600GT.

Ist gibt halt gewisse Dinge die bleiben doch. Zum Beispiel hatte nVIdia immer mehr Transistoren als ATI und Transistoren verbraten bekannterweiße Strom.

IMGhttp://www.xbitlabs.com/images/video/geforce6600gt-oc/ati_vs_nvidia.gif[/IMG]


Seh da keine 6600GT, auserdem ist die X700Pro langsamer und hat denn jmd schon eine gekauft *g

http://www.xbitlabs.com/images/video/geforce6600gt-oc/6600gt_power.gif

Das zeigt nur das die 6600GT soviel Leistung verbrät wie eine R9800Pro.
6600GT ist schneller und bietet ein paar mehr Features, ein guter Tradeoff oder ?

-error-
2005-08-27, 16:17:09
http://www.hardwareluxx.de/jens/graka_iframe.php?bid=93&gid=83

;D

Hardwareluxx ist pro nVidia, das merkt man schon dann, wenn man sich als neu Regestrierter nur nVidia Logos als Avatar ausuchen kann ;D

Gast
2005-08-27, 16:20:36
http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1125139544

Wieso wird so oft beim R520 doch wieder von einem UniFied Chip gesprochen?

Gast
2005-08-27, 16:23:32
Weil die Leute ihn mit den C1 in Verbindung bringen, der mal den Codenamen R500 hatte (oder?)

C1 ist der Grafikkern der XBOX360 und imo das fortschritlichste Design auf dem Markt, wobei das nicht für die Schnelligkeit gilt, da er auf HDTV Auflösung zugeschnitten wurde, während der R520 auch bei 1600+ Auflösungen mit AA noch schwitzen muss ;)

tEd
2005-08-27, 16:24:17
http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1125139544

Wieso wird so oft beim R520 doch wieder von einem UniFied Chip gesprochen?

Weil wir im internet sind und jeder sagen kann was er will ob falsch oder richtig das interessiert hier keiner

-error-
2005-08-27, 16:31:18
http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1125139544

Wieso wird so oft beim R520 doch wieder von einem UniFied Chip gesprochen?

Ich glaubs einfach mal :)

ATI hat nVidia auch mit der R300 geschockt, das war zu geil ;D

-error-
2005-08-27, 16:32:41
Seh da keine 6600GT, auserdem ist die X700Pro langsamer und hat denn jmd schon eine gekauft *g

http://www.xbitlabs.com/images/video/geforce6600gt-oc/6600gt_power.gif

Das zeigt nur das die 6600GT soviel Leistung verbrät wie eine R9800Pro.
6600GT ist schneller und bietet ein paar mehr Features, ein guter Tradeoff oder ?


Nein die X700Pro ist da nicht, war eine andere Seite, sonst würde ich auch nicht sowas behaupten!

Ja ich habe mir eine X700Pro gekauft :)

Die 9800Pro ist auch ein altes Eisen, der Vergleich hinkt ganz gewaltig, zumal die 6600GT in 0.11µ gefertigt ist, die 9800Pro in 0.13µ

Gast
2005-08-27, 16:36:00
Wie erklärst du dir das?

Die X700Pro verbraucht 35 Watt unter Last, die 6600GT satte 55!



Die X700pro mit der 6600GT zu vergleichen ist absolut albern. Ersterer wird von der 6600GT gefressen und zwar technology und performance wise.
Da musst schon die X700XT heranziehen zum Vergleich und auf die habe ich ja hingedeutet.
Wo is die denn nu geblieben Desire?
Da hat ATI wohl mächtig ins Klo mal gegriffen gehabt oder? :)
Naja und was nun letztlich daraus geworden ist, sehen wir ja alle.

ATI liegt klar hinter Nvidia und ist von R300 Traumzeiten meilenweit entfernt. Umsatz schlechter, Gewinn schlechter, Margen schlechter, Technologie schlechter, im High End in der Performance nun stark zurückgefallen dank der Verspätungen und zum Schluss dann noch das bei weitem schlechtere Erscheinungsbild in den Medien und bei den meissten Kunden (nennt man Mindshare).
Derzeit läuft so gut wie nichts rund soviel ist mal fakt.

Das es nicht immer so bleiben wird ist auch klar, denn wie ich bereits sagte "Nichts ist ewig". Aber auch der größte bornierte Fanboy hat momentan keine argumentative Basis an den massiven Problemen bei ATI vorbeizureden.
Die haben sich, wie AIL auch schon weiter vorher sagte, mit zu vielen Großbaustellen übernommen. Ein bisschen Arroganz war sicherlich auch dabei.

Tomcat70
2005-08-27, 16:37:27
Ja ich habe mir eine X700Pro gekauft :)


mein kleiner bruder hat auch eine x700 pro und ist sehr zufrieden damit.

soweit ich weiss gabs eine x700xt nie zu kaufen, also gabs auch keine reviews.

Tomcat70
2005-08-27, 16:42:51
Die X700pro mit der 6600GT zu vergleichen ist absolut albern. Ersterer wird von der 6600GT gefressen und zwar technology und performance wise.
Da musst schon die X700XT heranziehen zum Vergleich und auf die habe ich ja hingedeutet.
Wo is die denn nu geblieben Desire?
Da hat ATI wohl mächtig ins Klo mal gegriffen gehabt oder? :)
Naja und was nun letztlich daraus geworden ist, sehen wir ja alle.

ATI liegt klar hinter Nvidia und ist von R300 Traumzeiten meilenweit entfernt. Umsatz schlechter, Gewinn schlechter, Margen schlechter, Technologie schlechter, im High End in der Performance nun stark zurückgefallen dank der Verspätungen und zum Schluss dann noch das bei weitem schlechtere Erscheinungsbild in den Medien und bei den meissten Kunden (nennt man Mindshare).
Derzeit läuft so gut wie nichts rund soviel ist mal fakt.

Das es nicht immer so bleiben wird ist auch klar, denn wie ich bereits sagte "Nichts ist ewig". Aber auch der größte bornierte Fanboy hat momentan keine argumentative Basis an den massiven Problemen bei ATI vorbeizureden.
Die haben sich, wie AIL auch schon weiter vorher sagte, mit zu vielen Großbaustellen übernommen. Ein bisschen Arroganz war sicherlich auch dabei.

also du labberst zwar viel, aber dennoch wirds nicht besser und richtiger dadurch. ATI hat schon wesentlich schlechtere zeiten erlebt, aber um das noch zu wissen bist du wahrscheinlich zu jung........
insgesamt gesehen steht ATI mit seinen produkbereichen sehr gut da und ein paar schlechte finanzquartale sagen rein gar nichts über die qualität/performance zukünftiger produkte aus.
wenn es nur nach dem ginge wäre wohl ein athlon 64 nie entstanden........

derzeit heissts einfach nur abwarten und tee trinken, mehr infos werden sicher in den kommenden wochen auftauchen.

Coda
2005-08-27, 16:49:52
Toll SLI...

Und SM3.0 braucht man noch nicht, ATI hat wieder mal alles richtig gemacht ;)Die 10-20W merkst du im Gesamtstromverbrauch des Systems sicher eh nicht. Da kann mir keiner was erzählen.

Sunrise
2005-08-27, 16:51:08
Die 9800Pro ist auch ein altes Eisen, der Vergleich hinkt ganz gewaltig, zumal die 6600GT in 0.11µ gefertigt ist, die 9800Pro in 0.13µ

Die R3XX-Serie war, ist und bleibt auf 150nm. ;)

-error-
2005-08-27, 16:56:48
Die R3XX-Serie war, ist und bleibt auf 150nm. ;)

Siehste, soweit liegt das schon zurück, war mich nicht sicher ;)

-error-
2005-08-27, 16:58:37
Die 10-20W merkst du im Gesamtstromverbrauch des Systems sicher eh nicht. Da kann mir keiner was erzählen.

Und ob ich das merke :)

19" TFT
A64 @ CoolnQuit
X700Pro
Genügsames MSI K8 Neo
1x S-ATA HD
10 Watt Pumpe

Bei Vollast unter 150 Watt, ohne TFT :)

-error-
2005-08-27, 17:06:18
Die X700pro mit der 6600GT zu vergleichen ist absolut albern. Ersterer wird von der 6600GT gefressen und zwar technology und performance wise.
Da musst schon die X700XT heranziehen zum Vergleich und auf die habe ich ja hingedeutet.
Wo is die denn nu geblieben Desire?
Da hat ATI wohl mächtig ins Klo mal gegriffen gehabt oder? :)
Naja und was nun letztlich daraus geworden ist, sehen wir ja alle.

ATI liegt klar hinter Nvidia und ist von R300 Traumzeiten meilenweit entfernt. Umsatz schlechter, Gewinn schlechter, Margen schlechter, Technologie schlechter, im High End in der Performance nun stark zurückgefallen dank der Verspätungen und zum Schluss dann noch das bei weitem schlechtere Erscheinungsbild in den Medien und bei den meissten Kunden (nennt man Mindshare).
Derzeit läuft so gut wie nichts rund soviel ist mal fakt.

Das es nicht immer so bleiben wird ist auch klar, denn wie ich bereits sagte "Nichts ist ewig". Aber auch der größte bornierte Fanboy hat momentan keine argumentative Basis an den massiven Problemen bei ATI vorbeizureden.
Die haben sich, wie AIL auch schon weiter vorher sagte, mit zu vielen Großbaustellen übernommen. Ein bisschen Arroganz war sicherlich auch dabei.


Mach mal halblang :) ATI musste zwar den Performancesektor nVidia überlassen und zwar deutlich (von Marktanteil), aber im Midrangesegment siehts anders aus, erst recht im Mobilsektor.

Fakt ist, dass nVidia immer noch nicht ganz an den Umsatz von ATI herankommt, ATI ist auch Marktführer und baut weiterhin die Führung bei Chipsätzen mit integrierter Grafik aus.

Probleme? Nun, wenn die R520, die RV530 und die RV515 erstmal releast sind, gibt sind, gibt es keine Probleme mehr.

Und zur Arroganz: Die würde ich doch eher nVidia zuordnen, sieht man immer so schön in den Präsentationen, wo nVidia mit nivoulosen Parolen auf ATI eindrescht, da sagt schon alles aus, von solchen Leuten kaufe ich nichts!

Beim Chipsatz bin ich gezwungen, aber leider ist der RS480 ja nicht erhältlich.

BlackArchon
2005-08-27, 17:14:23
...
Und zur Arroganz: Die würde ich doch eher nVidia zuordnen, sieht man immer so schön in den Präsentationen, wo nVidia mit nivoulosen Parolen auf ATI eindrescht, da sagt schon alles aus, von solchen Leuten kaufe ich nichts!
...Das macht Ati natürlich ganz anders. Da wird nur mit fundierten Argumenten und objektiven Fakten gearbeitet.

Coda
2005-08-27, 17:16:57
Und ob ich das merke :)

19" TFT
A64 @ CoolnQuit
X700Pro
Genügsames MSI K8 Neo
1x S-ATA HD
10 Watt Pumpe

Bei Vollast unter 150 Watt, ohne TFT :)Schön, du wirst es auf der Stromrechnung aber nicht merken X-D

Außerdem: Hast du den TFT aus, wenn du den PC an hast? ...

dargo
2005-08-27, 17:27:58
Außerdem: Hast du den TFT aus, wenn du den PC an hast? ...
Beim Filesharing kann ich mir das gut vorstellen. ;)

-error-
2005-08-27, 17:30:40
Beim Filesharing kann ich mir das gut vorstellen. ;)

So ist es :)

BT:

Also wenn der R520 doch eine Unified Shader-GPU ist, unterstützt diese dann auch nicht eigendlich WGF2.0, also PS 4.0?

Winter[Raven]
2005-08-27, 17:34:19
Hilfe, was ist den das für ein Kindergarten hier. Tomcat und Desire, versteht ihr nicht das Ihr den verdammten Fread kaputtmacht mit eurerem Fanatismus? Ich habe bei eueren Posting ganz laut lachen müssen und alles in allem als BULLSHIT zusammenfassen ist!

Ich weiß nicht auf welche "marktanteile" bzw. die Statistiken du dich berufst, sagt bitte nicht Mercury ... die wären in dem Fall ein totaller Bullshit, da man z.b. die 6600GT die ein Mid-rage Produkt ist nicht mit einfließt, weil dieser zuviel Transitoren gebrutzelt bekommt. :crazy2:

Midrangesegment siehts anders aus

Deswegen verschechert ATI derzeit jeden Chip den man kann um die Lager leerzubekommen, weil man doch ahso viele Chips davor verkauft hat, mach dich nicht lächerlich.

Probleme? Nun, wenn die R520, die RV530 und die RV515 erstmal releast sind, gibt sind, gibt es keine Probleme mehr.

Hast du eine Glasskugel? Du musst langsamm einsehen das R520 nicht der Wunderchip wird den alle erwarten, wie gut der RV530 und RV515 sind muss sich nch rausstellen, bei Nvidia ist aber derzeit so einiges in der Mache für Low-Midrage bis Ultra-Highend! Ich sehe noch kein Ende der Probleme für ATI.


//EDIT:

Also wenn der R520 doch eine Unified Shader-GPU ist, unterstützt diese dann auch nicht eigendlich WGF2.0, also PS 4.0?

Wie oft den noch, der R520 ist eine GPU mit getrennten PS und VS!!

Macht nur so weiter und ihr seid bald beider auf meiner Ignorliste...! Denn, Lachen kann ich derzeit garnicht nach meiner OP!

LovesuckZ
2005-08-27, 17:37:21
Fakt ist, dass nVidia immer noch nicht ganz an den Umsatz von ATI herankommt, ATI ist auch Marktführer und baut weiterhin die Führung bei Chipsätzen mit integrierter Grafik aus.

http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2005/august/nvidia_gewinn_1362_prozent/
Umsatz ist nichtsbedeutend, wenn man keinen Gewinn einfaehrt.

Coda
2005-08-27, 17:56:31
Also wenn der R520 doch eine Unified Shader-GPU ist, unterstützt diese dann auch nicht eigendlich WGF2.0, also PS 4.0?Ist er nicht. Es gibt auch keine PS 4.0 und die WGF 2.0 Spezifikation ist noch nicht mal final.

-error-
2005-08-27, 18:16:01
Ist er nicht. Es gibt auch keine PS 4.0 und die WGF 2.0 Spezifikation ist noch nicht mal final.

Aber wenn das Gerücht immer wieder aufkommt? Woher wollt ihr das denn wissen?

Man soll zwar nicht alles glauben was man so liest (ganz speziell im I-Net), aber die Vergangenheit hat gezeigt, dass wenn sich Gerüchte häufen, da auch meistens was dran ist :D

Sagen wir es mal so, ihr glaubt es, wisst aber nicht ;D

mapel110
2005-08-27, 18:17:34
Aber wenn das Gerücht immer wieder aufkommt? Woher wollt ihr das denn wissen?

Man soll zwar nicht alles glauben was man so liest (ganz speziell im I-Net), aber die Vergangenheit hat gezeigt, dass wenn sich Gerüchte häufen, da auch meistens was dran ist :D

Sagen wir es mal so, ihr glaubt es, wisst aber nicht ;D
Oje, wie oft haben wir denn 32 Pipes beim R520 gehört?! Demnach müsste das ja totsicher sein. :)

Tomcat70
2005-08-27, 18:19:52
Umsatz ist nichtsbedeutend, wenn man keinen Gewinn einfaehrt.

OT: da sprechen ja nun die wahren finanzexperten............
umsatz=marktanteil, somit keinesfalls unbedeutend, siehe microsoft xbox, etc.

so oder so, es gibt halt hier die einen, die sich offensichtlich wünschen das der r520 ein guter, erfolgreicher chip wird, dann noch die denen es egal ist, und zu guter letzt noch jene die sich unbedingt wünschen das der 520 schlechter als die 7800er ist/wird.

ich zähl mich eindeutig zur ersten gruppe, wo andere diskussionsteilnehmer stehen kann eh jeder selbst erkennen......

Exxtreme
2005-08-27, 18:33:59
Aber wenn das Gerücht immer wieder aufkommt? Woher wollt ihr das denn wissen?

Das frage ich mich auch woher die Leute gesicherte Informationen haben, daß der R520 kein unified-Shader-Chip ist. Mir persönlich ist's egal solange die Leistung und die Bildqualität stimmt.

deekey777
2005-08-27, 18:42:08
Das frage ich mich auch woher die Leute gesicherte Informationen haben, daß der R520 kein unified-Shader-Chip ist. Mir persönlich ist's egal solange die Leistung und die Bildqualität stimmt.

Es geht aber auch darum, daß einige meinen, US wäre das Allerheilmittel, ohne das die Welt untergeht.

reunion
2005-08-27, 18:45:42
Aber wenn das Gerücht immer wieder aufkommt? Woher wollt ihr das denn wissen?


Er ist keiner. Akzeptier es einfach.
Aber schon klar: Einsicht braucht die Not als Verbündeten - du wirst es noch früh genug einsehen (müssen).

Gast
2005-08-27, 18:58:55
Dummheit ist nicht ´wenig wissen´, auch nicht ´wenig wissen wollen´, Dummheit ist ´glauben, genug zu wissen´.

reunion
2005-08-27, 19:05:31
Dummheit ist nicht ´wenig wissen´, auch nicht ´wenig wissen wollen´, Dummheit ist ´glauben, genug zu wissen´.


Der Mensch hat drei Wege, klug zu handeln. Erstens durch Nachdenken: Das ist der edelste. Zweitens durch Nachahmen: Das ist der leichteste. Drittens durch Erfahrung: Das ist der bitterste. - Konfuzius

In diesem Sinne:

[...] du wirst es noch früh genug einsehen (müssen).

Gast
2005-08-27, 19:39:57
Mach mal halblang :) ATI musste zwar den Performancesektor nVidia überlassen und zwar deutlich (von Marktanteil), aber im Midrangesegment siehts anders aus, erst recht im Mobilsektor.

Die 6600GT war über die meisste Zeit Mainstream. Was laberst du da für einen Mist. Nvidia hat in allen Segmenten von der 6600GT bis zur 6800U bei den Kunden mehr abgesahnt als ATI. Die Bilanzen beweisen es.


Fakt ist, dass nVidia immer noch nicht ganz an den Umsatz von ATI herankommt, ATI ist auch Marktführer und baut weiterhin die Führung bei Chipsätzen mit integrierter Grafik aus.

Ich glaube du solltest aus dem Thread lieber aussteigen. Du machst dich mit jedem Post lächerlicher. 90% der Leser hier werden dein Gewäsch richig einordnen zu wissen und es ist nichts weiter als Gewäsch ohne jegliche Basis.

Und nun mal die Quartalszahlen:
-------------------------------
jeweils die letzten Quartale:
ATI: 530 Mio Umsatz, 29% Margen, 900.000 Dollar Verlust
Nvidia 575 Mio Umsatz 38% Margen und 75 Mio Dollar Gewinn.

Das Quartal zuvor wies die folgenden Zahlen auf:
ATI: 618 Mio Umsatz, Margen 36% und 57 Mio Dollar Gewinn
Nvidia: 584 Mio Umsatz, Margen 35% und 65 Mio Dollar Gewinn

Der Trend geht für ATI klar abwärts momentan. Die nächsten Quartalszahlen gibts Anfang Oktober. Die werden aller Voraussichtnach ebenfalls nicht so prall werden aufgrund des hohen Inventory Stands.

So und was die Chipsätze angeht, hat ATI zwar dadurch seine Gesamtmarktanteile halten können aber es hat für sie finanziell nichts retten können. Das letzte Quartal war ein ziemlich rasanter Absturz. Was nützen einem IGP sales, wenn man in dem für Entwickler und Publisher und natürlich für das Image wichtigem Segment für Grafikkarten (150 bis 500$) an Boden verliert.
Und am 20. September solltest du aufpassen, denn da tritt ein neuer Chipsatz in den Markt der ebenfalls eine IGP sein wird und der wird ein grünes Logo haben. Spätestens dann fallen auch die Gesamtmarktanteile zwangsläufig.

Finanziell gesehen braucht ATI die neue Generation. Die X8xx/x7xx hat ausgedient. Die ist technisch veraltet und wird nun nochmehr darunter leiden, dass ihr SM3 fehlt. Sowas verkauft sich heute nicht mehr. Da hat es Nvidia mit der GF6 einfacher.


Probleme? Nun, wenn die R520, die RV530 und die RV515 erstmal releast sind, gibt sind, gibt es keine Probleme mehr.

Kannst du gar nicht beurteilen, weil es davon abhängig ist was die Konkurenz macht und wie die Produkte sich letztlich leistungsmäßig schlagen. Soviel ist jedoch jetzt schon sicher. Jede Woche mehr an Verzögerung bringt ATI auch bei der neuen Produktreihe in Rückstand, weil die Konkurenz mehr Zeit bekommt nachzulegen.


Und zur Arroganz: Die würde ich doch eher nVidia zuordnen, sieht man immer so schön in den Präsentationen, wo nVidia mit nivoulosen Parolen auf ATI eindrescht, da sagt schon alles aus, von solchen Leuten kaufe ich nichts!


Haha lol und ATI hat das noch nie gemacht? Junge wo lebst du. Muskeln spielen lassen gehört zum Geschäft. Ich empfehle hier mal "Save the nanosecond" von ATI. Eine nette Präsentation mit herrlichen Folien und Kommentare.

Gast
2005-08-27, 19:50:14
OT: da sprechen ja nun die wahren finanzexperten............
umsatz=marktanteil, somit keinesfalls unbedeutend, siehe microsoft xbox, etc.


Was ist das denn für ein Schwachsinn. Umsatz hat erstmal gar nichts mit Marktanteil zu tun. Wenn man viele Märkte bedient kann man einen hohen Umsatz haben und kann trotzdem nur einen kleien Marktanteil haben.

Die letzten Zahlen beweisen doch ganz klar was Sache ist.
ATIs Gesamtmarktanteil war höher als der von Nvidia. Trozdem war Nvidia's Umsatz höher, die Margen erheblich höher - ganze 9% und der Gewinn satte 75Mio Dollar über dem von ATI(ATI hatte einen kleinen Verlust von 900.000).

Das bedeutet doch ganz klar eins. ATI verkaufte gut low end und IGP hat dafür aber in den Segmenten die mit der 6600GT beginnen bis ganz nach oben schwer verloren. Aus diesem Grund hat ATI auch einen riesen Lagerstand der jetzt schnell raus muss (also wird umgelabeled auf X800GT und X800GTO).
In den fürs Image und für Spiele und Entwickler relevanten Märkten hat ATI jedenfalls mächtig Federn gelassen. Es wurden weniger Produkte mit hohen Margen verkauft was im krassen Gegensatz zur Konkurenz steht.
Man muss sich nur mal vor Augen halten, dass ATI bei den Margen nur noch 2% Punkte von dem absolutem Tiefstpunkt von Nvidia zu FX Zeiten entfernt ist. Damals waren es für Nvidia 27%.
Ich denke das sagt doch alles über die derzeitigen Probleme bei ATI aus.

Gast
2005-08-27, 21:40:21
Naja, ATI wird es überleben. Wenn die Konsolenchips keine oder nur wenige Probleme machen, wird es im Grakasektor wahrscheinlich auch wieder besser. Sollte es da allerdings ähnliche Probleme wie bei dem R520 geben, dann sehe ich wirklich rot für ATI, und zwar bei den Bilanzen.

Was man schön sehen kann, auch wenn es für ATI schlecht ist, dass Diversifikation anscheinend auch nicht so viel hilft. Die bringt nämlich nur dann etwas, wenn die entsprechenden Sparten auch was abwerfen.

Gast
2005-08-27, 21:44:55
Was man schön sehen kann, auch wenn es für ATI schlecht ist, dass Diversifikation anscheinend auch nicht so viel hilft. Die bringt nämlich nur dann etwas, wenn die entsprechenden Sparten auch was abwerfen.

Es bringt vor allem dann Probleme, wenn die Ressourcen dafür nicht da sind. Nvidia hats ja damals mit der xbox auch schon erlebt. Da war der Grafikchip zwar annähernd identisch mit dem PC Zeug aber dafür musste die ganze Infrastruktur mitentwickelt werden (MCP etc..)
Bei ATI ist es nun so, dass der xbox360 Chip mit den derzeiten PC Lösungen nur wenig gemeinsam hat. Das hat man ursprünglich mit der R400 Roadmap noch anders geplant gehabt. Aber wie so oft kommt es anders als man denkt.
R400 wurde gestrichen, longhorn wurde deutlich nach hinten verschoben usw..

tokugawa
2005-08-27, 22:59:20
Toll SLI...

Und SM3.0 braucht man noch nicht, ATI hat wieder mal alles richtig gemacht ;)

Hier mal vielleicht eine andere Perspektive zu "SM3.0 braucht man nicht". Aber Achtung, um das zu verstehen muß man die Gamer- und Fanboy-Scheuklappen runtertun!


Also:
- Wir wollen tolle Grafikeffekte in Spielen.

- Diese kommen von Entwicklern, die wiederum meistens wissenschaftliche Papers in der Computergrafik-Forschung umsetzen in die Praxis. Und auch in der Forschung gibt's Entwickler.

- Entwickler in Forschung und Spieleentwicklung brauchen die konkrete Hardware, um überhaupt Effekte zu entwickeln die für Spiele verwendet werden.

- Die haben sich natürlich mächtig gefreut über den NV4x, und den auch genutzt (es gibt jetzt schon in der Echtzeit-Visualisierung Anwendungen wo SM 3.0 an die Grenzen stößt, etwa GPU-basiertes Raycasting für Segmenting in der MedVis).

- Somit hat NVIDIA mit der Unterstüzung konkreter SM 3.0 Hardware auch die Effekt-Entwicklung gefördert. ATI mit der (bisherigen) Weigerung, SM 3.0 einzusetzen (und noch dazu mit einem sehr reinen "SM2.0-und-sonst-nix" Chip) die Entwicklung neuer Effekte eher gehemmt (ich weiß, das ist überspitzt formuliert - wenn man ehrlich ist, ist auch SM 2.0 schon sehr nett).

- Jetzt kommt ATI doch mit SM 3.0 Hardware heraus. Zufälligerweise grad zu einer Zeit wo die ersten SM 3.0 Effekte auch in der Praxis einsetzbar sind und aus der Forschung gereift sind.

- Man könnte das jetzt auch so sehen dass ATI jetzt Nutznießer ist von der relativen Pionierleistung, SM 3.0 hardware bereits im Jahr 2004 bereitzustellen.



Ich persönlich bin froh dass es SM 3.0 gibt. Nutzlos finde ich es nicht, auch wenn jene Algorithmen mit denen ich studientechnisch zu tun habe noch nicht über SM 2.0 Fähigkeiten hinausgehen. Es als nutzlos zu bezeichnen - da könnte man dann jeden Fortschritt als "nutzlos" bezeichnen.

3D Beschleunigung galt ja auch mal als nutzlos, weil kein Spiel es nutzte. Aber diese Meinung verstrickt sich, wenn man diese Meinung logisch weiterstrickt, ins Henne-Ei-Problem: wie soll es Spiele geben die die neuen Features nutzen geben, wenn es keine Hardware gibt, die diese Features bereitstellt?

LovesuckZ
2005-08-27, 23:04:55
OT: da sprechen ja nun die wahren finanzexperten............
umsatz=marktanteil, somit keinesfalls unbedeutend, siehe microsoft xbox, etc.

Im Konsolenbereich verdient man das Geld zum größten Teil über die Spiele und Zubehör.
Im Grafikmarkt ist der Marktanteil kaum so bedeutend für den Chiphersteller, da er dadurch keinen Gewinn einfährt.
Was bringt es zum Beispiel VW der Titel des weltweitführenden Autoherstellers, wenn das Unternehmen keinen Gewinn einfaehrt und ihre Position nur dank starker Rabatte halten kann? Nichts.

MikBach
2005-08-27, 23:06:47
Hier mal vielleicht eine andere Perspektive zu "SM3.0 braucht man nicht". Aber Achtung, um das zu verstehen muß man die Gamer- und Fanboy-Scheuklappen runtertun!


Also:
- Wir wollen tolle Grafikeffekte in Spielen.

- Diese kommen von Entwicklern, die wiederum meistens wissenschaftliche Papers in der Computergrafik-Forschung umsetzen in die Praxis. Und auch in der Forschung gibt's Entwickler.

- Entwickler in Forschung und Spieleentwicklung brauchen die konkrete Hardware, um überhaupt Effekte zu entwickeln die für Spiele verwendet werden.

- Die haben sich natürlich mächtig gefreut über den NV4x, und den auch genutzt (es gibt jetzt schon in der Echtzeit-Visualisierung Anwendungen wo SM 3.0 an die Grenzen stößt, etwa GPU-basiertes Raycasting für Segmenting in der MedVis).

- Somit hat NVIDIA mit der Unterstüzung konkreter SM 3.0 Hardware auch die Effekt-Entwicklung gefördert. ATI mit der (bisherigen) Weigerung, SM 3.0 einzusetzen (und noch dazu mit einem sehr reinen "SM2.0-und-sonst-nix" Chip) die Entwicklung neuer Effekte eher gehemmt (ich weiß, das ist überspitzt formuliert - wenn man ehrlich ist, ist auch SM 2.0 schon sehr nett).

- Jetzt kommt ATI doch mit SM 3.0 Hardware heraus. Zufälligerweise grad zu einer Zeit wo die ersten SM 3.0 Effekte auch in der Praxis einsetzbar sind und aus der Forschung gereift sind.

- Man könnte das jetzt auch so sehen dass ATI jetzt Nutznießer ist von der relativen Pionierleistung, SM 3.0 hardware bereits im Jahr 2004 bereitzustellen.



Ich persönlich bin froh dass es SM 3.0 gibt. Nutzlos finde ich es nicht, auch wenn jene Algorithmen mit denen ich studientechnisch zu tun habe noch nicht über SM 2.0 Fähigkeiten hinausgehen. Es als nutzlos zu bezeichnen - da könnte man dann jeden Fortschritt als "nutzlos" bezeichnen.

3D Beschleunigung galt ja auch mal als nutzlos, weil kein Spiel es nutzte. Aber diese Meinung verstrickt sich, wenn man diese Meinung logisch weiterstrickt, ins Henne-Ei-Problem: wie soll es Spiele geben die die neuen Features nutzen geben, wenn es keine Hardware gibt, die diese Features bereitstellt?

Sehr schön formuliert. :)
Ich frage mich aber, warum damals (Erscheinen der 6800) die 6800 für Gamer ein Muss sein sollte...
Das haben hier doch viele plediert. Ich will ja nicht persönlich werden. ;)
Machen wir ATI auch nicht schlechter, als sie sind.
Mit dem R200 war ATI sogar einer GF4TI überlegen, was das Featureset angeht.
Deswegen kannst du mit dem R200 BF2 spielen, mit einer GF4TI aber nicht. :wink:

Ailuros
2005-08-27, 23:34:24
gut das du deine aussagen bezüglich r520 hier (als auch anderswo) immer so präsentierst als wärest du vor ort dabei gewesen.....gleichzeitig kritisiert du den inquirer im übermass. meines erachtens kennst du keine bis kaum mehr tatsächliche fakten zum r520/r580 als alle anderen hier. alles genauso nur dasselbe in der luft-gestochere. was nicht heissen soll das du oder andere total neben der wahrheit liegen. nur die präsentation unterscheidet sich bei dir wesentlich......

Selbst indirekte persoenliche Sticheleien lassen eiskalt; Du kannst sie gerne so oft wie moeglich benutzen aber es wird weder einen Unterschied machen, noch wird es etwas an den wahren finalen Spezifikationen aendern.

Mir ist genauso egal wie Du zu jeder Firma stehtst und ob Du Kritik gegen diese ertragen kannst. Entweder Du hast was brauchbares beizufuegen oder Du kannst gerne versuchen Deine Unfaehigkeit ein brauchbares Gegenargument zu bringen so zu verschleiern.

taktunterschiede spielen eigentlich nur bei gleicher architektur eine rolle, was hier nehm ich mal an, nicht so sehr der fall sein wird. ausser du nimmst an das ati ein 150w monster als hi-end-lösung vorstellt, was ich jedoch stark bezweifle.....

Och raten kannst Du lange was ich genau meinte. Von Watt hab ich erst mal gar nichts erwaehnt. Bist Du sicher dass Panik ein guter Ratgeber ist?

Ailuros
2005-08-27, 23:47:20
Es bringt vor allem dann Probleme, wenn die Ressourcen dafür nicht da sind. Nvidia hats ja damals mit der xbox auch schon erlebt. Da war der Grafikchip zwar annähernd identisch mit dem PC Zeug aber dafür musste die ganze Infrastruktur mitentwickelt werden (MCP etc..)
Bei ATI ist es nun so, dass der xbox360 Chip mit den derzeiten PC Lösungen nur wenig gemeinsam hat. Das hat man ursprünglich mit der R400 Roadmap noch anders geplant gehabt. Aber wie so oft kommt es anders als man denkt.
R400 wurde gestrichen, longhorn wurde deutlich nach hinten verschoben usw..


Genauso ist es. Um es zu erweitern es gab bis jetzt nie einen IHV egal ob klein oder gross, egal ob man IP oder chips entwickelt hat, wo ein Consolen-deal nicht nur Aenderungen in jeglicher roadmap hervorgerufen hat, sondern auch einen gesunden Anteil von Resourcen verschluckt hat.

Xenos ist ein ziemlich komplizierter Design und er wird sich auch meiner Meinung nach ausgezeichnet ausspielen im Consolen als auch in anderen Maerkten ausserhalb dem PC bis WGF2.0 erscheint. Man kann eben nicht ueberall gewinnen, man gewinnt im einen Bereich verliert aber im anderen.

Ailuros
2005-08-27, 23:54:09
Naja, ATI wird es überleben. Wenn die Konsolenchips keine oder nur wenige Probleme machen, wird es im Grakasektor wahrscheinlich auch wieder besser. Sollte es da allerdings ähnliche Probleme wie bei dem R520 geben, dann sehe ich wirklich rot für ATI, und zwar bei den Bilanzen.

Was man schön sehen kann, auch wenn es für ATI schlecht ist, dass Diversifikation anscheinend auch nicht so viel hilft. Die bringt nämlich nur dann etwas, wenn die entsprechenden Sparten auch was abwerfen.

Hohe R&D Unkosten zahlen sich langfristig immer aus, so lange es sich nicht um einen Fehl-Design handelt. Und ich sehe bei bestem Willen keinen Fehl-Design beim Xenos.

Es gibt bei allen IHVs Hoehen und Tiefen; es kann durchaus sein dass ATI's R400/Xenos/R600 Technologie-Investition in der Zukunft besser auszahlen wird bei den ersten WGF2.0 GPUs als bei der Konkurrenz.

-error-
2005-08-28, 00:00:56
Hier mal vielleicht eine andere Perspektive zu "SM3.0 braucht man nicht". Aber Achtung, um das zu verstehen muß man die Gamer- und Fanboy-Scheuklappen runtertun!


Also:
- Wir wollen tolle Grafikeffekte in Spielen.

- Diese kommen von Entwicklern, die wiederum meistens wissenschaftliche Papers in der Computergrafik-Forschung umsetzen in die Praxis. Und auch in der Forschung gibt's Entwickler.

- Entwickler in Forschung und Spieleentwicklung brauchen die konkrete Hardware, um überhaupt Effekte zu entwickeln die für Spiele verwendet werden.

- Die haben sich natürlich mächtig gefreut über den NV4x, und den auch genutzt (es gibt jetzt schon in der Echtzeit-Visualisierung Anwendungen wo SM 3.0 an die Grenzen stößt, etwa GPU-basiertes Raycasting für Segmenting in der MedVis).

- Somit hat NVIDIA mit der Unterstüzung konkreter SM 3.0 Hardware auch die Effekt-Entwicklung gefördert. ATI mit der (bisherigen) Weigerung, SM 3.0 einzusetzen (und noch dazu mit einem sehr reinen "SM2.0-und-sonst-nix" Chip) die Entwicklung neuer Effekte eher gehemmt (ich weiß, das ist überspitzt formuliert - wenn man ehrlich ist, ist auch SM 2.0 schon sehr nett).

- Jetzt kommt ATI doch mit SM 3.0 Hardware heraus. Zufälligerweise grad zu einer Zeit wo die ersten SM 3.0 Effekte auch in der Praxis einsetzbar sind und aus der Forschung gereift sind.

- Man könnte das jetzt auch so sehen dass ATI jetzt Nutznießer ist von der relativen Pionierleistung, SM 3.0 hardware bereits im Jahr 2004 bereitzustellen.



Ich persönlich bin froh dass es SM 3.0 gibt. Nutzlos finde ich es nicht, auch wenn jene Algorithmen mit denen ich studientechnisch zu tun habe noch nicht über SM 2.0 Fähigkeiten hinausgehen. Es als nutzlos zu bezeichnen - da könnte man dann jeden Fortschritt als "nutzlos" bezeichnen.

3D Beschleunigung galt ja auch mal als nutzlos, weil kein Spiel es nutzte. Aber diese Meinung verstrickt sich, wenn man diese Meinung logisch weiterstrickt, ins Henne-Ei-Problem: wie soll es Spiele geben die die neuen Features nutzen geben, wenn es keine Hardware gibt, die diese Features bereitstellt?

Mit all dem hast du ja Recht! Nur es kann nicht sein, dass wenn man sich z.B. zwischen einer X800XL und einer 6800GT nur wegen SM3.0 entscheidet, es gibt Leute die machen das.

Das nervt mich ja so, es tun alle so, als wäre die Technik der X800-Serie so veraltet. Dies gibt nach wie vor noch Gründe, eine ATI zu kaufen. Das muss natürlich jeder selber entscheide........

-error-
2005-08-28, 00:10:37
Hohe R&D Unkosten zahlen sich langfristig immer aus, so lange es sich nicht um einen Fehl-Design handelt. Und ich sehe bei bestem Willen keinen Fehl-Design beim Xenos.

Es gibt bei allen IHVs Hoehen und Tiefen; es kann durchaus sein dass ATI's R400/Xenos/R600 Technologie-Investition in der Zukunft besser auszahlen wird bei den ersten WGF2.0 GPUs als bei der Konkurrenz.

So wars ja auch bei nVidia letztendlich. Die FX war nix, die 5900-Serie war nix Ganzes und nichts Halbes, die 6800er Serie hats dann wieder gerichtet.

nVidia hat aber auch einen hohen Preis dafür gezahlt, 300mio Dollar Entwicklungskosten.

deLuxX`
2005-08-28, 00:13:15
Das nervt mich ja so, es tun alle so, als wäre die Technik der X800-Serie so veraltet. Dies gibt nach wie vor noch Gründe, eine ATI zu kaufen. Das muss natürlich jeder selber entscheide........

Genau, selber entscheiden. Einfach die Leute machen lassen, die das wollen. Es handelt ja sich nicht um eine Entscheidung ala "Soll ich trotz Anschlägen nach London fliegen?".
Das Leben ist so ernst und es gibt weiß Gott schlimmere Sachen über die man sich aufregen sollte. ;)

-deLuxX`

Winter[Raven]
2005-08-28, 00:14:21
Man kann eben nicht ueberall gewinnen, man gewinnt im einen Bereich verliert aber im anderen.

Rein theoretisch gesehn könnte aber Nvidia beides schaffen, den derzeit scheit es so als würde alles nach Schnürchen bei Nvidia laufen, RSX und die kommenden Desktops... :)

//EDIT:

Was sagst du eigentlich zu G75 oder R580? :biggrin:

Ailuros
2005-08-28, 00:20:41
So wars ja auch bei nVidia letztendlich. Die FX war nix, die 5900-Serie war nix Ganzes und nichts Halbes, die 6800er Serie hats dann wieder gerichtet.

nVidia hat aber auch einen hohen Preis dafür gezahlt, 300mio Dollar Entwicklungskosten.

Nur war eben die gesamte NV3x Linie eine um weites miserablere Design-Entscheidung als R520 je sein koennte.

Es gibt nur Aenlichkeiten was die Verspaetung/Leckstromgeschichte betrifft und dass eben durch die zu grosse Verspaetung der R580 so schnell wie moeglich nachgeladen werden muss, genauso eben wie der NV35 damals.

Ailuros
2005-08-28, 00:28:31
']Rein theoretisch gesehn könnte aber Nvidia beides schaffen, den derzeit scheit es so als würde alles nach Schnürchen bei Nvidia laufen, RSX und die kommenden Desktops... :)

Nicht unbedingt. Ich will mehr ueber den SONY deal wissen bevor ich erstmal da spekulieren kann. Der Vertrag betrifft ja nicht nur Consolen, sondern auch anderes IP fuer andere Geraete. Hat sie jetzt SONY zu einem exklusivem Vertrag "gezwungen", dann hat dieses genauso viel Vor- wie auch Nachteile.


Was sagst du eigentlich zu G75 oder R580? :biggrin:

Was ist denn nach Deiner Meinung ein "G75"? :P

Gast
2005-08-28, 00:31:27
Mit all dem hast du ja Recht! Nur es kann nicht sein, dass wenn man sich z.B. zwischen einer X800XL und einer 6800GT nur wegen SM3.0 entscheidet, es gibt Leute die machen das.


Wieso kann das nicht sein? Bei annähernd gleichem Preis ist das doch nur logisch. Die X800XL hat nunmal für den Kunden kein so richtig greifbares Alleinstellungsmerkmal. Da nimmt man eben das wo man mehr für die Kohle bekommt und das ist dann halt die SM3 Ware.
Wer es anders macht ist einfach nur dämlich oder borniert. Ich jedenfalls kaufe mir kein Produkt nur weil das von Firma A oder B ist sondern ich kaufe das, wo ich für mein Geld das meisste bekomme.

Und dann gibt es nunmal viele Leute, die ihre Graka nicht alle 12 Monate wechseln. Die wollen eventuell im Jahr 2006 noch ihren Spass mit neueren Games haben. Die 6800GT wird zwar bis dahin zum alten Eisen gehören aber besser als mit der X800XL fährt man dann in jedem Fall. Dann muss halt das AA, AF oder die Auflösung drann glauben und runtergesetzt werden um die Performance zu halten aber wenigstens kann man die Gameoptik in vollen Zügen nutzen, was eben dann von ATIs X8xx Serie nicht mehr behauptet werden kann. Vor allem wird ATI nen Scheiss tun und sich um die Pflege ihrer technologisch veralteten Produktreihe kümmern. Für die ist dann der Schwenk voll auf SM3 eingeläutet. Und genau deshalb fährt man mit einer GF6 einfach besser.

Coda
2005-08-28, 02:02:38
So wars ja auch bei nVidia letztendlich. Die FX war nix, die 5900-Serie war nix Ganzes und nichts Halbes, die 6800er Serie hats dann wieder gerichtet.

nVidia hat aber auch einen hohen Preis dafür gezahlt, 300mio Dollar Entwicklungskosten.Sehr viele Dinge von CineFX 1 sind auch heute noch vorhanden. Es ist ja nicht so als hätte man das ganze Ding begraben.

Winter[Raven]
2005-08-28, 02:10:53
Nicht unbedingt. Ich will mehr ueber den SONY deal wissen bevor ich erstmal da spekulieren kann. Der Vertrag betrifft ja nicht nur Consolen, sondern auch anderes IP fuer andere Geraete. Hat sie jetzt SONY zu einem exklusivem Vertrag "gezwungen", dann hat dieses genauso viel Vor- wie auch Nachteile.



Was ist denn nach Deiner Meinung ein "G75"? :P

Naja, ich hab keine Ahnung wie der 0.9nm Refresh bei NV intern heißt, bei dem ganzen Wirwar ist ja auch kein Wunder ^^... :(

G75, G79, G80 ... *schulter zuck*

Andere IP's? Wann gibts eine Ankündigung? :D

Ailuros
2005-08-28, 04:10:47
']Naja, ich hab keine Ahnung wie der 0.9nm Refresh bei NV intern heißt, bei dem ganzen Wirwar ist ja auch kein Wunder ^^... :(

G75, G79, G80 ... *schulter zuck*

Andere IP's? Wann gibts eine Ankündigung? :D

Falls sie nur die Frequenz erhoehen und es mit schnellerem Speicher ausstatten, sieht theoretisch R580 eigentlich besser aus.

Tomcat70
2005-08-28, 06:37:00
Selbst indirekte persoenliche Sticheleien lassen eiskalt; Du kannst sie gerne so oft wie moeglich benutzen aber es wird weder einen Unterschied machen, noch wird es etwas an den wahren finalen Spezifikationen aendern.

Mir ist genauso egal wie Du zu jeder Firma stehtst und ob Du Kritik gegen diese ertragen kannst. Entweder Du hast was brauchbares beizufuegen oder Du kannst gerne versuchen Deine Unfaehigkeit ein brauchbares Gegenargument zu bringen so zu verschleiern.



Och raten kannst Du lange was ich genau meinte. Von Watt hab ich erst mal gar nichts erwaehnt. Bist Du sicher dass Panik ein guter Ratgeber ist?

war an sich nicht als stichelei gedacht, eher eine rein subjektive persönliche feststellung....aber wenn du es so sehen willst ist mir das auch recht :D

ich denke nicht das ATI in panik gerät oder geraten ist........und falls du mich meintest, wegen sowas wie einer grafikkarte kann ich nicht in panik geraten.

Winter[Raven]
2005-08-28, 07:44:40
Falls sie nur die Frequenz erhoehen und es mit schnellerem Speicher ausstatten, sieht theoretisch R580 eigentlich besser aus.

Das wäre aber etwas zu banal, in Erwartung der 3 Shaderfragments beim R580, findest du nicht?

P.s. Besser heißt aber nicht schneller, oder?

Gast
2005-08-28, 08:40:50
Falls sie nur die Frequenz erhoehen und es mit schnellerem Speicher ausstatten, sieht theoretisch R580 eigentlich besser aus.

das werden sie schon mit dem R520 machen.
Für die R580 gibts ein breiteres Design in 0.09 Fertigungstechnologie natürlich.

Tarkin
2005-08-28, 12:09:41
R520, RV530 und RV515 nun definitiv Ende September! - Licht am Ende des Tunnels :wink: (im R3D Forum ist ebenfalls die Rede davon, dass der Launch-Termin nun fixiert wurde)

Update with ATI's CEO

Event: On Aug.17, we hosted investor meetings with Dave Orton, ATI’s President and CEO.

Impact: Neutral.

The meetings focused on four key points: 1) Late September Launch Date Set for Three R500 Desktop Discrete Chips (R520, RV530, and RV515); 2) Strong Integrated Graphics Chipsets Growth, But Gross Margins (Desktop and Mobile Combined) to Remain in the Low-Teens Range in Q4 (Aug); 3) Inventory Level to Remain Above Target in Q4 and Writedown Risk Remains in Our View; and 4) Consumer Business (Wireless and Digital TV) Falls Well Short of Original Target for 2x Growth in F2005. ATI is in final stages of its F2006 financial planning process, and does not intend to make a significant headcount investment, with plans to keep operating expenses relatively flat for each of the quarters. We believe management’s tone was justifiably conservative, and we do not anticipate a one-quarter snapback in revenue growth or gross margins. We have a higher level of confidence that ATI’s R500 family will launch on time, but weak gross margins and the inventory bloat will likely continue to weigh negatively on the stock. We maintain our HOLD and $12.75/C$15.50 target price on ATI, based on 15x our C2006E EPS of $0.85.


1. Late September Launch Date Set for Three R500 Desktop Discrete Chips (R520, RV530, and RV515): Addressing the rampant rumours surrounding the R520 launch date, ATI stated its plan of record is to launch all three 90nm R500 desktop discrete chips (the enthusiast R520, the performance RV530, and the value RV515) in late September. The shipment dates will likely be staggered for the three chips, based on the delivery cycles from TSMC, with one likely shipping at launch date and the other two within the first half of October. The R520 was originally planned for a June launch, while the RV530 and RV515 launch times are only a few weeks delayed from their original schedule. The R520 had been sampling since Dec/04, and although the architecture and 90nm process were not a problem, ATI was not able to run the clock fast enough due to a “soft ground” issue that was discovered in late July after debugging with several re-spins. Specifically, the R520 and RV530 had functional yields, but could not run at high speeds, while the RV515 and the C1 (the 90nm Xbox graphics chip) did not have any issues. ATI concedes it has lost the OEM designs (primarily Dell) to NVIDIA’s GeForce 7800 GTX for enthusiast desktop PCs for both the back-to-school and holiday season, but believes the retail and channel (add-in-board) markets for the R520 chip remain available (representing over 2/3rds of the enthusiast market). Both ATI and NVIDIA did not refresh their back-to-school product stack for the performance/mainstream/value segments, with ATI indicating it has kept a significant share of design wins awarded in the March to May timeframe, based on its ATI X700, X600, X550, and X300 (competing against NVIDIA’s GeForce 6200 and 6600). In terms of performance, ATI believes the R520 should exceed the GeForce 7800 GTX in benchmark tests if it can get the proper clock speed, but recognizes that NVIDIA has some headroom to overclock the GeForce 7800 clock speeds. We do not expect ATI to launch its R580 (speculated to have 32 pixel pipelines) in C2005 (ATI does not want to stall the channel for the R520), and expect a refresh of the R500 family beginning in spring 2006 with RV560, followed by RV540 and RV505. We expect the R600 (DirectX 10, targeting Microsoft Vista operating system and WGF 2.0, the next generation graphics library) in Q4/F06 or Q1/F07.

2. Strong Integrated Graphics Chipsets Growth, But Gross Margins (Desktop and Mobile Combined) to Remain in the Low-Teens Range in Q4 (Aug): ATI is guiding for its integrated graphics chipset business (desktop and mobile) to represent 15% to 20% of revenue in Q4, up from our estimated 11% in Q3. The corresponding gross margins will remain in the 11% to 15% range in Q4, with desktop chipsets margins of approximately 7% and mobile in the mid-teens range. Top line desktop chipset growth is being driven by both the AMD and Intel platforms. ATI contends that half of all AMD processor shipments now ship with ATI’s integrated chipsets, and indicates it has been bidding successfully for design wins against NVIDIA’s upcoming integrated graphics chipset for the AMD64 (K8) desktop market, codenamed C51, for the last six months (C51 launch date is set for late Sept.). We believe Intel’s decision to leave the low-end (sub-$20) desktop chipset market for roughly the next three quarters, as it focuses its capacity on the mobile chipset and handheld/smartphone market, should translate into Intel platform-based integrated chipset growth for both ATI and SiS. ATI is targeting its desktop integrated chipset volume to reach two to three million units per quarter in the next few quarters. ATI expects its integrated chipset gross margins (desktop and mobile combined) to drive towards the 25%-plus range with its next generation chipsets in Spring 2006. Chipset gross margin improvements are expected to be driven by shrinking the die size (from 0.13u to 0.11u), improving the test yields, and reducing the package costs (50% of the chipset cost is substrate packaging). ATI will focus on the $16 to $20 chipset segment, conceding the $22 to $30 chipset segment to Intel, and ATI may move down market to the $12 to $15 chipset segment targeted by VIA and SiS. The single-digit gross margins associated with ATI’s current desktop chipsets is a result of ATI having to lower its chipset pricing from the initial $25 price target (OEM customers desired a $16 to $20 chipset with equivalent graphics performance to Intel, not a $25 chipset with 2x the graphics performance of Intel’s offering). ATI’s high-end CrossFire chipset is expected to ship in volume in early September and contribute positively to gross margins.

3. Inventory Level to Remain Above Target in Q4 and Writedown Risk Remains in Our View: ATI’s Q3 (May) inventory ballooned to $456 million, up $89 million sequentially and representing 100 days of inventory, with 2/3rds of the PC segment inventory consisting of PCI Express versus 1/3 AGP. ATI contends the AGP-based inventory is not materially at risk, given the demand for these value and mainstream parts (e.g., RADEON 9200 and RADEON 9600). Q4 inventory is expected to drop to the low-$400 million range, but still above ATI’s target of having inventory represent roughly 50% of forward revenue guidance (ATI’s inventory turnover target is 70 to 75 days, considering the current substrate shortage situation which is anticipated to last for the next six months). ATI had underestimated the channel demand for nine consecutive quarters, and decided to add two weeks of supply buffer to its inventory in Q2/Q3, increasing to 10 weeks from 8 weeks, but suffered a slowdown in demand and a slight decrease in channel market share to the mid-30% level. In addition, half of the inventory bloat was due to ATI underestimating the yields on its wafer by a factor of roughly 40% (i.e., the wafers yielded 40% more die than expected), further compounding its inventory glut (under ATI’s die buy model, ATI purchases on a per-die as opposed to per-wafer basis, implying that it has secured the price per die based on theoretical yields from the fab, and has committed to purchase the entire wafer no matter what the yield). ATI is not planning for an inventory writedown, arguing its AGP and PCI Express inventory is not obsolete, but cautions that a fast ramp of the new R500 family should put pricing pressure on the existing generation of products (we do not rule out the possibility of an inventory writedown). Justification of Target Price: ATI trades at 25x our C2005E EPS of $0.48 and 14x our C2006E EPS of $0.85, which compares to NVIDIA at 20x and 16x, and Intel trading at 18x and 16x. We believe ATI’s operational issues (desktop product launch delays and gross margin weakness) justify a relatively discounted target multiple of 15x our C2006E EPS, deriving a target price of $12.75/C$15.50. Key Risks to Target Price: Risks include valuation multiple contraction in the semiconductor industry; a slowdown in PC sales; competition from NVIDIA and Intel; inability to secure PCI Express design wins; timing of the Microsoft Xbox 360 and Nintendo Revolution game console launches, unexpected delays in shipping new products; and the outstanding OSC hearing involving ATI’s Chairman.

Action Notes August 18, 2005
Equity Research

Ailuros
2005-08-28, 12:26:35
']Das wäre aber etwas zu banal, in Erwartung der 3 Shaderfragments beim R580, findest du nicht?

P.s. Besser heißt aber nicht schneller, oder?

Es kann auch beides heissen.

***edit: es sind auch hier 4 quads :biggrin:

Gast
2005-08-28, 12:29:30
ATI contends that half of all AMD processor shipments now ship with ATI’s integrated chipsets, and indicates it has been bidding successfully for design wins against NVIDIA’s upcoming integrated graphics chipset for the AMD64 (K8) desktop market, codenamed C51, for the last six months (C51 launch date is set for late Sept.)
das ist... schön für ati, aber leider kann man immernoch keine gscheiten ati-chipsets in europa kaufen... nur den mist von elitegroup (wo zur hölle ist das weiße sapphire-pure mainboard das auf anandtech getestet wurde?!?!)

Gast
2005-08-28, 12:39:25
das ist... schön für ati, aber leider kann man immernoch keine gscheiten ati-chipsets in europa kaufen... nur den mist von elitegroup (wo zur hölle ist das weiße sapphire-pure mainboard das auf anandtech getestet wurde?!?!)

kauf dir lieber nen nForce4. Ist ein gestandener Chipsatz und schon lange im Markt. Den einzigen Pluspunkt den ATI hat ist die IGP. Das dürfte hier im Forum aber nur die wenigsten interessieren.

Und ansonsten gibts ja bald feste Konkurenz in Form des C51 am 20. September. Massenproduktion ist schon in vollem Gang, so dasss der Launch auch sofortige Verfügbarkeit herbeiführen sollte.

Ailuros
2005-08-28, 12:39:58
war an sich nicht als stichelei gedacht, eher eine rein subjektive persönliche feststellung....aber wenn du es so sehen willst ist mir das auch recht :D

ich denke nicht das ATI in panik gerät oder geraten ist........und falls du mich meintest, wegen sowas wie einer grafikkarte kann ich nicht in panik geraten.

Zu subjektiv denn Du kannst bei bestem Willen nicht wissen ob und wie ich zu jeglichen Infos komme. Ich hab guten Grund mich so kritisch gegen Fuad zu stellen, denn ich hab einen e-mail Austausch wo er praktisch zugibt (mit Namen und Daten) woher er den 6/8 quad Quark genau bekam.

Um es klar zu setzen mir ist es persoenlich schnuppe ob ich im Endeffekt recht habe oder nicht; ich weiss aber schon im voraus wie ich reagieren werde wenn die Konkurrenz nach dem R520 launch behaupten sollte dass der chip so schlecht ankam dass er nur mit halben Einheiten praesentiert wurde. Denn solche Schlammschlachten sind normal, sitzen mir persoenlich aber ziemlich schlecht auf dem Magen.

Meine Kritik gegen Fuad war voll und ganz gerechtfertigt; will man was ueber R520 schreiben dann wendet man sich an die wahre Quelle und glaubt diesen dann auch und laesst sich nicht von der Konkurrenz an der Nase herumfuehren. Wenn Du in einer Mitte von 4 Kerlen stehst, drei sagen 32 und nur einer sagt 16 - aber Du weisst dass der letzte der einzige ist der ein ATI engineer ist - dann haettest wenigstens Du den Grips gehabt zu wissen was wahr ist und was nicht.

Winter[Raven]
2005-08-28, 12:49:31
Es kann auch beides heissen.

***edit: es sind auch hier 4 quads :biggrin:

Jou, ist bakannt :biggrin:

Da hätte man sich gewünscht ATI wäre wenigstens beim Refresh von dem Mhz Pedal zurückgetretten, aber da wünscht man sich zuviel.