Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 4 (leider nicht der letzte?)
Mr. Lolman
2007-02-20, 13:00:00
Und?
und das ist die Erklärung gewesen, die du wolltest. Schlimmer noch ist, dass NV mit 16xAA einen Modus verkauft, der eigentlich ein 4xAA ist.
Der Konkurrenzmodus zu 6xMSAA ist 16xCSAA. Warum sollte man einen deutlich überlegenden Modus gegen einen minderwertigen Setzen?!
Eben. Xbitlabs hat das mit CF aber gemacht und trotzdem schlägt sich das ATi System recht gut.
Dafür ist man aber auch deutlich schneller(1920x1200 ausgenommen wo eben die höhere Bandbreite des X1950 CF zum tragen kommt)
Weiterhin wirkt das von die hier genannte (CF-)SGSSAA AFAIK nicht auf die Flimmershader, wo man bei G80 eben Hybridmodis aktivieren kann.
Doch wirkts. Und zwar ziemlich gut. Den Hybridmodus kannst du momentan nur unter Vista aktivieren (mit einem einzigen Treiber). AFAIK will NV den auch in Zukunft nicht offiziell fürn G80 freischalten. (Wohl deswegen, weil die Hybridmodi in der Vergangenheit eher fehlende Multisamples kompensieren sollten)
Du weißt ganz genau, dass es kein 14x-Modus ist. Warum bezeichnest du ihn dann so?
Weil er so heisst. NVs 16xAA ist noch weniger 16xAA und trotzdem nennts jeder so. (wahrscheinlich um Verwirrungen vorzubeugen)
Paul Brain
2007-02-20, 13:01:47
Für den Preis bekommt man eine 8800GTX, die a) leiser, b) kühler und c) stromsparender ist.
Von der Leistung her ist sie gleichgut und in einigen Anwendungen sogar schneller.
16xCSAA ist kein 8xMSAA Modus, wie kommt man darauf?Vielleicht sollte man auch nicht vergessen, daß man so "nebenbei" auch noch Direct3D-10-compliance bekommt... Und die CF-Murkserei und deren potentielle Probleme erspart man sich auch. :rolleyes:
Mr. Lolman
2007-02-20, 13:02:58
IMO macht der Shadercompiler so einen humbug nicht. ;)
Bevor die ADDs Däumchen drehen, wärs doch sehr sinnvoll die ein oder andere Mul darüber laufen zu lassen, oder? Technisch sollte das überhaupt kein Problem sein.
Her hat SGSSAA aktiv? Außer 3dfx kenne ich keinen, der das "aktiv" hat.
Ja. 2xSGSSAA.
Vielleicht sollte man auch nicht vergessen, daß man so "nebenbei" auch noch Direct3D-10-compliance bekommt... Und die CF-Murkserei und deren potentielle Probleme erspart man sich auch. :rolleyes:
Das stimmt allerdings. Auch wenn der CF-Murks sich auf ein Minimum beschränkt. Eigentlich reichts AI auf High zu stellen und man kann sich zurücklehnen.
und das ist die Erklärung gewesen, die du wolltest. Schlimmer noch ist, dass NV mit 16xAA einen Modus verkauft, der eigentlich ein 4xAA ist.
Ich weiß, wo die Unterschiede liegen zwischen den Modien.
Nur solltest du auch klarstellen, welchen Modus du bezeichnest.
Eben. Xbitlabs hat das mit CF aber gemacht und trotzdem schlägt sich das ATi System recht gut.
Sie testen einen reinen 8xMSAA Modus gegen einen reinen 6xMSAA Modus.
Schon logisch, dass die eine Karte als schneller dargestellt wird, wenn sie eine gringere Arbeit leistet...
Den Hybridmodus kannst du momentan nur unter Vista aktivieren (mit einem einzigen Treiber).
Unter XP funktionieren sie in OpenGL.
seahawk
2007-02-20, 13:09:53
BAck to topic oder ist es hier der x-te R580 vs G80 Thread ?
PCGH_Carsten
2007-02-20, 13:16:06
Dafür ist man aber auch deutlich schneller(1920x1200 ausgenommen wo eben die höhere Bandbreite des X1950 CF zum tragen kommt)
Da kommt eher ein Bug zum Tragen würde ich vermuten. Exakt dieselben Werte wie in 1.280x1.024 - vor allem nach einem Rückgang in 1.600x1.200 - klingen auf den ersten Blick nicht gerade realistisch.
The_Invisible
2007-02-20, 13:26:28
wasn das für ein schwachsinn was hier abgeht?
nur weil ati derzeit nix gegen den g80 hat rückt man mit cf an das ja in allen games so gut funktioniert. aja, und AI muss auch auf on stehen, aber das ist sowieso nur nebensächlich.
mfg
robbitop
2007-02-20, 13:30:39
Bevor die ADDs Däumchen drehen, wärs doch sehr sinnvoll die ein oder andere Mul darüber laufen zu lassen, oder? Technisch sollte das überhaupt kein Problem sein.
Ein MUL Makro würde die ALUs viel zu lange blockieren.
Ja. 2xSGSSAA.
Ja Crossfire AA. Das geht aber auch nur, wenn man 2x GPUs hat.
Du vergisst bzgl CSAA dass die Samples mehr Informationen haben. Wenn die Bedingungen von CSAA eintreffen (Zusatzsamples liegen auf einem der Dreieecke der übrigen Samples) kommt das Verfahren schon an ein echtes MS mit gleichem Sampleraster ran.
Doch wirkts.
Hast du auch dafür Beweise, AFAIK wirkt es auf Grund wie es erzeugt wird, eben nicht auf Flimmershader, wie mir einige CF-User erzählt haben.
Mr. Lolman
2007-02-20, 13:33:55
Ein MUL Makro würde die ALUs viel zu lange blockieren.
Es geht ja darum, dass die MULs nicht stallen sollen. Und im Falle dessen könnte man die Muls auf die ADDs auslagern.
Ja Crossfire AA. Das geht aber auch nur, wenn man 2x GPUs hat.
Allerdings.
Spasstiger
2007-02-20, 13:34:01
http://developer.nvidia.com/object/coverage-sampled-aa.html
16xQAA hat zwar 16 Z-Samples aber nur 8 Colorsamples. Die Z-Samples sind eigentlich für die Katz, weil die Colorsamples die wichtigen Zwischenstufen erzeugen. Durch die Z-Samples werden sie anscheinend nur noch zusätzlich verschoben, was in einer ungleichmässigen Abstufung resultiert. Ich zähl da am linken unteren 16xQAA Screenshot nur 5 Zwischenstufen....
16xQ-AA verwendet keine 16 z-Samples, sondern 8 z-Samples. Es sind 16 Coverage-Samples. Und für jedes Coverage-Sample wird imo ein Zeiger auf das nächste z/color-sample im selben Polygon gespeichert (bzw. ein Zeiger auf den entsprechenden MS-Buffer).
Am Ende hat man dann 16 Samplepositionen mit zwar max. 9 Farbstufen (wegen 8 z/color-Samples).
Durch die höhere Anzahl an Coverage-Samples vergrößert sich aber die Wahrscheinlichkeit, dass die richtige Farbstufe für jedes Pixel erwischt wird.
robbitop
2007-02-20, 13:37:08
Es geht ja darum, dass die MULs nicht stallen sollen. Und im Falle dessen könnte man die Muls auf die ADDs auslagern.
umgekehrt meinst du? X-D
Wie gesagt, ist sinnlos, da durch zu große andere Nachteile erkauft.
Allerdings.
Also irrelevant für 99% der Käufer.
Um mal wieder auf den R600 zurückzukommen:
AMD to overtake Nvidia in WHQL driver wars
R600 WHQL driver arrives on eve of CeBIT: March 14th
http://www.theinquirer.net/default.aspx?article=37726
Mr. Lolman
2007-02-20, 14:00:20
16xQ-AA verwendet keine 16 z-Samples, sondern 8 z-Samples. Es sind 16 Coverage-Samples. Und für jedes Coverage-Sample wird imo ein Zeiger auf das nächste z/color-sample im selben Polygon gespeichert (bzw. ein Zeiger auf den entsprechenden MS-Buffer).
Am Ende hat man dann 16 Samplepositionen mit zwar max. 9 Farbstufen (wegen 8 z/color-Samples).
Durch die höhere Anzahl an Coverage-Samples vergrößert sich aber die Wahrscheinlichkeit, dass die richtige Farbstufe für jedes Pixel erwischt wird.
Das ganze ist aber nicht nur positiv zu bewerten. NV bildet ihr 8xMSAA Raster allen Anschein nach auf nem 16x16 Grid ab, was zwangsläufig zu einer ungünstigen Sampleverteilung führt. Durch die Coverage Geschichte verbessert man zwar die Darstellung an den Vertices (wobei ich mir noch nicht im klaren darüber bin inweiweit es auch da Ausnahmen gibt) hat aber gleichzeitig an den Edges größere Stufen...
Das ganze ist aber nicht nur positiv zu bewerten. NV bildet ihr 8xMSAA Raster allen Anschein nach auf nem 16x16 Grid ab, was zwangsläufig zu einer ungünstigen Sampleverteilung führt.
Erstmal abwarten wie das 8xMSAA beim R600 erzeugt wird. ;)
Spasstiger
2007-02-20, 14:07:45
Durch die Coverage Geschichte verbessert man zwar die Darstellung an den Vertices (wobei ich mir noch nicht im klaren darüber bin inweiweit es auch da Ausnahmen gibt) hat aber gleichzeitig an den Edges größere Stufen...
Das wird mir jetzt nicht klar. Warum sollte man an den Kanten durch zusätzliche Coverage-Samples größere Stufen haben als ohne Coverage-Samples? Es ist doch das Gegenteil der Fall, weil eher die korrekte Farbstufe erwischt wird als ohne CSAA.
robbitop
2007-02-20, 14:11:08
Ich verstehe den Nachteil eines 16x16 Rasters ggü eines 8x8 Rast nicht.
ShadowXX
2007-02-20, 14:31:28
Ich verstehe den Nachteil eines 16x16 Rasters ggü eines 8x8 Rast nicht.
Der Nachteil ist ganz einfach....nV benutzt ein 16x16 Raster, ATI momentan ein 8x8 Raster -> ergo ist ein 16x16 Raster schlecht.
Die gleiche Argumentation kannst übrigens auch für CSAA benutzen...
Gouvernator
2007-02-20, 14:36:17
Solche theoretische Diskussionen über welches AA theoretisch besser ist gefallen mir nicht. Ich konnte beobachten das 16xAA von G80 in einem Spiel/3d Anwendung entweder besser aussieht oder gar nicht zum 6xAA zu unterscheiden. Es ist nicht so das man mit dem 16xCSAA das heilige Gral geschaffen hat, es wäre so wenn sie ein 8x8 SSAA Modus gemacht hätten. Für mich ist 16xCSAA zu 50% = immer ein 6xAA - nicht besser.
Ailuros
2007-02-20, 14:43:04
Die AA Qualitaets-schlacht wird sich sowieso nur im 8xMSAA sample Bereich bewegen, ergo ist wohl jeder Versuch CSAA als absolut nutzlos abzustempeln noch etwas zu fruehzeitig ausser ATI instrumentiert ihre Fanhorden schon jetzt.
Wem coverage AA nicht passen sollte gibt es immer noch 2x,4x oder 8x Multisampling und je nachdem wie hoch man die Aufloesung drehen kann, benutzt man einfach die hoechstmoegliche Sample-anzahl die die Leistung erlaubt.
Was jetzt Super-AA betrifft: ich hab nichts dagegen 2x sample SSAA umsonst zu bekommen auf einem Crossfire System; was mir aber wirklich im Hals stecken bleibt ist dass hier kein LOD versetzt wird wie normalerweise bei 2xSSAA um -0.5. Erstens vermindert es mir den eigentlichen Wert den Supersampling fuer mich auf Texturen bringt und zweitens haengte mir aus gutem Grund Quincunx damals zum Hals raus. Und nein man kann den LOD auf CF Systemen nicht aendern in diesem Fall und ja es wuerde zu unerwuenschtem texture aliasing fuehren denn das 2xSSAA behandelt nur eine Achse.
So und jetzt zurueck bitte zum R600.
Ailuros
2007-02-20, 14:46:59
Solche theoretische Diskussionen über welches AA theoretisch besser ist gefallen mir nicht. Ich konnte beobachten das 16xAA von G80 in einem Spiel/3d Anwendung entweder besser aussieht oder gar nicht zum 6xAA zu unterscheiden. Es ist nicht so das man mit dem 16xCSAA das heilige Gral geschaffen hat, es wäre so wenn sie ein 8x8 SSAA Modus gemacht hätten. Für mich ist 16xCSAA zu 50% = immer ein 6xAA - nicht besser.
R600 oder G80 muessten TBDRs sein damit sie erstmal anstaendig Bandbreite und Speicher fuer 64x SSAA aufweisen koennten und selbst dann waere die Leistung immer noch unterirdisch.
Reines 16x coverage AA ist leicht besser als 4x Multisampling und schlechter als 8x Multisampling. Es gilt hier gleiches wie mit diversen Produkten; was man bezahlt bekommt man auch und daher ist die Bildqualitaet von 16x coverage analog zu dessen Leistungsverlust.
Schon gepostet?
http://img230.imageshack.us/img230/1646/amdr600launchchartsd9.jpg
Reines 16x coverage AA ist leicht besser als 4x Multisampling und schlechter als 8x Multisampling. Es gilt hier gleiches wie mit diversen Produkten; was man bezahlt bekommt man auch und daher ist die Bildqualitaet von 16x coverage analog zu dessen Leistungsverlust.
Der größte Vorteil von CSAA kommt erst beim Einsatz von TSAA zum Tragen.
Da nur 4Color/Z-Samples vorhanden sind, ist der Leistungseinbruch deutlich geringer als bei einem reinen 8xMSAA und der qualitative Gewinn gegenüber 4xMSAA höher.
Gouvernator
2007-02-20, 14:54:16
Die AA Qualitaets-schlacht wird sich sowieso nur im 8xMSAA sample Bereich bewegen
Ist irgendwie zu wenig nur +2xAA Samples. Ich werde natürlich merken den kleinen Unterschied aber alles unter 1600x1200 spielt keine Rolle ob 6x oder 8xAA. Es sei denn man kombiniert es mit HQ AAA :heart: ...
Ist irgendwie zu wenig nur +2xAA Samples. Ich werde natürlich merken den kleinen Unterschied aber alles unter 1600x1200 spielt keine Rolle ob 6x oder 8xAA. Es sei denn man kombiniert es mit HQ AAA :heart: ...
Ohman, was für ein Blödzinn.
Der Unterschied zwischen den einzelnen Modien kommt gerade in kleineren Auflösungen zur Geltung. Je Höher die Auflösung, umso geringer der qualitative Gewinn der einzelnen Modien.
Gouvernator
2007-02-20, 15:13:32
Ohman, was für ein Blödzinn.
Der Unterschied zwischen den einzelnen Modien kommt gerade in kleineren Auflösungen zur Geltung. Je Höher die Auflösung, umso geringer der qualitative Gewinn der einzelnen Modien.
Für kleine Auflösung mit SSAA mag das stimmen. Für MSAA gibts andere Regeln. Ich sag grob ab einer vertikalen Auflösung von-bis 1200-2100 hast du immer einen qualitativen Vorteil durch höhere MSAA modi, je höher Auflösung um so mehr. Was grösser oder kleiner ist kann einbisschen was profitieren ansonsten ist egal 4xAA oder 6xAA oder eben 8xAA. Aber sobald SSAA dazukommt wie mit HQ AAA dann kann man eigentlich nie zu viel davon haben =)
@Gouvernator
Könntest du bitte den R600-Spekulations-Thread mit deinen sonderbaren Regeln und Ansichten/Halbwissen bitte verschonen? :)
Gouvernator
2007-02-20, 15:19:12
Ich kann kompletten 3dcenter Forum mit meinen sonderbaren Regeln und Ansichten verschonen :)
dargo
2007-02-20, 15:33:42
Für den Preis bekommt man eine 8800GTX, die a) leiser, b) kühler und c) stromsparender ist.
Aber nicht in Idle. :devil:
Wie man hier sieht brauch es für die ähnliche bzw. leicht unterlegene Leistung eben mal 750GFLOPs und 128GB/s und die ATi-Treiber sind zudem auch noch sehr stark optimiert.
Nö, es sind 2x 64GB/s. Das ist ein kleiner Unterschied.
Mr. Lolman
2007-02-20, 15:35:41
Ich verstehe den Nachteil eines 16x16 Rasters ggü eines 8x8 Rast nicht.
Hoppla, da gibts auch keinen. Das war ein Denkfehler. Sry.
Das wird mir jetzt nicht klar. Warum sollte man an den Kanten durch zusätzliche Coverage-Samples größere Stufen haben als ohne Coverage-Samples? Es ist doch das Gegenteil der Fall, weil eher die korrekte Farbstufe erwischt wird als ohne CSAA.
Wie das genau funktioniert ist mir auch nicht klar. Jedenfalls überlappen sich die Abstufungen, was in einer erhöhten Größe derselbigen resultiert. Ist auch gut in der 2. Abbildung ersichtlich: http://developer.nvidia.com/object/coverage-sampled-aa.html
Was jetzt Super-AA betrifft: ich hab nichts dagegen 2x sample SSAA umsonst zu bekommen auf einem Crossfire System; was mir aber wirklich im Hals stecken bleibt ist dass hier kein LOD versetzt wird wie normalerweise bei 2xSSAA um -0.5.
Kannst du ja per Hand in den ATT umstellen (und auch Profile dafür basteln).
Aber nicht in Idle. :devil:
Wer kauft sich schon ein X-Fire System und spielt damit.
DAMN, du hast recht...
Mumins
2007-02-20, 15:43:23
Der Unterschied zwischen den einzelnen Modien
Was sind Modien? Meinst du Modi?
Was sind Modien? Meinst du Modi?
Ja.
horn 12
2007-02-20, 15:49:07
Mein STATEMENT zum Launch und Verfügbarkeit!
Die Frage ist nur warum bringt ATI die X2900 XT 512 MB und die XL 512 MB erst Ende April auf den Markt?
Will AMDATI mit der R600 X2900 XTX richtig Geld schöpfen so 4-5 Wochen erstmal, da sogar die X2900 XT der 8800 GTX leicht das Wasser reichen kann ?!! und man möchte somit vielleicht die allergrößten Freaks so richtig zur Kasse bitten um die 560-600 Euro.
Die XT / XL wird wohl bei 420/350 Euro liegen, mehr denke ich werden die Karten nicht kosten/ kosten können.
Die XTX wird wohl leicht unter 500 Euro dann bei allen 3 verfügbaren Varianten zu haben sein.
Clever von ATI, aber wohl nicht gerercht für den Endkunden.
Somit werden alle die es nicht erwarten können auf die XTX springen, welche nun nach meinen Schätzungen wohl 30-50% schneller sein werden wird als die 8800 GTX. Alles andere wäre nun zu enttäuschend. Die XT denke um die 10-20% oberhalb der GTX NV Karte.
Gouvernator
2007-02-20, 15:52:56
Will AMDATI mit der R600 X2900 XTX richtig Geld schöpfen so 4-5 Wochen erstmal, da sogar die X2900 XT der 8800 GTX leicht das Wasser reichen kann ?!! und man möchte somit vielleicht die allergrößten Freaks so richtig zur Kasse bitten um die 560-600 Euro.
Meine Wenigkeit hat für die 1900XTX 699€ bezahlt also 600 € sind noch günstig es muss schon 800€ kosten um zu sagen ATI will uns schöfpen.
dargo
2007-02-20, 15:53:15
Die Frage ist nur warum bringt ATI die X2900 XT 512 MB und die XL 512 MB erst Ende April auf den Markt?
Ich denke mal es ist eine einfache Strategie um viele Käufer zurückzuhalten. Eine XTX werden sich deutlich weniger Leute leisten können/wollen. Somit hat AMD noch ca. einen Monat mehr Zeit die Verfügbarkeit zu verbessern.
Meine Wenigkeit hat für die 1900XTX 699€ bezahlt also 600 € sind noch günstig es muss schon 800€ kosten um zu sagen ATI will uns schöfpen.
Was hat das mit dem R580 zu tun? AMD muss sich am G80 orientieren. Sollte also der schnellste R600 in etwa gleich schnell sein wird die Karte auch nicht mehr als 599$ UVP abbekommen. Ansonsten kauft die kaum jemand. Wird der R600 20-30% schneller kann man dementsprechend den Preis nach oben setzen.
Clever von ATIIn jedem deiner Postings schreibst du immer von cleveren Schachzügen ATIs. Würde mich nicht wundern, wenn du die Verschiebung von R520 oder R600 auch als cleveren Schachzug bezeichnen würdest. ;)
Botcruscher
2007-02-20, 16:27:15
Klar, Überholen ohne ein zu holen. Noch ein paar Monate Verschiebung und Ati liegt mit den Neuveröffentlichungen wieder vorn.:ulol:
reunion
2007-02-20, 16:43:57
Vor dem Erscheinen von FEAR ging man auch davon aus, dass das Spiel shaderlastig sein wird. Soll es aber nicht sein, da limitiert was anderes.
Traditionell kam die rote Fraktion besser mit einem "wenig optimierten" Shader-Code als nVidias Grafikkarten (was beim G80 nicht mehr gilt). Das letzte Beispiel wäre NFS: Carbon.
FEAR profitierte AFAIK überproportional stark von R580, das Spiel ist also durchaus shaderlastig. Nur hat R520 eben keine so schlechte Shaderleistung, wie ursprünglich behauptet. Die fehlenden GFLOps in der theoretischen Maximalleistung gleicht er durch die Vorteile der R5x0-Architektur ggü. der G7X-Architekur locker aus.
Oder gar MULs.... dann dritteln sich die FLOPs/clk auf allen Radeons sogar, denn in MADD+ADD ist nur ein einziges "M". Und das war eben auch die "Stärke" der Geforce - ihre bis zu 48 Shader-ALUs waren in dieser Hinsicht eben beinahe voll nutzbar, solange nicht durch Texturen gestalled. Radeons konnten bislang immer nur richtig gut und schnell addieren (s. auch PCGH 01/2007).
Jap, allerdings hat nV das gleiche Problem mit den Additionen bei G80. Der maximale Output wurde hier ggü. G71 kaum gesteigert, und liegt (zumindest theoretisch) auch unter dem eines R580.
Das sollte man sich mit den passenden Treibern nochmal im März/April anschauen, in denen dann wahrscheinlich das MUL für generelle Anwendungen zur Verfügung steht und eben die noch vorhandenen Treiberblasen entfernt sind.
Ich bin davon überzeugt, dass ein G80 in heute üblichen Benchs so gut wie nie shaderlimitiert ist. Schon gar nicht in hohen Auflösungen mit massiv AA/AF. Das wird sich höchsten bei zukünftigen Krachen bezahlt machen.
das liegt an einer ähnlich guten Granularität und weniger an der Rechenleistung.
Ein R520 liegt hier meist abgeschlagen zurück, und dieser hat mit Abstand die beste Granularität.
Hat ATI deshalb weniger an der Taktschraube gedreht?
Hätte nvidia nicht besser die wahre Performance freillegen sollen, damit ATI von vornherein gezwungen ist, noch mehr an der Taktschraube zu drehen und somit noch später auf den Markt kommt?
Diese hohen Taktraten waren von Anfang an geplant (nur gab es eben Probleme mit den ROPs und der Verlustleistung, deshalb die Verspätung), und haben nichts mit der Leistung von G80 zu tun. R600 wäre auch Ende März gekommen, wenn G80 fünfmal schneller wäre als er es ist. Oder glaubst du, man braucht nur 10 Respins machen, und dann hat man 2Ghz Taktrate?
Du vergisst bzgl CSAA dass die Samples mehr Informationen haben. Wenn die Bedingungen von CSAA eintreffen (Zusatzsamples liegen auf einem der Dreieecke der übrigen Samples) kommt das Verfahren schon an ein echtes MS mit gleichem Sampleraster ran.
Das Problem bei CSAA ist, dass an der Z-Auflösung gespart wird. Wenn die Z-Zuordnung schief läuft, kann sich das Ergebnis verschlechtern.
Um mal wieder auf den R600 zurückzukommen:
AMD to overtake Nvidia in WHQL driver wars
R600 WHQL driver arrives on eve of CeBIT: March 14th
http://www.theinquirer.net/default.aspx?article=37726
Naja, im April kommt ja dann auch nV zumindest mit SLi. X-D
Auch sehr interessant:
"This includes not just Radeon X2900 series, but also low-end and mainstream parts under code-names RV610 and RV630, or Radeon X2200 and X2400."
Ein weiterer gewichtiger Hinweis, dass es zu beginn keine "echten" Midragechip geben wird. Die Lücke ist diesmal sogar bei den Marketingnamen riesig.
Ich bin davon überzeugt, dass ein G80 in heute üblichen Benchs so gut wie nie shaderlimitiert ist. Schon gar nicht in hohen Auflösungen mit massiv AA/AF. Das wird sich höchsten bei zukünftigen Krachen bezahlt machen.
was soll sonst limitieren? die texelfüllrate mit sicherheit nicht, also meinst du die speicherbandbreite?
In UltraHighend Auflösungen limitiert die Speicherbandbreite. Von der Shaderleistung her schwer zu sagen, aber man jetzt theoretische Leistung nicht mit der Leistung der alten Generation vergleichen. G80 hat einfach eine Effizienz Marke gesetzt die erstmal einer nachmachen muss. Da kann nochsoviel Theoretisches tamtam ankommen, das was hinten rauskommt ist wichtig, denn da sieht man das der R580 theoretisch von der Shaderleistung her gleichwertig sein soll, aber in der Praxis ist das halt nicht der Fall.
Das Gesamtpacket stimmt halt, bis vieleicht auf die Bandbreite, da sind OC Versuche nicht so aussagekräftig da der RAM sehr schnell am Ende ist, ist ja nur GDDR3 ;)
Der R600 wird wohl viel mehr Bandbreite zur Verfügung haben, ist halt die Frage ob er die auch Nutzen kann ober obs nur theoretische Marketing Zahlen sind. Richtige Specs müssten ja bald kommen, dann wird man sehen was Sache ist. Witzig wäre wenn sich herausstellt das dem G80 in Ultrahighend Auflösung die Bandbreite ausgeht und der R600 nicht genug Texelleistung auf die Piste bringt *g Allerdings verkauft man dort keine 400k Einheiten...
mapel110
2007-02-20, 18:01:28
Diese hohen Taktraten waren von Anfang an geplant (nur gab es eben Probleme mit den ROPs und der Verlustleistung, deshalb die Verspätung), und haben nichts mit der Leistung von G80 zu tun. R600 wäre auch Ende März gekommen, wenn G80 fünfmal schneller wäre als er es ist. Oder glaubst du, man braucht nur 10 Respins machen, und dann hat man 2Ghz Taktrate?
.
Wenn das wirklich so wäre, warum legt man einen Chip dann auf so eine enorme Verlustleistung aus?
Wenn der Speed zur Konkurrenz so egal ist, warum sorgt man nicht mit dem Respin für weniger Abwärme, anstatt für höhere Taktraten?
Die gelbe Eule
2007-02-20, 18:08:37
Mein STATEMENT zum Launch und Verfügbarkeit!
Somit werden alle die es nicht erwarten können auf die XTX springen, welche nun nach meinen Schätzungen wohl 30-50% schneller sein werden wird als die 8800 GTX. Alles andere wäre nun zu enttäuschend. Die XT denke um die 10-20% oberhalb der GTX NV Karte.
Auf welchen Details beruhen Deine Schätzungen? Nichtmal INQ schätzt so extrem.
reunion
2007-02-20, 18:28:12
Wenn das wirklich so wäre, warum legt man einen Chip dann auf so eine enorme Verlustleistung aus?
Was erwartest du? Der Chips hat fast doppelt so viele Transitoren wie R580 und taktet noch dazu höher. Ich sehe hier keine unverhältnismäßige Verlustleistung. Und das man die Leistungsfähigkeit eines im "Ultra-High-End"-Segment angesiedelten Chips nicht durch zu hohe Verlustleistung beschneidet, sollte klar sein.
Wenn der Speed zur Konkurrenz so egal ist, warum sorgt man nicht mit dem Respin für weniger Abwärme, anstatt für höhere Taktraten?
Macht man ja. Die alte Revision A13, welche schon länger fertig ist, und nur bei den 12"-Karte im OEM-Segment (zu beginn) verbaut werden soll, hat eine um 30W höhere TDP als das neue Respin, die Revision A15, welche in den Retailhandel kommt. Beide Karten werden als XTX verkauft, um haben idetische Leistungswerte. Aber alles hat eben physikalische Grenzen.
Das Problem bei CSAA ist, dass an der Z-Auflösung gespart wird. Wenn die Z-Zuordnung schief läuft, kann sich das Ergebnis verschlechtern.
Im schlimmsten Fall geht es zurück auf 4xRGMSAA oder 8xSGMSAA.
MadManniMan
2007-02-20, 19:19:50
Im schlimmsten Fall geht es zurück auf 4xRGMSAA oder 8xSGMSAA.
...und es franst die Kanten auf.
? MSAA franst die Kanten aus? Wie soll das bei 8xAA gehen?
Hast du auch dafür Beweise, AFAIK wirkt es auf Grund wie es erzeugt wird, eben nicht auf Flimmershader, wie mir einige CF-User erzählt haben.Kommt drauf an, wie es umgesetzt ist. Flimmershader, deren Geflimmer durch Texturzugriffe verursacht werden sollten in jedem Fall beruhigt werden, entsteht das Geflimmer durch die eigentliche Rechenarbeit des Shaders kommts drauf an, ob der gesamte Framebuffer (bzw. die gesamte Geometrie) ein Offset abbekommt oder nur die Texturkoordinaten. Was nun bei CF-SuperAA und SLI-AA tatsächlich geschieht... Keine Ahnung. Bei SLI-AA ist die Implementation wegen der beschissenen Verteilung der SSAA-Samples eh wurscht, für CF-SuperAA könnte es einiges bringen nicht nur die Texturkoordinaten zu verschieben und wäre auch wesentlich notwendiger, weil ATI ja keine SSAA-/Hybridmodi anbietet. Vielleicht wirds mit R600 doch endlich geliefert, da D3D10 ja 8Kx8K maximale Rendertargetgröße als Minimum vorschreibt, ein bisheriger Nachteil eines möglichen ATI-OGSSAA gegenüber dem verfügbaren NV-OGSSAA also wegfallen sollte.
Spasstiger
2007-02-20, 22:14:39
Jedenfalls überlappen sich die Abstufungen, was in einer erhöhten Größe derselbigen resultiert. Ist auch gut in der 2. Abbildung ersichtlich: http://developer.nvidia.com/object/coverage-sampled-aa.html
Ich weiß echt nicht, auf was du hinauswillst. Warum ist ein 16x16-Grid schlechter als ein 8x8-Grid und warum sollten die Abstufungen mit CSAA an Kanten größer sein?
sklave_gottes
2007-02-20, 22:18:12
In UltraHighend Auflösungen limitiert die Speicherbandbreite. Von der Shaderleistung her schwer zu sagen, aber man jetzt theoretische Leistung nicht mit der Leistung der alten Generation vergleichen. G80 hat einfach eine Effizienz Marke gesetzt die erstmal einer nachmachen muss. Da kann nochsoviel Theoretisches tamtam ankommen, das was hinten rauskommt ist wichtig, denn da sieht man das der R580 theoretisch von der Shaderleistung her gleichwertig sein soll, aber in der Praxis ist das halt nicht der Fall.
Das Gesamtpacket stimmt halt, bis vieleicht auf die Bandbreite, da sind OC Versuche nicht so aussagekräftig da der RAM sehr schnell am Ende ist, ist ja nur GDDR3 ;)
Der R600 wird wohl viel mehr Bandbreite zur Verfügung haben, ist halt die Frage ob er die auch Nutzen kann ober obs nur theoretische Marketing Zahlen sind. Richtige Specs müssten ja bald kommen, dann wird man sehen was Sache ist. Witzig wäre wenn sich herausstellt das dem G80 in Ultrahighend Auflösung die Bandbreite ausgeht und der R600 nicht genug Texelleistung auf die Piste bringt *g Allerdings verkauft man dort keine 400k Einheiten...
Dann zeig mir mal bitte einen Fall(spiel) wo höherer Speichertakt mehr bringt als chiptakt.
Meiner erfahrung nach, skalliert der g80 mit dem chiptakt besser als mit dem speichertakt. Das sieht mir eher nach einem gpu limit aus.
Aber kannst mir gerne ein gegenbeispiel bringen.
Ich kann mir deswegen auch nur sehr schwer vorstellen was der r600 mit der hohen bandbreite will.(gddr4@512bit)
Und was mir noch aufgefallen ist das sich hier alle so sorgen um die shader leistung vom r600 machen. Ich weis nicht aber insgesamt habe ich das gefühl das diese noch viel zu sehr überschätzt wird.
siehe r520 vs r580.
mfg martin
Und was mir noch aufgefallen ist das sich hier alle so sorgen um die shader leistung vom r600 machen. Ich weis nicht aber insgesamt habe ich das gefühl das diese noch viel zu sehr überschätzt wird.
siehe r520 vs r580.
In Zeiten von PS3 und Xbox 360 wird die Shaderleistung immer wichtiger.
MadManniMan
2007-02-20, 22:35:18
? MSAA franst die Kanten aus? Wie soll das bei 8xAA gehen?
Der 8xQ Anteil hat damit nichts zu tun, wohl aber die Ungenauigkeit der Tiefenwerte für die Coverage Samples.
Siehst Du auf dieser Seite (http://www.anandtech.com/video/showdoc.aspx?i=2870&p=10) auf den großen Bilder genau in der Mitte an den Stromkabeln bei den CSAA Modi das seltsamerweise hellere Sample? Liegt an den ungenauen Z-Werten.
seahawk
2007-02-21, 07:08:42
Können wir wohl endlich von der hier OT-Diskussion um die BQ wegkommen, dafür gibt es genug andere Möglichkeiten m Forum.
Ailuros
2007-02-21, 07:36:14
FEAR profitierte AFAIK überproportional stark von R580, das Spiel ist also durchaus shaderlastig. Nur hat R520 eben keine so schlechte Shaderleistung, wie ursprünglich behauptet. Die fehlenden GFLOps in der theoretischen Maximalleistung gleicht er durch die Vorteile der R5x0-Architektur ggü. der G7X-Architekur locker aus.
Es ist und bleibt Tatsache dass R520 und R580 von Anfang an so geplant waren wie sie auf den Markt kamen. Fuer Fruehling 2005 haetten 120GFLOPs durchaus ausgereicht und warum R580 mit einer so radikalen ALU Steigerung kam ist auch bekannt. R520 hatte zu wenig und R580 zu viel (fuer die gesamte Auslage der Architektur), lang braucht man da nicht herumwursteln. Waere die "ach-so-tolle" ALU Leistung auch wirklich zu 100% effizient, muesste die R600 nur um 10% schneller sein.
Jap, allerdings hat nV das gleiche Problem mit den Additionen bei G80. Der maximale Output wurde hier ggü. G71 kaum gesteigert, und liegt (zumindest theoretisch) auch unter dem eines R580.
Siehe oben.
Diese hohen Taktraten waren von Anfang an geplant (nur gab es eben Probleme mit den ROPs und der Verlustleistung, deshalb die Verspätung), und haben nichts mit der Leistung von G80 zu tun. R600 wäre auch Ende März gekommen, wenn G80 fünfmal schneller wäre als er es ist. Oder glaubst du, man braucht nur 10 Respins machen, und dann hat man 2Ghz Taktrate?
Jein. Kommt man spaeter an als original geplant erhoeht man zwangsweise nochmal die Taktrate um konkurrieren zu koennen. Mitte 2006 haetten 650-700MHz vollkommen ausgereicht.
Und ganz so nebenbei die Verspaetung kam zuerst wegen Problemen mit der Taktrate und dann erscheinte das Problem mit den ROPs. Die Verlustleistung war ein Nebeneffekt von den vorerwaehnten Problemen und diese wird auch selbst der finale Design mit sich schleppen.
robbitop
2007-02-21, 09:47:06
In UltraHighend Auflösungen limitiert die Speicherbandbreite.
Die Auflösung ändert nichts am Bandbreiten/Füllratenverhältnis (genau wie SSAA).
PCGH_Carsten
2007-02-21, 11:38:50
Siehst Du auf dieser Seite (http://www.anandtech.com/video/showdoc.aspx?i=2870&p=10) auf den großen Bilder genau in der Mitte an den Stromkabeln bei den CSAA Modi das seltsamerweise hellere Sample? Liegt an den ungenauen Z-Werten.
Schwanken die Leitungen nicht hin und her in HL2? Sind die Bilder wirklich an exakt derselben Amplitudenposition aufgenommen? Nur dann würde ich das dem CSAA in die Schuhe schieben wollen.
Gouvernator
2007-02-21, 11:45:16
Schwanken die Leitungen nicht hin und her in HL2? Sind die Bilder wirklich an exakt derselben Amplitudenposition aufgenommen? Nur dann würde ich das dem CSAA in die Schuhe schieben wollen.
Also ich bitte, ein immer gleicher Titelscreen muss doch nicht noch in Amplituden aufgeteilt werden ;p
MadManniMan
2007-02-21, 11:49:34
Schwanken die Leitungen nicht hin und her in HL2? Sind die Bilder wirklich an exakt derselben Amplitudenposition aufgenommen? Nur dann würde ich das dem CSAA in die Schuhe schieben wollen.
Ein guter Einwand - immerhin isses gut zwei Jahre her, daß ich zuletzt HL2 gespielt habe ... ich könnte mir jedoch nicht vorstellen, woher die nur ein Fragment großen Lücken kommen sollten. Leitungen sind ja nun wirklich was extrem kritisches, betrachtet man die Z-Werte.
Gibt es eigentlich soetwas wie einen Algoritmus, der anhand der normalen Samples die Z-Werte für die Coverage Samples extrapoliert, oder ist das festgelegt?
DirectX 10, sub-$100 graphics cards take shape
RV610, Radeon X2300xx vs G86 Geforce 8300
But we are talking about ATI's first 65 nanometre product, which it will put up against Nvidia's 80 nanometre-based G86.
The A12 silicon samples of RV610 are expected in March so there might be some cards that DAAMIT can show behind closed doors around the Cebit messe. But the Rev90, board production samples and the production of ASICs is scheduled for April.
RV610 will come out with both Windows XP and Vista drivers and both of them are expected to have the WHQL certificate by then. Best of all, this card should cost just around $100.
It is scheduled for a May launch.
http://www.theinquirer.net/default.aspx?article=37744
Paul Brain
2007-02-21, 12:39:14
Also ich bitte, ein immer gleicher Titelscreen muss doch nicht noch in Amplituden aufgeteilt werden ;p
Ich kann kompletten 3dcenter Forum mit meinen sonderbaren Regeln und Ansichten verschonen :)
Ich bitte sehr darum. Würde vielen Lesern das Kopfschütteln und evtl. damit einhergehende Nackenbeschwerden ersparen.
*Autsch*
ATI’s First DirectX 10 Chip Slips into Q2 2007.
ATI’s R600 to Be Delayed Till Second Quarter
http://www.xbitlabs.com/news/video/display/20070221023825.html
*Autsch*
ATI’s First DirectX 10 Chip Slips into Q2 2007.
ATI’s R600 to Be Delayed Till Second Quarter
http://www.xbitlabs.com/news/video/display/20070221023825.html
Sag mir bitte, daß das nicht wahr ist :(
Da kann man wirklich nur sagen:
Game Over AMD
James Ryan
2007-02-21, 13:11:07
Uff, das ist krass.
Ich bekomme die Befürchtung dass der R600 der letzte High-End Chip von "ATi" wird/war.
MfG :cool:
PCGH_Carsten
2007-02-21, 13:13:25
Ein guter Einwand - immerhin isses gut zwei Jahre her, daß ich zuletzt HL2 gespielt habe ... ich könnte mir jedoch nicht vorstellen, woher die nur ein Fragment großen Lücken kommen sollten. Leitungen sind ja nun wirklich was extrem kritisches, betrachtet man die Z-Werte.
Gibt es eigentlich soetwas wie einen Algoritmus, der anhand der normalen Samples die Z-Werte für die Coverage Samples extrapoliert, oder ist das festgelegt?
CSAA-Samples werden "verlustbehaftet komprimiert" (für genaue technische Definitionen bitte an aths wenden...), sollten aber IMO eigentlich nicht das Bild verschlechtern.
Gouvernator
2007-02-21, 13:14:35
Da kann man wirklich nur sagen:
Game Over AMD
Warum? Ich sehe absolut keinen Bedarf an neuem Grafikchip... Es gibt weder Spiele noch neue 3dMarks die was neues erfordern. Ich kann damit gut leben. Und wer mehr Performance will kann ja gern G80 kaufen, mich interessiert das bisschen an mehr performance nicht unbedingt...
Mancko
2007-02-21, 13:17:08
Da kann man wirklich nur sagen:
Game Over AMD
Das ist jetzt vielleicht ein wenig übertrieben aber die aktuelle Runde hat AMD damit definitiv verloren. DAs hatten sie aber auch schon vorher aufgrund der Verspätung.
Und während einige dann immer noch predigen "wartet auf den R600" haben andere schon über ein halbes Jahr Spass mit ihrer 8800 gehabt und genau das richtige gemacht - nämlich das gekauft was verfügbar war und nicht auf das gehofft, was nur als Vapoware auf irgendwelchen PR Mitteilungen und Powerpointfolien existiert.
Ich kann den Argumenten von Xbit nicht wirklich folgen.
Sorry, hört sich einfach nicht logisch an. Jede Woche , die sich der R600 nun verspätet bedeutet xxxxxxx$ Verlust.
Es sei denn, der R600 suckt im Vergleich zur 8800 und ATI versucht das in letzter Sekunde zu korrigieren.
Nur, ist es nicht etwas spät dafür?
http://www.techpowerup.com/?25870
Andere Argumente und noch böser ! Die haben sogar 11.März den Editor Tag ganz gecancelt!
Paul Brain
2007-02-21, 13:23:22
*Autsch*
ATI’s First DirectX 10 Chip Slips into Q2 2007.
ATI’s R600 to Be Delayed Till Second Quarter
http://www.xbitlabs.com/news/video/display/20070221023825.html
Die Argumentation seitens AMD kann ich nicht nachvollziehen:
"[..]we’ve changed the launch plan for R600. We are going to deliver a competitive configuration[..]" klingt für mich mehr nach "Wir haben Wind von einem G81/G80Ultra/whatever bekommen und können unseren R600 noch immer nicht releasen da er dagegen keine Chance hätte".
Wozu sollten sie ihr High-End verzögern nur um es zeitgleich mit Mainstream/Lowcost launchen zu können? Was macht das für einen Sinn? Nur damit alle, die schon so lange auf den R600 warten dann endgültig drauf pfeifen und sich einen G80 zulegen?
Ich verstehs nicht. Ich glaub eher, daß es wiedermal technische Gründe sind, keine "strategischen" bzw. insofern strategische, als der R600 in der jetzigen Revision technisch bis aufs letzte ausgereizt und trotzdem noch nicht performant genug ist.
Aber viell. meinens damit auch nur, daß er in der ersten Woche von Q2 statt in der letzten von Q1 erscheint, man soll die Hoffnung nie aufgeben... ;-)
Warum? Ich sehe absolut keinen Bedarf an neuem Grafikchip... Es gibt weder Spiele noch neue 3dMarks die was neues erfordern. Ich kann damit gut leben. Und wer mehr Performance will kann ja gern G80 kaufen, mich interessiert das bisschen an mehr performance nicht unbedingt..."Sonderbare Ansichten", "verschonen", etc. Bitte.
Cubitus
2007-02-21, 13:23:25
Wenn das war ist,
dann freut es mich irgendwie:D
Der R600 darf dann gegen die 8900er Generation antreten.
Puhh starker Tobak..
Gouvernator
2007-02-21, 13:26:50
Wenn das war ist,
dann freut es mich irgendwie:D
Der R600 darf dann gegen die 8900er Generation antreten.
Puhh starker Tobak..
Jö =)
wäre mal ein vernünftiger Leistungsprung, nicht wie immer einbisschen hier, einbisschen da...
Jö =)
wäre mal ein vernünftiger Leistungsprung, nicht wie immer einbisschen hier, einbisschen da...
Nur macht man mit dem "immer einbisschen hier, einbisschen da..." Geld, welches AMD momentan dringend benötigt, da sie sonst aufgekauft werden und wenn sich die neuen Eigentümer die "Erfolge" der Grafiksparte anschauen, könnten sie auf die böse Idee kommen, sie aufzulösen.
Traurig, das sich AMD nun auch noch mit dem "Problem" ATi herumschlagen muss in diesen schwierigen Zeiten, da hätte man wohl doch auf die Forderungen aus Santa Clara eingehen sollen und sich somit einen kompetenteren Partner mit ins Boot geholt.
seahawk
2007-02-21, 13:33:28
Hmm, das ist überraschend. Niemand hat zwar wirklich geglaubt, dass sie Ende März einen echten Hardlaunch gebrachte hätten (von einigen Dell PCs abgesehen), aber das sie sogar den Eiditor´s Day canceln ...
Ich hoffe Carsten oder Ailuros können etwas Licht auf die Sache werfen.
Paul Brain
2007-02-21, 13:34:56
Jö =)
wäre mal ein vernünftiger Leistungsprung, nicht wie immer einbisschen hier, einbisschen da...
Aha, G80 war also kein "vernünftiger Leistungssprung"? Und technisch hat er wohl auch nichts zu bieten? :crazy:
Mach doch bitte endlich Dein Versprechen wahr.
Gouvernator
2007-02-21, 13:36:05
Nur macht man mit dem "immer einbisschen hier, einbisschen da..." Geld, welches AMD momentan dringend benötigt
Sind wir etwa hier bei "Brot für die Welt"? =)
Mit dieser Einstellung bin ich nicht ganz einverstanden.
Ich bin froh das meine X1900 genug Reserven hat um die Durststrecke zu überwinden :smile: Ein tripple Radi hat sie mal gelohnt...
James Ryan
2007-02-21, 13:36:13
AMD wird auf kurz oder lang die Notbremse ziehen müssen, sprich die ATi-Marke aus dem HighEnd Graka-Markt zurück ziehen und nur noch IGPs bauen lassen.
Jede Stunde die der R600 später kommt kostet AMD Geld! Und was Quartal 2 bedeutet weiß ja wohl jeder hier, das zweite Quartal geht bis Juni...
In der Zwischenzeit kann die NVIDIA-Hardwareabteilung sich zurücklehnen, Geld verdienen oder mal den armen Treiberprogramierpraktikanten ein wenig unter die Arme greifen. ;D
MfG :cool:
Vielleicht hat dieser Teilnehmer recht:
NO!! God dammit, i only have until April to buy my PC. :mad:
This is JUST like what they did with the last generation. The X2800XTX is embodying the X1800XT.
And now the X2800XTX is not going to be a lot better than the 8800 GTX and ATI will have to triple the shaders on the X2900XTX in order to compete.
;(
seahawk
2007-02-21, 13:40:39
Wenn nicht das gesamte Grunddesign der R6XX Linie einen Fahler hat, dann dürfte sich die Lebensdauer des R600 sehr überschaubar darstellen. Wenn man mutig ist, dann könnte man spekulieren, dass sie im Juni schon den Refresh launchen wollen (65nm) und den R600 dann im Performance-Segment positionieren.
Edit : Naheleigend wäre natürlich, dass man den R600 Launch mit RV610 und RV630 koppeln möchte um etwas zu überdecken.
Wenn man mutig ist, dann könnte man spekulieren, dass sie im Juni schon den Refresh launchen wollen (65nm) und den R600 dann im Performance-Segment positionieren.
H2 ist für 65nm im HighEnd eine mutige Schätzung, Juni ist deutlich zu früh und dann kommt ja noch der "ATi-Faktor" dazu... X-D
Nachdem man nun noch weiter an der Wertbewerbsfähigkeit des R600 arbeiten muss, denke ich doch das Refresh wohl eher noch etwas entfernt ist.
Herbst wäre imo ein realistischer Zeitraum.
Paul Brain
2007-02-21, 13:44:26
Ich bin froh das meine X1900 genug Reserven hat um die Durststrecke zu überwinden :smile:
Grad vorhin hieß es noch "wer braucht eine D3D-10 Karte á la G80/R600, gibt eh keine Spiele/Anwendungen dafür", und auf einmal bist mit Deiner 1900er auf einer "Durststrecke"? Ist wohl eine sonderbare Ansicht.
Btw. gibts genug Leute, denen ihre X1950XTX nicht mehr reicht und die wohl gezwungen sind, einen G80 zu nehmen, nachdem - tataa! - ATi ja nichts entsprechendes anbietet. Und nein, CF ist keine Alternative.
Irgendwie wirkst Du auf mich sonderbar. "Schauts her, ich, der große Goofynator, hab mir eine X1900 gekauft und hab damit die beste Karte wo gibt, weil nichtmal ein G80 wirklich besser ist." *kopfschüttel*
mal den armen Treiberprogramierpraktikanten ein wenig unter die Arme greifen. ;D
Die ganze Abteilung wird jetzt erstmal Urlaub auf Hawaii machen...
DerKleineCrisu
2007-02-21, 13:47:17
sprich die ATi-Marke aus dem HighEnd Graka-Markt zurück ziehen und nur noch IGPs bauen lassen.
wenn man die entwicklung anschaut kommt das doch. auch die meldungen sagen das aus. in 2 jahren wird es einfach keine HighEnd GraKa von amd geben. diese graka´s werden im prozi sitzen fertig aus. wenn man eine neue graka haben will wird man auch einen neuen prozi kaufen müssen.
machen eh die meisten verrückten user neue graka neuer prozi da ja das alte system mit X1950 & E6400 so schlecht und langsam ist, damit kann man ja nichts mehr spielen selbst schiffeversenken bringt nur noch 300 fps. das kann/darf nicht sein.
danke power user, vielen dank :mad: .
Cubitus
2007-02-21, 13:51:40
wenn man die entwicklung anschaut kommt das doch. auch die meldungen sagen das aus. in 2 jahren wird es einfach keine HighEnd GraKa von amd geben. diese graka´s werden im prozi sitzen fertig aus. wenn man eine neue graka haben will wird man auch einen neuen prozi kaufen müssen.
da machen eh die meisten verrückten user neue graka neuer prozi.
danke power user, vielen dank :mad: .
Ja ja:rolleyes:
So ein Schwachsinn.
AMD wird sich den Gamer Markt schon nicht entgehen lassen;)
Winter[Raven]
2007-02-21, 13:52:06
Wenn das alles stimmt, dann verstehe ich nicht wie es einer Firma wie ATI passiert, mit jeder Generation irgendwelche Probleme zu haben... war der R3x doch nur eine Eintagsfliege?
Ich hoffe AMD wird da einie Posten überdenken, und vielleicht mit neuen besetzen, sonst haben wir bald NV als Monopolisten und das ist weder für den Kunden, noch für den Entwickler vom Vortei!!
Paul Brain
2007-02-21, 13:52:37
Die ganze Abteilung wird jetzt erstmal Urlaub auf Hawaii machen...
Sind die doch schon lang... X-D
PCGH_Carsten
2007-02-21, 13:56:24
Hmm, das ist überraschend. Niemand hat zwar wirklich geglaubt, dass sie Ende März einen echten Hardlaunch gebrachte hätten (von einigen Dell PCs abgesehen), aber das sie sogar den Eiditor´s Day canceln ...
Ich hoffe Carsten oder Ailuros können etwas Licht auf die Sache werfen.
Mehr, als dass diese Meldung offiziell von AMD/Ati herausgegeben wurde, weiß zumindest ich im Moment auch nicht.
Möglicherweise kommt jetzt stattdessen gleich der "R680"?
James Ryan
2007-02-21, 13:56:48
Ja ja:rolleyes:
So ein Schwachsinn.
AMD wird sich den Gamer Markt schon nicht entgehen lassen;)
AMD lässt sich den Gamer Markt seit Monaten entgehen.
Kein Konter zum C2D, kein Konter zum G80, das kann nicht lange gut gehen.
MfG :cool:
seahawk
2007-02-21, 13:58:15
Mehr, als dass diese Meldung offiziell von AMD/Ati herausgegeben wurde, weiß zumindest ich im Moment auch nicht.
Möglicherweise kommt jetzt stattdessen gleich der "R680"?
Danke Dir :smile: Das wollte ich nur wissen und Du bist schneller als jeder Email-Kontakt. :smile:
Die R680 theorie hatte ich auch schon angedacht.
Die Sache errinnert frapierend an NV30 <> r300.
Eine neue DX Version, starke architektorische Veränderungen, neuer Fertigungsprozeß, hohe Taktraten...
Hoffentlich wird sich AMD genauso erholen wie nVidia.
robbitop
2007-02-21, 13:59:56
Möglicherweise kommt jetzt stattdessen gleich der "R680"?
Ist der nicht sogar für 65 nm geplant? Das dürfte das Abwärmeproblem etwas dämmen.
(für mich persönlich ist das Ganze seit dem R580 nicht mehr lustig, obwohl die GPU gute Schlagkraft hat -> undervolting ahoi)
mapel110
2007-02-21, 14:01:41
AMD lässt sich den Gamer Markt seit Monaten entgehen.
Kein Konter zum C2D, kein Konter zum G80, das kann nicht lange gut gehen.
MfG :cool:
och, AMD hat sich mit dem AthlonXP auch lange über Wasser gehalten, obwohl Intel ab dem Northwood-Core besseres bot.
Übernamen müssen auch nichts Schlimmes sein. So ein Wechsel im Management kann mal ganz gut sein.
Paul Brain
2007-02-21, 14:03:26
Die R680 theorie hatte ich auch schon angedacht.Welche Infos gibts bzgl. R680? (Unterschiede zu R600, Spec-Specs (Specification Speculations :P ))
seahawk
2007-02-21, 14:05:30
Welche Infos gibts bzgl. R680? (Unterschiede zu R600, Spec-Specs (Specification Speculations :P ))
Außer dem 65nm Prozess ist öffentlich wenig bekannt. Mehr Takt und mehr Einheiten ist sicher wahrscheinlich.
robbitop
2007-02-21, 14:06:43
läl wir wissen ja nicht mal über den R600 bescheid. R680 ist da noch im Nebel.
och, AMD hat sich mit dem AthlonXP auch lange über Wasser gehalten, obwohl Intel ab dem Northwood-Core besseres bot.
Nur war der Northwood deutlich teurer, wodurch AMD halt mit gutem P/L-V. der A-XPs punkten konnte.
Aktuell bietet Intel aber selbst ihre CPUs zu solchen Preisen an, dass diese eben kaum noch zu unterbieten sind, vor allem nicht mit einem Rückstand bei der Fertigungstechnologie.
@R680:
Imo wird man hier wohl einen "R650" bringen, der wohl nicht mehr als ein R600-Shrink mit höheren Taktraten und ein paar nicht nennenswerten Änderungen sein wird.
Eben wie:
R300 -> R350 -> R360
seahawk
2007-02-21, 14:09:12
Ist der nicht sogar für 65 nm geplant? Das dürfte das Abwärmeproblem etwas dämmen.
(für mich persönlich ist das Ganze seit dem R580 nicht mehr lustig, obwohl die GPU gute Schlagkraft hat -> undervolting ahoi)
Das hat man bei 80nm auch gedacht. Die Frage ist was wäre "R680". Würde ATI eher eine Verbreiterung der Struktur anstreben oder einen Mix aus Strukturverbreiterung und Takterhähung ?
Ich meine in der Theorie würde ja ein 550 Mhz 96 Vec4+1 ALU Chip nicht schlechter sein, als ein 800Mhz 64 Vec4+1 ALU Chip.
Ja ja:rolleyes:
So ein Schwachsinn.
AMD wird sich den Gamer Markt schon nicht entgehen lassen;)
Schau doch mal wie groß der PC-Gamermarkt noch ist, also der noch wirklich konkurrenzfähige (High End) Hardware hat. Ist zunehmend kleiner geworden und wird in Zukunft mit 100 %iger Sicherheit noch kleiner werden. Viele Leute sind nicht mehr bereit oder in der Lage, soviel für ein Hobby zu investieren. Bleiben noch gut situierte Leute und Enthusiasten übrig. Außerdem wird die Entwicklung der Chips immer teurer, lukrativ ist der High End Bereich für die Hersteller bestimmt nicht mehr.
Winter[Raven]
2007-02-21, 14:10:16
Außer dem 65nm Prozess ist öffentlich wenig bekannt. Mehr Takt und mehr Einheiten ist sicher wahrscheinlich.
Mag ja sein, Ail meinte ja mal, wir würden 65µ früher sehen als viele dachten, aber will AMD Nvidia wirlich den kompletten Markt bis >= Juni überlassen?
Die ganzen OEM Deals gehen bzw werden dann an Nvidia gehen...
Magnificus
2007-02-21, 14:16:06
Ist sowas denn bei einem Highend Release vorgekommen, dass ein der Presse angekündigter Vorstellungstermin verschoben wurde ?
Ich kann mir nur vorstellen das da zur Cebit was richtig lustiges von Nvidia kommt und AMD sich nicht blamieren will.
Weil allgemeine Performance Probleme oder auch heftigere Bugs unter Vista im Treiber hätte man ja vorhersehen können. Da muss sich etwas relativ plötzlich geändert haben.
Was ich mir noch vorstellen könnte wäre eine Inkompatibilität mit einem Mainboardchipsatz, bei der sie erst dachten sie beheben zu können und es ging nicht.
seahawk
2007-02-21, 14:17:53
;5270445']Mag ja sein, Ail meinte ja mal, wir würden 65µ früher sehen als viele dachten, aber will AMD Nvidia wirlich den kompletten Markt bis >= Juni überlassen?
Die ganzen OEM Deals gehen bzw werden dann an Nvidia gehen...
Will oder muss ? Guck Dir die OEM Karte an, guck Dir die Powerconsumption an und nun gehe mal von einen höheren EK aus und sagen wir 5-10% mehr Lesitung als ne GTX. Lass den Kühler noch recht laut sein....
Wobei ich nicht wirklich glaube, dass der R600 sich bis Juni verschiebt. Sonst mpßte man einiges bei ATI mal neu "orton"en.
:confused: Der R600 hätte doch spätestens im April kommen müssen! Egal ob langsamer oder nicht, sie hätten trotzdem Geld damit verdient...
Ich kann einfach nicht verstehen, wie sie das den Aktionären verkaufen wollen. Diese ewige nach hinten Verschieberei dürfte AMD überhaupt nicht gefallen, und den Kunden erst recht nicht.
Das Problem wird wohl sein, dass die höhere Leitung einen Aufpreis von 100-200€ nicht rechtfertigen würde. Dazu kommt noch eine geringe Menge an verfügbarer Hardware sowie die fehlenden Modellen für den "kleinen" Geldbeutel.
Anscheinend sind die hohen Taktraten zu hoch. Vielleicht brechen sie gerade Genick von ATi.
Paul Brain
2007-02-21, 14:28:58
Das Problem wird wohl sein, dass die höhere Leitung einen Aufpreis von 100-200€ nicht rechtfertigen würde. Dazu kommt noch eine geringe Menge an verfügbarer Hardware sowie die fehlenden Modellen für den "kleinen" Geldbeutel.
Anscheinend sind die hohen Taktraten zu hoch. Vielleicht brechen sie gerade Genick von ATi.
Es wäre aber immer noch besser am Markt zu sein und die Nachfrage durch hohe Preise untenzuhalten bis ein Respin/Shrink/whatever verfügbar ist als einfach nur zu verschieben und zu warten. nVidia hat ja mit der 7800GTX 512 auch nichts anderes gemacht: Selektierte G70 zu Apothekerpreisen bis zum Erscheinen der 7900GTX.
ShadowXX
2007-02-21, 14:32:27
Schau doch mal wie groß der PC-Gamermarkt noch ist, also der noch wirklich konkurrenzfähige (High End) Hardware hat. Ist zunehmend kleiner geworden und wird in Zukunft mit 100 %iger Sicherheit noch kleiner werden. Viele Leute sind nicht mehr bereit oder in der Lage, soviel für ein Hobby zu investieren. Bleiben noch gut situierte Leute und Enthusiasten übrig. Außerdem wird die Entwicklung der Chips immer teurer, lukrativ ist der High End Bereich für die Hersteller bestimmt nicht mehr.
400.000 bisher ausgelieferte G80 sprechen da IMHO eine andere Sprache....
Es wäre aber immer noch besser am Markt zu sein und die Nachfrage durch hohe Preise untenzuhalten bis ein Respin/Shrink/whatever verfügbar ist als einfach nur zu verschieben und zu warten.
Das Problem ist jetzt nur, dass der r600 kein Lochstopfer ist.
Die 7800GTX 512MB sollte nur das Loch stopfen bis zum G80 bzw. dann G71. Ein r600 für 600€ und auf 10 Karten beschränkt, würde das ganze Image von AMD noch weiter runterziehen.
Vorallen, wenn die 8800GTX für einen deutlich geringeren Preis verfügbar ist und leistungs-, bildqualitäts- sowie featuresmäßig auf einem ähnlichen Niveau sich befindet.
Cubitus
2007-02-21, 14:35:38
Schau doch mal wie groß der PC-Gamermarkt noch ist, also der noch wirklich konkurrenzfähige (High End) Hardware hat. Ist zunehmend kleiner geworden und wird in Zukunft mit 100 %iger Sicherheit noch kleiner werden. Viele Leute sind nicht mehr bereit oder in der Lage, soviel für ein Hobby zu investieren. Bleiben noch gut situierte Leute und Enthusiasten übrig. Außerdem wird die Entwicklung der Chips immer teurer, lukrativ ist der High End Bereich für die Hersteller bestimmt nicht mehr.
High End war eigentlich nie so richtig lukrativ.
Es geht dabei meistens ums Image.
Der Enthusiasten Markt war im Verhältnis zum Massenmarkt immer schon klein.
Aber nach High End folgt eben Mid-Range und dort lockt der Profit
Es ist ja jetzt nicht so das die Chips RV610&RV630 vor dem R600 veröffentlicht werden. Schuld sind nicht die Power User oder die angeblich sinkende Kauflust nein, das ist ganz alleine AMD/ATIS Verdienst,
ihr Pech wenn Sie nichts Wirkliches gegen die Konkurrenzprodukte in der Hand haben.
400.000 bisher ausgelieferte G80 sprechen da IMHO eine andere Sprache....
ziemlich deutlich sogar, eigentlich ist der Enthusiasten Markt etwas gewachsen.
High End war eigentlich nie so richtig lukrativ.
Es geht dabei meistens ums Image.
Im High - End Markt macht man vielleicht den geringsten Umsatz, aber der Gewinn pro Karte ist deutlich höher.
Und solange es keinen Konkurrenten gibt, ist dieser Bereich für ein Unternehmen mit am lukrativsten.
400.000 bisher ausgelieferte G80 sprechen da IMHO eine andere Sprache....
*zustimm*
Ich zitier mal die Presseerklärung vom Inq:
2. Grund:
AMD/ ATI will einen richtigen DX10-Treiber bringen und nicht das gleiche Debakel wie Nvidia erleben mit ihren Treibern.
3. Grund:
Da es derzeit keine DX10-Anwendungen gibt, kommt es auf 1 Monat nicht mehr an, Refresh ist schon in der Entwicklung und kommt Ende 3/Anfang 4 Quartal.
Sorry, aber hier hat ATI einfach einen Denkfehler. Währendessen verdient sich nV dumm und krumm, trotz
fehlender DX10 Anwendungen....
http://de.theinquirer.net/2007/02/21/r600_erneut_verschoben.html
robbitop
2007-02-21, 14:41:29
Das hat man bei 80nm auch gedacht.
Und es kam auch so. ;) (RV570 und G73-B)
Anhand eines 800 MHz 700 Mio Transistoren Chips den 80nm Prozess schlechtzumachen, halte ich für unkorrekt.
Cubitus
2007-02-21, 14:42:57
Im High - End Markt macht man vielleicht den geringsten Umsatz, aber der Gewinn pro Karte ist deutlich höher.
Und solange es keinen Konkurrenten gibt, ist dieser Bereich für ein Unternehmen mit am lukrativsten.
wenn ich an die Millionen Aldi, Lidl,Norma, MM,Siemens PCs so denke.
Aber deine Aussage stimmt schon,
sicher verdienen die Hersteller mit High End natürlich auch ihr Geld.
High End war eigentlich nie so richtig lukrativ.
Es geht dabei meistens ums Image.
Der Enthusiasten Markt war immer schon klein.
Aber nach High End folgt eben Mid-Range und dort lockt der Profit
Es ist ja jetzt nicht so das die Chips RV610&RV630 vor dem R600 veröffentlicht werden. Schuld sind nicht die Power User oder die angeblich sinkende Kauflust nein, das ist ganz alleine AMD/ATIS Verdienst,
ihr Pech wenn Sie nichts Wirkliches gegen die Konkurrenzprodukte in der Hand haben.
Sie können auch direkt Mid-Range Chips bauen und verkaufen. Droht zwar ein Imageverlust aber wer kann denn belegen, dass sich die teure Forschung wirklich lohnt, indem man durch ein gutes Image im High End Bereich mehr Karten im Mid Range / Low End verkaufen kann? Der Ottonormalanwender bekommt da meistens eh nichts von mit, den interessieren in 1. Linie Preis, plakative Daten (z.B. VRamgröße) und frühere persönliche Erfahrungen mit dem Hersteller.
seahawk
2007-02-21, 14:51:23
Und es kam auch so. ;) (RV570 und G73-B)
Anhand eines 800 MHz 700 Mio Transistoren Chips den 80nm Prozess schlechtzumachen, halte ich für unkorrekt.
Ich meinte ja auch eher, dass ein neuer Prozess nicht unbedingt Fehlentscheidungen im Design ausgleichen kann.
Rogue
2007-02-21, 15:01:09
Wenn ATI behauptet sie würden sich nur deshalb so lange Zeit lassen weil sie nen ausgereiften Treiber mitliefern wollen dann halte ich das ehrlich gesagt für dummes Gelaber.
Bisher hat noch nie jemand aufs Geld verdienen verzichtet nur weil ein Game / ein Programm / ein Gerät noch nicht 100% fertig war.
Tatsache ist doch wohl das sie die Hardware nicht früher fertig hatten. Dieser Seitenhieb auf Nvidia mit: "so ein Debakel mit den Treibern wollen wir nicht" ist doch geradezu lächerlich. Das hat sie in der Vergangenheit auch nie aufgehalten.
Die Frage ist nun warum dauerts so lange ?
Entweder sie haben ein verflucht gutes Stück hardware gebaut das einfach seine Zeit braucht ...
ODER
sie hatten das Ding fertig und die Ergebnisse lagen entweder unter denen von nvidia oder haben sich falls sie besser waren nicht deutlich genug von der Konkurenz abgesetzt. Ich meine , sie können nicht Monate nach Nvidia eine Karte bringen die gerademal 1-2% schneller ist. Das würde ihnen ruftechnisch wohl den Hals brechen.
Diese Benchmarks die neulich auftauchten (die mit dem Hyper-System inkl. wahnsinnig übertakteter CPU) machen nicht wirklich nen guten Eindruck. Wirkte sehr geschönt und solange zurechtgebogen bis man IRGENDWIE ne werbewirksame Message rausposaunen konnte.
Anyway... wenn ihre Karte nicht so fix ist wie sies gern hätten sollten sie die Preise anpassen und sie schleunigst auf den Markt werfen. Abnehmer wirds so oder so genug geben. Diese Verzögerung ist doch mist.
Da hilft ihnen auch die Tatsache nicht das "echte DX 10 Titel" noch garnicht verfügbar sind.
Wen interessierrt das auch ? Auch ohne DX10 sind die Karten in existierenden Titeln um einiges schneller und die Leute wollen die Karten haben, ob unter Vista oder XP juckt die meisten doch herzlich wenig.
deekey777
2007-02-21, 15:01:15
Wie seahawk schon woanders sagte (hoffe ich): Vielleicht ist die Performance der kleineren Grafikkarten wie schon bei RV515/RV530 so schwach, dass man bei alles aufeinmal launchen will und mit der Performance des R600 von der Performance der RV610/RV630 ablenken?
Hauwech
2007-02-21, 15:03:00
*zustimm*
Ich zitier mal die Presseerklärung vom Inq:
Sorry, aber hier hat ATI einfach einen Denkfehler. Währendessen verdient sich nV dumm und krumm, trotz
fehlender DX10 Anwendungen....
http://de.theinquirer.net/2007/02/21/r600_erneut_verschoben.html
Sind das wirklich Kommentare vom Inq oder hast du da schlicht einen User zitiert?
Edit: @DK777
Andererseits ist die Performance von den kleinen Karten zumindest für OEMs fast egal, oder? Ich meine, die 5200er wurde doch eher auch nur aufgrund von Features und eben Preis massenweise verbaut. Die Leistung, vor allem in DX9 war doch alles andere als schön.
Cubitus
2007-02-21, 15:08:01
Sie können auch direkt Mid-Range Chips bauen und verkaufen. Droht zwar ein Imageverlust aber wer kann denn belegen, dass sich die teure Forschung wirklich lohnt, indem man durch ein gutes Image im High End Bereich mehr Karten im Mid Range / Low End verkaufen kann? Der Ottonormalanwender bekommt da meistens eh nichts von mit, den interessieren in 1. Linie Preis, plakative Daten (z.B. VRamgröße) und frühere persönliche Erfahrungen mit dem Hersteller.
Warum sollte man den technischen Fortschritt
bei der Entwicklung neuer Chips/Karten künstlich zurückhalten ?
Derjenige der die besten High End Versionen zu bieten hat, wird auch
meistens eine passable Mid-Range liefern können.
Es spricht sich dann auch schnell rum.
Wenn es dann z.b heißt ATI hätte die schnellsten Karten im Petto
Der Otto normal User hat darüber in der Computerbild gelesen,
steht im MM und sieht in den PCs verbaute ATI Karten, ah ATI, der Muss gut sein.
Das Image ist ein wichtiger Verkaufsgrund auch bei Mid-Range
MadManniMan
2007-02-21, 15:22:28
Q, interessant zu wissen! Mir kommt eben komisch vor, daß die reinen MSAA Modi keine Löcher aufweisen - was, wenn nicht die Coverage Samples, könnte das nun sein? aths?
Zum R600: ja habt ihr denn alle gedacht, die Übernahme hätte nur auf den Firmenüberbau Auswirkungen? Also mich überrascht das nicht - und andererseits hab ich auch keine Angst um AMD/ATi, sowas kommt halt dann und wann vor.
reunion
2007-02-21, 15:30:38
AMD wird auf kurz oder lang die Notbremse ziehen müssen, sprich die ATi-Marke aus dem HighEnd Graka-Markt zurück ziehen und nur noch IGPs bauen lassen.
Blödsinn. AMD kauft nicht um mehrer Milliarden ATi, um dann nur noch IPGs zu fertigen. Da hätte es auch eine kleine Grafikschmiede getan.
Jede Stunde die der R600 später kommt kostet AMD Geld! Und was Quartal 2 bedeutet weiß ja wohl jeder hier, das zweite Quartal geht bis Juni...
Und beginnt im April. Wer weiß, ob diese offizielle Verschiebung überhaupt was an der Verfügbarkeit von R600 ändert. Ursprünglich sollte ja die XTX Ende März (wohl als Paperlaunch) kommen, und einen Monat später dann die XT und die XL. Vermutlich bringt man jetzt einfach die gesamte R600-Linie auf einmal im April.
Sind das wirklich Kommentare vom Inq oder hast du da schlicht einen User zitiert?
Inq hat nur auf Deutsch übersetzt, was ATI ixbt gesagt hat:
To better align our strategy with current market opportunities, we’ve changed the launch plan for R600. We are going to deliver a competitive configuration to market with an extremely attractive combination of performance, features and pricing, targeting a broader market segment in Q2,” a statement by the company reads.
“With the revised strategy, AMD will be better able to capitalize on the broad appeal of 3D graphics and DirectX 10, being driven in part by the growing popularity of Windows Vista,” the statement by AMD claims optimistically.
http://www.xbitlabs.com/news/video/display/20070221023825.html
Diese Presseerklärung halte ich für BS, da muß ich Rogue recht geben. Und was Rogues Annahme zur Performance angeht, ich gehe eher vom Letzteren aus. (leider)
seahawk
2007-02-21, 15:37:03
Und beginnt im April. Wer weiß, ob diese offizielle Verschiebung überhaupt was an der Verfügbarkeit von R600 ändert. Ursprünglich sollte ja die XTX Ende März (wohl als Paperlaunch) kommen, und einen Monat später dann die XT und die XL. Vermutlich bringt man jetzt einfach die gesamte R600-Linie auf einmal im April.
April glaube ich mal nicht. Die müssen einen neuen Editor´s Day ansetzen und der allein braucht min. 3 Wochen Vorlauf. Launch etwas 2 Wochen später. Und da sie sicher nicht vom 11ten auf den 18ten verschieben, erscheint Mai wahrscheinlich. In vieler Hinsicht.
Und beginnt im April. Wer weiß, ob diese offizielle Verschiebung überhaupt was an der Verfügbarkeit von R600 ändert. Ursprünglich sollte ja die XTX Ende März (wohl als Paperlaunch) kommen, und einen Monat später dann die XT und die XL. Vermutlich bringt man jetzt einfach die gesamte R600-Linie auf einmal im April.
According to marc from HFR, the card is delayed for more than 1 month...
http://www.beyond3d.com/forum/showpost.php?p=933045&postcount=1874
Bedeutet wohl, dass frühsten mit Mai gerechnet werden kann. Mindesten 6 Monate nach dem Hardlaunch des G80.
Erschreckend.
reunion
2007-02-21, 15:42:52
Die R680 theorie hatte ich auch schon angedacht.
Halte ich für unrealistisch. R680 wird früh kommen, aber nicht vor H2 IMO.
Will oder muss ? Guck Dir die OEM Karte an, guck Dir die Powerconsumption an und nun gehe mal von einen höheren EK aus und sagen wir 5-10% mehr Lesitung als ne GTX. Lass den Kühler noch recht laut sein....
An den Daten wird sich nichts mehr ändern. Ein neuer Respin zum jetzigen Zeitpunkt würde R600 locker auf H2 verschieben. Und 5-10% ist sicher zu wenig. Das hat AMD mal als Fehlinformation gestreut, damit sich nV auf den Lorbeeren ausruht.
Rogue
2007-02-21, 15:44:17
Der richtige Knaller kommt doch erst Ende Sommer / Anfang Herbst.
Irgendwo hab ich gelesen das Nvidia hoch pokert und davon ausgeht den R600 mit ner höher getakteten/ modifizierten Variante der derzeitigen Serie im schach halten zu können.
Das gibt ihnen Zeit die nächste GPU Generation in 46nm (oder 45 ? man korrigiere mich) marktfertig zu kriegen.
Sollten die ersten Chips im Herbst auf den Markt kommen während ATI gerademal die erstem paartausend R600 unter die Leute gebracht hat wirds bei denen wohl heulen und zähneklappern geben.
Irgendwo hab ich gelesen das Nvidia hoch pokert und davon ausgeht den R600 mit ner höher getakteten/ modifizierten Variante der derzeitigen Serie im schach halten zu können.
Ja, eine übertakter G80 mit wahrscheinlich 1.5GHz Shaderclock und einer anderen Kühllösung, der dann wohl mit einem "guten" Treiber laufen wird.
Das gibt ihnen Zeit die nächste GPU Generation in 46nm (oder 45 ? man korrigiere mich) marktfertig zu kriegen.
Sollten die ersten Chips im Herbst auf den Markt kommen während ATI gerademal die erstem paartausend R600 unter die Leute gebracht hat wirds bei denen wohl heulen und zähneklappern geben.
65nm!
Im H2 wird wahrscheinlich NV die GeForce9-Serie bringen.
Und 5-10% ist sicher zu wenig. Das hat AMD mal als Fehlinformation gestreut, damit sich nV auf den Lorbeeren ausruht.
Obwohl ich noch glaube das die Mehrleistung höher ist, könnte es im worst case durchaus zu diesem geringen Unterschied kommen.
Man darf eben nicht vergessen, dass die wahre Leistung des G80 noch nicht offenbart wurde und ATi vielleicht den R600 versucht dagegen zu rüsten.
Blödsinn. AMD kauft nicht um mehrer Milliarden ATi, um dann nur noch IPGs zu fertigen. Da hätte es auch eine kleine Grafikschmiede getan.
Das war zwar nicht der Zweck aber dennoch könnte es darauf hinauslaufen. Woher soll das Geld für Neuentwicklungen im High-End Sektor denn kommen, wenn man sich mal AMD-ATIs Geschäftszahlen so ansieht?
reunion
2007-02-21, 15:50:00
April glaube ich mal nicht. Die müssen einen neuen Editor´s Day ansetzen und der allein braucht min. 3 Wochen Vorlauf. Launch etwas 2 Wochen später. Und da sie sicher nicht vom 11ten auf den 18ten verschieben, erscheint Mai wahrscheinlich. In vieler Hinsicht.
Möglich. Auf jeden Fall glaube ich nicht an ein technisches Problem in welcher Hinsicht auch immer, sondern an eine taktische Änderung. Denn wenn man mit R600 nicht zufrieden ist, kommt man da nicht erst 20 Tage vorm geplaten Launch drauf.
X.Perry_Mental
2007-02-21, 15:54:00
Die Frage ist nun warum dauerts so lange ?
Entweder sie haben ein verflucht gutes Stück hardware gebaut das einfach seine Zeit braucht ...
ODER
sie hatten das Ding fertig und die Ergebnisse lagen entweder unter denen von nvidia oder haben sich falls sie besser waren nicht deutlich genug von der Konkurenz abgesetzt. Ich meine , sie können nicht Monate nach Nvidia eine Karte bringen die gerademal 1-2% schneller ist. Das würde ihnen ruftechnisch wohl den Hals brechen.
Mal ehrlich: Es gab haufenweise Respins um die Taktrate zu erhöhen und gleichzeitig die Abwärme in den Griff zu bekommen. Das macht man doch nur, weil man im Vergleich zur Konkurrenz das eigene Design auf der letzten Rille takten muß, um nicht unterzugehen. Aufgrund dessen habe ich eigentlich nie einen Überflieger erwartet, sondern eine Karte "auf Augenhöhe" zum G80.
Die erneute Verzögerung zeigt jetzt, dass man mit dem bisherigen Chip zum jetzigen Zeitpunkt nicht im Markt bestehen kann - wofür es eigentlich nur einen Grund geben kann (wenn die Leistung stimmt, was ich mal annehme): der R600 erkauft sich die gleiche oder marginal höherer Leistung durch enorme Anforderungen an Netzteil und Lüfter - was man eben nur bei nur bei entsprechender Mehrleistung zum G80 verkaufen kann. Wegen der hohen Taktrate gehe ich zusätzlich von einer üblen Ausbeute bei der Fertigung aus. Mit so einem Produkt würde ich den Launch auch noch weiter verschieben.
PCGH_Carsten
2007-02-21, 15:56:39
http://www.pcgameshardware.de/blog/2007/02/15/does-history-repeat-itself/
Gut, dass ich das schon vor ein paar Tagen verbrochen habe...
X.Perry_Mental
2007-02-21, 15:57:53
Möglich. Auf jeden Fall glaube ich nicht an ein technisches Problem in welcher Hinsicht auch immer, sondern an eine taktische Änderung. Denn wenn man mit R600 nicht zufrieden ist, kommt man da nicht erst 20 Tage vorm geplaten Launch drauf.
Wenn man mit dem R600 zufrieden wäre, hätte er keine 6 Monate Verspätung.
deekey777
2007-02-21, 15:59:13
Edit: @DK777
Andererseits ist die Performance von den kleinen Karten zumindest für OEMs fast egal, oder? Ich meine, die 5200er wurde doch eher auch nur aufgrund von Features und eben Preis massenweise verbaut. Die Leistung, vor allem in DX9 war doch alles andere als schön.
Ich kann dir nur Recht geben, aber Werbung macht man lieber mit Siegern und nicht Verlierern. :)
--------------------------------------------------------------------------
Na ja, dann bauen wir uns einen eigenen R600 mit Blackjack und Nutten.:biggrin:
robbitop
2007-02-21, 16:02:03
Blödsinn. AMD kauft nicht um mehrer Milliarden ATi, um dann nur noch IPGs zu fertigen. Da hätte es auch eine kleine Grafikschmiede getan.
Die haben mit ATI noch mehr vor (Fusion und folgende Stream-GPCPUs). Das ginge nicht mit einer kleineren Grafikschmiede. Vor allem nicht beides gleichzeitig.
Zumal man auch einfach nur noch Midrange und Low Cost Produkte entwickeln könnte. Die Gefahr besteht IMO leider schon, wenn ATI langfristig Verluste einfährt.
R600: alles rund um die neue Generation, Teil 5 (leider wieder nicht der letzte?)
Es ist bald soweit:biggrin: Hätte ich mir echt nicht gedacht.
deekey777
2007-02-21, 16:08:46
Es ist bald soweit:biggrin: Hätte ich mir echt nicht gedacht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=273969
So lange man sich nicht an die Gurgel geht, ist es mir egal.
reunion
2007-02-21, 16:18:39
Wenn man mit dem R600 zufrieden wäre, hätte er keine 6 Monate Verspätung.
Ja. Alle Polizisten sind Arschlöcher. G80 kam übrigens auch deutlich später als geplant, vermutlich ist man damit auch nicht zufrieden. Ich liebe solche undifferenzierten Aussagen. Dass ATi zu beginn Probleme mit den ROPs und den Taktraten hatte, sollte inzwischen zum letzten durchgedrungen sein. Das rechtfertigt allerdings nicht diese Verschiebung 20 Tage vorm geplanten Launch, wo man wenige Tage vorher noch ein Dokument (http://img230.imageshack.us/img230/1646/amdr600launchchartsd9.jpg) an die Öffentlichkeit ließ, welches das geplante Datum bestätigte, und unzählige Gäste so kurzfristig absagen muss. Wie schon gesagt, die Leistung des finalen R600 ist ATi schon lange bekannt, wenn man damit nicht zufrieden wäre, hätte man wesentlich früher reagiert, und wenn man jetzt noch ein neues Tapeout brauchen würde, könnte man R600 auch gleich canceln.
Nakai
2007-02-21, 16:21:24
Blödsinn. AMD kauft nicht um mehrer Milliarden ATi, um dann nur noch IPGs zu fertigen. Da hätte es auch eine kleine Grafikschmiede getan.
ATI hat genug Know-How...es kann nur aufwärts gehen...^^
Ich denke ATI hat ein Problem mit den Yields, irgendwas läuft da nicht.
Wahrscheinlich hätte man den R600 am 30 März laushen können, aber leider nur in sehr geringen Stückzahlen...außerdem passt es besser zum Rv610 und Rv630.
mfg Nakai
€:
So lange man sich nicht an die Gurgel geht, ist es mir egal.
Wenigstens über Seite 50 sollte man hier noch kommen.^^
Paul Brain
2007-02-21, 16:27:41
Das rechtfertigt allerdings nicht diese Verschiebung 20 Tage vorm geplanten Launch, wo man wenige Tage vorher noch ein Dokument (http://img230.imageshack.us/img230/1646/amdr600launchchartsd9.jpg) an die Öffentlichkeit ließ, welches das geplante Datum bestätigte, und unzählige Gäste so kurzfristig absagen muss. Wie schon gesagt, die Leistung des finalen R600 ist ATi schon lange bekannt, wenn man damit nich zufrieden wäre, hätte man wesentlich früher reagiert, und wenn man jetzt noch ein neues Tapeout brauchen würde, könnte man R600 auch gleich canceln.Ich zitiere mich mal selbst: "[..]we’ve changed the launch plan for R600. We are going to deliver a competitive configuration[..]" klingt für mich mehr nach "Wir haben Wind von einem G81/G80Ultra/whatever bekommen und können unseren R600 noch immer nicht releasen da er dagegen keine Chance hätte".
Nur: was will man so kurzfristig dagegen tun? Bzw. welche anderen Gründe gibt es, den Launch so kurzfristig abzusagen?
Ich denke ATI hat ein Problem mit den Yields, irgendwas läuft da nicht.
Wahrscheinlich hätte man den R600 am 30 März laushen können, aber leider nur in sehr geringen Stückzahlen...Na dann wärens halt geringe Stückzahlen, wär ja nicht das erste Mal. Eine tolle Karte zu haben die jeder will aber nur jeder 10. bekommt ist immer noch besser als die ganze Gamerwelt im ungewissen zu lassen, wann er denn jetzt launcht, welche Performance er haben wird etc.; ein nicht unwesentlicher Anteil wird daher zum G80 greifen, denn - wie sagte jemand hier im Forum bereits so schön - "vom Warten wird meine Performance und Bildqualität nicht besser"...
reunion
2007-02-21, 16:32:49
Ich zitiere mich mal selbst: "[..]we’ve changed the launch plan for R600. We are going to deliver a competitive configuration[..]" klingt für mich mehr nach "Wir haben Wind von einem G81/G80Ultra/whatever bekommen und können unseren R600 noch immer nicht releasen da er dagegen keine Chance hätte".
"Competitive configuration", nicht "competitive product". Ursprünglich sollte ja nur die XTX Ende März kommen, und alles andere wesentlich später. Ergo Paperlaunch XTX, und dann schauen wir mal weiter. Jetzt will man offensichtlich die Daten des R600 so lange wie möglich geheim halten, um dann eine art "Bombe" platzen zu lassen.
Nakai
2007-02-21, 16:35:19
Na dann wärens halt geringe Stückzahlen, wär ja nicht das erste Mal. Eine tolle Karte zu haben die jeder will aber nur jeder 10. bekommt ist immer noch besser als die ganze Gamerwelt im ungewissen zu lassen, wann er denn jetzt launcht, welche Performance er haben wird etc.; ein nicht unwesentlicher Anteil wird daher zum G80 greifen, denn - wie sagte jemand hier im Forum bereits so schön - "vom Warten wird meine Performance und Bildqualität nicht besser"...
Aber nun hockt AMD hinterm Steuer und die werden bestimmt einen Launsh mit wenigen Stückzahlen nicht zulassen.
mfg Nakai
Aber nun hockt AMD hinterm Steuer und die werden bestimmt einen Launsh mit wenigen Stückzahlen nicht zulassen.
mfg Nakai
Warum nicht?
Ihren Brisbane haben sie auch ohne Hardware "gelauncht".
reunion
2007-02-21, 16:40:55
Warum nicht?
Ihren Brisbane haben sie auch ohne Hardware "gelauncht".
Bei Brisbane gab es nichts zu verstecken. Jeder wusste, dass es nur ein simpler Shrink werden würde. Ob man das zwei Monate früher oder später offiziell macht, macht keinen Unterschied.
Paul Brain
2007-02-21, 16:42:55
"Competitive configuration", nicht "competitive product". Ursprünglich sollte ja nur die XTX Ende März kommen, und alles andere wesentlich später.
Hmm...
Wäre aber kein Beinbruch. Mit der XTX würde man das Image-Produkt haben und die viel zahlreicheren Interessenten der XT/XL bei Laune halten (die sich eben nicht die Schnellkoch- sondern nur die normale Heizplatte kaufen wollen). Das ganze würde nur dann nicht funktionieren wenn die XTX schon kaum dem G80 das Wasser reichen könnte...
PCGH_Carsten
2007-02-21, 16:47:14
Jetzt will man offensichtlich die Daten des R600 so lange wie möglich geheim halten, um dann eine art "Bombe" platzen zu lassen.
Ist das wirklich so offensichtlich?
dargo
2007-02-21, 16:49:07
Hmm...
Mit der XTX würde man das Image-Produkt haben und die viel zahlreicheren Interessenten der XT/XL bei Laune halten (die sich eben nicht die Schnellkoch- sondern nur die normale Heizplatte kaufen wollen). Das ganze würde nur dann nicht funktionieren wenn die XTX schon kaum dem G80 das Wasser reichen könnte...
Quatsch. Selbst wenn eine XL langsamer als die GTS wäre kann man vieles über den Preis richten.
reunion
2007-02-21, 16:50:27
Hmm...
Wäre aber kein Beinbruch. Mit der XTX würde man das Image-Produkt haben und die viel zahlreicheren Interessenten der XT/XL bei Laune halten (die sich eben nicht die Schnellkoch- sondern nur die normale Heizplatte kaufen wollen). Das ganze würde nur dann nicht funktionieren wenn die XTX schon kaum dem G80 das Wasser reichen könnte...
Trotzdem hätte man keinen einzigen Cent verdient, solange die Karten nicht lieferbar wären. Also warum vorzeitig die Hose runter lassen? Ein Großteil der Käufer kauft sowieso aus dem Bauch heraus, also wenn er eine neue Karte "braucht".
Ist das wirklich so offensichtlich?
Es ist eine mögliche Variante. Alles andere als eine taktische Überlegung würde die späte Reaktion IMHO nicht rechtfertigen.
Quatsch. Selbst wenn eine XL langsamer als die GTS wäre kann man vieles über den Preis richten.
Welche Specs wird die denn nun haben?
Ich behaupte mal, das die Schwelle selbst bei der GTS noch zu hoch liegt um die Masse zu begeistern. Mehr als 250 € sollte so eine Mittelklasse Karten nicht kosten, einige ziehen die Grenze wohl schon bei 199 €... würde ich nämlich auch tun, weil ich weiß, das die jetzigen Karten alles andere als perfekt sind ... frühestens mit PCIe 2.0 und 65nm würde ich wieder mehr investieren.
Ach übrigens:
R600 in das zweite Quartal 2007 verschoben? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/r600_quartal_2007/)
desert
2007-02-21, 16:57:21
Also tut mir leid, das ist doch einfach nur der gau für ati. Da hilft doch alles schön reden nichts mehr. Was für einen Eindruck macht das auf die zukünftigen Käufer.
Die denken doch das da was grandios in die hose gegangen ist, und da hilft auch kein schön reden mehr ala "bombe platzen lassen oder r600 besser aufstellen".
der r600 wird also genauso untergehen wie der r520.
Hauwech
2007-02-21, 16:59:42
Trotzdem hätte man keinen einzigen Cent verdient, solange die Karten nicht lieferbar wären. Also warum vorzeitig die Hose runter lassen? Ein Großteil der Käufer kauft sowieso aus dem Bauch heraus, also wenn er eine neue Karte "braucht".
Es ist eine mögliche Variante. Alles andere als eine taktische Überlegung würde die späte Reaktion IMHO nicht rechtfertigen.
Mit dem Zurückhalten von Hardware verdiene ich aber auch keinen Cent.
Edit: Warum soll ich sie oben lassen wenn ich weiss, das mein Produkt das Konkurrenzprodukt regelrecht zersägen kann, ich dem anderen Hersteller aber noch mehr Zeit gebe sein Produkt ohne grossartige Konkurrenz zu verkaufen? Vor allem in einem Preisbereich, wo nicht mal so eben jeder zuschlägt.
Denjenigem, der aus dem Bauch heraus entscheidet das er eine neue Karte braucht, ist das sowas von egal ob das Topmodell nun lieferbar ist oder nicht da er in einem völlig anderen Preisbereich einkauft. Und da ist eben noch egaler ob nun A oder B schon seine Hosen runtergelassen hat oder nicht. Weder G86/4 ist draussen, noch RV630/10.
Quatsch. Selbst wenn eine XL langsamer als die GTS wäre kann man vieles über den Preis richten.Ob man eine Karte mit einem 512-bittigem Speicherinterface billiger verkaufen kann als eine 8800GTS, wenn man dabei noch ordentlich Gewinn machen möchte?
dargo
2007-02-21, 17:01:22
Welche Specs wird die denn nun haben?
Wenn ich das wüßte ...
Ich behaupte mal, das die Schwelle selbst bei der GTS noch zu hoch liegt um die Masse zu begeistern. Mehr als 250 € sollte so eine Mittelklasse Karten nicht kosten, einige ziehen die Grenze wohl schon bei 199 €...
Da hast du wohl recht. Dann mach einfach aus der XL eine GTO/GT.
Ob man eine Karte mit einem 512-bittigem Speicherinterface billiger verkaufen kann als eine 8800GTS, wenn man dabei noch ordentlich Gewinn machen möchte?
Stell die Frage mal anders - kann man Gewinn mit einer nicht existierenden Karte machen? Oder um Monate verschobenen?
...
der r600 wird also genauso untergehen wie der r520.
Also gar nicht, denn der schippert doch, da er in der Praxis ein tolles Produkt mit nur wenigen Nachteilen im Vergleich zu seinem Nachfolger ist, noch ganz gut auf allen Weltmeeren herum.
reunion
2007-02-21, 17:03:39
Mit dem Zurückhalten von Hardware verdiene ich aber auch keinen Cent.
Zurückhalten tut man die Karten natürlich nicht. Nur will man möglicherweise auf einen Paperlaunch verzichten.
Ach übrigens:
R600 in das zweite Quartal 2007 verschoben? (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/r600_quartal_2007/)
Computerbase schreibt wirklich nur einen Mist zusammen, wenn es um Grafikkarten geht.
Die waren mal auf einem anderen Niveau, aber Hits scheinen wohl beliebter zu sein.
desert
2007-02-21, 17:05:26
Jo hat sich ja verkauft wie geschnitten brot, weil alle ja nicht wussten das der x1900 auch noch kommt, und das nur 2 monate später.
reunion
2007-02-21, 17:06:42
Also gar nicht, denn der schippert doch, da er in der Praxis ein tolles Produkt mit nur wenigen Nachteilen im Vergleich zu seinem Nachfolger ist, noch ganz gut auf allen Weltmeeren herum.
Genau so ist es. Inzwischen kommt im Thread auch schon wieder eine richtige "R520-Stimmung" auf. Aber vielleicht will das AMD ja sogar. Damals kam man mit genau den gleichen Argumenten, warum R520 unterliegen würde.
Computerbase schreibt wirklich nur einen Mist zusammen, wenn es um Grafikkarten geht.
Die waren mal auf einem anderen Niveau, aber Hits scheinen wohl beliebter zu sein.
Das würde ich nicht behaupten, denn sie stützen sich auf ein Zitat eines AMD Mitarbeiters:
Gegenüber den Kollegen von xBit Labs äußerte sich AMD wie folgt:
Zitat:
“To better align our strategy with current market opportunities, we’ve changed the launch plan for R600. We are going to deliver a competitive configuration to market with an extremely attractive combination of performance, features and pricing, targeting a broader market segment in Q2.”
Das würde ich nicht behaupten, denn sie stützen sich auf ein Zitat eines AMD Mitarbeiters:
Die Strategie ist durchaus nachzuvollziehen. Mit Windows Vista ist gerade erst das fertige Betriebssystem als Grundlage geschaffen worden, wirkliche DirectX-10-Anwendungen wird es vor Mitte des Jahren kaum geben.
Ein r600 und auch ein G80 funktionieren nicht nur unter D3D10. Sie sind grandiose DX9/8/7 und OpenGL Karten.
Sie schreiben einfach nur ab, um eine Nachricht zu haben. Kritisch sich darüber zu äußern scheint wohl bei denen ein No-Go zu sein.
reunion
2007-02-21, 17:22:44
Edit: Warum soll ich sie oben lassen wenn ich weiss, das mein Produkt das Konkurrenzprodukt regelrecht zersägen kann, ich dem anderen Hersteller aber noch mehr Zeit gebe sein Produkt ohne grossartige Konkurrenz zu verkaufen? Vor allem in einem Preisbereich, wo nicht mal so eben jeder zuschlägt.
Wenn ich jetzt schon die Hose runter lassen, aber erst in ein oder zwei Monaten liefern kann, dann geben ich der Konkurrenz frühzeitig wichtige Infos preis, und lassen dieser damit unnötig viel Zeit zu reagieren. Für was? Damit ich ev. eine geringe Zahl an Usern dazu bewegen kann, auf meine Karte zu warten. Ob das dafür steht?
Denjenigem, der aus dem Bauch heraus entscheidet das er eine neue Karte braucht, ist das sowas von egal ob das Topmodell nun lieferbar ist oder nicht da er in einem völlig anderen Preisbereich einkauft. Und da ist eben noch egaler ob nun A oder B schon seine Hosen runtergelassen hat oder nicht. Weder G86/4 ist draussen, noch RV630/10.
Wenn du glaubst, dass eine relevante Anzahl an Usern selbst im High-End-Segment erst dann einkauft, wenn man den Markt umfassend analysiert hat, dann irrst du IMO gewaltig. Dagegen sprechen alleine schon 400.000 verkaufte G80-Cores. Auch den OEMs interessiert eine Show ohne lieferbare Karten wenig. Alle wichtigen OEMs, sowie alle wichtigen Entwickler haben ohnehin längst einen R600 zu testen.
paul.muad.dib
2007-02-21, 17:31:47
Wann soll denn der G80 Nachfolger kommen? Muss sich R600 dann schon mit dem messen?
Aber nüchtern betrachtet ist es doch üblich, dass ATI etwas später als Nvidia kommt. Das war bei allern Radeons außer der 9700 pro so.
Rogue
2007-02-21, 17:35:47
"ETWAS" Später ? *grööööl*
seahawk
2007-02-21, 17:43:15
Wann soll denn der G80 Nachfolger kommen? Muss sich R600 dann schon mit dem messen?
Man weiss es nicht. Es gibt Gerüchte über einen 80nm Shrink und es wird sicherlich einen G90(?) in 65nm geben, aber genauso gut kann man fragen wie sehr NV und TSMC die Produktion und den Prozess des G80s in nun bald 6 Monaten verbessern konntne und was der G80 noch hergibt.
laser114
2007-02-21, 17:45:52
Ein r600 und auch ein G80 funktionieren nicht nur unter D3D10. Sie sind grandiose DX9/8/7 und OpenGL Karten.
Sie schreiben einfach nur ab, um eine Nachricht zu haben. Kritisch sich darüber zu äußern scheint wohl bei denen ein No-Go zu sein.
Was will ich denn jetzt an einer Aussage dieses Mitarbeiters kritisch äußern? Das eventuell die News gefälscht ist?
Übrigens:
Heute morgen gab es bereits erste Gerüchte und nun ist es offiziell: Der R600-Chip wird nicht Ende März der Öffentlichkeit präsentiert, wie ATi uns soeben telefonisch mitteilte.
(Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/offiziell_atis_r600-gpu_quartal/))
Sie hatten also recht. ;)
paul.muad.dib
2007-02-21, 17:55:17
"ETWAS" Später ? *grööööl*
Naja, sie kommen zumindest noch in der Lebenszeit des Konkurrenzproduktes.
reunion
2007-02-21, 18:08:19
Was will ich denn jetzt an einer Aussage dieses Mitarbeiters kritisch äußern? Das eventuell die News gefälscht ist?
Übrigens:
(Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/offiziell_atis_r600-gpu_quartal/))
Sie hatten also recht. ;)
Toll. Reicht dir die Aussage eines ATi-Mitarbeiters nicht? Brauchst du da wirklich vorher die Bestätigung von CB? :crazy:
Hauwech
2007-02-21, 18:12:12
Zurückhalten tut man die Karten natürlich nicht. Nur will man möglicherweise auf einen Paperlaunch verzichten.
Paperlaunch oder nicht, jeder Tag an dem keine Karten verkauft werden, kostet ATI Geld.
Wenn ich jetzt schon die Hose runter lassen, aber erst in ein oder zwei Monaten liefern kann, dann geben ich der Konkurrenz frühzeitig wichtige Infos preis, und lassen dieser damit unnötig viel Zeit zu reagieren.
Ja ganz prima, Nvidia hat absolut keine Ahnung wie der R600 einzuschätzen ist, oder was? Nach dem NV30 Debakel sind die bestimmt nicht so blauäugig. Entweder a) ein G80 in 80nm ist schon in der Planung und kommt sowieso oder b) es gibt einfach keinen bis zum Refresh/Nachfolger in 65nm zum Ende des Jahres oder c) es wird einen G80 "Ultra" geben der trotzdem ziemlich kurzfristig realisiert werden kann. Im Gegensatz zu den dann schon verkauften R600 Einheiten, was dann auch nicht viele sein dürften, dürfte das Nvidia mit den schon verkauften Einheiten im Rücken auch nicht sehr weh tun.
Wenn du glaubst, dass eine relevante Anzahl an Usern selbst im High-End-Segment erst dann einkauft, wenn man den Markt umfassend analysiert hat, dann irrst du IMO gewaltig. Dagegen sprechen alleine schon 400.000 verkaufte G80-Cores. Auch den OEMs interessiert eine Show ohne lieferbare Karten wenig.
Schauen wir mal:
- kam zum Weihnachtsgeschäft raus
- Leistung liegt meistens deutlich über G71 und dem R580 und die ist hier und jetzt nutzbar
- "neu" Bonus dank Vista und DX10
- in der Preisklasse haben die meisten Leute schon gute Karten und können die auch noch entsprechend verkaufen womit der Aufpreis auf die neue Karte recht moderat ausfallen dürfte.
- KEINE KONKURRENZ WEIT UND BREIT FÜR MONATE
Und da wunderst du dich wenn schon so viele Leute zum G80 gegriffen haben?
laser114
2007-02-21, 18:17:26
Toll. Reicht dir die Aussage eines ATi-Mitarbeiters nicht? Brauchst du da wirklich vorher die Bestätigung von CB? :crazy:
Wieso richtest du die Frage an mich und nicht an den Gast? Ich wollte nur seinen Unsicherheiten den Wind aus den Segeln zu nehmen, und außerdem sind 2 unabhängige (!) Quellen deutlich sicherer als nur eine. OK? ;)
reunion
2007-02-21, 18:28:01
Paperlaunch oder nicht, jeder Tag an dem keine Karten verkauft werden, kostet ATI Geld.
Richtig, nur ändert einen Paperlaunch daran genau gar nichts.
Ja ganz prima, Nvidia hat absolut keine Ahnung wie der R600 einzuschätzen ist, oder was? Nach dem NV30 Debakel sind die bestimmt nicht so blauäugig. Entweder a) ein G80 in 80nm ist schon in der Planung und kommt sowieso oder b) es gibt einfach keinen bis zum Refresh/Nachfolger in 65nm zum Ende des Jahres oder c) es wird einen G80 "Ultra" geben der trotzdem ziemlich kurzfristig realisiert werden kann. Im Gegensatz zu den dann schon verkauften R600 Einheiten, was dann auch nicht viele sein dürften, dürfte das Nvidia mit den schon verkauften Einheiten im Rücken auch nicht sehr weh tun.
Einschätzen ist gut. Natürlich wird nV gewisse Vorstellungen haben, und natürlich werden sie was in der Hinterhand halten, aber im Endeffekt kann man nur spekulieren, solange man keine umfassenden Informationen aus ersten Hand erhält. Auch ging es mir dabei weniger um die Performance, sondern viel mehr um mögliche neue Features und Architekturdetails. R520 hätte bsw. mit Sicherheit zu beginn kein AAA unterstützt, wenn dies nicht mit G70 bei nV gekommen wäre. Auch bereichert man sich als Entwickler natürlich auch an den Konkurrenzprodukten.
Schauen wir mal:
- kam zum Weihnachtsgeschäft raus
- Leistung liegt meistens deutlich über G71 und dem R580 und die ist hier und jetzt nutzbar
- "neu" Bonus dank Vista und DX10
- in der Preisklasse haben die meisten Leute schon gute Karten und können die auch noch entsprechend verkaufen womit der Aufpreis auf die neue Karte recht moderat ausfallen dürfte.
- KEINE KONKURRENZ WEIT UND BREIT FÜR MONATE
Und da wunderst du dich wenn schon so viele Leute zum G80 gegriffen haben?
Ein Produkt zu kaufen, ohne das Konkurrenzprodukt zu kennen, muss nicht immer schlau sein. Auch war das nur ein Aspekt meiner argumentation.
Wieso richtest du die Frage an mich und nicht an den Gast?
Ja, sorry. Habs erst später geschnallt.
drmaniac
2007-02-21, 18:28:46
Offiziell: ATis R600-GPU erst im zweiten Quartal
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/offiziell_atis_r600-gpu_quartal/
einfach nur noch zum kotzen! Das hat man davon das man abwartet...
wenn das so weitergeht ist bald ein ganzes Jahr zwischen ATI und NVIDIA
Henroldus
2007-02-21, 18:37:34
und schon nimmt der sinkflug der 8800er preise mangels konkurrenz sein ende:
http://geizhals.at/deutschland/?phist=225880&age=28
GTS lieferbar ab 350 eur :eek:
die 299eur für ne 640MB Karte rücken erstmal wieder in die ferne ;(
(+44)
2007-02-21, 18:41:52
Gut dass ich meine GTS640 noch um 325€ bestellt hab.
Auch gut, wenn der R600 nich so schnell kommt, das entwertet meine Karte nicht so krass ;)
Insgesamt find ich ATi's Verhalten unter aller Sau, wer schon vor Monaten zu ner 8800GTX gegriffen hat braucht keinen R600 wenn er vllt 30% schneller ist - und wer gewartet hat schaut jetzt dumm aus der Wäsche, entweder er kauft nen G80 der in ein paar Monaten vom R600 geschlagen wird, oder er wartet sich weiter dumm.
laser114
2007-02-21, 18:42:17
und schon nimmt der sinkflug der 8800er preise mangels konkurrenz sein ende:
http://geizhals.at/deutschland/?phist=225880&age=28
GTS lieferbar ab 350 eur :eek:
Sieht ja schrecklich aus ... wenn das jetzt nicht zufällig eingetroffen ist, dafür fällt es aber eigentlich zu stark ins Auge.
Hat allerdings auch was gutes: Scheint so als ob nvidia auch keine genügend informierte Insider hatte und daher schon mal etwas vorsorgte. ;)
Mark3Dfx
2007-02-21, 18:49:43
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/offiziell_atis_r600-gpu_quartal/
"To better align our strategy with current market opportunities, we’ve changed the launch plan for R600.
We are going to deliver a competitive configuration to market with an extremely attractive combination of performance, features and pricing, targeting a broader market segment in Q2.."
Die gelbe Eule
2007-02-21, 18:54:27
Nun können die 9700pro User noch länger warten ^^
Entweder ist der Ausbeute unter 80nm extrem mies oder die gewünschten Taktraten konnte man nicht stabil halten. Bin gespannt wie NV nun reagiert, weil 80nm ist nun auch Thema für sie.
Zurückhalten tut man die Karten natürlich nicht. Nur will man möglicherweise auf einen Paperlaunch verzichten.
Und welchen taktischen Vorteil soll das deiner Meinung nach bringen? Das ist doch Nonsens. Wenn die Karte so gut wäre wie es einige hier erhoffen, dann wäre der Paperlaunch die einzig taktisch kluge Alternative, um Kunden vom Kauf eines G80 abzuhalten..
seahawk
2007-02-21, 18:59:19
Das Zurüchhalten des R600 macht, nur auf den R600 gesehen, absolut keinen Sinn. Er macht nur Sinn wemm es :
a) echte technische Probleme gibt
oder
b) andere ernste Gründe diese Entscheidung notwendig machen.
b, wäre z.B., dass man sowieso so gut wie keine Karten liefern könnte und man die R600.Karte mit den RV610+RV630 zusammen launchen möchte, ebtl. weil RV610 und RV630 (oder auch R600 alleine) enttäuschend wäre.
Die Reaktion der G80 Preise sind allerdings eine deutliche Ansage. Anscheinend erwarten die Händler, dass viele Unentschlossene jetzt ne G80 kaufen und sie dürften wohl noch mit einer längeren Periode ohne G80 rechnen,
reunion
2007-02-21, 18:59:59
Und welchen taktischen Vorteil soll das deiner Meinung nach bringen? Das ist doch Nonsens. Wenn die Karte so gut wäre wie es einige hier erhoffen, dann wäre der Paperlaunch die einzig taktisch kluge Alternative, um Kunden vom Kauf eines G80 abzuhalten..
Anno 2006, vor G80-Launch: "Wenn G80 wirklich so gut wäre wie es einige hier erhoffen, dann wäre ein Paperlaunch die einzig taktisch kluge Alternative, um Kunden vom Kauf eines R580 abzuhalten."
Und das ließe sich beliebig fortsetzten. Auch R520 war kein reiner Paperlaunch, obwohl er keineswegs schlecht war und man lauffähige Samples natürlich schon viel früher hatte.
laser114
2007-02-21, 19:01:08
Die Reaktion der G80 Preise sind allerdings eine deutliche Ansage. Anscheinend erwarten die Händler, dass viele Unentschlossene jetzt ne G80 kaufen und sie dürften wohl noch mit einer längeren Periode ohne G80 rechnen,
Genau das sehe ich auch. Vielleicht war dies jedoch auch von ATI erhofft, um diesen Effekt abzubremsen und sie so weiter werkeln können.
Was ich mir auch vorstellen kann: Das ATI sich von den letzten Gerüchten lossagen möchte in dem man die Karte nochmal überarbeitet.
seahawk
2007-02-21, 19:01:14
R520 war sehr nah am Paperlaunch.
reunion
2007-02-21, 19:06:53
Die Reaktion der G80 Preise sind allerdings eine deutliche Ansage. Anscheinend erwarten die Händler, dass viele Unentschlossene jetzt ne G80 kaufen und sie dürften wohl noch mit einer längeren Periode ohne G80 rechnen,
Natürlich. Die Händler können alle in die Zukunft schauen. Der Preis der G80-GPUs sinkt schon seit einigen Wochen nur mehr marginal. Es gab den üblichen Preisanstieg, nach einem Launch mit geringeren Stückzahlen als der Markt forderte, und jetzt hat sich das ganze normalisiert. Die Listenpreise von nV sind unverändert. Angebot und Nachfrage regeln den Markt.
The_Invisible
2007-02-21, 19:08:23
und schon nimmt der sinkflug der 8800er preise mangels konkurrenz sein ende:
http://geizhals.at/deutschland/?phist=225880&age=28
GTS lieferbar ab 350 eur :eek:
die 299eur für ne 640MB Karte rücken erstmal wieder in die ferne ;(
ähm, es hat bisher nie konkurrenz für g80 gegeben.
außerdem ist das eine karte, der preis ist ansonsten stabil
mfg
reunion
2007-02-21, 19:08:47
R520 war sehr nah am Paperlaunch.
Die Stückzahlen waren zu beginn sicherlich gering aber man konnte sie kaufen wenn man Glück hatte, und es dauerte auch nicht lange, bis ausreichende Menge vorhanden waren. Einen Paperlaunch hätte man schon Monate vorher machen können.
Anno 2006, vor G80-Launch: "Wenn G80 wirklich so gut wäre wie es einige hier erhoffen, dann wäre ein Paperlaunch die einzig taktisch kluge Alternative, um Kunden vom Kauf eines R580 abzuhalten."
Also man sollte hier schon dieselbe Generation vergleichen, außerdem hat die GF7900 sicher genug Leute von Kauf eines R580 abgehalten, wie man an Nvidias Geschäftszahlen sieht. Einen Paperlaunch hat nur der nötig, der hinten liegt (siehe auch NV30) und das war hier nicht der Fall.
Henroldus
2007-02-21, 19:13:40
Die Börse "weiss" es ja schon lange:
http://img470.imageshack.us/img470/4531/amdbg0.png (http://imageshack.us)
seahawk
2007-02-21, 19:14:19
Natürlich. Die Händler können alle in die Zukunft schauen. Der Preis der G80-GPUs sinkt schon seit einigen Wochen nur mehr marginal. Es gab den üblichen Preisanstieg, nach einem Launch mit geringeren Stückzahlen als der Markt forderte, und jetzt hat sich das ganze normalisiert. Die Listenpreise von nV sind unverändert. Angebot und Nachfrage regeln den Markt.
Wir reden hier ja nicht mehr von Monaten und die Händler können über ihre Lieferanten 4-8 Wochen in die Zukunft sehen. Liefertermine, Stückzahl usw. wird denen ja auch ausreichend lange vorher mitgeteilt.
Die gelbe Eule
2007-02-21, 19:14:42
Und wohin darf man nun spekulieren? Nichtmal die Gerüchte waren ansatzweise richtig. Entweder kommt jetzt der Überchip oder einfach nur das was wir vorher erwartet haben.
laser114
2007-02-21, 19:15:26
Die Börse "weiss" es ja schon lange:
Das ist allerdings der Aktienkurs von AMD, und die Prozessorsparte (also die "Ursparte") dürfte da einen nicht unwesentlichen Einfluss haben, sowie die Gewinne / Verluste der letzten Zeit.
Und da liegt der harte Preiskampf mit Intel, siehe auch dessen Börsendaten - sieht auch nicht viel besser aus, trotz C2D.
Daran kann man das nicht wirklich ablesen...
reunion
2007-02-21, 19:16:33
Die Börse "weiss" es ja schon lange:
http://img470.imageshack.us/img470/4531/amdbg0.png (http://imageshack.us)
Nach der Präsentation des letzten AMD-Quartalsergebnisses kein Wunder. :rolleyes:
Entweder ist der Ausbeute unter 80nm extrem mies oder die gewünschten Taktraten konnte man nicht stabil halten. Bin gespannt wie NV nun reagiert, weil 80nm ist nun auch Thema für sie.
Vielleicht ist es gewollt ...
Aus Herstellersicht macht es zwar nicht so großen Sinn der Konkurrenz den Vortritt zu lassen, aber andererseits hat AMD nun mehr Zeit, den Fertigungsprozess zu optimieren und vielleicht noch an den Taktraten zu schrauben.
Mir wäre es ziemlich egal, wenn die Karte später kommt, dafür aber besser wird als zuerst geplant. :)
"
We are going to deliver a competitive configuration to market with an extremely attractive combination of performance, features and pricing, targeting a broader market segment in Q2.."
Auwei, richtig übersetzt heisst das: unser Chip ist nicht high-end tauglich und wir können nur im Midrange-Segment antreten mit gutem P/L Verhältnis (extremely attractive combination of performance, features and pricing), weil da mehr davon abgesetzt wird (broader market segment).
reunion
2007-02-21, 19:18:23
Wir reden hier ja nicht mehr von Monaten und die Händler können über ihre Lieferanten 4-8 Wochen in die Zukunft sehen. Liefertermine, Stückzahl usw. wird denen ja auch ausreichend lange vorher mitgeteilt.
Ich bitte dich. Die Preise von nV sind unverändert. Was bis vor kurzem statt fand, war der Preiskampf unter den Händlern. Man muss nicht überall etwas hineininterpretieren.
Henroldus
2007-02-21, 19:19:25
Das ist allerdings der Aktienkurs von AMD..
ist mir durchaus bewusst gewesen, allerdings gibt es die aktie ATI nicht mehr und das Gegenbeispiel sieht man hier:
http://www.finanztreff.de/ftreff/kurse_einzelkurs_charts.htm?u=0&k=0&seite=kurse&s=NVDA&l=840&b=16&n=NVIDIA%20Corporation&popup=0&zeit=600&zeitraum=0&typ=0&vgl=&raster=1&hochtief=0&berg=0&umsatz=1&benchmark=0&i1=0&i2=0&d1=38&d2=200&edit=1
laser114
2007-02-21, 19:19:57
Auwei, richtig übersetzt heisst das: unser Chip ist nicht high-end tauglich und wir können nur im Midrange-Segment antreten mit gutem P/L Verhältnis (extremely attractive combination of performance, features and pricing), weil da mehr davon abgesetzt wird (broader market segment).
Meinst du das da wirklich herauslesen zu können?
Für mich ist da lediglich blabla, da hat jemand gesagt "Schreib mal eine Pressemittelung in der drinn steht das der R600 in Q2 kommt, dann aber wirklich 'Klasse' ist". Also lediglich eine Verpackung für diese Info, und eine "Begründung", sofern man das so nennen kann.
@Henroldus: Ja, nivida hat auch sehr gute Zahlen vorgelegt. 400.000 abgesetzte Geforce-8-Karten sind auch etwas. Nur kann man eben nicht direkt mit ATI vergleichen, weil es die nicht mehr gibt...
Wie stehts eigentlich um die Lieferbarkeit von 1,2 GHz GDDR4?
Auf der X1950 XTX wurde meines wissens 0.91ns (1100MHz) verbaut.
Aber wenn der R600 mit 1100 MHz daher kommen soll, wird da wahrscheinlich schon 0.83ns (1200MHz) nötig, welcher vielleicht jetzt noch nicht in ausreichenden Stückzahlen verfügbar ist?
reunion
2007-02-21, 19:21:27
Also man sollte hier schon dieselbe Generation vergleichen, außerdem hat die GF7900 sicher genug Leute von Kauf eines R580 abgehalten, wie man an Nvidias Geschäftszahlen sieht. Einen Paperlaunch hat nur der nötig, der hinten liegt (siehe auch NV30) und das war hier nicht der Fall.
Warum sollte man nur gleiche Generationen vergleichen? Es gab jedenfalls bis zum G80-Launch auch noch genug Leute, die sich einen R580 um >400€ gekauft haben. Mit einem G80-Paperlaunch hätte man viele davon mit Sicherheit abgehalten. Warum hat man das nach deiner Logik also nicht gemacht?
Die gelbe Eule
2007-02-21, 19:30:01
Wie stehts eigentlich um die Lieferbarkeit von 1,2 GHz GDDR4?
Auf der X1950 XTX wurde meines wissens 0.91ns (1100MHz) verbaut.
Aber wenn der R600 mit 1100 MHz daher kommen soll, wird da wahrscheinlich schon 0.83ns (1200MHz) nötig, welcher vielleicht jetzt noch nicht in ausreichenden Stückzahlen verfügbar ist?
Ist in Massenfertigung, also lieferbar.
Ist in Massenfertigung, also lieferbar.
Ja, das steht so auf der Seite... aber wieviele Stückzahlen? Lieferbar heißt noch lange nicht, "ausreichend" verfügbar!
Außerdem war in den (falschen?) Vorabinformationen ja die Rede davon, das außer bei den High End Modellen 900 MHz GDDR3 zum Einsatz kommt. Welchen Sinn macht das noch?
@Henroldus: Ja, nivida hat auch sehr gute Zahlen vorgelegt. 400.000 abgesetzte Geforce-8-Karten sind auch etwas. ...
Wirklich?, 380 000 davon liegen in regalen von tausenden pc shops, saturns, mediamarkts und anderen händlern weltweit . Wie viele verkauft wurden weist keiner. Es wurden 400 000 an die händler ausgeliefert.
Ja, das steht so auf der Seite... aber wieviele Stückzahlen? Lieferbar heißt noch lange nicht, "ausreichend" verfügbar!
Außerdem war in den (falschen?) Vorabinformationen ja die Rede davon, das außer bei den High End Modellen 900 MHz GDDR3 zum Einsatz kommt. Welchen Sinn macht das noch?
Die Verfügbarkeit von schnellen GDDR4 Speicher ist garantiert nicht der Grund für die Verspätung, die haben höchswahrscheinlich ganz andere Probleme. Wenn man schon den monströsen Kühler der OEM / Prototyp Karte oder was immer das war, gesehen hat, und Aussagen von Insidern wie zu "Beginn brauchte R600 fast 1 Watt pro Mhz", dann war eigentlich klar, dass der R600 in der jetzigen Form ein "Rohrkrepierer" sein wird. Entweder überarbeitet ATi den R600 um später mit Nv um die Speedkrone konkurrieren zu können oder sie fokussieren ihren Schwerpunkt und Ressourcen auf den Mainstreammarkt, denn da ist noch alles offen, und greifen dann erst wieder mit dem R700 an. Ich glaube an letzteres.
Warum sollte man nur gleiche Generationen vergleichen? Es gab jedenfalls bis zum G80-Launch auch noch genug Leute, die sich einen R580 um >400? gekauft haben. Mit einem G80-Paperlaunch hätte man viele davon mit Sicherheit abgehalten. Warum hat man das nach deiner Logik also nicht gemacht?
Hat denn irgendjemand so dringend auf den G80 gewartet, dass es Sinn gemacht hätte?
Wirklich?, 380 000 davon liegen in regalen von tausenden pc shops, saturns, mediamarkts und anderen händlern weltweit . Wie viele verkauft wurden weist keiner. Es wurden 400 000 an die händler ausgeliefert.
Das reicht doch, damit es in Nvidias Kassen klingelt, am Kartenverkauf verdienen die doch nichts.
laser114
2007-02-21, 20:20:25
Wirklich?, 380 000 davon liegen in regalen von tausenden pc shops, saturns, mediamarkts und anderen händlern weltweit . Wie viele verkauft wurden weist keiner. Es wurden 400 000 an die händler ausgeliefert.
Diese Karte landen im Normalfall nicht im Ladenhandel, jedenfalls nicht bei großen Ketten. Da muss man ja froh sein wenn man mal eine 7900 GS findet, selbstverständlich bei über 200 Euro.
Diese 400.000 Stück sind schon eine Leistung, auch wenn die natürlich bei weitem nicht Stückzahlen erreichen, die man im Low-End-Segment erreicht. Man kann das ja mal auf Hersteller und Modelle hochrechnen, da bleiben < 4000 Stück je Modell.... (im Durchschnitt selbstverständlich), und in Asien etc. gibt es sicher auch noch ein paar exklusive Produkte.
Abgesehen davon wurde nvidia bezahlt, mehr wollen die gar nicht.
Und ein Paperlaunch ist eben nicht mehr als ein "Rumprotzen", ohne das man was handfestes hat. Die Konzerne, insbesondere AMD. wo eben jetzt noch die Prozessor (Server-) Sparte dranhängt, wo man einen seriösen Namen braucht, wollen das wahrscheinlich eher nicht... aus den ersten Erfahrungen sind die wohl raus. ;)
Das reicht doch, damit es in Nvidias Kassen klingelt, am Kartenverkauf verdienen die doch nichts.
So siehts aus.
nVidia hat 400k Karten an ihre Partner verkauft. Den Rest interessiert nicht mehr.
paul.muad.dib
2007-02-21, 21:18:26
Wirklich?, 380 000 davon liegen in regalen von tausenden pc shops, saturns, mediamarkts und anderen händlern weltweit . Wie viele verkauft wurden weist keiner. Es wurden 400 000 an die händler ausgeliefert.
Das kann Nvidia doch erstmal egal sein. Sie haben ihr Geld erhalten.
K4mPFwUr$t
2007-02-21, 21:25:56
@laser114
der gast meint damit sicher, das viele leute CB alles glauben was sie schreiben.
wobei CB nur zu gerne abschreibt und dann noch nichtmal eine eigene meinung dazu schreibt. des öfteren glänzt die seite durch bild neveau
@paul.muad.dib
jup, nVidia intressiert nicht wieviel eigentliche karten verkauft wurden sind. sondern wieviele GPUs sie los werden könnten ;)
Paul Brain
2007-02-21, 21:30:56
Trotzdem hätte man keinen einzigen Cent verdient, solange die Karten nicht lieferbar wären. Also warum vorzeitig die Hose runter lassen? Ein Großteil der Käufer kauft sowieso aus dem Bauch heraus, also wenn er eine neue Karte "braucht".Das gilt IMHO aber nicht im HighEnd-Bereich; da sind die Käufer für gewöhnlich sehr gut informiert und wissen ganz genau, was sie wollen...
laser114
2007-02-21, 21:43:43
@laser114
der gast meint damit sicher, das viele leute CB alles glauben was sie schreiben.
wobei CB nur zu gerne abschreibt und dann noch nichtmal eine eigene meinung dazu schreibt. des öfteren glänzt die seite durch bild neveau
Also in diesem Fall ist das ziemlich unpassend.
Bild-Niveau würde ich übrigens anderen Newsseiten zuordnen, z. B. dem Inquirer. Dagegen bietet Computerbase schon eher echte News, auch wenn die natürlich nicht alles perfekt machen (allerdings wüsste ich keine andere deutschsprachige Website, die über ein so großes breites Spektrum alles an News qualitätsmäßig noch vernünftig abdeckt). Hängt auch sehr vom Autor ab, der steht bei CB ja auch dabei.
Aber darum gehts hier wohl nicht...
Ich seh das im High-End-Markt übrigens auch wie Paul Brain. Aber AMD (ATI) wird sich schon was bei denken...
Also in diesem Fall ist das ziemlich unpassend.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5271245&postcount=1
Nein, es past schon.
laser114
2007-02-21, 22:23:26
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5271245&postcount=1
Ja, man kann sich auch auf diese Quelle beziehen, kommt ja auch direkt vom "Hersteller" (Pressemitteilung).
Ich weiß ehrlich gesagt nicht, was du hast - die News ist doch OK.
Eine (komplexe) Wertung will ich in Berichterstattung gar nicht haben, das ist ja kein Kommentar...
deekey777
2007-02-21, 22:26:52
Eine kurze Zusammenfassung:
Der R600 wurd um mindestens einen Monat verschoben. Was kann die Ursache dafür sein?
Man will das R520-Desaster nicht wiederholen: Zwei X1800er vorgestellt, aber nur X1800XL in den ersten Wochen geradenoch lieferbar. Die Gerüchteküche hat schon länger angedeutet, dass zunächst nur die XTX-Version vorgestellt und ausgeliefert werden sollte, die schwächeren Versionen sollten mit bis zu einem Monat Verspätung und mehr kommen.
Man will die ganze Familie aufeinmal vorstellen: Die kleineren RV610 und RV630 sollen irgendwann im April/Mai starten. Passt auch irgendwie. Insbesondere wenn die Performance der kleinen Chips meiner Meinung nach schlechter sein wird als die von G84/G86, da lenkt ein R600 schön von diesem Nachteil ab.
Ein Hardware-Bug ist sehr unwahrscheinlich (Stichwort A13, A15 ist die finale Version).
Danke an reunion und seahawk für die Ideen.
Blutmaul
2007-02-22, 02:18:19
Die Verzögerung lässt mich kalt und ist mir völlig egal, so ein Teil kommt nicht in meinen Rechner.
Ich bin inzwischen bei 400 Watt unter Volllast für das Gesamtsystem und finde das schon unangebracht, die nächsten Upgrades werden so sein, das der Energieverbrauch wieder sinkt.
Das AMDATI nun aufhören soll, High-End-Grafikkarten zu bauen, finde ich allerdings nicht.
Sich vor Problemen zu verkriechen, anstelle sie zu meistern, ist keine erfolgreiche Firmenstrategie.
Stattdessen lieber High-End-Grafik für Low-Energy-Systeme!
Ailuros
2007-02-22, 06:16:27
Eine kurze Zusammenfassung:
Der R600 wurd um mindestens einen Monat verschoben. Was kann die Ursache dafür sein?
Man will das R520-Desaster nicht wiederholen: Zwei X1800er vorgestellt, aber nur X1800XL in den ersten Wochen geradenoch lieferbar. Die Gerüchteküche hat schon länger angedeutet, dass zunächst nur die XTX-Version vorgestellt und ausgeliefert werden sollte, die schwächeren Versionen sollten mit bis zu einem Monat Verspätung und mehr kommen.
Man will die ganze Familie aufeinmal vorstellen: Die kleineren RV610 und RV630 sollen irgendwann im April/Mai starten. Passt auch irgendwie. Insbesondere wenn die Performance der kleinen Chips meiner Meinung nach schlechter sein wird als die von G84/G86, da lenkt ein R600 schön von diesem Nachteil ab.
Ein Hardware-Bug ist sehr unwahrscheinlich (Stichwort A13, A15 ist die finale Version).
Danke an reunion und seahawk für die Ideen.
Es gab vor einigen Tagen einen newsblurb bei xbitlabs ueber den moeglichen Aufkauf von AMD den ich aber komischerweise nicht mehr finden kann (ausser ich bin blind).
Mir klang persoenlich das Ganze viel zu viel uebertrieben und nein ich hab bisher nichts relevantes hoeren koennen. Es hat zwar nichts direkt mit dem R600 Launch zu tun, aber AMD ist generell in einer kritischen Phase und koennte schon aufgeschnappt werden jetzt wo sie relativ schwach sind. Der groesste Nachteil einer solchen These waere dass die ganze "Herum-verkauferei" nicht gern vom Markt generell gesehen wird. Irgendwie wuerde ich auch ein muerbes Gefuehl haben einen grossen Vertrag abzuschliessen, wenn ich nicht wissen wuerde in welchen Haenden morgen eine Firma liegen wird.
Momentan stempelt bitte das obrige als totalen Bullshit ab; ich behalte aber im Hinterkopf dass xbitlabs aus irgend einem Grund den newsblurb (hoechstwahrscheinlich) entfernt hat.
So und jetzt zurueck zum Thema....NV hat anscheinend nichtmal einen Stand auf der Cebit und sie klingen ziemlich gelassen in letzter Zeit.
Was jetzt ATI/AMD betrifft: eine unangenehme Situation kann man schwer schoenreden. Was sowieso schon suboptimal war wurde nur schlechter. In der Zwischenzeit sehe ich in diversen Fora dass das Interesse dank Vista teilweise fuer die 320/GTS Dingsbumse konstant steigt. Jede zusaetzliche Verspaetung ist ein Verlust.
seahawk
2007-02-22, 08:53:11
Also kommt der R600 wohl im Mai.
http://forums.vr-zone.com/showpost.php?p=3303879&postcount=1
mapel110
2007-02-22, 08:56:20
Also kommt der R600 wohl im Mai.
http://forums.vr-zone.com/showpost.php?p=3303879&postcount=1
Vom Treiber nicht unbedingt auf Hardware-Releases schließen. Und außerdem letzten Satz beachten. "This feature timeline is a target..."
März-Release vom R600 war auch mal ein "target".
Ailuros
2007-02-22, 09:03:09
http://www.vr-zone.com/?i=4688
AMD has delayed R600 launch from March to unconfirmed date in Q2 according to INQ and TechPowerup. The reason cited by AMD is that their R600 series is not where they want it to be yet, so they decided to move the launch to be able to deliver a competitive product. We will also see more than just GPU related stuff for the launch in Q2.
However, this decision is no surprise to us. Two weeks back, we have heard that ATi was considering pushing back the schedule for R600. It is mainly due to 2 reasons. AMD wants a hard launch like what NVIDIA has been doing so far so availability of the retail cards at launch is the key. Also AMD is still working on enhancing the performance of the drivers for R600 and we heard that the performance few weeks ago is just almost on par with GeForce 8800GTX and there is a potential to go another 20-30% more. Last week, AMD has decided on the marketing name for R600 as X2900 series so we can presume the performance is already higher than 8800GTX now.
Winter[Raven]
2007-02-22, 09:15:51
Das macht doch keinen Sinn ... solange man nicht weiß. welche Perf.Steigerung der G80 mit den neuen Treibern machen wird... sind die 20-30% nur ein Wunschdenken.
James Ryan
2007-02-22, 09:18:11
http://www.vr-zone.com/?i=4688
Also ich lese daraus dass der R600 schlicht nicht perfomant genug war, "on par with Gf 8800 GTX" reicht nunmal bei weitem nicht aus, vor allem da NVIDIA die Gf 8900 GTX/Gf 8800 GTX "Ultra" eh kurz nach dem R600 präsentieren wird.
Sprich, ATi hat es trotz massiver Verspätung und deutlich mehr Aufwand nicht geschafft, ein perfomanteres Design als G8x zu bringen.
MfG :cool:
Ailuros
2007-02-22, 09:24:48
;5272481']Das macht doch keinen Sinn ... solange man nicht weiß. welche Perf.Steigerung der G80 mit den neuen Treibern machen wird... sind die 20-30% nur ein Wunschdenken.
Eben nicht Winter; beide Architekturen haben noch sehr viel Potential versteckt und man kann es beim G80 schon sehen, egal ob es sich um D3D9.0 oder 10 handelt. Da sich beide IHVs mit voller Pulle auf Vista Treiber konzentrieren und das Ganze so einige extra Arbeit mit sich fuehrt, kostet es auch verdammt viel Zeit.
Du erwartest wohl nicht dass ATI nicht G80 unter die Lupe genommen hat und erahnen kann was man noch aus dem Ding herausquetschen kann? Und ja ich bin immer noch ueberzeugt dass NV den oder die Leistungs-Treiber immer noch im Aermel versteckt hat aus gutem Grund.
Ailuros
2007-02-22, 09:31:07
Also ich lese daraus dass der R600 schlicht nicht perfomant genug war, "on par with Gf 8800 GTX" reicht nunmal bei weitem nicht aus, vor allem da NVIDIA die Gf 8900 GTX/Gf 8800 GTX "Ultra" eh kurz nach dem R600 präsentieren wird.
Wenn es ueberhaupt eine "G81" geben wird; besteht das Rennen nur wer zuerst den schnelleren Treiber rausbringt, dann koennte IMHLO NV sogar mit der 8800GTX auskommen selbst wenn dieser sogar um 10% hinterherhinkt. Ausserdem schrumpft die Zeitspanne zum wahren 65nm G8x Refresh mit jeder Verzoegerung.
Sprich, ATi hat es trotz massiver Verspätung und deutlich mehr Aufwand nicht geschafft, ein perfomanteres Design als G8x zu bringen.
MfG :cool:
Mehr Aufwand wieso? Ganz im Gegenteil; wenn die ersten R600 Architektur-Analysen dann endlich ankommen wird man genau sehen koennen inwiefern das Ding mit Xenos und R5x0 genau verwandt ist. Hingegen ist G80 genau mit welchem vorigen NV-Design verwandt?
maddawn
2007-02-22, 09:46:55
da wir ja hier im Spekulatiusforum sind:
So wie sich die Pressemitteilung liest lese ich daraus das ATI unbedingt die komplette ATI X2x00 Serie komplett auf den Markt bringen möchte und nicht kleckerweise.
ATI erhofft sich wohl so einen besseren Absatz der Grafikkarten.
Außerdem könnte es natürlich sein das ATI ein paar sehr gute Karten sammelt um diese dann höher getaktet als bisher vorgesehen zu veröffentlichen um einen sehr deutlichen Abstand zu den NVidia-Karten zu halten (Paukenschlag) und sie wissen eventuell schon wie schnell der GF 8 Refresh sein wird und dieser soll die ATI-Karte natürlich höchtens einholen nicht aber überholen.
Diese selektierten Karten werden natürlich nicht nur beim GPU-Core höher getaktet nein man will eventuell auch noch schnelleren Speicher verbauen und da ist vielleicht in 1-2 Monaten auch noch etwas möglich.
Auf jeden Fall habe ich das Gefühl das ATI mal wieder das absolut technisch machbare aus den Chips kitzeln will ohne groß Reserven zu haben und hofft damit die Konkurrenz sehr deutlich zu schlagen.
Und sie müssen NVidia sehr deutlich schlagen, mit einem solchen Stromfresser der viiiel später kommt als die GF8 kann ATI nur durch brachiale Leistung punkten.
edit: Ach jetzt lese ich gerade die letzen Posts auf dieser Seite, soll alleine die Treiberentwicklung so viel Potential freisetzen?
Selbst wenn hätten sie ihre Karten pünktlich veröffentlichen sollen, Nachtests hätten dann schon das Blatt gewendet wenn die Treiber wirklich den Unterschied ausmachen.
James Ryan
2007-02-22, 09:55:26
Mehr Aufwand wieso? Ganz im Gegenteil; wenn die ersten R600 Architektur-Analysen dann endlich ankommen wird man genau sehen koennen inwiefern das Ding mit Xenos und R5x0 genau verwandt ist. Hingegen ist G80 genau mit welchem vorigen NV-Design verwandt?
Der Mehraufwand: 512 Bit Speicherinterface, 1 GB V-Ram, 700 Mio. Transistoren, 6 Monate Verspätung.
ATi braucht also viel mehr, um das zu schlagen, was NVIDIA im November mit deutlich weniger "Mitteln" geschafft hat.
Und dass ATi es schlägt, ist noch nicht einmal so sicher!
ATi hat fähige Leute, keine Frage, aber was in letzter Zeit in GPUs reingesteckt wurde (Arbeit, Zeit, Aufwand) und was "hinten raus" kommt, steht in keinem gesunden Verhältnis mehr.
MfG :cool:
Paul Brain
2007-02-22, 09:58:55
edit: Ach jetzt lese ich gerade die letzen Posts auf dieser Seite, soll alleine die Treiberentwicklung so viel Potential freisetzen?
Selbst wenn hätten sie ihre Karten pünktlich veröffentlichen sollen, Nachtests hätten dann schon das Blatt gewendet wenn die Treiber wirklich den Unterschied ausmachen....nur liest kaum mehr jemand die Nachtests, nachdem sich das Ergebnis des "Gigantenduells" schon in den Hirnen festgesetzt hat. Die Leute warten gespannt auf das Release, lesen dann 1, 2, 3 Reviews und haben dann ihre Meinung zu dem Produkt. Diese wird überall herumkommuniziert, die ganze Welt weiß dann, wer "gewonnen" hat; diese Breitenwirkung wirst mit einem Nachtest nichtmal ansatzweise erreichen.
AnarchX
2007-02-22, 10:01:35
Mehr Aufwand wieso? Ganz im Gegenteil; wenn die ersten R600 Architektur-Analysen dann endlich ankommen wird man genau sehen koennen inwiefern das Ding mit Xenos und R5x0 genau verwandt ist. Hingegen ist G80 genau mit welchem vorigen NV-Design verwandt?
Aus diesem Blickwinkel ist es ja eigentlich noch peinlicher, dass man das Produkt erst so spät an der Markt bringt.
Da kann man nur hoffen das ATi endlich aufwacht und die Taktrate in Zukunft nicht mehr als alles entscheidenten Faktor für die Leistung ihrer GPU plant(der R300 zeigt ja das man es auch anders kann).
Zudem hoffe ich, dass sich die oben genannten 20-30% doch nicht auf Filteroptimierungen beziehen, die der R600 brauch um gegen den G80, mit seinen übermächtigen TMUs, unter HQ-AF anzukommen.
Paul Brain
2007-02-22, 10:04:39
Der Mehraufwand: 512 Bit Speicherinterface, 1 GB V-Ram, 700 Mio. Transistoren, 6 Monate Verspätung.
ATi braucht also viel mehr, um das zu schlagen, was NVIDIA im November mit deutlich weniger "Mitteln" geschafft hat.
Und dass ATi es schlägt, ist noch nicht einmal so sicher!
ATi hat fähige Leute, keine Frage, aber was in letzter Zeit in GPUs reingesteckt wurde (Arbeit, Zeit, Aufwand) und was "hinten raus" kommt, steht in keinem gesunden Verhältnis mehr.
Der "Mehraufwand" ist aber sicher nicht zeitlicher Natur. IMHO hat nVidia viel mehr Know-How und Forschung in den G80 gesteckt als ATi beim R600. Das könnte man fast mit der Autoindustrie vergleichen: Die Amerikaner brauchen für 240PS einen fetten, gurgelnden V8 mit enormem Spritverbrauch und Gewicht, wobei bei denen das ganze Auto schwer ist und das Fahrverhalten dadurch leidet -> "Rohpower"; Endgeschwindigkeit ist trotzdem relativ hoch. Die Japaner dagegen investieren etwas Hirn und kommen mit einem 2l-Vierzylinder daher, der dank solcher Innovationen wie variabler Nockenwellensteuerung etc. aus weniger als der Hälfte des Hubraums die gleiche Leistung kitzelt, und das bei weit weniger Spritverbrauch.
Genau so kommts mir momentan bei ATi vs. nVidia vor...
Winter[Raven]
2007-02-22, 10:11:05
der R300 zeigt ja das man es auch anders kann
Nicht umsonst sieht man in der R3XX Reihe eine Eintagsfliege...
@ Paul Brain
Fullack ;)
robbitop
2007-02-22, 10:11:53
Da so viele auf den Refresh vom G80 spekulieren im Zusammenhang mit der R600 Verspätung: Euch ist schon klar, dass das keine Auswirkung auf den Refresh vom R600 haben wird. Höchstens wird die Lebenszeit vom R600 dadurch verkürzt.
R300 wird mir hier auch zu sehr glorifiziert. Klar war das eine sehr gute GPU. Aber ein Großteil ihres überragenden Auftrittes schöpfte sie aus der schwachen Konkurrenz seitens NV3x. Sowas wird so schnell nicht wieder vorkommen.
ATI's GPUs waren mitnichten schlecht. Im Gegenteil sie waren bisher performant. Nur waren sie leider nicht so gut skalierbar und ökonomisch, wie die Konkurrenzchips von NVIDIA. Allerdings gehe ich davon aus, dass das ab R700 bei DAMMIT anders wird.
Ailuros
2007-02-22, 10:12:42
Der Mehraufwand: 512 Bit Speicherinterface
Mit ring stop Dingsbums war fuer alles >256bit, 512bit der einzige logische Schritt wenn man bedenkt dass ATI an dem Ding keine so fundamentale Aenderungen vorgenommen hat.
1 GB V-Ram
G80 hat eine "krumme" Speichermenge eben wegen der "krummen" Busbreite.
700 Mio. Transistoren
Ziemlich "fette" ALUs und zusaetzlichen Multimedia Schnickschnack den G80 wohl nicht haben wird. NV passte ihre ALUs mit etwas Handarbeit an und erreicht somit 1.35GHz und hier sind R&D Unkosten um einiges hoeher.
6 Monate Verspätung.
Dank 2 HW bugs, hat aber nichts direkt mit mehr Entwicklungsmuehe zu tun, denn so etwas passiert selbst beim besten IHV. IMHLO ein Seiteneffekt wegem dem Druck fuer extravagante Frequenzen.
ATi braucht also viel mehr, um das zu schlagen, was NVIDIA im November mit deutlich weniger "Mitteln" geschafft hat.
Dem bin ich gar nicht so sicher; eher das Gegenteil. NVIDIA hat wie oben erwaehnt die ALUs mit etwas Handarbeit auf die Beine gestellt um hohe ALU-Frequenzen zu erreichen und insgesamt den Stromverbrauch besser kontrollieren zu koennen, ALU-OPs wurden (teilweise) von TEX-OPs entkoppelt, AF wurde um einiges verbessert, MIMD der clusters nach aussen usw. usw. Viele dieser Aspekte waren im R5x0 schon vorhanden, deshalb reichte NV auch eine so fundamental neue Architektur im Vergleich zu Vorgaengern ein.
R600 hat im Gegenteil eine Vielzahl von Fundamenten die schon im Xenos bzw. R5x0 gelegt wurden; nur mal ganz vereinfacht:
* Unified ALUs fuer PS/VS auf Xenos
* 8z ROPs auf Xenos
* MIMD Verbindung nach "aussen" der R5x0 quads
* Winkelunabhaengigeres AF auf R5x0
* Effizientes PS dynamisches branching auf R5x0
usw usw.....
Und dass ATi es schlägt, ist noch nicht einmal so sicher!
ATi hat fähige Leute, keine Frage, aber was in letzter Zeit in GPUs reingesteckt wurde (Arbeit, Zeit, Aufwand) und was "hinten raus" kommt, steht in keinem gesunden Verhältnis mehr.
Das einzige Problem hier sind die staendigen Verspaetungen.
Ailuros
2007-02-22, 10:20:54
Aus diesem Blickwinkel ist es ja eigentlich noch peinlicher, dass man das Produkt erst so spät an der Markt bringt.
Da kann man nur hoffen das ATi endlich aufwacht und die Taktrate in Zukunft nicht mehr als alles entscheidenten Faktor für die Leistung ihrer GPU plant(der R300 zeigt ja das man es auch anders kann).
Das mit der Taktrate hab ich ja (und Sunrise auch) in der Vergangenheit mehr als oefters erwaehnt. Die gesamte Strategie die damit verbunden ist, ist fuer die Tonne.
Zudem hoffe ich, dass sich die oben genannten 20-30% doch nicht auf Filteroptimierungen beziehen, die der R600 brauch um gegen den G80, mit seinen übermächtigen TMUs, unter HQ-AF anzukommen.
Das will ich ernsthaft bezweifeln. Das Ding hat mit Sicherheit auch so manche "Treiberblasen" momentan und an dem Zeug kann man so einiges noch dazugewinnen, ueberhaupt alles was MSAA-Leistung betrifft.
AnarchX
2007-02-22, 10:29:03
Da so viele auf den Refresh vom G80 spekulieren im Zusammenhang mit der R600 Verspätung: Euch ist schon klar, dass das keine Auswirkung auf den Refresh vom R600 haben wird. Höchstens wird die Lebenszeit vom R600 dadurch verkürzt.
Nur stellt sich die Frage, ob dieser sich nicht mit ähnlichen Problemen wieder herumschlagen muss, vor allem wenn man wohl auf den 65nm Prozess angewiesen ist.
Wenn der R600 schon X2900 genannt, denke ich wohl das der momentan geplante Refresh wohl eher eine X2950 sein wird, die ihre Mehrleistung durch den Takt erreicht.
Paul Brain
2007-02-22, 10:38:05
Da so viele auf den Refresh vom G80 spekulieren im Zusammenhang mit der R600 Verspätung: Euch ist schon klar, dass das keine Auswirkung auf den Refresh vom R600 haben wird. Höchstens wird die Lebenszeit vom R600 dadurch verkürzt.
R300 wird mir hier auch zu sehr glorifiziert. Klar war das eine sehr gute GPU. Aber ein Großteil ihres überragenden Auftrittes schöpfte sie aus der schwachen Konkurrenz seitens NV3x. Sowas wird so schnell nicht wieder vorkommen.
ATI's GPUs waren mitnichten schlecht. Im Gegenteil sie waren bisher performant. Nur waren sie leider nicht so gut skalierbar und ökonomisch, wie die Konkurrenzchips von NVIDIA. Allerdings gehe ich davon aus, dass das ab R700 bei DAMMIT anders wird.
Ich hab noch das Statement vom Dave Orton in den Ohren: "R600 is what R520 (oder R580? Egal, ist eh fast dasselbe) should have been". Wenn ich mir Dein Posting so ansehe komme ich zu dem Schluß, daß man es auf "R700 is what R600 should have been" umformulieren sollte. Fragt sich, ob das Spielchen jetzt ewig so weitergeht.
R300 war gut, ja. Hat die Konkurrenz mit einem Faktor 2 weggeblasen, was auch bei nicht besonders starker Konkurrenz Respekt verdient. Und eine 9800Pro kann man auch heute noch immer verwenden. Wir werden sehen, wie lange sich die prinzipielle G80-Architektur halten wird. Der R300 hat jedenfalls seinen Weg bis in den R580 gefunden und - wer weiß - vielleicht auch weiter. R400 war ein etwas verbreiterter und takterhöhter R300 - genau das, was damals bei der Geforce4 so bekrittelt wurde. Und genau seit dem Zeitpunkt hängen sie nV hinterher, haben sich offensichtlich einmal zu lange auf ihren Lorbeeren ausgeruht, so wie nV damals mit der GeForce 3. nVidia hat daraus gelernt, den NV40 gebracht und seither nicht mehr locker gelassen (auch wenn der G70 eigentlich ein NV40-Aufguß war und man über die Filterqualität streiten kann, dafür haben sie sich mit dem G80 wieder selbst übertroffen). Es tut mir in der Seele weh, aber es triffts genau auf den Punkt, wenn man wieder irgendwo liest "ATi/AMD is struggling to...": denn genau das tun sie seit mittlerweile Jahren: straucheln und krampfhaft versuchen, irgendwie Anschluß halten zu können. Manchmal kommts mir so vor wie wenn nV ATi grad mal so noch am Leben lassen würde, wie eine Katze, die mit einer Maus spielt. Viell. liegt nV ja auch was daran, einen Konkurrenten zu haben, den man an der kurzen Leine halten kann: dann hat man offiziell kein Monopol und tut sich etwas leichter mit der Wettbewerbsbehörde...
Ich hoffe wirklich inständig, daß der R600 reicht, damit sich ATi über Wasser halten kann und daß dann endlich wiedermal etwas neues, wegweisendes kommt. Falls R600 das nicht erfüllen kann, wovon ich leider ausgehen muß...
Ailuros
2007-02-22, 11:01:21
Ich hoffe wirklich inständig, daß der R600 reicht, damit sich ATi über Wasser halten kann und daß dann endlich wiedermal etwas neues, wegweisendes kommt. Falls R600 das nicht erfüllen kann, wovon ich leider ausgehen muß...
AMD ist generell in einer merkwuerdigen Situation im Vergleich zu Intel; wobei der letztere es schaffte nach einer langen Reihe von erfolgreichen Athlon-Produkten endlich etwas Wind aus AMDs Segeln zu saugen. Ich will jetzt nicht die Debatte auf CPUs und somit total OT jagen, aber langfristig bezweifle ich dass AMD die ganze Turnerei mit den GPUs mitmachen wird ueberhaupt wenn man auf zwei Fronten "straucheln" muss wie Du sagst.
Solche Thesen waeren natuerlich absolut verheerend fuer den gesamten Markt und mir ist vollkommen bewusst dass wir ATI als zweiten grossen Grafik-IHV (oder eben AMD) unbedingt brauchen. Ich mach mir keine Sorgen um einen "Untergang" oder "Ausstieg" oder aehnliches eher dass AMD ja nicht die R&D Unkonsten in der Zukunft doch am Ende begrenzt oder begrenzen muss.
robbitop
2007-02-22, 11:19:57
Ich hab noch das Statement vom Dave Orton in den Ohren: "R600 is what R520 (oder R580? Egal, ist eh fast dasselbe) should have been". Wenn ich mir Dein Posting so ansehe komme ich zu dem Schluß, daß man es auf "R700 is what R600 should have been" umformulieren sollte. Fragt sich, ob das Spielchen jetzt ewig so weitergeht.
Vergiss mal diese Marketingaussagen. R5xx und R6xx sich performanceseitig sicher sehr gut. Nur für die Margen und die Skalierung halt nicht (was den Endnutzer nicht interessieren sollte).
R300 war gut, ja. Hat die Konkurrenz mit einem Faktor 2 weggeblasen, was auch bei nicht besonders starker Konkurrenz Respekt verdient.
Aber nur, wenn viel FP Shader genutzt worden. Und das liegt schlicht und einfach großteils an der CineFX Architektur.
Und eine 9800Pro kann man auch heute noch immer verwenden. Wir werden sehen, wie lange sich die prinzipielle G80-Architektur halten wird.
Das liegt daran, dass die Entwickler sehr lange Rücksicht auf die schwache NV3x Serie nehmen mussten. Inzwischen saugt ein R300 aber auch schon.
Und genau seit dem Zeitpunkt hängen sie nV hinterher, haben sich offensichtlich einmal zu lange auf ihren Lorbeeren ausgeruht, so wie nV damals mit der GeForce 3.
Finanziell hinterherhinken meinst du? Die Highend Chips von ATI waren seit R300 eigentlich immer schneller als die von NV. Die Midrange Chips sind allerdings eher gleichwertig.
Ich hoffe wirklich inständig, daß der R600 reicht, damit sich ATi über Wasser halten kann und daß dann endlich wiedermal etwas neues, wegweisendes kommt. Falls R600 das nicht erfüllen kann, wovon ich leider ausgehen muß...
Nana so schlimm ist es auch nicht. Man macht immerhin keine Nasse und man sollte beim Design jetzt aus den Fehlern gelernt haben. R5xx und R6xx sind anscheinend Architekturen, die den neusten Fertigungsprozess benötigten, um die Anforderungen zu erfüllen. Das war eine ganz klare Designentscheidung.
Das sollte sich ändern. (hoffe ich - ich will kein Monopol)
robbitop
2007-02-22, 11:21:52
AMD ist generell in einer merkwuerdigen Situation im Vergleich zu Intel; wobei der letztere es schaffte nach einer langen Reihe von erfolgreichen Athlon-Produkten endlich etwas Wind aus AMDs Segeln zu saugen. Ich will jetzt nicht die Debatte auf CPUs und somit total OT jagen, aber langfristig bezweifle ich dass AMD die ganze Turnerei mit den GPUs mitmachen wird ueberhaupt wenn man auf zwei Fronten "straucheln" muss wie Du sagst.
Nunja. Intel verfügt über 10x so viele Ressourcen wie AMD. Cash, Produktionsanlagen und Entwicklung. Dafür schlägt sich AMD seit über einem Jahrzehnt hervorragend.
IMO haben sie sich in letzter Zeit aber etwas übernommen. Fab36, Fab38 und jetzt die neue Fab40(??) und mal eben ATI aufkaufen. Das sind zwar alles notwendige Schritte für das Fundament der Zukunft (Expansion, Komplette Komponenten aus einer Hand, Stream-CPU Hybride), ist aber bei der Größe von AMD etwas größenwahnsinnig.
Ich glaube allerdings auch, dass langfristig nur noch eine Front bei AMD zu sehen bleibt. Ich hoffe jedoch das Gegenteil. :)
seahawk
2007-02-22, 11:25:23
http://www.vr-zone.com/?i=4688
Die Treiber sollten so unausgereift nicht sein, was ich aber vermute ist, dass der R600 mehr "Optimierungen" braucht als der G80 um seine Leistung auszuspielen. Man wird für die tpyischen Benchmarks wahrscheinlich händische Optimierungen des Shadercodes vornehmen.
Ailuros
2007-02-22, 11:27:24
Ich glaube allerdings auch, dass langfristig nur noch eine Front bei AMD zu sehen bleibt. Ich hoffe jedoch das Gegenteil. :)
Tja was die hybriden GP-CPU/GPUs der Zukunft betrifft, wenn Intel tatsaechlich mit der bloeden x86 Idee ankommt hat AMD dann wieder hoechstwahrscheinlich gute Chancen ausgezeichnet zu konkurrieren. Das dumme ist dann eben dass das Zeug wohl nicht viel mit high end GPUs zu tun haben wird (IMHLO).
seahawk
2007-02-22, 11:27:26
Nunja. Intel verfügt über 10x so viele Ressourcen wie AMD. Cash, Produktionsanlagen und Entwicklung. Dafür schlägt sich AMD seit über einem Jahrzehnt hervorragend.
IMO haben sie sich in letzter Zeit aber etwas übernommen. Fab36, Fab38 und jetzt die neue Fab40(??) und mal eben ATI aufkaufen. Das sind zwar alles notwendige Schritte für das Fundament der Zukunft (Expansion, Komplette Komponenten aus einer Hand, Stream-CPU Hybride), ist aber bei der Größe von AMD etwas größenwahnsinnig.
Ich glaube allerdings auch, dass langfristig nur noch eine Front bei AMD zu sehen bleibt. Ich hoffe jedoch das Gegenteil. :)
Man brauchte ATI um Intel bei den IGPs und den Chipsätzen Paroli bieten zu können. Man "muss" sich nicht unbedingt zusätzlich noch mit NV prügeln.
deekey777
2007-02-22, 11:28:22
Also kommt der R600 wohl im Mai.
http://forums.vr-zone.com/showpost.php?p=3303879&postcount=1
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=349363
Wenn das allein aus 7.5 und dem kommenden EATM geschlossen wird, dann nein. Eher wird EATM bis dahin marktreif.
Ailuros
2007-02-22, 11:29:30
Die Treiber sollten so unausgereift nicht sein, was ich aber vermute ist, dass der R600 mehr "Optimierungen" braucht als der G80 um seine Leistung auszuspielen. Man wird für die tpyischen Benchmarks wahrscheinlich händische Optimierungen des Shadercodes vornehmen.
Zu dem hat ATI keine Zeit; im vorigen Link mit dem Makedon Interview sprach man auch von ca. 20M "lines of code" fuer die Treiber, was mir ziemlich familiaer klingt. Das ganze beruht dann eher auf der Reifheit des Compilers IMO.
robbitop
2007-02-22, 11:30:52
Das dumme ist dann eben dass das Zeug wohl nicht viel mit high end GPUs zu tun haben wird (IMHLO).
I second that.
High End GPUs wird man als Spieler trotzdem brauchen. Ich sehe nicht, wo man 100er Gigabytes pro Sekunde über das Mainboard schaufen können sollte (für bezahlbare Preise) und wie man die Ganzen Funktionseinheiten in eine CPU einbauen soll.
Fusion wird IMO die IGPs ersetzen und in Zukunft zusätzlich als GPGPU dienen. Also für Physikberechnungen, wissenschaftliche Zwecke, Java...einfach alles was man parallelisieren kann. Dann braucht auch niemand mehr externe Karten für sowas.
Ailuros
2007-02-22, 11:35:10
Man brauchte ATI um Intel bei den IGPs und den Chipsätzen Paroli bieten zu können. Man "muss" sich nicht unbedingt zusätzlich noch mit NV prügeln.
Ich hoffe Du siehst ein dass was Du gerade vorschlaegst auf ein nicht erwuenschtes (quasi) Monopol fuer NV langfristig deuten koennte. An so was will ich gar nicht denken.
seahawk
2007-02-22, 11:49:11
Ich hoffe Du siehst ein dass was Du gerade vorschlaegst auf ein nicht erwuenschtes (quasi) Monopol fuer NV langfristig deuten koennte. An so was will ich gar nicht denken.
Ich schlage es nicht vor, es kann nur sein, dass AMD zu dieser Entscheidung gezwungen wird. ICh habe einfach Zweifel, dass sie dauerhaft sowohl mit Intel alsauch mit NV konkurrieren können. Besonders wenn bei beiden Duellen AMD momentan im Zugzwang ist. Eine Verlagerung der Prioritäten bei ehemals ATI, ist imho unvermeidbar. Chipsätze und IGP gewinnen, High-End-Gamerkarten verlieren.
Die Argumentation seitens AMD kann ich nicht nachvollziehen:
"[..]we’ve changed the launch plan for R600. We are going to deliver a competitive configuration[..]" klingt für mich mehr nach "Wir haben Wind von einem G81/G80Ultra/whatever bekommen und können unseren R600 noch immer nicht releasen da er dagegen keine Chance hätte".
Wozu sollten sie ihr High-End verzögern nur um es zeitgleich mit Mainstream/Lowcost launchen zu können? Was macht das für einen Sinn? Nur damit alle, die schon so lange auf den R600 warten dann endgültig drauf pfeifen und sich einen G80 zulegen?
Ich verstehs nicht. Ich glaub eher, daß es wiedermal technische Gründe sind, keine "strategischen" bzw. insofern strategische, als der R600 in der jetzigen Revision technisch bis aufs letzte ausgereizt und trotzdem noch nicht performant genug ist.
Aber viell. meinens damit auch nur, daß er in der ersten Woche von Q2 statt in der letzten von Q1 erscheint, man soll die Hoffnung nie aufgeben... ;-)
"Sonderbare Ansichten", "verschonen", etc. Bitte.
Also warum glaubst du das es keinen sinn macht? NV wird bis dahin alle seine produkte für jedes segment veröffentlicht haben und ATI will anscheinend dann auch die produkte für die ganzen segmente bringen um gleich von anfang an.
Sie müssen es nicht immer so machen das man erst das high end produkt veröffentlicht und monate später, dann die anderen. Die theorien von dir sind nicht haltbar und man kann sich auf das verlassen was von ATI angegeben wird, alles andere was auch von dir vorgeworfen wird sind höchstens spekulationen. Im grunde weiss nur ATI was grad da abgeht.
Und zudem anderen, ich kann noch warten da meine x1950xtx es noch sehr gut tut und ich kann immernoch in allen games aa+af anschalten in den höchsten qualitätsmodis, warum also sollte ich mir eine g80 kaufen? Es eilt nicht! Der der sich eine g80 kaufen möchte und nicht warten kann soll aber auch dies tun, da sie ja keine schlechte karte ist. Der refresh kommt so oder so zum launch des r600 entweder gleich danach oder etwas verzögert.
The_Invisible
2007-02-22, 13:42:06
Und zudem anderen, ich kann noch warten da meine x1950xtx es noch sehr gut tut und ich kann immernoch in allen games aa+af anschalten in den höchsten qualitätsmodis, warum also sollte ich mir eine g80 kaufen? Es eilt nicht! Der der sich eine g80 kaufen möchte und nicht warten kann soll aber auch dies tun, da sie ja keine schlechte karte ist. Der refresh kommt so oder so zum launch des r600 entweder gleich danach oder etwas verzögert.
ja, DU kannst warten, aber andere nicht, weil sie andere ansprüche haben
mir reicht meine karte auch noch, aber andere wollen in >=1920 spielen wo das beste nur gut genug ist
mfg
Hauwech
2007-02-22, 13:54:52
Hmm also wenn ich das ganze jetzt für mich selbst noch mal zusammenfasse sieht es so aus.
R600 wird zusammen mit RV610/30 im April, vielleicht auch erst Mai gebracht.
Spekulierte Leistung ca. + 20-30% beim R600 ggü G80, mit der weiteren Verzögerung können es auch noch ein paar % mehr werden.
Spekulierte 40-50W Mehrverbrauch bei Last, Idle scheint er auch nicht so sparsam zu sein.
Dagegen stellt sich ein angedeuteter "Wundertreiber" seitens Nvidia der vielleicht noch mal so 15% vielleicht sogar 20% bringt. Gleiches wie bei ATI, könnten auch noch ein paar % mehr werden.
Nochmal mehrere Wochen Zeit für Nvidia um noch mehr G80 abzusetzen.
Sehr wahrscheinlich Vorstellung von G84/6 auf der CeBit.
Könnte etwas so hinkommen?
Sehr wahrscheinlich Vorstellung von G84/6 auf der CeBit.
Könnte etwas so hinkommen?
Dies bezweifele ich eher, bei Midrange und LowEnd strebt man eigentlich immer einen Hardlaunch an und zur CeBit sind diese Produkte eben noch nicht fertig.
Imo wird man wohl nur die kleinen GF8 auf der CeBit teasen.
Paul Brain
2007-02-22, 14:14:57
Sehr wahrscheinlich Vorstellung von G84/6 auf der CeBit.Höchstwahrscheinlich nicht: nV kommt so wies aussieht gar nicht zur Cebit.
http://www.heise.de/newsticker/meldung/85711
Nakai
2007-02-22, 14:17:33
Dann kommen ATIs Karte zum Launsh der Mainstreamkarten NVs.
mfg Nakai
dargo
2007-02-22, 15:11:24
1 GB V-Ram
Es gab mal das Gerücht, das die 640MB GDDR3 der GTS 50$ kosten würden. Von daher sehe ich die 1GB Vram nicht so problematisch, auch wenn es ein schneller getakteter GDDR4 sein wird. Zumal dieser auf einer 599-699$ Grafikkarte verbaut wird.
Blutmaul
2007-02-22, 15:12:40
Beide laufen mit ihren High-End-GPUs gegen eine Wand, das es auf 250-300 Watt zugeht ist schrecklich und keine Leistung der Welt kann das rechtfertigen (für den normalen Alltags und Spielegebrauch gesprochen).
Da die nächste High-End-Generation wieder doppelt so schnell werden muss, wie die jetzige, wird sich meiner Meinung nach auch durch Verbesserungen in der Fertigung und kleinere Fertigungs-Strukturen die Leistungsaufnahme nicht senken lassen.
Ich finde zumindest die Idle-Leistung muss extrem gesenkt werden, für ein paar Stunden Spielegenuss wäre ich vielleicht gerade noch so bereit ein 250-Watt-Monster einzubauen, aber nicht fürs Internet-Surfen etc.
Vielleicht kann ATI in der Beziehung von der Übernahme durch AMD profitieren?
Beide laufen mit ihren High-End-GPUs gegen eine Wand, das es auf 250-300 Watt zugeht ist schrecklich und keine Leistung der Welt kann das rechtfertigen (für den normalen Alltags und Spielegebrauch gesprochen).
Beide? :|
Schau nur mal was sich zwischen NV40 und G71GTX getan hat, bei gleichem Stromverbrauch.
Es würde mich nicht wundern, wenn der G90 wieder deutlich schneller ist, aber weniger verbraucht oder gleichviel wie der doch bis auf den fehlenden 2D-Modus recht sparsame G80.
DrumDub
2007-02-22, 16:43:26
Hier gehts weiter mit Teil 5: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350593
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.