PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 nicht vor September....


tombman
2005-06-24, 17:04:04
http://www.hartware.de/news_38100.html

Tjo...

Ist keine Spekulation, da die Info von Dave Orton kommt, also nix Speku-thread.

Dunkeltier
2005-06-24, 17:22:48
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3170027#post3170027


:P

:rolleyes:

Adam D.
2005-06-24, 17:32:23
Das ist jetzt irgendwie komisch. Also entweder haben sie arge Probleme oder sie können sich zurücklehnen und warten, bis sie ausreichend große Anzahl von ihnen produzieren können und den R520 dann vorstellen.
In der Zeit dürfte aber schon der ein oder andere G70 verkauft werden ;)

Crazy_Chris
2005-06-24, 17:44:35
Das ganze erinnert irgendwie an den NV30 von Nvidia. :rolleyes:

deLuxX`
2005-06-24, 17:48:22
Schade eigentlich.
Wenn dann die Perfomance auch noch schlecht ist im Vergleich zum G70, dann kommt mir die ganze Sache rund um den R520 sehr bekannt vor.

-deLuxX`

DrFreaK666
2005-06-24, 17:53:00
Ich finds echt schade, dass sich der R520 wieder verschiebt.
Letztes Jahr dachten wir alle noch, dass es mit großem Abstand zum nvidia´s Chip erscheint.
Ich hoffe auch, dass hier kein zweiter NV30 gebohren wird

Karümel
2005-06-24, 17:54:53
Das heißt auch erstmal das die Preise für den G70 bis zum Herbst kaum fallen werden.

PingpiN
2005-06-24, 17:55:11
Ich finds echt schade, dass sich der R520 wieder verschiebt.
Letztes Jahr dachten wir alle noch, dass es mit großem Abstand zum nvidia´s Chip erscheint.
Ich hoffe auch, dass hier kein zweiter NV30 gebohren wird

meine gefühle sagen mir das Ati irgend wie unter drück steht =? :confused: :biggrin: Schade ich hab mich auch schon auf denn R520 gefreut.Aber ich glaube nicht das der R520 genauso schlecht wird wie der Nv30 weil,jemand schonmall das Alan Wake video gesehen?http://www.alanwake.com/movies.html Wurde ja auf ein R520 gezeigt also genug Shader power scheint dazusein. =) :uexplode:

(del676)
2005-06-24, 17:56:01
Man darf gespannt sein, ob ATI es dieses Mal schafft, diese auch dann auch innerhalb eines angemessenen Zeitraums auszuliefern. In der Vergangenheit hatte es hier immer wieder Verzögerungen bzw. Engpässe gegeben, die dann dazu geführt haben, dass man Retail-Grafikkarten nur schwerlich bekommen konnte.
Gerade jetzt kämpft ATI wieder mit diesen Problemen. Nicht nur der R520 kommt später als geplant, auch die Ende Mai vorgestellte Dual-VGA Technologie 'CrossFire' ist fast vier Wochen nach Einführung noch nicht in Sicht. Dabei ist dies im absoluten High-End Bereich momentan der einzige Trumpf, den ATI noch gegen die überraschenderweise sofort erhältliche GeForce 7800 GTX zu bieten.

das muss man sich auf der Zunge zergehen lassen X-D

Geo72
2005-06-24, 18:01:35
War ja auch kaum zu glauben:
Eine GPU in 0.09µm, mit 24 pipes und 650Mhz und das praktisch gleichzeitig mit dem G70 in 0.11µm, 430Mhz.

Ich hoffe ATI bekommt die Probleme in den Griff.

Gast
2005-06-24, 18:05:45
War ja auch kaum zu glauben:
Eine GPU in 0.9µm, mit 24 pipes und 650Mhz und das praktisch gleichzeitig mit dem G70 in 0.11µm, 430Mhz.

Ich hoffe ATI bekommt die Probleme in den Griff.

warum reden alle von problemen,die haben keine probleme....der fertigungsprozess ist halt noch nicht bereit da kann ati nix für

Black-Scorpion
2005-06-24, 18:05:50
Man darf gespannt sein, ob ATI es dieses Mal schafft, diese auch dann auch innerhalb eines angemessenen Zeitraums auszuliefern. In der Vergangenheit hatte es hier immer wieder Verzögerungen bzw. Engpässe gegeben, die dann dazu geführt haben, dass man Retail-Grafikkarten nur schwerlich bekommen konnte.
Gerade jetzt kämpft ATI wieder mit diesen Problemen. Nicht nur der R520 kommt später als geplant, auch die Ende Mai vorgestellte Dual-VGA Technologie 'CrossFire' ist fast vier Wochen nach Einführung noch nicht in Sicht. Dabei ist dies im absoluten High-End Bereich momentan der einzige Trumpf, den ATI noch gegen die überraschenderweise sofort erhältliche GeForce 7800 GTX zu bieten.

das muss man sich auf der Zunge zergehen lassen X-D
Wenn man schon von einer Seite (hartware.net (http://www.hartware.de/news_38100.html)) zitiert, sollte man auch die Quelle angeben.

(del676)
2005-06-24, 18:06:46
Wenn man schon von einer Seite (hartware.net (http://www.hartware.de/news_38100.html)) zitiert, sollte man auch die Quelle angeben.

man man man
lese doch bitte mal den 1. Post, das is das ding da ganz oben :rolleyes:

Coda
2005-06-24, 18:08:22
warum reden alle von problemen,die haben keine probleme....der fertigungsprozess ist halt noch nicht bereit da kann ati nix fürDas ist schon ein Problem für ATI ;)

Gast
2005-06-24, 18:10:41
Das ist schon ein Problem für ATI ;)

nein,warum auch die x800 karten verkaufen sich gut

nur weil ihr geil auf neue karten seid ? ati macht sich kein druck

(del676)
2005-06-24, 18:12:30
aso, natürlich
Ati sitzt ganz entspannt auf der Terasse, bei Kaffee und Kuchen während sich die halben Geeks wie die Wahnsinnigen auf verfügbare 7800er Karten stürzen.

Geo72
2005-06-24, 18:13:33
nein,warum auch die x800 karten verkaufen sich gut


Deswegen auch die Verluste im letzten Quartal?
http://www.hartware.de/news_38097.html

PingpiN
2005-06-24, 18:14:17
Ist das der Untergang von ATI ? :ubash3: :ulove4: :uponder:

(del676)
2005-06-24, 18:15:53
Ist das der Untergang von ATI ? :ubash3: :ulove4: :uponder:

nvidia is an der 5800 auch ned eingegangen

Coda
2005-06-24, 18:16:04
Nein ist es nicht. Aber früher oder später musste auch ATI mal Fehler machen - sind auch nur Menschen.

deLuxX`
2005-06-24, 18:22:49
Jupp, so muss man es sehen. Haben sich aller Wahrscheinlichkeit nach mit der Fertigung in 0,09µm verschätzt.
Trotzdem haben sie jetzt ein Problem. Wer das schnellste High-End Modell hat verkauft auch in den anderen Segmenten mehr Karten.
Der Untergang für ATI wird es aber sicher nicht.

-deLuxX`

Black-Scorpion
2005-06-24, 18:24:46
man man man
lese doch bitte mal den 1. Post, das is das ding da ganz oben :rolleyes:
Ich habe die News schon heute Mittag gelesen, nur keinen Thread aufgemacht.
Es sollte aber trotzdem wenn man zitiert die Quelle angegeben werden.
Und wenn es nur ein Verweis auf den oben genannten Link ist.
Nicht jeder klickt auf den Link und weis das dein Post sich darauf bezieht.

Gast
2005-06-24, 18:31:18
nein,warum auch die x800 karten verkaufen sich gut

nur weil ihr geil auf neue karten seid ? ati macht sich kein druck
Die X800 Karten verkaufen sich überhaupt nicht gut - auf jeden Fall schlechter als die der Konkurenz.
80 Mio Umsatz weniger als im Vorquartal, kein Gewinn, massive Verluste von Marktanteilen und Nvidia im Gegenszu ist auf Wachstumskurz.
Umsatz knapp unter 600 Mio und ein satter Gewinn.
Somit ist Nvidia vorerstmal an ATI voll vorbeigezogen.

R50 und G70 hin oder her. Mit der X8xx Reihe wird ATI keinen Boden mehr gut machen sondern nur noch Boden verlieren und je mehr die Preise fallen umso hässlicher wirds, weil dann die 6200 und die 6600 Reihe noch sehr viel mehr reinschlagen auf Grund des ansteigenden Verkaufsvolumens.

r00t
2005-06-24, 18:36:01
nvidia is an der 5800 auch ned eingegangen

dafür haben sie einige eigenschaften der 5800er übernommen:

-laut und klobig :D

Super Grobi
2005-06-24, 18:42:45
Affig das gezucke von einigen Usern hier!

Dann kommt das Teil hatl etwas später, na und? Was ist jetzt so schlimm daran? Ati hat eine X850XT-PE im Programm die nicht viel schwächer ist als der G70! Was jetzt "viel schneller" ist, sieht jeder anders, aber FAKT ist das ATI immer noch ein High-End Produkt hat das top von der Performence ist.

Das sich einige NV-Bots jetzt an der Meldung aufgeilen ist klar, ...

SG

Gast
2005-06-24, 18:45:21
Affig das gezucke von einigen Usern hier!

Dann kommt das Teil hatl etwas später, na und? Was ist jetzt so schlimm daran? Ati hat eine X850XT-PE im Programm die nicht viel schwächer ist als der G70! Was jetzt "viel schneller" ist, sieht jeder anders, aber FAKT ist das ATI immer noch ein High-End Produkt hat das top von der Performence ist.

Das sich einige NV-Bots jetzt an der Meldung aufgeilen ist klar, ...

SG
Und 30fps im schnitt sind nicht immer flüssig ;)
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/bf21280.gif

(del676)
2005-06-24, 18:46:56
Affig das gezucke von einigen Usern hier!

Dann kommt das Teil hatl etwas später, na und? Was ist jetzt so schlimm daran? Ati hat eine X850XT-PE im Programm die nicht viel schwächer ist als der G70! Was jetzt "viel schneller" ist, sieht jeder anders, aber FAKT ist das ATI immer noch ein High-End Produkt hat das top von der Performence ist.

Das sich einige NV-Bots jetzt an der Meldung aufgeilen ist klar, ...

SG

dass sich ein ati bot an seiner phantasie aufgeilt ja auch :rolleyes:

PingpiN
2005-06-24, 18:49:13
Und 30fps im schnitt sind nicht immer flüssig ;)
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/bf21280.gif

das schlechteste ergeniss rausgesucht was. :rolleyes:Auf anderen Seiten sieht das ganz anders aus. :ufinger:

bardh
2005-06-24, 18:50:18
meine gefühle sagen mir das Ati irgend wie unter drück steht =? :confused: :biggrin: Schade ich hab mich auch schon auf denn R520 gefreut.Aber ich glaube nicht das der R520 genauso schlecht wird wie der Nv30 weil,jemand schonmall das Alan Wake video gesehen?http://www.alanwake.com/movies.html Wurde ja auf ein R520 gezeigt also genug Shader power scheint dazusein. =) :uexplode:

Laut Aussagen lief das Alan Wake Video, dass auf der E3 hinter verschlossenen Türen gezeigt wurde, nicht flüssig.

Coda
2005-06-24, 18:51:27
Nein, aber wer wird sich anhand solcher Zahlen noch ne X850 XT PE kaufen - es sei denn er hat wirklich eine nV Phobie.

Mumins
2005-06-24, 18:53:46
Und 30fps im schnitt sind nicht immer flüssig ;)
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp
http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/images/bf21280.gif


Meinste nicht, dass man auch in 1280x960 zocken kann. Bevor der G70 da war musste man das in manchen Situationen auch machen.
Wer zur Zeit ne X800XT PE im Rechner hat, den juckts bestimmt nicht, wenn der R520 erst im September kommt.

DrFreaK666
2005-06-24, 18:53:49
Nein, aber wer wird sich anhand solcher Zahlen noch ne X850 XT PE kaufen - es sei denn er hat wirklich eine nV Phobie.

Naja, X850XT und 7800GTX sind bestimmt nicht gleichteuer

PingpiN
2005-06-24, 18:54:39
Laut Aussagen lief das Alan Wake Video, dass auf der E3 hinter verschlossenen Türen gezeigt wurde, nicht flüssig.

es soll nicht immer ganz ``Smooth``gelaufen sein aber guck dir das Video mall ihn High quality an!Sowas hat mann bis jetzt noch nicht gesehen. :smile:
Könnte auch eine techdemo sein. :eek:

Coda
2005-06-24, 18:57:01
Naja, X850XT und 7800GTX sind bestimmt nicht gleichteuerIch sagte auch XT PE: Die kostet auch überall noch 500. Wird sich wohl aber schnell geben...

dildo4u
2005-06-24, 18:57:18
Naja, X850XT und 7800GTX sind bestimmt nicht gleichteuer
Ca 100€ billiger http://www.geizhals.at/deutschland/a135871.html

bardh
2005-06-24, 18:57:35
es soll nicht immer ganz ``Smooth``gelaufen sein aber guck dir das Video mall ihn High quality an!Sowas hat mann bis jetzt noch nicht gesehen. :smile:
Könnte auch eine techdemo sein. :eek:

Das ist aber ziemlich blöd von ATI ein Video zu zeigen das auf ihrem zukünftigen High-End Produkt nicht flüssig läuft.

DrFreaK666
2005-06-24, 18:59:48
Das ist aber ziemlich blöd von ATI ein Video zu zeigen das auf ihrem zukünftigen High-End Produkt nicht flüssig läuft.

Engine noch nicht fertig.
Wahrscheinlich ein R520 im Alpha-Stadium oder so, sonst würde er sich ja nicht verschieben wenn es fertig wäre

Gast
2005-06-24, 19:00:45
Wie kann man sich über sowas blos freuen? Offenbar ist das Niveau mancher Leute relativ tief. Konkurrenz belebt das Geschäft und da ATI im Moment noch nichts in der Hand hat, bleiben die G70 Karten auch schön teuer. Aber ok, es ist ja nicht mein Geld.......

PingpiN
2005-06-24, 19:01:09
Das ist aber ziemlich blöd von ATI ein Video zu zeigen das auf ihrem zukünftigen High-End Produkt nicht flüssig läuft.

Klar aber bei jeden bedeutet flüssig was andere,vielleicht waren einen 50 FPs nicht flüssig genug. ;D Spass beiseite bei denn video sieht mann auch paar einzelne Ruckler zb wo die Steine Runter kommen.Obs mit einer einzelnen 7800 GTX flüssig laufen würde mark ich zu bezweifeln. :|

Quasar
2005-06-24, 19:03:30
Ruckler die vom vertikalen Schwenk kommen - aka Tearing...?

Hauwech
2005-06-24, 19:06:57
Hmm also wenn man jetzt noch eine X550 als Versuchsballon gegen die 6200 startet um zumindest im LowCost Markt mehr zu verkaufen, dann sieht es wirklich nicht gut aus.

Wie man aus dem R520 Speku Thread rauslesen kann, ist der Erklärungsversuch mit Warten auf 800MHz Speicher anscheinend Wunschdenken. Stimmen dann auch noch die Angaben vom Gast der aus einem pdf von TSMC Informationen rausrückt, dann wird der 27.9. als Termin für gute Verfügbarkeit angenommen.

Sollte es wahr sein, dass Nvidia auch schon mit 90nm rumprobiert und das erfolgreicher als ATI, dann wird es für sie wirklich eng.

reunion
2005-06-24, 19:07:33
Ruckler die vom vertikalen Schwenk kommen - aka Tearing...?


AFAIK wurde das Video nicht der Öffentlichkeit vorgestellt, die Meldung kam von anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2421).

bardh
2005-06-24, 19:09:11
Engine noch nicht fertig.
Wahrscheinlich ein R520 im Alpha-Stadium oder so, sonst würde er sich ja nicht verschieben wenn es fertig wäre

Dann hätten sie es am besten überhaupt nicht gezeigt.
Besser wäre ein neuer Rekord in 3D Mark oder weis ich was, aber genau ein Video zu zeigen das nicht mal flüssig läuft... super Marketing :uup:

deLuxX`
2005-06-24, 19:18:24
Egal wie man es dreht und wendet - gut ist es sicher nicht, dass der Chip sich verspätet. Wir haben keine Konkurenz, was höhere Preise bedeutet und ATI überlässt nV zumindest bis zur Vorstellung das ganze Feld im High-End Markt. Ob man jetzt (in den nächsten 3 Monaten) schon einen G70 braucht, steht auf einem anderen Blatt.

Das einige FanATIkier hier "ihre" Firma verteidigen wollen ist auch nur menschlich....wenn auch nicht ganz logisch. ;)

-deLuxX`

The_Invisible
2005-06-24, 19:20:39
nvidia freut sich sicher über jeden tag den sich der R520 verzögert, crossfire ist ja jetzt dank 7800GTX auch keine konkurrenz mehr... die werden ihre marketingkurbel langsam ankurbeln für die schnellste lösung im Single und Dual Grafikkartenmarkt und das wird ATI, entgegen vieler meinungen hier im thread, garnicht gefallen

die X850XT PE ist keine Konkurrenz mehr, dieser karte fehlen einfach Features die jetzt nicht fehlen dürften (nvidia bringt bereits ihren zweiten PS3.0 chip raus, ATI hat noch keinen, wäre das gleiche als hätte nvidia die 5800 erst nach release der 9800pro rausgegeben)

mfg

Mr. Lolman
2005-06-24, 19:21:07
Wie kommt ihr darauf, dass sich der R520 verspätet? Hat Ati jemals irgendwas von nem Releasetermin verlautbart? Euch gegenüber wahrscheinlich nicht. Ich weiss den Releasetermin schon seit letztem Jahr, und hab im fetten R520 Thread auch schon mal angedeutet, wann ihr die Kärtchen erwarten könnt...

Monger
2005-06-24, 19:21:18
Naja, also zwei Monate Abstand halte ich jetzt nicht gerade für das Ende der Welt...

Klar wird sich der G70 in den nächsten zwei Monaten ordentlich verkaufen. Auch wenn ich der Meinung bin, dass der Sprung zur 850XT PE nicht dramatisch genug ist, um viele aktuelle ATI Besitzer zu einem Neukauf zu überreden.

Wenn dafür der R520 ordentlich ist, wird ATI rechtzeitig zur Weihnachtszeit wieder mit dabei sein.

reunion
2005-06-24, 19:22:08
Hier die Originalmeldung: http://globeinvestor.com/servlet/ArticleNews/story/RTGAM/20050623/wati0623

The_Invisible
2005-06-24, 19:22:55
Egal wie man es dreht und wendet - gut ist es sicher nicht, dass der Chip sich verspätet. Wir haben keine Konkurenz, was höhere Preise bedeutet und ATI überlässt nV zumindest bis zur Vorstellung das ganze Feld im High-End Markt. Ob man jetzt (in den nächsten 3 Monaten) schon einen G70 braucht, steht auf einem anderen Blatt.

Das einige FanATIkier hier "ihre" Firma verteidigen wollen ist auch nur menschlich....wenn auch nicht ganz logisch. ;)

-deLuxX`

anscheinend ist das den kunden egal, die wollen einfach das schnellste und nvidia scheint das zu wissen... wenn ich schon daran denke wieviele leute ich kenne die sich gleich 2 7800GTX Karten + nvidia mainboard gekauft haben, fährt nvidia derzeit sicher net schlecht

mfg

reunion
2005-06-24, 19:23:26
Hat Ati jemals irgendwas von nem Releasetermin verlautbart?


Ja, Dave Orton spracht höchstpersöhnlich von einer Verfügbarkeit "in the first half of 2005".

Mr. Lolman
2005-06-24, 19:25:16
Ja, Dave Orton spracht höchstpersöhnlich von einer Verfügbarkeit "in the first half of 2005".

Link? Sicher dass sich das auf R520 bezieht? Und wenn, wollte man vll. NV stressen?

DrFreaK666
2005-06-24, 19:27:22
anscheinend ist das den kunden egal, die wollen einfach das schnellste und nvidia scheint das zu wissen... wenn ich schon daran denke wieviele leute ich kenne die sich gleich 2 7800GTX Karten + nvidia mainboard gekauft haben, fährt nvidia derzeit sicher net schlecht

mfg

Alsi ich kenne niemanden mit einem X800Xt, 6800Ultra oder ähnlichem.
Jedoch genut mit 6600GT, 6800GT usw.
Also nvidia wir mit dem 7800GTX nicht den meisten Gewinn machen, das ist klar.
Dafür wird wohl der 7600GT oder so zuständig sein

deLuxX`
2005-06-24, 19:29:12
Fakt ist, dass der R520 ursprünglich nicht erst im späten September vorgestellt(!) werden sollte.

Link hab ich jetzt keinen, da ich zu faul zum suchen bin. :tongue:

-deLuxX`

deLuxX`
2005-06-24, 19:30:25
Also nvidia wir mit dem 7800GTX nicht den meisten Gewinn machen, das ist klar.
Dafür wird wohl der 7600GT oder so zuständig sein

Wie seit eh und je auf diesem Markt.

-deLuxX`

Mr. Lolman
2005-06-24, 19:30:40
Fakt ist, dass ich schon im Dezember/Jänner erfahren hab, dass es sicher nicht vor September die neuen Karten geben wird....

DrFreaK666
2005-06-24, 19:30:47
Fakt ist, dass der R520 ursprünglich nicht erst im späten September vorgestellt(!) werden sollte.

Link hab ich jetzt keinen, da ich zu faul zum suchen bin. :tongue:

-deLuxX`

Hoffen wir mal, dass es nicht ewig dauert (nach der Vorstellung) bis es erste Grafikkarten gibt.

reunion
2005-06-24, 19:34:01
Link? Sicher dass sich das auf R520 bezieht? Und wenn, wollte man vll. NV stressen?


Okay, könnte sich auch auf R500 beziehen:

TSMC presented at ATI’s recent Technology Seminar and we quizzed when they expected to see shipping 90nm products produced at TSMC and their reply was “In the first half of 2005”.
http://www.beyond3d.com/forum/viewtopic.php?t=12174

The reports state that ATI have confirmed they are due to launch their new architecture, the basis of the R5xx series, in the first half of 2005.
http://www.beyond3d.com/forum/viewtopic.php?t=17745

Trotzdem: ATi gab auf der conference call an, dass sich R520 verschieben wird:

“This range has been adjusted down from the preliminary guidance announced on June 6, 2005, due to a more conservative expectation on the ramp of new products in the fourth quarter,” ATI said. The company said on a conference call that its new graphics chip, the R520, is delayed.
http://globeinvestor.com/servlet/ArticleNews/story/RTGAM/20050623/wati0623

reunion
2005-06-24, 19:36:33
Fakt ist, dass ich schon im Dezember/Jänner erfahren hab, dass es sicher nicht vor September die neuen Karten geben wird....


Fakt ist, dass R520 schon 2004 sein Tapeout hatte - wodurch man die Karte mit Sicherheit früher bringen wollte.

The_Invisible
2005-06-24, 19:37:59
Naja, also zwei Monate Abstand halte ich jetzt nicht gerade für das Ende der Welt...

Klar wird sich der G70 in den nächsten zwei Monaten ordentlich verkaufen. Auch wenn ich der Meinung bin, dass der Sprung zur 850XT PE nicht dramatisch genug ist, um viele aktuelle ATI Besitzer zu einem Neukauf zu überreden.

Wenn dafür der R520 ordentlich ist, wird ATI rechtzeitig zur Weihnachtszeit wieder mit dabei sein.

jeder normale user der eine 6800Gt oder x800xl aufwärts sein eigen nennt wird die neue serie kalt lassen, vor allem den nvidia usern da sie ja nix neues bekommen (außer transparenz-AA)

nur die absoluten freaks werden da noch zugreifen, und ich kenne da anscheinend ziemlich viele davon... aber ich kenne auch die andere seite, wenn man denen erzählt das man 500€ für ne graka ausgibt denken die das isn witz

mfg

The_Invisible
2005-06-24, 19:38:55
Link? Sicher dass sich das auf R520 bezieht? Und wenn, wollte man vll. NV stressen?

nvidia hat das anscheinend kalt gelassen...

mfg

Mr. Lolman
2005-06-24, 19:44:05
Fakt ist, dass R520 schon 2004 sein Tapeout hatte - wodurch man die Karte mit Sicherheit früher bringen wollte.

Gut wenn du meinst. Ich darf halt nicht konkret werden. Das ist das Problem von "confidential" Mails...

nvidia hat das anscheinend kalt gelassen...

mfg

Wer weiss wie fett der G70 geworden wär, wenn sie noch 3-5 Monate zusätzlich dran werken hätten können...

The_Invisible
2005-06-24, 19:46:29
Gut wenn du meinst. Ich darf halt nicht konkret werden. Das ist das Problem von "confidential" Mails...



Wer weiss wie fett der G70 geworden wär, wenn sie noch 3-5 Monate zusätzlich dran werken hätten können...

wer weiß was nvidia noch hinter dem rücken versteckt hält... will zwar nichts verschreien aber ich glaube nvidia hat derzeit nur ihren König/10er ausgespielt und nicht ihren Trumpf As...

mfg

reunion
2005-06-24, 19:51:03
ein wenig... und im september bekommen wir dann
"jetzt neu, der staubsauger R520, mit nur 150W stromverbrauch ein super sparsamer handstaubsauger, sein extragroßer und lauter motor, erlaubt es das jedes tier sofort aus dem weg springt wenn sie kommen und saugen... kaufen sie ihn jetzt, zum einmaligen schnäppchenpreis von nur 550€"


Nur weil der 90nm Prozess nicht will, bedeutet das noch lange nicht, dass der Chip schlecht ist.

reunion
2005-06-24, 19:51:40
Das ist schon ein Problem für ATI ;)


Es verschiebt zumindest nicht die Nachfolgeprodukte.

reunion
2005-06-24, 19:54:41
Gut wenn du meinst. Ich darf halt nicht konkret werden. Das ist das Problem von "confidential" Mails...



Mag sein, dass du davon früher erfahren hast, trotzdem gab es eine Verschiebung - Dave Orton gab dies schließlich auf der "conference call" bekannt.

Gast
2005-06-24, 19:56:28
Das As wäre der RSX-für-Desktop, aka G70@500+MHz und erhöhter Speichertaktrate.

Warum der R520 nicht vor September kommt kann ja nur an Fertigungsschwierigkeiten liegen, die warten sicher nicht auf schnelleren Speicher. Man ist in zugzwang, wäre der Chip jetzt "Fit" würde man ihn doch spätestens in 1Monat Releasen (geschehen bei NV40vsR420).
Im Highend Markt gehts wie schon oft gesagt rein ums Prestige, unterliegt man hier, haben es die folgenden Produkte schwerer.

Und die Publicity die "wir" Freaks nun NV kostenlos geben, mit Nutzerreviews ergatterter G70 Karten ist unbezahlbar. (Lieferengpässe wirds klar geben bei DER Nachfrage, aber "shippment" läuft ja auf Hochtouren)

tombman
2005-06-24, 22:35:51
rein vom Gefühl heraus hab ich schon lange gemeint "des wird eh Weihnachten" und jetzt scheints in die Richtung zu gehen - denn wenn jemand schon offiziell Sep. sagt, dann haust noch was drauf als erfahrener User und denkst dir eben Weihnachten ;D

ATI wollte eben sehr hoch hinaus mit dem R520, aber der 90nm Prozess dürfte bei >300Mio Transen schon ein sehr heikles Gebiet sein.

Trotzdem denke ich, daß der R520 ein richtiger powerchip wird ;)

Cyman
2005-06-24, 23:12:12
Also ich spiele gerade (und bei dieser News erst recht) mit dem Gedanken, meinem System noch eine AGP 6800 Ultra zu gönnen. Die Preise sind ja jetzt schon auf ein annehmbares Niveau gefallen und werden in den nächsten Wochen wohl noch weiter fallen.
Ich schätze mal, ehe ich auf ein PCIe-System umsteige, könnte noch ein bisschen Zeit ins Land streichen, vielleicht wird mein nächstes Komplettsystem gar ein Intel-Apple, kommt ganz darauf an, was die so zu bieten haben (vielleicht lassen die sich dann endlich mal "anständig" upgraden, d.h. zum Beispiel "normale" PC-Komponenten, auch und vor allem Grafikkarte). Worauf will ich hinaus? Ich denke, dass eine GeForce 6800 Ultra zusammen mit einem P4 3.0C wohl noch lange anständige Performance bringen wird (so mein PC mir nicht vorher den Geist aufgibt) und in der Zwischenzeit kommen dann die neuen Konsolen, was für mich wahrscheinlich bedeuten wird, dass ich mir so schnell erstmal keinen PC mehr "hochzüchte", wenn ich für (wahrscheinlich) weniger als den heute üblichen Preis einer High-End-Grafikkarte, eine komplette Multimedia-Konsole bekomme, die noch dazu extrem vielversprechend auf mich wirken.
Eventuell kann ich dann sogar noch einige Zeit weiter mit meinem P4C800-E Deluxe fahren, so Intel den Yonah (oder seine Nachfolger) auf PGA 478 betten will (siehe Computerbase-News).
Die einzige Entscheidung bleibt dann erstmal, ob ich mich lieber für eine nVidia GeForce 6800 Ultra, oder eine ATi X800XL/XT (X850 ist mir zu teuer und ich glaube nicht, dass der Preis so bald in 6800 Ultra-Nähe rückt) entscheiden soll. Und mein Röhrenmonitor wird vielleicht zu gegebener Zeit auch mal durch etwas zeitgemäßeres ersetzt ;).

SKYNET
2005-06-25, 02:15:22
Naja, X850XT und 7800GTX sind bestimmt nicht gleichteuer


20% weniger preis, dafür bis zu weit über 100% langsamer?

na danke...

Gast
2005-06-25, 11:31:54
20% weniger preis, dafür bis zu weit über 100% langsamer?

na danke...

weit über 100% als der x850xt?? quelle??

aths
2005-06-25, 11:38:27
20% weniger preis, dafür bis zu weit über 100% langsamer?

na danke...Mehr als 100% langsamer? Rechnet die Grafikkarte dann rückwärts, oder wie?

aths
2005-06-25, 12:25:21
Wer weiss wie fett der G70 geworden wär, wenn sie noch 3-5 Monate zusätzlich dran werken hätten können...Bis auf einen (allerdings sehr wichtigen) Punkt sehe ich den G70 als ein äußerst gelungenes Stück Hardware an.

Dunkeltier
2005-06-25, 12:28:31
Was ist denn jetzt der genaue Grund, das Ati seinen Chip zurückhält? Ich denke mal, freiwillig machen die sowas ganz bestimmt nicht. Letztlich sind nur 2 Szenarien denkbar. Entweder es gibt Probleme mit der Verfügbarkeit von GPU oder dem Speicher, oder aber in der Entwicklung mit der Erreichbarkeit bestimmter Spezifikationen... Hätte Ati gekonnt, wäre deren neue GPU schon längst auf dem Markt. Überhaupt finde ich witzig, wie schwammig derzeit alles ist. Entweder sind es 16, 24 oder 32 Pixelpipelines, die Taktraten bewegen sich bei 350-600+ Mhz, der Speicher soll mit 550-800 Mhz takten, Launch-Datum wahrscheinlich um September rum. Alles so nichtsaussagend wie nur sonst was.

Haben die nicht irgendein Eisen im Feuer?

Dunkeltier
2005-06-25, 12:29:50
Bis auf einen (allerdings sehr wichtigen) Punkt sehe ich den G70 als ein äußerst gelungenes Stück Hardware an.


Als der wäre? Ich meine, vom AA-technischen steckt im G70 so ziemlich alles drin was ich mir wünsche. Lediglich die Optimierung des AF nerven mich... :(

ollix
2005-06-25, 12:29:56
Mehr als 100% langsamer? Rechnet die Grafikkarte dann rückwärts, oder wie? :ulol3:

-Muuz-
2005-06-25, 12:52:22
Bis auf einen (allerdings sehr wichtigen) Punkt sehe ich den G70 als ein äußerst gelungenes Stück Hardware an.


Und welcher Punkt ist das? Würde mich sehr interessieren :)

aths
2005-06-25, 12:52:50
Als der wäre? Ich meine, vom AA-technischen steckt im G70 so ziemlich alles drin was ich mir wünsche. Lediglich die Optimierung des AF nerven mich... :(302 Millionen Transistoren und kein vernünftiges AF – das ist indiskutabel.

Diskutator
2005-06-25, 12:58:34
20% weniger preis, dafür bis zu weit über 100% langsamer?

na danke...
Mit dem AF kein Wunder, der G70 ist nen schlechter Witz!

Diskutator
2005-06-25, 13:00:07
Dieser Thread sollte auf die Spielwiese kommen oder Spekulationen!
Es gab keine Aussage hierzu, das ist eine Vermutung.

Dunkeltier
2005-06-25, 13:01:47
302 Millionen Transistoren und kein vernünftiges AF – das ist indiskutabel.


Die Transistorzahl kann mir als Kunden und Konsument egal sein, aber mit dem AF haste Recht. Aber das erwähnte auch ich ja bereits. Aber was willste machen, solange es allen Top-Herstellern nur auf den längsten Balken aller Zeiten ankommt?

aths
2005-06-25, 13:03:20
Mit dem AF kein Wunder, der G70 ist nen schlechter Witz!Zwar leicht besser als ATIs AF, aber ungenügend für die Qualitätsansprüche die man bei dieser Texturierungsleistung stellen darf.

Gast
2005-06-25, 13:04:15
Mit dem AF kein Wunder, der G70 ist nen schlechter Witz!

Ja wer hat denn damit angefangen?

aths
2005-06-25, 13:07:11
Die Transistorzahl kann mir als Kunden und Konsument egal sein, aber mit dem AF haste Recht. Aber das erwähnte auch ich ja bereits. Aber was willste machen, solange es allen Top-Herstellern nur auf den längsten Balken aller Zeiten ankommt?Mit den neuen AA-Optionen zeigt Nvidia dass sie prinzipiell willens sind, Transistoren zu opfern um mehr Qualität zu ermöglichen – wobei diese Qualität natürlich weiterhin Leistung kostet. Dass sie bei der Texturqualität so stur sind, verstehe ich nicht.

Natürlich ist es denkbar, dass ein vernünftiger AF-Modus in Wahrheit drin ist, der aber nur dann aktiviert wird, falls ATI unerwarteterweise im nächsten Chip eine deutlich bessere AF-Qualität abliefert. Das ist aber nur eine wilde Spekulation.

Gast
2005-06-25, 13:11:45
Mit den neuen AA-Optionen zeigt Nvidia dass sie prinzipiell willens sind, Transistoren zu opfern um mehr Qualität zu ermöglichen – wobei diese Qualität natürlich weiterhin Leistung kostet. Dass sie bei der Texturqualität so stur sind, verstehe ich nicht.

Natürlich ist es denkbar, dass ein vernünftiger AF-Modus in Wahrheit drin ist, der aber nur dann aktiviert wird, falls ATI unerwarteterweise im nächsten Chip eine deutlich bessere AF-Qualität abliefert.

So viele Transistoren kann 'richtiges' AF doch eigentlich gar nicht kosten, oder? Selbst wenn, der Qualitätsgewinn ist gigantisch und ein imho sehr gutes Argument fürs Marketing.

Winter[Raven]
2005-06-25, 13:12:35
@aths, wieso soll Nvidia ein FullAF anbieten wenn der Mitbewerber es nicht vorhat? Das endet doch wieder in dem unfairem Vergleich wie wir es schon kennen, weil die meisten Reviewer einfach zu "blöd"(vorsichtig ausgedrückt) sind.

Nvidia versprach es für die nächste Generation und ich hoffe bzw. Vertrau auf dieses Wort :)

aths
2005-06-25, 13:20:45
So viele Transistoren kann 'richtiges' AF doch eigentlich gar nicht kosten, oder? Selbst wenn, der Qualitätsgewinn ist gigantisch und ein imho sehr gutes Argument fürs Marketing.Also, das würde schon viele Transistoren kosten.

Denn isotrope Filterung (also rein bilinear oder trilinear) bzw. 2x AF ist ja ab dem NV40 verbessert worden. Das kostet extra Transistoren. 2x AF kann man nun recht einfach realisieren, weil sich da bestimmte Optimierungsmöglichkeiten ergeben. Aufbauend auf der verbesserten isotropen Filterung auch 4x-16x AF anzbieten, das wäre aufwändig. Aber möglich und sinnvoll, schließlich besteht ein Bild zum Großteil aus Texturen.



']@aths, wieso soll Nvidia ein FullAF anbieten wenn der Mitbewerber es nicht vorhat? Das endet doch wieder in dem unfairem Vergleich wie wir es schon kennen, weil die meisten Reviewer einfach zu "blöd"(vorsichtig ausgedrückt) sind.Das ist mir doch egal. Ich kaufe eine Karte doch nicht damit sie fair gegen die Konkurrenz gebenchmarkt werden kann. Wäre ich NV hätte ich Demos programmiert die die Vorteile von vernünftigem AF zeigen, anstatt einfach auf schlechtere Qualität zu setzen.

']Nvidia versprach es für die nächste Generation und ich hoffe bzw. Vertrau auf dieses Wort :)Wo soll NV das versprochen haben?

Gast
2005-06-25, 13:21:33
']@aths, wieso soll Nvidia ein FullAF anbieten wenn der Mitbewerber es nicht vorhat? Das endet doch wieder in dem unfairem Vergleich wie wir es schon kennen, weil die meisten Reviewer einfach zu "blöd"(vorsichtig ausgedrückt) sind.

Nvidia versprach es für die nächste Generation und ich hoffe bzw. Vertrau auf dieses Wort :)

FullAF kann man im CP bestimmt so unterbringen, dass es unfähige Tester nicht finden.

Dunkeltier
2005-06-25, 13:26:52
(...)

Das ist mir doch egal. Ich kaufe eine Karte doch nicht damit sie fair gegen die Konkurrenz gebenchmarkt werden kann. Wäre ich NV hätte ich Demos programmiert die die Vorteile von vernünftigem AF zeigen, anstatt einfach auf schlechtere Qualität zu setzen.

(...)

Ein Schalter im Treiber würde mir vollkommen reichen. :)

SKYNET
2005-06-25, 13:40:06
Mehr als 100% langsamer? Rechnet die Grafikkarte dann rückwärts, oder wie?


ok blöd ausgedrückt... ;( hätte sagen sollen G70 zum teil über 100% schneller und nur 20% teurer... =) ;)

SKYNET
2005-06-25, 13:42:38
Mit dem AF kein Wunder, der G70 ist nen schlechter Witz!


who cares? das von ATI ist noch schlechter... =)

Winter[Raven]
2005-06-25, 13:46:58
Wo soll NV das versprochen haben?

irgend ein Nvidia futzi im interviwe mit 3dc :)

Expandable
2005-06-25, 13:49:08
302 Millionen Transistoren und kein vernünftiges AF – das ist indiskutabel.

Auch wenn ich mich hier vielleicht unbeliebt mache: Was ist eigentlich das Problem mit AF-Optimierungen? Ich meine, ich habe eh SEHR lange gebraucht, bis ich überhaupt gesehen habe, was durch AF besser wird. AF ist das aller erste, was ich ausschalte, wenn die Performance meiner Radeon 9800 Pro nicht mehr aussreicht. Ich finde die Optimierungen gut. Mir fällt kein Qualitätsunterschied auf (wie gesagt, mir fällt ja nicht einmal großartig auf, ob AF überhaupt an oder aus ist), aber die Performance steigt. Also alles bestens. Die Optimierungen optional ausschalten zu können wäre dennoch ein nettes Feature, auch, wenn ich es nicht nutzen würde.

Oben schrieb jemand von einer wahnsinnig gesteigerten Bildqualität. Kann mir da mal jemand einen Link zu einem entsprechenden Bild zeigen? Wo ist der Unterschied?

Back to Topic: Ich bin echt überrascht über die sofortige Verfügbarkeit von G70-Karten. Ich bin ja wirklich mal gespannt, wie ATI gedenkt, seinen R520 verkaufen zu wollen, wenn die so lange hinter nVidia hinterherhinken. Es sei denn, es wäre der absolute Oberhammerchip der den G70 in Grund und Boden rechnet. Bezweifle ich aber irgendwie. Und immerhin wird nVidia ja auch nicht schlafen! Man darf also gespannt sein... Doch auch, wenn der R520 dem G70 performance-mäßig überlegen wäre - hat er kein vergleichbares Transparency Antialiasing, ist der R520 nix für mich. Ansonsten wird der R520 nur gekauft, wenn er deutlich schneller und gleich teuer ist. Da ich viele OpenGL-Spiele spiele, bin ich gegenüber ATI eher abgeneigt. Was ich mit meiner 9800 da schon alles erlebt hat, da hab ich mir meine GF4 wieder zurückgewünscht...

aths
2005-06-25, 13:54:13
ok blöd ausgedrückt... ;( hätte sagen sollen G70 zum teil über 100% schneller und nur 20% teurer... =) ;)100% schneller nur in wenigen Fällen. Die Preise werden sich schon anpassen.

']irgend ein Nvidia futzi im interviwe mit 3dc :)
Genauer, bitte. Ich meine, die 3DC-Artikel und Interviews zu kennen und kann mich an ein derartiges Versprechen nicht erinnern.

SKYNET
2005-06-25, 14:00:28
100% schneller nur in wenigen Fällen. Die Preise werden sich schon anpassen.



deswegen sagte ich ja auch, zum teil! =)

und preise anpassen? ne, der GTX wird sich bei 470-550€ einpendeln, je nach hersteller, und die GT version bei 370-450€.

Gast
2005-06-25, 14:17:55
ATi bestätigt die Verspätung der R520 GPU (http://www.hardtecs4u.com/?id=1119653295,84118,ht4u.php)

DrFreaK666
2005-06-25, 14:17:59
deswegen sagte ich ja auch, zum teil! =)

und preise anpassen? ne, der GTX wird sich bei 470-550€ einpendeln, je nach hersteller, und die GT version bei 370-450€.

aths meinte bestimmt die Preise der X850XT-Pe

deLuxX`
2005-06-25, 14:24:55
who cares? das von ATI ist noch schlechter... =)

Sry, aber wenn ich sowas schon höre.
ATIs noch schlechteres AF ist noch lange keine Legitimation dafür, dass nVidia so etwas produzieren darf. Na gut, für nVidia selber wahrscheinlich schon aber mich interessiert nicht die Meinung von nV sondern meine .
Und die sagt, dass so etwas, bei einem sonst so hoch entwickelten Chip, nicht sein muss.

-deLuxX`

DrFreaK666
2005-06-25, 14:26:34
Sry, aber wenn ich sowas schon höre.
ATIs noch schlechteres AF ist noch lange keine Legitimation dafür, dass nVidia so etwas produzieren darf. Na gut, für nVidia selber wahrscheinlich schon aber mich interessiert nicht die Meinung von nV sondern meine .
Und die sagt, dass so etwas, bei einem sonst so hoch entwickelten Chip, nicht sein muss.

-deLuxX`

Das denken viele aber schon seit dem R300.
Wann wirklich wieder hochwertiges AF angeboten wird - wer weiss...

2005-06-25, 14:35:23
Hi!

Vielleicht sieht sich ATi mal den G70 an und arbeitet daran den R520 zu "verbessern" (Stichwort Taktschraube)?

Finde es nicht so schlimm, schade ist nur, daß die Preise vor Herbst nicht purzeln werden.

MfG

aths
2005-06-25, 15:09:33
Auch wenn ich mich hier vielleicht unbeliebt mache: Was ist eigentlich das Problem mit AF-Optimierungen? Ich meine, ich habe eh SEHR lange gebraucht, bis ich überhaupt gesehen habe, was durch AF besser wird.Ich sehe es auf Anhieb.

AF ist das aller erste, was ich ausschalte, wenn die Performance meiner Radeon 9800 Pro nicht mehr aussreicht.Da gehe ich lieber in Details oder, wenn möglich, der Auflösung herunter.

Ich finde die Optimierungen gut. Mir fällt kein Qualitätsunterschied auf (wie gesagt, mir fällt ja nicht einmal großartig auf, ob AF überhaupt an oder aus ist), aber die Performance steigt. Ich sehe sofort ob AF aktiv ist oder nicht. Außerdem fallen mir die Nachteile der bewussten "Optimierung" z. B. in WoW eher ins Auge, als das MIP-Banding wenn ich mit bilinearer Filterung spiele.

Also alles bestens. Die Optimierungen optional ausschalten zu können wäre dennoch ein nettes Feature, auch, wenn ich es nicht nutzen würde.Du wärst offenbar auch ganz ohne AF zufrieden und wenn, würde dir 2x oder 4x AF reichen. Ich will mehr, mindestens 8x AF – und zwar überall dort, wo es der Qualität zugute kommen könnte, und nicht nur an bestimmten Stellen.

Wenn du mit wenig AF zufrieden bist, kannst du es doch einfach "optimieren" indem du einen niedrigen Maximalgrad einstellst. Wer mehr AF will, möchte dies natürlich überall haben, sonst ist es witzlos.

Oben schrieb jemand von einer wahnsinnig gesteigerten Bildqualität. Kann mir da mal jemand einen Link zu einem entsprechenden Bild zeigen? Wo ist der Unterschied?Auf dieser Seite http://www.3dcenter.org/artikel/kolumne_optimierungen/index5.php ist ein Beispielbild, dass die Auswirkung der Winkel-"Optimierung" zeigt.

ShadowXX
2005-06-25, 15:28:40
']irgend ein Nvidia futzi im interviwe mit 3dc :)

In diesem Interview sagte der nV-Mann nur, das es vielleicht mit einer der nächsten Karten wieder kommen könnte....

Versprochen, das es garantiert wieder kommt hat er nicht....

Und solange ATI beim Winkelabhängigen Verfahren bleibt, wird auch nV dabei bleiben.....

Soooo eine Über-GPU, die den anderen soooo extrem in Grund in Boden rechnet, das man sich leisten kann gutes AF anzubieten ohne bei den Schw...zvergleichen schlecht dazustehen kann keiner von beiden...

@aths
gibts den Clamp-Schalter im CP beim G70 noch??

reunion
2005-06-25, 16:15:02
Und solange ATI beim Winkelabhängigen Verfahren bleibt, wird auch nV dabei bleiben.....


Und solange nV beim winkelabhängigen-Verfahren bleibt,...


Soooo eine Über-GPU, die den anderen soooo extrem in Grund in Boden rechnet, das man sich leisten kann gutes AF anzubieten ohne bei den Schw...zvergleichen schlecht dazustehen kann keiner von beiden...


Ist IMHO auch gar nicht nötig. Ich glaube doch, dass ein Großteil der User Qualität vor Leistung stellt - bei der GFX half das natürlich auch nicht mehr.

aths
2005-06-25, 16:22:44
@aths
gibts den Clamp-Schalter im CP beim G70 noch??Das weiß ich nicht – über einen G70 verfüge ich nicht. Was die neuen AA-Modi angeht musste ich mir das aus Screenshots die Leo mir gemacht hat zusammenreimen, unter Zuhilfenahme von Demirugs Äußerungen im Forum und Überlegungen / Experimenten von Xmas.

aths
2005-06-25, 16:26:40
Und solange nV beim winkelabhängigen-Verfahren bleibt,...Genau. Aus solchen Gründen interessiert mich auch keine Marketing-Politik. Ein AF basierend auf dem LOD-Muster für 1x bzw. 2x AF im NV wäre der Hammer, und der bestmögliche Weg, aus wenig Leistungsverbrauch viel Texturqualität zu machen.

Dabei wird sogar etwas Leistung gegenüber einer AF-Implementierung á la herkömmlichen LOD-Muster gespart.

Ist IMHO auch gar nicht nötig. Ich glaube doch, dass ein Großteil der User Qualität vor Leistung stellt - bei der GFX half das natürlich auch nicht mehr.Wer mit weniger AF-Qualität leben kann, kann einfach den AF-Maximalgrad senken. Dazu wurde diese Einstellung ja auch erfunden. Ich kann kein sinnvolles Argument sehen, was dieses Teil-AF rechtfertigt und schwerer wiegt als mein Argument, dass nur volles AF die Leistung effizient in Texturqualität umsetzt. Wenn ich schon einen hohen AF-Maximalgrad haben möchte, dann natürlich überall. Die Grafikkarten rechnen AF sowieso adaptiv, also nur schwach verzerrte Texturen bekommen bei eingestelltem 16x AF einen niedrigeren AF-Grad appliziert. Es ist aber völlig unrealistisch, auch bestimmte Winkel um die Z-Achse herum zu limitieren. In der Natur hängt der sichtbare Detailgrad einer Oberfläche von allem möglich ab – aber nicht davon, was ATI und NV ab NV40 zur "Optimierung" nutzen.

Raff
2005-06-26, 16:57:14
Full Ack zu aths' AF-Statement!

Aber nochmal zum eigentlichen Thema. Warum halten sie das Teil denn ganz zurück? Man könnte doch eine etwas "untertaktete" Version zeigen -- und nicht nur hinter verschlossenen Türen mit einem "ruckelnden" Video. Dann wären wenigstens die gröbsten Spekulationen vorbei, wenn sie noch die Ziel-Takte angeben.

Und: Wenn das Teil dann wider Erwarten gleich Anfang Oktober kaufbar ist und auch noch dem G70 ordentlich in den Hintern tritt, wird nVIDIA sicher nicht Däumchen drehen. Bis dahin hat man sicher noch bessere Yields und kann sich eine "Ultra"-Variante zusammenzimmern, die dann mit 500+ MHz GPU-Takt und vielleicht 100 MHz schnellerem RAM wieder abgeht wie geschmiert. Schon jetzt scheint es so, als würden alle 7800GTXen über 500 MHz kommen ...

MfG,
Raff

Expandable
2005-06-26, 17:35:04
Ich sehe es auf Anhieb.

Da gehe ich lieber in Details oder, wenn möglich, der Auflösung herunter.

Ich sehe sofort ob AF aktiv ist oder nicht. Außerdem fallen mir die Nachteile der bewussten "Optimierung" z. B. in WoW eher ins Auge, als das MIP-Banding wenn ich mit bilinearer Filterung spiele.

Du wärst offenbar auch ganz ohne AF zufrieden und wenn, würde dir 2x oder 4x AF reichen. Ich will mehr, mindestens 8x AF – und zwar überall dort, wo es der Qualität zugute kommen könnte, und nicht nur an bestimmten Stellen.

Wenn du mit wenig AF zufrieden bist, kannst du es doch einfach "optimieren" indem du einen niedrigen Maximalgrad einstellst. Wer mehr AF will, möchte dies natürlich überall haben, sonst ist es witzlos.

Auf dieser Seite http://www.3dcenter.org/artikel/kolumne_optimierungen/index5.php ist ein Beispielbild, dass die Auswirkung der Winkel-"Optimierung" zeigt.

Okay, so in der Theorie sieht man das schon. Aber fällt es wirklich in einem Spiel auf OHNE direkten Vergleich? Sorry, aber lieber die Auflösung/Details zu senken als AF abzuschalten ist für mich einfach unverständlich ;)

mapel110
2005-06-26, 17:39:46
Full Ack zu aths' AF-Statement!

Aber nochmal zum eigentlichen Thema. Warum halten sie das Teil denn ganz zurück? Man könnte doch eine etwas "untertaktete" Version zeigen -- und nicht nur hinter verschlossenen Türen mit einem "ruckelnden" Video. Dann wären wenigstens die gröbsten Spekulationen vorbei, wenn sie noch die Ziel-Takte angeben.

Warum sollten sie das tun? Offenbar ist ATI nicht zufrieden mit dem bislang Erreichten und wenn das der Fall ist, werden die Endkunden auch nicht zufrieden sein. Also lässt man sie besser im Ungewissen und läßt sie hoffen.

lilgefo~
2005-06-26, 17:48:28
Auch wenn ich mich hier vielleicht unbeliebt mache: Was ist eigentlich das Problem mit AF-Optimierungen? Ich meine, ich habe eh SEHR lange gebraucht, bis ich überhaupt gesehen habe, was durch AF besser wird. AF ist das aller erste, was ich ausschalte, wenn die Performance meiner Radeon 9800 Pro nicht mehr aussreicht. Ich finde die Optimierungen gut. Mir fällt kein Qualitätsunterschied auf (wie gesagt, mir fällt ja nicht einmal großartig auf, ob AF überhaupt an oder aus ist), aber die Performance steigt. Also alles bestens. Die Optimierungen optional ausschalten zu können wäre dennoch ein nettes Feature, auch, wenn ich es nicht nutzen würde.

Oben schrieb jemand von einer wahnsinnig gesteigerten Bildqualität. Kann mir da mal jemand einen Link zu einem entsprechenden Bild zeigen? Wo ist der Unterschied?


Hier mal ein Screenshot ohne AF: (scrnsht mit AF geht net mehr das bild is schon uralt, aber es zeigt deutlich wie sche..schlecht das bild ohne af aussieht)

http://img132.echo.cx/img132/6806/blubb0md.jpg

Machst du AF an, wandern die Matschtexturen Stück für Stück nach hinten...also wenn du das nicht erkennst dann weiß ichs aber auch nicht.

Adam D.
2005-06-26, 22:09:15
Machst du AF an, wandern die Matschtexturen Stück für Stück nach hinten...also wenn du das nicht erkennst dann weiß ichs aber auch nicht.
Wobei das Flimmern dann auch tierisch nerven kann. In WoW auf der Schimmernden Ebene hätte ich Nvidia am liebsten meine 6800GT um die Ohren gehauen. Das ist so eine Frechheit :mad:

Sep.pel
2005-06-27, 01:07:28
:rolleyes: und ich habe vor der schilernden ebene meine x800 geschrottet

Ailuros
2005-06-27, 01:20:51
Wie kommt ihr darauf, dass sich der R520 verspätet? Hat Ati jemals irgendwas von nem Releasetermin verlautbart? Euch gegenüber wahrscheinlich nicht. Ich weiss den Releasetermin schon seit letztem Jahr, und hab im fetten R520 Thread auch schon mal angedeutet, wann ihr die Kärtchen erwarten könnt...

Dein NDA moechte ich mal liebend gerne sehen. Zu behaupten dass es absolut KEINE Verzoegerungen fuer R520 gibt ist Schwachsinn. Wenige glaubten letztes Jahr dass das Ding Anfang 2005 kommen wird, aber die Zeit der projezierten Vorstellung ist schon seit einiger Zeit vorbei.

Ailuros
2005-06-27, 01:23:18
Okay, könnte sich auch auf R500 beziehen:

TSMC presented at ATI’s recent Technology Seminar and we quizzed when they expected to see shipping 90nm products produced at TSMC and their reply was “In the first half of 2005”.
http://www.beyond3d.com/forum/viewtopic.php?t=12174

The reports state that ATI have confirmed they are due to launch their new architecture, the basis of the R5xx series, in the first half of 2005.
http://www.beyond3d.com/forum/viewtopic.php?t=17745

Trotzdem: ATi gab auf der conference call an, dass sich R520 verschieben wird:

“This range has been adjusted down from the preliminary guidance announced on June 6, 2005, due to a more conservative expectation on the ramp of new products in the fourth quarter,” ATI said. The company said on a conference call that its new graphics chip, the R520, is delayed.
http://globeinvestor.com/servlet/ArticleNews/story/RTGAM/20050623/wati0623

Ich weiss jetzt nicht mehr wehr hier im Thread auch Crossfire erwaehnt hat, aber diese Systeme muessten schon verfuegbar sein da es sich auch um verfuegbare HW (R4xx) handelt.

Vor einiger Zeit zog ich einen quote eines mir unbekannten Users von B3D im grossen R520 Spekulations-Thread rueber der ueber die Margen bei ATI sprach nur als Gedankensporn. Mir ist egal von wem etwas kommt, so lange es auch Sinn macht. In dem Fall hatte dieser Herr ein paar sehr interessante Punkte und ich will sie bei bestem Willen nicht wiederholen, weil ich keine Zeit und Lust habe mich mit fanatischen Gegen-argumenten zu beschaeftigen.

R520 sieht nach dem letzten offiziellen Bericht nicht nur verspaetet aus, sondern auch die Andeutungen ueber die moegliche Verfuegbarkeit hoeren sich nicht besonders hoffnungsvoll an.

ATI ist ein grosser IHV denen wird nichts passieren selbst wenn die schlimmsten Thesen ueber R520 der Wahrheit entsprechen werden; sie werden dann eben genauso schnell wieder aufkrempeln wie NVIDIA nach dem NV30-Flop.

Eine Vorankuendigung ohne verfuegbare HW steht wohl ueberhaupt nicht in Frage hier, weil sie dann von NVIDIA's PR-Maschine regelrecht zerissen werden.

Man kann es gar nicht oft genug sagen: am Ende des Tages und ueberhaupt heutzutage, ist es egal ob der Durchschnitts-Verbraucher eine Radeon oder eine GeForce im System hat. Ausser man ist so verrueckt und baut eine graesslich kitschige Neon-Lampe an der Seite die je nach Bevorzugungen ein rotes oder gruenes Logo an und aus flimmert....

ShadowXX
2005-06-27, 07:34:10
Ist IMHO auch gar nicht nötig. Ich glaube doch, dass ein Großteil der User Qualität vor Leistung stellt - bei der GFX half das natürlich auch nicht mehr.

Ich glaube das ist nicht mal beim Großteil der Lesern des 3DC-Forums so.

Ohne mich zu weit aus dem Fenster lehnen zu müssen würde ich glatt mal sagen, das 80% der Kartenkäufer auf die Balkenlänge gucken (leider).

Es gibt ja scheinbar sogar welche, die nicht mal einen großen Unterschied zwischen AF an/aus sehen.....Expandable ist da bestimmt nicht der einzige.

Du wirst lachen, aber ich kenne ein paar Spezis in meinem Bekanntenkreis, für die AA das gleiche wie Blur und AF das gleichen in Grün ist....die kann man mit Bildern, Texten etc. vollknallen...die glauben trotzdem das weiter, was Sie glauben wollen, nicht das was Sie sehen.
Einer von denen sagte bei einen Screenshot mit und ohne AF zu mir: "man sieht das schei**e mit AF aus, das ist ja viel zu scharf, so hat das bei Computerspielen nicht auszusehen...".

seahawk
2005-06-27, 08:18:13
Ich behaupte mal der Termin für die erste Verfügbarkeit des R520 hat sich gegenüber alten Planungnen nicht geändert. Allerdings hat NVs Verfügbarkeitsüberraschung beim G70 einen ATI Paperlaunch im Juli unmöglich gemacht. Im gegenwärtigen Konkurrenzumfeld hätten die sich eine 2 Monate lange Wartezeit nicht leisten können.

R520 is alive and well. Allerdings würde ich empfehlen die Erwartungen an die technische Realität anzupassen. :D

lilgefo~
2005-06-27, 09:09:31
Wobei das Flimmern dann auch tierisch nerven kann. In WoW auf der Schimmernden Ebene hätte ich Nvidia am liebsten meine 6800GT um die Ohren gehauen. Das ist so eine Frechheit :mad:

Sollte das mit HQ Einstellung nicht weggehen? :confused:

Gast
2005-06-27, 09:45:03
Du wirst lachen, aber ich kenne ein paar Spezis in meinem Bekanntenkreis, für die AA das gleiche wie Blur und AF das gleichen in Grün ist....die kann man mit Bildern, Texten etc. vollknallen...die glauben trotzdem das weiter, was Sie glauben wollen, nicht das was Sie sehen.
Einer von denen sagte bei einen Screenshot mit und ohne AF zu mir: "man sieht das schei**e mit AF aus, das ist ja viel zu scharf, so hat das bei Computerspielen nicht auszusehen...".

joa, ich kenn auch solche experten - aber als ich bei der matura dann (mein informatik-spezialgebiet war supersamplingAA) einen pc mit 400x300 und einmal mit 4xSSAA und einmal ohne, hat sogar mein alter informatik-lehrer mit seiner brille nen unterschied gesehen

man muss es nur den leuten richtig beibringen

Mr. Lolman
2005-06-27, 10:09:31
Dein NDA moechte ich mal liebend gerne sehen.

Das hast du als ATi Developer automatisch. Seitens ATi wird in jeder Mail darauf hingewiesen, dass die Informationen vertraulich sind...


Zu behaupten dass es absolut KEINE Verzoegerungen fuer R520 gibt ist Schwachsinn. Wenige glaubten letztes Jahr dass das Ding Anfang 2005 kommen wird, aber die Zeit der projezierten Vorstellung ist schon seit einiger Zeit vorbei.

Ok, dann gabs halt Verzögerungen, aber bewusst war man sich derer schon vor mehr als nem halben Jahr...

HOT
2005-06-27, 10:18:46
Ja wer hat denn damit angefangen?

Ist doch vollkomen Piepegal wer damit angefangen hat. ATI und NV sind für den Mist selbst verantwortlich, den sie entwickeln. ATI kann nichts dafür, wenn ein NV Manager meint, sie müssten das Schrott-AF kopieren. Das ist das die Schuld des NV Managers aber nicht von ATI.
Manche Leute haben ein seht seltsames Verständnis davon, wer wofür verantwortlich ist....

HOT
2005-06-27, 10:21:15
Auch wenn ich mich hier vielleicht unbeliebt mache: Was ist eigentlich das Problem mit AF-Optimierungen? Ich meine, ich habe eh SEHR lange gebraucht, bis ich überhaupt gesehen habe, was durch AF besser wird. AF ist das aller erste, was ich ausschalte, wenn die Performance meiner Radeon 9800 Pro nicht mehr aussreicht. Ich finde die Optimierungen gut. Mir fällt kein Qualitätsunterschied auf (wie gesagt, mir fällt ja nicht einmal großartig auf, ob AF überhaupt an oder aus ist), aber die Performance steigt. Also alles bestens. Die Optimierungen optional ausschalten zu können wäre dennoch ein nettes Feature, auch, wenn ich es nicht nutzen würde.
[...]

Dann würde es dir ja wohl auch reichen, wenn du von der Leistung her einfach eine niedrigeren Grad dafür einstellst oder nicht? Also vollständiges "nichtschmutziges" AF dann auf 4x und net auf 16x mit "Optimierung".

SentinelBorg
2005-06-27, 10:26:49
Wobei das Flimmern dann auch tierisch nerven kann. In WoW auf der Schimmernden Ebene hätte ich Nvidia am liebsten meine 6800GT um die Ohren gehauen. Das ist so eine Frechheit :mad:
Deswegen heisst es doch die "Schimmernde Ebene" :P

Sentinel

HOT
2005-06-27, 10:38:12
Ich behaupte mal der Termin für die erste Verfügbarkeit des R520 hat sich gegenüber alten Planungnen nicht geändert. Allerdings hat NVs Verfügbarkeitsüberraschung beim G70 einen ATI Paperlaunch im Juli unmöglich gemacht. Im gegenwärtigen Konkurrenzumfeld hätten die sich eine 2 Monate lange Wartezeit nicht leisten können.

R520 is alive and well. Allerdings würde ich empfehlen die Erwartungen an die technische Realität anzupassen. :D

Genau so sehe ich das auch. NV hat ATI hier einfach überrumpelt. Das passiert nunmal im Geschäftsleben, ATI hat daraufhin auf die einzig sinnvolle Art reagiert.
Der R520 sollte sicher wieder ein netter Paperlaunch werden, nur war das diesmal offensichtlich und das nutzte NV eben aus. NV weiss um die Schwierigkeiten mit dem 90nm Prozess und somit hat man eben diesmal ATI ins Klo greifen lassen anstatt selbst hineinzugreifen und selbst wie ATI damals mit einem eher konservativen Fertigungsprozess reagiert.

ShadowXX
2005-06-27, 10:41:26
Dann würde es dir ja wohl auch reichen, wenn du von der Leistung her einfach eine niedrigeren Grad dafür einstellst oder nicht? Also vollständiges "nichtschmutziges" AF dann auf 4x und net auf 16x mit "Optimierung".

Vergiss es....das wirst du den Leute nie verklickern können.

Wie ich schon sagte: Es achten viel zu viele auf den Benchmarkbalken und solange einer der beiden IHVs weiterhin winkeloptimiertes AF benutzt, benutzt es der andere auch.

Denn sonst kommen wieder so Lustige sachen zustande wo dann gutes AF gegen optimiertes AF beim gleichen Grad gebenchmarkt wird und X dann zu Y sagt: "Ehh, meiner zieht deinen um 20FPS bei gleichen Einstellungen ab...hast du ne Schrottkarte"

Das werden wir wohl deshlab nicht so schnell loswerden, den einer müsste den ersten Schritt gehen und dann mit schlechten Benchmarkwerten rechnen....das will aber keiner der beiden IHVs, also macht keiner den ersten Schritt.

Im Prinzip kann nur MS was daran drehen, indem in den Specs von WGF2.0 oder höher genau festgelegt werden würde, wie AF auszusehen (Qualitätsmässig bzw. einfach das verbieten von Winkeloptimierungen) hat und nicht nur was der höchste einstellbare Grad sein soll.

Immerhin haben weder nV noch ATI es bis jetzt auf Volari-Niveau runtergedrückt.

HOT
2005-06-27, 10:54:15
Das mag ja alles sein, Shadow, aber die meisten Reviews jedenfalls benchen nach Standardvorgaben. Warum gibt NV dann nicht das WinkelAF als Standard vor (nutzt die Konkurrenz ja auch) und bietet alternativ noch unoptimiertes AF über einen Schalter an (vorausgesetzt man hätte Hardware die das auch kann)? Der User, der das AF sowieso nicht sieht, wird sich eh an Standardvorgaben halten, die können dann noch so schrecklich aussehen.

Ailuros
2005-06-27, 11:08:42
Ok, dann gabs halt Verzögerungen, aber bewusst war man sich derer schon vor mehr als nem halben Jahr...

Ein respin kommt auch nicht innerhalb von Wochen vor.


Ich behaupte mal der Termin für die erste Verfügbarkeit des R520 hat sich gegenüber alten Planungnen nicht geändert. Allerdings hat NVs Verfügbarkeitsüberraschung beim G70 einen ATI Paperlaunch im Juli unmöglich gemacht. Im gegenwärtigen Konkurrenzumfeld hätten die sich eine 2 Monate lange Wartezeit nicht leisten können.

R520 is alive and well. Allerdings würde ich empfehlen die Erwartungen an die technische Realität anzupassen.

Die Geruechte dass man R580 so schnell wie moeglich nachreichen will haeufen sich konstant an die letzten paar Wochen. Falls das stimmt, dann sag ich nur NV35.

Im Prinzip kann nur MS was daran drehen, indem in den Specs von WGF2.0 oder höher genau festgelegt werden würde, wie AF auszusehen (Qualitätsmässig bzw. einfach das verbieten von Winkeloptimierungen) hat und nicht nur was der höchste einstellbare Grad sein soll.

Das wuerde einen Teufelskreis eroeffnen und in dem Fall reagiert M$ tatsaechlich wie sie sollten. Man kann nur Spezifikationen festsetzen, die Freiheit der Implementierung muss man schon den IHVs ueberlassen.

Ein uralter griechischer Spruch sagt dass es nichts positives ohne einen negativen Aspekt gibt; gilt hier genauso.

Die Winkelabhaengigkeit ist zwar etwas OT hier, aber als ich ca. 2002 erfuhr dass zumindest zwei IHVs mit quasi winkel-unabhaengigem AF ankommen werden, dachte ich selber dass der Trend vielleicht doch die Grossen mitreissen koennte am Ende. DeltaChrome war nicht nur spaet dran, wurde aber auch (leider nicht ungerechtfertigt) ueberflogen und das andere schaffte es eben nur in Sega's naechste Arcade-Dingsbums.

Aber um ganz objektiv zu sein, Grund zum meckern gibt es immer und bei allen Algorithmen. Man wird nie alle bis zu 100% zufrieden stellen koennen.

MartinRiggs
2005-06-27, 11:17:02
Mir ist eigentlich ziemlich Banane warum er sich verspätet,
ich hatte mich nur so drauf gefreut ;( ;(
Der sollte doch meine X800 ablösen, auf ne NV hab ich kein Bock.
Könnte schon immer kotzen wenn vor Games das sch.... NV-Logo kommt.

reunion
2005-06-27, 11:32:22
Ich behaupte mal der Termin für die erste Verfügbarkeit des R520 hat sich gegenüber alten Planungnen nicht geändert. Allerdings hat NVs Verfügbarkeitsüberraschung beim G70 einen ATI Paperlaunch im Juli unmöglich gemacht. Im gegenwärtigen Konkurrenzumfeld hätten die sich eine 2 Monate lange Wartezeit nicht leisten können.

Auch auf die Gefahr hin mich zum hundertsten Male zu Wiederholen - Dave Orton sprach stets von einer Verfügbarkeit im ersten Halbjahr 2005.

TiggleD
2005-06-27, 11:33:06
:mad: So langsam fragt man sich... Kann ATI nicht (->3dfx)? Wollen die nicht? Entweder haben die keinen konkurrenzfähigen Chip, oder neue ist ein derber Kracher. Und was ist nu mit CrossFire? Ein bisschen Merkwürdig ist das ganze schon. :mad:

Aber ne Nivea...? http://www.cheesebuerger.de/images/smilie/figuren/p040.gif Zum Spielball der grünen werden...?



PS: Was reg ich mich auf. Die nächste GraKa muß passiv gekühlt sein und eine anständige TV-Ausgabe haben. Da kommt das Spitzenmodell eh nicht in Frage. Und NiVida schon garnicht :tongue:

ShadowXX
2005-06-27, 11:37:44
Das mag ja alles sein, Shadow, aber die meisten Reviews jedenfalls benchen nach Standardvorgaben. Warum gibt NV dann nicht das WinkelAF als Standard vor (nutzt die Konkurrenz ja auch) und bietet alternativ noch unoptimiertes AF über einen Schalter an (vorausgesetzt man hätte Hardware die das auch kann)? Der User, der das AF sowieso nicht sieht, wird sich eh an Standardvorgaben halten, die können dann noch so schrecklich aussehen.

Da gegen hätte ich auch nix....von mir aus sogar nur über RegHacks aktivierbar.

Nur wahrscheinlich war der Zug zumindest für den G70 schon abgefahren, da er eben auf dem nv40 basiert. Mal sehen was mit dem nv50 (und damit meine ich jetzt nicht den G80, der ja wohl ein G70@90nm wird) kommt.


Das wuerde einen Teufelskreis eroeffnen und in dem Fall reagiert M$ tatsaechlich wie sie sollten. Man kann nur Spezifikationen festsetzen, die Freiheit der Implementierung muss man schon den IHVs ueberlassen.

Ein uralter griechischer Spruch sagt dass es nichts positives ohne einen negativen Aspekt gibt; gilt hier genauso.

Die Winkelabhaengigkeit ist zwar etwas OT hier, aber als ich ca. 2002 erfuhr dass zumindest zwei IHVs mit quasi winkel-unabhaengigem AF ankommen werden, dachte ich selber dass der Trend vielleicht doch die Grossen mitreissen koennte am Ende. DeltaChrome war nicht nur spaet dran, wurde aber auch (leider nicht ungerechtfertigt) ueberflogen und das andere schaffte es eben nur in Sega's naechste Arcade-Dingsbums.

Aber um ganz objektiv zu sein, Grund zum meckern gibt es immer und bei allen Algorithmen. Man wird nie alle bis zu 100% zufrieden stellen koennen.


Wieso Teufelskreis?

Wenn MS genau festlegt, wie die Qualität des AFs auszusehen hat, dann ist es den IHVs doch immer noch Freigestellt es zu implementieren wie Sie wollen.

Es muss danach eben nur gewisse Mindestkriterien erfüllen...z.B. aths genauer Betrachtung standhalten :D


PS: Was reg ich mich auf. Die nächste GraKa muß passiv gekühlt sein und eine anständige TV-Ausgabe haben. Da kommt das Spitzenmodell eh nicht in Frage. Und NiVida schon garnicht


Durch das vorab festlegen auf eine Hersteller tust du dir selbst keinen Gefallen. ATI bzw. nV ist das ziemlich egal, die wollen beide nur unser bestest, nämlich unser Geld.

seahawk
2005-06-27, 11:55:34
Auch auf die Gefahr hin mich zum hundertsten Male zu Wiederholen - Dave Orton sprach stets von einer Verfügbarkeit im ersten Halbjahr 2005.

Ich meinte auch nicht den ursprünglichen Plan, sondern den Zeitrahmen, der eine Vorstellung Ende Juli vorsagte.

ShadowXX
2005-06-27, 13:30:25
Ich meinte auch nicht den ursprünglichen Plan, sondern den Zeitrahmen, der eine Vorstellung Ende Juli vorsagte.

Und dann ist September keine Verzögerung??

seahawk
2005-06-27, 13:32:39
Nö, wenn Launch = Verfügbarkeit. Eine Verfügbarkeit im Juli war afaik schon lange nicht mehr realistisch.

Ailuros
2005-06-27, 13:42:02
Nö, wenn Launch = Verfügbarkeit. Eine Verfügbarkeit im Juli war afaik schon lange nicht mehr realistisch.

Verfuegbarkeit beim launch war aber von Anfang an geplant; und Juli schon gar nicht. Eher Anfang Juni.

ShadowXX
2005-06-27, 13:43:11
Nö, wenn Launch = Verfügbarkeit. Eine Verfügbarkeit im Juli war afaik schon lange nicht mehr realistisch.

Du gehst bei deiner Überlegung also davon aus, das ATI im Juli vorstellen wollte, aber Karten sowieso erst im September erhältlich gewesen wären, ein Paperlaunch also...richtig?

Das Problem dabei ist, das der gute Hr. Orton ebenfalls angekündigt hatte, das man (wie jetzt bei nV) die Karten direkt nach dem Launch bekommen kann...

Damit ist September eindeutig eine Verzögerung....ich meine, selbst ATI spricht von 'delay', also warum künstlich versuchen so zu tun, als wenn das schon immer so geplant war.

seahawk
2005-06-27, 13:46:17
Verfuegbarkeit beim launch war aber von Anfang an geplant; und Juli schon gar nicht. Eher Anfang Juni.

Gut der Plan ist aber ungefähr seit Anfang 2005 hinfällig und ATI wußte das.

Als Ende Juli als Termin aufkam, war es auch schon klar, dass die Verfügbarkeit bis dahin niemals zu schaffen ist.

September ist wenn man so will das offizielle Eingeständnis der Verspätung, aber keine neue Verspätung. (es sei denn der letzte Respin hätte auch nicht soviel gebracht wie erwartet)

Ich glaube den offiziellen Verlautbarungen von ATI (Orton) schon länger nicht mehr. ATI hat sich übernommen und das wird langsam offensichtlich. Oder hat hier schon einer ne Crossfirekarte im Laden gefunden ?

Ailuros
2005-06-27, 13:48:50
Mir ist eigentlich ziemlich Banane warum er sich verspätet,
ich hatte mich nur so drauf gefreut ;( ;(
Der sollte doch meine X800 ablösen, auf ne NV hab ich kein Bock.
Könnte schon immer kotzen wenn vor Games das sch.... NV-Logo kommt.

Weder G70 noch R520 sollte man eigentlich als Aufruestung fuer jeweils NV40/R420 ansehen und ich hoffe dass dieses auch klar genug ist nach all dieser Zeit.

Was fuer ein NV-logo ueberhaupt? Mir ist egal was jeder von Euch benutzt, aber versucht bitte keine basislosen Entschuldigungen fuer Eure Bevorzugung zu finden. Mir ist es lieber wenn ich "ich kaufe nur ATI" oder "ich kaufe nur NVIDIA" lese. Eine logische Erklaerung gibt es sowieso nicht dafuer.

Godmode
2005-06-27, 13:52:58
Ich glaube den offiziellen Verlautbarungen von ATI (Orton) schon länger nicht mehr. ATI hat sich übernommen und das wird langsam offensichtlich. Oder hat hier schon einer ne Crossfirekarte im Laden gefunden ?

Gabs vom Kreuzfeuer (wie ich dieses Wort liebe ;D ) eigentlich schon irgendwo unabhänge Benchmarks, also wurde das schon mal von irgendjemandem getestet?

Ailuros
2005-06-27, 13:53:37
Gut der Plan ist aber ungefähr seit Anfang 2005 hinfällig und ATI wußte das.

Als Ende Juli als Termin aufkam, war es auch schon klar, dass die Verfügbarkeit bis dahin niemals zu schaffen ist.

September ist wenn man so will das offizielle Eingeständnis der Verspätung, aber keine neue Verspätung. (es sei denn der letzte Respin hätte auch nicht soviel gebracht wie erwartet)

Ich glaube den offiziellen Verlautbarungen von ATI (Orton) schon länger nicht mehr. ATI hat sich übernommen und das wird langsam offensichtlich. Oder hat hier schon einer ne Crossfirekarte im Laden gefunden ?


Zuerst ein Problemchen mit dem neuen memory controller und als dieses wieder ok war haperte es mit der Taktrate. Ihr spaltet mir hier mal wieder Haare. R520 wird nicht nur spaeter ankommen sondern hoechstwahrscheinlich auch in begrenzten Anzahlen. Oder glaubst Du vielleicht dass man die Investoren ploetzlich ueber schlechere Margen so nur aus Ulk warnt? Solche Warnungen gehen verdammt schlecht auf die Aktienwerte ein.

Ailuros
2005-06-27, 13:54:13
Gabs vom Kreuzfeuer (wie ich dieses Wort liebe ;D ) eigentlich schon irgendwo unabhänge Benchmarks, also wurde das schon mal von irgendjemandem getestet?

Nada, zilk, zero.

MartinRiggs
2005-06-27, 13:54:51
Hast du noch nie Driver 3, Battlefield 2 Demo etc. gezockt wo am Anfang immer das beknackte Nvidia-Logo kommt mit dieser Tuntenstimme"Nvideaaaaaa"

Ailuros
2005-06-27, 13:58:27
Hast du noch nie Driver 3, Battlefield 2 Demo etc. gezockt wo am Anfang immer das beknackte Nvidia-Logo kommt mit dieser Tuntenstimme"Nvideaaaaaa"

TWIMTBP logos oder? Als ob der Quark nur auf GF's erscheint.

MartinRiggs
2005-06-27, 14:02:03
Das meine ich ja!
Man muß sich ständig diese scheisse anschauen obwohl man gar nicht so ne Karte hat und es gibt ja nun auch genug games mit diesem Zeichen die trotzdem Probleme mit ner Geforce haben.
Obwohl Nvidia propagiert das alles toll ist wenn ein man ein spiel mit diesem logo kauft.

Ailuros
2005-06-27, 14:20:07
Das meine ich ja!
Man muß sich ständig diese scheisse anschauen obwohl man gar nicht so ne Karte hat und es gibt ja nun auch genug games mit diesem Zeichen die trotzdem Probleme mit ner Geforce haben.
Obwohl Nvidia propagiert das alles toll ist wenn ein man ein spiel mit diesem logo kauft.

Alle GPUs haben eventuell Probleme mit diversen Spielen und dabei ist es egal ob es zum TWIMTBP oder GITG Programm der beiden IHVs gehoert.

Das reicht aber trotzdem nicht aus als logische Erklaerung warum Du HW A ueber B bevorzugst; Du kaufst nur ATI, ich respektiere es auch; aber lass mir bitte die oeden Entschuldigungen bei Seite.

TiggleD
2005-06-27, 14:21:21
Ihr könnt mich ruhig lynchen...
aber, ich habe die Befürchtung daß ATI garnichts hat. Keinen echten Konkurrenzchip, keine Alternative, nichts. Die scheinen zu groß geworden zu sein. Groß, träge, fett und faul. Die haben sich möglicherweise zu lange auf ihren Lorbeeren ausgeruht.

Wie einst 3dfx. Da wird angekündigt, verschoben, geändert...bla bla bla. Das Grafikkartengeschäft ist hart. Dies mußte nVidia auch schon erfahren.

Derzeit ist die 6800 billiger als die X8x0-Serie. Die 6600 ist preislich super. Wer kauft derzeit ATI? Die Altmodelle 9800 laufen wohl. Die X300-X700 finden auch ihre Käufer. Doch sind die Einnahmen wirklich ausreichend?

nVidia hat ATI im April '04 schwer unter Druck gesetzt. Und das mit nur 3 Chips!
Wer zuerst kommt, malt zuerst. Der 520er muß deutlich besser sein als der G70. Auch preislich sollte er im Rahmen bleiben. Oder: ATI@friedhof.com


Ich hoffe daß ich mich irre. Konkurrenz ist wichtig. Wichtig für uns!

Ailuros
2005-06-27, 14:24:01
Ihr könnt mich ruhig lynchen...
aber, ich habe die Befürchtung daß ATI garnichts hat. Keinen echten Konkurrenzchip, keine Alternative, nichts. Die scheinen zu groß geworden zu sein. Groß, träge, fett und faul. Die haben sich möglicherweise zu lange auf ihren Lorbeeren ausgeruht.

Wie einst 3dfx. Da wird angekündigt, verschoben, geändert...bla bla bla. Das Grafikkartengeschäft ist hart. Dies mußte nVidia auch schon erfahren.

Derzeit ist die 6800 billiger als die X8x0-Serie. Die 6600 ist preislich super. Wer kauft derzeit ATI? Die Altmodelle 9800 laufen wohl. Die X300-X700 finden auch ihre Käufer. Doch sind die Einnahmen wirklich ausreichend?

nVidia hat ATI im April '04 schwer unter Druck gesetzt. Und das mit nur 3 Chips!
Wer zuerst kommt, malt zuerst. Der 520er muß deutlich besser sein als der G70. Auch preislich sollte er im Rahmen bleiben. Oder: ATI@friedhof.com


Ich hoffe daß ich mich irre. Konkurrenz ist wichtig. Wichtig für uns!


Man kann so oder so uebertreiben. Das R520 Projekt lief offensichtlich nicht wie erwartet, aber es gibt sehr wohl echte HW die auch eventuell veroeffentlicht wird.

TiggleD
2005-06-27, 14:52:35
Das positive an Pessimisten: Sie können nie enttäuscht werden, da sie ja immer mit dem schlimmsten rechnen!

Das war schon ziemlich schwarz gemalt. Aber wer weiss...

reunion
2005-06-27, 15:03:28
Ich glaube den offiziellen Verlautbarungen von ATI (Orton) schon länger nicht mehr. ATI hat sich übernommen und das wird langsam offensichtlich. Oder hat hier schon einer ne Crossfirekarte im Laden gefunden ?

ATi gab an, dass Crossfire-Karten erst ab September erhältlich sind.

ollix
2005-06-27, 15:09:24
Das positive an Pessimisten: Sie können nie enttäuscht werden, da sie ja immer mit dem schlimmsten rechnen! Optimismus ist aber für einen selber auf Dauer gesünder :)

Hakim
2005-06-27, 15:13:00
was wohl besser ist=
1. Eine Karte vorstellen die es normal erst in monaten zu kaufen gibt?

2. Die karte erst dann vorstellen, wenn sie sofort zu kaufen ist?

Beides hat vor und nachteile. Ich denke dennoch das ATI mit 1. besser dran wäre als mit 2. Zumindest in der jetztigen Situation

seahawk
2005-06-27, 15:16:33
Oder glaubst Du vielleicht dass man die Investoren ploetzlich ueber schlechere Margen so nur aus Ulk warnt?

Nein. Ich glaube aber eher nicht, dass der Chip an schlechter Verfügbarkeit scheitern wird, als an Verfügbarkeit zu den benötigten Taktraten. :smile:

mapel110
2005-06-27, 15:16:43
was woll besser ist=
1. Eine Karte vorstellen die es normal erst in monaten zu kaufen gibt?

2. Die karte erst dann vorstellen, wenn sie sofort zu kaufen ist?

Beides hat vor und nachteile. Ich denke dennoch das ATI mit 1. besser dran wäre als mit 2. Zumindest in der jetztigen Situation
Wenn der R520 "schlechter" ist als G70, wäre 1 wohl sehr "ungeschickt". ;)

seahawk
2005-06-27, 15:18:51
was woll besser ist=
1. Eine Karte vorstellen die es normal erst in monaten zu kaufen gibt?

2. Die karte erst dann vorstellen, wenn sie sofort zu kaufen ist?

Beides hat vor und nachteile. Ich denke dennoch das ATI mit 1. besser dran wäre als mit 2. Zumindest in der jetztigen Situation

1 funktioniert nur, wenn die eigene Karte soviel besser ist, dass sich Warten lohnt.

TiggleD
2005-06-27, 16:34:39
...funktioniert nur, wenn die eigene Karte soviel besser ist, dass sich Warten lohnt.Sehr richtig! Strategisch wäre dies das schlaueste.

Bisher hat ATI aber keine Vorab-Karten zum testen geliefert. Gründe könnten sein:
1.) R520 ist nicht gut genug. :frown:
2.) ATI ist nicht mal in der Lage einige wenige Karten zu produzieren. :frown:
3.) Der R520 ist so erhaben, daß alle ihre 7800 in die Tonne treten... :redface:

Ich nehme Tor Nummer 4, kaufe ein Y und möchte lösen... :ujump2:

Mr. Lolman
2005-06-27, 16:46:10
Ach ATi ist lang genug im Geschäft dabei um was liefern zu könnnen. NV ist der freche Neuling :biggrin:

Und sein wir doch froh, dass Ati nicht gleich 2 Tage nach dem NV Launch mit ner asskickin' HW auftrumpft. Denn dann gäbs im November wieder neue, noch schnellere Revisionen und die eigene vorhandene HW ist noch schneller unbrauchbar als man schaun kann.

Gerade bei der GraKaindustrie braucht man keinen Stillstand fürchten. Im Gegensatz, wäre es sogar wünschenswert nur alle 2 Jahre nen ordentlichen Schritt nach vorne zu machen.Die vorhandene Rechenleistung würde wieder vernünftig genutzt werden, es gäb keinen unausgegorenen Crap am Markt, das Hobby wär nicht ganz so teuer und Elektroschrott würd auch weniger anfallen.

Nur die Geilheit auf Neues lässt uns nach noch Schnellerem/Besserem lechzen, aber vom Standpunkt der Vernunft hat der Krieg der IHVs kaum gute Seiten.

mapel110
2005-06-27, 17:26:19
Ach ATi ist lang genug im Geschäft dabei um was liefern zu könnnen. NV ist der freche Neuling :biggrin:

Und sein wir doch froh, dass Ati nicht gleich 2 Tage nach dem NV Launch mit ner asskickin' HW auftrumpft. Denn dann gäbs im November wieder neue, noch schnellere Revisionen und die eigene vorhandene HW ist noch schneller unbrauchbar als man schaun kann.

Gerade bei der GraKaindustrie braucht man keinen Stillstand fürchten. Im Gegensatz, wäre es sogar wünschenswert nur alle 2 Jahre nen ordentlichen Schritt nach vorne zu machen.Die vorhandene Rechenleistung würde wieder vernünftig genutzt werden, es gäb keinen unausgegorenen Crap am Markt, das Hobby wär nicht ganz so teuer und Elektroschrott würd auch weniger anfallen.

Nur die Geilheit auf Neues lässt uns nach noch Schnellerem/Besserem lechzen, aber vom Standpunkt der Vernunft hat der Krieg der IHVs kaum gute Seiten.
Was du dabei übersiehst, ist der nun fehlende Preiskampf. Den gibts auch im High End Sektor. Ein Paperlaunch hätte da auch was bewegen können.

Gast
2005-06-27, 17:28:21
Ach ATi ist lang genug im Geschäft dabei um was liefern zu könnnen. NV ist der freche Neuling :biggrin:

Und sein wir doch froh, dass Ati nicht gleich 2 Tage nach dem NV Launch mit ner asskickin' HW auftrumpft. Denn dann gäbs im November wieder neue, noch schnellere Revisionen und die eigene vorhandene HW ist noch schneller unbrauchbar als man schaun kann.

Gerade bei der GraKaindustrie braucht man keinen Stillstand fürchten. Im Gegensatz, wäre es sogar wünschenswert nur alle 2 Jahre nen ordentlichen Schritt nach vorne zu machen.Die vorhandene Rechenleistung würde wieder vernünftig genutzt werden, es gäb keinen unausgegorenen Crap am Markt, das Hobby wär nicht ganz so teuer und Elektroschrott würd auch weniger anfallen.

Nur die Geilheit auf Neues lässt uns nach noch Schnellerem/Besserem lechzen, aber vom Standpunkt der Vernunft hat der Krieg der IHVs kaum gute Seiten.

So schön dein Traum auch ist, es würden zu viele maulen, das es nichts neues gibt und nur Speedupgrades für die es sich nicht lohnt, Geld auszugeben etc etc. -> Geht nicht.

Nebenbei müssten dann nicht nur die IHVs mitspielen sondern auch die ISVs.
Publisher nehmen gerne Statistiken zur Hand und danach wird ua auch der Techlvl der Spiele festgelegt. Würden nur die neueren Chips unterstützt = entgangener Gewinn -> Geht nicht.

Macht ein Publisher wirklich ein Spiel mit nur einem Techlvl und würde die Karte richtig ausreizen, würden auch die stärksten Karten gnadenlos in die Knie gehen. Nicht fps sondern eher spf -> Geht nicht.

Egal wie man es macht, man kann es eh nicht allen Recht machen. Nebenbei müsste dann jeder IHV ungefähr zeitgleich ähnlich leistungsstarke Chips vorstellen -> Geht nicht.

DrumDub
2005-06-27, 17:29:50
Was du dabei übersiehst, ist der nun fehlende Preiskampf. Den gibts auch im High End Sektor. Ein Paperlaunch hätte da auch was bewegen können. na ja, aber dann wäre ati von der presse und kunden in der luft zerrissen worden, weil sie eben nicht liefern können im gegensatz zu nv. letztes jahr hatten ja beide hersteller lieferprobleme mit ihren high-end-modellen und haben auch dafür ordentlich eins auf den deckel bekommen.

Mr. Lolman
2005-06-27, 17:34:09
Neue HW will gut bezahlt werden. Ist ja nicht gerade schlecht für NV, dass sich der R520 verzögert. Euch kanns angiften. Andererseits ist die durchschnittliche Inflation bei Grafik-HW eh viel zu hoch, und in den ersten 2 Monaten gehen die Preise ohnehin nicht wirklich runter.

Gemessen am Preis der 7800 in 3-4 Monaten, lassen sich hingegen sehr wohl Rückschlüsse auf die Leistungsfähigket des R520 machen. (sollte es bis dahin tatsächlich noch keinen Launch gegeben haben)

Hakim
2005-06-27, 17:39:20
na ja, aber dann wäre ati von der presse und kunden in der luft zerrissen worden, weil sie eben nicht liefern können im gegensatz zu nv. letztes jahr hatten ja beide hersteller lieferprobleme mit ihren high-end-modellen und haben auch dafür ordentlich eins auf den deckel bekommen.

wenn der R520 wirklich dem G70 überlegen ist wäre es glaub ich besser vorab die Karte vorzustellen als die jetztige unsicherheit der zögerer im unklaren zu halten. Mir wäre es lieber auf etwas zu warten wovon ich schon berichte gelesen hab und mir was vorstellen kann (die Vorfreude ist immer die schönste freude :biggrin: ), als die Monate lange warterei wo man ja nicht mal weiss ob es sich lohnt. Dann doch lieber G70. Also ATI DO IT :)

DrumDub
2005-06-27, 17:47:32
wenn der R520 wirklich dem G70 überlegen ist wäre es glaub ich besser vorab die Karte vorzustellen als die jetztige unsicherheit der zögerer im unklaren zu halten. Mir wäre es lieber auf etwas zu warten wovon ich schon berichte gelesen hab und mir was vorstellen kann (die Vorfreude ist immer die schönste freude :biggrin: ), als die Monate lange warterei wo man ja nicht mal weiss ob es sich lohnt. Dann doch lieber G70. Also ATI DO IT :) ich würd nicht zuviel vom r520 erwarten. ;) ich denke, dass ist auch mit ein grund, warum es keinen paperlaunch gibt. wenn der vorsprung gegenüber dem g70 nämlich nicht sehr groß oder gar nicht vorhanden ist, dann ermutigt man die kazfwilligen leute nämlich sich jetzt nen g70 zu kaufen. die anderen gründe habe ich ja schon erläutert.

Mr. Lolman
2005-06-27, 17:47:43
So schön dein Traum auch ist, es würden zu viele maulen, das es nichts neues gibt und nur Speedupgrades für die es sich nicht lohnt, Geld auszugeben etc etc. -> Geht nicht.Niemand würde maulen. Hat irgendjemand bei ner 9800Xt gemault? War ja auch nix neues. Selbst geschickt gemoddete 9700nonpros gingen auf XT Takt. Und die waren zu dem Zeitpunkt auch schon gut 2 Jahre alt...


Nebenbei müssten dann nicht nur die IHVs mitspielen sondern auch die ISVs.
Publisher nehmen gerne Statistiken zur Hand und danach wird ua auch der Techlvl der Spiele festgelegt. Würden nur die neueren Chips unterstützt = entgangener Gewinn -> Geht nicht.Würde 2 Jahre lang der gleiche Chip verkauft werden, wäre die Verbreitung eines gewissen Techlevels ungleich höher, als bei der jetzigen HW-Spirale


Macht ein Publisher wirklich ein Spiel mit nur einem Techlvl und würde die Karte richtig ausreizen, würden auch die stärksten Karten gnadenlos in die Knie gehen. Nicht fps sondern eher spf -> Geht nicht.Hä? Die Argumentation solltest du nochmal überdenken. Richtig ausgereizt, heisst hohe fps bei netter Optik. Max Payne, Flatout oder LFS 2 sind solche Beispiele. Von hinten bis vorne stimmig und selbst auf fast 3 Jahre alter HW mit 1600x1200 und 4xAA spielbar...

Das größte Problem dürften wohl wirklich die ISVs sein. Denn Optimieren kostet Zeit/Geld. Ein schnell hingepriemelter SM3.0 Pfad mit SM1.1 Backfall (mit Vergraulgarantie von SM2 only Nutzern) lohnt sich anscheinend mehr als ein zusätlicher, gut ausbalanzierter, SM2.0 Pfad.


Egal wie man es macht, man kann es eh nicht allen Recht machen. Nebenbei müsste dann jeder IHV ungefähr zeitgleich ähnlich leistungsstarke Chips vorstellen -> Geht nicht.Klar den Aufrüstjunkies kann mans wohl nie recht machen, und ne Absprache unter den IHVs würd auch nicht hinhauen, denn 1. sein ist schon sehr prestigeträchtig. ;)

Dementsprechend ist so eine Haltung doch sehr idealistisch, nur denk ich andererseits dass manche Fanboys garnicht wissen was sie wollen. (Wenn man dann so Stuss liest, wie der Wunsch dass A ein Monopol bekommen sollte, weil B eh nur schrott baut und so...)

Mr. Lolman
2005-06-27, 17:49:35
ich würd nicht zuviel vom r520 erwarten. ;) ich denke, dass ist auch mit ein grund, warum es keinen paperlaunch gibt. wenn der vorsprung gegenüber dem g70 nämlich nicht sehr groß oder gar nicht vorhanden ist, dann ermutigt man die kazfwilligen leute nämlich sich jetzt nen g70 zu kaufen. die anderen gründe habe ich ja schon erläutert.

Oder ihr erwartet den R520 immernoch zu früh :naughty:

Hakim
2005-06-27, 18:01:00
Oder ihr erwartet den R520 immernoch zu früh :naughty:

Ja aber man kann doch vorab wenigstens infos zu neuen feartures oder technik (pipes usw) durchgeben oder? Bis September sind ja nur 2 monate.

DrumDub
2005-06-27, 18:01:54
Oder ihr erwartet den R520 immernoch zu früh :naughty: also wenn dave orton schon von einer verzögerung spricht, dann weiß ich es auch nicht... ich glaube ja auch nicht, dass der r520 schon im april vorgestellt werden sollte, aber juni/juli war imho geplant. jetzt wirds wohl september sein, da man direkt mit massenverfügbarkeit punkten will. da ja angeblich die yields der ersten version viel zu gering waren und man den respin fahren musste, passt das imho gut ins bild. siehe auch dieser link hier: http://www.xbitlabs.com/news/video/display/20050627061636.html

Mr. Lolman
2005-06-27, 18:08:50
"Nicht vor September" kann ja theoretisch auch "nächstes Jahr" heissen...

Hakim
2005-06-27, 18:21:14
"Nicht vor September" kann ja theoretisch auch "nächstes Jahr" heissen...

puh....damit dürften die letzten Quartalsergebnisse aber net so doll aussehen. Ich hoffe das Ati mitte/ende September was rausbringt.

deLuxX`
2005-06-27, 18:22:32
Kann es heißen, ja. Aber IMO wirds nicht nächstes Jahr. :|

-deLuxX`

Gast
2005-06-27, 19:22:40
Für mich ist die Sache klar, der R520 kann nicht viel schneller als der G70 sein, sie würden irgend etwas durchsickern lassen, wenn er sich "gut sichtbar" absetzen könnte um viele "Freaks" in verlegenheit zu bringen noch etwas zu warten mit dem kauf.
Daraus resultiert, das sich diese Haltung in vielen Boards wie hier verbreitet, wer macht denn die Stimmung für einen Grafikchip? Die Tester und die Leute die diese Tests lesen und dann dafür in Web schwärmen!

Nichts ist so wichtig wie die Propaganda und der "Krieg" der Anhänger/Webseiten, was denn nun angesagter ist.

Zum Release des NV40 gabs ja auch sofort Leaks zum R420...
Das tut man einfach um ein wenig Streufeuer zu geben, man bleibt so im Gespräch bis man selbst soweit ist.

Und jetzt? Der Kampf um die Käufer hat begonnen, vieleicht bastelt das Ati Marketing schon an einer Kampagne, wir werden sehn.

DrumDub
2005-06-27, 20:28:49
full ack, gast. :)

Bogi
2005-06-28, 00:29:43
da bin ich mal gespannt wann ich mir wieder ne gute ati karte gönnen werde

hoffentlich reicht noch ne weile ne x800xt

Ailuros
2005-06-28, 01:26:07
Nein. Ich glaube aber eher nicht, dass der Chip an schlechter Verfügbarkeit scheitern wird, als an Verfügbarkeit zu den benötigten Taktraten. :smile:

Wo genau ist der Unterschied wenn es um Margen geht? :confused:

Ailuros
2005-06-28, 01:29:07
Oder ihr erwartet den R520 immernoch zu früh :naughty:

Es sollte wohl eher heissen dass viel zu viele zu VIEL von dem Ding erwarten.

deekey777
2005-06-28, 01:50:26
Vielleicht liegt es daran, daß sie zuerst lernen mußten, wie man einem Grafikchip eine vernünftige trilineare Filterung beibringt...
Sry. ;(

MarcWessels
2005-06-28, 02:09:36
Ich schätze mal, ehe ich auf ein PCIe-System umsteige, könnte noch ein bisschen Zeit ins Land streichen, vielleicht wird mein nächstes Komplettsystem gar ein Intel-Apple, kommt ganz darauf an, was die so zu bieten haben (vielleicht lassen die sich dann endlich mal "anständig" upgraden, d.h. zum Beispiel "normale" PC-Komponenten, auch und vor allem Grafikkarte). Worauf will ich hinaus? Ich denke, dass eine GeForce 6800 Ultra zusammen mit einem P4 3.0C wohl noch lange anständige Performance bringen wird .Nö, ein P4 @ 3.0GHz ist schon seit fast anderthalb Jahren "zu langsam" (in Spielen).


Mit dem AF kein Wunder, der G70 ist nen schlechter Witz!*rofl* Nun poste am Besten nochmal die mißlungenen Screenshots, in denen AA mit aF verwechselt wurde, damit ich was zu lachen hab'. :crazy:


Mir ist es lieber wenn ich "ich kaufe nur ATI" oder "ich kaufe nur NVIDIA" lese. Eine logische Erklaerung gibt es sowieso nicht dafuer.Doch, gibt es. Ich könnte mir vorstellen, dass der R520 Videos genauso mittelmäßig decodet wie seine Vorgänger. Die Wiedergabequalität mit einer MV40 oder G70-bestückten Karte ist hingegen nahezu makellos.

tombman
2005-06-28, 06:53:34
"Nicht vor September" kann ja theoretisch auch "nächstes Jahr" heissen...

Nö, Weihnachten heißts :udevil:

seahawk
2005-06-28, 07:53:22
Wo genau ist der Unterschied wenn es um Margen geht? :confused:

Für die Margen ist da keiner.

Ailuros
2005-06-28, 09:26:23
Für die Margen ist da keiner.

http://www.xbitlabs.com/news/video/display/20050627061636.html

In the case of the R520 we have seen some delay. Particularly, we need to deal with a new technology at the high-end. It’s a combination of both architectural and [process] technology bring up. We have this well under control now. As Patrick described, we’ve taken a cautious position to not to consider revenues in our Q4 for our 90nm line.

DrumDub
2005-06-28, 11:30:39
Doch, gibt es. Ich könnte mir vorstellen, dass der R520 Videos genauso mittelmäßig decodet wie seine Vorgänger. Die Wiedergabequalität mit einer MV40 oder G70-bestückten Karte ist hingegen nahezu makellos. das höre ich zum ersten mal. die overlay-qualität war bei ati eigentlich seit dem r300 immer exzellent. bei nv ist sie wohl ab dem nv40 gut, vorher war sie nicht so dolle. was die prozessorauslastung angeht hat ati bis zum g70 die nase vorne gehabt, jetzt kann man von einem gleichstand sprechen, wenn ich mir die aktuellen vergleiche dazu ansehe: http://www.xbitlabs.com/articles/video/display/g70-indepth_17.html

Mumins
2005-06-28, 11:36:44
Evtl. doch im August:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/atis_r520_august/

Hakim
2005-06-28, 11:57:05
Evtl. doch im August:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/atis_r520_august/

na hoffentlich...das wäre gut für alle.

mapel110
2005-06-28, 12:02:09
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=145961
Machen wir wieder dort weiter. Außer Spekulationen kommt hier ja nichts mehr.