Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 8
Lawmachine79
2007-04-26, 10:37:37
Eine GTS gibt es für 325€, die XT für 380€. Sorry, aber die XT wird gegen die GTX ran müssen, die XTX dann gegen die Ultra.
Und mit versemmelt meinte ich: 7 Monate später, Wahnsinnsaufwand (1 GB Ram, 512 Bit SI, 80nm) und trotzdem nicht besser.
MfG :cool:
Die 7 Monate sind in der Tat ein wesentlicher Knackpunkt, wieso man die R600 Karten in die Tonne treten kann. In 7 Monaten sollte eigentlich ein Vorsprung von 20-40% quer durch alle Benches locker möglich sein.
Wenn die Leistung der Karte stimmt, wird sie ein tolles Produkt!
Fürs Marketing machen sich 640MB natürlich besser, aber brauchen tut man den wirklich noch nicht.
Ich würde sagen, es ist nichts halbes und nichts ganzes. Was nützt mit mehr VRAM, wenn die Karte stattdessen langsamer ist? Der nächste Schritt wäre folgerichtig 1 GB und den wird man dann wahrscheinlich Ende des Jahres oder nächstes Jahr bei allen High End Karten bekommen.
Jupp incl. Heißluftföhn!
Weißt du doch noch gar nicht...
Die 7 Monate sind in der Tat ein wesentlicher Knackpunkt, wieso man die R600 Karten in die Tonne treten kann. In 7 Monaten sollte eigentlich ein Vorsprung von 20-40% quer durch alle Benches locker möglich sein.
Bei der XT Variante ist es eigentlich auch so:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/
Jetzt muss nur noch der Preis angepasst werden, 350€ wären wohl das Limit um mit der GTS zu konkurrieren.
Lawmachine79
2007-04-26, 10:42:10
Bei der XT Variante ist es eigentlich auch so:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/april/benchmarks_radeon_hd_2900_xt_8800_gts/
Jetzt muss nur noch der Preis angepasst werden, 350€ wären wohl das Limit um mit der GTS zu konkurrieren.
Wenn man die Benches von Daily Tech nimmt und die Leistung der 88U mal auf GTS Niveau runterrechnet, hat auch einen 29XTX schon mit einer 88GTS zu kämpfen. Die 88U ist teilweise 40% schneller als eine 29XTX, das dürfte etwa dem Leistungsvorsprung einer 88U --> 88GTS entsprechen.
Vertigo
2007-04-26, 10:46:47
Ich würde doch erstmal den offiziellen Release abwarten und dann mal die Reviews anschauen. Die bisherigen Benchmarkergebnisse beinhalten mir einfach zuviele Ungereimtheiten. Dass die hiesigen nVidia-Fanboys jetzt frohlocken war natürlich abzusehen ... :rolleyes:
[dzp]Viper
2007-04-26, 10:48:09
Wenn man die Benches von Daily Tech nimmt und die Leistung der 88U mal auf GTS Niveau runterrechnet, hat auch einen 29XTX schon mit einer 88GTS zu kämpfen. Die 88U ist teilweise 40% schneller als eine 29XTX, das dürfte etwa dem Leistungsvorsprung einer 88U --> 88GTS entsprechen.
1. Die 8800 Ultra gibts noch garnicht - warum vergleicht ihr also das ganze mit einer "nicht existienten" Karte? Können wir die 8800 Ultra ja gleich mit dem Refresh R650 vergleichen - der soll ja auch schon in 3-4 Monaten kommen :rolleyes:
2. Was willst du da "runterrechnen" es gibt Benchmarkwerte der 8800GTS gegen die 2900xt und da gewinnt die 2900xt durchweg mit 10-30% Vorsprung
Mal allgemein etwas:
Ich finde es lustig, wie hier Karten als Vergleich mit einbezogen werden die noch nie ein Mensch vorher gesehen hat oder welche von NV noch nicht einmal offiziell bestätigt wurde...
Dann werde ich ab jetzt auch mal immer die R650 schon mit einbeziehen - hat genauso viel Sinn :rolleyes:
Viper;5440040']1. Die 8800 Ultra gibts noch garnicht - warum vergleicht ihr also das ganze mit einer "nicht existienten" Karte? Können wir die 8800 Ultra ja gleich mit dem Refresh R650 vergleichen - der soll ja auch schon in 3-4 Monaten kommen :rolleyes:
2. Was willst du da "runterrechnen" es gibt Benchmarkwerte der 8800GTS gegen die 2900xt und da gewinnt die 2900xt durchweg mit 10-30% Vorsprung
Mal allgemein etwas:
Ich finde es lustig, wie hier Karten als Vergleich mit einbezogen werden die noch nie ein Mensch vorher gesehen hat oder welche von NV noch nicht einmal offiziell bestätigt wurde...
Dann werde ich ab jetzt auch mal immer die R650 schon mit einbeziehen - hat genauso viel Sinn :rolleyes:
von der 8800 Ultra gabs schon eine Webseite bei DELL bzw konkrete Daten davon. Bilder gibts auch, das ist quasi genauso viel wie es derzeit vom R600 gibt. Dank den PreOC Karten weiß man sogar, wie die 8800 Ultra performen wird.
Adam D.
2007-04-26, 10:53:20
Was DailyTech da rumbencht, versteht wohl keiner. Aber: den erhofften G80-Killer hat ATi nicht in peto, das dürfte so langsam jedem klar sein. Dass die Karte mithält klingt ja erstmal gut, aber wenn man es in Relation zu einem 3/4-Jahr Verspätung sieht, dann fehlt da einfach die Durchschlagskraft. Nvidia hat ausgereifte Treiber und kann mit dem Preis ordentlich Druck ausüben auf AMD. AMD hingegen scheint weiter mit vielen Produkten der R600-Reihe Probleme zu haben und steht jetzt in Zugzwang.
Ich wünsche AMD nicht mehr als dass der R600 eine Bombe wird ... Aber es sieht ganz einfach nicht danach aus.
Godmode
2007-04-26, 10:59:51
Die 7 Monate sind in der Tat ein wesentlicher Knackpunkt, wieso man die R600 Karten in die Tonne treten kann. In 7 Monaten sollte eigentlich ein Vorsprung von 20-40% quer durch alle Benches locker möglich sein.
Wenn diese Benchmarks wirklich von der Verkaufsversion stammen und auch stimmen, dann kann ich dazu nur folgendes sagen: *dieses Posting ist nur korrekt wenn dieser Satz der Wahrheit entpricht.
ATI hatte seit dem R300 immer das schnellste Produkt und hoffentlich haben sie ich nicht zu sehr darauf ausgeruht. Nvidia konnte mit dem NV40 die ärgsten Schnitzer des NV30 Debakels wieder ausbügeln, war featuremäßig ATI weit überlegen, aber erreichte nicht ganz der Leistung einer X800PE. In Zeiten von CineFX war es nicht sonderlich schwer Nvidia in Sachen Leistung zu überholen.
Mit der R5xx Serie und den nebenläufigen TMUs war ATI in fast allen Anwendungen Sieger in Sachen Leistung. Jetzt konnte sich ATI auch noch die IQ Krone und teilweise die Feature Krone aufsetzen. Nvidia führte die Geforce 7 Serie ein, machte gute Margen und konnte ATI in Sachen Performance noch immer nicht überrunden. Die schlechte IQ der G7 Serie hat sicherlich auch noch jeder im Kopf(Flimmerorgie).
Und dann letztes Jahr im November: Nvidia stellt eine GPU vor die alles andere in den Schatten stellt, was IQ und Performance angeht und DX10 an Board. Einzig der Stromverbrauch und die teilweise mieserablen Treiben nerven den gemeinen Kunden. Alle warten wieder sehr gespannt auf ATIs R600 der aber einfach nicht kommen will. Eine Verspätung nach der anderen. Jetzt gute 5 Monate später endlich ein Lichtblick. Erste R600 Benchmarks! Und dann die Ernüchterung. Über 5 Monate Verspätung, höherer Stromverbrauch trotz kleinerer Fertigung, weniger Leistung,...
Irgendwie errinnert mich der ganze Schlamassel um die R600 Serie gut an die Causa NV30.
alles IMHO und unbedingt den ersten Satz beachten. Stimmt dieser nicht, kannd dieser Post einfach ignoriert werden.
AnarchX
2007-04-26, 11:03:59
ATI Radeon HD 2900 XTX, Doomed from the Start
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm
Das wurde von Fuad schon berichtet, dass durch ein Layout-Bug die XTX teilweise langsamer als die XT ist.
btw.
News(;)) von Fuad:
R600 will get a new driver
8.37 is the codename (http://www.fudzilla.com/index.php?option=com_content&task=view&id=702&Itemid=1)
[News]
Toppas:-)
2007-04-26, 11:12:08
Was DailyTech da rumbencht, versteht wohl keiner. Aber: den erhofften G80-Killer hat ATi nicht in peto, das dürfte so langsam jedem klar sein. Dass die Karte mithält klingt ja erstmal gut, aber wenn man es in Relation zu einem 3/4-Jahr Verspätung sieht, dann fehlt da einfach die Durchschlagskraft. Nvidia hat ausgereifte Treiber und kann mit dem Preis ordentlich Druck ausüben auf AMD. AMD hingegen scheint weiter mit vielen Produkten der R600-Reihe Probleme zu haben und steht jetzt in Zugzwang.
Ich wünsche AMD nicht mehr als dass der R600 eine Bombe wird ... Aber es sieht ganz einfach nicht danach aus.
Mom, die Treiber von Nvidia unter Vista sind alles andere als fertig!! Vieles geht nicht (z.b. SLI) und es sind wohl noch sehr viele Fehler in den Treibern obwohl die Karte schon solange draußen ist.
Klar beschweren sich alle über die Monate lange verzögerung vom R600 und erwarten das er wesendlich besser ist. Nur der Chip war schon lange fertig, wurde hier und da nochmal ein klein wenig überarbeit für die Produktion, aber für die Treiber hat man die Zeit genutzt. Wunder wird er nicht bringen, eher gleiche Höhe zu Nvidia. Ein Refresh ist in Arbeit bereits, wird auch nicht Wunder bringen. Ich gehe mal eher davon aus das ihnen die Entwicklungszeit zu kurz war für den Chip und ab einem bestimmten Datum/Punkt man eine Deadline zieht um sich dann auf die Produktion zu konzentrieren.Im Labor laufen bestimmt einige Weiterentwicklungen die selbst die 8800Ultra schwach werden lassen, nur die werden wir nie sehen
;D
Gouvernator
2007-04-26, 11:12:33
Die getestete GTX ist praktisch eine Ultra - 650/1000Mhz. ;)
Die Benchmarks stinken aber trotzdem:
Oblivion - 1280x1024
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Radeon HD 2900 XTX = 100,3fps
Oblivion - 1600x1200
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Radeon HD 2900 XTX = 87,9fps
Oblivion - 1920x1200
Radeon HD 2900 XT = 73,4fps
GeForce 8800 GTX = 98,4fps
Radeon HD 2900 XTX = 75,1fps
Das Oblivion mit ner GTX nur knapp 10 fps 1280 --> 1920 verliert stinkt doch zum Himmel? :confused: So stark ist diese Karte auch nun mal nicht. Fakes fakes fakes
dildo4u
2007-04-26, 11:14:20
Das Oblivion mit ner GTX nur knapp 10 fps 1280 --> 1920 verliert stinkt doch zum Himmel? :confused: So stark ist diese Karte auch nun mal nicht. Fakes fakes fakes
Woher willst du bitte schön wissen was für eine Timedemo eingesetzt wurde? Vieleicht sinds ja Benches in einem Dungeon was auch die hohe Framerate erklären würde und da bricht die GTX nunmal nicht ein.
Fuzi meint ...
8.37 is the codename
Radeon HD 2000 generation will get a new driver. Despite that everyone believes that the 8.361 will be the final one there will be one more scheduled for May.
The new driver is in release candidate phase today and should be ready with its WHQL signature in May.
ATI calls this piece of software 8.37 and this driver will be the first one to bring the audio capabilities in life. This driver is planed for both Vista and Windows XP.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=702&Itemid=34
dildo4u
2007-04-26, 11:18:54
Na klar kommt da noch ein Wundertreiber was sonst :rolleyes: an welchen Strohhalm will sich die No 1 ATI Fansite sonst klammern?
Adam D.
2007-04-26, 11:19:00
Woher willst du bitte schön wissen was für eine Timedemo eingesetzt wurde? Vieleicht sinds ja Benches in einem Dungeon was auch die hohe Framerate erklären würde und da bricht die GTX nunmal nicht ein.
Es wurde der Ausgang vom Tunnel in die "Außenwelt" gebencht.
@Treiber: Natürlich sind die Vista-Treiber von den Features her noch etwas dürftig seitens Nvidia, aber zumindest der 158.18 schafft es ja mal, sehr gute Performance zu bringen.
IMO darf man Vista auch nicht als Benchmark-OS laufen lassen, deshalb zählen primär die XP-Treiber und da glaube ich kaum, dass es was bei Nvidia zu meckern gibt. Immerhin hat Nvidia auch den Vorteil, ein paar hundert Tausend Karten verkauft zu haben und kann somit auf Feedback abseits des eigenen Beta-Teams zurückgreifen - das kann ATi nicht.
Gouvernator
2007-04-26, 11:19:11
Woher willst du bitte schön wissen was für eine Timedemo eingesetzt wurde? Vieleicht sinds ja Benches in einem Dungeon was auch die hohe Framerate erklären würde und da bricht die GTX nunmal nicht ein.
Kann schon sein.
Dafür machen die 2900 einen korrekten Knick. Alles trotzdem unglaubwürdig.
Tja - Fudo meint ...
Rialto works
AMD didn't give away the AGP market. Nvidia still haven't announced and DirectX 10 AGP parts but ATI will be ready with its new AGP parts. The good thing is that these cards will support Avivo and all these fancy Video and 3D features and they will work in old motherboards.
There is a future for AGP upgrade market and some people simply love their Nforce 2 motherboard and socket 7 CPUs to give away that easy.
RV610, Radeon HD 2400 will also have an AGP version but we are sure that these version won't be coming before June time if not even later.
Ein Soundstorm wird sie hinwegfegen! :smile:
dildo4u
2007-04-26, 11:29:52
Kann schon sein.
Dafür machen die 2900 einen korrekten Knick. Alles trotzdem unglaubwürdig.
Tja Nvidia konnte halt 6 Monate mit den finalen 8800 Karten ihre Treiber unter anderem halt auch auf Oblivion hin optemieren.Dieser Vorsprung macht sich natürlich jetzt bemerkbar.
dargo
2007-04-26, 11:30:08
Das Oblivion mit ner GTX nur knapp 10 fps 1280 --> 1920 verliert stinkt doch zum Himmel? :confused: So stark ist diese Karte auch nun mal nicht. Fakes fakes fakes
Wie du an den Ergebnissen siehst herrscht bis zu 16x12 absolutes CPU-Limit. Eine sehr ungünstige Timedemo bzw. Savegame, dass dort gewählt wurde um Grafikleistung zu vergleichen.
Falls die Benches von der 2900XTX sich bewahrheiten, dann gute Nach ATI!
Dann hat Nvidia leider keinen Grun den Preis der 8800GTX zu senken, der seit über einem halben Jahr konstant hoch ist.
dargo
2007-04-26, 11:43:22
Falls die Benches von der 2900XTX sich bewahrheiten, dann gute Nach ATI!
Das wurde schon hundert mal gesagt. Langsam sollte es jeder mitbekommen haben.
Dann hat Nvidia leider keinen Grun den Preis der 8800GTX zu senken, der seit über einem halben Jahr konstant hoch ist.
Das macht mir schon eher Sorgen (auch wenn > halbes Jahr nicht stimmt ;)). Ich würde es schade finden wenn ATI es nicht schafft ein von der Performance her konkurrenzfähiges Produkt zu liefern. Wie immer gilt Konkurrenz belebt das Geschäft.
Adam D.
2007-04-26, 11:46:17
Das macht mir schon eher Sorgen. Ich würde es schade finden wenn ATI es nicht schafft ein von der Performance her konkurrenzfähiges Produkt zu liefern. Wie immer gilt Konkurrenz belebt das Geschäft.
Naja, es verschiebt sich insofern, dass Nvidia jetzt Konkurrenz hat. Momentan stehen sie ja völlig allein da im High-End-Sektor. Insofern denke ich schon, dass Nvidia die Preise nach unten korrigiert.
Gouvernator
2007-04-26, 11:49:49
Wie du an den Ergebnissen siehst herrscht bis zu 16x12 absolutes CPU-Limit. Eine sehr ungünstige Timedemo bzw. Savegame, dass dort gewählt wurde um Grafikleistung zu vergleichen.
Nein mir gehts darum wie hier die Ergebnisse presentiert werden. "Guckkkkt maal die GTX macht bei unbekannten Einstellungen in unbekannten Szenen jede andere Grafikkarte fertig!!!! Seht selbst was für ein Abstand !!!!!" :)
AnarchX
2007-04-26, 11:50:01
Vielleicht setzt ja NV jetzt die gleiche Taktik wie Intel bei AMD an und setzt den R600 mit massiven Preissenkungen, nachdem man 500k G80 zu einem guten Preis absetzen konnte, unter Druck um ihnen die Margen zu versauen.
Aber der mögliche Preis der Ultra sieht eher danach aus, dass man sich seine Performanceführerschaft entsprechend bezahlen lassen will.
Mal spekulativ gefragt...
Ist es vielleicht unmöglich, eine quasi "Interim-GPU" zu machen, die sowohl bei DX9 als bei DX10/D3D10 top ist?
dargo
2007-04-26, 11:56:33
Naja, es verschiebt sich insofern, dass Nvidia jetzt Konkurrenz hat. Momentan stehen sie ja völlig allein da im High-End-Sektor. Insofern denke ich schon, dass Nvidia die Preise nach unten korrigiert.
Das hängt in erster Linie davon ab wie ATI den R600 vom Preis her positioniert und wie schnell Dieser wirklich ist. Ansonsten sehe ich keinen Grund warum NV die Preise senken sollte. Stell dir mal vor es gebe kein ATI. Dann würde eine GTX locker 799-999$ kosten und NV könnte sich auf eigenen Karten "ausruhen". Die Entwicklungszyklen wären imho auch deutlich höher.
Irgendwie fehlt noch ein Dritter --> Intel? X-D
Godmode
2007-04-26, 11:58:17
Mal spekulativ gefragt...
Ist es vielleicht unmöglich, eine quasi "Interim-GPU" zu machen, die sowohl bei DX9 als bei DX10/D3D10 top ist?
Nein denke ich nicht, im Endeffekt läuft doch alles auf einfache Berechnung hinaus. Problementisch an DX10 sind IMHO die ganzen jetzt möglichen neuen Datenflüssen aus der Pipeline.
http://msdn2.microsoft.com/en-us/library/bb205123.aspx
dargo
2007-04-26, 11:59:06
Nein mir gehts darum wie hier die Ergebnisse presentiert werden. "Guckkkkt maal die GTX macht bei unbekannten Einstellungen in unbekannten Szenen jede andere Grafikkarte fertig!!!! Seht selbst was für ein Abstand !!!!!" :)
Die bisher gezeigten Benchmarks enthalten zu viele Fehler. Deswegen lege ich noch keinen Wert drauf. Außerdem sehe ich anhand von Oblivion, dass Dailytech anscheinend keine Ahnung von Graka-Vergleichen hat.
Anarchy-HWLUXX
2007-04-26, 12:11:26
Vielleicht setzt ja NV jetzt die gleiche Taktik wie Intel bei AMD an und setzt den R600 mit massiven Preissenkungen, nachdem man 500k G80 zu einem guten Preis absetzen konnte, unter Druck um ihnen die Margen zu versauen.
Und damit unnötig ihre profite vernichten ?
Intel will sein Monopol wieder aufbauen und AMD so sehr schaden wie möglich, nV will möglichst viel geld einfahren ... ATi "kaputtmachen" geht nicht da sie ja nun Teil von AMD sind - nen Preiskrieg würde nur nV schaden, AMD/ATI sind ja scho eh in den roten zaheln ;(
ati soll endlich die karte auf den markt bringen damit ich mir ne günstige gtx kaufen kann - mensch das ist der einzieg grund warum ich will das ati was auf den markt wirft :D
Undertaker
2007-04-26, 12:13:45
Wie du an den Ergebnissen siehst herrscht bis zu 16x12 absolutes CPU-Limit. Eine sehr ungünstige Timedemo bzw. Savegame, dass dort gewählt wurde um Grafikleistung zu vergleichen.
wenn ein cpu limit herrschen würde, warum ist die gtx dann unter 1280x1024 10% schneller als die 2900er? irgendwie alles etwas merkwürdig (treiberprobs oder gar komplett alles fake)
Anarchy-HWLUXX
2007-04-26, 12:17:38
R600XT to compete 8800 GTS only
http://www.fudzilla.com/index.php?option=com_content&task=view&id=703&Itemid=1
ATI said in front of 150+ journalists that R600XT won't be able to compete with Geforce 8800 GTX
Da hat wohl wer beim techday das NDA vergessen ...
AnarchX
2007-04-26, 12:17:59
Und damit unnötig ihre profite vernichten ?
Intel will sein Monopol wieder aufbauen und AMD so sehr schaden wie möglich, nV will möglichst viel geld einfahren ...
Könnte man hier nicht eine Verbindung knüpfen? ;)
Aber hoffen wir besser nicht, dass solche Machenschaften im Hintergrund laufen.
Die getestete GTX ist praktisch eine Ultra - 650/1000Mhz. ;)
Die Benchmarks stinken aber trotzdem:
Oblivion - 1280x1024
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Radeon HD 2900 XTX = 100,3fps
Oblivion - 1600x1200
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Radeon HD 2900 XTX = 87,9fps
Oblivion - 1920x1200
Radeon HD 2900 XT = 73,4fps
GeForce 8800 GTX = 98,4fps
Radeon HD 2900 XTX = 75,1fps
Sagmal, dargoleinchen, warum sind die Ergebnisse von 1280x1024 und 1600x1200 identisch?
Hat da wer eventuell arge scheiße gebaut??
dildo4u
2007-04-26, 12:23:12
R600XT to compete 8800 GTS only
http://www.fudzilla.com/index.php?option=com_content&task=view&id=703&Itemid=1
Da hat wohl wer beim techday das NDA vergessen ...
"ATI said that R600XT, Radeon HD 2900XT has about the same performance as the 8800 GTS. Radeon HD 2900 XTX won't be launched at mid may and will be delayed to Q3 2007. We already wrote about this here.
The dream that AMD can do something and return as the high end market leader is gone. R600 rails against G80. Congratulations Nvidia."
Also sind die Benches whol ziehmlich korrekt wenn ATI selber zugibt nicht mit der 8800GTX mithalten zu können.
Tja - Fudo meint ...
Ein Soundstorm wird sie hinwegfegen! :smile:
Tja, Fudo verschweigt, das HD Content auf den AGP Karten nicht ausgegeben werden kann.
dargo
2007-04-26, 12:24:25
wenn ein cpu limit herrschen würde, warum ist die gtx dann unter 1280x1024 10% schneller als die 2900er? irgendwie alles etwas merkwürdig (treiberprobs oder gar komplett alles fake)
Weil die GTX einfach allgemein schneller ist?
Oblivion - 1280x1024
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Oblivion - 1600x1200
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Findest du nicht, dass dies nach einem 100%-igen CPU-Limit riecht?
Sagmal, dargoleinchen, warum sind die Ergebnisse von 1280x1024 und 1600x1200 identisch?
Hat da wer eventuell arge scheiße gebaut??
Zwei Möglichkeiten:
1. CPU-Limit.
2. Fake.
Anarchy-HWLUXX
2007-04-26, 12:24:32
Könnte man hier nicht eine Verbindung knüpfen? ;)
Aber hoffen wir besser nicht, dass solche Machenschaften im Hintergrund laufen.
nVidia wird garantiert nicht versuchen AMD absichtlich zu schaden - dem Hauptabnehmer ihrer Chipsätze und Partner in was weiss ich wievielen Bereichen, durch sowas würden sie sich ebenfalls nur selber Schaden.
Findest du nicht, dass dies nach einem 100%-igen CPU-Limit riecht?
Nein, ich finde das stinkt zum Himmel!
Tja, Fudo verschweigt, das HD Content auf den AGP Karten nicht ausgegeben werden kann.
Doch scheint zu gehn, hat ja auch einen Backchannel, aber warten wir mal ab:
da kommt noch lange lange nix - wie es scheint.
ähhmm Leute
wie schon 2 Seiten vorher erwähnt wurde die Zahlen korrigiert ....
schaut euch die Orginal Dailytech Seite an...!!
Lawmachine79
2007-04-26, 12:29:59
Weil die GTX einfach allgemein schneller ist?
Oblivion - 1280x1024
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Oblivion - 1600x1200
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Findest du nicht, dass dies nach einem 100%-igen CPU-Limit riecht?
Zwei Möglichkeiten:
1. CPU-Limit.
2. Fake.
3. Readktioneller Fehler beim Copy&Pasten - selbst bei CPU-Limit würde es bei zwei Benchmarks keine exakt identischen Werte bei zwei Karten geben --> Messungenauigkeit.
Also irgendwie kommt mir das alles sehr merkwürdig vor.
Natürlich könnte es sein, dass die X2900XTX trotz ihrer technischen Überlegenheit langsamer ist; auch wenn ich das bei ATI sehr stark bezweifle.
Meine Vermutung:
AMD/ATI verarscht gerade die halbe Welt. Sinn: Nvidia soll nicht auf die Idee kommen die Preise zu senken, bevor die X2900er Karten in den Regalen stehen. ;)
Ich weiss, dass sich das sehr gewagt anhört, aber ich werde das Gefühl nicht los, dass hier irgendwas nicht stimmt. :uponder:
deekey777
2007-04-26, 12:31:44
Wenn hier weitere Trollereien unter der Gürtellinie auftauchen, gibt's rote Karten.
Ich finde es schon erstaunlich, dass der Tester die 2900er gegen die 8800GTX antreten läßt und nicht gegen die X1950XTX, schließlich erstetzt die 2900 die X1950er und nicht die 8800GTX...
R600XT to compete 8800 GTS only
http://www.fudzilla.com/index.php?option=com_content&task=view&id=703&Itemid=1
...
Sehr sehr Schade... :(. Ich mochte ATi Karten bisher sehr doch wenn der R600XT nicht in der lage ist an eine 8800 Ultra ranzukommen dann wird meine nächste Graka wohl wieder von nVidia sein ;(
dargo
2007-04-26, 12:34:12
ähhmm Leute
wie schon 2 Seiten vorher erwähnt wurde die Zahlen korrigiert ....
schaut euch die Orginal Dailytech Seite an...!!
Jo, hast recht. Jetzt sieht es schon besser aus.
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm
Lawmachine79
2007-04-26, 12:34:44
Ich finde es schon erstaunlich, dass der Tester die 2900er gegen die 8800GTX antreten läßt und nicht gegen die X1950XTX, schließlich erstetzt die 2900 die X1950er und nicht die 8800GTX...
Naja, das interessiert doch keine Sau - der große Clash NV vs. ATI ist ja das Interessante.
deekey777
2007-04-26, 12:38:45
Naja, das interessiert doch keine Sau - der große Clash NV vs. ATI ist ja das Interessante.
Das interessiert vielleicht dir Leute nicht, die hier nur auf Schadensfreude aus sind und sonst in diesem Thread nur selten zu sehen sind.
Vielleicht liegt das "Problem" wirklich nur am GDDR4 bei der XTX?
Es wird vorläufig ja keine XTX geben, also könnte die xt runter auf 320er 8800-preis: 250€
nVidia wird garantiert nicht versuchen AMD absichtlich zu schaden - dem Hauptabnehmer ihrer Chipsätze und Partner in was weiss ich wievielen Bereichen, durch sowas würden sie sich ebenfalls nur selber Schaden.
Nvidia könnte sich aber mit AMD einigen, dass diese aus dem High End und Performance Segment aussteigen. Dann kann Nvidia dort in Ruhe abkassieren und AMD muss nicht mehr so viel R&D investieren um dann einen Fehlschlag wie den R600 zu riskieren.
seahawk
2007-04-26, 12:42:10
Vielleicht liegt das "Problem" wirklich nur bei GDDR4 bei der XTX?
Ich sag mal einige Anregungen.
Latenzen, 512Bit, Ringbus
deekey777
2007-04-26, 12:42:21
Vielleicht liegt das "Problem" wirklich nur bei GDDR4 bei der XTX?
Oder nur beim Treiber?
Es wurde mehrmals erwähnt, dass die Treiber des R600 nicht ausgereift seien und man bis zum Launch (Mitte Mai) die Zeit nutzen will, die Performance zu verbessern.
Hätte man die X1950XTX miteinbezogen, so könnte man sehen, ob es hackt.
Die doch recht lahme Performance der XT und der XTX überrascht schon.
ATI hat noch ein weiteres halbes Jahr gebraucht, um die Karten einigermaßen konkurrenzfähig zu gestalten, und wie sich jetzt heraustellt, mehr schlecht als recht.
Mich wunderts nur deshalb, weil die Architektur ebenso wie beim 8800 neu ist. Wär da nicht mehr möglich? Ein neuer Treiber soll ja noch kommen.
So wie es jetzt aussieht, wird der R6oo nicht der schnellere Chip sein, aber derjenige mit mehr technischen Features.
Das interessiert vielleicht dir Leute nicht, die hier nur auf Schadensfreude aus sind und sonst in diesem Thread nur selten zu sehen sind.
ne das interessiert vor allem Leute nicht, die sich eine Meinung vor ihrem Kauf bilden wollen und das ist die Mehrheit.
Die R5xx Serie ist genauso wie die G7x Serie Schnee von gestern.
Ein Enthusiast der heute 400 bis 500 Euro investieren will, will diese ja wohl richtig investieren.
So wie es den Anschein hat wird ATI da aber Probleme haben die Kundschaft zu überzeugen. Die Leistung schaut jämmerlich aus wenn man die Verspätung einrechnet, auch wenn der Test insgesamt sehr unprofessionell ist und ich lieber die richtigen abwarte.
Aber wer hier glaubt eigentlich noch, dass ATI hier eine Bombe herausbringt? Das können doch nur die borniertesten Fanboys sein. Wenn dem so wäre, hätten wir schon seit Monaten viel überzeugendere News gelesen und nicht so ein Hick Hack mit Verschiebungen, Aussagen wie "Best HIgh End Value Product" und ähnlichen Scheiss.
Ich behaupte jetzt mal - und da bin ich mir mittlerweile zu 99% sicher, dass Nvidia vorne bleiben wird und das klar und deutlich.
Anarchy-HWLUXX
2007-04-26, 12:46:28
Nvidia könnte sich aber mit AMD einigen, dass diese aus dem High End und Performance Segment aussteigen. Dann kann Nvidia dort in Ruhe abkassieren und AMD muss nicht mehr so viel R&D investieren um dann einen Fehlschlag wie den R600 zu riskieren.
Geht nicht, AMD/ATI muss weiterhin high-Performance GPUs bauen um von selbigen ihre Co-Prozessoren abzuleiten ... der GPGPU markt ist lukrativ, AMD würde auch niemls den Server Markt abgeben ;) Deswegen kommen die neuen CPUs auch immer zuerst als Opteron daher ...
Godmode
2007-04-26, 12:47:40
IMHO: ATI wurde einfach vom G80 überrascht. Die XTX erreicht in 80nm nicht die nötige Performance bei akzeptablen Stromverbrauch um eine G80 zu schlagen. ATI stellt die R600 jetzt vor, will aber bald den Refresh in 65nm bringen. Ähnliches Szenario wie bei R520 zum R580. Wenn das wirklich zutrifft finde ich das sehr Schade, keine besseren Preise, weniger Konkurenz und ein Preiskampf ist für AMD auch nicht wirklich gut.
Es könnte eine ganz einfache Erklärung geben:
der momentane Core wird einfach zu heiß für eine XTX wenn er höher getaktet wird :rolleyes:
Das erklärt den Monsterkühler der OEM samt Wattage, oder?
Die XTX kommt dann als R650 in 65nm und mit GDDR4
Nebenbei: was wird wohl aus der R630?
Ist die etwa kaum langsamer als die große Schwester? :tongue:
deekey777
2007-04-26, 13:00:16
ne das interessiert vor allem Leute nicht, die sich eine Meinung vor ihrem Kauf bilden wollen und das ist die Mehrheit.
Wenn man sich die Meinung bzw. die Entscheidung zum Kauf jetzt anhand dieser Benchmarks bildet, dann kann man nur alles falsch machen. Die offizielle Vorstellung ist Mitte Mai, es wird Reviews geben, es wird auch je nach Kompetenz der Tester erklärt, wo der Schuh drückt.
Die R5xx Serie ist genauso wie die G7x Serie Schnee von gestern.
Der G70 ist zum Vergleich zum G80 Schnee von gestern, der R600 ist möglicherweise dem R520/R580 sehr ähnlich.
Ein Enthusiast der heute 400 bis 500 Euro investieren will, will diese ja wohl richtig investieren.
Nur bildet er sich die Meinung bestimmt nicht anhand solcher Benchmarks wie von DT. Es fehlt einfach zu viel, um sich ein einwandfreies Bild über die Leistung des R600 zu machen.
So wie es den Anschein hat wird ATI da aber Probleme haben die Kundschaft zu überzeugen. Die Leistung schaut jämmerlich aus wenn man die Verspätung einrechnet, auch wenn der Test insgesamt sehr unprofessionell ist und ich lieber die richtigen abwarte.
Woruas ziehst du so einen Schluss? Aus diesen Ergebnissen? Sie sind irrelevant und kaum besser als die von Sander (http://www.hardwareanalysis.com/content/article/1813/).
Aber wer hier glaubt eigentlich noch, dass ATI hier eine Bombe herausbringt? Das können doch nur die borniertesten Fanboys sein. Wenn dem so wäre, hätten wir schon seit Monaten viel überzeugendere News gelesen und nicht so ein Hick Hack mit Verschiebungen, Aussagen wie "Best HIgh End Value Product" und ähnlichen Scheiss.
Es hat auch niemand behauptet, dass der R600 eine Bombe sein wird.
Toppas:-)
2007-04-26, 13:02:56
@Treiber
Das stimmt schon, nur was nützt den Usern eine Karte die ihre Stärken bis jetzt nicht ausnutzen konnte.Das ändert sich jetzt wo die Midrange und lowrange Karten kommen zwar, aber es ist für den Ruf nicht förderlich. Das hat ATI schon lange erkannt und Nvidia zieht jetzt langsam nach.Ein solches Produkt lebt nun mal vom Treiber, so gut/schlecht die Hardware auch sein mag.
@R600
Dieser wird auf Augenhöhe vom 8800 sein (ob XT-XTX zu GTS/GTX), mehr
hatte ich auch nicht erwartet erstmal.
Die Übernahme von ATI durch AMD hat ebenfalls zur Verzögerung beigetragen, vermute ich sehr stark- Hier passiert viel was die Prioritäten betrifft, ATI hat früher viele Paperlaunches gemacht, wogegen Nvidia mittlerweile einen Hardlaunch durchführte.
Da es aber keine DX10 games oder Benchmarks gibt, hatte man sich bei AMD dann entschlossen, lieber einen Hardlauch vorzubereiten (inkl. FinalTreiber!)
Das dies erstmal ins Geld geht ohne was zu verdienen wurde in Kauf genommen, aber man bewahrt das Gesicht etwas Final zu haben.Außerdem bewegen sich die R600/8800 - Serie mittlerweile am derzeitigen CPU-Limit schon, die unterschiede sind jenseits der >1280x1024 erst wieder richtig zu merken, und da sind nun mal ca. 5% der User derzeit erst.
@Stromverbrauch
Beim R700 wird sich dieses Blatt wenden, besonders wo AMD ihre Stromspartechniken mit einfließen lassen wird (zumindest ein Gerücht sagte mir das hier nochmal das Design diesbezüglich überarbeitet wurde).
Aber soweit sind wir noch nicht, erstmal kommt noch ein refresh in 65nm der XT/XTX im Q4-07/Q1-08.
Grestorn
2007-04-26, 13:07:20
Mom, die Treiber von Nvidia unter Vista sind alles andere als fertig!! Vieles geht nicht (z.b. SLI) und es sind wohl noch sehr viele Fehler in den Treibern obwohl die Karte schon solange draußen ist.
Selbstverständlich funktioniert SLI. Unter XP perfekt, unter Vista nur eingeschränkt.
Aber sollte sich die Performance der 2900XT bestätigen wäre das nahe an einer Katastrophe. Und zwar für uns alle.
Denn: Wir als Anwender brauchen die Konkurenz. Nur durch sie bleiben die Preise bezahlbar und die Leistung steigt.
Bei AMD käme jetzt die Verspätung und die vergleichsweise schwache Leistung bei hoher Stromaufnahme des R600 zusammen zu den massiven Problemen die AMD im Prozessor-Bereich derzeit hat und den enormen Verlusten und könnten ein existentielles Problem heraufbeschwören.
Und eine nVidia-Monokultur würde uns Kunden sicher nur schaden.
puntarenas
2007-04-26, 13:13:12
Beim R700 wird sich dieses Blatt wenden, besonders wo AMD ihre Stromspartechniken mit einfließen lassen wird (zumindest ein Gerücht sagte mir das hier nochmal das Design diesbezüglich überarbeitet wurde).
Unter diesem Aspekt verfolge ich mittlerweile die Diskussion wieder sehr viel entspannter. Für Neuanschaffungen und die OEMs ist wichtig, wie sich der Chip zum Zeitpunkt der Vorstellung einreiht, ob Nvidia schon lange Zeit den G80 verkauft ist dann Vergangenheit und uninteressant.
Ich hoffe dagegen, dass ATI einfach eine solide Basis entwickelt, die leistungsfähige Weiterentwicklungen mit zusätzlichen Stromsparfeatures ermöglicht. Da keine Granate mehr zu erwarten ist, wird halt eine Generation übersprungen. Somit wird das wichtigste am Launch sozusagen, dass danach endlich spannende R700-Spekulationen beginnen...
Noch was:
die X1900 XTX mit 120W wäre dann kaum langsamer gegen 220W(+?) :rolleyes:
Da werden viele lieber CF machen und bis zur 65nm-Rev. warten!
Wann kommen endlich gründliche Benchmarks...???
Lawmachine79
2007-04-26, 13:15:42
Denn: Wir als Anwender brauchen die Konkurenz. Nur durch sie bleiben die Preise bezahlbar und die Leistung steigt.
Und eine nVidia-Monokultur würde sicher allen nur schaden.
Jetzt weiß ich auch, was das unangenehme Zwicken im Hinterkopf ist, was mir meine Schadenfreude versaut ;) - da ist natürlich was dran.
Treiber hin Treiber her, wer die 1. Karte einer neuen Generation kauft muss damit rechnen das nicht alles einwandfrei läuft. Das war schon immer so und ich verstehe das rumgeheule deswegen nicht, man ist es doch von früher her gewohnt das ein paar Monate ins Land ziehen bis alles wie bei der alten Generation läuft. Zumal ja Vista als 2. Schwierigkeit hinzu kam und dadurch auch viele Probleme auch vor dem PC sitzen...
Für mich zählt das Argument nicht, das deswegen der Release verschoben wurde, der R600 ist schon so lange im Prototyp Status, im Jänner wollte man mal Releasen, ok hat man nicht warum auch immer aber da muss der Treiber doch schon teilweise Funktioniert haben. R600 Highend GPUs brauch kein Mensch mehr, es sei denn ein Killer Feature wird uns Präsentiert, alles andere macht den R600 sinnlos für Consumer.
Merlin31
2007-04-26, 13:26:57
Was mich viel mehr als die Benchis intressieren würde, ist die Bildquali im Vergleich zur NV. Besonders was die Filterungen betrifft.
maximus_hertus
2007-04-26, 13:27:15
Warum sinnlos? Wenn er die gleiche Leistung wie die 8800 zu einem günstigeren Preis bringt, ist doch alles in Ordnung?
Natürlich wäre es für AMD schöner, wenn man sich etwas hätte absetzen können, aber solange man sich auf Augenhöhe befindet, ist es nicht ganz so schlimm.
Entscheidend ist halt der Preis und was die OEMs kaufen (Sichwort: Plattform...).
Gandharva
2007-04-26, 13:29:04
Zwei Möglichkeiten:
1. CPU-Limit.
2. Fake.
Jo, die Benchmarks stinken. Und zwar gewaltig. Demnach wäre die 2900 XTX nur ~0-5% schneller als eine X1950XTX. Die Vergleichswerte kann man sich recht gut im Inet zusammen suchen.
ATI said in front of 150+ journalists that R600XT won't be able to compete with Geforce 8800 GTX
Wenn das wirklich stimmt, und die 2900 XT grade mal auf GTS Niveau ist, hat ATI mit dem R600 wohl den größten Bock in ihrer Firmengeschichte geschossen.
dildo4u
2007-04-26, 13:32:26
Jo, die Benchmarks stinken. Und zwar gewaltig. Demnach wäre die 2900 XTX nur ~0-5% schneller als eine X1950XTX. Die Vergleichswerte kann man sich recht gut im Inet zusammen suchen.
Woher willst du wissen welche Timedemos eingesetzt wurden?Ein Vergleich mit einer 1950XTX kann man sich beim besten willen nicht zusammenreimen und die 0-5% sind ja whol lächerlich im Umkehrschluss wäre ja dann auch die 8800GTX kaum schneller als die 1950XTX.
Wie auch immer: vielleicht erbarmt sich "jemand" und gibt endlich eine fette DX10-Demo frei (oder auslekken) :wink:
Nakai
2007-04-26, 13:38:41
Wenn das wirklich stimmt, und die 2900 XT grade mal auf GTS Niveau ist, hat ATI mit dem R600 wohl den größten Bock in ihrer Firmengeschichte geschossen.
ATIs NV30...
mfg Nakai
Gandharva
2007-04-26, 13:41:17
...im Umkehrschluss wäre ja dann auch die 8800GTX kaum schneller als die 1950XTX.
Wenn man den Benches glauben schenken würde ist die 8800GTX sehr wohl wesentlich schneller als die X1950XTX. Die 5% aufaddiert wären das 15-55% je nach Game und Settings.
Moment mal...
Diese 2600XT mit DDR4 möchte ich gerne mal antreten lassen!
http://itbbs.pconline.com.cn/topic.jsp?tid=6992187
das wäre spannend...
Gouvernator
2007-04-26, 13:44:32
Jo, die Benchmarks stinken. Und zwar gewaltig. Demnach wäre die 2900 XTX nur ~0-5% schneller als eine X1950XTX. Die Vergleichswerte kann man sich recht gut im Inet zusammen suchen.
Wenn das wirklich stimmt, und die 2900 XT grade mal auf GTS Niveau ist, hat ATI mit dem R600 wohl den größten Bock in ihrer Firmengeschichte geschossen.
äh das ist genau so fake wie alle benchmarks hier :smile:
Sowas sagt ein Geschäftsmann doch nicht! Und vor allem nicht wo er seine Ware der Welt präsentieren will...
Das ist NV Selbstlob
AnarchX
2007-04-26, 13:45:36
Moment mal...
Diese 2600XT mit DDR4 möchte ich gerne mal antreten lassen!
http://itbbs.pconline.com.cn/topic.jsp?tid=6992187
das wäre spannend...
Laut den ersten Werten scheint sie etwas schneller als die 8600GTS(1/4 G80) zu sein. Wohlmöglich stimmt es sogar, dass sie bis auf das SI ein halber R600 ist...
dildo4u
2007-04-26, 13:47:32
Wenn man den Benches glauben schenken würde ist die 8800GTX sehr wohl wesentlich schneller als die X1950XTX. Die 5% aufaddiert wären das 15-55%.
Eine 8800GTX ist 70-100% schneller als eine 1950XTX wenn man Shader intensive Games in hohen Auflösungen bencht.
Nicht mit dabei in diesem Test die 10-15% Mherleistung durch den neuen Nvidia Treiber 158.
http://images.anandtech.com/graphs/geforce%208800%20gts%20320mb_02110790247/14022.png
http://images.anandtech.com/graphs/geforce%208800%20gts%20320mb_02110790247/14023.png
http://images.anandtech.com/graphs/geforce%208800%20gts%20320mb_02110790247/14021.png
http://www.anandtech.com/video/showdoc.aspx?i=2926&p=1
sun-man
2007-04-26, 14:00:03
Haben die mal nen "Stromzähler" angeklemmt? Ich glaub wenn es da noch schlimmer als bei Nv wird ist mit dem R600 Hopfen undMalz verloren....bezogen auf die Verspätung.
Natürlich braucht derzeit keine DX10.....und leider kann man scheinbar auch kein DX10 wirklich benchen. Sehr Schade, für mich wäre interessanter was die Karten da leisten.
MFG
Der Holländer (http://www.fudzilla.com/index.php?option=com_content&task=view&id=690&Itemid=34), der voreilig die HD2900XT angeboten hatte, wurde gezwungen, seine PR Äktschn
zu stoppen: Pustekuchen! :tongue:
Zuvor wurde aber bestätigt, daß die Karte (ging um eine Sapphire :whisper: ) ab 18.Mai wirklich verfügbar ist!
Werde den Verdacht nicht los, das DT viel verdient haben - inzwischen...
Nebenbei: einfach absurd - eine 650Mhz GTX kostet 1000$!!! ...
... und wo hatte DT die eigentlich her?
Antwort: ... :wink:
Vielleicht liegt die schlechte Performance sogar am GDDR4?
Ich könnte mir vorstellen, weil auch nvidia sich gegen GDDR4 sträubt, das der 1,1 GHz GDDR4 mit so schlechten Latenzen ausgeliefert wird, das er teilweise langsamer ist als hochgetakteter GDDR3. Hat man schon bei der X1950XTX sehen können...
Das würde erklären, warum sich die Karte nicht absetzen kann. Denn von der GPU Leistung her ist der unterschied eher gering.
Jetzt weiß ich auch, was das unangenehme Zwicken im Hinterkopf ist, was mir meine Schadenfreude versaut ;) - da ist natürlich was dran.
Es steht doch jedem frei, zusätzlich zu seiner nV Karte noch eine von AMD zu holen, auch wenn es die schlechtere ist. So teuer ist der "Spaß" ja auch wieder nicht und man kann beide Karten einem persönlichen Langzeittest unterziehen. Handhabe das so schon seit der 9700 Pro. Der eine käuft 2 Karten vom gleichen Hersteller, ich hingegen jeweils 1 von beiden. :)
Es steht doch jedem frei, zusätzlich zu seiner nV Karte noch eine von AMD zu holen, auch wenn es die schlechtere ist. So teuer ist der "Spaß" ja auch wieder nicht und man kann beide Karten einem persönlichen Langzeittest unterziehen. Handhabe das so schon seit der 9700 Pro. Der eine käuft 2 Karten vom gleichen Hersteller, ich hingegen jeweils 1 von beiden. :)
Naja, bei der 9700Pro gab es ja auch noch kein Crossfire.
Von daher würde ich mir heute mit Sicherheit keine zwei verschiedenen Karten mehr holen, wenn ich mit einer zusätzlichen Karte SLI oder Crossfire nutzen könnte. :rolleyes:
Naja, bei der 9700Pro gab es ja auch noch kein Crossfire.
Von daher würde ich mir heute mit Sicherheit keine zwei verschiedenen Karten mehr holen, wenn ich mit einer zusätzlichen Karte SLI oder Crossfire nutzen könnte. :rolleyes:
Wenn es soweiter geht, könnte bald im High End Bereich die Alternative zwischen 2 Herstellern gar nicht mehr gegeben sein. Dann wird das Gejammer wieder groß sein. ;)
Hätte ich zwar noch vor einigen Monaten ausgeschlossen aber was sich momentan so anbahnt und abzeichnet, lässt nicht Gutes für die Zukunft hoffen. Also zeigt Solidarität und kauft den R600. :D
Anarchy-HWLUXX
2007-04-26, 14:48:59
nVidia ist nach dem NV30 auch nicht untergegangen ... also keine Panik, wird scho werden ;)
PCGH_Carsten
2007-04-26, 14:50:48
ATIs NV30...
mfg Nakai
Ganz sicher nicht.
mapel110
2007-04-26, 14:54:58
Ganz sicher nicht.
Also stimmen die bisherigen Zahlen nicht?!
dildo4u
2007-04-26, 14:59:48
Klar stimmen die nur ist ein Vergleich mit dem NV30 einfach nur übertrieben.Der R600 ist nicht soo schlecht im Vergleich zum Vorgänger.Der G80 ist halt besser als erwartet geworden. imho
Godmode
2007-04-26, 14:59:58
Ganz sicher nicht.
Endlich eine gute Nachricht. Vielleicht verbreitet AMD ja absichtlich schlechte Nachrichten damit der Aktienkurs nach unten geht uns sie billig Anteile kaufen können. ;D
PCGH_Carsten
2007-04-26, 15:00:32
Also stimmen die bisherigen Zahlen nicht?!
Dazu kann (!) ich nichts sagen - aber der NV30 sah auch gegen das damals zweitstärkste Modell von Ati, die 9700 non-Pro, mehr als alt aus. Das scheint ja laut den veröffentlichten Benchmarks nicht unbedingt der Fall zu sein. Jedenfalls sehe ich nirgends eine Tendenz zu einer Leistungdifferenz von Faktor zwei oder mehr.
mapel110
2007-04-26, 15:04:26
Dazu kann (!) ich nichts sagen - aber der NV30 sah auch gegen das damals zweitstärkste Modell von Ati, die 9700 non-Pro, mehr als alt aus. Das scheint ja laut den veröffentlichten Benchmarks nicht unbedingt der Fall zu sein. Jedenfalls sehe ich nirgends eine Tendenz zu einer Leistungdifferenz von Faktor zwei oder mehr.
naja, es ist bisher ja auch nur DX9 getestet worden. Vielleicht siehts ähnlich dem NV30 ja bei D3D10 schlimmer aus.
MuLuNGuS
2007-04-26, 15:16:06
hmmm...
Lost Planet wäre jetzt doch mal einen test wert.
®
[dzp]Viper
2007-04-26, 15:22:25
naja, es ist bisher ja auch nur DX9 getestet worden. Vielleicht siehts ähnlich dem NV30 ja bei D3D10 schlimmer aus.
oder genau anders rum - dass die R600er unter Spielen die nicht so Shader aufwendig sind nicht so gut dasteht, aber unter Shaderlastigen Spielen dafür umso besser. Und vielleicht unter DX10 sogar noch viel besser. Bisher waren die ATI Karten unter Shaderlastigen Anwendungen immer Performanter als die Karten von NV..
Wie ich Spekulationen liebe ;D
seahawk
2007-04-26, 15:28:18
Nur hatte NV dmals auch ne andere Struktur in seine Chips. Im Endeffekt läst sich das ganz gut einschätzen, aber darüber kann man noch nicht sprechen.
dildo4u
2007-04-26, 15:32:05
Den einzigen Vorteil den ich für ATI bei DX10 noch sehe ist das whol manche X-Box 360 Umsetzungen DX10 Modi anbieten werden.Und da in der der 360 ein ATI R500 Chip arbeitet könnte das ein Performance Vorteil für ATI bedeuten natürlich wirds nicht reichen 30% Rohleistung aufzuholen.
Erster Praxiseindruck vom DX10-Spiel Lost Planet
http://www.pcgameshardware.de/?article_id=600229
Ganz sicher nicht.
Erzähl mal... :whisper:
Erster Praxiseindruck vom DX10-Spiel Lost Planet (http://www.pcgameshardware.de/?article_id=600229)
Toppas:-)
2007-04-26, 15:40:53
[QUOTE=Grestorn;5440413]
Bei AMD käme jetzt die Verspätung und die vergleichsweise schwache Leistung bei hoher Stromaufnahme des R600 zusammen zu den massiven Problemen die AMD im Prozessor-Bereich derzeit hat und den enormen Verlusten und könnten ein existentielles Problem heraufbeschwören.
[\QUOTE]
Naja eine Katastrophe ist relativ, aber man hat sich doch entschlossen das beste daraus zu machen. Nvidia hatte einen kleinen Zeitvorsprung in der Entwicklung, den man bei ATI nicht hatte. Technisch ist die Die größer als die von Nvidia, was den Mehrverbrauch erklärt. Man forciert seid Januar mit hochdruck die 65nm Produktion (womit mal nebenbei auch ein Redesign angefertigt wurde-also kein reiner Dieshrink). Dies ganze verzögerte alles um ein halbes Jahr (und die sind immernoch voll im Streß!). AMD arbeite auch schon lange am K10, nur hatten man nicht gedacht das Intel ein so gutes Core2Design hin bekommt.Aber etwas , nur wegen den Einnahmen, vorschnell auf den Markt zu werfen bevor man wirklich soweit etwas stabil hat wäre das schlimmere was passieren kann, der Ruf futsch...Man arbeitet dran die neuen Techniken zu bringen, auch wenn der Marktdruck gerade sehr heftig ist.
Außerdem hat Intel das gleiche mit dem Pentium4 und Nvidia mit den 5000er Karten auch schon durch....also keine Panik! :-)
Naja, erinnert alles sehr an das hier:
http://www.hardwareanalysis.com/content/article/1813.1/
Der ärmste wurde fast zerrissen...
Erster Praxiseindruck vom DX10-Spiel Lost Planet
http://www.pcgameshardware.de/?article_id=600229
Ein wunderschönes Beispiel dafür, warum D3D 10 ungleich gute Grafik bedeutet. Das Spiel sieht sauhässlich aus.
deekey777
2007-04-26, 15:59:14
Naja, erinnert alles sehr an das hier:
http://www.hardwareanalysis.com/content/article/1813.1/
Der ärmste wurde fast zerrissen...
DT behauptet, sie stehen nicht unter NDA.
Sander wurde nicht auf Ibiza eingeladen und stwand somit auch nicht unter einem NDA... :whistle:
Mumins
2007-04-26, 16:01:53
[QUOTE=Grestorn;5440413]
Bei AMD käme jetzt die Verspätung und die vergleichsweise schwache Leistung bei hoher Stromaufnahme des R600 zusammen zu den massiven Problemen die AMD im Prozessor-Bereich derzeit hat und den enormen Verlusten und könnten ein existentielles Problem heraufbeschwören.
[\QUOTE]
Naja eine Katastrophe ist relativ, aber man hat sich doch entschlossen das beste daraus zu machen. Nvidia hatte einen kleinen Zeitvorsprung in der Entwicklung, den man bei ATI nicht hatte. Technisch ist die Die größer als die von Nvidia, was den Mehrverbrauch erklärt. Man forciert seid Januar mit hochdruck die 65nm Produktion (womit mal nebenbei auch ein Redesign angefertigt wurde-also kein reiner Dieshrink). Dies ganze verzögerte alles um ein halbes Jahr (und die sind immernoch voll im Streß!). AMD arbeite auch schon lange am K10, nur hatten man nicht gedacht das Intel ein so gutes Core2Design hin bekommt.Aber etwas , nur wegen den Einnahmen, vorschnell auf den Markt zu werfen bevor man wirklich soweit etwas stabil hat wäre das schlimmere was passieren kann, der Ruf futsch...Man arbeitet dran die neuen Techniken zu bringen, auch wenn der Marktdruck gerade sehr heftig ist.
Außerdem hat Intel das gleiche mit dem Pentium4 und Nvidia mit den 5000er Karten auch schon durch....also keine Panik! :-)
Blöd nur, dass Intel mit dem P4 keine Verluste einfuhr. Auch als der A64 kam wurde der P4 noch gut verkauft. Die ganzen OEM-Geschäfte, die Intel am laufen hat waren durch ihre schwache Performance kaum in Gefahr.
Naja, erinnert alles sehr an das hier:
http://www.hardwareanalysis.com/content/article/1813.1/
Der ärmste wurde fast zerrissen...
Weshalb?
Weshalb?
Overall it looks like the Radeon X1800 XT is good match for the GeForce 7800GTX, although in most games the GTX clearly takes the lead.
However it will now be a tough sell, the MSRP is around $599 for the Radeon X1800 XT, which is up to $150 more expensive than the GeForce 7800GTX which is faster overall.
Heute ist eine X1800 XT 30 % schneller als eine 7800 GTX 256 MB.
deekey777
2007-04-26, 16:18:28
Weshalb?
Schaue nach, wann dieser "Test" veröffentlicht wurde.
Sander hat einen Artikel über die Performance der X1800 geschrieben, obwohl er diese nicht hatte, sondern die Ergebnisse von irgendjemandem bekam. Der Artikel strotzt nur so von Falschinformationen und Falschinterpretationen.
Slipknot79
2007-04-26, 16:47:39
Denn: Wir als Anwender brauchen die Konkurenz. Nur durch sie bleiben die Preise bezahlbar und die Leistung steigt.
Naja, ich weiß ned. Jemand der ne G80 hat, "erpart" sich sagen wir 600EUR durch einen Nicht-Kauf eines fiktiven R600 der ca 30% schneller ist als die 88GTX.
[dzp]Viper
2007-04-26, 17:01:43
Ich wundere mich eigentlich immer wieder, wie die Leute denken, dass eine Grafikkarte, die wegen sonstwelchen Schwierigkeiten ein halbes Jahr zu spät kommt aufeinmal eine andere Grafikkarte, die genau zu dem vorherigen Zeitpunkt rausgekommen ist so "krass verheizen" soll...
In den letzten Jahren war es immer so, dass die Highendgrafikkarten von NV und ATI sich die wage gehalten haben in Sachen Performance (einzigster Ausreißer war die 9700 bei Release).
Sonst waren die Highendmodelle irgendwie immer ziemlich gleich auf (+/-10% im Durchschnitt)
Warum sollte es da jetzt anders sein? ATI konnte doch in den letzten 6 Monaten nichts mehr an der Performance schrauben...
Ich wette die beiden Highendmodelle werden sich wieder fast nichts nehmen. Der eine wird da und der andere woanders schneller sein...
Das aber heißt noch lange nicht, dass die XT(X) "langsam" wäre. Sie ist sehr schnell und wir werden sehen inwiefern ATI das mit dem Refresh in 65nm noch steigern kann!
Sowas kann auch nur von einem Ati Fanboy kommen. Die Karte saugt nehmt es hin und versucht nicht nach Ausflüchten zu suchen.
san.salvador
2007-04-26, 17:12:11
Viper;5441207']Ich wundere mich eigentlich immer wieder, wie die Leute denken, dass eine Grafikkarte, die wegen sonstwelchen Schwierigkeiten ein halbes Jahr zu spät kommt aufeinmal eine andere Grafikkarte, die genau zu dem vorherigen Zeitpunkt rausgekommen ist so "krass verheizen" soll...
In den letzten Jahren war es immer so, dass die Highendgrafikkarten von NV und ATI sich die wage gehalten haben in Sachen Performance (einzigster Ausreißer war die 9700 bei Release).
Sonst waren die Highendmodelle irgendwie immer ziemlich gleich auf (+/-10% im Durchschnitt)
Warum sollte es da jetzt anders sein? ATI konnte doch in den letzten 6 Monaten nichts mehr an der Performance schrauben...
Ich wette die beiden Highendmodelle werden sich wieder fast nichts nehmen. Der eine wird da und der andere woanders schneller sein...
Das aber heißt noch lange nicht, dass die XT(X) "langsam" wäre. Sie ist sehr schnell und wir werden sehen inwiefern ATI das mit dem Refresh in 65nm noch steigern kann!
Diesmal ists aber so, dass Ati seine Karte fast ein 2/4 Jahr nach Nvidia vorstellt. Das ist schon ein großer Unterschied, vorallem da Ati seine Karten sehr gut auf den G80 abstimmen kann, da der ja schon längst draußen ist.
Deshalb erwarten viele auch einen großen Vorsprung von Ati, sie hatten "lange genug Zeit".
AnarchX
2007-04-26, 17:15:20
Die Treiber mit denen Dailytech getestet hat scheinen ja die Retail-Treiber zu sein, also die mit ausgeliefert werden:
The benchmarks DailyTech performed yesterday utilized release candidate drivers. Today's tests used retail drivers ATI released to its board partners.
xL|Sonic
2007-04-26, 17:15:46
Das werden wir wohl erst wissen, wenn das NDA offiziell abläuft, da DT scheinbar ähnlich wie der Inq nicht unbedingt die vertrauensvollste Seite ist.
lest euch mal die Kommentare durch ;)
http://www.pcgameshardware.de/?article_id=600338
Godmode
2007-04-26, 17:16:48
Diesmal ists aber so, dass Ati seine Karte fast ein 2/4 Jahr nach Nvidia vorstellt. Das ist schon ein großer Unterschied, vorallem da Ati seine Karten sehr gut auf den G80 abstimmen kann, da der ja schon längst draußen ist.
Deshalb erwarten viele auch einen großen Vorsprung von Ati, sie hatten "lange genug Zeit".
In einem halben Jahr kann aber die Performance nicht so einfach verdoppelt werden. Das einzige was da noch machbar ist, ist die Taktrate durch Respins zu erhöhen.
AnarchX
2007-04-26, 17:20:40
lest euch mal die Kommentare durch ;)
http://www.pcgameshardware.de/?article_id=600338
Interessante Farbwahl bei den Bösen. ;)
dann kommt hoffentlich nächste Ausgabe ein Test :)
san.salvador
2007-04-26, 17:28:08
In einem halben Jahr kann aber die Performance nicht so einfach verdoppelt werden. Das einzige was da noch machbar ist, ist die Taktrate durch Respins zu erhöhen.
Niemand redet von Verdoppelung, aber ich und viele andere erwarten sich eben, dass der R600 um den "Zeitfaktor" (ein besserer Name fällt mir nicht ein, ich hoff ihr wisst was ich meine) schneller.
Ati hatte xx% mehr Zeit, also erwarte ich mir auch, dass die Karten um xx% schneller sind.
Es ist kein großes Kunststück, eine gleich schnelle GPU hinzustellen und dabei wesentlicher länger dafür zu brauchen.
Auch in Ordnung wärs, wenn die GPU nur gleich schnell aber eben um diesen Prozentsatz günstiger + sparsamer wäre.
seahawk
2007-04-26, 17:30:42
Mir gefällt in vieler Hinsicht der Vergleich zum R520.
san.salvador
2007-04-26, 17:33:22
Mir gefällt in vieler Hinsicht der Vergleich zum R520.
Absolut, mich erinnert die Geschichte auch schon länger an die "causa R520".
Vielleicht werkeln bei Ati zwei Teams parallel, wovon eines allerdings aus Trödlern und Pfeifen besteht. :D
xL|Sonic
2007-04-26, 17:33:46
Nur war damals ja schon recht früh bekannt, wie gut der R580 werden würde. Momentan siehts da ja etwas anders aus.
san.salvador
2007-04-26, 17:36:46
Nur war damals ja schon recht früh bekannt, wie gut der R580 werden würde. Momentan siehts da ja etwas anders aus.
Ist ja auch eine schwere Marketingentscheidung.
Wenn man jetzt erzählt, wie toll und billig und wasweißich der R700 wird und dieser auch bald kommt, kauft ja kein Horst mehr den R600.
xL|Sonic
2007-04-26, 17:38:28
Joah schon klar, aber im Hinblick auf den Konkurrenzkampf kann man nur hoffen, dass man ähnlich wie beim R580 auch noch einen starken Refresh in der Hinterhand hat.
mapel110
2007-04-26, 17:39:12
Ist ja auch eine schwere Marketingentscheidung.
Wenn man jetzt erzählt, wie toll und billig und wasweißich der R700 wird und dieser auch bald kommt, kauft ja kein Horst mehr den R600.
Damals wars auch nur inoffiziell, was die Änderungen am R580 betrifft. Über den Refresh vom R600 ist ja afaik noch gar nichts bekannt.
dildo4u
2007-04-26, 17:39:39
Und man kann nur hoffen das dieser Refresh im gegensatz zum R580 nicht noch mher Strom braucht. ;)
AnarchX
2007-04-26, 17:42:51
Und man kann nur hoffen das dieser Refresh im gegensatz zum R580 nicht noch mher Strom braucht. ;)
Da es auf einen 65nm Chip hinauslaufen wird, ist dies doch anzunehmen.
Nur besteht das Problem, dass NV diese Option auch hat und mit 90nm auf 65nm noch einen viel größeren Sprung machen könnte.
Zudem ist der R600 kein R520 bei den man mal eben die ALUs verdreifacht(wäre auch hier wohl nicht wirklich sinvoll).
Und man kann nur hoffen das dieser Refresh im gegensatz zum R580 nicht noch mher Strom braucht. ;)
Der R580 war eigentlich recht ineffizient und nicht viel besser als R520. Heißt aber nicht, dass R580 schlecht ist, ganz im Gegenteil, will vielmehr damit ausdrücken, dass der R520 schon was getaugt hat, vor allem ließ er sich recht gut übertakten.
Beim R600 müsste mal analysiert werden, was genau die Performance begrenzt. Aber wenn irgendwas am R600 "angeflanscht" wird, wie beim R580, dann müsste der Fertigungsprozess in 65 nm erfolgen.
dildo4u
2007-04-26, 17:46:21
Da es auf einen 65nm Chip hinauslaufen wird, ist dies doch anzunehmen.
Ja und dafür muss bei den Transistoren und beim Takt kräftig aufgestockt werden wenn man gegen den G80 Nachfolger bestehen will der Stromsparvorteil könnte sich fast in Luft auflösen und der R700 braucht ähnlich viel wie der R600.
xL|Sonic
2007-04-26, 17:52:27
Hatte der R580 nicht nen geringeren Stromverbrauch als der R520?
Hatte der R580 nicht nen geringeren Stromverbrauch als der R520?
Nein, aus dem Bauch heraus würde ich sagen, dass er ca. 20 Watt mehr gebraucht hat, aber auf jeden Fall mehr.
seahawk
2007-04-26, 17:55:22
Nur war damals ja schon recht früh bekannt, wie gut der R580 werden würde. Momentan siehts da ja etwas anders aus.
Mir sind bisher keine Probleme bei R650 großartig zu Ohren gekommen, man hört auch nichts von gravierenden Veränderungen oder Verspätungen.
AnarchX
2007-04-26, 17:55:53
Hatte der R580 nicht nen geringeren Stromverbrauch als der R520?
Nein:
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html
... jedenfalls nicht unter 3D.
Apropos R520:
Der Vergleich mit dem R600 hinkt ein wenig hinterher.
Denn wenn die Benchmarksergebnisse von Dailytech echt sind und AMD/ATI die R600 nicht absichtlich kastriert laufen lässt, dann wäre eine X1950XTX in einigen Spielen schneller als eine X2900XTX.
Der R520 bzw. die X1800er hingegen waren von Anfang an deutlich schneller als die X850er Karten.
[dzp]Viper
2007-04-26, 18:22:23
Ati hatte xx% mehr Zeit, also erwarte ich mir auch, dass die Karten um xx% schneller sind.
Rofl was ist das denn für eine Logik?
Also wenn eine Karte sich um 2-3 Monate verspätet, dann soll die Karte auch 2-3 Monate "schneller" sein?
Sry aber was du da schreibst ist milde gesagt "bullshit" und entbehrt jeder Logik.
Das Chiplayout (also der Chip) ist vielleicht schon seit einem Jahr fertig. Und seitdem geht es nur noch im die Fertigung des Chips und der Karte! Wenn es bei der Fertigung Probleme gibt, wie willst du dann den Chip um X % schneller machen?
Willst du einfach den Chip nochmal neu designen? Gut dann braucht der Chip aber bis zur Fertigstellung nochmal ein Jahr oder länger...
Bissel nachdenken wäre hier angebracht (sry aber ist so).
Das einzigste was ATI machen konnte ist durch verschiedene Respins noch an der Taktschraube zu drehen (wurde über mir schon erwähnt).
Du kannst nicht von einem Chip der 5-6 Monate verspätung hat erwarten, dass er dann gleich im großen Maße (30-40%) schneller ist als wenn er Pünktlich gewesen wäre...
san.salvador
2007-04-26, 18:28:00
Viper;5441509']Rofl was ist das denn für eine Logik?
Also wenn eine Karte sich um 2-3 Monate verspätet, dann soll die Karte auch 2-3 Monate "schneller" sein?
Sry aber was du da schreibst ist milde gesagt "bullshit" und entbehrt jeder Logik.
Das Chiplayout (also der Chip) ist vielleicht schon seit einem Jahr fertig. Und seitdem geht es nur noch im die Fertigung des Chips und der Karte! Wenn es bei der Fertigung Probleme gibt, wie willst du dann den Chip um X % schneller machen?
Willst du einfach den Chip nochmal neu designen? Gut dann braucht der Chip aber bis zur Fertigstellung nochmal ein Jahr oder länger...
Bissel nachdenken wäre hier angebracht (sry aber ist so).
Das einzigste was ATI machen konnte ist durch verschiedene Respins noch an der Taktschraube zu drehen (wurde über mir schon erwähnt).
Du kannst nicht von einem Chip der 5-6 Monate verspätung hat erwarten, dass er dann gleich im großen Maße (30-40%) schneller ist als wenn er Pünktlich gewesen wäre...
Das Wort "einzigst(e)" existiert nicht und tut im Auge weh, bitte lass das. :)
Und ich find nicht, dass es Bullshit ist, im Gegenteil.
Wenn Team A für das gleiche Ergebnis deutlich mehr Zeit braucht als Team B hat Team A "Mist" gebaut.
Wenn du eine Firma hättest, würdest du vermutlich Team A feuern. Denn wenn du Team A 30% mehr Zeit zur Verfügung stellst (Zeit=Geld!), erwartest du auch, dass das Ergebnis dementsprechend besser ist.
Das gilt nicht nur für Grafikkartenhersteller.
reunion
2007-04-26, 18:49:51
Naja, ich weiß ned. Jemand der ne G80 hat, "erpart" sich sagen wir 600EUR durch einen Nicht-Kauf eines fiktiven R600 der ca 30% schneller ist als die 88GTX.
Dafür "muss" er sich eine 8800U, die ca. 20% schneller ist als die GTX um 900€ kaufen. Toll, nicht? Blick doch mal etwas über den Tellerrand. Dass mangelnde Konkurrenz am Ende nur einem schadet, nämlich dem Kunden, sollte klar sein.
Zum Thema: Wenn sich das als wahr herausstellen sollte, dann kann ATi die Karte mit der Pfeife rauchen. Wer soll so eine Karte kaufen, falls das dazu auch noch mit dem höheren Stromverbrauch stimmt?
robbitop
2007-04-26, 18:54:09
Dazu kann (!) ich nichts sagen - aber der NV30 sah auch gegen das damals zweitstärkste Modell von Ati, die 9700 non-Pro, mehr als alt aus. Das scheint ja laut den veröffentlichten Benchmarks nicht unbedingt der Fall zu sein. Jedenfalls sehe ich nirgends eine Tendenz zu einer Leistungdifferenz von Faktor zwei oder mehr.
Das habe ich irgendwie anders in Erinnerung. Zu Lebzeiten konnte man die SM2 Spiele an einer Hand abzaehlen (darin war NV3x graesslich ja). Sonst war die NV30/35 nicht so schlecht, wie sie dargestellt wird.
Das habe ich irgendwie anders in Erinnerung. Zu Lebzeiten konnte man die SM2 Spiele an einer Hand abzaehlen (darin war NV3x graesslich ja). Sonst war die NV30/35 nicht so schlecht, wie sie dargestellt wird.
Bald nach der Vorstellung der NV30er ging es aber los mit den SM2-Spielen und wer der Werbung und vielen Testern (jaa, das uunglaublich neue CineFX, schon so nah am SM3.0 und dem R300 um Welten überlegen, außer beim Speed) geglaubt hatte sah dann ziemlich alt aus.
Radeon HD 2900 Series Launch On May 2nd
http://www.vr-zone.com/?i=4931
Da bekommt wohl jemand kalte Füße. Bedeutet wohl, dass die Werte von Dailytech der Wahrheit entsprechen.
horn 12
2007-04-26, 19:17:31
ATI verarscht zurzeit wirklich die ganze Welt.
Die karte wird schon Potential haben, favon kann und muss man ausgehene,- wollen eher einen kompletten Ü-Effekt zum auch noch recht genialen Preis erzeugen.
Oder warum meint ihr hat ATI/ AMD die Karte so oft nach hinten verschoben, um JETZT nicht mal an eine GTX / Ultra anknüpfen zu können? Da hätte man gleich die Karte Ende Jänner/ oder gar Dezember 2006 bringen können, und nicht jetzt,- und vor allem nun zu dem RIESEN- Fiasko. Da werden sie sich wohl was erhoffen, fragt mich nun nicht genauer.. .. Boh!
Wollen NV wahrscheinlich in Sicherheit wiegen um die Preise der NV GTS-GTX stabil hoch halten zu können.
Super Grobi
2007-04-26, 19:18:32
http://www.vr-zone.com/?i=4931
Da bekommt wohl jemand kalte Füße. Bedeutet wohl, dass die Werte von Dailytech der Wahrheit entsprechen.
Kann das überhaupt stimmen? Dann müssten ja die Reviews alle vor dem 2. kommen.
SG
san.salvador
2007-04-26, 19:18:59
Das habe ich irgendwie anders in Erinnerung. Zu Lebzeiten konnte man die SM2 Spiele an einer Hand abzaehlen (darin war NV3x graesslich ja). Sonst war die NV30/35 nicht so schlecht, wie sie dargestellt wird.
Ich konnte mit meiner 9700 Pro viele und sehr lange SM2-Spiele zocken, wo der NV30 schon lange nichts spielbares mehr hervorwürgen konnte. ;)
R300, der war zu seiner Zeit wirklich ein tolles Stück Hardware. *schwelg* :love:
Launch am 2. Mai ?
http://www.pcgameshardware.de/?article_id=600354
Kann das überhaupt stimmen? Dann müssten ja die Reviews alle vor dem 2. kommen.
SG
Die Reviewer haben alle Karten und schrieben gerade ihre Berichte (+ das Benchmarking).
Ob es ein hard Launch wird, wird sich zeigen. Aber AMD scheint wohl damit die Ungewissheit vieler Käufer ein Ende bereiten.
Ein kluger Schachzug.
san.salvador
2007-04-26, 19:23:31
Die Reviewer haben alle Karten und schrieben gerade ihre Berichte (+ das Benchmarking).
Ob es ein hard Launch wird, wird sich zeigen. Aber AMD scheint wohl damit die Ungewissheit vieler Käufer ein Ende bereiten.
Ein kluger Schachzug.
Ob das klug ist kann man erst sagen, wenn man weiß, was die Karten zu welchem Preis zu leisten im Stande ist.
Launch am 2. Mai ?
http://www.pcgameshardware.de/?article_id=600354
und in meinem dunstkreis geistert eher anfang juni herum. merkwürdig
Super Grobi
2007-04-26, 19:24:56
Die Reviewer haben alle Karten und schrieben gerade ihre Berichte (+ das Benchmarking).
Ob es ein hard Launch wird, wird sich zeigen. Aber AMD scheint wohl damit die Ungewissheit vieler Käufer ein Ende bereiten.
Ein kluger Schachzug.
Aber was ist mit dem NDA? Also wird es die Karten evt. am Mittwoch zu kaufen geben, aber die Reviewer dürfen ihre Test erst später veröffentlichen. Das ist doch :crazy:
SG
und in meinem dunstkreis geistert eher anfang juni herum. merkwürdig
Ja, für die XTX
SG
w0mbat
2007-04-26, 19:26:26
Some samples should be out until 10th latest for NDA reviews
Was nun?
Ob das klug ist[...]
Durch den vorgezogenen Fall des NDAs reagiert AMD auf die Verunsicherung der Kunden. Dailytech's Werte sind vernichtend, AMD musste handeln.
Es zeigt aber auch, dass die Werte wohl stimmen und mit dem vorgezogenen Fall man einfach so schnell wie möglich aus der negativen Presse raus will.
san.salvador
2007-04-26, 19:29:13
Durch den vorgezogenen Fall des NDAs reagiert AMD auf die Verunsicherung der Kunden. Dailytech's Werte sind vernichtend, AMD musste handeln.
Es zeigt aber auch, dass die Werte wohl stimmen und mit dem vorgezogenen Fall man einfach so schnell wie möglich aus der negativen Presse raus will.
Wenn der R600 wirklich Murks sein sollte, wäre es klüger, die potentiellen Kunden doch im Ungewissen zu lassen, anstatt den murks schnell zu bestätigen.
wenn der Chip immer noch so langsam ist aber nicht :(
Was nun?
Selbst geschrieben?
Wenn der R600 wirklich Murks sein sollte, wäre es klüger, die potentiellen Kunden doch im Ungewissen zu lassen, anstatt den murks schnell zu bestätigen.
Wir wissen nicht 100%, ob die Ergebnisse astrein sind. Man könnte es annehmen.
Je länger AMD wartet, desto schlimmer wie die Sache. Und die Kunden jetzt in Unsicherheit zu lassen, wäre sehr fahrlässig.
Sk_Antilles
2007-04-26, 19:34:05
Durch den vorgezogenen Fall des NDAs reagiert AMD auf die Verunsicherung der Kunden. Dailytech's Werte sind vernichtend, AMD musste handeln.
Es zeigt aber auch, dass die Werte wohl stimmen und mit dem vorgezogenen Fall man einfach so schnell wie möglich aus der negativen Presse raus will.
Also, ich gehe davon aus, dass die DT Benchmarks nicht stimmen.
Da liegt die 2900XTX! bei manchen Ergebnissen 25-37% hinter! der GTX. Dafür wäre der ganze Aufwand für den R600 für den Popo. :rolleyes:
Ein Griff in die ganz alte Mottenkiste:
Ur-Geforce samt HW und (SW... LOL) T&L :tongue:
So komm ich mir z.Zt. bei D3D10 vor ...
san.salvador
2007-04-26, 19:41:49
Wir wissen nicht 100%, ob die Ergebnisse astrein sind. Man könnte es annehmen.
Je länger AMD wartet, desto schlimmer wie die Sache. Und die Kunden jetzt in Unsicherheit zu lassen, wäre sehr fahrlässig.
Wie gesagt, ob die Entscheidung klug ist/war, können wir erst danach beurteilen.
Erinnert mich stark an die heisenbergsche Unschärferelation... :uponder:
genug OT. :D
reunion
2007-04-26, 19:47:16
Also, ich gehe davon aus, dass die DT Benchmarks nicht stimmen.
Da liegt die 2900XTX! bei manchen Ergebnissen 25-37% hinter! der GTX. Dafür wäre der ganze Aufwand für den R600 für den Popo. :rolleyes:
Die GTX bei DT ist auch um 13% übertaktet. Ich glaube nicht, dass sich da noch viel ändern wird, DT war bis jetzt immer eine relativ zuverlässige Quelle, und laut denen wurde mit dem Launchtreiber getestet. Und die Positionierung im Markt mit 399$ klar gegen die GTS zeugt auch nicht gerade von großer Euphorie. Das schlauste was ATi jetzt IMHO machen kann, ist, die XTX einzumotten, und bei der XT den Vcore und die Taktraten so weit zu senken, dass man eine schnelle und leistungseffiziente Karte im Performancesegment anbieten kann.
horn 12
2007-04-26, 19:50:31
die veröffentlichten Benchmarks waren es ATI nun wohl dennoch zu viel des Guten, sodass man ausgehen kann/ Muss dass dies nicht stimmt.
Ein Denkanstoss von mir: MINDESTENS GTX Performance sollte man erreichen, war ja beim R520 nicht anders.
Bei den gezeigten Werten würde man blosgestellt werden, und gar die XT nicht unter die Leute bringen da die GTS in Preis nach dem Launch sinken wird, und 380 Euro ca. für ein minimal besseres/ meistens jedoch nur identisches Ergebis..... Niemals.
Somit will A/A dem Kunden entgegenkommen und dem erbarmungslosen Warten nun abruppt ein Ende setzen.
Dieses Wochenende könnten offizielle Bench daherkommen, da nun alle fleissig am schreiben/ Benchen sind, und dann wird sich DT was einfallen lassen müssen.
Gouvernator
2007-04-26, 19:51:54
Wir wissen nicht 100%, ob die Ergebnisse astrein sind. Man könnte es annehmen.
Auf jeden fall kriegt Dailytech keine Karten mehr von ATI :)
Nakai
2007-04-26, 19:52:47
Ehem...miese Treiber? Ich kann mir beim besten Willen ein so schlechtes Ergebnis nicht vorstellen.
mfg Nakai
ATI verarscht zurzeit wirklich die ganze Welt.
Die karte wird schon Potential haben, favon kann und muss man ausgehene,- wollen eher einen kompletten Ü-Effekt zum auch noch recht genialen Preis erzeugen.
Oder warum meint ihr hat ATI/ AMD die Karte so oft nach hinten verschoben, um JETZT nicht mal an eine GTX / Ultra anknüpfen zu können? Da hätte man gleich die Karte Ende Jänner/ oder gar Dezember 2006 bringen können, und nicht jetzt,- und vor allem nun zu dem RIESEN- Fiasko. Da werden sie sich wohl was erhoffen, fragt mich nun nicht genauer.. .. Boh!
Wollen NV wahrscheinlich in Sicherheit wiegen um die Preise der NV GTS-GTX stabil hoch halten zu können.
Oh man.. Nimm mal die rosarote Brille ab.. Evtl gehts nicht besser bei ATI atm ?
Auf jeden fall kriegt Dailytech keine Karten mehr von ATI :)
Sie haben keine Karten von AMD ;)
Ehem...miese Treiber? Ich kann mir beim besten Willen ein so schlechtes Ergebnis nicht vorstellen.
Na, AMD doch nicht. Immerhin haben sie doch rumerzählt wie toll ihre Treiber wären - im Gegensatz zu denen von nVidia.
Sk_Antilles
2007-04-26, 19:56:27
Wie es auch immer ausgehen mag, es bleibt auf jeden Fall spannend bis zur Veröffentlichung. Ich kann es nur begrüßen, falls die Karten schon nächste Wochen raus kommen sollten.
Nakai
2007-04-26, 19:58:21
Na, AMD doch nicht. Immerhin haben sie doch rumerzählt wie toll ihre Treiber wären - im Gegensatz zu denen von nVidia.
Im Bezug zu Vista, jedenfalls wurde hier nie die Performance miteinbezogen. Gute Treiber müssen nicht unweigerlich eine gute Performance bringen, was man jedoch bei einer Grafikkarte erwarten sollte.
mfg Nakai
Super Grobi
2007-04-26, 19:59:26
Wie es auch immer ausgehen mag, es bleibt auf jeden Fall spannend bis zur Veröffentlichung. Ich kann es nur begrüßen, falls die Karten schon nächste Wochen raus kommen sollten.
Ich kann die Spannung garnicht mehr aushalten ;D
Auch weiss ich nicht mehr was ich glauben soll! Ist nun die XT "nur" so schnell wie die GTS oder doch fast an der GTX dran? Wird zeit, das sich ein Reviewer verklickt und es was zu lesen gibt.
SG
Undertaker
2007-04-26, 19:59:46
Weil die GTX einfach allgemein schneller ist?
Oblivion - 1280x1024
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Oblivion - 1600x1200
Radeon HD 2900 XT = 101,4fps
GeForce 8800 GTX = 110,5fps
Findest du nicht, dass dies nach einem 100%-igen CPU-Limit riecht?
ist die eigenschaft eines cpu-limits nicht, dass verschiedene schnelle gpus auf einmal die gleichen fps schaffen? ;)
nein, irgendetwas passt da absolut nicht
dildo4u
2007-04-26, 20:04:06
ist die eigenschaft eines cpu-limits nicht, dass verschiedene schnelle gpus auf einmal die gleichen fps schaffen? ;)
nein, irgendetwas passt da absolut nicht
Diese Werte wurden schon lange berichtigt.
http://www.dailytech.com/ATI+Radeon+HD+2900+XTX+Doomed+from+the+Start/article7052.htm
lol "ATI Radeon HD 2900 XTX, Doomed from the Start"
Objektiver und neutraler kann man den Titel eines solchen Vorab ?tests? nicht formulieren.
deekey777
2007-04-26, 20:15:52
lol "ATI Radeon HD 2900 XTX, Doomed from the Start"
Objektiver und neutraler kann man den Titel eines solchen Vorab ?tests? nicht formulieren.
Das ist ein Blog und kein Review. ;)
san.salvador
2007-04-26, 20:19:07
ist die eigenschaft eines cpu-limits nicht, dass verschiedene schnelle gpus auf einmal die gleichen fps schaffen? ;)
nein, irgendetwas passt da absolut nicht
Vielleicht nutzen die zwei Treiber Dual Core unterschiedlich gut, aber in sich immer gleich. ;)
Gouvernator
2007-04-26, 20:21:40
Also wenn schon die Karten nicht von AMD sind kann das nur eins bedeuten - die sind von Nvidia oder vom LKW gefallen... In beiden Fällen null Objektivität =) wenn man schon NDA frei ist dann kann man in aller Ruhe alles schön geordnet erzählen... tuns aber nicht :)
san.salvador
2007-04-26, 20:23:49
Also wenn schon die Karten nicht von AMD sind kann das nur eins bedeuten - die sind von Nvidia oder vom LKW gefallen... In beiden Fällen null Objektivität =)
Was ist an vom Laster gefallenen Karten subjektiv? :confused:
Gouvernator
2007-04-26, 20:32:51
Das die Sachen dann von falschen Leuten getestet werden. Die nix können auf dem Gebiet...
hier vergessen Antialiasing anzumachen, da Auflösung zu verstellen und sonst ziemlich überfordert...
sun-man
2007-04-26, 20:39:59
Das die Sachen dann von falschen Leuten getestet werden. Die nix können auf dem Gebiet...
hier vergessen Antialiasing anzumachen, da Auflösung zu verstellen und sonst ziemlich überfordert...
Drauf geschissen. AMD scheint denen nichts zu können, denn sost wäre kein artikel mehr online. Von den Werbeeinahmen kaufen die sich 10x die nächste Generation....
Slipknot79
2007-04-26, 20:47:04
Dafür "muss" er sich eine 8800U, die ca. 20% schneller ist als die GTX um 900€ kaufen. Toll, nicht? Blick doch mal etwas über den Tellerrand. Dass mangelnde Konkurrenz am Ende nur einem schadet, nämlich dem Kunden, sollte klar sein.
Ich habe äusserst starke Zweifel, dass "viele" Leute 900EUR für die U zahlen, und wenn, dann wären das gerade mal 10 Leute, die mir helfen würden Geld zu sparen, da ich keine U bekommen würde wegen großer Nachfrage.
Godmode
2007-04-26, 20:57:32
Ich habe äusserst starke Zweifel, dass "viele" Leute 900EUR für die U zahlen, und wenn, dann wären das gerade mal 10 Leute, die mir helfen würden Geld zu sparen, da ich keine U bekommen würde wegen großer Nachfrage.
Ich werd mir eine kaufen und wenn dann alle weg sind, werd ich sie für mehr bei Ebay verchecken, siehe 7800 GTX 512 ;D
Undertaker
2007-04-26, 21:07:57
Ich werd mir eine kaufen und wenn dann alle weg sind, werd ich sie für mehr bei Ebay verchecken, siehe 7800 GTX 512 ;D
die hatte aber auch einen echten hardwarevorteil (512mb), die ultra wohl nur einfach mehr takt - ich glaube nicht das hier die preise so hoch schießen
Godmode
2007-04-26, 21:16:07
die hatte aber auch einen echten hardwarevorteil (512mb), die ultra wohl nur einfach mehr takt - ich glaube nicht das hier die preise so hoch schießen
Jeder Tombman wäre tot unglücklich, würde er keine solche Karte besitzen.
Jeder Tombman wäre tot unglücklich, würde er keine solche Karte besitzen.
Wie schön du das gesagt hast... Du bist mein Held !!!!!!!!
Slipknot79
2007-04-26, 22:10:00
Ich werd mir eine kaufen und wenn dann alle weg sind, werd ich sie für mehr bei Ebay verchecken, siehe 7800 GTX 512 ;D
Naja, du holst dir das Geld über ebay, ich hole es mir per Nichtkauf :tongue:
Per nichtkauf kannste ja nix verdienen ;)
dargo
2007-04-26, 22:56:57
ist die eigenschaft eines cpu-limits nicht, dass verschiedene schnelle gpus auf einmal die gleichen fps schaffen? ;)
Nicht wenn es sich um einen Dual-/Quadcore handelt. ;)
Aber wie schon gesagt, die Werte wurden schon lange korrigiert.
LovesuckZ
2007-04-26, 23:13:53
8800GTX@default, Vista 32bit 158.18
gpudipv0.8 result(s)
command-line arguments: --gpuid --longresult --all --fragmentprogram arb --iterations 10000 --primitive triangle --saveresult html --viewresult --detectdriver no
gpuid (-g, --gpuid)
GL_RENDERER : GeForce 8800 GTX
GL_VENDOR : NVIDIA Corporation
GL_VERSION : 2.1.1
Driver Name :
Driver Company :
Driver Version :
Driver Description :
ARB_fragment_program
ALU Instructions : 8192 [ ABS ADD COS DP3 DP4 DPH DST EX2 FLR FRC LG2 LIT LRP MAD MAX MIN MOV MUL POW RCP RSQ SCS SIN SUB XPD ]
TEX Instructions : 8192
TEX Indirections : 8192
Program Instructions : 8192
Temporaries : 4096
Parameters : 1024
Local Parameters : 512
Env. Parameters : 256
Texture Coords : 8
Texture Image Units : 32
Texture Size : 8192 x 8192
Texture Rectangle Size : 8192 x 8192
Draw Buffers : 8
Renderbuffer Size : 8192 x 8192
NV_fragment_program
ALU Instructions : [ ADD COS DP3 DP4 DST EX2 FLR FRC LG2 LIT LRP MAD MAX MIN MOV MUL POW RCP RSQ SIN SUB RFL ]
Local Parameters : 512
Texture Coords : 8
Texture Image Units : 32
NV_fragment_program2
ALU Instructions : [ DIV DP2 NRM ]
Exec Instruction Count : 16777216
Call Stack Depth : 32
If Nesting : 64
Loop Nesting : 64
Initial Loop Count : 16777216
task(s) (-t, --task)
# task instructions flops texture
fetches size iterations processing
time (ms) GInstr/sec GFlop/sec GTexel/sec GPixel/sec GByte/sec
1: blend single image (MUL) 1 3 1 512 768 10000 1885,0432 2,0860 6,2579 2,0860 2,0860 7,7709
2: blend single image (ADD) 1 3 1 512 768 10000 1873,7725 2,0985 6,2956 2,0985 2,0985 7,8176
3: blend single image (MAD) 1 6 1 512 768 10000 1805,2512 2,1782 13,0691 2,1782 2,1782 8,1143
4: blend multiple images (MUL) 1 3 2 512 768 10000 2085,5483 1,8854 5,6563 3,7709 1,8854 7,0238
5: blend multiple images (ADD) 1 3 2 512 768 10000 2071,1644 1,8985 5,6956 3,7971 1,8985 7,0726
6: blend multiple images (MAD) 1 6 2 512 768 10000 2055,4350 1,9131 11,4783 3,8261 1,9131 7,1267
7: convert to grayscale 1 5 1 512 768 10000 1830,5368 2,1481 10,7405 2,1481 2,1481 8,0023
8: convert to monotone 3 7 1 512 768 10000 1807,7418 6,5255 15,2262 2,1752 2,1752 8,1032
9: convert to sepia 8 32 1 512 768 10000 1932,6121 16,2771 65,1083 2,0346 2,0346 7,5796
10: invert 1 3 1 512 768 10000 1816,4538 2,1647 6,4942 2,1647 2,1647 8,0643
11: halftone 24 51 2 512 768 10000 2198,4537 42,9265 91,2187 3,5772 1,7886 6,6631
12: brightness and contrast 6 19 1 512 768 10000 2118,0619 11,1389 35,2733 1,8565 1,8565 6,9160
13: sharpen 9 27 4 512 768 10000 2318,4310 15,2644 45,7932 6,7842 1,6960 6,3183
14: blur 9 73 5 512 768 10000 2505,9157 14,1224 114,5480 7,8458 1,5692 5,8455
15: gaussian blur 26 67 9 512 768 10000 3496,6388 29,2384 75,3451 10,1210 1,1246 4,1893
16: edge detect 34 81 8 512 768 10000 3322,4063 40,2399 95,8657 9,4682 1,1835 4,4090
17: color gradient 14 35 1 512 768 10000 2013,4439 27,3413 68,3533 1,9530 1,9530 7,2753
18: cel shading 23 70 1 512 768 10000 1964,5226 46,0365 140,1110 2,0016 2,0016 7,4565
19: emboss 18 51 9 512 768 10000 3474,0309 20,3737 57,7255 10,1869 1,1319 4,2166
20: mandelbrot 60 121 1 512 768 10000 3402,2732 69,3447 139,8451 1,1557 1,1557 4,3055
45977,7371
r600@dailytech (http://dailytech.com/article.aspx?newsid=7044&commentid=131910&threshhold=1&red=127#comments)
gpudipv0.8 result(s)
command-line arguments: --gpuid --longresult --all --fragmentprogram arb --iterations 10000 --primitive triangle --saveresult html --viewresult
gpuid (-g, --gpuid)
GL_RENDERER :
GL_VENDOR : ATI Technologies Inc.
GL_VERSION : 2.0.6471 Release
Driver Name : atioglxx.dll
Driver Company : ATI Technologies Inc.
Driver Version : 6.14.10.6471
Driver Description : ATI OpenGL driver
ARB_fragment_program
ALU Instructions : 2147483647 [ ABS ADD COS DP3 DP4 DPH DST EX2 FLR FRC LG2 LIT LRP MAD MAX MIN MOV MUL POW RCP RSQ SCS SIN SUB XPD ]
TEX Instructions : 2147483647
TEX Indirections : 128
Program Instructions : 2147483647
Temporaries : 128
Parameters : 256
Local Parameters : 512
Env. Parameters : 256
Texture Coords : 8
Texture Image Units : 16
Texture Size : 8192 x 8192
Texture Rectangle Size : 8192 x 8192
Draw Buffers : 4
Renderbuffer Size : 8192 x 8192
task(s) (-t, --task)
# task instructions flops texture
fetches size iterations processing
time (ms) GInstr/sec GFlop/sec GTexel/sec GPixel/sec GByte/sec
1: blend single image (MUL) 1 3 1 512 768 10000 1357.6752 2.8962 8.6887 2.8962 2.8962 10.7894
2: blend single image (ADD) 1 3 1 512 768 10000 1342.9573 2.9280 8.7840 2.9280 2.9280 10.9076
3: blend single image (MAD) 1 6 1 512 768 10000 1344.0228 2.9257 17.5540 2.9257 2.9257 10.8990
4: blend multiple images (MUL) 1 3 2 512 768 10000 1814.5327 2.1670 6.5011 4.3341 2.1670 8.0728
5: blend multiple images (ADD) 1 3 2 512 768 10000 1815.5258 2.1659 6.4976 4.3317 2.1659 8.0684
6: blend multiple images (MAD) 1 6 2 512 768 10000 1814.7068 2.1668 13.0010 4.3337 2.1668 8.0721
7: convert to grayscale 1 5 1 512 768 10000 1344.0554 2.9256 14.6280 2.9256 2.9256 10.8987
8: convert to monotone 3 7 1 512 768 10000 1342.7058 8.7856 20.4997 2.9285 2.9285 10.9096
9: convert to sepia 8 32 1 512 768 10000 1697.3571 18.5331 74.1324 2.3166 2.3166 8.6301
10: invert 1 3 1 512 768 10000 1343.4391 2.9269 8.7808 2.9269 2.9269 10.9037
11: halftone 24 51 2 512 768 10000 2663.9018 35.4262 75.2806 2.9522 1.4761 5.4989
12: brightness and contrast 6 19 1 512 768 10000 1817.8386 12.9786 41.0988 2.1631 2.1631 8.0582
13: sharpen 9 27 4 512 768 10000 2795.5795 12.6591 37.9772 5.6263 1.4066 5.2399
14: blur 9 73 5 512 768 10000 3276.7760 10.8001 87.6006 6.0000 1.2000 4.4704
15: gaussian blur 26 67 9 512 768 10000 5232.9707 19.5369 50.3452 6.7628 0.7514 2.7993
16: edge detect 34 81 8 512 768 10000 4740.4643 28.2026 67.1886 6.6359 0.8295 3.0901
17: color gradient 14 35 1 512 768 10000 1942.2337 28.3438 70.8594 2.0246 2.0246 7.5421
18: cel shading 23 70 1 512 768 10000 1941.7326 46.5768 141.7555 2.0251 2.0251 7.5440
19: emboss 18 51 9 512 768 10000 5237.5362 13.5138 38.2890 6.7569 0.7508 2.7968
20: mandelbrot 60 121 1 512 768 10000 5584.6255 42.2463 85.1966 0.7041 0.7041 2.6230
50450.6369
Und das interessanteste:
r600: Texture Image Units: 16
8800GTX: Texture Image Units: 32
Nun, es sind 16 Textur Address Units, hoffen wir, dass es trilineare TMUs sind oder auch die doppelte Anzahl an Textur Filterings Units verwendet werden!
8800GTX@default, Vista 32bit 158.18
Und das interessanteste:
r600: Texture Image Units: 16
8800GTX: Texture Image Units: 32
Nun, es sind 16 Textur Address Units, hoffen wir, dass es trilineare TMUs sind oder auch die doppelte Anzahl an Textur Filterings Units verwendet werden!
Falls nicht - auch nicht schlimm, es gibt ja immer noch A.I. ;)
deekey777
2007-04-26, 23:20:15
http://forum.beyond3d.com/showpost.php?p=976724&postcount=3035
Well, well, well... I like 14 and 15 myself.
http://www.notforidiots.com/gpudip%20results.html
68530.1587
Super Grobi
2007-04-26, 23:24:05
Was ihr immer an so einen theoretischen Quark interessant findet :|
Bald kommen echte Benchmarks und dann ist hoffentlich schluss mit sowas.
SG
p.s.
was ich nicht verstehen kann: Wenn jemand so einen Scheissdreck mit der Karte testen kann, warum testet er nicht mal nen Spiel? Stalker wäre mal nett.
LovesuckZ
2007-04-26, 23:24:29
http://forum.beyond3d.com/showpost.php?p=976724&postcount=3035
68530.1587
Zum Vergleich meine Punktzahl mit einem aktuellen Treiber: 45977,7371
Bevor welche vollkommen ausflippen ;)
http://forum.beyond3d.com/showpost.php?p=976724&postcount=3035
68530.1587
Ist das ne Ultra? Love kommt ja auf ~46000 Punkte.
LovesuckZ
2007-04-26, 23:28:12
Ist das ne Ultra? Love kommt ja auf ~46000 Punkte.
Je niedriger die "Punktzahl", umso schneller wurden die Befehle abgearbeitet.
Bei der reinen Rechenleistung hat der r600 einen nicht unbeachtlichen Vorteil (siehe die ADD, MUL und MAD Tests). Je texturlästiger die Anweisungen werden, desto stärker ist der G80 im Vorteil.
Bei Test 14 (Cell Shading) sind beide Karten sehr ähnlich, hier kann nVidia mit der brachialen Rohleistung des r600 mithalten, da die G80 Architektur deutlich effektiver arbeitet (bessere Auslastung etc.).
BlackBirdSR
2007-04-26, 23:28:16
Ist das ne Ultra? Love kommt ja auf ~46000 Punkte.
Man beachte: Ausführungszeit in ms, -> niedrigere Werte sind besser.
Godmode
2007-04-26, 23:30:41
Zum Vergleich meine Punktzahl mit einem aktuellen Treiber: 45977,7371
Bevor welche vollkommen ausflippen ;)
Was hast du den für eine Graka? Kann man GPUDIP mit Shadermark vergleichen?
Ne GTX @ Standard Taktrate, steht doch dran ;)
deekey777
2007-04-26, 23:32:35
Zum Vergleich meine Punktzahl mit einem aktuellen Treiber: 45977,7371
Bevor welche vollkommen ausflippen ;)
Und bevor manche noch weiter abheben: Soll ich die Werte meiner X1950GT posten, wenn diese von dem F@H-GPU-Client missbraucht wird?
Und wenn man genau hinschaut: gpudipv0.8 result(s)
command-line arguments: --gpuid --longresult --all --fragmentprogram arb --iterations 10000 --primitive triangle --saveresult html --viewresult --detectdriver no
Man beachte: Ausführungszeit in ms, -> niedrigere Werte sind besser.
Ah okey, in dem Zahlen Wirrwarr habe ich beim Endergebnis keine Einheit gefunden und bin von Benchmark Standard ausgegangen, mehr ist besser.
Werd ich mal eine GTS durch benchen müssen...
LovesuckZ
2007-04-26, 23:34:43
Und bevor manche noch weiter abheben: Soll ich die Werte meiner X1950GT posten, wenn diese von dem F@H-GPU-Client missbraucht wird?
Du verlinkst einen Wert, der jedenfalls bei mir nicht eintritt. Ich habe nur zur Protokollierung meinen Wert mit dem aktuellen Vista 32bit Treiber veröffentlicht.
Ebenso meine Werte in der (unübersichtlichen) Tabelle.
Und wenn man genau hinschaut:
Beschwere dich bei Vista, eine Treibererkennung funktioniert hier nicht. :rolleyes:
/edit: Wobei Vista wohl die falsche Plattform ist, da hier VSync eingestellt (gelockt) ist und die Ergebnisse mächtig drückt (60Hz).
Blaire
2007-04-26, 23:40:22
Und das interessanteste:
r600: Texture Image Units: 16
8800GTX: Texture Image Units: 32
Nun, es sind 16 Textur Address Units, hoffen wir, dass es trilineare TMUs sind oder auch die doppelte Anzahl an Textur Filterings Units verwendet werden!
So schlechte Werte bei der 8800GTX@Default? Ich hab da 18456,2239 :confused:
san.salvador
2007-04-26, 23:41:25
Funktioniert das unter Vista nicht? Was könnte ich falsch gemacht haben?
Schaut doch relativ "gut" aus für ne XT gegenüber einer GTS @ Vista FW 158.18: 57856,2541
Was bedeuten diese 2 Angaben?
Temporaries : 4096 (G80) - 128 (R600)
Parameters : 1024 (G80 - 256 (R600)
LovesuckZ
2007-04-26, 23:46:22
So schlechte Werte bei der 8800GTX@Default? Ich hab da 18456,2239 :confused:
Siehe edit. Vista lockt mit dem Treiber (oder generell?!) meine Frames auf meine Hz Zahl. Egal ob Vsync auf "on", "off" oder "force off" steht.
Blaire
2007-04-26, 23:55:56
Warum vergleicht ihr mit Vista? Ich glaube NVidia hat bei den Vista Treiber auch noch garkeine G80 OGL Extensions mit drinne. WinXP performt deutlich besser.
Sk_Antilles
2007-04-26, 23:56:09
Und was hat das Ganze jetzt mit der R600 zu tun? :rolleyes:
deekey777
2007-04-27, 00:01:10
Und was hat das Ganze jetzt mit der R600 zu tun? :rolleyes:
Und was ist an so einem Posting hilfreich?
Die Diskussion ist alles andere als OT. LS hat schon Recht, dass Uttars Ergebnis nicht nachvollziehbar ist. Und Blaire hat Recht, dass LS' Ergebnis nicht ganz nachvollziehbar ist, insbesondere weil es für mich nicht nachvollziehbar ist, warum V-Sync Einfluss auf das Ergebniss haben soll, wenn es bei mir keinen Unterschied macht, was im CCC eingestellt ist.
gpudip ist schon ein interessantes Tool.
LovesuckZ
2007-04-27, 00:03:16
Warum vergleicht ihr mit Vista? Ich glaube NVidia hat bei den Vista Treiber auch noch garkeine G80 OGL Extensions mit drinne. WinXP performt deutlich besser.
Ich vermute, dass dailytech ebenfalls unter Vista verglichen hat. Das erklärt die niedrigen Ergebnisse in den ersten Tests.
Wenn ich mir XP Vergleiche ansehe, dann ist eine 8800GTX unter XP fast 3mal so schnell.
Was aber in Spielen vieleicht 10% ausmacht, also sagt das ganze nicht so wirklich was aus oder...
LovesuckZ
2007-04-27, 00:13:37
Und Blaire hat Recht, dass LS' Ergebnis nicht ganz nachvollziehbar ist, insbesondere weil es für mich nicht nachvollziehbar ist, warum V-Sync Einfluss auf das Ergebniss haben soll, wenn es bei mir keinen Unterschied macht, was im CCC eingestellt ist.
Verwendest du Vista?
Da Fraps mit Vista Probleme hat, erscheint die Frameszahl ab und zu mal auf dem Bildschirm und springt zwischen 10-30 hin und her.
Bei GPUDID bleibt es jedoch konstant auf 60 Frames -> VSync.
Daher sind die Ergebnisse nur bedingt vergleichbar.
deekey777
2007-04-27, 00:52:31
Verwendest du Vista?
Da Fraps mit Vista Probleme hat, erscheint die Frameszahl ab und zu mal auf dem Bildschirm und springt zwischen 10-30 hin und her.
Bei GPUDID bleibt es jedoch konstant auf 60 Frames -> VSync.
Daher sind die Ergebnisse nur bedingt vergleichbar.
Das ist das Problem: Ich verwende XP SP2 und habe deutlich schlechtere Ergebnisse als Leute mit einer X1950Pro.
Und das interessanteste:
r600: Texture Image Units: 16
8800GTX: Texture Image Units: 32
Nun, es sind 16 Textur Address Units, hoffen wir, dass es trilineare TMUs sind oder auch die doppelte Anzahl an Textur Filterings Units verwendet werden!
Mir ist was eingefallen:
GL_RENDERER : ATI Radeon X1950 GT x86
GL_VENDOR : ATI Technologies Inc.
GL_VERSION : 2.0.6388 WinXP Release
Driver Name : atioglxx.dll
Driver Company : ATI Technologies Inc.
Driver Version : 6.14.10.6388
Driver Description : ATI OpenGL driver
ARB_fragment_program
ALU Instructions : 512 [ ABS ADD COS DP3 DP4 DPH DST EX2 FLR FRC LG2 LIT LRP MAD MAX MIN MOV MUL POW RCP RSQ SCS SIN SUB XPD ]
TEX Instructions : 512
TEX Indirections : 512
Program Instructions : 1536
Temporaries : 64
Parameters : 64
Local Parameters : 64
Env. Parameters : 64
Texture Coords : 8
Texture Image Units : 16
Texture Size : 4096 x 4096
Texture Rectangle Size : 4096 x 4096
Draw Buffers : 4
Renderbuffer Size : 4096 x 4096
Oder sieht hier jemand 12 TMUs?
Ailuros
2007-04-27, 01:20:54
AFAIK zaehlt die Applikation keine TMUs sondern wie viel Texturen in OGL bearbeitet werden koennen.
Die DT Resultate sind IMHO sowieso von wenig Nutzen falls kein AA eingeschaltet war (zumindest sieht es verdaechtig danach aus). Uebrigens haben sie mit dem OEM Monstrum getestet und obwohl einige behaupten dass die OEM und retail XTX GPUs eine gleiche Taktrate haben werden, sprechen meine Infos von 800MHz fuer die letztere.
Alles zusammen gibt schon eine moderaten Vorsprung im Vergleich zu einer 8800GTX, aber IMHLO wirklich nicht allzu viel im Durchschnitt. Ja ich weiss dass ich mich schon seit fast einem Jahr wiederhole....:rolleyes:
AFAIK zaehlt die Applikation keine TMUs sondern wie viel Texturen in OGL bearbeitet werden koennen.
Ja, ist korrekt. Das ist einfach nur die Anzahl der Texturen die man pro Shader binden kann und ist auch bei den kleinsten 6200er Karten 16.
AnarchX
2007-04-27, 06:30:51
Hier nochmal ein Größenvergleich zwischen GTS, XT und GTX:
http://img182.imageshack.us/img182/8188/attachmentd93c4ul2.jpg (http://imageshack.us)
Quelle
(http://we.pcinlife.com/thread-756769-1-1.html)
no_surrender
2007-04-27, 06:51:56
sieht aus als ob der G80 und der R600 die gleiche Lüfter haben:smile:
Also heisst das schonmal schön leise.
reunion
2007-04-27, 07:08:49
Alles zusammen gibt schon eine moderaten Vorsprung im Vergleich zu einer 8800GTX, aber IMHLO wirklich nicht allzu viel im Durchschnitt.
Also falls das stimmt, dann sind die DT-Tests definitiv für die Tonne. Dort stinkt ja die Karte derart ab.
Dunkeltier
2007-04-27, 07:14:18
Viper;5441207']Ich wundere mich eigentlich immer wieder, wie die Leute denken, dass eine Grafikkarte, die wegen sonstwelchen Schwierigkeiten ein halbes Jahr zu spät kommt aufeinmal eine andere Grafikkarte, die genau zu dem vorherigen Zeitpunkt rausgekommen ist so "krass verheizen" soll...
Weiß du was ein halbes Jahr im IT-Sektor ist? Kennst du "Moore's Law"? Da kann man mindestens erwarten, das die Performance gleichauf liegt. Aber doch nicht, das die Grafikkarte de-beschleunigt!
Viper;5441207']
Das aber heißt noch lange nicht, dass die XT(X) "langsam" wäre. Sie ist sehr schnell und wir werden sehen inwiefern ATI das mit dem Refresh in 65nm noch steigern kann!
Das heißt es nicht nur, sie ist es einfach. nVidia hatte mit dem NV30 ein ähnliches Fiasko erlebt, selbiges steht nun ATi bevor. Auf dem Papier lesen sich die techn. Daten wundervoll, praktisch kommt dann schnell die Ernüchterung. Die 1024MB Radeon 2900 XTX kostet nicht nur Unsummen durch ihre Speichergeschichte, sondern glänzt auch noch mit weniger Leistung und den üblichen ATi-Fön. Das ist garantiert super für das Image. :rolleyes: Wieso auf diese Karte warten, wenn man nVidias Nachfolger (die Ultra mit angedachten 650/1000Mhz) beinahe schon heute haben kann? Ich sag nur XFX GeForce 8800 GTX 630M XXX mit 630/1000Mhz... Die wird garantiert bis zum Herbst oder Winter-Refresh halten, und nVidia kann sich anschließend auf die Schulter klopfen, ein Jahr lang mit ein und demselben Design ausgekommen zu sein.
Undertaker
2007-04-27, 07:32:35
Hier nochmal ein Größenvergleich zwischen GTS, XT und GTX:
http://img182.imageshack.us/img182/8188/attachmentd93c4ul2.jpg (http://imageshack.us)
Quelle
(http://we.pcinlife.com/thread-756769-1-1.html)
auf jeden fall ein annehmbares format, und falls lüfter und lautstärke tatsächlich mit der gts konkurrieren könnte es eine gute karte werden - bzgl speed könnte der r600 evntl zumindest bei topaktuellen und kommenden titeln vorteile haben, wenn er bzgl shaderleistung vor dem g80 liegen sollte...
Sternenkind
2007-04-27, 09:15:03
Weiß du was ein halbes Jahr im IT-Sektor ist? Kennst du "Moore's Law"? Da kann man mindestens erwarten, das die Performance gleichauf liegt. Aber doch nicht, das die Grafikkarte de-beschleunigt!
Bitte? Die 2900 XT ist der 8800 GTS doch mindestens gleichwertig. So what?
Das heißt es nicht nur, sie ist es einfach. nVidia hatte mit dem NV30 ein ähnliches Fiasko erlebt, selbiges steht nun ATi bevor. Auf dem Papier lesen sich die techn. Daten wundervoll, praktisch kommt dann schnell die Ernüchterung. Die 1024MB Radeon 2900 XTX kostet nicht nur Unsummen durch ihre Speichergeschichte, sondern glänzt auch noch mit weniger Leistung und den üblichen ATi-Fön. Das ist garantiert super für das Image. :rolleyes: Wieso auf diese Karte warten, wenn man nVidias Nachfolger (die Ultra mit angedachten 650/1000Mhz) beinahe schon heute haben kann? Ich sag nur XFX GeForce 8800 GTX 630M XXX mit 630/1000Mhz... Die wird garantiert bis zum Herbst oder Winter-Refresh halten, und nVidia kann sich anschließend auf die Schulter klopfen, ein Jahr lang mit ein und demselben Design ausgekommen zu sein.
Schon mal was von Preis/Leistung gehört? Wer sich eine GraKa kauft weit jenseits der 500,-€ Marke, egal ob Nvidia oder ATI, dem ist eh nicht mehr zu helfen. Der Mehrwert liegt in keinem Verhältnis zum Preis. Solche Penisverlängerungskarten sind für die meisten uninteressant, eine Preisklasse tiefer schon eher.
Schrotti
2007-04-27, 10:05:50
Ich bin enttäuscht von der Performance des R600.
Da wird ein riesen Hype um den neuen Chip gemacht und dann geht dieser gegen eine Geforce 8800GTX sang und klanglos unter.
Schade eigentlich.
schäm dich ATi, wie kann man nur so ein Mist bauen :(
Super Grobi
2007-04-27, 10:20:15
Ich bin enttäuscht von der Performance des R600.
Da wird ein riesen Hype um den neuen Chip gemacht und dann geht dieser gegen eine Geforce 8800GTX sang und klanglos unter.
Schade eigentlich.
Ich glaub, daß der "Hype" eher von den Atibots hier im Forum gemacht wurde. Die haben in jeden NV Thread behauptet, daß der R600 das alles ja sooooooo viel besser kann und die NVs vernichten wird und bla bla bla.
Hab mich immer gefragt, wo die ihre Infos her haben *ggg*
Ausserdem kenn ich noch kein richtiges Review. Frag mich also woher du das schon wieder alles weisst.
SG
Toppas:-)
2007-04-27, 10:23:58
schäm dich ATi, wie kann man nur so ein Mist bauen :(
Ich weiß ja nicht ob du mal in der Forschung und Entwicklung gearbeitet hast? Nur es ist schwer zu wissen was der Marktgegener gerade entwickelt und welche Ansätze zur Lösung er z.b. für eine Grafikkarte DX10 er verwendet. Hin und wieder passiert es das man mal später dran ist oder ein
nicht so effizentes Design baut.
Nun man lernt mit jeder Generation dazu, war unter DX9 so und ist nun bei DX10 so, deswegen macht weder ATI noch Nvidia mist.
Auch ATI wird irgendwann Nvidia mal wieder ein Stück von der Krone wegholen...und umgekehrt (alles in +-5% Performance, welche Tragödie, besonders wo wir gerade erleben das die CPUs die Leistung der GPUs nicht umsetzten können zu 100%).
Die meisten verstehen wohl nicht, dass man zu 99% aller Fälle sein Produkt schneller als sein altes machen will. Natürlich verfolgt man in der auch die Entwicklung des Gegnerprodukts und versucht, so viele Information darüber zu sammeln wie es nur geht. Außerdem ist es einfach nicht möglich, sein Produkt innerhalb von 6 Monaten um ein vielfaches schneller zu machen als es ist. Der Chip ist schon seit längerem fertig und es wurde nur reiner Feinschliff gemacht. Wenn man nun behauptet, dass ATI Mist gemacht hat, dann während der Entwicklung vor 1-2 Jahren und nicht in den letzten 6 Monaten.
Meiner Meinung nach hat ATI/AMD nach dem Test der DT zu urteilen gute Arbeit geleistet. Sie peformt gut und wird "wahrscheinlich" auch "günstig" zu haben sein (verglichen zu den älteren Generationen).
Das I-Tüpfelchen wäre natürlich, wenn sie auch schneller als das Gegnerprodukt wäre. Aber mal schaun, was uns nächste Woche erwartet :D
BlackBirdSR
2007-04-27, 10:55:35
Ich bin enttäuscht von der Performance des R600.
Da wird ein riesen Hype um den neuen Chip gemacht und dann geht dieser gegen eine Geforce 8800GTX sang und klanglos unter.
Schade eigentlich.
Am Ende zählen doch nur folgende Punkte:
* ATI muss im Midrange und Lowcost-Sektor genug Verträge an Land ziehen, um so viele Chips wie möglich abzusetzen. Diese müssen performant und kostengünstig sein. Dann stimmen die Finanzen.
* ATI muss dem R600 genug Features geben, um ihn auch für mehr als nur Spieler interessant zu machen
* ATI muss in allen Sektoren insofern Konkurrenzfähig bleiben, dass Hersteller nicht absrpingen, oder Spiele nur noch für Nvidia optimieren.
Das High-End im Sinne von GTX/Ultra und XTX ist sowieso fast ausschließlich für Reviews gedacht. Es geht darum, den Markennamen zu pushen, und dadurch Käufer auf kleinere Produkte scharf zu machen.
ATI musste seit dem Launch des G80 zurückstecken, und da macht es auch nicht mehr viel aus, wenn das bis zum R700 so weiter geht. Die Tester und Enthusiasten springen sofort wieder über, wenn ein neues Super-Produkt kommt. Der Mainstream interessiert sich dagegen eher für bezahlbare Produkte.
Nvidia hat etwas schwach angefangen mit der 8500/8600 und nun ist es an ATI dies auszunutzen. Und sämtliche Kapazitäten, die man durch ein Ausbleiben einer mit Gewalt in den Markt gedrückten Mega-2900XTX spart, kann man sofort in bares Geld umwandeln.
ich meine wie kann man ein so langsamen Chip und dann noch ein 512bit Speicherintereface dazu bauen, da hat aber jemand richtig gepennt.
Lawmachine79
2007-04-27, 11:03:10
Die meisten verstehen wohl nicht, dass man zu 99% aller Fälle sein Produkt schneller als sein altes machen will. Natürlich verfolgt man in der auch die Entwicklung des Gegnerprodukts und versucht, so viele Information darüber zu sammeln wie es nur geht. Außerdem ist es einfach nicht möglich, sein Produkt innerhalb von 6 Monaten um ein vielfaches schneller zu machen als es ist. Der Chip ist schon seit längerem fertig und es wurde nur reiner Feinschliff gemacht. Wenn man nun behauptet, dass ATI Mist gemacht hat, dann während der Entwicklung vor 1-2 Jahren und nicht in den letzten 6 Monaten.
Meiner Meinung nach hat ATI/AMD nach dem Test der DT zu urteilen gute Arbeit geleistet. Sie peformt gut und wird "wahrscheinlich" auch "günstig" zu haben sein (verglichen zu den älteren Generationen).
Das I-Tüpfelchen wäre natürlich, wenn sie auch schneller als das Gegnerprodukt wäre. Aber mal schaun, was uns nächste Woche erwartet :D
Bei 7 Monaten Verspätung ist es nicht das I-Tüpfelchen, sondern PFLICHT schneller als der Gegner zu sein. Und zwar deutlich.
BlackBirdSR
2007-04-27, 11:06:22
ich meine wie kann man ein so langsamen Chip und dann noch ein 512bit Speicherintereface dazu bauen, da hat aber jemand richtig gepennt.
Weisst du genauer, was DX10 und DX10.1 benötigen? Ich noch nicht, aber ich könnte mir denken, dass es in diese Richtung gehen kann.
Was wenn der 8x/24xAA Modus wirlich gut wird, und sehr wenig Performanceverlust erzeugt?
Es sieht doch so aus:
Lowcost: Gute Performance (Textur) für 1280x1024 gefordert, kein AA
Midrange: Sehr gute Performance (Textur/Arithmetik) für 1280x1024, eventuell mit AA
High-End: 85% der Fälle zählen entweder nur AA/HDRR + AA -> Bandbreite, oder Artihmetische Leistung, oder eine Kombination daraus.
Mag schon sein, dass R600 in normalen Benchmarks dem G80 oft unterlegen ist. Ich frage mich aber, wie es in 8xAA, 24xCAA und DX10-Situationen aussieht. Wenn die Leistung dort ansprechend ist, und die Qualität sehr gut, dann hat der Chip auch was zu sagen.
Einzig die Verlustleistung spricht irgendwie komplett dagegen.
Schrotti
2007-04-27, 11:15:25
Ich glaub, daß der "Hype" eher von den Atibots hier im Forum gemacht wurde. Die haben in jeden NV Thread behauptet, daß der R600 das alles ja sooooooo viel besser kann und die NVs vernichten wird und bla bla bla.
Hab mich immer gefragt, wo die ihre Infos her haben *ggg*
Ausserdem kenn ich noch kein richtiges Review. Frag mich also woher du das schon wieder alles weisst.
SG
Gibt doch mittlerweile genug Quellen für Benchmarkergebnisse.
Am Ende zählen doch nur folgende Punkte:
* ATI muss im Midrange und Lowcost-Sektor genug Verträge an Land ziehen, um so viele Chips wie möglich abzusetzen. Diese müssen performant und kostengünstig sein. Dann stimmen die Finanzen.
* ATI muss dem R600 genug Features geben, um ihn auch für mehr als nur Spieler interessant zu machen
* ATI muss in allen Sektoren insofern Konkurrenzfähig bleiben, dass Hersteller nicht absrpingen, oder Spiele nur noch für Nvidia optimieren.
Das High-End im Sinne von GTX/Ultra und XTX ist sowieso fast ausschließlich für Reviews gedacht. Es geht darum, den Markennamen zu pushen, und dadurch Käufer auf kleinere Produkte scharf zu machen.
ATI musste seit dem Launch des G80 zurückstecken, und da macht es auch nicht mehr viel aus, wenn das bis zum R700 so weiter geht. Die Tester und Enthusiasten springen sofort wieder über, wenn ein neues Super-Produkt kommt. Der Mainstream interessiert sich dagegen eher für bezahlbare Produkte.
Nvidia hat etwas schwach angefangen mit der 8500/8600 und nun ist es an ATI dies auszunutzen. Und sämtliche Kapazitäten, die man durch ein Ausbleiben einer mit Gewalt in den Markt gedrückten Mega-2900XTX spart, kann man sofort in bares Geld umwandeln.
Mag sein aber für das Prestige ist es nicht sonderlich gut einen Chip zu haben der mehr Leistung verballert als ein G80 und dann trotzdem langsamer ist (wie damals bei Intel mit dem Pentium 4 Prescott der auch unmengen an Strom frißt und trotzdem dem AMD hinterher hingt).
seahawk
2007-04-27, 11:32:02
Mag schon sein, dass R600 in normalen Benchmarks dem G80 oft unterlegen ist. Ich frage mich aber, wie es in 8xAA, 24xCAA und DX10-Situationen aussieht. Wenn die Leistung dort ansprechend ist, und die Qualität sehr gut, dann hat der Chip auch was zu sagen.
Einzig die Verlustleistung spricht irgendwie komplett dagegen.
Das wird nur relevenat wenn es eine nennenswerte Anzahl an Spielen gibt bei der die eine kArte spielbar ist und die andere nicht. Ich kann mir so ein Szenario aber nur schwer vorstellen, bzw. dass dies während der Lebenszeit der Chips eintritt.
MadManniMan
2007-04-27, 11:36:21
Besonders traurig ist doch, daß der G80 inzwischen ein halbes Jahr lang schon beste Spieleleistung bietet - selbst, wenn der R600 spürbar schneller wäre, kann er keinesfalls jene verlorenen Freuden wett machen.
BlackBirdSR
2007-04-27, 11:38:41
Das wird nur relevenat wenn es eine nennenswerte Anzahl an Spielen gibt bei der die eine kArte spielbar ist und die andere nicht. Ich kann mir so ein Szenario aber nur schwer vorstellen, bzw. dass dies während der Lebenszeit der Chips eintritt.
Es geht doch nicht nur darum, dass der eine Chip den andere fertig macht.
So gesehen dürfte AMD gar keine Berechtigung mehr haben, den K8 zu verkaufen.
Ich bin mir sicher, dass der R600 in hohen Auflösungen und AA-Einstellungen sehr viel Performance fürs Geld liefert. Aber eben auch viel Leistung benötigt.
Dem G80 kann er vielleicht nicht das Wasser reichen.. aber High-End ist nicht Alles. Das Image ist auch nicht alles, wenn genug OEMs aufspringen.
Der geringste Anteil an RVxxx Chips geht über Endkunden und Einzelhandel über den Tisch. Die OEMs sind hier die Geldquelle.
Gibt doch mittlerweile genug Quellen für Benchmarkergebnisse.
Mag sein aber für das Prestige ist es nicht sonderlich gut einen Chip zu haben der mehr Leistung verballert als ein G80 und dann trotzdem langsamer ist (wie damals bei Intel mit dem Pentium 4 Prescott der auch unmengen an Strom frißt und trotzdem dem AMD hinterher hingt).
Quellen? => Schlammlöcher? :wink:
Aber: war selten so spannend !!!
Ohne D3D10/DX10-Test allerdings eine Katze im Sack :|
Eigentlich macht Ati es doch richtig - wenn auch ungewollt - denn diese Interimphase macht es möglich, nur zu überbrücken und für Gamer bis zum 65nm-Sprung zu warten und die GPU mit dann hoffentlich verfügbaren DX10-Games zu vergleichen!
Wenn die Karte GTS-FPS/IQ schafft und also P/L-mäßig GTS-Preis-spanne hat, dann macht Ati eben aus der Not eine Tugend:
GTS (=> 240-380€), und nicht GTX (=> 470-600+ €) als Maßstab:wink:
Die X2900 XTX könnten sie ruhig bis Ende des Jahres verschieben, stört nicht wirklich.
So lang die XT das hält, was sie verspricht und die GTS verprügelt. Damit hätte man einiges mehr an Zeit gewonnen, könnte den Chip in 65nm fertigen, höher takten, die Speicherprobleme lösen, die Treiber erstmal austesten und vieles mehr...
Die ganze Sache ist etwas überbewertet... da die Geschäftszahlen sowieso nicht rosig aussehen, macht es auch nicht wirklich was, ob sie nun kommt oder nicht. In der Sommerzeit, so behaupte ich mal, wird das Interesse sowieso nicht allzu groß sein, an den High End Karten.
Solche Karten sind höchstens fürs Prestige, aber es wäre sicher auch nicht verkehrt, den besten Grafikchips zusammen mit der neuen Prozessorgeneration auszuliefern.
AnarchX
2007-04-27, 12:36:37
Fuad mit ein paar Meldungen:
R600XL 9 inch card planned (http://www.fudzilla.com/index.php?option=com_content&task=view&id=722&Itemid=1)
AGP RV630 / 610 parts comes later - Up to 6 weeks from the PCIe availability (http://http://www.fudzilla.com/index.php?option=com_content&task=view&id=714&Itemid=1)
RV630 should be faster than G84 (http://http://www.fudzilla.com/index.php?option=com_content&task=view&id=713&Itemid=1)
[News]
ATI to claim R600 has 1024 memory controller (http://www.fudzilla.com/index.php?option=com_content&task=view&id=723&Itemid=1)
Und noch von OCW:
ATi HD 2600XT will comes in fanless design (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=62530)
:up:
deekey777
2007-04-27, 13:37:30
Bei 7 Monaten Verspätung ist es nicht das I-Tüpfelchen, sondern PFLICHT schneller als der Gegner zu sein. Und zwar deutlich.
Wie jetzt? Der R600 hätte am gleichen Tag wie der G80 präsentiert werden sollen?
Manche Postings überraschen mich immerwieder. Der G80 war vier Jahre in der Entwicklung und kam ein Jahr später als geplant (O-Ton aus Kalifornien). Mit der Entwicklung des G80/NV50 wurde also 2002 behonnen.
Weißt du, wann die Entwicklung des R600 gestartet ist? Also ich weiß es nicht, kann nur vermuten, aber bestimmt nicht 2002 oder 2003.
Bevor noch weitere Kondolenzbekundengen hier kommen: Irgendwann reicht's, es nervt einfach.
Die ersten Andeutungen über die Architektur des G80 kamen eigentlich 2005, nur hielt sie jeder für Schwachsinn. Mehrere Wochen vor der Vorstellung des G80 kamen irrwitzige Specs, aber sie waren wahr.
Das Tapeout des R600 war bestimmt vor dem Launch des G80, da hätte man sich nichts aus dem Hut herzaubern können: Der G80 hat AMD/ATi kalt erwischt, der G80 ist ein Hammer-Chip.
R600 ist seit Februar (oder gar Januar) fertig in der Schublade (der Launch zur CeBIT war einwandfrei möglich), aber weiß nichts über seine Architektur. Gar nichts.
Dass der R400 nicht der Pate für den R600 stand, sollte jedem klar sein. Der R400 steckt in abgewandelter Form in der Xbox360. Auch ist der R600 kein Nachfolger des R300, das war der R520 schon nicht.
Der R600 wird voraussichtlich weiterentwickelter R520 sein - mit Erfahrungen des R400.
Mir ist was eingefallen: Die VS-ALUs des R520 sind 5D-ALUs (Vec4+1) und zu acht gruppiert (SIMD). :confused:
Wäre sowas (http://uk.theinquirer.net/?article=39224) sinnvoll zum R600-testen geeignet: Variance Shadow Maps Demo (D3D10)
http://forum.beyond3d.com/showthread.php?t=40805
oder gleich das Legopaket von http://www.thegamecreators.com (http://www.thegamecreators.com/)/?
Die haben auch die DX10-techdemo für Nvidia gemacht: hat die fps?
http://www.nvidia.com/object/IO_39921.html
seahawk
2007-04-27, 15:22:59
Es geht doch nicht nur darum, dass der eine Chip den andere fertig macht.
So gesehen dürfte AMD gar keine Berechtigung mehr haben, den K8 zu verkaufen.
Ich bin mir sicher, dass der R600 in hohen Auflösungen und AA-Einstellungen sehr viel Performance fürs Geld liefert. Aber eben auch viel Leistung benötigt.
Dem G80 kann er vielleicht nicht das Wasser reichen.. aber High-End ist nicht Alles. Das Image ist auch nicht alles, wenn genug OEMs aufspringen.
Der geringste Anteil an RVxxx Chips geht über Endkunden und Einzelhandel über den Tisch. Die OEMs sind hier die Geldquelle.
Ich meinte für den Endkunden relevant. Dass die Leistung des R600 für ATI weniger problematisch ist, als die Verzögerung ist keine Frage. Wobei auch das sie kaum schädigen dürfte, da die OEM Deals für die kleine Chips gut laufen sollen und die OEMs sowieso soviele Chips brauchen, dass weder NV noch ATI alle befriedigen könnten.
Und außerdem ist vieles was de nR600 betrifft noch nicht bekannt und anderes, was jetzt "geleakt" wird, totaler Quatsch.
reunion
2007-04-27, 15:33:06
Primär gehören jetzt mal endlich eine breite Palette verlässlichen Benchmarks mit allen dazugehörigen Fakten auf den Tisch, bevor hier schon mache den Kopf in den Sand stecken oder heimlich in Euphorie ausbrechen.
Whilst the 2900 will appear on the 2nd, it won't be available to buy until the 14th. Whilst the 2600 and 2400 will be unveiled on the 14th, neither of those cards will be widely available until the middle of June at the earliest.
*UPDATE We have now confirmed with DAAMIT that launch and retail availability will be on the 14th, one day ahead of 8800 Ultra's arrival in retail, following a paper launch on the 2nd. This paper launch was also the cause for the ATI R600 rumour to appear.
http://www.theinquirer.net/default.aspx?article=39223
Zwei Paper - Launches, AMD's Arsch muss wirklich auf Glatteis sein, wenn sie solche Maßnahmen durchführen.
reunion
2007-04-27, 16:40:22
http://www.theinquirer.net/default.aspx?article=39223
Zwei Paper - Launches, AMD's Arsch muss wirklich auf Glatteis sein, wenn sie solche Maßnahmen durchführen.
Warum die Aufregung, das ist doch das, was alle gefordert haben. Oder was ist mit den Sprüchen "wenn die Chips gut wäre, hätte ATi schon längst Benchs gezeigt". Aber schon klar, man legt es sich halt immer so zurecht, wie man es gerade braucht.
Sk_Antilles
2007-04-27, 16:42:51
http://www.theinquirer.net/default.aspx?article=39223
Zwei Paper - Launches, AMD's Arsch muss wirklich auf Glatteis sein, wenn sie solche Maßnahmen durchführen.
Nun ja, man kann auch sagen, wie hier schon vermutet wurde, dass sie die Schnauze voll haben von den Berichten und die Katze aus dem Sack lassen. Damit wird vor dem 14. Klarheit geschaffen. Was soll's?
Und wieso Paperlaunch! Paperlaunch! posaunen? Ich finde die Maßnahme besser als noch zwei Wochen zu warten. ;)
Im generellen finde ich, dass manchmal viel zu heiß diskutiert wird. Man sollte die Sache eigentlich viel lockerer nehmen. Es gibt wesentlich wichtigeres im Leben als die Vorstellung eines Grafikchips. :wink:
sun-man
2007-04-27, 17:16:25
Gibts jetzt eigentlich seitens Daily mal Messungen zum Verbrauch des Systems?
Schrotti
2007-04-27, 17:20:13
Meine Gründe die gegen den R600 sprechen.
1. Exorbitanter Stromverbrauch bei weniger Leistung (in DX9 Games)
2. Zu hoher Preis gegenüber dem G80 (Geforce 8800GTX)
Das einzig positive ist, das der R600 den 8800GTS abzieht so das hier der Preis wohl sinken dürfte (darauf warte ich).
Meine Gründe die gegen den R600 sprechen.
1. Exorbitanter Stromverbrauch bei weniger Leistung (in DX9 Games)
2. Zu hoher Preis gegenüber dem G80 (Geforce 8800GTX)
Das einzig positive ist, das der R600 den 8800GTS abzieht so das hier der Preis wohl sinken dürfte (darauf warte ich).
Cool, dass du schon mehr weißt als all die anderen Leute...
deekey777
2007-04-27, 17:39:33
Meine Gründe die gegen den R600 sprechen.
1. Exorbitanter Stromverbrauch bei weniger Leistung (in DX9 Games)
2. Zu hoher Preis gegenüber dem G80 (Geforce 8800GTX)
Das einzig positive ist, das der R600 den 8800GTS abzieht so das hier der Preis wohl sinken dürfte (darauf warte ich).
Zu 1: Wie kommst du darauf?
Zu 2: Wie kommst du darauf?
http://forumz.tomshardware.com/hardware/HD2900-XTX-Benchftopic-234334-days0-orderasc-75.html
While I am required to follow the NDA, the stuff up on Daily Tech today is almost worthless. Yes Anandtech was present in Tunisia (signing Non-disclosure agreements like the Inquirer), why they are posting this stuff is beyond me because their numbers are off. They must be only using the XP drivers and OS because the numbers in CF vs the GTX are very much different. So until I can officially comment on the architecture and the performance.. hold all of this as useless until the rest of the world writes about it.
R600 ist seit Februar (oder gar Januar) fertig in der Schublade (der Launch zur CeBIT war einwandfrei möglich), aber weiß nichts über seine Architektur. Gar nichts.
Dass der R400 nicht der Pate für den R600 stand, sollte jedem klar sein. Der R400 steckt in abgewandelter Form in der Xbox360. Auch ist der R600 kein Nachfolger des R300, das war der R520 schon nicht.
Soso - das weißt du also alles ganz genau? Wenn ja, darf man nach deinen Quellen fragen? Oder trägst du nur weiter, was du woanders aufgeschnappt hast?
deekey777
2007-04-27, 17:42:52
Soso - das weißt du also alles ganz genau? Wenn ja, darf man nach deinen Quellen fragen? Oder trägst du nur weiter, was du woanders aufgeschnappt hast?
Und du bist?
http://www.theinquirer.net/default.aspx?article=39223
*UPDATE We have now confirmed with DAAMIT that launch and retail availability will be on the 14th, one day ahead of 8800 Ultra's arrival in retail, following a paper launch on the 2nd. This paper launch was also the cause for the ATI R600 rumour to appear.
Humbug - Fuad schreibt immer mehr Mist, seit der nicht nach Tunis durfte -> beleidigte Leberwurst?
Und du bist?
Gast - steht doch an meinem Beitrag.
deekey777
2007-04-27, 17:43:50
Humbug - Fuad schreibt immer mehr Mist, seit der nicht nach Tunis durfte -> beleidigte Leberwurst?
Aha, und seit wann arbeitet Fudo wieder für Inqirer?
Meine Gründe die gegen den R600 sprechen.
1. Exorbitanter Stromverbrauch bei weniger Leistung (in DX9 Games)
2. Zu hoher Preis gegenüber dem G80 (Geforce 8800GTX)
Das einzig positive ist, das der R600 den 8800GTS abzieht so das hier der Preis wohl sinken dürfte (darauf warte ich).
Du glaubst das doch nicht wirklich mit dem hohen Stromverbrauch, so leicht wird sich AMD/ATI kein Eigentor schiessen. Die ganzen Angaben, welche in Foren etc. kusieren, beziehen sich auf den maximal möglichen Verbrauch.
Ich könnte mir eher vorstellen dass ATI/AMD hier einen Schritt weiter geht und den Benutzer selber entscheiden lassen will, wieviel Leistung er haben will auf Kosten des erhöhten Stromverbrauchs. Da wir ja hier beim Spekulieren sind, behaupte ich einfach mal dass die Karte, wenn sie nur mit dem 6PIN Stecker angeschlossen ist im Normalbetrieb ist mit etwas Übertaktungspotential. Der Stromverbrauch ist dann nicht höher als bei der 8800GTS aber die Leistung eindeutig besser.
Sobald man aber auch den 8PIN Stecker anschließt lässt sie sich weit mehr übertakten und kratzt an der Performance der 8800GTX, ja vielleicht wird sie sogar überholt wobei der Stromverbrauch wohl höher sein wird.
Schrotti
2007-04-27, 17:46:27
Zu 1: Wie kommst du darauf?
Zu 2: Wie kommst du darauf?
http://forumz.tomshardware.com/hardware/HD2900-XTX-Benchftopic-234334-days0-orderasc-75.html
Ist doch offensichtlich.
Immense Kosten bei der Produktion und Geld möchte man auch verdienen (oder glaubst du das AMD/ATI die Karten zum Schleuderpreis auf den Markt bringt).
deekey777
2007-04-27, 17:48:17
Ist doch offensichtlich.
Immense Kosten bei der Produktion und Geld möchte man auch verdienen (oder glaubst du das AMD/ATI die Karten zum Schleuderpreis auf den Markt bringt).
Was ist offentsichtlich? Es gibt keinen einzigen aussagekräftigen Test der neuen Generation.
Schrotti
2007-04-27, 17:51:27
Was ist offentsichtlich? Es gibt keinen einzigen aussagekräftigen Test der neuen Generation.
Und du denkst das sich an den Benchmarkergebnissen noch was ändern wird?
deekey777
2007-04-27, 17:52:46
Und du denkst das sich an den Benchmarkergebnissen noch was ändern wird?
Ich habe noch keine gesehen.
Lawmachine79
2007-04-27, 17:54:02
Wie jetzt? Der R600 hätte am gleichen Tag wie der G80 präsentiert werden sollen?
Manche Postings überraschen mich immerwieder. Der G80 war vier Jahre in der Entwicklung und kam ein Jahr später als geplant (O-Ton aus Kalifornien). Mit der Entwicklung des G80/NV50 wurde also 2002 behonnen.
Weißt du, wann die Entwicklung des R600 gestartet ist? Also ich weiß es nicht, kann nur vermuten, aber bestimmt nicht 2002 oder 2003.
Bevor noch weitere Kondolenzbekundengen hier kommen: Irgendwann reicht's, es nervt einfach.
Die ersten Andeutungen über die Architektur des G80 kamen eigentlich 2005, nur hielt sie jeder für Schwachsinn. Mehrere Wochen vor der Vorstellung des G80 kamen irrwitzige Specs, aber sie waren wahr.
Das Tapeout des R600 war bestimmt vor dem Launch des G80, da hätte man sich nichts aus dem Hut herzaubern können: Der G80 hat AMD/ATi kalt erwischt, der G80 ist ein Hammer-Chip.
R600 ist seit Februar (oder gar Januar) fertig in der Schublade (der Launch zur CeBIT war einwandfrei möglich), aber weiß nichts über seine Architektur. Gar nichts.
Dass der R400 nicht der Pate für den R600 stand, sollte jedem klar sein. Der R400 steckt in abgewandelter Form in der Xbox360. Auch ist der R600 kein Nachfolger des R300, das war der R520 schon nicht.
Der R600 wird voraussichtlich weiterentwickelter R520 sein - mit Erfahrungen des R400.
Mir ist was eingefallen: Die VS-ALUs des R520 sind 5D-ALUs (Vec4+1) und zu acht gruppiert (SIMD). :confused:
Nun halt mal den Ball flach - ich meine nicht WÖRTLICH und auf DEN TAG GENAU sieben Monate - es geht darum, daß ATI den Chip wenigstens hätte ZEITNAH releasen müssen. Und bisher war es wenigstens so, daß ATI zwar später releaste, aber 1) nicht SO spät und 2) sei es durch BQ oder durch Leistung einen entscheidenden Vorteil gg. NV hatte. Auch NV hatte immer entscheidende Vorteile, der Nutzer mußte ABWÄGEN.
Sieh doch mal
NV30 vs. R3xx - Ok, hier ist es unstrittig - keine Vorteile NV
NV40 vs. R4xx - Leistungsmässig nicht allzu weit voneinander, aber insgesamt klar ATI! Das ist ein entscheidender Vorteil. Featureset: entscheidender Vorteil NVidia!
G7x vs. R5xx - Leistungsmässig der vorne, der den letzten Chip releaste - am Ende deutlich ATI --> Entscheidender Vorteil; BQ müssen wir glaube ich nicht diskutieren --> ATI (wobei mit GX2 und z.T. auch schon mit 79GT(X) SSAA oft nutzbar wird - für mich ein Kaufkriterium); aber die Karten waren teilweise eng beeinander, man konnte es zumindest nachvollziehen, wenn trotzdem jemand NV gekauft hat (ich habe die Generation mal "Pause" gemacht)
So. Und was haben wir jetzt? NVs BQ ist unschlagbar. Ewiggestrige behaupten Gegenteiliges, aber in allen Spielreleases 2006 und früher ist mindestens 8xS (wer es nicht mag, soll 16xQ nutzen, habe keine Lust mich wieder über den Nutzen von SSAA zu zoffen - solange flüssig, MUSS man es IMHO nutzen) nutzbar und in vielen Releases von 2007 auch, und zwar flüssig. Die Benchmarks habt ihr gesehen, das muss ich nicht weiter kommentieren, wieder ein entscheidender Vorteil zu Gunsten NVidia.
Aus dem letzten Absatz geht hervor, daß, wenn sich nichts GRUNDLEGENDES ändert (irgendwas, was ATI bisher geschafft hat geheimzuhalten) gibt es KEINEN GRUND eine R600-Karte im High-End Segment zu kaufen - es sei denn sie bauen eine passiv gekühlte 29XTX, die Strom produziert.
Eigentlich müsste ATI die Karten zu Pennymarktpreisen auf den Markt werfen oder sie mit Platin überziehen, damit sie kaufbar wird.
Wie gesagt, ich rede ausschließlich vom High-End Segment, was 8600GTS angeht hat sich NV (in Relation zur 88er Serie) bis auf die Knochen blamiert und sollte so schnell wie möglich zusehen, daß ein Chip mit 192Bit SI, schnellem GDDR3 und 64 Streamunits auf den Markt kommt.
Ich habe noch keine gesehen.
Die Hoffnung stirbt zuletzt.
Schrotti
2007-04-27, 17:55:47
Ich habe noch keine gesehen.
Da haste welche.
http://www.dailytech.com/article.aspx?newsid=7052
die Benchmarkergebnisse könnten ja auch alles enten von nv oder nv-freunden sein... ich glaub die erst wenn jemand ne offizielle verkaufsversion in den händen hält und vernüftige, nachvollziehbare tests macht mit nem ordentlichen treiber
Schrotti
2007-04-27, 18:01:51
Kann aber genauso gut sein das die Ergebnisse dem Ist Zustand entsprechen.
AnarchX
2007-04-27, 18:09:39
Folie mit HD 2900XT Specs - 16 TMUs (http://r800.blogspot.com/2007/04/radeon-hd-2900xt.html)
http://img259.imageshack.us/img259/4939/01397cb9eaj4.jpg (http://imageshack.us)
[News]
Die Pixelfüllrate sieht ganz nach G80-ROPs aus. ;)
-> Da geht's weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5444353
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.