PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon HD 2900XT: Voller Hoffnung oder doch entäuscht!?


Seiten : [1] 2 3

Schlammsau
2007-05-14, 16:19:18
Würd mich interessieren wie ihr zu der neuen Grafikgeneration von ATI steht?

Ich pesönlich denke, dass die meisten Probleme mit vernünftigen Treibern behoben werden können!
Potential hat die Karte auf jeden Fall!!!!!

puntarenas
2007-05-14, 16:36:37
Nach Lektüre des 3DC-Artikels bin ich eigentlich ganz positiv gestimmt. Zwar überzeugen mich im Moment werder G80 und noch weniger der R600 von meiner X1900XT auf die nächste Generation zu wechseln, aber das Design scheint Potential zu haben. Zunächst hatte ich etwas Bedenken, ATI könnte völlig ins Klo gegriffen haben und ohne Konkurrenz wäre Nvidia wohl aus dem Ruder gelaufen, jetzt warte ich aber gespannt auf die zweite D3D10-Version aus beiden Häusern und der gegenseitige Druck wird sicherlich zu deutlichen Verbesserungen bei Leistung, Stromverbrauch und Features führen.

IMHO wurde eine vollständige Katastrohe also abgewandt, aber nachdem selbst eine überlegene 8800GTX noch nicht in allen Situationen in der Lage ist 16x12 mit 16xAF und 4xAA (besser wäre AAA) darzustellen, überlasse ich den R600 Erstkäufern, wo der OEM-Markt ATI wohl den Hintern retten dürfte. Ich denke, das wird wohl vielen Leuten so gehen und wer unbedingt auf eine D3D10-GPU aufrüsten möchte, scheint mir dann besser bedient zu sein, wenn er gleich zu einer 8800GTX greift.

Leider ist nach der Übernahme durch AMD die Entwicklung auf dem GPU-Markt auch auf Gedeih und Verderb der Konkurrenzsituation zwischen AMD und Intel ausgeliefert und jetzt heißt es also zittern, dass die neuen Prozessoren ebenfalls den Bestand des Unternehmens sichern können. Außerdem finde ich schwach, dass man mit so einem lausigen Treiber und offensichtlich schlecht kommunizierten Features antritt, womit man negative Reviews ja schon fast mutwillig provoziert hat.

0.02€

Nvidia5
2007-05-14, 16:36:43
[x]Hab meine Entscheidung getroffen, eine 8800gts.
Aber ich glaub auch das die das mit neueren Treiben dann beheben werde und das die schneller im Durchschnitt sein wird.;)

Crazy_Chris
2007-05-14, 16:37:52
Schlammsau? ;D :biggrin:

Selbst wenn die Performance in einigen Monaten durch bessere Treiber passen sollte so ist die Karte dank des sehr hohem Stromverbrauchs praktisch indiskutabel. :frown:

Also beginnt das Warten auf den R650 in 65nm. :tongue:

san.salvador
2007-05-14, 16:39:24
Ich hab mich schon vorher für einen Wechsel von rot nach grün entschieden (GTS 640MB). Spätestens heute weiß ich, dass es die richtige Entscheidung war. :D

mapel110
2007-05-14, 16:42:37
Bin enttäuscht. Ich hätte mir deutlich mehr Konkurrenzfähigkeit gewünscht von ATI. Somit bleiben die hohen Preise im High End bei nvidia.

[dzp]Viper
2007-05-14, 16:48:10
Da die Vögel schon seit ca. 1-2 Monaten von so ziemlich allen Dächern gezwitschert haben, dass die 2900XT nicht das Gelbe vom Ei sein wird, bin ich auch nicht enttäuscht.

Ich denke aber persönlich, dass noch eine Menge Leistung in besseren Treibern steckt. Dazu das Bug-Fixing bzgl. der Performance bei AA.

Darum denke ich, dass ATI den Treiber wohl auch sehr gut im Griff haben wird wenn dann der Refresh im Spätsommer (hoffentlich) kommt. Dort wird sich dann sicher Zeigen was in der Architektur wirklich steckt.

Das wird dann im Prinzip wie ein Relaunch für die R600 Architektur ;)

Mir scheint es, als ob der R600 in 80nm irgendwie nur eine halbgare Zwischenlösung von ATI ist und die Masse an Transitoren wirklich erst in 65nm richtig "nutzbar" ist!

no6ody
2007-05-14, 16:52:40
Schlammsau? ;D :biggrin:

Selbst wenn die Performance in einigen Monaten durch bessere Treiber passen sollte so ist die Karte dank des sehr hohem Stromverbrauchs praktisch indiskutabel. :frown:
20 W mehr als eine 8800GTX ist also indiskutabel? interessant...

ich finde die x2900 durchaus konkurenzfaehig, wenn durch vernueftige treiber die performance noch etwas gesteigert werden kann. abgesehen davon kostet sie ja wesentlich weniger wie eine GTX.

LovesuckZ
2007-05-14, 17:01:46
20 W mehr als eine 8800GTX ist also indiskutabel? interessant...


Bei deutlich geringerer Leistung - aeh ja, irgendwie schon...

r3ptil3
2007-05-14, 17:03:24
Also wenn die X1950 XTX bei höheren Auflösungen + (AA/AF) teilweise sogar noch vor der HD 2900XT, dann klemmts einfach noch irgendwo.

Denn alleine schon der 90Mhz höhere Chiptakt sollte erst recht bei höheren Auflösungen recht deutlich mehr Performance bringen.

Aber bezüglich der Leistung -vorallem in DX10 Spielen- bin ich noch voller Hoffnung was die HD 2900XT anbelangt.:D

Gast
2007-05-14, 17:04:19
Alle die jetzt "enttäuscht" sind, tun mir wirklich Leid!

Wenn ihr mal ein wenig über den Tellerrand hinausblickt, dürfte euch auffallen, das der Treiber noch total für die Tonne ist. Da lässt sich noch einiges an Performance rausholen.

Ich finds merkwürdig, das niemand so clever ist und einen Vergleich zu den Treibern anstellt, die nvidia letztes Jahr (!!!) gebracht hat, denn die waren auch nicht besser als diejenigen von ATI jetzt.

Die gelbe Eule
2007-05-14, 17:05:02
[x] masslos, aber sowas von ;)
Wer seinen Launch abermals verschieben muss und dann mit solchen Kacktreibern und mieser Performance ankommt, der muss damit rechnen, daß er viele Kunden verliert. Wie lange sollen sie Kunden noch warten, daß hier nachgesteurt wird? Hat ja bereits lange genug gedauert.

Schlammsau
2007-05-14, 17:05:54
Bei deutlich geringerer Leistung - aeh ja, irgendwie schon...
.....hmm du würdest also 100-200 Euro mehr ausgeben, nur um dir 20Watt Verbrauch zu sparen????
Und so weit liegt sie auch nicht hinter GTX!!! Wie gesagt, abwarten bis neue Treiber da sind!

[x] masslos, aber sowas von ;)
Wer seinen Launch abermals verschieben muss und dann mit solchen Kacktreibern und mieser Performance ankommt, der muss damit rechnen, daß er viele Kunden verliert. Wie lange sollen sie Kunden noch warten, daß hier nachgesteurt wird? Hat ja bereits lange genug gedauert.

mir fehlen die worte......
habt ihr alle vergessen, wie teilweise verbuggt (auch jetzt noch) die treiber für die 8xxx Serie von nVidia sind!
Schaut euch mal hier im Forum um! :wink:

san.salvador
2007-05-14, 17:11:29
Und deswegen darf man sie nicht bewerten?
Wenn ATI nicht will, das wir mit diesen Treibern vergleichen, sollen sie den Treiber auch nicht rausbringen.
Selbst schuld.


Man kann übrigens Beiträge editieren und zwei Quotes in einem Post beantworten. ;)

Schlammsau
2007-05-14, 17:14:18
no comment......

LovesuckZ
2007-05-14, 17:14:23
.....hmm du würdest also 100-200 Euro mehr ausgeben, nur um dir 20Watt Verbrauch zu sparen????

Nein, die 20 Watt zu sparen und deutlich bessere Leistung zu erhalten. ;)
Aber im Grunde ist die Lautstärke des Kühler unter LOAD mein K.O Kriterium - da mir selbst der GTX-Kühler ab und zu auf dem Sack geht.

Gast
2007-05-14, 17:16:07
Nein, die 20 Watt zu sparen und deutlich bessere Leistung zu erhalten. ;)
Aber im Grunde ist die Lautstärke des Kühler unter LOAD mein K.O Kriterium - da mir selbst der GTX-Kühler ab und zu auf dem Sack geht.

Wobei man da noch auf Hersteller hoffen kann, die eine leisere Kühllösung anbieten... gilt zugegebenermaßen für beide IHVs.

HanSolo78
2007-05-14, 17:26:53
Ich vote nicht, da mir zu wenig Wahlmöglichkeiten da sind.
Allerdings bin ich momentan schon von der X2900xt enttäuscht.
Ich hoffe die Treiber werden die Karte wenigstens in allen Bereichen über 8800gts hiefen, denn sonst ist es der totale Reinfall.
Kaufen werde ich mir eh erstmal keine neue Karte, da ich mit meiner mit OC noch alles einigermaßen zocken kann, was ich alle 2 Wochen mal spiele.
Wäre ich alledings dazu "gezwungen" aufzurüsten, dann würd ich mir ne 8800gtx holen.
Obwohl ich bisher nur eine NVidia hatte.. GF3Ti300!!!
Ist also schon Jahrre her und ich hatte seitdem immer ne Ati.
IMHO bisher der schlechteste Launch, den Ati bisher hingelegt hat seit R300.

Winter[Raven]
2007-05-14, 17:28:32
Entscheidung schon vor 6 Monaten getroffen, mehr brauch ich jetzt nicht. Vielleicht kriegen wir auf der Arbeit mal die neue Radeon, da kann ich die mal testen ^_^.

Bin aber trotzem von ATI Enttäuscht.

Migrator
2007-05-14, 17:33:22
naja..schneller als meine ehrwürdige Radeon 9700 ist sie auf jeden Fall ;)..aber ich wart mal ab...hoffe neue Treiber bringen die Karte ein bissle auf Vordermann...
Aber bin sowieso mehr auf die Midrange Karte xt2600 gespannt :)

sun-man
2007-05-14, 17:33:38
Naja...immerhin hat Nvidia nun erst recht keinen Grund nen "Stromspartreiber" anzubieten.

Was soll denn daran noch schönzureden sein???
Die mittlere Stromaufnahme des HD 2900 XT liegt bei 3D-Tests wie dem 3DMark06 mit 153 Watt aber fast doppelt so hoch wie bei Grafikkarten mit dem GTS-Chip. Kurzzeitig treten sogar Spitzen von über 200 Watt auf. Bei ruhendem Desktop nimmt die Karte 65 Watt auf.

Gast
2007-05-14, 17:34:13
Ich bin mir eigentlich ziemlich sicher, dass die HD 2900 XT in den nächsten Monaten leistungsmäßig gefährlich nahe an eine 8800 GTX reichen wird. Denn obwohl scheinbar etwas mit der AA-Leistung bzw. den Treibern der Karte nicht stimmt (18 % Vorsprung ohne AA in allen Auflösungen gegenüber einer 8800 GTS 640 MB, aber 10 % langsamer mit AA in gewöhnlichen Auflösungen), kann sich die HD 2900 XT mit extremen Settings (2560 x 1600 + 8x AA / 16x AF) 24 % (!) vor eine 8800 GTS 640 MB positionieren: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

Beim G80 hat man auch viel rausgeholt.

November 2006 (8800 GTX 71 % schneller als 7900 GTX): http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet
Heute (8800 GTX 146 % schneller als 7900 GTX): http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

seahawk
2007-05-14, 17:35:11
Grundsätzlich hoffnungsvoll, da man eigentlic hschon lange ahnte, dass die XT kaum an der GTX vorbei kommt.


Natürlich wird die 2900 durch neue Treiber noch gewinnen, aber das wird die 8800 sicher auch. Und gerade bei der X2900 fürchte ich, dass die Treiber erst brauchbar werden, wenn der Refresh schon vor der Tür steht.

Ich werde die Generation auslassen, da ich viel 2D betrieb habe und mir beide Angebote im Idle zuviel verbrauchen. Evtl. kommen ja bald RV670 und G92.

Coda
2007-05-14, 17:36:11
Ich hab's so erwartet...

jay.gee
2007-05-14, 17:37:05
Nach Lektüre des 3DC-Artikels bin ich eigentlich ganz positiv gestimmt. Zwar überzeugen mich im Moment werder G80 und noch weniger der R600 von meiner X1900XT auf die nächste Generation zu wechseln.

Interessant - gegenwärtig sehe ich auch keinen Grund zu wechseln, da fast alle gängigen Games (die ich spiele) flüssig in 1280x1024 - Full Details - AAx4 und AFx16 zu spielen sind. Der GFXmarkt gibt mir also nichts her, was mich wirklich aktuell weiter bringen würde und noch wichtiger, für zukünftige Games sind mir alle zur Zeit verfügbaren Karten einfach zu schlapp. Daher werde ich wohl noch ~2-3 Monate warten und mir ein echtes Baby an Land ziehen - und das wird ohne Frage kommen. ;)

Odal
2007-05-14, 17:37:10
naja ich seh den launch mit einem "lachenden und einem weinenden auge"
naja ich bin von der performance mit AA sehr enttäuscht das deutet aber angesichts der massiven speicherbandbreite eher auf ein treiberproblem hin....ansonsten von der reinen rohleistung ohne AA scheint sie sich gut von einem R580 absetzen zu können....
im prinzip kann ich froh sein mir das geld für den umstieg erstmal noch sparen zu können und bei besseren treibern und niedrigerem preis....oder bei der konkurenz wenn der preis niedriger ist zuschlagen zu können...

mein fazit ist jedenfalls erstmal abwarten und beobachten....

eine 8800gts ist mir bei der mehrleistung den umstiegspreis von meiner x1900 noch nicht wert und bei einer 2900XT ists ganz ähnlich

Botcruscher
2007-05-14, 17:39:38
Schon die CoDII-Werte sprechen doch stark dafür das die Treiber mehr als Beta sind. Eine x1950 kann garnicht schneller sein.:rolleyes:

Pirx
2007-05-14, 17:40:19
Werde mir zwar sowieso keine der Stromverbrauchsmonster von ATi und nV kaufen, bin aber doch guter Hoffnung, daß ATi da noch sehr viel mehr Performance rausholen kann.
Das wahre Potential wird sich wohl erst zeigen, wenn der Nachfolger schon auf dem Markt ist.

Coda
2007-05-14, 17:41:35
Schon die CoDII-Werte sprechen doch stark dafür das die Treiber mehr als Beta sind. Eine x1950 kann garnicht schneller sein.:rolleyes:
Außer die Hardware hat wirklich Probleme. Davon geh ich jetzt aber mal nicht aus.

mapel110
2007-05-14, 17:43:51
Beim G80 hat man auch viel rausgeholt.

November 2006 (8800 GTX 71 % schneller als 7900 GTX): http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet
Heute (8800 GTX 146 % schneller als 7900 GTX): http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
1600x1200 4xAA/16AF

November 2006
Radeon X1950 XTX 62%
Geforce 8800 GTX 100%

Mai 2007
Radeon X1950 XTX 58%
Geforce 8800 GTX 100%

Also soviel hat nvidia da nicht rausgeholt, eher wohl die alte Generation ausgebremst.

Aquaschaf
2007-05-14, 17:45:56
Mehr habe ich nicht erwartet, mit G80 hat NVidia in dieser Runde einfach eine extrem starke Vorlage geliefert. Störend finde ich die Kühllösung - bei der 1900XT war für mich die Schmerzgrenze was Lautstärke angeht erreicht.

Vielleicht sind die Mainstream-Ableger der Architektur ja interessanter.

PP
2007-05-14, 17:49:03
[x]Hab meine Entscheidung schon getroffen
Muss nur noch das Wasser aus der WaKü ablassen, Schläuche neu verlegen, und die GeCube 2900 einbauen (eine zweite für CF habe Ich leider nicht gefunden, aber egal :)

Mancko
2007-05-14, 17:51:24
.....hmm du würdest also 100-200 Euro mehr ausgeben, nur um dir 20Watt Verbrauch zu sparen????
Und so weit liegt sie auch nicht hinter GTX!!! Wie gesagt, abwarten bis neue Treiber da sind!

Ne sorry das Argument zieht nicht mehr. Die 8800GTX konnte man vor 6 Monaten kaufen. Wer bis heute gewartet hat ist eh schon der Depp und dürfte sich reichlich ärgern.
Jetzt kommen einige hier und wollen einem die Karte auch noch schönreden mit "abwarten auf bessere Treiber und blah..."

Das ist ja mal oberlächerlich. Ich habe schon lange gesagt AMD/ATI soll liefern oder die Klappe halten.
Nvidia war Champ weil sie geliefert haben.
AMD hat sich nur rausgeredet und jetzt liefern sie ein unfertiges und nicht konkurenzfähiges Produkt.

Somit bleibt Nvidia Champion und zwar auf der ganzen Linie.
Setzen 6 AMD/ATI.

PS: Wo sind eigentlich die ganzen ATI Fanboys geblieben, die potentielle GTX oder GTS Käufer mit den VISTA Treiberproblemen verunsichern wollten. Ihr habt doch immer schön gepredigt, dass ATI das viel besser machen wird.
Da habt ihr ATIs Antwort. Die sind zur Zeit unfähig und völlig überfordert.
So ein Desaster gabs bei Nvidia in Sachen Treibern noch nie.

Der Launch gleicht schon fast dem des NV30.

up¦²
2007-05-14, 17:52:02
War zu erwarten, aber ein Treiber²³°°°°°° wird's richten... :wink:
Typisch Interimproblem - immerhin ist der R6x eine neue Generation wie auch der G8x, an der Schwelle zu DX10/D3D10.

Ati hat doch eng mit den MS'lern gewerkelt, geradezu cooperiert wegen xbox usw. usf.
wie kan ein Game wie Lost Planet dann so abkacken?
Da hat Nvidia nicht nachgeholfen: da funzt irgendwas gigantisch nicht, und wie Coda schon andeudet: man kann nur hoffen nicht ein HW-Bug.
Hat Ati sich mit AA nicht an die MS-Specs gehalten oder was ist da bloß schief gegangen?

seahawk
2007-05-14, 17:56:00
Ich wäre vorsichtig mit der Hoffnung auf ein reines Treiberproblem.

Wir stellen fest, die Leistung mit AA ist trotz der Bandbreite schwach, wir stellen auch fest, dass die Version mit GDDR4 RAM langsamer war als die Version mit langsamer taktendem DDR3.

Ich halte es für denkbar, dass der Speicherzugriff entweder einen Bug in Hardware hat oder, dass man bei der Hardware zur Compression gespart hat.

The_Invisible
2007-05-14, 17:56:38
Alle die jetzt "enttäuscht" sind, tun mir wirklich Leid!

Wenn ihr mal ein wenig über den Tellerrand hinausblickt, dürfte euch auffallen, das der Treiber noch total für die Tonne ist. Da lässt sich noch einiges an Performance rausholen.

Ich finds merkwürdig, das niemand so clever ist und einen Vergleich zu den Treibern anstellt, die nvidia letztes Jahr (!!!) gebracht hat, denn die waren auch nicht besser als diejenigen von ATI jetzt.

deshalb braucht man AMD nicht bemitleiden weil sie diese generation einfach nicht fähig genug waren. außerdem war der g80 bei release wenigstens immer schneller als die vorgängergeneration, auch wenns andere probleme gab.

mfg

Blaze
2007-05-14, 18:03:33
Ich hab's so erwartet...

Same here.

ille
2007-05-14, 18:06:05
also ich seh das problem eigentlich nicht ...

vl ist die neue radeon nicht der performance-king, aber wieviele von euch kaufen eine karte deshalb?

ich hab mich noch nie für das teuerste stück sondern immer für das mit ner guten preis/leistung entschieden. und dieses scheint ja zu stimmen?! (hab den 3dc artikel nur überflogen, weil ich mir sowieso keine grafikkarte dieser generation holen werde)

bin jetzt weder ati noch nvidia fanboy, aber zu den zeitpunkten wo ich meine letzten neuen grafikkarten gekauft habe, hat ati stets dass etwas bessere preis/leistungs verhältnis geboten und darum hab ich eben zu diesen karten gegriffen.


ein image-problem könnte dadurch allerdings entstehen; ist halt sicher gut für nvidia die derzeit schnellste karte anbieten zu können aber wayne? :)

Schlammsau
2007-05-14, 18:09:00
wenn ich das sehe, gehe ich schon ganz stark von einem Treiberprob aus!!!!!....mal abwarten!!!!
http://666kb.com/i/aoc7gzrz589w0oxqw.jpg
http://666kb.com/i/aoc7hd9ng038f2wns.jpg

Schrotti
2007-05-14, 18:10:40
[x] bin maßlos enttäuscht!

Ein Stromfressendes Monster mit guter Bildqualität aber schlechter Performance.

Ich denke nicht das die Treiber noch viel reißen können.

Gast
2007-05-14, 18:20:32
Scheint wirklich viel am Treiber zu hängen, die Rohpower zeigt sich bei extremen Settings.

Doom3:
2560x1600 8xAA/16xAF:
ATi Radeon HD 2900 XT 38,2
nVidia GeForce 8800 Ultra 34,0

Sehr beeindruckend! Wenn sie dort schneller ist, warum sollte sie dann bei niedrigeren Auflösungen und gleichen Settings langsamer sein? Das ergibt keinen Sinn und kann nur auf die Software zurückzuführen sein.

Ich bin froher Hoffnung, das ATI die Probleme bald behebt und ähnlich wie in NVIDIA bei den Vista Treibern teilweise bis zu 50 % mehr Performance in einigen Fällen herausholen kann.
Neue Architektur und ein neues Betriebssystem, diese Situation gab es in den letzten Jahren nicht, da konnte man große Teile des Treibers gleich weiterverwenden und schob lediglich leicht verbesserte GraKa nach.

Eingedenk der Tatsache, das es sich hier lediglich um das zweitschnellste Modell handelt, ist die Performance durchaus beeindruckend. Verbesserungspotential ist wie bei jeder Architektur noch da (wusstet ihr eigentlich, das selbst der Catalyst 7.4 noch leichte Performancevorteile für die D3D9 Generation unter XP brachte? Das sagt glaube ich alles...)

Ein Nachteil sehe ich jedoch: Die neuen von ATI kommen bereits in 80nm. Eine GeForce 8800 GTS/Ultra hat den Schritt jedoch noch vor sich.
Eingedenk dieser Tatsache würde ich behaupten, das NVIDIA noch einiges an Spielraum hat! ATI muss dringend den Prozess überarbeiten, was ihnen allerdings gelingen könnte, die 80nm X1950Pro war auch ne Enttäuschung und brachte keinerlei Vorteile beim Verbrauch und der Taktbarkeit. Da muss man wohl nochmal Hand anlegen.

patrese993
2007-05-14, 18:21:57
[x] ich werde erstmal abwarten, kann atm mit meiner 7950GT recht gut leben

erstmal schauen, wies im Sommer aussieht, wenn sie die Treibersituation etwas stabilisiert hat und die Preise gefallen sind.

Exxtreme
2007-05-14, 18:22:53
Ich denke, neue Treiber werden es zwar fixen, enttäuscht bin ich aber dennoch. Die Karte ist zu dem Preis allerdings ein gutes Angebot.

seahawk
2007-05-14, 18:26:26
Naja, wenn man Anand spekulieren sieht und sehe was Ailuros und andere so ginten, dann ist es imho kein reines Treiberproblem.

Mumins
2007-05-14, 18:34:05
[x] masslos, aber sowas von ;)
Wer seinen Launch abermals verschieben muss und dann mit solchen Kacktreibern und mieser Performance ankommt, der muss damit rechnen, daß er viele Kunden verliert. Wie lange sollen sie Kunden noch warten, daß hier nachgesteurt wird? Hat ja bereits lange genug gedauert.

Du hättest doch eh keine gekauft.

Gast
2007-05-14, 18:38:14
Naja, wenn man Anand spekulieren sieht und sehe was Ailuros und andere so ginten, dann ist es imho kein reines Treiberproblem.

So einen blödsinn hört man zu jedem Release und am Ende bleibt nur eine logische Schlußfolgerung: Warum sollte jemand außenstehendes mehr Ahnung haben, als hochbezahlte Entwickler und Ingenieure?

Allerdings sehe ich auch schon ein neues Problem für die XT: Wenn da nicht bald noch höhergetaktete Versionen für unter 400,- kommen, dann wird sie sich bald mit solchen Karten herumschlagen dürfen:
http://geizhals.at/eu/a253935.html

Die meisten Tests forcieren sich leider auf Standardtaktraten, obwohl das ziemlicher Unsinn ist, wenn man für nur wenige Euro mehr was deutlich schnelleres bekommen kann!

http://www.hardtecs4u.com/images/reviews/2007/foxconn_8800gts_oc/cod_1600.png

Das wird neben dem Treiber das nächste Problem sein. :)

IceLord
2007-05-14, 18:49:24
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
Beim G80 hat man auch viel rausgeholt.
November 2006 (8800 GTX 71 % schneller als 7900 GTX): http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet
Heute (8800 GTX 146 % schneller als 7900 GTX): http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
1600x1200 4xAA/16AF
Also soviel hat nvidia da nicht rausgeholt, eher wohl die alte Generation ausgebremst.

Ich glaube NVidia hat noch viel weniger raus geholt weil die Performanceratings nicht vergleichbar sind da nicht die gleichen Spiele getestet wurden.:rolleyes: Wenn schon müsste man einzelne Spielebenchs vergleichen und da gibt es keine grossen Unterschiede.

Marcellus
2007-05-14, 18:55:22
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

ich hab abgestimmt, dass es mit neuen treibern besser wird, bevor ich das da oben gelesen habe. weiss nicht, ob der link hier schon bekannt ist.

mfg.

Dunkeltier
2007-05-14, 18:56:29
Ich habe "bin maßlos Enttäuscht!" angekreuzt, obwohl ich bereits wusste, was auf uns zukommt. Und deswegen schon vorher meine Entscheidung traf. Den R600 Stapellauf kann man getrost in die Schublade zum NV30 Flop legen, und auch ein eventuell taktgesteigerter R650 Refresh-Chip wird es ähnlich wie der NV35 vorläufig nicht richten können. Hier ist ATi einen Schritt zu weit gegangen. Technisch mag die GPU sehr fortschrittlich sein. Allerdings weist diese ein ziemliches Ungleichgewicht auf, und ist zu sehr für Spiele konstruiert worden, die es so noch gar nicht gibt.

Erst ein halbes Jahr später mit DX10-Produkten am Markt, dazu noch meistens teurer (512MB Radeon X2900XT HD VS 640MB Geforce 8800 GTS), durch die Bank in den meisten aktuellen Spielen langsamer, stromschluckender und lauter. Der Smilie sagt alles: :uclap:

An für sich hätte der R600 mindestens gleichauf zum G80 schließen müssen, mit 6 Monaten Verspätung eigentlich sogar nochmal 20-30% an Mehr-Performance drauflegen sollen. Und bevor die ganzen Kritiker wieder kommen, und sagen: "Warte erst einmal ein, zwei Jahre auf besser entwickelte Treiber..." Ich kaufe mir eine Karte für das hier und heute, nicht für morgen und übermorgen, wo ich schon längst die Nachfolgegeneration verbaut haben werde. Gleiches auch mit den Spielen. Schön wenn der R600 in DX10 besser dastehen mag wie der G80, aber was bringt mir das aktuell? :rolleyes: Vielleicht hat sich hier AMD mit ATi doch etwas zu sehr übernommen.

Marcellus
2007-05-14, 18:58:43
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

anscheinend noch nicht bekannt...ati holt auf. 2900xt rockt!!!

Botcruscher
2007-05-14, 19:05:40
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

anscheinend noch nicht bekannt...ati holt auf. 2900xt rockt!!!


Was ATi im Bereich Oblivion gemacht hat, grenzt fast an Zauberei. Ein sattes Plus von 172 Prozent kann die ATi Radeon HD 2900 XT mit dem Treiber 8.37.4.2 in der Auflösung von 1280x1024 bei 4xAAA/16xAF für sich verbuchen. Damit liegt das Topmodell von ATi erstmals vor der GeForce 8800 GTX. Selbst die Ultra liegt im Bereich des Möglichen.

Da geht noch einiges. Fallende Preise können der Kundschaft recht sein.

Tjell
2007-05-14, 19:07:37
Das Argument ist ziemlich schwach, dann hättest dir ja auch keinen G80 kaufen dürfen, denn der war mit den Releasetreibern unter Vista auch ne lahme Krücke!

Ich wette, das Ende Mai alles schon viel besser aussieht. Zum Launch hin gibts quasi täglich was zu verbessern.
8800er und zum Start lahm? Ahhhh ja... klar. :|

Gast
2007-05-14, 19:08:51
Unter Vista schon!

dildo4u
2007-05-14, 19:09:51
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

anscheinend noch nicht bekannt...ati holt auf. 2900xt rockt!!!
CB hat nicht gecheckt das die AAA Qualität im neuen Wunder Treiber gesenkt wurde! ;)

"Ein weiterer Treiber-Fauxpas scheint andere Testredaktionen ebenfalls zu treffen: Im früheren 8.3740er Treiber war das Adaptive Anti-Aliasing laut ATI von einem Bug betroffen, welcher den R600-Chip enorm an Performance kostete. Laut unseren Beobachtungen und Messungen wurde erst in dem von uns verwendeten Treiber AAA durch ein Multisampling-Verfahren (genannt EATM) ersetzt. Dabei ist die Bildqualität für einen solchen Multisampling-Modus sehr gut, jedoch läßt derzeit die Kompatibilität noch zu wünschen übrig."

http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index2.php#2

Marcellus
2007-05-14, 19:11:53
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493685&postcount=799

hab ich dann hinterher auch gesehen...wäre ja auch enttäuschend gewesen, wenn die 3dc jungs ne stunde bräuchten, um den cb-artikel zu entdecken ;)

Gast
2007-05-14, 19:12:13
8800er und zum Start lahm? Ahhhh ja... klar. :|

Ja. Vergleich die Performance zwischen heutigen Treibern und die ersten vom letzten Jahr... dann siehste wirklich was lahm ist.

Kommt ATI auch nur annähernd an diese Steigerungsrate heran (teilweise über 50%), dann sieht die XT schon ne ganze Ecke besser aus.

Bei einigen Games ist sie ja so schlecht, das man da wirklich nur von irgendwelchen Problemen sprechen kann. Bei anderen ist sie dagegen total überlegen. Am Ende wird sich das irgendwo dazwischen einpendeln.

Dunkeltier
2007-05-14, 19:12:18
Du hast absolut keinen Plan, hast du dir den Computerbase Link angeschaut? Wenn es so weiter geht, vernichtet die XT eine GTS 640 und schließt zur GTX auf.

Typischer Dunkeltier Post!


In "meiner" Auflösung liegt das gute Stück hinter einer GTS. Selbst wenn diese eines Tages wird aufschließen können, so wird
auch nVidia noch seine Treiber weiter optimieren können
bleibt die GTS aufgrund des einfacheren PCBs und Speicherinterface immer noch günstiger

http://imgnow.de/uploads/99927bpng.png

Davon ab, ist die XTX nicht viel schneller wie die XT. Das Verhältnis kannst du dir an der GTX zur Ultra ausmalen, wo auch nur der Takt gesteigert wurde. Und nicht an der GTS zur GTX, welche von der GTS aus gesehen 33% mehr Shadereinheiten und noch mehr Takt hat. Deswegen wird diese auch im Giftschrank unter absoluten Verschluß gehalten, und die XT seitens ATi nur gegen die GTS positioniert. Von daher: Einfach nur lachhaft. Damit kann man im oberen Mainstreammarkt, aber nicht im Performance-Markt auftreten.


Das Argument ist ziemlich schwach, dann hättest dir ja auch keinen G80 kaufen dürfen, denn der war mit den Releasetreibern unter Vista auch ne lahme Krücke!

Ich wette, das Ende Mai alles schon viel besser aussieht. Zum Launch hin gibts quasi täglich was zu verbessern.


Ich benutze XP, weil es immer noch das einzig wahre Betriebssystem auch für Spiele ist. Unter Vista läuft vieles nicht oder nur Fehlerhaft, weswegen ich mit dem Umstieg längstmöglich warten werde.

Schlammsau
2007-05-14, 19:12:32
Da geht noch einiges. Fallende Preise können der Kundschaft recht sein.

ich sags doch..... :biggrin:

Gast
2007-05-14, 19:15:16
In "meiner" Auflösung liegt das gute Stück hinter einer GTS. Selbst wenn diese eines Tages wird aufschließen können, so wird
auch nVidia noch seine Treiber weiter optimieren können
bleibt die GTS aufgrund des einfacheren PCBs und Speicherinterface immer noch günstiger

http://imgnow.de/uploads/99927bpng.png

Davon ab, ist die XTX nicht viel schneller wie die XT. Das Verhältnis kannst du dir an der GTX zur Ultra ausmalen, wo auch nur der Takt gesteigert wurde. Und nicht an der GTS zur GTX, welche von der GTS aus gesehen 33% mehr Shadereinheiten und noch mehr Takt hat. Deswegen wird diese auch im Giftschrank unter absoluten Verschluß gehalten, und die XT seitens ATi nur gegen die GTS positioniert. Von daher: Einfach nur lachhaft. Damit kann man im oberen Mainstreammarkt, aber nicht im Performance-Markt auftreten.





Ich benutze XP, weil es immer noch das einzig wahre Betriebssystem auch für Spiele ist. Unter Vista läuft vieles nicht oder nur Fehlerhaft, weswegen ich mit dem Umstieg längstmöglich warten werde.

Schau dir endlich den Link an Schlaftablette. Nvidia kann eben nicht mehr viel optimieren, das haben sie schon die letzten 6 Monate getan, ATi kann sehr wohl noch was rausholen aus ihrer XT.

Von daher, einfach mal nicht so klugscheißen, das würde dir, besonders dir mal richtig gut tun. Du hast dich mit deinem Xbox 360 Gefasel schon mehr als blamiert.

The_Invisible
2007-05-14, 19:16:56
CB hat nicht gecheckt das die AAA Qualität im neuen Wunder Treiber gesenkt wurde! ;)

"Ein weiterer Treiber-Fauxpas scheint andere Testredaktionen ebenfalls zu treffen: Im früheren 8.3740er Treiber war das Adaptive Anti-Aliasing laut ATI von einem Bug betroffen, welcher den R600-Chip enorm an Performance kostete. Laut unseren Beobachtungen und Messungen wurde erst in dem von uns verwendeten Treiber AAA durch ein Multisampling-Verfahren (genannt EATM) ersetzt. Dabei ist die Bildqualität für einen solchen Multisampling-Modus sehr gut, jedoch läßt derzeit die Kompatibilität noch zu wünschen übrig."

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493685&postcount=799

so gehts natürlich auch wenn man sonst nicht weiter weiß ;)

mfg

Gast 2
2007-05-14, 19:17:54
In "meiner" Auflösung liegt das gute Stück hinter einer GTS.

Für die Zukunft würde ich dir mal anraten, die Qualitätssettings höher zu drehen. 4xAA für solche Karten bei 1280 sind schon ein ziemlicher Witz. Die reale Performance misst du bei einem breiten Interface damit sicherlich nicht. Die Bandbreite kommt ja nichtmal zum tragen.

Entweder du schraubst die Auflösung hoch oder den AA Level, damit du auch wirklich den Perfomanceunterschied zwischen den Karten misst und nicht nur wie gut der Treiber auf 3D Mark Auflösungen optimiert wurde... ;D

Bei einem 384 oder 512bit halte ich das schön für nötig. Siehe auch die Ergebnisse von 2560x1600 oder 8xAA in den Reviews (leider schwer zu finden).

seahawk
2007-05-14, 19:22:10
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/

anscheinend noch nicht bekannt...ati holt auf. 2900xt rockt!!!

Wenn man die BW reduziert ist es ja auch einfach und von SSAA auf ETAM umschaltet. :(

AcmE
2007-05-14, 19:22:13
Für mich treffen alle drei Punkte zu.
Habe aber für "interessiert mich nicht, hab meine Entscheidung bereits getroffen!" gestimmt, da meine 8800gts mehr als ausreicht.

Dunkeltier
2007-05-14, 19:22:14
Für die Zukunft würde ich dir mal anraten, die Qualitätssettings höher zu drehen. 4xAA für solche Karten bei 1280 sind schon ein ziemlicher Witz. Die reale Performance misst du bei einem breiten Interface damit sicherlich nicht. Die Bandbreite kommt ja nichtmal zum tragen.

Entweder du schraubst die Auflösung hoch oder den AA Level, damit du auch wirklich den Perfomanceunterschied zwischen den Karten misst und nicht nur wie gut der Treiber auf 3D Mark Auflösungen optimiert wurde... ;D

Bei einem 384 oder 512bit halte ich das schön für nötig. Siehe auch die Ergebnisse von 2560x1600 oder 8xAA in den Reviews (leider schwer zu finden).

Die Karten sind meist nicht einmal schnell genug für hohe Details mit gewählten Setting und >>>VSync on<<< in aktuellen Spielen. Was meinst du, wie oft die Kärtchen unter 75FPS kommen, und sich diese FPS dann nochmals schlagartig halbieren, dritteln oder was weiß ich was. Jedenfalls ruckelt es dann immer kräftig. Da denke ich beileibe nicht an noch höhere Auflösungen oder noch mehr BQ. Auch wenn ich sie gerne hätte.

The_Invisible
2007-05-14, 19:25:31
ja, hast natürlich recht, es ist voll legitim wenn man mal eben einen modus durch einen schnelleren austauscht, das zählt natürlich nicht zu den cheats sondern zu den optimierungen.

btw
die gäste hier gehn mir langsam auf den sack mit ihren ausdrucksweisen

mfg

Gast 2
2007-05-14, 19:28:59
Die Karten sind meist nicht einmal schnell genug für hohe Details mit gewählten Setting und >>>VSync on<<<. Was meinst du, wie oft die Kärtchen unter 75FPS per Sekunde kommen, und sich die FPS dann nochmals schlagartig halbieren, dritteln oder was weiß ich was. Jedenfalls ruckelt es dann immer ordentlich.

Das Problem bei deinen Settings ist, das du fälschlicherweise von einem 30-120sekunden Benchmark auf realword Szenarien schließt.

In einem Benchmark muss noch nicht mal eine Grafiklimitierung vorliegen - wenn der Hersteller es möchte, kann er den Benchmark Grafikkarten, CPU lastig oder beides machen. Aber was sagt das jetzt über die reale Performance aus? GAR NIX! Du weißt noch nicht mal, ob die Grafikkarte an der Grenze arbeitet, was in einer realword Umgebung (z.B. bei Oblivion die Städte = CPU und anderswo die GraKa) ganz anders aussieht.

Außerdem wird man das breite Speicherinterface mit geringen Auflösungen nicht auslasten können in so einem kurzen Benchmark. Wenn die Karte unter 8xAA in 1280x1024 schneller sein sollte, dann garantiere ich dir, das sie es auch in den meisten Fällen unter 4xAA ist, sobald eine Grafiklimitierung vorliegt... nur begreifen das sie meisten möchtegerns leider nicht.

deekey777
2007-05-14, 19:29:28
ja, hast natürlich recht, es ist voll legitim wenn man mal eben einen modus durch einen schnelleren austauscht, das zählt natürlich nicht zu den cheats sondern zu den optimierungen.

btw
die gäste hier gehn mir langsam auf den sack mit ihren ausdrucksweisen

mfg
Noch so ein Spruch und wirst hier nichteinmal als Gast posten dürfen.

Die gelbe Eule
2007-05-14, 19:32:29
Du hättest doch eh keine gekauft.

Ich hatte 850pro, XT, X1800XT 256er, X1900XT, 7300GT, 7900GTO, 8800GTS 320er in der Reihenfolge, alles innerhalb der letzten 12 Monate neu gekauft. Mir fehlt es nicht am Geld, sondern am Sinn so eine Karte zu kaufen. 150€ drauflegen um 8800GTS 640er Leistung zu bekommen, die ich eh seit mehreren Monaten hätte haben können und auch übertaktet genauso habe, hält mich davon ab.

Gast
2007-05-14, 19:35:17
CB hat nicht gecheckt das die AAA Qualität im neuen Wunder Treiber gesenkt wurde! ;)

"Ein weiterer Treiber-Fauxpas scheint andere Testredaktionen ebenfalls zu treffen: Im früheren 8.3740er Treiber war das Adaptive Anti-Aliasing laut ATI von einem Bug betroffen, welcher den R600-Chip enorm an Performance kostete. Laut unseren Beobachtungen und Messungen wurde erst in dem von uns verwendeten Treiber AAA durch ein Multisampling-Verfahren (genannt EATM) ersetzt. Dabei ist die Bildqualität für einen solchen Multisampling-Modus sehr gut, jedoch läßt derzeit die Kompatibilität noch zu wünschen übrig."

http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index2.php#2

Hmm darf man das so deuten das eventuell ein vergleichbarer TSSAA Modus aktiv war und man nun auf die TMSAA Variante zurückschaltet, weil sonst die FPS zusehr absacken?
Irgendwie fehlt mir in den Reviews mal der technische Hintergrund zu den AAA/Transparency AA Modi. Das kann man doch hinten und vorne nicht vergleichen, ich schau mir nur 4xAA und 8xAA Benches an, da kann ich davon ausgehen das vergleichbare Bildqualität ankommt.
Oder seh ich das falsch?

Marcellus
2007-05-14, 19:36:33
Ich hatte 850pro, XT, X1800XT 256er, X1900XT, 7300GT, 7900GTO, 8800GTS 320er in der Reihenfolge, alles innerhalb der letzten 12 Monate neu gekauft. Mir fehlt es nicht am Geld, sondern am Sinn so eine Karte zu kaufen. 150€ drauflegen um 8800GTS 640er Leistung zu bekommen, die ich eh seit mehreren Monaten hätte haben können und auch übertaktet genauso habe, hält mich davon ab.
es gibt aber auch leute, die nach dem "best bang for the buck" suchen. da scheint ati nicht zu viel versprochen zu haben. ich für meinen teil bin ein armer schlucker und muss sehen dass ich das optimum raushole. wobei das mit dem stromverbrauch sone sache ist, aber wenn man nur 2 stunden oder weniger zockt am tag, sollte das noch im rahmen sein.

Gast
2007-05-14, 19:37:57
Naja den besten Bang wird immer noch die GTS640 haben, ist jetzt bei 300€ angekommen...
Und jetzt vom "best Bang" zu reden is ja verkehrt, warte mal 2-4 Wochen bis die Einführungspreise runter geschraubt wurden, sonst fühlst dich am Ende noch verarscht.

Dunkeltier
2007-05-14, 19:39:35
Das Problem bei deinen Settings ist, das du fälschlicherweise von einem 30-120sekunden Benchmark auf realword Szenarien schließt.

In einem Benchmark muss noch nicht mal eine Grafiklimitierung vorliegen - wenn der Hersteller es möchte, kann er den Benchmark Grafikkarten, CPU lastig oder beides machen. Aber was sagt das jetzt über die reale Performance aus? GAR NIX! Du weißt noch nicht mal, ob die Grafikkarte an der Grenze arbeitet, was in einer realword Umgebung (z.B. bei Oblivion die Städte = CPU und anderswo die GraKa) ganz anders aussieht.

Außerdem wird man das breite Speicherinterface mit geringen Auflösungen nicht auslasten können in so einem kurzen Benchmark. Wenn die Karte unter 8xAA in 1280x1024 schneller sein sollte, dann garantiere ich dir, das sie es auch in den meisten Fällen unter 4xAA ist, sobald eine Grafiklimitierung vorliegt... nur begreifen das sie meisten möchtegerns leider nicht.


Ich rede nicht von Benchmarks, sondern von Spielen. Was nützen mir 500 Average-FPS, wenn ich während 60 Sekunden spielens 20x Einbrüche runter auf 15FPS und derbes Geruckel habe? Ja, klasse - sowas spielt sich wunderbar.

Und nochmal: Wieso soll ich ein Produkt, welches
mehr kostet
aktuell wesentlich weniger Performance liefert
mehr Strom verballert
ein halbes Jahr später erschienen ist
kaufen?

Ich bin ein logisch denkender Mensch, vielleicht könntest du mir dazu mal deine sachlichen Argumente näher bringen. Statt mich mit Dingen wie "Schlaftablette" oder "dein Xbox 360 Gefasel" persönlich anzugehen.

Gast
2007-05-14, 19:40:49
Gibt es eigentlich ein Review, das die Performance in XP und Vista vergleicht?

Marcellus
2007-05-14, 19:41:07
Naja den besten Bang wird immer noch die GTS640 haben, ist jetzt bei 300€ angekommen...
Und jetzt vom "best Bang" zu reden is ja verkehrt, warte mal 2-4 Wochen bis die Einführungspreise runter geschraubt wurden, sonst fühlst dich am Ende noch verarscht.
warten soweiso. ich gehe davon aus, dass die 300€ für die 2900xt erreicht werden. ansonsten bringts das nicht.

Gast 2
2007-05-14, 19:42:33
Ich rede nicht von Benchmarks, sondern von Spielen.

Ich rede nie von etwas anderem.

Was nützen mir 500 Average-FPS, wenn ich während 60 Sekunden spielens 20x Einbrüche runter auf 15FPS und derbes Geruckel habe? Ja, klasse - sowas spielt sich wunderbar.

Durch mehr Rohpower kannst du aber auch eine stabilere Framerate erreichen, das ist doch der Sinn dahinter.

Ich bin ein logisch denkender Mensch, vielleicht könntest du mir dazu mal deine sachlichen Argumente näher bringen.

Die wurde dir gerade schon näher gebracht, jetzt musst du sie nur noch verstehen und am besten, ohne gleich unfreundlich zu werden!

deekey777
2007-05-14, 19:43:11
Gibt es eigentlich ein Review, das die Performance in XP und Vista vergleicht?
Jein: http://www.digit-life.com/articles2/video/r600-part3.html

Mr. Lolman
2007-05-14, 19:47:35
CB hat nicht gecheckt das die AAA Qualität im neuen Wunder Treiber gesenkt wurde! ;)


EATM ist (sofern keine Kompatibilitätsprobleme auftreten) sogar besser als QAAA. Sieht man auch auf den 3DCenter Pics...

Marcellus
2007-05-14, 19:48:08
lol

dildo4u
2007-05-14, 19:49:02
EATM ist (sofern keine Kompatibilitätsprobleme auftreten) sogar besser als QAAA. Sieht man auch auf den 3DCenter Pics...
Schön nur leider wurden im Test bei CB die Geforce Karten mit TSSAA gegen das EATM gebencht.

Dunkeltier
2007-05-14, 19:49:55
Ich rede nie von etwas anderem.

Du hast einen 30-120 Sekunden Benchmark in den Raum geworden. Ich will einfach nur meine Spiele in höchstmöglicher BQ mit durchgängig mind. 75FPS und mehr spielen. Da bieten sich in moderneren Spielen weder höhere Auflösungen noch mehr BQ als die von mir gewählten Settings an. Und darum gehts doch.


Durch mehr Rohpower kannst du aber auch eine stabilere Framerate erreichen, das ist doch der Sinn dahinter.


Sicher, nur muss man das ganze auch vernünftig Dimensionieren. Was AMD/ATi hier gemacht hat, ist einen Ferrari-Motor in die Karosse eines Fiat Panda geschraubt zu haben. IMHO absolut ein Ding der Unmöglichkeit. Naja, anscheinend gehts ja doch. Wie schon beim NV30...


Die wurde dir gerade schon näher gebracht, jetzt musst du sie nur noch verstehen und am besten, ohne gleich unfreundlich zu werden!

Ich bin nicht unfreundlich. :)

seahawk
2007-05-14, 19:51:16
warten soweiso. ich gehe davon aus, dass die 300€ für die 2900xt erreicht werden. ansonsten bringts das nicht.

Ich hoffe für AMD, dass zu diesem Zeitpunkt schon der R650 auf dem MArkt ist.

Man muss sehen, dass NV den G80 erst teuer als GTX und etwas günstiger als GTS 640 verkaufen konnte. Dann deutlich biliger als 320 und teurer als Ultra. Dazu kann NV immer noch teildefekte Chips als GTS verkaufen.

ATI baut einen ebenso großen und komplexen Chip, kann selbst die besten Samples nur als XT verkaufen und kann leicht defekte Chips gegenwärtig entsorgen. Und wenn der erste Eindruck stimmt, dann dürfte es recht schwer werden etwas aus teildefekten R600 machen zu können.

Coda
2007-05-14, 19:51:40
EATM ist (sofern keine Kompatibilitätsprobleme auftreten) sogar besser als QAAA. Sieht man auch auf den 3DCenter Pics...
Das ist Unsinn. Für dich mag es subjektiv besser aussehen, aber AAA bietet auf jeden Fall das "richtigere" Bild.

Gast
2007-05-14, 19:53:10
Das ist Unsinn. Für dich mag es subjektiv besser aussehen, aber AAA bietet auf jeden Fall das "richtigere" Bild.

Ist denn EATM äquivalent zu TSSAA oder "cheatet" ATi hier wirklich?

Gast
2007-05-14, 19:53:16
Du hast einen 30-120 Sekunden Benchmark in den Raum geworden.

... und gesagt, das diese sehr realitätsfern sind und mit der realität nichts zu tun haben.

Ich will einfach nur meine Spiele in höchstmöglicher BQ mit durchgängig mind. 75FPS und mehr spielen. Da bieten sich in moderneren Spielen weder höhere Auflösungen noch mehr BQ als die von mir gewählte an.

Sicher. Wenn nun aber die eine Karte leistungsfähiger ist, dann kann sie aber auch die gleichen "durchgängigen 75fps" liefern - bei verbesserten Qualitätssettings.

Aber du da doch eh eine GTX besitzt, stellt sich die Frage derzeit doch gar nicht? Wenn die XTX kommt, wird diese schneller sein und gleich mit besseren Treibern antreten - vorher brauchst du doch hier gar nicht enttäuscht sein. Die XT ist eben kein GTX Konkurrent!

seahawk
2007-05-14, 19:54:41
Ist denn EATM äquivalent zu TSSAA oder "cheatet" ATi hier wirklich?

technisch nein, Das subjektive Empfinden der BQ ist eine andere Frage.

][immy
2007-05-14, 19:54:59
Ich denke das Treiber da noch jede Menge wieder gutmachen können. ich sehe die Karte derzeit klar im Nachteil aufgrund der Speichergröße und denke das die 1 GB Version doch einiges wieder gutmachen könnte. hat wohl seinen grund warum nvidia auf speichergrößen >500 MB setzt.

deekey777
2007-05-14, 19:55:38
Das ist Unsinn. Für dich mag es subjektiv besser aussehen, aber AAA bietet auf jeden Fall das "richtigere" Bild.
EATM erfasst in HL2 Objekte (Texturen), wo ASTT versagt. Auch glättet EATM in anderen Spielen Texturen, die von ASTT nicht erfasst werden, aber von ASBT, was mächtig an Leistung kostet.

Dunkeltier
2007-05-14, 20:04:09
... und gesagt, das diese sehr realitätsfern sind und mit der realität nichts zu tun haben.

Es kommt drauf an, was man bencht. Minimum-FPS? Da dürfte die Radeon X2900 XT gegenüber der Geforce 8800 GTS derzeit mehr als deutlich den kürzeren ziehen, und dies äußert sich wie schon gesagt durch Ruckeln in aktuellen Spielen. :biggrin: Das diese GPU (der R600) irgendwann zukünftig in DX10-Anwendungen eventuelle Performance-Vorteile auspielen kann, ist dabei doch vollkommen irrelevant. Oder hat sich wirklich jemand den NV30 wegen SM 2.0+ oder den NV40 wegen SM3.0 gekauft?



Sicher. Wenn nun aber die eine Karte leistungsfähiger ist, dann kann sie aber auch die gleichen "durchgängigen 75fps" liefern - bei verbesserten Qualitätssettings.


Wir drehen uns im Kreis.


Aber du da doch eh eine GTX besitzt, stellt sich die Frage derzeit doch gar nicht? Wenn die XTX kommt, wird diese schneller sein und gleich mit besseren Treibern antreten - vorher brauchst du doch hier gar nicht enttäuscht sein. Die XT ist eben kein GTX Konkurrent!

Du hast einen meiner vorherigen *Beiträge* (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493716&postcount=57) nicht gelesen. Die XTX wird gegenüber der XT nicht groß das Ruder rumreißen können, weil diese nur MINIMAL mehr Performance drauflegt. Vergleichbar mit der GTX zur Ultra... Ich habe bereits ausführlich begründet, wieso. Deswegen gibt es die auch nicht zu kaufen. Da man nicht ein Produkt im High-End vermarkten kann, welches laut Messungen gar keines ist. Das ist noch rufschädigender, wie der eh schon total verkorkste Stapellauf des R600.

Gast
2007-05-14, 20:09:38
Also cheatet ATi nicht wirklich, sondern nur "technisch", ums mal ganz blöd auszudrücken?

AI on beim R420 war doch auch besser als beim NV40 alle Optimierungen aus...

Gast 2
2007-05-14, 20:13:37
Die XTX wird gegenüber der XT nicht groß das Ruder rumreißen können, weil diese nur MINIMAL mehr Performance drauflegt.

Woher willst du das denn wissen? Das ist pure Spekulation.

Du kennst noch nicht mal das wahre Leistungspotential der XT mit ausgereiften Treibern, wie willst du dann das Leistungsniveau einer XTX beurteilen können?

LovesuckZ
2007-05-14, 20:13:49
Also cheatet ATi nicht wirklich, sondern nur "technisch", ums mal ganz blöd auszudrücken?

Fast, da sie nicht deutlich darauf hinweisen, dass ein anderes Verfahren angewendet wird. Das alte Supersampling Verfahren wird durch ein optimiertes Mulitsampling Verfahren ersetzt und dies als "Wunder" gepredigt.
Würde man bei den 8800 Karten ebenfalls auf Multisampling setzen, dann sähe das Ergebnis wieder anders aus.

Die gelbe Eule
2007-05-14, 20:16:58
Eine High End Karte hat Optimierungen dieser Art nirgendwo nötig. Vielleicht wird das irgendwann mal begriffen.

Gast
2007-05-14, 20:18:56
Eine High End Karte hat Optimierungen dieser Art nirgendwo nötig. Vielleicht wird das irgendwann mal begriffen.

Genau deswegen tritt sie ja auch nur gegen die GTS an. Vielleicht wird das ja irgendwann mal begriffen. Btw. ist mir als Kunde das Wie relativ egal, wenn am sichtbaren Ende das gleiche bei rauskommt...

Marcellus
2007-05-14, 20:19:13
mal was anderes: warum sollte amd gelogen haben, wenn sie gesagt haben, dass die 2900xt zwischen 8800gts und 8800gtx ztu finden sein wird, leistungsmässig?
ich denke so wird es am ende auch sein, wenn die treiber richtig funktionieren. ansonsten wär das echt ne hohle aktion mit dem spruch gewesen.

Gast
2007-05-14, 20:20:37
Fast, da sie nicht deutlich darauf hinweisen, dass ein anderes Verfahren angewendet wird. Das alte Supersampling Verfahren wird durch ein optimiertes Mulitsampling Verfahren ersetzt und dies als "Wunder" gepredigt.
Würde man bei den 8800 Karten ebenfalls auf Multisampling setzen, dann sähe das Ergebnis wieder anders aus.

Aber dieses leichte Cheating, ich nenne es mal so, macht doch nicht soviel Mehrleistung aus, das ist doch absurd. Einigen wir uns darauf, dass ATi teils cheatet, der Großteil der Leistungssteigerung aber auf dem verbessertem Treiber basiert.

172% Leistungsteigerung bei Oblivion, glaubt ihr tatsächlich, das wäre alleine nur Cheating erreichbar gewesen, ohne dass die CB Redis davon etwas bemerkt hätten? Wenn ja, ist ATi wie Ferrari, Cheater @its best.

Gast
2007-05-14, 20:21:31
Eine High End Karte hat Optimierungen dieser Art nirgendwo nötig. Vielleicht wird das irgendwann mal begriffen.

Bitte, du bist wohl einer der größten NVidia Fanboys, die sich hier tummeln. Halt einfach die Füße still. Mit deiner grottigen GTS 320 sei am besten gleich still, denn die wird ja sogar von einer X1950XTX ordentlich vernascht!

LovesuckZ
2007-05-14, 20:26:24
Aber dieses leichte Cheating, ich nenne es mal so, macht doch nicht soviel Mehrleistung aus, das ist doch absurd.

Doch, da es sich hier um einen Austausch von Supersampling zu Multisampling handelt. Wenn 4 textur Samples eingesetzt werden, dann viertelt sich die Texturleistung. Und da die HD2900XT eben nicht das Texturmonster ist, profitiert er überproportional vom veränderten Verfahren.

Einigen wir uns darauf, dass ATi teils cheatet, der Großteil der Leistungssteigerung aber auf dem verbessertem Treiber basiert.

Die hohen Leistungsgewinne scheinen nur in Spielen aufzutauchen, die übermäßig Alphatest verwenden - hier reagiert der Supersamplinganteil beim TSAA bzw. AAA.

Dunkeltier
2007-05-14, 20:27:15
Woher willst du das denn wissen? Das ist pure Spekulation.


Nein, logisch (!) nachvollziehbare Fakten. Ich könnte dir einen ganzen Berg solcher Beispiele rauskramen (X800 XL -> X800 XT -> X800 XT PE/ X1900 XT -> X1900 XTX/ Geforce 2 als GTS -> Pro -> Ti -> Ultra...). Es sind nur die Taktunterschiede ausschlaggebend, aber keine deaktivierten Chipteile oder ein zusammengekürztes Speicherinterface. Weswegen wir hier von vielleicht ca. 10% mehr Performance reden, und das Ding (die XTX) im Giftschrank von AMD/ATi lagert. Schau dir doch mal bitte die OC-Ergebnisse auf Computerbase an. Die geben einen ganz guten Ausblick darauf, das...die XTX nicht soviel mehr leistet. ;D



Du kennst noch nicht mal das wahre Leistungspotential der XT mit ausgereiften Treibern, wie willst du dann das Leistungsniveau einer XTX beurteilen können?


Du kennst noch nicht mal das wahre Leistungspotential der GTS mit ausgereiften Treibern, wie willst du dann das Leistungsniveau einer Ultra beurteilen können? :rolleyes:

Mal im ernst, das Ding war für Ende 2006 angekündigt. Bei sowas krieg ich immer dicke Eier. "Ja, Mensch ey...warte noch ein halbes Jahr, dann hat das Teil die volle Power, ey!" Sicher, ein Jahr nach dem G80. Wobei es nicht einmal reicht zu diesen aufzuschließen, geschweige denn, diesen trotz höherer Preise und wesentlicher Verspätung zu überflügeln. Man kann sich aber auch alles schönreden und trinken...

Radeonator
2007-05-14, 20:31:30
Schade, hab mehr erwartet. Diese "Der Treiber ist Schuld" mär, reißt da auch nichts. Glaube kaum das ein neuer ungetweakter Treiber plötzlich >30% aus dem Hut zaubert. Wer das glaubt ist biased hoch 10... :frown:

HOT
2007-05-14, 20:32:20
Falls noch net gepostet:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Eigentlich kann man sich das sparen, Benchmarks zum Release durchzuführen bei ATI, irgendwie kriegen die das immer hin, den First Release Treiber zu versauen :D

Gast
2007-05-14, 20:33:20
Nein, logisch (!) nachvollziehbare Fakten.

Fakten in Form einer X2900XTX Karte in diversen Rechnern und dem 5., 10., 15. Treiberrelease sehe ich hier nirgendwo.

Schau dir doch mal bitte die OC-Ergebnisse auf Computerbase an. Die geben einen ganz guten Ausblick darauf, das...die XTX nicht soviel mehr leistet. ;D

Das lässt immer noch nicht auf die Leistung schließen.

Was wir wissen: Es ist eine höhergetaktete XT mit mehr VRAM.

Wir wissen, das der Unterschied bei der Hardware bei x Prozent liegen wird.
Es bleibt aber immer noch der Faktor X offen. Wir wissen nicht, wie die Treiber zum Release und in den nächsten Wochen generell zulegen werden.

Leistung XT + Hardwareverbesserungen + Faktor X = Endleistung.

Wie jeder Logiker erkennen sollte, lässt sich die Endleistung nicht berechnen, so lange da der eine unbekannte Faktor steht. Warum glaubst du es zu können?

dildo4u
2007-05-14, 20:33:41
Falls noch net gepostet:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Eigentlich kann man sich das sparen, Benchmarks zum Release durchzuführen bei ATI, irgendwie kriegen die das immer hin, den First Release Treiber zu versauen :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493707&postcount=54

Blackpitty
2007-05-14, 20:34:44
Mal im ernst, das Ding war für Ende 2006 angekündigt. Bei sowas krieg ich immer dicke Eier. "Ja, Mensch ey...warte noch ein halbes Jahr, dann hat das Teil die volle Power, ey!" Sicher, ein Jahr nach dem G80. Wobei es nicht einmal reicht zu diesen aufzuschließen, geschweige denn, diesen trotz höherer Preise und wesentlicher Verspätung zu überflügeln. Man kann sich aber auch alles schönreden und trinken...

Full ACK

sehe das genau so, die hatten nun so lange zeit, und konnten desweiteren den G80 bis ins kleinste durchleuchten, und bringen trotzdem was raus, was langsamer ist, und grade so mit einer GTs mithalten kann.

Dann verbaucht die Karte auch noch mehr Strom als eine 8800Ultra, und ist dazu noch um einiges langsammer.

Was bringt einem dann die gute Rohpower, wenn die Karte bei Qualität total einbricht? Um ohne Qualitätsetting zu zocken, kann man sich auch für 150€ eine Graka holen.

Da hätte Nvidia die 8800GTx gar nicht nachlegen brauchen, aber gut finde ich es trotzdem.

Bin mal gespannt, wie ATI diesen Rückstand aufholen will.

Die ATI könnte man gut mit stalker vergleichen, wär sie da rausgekommen, wo es auch geplant war, wärs ganz gut, doch jetzt ist das kalter Kaffe:rolleyes:

Die gelbe Eule
2007-05-14, 20:35:18
Bitte, du bist wohl einer der größten NVidia Fanboys, die sich hier tummeln. Halt einfach die Füße still. Mit deiner grottigen GTS 320 sei am besten gleich still, denn die wird ja sogar von einer X1950XTX ordentlich vernascht!

Davor war ich lange Zeit ATi Besitzer. Man kauft immer das was einem gerade am besten in den PC passt, nicht nach Farbe, weil dort drinnen ist alles schwarz. Achja, eine grottige X1900XT habe ich gehabt, die leider in den Anwendungen wo ich sie genutzt habe, mit argen Treiberproblemen zu kämpfen hatte. Da war mir das warten zu blöd und bin umgestiegen.
Genau das wird hier auch wieder passieren, warten das es besser wird, nur ob es das wirklich wird, das sei dahingestellt.

AnarchX
2007-05-14, 20:35:22
Falls noch net gepostet:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Eigentlich kann man sich das sparen, Benchmarks zum Release durchzuführen bei ATI, irgendwie kriegen die das immer hin, den First Release Treiber zu versauen :D

Wie schon andersweitig erwähnt, ersetzt dieser neue Treiber das Supersampling AAA durch eine Verfahren was auf günstigeres Multisampling setzt und theoretisch um einiges schlechter ist. Sprich hier werden Äpfel mit Birnen verglichen.

Gast
2007-05-14, 20:36:14
Du kennst noch nicht mal das wahre Leistungspotential der GTS mit ausgereiften Treibern, wie willst du dann das Leistungsniveau einer Ultra beurteilen können? :rolleyes:

Alle GeForce8 Karten basieren auf der selben Architektur. Die Treiber sind also schon mehr als ein halbes Jahr und Einsatz und dementsprechend in der Entwicklung um Probleme zu beheben und Performance zu optimieren.

ATIs Treiber sind vollkommen neu, sie sind zum ersten mal im Masseneinsatz. Ich weiß also, das NVIDIA da steht, wo ATI in ca. 6 Monaten stehen wird. Brauche ich mehr wissen? Nein. :)

Dunkeltier
2007-05-14, 20:36:17
Aber dieses leichte Cheating, ich nenne es mal so, macht doch nicht soviel Mehrleistung aus, das ist doch absurd. Einigen wir uns darauf, dass ATi teils cheatet, der Großteil der Leistungssteigerung aber auf dem verbessertem Treiber basiert.

172% Leistungsteigerung bei Oblivion, glaubt ihr tatsächlich, das wäre alleine nur Cheating erreichbar gewesen, ohne dass die CB Redis davon etwas bemerkt hätten? Wenn ja, ist ATi wie Ferrari, Cheater @its best.

Die BQ mit MSAA statt SSAA bei den Alphatexturen zu senken ist Cheating. Dann hätte man den G80 auch so benchen sollen. Von daher ist der Computerbase "Performance-Vergleich" etwas sehr absurd.

Alle GeForce8 Karten basieren auf der selben Architektur. Die Treiber sind also schon mehr als ein halbes Jahr und Einsatz und dementsprechend in der Entwicklung um Probleme zu beheben und Performance zu optimieren.

ATIs Treiber sind vollkommen neu, sie sind zum ersten mal im Masseneinsatz. Ich weiß also, das NVIDIA da steht, wo ATI in ca. 6 Monaten stehen wird. Brauche ich mehr wissen? Nein. :)


ATis Treiber sind auch nicht erst seit gestern oder heute im Einsatz. Was glaubst du, wie lange schon entsprechende Vorserien- und Entwicklertreiber und Grafikkarten im Umlauf waren und sind? Das zeugt einmal mehr, wie es nur noch drüber und drunter bei AMD/ATi geht.

Schrotti
2007-05-14, 20:37:44
Die BQ mit MSAA statt SSAA bei den Alphatexturen zu senken ist Cheating. Dann hätte man den G80 auch so benchen sollen. Von daher ist der Computerbase "Performance-Vergleich" etwas sehr absurd.

Der Vergleich ist nicht nur absurd sondern für den Allerwertesten.

Gast
2007-05-14, 20:37:49
Das Einfachste wäre, wenn man auf allen Karten einfach nur das stinknormale MSAA aktivieren würde, statt ASBT, ASTT, TSSAA, SHMGFAA und wie die Modi sonst noch heißen, um vergleichbare Benchmarkergebnisse zu kriegen.

seahawk
2007-05-14, 20:37:55
Also cheatet ATi nicht wirklich, sondern nur "technisch", ums mal ganz blöd auszudrücken?

AI on beim R420 war doch auch besser als beim NV40 alle Optimierungen aus...

Naja, es ist schon ein Unterschied zwischen den Modi, optisch imho nicht relevant aber das ist ein anderes Thema. Allerdings müßte man dann bei NV eben den technisch vergleichbaren Modi nehmen und nicht den wesentlich aufwendigern.

mr orange
2007-05-14, 20:38:05
hier wurde auch schon mit dem 8.37.4.2 getestet.
http://www.guru3d.com/article/Videocards/431/

Blackpitty
2007-05-14, 20:39:28
Fakten in Form einer X2900XTX Karte in diversen Rechnern und dem 5., 10., 15. Treiberrelease sehe ich hier nirgendwo.


wozu auch?

klar, man kann immer warten, und warten, bis irgendwann mal ein Treiber kommt, aber wenns von Anfang an schon nicht klappt?

Dann kauft man sich jetzt die Karte, und hat treiberprobleme, und bis ein neuer Treiber kommt, gibts von Nvidia schon weider ne neuere bessere Karte.......

Ich habe seit dem ich die 8800GTX 5 Tage nach der Erscheinung erhalten habe immer noch den aller ersten Treiber drauf, und keine Probleme mit dem, weder in Games, noch mit der Leistung.

Heimatloser
2007-05-14, 20:39:54
Das mit den voll lauffähigen Treibern zum Produktstart wird Ati wohl niemals hinbekommen !?! :|

Ich warte zwar eh auf die HD 2600XT, aber ich denke auch im High-End-Bereich wird es ja wohl noch eine HD 2900XTX geben.

Vielleicht kann sich AMD ja nochmal rechtzeitig aus der Misere ziehen.

Wie war es denn bei der letzten Generation ?!?

Erst gab es viele die Nvidia beim Vergleich 7900GTX / X1900XTX vorne sahen.

Und heute haben die Meisten akzeptiert, daß ein Cross-Fire System selbst ein Quad-SLI System in vielen Bereichen abzieht.

Von einem 1 zu 1 Vergleich braucht man gar nicht mehr zu reden.

Wäre aber sinnvoller gewesen die Treiber mal vor der Veröffentlichung konkurrenzfähig zu bekommen.

DerHeimatlose

seahawk
2007-05-14, 20:40:56
Aber dieses leichte Cheating, ich nenne es mal so, macht doch nicht soviel Mehrleistung aus, das ist doch absurd. Einigen wir uns darauf, dass ATi teils cheatet, der Großteil der Leistungssteigerung aber auf dem verbessertem Treiber basiert.

172% Leistungsteigerung bei Oblivion, glaubt ihr tatsächlich, das wäre alleine nur Cheating erreichbar gewesen, ohne dass die CB Redis davon etwas bemerkt hätten? Wenn ja, ist ATi wie Ferrari, Cheater @its best.

Wenn die Farberechnung pro Punkt wirklich an die Share zurück gegeben wird, dann ist der Unterschied zwischen SuperSampling und MultiSampling schon erheblich.

Schrotti
2007-05-14, 20:41:32
hier wurde auch schon mit dem 8.37.4.2 getestet.
http://www.guru3d.com/article/Videocards/431/

Schon schön wenn die 1950 XTX teilweise schneller ist als die neue 2900XT

Gast
2007-05-14, 20:44:10
Schon schön wenn die 1950 XTX teilweise schneller ist als die neue 2900XT

Ach das glaubst du doch selbst nicht, ach doch, du glaubst es tatsächlich!

Gast
2007-05-14, 20:44:25
klar, man kann immer warten, und warten, bis irgendwann mal ein Treiber kommt, aber wenns von Anfang an schon nicht klappt?

Hat es bei NVIDIA mit den VISTA Treibern von Anfang an geklappt? Nein, hat es nicht. Es gab sogar Berichte, an denen die Leistung fast nur noch halb so hoch waren, wie unter XP, eben aufgrund der sehr miesen Treiber.

Dann kauft man sich jetzt die Karte, und hat treiberprobleme, und bis ein neuer Treiber kommt, gibts von Nvidia schon weider ne neuere bessere Karte.......

Das ist irrelevant, weil der Refresh auch die gleichen Treiber nutzen wird und daher die Entwicklung wichtiger ist, als hier manche denken.

Refreshkarten mit gleicher Architektur nutzen die gleiche Basis. Wenn es ATI nun schafft, die Treiber in den nächsten Monaten auf den Stand zu bringen, den NVIDIA hat oder gar noch besser, dann hat das auch auswirkungen auf die 65nm Chips, also auch auf alle höhergetakteten Karten der Zukunft.

Ich habe seit dem ich die 8800GTX 5 Tage nach der Erscheinung erhalten habe immer noch den aller ersten Treiber drauf, und keine Probleme mit dem, weder in Games, noch mit der Leistung.

Dann hast du nicht nachgemessen oder nutzt nur die Anwendungen, die anständig laufen. Die Probleme sind vielseitig und Google ist nicht umsonst voll davon gewesen (warum sollte sonst jemand Klagen wollen?)

yardi
2007-05-14, 20:45:27
Ich habe seit dem ich die 8800GTX 5 Tage nach der Erscheinung erhalten habe immer noch den aller ersten Treiber drauf, und keine Probleme mit dem, weder in Games, noch mit der Leistung.

OT

Ufff...ich würde dir trotzdem dringend raten mal nen Treiber der 10x.xx Serie draufzuschmeissen. Da hat sich in Sachen Performance bei den meisten aktuellen Games einiges getan.

Dunkeltier
2007-05-14, 20:47:39
Fakten in Form einer X2900XTX Karte in diversen Rechnern und dem 5., 10., 15. Treiberrelease sehe ich hier nirgendwo.



Das lässt immer noch nicht auf die Leistung schließen.

Was wir wissen: Es ist eine höhergetaktete XT mit mehr VRAM.

Wir wissen, das der Unterschied bei der Hardware bei x Prozent liegen wird.
Es bleibt aber immer noch der Faktor X offen. Wir wissen nicht, wie die Treiber zum Release und in den nächsten Wochen generell zulegen werden.

Leistung XT + Hardwareverbesserungen + Faktor X = Endleistung.

Wie jeder Logiker erkennen sollte, lässt sich die Endleistung nicht berechnen, so lange da der eine unbekannte Faktor steht. Warum glaubst du es zu können?


*Zum letzten mal...* (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493716&postcount=57)

Text bitte lesen, nachdenken und VERSTEHEN. Die GTS verspeist die XT zum Frühstück, und das schon in 1280x1024. Da werden die einzig beiden Unterschiede, etwas mehr Speicher (der in dieser Auflösung bei weitem nicht dermaßen limitiert!) und ein paar Prozent mehr Takt nichts reißen. Besonders solche starken Leistungsunterschiede wie bei der GTS zur GTX wird es nicht geben, eher wie bei einer 256MB Radeon X800 XL zur 512MB Radeon X800 XT. *Link* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_sapphire_radeon_x800_x800_xl/15/#abschnitt_performancerating)

Denn eine "wirkliche" Hardwareverbesserung, wie du sie nennst, liegt bei der XT zur XTX im Gegensatz zur GTS zur GTX NICHT vor.

Schrotti
2007-05-14, 20:50:02
Ach das glaubst du doch selbst nicht, ach doch, du glaubst es tatsächlich!

Ich betrachte nur die für mich wichtigen Auflösungen wegen meines TFTs (also 1280x1024).

Siehe hier (http://www.guru3d.com/article/Videocards/431/18/) und auch hier (http://www.guru3d.com/article/Videocards/431/19/).

Gast
2007-05-14, 20:50:14
*Zum letzten mal...* (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493716&postcount=57)

Text bitte lesen, nachdenken und VERSTEHEN. Die GTS verspeist die XT zum Frühstück, und das schon in 1280x1024.

Harharhar, sie verspeist sie mit völlig unausgereiften Treibern mit gerade mal 8%... was für ein Performancehit...

Marcellus
2007-05-14, 20:50:34
@dunkeltier: na dann kannst du ja jetzt aufhören mit posten!

Gast
2007-05-14, 20:52:02
Text bitte lesen, nachdenken und VERSTEHEN.

Ich habe ihn verstanden, du leider nicht.

Die GTS verspeist die XT zum Frühstück, und das schon in 1280x1024.

Dafür verspeist die XT die GTS in den hohen Auflösungen. Je niedriger die Auflösung, desto wichtiger wird die Treiberentwicklung und da ist NVIDIA verständlicherweise weiter vorne, aber das bleibt ja nicht so.

Alles andere was du hier behauptest, ist lediglich Spekulation, ohne Hintergrund.

up¦²
2007-05-14, 20:53:48
Große Dinge kündigen sich an... :rolleyes:
Angeblich wird u.a. der MC neu "organisiert", soweit das treiber/bios-mäßig überhaupt geht, und dann flutscht der Driver... und die R600!
Die Gurus werden ihre wahre Freude dran haben!
Nichts ist verloren... alles ist noch nicht im grünen Bereich :wink:
Kompliziert - kompliziert...

Gast
2007-05-14, 20:54:43
Große Dinge kündigen sich an... :rolleyes:
Angeblich wird u.a. der MC neu "organisiert", soweit das treiber/bios-mäßig überhaupt geht, und dann flutscht der Driver... und die R600!
Die Gurus werden ihre wahre Freude dran haben!
Nichts ist verloren... alles ist noch nicht im grünen Bereich :wink:
Kompliziert - kompliziert...

Hm, Quelle büdde?

Dunkeltier
2007-05-14, 20:57:17
Ich habe ihn verstanden, du leider nicht.



Dafür verspeist die XT die GTS in den hohen Auflösungen. Je niedriger die Auflösung, desto wichtiger wird die Treiberentwicklung und da ist NVIDIA verständlicherweise weiter vorne, aber das bleibt ja nicht so.

Alles andere was du hier behauptest, ist lediglich Spekulation, ohne Hintergrund.

Aha. In den "praxistauglichen" Settings von 2560x1600 4xAA/16xAF, oder wie? Abgesehen davon, das nur die wenigsten User solche Geschosse von Bilschirmen haben, kaufen sich diese wohl ganz sicher nicht sowas wie eine XT oder GTS. Eher eine Karte (oder zwei :)) der GTX- oder Ultra-Klasse. Mal ganz davon abgesehen sind Spiele in diesen Auflösungen mit VSync on unspielbar. Es sei denn, man tut sich gerne Tearing an. Oder schraubt kräftig Details runter. Um nochmals nachzutreten: Die GTS bleibt immer noch günstiger, leiser und verbraucht weniger Strom. ;)

HOT
2007-05-14, 20:59:39
Na ja, Multisampling ist die grosse Stärke des R600. Er hat eben diese unglaubliche Speicherbandbreite und entsprechende Optimierungen. Wenn ATI es schafft, mit adaptive Multisampling genausogute Ergebnisse zu erzeugen wie NV mit TSSAA, ist mir das scheissegal ob MS oder SS, hauptsache die BQ stimmt. Und die Sache mit der Kompatibilität ist beim R600 noch nicht erwiesen, wie kompatibel EATM auf diesem letztendlich ist.

Blackpitty
2007-05-14, 21:01:55
hat eigentlich schoneinmal jemand erwähnt, dass die 2900XT nur 512MB RAM hat? :rolleyes:

Mancko
2007-05-14, 21:04:23
Aber du da doch eh eine GTX besitzt, stellt sich die Frage derzeit doch gar nicht? Wenn die XTX kommt, wird diese schneller sein und gleich mit besseren Treibern antreten - vorher brauchst du doch hier gar nicht enttäuscht sein. Die XT ist eben kein GTX Konkurrent!


Und wann soll die XTX kommen? Auf Basis des R600 wohl gar nicht. Wird wohl erst der R650 in 65nm sein - also nicht vor dem 3. Quartal.
Insofern hast du Recht. Die XT ist kein Konkurent zur GTX oder Ultra und auch ansonsten hat ATI im Enthusiastenbereich nichts für den Kunden zu bieten. Da gibt es nur Nvidia und sonst gar nichts.

Bis ATI den R650 liefern kann, hat Nvidia den Fertigungsshrink auf 65nm ebenfalls durchgeführt. Das ihr Design die wohl bessere Ausgangsbasis haben dürfte ist nach den Benchies der XT ja wohl sonnenklar.

Gast
2007-05-14, 21:06:59
Aha. In den "praxistauglichen" Settings von 2560x1600 4xAA/16xAF, oder wie?

Je stärker du die Last auf die Grafikkarte verlagerst, desto besser kann du die Performanceunteschiede zwischen den Karten zeigen.

Würdest du in geringen Auflösungen testen, so könnte es sein, das zwischen Ultra und Mainstream nur wenige Prozente liegen. Das ist ja aber nicht Sinn der Sache und stimmen tuts auch nicht.

Dazu kommt, das die Treiberentwickler nur ein Ziel nach dem anderen abarbeiten. Ich gehe davon aus, das man sich erst um Bugfixing der bekanntesten Anwendungen und danach um die Performance in den meistgenutzten Auflösungen kümmert.

Das optimieren ist umso schwerer, wenn man in den gängigen Auflösungen noch ein paar mehr frames rauquetschen will als die Konkurrenz - denn jeder betreibt diesen Aufwand.

Das die Karte super funktioniert, zeigen die kaum getesteten hohen Auflösungen oder Qualitätsmodi. Sie könnte dort nicht vorne liegen, wenn sie ein Problem hätte, somit ists eindeutig eine Treibersache.

HOT
2007-05-14, 21:09:01
hat eigentlich schoneinmal jemand erwähnt, dass die 2900XT nur 512MB RAM hat? :rolleyes:
na das ist ja tragisch ^^

up¦²
2007-05-14, 21:13:40
Hm, Quelle büdde?

sorry, alles noch unausgegohren...
in einem NL-forum, zu kompliziert und zeitraubend zu übersetzen. Obendrein kommt der ganze Wulst doch um 3 Ecken aus dem B3DF und wieder zurück,
ich bin nur interessierter Laie, kein Chipbäcker oder Treiberstricker...
Ati wird sich besinnen müssen, offensichtlich hat die Zeit nicht gereicht, alles umzumodeln und das dürfde auch riskant sein, wir werden es ja bald sehn: klang vielversprechend und die Computerbase-Experimente zeigen ja überdeutlich Fortschritte.
Bissel frech ist es schon von AMD, denn scheinbar hat nicht alles gepaßt seit der Fusion, oder? :tongue:

Blackpitty
2007-05-14, 21:13:59
na das ist ja tragisch ^^

ich kann mich nur noch beim G80 Release erinnern, wie alle ATI Leute laberten, dass die 8800GTX "nur" 768mb DDR3 Speicher hat, und die ATI DDR4 haben wird.

Da bringt der vorhandene 512MB DDR3 ein leichtes Grinsen auf mein Gesicht

Gast
2007-05-14, 21:17:11
Und wann soll die XTX kommen?

AMD würde sagen: "Wenn sie fertig ist." ;)

Eigentlich recht bald, aber ich könnte mir durchaus vorstellen, das man sie gar nicht mehr bringt und direkt zum R650 über geht.

Möglich wäre so eine Karte auf jeden Fall, der GDDR4 Speicher sollte nicht mehr Strom verbrauchen und so lange man die Spannungen der GPU nicht ändert, wird der Verbrauch nur wenig ansteigen.

Bis ATI den R650 liefern kann, hat Nvidia den Fertigungsshrink auf 65nm ebenfalls durchgeführt. Das ihr Design die wohl bessere Ausgangsbasis haben dürfte ist nach den Benchies der XT ja wohl sonnenklar.

So klar ist das leider nicht. Wie ich zuvor erwähnte, die X1950Pro in 80nm war auch eine Enttäuschung. Von zusätzliches Taktpotential oder geringerem Verbrauch nix zu sehen.

Das könnte aber auch daran gelegen, das der Prozess noch nicht reif ist für die Highendlösungen, es braucht immer seine Zeit, bis man die Ausbeute im Griff hat und wie es mit den Leckströmen aussieht ... ?

NVIDIA hat die Ultra auch nicht in 80nm gebracht, das ist bezeichend. Scheinbar brauchts noch seine Zeit...

Gast
2007-05-14, 21:17:35
*Zum letzten mal...* (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5493716&postcount=57)

Text bitte lesen, nachdenken und VERSTEHEN. Die GTS verspeist die XT zum Frühstück, und das schon in 1280x1024

Guter Witz, eher das Umgekehrte ist der Fall!

Schrotti
2007-05-14, 21:19:52
Guter Witz, eher das Umgekehrte ist der Fall!

Kann der Gast das auch belegen?

Gast
2007-05-14, 21:27:57
Kann der Gast das auch belegen?

Ja, denn das Rating bezieht sich auf den alten Treiber.

Coda
2007-05-14, 21:29:05
Ist denn EATM äquivalent zu TSSAA oder "cheatet" ATi hier wirklich?
Es ist verbessertes Alpha-To-Coverage. Ja ATI "cheatet" damit.

Mr. Lolman
2007-05-14, 21:32:16
Es ist verbessertes Alpha-To-Coverage. Ja ATI "cheatet" damit.

Hm. Ist zwar Korinthenkackerei, aber wo steht, dass AAA mit Supersampling zu geschehen hat?

HOT
2007-05-14, 21:37:17
Hm. Ist zwar Korinthenkackerei, aber wo steht, dass AAA mit Supersampling zu geschehen hat?
Genau das ist das was mich hier so aufregt. Wenn ATI es schafft, das kompatibel hinzukriegen, ist es eindeutig die effizientere Alternative - und sieht nach ATI Implementation auchnoch super aus (jedenfalls bisher), also who cares, wie das Ergebnis zustande kommt? Hauptsache es stimmt. Als damals die Grafikchiphersteller von Supersampling auf das optisch schlechtere Multisampling umgestiegen sind mit der Geforce3 hat im übrigen auch kein Mensch gemeckert. Die zukunft des Transparenz AA liegt wegen der ineffizienz wohl kaum beim Supersampling.

Gast
2007-05-14, 21:39:28
ich kann mich nur noch beim G80 Release erinnern, wie alle ATI Leute laberten, dass die 8800GTX "nur" 768mb DDR3 Speicher hat, und die ATI DDR4 haben wird.

Da bringt der vorhandene 512MB DDR3 ein leichtes Grinsen auf mein Gesicht

Man, du bist ein uninormieter Basher, die XT sollte nie mehr als 512MB Ram bekommen. Erst mit der XTX wird ATi 1GB GDDR4 bieten.

Man man, Blackpitty, du nervst mit deinem Gebashe!

Gast
2007-05-14, 21:40:44
Genau das ist das was mich hier so aufregt. Wenn ATI es schafft, das kompatibel hinzukriegen, ist es eindeutig die effizientere Alternative - und sieht nach ATI Implementation auchnoch super aus.

Ist doch immer so, ATi konnte schon immer besser tricksen als Nvidia. Erinnert euch an NV40 vs R420, der NV40 flimmerte trotz ausgeschalteten Optimierungen mehr als der R420 mit AI.

Coda
2007-05-14, 21:41:20
Hm. Ist zwar Korinthenkackerei, aber wo steht, dass AAA mit Supersampling zu geschehen hat?
Nirgends, aber die Resultate von EATM sind trotzdem nicht besser. Es sei denn du willst ein subjektiv "verbessertes" Bild. Genauso wie für manche anscheinend das Blur-AA "besser" aussieht.

Das die Blätter größer werden in Oblivion ist z.B. keineswegs so gewollt, sonst würde es mit AAA auch so aussehen (AA ist eine Approximation des optimalen Flächenintegrals der Pixelfarbe). Tut es aber nicht.

Ich kann keinem nehmen dass er irgendwelche komischen Smartshader/Blur-AA oder EATM gut findet, aber es ist einfach nicht mehr das Bild was im Content vorgesehen war. Und imho ist es genau die Aufgabe der GPU das Bild so darzustellen wie es die Artists vorgesehen haben und das zwar optimal und ohne Verfälschungen.

HOT
2007-05-14, 21:41:25
Kann der Gast das auch belegen?
Guck dir das Guru3D Review mit dem neuen Treiber an. Da misst sich die 2900XT eher mit der GTX. Und das ohne Transparenz-AA.

sulak
2007-05-14, 21:43:03
Naja solange der Treiber fürn Lokus ist kann man nicht wirklich was zur Performance sagen. Ich schätze, und das hat sich in den leaks ja auch schon lange vorher gezeigt, das die XT genau zwischen GTS und GTX liegen wird.

Ok sagen wir im July wenn der Treiber aufhört zu spinnen, denn was Gouvernator mit seiner Karte da im Thread nebenan kämpft is nich so prall.

Cheaten hin oder her, am Ende zählt die Bildqualität. Wieder muss erstmal der Catalyst richtig funktionieren damit wir mal 16xQ vs xxAA vergleichen können (wenn da jemals was fast gleiches kommt, und Transparency AA lass ich mal drausen, das blickt keine Sau atm). Die AF Vergleiche, naja mal Hü mal Hot, liegt wohl im Auge des Betrachters was da jetzt besser ist, selbst bei 4xAA hat man sich ja schon die Köppe eingeschlagen weil man hier mal da was gesehen haben will. Hauptsache keine Winkel und keine BUGWelle mehr :up:

Bei den Reviews werden halt immer die Blockbuster gebencht aber abseits der FPS Strecke liest man ja das reinste Chaos von den "early Adaptors".

Vieleicht sitzt auch das Problem teilweise vorm Monitor, was aber auch nur am Treiber wieder liegen kann, Ironie irgendwie... Deswegen kommen wohl die Mainstream GPUs erst wenn das richtig lüppt.

Hat jemand ein Review wo auch das CP mal angesprochen wird, funktioniert wenigstens der 2 TFT Betrieb mit unterschiedlichen Auflösungen einwandfrei? Geht vieleicht sogar Skalierung eines TFT mit festen Seitenverhältnissen über die Grafikkarte (da warte ich mit meiner GTS schon länger drauf...)?

Heimatloser
2007-05-14, 22:01:24
Mhh - irgendwie sind die Diskussionen bei jeder Graka Generation die Gleichen.

Ich kann aber auch verstehen, daß viele jetzt sauer sind aufs falsch Pferd gesetzt zu haben wo die Ati nun draußen ist und so gut abgeht.

Eines ist ja wohl mal klar:

Die Ati macht echt jede Intel Grafik voll platt ! :biggrin:

DerHeimatlose

aevil
2007-05-14, 22:01:30
Ich hoffe schon das Ati noch nachlegt. Würde mir zwar keine kaufen, aber Konkurrenz belebt das Geschäft =)

Gast
2007-05-14, 22:10:48
Unabhängig von jeder Treiberdiskussion finde ich die 2900xt einfach maßlos enttäuschend. Dabei zeigt gerade der Energie-Effizienz-Vergleich noch größere Lücken zwischen Nvidia und AMD, als zuvor bereits mit der x1900xtx, welche zwar mehr Strom verbraucht hat, als der g70, aber dafür mit deutlich besserer BQ und z.T. besserer Performance daher kam.
Gerade in Zeiten eines neuen Energie-Verbrauchs-Bewusstsein ist solch ein Produkt schlicht und ergreifend unangebracht, zumindest in Europa, speziell in Deutschland (die Amis denken da sicher noch etwas anders drüber). Mehr Verbrauch bei weniger Leistung, für Automobil wäre das doch gerade bei den Sprittpreisen schon der Tod (vom Charisma und Prestigewertes eines Autos mal abgesehen).
Unbegreiflich für mich ist, dass ATI für ein schlechteres Produkt länger braucht. Und das Argument, dass Nvidia den 80mm Schritt noch vor sich hat, zieht angesichts der Tatsache, dass man auf Grund geringer Konkurrenz (jeder mit HighEnd-Ambitionen, der klar bei Verstand ist, holt sich den G80, sorry, aber so siehts für mich aus) im prestige-trächtigen HighEnd-Bereich genug Zeit hat, nachzuziehen, auch nicht wirklich.

HOT
2007-05-14, 22:18:41
Mhh - irgendwie sind die Diskussionen bei jeder Graka Generation die Gleichen.

Ich kann aber auch verstehen, daß viele jetzt sauer sind aufs falsch Pferd gesetzt zu haben wo die Ati nun draußen ist und so gut abgeht.

Eines ist ja wohl mal klar:

Die Ati macht echt jede Intel Grafik voll platt ! :biggrin:

DerHeimatlose
So ein dämliches Posting, sorry...
Es geht nicht darum, dass hier irgendwer irgendwas plattmacht, aber es geht sehr wohl darum, ab wann man was wirklich beurteilen kann und ob nicht Innovationen vorhanden sind, die doch entscheidend sind.

Gast
2007-05-14, 22:53:53
Das war nicht dämlicher als die ATI vs. NV Kommentare hier.

tombman
2007-05-14, 23:10:42
Ich will sehen wie ATI 50% in 6 Monaten aufholen will ;)

http://img341.imageshack.us/img341/3816/schwacccchhhwe1.jpg (http://imageshack.us)

Das Ding ist für heutige games für einen GTX verwöhnten user einfach nur zu schwach.

Und was Crossfire angeht --> Muahaha.

p.s. interessiert mich nicht, habe meine Entscheidung schon getroffen.

Gast
2007-05-14, 23:15:44
Das Performance Rating bezieht sich auf ältere Treiber du Nase!

Das ist nicht mehr aktuell!

Coda
2007-05-14, 23:18:24
Dann sind's halt 30%. Auch unrealistisch.

Gast
2007-05-14, 23:19:45
Ja aber die XT soll ja eine GTX auch gar nicht "gefährden". Sie ist und bleibt zwischen GTS und GTX, da wo sie hingehört!

Grey
2007-05-14, 23:37:44
Ich will sehen wie ATI 50% in 6 Monaten aufholen will ;)

Das hab ich mich allerdings auch gefragt als es hieß "Mal Treiber abwarten ..."

Ich bin enttäuscht, hatte gehofft wieder auf ATI umsteigen zu können (die haben seit der 9xxx Serie einfach meine sympathie erobert :D ) aber das hier geht ja gar nicht, zumindest diese Karte nicht.

Dann wirds wohl doch wieder nvidia bei mir, schade :(

Gast
2007-05-14, 23:39:35
ATi wird nicht kampflos untegehen, jetzt sind sie nach 5 Jahren eben nur mal Zweiter.

ATi wird zurückschlagen und wir müssen es auch alle hoffen, denn sonst kann NVidia machen was sie wollen :(

Schrotti
2007-05-14, 23:45:40
ATi wird nicht kampflos untegehen, jetzt sind sie nach 5 Jahren eben nur mal Zweiter.

ATi wird zurückschlagen und wir müssen es auch alle hoffen, denn sonst kann NVidia machen was sie wollen :(

Ich hatte mal eine Geforce 5900Ultra und bin auf eine Radeon 9700Pro später 9800Pro umgestiegen.
Diesen wow Effekt hatte ich mit dem R600 erwartet aber was ist?

Nun versucht man mittels schlechterer Grafikquali das ganze ein wenig abzufedern.

Einfach nur erbärmlich.

Die HD2900XT kostet auch noch mehr als eine 8800GTX 640MB und verballert zudem unmengen an Strom.

Na super und gute Nacht.

Gast
2007-05-14, 23:47:46
Ich will sehen wie ATI 50% in 6 Monaten aufholen will ;)

Was hat der Kommentar hier zu suchen? Falscher Thread!!

Ich will erstmal sehen, wie die GTX den Preisvorteil von knapp 30% aufholen will. :P

Langsam sollte doch dem letzten Hinterwäldler klar sein, das die XT gegen die GTS platziert ist und diese schon jetzt teilweise deutlich schlägt. Mit weiteren Verbesserungen am Treiber wird sie sich wie geplant zwischen den beiden Modellen platzieren können und die Mission ist erfüllt.

Keine Ahnung, was es daran nicht zu verstehen gibt. Manche sind wohl echt schwer von Begriff!

Gast
2007-05-14, 23:50:18
nein das was du da von dir gibst ist vollkommener mist und gehört hier nicht hin!

tombman
2007-05-14, 23:53:08
Was hat der Kommentar hier zu suchen? Falscher Thread!!

Ich will erstmal sehen, wie die GTX den Preisvorteil von knapp 30% aufholen will. :P

Langsam sollte doch dem letzten Hinterwäldler klar sein, das die XT gegen die GTS platziert ist und diese schon jetzt teilweise deutlich schlägt. Mit weiteren Verbesserungen am Treiber wird sie sich wie geplant zwischen den beiden Modellen platzieren können und die Mission ist erfüllt.

Keine Ahnung, was es daran nicht zu verstehen gibt. Manche sind wohl echt schwer von Begriff!

Süß, traut sich nur als Gast flamen :rolleyes:

Und im highend Bereich gibts neben der Nr1 keine weiteren Nummern.

Den Schmäh von AMD/ATI "wir wollen ja gar nicht gewinnen" können sie vielleicht unerfahrenen GÄSTEN oder Fanboys erzählen, aber nicht alten Hasen ;)

Wer damals das große Launchparty Video der R300 gesehen hat weiß wie die drauf sind; erinnerte an die "Blutorgie" Party bei Southpark mit Nvidia als Opferhäschen ;D

IMO haben sie versagt- enttäuscht bin ich aber ned, daher Punkt 3 angekreuzt.

Gast
2007-05-14, 23:56:30
Auf deine primitives Ausdrucksweise braucht wirklich niemand mehr eingehen.

Fakt ist, das als Konkurrent der 8800 Ultra eine mit 1 GB ausgestattete höher getaktete XTX Version antreten wird.

GanjaBob
2007-05-14, 23:58:01
..
Fakt ist, das als Konkurrent der 8800 Ultra eine mit 1 GB ausgestattete höher getaktete XTX Version antreten wird.
wann soll die kommen? mit den kleineren HD 2xxx im Juli?

Gast
2007-05-15, 00:04:32
Laut den Informationen des Xtremesystem-Forums soll die Variante mit 1024 Megabyte Speicher den Workstation-Markt bedienen, ähnlich zu Nvidias Quadro-Karten, die ebenfalls über mehr Speicher verfügen als ihre Geschwister für Heim-Anwender. [...]
http://www.pcgameshardware.de/?article_id=601342

eXodia
2007-05-15, 00:04:43
[x] Punkt 3

Bin nicht entäuscht, warum auch? Der R600 bietet genau das, was ihm ein paar Wochen zuvor zugesprochen wurde. Einer Performance zwischen GTS und GTX, was er auch sehr gut schafft. Die Kritik ist berechtigt, fällt imo aber viel zu stark aus, ist wie bei der 8600GT/S, sind auch keine schlechten Karten, werden aber zu schlecht dargestellt. Das Einzige was mich beim R600 wirklich richtig stört ist, wenn man sich die Bilder hier im Forum ansieht, dass geblurre, was einfach nur lächerlich ist, wirkt sehr wie "in der letzten Minute" noch zusammengeschustert, hauptsache man hat was. Ansonsten find ich die 2900 nicht schlecht, für einen akzeptablen Preis, durchaus interessant.

@ Treiberargument: Ich finde es lächerlich, dass man bei einer Graka die _7_ Monate nach der Konkurrenz kam noch so "rumfrickeln" muss. Und das dem geneigten Käufer auch noch zugemutet wird "ja, wart' mal noch einen Monat, dann gibt's den nächsten Treiber, etc." find ich eher traurig, als argumentativ.

Regards

Gast
2007-05-15, 00:06:48
wann soll die kommen? mit den kleineren HD 2xxx im Juli?

Der genaue Termin ist noch unbekannt, sie wurde bisher schon mehrmals verschoben, daher spekuliere ich nicht und warte lieber ab, was AMD zu vermelden hat.

Sie soll auf jeden Fall mit 1 GB GDDR4 daher kommen (ca. 1100 MHz) und auch mit einem höherem Chiptakt - vielleicht werden noch Änderungen daran vorgenommen, man wird es sehen.

Zusammen mit einem in dieser Zeit weiterentwickelten Treiber sehe ich nicht ganz so schwarz, wie einige andere hier.

Mr. Lolman
2007-05-15, 00:09:19
In manchen theoretischen DX10-Benchmarks schaut der R600 ja richtig fein aus: http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm

Coda
2007-05-15, 00:09:46
Das hat aber nichts mit D3D10 zu tun. Die ALU-Leistungen sind unter D3D9 praktisch identisch.

Und wie man hier sieht, sieht es in Durchschnittsshadern eben so aus: http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/shadermark-indiv.gif

Von den Extremfällen kann man nichts ableiten.

Nazar
2007-05-15, 00:10:01
Süß, traut sich nur als Gast flamen :rolleyes:

Und im highend Bereich gibts neben der Nr1 keine weiteren Nummern.

Den Schmäh von AMD/ATI "wir wollen ja gar nicht gewinnen" können sie vielleicht unerfahrenen GÄSTEN oder Fanboys erzählen, aber nicht alten Hasen ;)

Wer damals das große Launchparty Video der R300 gesehen hat weiß wie die drauf sind; erinnerte an die "Blutorgie" Party bei Southpark mit Nvidia als Opferhäschen ;D

IMO haben sie versagt- enttäuscht bin ich aber ned, daher Punkt 3 angekreuzt.

Auch wenn ich Gastpostings hasse aber er hat Recht!
Du flamest ohne Sinn und Verstand!
Wenn dich dann jemand darauf hinweist, wirst du kindisch!

Ich verstehe auch nicht weshalb hier so viele entäuscht sind und wie kleine Kinder mit den Füßen aufstampfen und den Weltuntergang herbeirufen.

ATI hat Probleme und?
Ich weiss noch bei der 7800/7900 Serie genau die die jetzt auf ATI rumhacken, die extrem miese BQ gut geredet haben.
Anstatt daraus zu lernen und mal den Ball flach zu halten, labert ihr nur dummes Zeug.
Einigen würde es wirklich gut zu Gesicht stehen, dafür einen Gast Account anzulegen.
Ihr seid wirklich peinlich!

boxleitnerb
2007-05-15, 00:14:15
zu eXodia: Full Ack!

Wenn man mal alle Neigungen für oder gegen eines der beiden Unternehmen weglässt und rein als potentieller Käufter entscheidet, dann muss man sich schon am Kopf kratzen.
Ich kauf ja auch kein Auto, an dem ein Schild ist "Läuft noch net so toll, muss evtl. wiederholt in die Werkstatt". Wenn ich die Wahl habe und mir etwas holen kann, was (grösstenteils) läuft, dann ist es mir scheissegal, wer weshalb welche Probleme hatte mit Treibern und ob Nvidia länger Zeit hatte oder ob es bei denen anfangs ebenso war. Ich als Kunde habe die Wahl, ergo die Macht.
Bei der 8800GTX war die Sache völlig anders. Es mag auch an den Treibern gehakt haben...aaaaber da gab es auch keine Konkurrenz (wenn man von den gesenkten Preisen absieht)!
Wenn ich heute kaufen müsste, ich würde mich wieder für die GTX entscheiden, denn ich kaufe keine unfertigen Produkte, wenn mich keiner dazu zwingt (weil nix anderes da ist, ich die Leistung aber will).

Und falls mir jetzt jemand mit dem günstigeren Preis ggü. der GTX kommt...das sind 100 Euro, ca. 25% mehr als bei der Radeon. Und wo kriegt man im High-End Segment schon mindestens (!) die gleiche Prozentzahl in Leistung umgesetzt - und das hier und jetzt, nicht in einem halben Jahr, wenn AMD/ATIs Treiberabteilung mal ihren Arsch hochbekommen hat.

deekey777
2007-05-15, 00:25:15
Wenn hier weitere Anfeidungen gegenüber Gästen auftauchen, gibt's Rot.

tombman
2007-05-15, 00:34:08
Auch wenn ich Gastpostings hasse aber er hat Recht!
Du flamest ohne Sinn und Verstand!
Hardware kann man nicht flamen. wie oft noch? :rolleyes:

Ich habe nur Fakten aufgezeigt- wie von CB geliefert.

Wenn dich dann jemand darauf hinweist, wirst du kindisch!
Siehst, DAS war ein flame- habe ich angezeigt.

Ich verstehe auch nicht weshalb hier so viele entäuscht sind und wie kleine Kinder mit den Füßen aufstampfen und den Weltuntergang herbeirufen.
Und schon wieder ein flame. Diesmal sprichst du allen Enttäuschten ihre Reife ab, also ein Generalflame.
.. labert ihr nur dummes Zeug.
Generalflame.

Ihr seid wirklich peinlich!
Und wieder ein Generalflame.

Aber dir passiert wahrscheinlich eh nix, hast ja Protektion von hoher Stelle...

Mancko
2007-05-15, 01:26:01
Also ich bin mehr als nur enttäuscht. So wird Nvidia leider überhaupt nicht richtig unter Druck gesetzt. Die können schalten und walten wie sie wollen bis zur nächsten grossen Runde R700 vs G90 bzw. G100.

Der Launch ist in meinen Augen voll in die Hose gegangen aus diversen Gründen:

1) AMD/ATI haben nicht den Anspruch als 2ter ins Rennen zu gehen. Der Plan war wie bei der Konkurenz halt auch den Gegner zu übertrumpfen. Leider hat man wie Nvidia damals beim NV30 sich verkalkuliert und die Schwerpunkte im Design auf Dinge gesetzt, die zu Lebzeiten der Karte so gut wie keine Rolle spielen. Die dort verwendeten Transistoren mussten an anderer Stelle gespart werden. ATI hat sich gedacht das wird trozdem in Ordnung gehen, weil sie wohl davon ausgegangen sind, dass Nvidia noch irgendeinen CineFX Abkömmling vorstellt. Weit gefehlt und ihnen ist genau das passiert, was Nvidia damals mit dem NV30 auch passiert ist. Sie wurden von der Bildqualität und der Performance des Konkurenten voll überrascht. Also konnte man nicht launchen und musste nachbessern. Da ein komplettes Redesign nicht zu schaffen ist in der kurzen Zeit musste die Taktkeule her. Leider wie auch damals bei Nvidia kann diese niemals große Schwächen im Design ausgleichen. Irgendwann ist der Punkt erreicht, wo das Produkt einfach ineffizient wird und das resultiert in hohem Stromverbrauch und aufwendiger Kühlung. Als gar nichts anderes mehr ging hat man sich entschlossen das Produkt im Preis zu senken und nur die XT zu bringen, da die geplante XTX weder die GTX noch die Ultra geschafft hätte ohne völlig wahnwitzigen Aufwand. Jetzt versucht man per PR die Enthusiasten zu vertrösten.

2) Man hat keine Gelegenheit ausgelassen den G80 zu bashen und auf Nvidia's Treiberprobleme hinzuweisen. Ich glaube ATI/AMD hätten sich einen großen Gefallen getan darauf lieber nicht einzugehen. Aufgrund der aktuellen Probleme mit ihrer eigenen Hardware wirkt das nur noch lächerlich.

3) Ständig die Vertrösterei. Wartet bald kommt unser Produkt. Permanent wurde es verschoben und jetzt kommt nur eine Performance aber keine Enthusiastenkarte, die auch noch ihre Probleme mit der stark beschnittenen GTS 640 MB hat. Da frage ich mich wie lange der User hier eigentlich warten soll? Fakt ist wer sich einen G80 gekauft hat, hat alles richtig gemacht und braucht nichts zu bereuuen. Wer auf ATI gehofft und sich von den vollmundigen PR Aussagen hat blenden lassen ist jetzt der Depp. So muss man das mal ganz deutlich sagen. Immerhin kann man sich ja jetzt immer noch für eine G80 GPU zu besseren Preisen entscheiden, wobei man schon festhalten muss, dass die Lebenszeit in der aktuellen Produktpalette um 6 bis 7 Monate bereits kürzer ist, da die Karten halt schon so lange aufm Markt sind. Wer damals gleich gekauft hatte war und ist besser drann.

4) Wirtschaftlich gesehen ist der R600 eine Katastrophe. Sowohl AMD wie auch die Grafiksparte ATI schreiben derzeit seit 2 Quartalen rote Zahlen. Die Margen sind eh schon im Sinkflug. Mit dem R600 wird das nur noch schlimmer. Das Produkt ist technisch in der Herstellung viel zu aufwändig.
Hoher Takt und damit wohl keine gute Ausbeute, 512BIT Speicherinterface, aufwändige Kühlung usw., und dann auch noch schlechtere Performance als die Konkurenz und somit der Zwang preismäßig im Performance Segment konkurieren zu müssen, sind ein riesen Problem.
Man muss hierbei bedenken, dass Nvidia seit 6 Monaten ungestört zu saftigen Preisen verkaufen konnte. Die Quartalszahlen von Nvidia belegen, dass sie gute Geschäfte machen konnten. Jetzt können sie es sich leisten ATI/AMD mit Preissenkungen unter Druck zu setzen, denn ihre Margen bleiben aufgrund der GTX und Ultra stabil. ATI dagegen hat oben nichts anzubieten und kann den rapiden Preisverfall der XT nicht abfedern. Das wird ein richtiges Blutbad in den Bilanzen geben soviel ist mal sicher. Das gleiche hatte Nvidia damals mit dem NV30 erlebt. Nie waren die Margen so schlecht wie damals.

5) Lautstärke und Stromverbrauch.... Ich denke da muss man nicht weiter drauf eingehen. Die Reviewer haben hier ATI schon genug auseinander genommen. Das ist einfach nur peinlich. Der Stromverbrauch bei Nvidia's G80 ist auch nicht das gelbe vom Ei. Hier muss man aber festhalten, dass es diesen seit November gibt und dieser auch auf der ganzen Linie in Bildqualität und Performance Maßstäbe gesetzt hat und diese auch nach dem Launch der XT von AMD/ATI noch setzt. Insofern disqualifiziert sich ATI/AMD's Produkt in diesem Punkt von selbst aufgrund der mehr als schwachen Performance und der nicht erreichten Bildqualität des G80.


Fazit:

Insgesamt ist das ein richtiger Reinfall. Schlimmer hätte es eigentlich für ATI/AMD kaum kommen können. Da kann man nur hoffen, dass dies für AMD nicht der Anlass ist sich komplett aus dem Enthusiastenbereich zurückzuziehen und das Feld Nvidia zu überlassen. Trozdem kann das für einen potentiellen Kunden heute kein Argument sein. Da schaut jeder, dass er für sein Geld das meisste und beste bekommt und da ist er momentan in Preisklassen oberhalb 230 Euro(also ab GTS 320MB) definitiv bei Nvidia besser aufgehoben. Ich denke das kann man ruhigen Gewissens so festhalten. Da werden auch zukünftige Treiber nicht mehr alles kitten können. Der G80 hat sich etabliert und die Preise fallen. Das macht die XT nur noch unattraktiver. Ich wüsste jetzt auch nicht irgendein super relevantes Alleinstellungsmerkmal des R600, dass für den End-User von signifikanter Relevanz ist. 3DMark und irgendwelche tollen Geometry Shader Ergebnisse sind nichts, was dem End-User beim Spielen weiter bringt.

Schrotti
2007-05-15, 01:34:24
Also ich bin mehr als nur enttäuscht. So wird Nvidia leider überhaupt nicht richtig unter Druck gesetzt. Die können schalten und walten wie sie wollen bis zur nächsten grossen Runde R700 vs G90 bzw. G100.

Der Launch ist in meinen Augen voll in die Hose gegangen aus diversen Gründen:

1) AMD/ATI haben nicht den Anspruch als 2ter ins Rennen zu gehen. Der Plan war wie bei der Konkurenz halt auch den Gegner zu übertrumpfen. Leider hat man wie Nvidia damals beim NV30 sich verkalkuliert und die Schwerpunkte im Design auf Dinge gesetzt, die zu Lebzeiten der Karte so gut wie keine Rolle spielen. Die dort verwendeten Transistoren mussten an anderer Stelle gespart werden. ATI hat sich gedacht das wird trozdem in Ordnung gehen, weil sie wohl davon ausgegangen sind, dass Nvidia noch irgendeinen CineFX Abkömmling vorstellt. Weit gefehlt und ihnen ist genau das passiert, was Nvidia damals mit dem NV30 auch passiert ist. Sie wurden von der Bildqualität und der Performance des Konkurenten voll überrascht. Also konnte man nicht launchen und musste nachbessern. Da ein komplettes Redesign nicht zu schaffen ist in der kurzen Zeit musste die Taktkeule her. Leider wie auch damals bei Nvidia kann diese niemals große Schwächen im Design ausgleichen. Irgendwann ist der Punkt erreicht, wo das Produkt einfach ineffizient wird und das resultiert in hohem Stromverbrauch und aufwendiger Kühlung. Als gar nichts anderes mehr ging hat man sich entschlossen das Produkt im Preis zu senken und nur die XT zu bringen, da die geplante XTX weder die GTX noch die Ultra geschafft hätte ohne völlig wahnwitzigen Aufwand. Jetzt versucht man per PR die Enthusiasten zu vertrösten.

2) Man hat keine Gelegenheit ausgelassen den G80 zu bashen und auf Nvidia's Treiberprobleme hinzuweisen. Ich glaube ATI/AMD hätten sich einen großen Gefallen getan darauf lieber nicht einzugehen. Aufgrund der aktuellen Probleme mit ihrer eigenen Hardware wirkt das nur noch lächerlich.

3) Ständig die Vertrösterei. Wartet bald kommt unser Produkt. Permanent wurde es verschoben und jetzt kommt nur eine Performance aber keine Enthusiastenkarte, die auch noch ihre Probleme mit der stark beschnittenen GTS 640 MB hat. Da frage ich mich wie lange der User hier eigentlich warten soll? Fakt ist wer sich einen G80 gekauft hat, hat alles richtig gemacht und braucht nichts zu bereuuen. Wer auf ATI gehofft und sich von den vollmundigen PR Aussagen hat blenden lassen ist jetzt der Depp. So muss man das mal ganz deutlich sagen. Immerhin kann man sich ja jetzt immer noch für eine G80 GPU zu besseren Preisen entscheiden, wobei man schon festhalten muss, dass die Lebenszeit in der aktuellen Produktpalette um 6 bis 7 Monate bereits kürzer ist, da die Karten halt schon so lange aufm Markt sind. Wer damals gleich gekauft hatte war und ist besser drann.

4) Wirtschaftlich gesehen ist der R600 eine Katastrophe. Sowohl AMD wie auch die Grafiksparte ATI schreiben derzeit seit 2 Quartalen rote Zahlen. Die Margen sind eh schon im Sinkflug. Mit dem R600 wird das nur noch schlimmer. Das Produkt ist technisch in der Herstellung viel zu aufwändig.
Hoher Takt und damit wohl keine gute Ausbeute, 512BIT Speicherinterface, aufwändige Kühlung usw., und dann auch noch schlechtere Performance als die Konkurenz und somit der Zwang preismäßig im Performance Segment konkurieren zu müssen, sind ein riesen Problem.
Man muss hierbei bedenken, dass Nvidia seit 6 Monaten ungestört zu saftigen Preisen verkaufen konnte. Die Quartalszahlen von Nvidia belegen, dass sie gute Geschäfte machen konnten. Jetzt können sie es sich leisten ATI/AMD mit Preissenkungen unter Druck zu setzen, denn ihre Margen bleiben aufgrund der GTX und Ultra stabil. ATI dagegen hat oben nichts anzubieten und kann den rapiden Preisverfall der XT nicht abfedern. Das wird ein richtiges Blutbad in den Bilanzen geben soviel ist mal sicher. Das gleiche hatte Nvidia damals mit dem NV30 erlebt. Nie waren die Margen so schlecht wie damals.

5) Lautstärke und Stromverbrauch.... Ich denke da muss man nicht weiter drauf eingehen. Die Reviewer haben hier ATI schon genug auseinander genommen. Das ist einfach nur peinlich. Der Stromverbrauch bei Nvidia's G80 ist auch nicht das gelbe vom Ei. Hier muss man aber festhalten, dass es diesen seit November gibt und dieser auch auf der ganzen Linie in Bildqualität und Performance Maßstäbe gesetzt hat und diese auch nach dem Launch der XT von AMD/ATI noch setzt. Insofern disqualifiziert sich ATI/AMD's Produkt in diesem Punkt von selbst aufgrund der mehr als schwachen Performance und der nicht erreichten Bildqualität des G80.


Fazit:

Insgesamt ist das ein richtiger Reinfall. Schlimmer hätte es eigentlich für ATI/AMD kaum kommen können. Da kann man nur hoffen, dass dies für AMD nicht der Anlass ist sich komplett aus dem Enthusiastenbereich zurückzuziehen und das Feld Nvidia zu überlassen. Trozdem kann das für einen potentiellen Kunden heute kein Argument sein. Da schaut jeder, dass er für sein Geld das meisste und beste bekommt und da ist er momentan in Preisklassen oberhalb 230 Euro(also ab GTS 320MB) definitiv bei Nvidia besser aufgehoben. Ich denke das kann man ruhigen Gewissens so festhalten. Da werden auch zukünftige Treiber nicht mehr alles kitten können. Der G80 hat sich etabliert und die Preise fallen. Das macht die XT nur noch unattraktiver. Ich wüsste jetzt auch nicht irgendein super relevantes Alleinstellungsmerkmal des R600, dass für den End-User von signifikanter Relevanz ist. 3DMark und irgendwelche tollen Geometry Shader Ergebnisse sind nichts, was dem End-User beim Spielen weiter bringt.

Sehr sehr gut formuliert.

Dein Posting spiegelt genau meine Meinung wieder nur kann ich das leider nicht so gut beschreiben.

Radeonator
2007-05-15, 02:12:32
Also ich bin mehr als nur enttäuscht. So wird Nvidia leider überhaupt nicht richtig unter Druck gesetzt. Die können schalten und walten wie sie wollen bis zur nächsten grossen Runde R700 vs G90 bzw. G100.

Der Launch ist in meinen Augen voll in die Hose gegangen aus diversen Gründen:

1) AMD/ATI haben nicht den Anspruch als 2ter ins Rennen zu gehen. Der Plan war wie bei der Konkurenz halt auch den Gegner zu übertrumpfen. Leider hat man wie Nvidia damals beim NV30 sich verkalkuliert und die Schwerpunkte im Design auf Dinge gesetzt, die zu Lebzeiten der Karte so gut wie keine Rolle spielen. Die dort verwendeten Transistoren mussten an anderer Stelle gespart werden. ATI hat sich gedacht das wird trozdem in Ordnung gehen, weil sie wohl davon ausgegangen sind, dass Nvidia noch irgendeinen CineFX Abkömmling vorstellt. Weit gefehlt und ihnen ist genau das passiert, was Nvidia damals mit dem NV30 auch passiert ist. Sie wurden von der Bildqualität und der Performance des Konkurenten voll überrascht. Also konnte man nicht launchen und musste nachbessern. Da ein komplettes Redesign nicht zu schaffen ist in der kurzen Zeit musste die Taktkeule her. Leider wie auch damals bei Nvidia kann diese niemals große Schwächen im Design ausgleichen. Irgendwann ist der Punkt erreicht, wo das Produkt einfach ineffizient wird und das resultiert in hohem Stromverbrauch und aufwendiger Kühlung. Als gar nichts anderes mehr ging hat man sich entschlossen das Produkt im Preis zu senken und nur die XT zu bringen, da die geplante XTX weder die GTX noch die Ultra geschafft hätte ohne völlig wahnwitzigen Aufwand. Jetzt versucht man per PR die Enthusiasten zu vertrösten.

2) Man hat keine Gelegenheit ausgelassen den G80 zu bashen und auf Nvidia's Treiberprobleme hinzuweisen. Ich glaube ATI/AMD hätten sich einen großen Gefallen getan darauf lieber nicht einzugehen. Aufgrund der aktuellen Probleme mit ihrer eigenen Hardware wirkt das nur noch lächerlich.

3) Ständig die Vertrösterei. Wartet bald kommt unser Produkt. Permanent wurde es verschoben und jetzt kommt nur eine Performance aber keine Enthusiastenkarte, die auch noch ihre Probleme mit der stark beschnittenen GTS 640 MB hat. Da frage ich mich wie lange der User hier eigentlich warten soll? Fakt ist wer sich einen G80 gekauft hat, hat alles richtig gemacht und braucht nichts zu bereuuen. Wer auf ATI gehofft und sich von den vollmundigen PR Aussagen hat blenden lassen ist jetzt der Depp. So muss man das mal ganz deutlich sagen. Immerhin kann man sich ja jetzt immer noch für eine G80 GPU zu besseren Preisen entscheiden, wobei man schon festhalten muss, dass die Lebenszeit in der aktuellen Produktpalette um 6 bis 7 Monate bereits kürzer ist, da die Karten halt schon so lange aufm Markt sind. Wer damals gleich gekauft hatte war und ist besser drann.

4) Wirtschaftlich gesehen ist der R600 eine Katastrophe. Sowohl AMD wie auch die Grafiksparte ATI schreiben derzeit seit 2 Quartalen rote Zahlen. Die Margen sind eh schon im Sinkflug. Mit dem R600 wird das nur noch schlimmer. Das Produkt ist technisch in der Herstellung viel zu aufwändig.
Hoher Takt und damit wohl keine gute Ausbeute, 512BIT Speicherinterface, aufwändige Kühlung usw., und dann auch noch schlechtere Performance als die Konkurenz und somit der Zwang preismäßig im Performance Segment konkurieren zu müssen, sind ein riesen Problem.
Man muss hierbei bedenken, dass Nvidia seit 6 Monaten ungestört zu saftigen Preisen verkaufen konnte. Die Quartalszahlen von Nvidia belegen, dass sie gute Geschäfte machen konnten. Jetzt können sie es sich leisten ATI/AMD mit Preissenkungen unter Druck zu setzen, denn ihre Margen bleiben aufgrund der GTX und Ultra stabil. ATI dagegen hat oben nichts anzubieten und kann den rapiden Preisverfall der XT nicht abfedern. Das wird ein richtiges Blutbad in den Bilanzen geben soviel ist mal sicher. Das gleiche hatte Nvidia damals mit dem NV30 erlebt. Nie waren die Margen so schlecht wie damals.

5) Lautstärke und Stromverbrauch.... Ich denke da muss man nicht weiter drauf eingehen. Die Reviewer haben hier ATI schon genug auseinander genommen. Das ist einfach nur peinlich. Der Stromverbrauch bei Nvidia's G80 ist auch nicht das gelbe vom Ei. Hier muss man aber festhalten, dass es diesen seit November gibt und dieser auch auf der ganzen Linie in Bildqualität und Performance Maßstäbe gesetzt hat und diese auch nach dem Launch der XT von AMD/ATI noch setzt. Insofern disqualifiziert sich ATI/AMD's Produkt in diesem Punkt von selbst aufgrund der mehr als schwachen Performance und der nicht erreichten Bildqualität des G80.


Fazit:

Insgesamt ist das ein richtiger Reinfall. Schlimmer hätte es eigentlich für ATI/AMD kaum kommen können. Da kann man nur hoffen, dass dies für AMD nicht der Anlass ist sich komplett aus dem Enthusiastenbereich zurückzuziehen und das Feld Nvidia zu überlassen. Trozdem kann das für einen potentiellen Kunden heute kein Argument sein. Da schaut jeder, dass er für sein Geld das meisste und beste bekommt und da ist er momentan in Preisklassen oberhalb 230 Euro(also ab GTS 320MB) definitiv bei Nvidia besser aufgehoben. Ich denke das kann man ruhigen Gewissens so festhalten. Da werden auch zukünftige Treiber nicht mehr alles kitten können. Der G80 hat sich etabliert und die Preise fallen. Das macht die XT nur noch unattraktiver. Ich wüsste jetzt auch nicht irgendein super relevantes Alleinstellungsmerkmal des R600, dass für den End-User von signifikanter Relevanz ist. 3DMark und irgendwelche tollen Geometry Shader Ergebnisse sind nichts, was dem End-User beim Spielen weiter bringt.

Sehr, sehr gutes Posting und wirklich gut zusammengefaßt! :up:

Blutmaul
2007-05-15, 02:18:31
Ich bin neutral und kaufe mir die Karte nicht, aber es könnte Anlass zur Hoffnung geben?

Hier führt sie ja dann doch mal(Rainbow Six:Vegas und Marvell-Ultimate Alliance):
http://www.legitreviews.com/article/503/8/
http://www.legitreviews.com/article/503/11/

Mr. Lolman
2007-05-15, 02:34:51
Hier auch:

http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_4.gif

http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_12.gif

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=1

Gast
2007-05-15, 04:07:34
Soweit alles wie ich es erwartet habe. Das Ati den Launch immer wieder verschieben mußte deutete doch schon stark auf ein eher mittelmäßiges Produkt hin.

Halten wir doch mal einige Punkte fest:

1. Schlechtere BQ im Vergleich zum G80 sowohl beim AF als auch beim AA, denn wer steht hier schon auf unscharfe Texturen. Einzig das neue 8x MSAA kann punkten und ist fast auf Höhe mit dem 16x QCSAA vom G80. hier wünsche ich mir, daß man bei 3DCenter auch mal ein Video bzgl. des Blurreffektes zum Review hinzufügt, wie man es ja auch damals bei der Flimmerproblematik des G70 gemacht hat. Oder ist man zu pro ATI eingestellt?

2. Wer sich, das in meinen Augen objektivere, Review bei CB durchgelesen hat weiß, daß bei zugeschalteten AA&AF die HD2900XT hinter der 8800GTS liegt. Auch wenn durch einen neuen Treiber jetzt einige ausgewählte Spiele schneller sind.

3. Stromverbrauch und Lautstärke - hier brauche ich wohl nichts mehr zu schreiben.

4. Performance unter D3D10: Hier sollte auch ein Mr. Lolman mal bei CB die Benchmarks durchsehen: Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/31/#abschnitt_call_of_juarez_d3d10)

5. Das Wichtigste, der Preis: liegt immo bei ca. 380 Euro. Da bei Geizhals inzwischen die 8800GTS 640MB ab 263,49 gelistet ist, ist die HD2900XT eindeutig zu teuer.

Das einzige Positive was ich sehe ist der Preisverfall bei den 8800GTS Karten, der jetzt mit Erscheinen der HD2900XT einsetzt. Wenn ich nicht gerade einen 22 Zoll 16:10 TFT hier stehen hätte, würde ich mir die 8800GTS 320MB kaufen, diese bietet nämlich in der am meisten verwendeten Auflösung von 1280x1024 bis auf 1 oder 2 Ausnahmen die gleiche oder sogar bessere Leistung wie die 640MB Version.

seahawk
2007-05-15, 07:33:22
Das einzige Argument sich die 2900XT nicht zu kaufen, ist die hohe Wahrscheinlichkeit, dass es einen 2950 geben wird, wenn ATI den Treiber im Griff hat.

Im Vergleich zu den Angeboten von NV steht die Karte excellent da. Die Vaproware Ultra mal außer Acht gelassen ist sie mit minimalem Abstand die zweit schnellste Karte, für einen deutlich besseren Preis bei besserer BQ.

Gast
2007-05-15, 07:37:11
Das einzige Argument sich die 2900XT nicht zu kaufen, ist doe hohe Wahrscheinlichkeit, dass es einen 2950 gebenb wird, wenn ATI den Treibe im Griff hat.

I mVergleioch zu den Angeboten von NV steht die Karte excellent da. Die Vaproware Ultra mal außer auch gelassen ist sie mit minimalem Abstand die zweit schnellste Karte, für einen deutlich besseren Preis bei besserer BQ.
don't drink and post :rolleyes:

Gast
2007-05-15, 07:55:07
3) Ständig die Vertrösterei. Wartet bald kommt unser Produkt. Permanent wurde es verschoben und jetzt kommt nur eine Performance aber keine Enthusiastenkarte, die auch noch ihre Probleme mit der stark beschnittenen GTS 640 MB hat. Da frage ich mich wie lange der User hier eigentlich warten soll? Fakt ist wer sich einen G80 gekauft hat, hat alles richtig gemacht und braucht nichts zu bereuuen. Wer auf ATI gehofft und sich von den vollmundigen PR Aussagen hat blenden lassen ist jetzt der Depp. So muss man das mal ganz deutlich sagen. Immerhin kann man sich ja jetzt immer noch für eine G80 GPU zu besseren Preisen entscheiden, wobei man schon festhalten muss, dass die Lebenszeit in der aktuellen Produktpalette um 6 bis 7 Monate bereits kürzer ist, da die Karten halt schon so lange aufm Markt sind. Wer damals gleich gekauft hatte war und ist besser drann.


dieser Punkt ist jedenfalls falsch, wer "damals" gekauft hat, hatte für eine 8800 GTS ca. 500 Euro bezahlt, hatte über mehrere Monate hinweg miese Treiber und zu guter letzt und das wichtigste Argument: Es gab keine nennenswerten Spiele, die eine solche Leistung voraus setzten.

Gut gepokert hatten diejenigen, die sich eine 8800er GTS für 300 Euro gekauft haben. Ich selbst, früher mal High-End süchtig, würde nie wieder mehr als 200 Euro für ne Karte ausgeben.

Grestorn
2007-05-15, 08:06:51
Das einzige Argument sich die 2900XT nicht zu kaufen, ist die hohe Wahrscheinlichkeit, dass es einen 2950 geben wird, wenn ATI den Treiber im Griff hat.

Im Vergleich zu den Angeboten von NV steht die Karte excellent da. Die Vaproware Ultra mal außer Acht gelassen ist sie mit minimalem Abstand die zweit schnellste Karte, für einen deutlich besseren Preis bei besserer BQ.

Unfassbar. Moch mehr kann man die Realität kaum verleugnen. Man nimmt nur Behauptungen wahr, die einem ins Konzept passen, alle anderen Dinge werden vollständig ausgeblendet.

Gratuliere! Du hast das Posting des Tages geschrieben!

HAL
2007-05-15, 08:09:39
[...]
Insgesamt ist das ein richtiger Reinfall. Schlimmer hätte es eigentlich für ATI/AMD kaum kommen können. [...] da ist er momentan in Preisklassen oberhalb 230 Euro(also ab GTS 320MB) definitiv bei Nvidia besser aufgehoben. Ich denke das kann man ruhigen Gewissens so festhalten. Da werden auch zukünftige Treiber nicht mehr alles kitten können. Der G80 hat sich etabliert und die Preise fallen. Das macht die XT nur noch unattraktiver.
Sehe ich alles nicht so schwarz.

Die Karte ist sicher nicht das, was sich ATI erhofft hatte, bzw ist es offensichtlich das der G80 hier unterschätzt wurde. Und natürlich ist bezogen auf die Verspätung die Karte wahrlich keine Glanzleistung.
Die Lautstärke unter 3D ist nicht mehr zeitgemäß (aber vielen Anwendern anscheinend wurscht), der Stromverbrauch hoch (was ich aber als nicht tragisch sehe).
Aber objektiv betrachtet erhält man ein in Summe der GTS640 mindestens ebenbürtiges Stück Hardware, das sie in vielen Bereichen übertrumpft - teilweise sogar an die GTX heranreicht. Den aktuellen Preis einen Tag nach Launch sollte man nicht als Maßstab nehmen - Sofern die Karte auch preislich immer nahe an der GTS640 bleibt ist das Peis/Leistungsverhältnis IMHO voll OK und die Karte für den ein oder anderen durchaus einen Kauf wert.
Wenn man von der (nicht wirklich lieferbaren) Ultra absieht ist die 2900XT immerhin die zur Zeit zweitschnellste Karte!

Das Geld verdient wird mit den kleinen Karten und auf dem OEM-Markt. Der High-End Markt hat zwar eine Marketing- und Signalwirkung, aber ich würde hier jetzt nicht das Ende von ATI besingen. nVidia hat den nv30 auch überlebt - und der R600 ist IMHO ein gutes Stück von diesem entfernt.

Gast
2007-05-15, 08:28:25
Das einzige Argument sich die 2900XT nicht zu kaufen, ist die hohe Wahrscheinlichkeit, dass es einen 2950 geben wird, wenn ATI den Treiber im Griff hat.

Im Vergleich zu den Angeboten von NV steht die Karte excellent da. Die Vaproware Ultra mal außer Acht gelassen ist sie mit minimalem Abstand die zweit schnellste Karte, für einen deutlich besseren Preis bei besserer BQ.
Dann wäre es ein Argument nicht zukaufen sondern zu warten..ich als GTX User habe auf die Karte gewartet...leider umsonst.....und nein nicht weil sie Rot ist...auch nicht wegen der fehlenden Power,ist im mom vollkommen Wurst...die nächste Generation ist immer schneller und keiner hier spielt die kommenden Spiel mit den vorhandenen Karten mit allen Schnickchnack....auch die Treiber werden sie in den Griff bekommen....
Aber ich kaufe nicht ...
weil 1. die Wiedergabe verfälscht wird!DAS IST DER KO Punkt!
2.Matsch hab ich genug vor der Haustür auf dem Moni brauch ich das nicht.
Aber das muß jeder für sich selbst entscheiden.
ein Original Bild mit absoluter spitzenqualle>NV
ein verfälschtes Bild mit absolutermatschqualli>ATI
Dazu der Verbrauch..lautstärke sag ich nichts,das ist Ohrenabhängig :D und etwas lauter hat mich noch nie gestört...aber was soll den eine XTX verbraten..die Leute die hier die Karte gut finden haben die NV wegen ihrem Verbrauchs in der Luft zerrissen.....LÄCHERLICH..aber das sind die selben die aus noch so einer grottigen Hartware einen Überläufer machen..aber wir kennen sie ja...und nehmen sie schon lange nicht mehr für voll.
*4711*

seahawk
2007-05-15, 08:35:14
Dann wäre es ein Argument nicht zukaufen sondern zu warten..

Ich würde sie momentan uach nicht kaufen, oder zum Kauf raten. Einfach weil die Treiber noch zu unausgereift sind und man bei NV moemntan ein insgesamt problemloseres und preiswerteres Produkt in Form der 8800GTS bekommt.

Daredevil
2007-05-15, 08:40:33
Ich seh noch Hoffnung, ich warte jetzt schon seit März und habe mir Geld beiseite gelegt, für mich spielt die 2900xt zwischen gts und gtx, manchmal schneller und mal langsamer.
Das die Treiber scheiße sind sieht man ja ( Die 2900xt bricht unter einer 1950xtx ein ?! ), denke nicht das sowas gewollt ist...
Die Preise sind allerdings noch kacke, soll se auf die 350€ fallen, lieferbar sein und ich hol se mir.
Vieleicht bin ich ein kleiner Ati Fan, aber ich glaube das man aus dem Kärtchen noch genug rausholen kann so das sie eine gts hinter sich lässt, das ungenutzte Potential quasi, meine Meinung.
Sonst is die gts zu jetzigem Zeitpunkt viel Attraktiver.

4711
2007-05-15, 08:40:37
Sehe ich alles nicht so schwarz.

Die Karte ist sicher nicht das, was sich ATI erhofft hatte, bzw ist es offensichtlich das der G80 hier unterschätzt wurde. Und natürlich ist bezogen auf die Verspätung die Karte wahrlich keine Glanzleistung.
Die Lautstärke unter 3D ist nicht mehr zeitgemäß (aber vielen Anwendern anscheinend wurscht), der Stromverbrauch hoch (was ich aber als nicht tragisch sehe).
Aber objektiv betrachtet erhält man ein in Summe der GTS640 mindestens ebenbürtiges Stück Hardware, das sie in vielen Bereichen übertrumpft - teilweise sogar an die GTX heranreicht. Den aktuellen Preis einen Tag nach Launch sollte man nicht als Maßstab nehmen - Sofern die Karte auch preislich immer nahe an der GTS640 bleibt ist das Peis/Leistungsverhältnis IMHO voll OK und die Karte für den ein oder anderen durchaus einen Kauf wert.
Wenn man von der (nicht wirklich lieferbaren) Ultra absieht ist die 2900XT immerhin die zur Zeit zweitschnellste Karte!

Das Geld verdient wird mit den kleinen Karten und auf dem OEM-Markt. Der High-End Markt hat zwar eine Marketing- und Signalwirkung, aber ich würde hier jetzt nicht das Ende von ATI besingen. nVidia hat den nv30 auch überlebt - und der R600 ist IMHO ein gutes Stück von diesem entfernt.

Genau das mein ich......was ist an dem Posting objektiv?>von was für einer Karte schreibst du?
30%-gegenüber NV....hab ich was verpaßt oder wurde über Nacht eine neue Karte auf den Markt geworfen?
Das der G80 auch erst seid gestern au dem Markt ist...wissen nur Insider....

und wieso wußte ich das...die Karte kann noch so grottig sein (was sie ja nicht ist,wenn man die cheaterrei weg läst)aber sie wird mit immer den selben lächerlichen Argumenten hochgehalten....

4711
2007-05-15, 08:44:46
Ich seh noch Hoffnung, ich warte jetzt schon seit März und habe mir Geld beiseite gelegt, für mich spielt die 2900xt zwischen gts und gtx, manchmal schneller und mal langsamer.
Das die Treiber scheiße sind sieht man ja ( Die 2900xt bricht unter einer 1950xtx ein ?! ), denke nicht das sowas gewollt ist...
Die Preise sind allerdings noch kacke, soll se auf die 350€ fallen, lieferbar sein und ich hol se mir.
Vieleicht bin ich ein kleiner Ati Fan, aber ich glaube das man aus dem Kärtchen noch genug rausholen kann so das sie eine gts hinter sich lässt, das ungenutzte Potential quasi, meine Meinung.
Sonst is die gts zu jetzigem Zeitpunkt viel Attraktiver.

das seh ich gar nicht so..alleine der Power überzeugt mich schon (>GTS)und wenn man die "normalen" AA Modi nutzt paßt das schon..die Treiber haben sie schnell im Griff denk ich,sonst kauft die eh keiner..
Umsteigen wäre vollkommener Quatsch da geb ich dir recht.

Vertigo
2007-05-15, 08:49:25
Das einzige Argument sich die 2900XT nicht zu kaufen, ist die hohe Wahrscheinlichkeit, dass es einen 2950 geben wird, wenn ATI den Treiber im Griff hat.

Es gibt noch weitere Argumente die aktuell gegen den Kauf sprechen. Etwa die GeForce 8800GTX und 8800GTS ...

Im Vergleich zu den Angeboten von NV steht die Karte excellent da. Die Vaproware Ultra mal außer Acht gelassen ist sie mit minimalem Abstand die zweit schnellste Karte, für einen deutlich besseren Preis bei besserer BQ.
Excellent? Das müßte wohl bedeuten dass die Karte in allen relevanten Punkten besser ist. Den Eindruck vermitteln die bisher verfügbaren Reviews nun wirklich nicht. Und wo die BQ besser sein soll als auf G80-Karten ist mir auch ein Rätsel.

On topic: Alles in allem finde ich die bisherigen Reviews äußerst ernüchternd. Ich hätte mir sehr viel mehr versprochen. Gut, seinerzeit war der Start der X1800XT auch verzögert und die Leistung verbesserte sich erst mit der Zeit und optimierten Treibern ggü. der Konkurrenz. Aber so extrem wie heute war es damals wohl nicht.

rotanat
2007-05-15, 08:52:17
Ich bin enttäuscht. Meiner Meinung nach schlägt die 8800 GTS - 640 die 2900XT in nahezu allen Disziplinen. In der Summe der Benchmarks sind beide Karten gleichauf, je nach Review/Benchmark/Spiel ist mal die eine, mal die andere schneller, wobei die 2900XT hier scheinbar noch mit Treiberproblemen zu kämpfen hat. Sollten diese gefixt sein geht die Karte vlt. noch 5-10% schneller und liegt dann knapp vor der 8800 GTS.
Dann bleibt aber der Kostenfaktor: Mit derzeit 370 (XT) Euro zu 310 Euro (GTS) lt. Geizhals ist die ATI Karte rund 60 Euro teurer. Mit dem hohen Stromverbrauch verursacht Sie bei 8h pro Tag Betrieb im Jahr Strommehrkosten im Jahr von ca. 50 Euro, bei einer Haltbarkeitszeit von 2 Jahren sind das 100 Euro Mehrkosten. Hinzu kommen nochmal 50-100 Euro für ein neues Netzteil, läuft die GTS doch schon mit 400-450 Watt Netzteilen braucht die 2900XT schon 550-750 Watt.
Auch der laute Lüfter dürfte für viele ein Killerargument sein.

Einzige Pluspunkte die ich bisher sehe sind der HDTV-Anschluss, Ungewiss bleibt der DX10 Performancefaktor, zeigen einige SDK-Benchmarks großes Potential so liegt in anderen DX10 Demos die GTS vorne.
Andererseits jetzt auf gut Glück eine ATI zu kaufen ist vlt. etwas Glücksspiel, dann lieber eine Nvidia die auch P/L mässig unter DX9 punkten kann (GTS < P; GTX > L).

Raff
2007-05-15, 10:02:21
Ich hab's zwar auch geahnt, das hält mich aber nicht davon ab, enttäuscht zu sein. ;) Der G80 (voll ausgebaut) führt in allen für mich relevanten Disziplinen: Geschwindigkeit und Bildqualität. Das AF mag gleichwertig sein, SSAA-Hybriden würde ich aber nur ungerne gegen Blur eintauschen. Jetzt fehlt eigentlich nur noch eine "8800 GT" für 300€, mit 128 Skalar-ALUs und 400 MHz GPU-Takt default. ;)

Der Stromverbrauch ist bei allen High-End-Karten exorbitant hoch. Ob sich das je wieder ändern wird?

MfG,
Raff

Gast
2007-05-15, 10:10:59
Das hat aber nichts mit D3D10 zu tun. Die ALU-Leistungen sind unter D3D9 praktisch identisch.

Und wie man hier sieht, sieht es in Durchschnittsshadern eben so aus: http://www.techreport.com/reviews/2007q2/radeon-hd-2900xt/shadermark-indiv.gif

Von den Extremfällen kann man nichts ableiten.

Wobei da auch noch einiges im Busch liegt. Die Karte liegt in den synth. Shadertests kaum über R580-Niveau. Da müsste wesentlich mehr drin sein.

Gast
2007-05-15, 10:13:19
Auch funktioniert bei ATi die unified Architektur wenigstens korrekt, bei nV scheinen viele ALUs mit VS/GS gar nicht umgehen zu können. Zumindest ist die Karte da unerklärlich langsam, und da das load-balancing bei einer USA nicht duch den treiber gemacht wird, sondern die hardware übernimmt, scheint da nv ganz schon gespart zu haben.

Gast
2007-05-15, 10:19:51
dieser Punkt ist jedenfalls falsch, wer "damals" gekauft hat, hatte für eine 8800 GTS ca. 500 Euro bezahlt, hatte über mehrere Monate hinweg miese Treiber und zu guter letzt und das wichtigste Argument: Es gab keine nennenswerten Spiele, die eine solche Leistung voraus setzten.

Gut gepokert hatten diejenigen, die sich eine 8800er GTS für 300 Euro gekauft haben. Ich selbst, früher mal High-End süchtig, würde nie wieder mehr als 200 Euro für ne Karte ausgeben.

Das ist Käse. Die Karte funktionierte unter XP nach anfänglichen Problemen wunderbar. Du redest hier von VISTA, dass für einen Spieler aber momentan total irrelevant ist. XP ist nach wie vor die Plattform der Wahl bis M$ mal die ersten VISTA Service Packs herausbringt.
Die Leute hatten also bereits 6 Monate Spass mit der besten Hardware und besten Bildqualität. Diese war und ist unerreicht und da brauch man dann auch keine tollen neuen Spiele um das auszureizen.
Das was G80 hauptsächlich lieferte war sofort nutzbar. DX10 Funktionalität interessiert momentan sowieso nicht. Bis es da Spiele gibt redet kein Schwanz mehr im Enthusiastenbereich über G80 oder R600.

Spasstiger
2007-05-15, 10:29:05
Der Stromverbrauch ist bei allen High-End-Karten exorbitant hoch. Ob sich das je wieder ändern wird?
Irgendwo habe ich mal gelesen, dass der Verbrauch nicht noch höher werden soll, d.h. mittelfristig werden wir bei vielleicht 250 Watt Verbrauch bleiben.
Ein Rückwärtstrend ist im High-End aber nicht zu erwarten, wenn man den Leuten schon 200-Watt-Karten unterjubeln kann.

Vertigo
2007-05-15, 10:32:14
Irgendwo habe ich mal gelesen, dass der Verbrauch nicht noch höher werden soll, d.h. mittelfristig werden wir bei vielleicht 250 Watt Verbrauch bleiben.
Ein Rückwärtstrend ist im High-End aber nicht zu erwarten, wenn man den Leuten schon 200-Watt-Karten unterjubeln kann.
Angesichts der Einführung von PCIe2 kann man wohl davon ausgehen, dass der Trend eher in Richtung mehr Verlustleistung geht. Zwar wird die fps-Leistung/Watt steigen, aber die Chips werden ja komplexer und größer, so dass dies allein nicht helfen wird. Verkleinerte Strukturmaße führen zwar auch zu einer relativen Senkung der Verlustleistung, aber insgesamt wird die steigende Komplexität der Chips die Vorteile (Energieeffizienz, Fertigungsoptimierung) auf- und überwiegen.

Gast
2007-05-15, 10:35:18
Sehe ich alles nicht so schwarz.

Die Karte ist sicher nicht das, was sich ATI erhofft hatte, bzw ist es offensichtlich das der G80 hier unterschätzt wurde. Und natürlich ist bezogen auf die Verspätung die Karte wahrlich keine Glanzleistung.
Die Lautstärke unter 3D ist nicht mehr zeitgemäß (aber vielen Anwendern anscheinend wurscht), der Stromverbrauch hoch (was ich aber als nicht tragisch sehe).
Aber objektiv betrachtet erhält man ein in Summe der GTS640 mindestens ebenbürtiges Stück Hardware, das sie in vielen Bereichen übertrumpft - teilweise sogar an die GTX heranreicht. Den aktuellen Preis einen Tag nach Launch sollte man nicht als Maßstab nehmen - Sofern die Karte auch preislich immer nahe an der GTS640 bleibt ist das Peis/Leistungsverhältnis IMHO voll OK und die Karte für den ein oder anderen durchaus einen Kauf wert.
Wenn man von der (nicht wirklich lieferbaren) Ultra absieht ist die 2900XT immerhin die zur Zeit zweitschnellste Karte!

Das Geld verdient wird mit den kleinen Karten und auf dem OEM-Markt. Der High-End Markt hat zwar eine Marketing- und Signalwirkung, aber ich würde hier jetzt nicht das Ende von ATI besingen. nVidia hat den nv30 auch überlebt - und der R600 ist IMHO ein gutes Stück von diesem entfernt.

Ich habe nicht das Ende besungen. Ich habe nur gesagt, dass der Launch ein Reinfall und totaler Fehlschlag war. Und genau das ist er. Das hat erstmal gar nichts damit zu tun ob ATI überlebt oder nicht.
Die Mär, dass das Geld nur mit den kleinen Karten verdient wird ist ebenso Schwachsinn.
Kleine Karten generieren ganz gut Stückzahlen und sicherlich auch Umsatz. Aber 45% Bruttomarge erreicht Nvidia weder mit Chipsätzen noch mit Mainstream und Low End Grafikkarten. Da haben Performance- und Enthusiastenkarten einen sehr sehr großen Anteil.

Und um nochmal auf das "potentielle Ende von ATI" wie du es angesprochen hast zurückzukommen, ist festzuhalten, dass der in die Hose gegangene Launch des R600 sicher nicht das Ende bedeutet. AMD hat ATI wegen des GPU Know Hows und den Chipsätzen gekauft und wird das auch weiter nutzen.
Denoch ist das Engagement im High End kritisch zu sehen.
Die Wahrscheinlichkeit dass AMD hier auf Dauer das R&D lieber zurückschrauben wird ist nach den Ergebnissen eher gestiegen als gesunken.

4711
2007-05-15, 10:40:54
Das ist Käse. Die Karte funktionierte unter XP nach anfänglichen Problemen wunderbar. Du redest hier von VISTA, dass für einen Spieler aber momentan total irrelevant ist. XP ist nach wie vor die Plattform der Wahl bis M$ mal die ersten VISTA Service Packs herausbringt.
Die Leute hatten also bereits 6 Monate Spass mit der besten Hardware und besten Bildqualität. Diese war und ist unerreicht und da brauch man dann auch keine tollen neuen Spiele um das auszureizen.
Das was G80 hauptsächlich lieferte war sofort nutzbar. DX10 Funktionalität interessiert momentan sowieso nicht. Bis es da Spiele gibt redet kein Schwanz mehr im Enthusiastenbereich über G80 oder R600.

voll auf den Punkt..Crysis wird uns schon die Tränen in die Augen treiben :D wobei ich mir sogar die Hose "VistaGamer" anziehe und bin mittlerweile rundrumzufrieden und vermisse in Gamer Hinsicht XP überhaupt nicht mehr (natürlich dank Alchemy und Rivatuner<>bei 200mhz hält sich der Verbrauch im Idle auch in Grenzen).
Ich gestehe allerdings auch wenn ich keinen G80 hätte würde mich das Teil schon sehr interessieren.

Bullz
2007-05-15, 10:44:59
immer wenn sich ein Produkt verschiebt hat das seine Gründe .. das hab ich bei DDR1 das erste mal gemerkt.. wurde XX mal verschoben und dann kams raus und war sogar langsam wie SDR Ram ... mittlerweile ist DDR klar schneller aber die Situation hat mir mal gezeigt ... wenn egal wer länger braucht mit dem Rausbringen gibts Probleme ... ( und nicht das wunschdenken .. die machen das Teil gerade zum Geforce killer )

warum ich den beitrag schreibe...

einige meckern rum das die VISTA Treiber der Geforce 8 Serie müll waren. Lol was soll das für nen drecks Argument sein ? Wir reden hier von einem damals brandneuen Betriebssystem. Hätte Ati zur Zeit einen Treiber für seine Karte rausgebracht hätte der wahrscheindlich noch Viren drin lol ... also last dieses Argument bitte stecken...

Ich habe keine Ahnung von Betriebssystemen aber ich denke mir das es bei einem brandneuen Betriebssystem sicher sehr schwer ist gute Treiber zu bauen. Das braucht sicher mehrere Monate ... und NVIDIA hatte einfach nen ungüngisteren Launch Tag da vista ( zugleich ? ) auf den Markt kam ..

Gast
2007-05-15, 10:50:45
Irgendwie ist die Umfrage nicht komplett, denn der R600 ist das, was ich erwartete (ich bin nicht so naiv zu glauben, daß Verspätungen wundersame Leistungsexplosionen zur Folge haben), also bin ich nicht enttäuscht.

Merlin31
2007-05-15, 10:58:22
Für mich ist die Lautstärke ein KO Kriteroium.
Die ist im 3d betrieb lauter als ein Staubsauger. :frown:

Mr. Lolman
2007-05-15, 11:02:09
Die Treiber und die Zeit werdens schon richten. Da die R600 es jetzt schon schafft, in Sonderfällen Ingame ~90% flotter (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30875&stc=1&d=1179218451) zu sein als ne 8800GTS 640 und lt div. DX10 Benchmarks eine brutale ALU-Leistung besitzt (in manchen Benchmarks tw. um den Faktor 10 (http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm) flotter, als ne 8800GTS), behaupte ich, dass die Zeit einfach noch nicht Reif für das Ding ist. In 1 Jahr sehen wir sie sicher oft vor der 8800GTX...

Dunkeltier
2007-05-15, 11:09:42
Unfassbar. Moch mehr kann man die Realität kaum verleugnen. Man nimmt nur Behauptungen wahr, die einem ins Konzept passen, alle anderen Dinge werden vollständig ausgeblendet.

Gratuliere! Du hast das Posting des Tages geschrieben!


Ich denke, du solltest deinen Ironie-Detektor auf eine Fehlfunktion hin untersuchen. :rolleyes:

das seh ich gar nicht so..alleine der Power überzeugt mich schon (>GTS)und wenn man die "normalen" AA Modi nutzt paßt das schon..die Treiber haben sie schnell im Griff denk ich,sonst kauft die eh keiner..
Umsteigen wäre vollkommener Quatsch da geb ich dir recht.


Gerade mit BQ-Settings fängt die Fregatte das sinken an. Und wer mag sich die Karte jetzt noch kaufen? Die, die High-End haben wollten, haben dies sicherlich schon 6 Monate lang. Die, welche eine Oberklasse-Karte gesucht haben, greifen nach dem lesen der ganzen Reviews lachend ins Regal zur günstigeren, leiseren, schnelleren, mehr BQ bietenden, von den Treibern her ausgereiften, weniger Strom verbrauchenden und mit mehr Speicher ausgestatteten GTS. Nüchtern betrachtet muss man sich die Karte schon schön getrunken oder geraucht haben, erwägt man diese derzeit tatsächlich zu kaufen. Ausnahmen vielleicht Entwickler, welche gerne irgendwelche DX10-Dinge und Shadergeschichten ausprobieren wollen.

Bisher habe ich immer heimlich an ATi geglaubt gehabt, und auch zu dieser Marke gegriffen, wenn diese mal 1-2% langsamer gegenüber der Konkurrenz war. Aber hier hat ATi den Bogen überspannt, und aus Spieler-Sicht kann ich diesmal einfach kein gutes Haar an dieser lassen. Bisher konnte ich mich vorzüglich gegen nVidia auslassen (BQ wegen der Flimmerei mies, hier und da langsamer, Treiberbugs, etc.) - aber diesmal liegt der schwarze Peter voll bei ATi. Vor lauter Bandbreite und unbändiger Shaderpower verlor ATi anscheinend das Gleichgewicht und damit die immer ziemlich stark benötigte Texelfüllrate aus den Augen.

Die Treiber und die Zeit werdens schon richten. Da die R600 es jetzt schon schafft, in Sonderfällen Ingame ~90% flotter (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30875&stc=1&d=1179218451) zu sein als ne 8800GTS 640 und lt div. DX10 Benchmarks eine brutale ALU-Leistung besitzt (in manchen Benchmarks tw. um den Faktor 10 (http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm) flotter, als ne 8800GTS), behaupte ich, dass die Zeit einfach noch nicht Reif für das Ding ist. In 1 Jahr sehen wir sie sicher oft vor der 8800GTX...


Man kauft sich keine Karte für die "Zukunft", bis dahin sind die Teile (ebenso wie der G80) eh Elektronikschrott.

James Ryan
2007-05-15, 11:10:09
(in manchen Benchmarks tw. um den Faktor 10 (http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm) flotter, als ne 8800GTS)

Ähm, Vertexshaderleistung schön und gut, aber schaue dir mal die Pixelshaderleistung an. :eek:
Was limitiert heutzutage in Spielen eher?

MfG :cool:

Mr. Lolman
2007-05-15, 11:11:17
Ähm, Vertexshaderleistung schön und gut, aber schaue dir mal die Pixelshaderleistung an. :eek:
Was limitiert heutzutage in Spielen eher?

MfG :cool:

Nicht nach dem ersten Benchmarkergebnis gleich aufgeben ;)

HOT
2007-05-15, 11:11:31
Jo exakt so sehe ich das auch, Lolman. Der Chip bietet Potenziale, die nichtmal im Ansatz ausgenutzt werden. Zudem ist sie oft gerade mit AA langsamer als die Geforce Karten, obwohl der R600 hier theoretisch deutlich besser sein müsste, allein wegen dem fetten Speicherinterface. ATI hat hier einiges noch nicht so ganz im Griff.
Hinzu kommen die etwas seltsamen Treiber, die auf einmal eine Monsterleistungen zeigen, die deutliuch vor den Geforces liegen. Das mit Optimierungen an der BQ zu interprätieren halte ich für sehr weit hergeholt. Für etwas AF Tweaking erhält man keine 90%+ Steigerung bestenfalls 10%. Man sieht, dass dieser Chip anscheinend deutlich komplexer ist als alle davor und die Treiberentwickler noch Sonderschichten einschieben müssen - aber das wird schon, bei ATI dauert sowas immer etwas. Langsam halte ich den Treiber für den Schuldigen für den verspäteten Launch der Karte. Für NV gilt ja dasselbe, die haben einfach trotz beschissenem Treiber gelauncht. Der Vista Treiber ist immernoch schrott bei NV, da ist ATI wenigstens auf gleichem Stand wie auf XP.

Gast
2007-05-15, 11:12:07
Die Treiber und die Zeit werdens schon richten. Da die R600 es jetzt schon schafft, in Sonderfällen Ingame ~90% flotter (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30875&stc=1&d=1179218451) zu sein als ne 8800GTS 640 und lt div. DX10 Benchmarks eine brutale ALU-Leistung besitzt (in manchen Benchmarks tw. um den Faktor 10 (http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm) flotter, als ne 8800GTS), behaupte ich, dass die Zeit einfach noch nicht Reif für das Ding ist. In 1 Jahr sehen wir sie sicher oft vor der 8800GTX...
in einem jahr vor der GTX........:D G100 meinst Du oder ?

James Ryan
2007-05-15, 11:13:54
Nicht nach dem ersten Benchmarkergebnis gleich aufgeben ;)

Erwischt! :biggrin:
Ok, aber was nützt diese brachiale theoretische Leistung, wenn in Spielen davon nichts ankommt?
Die FX-Reihe hatte ebenfalls in so manchen theoretischen Benches deutlichst die Nase vorn, aber das nützte auch nichts.

@HOT
Bei Release waren die G80-Treiber zwar recht fehlerbehaftet, aber so grottig wie die R600-Treiber dann doch nicht!

MfG :cool:

Mr. Lolman
2007-05-15, 11:15:33
in einem jahr vor der GTX........:D G100 meinst Du oder ?

Mit "vor" meine ich nicht 5-20% sondern deutlich. Trotz des miesen Launch hab ich bei der GraKa abermals den Eindruck, dass sie nicht so schnell altern wird, wie die NV Konkurrenz.

dildo4u
2007-05-15, 11:16:53
Die Treiber und die Zeit werdens schon richten. Da die R600 es jetzt schon schafft, in Sonderfällen Ingame ~90% flotter (http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=30875&stc=1&d=1179218451) zu sein als ne 8800GTS 640 und lt div. DX10 Benchmarks eine brutale ALU-Leistung besitzt (in manchen Benchmarks tw. um den Faktor 10 (http://www.3dnews.ru/video/radeon_hd2900xt/index4.htm) flotter, als ne 8800GTS), behaupte ich, dass die Zeit einfach noch nicht Reif für das Ding ist. In 1 Jahr sehen wir sie sicher oft vor der 8800GTX...
Merkwürdig nur das selbst im vom ATI gepushten Call of Juares DX 10 Modus die Karte nur genauso schnell wie eine GTS ist.

http://www.guru3d.com/article/Videocards/431/17/

HOT
2007-05-15, 11:18:48
Erwischt! :biggrin:
Ok, aber was nützt diese brachiale theoretische Leistung, wenn in Spielen davon nichts ankommt?
Die FX-Reihe hatte ebenfalls in so manchen theoretischen Benches deutlichst die Nase vorn, aber das nützte auch nichts.

Die theoretischen Werte zeigen aber deutlich, dass hier noch gewaltige Potenziale schlummern und das man hier noch was erwarten kann. Die neuen Beta Treiber zeigen ja auch, warum... ein absolut inhomogenes Leistungbild. Plötzlich werden Spiele um den Faktor 2 schneller, andere werden wieder langsamer ... langsam glaube ich, dass die Grafikhersteller sich hier sehr sehr schwertun für diese Monsterboliden anständige Treiber zu schreiben.

@HOT
Bei Release waren die G80-Treiber zwar recht fehlerbehaftet, aber so grottig wie die R600-Treiber dann doch nicht!

MfG :cool:
War sagt das? Der ATI Treiber hat Leistungsprobs. Aber wie sieht es mit der Kompatibilität aus? Die ist offenbar sehr gut. Man sieht hier, wo die Prioritäten lagen -> Kompatibilität, möglichst keine Grafikfehler, EATM Entwicklung, DX10 Entwicklung. Dass da die Leistung auf der Strecke bleibt, leuchtet mir da ein.
Mittlerweile sind die XP Treiber von NV gut für den G80 und die Vista Treiber sind immerhin kompatibel zu den meisten Games. Aber am Anfang sah das Bild geradezu katastrophal aus, das ging nur im Leistungshype unter.

Vertigo
2007-05-15, 11:19:34
Mit "vor" meine ich nicht 5-20% sondern deutlich. Trotz des miesen Launch hab ich bei der GraKa abermals den Eindruck, dass sie nicht so schnell altern wird, wie die NV Konkurrenz.
Aber wer kauft denn bitteschön das heute schlechtere Produkt nur weil es in ein paar Jahren eventuell schneller sein könnte? ATI/AMD muss sich heute gegen nVidia behaupten und das gelingt aktuell nicht so überzeugend.

LovesuckZ
2007-05-15, 11:20:43
Mit "vor" meine ich nicht 5-20% sondern deutlich. Trotz des miesen Launch hab ich bei der GraKa abermals den Eindruck, dass sie nicht so schnell altern wird, wie die NV Konkurrenz.

Sie ist doch schon alt...
Abgesehen davon, hast du den Eindruck, weil du dich sehr darauf hoffst. Es gibt genug weitere Tests, auch D3D10, die zeigen, dass noch sehr viel Potential in den Treibern stecken - auf beiden Seiten.
Zum Beispiel hier (http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) gibt es weitere D3D10 Tests.

Dunkeltier
2007-05-15, 11:21:01
Jo exakt so sehe ich das auch, Lolman. Der Chip bietet Potenziale, die nichtmal im Ansatz ausgenutzt werden. Zudem ist sie oft gerade mit AA langsamer als die Geforce Karten, obwohl der R600 hier theoretisch deutlich besser sein müsste, allein wegen dem fetten Speicherinterface.

Das fette Speicherinterface spielt nur bei SSAA eine Rolle, bei MSAA kommt es mehr auf die GPU an.



ATI hat hier einiges noch nicht so ganz im Griff.

Wofür sie sich schon 6 Monate Zeit genommen habe. Ist irgendwie die Standardausrede wie bei der Sony-Konsole gegenüber der Xbox 360...


Hinzu kommen die etwas seltsamen Treiber, die auf einmal eine Monsterleistungen zeigen, die deutliuch vor den Geforces liegen. Das mit Optimierungen an der BQ zu interprätieren halte ich für sehr weit hergeholt. Für etwas AF Tweaking erhält man keine 90%+ Steigerung bestenfalls 10%.

Klar zeigt die Karte "Monsterleistungen", wenn die Geforce deutlich mehr Power für ein wesentlich besseres Bild aufbietet, während ATi hier nun den "simplen" Weg geht. Deswegen haben ich und andere auch schon angemerkt, das der "Nachvergleich" oder "Treibertest" auf Computerbase für die Tonne ist.



Man sieht, dass dieser Chip anscheinend deutlich komplexer ist als alle davor und die Treiberentwickler noch Sonderschichten einschieben müssen - aber das wird schon, bei ATI dauert sowas immer etwas. Langsam halte ich den Treiber für den Schuldigen für den verspäteten Launch der Karte. Für NV gilt ja dasselbe, die haben einfach trotz beschissenem Treiber gelauncht. Der Vista Treiber ist immernoch schrott bei NV, da ist ATI wenigstens auf gleichem Stand wie auf XP.

Bitte? Vista ist mittlerweile in fast allen Bereichen absolut ordentlich zusammengekittet, während ATi selbst unter XP erheblich Probleme wie Bildfehler und nicht laufende Spiele hat.

Treiber ist immernoch schrott bei NV...............SCHWÄTZER!!!!!!!!!!!!!! mit Null Ahnung!

Sicher doch. :uup:

Daredevil
2007-05-15, 11:21:32
Merkwürdig nur das selbst im vom ATI gepushten Call of Juares DX 10 Modus die Karte nur genauso schnell wie eine GTS ist.

http://www.guru3d.com/article/Videocards/431/17/

Genausoschnell, is doch alles Wunderbar.
Eine GTS die seit 6 Monaten auf dem Markt ist und Treibertechnisch mehrmals optimiert wurde und die 2900xt die die mit dem Launchtreiber hinter seinem Vorgänger in bestimmten Settings liegt.
Ich seh das recht Optimistisch, hab mir grad meine bei Alternate bestellt.

4711
2007-05-15, 11:22:36
Die theoretischen Werte zeigen aber deutlich, dass hier noch gewaltige Potenziale schlummern und das man hier noch was erwarten kann. Die neuen Beta Treiber zeigen ja auch, warum... ein absolut inhomogenes Leistungbild. Plötzlich werden Spiele um den Faktor 2 schneller, andere werden wieder langsamer ... langsam glaube ich, dass die Grafikhersteller sich hier sehr sehr schwertun für diese Monsterboliden anständige Treiber zu schreiben.

War sagt das? Der ATI Treiber hat Leistungsprobs. Aber wie sieht es mit der Kompatibilität aus? Die ist offenbar sehr gut. Man sieht hier, wo die Prioritäten lagen -> Kompatibilität, möglichst keine Grafikfehler, EATM Entwicklung, DX10 Entwicklung. Dass da die Leistung auf der Strecke bleibt, leuchtet mir da ein.
Mittlerweile sind die XP Treiber von NV gut für den G80 und die Vista Treiber sind immerhin kompatibel zu den meisten Games. Aber am Anfang sah das Bild geradezu katastrophal aus, das ging nur im Leistungshype unter.


ich kann mich noch an die ersten Bilder aus Oblivion erinnern zum G80 launch und die waren sowas von schlecht...warst du zu der zeit im Urlaub?Oder was soll dein geschreibsel?

HOT
2007-05-15, 11:23:24
Merkwürdig nur das selbst im vom ATI gepushten Call of Juares DX 10 Modus die Karte nur genauso schnell wie eine GTS ist.

http://www.guru3d.com/article/Videocards/431/17/
Die Scene ist sehr Texellastig. Hier könnten die G80 ihre Vorteile ausspielen. Weiss jemand, ob das Game FP16 Texturen nutzt?

Mr. Lolman
2007-05-15, 11:24:46
Man kauft sich keine Karte für die "Zukunft", bis dahin sind die Teile (ebenso wie der G80) eh Elektronikschrott.

Ich schon. Ich hab meine GraKas gern länger als ein Jahr im Rechner. Meine X1900XTX steht im Performancevergleich zu NV mittlerweile deutlich besser da, als noch vor 1 Jahr. Vll. ist das aber auch schon das Problem von ATI. Nämlich, dass sich keine Karten für unsere Wegwerfgesellschaft produzieren. Wenn ich sehe, was DA von manchen NV-Aufrüstheines an Elektronikschrott produziert wird, wird mir noch viel eher übel, als bei einem verkorksten ATI-Launch...

Merkwürdig nur das selbst im vom ATI gepushten Call of Juares DX 10 Modus die Karte nur genauso schnell wie eine GTS ist.

http://www.guru3d.com/article/Videocards/431/17/

Das Spiel ist ja auch schon alt und hat nie besonders gut performed. Ein paar Effekte draufpappen und schon hat man ein DX10-Vorzeigeprodukt. Aber an der Grundperformance des Spiels kann man wohl nicht viel ändern... Hoffentlich wird die neue Rubydemo irgendwie auf NV-Karten laufbar sein. Dann kann man sich ja mal ankucken, was da leistungsmässig wirklich im R600 steckt.

dildo4u
2007-05-15, 11:25:24
Genausoschnell, is doch alles Wunderbar.
Eine GTS die seit 6 Monaten auf dem Markt ist und Treibertechnisch mehrmals optimiert wurde und die 2900xt die die mit dem Launchtreiber hinter seinem Vorgänger in bestimmten Settings liegt.
Ich seh das recht Optimistisch, hab mir grad meine bei Alternate bestellt.
Wie kann die 8800GTS auf so ein DX10 Titel seid 6 Monate optemiert sein?Warum sollte bei Nvidia da kein Potenzial mher drinn sein?

AnarchX
2007-05-15, 11:26:52
Hoffentlich wird die neue Rubydemo irgendwie auf NV-Karten laufbar sein. Dann kann man sich ja mal ankucken, was da leistungsmässig wirklich im R600 steckt.
:| Oder wie man Software speziell auf eine GPU optimieren kann...

4711
2007-05-15, 11:27:57
ist doch eh alles pillepalle Nv packt doch Ende des Jahres soweiso den G90 aus...und Mitte des Jahres den ultimativen PowerTreiber.....

Mr. Lolman
2007-05-15, 11:28:07
:| Oder wie man Software speziell auf eine GPU optimieren kann...

Das soll ja mit D3D10 nicht mehr wirklich möglich sein...

Vertigo
2007-05-15, 11:28:17
Hoffentlich wird die neue Rubydemo irgendwie auf NV-Karten laufbar sein. Dann kann man sich ja mal ankucken, was da leistungsmässig wirklich im R600 steckt.
Äh ... :|

Wäre es nicht denkbar, dass die Ruby-Demo sehr eng auf die R600-Hardware maßgeschneidert ist und daher jede andere Karte per se im Nachteil ist?

HOT
2007-05-15, 11:28:25
Das fette Speicherinterface spielt nur bei SSAA eine Rolle, bei MSAA kommt es mehr auf die GPU an.

Exakt falsch. Bei SSAA muss die GPU die 2 oder 4 fache Extrarechenarbeit leisten, bei MSAA jedoch nicht. Lese den Artikel darüber auf dieser Seite.

Wofür sie sich schon 6 Monate Zeit genommen habe. Ist irgendwie die Standardausrede wie bei der Sony-Konsole gegenüber der Xbox 360...

Wenn der Treiber nach 6 Monaten immernoch so ein Bild zeigt, ist das für mich eindeutig.

Klar zeigt die Karte "Monsterleistungen", wenn die Geforce deutlich mehr Power für ein wesentlich besseres Bild aufbietet, während ATi hier nun den "simplen" Weg geht. Deswegen haben ich und andere auch schon angemerkt, das der "Nachvergleich" oder "Treibertest" auf Computerbase für die Tonne ist.

Erklärung bitte. Das hätte ich gerne aufgeschlüsselt.

Bitte? Vista ist mittlerweile in fast allen Bereichen absolut ordentlich zusammengekittet, während ATi selbst unter XP erheblich Probleme wie Bildfehler und nicht laufende Spiele hat.
[...]

Das ist OT. Sowohl bei NV als auch bei ATI gibt es unter XP und Vista Schwierigkeiten, jedoch sehr wenige und beide zeigen gute Kompatibilität. Was Treiber allgemein angeht, dürften sich beide nicht sehr unterscheiden.

Daredevil
2007-05-15, 11:30:03
Ich meinte insgesammt und nicht nur DX10.
Auch sage ich nicht das man die g80 nicht mehr weiter optimieren kann, aber die Treiber sind mit Sicherheit viel besser und Optimierter als den Schrott den ATI da abgeliefert hat, meinste nicht?
Nvidia hatte halt mehr zeit und ATI fängt erst gerade an, das meine ich, es steckt bestimmt mehr Optimierungspotenzial im R600 statt im G80.

4711
2007-05-15, 11:30:36
dein OT denn du sagst der NV Vista Treiber taugt nix,ganz abgesehen von dem Quatsch das die Bildqualli am Anfang schlecht war.......die war Weltbewegend in dem Bereich. Herr Hot...

[dzp]Viper
2007-05-15, 11:30:40
Wie kann die 8800GTS auf so ein DX10 Titel seid 6 Monate optemiert sein?Warum sollte bei Nvidia da kein Potenzial mher drinn sein?

Es stimmt schon, dass die 8800er in Sachen Treiber schon mehr "optimiert" sind als die 2900er Karten.

6 Monate sind nun mal 6 Monate... Und DX10 Software gibts für die Treiberprogrammierer sicher schon länger als 6 Monate.

Das Problem was die Treiberprogger haben ist, dass sie erst einen Treiber richtig programmieren können wenn die Hardware (fast) fertig ist. Und die 8800 sind nun mal wesentlich länger "fertig" als die 2900er ;)

Genau aus diesem Grund ist das Optimierungspotential bei den 2900er Treibern wesentlich größer als bei den 8800er Treibern. (Ausser NV hat mit Absicht irgendwelche Optionen im Treiber noch nicht freigeschaltet...)

LovesuckZ
2007-05-15, 11:30:47
Ich schon. Ich hab meine GraKas gern länger als ein Jahr im Rechner.

Nur noch 5 Monate und ein paar Tage und ich habe meine GTX länger als ein Jahr im Rechner.
Ich wette mir dir um ein Euro, dass mehr Leute ihre HD2900XT kürzer als ein jahr im Rechner als 8800GTX User belassen werden. Vorallen, wenn die nächsten Karten über funktionsfähige ROPs verfügen, die das AA um den Faktor 2x* beschleunigen werden

Vll. ist das aber auch schon das Problem von ATI. Nämlich, dass sich keine Karten für unsere Wegwerfgesellschaft produzieren.

Ich weiß nicht, ob eine ökonomisch aufwendigere Fertigung besser ist...

Das Spiel ist ja auch schon alt und hat nie besonders gut performed. Ein paar Effekte draufpappen und schon hat man ein DX10-Vorzeigeprodukt. Aber an der Grundperformance des Spiels kann man wohl nicht viel ändern... Hoffentlich wird die neue Rubydemo irgendwie auf NV-Karten laufbar sein. Dann kann man sich ja mal ankucken, was da leistungsmässig wirklich im R600 steckt.

Abgesehen davon, dass AMD CoJ pusht (schon vergessen?), willst du doch nicht wirklich anhand von Demos, die von AMD kommen, einen Leistungsvergleich machen? :rolleyes:


*rein fiktive Zahl.

James Ryan
2007-05-15, 11:32:11
War sagt das? Der ATI Treiber hat Leistungsprobs. Aber wie sieht es mit der Kompatibilität aus? Die ist offenbar sehr gut. Man sieht hier, wo die Prioritäten lagen -> Kompatibilität, möglichst keine Grafikfehler, EATM Entwicklung, DX10 Entwicklung. Dass da die Leistung auf der Strecke bleibt, leuchtet mir da ein.


Frag mal Gouvernator über die "grandiose" Kompatibilität! :rolleyes:
Und warum soll Kompatibilität nicht auch gleichzeitig mit Leistung funktionieren?

@Mr. Lolman
Du hast Recht, in der nahen Vergangenheit brachen die Geforces schneller ein und waren gegenüber den Radeons schneller "veraltet".
Bedenke aber, dass dies erst seit der FX-Reihe gilt (CineFX Architektur!) und der G80 völlig anders ist und mit der NV3x/4x/G7x Reihe nichts mehr zu tun hat!
Ich glaube nicht dass der G80 ähnlich schnell "veraltet" sein wird, wie die letzten NV-Karten!

MfG :cool:

4711
2007-05-15, 11:32:19
Viper;5495697']Es stimmt schon, dass die 8800er in Sachen Treiber schon mehr "optimiert" sind als die 2900er Karten.

6 Monate sind nun mal 6 Monate... Und DX10 Software gibts für die Treiberprogrammierer sicher schon länger als 6 Monate.

Das Problem was die Treiberprogger haben ist, dass sie erst einen Treiber richtig programmieren können wenn die Hardware (fast) fertig ist. Und die 8800 sind nun mal wesentlich länger "fertig" als die 2900er ;)

Genau aus diesem Grund ist das Optimierungspotential bei den 2900er Treibern wesentlich größer als bei den 8800er Treibern. (Ausser NV hat mit Absicht irgendwelche Optionen im Treiber noch nicht freigeschaltet...)
Nur davon abgesehen das wir in 6 Monaten von einer anderen NV Karte reden......

HOT
2007-05-15, 11:32:21
dein OT denn du sagst der NV Vista Treiber taugt nix,ganz abgesehen von dem Quatsch das die Bildqualli am Anfang schlecht war.......die war Weltbewegend in dem Bereich. Herr Hot...
Ich hab das lediglich überspitzt formuliert. Dennoch ist der NV Vista Treiber immernoch nicht toll.

AnarchX
2007-05-15, 11:34:13
Das soll ja mit D3D10 nicht mehr wirklich möglich sein...

Naja, nicht mehr in dem Maße.
Aber trotzdem könnte man mit wenig Texellast und vielen Vec4/5-Shadern und hoher Geometrielast dem R600 entgegenkommen.

[dzp]Viper
2007-05-15, 11:34:39
Nur davon abgesehen das wir in 6 Monaten von einer anderen NV Karte reden......

und hoffentlich von einer anderen ATI Karte ebenfalls ;)


Was ATI/AMD aktuell betreibt ist nur noch reine Schadensbegrenzung. Garnichts zu releasen wäre schlechter gewesen als das zu releasen was aktuell zur Verfügung stand!

Ich denke mit dem R650 wird sich ATI/AMD wieder fangen und die Kinderkrankheiten aus der R600 Architektur beseitigt haben!

James Ryan
2007-05-15, 11:34:44
Erklärung bitte. Das hätte ich gerne aufgeschlüsselt.


EATM (Multisampling!!!) beim Transparenz-AA statt hochwertiges SuperSampling wie beim G80!

MfG :cool:

HOT
2007-05-15, 11:35:04
Frag mal Gouvernator über die "grandiose" Kompatibilität! :rolleyes:
Und warum soll Kompatibilität nicht auch gleichzeitig mit Leistung funktionieren?

@Mr. Lolman
Du hast Recht, in der nahen Vergangenheit brachen die Geforces schneller ein und waren gegenüber den Radeons schneller "veraltet".
Bedenke aber, dass dies erst seit der FX-Reihe gilt (CineFX Architektur!) und der G80 völlig anders ist und mit der NV3x/4x/G7x Reihe nichts mehr zu tun hat!
Ich glaube nicht dass der G80 ähnlich schnell "veraltet" sein wird, wie die letzten NV-Karten!

MfG :cool:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361646

Ich glaube lolman ging es mehr darum. Und so, wie der R600 Designt ist, könnte er Recht haben.

HOT
2007-05-15, 11:35:34
EATM (Multisampling!!!) beim Transparenz-AA statt hochwertiges SuperSampling wie beim G80!

MfG :cool:
Wir drehen uns im Kreis. Schon seit etlichen Seiten.

James Ryan
2007-05-15, 11:36:13
Viper;5495697']Und die 8800 sind nun mal wesentlich länger "fertig" als die 2900er ;)


AFAIK war die reine Hardware beim R600 im November ebenfalls fertig, wenn auch noch recht niedrig getaktet und mit noch mehr Treiberproblemen.

MfG :cool:

LovesuckZ
2007-05-15, 11:37:15
Naja, nicht mehr in dem Maße.
Aber trotzdem könnte man mit wenig Texellast und vielen Vec4/5-Shadern und hoher Geometrielast dem R600 entgegenkommen.

So sieht es aus.
Einfach eine Vertex- und Geometrielast erzeugen, viele unabhängige Instruktionen und keine Texturzugriffe verwenden und schon ist man deutlich schneller. Oder einfach beim "dynamic branching" die Threads so behandeln, dass sie auf dem r600 besser laufen bzw. die Hardware nicht so stark benachteiligt ist. Genug Zeit die Schwächen beim G80 zu analysieren und diese in die eigenen Demos einbauen - man kann wohl von einem Mr.Lolman bei AMD ausgehen - und schon hat man den perfekten FUD-Vergleich...

Mr. Lolman
2007-05-15, 11:37:21
Naja, nicht mehr in dem Maße.
Aber trotzdem könnte man mit wenig Texellast und vielen Vec4/5-Shadern und hoher Geometrielast dem R600 entgegenkommen.

Woraufs sowieso hinauslaufen wird. Die Texellast ist über die letzten Jahre fast gleichgeblieben, die ALU-Last aber um ein vielfaches gestiegen:

MadManniMan
2007-05-15, 11:37:42
Die Treiber und die Zeit werdens schon richten. Da die R600 es jetzt schon schafft, in Sonderfällen Ingame ~90% flotter zu sein als ne 8800GTS 640 und lt div. DX10 Benchmarks eine brutale ALU-Leistung besitzt (in manchen Benchmarks tw. um den Faktor 10 flotter, als ne 8800GTS), behaupte ich, dass die Zeit einfach noch nicht Reif für das Ding ist. In 1 Jahr sehen wir sie sicher oft vor der 8800GTX...

Och Loooolman! Dein Optimismus ist ja schrecklich! Und Dein Übersehen manchmal lästig :D

Im Ernst: wenn ein R600 in TDU 90% schneller als ein G80 GTS ist, dann ist das prinzipiell toll, aber wenn ein G80 GTS langsamer als ein R580 ist, dann ist nicht der R600 besonders toll, sondern die nV besonders schlecht.
Und einzelne Shader, die schneller sind? Toll! Immer gern gesehen! Auch der schnelle VS, schick! Aber was haben wir davon, wenn andere Teile der Pipe nicht genügend Futter bieten? Partiell waren einige NV30 Shader auch reichlich flott, verglichen mit dem R300. Was hats genützt?

Für AF mangelts im Vergleich heftig an TMU-Power, das AA ist schick (wenn auch nicht perfekt!), aber durch den Hardwarebug des Downsamplens über Shader kriechlahm. Dem R600 mangelts vor allem an einem: Balance.


War sagt das? Der ATI Treiber hat Leistungsprobs. Aber wie sieht es mit der Kompatibilität aus? Die ist offenbar sehr gut. Man sieht hier, wo die Prioritäten lagen -> Kompatibilität, möglichst keine Grafikfehler, EATM Entwicklung, DX10 Entwicklung. Dass da die Leistung auf der Strecke bleibt, leuchtet mir da ein.

;D

Sag das mal gouvernator! Wenn bei FarCry alle Objekte fehlen, bei HL2 Zäune im Nix verschwinden und manche Sachen gar nicht starten, dann ist das entweder gelogen, oder Du liegst schlichtweg falsch =)

[dzp]Viper
2007-05-15, 11:37:55
AFAIK war die reine Hardware beim R600 im November ebenfalls fertig, wenn auch noch recht niedrig getaktet und mit noch mehr Treiberproblemen.

MfG :cool:

Ja die hardware war im PC fertig. Produzierte Hardware gabs damals nur sehr sehr wenige weil es noch heftige Produktionsschwierigkeiten gab und deswegen musste wohl wieder "umgebaut" werden - Hardware und Treiberseitig.

James Ryan
2007-05-15, 11:38:02
Wir drehen uns im Kreis. Schon seit etlichen Seiten.

:confused:
Du wolltest eine Erklärung, das war sie! Warum bietet denn der neuere 4.3er Treiber wieder die schlechtere Perfomance?

MfG :cool:

4711
2007-05-15, 11:39:03
@Hot
ich seh keinen Unterschied zu XP......und ich würd ihn sehen glaub mir das...ich weis auch was der G80 am Anfang für probs hatte mit fällt nur keiner ein....ach ja AMD COJ Schatten ;D war sonst noch was...allerdings seh ich gerade die probs der ATI..was läuft überhaupt?
Aber lassen wir das..kauf dir eine und werde glücklich damit...ich sagte ja schon wenn ich keinen G80 hätte würd ichs aus Neugier wahrscheilich auch machen..allerdings würd ich mir und anderen das Schöngerede ersparen bis die Tatsachen auf dem Tisch liegen und die liegen im mom unten drunter.

Gast
2007-05-15, 11:42:35
Naja, nicht mehr in dem Maße.
Aber trotzdem könnte man mit wenig Texellast und vielen Vec4/5-Shadern und hoher Geometrielast dem R600 entgegenkommen.

Aber wie soll das ausehen?
Massenhaft Dreiecke die nur single-texturiert sind?
In Spielen wird doch jeder Pixel intensiv "geshadert", egal wie hoch die Geometrielast ist.

MadManniMan
2007-05-15, 11:43:25
Hoffentlich wird die neue Rubydemo irgendwie auf NV-Karten laufbar sein. Dann kann man sich ja mal ankucken, was da leistungsmässig wirklich im R600 steckt.

Haha, schon Froggy oder Adrianne Curey (oder wie die heißt) auf nem R600 zum Laufen gebracht? Hüben wie drüben, sag ich jetzt mal.

Und wenn nV das machen sollte, können sie ihr gleich n schönes Gesicht und ne weibliche Frisur geben. Und ihr die Männerstimme rausschneiden *schüttel*

Dunkeltier
2007-05-15, 11:43:58
Exakt falsch. Bei SSAA muss die GPU die 2 oder 4 fache Extrarechenarbeit leisten, bei MSAA jedoch nicht. Lese den Artikel darüber auf dieser Seite.

*seufz*

http://3dcenter.de/artikel/multisampling_anti-aliasing/index3.php

"Multisampling bedeutet zunächst nur, für jedes Pixel nur noch einen Textur-Wert zu sampeln, obwohl mehrere Subpixel erzeugt werden. Anders gesagt: Während Supersampling das gesamte Bild in höherer Auflösung rendert, werden mit Multisampling nur noch die die Kanten mit höherer Auflösung berechnet, nicht aber die Texturen."

http://3dcenter.de/artikel/2006/10-12.php

"Full-Screen-Supersampling berechnet das gesamte Bild in höherer Auflösung. Multisampling berechnet nur die Geometrie in höherer Auflösung, aber nicht die Texturen. Das ist sinnvoll, da man gute Texturen mit guten Texturfiltern viel effizienter berechnen kann und sich für die Kantenglättung nur um die Polygon-Kanten kümmern muss. Es sei denn, das Spiel nutzt Alphatest ohne Alphablending."


Wenn der Treiber nach 6 Monaten immernoch so ein Bild zeigt, ist das für mich eindeutig.


Die Karte war für Ende letztes Jahres angekündigt, und dann der Termin laufend verschoben worden. Das reicht, um tage- und wochenlang am Treiber zu optimieren. Anscheinend haben sie es aber nicht hinbekommen...





Erklärung bitte. Das hätte ich gerne aufgeschlüsselt.

ATi nutzt im neuen Treiber zum glätten der Alpha-Texturen MSAA statt SSAA. Im Nachtest hatte dies Computerbase anscheinend nicht bemerkt, und die neuen Werte gegen G80 Benchmarkwerte mit SSAA gestellt. Das ist schlichtweg Scheiße, da die ATi ein wesentlich schlechteres Bild abliefert, und somit (knappe) Leistung einspart. Richtig wäre gewesen, dann auch den G80 mit MSAA durch den Parcours zu schicken.


Das ist OT. Sowohl bei NV als auch bei ATI gibt es unter XP und Vista Schwierigkeiten, jedoch sehr wenige und beide zeigen gute Kompatibilität. Was Treiber allgemein angeht, dürften sich beide nicht sehr unterscheiden.


Bei ATi sieht es leider derzeit desaströs aus. That's it.

Mr. Lolman
2007-05-15, 11:44:42
Och Loooolman! Dein Optimismus ist ja schrecklich! Und Dein Übersehen manchmal lästig :D

Deins auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5495726&postcount=240

Warum denkst du, sollte die enorme ALU-Power des R600 nicht von so einer Entwicklung profitieren können?


Im Ernst: wenn ein R600 in TDU 90% schneller als ein G80 GTS ist, dann ist das prinzipiell toll, aber wenn ein G80 GTS langsamer als ein R580 ist, dann ist nicht der R600 besonders toll, sondern die nV besonders schlecht.

Schnelles Speicherinterface, gute Architektur, des R580. Ich weiss ja warum ich immerwieder behaupte, dass man von ATI-HW länger was hat :D

Haha, schon Froggy oder Adrianne Curey (oder wie die heißt) auf nem R600 zum Laufen gebracht? Hüben wie drüben, sag ich jetzt mal.

Ja eh. Leider. Mich würde die Performance der NV-Demos auf ATI-HW min. genauso interessieren, wie umgekehrt ;)

Und wenn nV das machen sollte, können sie ihr gleich n schönes Gesicht und ne weibliche Frisur geben. Und ihr die Männerstimme rausschneiden *schüttel*

Jedem was ihm gefällt. Ich find androgyne Frauen geil :naughty: Wobei ich Rubys aktuelle Stimme (zum Glück?) noch nicht gehört hab.

LovesuckZ
2007-05-15, 11:48:12
Deins auch: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5495726&postcount=240
Warum denkst du, sollte die enorme ALU-Power des R600 nicht von so einer Entwicklung profitieren können?

Zieh von der "enorme ALU-Power des R600" die "SF Units" und die schlechtere Effizienz ab, dann wird nicht mehr viel ürbig bleiben. Ausserdem sollte man "hochtheoretische Berechnungen" nicht mit "anwendungsvorkommende Berechnungen" gleichstellen. Siehe Shadermark, siehe D3D Rightmark, siehe 3DMark... Selbst in Xbox360 Portierungen liegt die Karte nur auf dem Niveau der 8800Ultra.

Schnelles Speicherinterface, gute Architektur, des R580. Ich weiss ja warum ich immerwieder behaupte, dass man von ATI-HW länger was hat :D

Frage mal Dargo, wie er zum Thema r580-GTS-TD:U steht. ;)

HOT
2007-05-15, 11:54:35
*seufz*

http://3dcenter.de/artikel/multisampling_anti-aliasing/index3.php

"Multisampling bedeutet zunächst nur, für jedes Pixel nur noch einen Textur-Wert zu sampeln, obwohl mehrere Subpixel erzeugt werden. Anders gesagt: Während Supersampling das gesamte Bild in höherer Auflösung rendert, werden mit Multisampling nur noch die

http://3dcenter.de/artikel/2006/10-12.php

"Full-Screen-Supersampling berechnet das gesamte Bild in höherer Auflösung. Multisampling berechnet nur die Geometrie in höherer Auflösung, aber nicht die Texturen. Das ist sinnvoll, da man gute Texturen mit guten Texturfiltern viel effizienter berechnen kann und sich für die Kantenglättung nur um die Polygon-Kanten kümmern muss. Es sei denn, das Spiel nutzt Alphatest ohne Alphablending."

Gut, damit hast du erfolgreich erklärt warum du voll daneben lagst.

Die Karte war für Ende letztes Jahres angekündigt, und dann der Termin laufen verschoben. Das reicht, um tage- und wochenlang am Treiber zu optimieren. Anscheinend haben sie es aber nicht hinbekommen...

Der Treiber wird ab dem Zeitpunkt entwickelt, ab dem das endgültige Design des Chips bekannt ist. Fertige Hardware zum testen gab es schon weit vor Weihnachten. Die Treiberentwicklerteams werden sicher nicht Däumchen gedreht haben bis heute. Ergo ist es schwer, den Treiber zu entwickeln...

ATi nutzt im neuen Treiber zum glätten der Alpha-Texturen MSAA statt SSAA. Im Nachtest hatte dies Computerbase anscheinend nicht bemerkt, und die neuen Werte gegen G80 Benchmarkwerte mit SSAA gestellt. Das ist schlichtweg Scheiße, da die ATi ein wesentlich schlechteres Bild abliefert, und somit (knappe) Leistung einspart. Richtig wäre gewesen, dann auch den G80 mit MSAA durch den Parcours zu schicken.

Jo aber denke mal nach, was in Zukunft passieren wird. In Zukunft ist die optimierte MSAA Variante eine Lösung, SSAA jedoch definitiv nicht, da es schlicht Leistung verschwendet! Sicher ist SSAA die Optimallösung, aber ich wär mit einer MSAA Lösung durchaus einverstanden, wenn diese gute Ergebnisse liefert und schnell ist. Beim MSAA bei der Geforce3 hast du doch damals sicher auch nicht gemeckert.

Bei ATi sieht derzeit desaströs aus. That's it.

Wenn du das so siehst... die X2900XT ist als Konkurrenz für die 8800GTS an den Start gegangen. Das sieht man auch an der verbauten Speichermenge ganz gut. Mit den neueren Beta Treiber ist die X2900XT schneller als die GTS. So sieht es aus ;). Der Launchtermin ist natürlich "schlimm". Aber das war beim X1800XT auch nicht anders.

seahawk
2007-05-15, 11:54:49
Viper;5495731']Ja die hardware war im PC fertig. Produzierte Hardware gabs damals nur sehr sehr wenige weil es noch heftige Produktionsschwierigkeiten gab und deswegen musste wohl wieder "umgebaut" werden - Hardware und Treiberseitig.

Trotzdem müßten die Treiber weiter sein, außer man war gezwungen diese massiv umzustricken, da ein Teil der Hardware nicht wie geplant funktioniert. Und genau dies scheint bei der Karte der Fall zu sein.

Wenn man nun plötzlich ALU Power für MSAA braucht, dann reduziert dich die zur anderweitigen Berechnung verfügbare Power entsprechend. Und es gibt bei B3D genug glaubwürdige Postings, die eine Hardwarebug bestätigen.

Der 4.3er hat ein älteres Datum als der 4.2er. Zudem betrifft das die CB Benches, aber nicht die Guru3D Benches. Und nochwas: EATM bringt mit Sicherheit keinen 170% Vorteil...

Nun mit ETAM muss man wneiger Punkte samplen. Geht das nun wirklich auf die Shader, dann kann es sein, dass man mit SSAA und vielen Alphatexturen da einen Flaschenhals hat, reduziert man dies mit ETAm könnte sich das Problem auflösen.

HOT
2007-05-15, 11:59:05
:confused:
Du wolltest eine Erklärung, das war sie! Warum bietet denn der neuere 4.3er Treiber wieder die schlechtere Perfomance?

MfG :cool:
Der 4.3er hat ein älteres Datum als der 4.2er. Zudem betrifft das die CB Benches, aber nicht die Guru3D Benches. Und nochwas: EATM bringt mit Sicherheit allein keinen 170% Vorteil... vor allem dann nicht, wenn man Seahawks Posting dabei beachtet über mir.