PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R650 -"Frechheit!"


Seiten : [1] 2

:o)Uhummel
2007-05-27, 13:05:19
Hey, ich finde es einen Hammer, daß ATI noch im dritten Quartal den R650 vorstellen/rausbringen wollen.
Gerade mal den R6xx draußen und schon wieder nen "neuen" Chip.
Ganz toll für die Leute, die eben erst ne 2900er gekauft haben. :confused:
Wenn die 2900er-Serie wenigstens einigerm. pünktlich gekommen wäre, dann wäre das ja absolut kein Prob.. -Aber so. AMD macht z.Zt. einiges Falsch.
Dabei macht es NV ja eigtl. vor ; o )

P.s. Bin kein Fanboy.-Für mich zählt das P/L-Verhältnis!

AMD/ATI macht leider seit längerem (nicht nur im GPU-Gesch.) einiges falsch!
Und wird zumin. einmal massiv auf die Fresse fliegen.

Raff
2007-05-27, 13:07:48
Wer zwingt die Leute denn gerade, einen R600 zu kaufen? Wer sich etwas informiert, der weiß, dass da Einiges im Argen ist.

Das gleiche Spiel gab es übrigens Ende 2005 / Anfang 2006. Die X1800-Serie kam und wurde kurz darauf durch die X1900 ersetzt. Mit dem Unterschied, dass die X1800 durchaus beim Start und danach taugte.

MfG,
Raff

d2kx
2007-05-27, 13:07:56
1. Ist es ganz normal, dass schon sehr schnell Refreshchips erscheinen
2. Wusste man es schon vorher. Wer sofort die neuste High-End-Hardware kauft, sollte sich auch mal informieren
3. Wollten sie niemanden auf die neue Generation warten lassen, irgendwann brauchen sie ja auch mal Geld

AnarchX
2007-05-27, 13:08:31
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362538

Lightning
2007-05-27, 13:09:29
Ich frage mich vor allem, wo das Problem ist, wenn eine neue Karte erscheint. Die alte wird dadurch doch kein Stück schlechter. Man hat genau das bekommen, wofür man bezahlt hat.

:o)Uhummel
2007-05-27, 13:14:35
Habt schon recht.-Aber es gibt eben schon viele R600-Käufer, die auf Besserung (Leistung, Treiber ...) warten, min 350€ ausgeg. haben (Einige auch als Technik-Freaks bzw. Leute die ATI ne Chance geben wollten usw...) und jetzt richtig "blöd" dastehen.
P.s. Wie konnte ATI auch nur 16 Tex.-Einheiten verbauen ...

Gruß

=Floi=
2007-05-27, 13:16:14
was anderes kann ATI garnicht machen...
mit der karte sind sie nicht konkurrenzfähig

LovesuckZ
2007-05-27, 13:17:05
Sie sind selbst schuld. Niemand musste sich die Karte kaufen, niemand musste 6 Monate warten. Wenn man nun eben aus freiwilligem Stück in verbuggte Hardware sein Geld investiert, sollte man nicht die Firma dafür belegen, sondern den Kauf hinterfragen.

Lightning
2007-05-27, 13:20:44
Habt schon recht.-Aber es gibt eben schon viele R600-Käufer, die auf Besserung (Leistung, Treiber ...) warten, min 350€ ausgeg. haben (Einige auch als Technik-Freaks bzw. Leute die ATI ne Chance geben wollten usw...) und jetzt richtig "blöd" dastehen.
P.s. Wie konnte ATI auch nur 16 Tex.-Einheiten verbauen ...

Gruß

Wenn die Treiber jetzt auf Grund einer neuen Grafikkarte tatsächlich nicht mehr vernünftig weiterentwickelt werden, dann gebe ich dir natürlich recht. Aber das ist reine Spekulation. Solange der Support vernünftig bleibt, steht niemand blöd da.

Gast
2007-05-27, 13:22:29
Naja, wer ne 8800GTX gekauft hat, hat auch nicht besser gemacht: Die Ultra kam danach. Aber wer die Ultra kauft, setzt nur unnötig Geld in den Sand, mit einer GTX gehts schließlich genauso gut. :)


Generell würde ich 2007 keine DX10 Karte kaufen. Die sind noch nicht ausgereift. Zu hoher Stromverbrauch im 3D und vorallem 2D Betrieb und keine Anwendungen, die es überhaupt ausnutzen.

Ein guter Zeitpunkt für den Kauf ist meines erachtens dann, wenn folgende Bedingungen gegeben sind: Vista SP1, 65-55nm, Direct3D10.1

Vorallem dieses 10.0 auf 10.1 bei der D3D Version irritiert mich schon etwas.

LovesuckZ
2007-05-27, 13:24:13
Generell würde ich 2007 keine DX10 Karte kaufen. Die sind noch nicht ausgereift. Zu hoher Stromverbrauch im 3D und vorallem 2D Betrieb und keine Anwendungen, die es überhaupt ausnutzen.


Seit wann läuft eine 8800 (oder auch eine 8600) Karte nur mit D3D10 Anwendungen?

Botcruscher
2007-05-27, 13:27:57
Ich erinnere nur an die User die NV wegen mangelhafter Treiber verklagen wollten.;)

Gast
2007-05-27, 13:29:02
Seit wann läuft eine 8800 (oder auch eine 8600) Karten nur mit D3D10 Anwendungen?

Seit wann fällt es dir so schwer, einen Satz so zu lesen, wie er dort steht?

Die Kritikpunkte bleiben.

dargo
2007-05-27, 13:29:20
Generell würde ich 2007 keine DX10 Karte kaufen. Die sind noch nicht ausgereift. Zu hoher Stromverbrauch im 3D und vorallem 2D Betrieb und keine Anwendungen, die es überhaupt ausnutzen.

Lol, seit wann hat ein RV630 hohen Stromverbrauch? X-D
Und nur mal so nebenbei, ich habe mir eine DX10 Graka aus Performancegründen gekauft und nicht wegen DX10. ;)

Gast
2007-05-27, 13:32:13
Lol, seit wann hat ein RV630 hohen Stromverbrauch? X-D

Wo kann ich diese Karte kaufen? Informiere dich erstmal, bevor du solch einen Unsinn von dir gibst. Die Karte ist noch gar nicht raus und zudem bleibt die Frage offen, ob deren Performance überhaupt reicht, um D3D10 überhaupt gerecht zu werden.
Das weißt du genauso, wie ich. Warum du dich absichtlich dumm stellst, ist mir jedoch ein Rätsel.

LovesuckZ
2007-05-27, 13:33:05
Seit wann fällt es dir so schwer, einen Satz so zu lesen, wie er dort steht?


Ich habe deinen Satz schon verstanden. Da du aber meinst, man sollte die Karte nicht kaufen, weil keine Anwendung zur Zeit von D3D10 profitiere, ist meine Gegenfrage berechtigt. Du reduzierst die Karte auf ihre D3D10 Fähigkeit.
Daher nochmal meine Frage: Seit wann läuft eine 8800 (oder auch eine 8600) Karten nur mit D3D10 Anwendungen?

Xmas
2007-05-27, 13:35:11
Mit dem Unterschied, dass die X1800 durchaus beim Start und danach taugte.
Inwiefern ist das ein Unterschied?

dargo
2007-05-27, 13:35:19
Wo kann ich diese Karte kaufen? Informiere dich erstmal, bevor du solch einen Unsinn von dir gibst. Die Karte ist noch gar nicht raus und zudem bleibt die Frage offen, ob deren Performance überhaupt reicht, um D3D10 überhaupt gerecht zu werden.
Das weißt du genauso, wie ich. Warum du dich absichtlich dumm stellst, ist mir jedoch ein Rätsel.
Meine Güte, dann nimm halt eine G8600GTS von mir aus. Und, dass diese Karten für bestimmte Settings zu lahm sind hat rein gar nichts mit DX10 zu tun.

Gast
2007-05-27, 13:37:21
Ich habe deinen Satz schon verstanden. Da du aber meinst, man sollte die Karte nicht kaufen, weil keine Anwendung zur Zeit von D3D10 profitiere, ist meine Gegenfrage berechtigt. Du reduzierst die Karte auf ihre D3D10 Fähigkeit.

Nein, das habe ich nicht. Les nochmal nach.

Ich sagte, das die Kritikpunkte bleiben, egal welchen Modi du benutzt. Selbst wenn du eine DirectX8 Anwendungen hernimmst, was ändert das daran, das die Karte unheimlich viel Strom verbraucht, noch miese Treiber vorzuweisen hat und für Direct3D10 kein Bedarf besteht?

Mancko
2007-05-27, 13:40:06
Naja, wer ne 8800GTX gekauft hat, hat auch nicht besser gemacht: Die Ultra kam danach. Aber wer die Ultra kauft, setzt nur unnötig Geld in den Sand, mit einer GTX gehts schließlich genauso gut. :)


Den Satz verstehe ich nicht so ganz. Aus meiner Sicht haben all diejenigen, die sich eine GTX gekauft haben alles richtig gemacht. Die Karte ist seit 7 Monaten auf den Markt und hatte die absolute Leistungskrone inne. Die Performance und BQ lässt sich sofort nutzen. Man braucht kein DX10 Spiel um die 8800 GTX auszureizen.
Wer die Ultra kauft, der will immer das beste und hat keine Lust auf Übertakten. Das muss jeder selber wissen. Insgesamt ist die Situation aber in keinster Weise mit der bei der 2900XT zu vergleichen.
Die Karte ist nicht das beste, hat mit einer GTS 640 MB zu kämpfen und ist auch ansonsten recht unausgeglichen und kein wirklich rundes Produkt.

Jeder der sich informiert weiss das und lässt die Finger von der Karte. Alle anderen haben sich entweder nicht informiert oder wollen immer nur ATI Karten kaufen. Wers braucht. Ich kauf das, was für mich am besten ist. Was ATI und NV machen ist mir wurscht.


Generell würde ich 2007 keine DX10 Karte kaufen. Die sind noch nicht ausgereift. Zu hoher Stromverbrauch im 3D und vorallem 2D Betrieb und keine Anwendungen, die es überhaupt ausnutzen.


Man braucht kein DX10 um seine G80 Karte geniessen zu können. Die stellen alles bisher dagewesene in Performance und Bildqualität in den Schatten.


Ein guter Zeitpunkt für den Kauf ist meines erachtens dann, wenn folgende Bedingungen gegeben sind: Vista SP1, 65-55nm, Direct3D10.1

Vorallem dieses 10.0 auf 10.1 bei der D3D Version irritiert mich schon etwas.
Warten kann man immer und wenn wir auf die von dir beschriebene Situation warten, dann gibt es bis dahin schon wieder was neues und man kann mit der selben Argumentation auch gleich nochmal 1 Jahr warten.
Warten macht in der EDV keinen Sinn, es sei denn es stehen unmittelbar irgendwelche Hardwareupdates bevor.

Gerade die aktuelle Generation hat gezeigt, dass "Warten" ein schlechter Ratgeber ist. Alle die sich gleich die G80 GTX gekauft haben, konnten 7 Monate ungestört mit der besten Karte spielen und können das mit ein bisschen OC immer noch, da die Ultra ja kaum der Rede Wert ist.
Zusätzlich haben sie sogar kaum einen Wertverlust bei ihren GTX Karten, da ATI/AMD eine sehr späte und zudem schwache Vorstellung geboten haben.
Wer auf ATI/AMD gewartet hat, der ist im Grunde genommen jetzt gekniffen und stellt fest, dass es umsonst war.

Gast
2007-05-27, 13:40:10
Meine Güte, dann nimm halt eine G8600GTS von mir aus.

Das ist eine noch schlechtere Wahl, da langsamer als die vorherige Mittelklasse.

Generell kaufe ich nur Highendkarten und im moment ist das Risiko eines Fehlkaufs sehr hoch. Geduld ist hier die Lösung.
Wer noch einige Zeit warten kann, bekommt mehr Performance zum gleichen Preis, bessere Treiber, Anwendungen die D3D10 auch nutzen und muss sich nicht mehr über solche Dinge wie hier aufregen ...

Achja und das Betriebssystem wird natürlich auch weiter entwickelt sein. Aber das nur am Rande.

Undertaker
2007-05-27, 13:42:56
Wer zwingt die Leute denn gerade, einen R600 zu kaufen? Wer sich etwas informiert, der weiß, dass da Einiges im Argen ist.

Das gleiche Spiel gab es übrigens Ende 2005 / Anfang 2006. Die X1800-Serie kam und wurde kurz darauf durch die X1900 ersetzt. Mit dem Unterschied, dass die X1800 durchaus beim Start und danach taugte.

MfG,
Raff

ist das denn beim r600 anders? kam mit kräftiger verspätung, erreicht nur gerade so die performance der bereits länger erhältlichen konkurrenz, wird nur wenige monate später von einem vielfach schnelleren chip abgelöst - mittlerweile kann man wohl sagen, dass ein r600 die gleiche fehlinvestition wie ein r520 wäre (den ich mir auch sinnfreier weise zugelegt hatte)...

dargo
2007-05-27, 13:47:15
Generell kaufe ich nur Highendkarten und im moment ist das Risiko eines Fehlkaufs sehr hoch. Geduld ist hier die Lösung.
Wer noch einige Zeit warten kann, bekommt mehr Performance zum gleichen Preis, bessere Treiber, Anwendungen die D3D10 auch nutzen und muss sich nicht mehr über solche Dinge wie hier aufregen ...

Warten kannst du immer, bis du Rentner bist. :D
Nach dem G9x/R650 werden eh wieder Gerüchte über den G100 und R700 verbreitet und du kannst wieder warten. Dann kommt DX11 und du kannst wieder auf DX12 warten. Merkst du was?


Achja und das Betriebssystem wird natürlich auch weiter entwickelt sein. Aber das nur am Rande.
Nochmal, diejenigen die eine GTX/GTS gekauft haben, haben dies nur aus Performancegründen und/oder BQ Gründen gemacht und nicht wegen DX10!

Gast
2007-05-27, 13:51:07
Den Satz verstehe ich nicht so ganz.

Den Satz verstehst du sicher: Warum 200€ für eine Ultra extra zahlen, die man sich selber basteln oder für einen geringen Aufpreis von jemanden kaufen kann?
Wie man es macht, man macht es falsch.

Aus meiner Sicht haben all diejenigen, die sich eine GTX gekauft haben alles richtig gemacht.

Aus meiner Sicht nicht. Die Performance ist unter Vista immer erheblich schlechter teilweise und das ist für mich ein sehr gewichtiger Grund, sie als Fehlkauf zu bezeichnen. Das liegt zudem nicht mal an Vista, wie fälschlicherweise hier behauptet. Die anderen Komponenten laufen schließlich auch nicht langsamer, nur wegen dem anderen OS. Vorallem werden diejenigen sich ärgern, die eine komplette Neuanschaffung geplant haben und dann unnötig Leistung aufgrund eines miesen Treibers einbüßen müssen. Denn nicht jeder mag sich gleich mehrere Betriebssysteme leisten, was auch gar nicht nötig wäre, wenn da dieses Problemchen nicht wäre.
Schon traurig das selbst nach so vielen Monaten die Performance immer noch nicht auf dem Niveau ist, auf dem sie sein könnte.

Crazy_Chris
2007-05-27, 13:52:09
Wer auf ATI/AMD gewartet hat, der ist im Grunde genommen jetzt gekniffen und stellt fest, dass es umsonst war.

Da ist etwas wahres dran. :(

J0ph33
2007-05-27, 13:54:18
ist das denn beim r600 anders? kam mit kräftiger verspätung, erreicht nur gerade so die performance der bereits länger erhältlichen konkurrenz, wird nur wenige monate später von einem vielfach schnelleren chip abgelöst - mittlerweile kann man wohl sagen, dass ein r600 die gleiche fehlinvestition wie ein r520 wäre (den ich mir auch sinnfreier weise zugelegt hatte)...

R520 war durchgängig schneller als ne 7800GTX, war zum Launch also das schnellste, was man kaufen konnte (und auch weithin bis zum X1900er-Launch, die GTX 512 konnte man ja bald nicht mehr wirklich kaufen)...vorallem aber eins: R520 hat den R480 IMMER und in jeder Disziplin haushoch geschlagen, wie es sich für ein Nachfolgechip gehört...R600 erreicht in vielen Fällen nur die Performance einer X1950XTX...ach und außerdem, R580 ist nicht ein vielfach schneller chip verglichen mit R520, manchmal 20-30% schneller, manchmal gar nicht schneller (quake4 z.B.)

Sterem
2007-05-27, 13:55:12
Die X2900 XT ist schneller als eine 8800GTS und kostet 50 $ mehr.Ich glaube nicht das es hier irgend wo ein problem gibt.:rolleyes:

=Floi=
2007-05-27, 13:56:21
edit zitat:
Da ist etwas wahres dran.

daran ist aber ati (selbst) schuld und nicht der user

:o)Uhummel
2007-05-27, 13:57:32
Warten kann man immer und wenn wir auf die von dir beschriebene Situation warten, dann gibt es bis dahin schon wieder was neues und man kann mit der selben Argumentation auch gleich nochmal 1 Jahr warten.
Warten macht in der EDV keinen Sinn, es sei denn es stehen unmittelbar irgendwelche Hardwareupdates bevor.

Gerade die aktuelle Generation hat gezeigt, dass "Warten" ein schlechter Ratgeber ist. Alle die sich gleich die G80 GTX gekauft haben, konnten 7 Monate ungestört mit der besten Karte spielen und können das mit ein bisschen OC immer noch, da die Ultra ja kaum der Rede Wert ist.
Zusätzlich haben sie sogar kaum einen Wertverlust bei ihren GTX Karten, da ATI/AMD eine sehr späte und zudem schwache Vorstellung geboten haben.
Wer auf ATI/AMD gewartet hat, der ist im Grunde genommen jetzt gekniffen und stellt fest, dass es umsonst war.[/QUOTE]

So siehts aus! -Bin genau D. Meinung. Ich informiere mich immer im Vorfeld (vor dem richtigen Launch) auf alle mögl. Weise. Z.Zt. Nutze ich ne ASUS 1950Pro (davor ne passive 7600GS OC) , die ich vor ca. 4 Monaten für 170€ mit Versand gekauft habe und bin absolut zufrieden.

aths
2007-05-27, 13:58:18
Nein, das habe ich nicht. Les nochmal nach.Der Imperativ von lesen ist lies.

Wer auf ATI/AMD gewartet hat, der ist im Grunde genommen jetzt gekniffen und stellt fest, dass es umsonst war.Wenn man Ultrahighendleistung wollte, ja. Dass ATI diesmal nicht im Ultrahighsegment konkurriert, zeichnete sich aber schon vor dem Launch ab.

Gast
2007-05-27, 13:58:42
Nach dem G9x/R650 werden eh wieder Gerüchte über den G100 und R700 verbreitet und du kannst wieder warten. Dann kommt DX11 und du kannst wieder auf DX12 warten. Merkst du was?

Ja, das du von etwas ganz anderem redest, als ich.
Gerüchte sind ungleich der Realität.

Wenn ich schon vor dem Kauf der ersten Generation höre, das kurze Zeit danach Verbesserungen kommen soll, ist der Zeitpunkt denkbar schlecht.

Zudem sind Zwischenschritte und ganze Versionssprünge nicht direkt vergleichbar. DirectX11 erwartet dich nicht die nächsten 2-3 Jahren, das wäre längst bekannt, da es auch die Entwickler betrifft und diese vorab informiert werden. Und selbst wenn, dann kannst du noch locker mindestens 1-2 Jahre draufrechnen, bis Anwendungen in Massen kommen.

Da besteht wenig Gefahr. Aber was ist mit kleinen weiterentwicklungen? Die kommen öfters mal raus und da würde man sich schwarz ärgern, kurze Zeit vorher 500€ in eine Karte investiert zu haben, die zwar gute Leistungen bietet, aber eben nicht mehr up2date ist.

Undertaker
2007-05-27, 13:59:51
R520 war durchgängig schneller als ne 7800GTX, war zum Launch also das schnellste, was man kaufen konnte (und auch weithin bis zum X1900er-Launch, die GTX 512 konnte man ja bald nicht mehr wirklich kaufen)...vorallem aber eins: R520 hat den R480 IMMER und in jeder Disziplin haushoch geschlagen, wie es sich für ein Nachfolgechip gehört...R600 erreicht in vielen Fällen nur die Performance einer X1950XTX...ach und außerdem, R580 ist nicht ein vielfach schneller chip verglichen mit R520, manchmal 20-30% schneller, manchmal gar nicht schneller (quake4 z.B.)

deine erinnerung trügt dich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/17/#abschnitt_performancerating

speziell bei shaderlast, also vielen jetzt aktuellen spielen, wird der r520 vom r580 zum teil um den faktor 2 überholt...

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/10/#abschnitt_age_of_empires_3

horn 12
2007-05-27, 14:00:52
Aber einen Vorteil hat der R600 sicherlich, den Preis.
Wenn der G90/92 und R650 gut, also wirklich gut werden wird, dann sind die Preise ganz schnell wieder auf 500-600 Euro oben, auch wenn er weniger kosten würde für die Hersteller A/A:mad: :mad:
Seshalb ist der R600 nicht ganz soo schlecht, :eek: ausser nun den felhenden UVP Decoder.:mad: :P

Raff
2007-05-27, 14:01:23
ist das denn beim r600 anders? kam mit kräftiger verspätung, erreicht nur gerade so die performance der bereits länger erhältlichen konkurrenz, wird nur wenige monate später von einem vielfach schnelleren chip abgelöst - mittlerweile kann man wohl sagen, dass ein r600 die gleiche fehlinvestition wie ein r520 wäre (den ich mir auch sinnfreier weise zugelegt hatte)...

What? Da muss ich den R520 mal "in Schutz nehmen". Ich quäle so eine Karte seit über einem Jahr und bin erfreut, dass die Leistung des mehr als 1,5 Jahre alten und schon beim Start angeblich überholten Chips noch reicht. Mal von Colin McRae DIRT, wo der "Dreck" offenbar auf die Effizienz des Renderings bezogen ist, abgesehen. ;)

deine erinnerung trügt dich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/17/#abschnitt_performancerating

speziell bei shaderlast, also vielen jetzt aktuellen spielen, wird der r520 vom r580 zum teil um den faktor 2 überholt...

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/10/#abschnitt_age_of_empires_3

Die Werte sind steinalt. Wo gibt's im spielbaren Bereich in der Realität Faktor 2, vom ebenfalls steinalten Age 3 abgesehen?

MfG,
Raff

=Floi=
2007-05-27, 14:01:31
warten auf den refresh lohnt sich meistens schon!

Sterem
2007-05-27, 14:02:23
In gut 1 Monat wird dich die Karte dann ganz von der 8800 Gts abgesetz haben.

Call of Duty 2:

8.38 RC3
1920x1200 4AA/16AF -> 31 FPS
1920x1200 4AAA/16AF -> 16 FPS

8.38 RC7
1920x1200 4AA/16AF -> 45 FPS
1920x1200 4AAA/16AF -> 20 FPS

http://www.forumdeluxx.de/forum/showthread.php?t=357905&highlight=Treibervergleich

Mr.Fency Pants
2007-05-27, 14:03:20
Nochmal, diejenigen die eine GTX/GTS gekauft haben, haben dies nur aus Performancegründen und/oder BQ Gründen gemacht und nicht wegen DX10!

Pauschal würde ich diese Aussage nicht unterstreichen. Gibt sicherlich auch viele, die darin eine Zukunftsinvestition in die Zukunft D3D10 gesehen haben. Gegenfrage: hätten sich alle diese Leute auch eine Karte geakuft, wenn diese ausschliesslich DX9 beherrscht hätte? Ich glaube nicht.

LovesuckZ
2007-05-27, 14:04:41
Nein, das habe ich nicht. Les nochmal nach.

Ich zitiere nur den Teil, auf den ich mich bezogen habe:
"Generell würde ich 2007 keine DX10 Karte kaufen. Die sind noch nicht ausgereift. [...] keine Anwendungen, die es überhaupt ausnutzen."

Du reduzierst die Karten auf D3D10.

Ich sagte, das die Kritikpunkte bleiben, egal welchen Modi du benutzt. Selbst wenn du eine DirectX8 Anwendungen hernimmst, was ändert das daran, das die Karte unheimlich viel Strom verbraucht, noch miese Treiber vorzuweisen hat und für Direct3D10 kein Bedarf besteht?

Der einzige Kritikpunkt, der sich nicht in Luft auflöst, wäre der hohe Stromverbrauch im 2D Modus. "Unausgereifte Treiber" und "keine Anwendungen, die es [D3D10] überhaupt ausnutzen" sind unter XP keine Kritikpunkte, da sie entweder belanglos (D3D10) sind oder nicht eintreffen (Treiber).

Undertaker
2007-05-27, 14:08:57
What? Da muss ich den R520 mal "in Schutz nehmen". Ich quäle so eine Karte seit über einem Jahr und bin erfreut, dass die Leistung des mehr als 1,5 Jahre alten und schon beim Start angeblich überholten Chips noch reicht. Mal von Colin McRae DIRT, wo der "Dreck" offenbar auf die Effizienz des Renderings bezogen ist, abgesehen. ;)

keiner sagt, der r520 war mies ;) der refresh war nur eben viiiiel besser ;)


Die Werte sind steinalt. Wo gibt's im spielbaren Bereich in der Realität Faktor 2, vom ebenfalls steinalten Age 3 abgesehen?

MfG,
Raff

nfs:carbon, rainbow 6 vegas, gothic 3, da kann man praktisch immer mit 50% aufwärts rechnen ;)

letztlich eigentlich fast überall dort, wo der g70 sehr schlecht dasteht reißt auch der r520 nix

:o)Uhummel
2007-05-27, 14:16:02
Beim R520 zum R580 hats aber wenigstens ein paar Monate gedauert. ATI will den R650 im dritten Quartal rausbringen.-Gibt ja noch nicht mal jetzt genügend 2900-Boards zu richtig vernünftigen Preisen und wir haben fast Juni!
P.s. Und beim R520 hats noch ne ganze Weile gedauert, bis einige immer shaderlastiger werdende D3D9/OGL-Games die zusätzlichen Einheiten auch richtig genutzt hatten/haben. -Hab Kumpels, die immer noch mit R520-Boards neuste Titel zocken und es läuft alles echt OK.-Zumin. mit teilweise reduzierten Det..

PCGH_Carsten
2007-05-27, 14:20:16
Beim R520 zum R580 hats aber wenigstens ein paar Monate gedauert. ATI will den R650 im dritten Quartal rausbringen.-Gibt ja noch nicht mal jetzt genügend 2900-Boards zu richtig vernünftigen Preisen und wir haben fast Juni!
P.s. Und beim R520 hats noch ne Weile gedauert, bis einige Shaderlastige Games die zusätzlichen Einheiten auch richtig genutzt haben.
Ja, Ende Oktober bis Ende Januar - drei Monate.
Jetze hamwa Mitte Mai gehabt und dieselben drei Monate würden uns -taddaaa- mitten ins dritte Quartal befördern. Wo ist also der Unterschied?

:o)Uhummel
2007-05-27, 14:25:59
Ja, Ende Oktober bis Ende Januar - drei Monate.
Jetze hamwa Mitte Mai gehabt und dieselben drei Monate würden uns -taddaaa- mitten ins dritte Quartal befördern. Wo ist also der Unterschied?

OK,sorry da haste allerdings recht.-Waren es wirklich nur 3 Monate vom R520 zum R580?

dargo
2007-05-27, 14:26:55
Ja, das du von etwas ganz anderem redest, als ich.
Gerüchte sind ungleich der Realität.

Wenn ich schon vor dem Kauf der ersten Generation höre, das kurze Zeit danach Verbesserungen kommen soll, ist der Zeitpunkt denkbar schlecht.

Zudem sind Zwischenschritte und ganze Versionssprünge nicht direkt vergleichbar. DirectX11 erwartet dich nicht die nächsten 2-3 Jahren, das wäre längst bekannt, da es auch die Entwickler betrifft und diese vorab informiert werden. Und selbst wenn, dann kannst du noch locker mindestens 1-2 Jahre draufrechnen, bis Anwendungen in Massen kommen.

Da besteht wenig Gefahr. Aber was ist mit kleinen weiterentwicklungen? Die kommen öfters mal raus und da würde man sich schwarz ärgern, kurze Zeit vorher 500€ in eine Karte investiert zu haben, die zwar gute Leistungen bietet, aber eben nicht mehr up2date ist.
Sorry, aber deine Argumentation kann ich nicht verstehen. Du wartest also auf den Refresh vom G80 bzw. R600. Sagen wir mal beide erscheinen Ende des Jahres. Und? ca. 6-9 Monate später erscheint wieder ein neuer Grafikchip einer der Hersteller der ~doppelt so schnell ist wie dein Refreshchip der jetzigen Generation. Wie gesagt, warten kannst du immer.

Und jetzt noch was wichtiges. Du redest von High-End und willst dir keinen G80 momentan kaufen? Da frage ich mich wie du deine Games mit einer schwächeren Graka jetzt spielst? So High-End kann es bei dir gar nicht sein.

Up2date beim PC und dann noch Grafikkarten? ;D
Wenn du alle 6-12 Monate eine neue Graka dir kaufst dann kannst du up2date sein, sonst nicht. Dafür ist der Lebenszyklus bei Grafikkarten viel zu kurz, bzw. der Fortschritt geht viel zu schnell voran.

PCGH_Carsten
2007-05-27, 14:31:12
OK,sorry da haste allerdings recht.-Waren es wirklich nur 3 Monate vom R520 zum R580?
Ja, so ziemlich. Der R520 hatte ja auch Verspätung - sollte eigentlich im Mai gelauncht werden, wurde dann Oktober.

Was allerdings schön wäre, wäre, wenn AMD bereits Anfang des dritten Quartals mit dem R650 dasteht. :) Ein heißer Herbst.

:o)Uhummel
2007-05-27, 14:31:16
Sorry, aber deine Argumentation kann ich nicht verstehen. Du wartest also auf den Refresh vom G80 bzw. R600. Sagen wir mal beide erscheinen Ende des Jahres. Und? ca. 6-9 Monate später erscheint wieder ein neuer Grafikchip einer der Hersteller der ~doppelt so schnell ist wie dein Refreshchip der jetzigen Generation. Wie gesagt, warten kannst du immer.

Und jetzt noch was wichtiges. Du redest von High-End und willst dir keinen G80 momentan kaufen? Da frage ich mich wie du deine Games mit einer schwächeren Graka jetzt spielst? So High-End kann es bei dir gar nicht sein. So siehts aus!!!-find ich auch Hier noch ein Auszug von einem Teilnehmer, dem ich auch nur zustimmen k..
Warten kann man immer und wenn wir auf die von dir beschriebene Situation warten, dann gibt es bis dahin schon wieder was neues und man kann mit der selben Argumentation auch gleich nochmal 1 Jahr warten.
Warten macht in der EDV keinen Sinn, es sei denn es stehen unmittelbar irgendwelche Hardwareupdates bevor.

Gerade die aktuelle Generation hat gezeigt, dass "Warten" ein schlechter Ratgeber ist. Alle die sich gleich die G80 GTX gekauft haben, konnten 7 Monate ungestört mit der besten Karte spielen und können das mit ein bisschen OC immer noch, da die Ultra ja kaum der Rede Wert ist.
Zusätzlich haben sie sogar kaum einen Wertverlust bei ihren GTX Karten, da ATI/AMD eine sehr späte und zudem schwache Vorstellung geboten haben.
Wer auf ATI/AMD gewartet hat, der ist im Grunde genommen jetzt gekniffen und stellt fest, dass es umsonst war.[/quote]

So siehts aus! -Bin genau D. Meinung. Ich informiere mich immer im Vorfeld (vor dem richtigen Launch) auf alle mögl. Weise. Z.Zt. Nutze ich ne ASUS 1950Pro (davor ne passive 7600GS OC) , die ich vor ca. 4 Monaten für 170€ mit Versand gekauft habe und bin absolut zufrieden.

Ja, so ziemlich. Der R520 hatte ja auch Verspätung - sollte eigentlich im Mai gelauncht werden, wurde dann Oktober.

Was allerdings schön wäre, wäre, wenn AMD bereits Anfang des dritten Quartals mit dem R650 dasteht. :) Ein heißer Herbst.

Ja, v.a. schön für die, die sich schon eine der überteuerten 2900er geleistet haben.(Aus welchen Gründen auch immer) -Aber eigtl. muß man ganz hart sagen:"Selber Schuld"! -Wird ein massiv heißer Herbst! :o)

dargo
2007-05-27, 14:39:20
Pauschal würde ich diese Aussage nicht unterstreichen. Gibt sicherlich auch viele, die darin eine Zukunftsinvestition in die Zukunft D3D10 gesehen haben.

Wer für die Zukunft kauft hat den PC immer noch nicht verstanden. Wie blöd muss man eigendlich sein um sich ein in diesem Fall High-End Produkt nur wegen DX10 zu kaufen? Bis Spiele davon richtig Gebrauch machen gibt es wieder deutlich schnellere Grakas. Meistens ist dann das jetzt gekaufte High-End Produkt gar nicht mehr so "High-End". Das hat aber nichts primär was mit DX10 zu tun sondern allgemein mit dem erhöhten Rechenaufwand aufgrund von mehr Details.


Gegenfrage: hätten sich alle diese Leute auch eine Karte geakuft, wenn diese ausschliesslich DX9 beherrscht hätte? Ich glaube nicht.
Du meinst wenn es noch kein DX10 gäbe? Natürlich! Was willst du sonst machen wenn dir die Leistung für deine Settings nicht reicht?

Mr.Fency Pants
2007-05-27, 14:44:39
DX10 ist "auch" ein Argument für einige Käufer, nicht das einzige. Ich bezweifle deine Aussage, dass alle Käufer ausschliesslich daran gedacht haben, was sie jetzt brauchen.

Ich meine damit, dass sich viel weniger Leute eine schnelle 8800er gekauft hätten, wenn diese keine "Zukunftssicherjeit" in Form von DX10 mitgebrächt hätte, da hätten viele Leute garantiert noch gewartet.

LovesuckZ
2007-05-27, 14:47:11
Ich meine damit, dass sich viel weniger Leute eine schnelle 8800er gekauft hätten, wenn diese keine "Zukunftssicherjeit" in Form von DX10 mitgebrächt hätte, da hätten viele Leute garantiert noch gewartet.

Im High-End Markt ist die Aufklärung deutlich höher als im Preisbereich <200€. DIe potentiellen Käufer sind meisten sehr gut über die Hardware informiert und wissen Eigenschaften auch einzuschätzen.
Ich wette, dass D3D10 nur einen geringen Anteil an der Kaufentscheidung hat, da primär die Leistung und eventuell Kühllautstärke im Vordergrund standen.

dargo
2007-05-27, 15:09:49
Beim R520 zum R580 hats aber wenigstens ein paar Monate gedauert. ATI will den R650 im dritten Quartal rausbringen.-Gibt ja noch nicht mal jetzt genügend 2900-Boards zu richtig vernünftigen Preisen und wir haben fast Juni!

Hier hast du den besten Beweis, dass der R600 nichts/kaum taugt und AMD damit wohl kaum noch Geld verdient (sie mussten ja den Preis so tief setzen, was anderes blieb denen auch nicht übrig). Wer sich trotzdem einen R600 kauft ist für mich nur ein ATI-Fanboy. Was anderes fällt mir dazu nicht ein.


Ich meine damit, dass sich viel weniger Leute eine schnelle 8800er gekauft hätten, wenn diese keine "Zukunftssicherjeit" in Form von DX10 mitgebrächt hätte, da hätten viele Leute garantiert noch gewartet.
Du kannst nicht einfach warten wenn die Leistung für Settings XYZ nicht mehr reicht. Und das ist die Käuferschicht die sich einen G80 geleistet hat. Es bleibt nichts anderes übrig als sich ~doppelt so schnelle Graka zu kaufen. Wie lange sollen die deiner Meinung nach warten? Den G80 gibts schon ~7Monate. Bis ein G90/R650 erscheinen sind es dann ~10Monate (im besten Fall, sonst eher 12 Monate). So lange hält es kein High-End User aus. ;)

horn 12
2007-05-27, 15:19:31
@Dargo

Abwarten, gib der Karte HD 2900 XT noch 1-2 Wochen, dann kann man besser urteilen. Die DNA Treiber sind da und das ATT wird zur Zeit angepasst, schaun was sich da Lüfterseitig/ Temperaturseitig ändert.
Auch können etliche Probleme mit dem DNA Treiber gefixt worden sein, und somit schon Besserung bewirken.

EcHo
2007-05-27, 15:21:02
Early-Adopters waren doch schon immer die Dummen...
Wer sich teures High-End kauft, muss mit dem Werteverfall und Problemen leben, dass ist doch schon seit 20 Jahren so. (Ausgenommen irgendwelcher Glückstreffer, der R300 hat sich ja ewig gehalten)

Wer sich Hardware für die Zukunft kauft, der verbrennt immer Geld. Wer Aufgrund von Fanboy-Einstellungen auf "seinen Hersteller" wartet oder sich vom Marketing blenden lässt, muss mit den Konsequenzen leben.

Hardware kauft man, für die aktuellen Bedürfnisse. Wenn das vorhergesagte Potenzial, was angeblich in einem Chip steckt, nicht ausgeschöpft wird, dann ist das halt Pech. Gekauft wurde zu einem Zeitpunkt mit einem gewissen "Zustand".

Wenn noch mehr Nachkommt, ist das sicherlich schön...

MartinRiggs
2007-05-27, 15:22:08
Man kann nur hoffen das es ein heisser Herbst wird, NV hält die 8800gtx künstlich hoch, die 8800gts will ich nicht und der R600 ist zu sehr ein "Überaschungsei".
Ein fett schneller R650 mit ausgebügelten Bugs wäre für mich genau das richtige:biggrin:

dargo
2007-05-27, 15:22:39
@Dargo

Abwarten, gib der Karte HD 2900 XT noch 1-2 Wochen, dann kann man besser urteilen.
Das Ding ist total ineffizient. Ein Stromverbrauch jenseits von gut und böse. Selbst wenn ein Wunder geschieht und die Karte noch gut bei der Leistung zulegt. Bald erwarten uns 65nm High-End Chips. Wen interessiert da noch eine Heizung @R600?

Matrix316
2007-05-27, 15:22:57
Komisch, dass ATI nichts aus dem X1800er Fall gelernt hat. Hätte man nicht gleich den R650 entwickeln können? ;)

r3ptil3
2007-05-27, 15:26:34
Mir wäre es am liebsten wenn jeden Monat neue Grafikkarten -von beiden grossen Herstellern- kommen würden, schliesslich zieht dann der Kunde den meisten nutzen daraus. Die Preise der alten würden schnell fallen. In Wirklichkeit siehts aber noch anders aus, die 8800 GTX kostet fast ein halbes Jahr nach Release immernoch etwa durchschnittlich 475 - 500.-€ .

=Floi=
2007-05-27, 15:31:55
die 7900gtx wurde auch nicht billiger
die highend karte ist bei nv immer preisstabiler

warten auf den refresh macht bei beiden herstellern sinn (sieht man ja an der HD2900XT jetzt sehr schön und die 9XXXGT karten mit vollwertigem chip werden auch jede GTS in die tasche stecken... )

Gast
2007-05-27, 15:36:39
Die X2900 XT ist schneller als eine 8800GTS und kostet 50 $ mehr.Ich glaube nicht das es hier irgend wo ein problem gibt.:rolleyes:War ja klar, dass unsere ATI-Trolle die 2900xt noch schön reden wollen. Das Ding ist höchstens schneller als eine 8800GTS, wenn EATM gegen Transparenz-Supersampling gebencht wird. Unter vergleichbaren Einstellungen und Nutzung von AA/AF ist die GTS fast immer schneller.

dargo
2007-05-27, 15:44:49
In Wirklichkeit siehts aber noch anders aus, die 8800 GTX kostet fast ein halbes Jahr nach Release immernoch etwa durchschnittlich 475 - 500.-€ .
Das ist die völlig normale Entwicklung wenn die Konkurenz nicht mithalten kann. Wozu sollte NV den Preis senken? Das wird erst mit dem Erscheinen des R650 passieren oder des eigenen "Refreshchips".

Daredevil
2007-05-27, 15:46:42
Die XT ist im Computerbase Vergleich bei 7 von 15 SPielen schneller, die GTS die Restlichen 8 unter 1280x1024 4aa 16af.
Je höher die Auflösung desto näher kommt die XT der GTS, manchmal auch der GTX nahe.
Darin sind allerdings noch nicht die Treiberverbesserungen mit inbegriffen, gerade in Call of Duty hat die Karte mit dem neuen Treiber gut zugelegt.
Sie ist Konkurenzfähig wenn man nur auf die Leistung schaut, wenn einem die anderen Aspekte wichtiger sind ist die GTS klar das bessere Paket.

r3ptil3
2007-05-27, 15:49:57
Das ist die völlig normale Entwicklung wenn die Konkurenz nicht mithalten kann. Wozu sollte NV den Preis senken? Das wird erst mit dem Erscheinen des R650 passieren oder des eigenen "Refreshchips".

Ja eben, darum schrieb ich, dass mir es am liebsten wäre wenn die Hersteller noch schneller neure Grafikkarten herausbringen würden.

Gast
2007-05-27, 15:51:36
Die XT ist im Computerbase Vergleich bei 7 von 15 SPielen schneller, die GTS die Restlichen 8 unter 1280x1024 4aa 16af.Sicher, dass da nicht EATM gegen Transparenz-SSAA gebencht wurde? Wenn ich mich recht erinnere war das nämlich der Fall.

dargo
2007-05-27, 15:56:11
Sicher, dass da nicht EATM gegen Transparenz-SSAA gebencht wurde? Wenn ich mich recht erinnere war das nämlich der Fall.
Ja, CB bencht immer mit AAA/TAA.

Daredevil
2007-05-27, 15:57:30
Der 8.37.4.2 war der EATM Treiber, Computerbase hat mit dem 8.37.4.0 gebencht.

Gast
2007-05-27, 15:59:00
Ja, CB bencht immer mit AAA/TAA.Haben sie auch wirklich AAA (Supersampling) verwendet oder war es nicht doch EATM (Multisampling-Variante) was genutzt wurde? Zumindest im Nachtest aufgrund neuer Treiber wurde nämlich EATM verwendet, wenn ich mich nicht täusche.

Daredevil
2007-05-27, 16:00:04
Ja das war der 4.2 den sie in einem Treibervergleich antreten haben lassen, das war der mit EATM, der ist in diesem test aber nicht reingeflossen.
Es gibt aber viele andere Tests wo die XT besser da steht, bei Xbitlabs zb. der Computerbase ist ein Negativbeispiel wo die Karte trotzdem noch ihre daseinsberechtigung hat ( Für die die mit den Schwächen leben können ).

=Floi=
2007-05-27, 16:02:25
es kommt nicht daruf an wer vorne ist sondern wie weit!!! die XT sollte der GTX (welche bestenfalls 30% schneller ist als die GTS) konkurrenz machen und nicht der GTS

CB macht es schon richtig AAA ist muß!

deekey777
2007-05-27, 16:02:52
Komisch, dass ATI nichts aus dem X1800er Fall gelernt hat. Hätte man nicht gleich den R650 entwickeln können? ;)
Was sollte ATi aus dem Fall X1800 gelernt haben? Dass Verspätungen Mist sind?

http://www.beyond3d.com/content/interviews/8/3

We had this concept of the “ping-pong” development between the west and east coast design centres. On paper this looked great, but in practice it didn’t work very well. It doesn’t work well for a variety of reasons, but one of them is the PC architecture, at the graphics level, has targeted innovation and clean sheet innovation and whenever you have separate development teams you are going to, by nature, have a clean sheet development on every generation of product. For one, we can’t afford that and its not clear that it’s the right thing to do for our customers from a stability standpoint. Its also the case that’s there’s no leverage from what the other development team has done, so in some cases you are actually taking a step backwards instead of forwards.

What we are now moving towards is actually a unified design team of both east and west coast, that will develop our next generations of platforms, from R300 to R400 to R500 to R600 to R700, instead of a ping-pong ball between them both. Within that one organisation we need to think about where do we architecturally innovate and where do we not in order to hit the right development cycles to keep the leadership, but it will be one organisation.

If you dissect in, for example, to the R600 product, with is our next, next generation, that development team is all three sites - Orlando, Silicon Valley, Marlborough – but the architectural centre team is in the Valley, as you point out, but all three are part of that organisation.
Überhaupt: Wer sagt, dass der R650 ein Allheilmittel sein wird? 65 nm? Unklar. Mehr TUs? Nein, eher höherer Takt. Das wird ein Refresh, bei dem man eher die Wehwehchen des R600 fixt, nicht mehr.

up¦²
2007-05-27, 16:06:38
... oder es bewahrheitet sich, daß einfach nicht mehr Transistoren mit 80nm gingen und Ati "strippen" mußte :wink:
Die stolzen Watt lassen grüßen...
Mit 65nm ist dann alles wieder "mit an Bord" :smile:

Gast
2007-05-27, 16:44:39
Du wartest also auf den Refresh vom G80 bzw. R600. Sagen wir mal beide erscheinen Ende des Jahres. Und? ca. 6-9 Monate später erscheint wieder ein neuer Grafikchip einer der Hersteller der ~doppelt so schnell ist wie dein Refreshchip der jetzigen Generation.

Ich warte nicht weil was schnelleres kommt, sondern ich warte auf was ausgereiftes! Die jetzigen Karten sind definitiv nicht ausgereift und schon gar nicht als "brauchbar" einzustufen.

Vista ist als Betriebssystem noch ziemlich neu und alle müssen erst Erfahrungen sammeln. Nach ein oder spätestens zwei Jahren hat sich das gelegt und die Treiberentwicklung schreitet extrem viel schneller vorran (auch zukünftige Produkte). Dann kommen noch die Architekturen dazu. Beide haben neuentwickelt und mussten erstmal lernen, wie sich ihre Hardware überhaupt unter den verschiedensten Betriebssystemen und Bedingungen verhält. Das fällt in Zukunft aber weg. Vista wird uns noch lange Zeit begleiten und den Grundstein den sie bei den Treibern gelegt haben, werden ATI und NVIDIA in den nächsten 2-4 Jahre nutzen und somit schneller zum Ziel kommen.

Jetzt kommt aber wieder die Misere mit den Features... wärst du Entwickler und wüsstest, das Direct3D10.1 abwärtskompatibel ist, aber Direct3D10 nicht aufwärtskompatibel, dann würdest du Direct3D10 gleich überspringen und D3D10.1 nutzen, auch deshalb, weil D3D10 in diesem Jahr sowieso keine große Bedeutung erlangen wird und daher schlicht uninteressant ist (und unnötig Geld kosten würde), da vom Massenmarkt nicht wirklich nutzbar. Nun hat der Käufer aber das Problem, das er sich eine D3D10 Karte für 500,- kauft und trotzdem nicht alles uneingeschränkt nutzen kann und somit sein Geld in den Sand gesetzt hat.

Da frage ich mich wie du deine Games mit einer schwächeren Graka jetzt spielst? So High-End kann es bei dir gar nicht sein.

Soll das ein Witz sein? Lange vor dem G80 gab es Grafikkarten, die auf dem gleichen Niveau oder gar darüber lagen.

Ich sag bloß XFX GeForce 7950 GX2 M570 XXX (2x 570 MHz, 2x 775 MHz), die gut und gerne 620/800 MHz lief! Die ist selbst in aktuellen Games in vielen Fällen schneller als eine GTS640 und wenn man gleich zwei Karten davon nutzt, erreicht man locker 8800GTX Niveau und mehr, schon im letzten Sommer!
Wer nur eine davon hatte, konnte in den letzten Monaten günstig daran kommen, da ne menge User das scheinbare "Upgrade" auf die D3D10 Generation vollzogen haben.

Ach übrigens, eine Standard GX2 war schon vor 6 Monaten für etwa 240,- zu haben (ebay), hat nur keiner mitbekommen. :)

dargo
2007-05-27, 17:01:47
Ich warte nicht weil was schnelleres kommt, sondern ich warte auf was ausgereiftes! Die jetzigen Karten sind definitiv nicht ausgereift und schon gar nicht als "brauchbar" einzustufen.

Vista ist als Betriebssystem noch ziemlich neu und alle müssen erst Erfahrungen sammeln. Nach ein oder spätestens zwei Jahren hat sich das gelegt und die Treiberentwicklung schreitet extrem viel schneller vorran (auch zukünftige Produkte). Dann kommen noch die Architekturen dazu. Beide haben neuentwickelt und mussten erstmal lernen, wie sich ihre Hardware überhaupt unter den verschiedensten Betriebssystemen und Bedingungen verhält. Das fällt in Zukunft aber weg. Vista wird uns noch lange Zeit begleiten und den Grundstein den sie bei den Treibern gelegt haben, werden ATI und NVIDIA in den nächsten 2-4 Jahre nutzen und somit schneller zum Ziel kommen.

Jetzt kommt aber wieder die Misere mit den Features... wärst du Entwickler und wüsstest, das Direct3D10.1 abwärtskompatibel ist, aber Direct3D10 nicht aufwärtskompatibel, dann würdest du Direct3D10 gleich überspringen und D3D10.1 nutzen, auch deshalb, weil D3D10 in diesem Jahr sowieso keine große Bedeutung erlangen wird und daher schlicht uninteressant ist (und unnötig Geld kosten würde), da vom Massenmarkt nicht wirklich nutzbar. Nun hat der Käufer aber das Problem, das er sich eine D3D10 Karte für 500,- kauft und trotzdem nicht alles uneingeschränkt nutzen kann und somit sein Geld in den Sand gesetzt hat.

Du beschränkst mir den G80 zu sehr auf DX10. Zum dritten mal (oder schon öfter?), ich habe mir den G80 nicht wegen DX10 gekauft! Sondern wegen fast verdoppelter Leistung im Vergleich zur X1900XT. Und so haben die meisten auf gehandelt. Man kauft sich doch keine Graka jetzt für Spiele die vielleicht in 2008 erscheinen. :|

Der G80 ist eins - ein hervorragender DX9 Grafikchip (zumindest wenn es um Leistung und BQ geht). Wie der in DX10 performt interessiert mich kaum da ich in 2008 zu 99% eh eine neue Graka kaufen werde. Alles eine Frage des Aufpreises.



Soll das ein Witz sein? Lange vor dem G80 gab es Grafikkarten, die auf dem gleichen Niveau oder gar darüber lagen.

Ich sag bloß XFX GeForce 7950 GX2 M570 XXX (2x 570 MHz, 2x 775 MHz), die gut und gerne 620/800 MHz lief! Die ist selbst in aktuellen Games in vielen Fällen schneller als eine GTS640...

Du willst doch nicht ersthaft eine Dual-GPU Graka mit einer Single-GPU Graka vergleichen oder? Von der besseren BQ beim G80 wollen wir erst gar nicht sprechen. Und dann noch eine übertaktete GX2. ;D
Ich kann meine GTS auch sehr gut übertakten. ;)

Übrigens, eine GTS ist in nahezu jedem neuen Game schneller (auch wenn nicht viel) als eine GX2.


und wenn man gleich zwei Karten davon nutzt, erreicht man locker 8800GTX Niveau und mehr, schon im letzten Sommer!
Wer nur eine davon hatte, konnte in den letzten Monaten günstig daran kommen, da ne menge User das scheinbare "Upgrade" auf die D3D10 Generation vollzogen haben.

Jau, warum nicht gleich 4x GX2? :usweet:
Dann kommst du vielleicht auf das Niveau vom GTX@SLI bzw. einem G90. ;D

4711
2007-05-27, 17:08:31
Was sollte ATi aus dem Fall X1800 gelernt haben? Dass Verspätungen Mist sind?

http://www.beyond3d.com/content/interviews/8/3


Überhaupt: Wer sagt, dass der R650 ein Allheilmittel sein wird? 65 nm? Unklar. Mehr TUs? Nein, eher höherer Takt. Das wird ein Refresh, bei dem man eher die Wehwehchen des R600 fixt, nicht mehr.

Genau das glaube ich auch,das Ding wird einen irren Rohpower haben..aber großartige Neuerungen denke ich nicht..(dann müßte er schon fertig sein>und das würde der Frechheit R600 die Krone aufsetzen),aber es paßt ja,dann steht der Winter vor der Tür und man spaart imense Heizungskosten.
Die NV Ende des Jahres erledigt das Theme ATI für einige Zeit sowieso und das ist für uns Endkunden leider sehr schade (Preis).

seahawk
2007-05-27, 17:10:06
Ach die Chancen stehen doch Recht gut, dass ATI mit dem R650 die schnellste Single-Chip-Karte im Markt haben wird.

=Floi=
2007-05-27, 17:17:04
wenn er doppelt so schnell wird wie der R600 schon
(imho unmöglich dass ati nv überholt)
es gibt ne ultra mit 670mhz und fast 1700mhz shaderclock und die karte dürfte jetzt schon gut 30-40% schneller sein wie die HD2900XT...

Gast
2007-05-27, 17:21:25
Ach die Chancen stehen doch Recht gut, dass ATI mit dem R650 die schnellste Single-Chip-Karte im Markt haben wird.Wieso das? Wenn es stimmt, dass ATI hauptsächlich den Takt erhöhen wird um eine höhere Texelfüllrate zu bekommen, sieht es alles andere als gut aus.

Gast
2007-05-27, 17:23:17
Du beschränkst mir den G80 zu sehr auf DX10.

Nein. Vorallem auf die unausgegorenen Treibern und den hohen idle Verbrauch.

Zum dritten mal (oder schon öfter?), ich habe mir den G80 nicht wegen DX10 gekauft! Sondern wegen fast verdoppelter Leistung im Vergleich zur X1900XT.

Nötig war das aber nicht, es gab davor schon schnelleres (für weniger).

Du willst doch nicht ersthaft eine Dual-GPU Graka mit einer Single-GPU Graka vergleichen oder?

Klar will ich das, warum denn nicht? Das ist zum einen die Zukunft und zum anderen interessiert den End bzw. Highenduser sowieso nur, was am Ende dabei herauskommt und das war viel!

Von der besseren BQ beim G80 wollen wir erst gar nicht sprechen. Und dann noch eine übertaktete GX2. ;D
Ich kann meine GTS auch sehr gut übertakten. ;)

Eben nicht. Die Standard GX2 hatte 500/600 MHz, die Karte von XFX kam gleich mit 570/775 MHz standardmäßig innerhalb der Garantie daher und ließ sich noch zusätzlich übertakten - wie deine GTS! Rechne auf jeden GX2 Benchmark etwa 15-20 % Mehrleistung drauf (das wäre dann die mit 570/775), dann siehste schnell, das die GTS640 gar nicht so toll ist, wie viele immer meinen.
Sie ist teilweise sogar langsamer, wenn es um hohe Auflösungen und 8xSSAA geht.
Außerdem stand diese Leistung bereits wesentlich früher zur Verfügung und das mit ausgereiften Treibern, weil NV natürlich von den Erfahrungen der 7900GTX und 7800GTX davor profiterte...

Außerdem skaliert diese Karte selbst heute noch sehr gut mit, denn zum großen Teil ist noch immer die CPU Performance nicht ausreichend hoch um sie vollständig an die Grenzen zu treiben. Glücklicherweise gab es da schon Core2 CPUs, selbst mit dem Penryn wird sie noch ein paar Prozente zulegen können.

Jau, warum nicht gleich 4x GX2? :usweet:
Dann kommst du vielleicht auf das Niveau vom GTX@SLI. ;D

Eine GX2 reicht um das Niveau der GTS640 zu erreichen + zu übertreffen. Zwei reichen um die GTX zu übertreffen, du übertreibst mal wieder maßlos.

Außerdem solltest du nicht unterschätzen, das selbst die GX2 im idle weniger verbraucht, als GTS320 oder GTS640 und unter Volllast sogar noch unter der GTX liegt.

Damit ihr die Leistung mal ein wenig besser einschätzen könnte:
http://www.iamxtreme.net/video/7950xxx/conroe_7950_02.JPG
Core 2@3,6 GHz und der Screenshot ist auch schon uralt (alte Treiber)

Dazu als Vergleich die G80 Generation mit neuem Treiber und 3,46 GHz CPU:
nVidia GeForce 8800 GTX 11.664
nVidia GeForce 8800 GTS 9.447

Man sieht also, das die Karte sich wunderbar eignet für hohe Auflösungen und sogar teilweise eine bessere Kantenglättung bei ansonsten immer noch guter Performance ermöglicht.

dargo
2007-05-27, 17:41:25
Nein. Vorallem auf die unausgegorenen Treibern und den hohen idle Verbrauch.

Ich weiß nicht was du meinst. Meine XP Treiber sind mittlerweile sehr gut. Vista interessiert mich momentan genauso wenig wie DX10 (welch ein Wunder :D)


Nötig war das aber nicht, es gab davor schon schnelleres (für weniger).

Erzähle keinen Quatsch.


Klar will ich das, warum denn nicht? Das ist zum einen die Zukunft und zum anderen interessiert den End bzw. Highenduser sowieso nur, was am Ende dabei herauskommt und das war viel!

Eine GX2 und Zukunft? ;D
Was meinst du warum es keine GX2 mit dem G80 gibt? Richtig wegen baubedingten Kühlproblemen. Erst in 65nm wird es eventuell möglich sein. Und ich könnte wetten, dass es einen G100 wieder nicht als eine GX2 geben wird. Dafür wird man wieder auf einen Dieshrink @45nm warten müßen.

Und nicht jeder hat Lust mit den SLI Profilen rumzuspielen.


Außerdem solltest du nicht unterschätzen, das selbst die GX2 im idle weniger verbraucht, als GTS320 oder GTS640 und unter Volllast sogar noch unter der GTX liegt.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/27/
Ja, Wahnsinn, ganze 6W Brutto Unterschied in Idle. :cool:
Die GTX leistet auch deutlich mehr als eine GX2.


Damit ihr die Leistung mal ein wenig besser einschätzen könnte:
http://www.iamxtreme.net/video/7950xxx/conroe_7950_02.JPG
Core 2@3,6 GHz und der Screenshot ist auch schon uralt (alte Treiber)

Dazu als Vergleich die G80 Generation mit neuem Treiber und 3,46 GHz CPU:
nVidia GeForce 8800 GTX 11.664
nVidia GeForce 8800 GTS 9.447

Man sieht also, das die Karte sich wunderbar eignet für hohe Auflösungen und sogar teilweise eine bessere Kantenglättung bei ansonsten immer noch guter Performance ermöglicht.
3DMark als Indikator für gute Spieleperformance. Soll ich jetzt lachen?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/24/

|MatMan|
2007-05-27, 18:20:03
Damit ihr die Leistung mal ein wenig besser einschätzen könnte:
http://www.iamxtreme.net/video/7950xxx/conroe_7950_02.JPG

schau dir mal lieber Spiele an, wie hier bei THG z.B., da wurden die 7950GX2 sogar im SLI getestet (also quad-SLI), es gibt Spiele wie Battlefield (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page12.html) oder Prey (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page16.html) wo 2 (!!) GX2 teilweise deutlich schneller sind als eine 8800 GTS (diese wurde aber noch mit dem 97.92 getestet, nicht mit dem deutlich schnelleren 15Xer oder 16Xer Treiber)

bei Oblivion (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page15.html) hat eine einzelne GX2 keine Chance, bei Warhammer (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page17.html) nichtmal beide GX2, bei Dark Messiah (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/page12.html) sehen die GX2 auch ziemlich alt aus...

Sicher, für jemand der 1 oder 2 GX2 hat lohnt sich der Umstieg auf ne 8800 GTS kaum, auf eine GTX vielleicht, da man keine Probleme mit SLI hat und die BQ besser ist. Als die GX2 jetzt mal für ca 150 € im Angebot waren habe ich kurz überlegt eine zu kaufen, es aber gelassen, weil die einfach nicht mehr zeitgemäß sind.

Gast
2007-05-27, 18:25:38
Ich weiß nicht was du meinst. Meine XP Treiber sind mittlerweile sehr gut.

Glück gehabt. Hängt stark von den genutzten Anwendungen ab. Und der idle Verbrauch ändert sich dadurch trotzdem nicht ...

Erzähle keinen Quatsch.

Gleichfalls. Ich beziehe mich lediglich auf Fakten und nicht auf Vermutungen und Fanboy gequatsche!
Für eine geringe Gebühr könntest du bei ebay die Preise der letzten Monate überprüfen. Dann dürfte dir ein Licht aufgehen.

Eine GX2 und Zukunft? ;D

Das verdrehen von Sätzen gehört wohl zu deinem Hobby? Wer redet hier von Zukunft? Wenn die Architektur noch so schlecht ist, durch Rohpower kann man alles ausgleichen, nur eben Features nicht.

Was meinst du warum es keine GX2 mit dem G80 gibt?

Weils nicht geplant und nötig war, wie sich herausgestellt hat. Sie kommt vielleicht noch, wir werden sehen.

Richtig wegen baubedingten Kühlproblemen.

Pure Spekulation.
Kühlung ist weniger ein Problem, weil zwei GPUs geringer takten und ne geringere Corespannung benötigen. Dadurch sinkt der Verbrauch rapide. Gleicher fall wie bei GX2, 7900/7950GT.

Ja, Wahnsinn, ganze 6W Brutto Unterschied in Idle. :cool:

Oder 90W jeden Tag bei 15h Betrieb.

Die GTX leistet auch deutlich mehr als eine GX2.

Ich muss dich wohl nicht darauf hinweisen, das eine 8800GTX um einiges teurer ist? Wenn du bei dem CB Rating bei 1600x1200 4xAA 15% für die XFX draufrechnest, sind es gerade mal noch etwa 25% Unterschied im Durchschnitt aller getesteten Games. Dafür ist die GTX um mindestens 50% teurer als eben diese Karte.

3DMark als Indikator für gute Spieleperformance.

Hat das wer gesagt? Nein.

Trifft aber dennoch sehr gut zu, wenn man sich mal ein paar der Einzelbenches ansieht. In OpenGL deklassiert schon die Standard GX2 die GTS völlig und in FEAR wäre die XFX knapp 20 % schneller in der Auflösung 1600x1200 4xAA.

Schade das die Auswahl an Benches nicht größer ist ...

Gast
2007-05-27, 18:31:13
...

Komm mir bloß nicht mit dieser Seite. Wer weiß, was die jedes mal vergeigen.

Bei THG ist sogar die schnellere CPU immer die langsamere... ;D
http://666kb.com/i/aopehwtx8p6kowqo7.gif

Undertaker
2007-05-27, 18:39:12
Eine GX2 reicht um das Niveau der GTS640 zu erreichen + zu übertreffen. Zwei reichen um die GTX zu übertreffen, du übertreibst mal wieder maßlos.


mal nicht übertreiben:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

rechnen wir noch ein paar % drauf für die sli-probleme, die computerbase z.t. hatte, werden aus den 30% rückstand etwa 15-20%... übertakten lassen sich beiden relativ identisch, die gts ist also nach wie vor auf jeden fall die schnellere karte (speziell bei spielen wie oblivion/gothic/rs:vegas) - sollte sie bei der preislichen situation aber auch sein ;)

die gtx liegt 80% vor der 7950gx2, bei der schlechten effiziens von quad-sli werden auch 2 gx2 die gtx nicht erreichen

Gast
2007-05-27, 18:43:16
Du redest von der Standard GX2. Die gibts schon für 360€ im Doppelpack. Ich rede von der etwa 15-20% schnelleren XFX Version.

cl55amg
2007-05-27, 18:48:13
Du redest von der Standard GX2. Die gibts schon für 360€ im Doppelpack. Ich rede von der etwa 15-20% schnelleren XFX Version.

Doppelpack? Redest du vom nicht richtig funktionierenden Quad SLI?
Das am prerenderlimit scheitert?
Durch die guten OC möglichkeiten ist die GTS im Endeffekt die schnellere Karte bei neuen Games. Die GTS hat mehr VRAM, einen breiteren Speicherbus, aber vor allem die Architektur ist der Punkt der sie auf lange Sicht zu besseren Karte macht.

Gast
2007-05-27, 18:55:24
Redest du vom nicht richtig funktionierenden Quad SLI?

Hattest du jemals eines?

Die GTS hat mehr VRAM

Plus einen Bug, der sie daran hindet, ihn effizient zu nutzen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361895

Wenn man mal genau hinsieht, dann liegt die Standard GX2 selbst bei 2560x1600 4xAA auf dem Niveau der GTS ... egal ob Anno1701, CoD2, CoH, Doom3, FEAR etc.

einen breiteren Speicherbus

Sind 2x 256 bit schlechter als 1x384 bit? Eher nicht. ;)

aber vor allem die Architektur ist der Punkt der sie auf lange Sicht zu besseren Karte macht.

Sehe ich nicht so. Wenn erste Games kommen die alles ausnutzen, wird die Performance schon wieder zu niedrig sein.

dargo
2007-05-27, 19:02:28
Glück gehabt. Hängt stark von den genutzten Anwendungen ab. Und der idle Verbrauch ändert sich dadurch trotzdem nicht ...

Tja, der Idle-Verbrauch meiner GTS liegt genau bei 7W netto höher als die X1900XT die 28W in Idle hat. Man muss sich nur zu helfen wissen. ;)


Gleichfalls. Ich beziehe mich lediglich auf Fakten und nicht auf Vermutungen und Fanboy gequatsche!

;D

Was du dir hier in Bezug auf die GX2 zusammenreimst ist schon lustig. Es wurden dir Benchmarks velinkt, darauf reagierst du aber erst gar nicht. Ganz grosses Kino. :uclap:


Für eine geringe Gebühr könntest du bei ebay die Preise der letzten Monate überprüfen. Dann dürfte dir ein Licht aufgehen.

Ich kaufe grundsätzlich keine Hardware bei Ebay.


Das verdrehen von Sätzen gehört wohl zu deinem Hobby? Wer redet hier von Zukunft?

Wie bitte? Schon vergessen?
Klar will ich das, warum denn nicht? Das ist zum einen die Zukunft und zum anderen interessiert den End bzw. Highenduser sowieso nur, was am Ende dabei herauskommt und das war viel!




Weils nicht geplant und nötig war, wie sich herausgestellt hat. Sie kommt vielleicht noch, wir werden sehen.

Und ich kann dir versichern, dass es keine GX2 auf G80 Basis geben wird. Zumindest nicht in 90nm. Würde man es dennoch planen müßte man die Taktraten/Spannungen/Einheiten soweit senken/beschneiden, dass solche GX2 kaum an einer GTX vorbei kommen würde.


Pure Spekulation.
Kühlung ist weniger ein Problem, weil zwei GPUs geringer takten und ne geringere Corespannung benötigen. Dadurch sinkt der Verbrauch rapide. Gleicher fall wie bei GX2, 7900/7950GT.

Tja, der Unterschied ist nur, dass eine G7900GT etwa die Hälfte von einer G8800GTS verbraucht. Und wie gesagt, mit 2x G8800GTS ist eine GX2 nicht möglich. Würde man die Karten weiter beschneiden hätte eine solche GX2 keine Darseinsberechtigung weil sie nicht an einer einzelnen GTX vorbei kommt.


Oder 90W jeden Tag bei 15h Betrieb.

Oder 65,7kWh in zwei Jahren, sprich ~10€. :usweet:


Ich muss dich wohl nicht darauf hinweisen, das eine 8800GTX um einiges teurer ist? Wenn du bei dem CB Rating bei 1600x1200 4xAA 15% für die XFX draufrechnest, sind es gerade mal noch etwa 25% Unterschied im Durchschnitt aller getesteten Games. Dafür ist die GTX um mindestens 50% teurer als eben diese Karte.

Eine G8800GTX ist auch doppelt so schnell in graka-limitierenden Settings (16x12 ist da ein Witz für die Karte bei den älteren, getesteten Games) als eine G7950GX2.

Mancko
2007-05-27, 19:02:41
Der Imperativ von lesen ist lies.

Wenn man Ultrahighendleistung wollte, ja. Dass ATI diesmal nicht im Ultrahighsegment konkurriert, zeichnete sich aber schon vor dem Launch ab.

Wieso Ultrahighend. Was für ein neues Segment erfindest du denn hier jetzt. Eine GTX ist High End, eine Ultra ebenso wobei letztere sinnfrei ist. SLI wäre Ultrahighend aber nicht eine GTX.
Außerdem konnte man die GTS auch schon lange kaufen. Insofern hat sich das Warten auf ATI überhaupt nicht gelohnt, ausser das die GTSen etwas billiger geworden sind. Aber das wär mir der Spielspass der letzten Monate Wert gewesen eben nicht zu warten.

cl55amg
2007-05-27, 19:02:45
Sind 2x 256 bit schlechter als 1x384 bit? Eher nicht. ;)


Mein Post war so geschrieben das ich genau diese Aussage von dir entlocken wollte. Sowas wie "Die GX2 hat doch 2x512MB oder 2x256Bit".

Das zeigt sehr deutlich das du das technische Prinzip von SLI nicht verstehst.
Daher ist die Diskusion zwecklos.

Gast
2007-05-27, 19:08:37
Sowas wie "Die GX2 hat doch 2x512MB oder 2x256Bit".

Was korrekt ist. So stehts in den NVIDIA Specs.

Das zeigt sehr deutlich das du das technische Prinzip von SLI nicht verstehst.

:lol: Wie das Speicherinterface aufgebaut ist, ist erstmal völlig egal. Du könntest auch mit einem 192 bit Interface die selben Ergebnisse bei einer GTS erreichen, wenn du den Speicher nur hoch genug taktest. Das ist alles lediglich eine Kosten-Nutzenfrage.

dargo
2007-05-27, 19:09:14
Sind 2x 256 bit schlechter als 1x384 bit? Eher nicht. ;)

Natürlich.

G7950GX2 = 38,4GB/s je GPU
G8800GTS = 64GB/s
G8800GTX = 86,4GB/s

Oder willst du jetzt aus 2x256Bit SI ein 512Bit SI machen. :tongue:
Und, dass SLI nicht zu 100% skaliert weiß du, hoffe ich.

Undertaker
2007-05-27, 19:12:12
Du redest von der Standard GX2. Die gibts schon für 360€ im Doppelpack. Ich rede von der etwa 15-20% schnelleren XFX Version.

jo und? die hat auch keine anderes chips, dh damit weniger oc-potenzial ;)

Gast
2007-05-27, 19:13:11
Leute die sich nach dem Kauf einer Highendkarte darüber aufregen das bereits kurze Zeit später ein Nachfolgeprodukt erscheint, haben den Markt und ihre eigenen Intentionen grundsätzlich nicht verstanden.
Wer stets ein „dickes Ding“ in seiner Singnatur präsentieren möchte, muss halt alle 12 Monate 2000€ fürs Ego locker machen.
Wenn man sich das nicht leisten kann, sollte man sich ein günstigeres Hobby suchen.
Briefmarken steigen z.B im Preis….
Kein GTS/GTX oder XT Käufern benötigt objektiv im Herbst eine neue Karte, auch Spiele die Weinachten 2008 erscheinen werden darauf noch sehr gut laufen.
Also freut euch das möglichst schnell bessere Chips erscheinen, umso größer ist der Performance Sprung beim Kauf der nächsten Highendkarte.

cl55amg
2007-05-27, 19:14:54
Was korrekt ist. So stehts in den NVIDIA Specs.



Du hast keinen Schimmer wovon du redest. Ist nicht böse gemeint.
Du solltest dich einfach besser informieren.

PS: Kleiner Tipp, es befindet sich die selben Daten in den RAM je Karte...

Gast
2007-05-27, 19:15:48
Natürlich.

Nö. Du konntest es wohl nicht lassen, die Werte wieder mal zu verdrehen und absichtlich falsch zu rechnen.

Es war hier die ganze Zeit von 2x 775 MHz @ 256 bit die Rede und zweitens ist die schon mit nur 2 x 600 MHz @ 256 bit ausgestattete Standard GX2 mit der GTS640 in 2560x1600 4xAA gleichauf - die XFX ist deutlich schneller.

Ich weiß nicht wie es auch geht, aber bei mir zählt nur das, was am Ende rauskommt und da ist das Ergebniss mehr als eindeutig.

Gast
2007-05-27, 19:24:31
jo und? die hat auch keine anderes chips, dh damit weniger oc-potenzial ;)

Wer redet denn von anderen Chips? Niemand.
Es waren zwei Karten die standardmäßig so ausgeliefert werden und das wars auch schon. Was die an Taktpotential haben, stand hier nur zur Debatte und ist stark vom Glücksfaktor abhängig.

Du hast keinen Schimmer wovon du redest. Ist nicht böse gemeint.
Du solltest dich einfach besser informieren.

:lol: http://www.forum-3dcenter.org/vbulletin/faq.php?faq=forum_faq#faq_forum_faq_rules

Kleiner Tipp, es befindet sich die selben Daten in den RAM je Karte...

Es hat nie jemand etwas anderes behauptet, das sollte dir eigentlich aufgefallen sein, wenn du doch so informiert bist und bisher nicht ein einziges Wort zur Diskussion beigetragen hast, aber gut. Manche verplempern ihre Zeit halt sinnlos. ;)

dargo
2007-05-27, 19:25:53
Nö. Du konntest es wohl nicht lassen, die Werte wieder mal zu verdrehen und absichtlich falsch zu rechnen.

Es war hier die ganze Zeit von 2x 775 MHz @ 256 bit die Rede und zweitens ist die schon mit nur 2 x 600 MHz @ 256 bit ausgestattete Standard GX2 mit der GTS640 in 2560x1600 4xAA gleichauf - die XFX ist deutlich schneller.

1. Sag mal, ignorierst du meine Links absichtlich?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/24/

Leider bencht CB mit TAA. Zeige mir mal Benches wo die GX2 schneller ist und stelle keine Vermutungen hier an. Mal davon abgesehen, dass eine GX2 oder GTS eh für solche Settings bei neuen Games zu langsam ist (weit unter 30fps).

2. Zeige mir mal wo es eine XFX GeForce 7950 GX2 M570 XXX für 310€ neu gibt.

Undertaker
2007-05-27, 19:31:14
Wer redet denn von anderen Chips? Niemand.
Es waren zwei Karten die standardmäßig so ausgeliefert werden und das wars auch schon. Was die an Taktpotential haben, stand hier nur zur Debatte und ist stark vom Glücksfaktor abhängig.

aber natürlich gibt es erfahrungswerte - und die besagen, dass eine 8800gts etwa 600-670mhz geht, eine gx2 ebenso (jeweils chiptakt, am speicher hängen beide ja doch eher weniger)

und da eine gts (von der es im übrigen auch oc-versionen gibt) pro mhz klar schneller ist, ist es falsch von dir die gx2 als die flottere karte zu bezeichnen (das das p/l atm klar besser ist, keine frage, aber deswegen bleibt sie immer noch langsamer)

Eine GX2 reicht um das Niveau der GTS640 zu erreichen + zu übertreffen.

Gast
2007-05-27, 19:41:00
Sag mal, ignorierst du meine Links absichtlich?

Wenn sie null Inhalt haben, ja. Der Durchschnitt ist nichtssagend, denn zum einen wird da jede Kleinigkeit, sogar Benchfehler, Treiberbugs, Meßungenauigkeiten direkt in schlechtere Ergebnisse resultieren und zum anderen gibt es mehr als 20 Games auf dieser Erde. Zudem spielt bei solch geringen Mengen auch die Menge an optimierten Games eine Rolle. Manche laufen auf einer Hardware nunmal besser als auf der anderen. Bei so wenig Auswahl ist somit nicht ausgeschlossen, das manche Games einer Marke mehr liegen als der anderen, eben weil sie bei der Entwicklung mitgeholfen haben.

Schau dir mal die Einzelbenchmarks von Anno, CoD2, CoH, Doom3, FEAR, HL2, Prey, Riddick etc. in dieser Auflösung an. Da verliert die GTS640 kräftig und fällt auf/unter GX2 Niveau zurück. Von der mit 29% mehr Speicherbandbreite ausgestatteten GX2 Karten ganz zu schweigen.

2. Zeige mir mal wo es eine XFX GeForce 7950 GX2 M570 XXX für 310€ neu gibt.

Ich habe dir vorhin schonmal angeboten, dich mal bei ebay umzusehen, aber das magste ja nicht. Was woll ich da noch hinzufügen?

cl55amg
2007-05-27, 19:45:35
Von der mit 29% mehr Speicherbandbreite ausgestatteten GX2 Karten ganz zu schweigen.


:) Mit welcher Formel errechnest du dies?

dargo
2007-05-27, 19:50:13
Wenn sie null Inhalt haben, ja. Der Durchschnitt ist nichtssagend, denn zum einen wird da jede Kleinigkeit, sogar Benchfehler, Treiberbugs, Meßungenauigkeiten direkt in schlechtere Ergebnisse resultieren und zum anderen gibt es mehr als 20 Games auf dieser Erde. Zudem spielt bei solch geringen Mengen auch die Menge an optimierten Games eine Rolle. Manche laufen auf einer Hardware nunmal besser als auf der anderen. Bei so wenig Auswahl ist somit nicht ausgeschlossen, das manche Games einer Marke mehr liegen als der anderen, eben weil sie bei der Entwicklung mitgeholfen haben.

Schau dir mal die Einzelbenchmarks von Anno, CoD2, CoH, Doom3, FEAR, HL2, Prey, Riddick etc. in dieser Auflösung an. Da verliert die GTS640 kräftig und fällt auf/unter GX2 Niveau zurück. Von der mit 29% mehr Speicherbandbreite ausgestatteten GX2 Karten ganz zu schweigen.

Sorry, lieber Gast. Du machst dich aber wirklich jetzt lächerlich. Es geht mir doch gerade um die einzelnen Spiele. Oder was meinst du wie sich der Durchschnitt errechnet?
Und wen interessieren Settings wo ich 5fps vs. 8fps habe?

Nochmal, in neuen Games wo es auf Shaderleistung ankommt hat die GX2 keine Chance. Außerdem interessiert die OpenGL Performance niemanden mehr. OpenGL ist so gut wie tot.


Ich habe dir vorhin schonmal angeboten, dich mal bei ebay umzusehen, aber das magste ja nicht. Was woll ich da noch hinzufügen?
Dann zeige mir doch einen Link?

TobiWahnKenobi
2007-05-27, 19:51:58
vielleicht hat hier jemand die produktbeschreibung der GX2 gegessen.. ;)

aber schon lustig, hier mitzulesen..

@gast
wenn dir nur wichtig ist, was hinten rauskommt, wieso stört dich dann die lausige bildqualität (AF) und das ristriktive feature-set (hdrr+msaa) des G70/71 nicht?

edit:
sag' mal bei CB bescheid, dass sie titel benchen sollen, die man auch kennt. gothic, oblivion oder battlefield kennt ja keine sau :)


(..)

mfg
tobi

cl55amg
2007-05-27, 19:57:21
Da sich die selben Daten im Ram befinden, kommt hinten nur ein 256Bit Interface raus. Genauso wie effektiv nur 512MB RAM nutzbar sind.
Daher ist die GX2 in der Bandbreite, VRAM Größe, Bildqualität, Performance und Featureset im Nachteil gegenüber einer 8800GTS 640MB.

Der neue Preis für die GX2 ist damit gerechtfertigt.

Gast
2007-05-27, 20:05:16
(von der es im übrigen auch oc-versionen gibt)

Das wissen wir sicher alle. ;) Darauf wollte ich die ganze Zeit hinaus. Wenn schon die Standard GX2 die GTS640 einholen kann, dann können es die vorselektierten Karten erst recht und da diese noch mehr vorlegen, wird natürlich auch eine oced GTS notwendig sein um diese wieder einzuholen.

Noch dazu kommt, das eine selektierte GTS gleich mal ein "paar" Euro mehr kostet und damit überhaupt nicht mehr im gleichen Preisrahmen liegt - unfaires Duell.

Davon abgesehen gings mir die ganze Zeit lediglich um diese offensichtliche FALSCHAUSSAGE, das es vor dem G80 keine leistungsfähige GPUs gab - dem war definitiv nicht so. Die GX2 konnte man schon lange vor der GTS kaufen und genießen und damit ist das Thema für mich eigentlich erledigt...

wenn dir nur wichtig ist, was hinten rauskommt, wieso stört dich dann die lausige bildqualität (AF) und das ristriktive feature-set (hdrr+msaa) des G70/71 nicht?

Wieso sollte es MICH stören, wenn ich ALLGEMEIN über die Vor und Nachteile von Architekturen rede? Kann ICH beurteilen, wer was wie gut findet? Kannst du es?

sag' mal bei CB bescheid, dass sie titel benchen sollen, die man auch kennt. gothic, oblivion oder battlefield kennt ja keine sau :)

Spielen tue ich die zumindest nicht. Wie wärs mal mit TDU, DTM Race Driver, GTR2, Quake 4, Titan Quest und noch viele mehr.

Sorry, lieber Gast. Du machst dich aber wirklich jetzt lächerlich.

Mit dir hat eine Diskussion einfach keinen Sinn (glücklicherweise, das spart meine Zeit ;)) Mit deiner Scheuklappen Methode, die dich offensichtlich blind macht, wenn es um einfache Zahlen geht, die du nicht sehen willst... du pickst dir immer die Rosinen raus und lässt alles andere links liegen.

Bei jedem Posting und jedem Thema, immer wieder.. genau wie hier:
Und wen interessieren Settings wo ich 5fps vs. 8fps habe?

Ich habe dir 8 Games genannt und nur bei wenigen ist dem so, bei allen anderen nicht. Warum suchst du dir dann gerade das schlechteste raus?

Ganz abgesehen davon, das es hier eindeutig an Logik mangelt, denn man kann auch - wenn man schlau genug wäre - einfach mal die Auflösung auf 1920x1200 herabstellen und schon läufts ne ganze Ecke besser. Aber soweit denken, verursacht offenbar große Schmerzen ;)

Undertaker
2007-05-27, 20:06:51
Das wissen wir sicher alle. ;) Darauf wollte ich die ganze Zeit hinaus. Wenn schon die Standard GX2 die GTS640 einholen kann, dann können es die vorselektierten Karten erst recht und da diese noch mehr vorlegen, wird natürlich auch eine oced GTS notwendig sein um diese wieder einzuholen.

Noch dazu kommt, das eine selektierte GTS gleich mal ein "paar" Euro mehr kostet und damit überhaupt nicht mehr im gleichen Preisrahmen liegt - unfaires Duell.

Davon abgesehen gings mir die ganze Zeit lediglich um diese offensichtliche FALSCHAUSSAGE, das es vor dem G80 keine leistungsfähige GPUs gab - dem war definitiv nicht so. Die GX2 konnte man schon lange vor der GTS kaufen und genießen und damit ist das Thema für mich eigentlich erledigt...


du hast behauptet die gx2 sei schneller als die gts - das ist falsch und das wollte ich wiederlegen ;) dann wäre das ja geklärt

dargo
2007-05-27, 20:09:38
Mit dir hat eine Diskussion einfach keinen Sinn (glücklicherweise, das spart meine Zeit ;))
Gott sei Dank, ich dachte schon du hörst nie mit deinen Falschaussagen auf. Und damit hat sich diese Diskussion einfach für mich erledigt. Das wird mir einfach zu blöd mit dir. Mir tun schon langsam die Finger weh vom tippen.

Gast
2007-05-27, 20:17:42
du hast behauptet die gx2 sei schneller als die gts - das ist falsch und das wollte ich wiederlegen ;)

Ich sagte auch nicht, sie sei durchgängig schneller. Nur ist sie`s in einigen Fällen und OpenGL liegt ihr auch ziemlich gut.

Das wichtigste Argument für mich ist jedenfalls der ziemlich ausgereifte Treiber, da brauchte ich nicht großartig fummeln und es lief trotzdem ohne Probleme.

Undertaker
2007-05-27, 20:21:48
Das wichtigste Argument für mich ist jedenfalls der ziemlich ausgereifte Treiber, da brauchte ich nicht großartig fummeln und es lief trotzdem ohne Probleme.

die aktuellen g80 treiber haben bei mir 0,0 probleme mehr - den aufwand mit sli wollen wir hier mal nicht vergessen ;)

Xmas
2007-05-27, 23:47:14
Da sich die selben Daten im Ram befinden, kommt hinten nur ein 256Bit Interface raus. Genauso wie effektiv nur 512MB RAM nutzbar sind.
Es sind (abgesehen vom Framebuffer) dieselben Daten im Speicher, aber es werden nicht dieselben Daten gelesen. Effektiv kommt durchaus ein annähernd doppelt so breites Speicherinterface heraus.

Coda
2007-05-28, 00:32:17
Er hat's wohl mit der Speichermenge verwechselt.

Tigerchen
2007-05-28, 08:30:37
So siehts aus! -Bin genau D. Meinung. Ich informiere mich immer im Vorfeld (vor dem richtigen Launch) auf alle mögl. Weise. Z.Zt. Nutze ich ne ASUS 1950Pro (davor ne passive 7600GS OC) , die ich vor ca. 4 Monaten für 170€ mit Versand gekauft habe und bin absolut zufrieden.

Genau sowas wie die 1950 Pro bietet im Moment keiner bei den D3D10 Karten. Darum kann mir die ganze D3D10 Hype auch gestohlen werden. Zu Ostern 2008 werd ich mal wieder schauen was es so gibt. Vorher........streitet mal schön während ich mein Geld für ein neues Badezimmer ausgebe.;D

cl55amg
2007-05-28, 14:13:17
Es sind (abgesehen vom Framebuffer) dieselben Daten im Speicher, aber es werden nicht dieselben Daten gelesen. Effektiv kommt durchaus ein annähernd doppelt so breites Speicherinterface heraus.

Würdest du mir bitte erklären wie das funktioniert?
Die selben Daten sind im Speicher, aber es werden nicht die selben Daten gelesen?
Jede GPU hat eine 256Bit Anbindung zu ihrem Speicher, im Speicher liegen aber die selben Daten. Wenn ich die Daten also annähernd mit 512Mbit lese, aber nur die hälfte effektiv nutzen kann...? Wie können dann die nutzbaren 512MB Daten über ein 512Mbit Interface geliefert werden?

raffa
2007-05-28, 14:28:37
Beide GPUs haben doch über ein eigenes 256bit Interface Zugriff auf ihren Speicher,
somit können sie also zusammen genausoviel lesen, wie eine GPU es mit einem 512bit Interface könnte.

cl55amg
2007-05-28, 14:31:56
Beide GPUs haben doch über ein eigenes 256bit Interface Zugriff auf ihren Speicher,
somit können sie also zusammen genausoviel lesen, wie eine GPU es mit einem 512bit Interface könnte.

Aber nur die Hälfte der Daten können effektiv verwendet werden.

Eine GPU mit 512Mbit kann die gesamten Daten in ihrem Speicher effektiv nutzen.
Mit SLI verbunde Karten logischwerweise nicht.
Was kommt also dann am Ende raus?

raffa
2007-05-28, 14:40:09
Aber nur die Hälfte der Daten können effektiv verwendet werden.

Eine GPU mit 512Mbit kann die gesamten Daten in ihrem Speicher effektiv nutzen.
Mit SLI verbunde Karten logischwerweise nicht.
Was kommt also dann am Ende raus?

Doch, bei SLI können alle GPUs den gesamten Speicher nutzen, es liegen ja überall die gleichen Daten vor. Deswegen erhöht sich ja auch nicht die Speichermenge, sondern die Bandbreite. Aber gebraucht werden von GPU0 und GPU1 (zur gleichen Zeit) halt andere Daten. Der Trick ist, daß ja die GPUs nicht das gleiche berechnen, sonst wärs ja sinnlos.

Also verdoppelt sich theoretisch (bei einer Effizenz von 100%) die effektive Speicherbandbreite (sowie die Füllrate, aber daß dürfte ja eh klar sein).

Xmas
2007-05-28, 15:08:15
Würdest du mir bitte erklären wie das funktioniert?
Die selben Daten sind im Speicher, aber es werden nicht die selben Daten gelesen?
Jede GPU hat eine 256Bit Anbindung zu ihrem Speicher, im Speicher liegen aber die selben Daten. Wenn ich die Daten also annähernd mit 512Mbit lese, aber nur die hälfte effektiv nutzen kann...? Wie können dann die nutzbaren 512MB Daten über ein 512Mbit Interface geliefert werden?
Mbit?

Es ist ja nicht so dass ein Datenstrom von vorne bis hinten aus dem Speicher gelesen wird und am Ende ein fertiges Bild herauskommt. Texturen und Framebuffer-Daten müssen immer wieder neu gelesen werden. Arbeitet im SFR-Modus der erste Chip gerade an einer Baumkrone links oben während der zweite Chip eine Kiste rechts unten rendert, dann lesen sie dazu völlig unterschiedliche Texturdaten und schreiben an unterschiedliche Stellen im Framebuffer.

Im AFR-Modus rendern beide Chips an unterschiedlichen Frames. Solange es keine Abhängigkeiten zwischen Frames gibt (z.B. Render to Texture), der Bus nie limitiert (doppelte Datenupdates) und immer genug zu rendern da ist, bekommt man etwa die doppelte Framerate. Das geht natürlich nur mit der doppelten Bandbreite. Und die hat man, da der Bandbreitenbedarf jedes einzelnen Chips bei jedem zweiten Frame gen Null geht.

Neomi
2007-05-28, 15:21:09
Aber nur die Hälfte der Daten können effektiv verwendet werden.

Ich glaube, da hilft nur noch ein Vergleich mit etwas anderem, was dann leichter zu verstehen ist, z.B. ein RAID 1.

Bei einem RAID 1 mit 2 Platten haben beide Platten den gleichen Inhalt, also hat man nur die Kapazität von einer Platte. Jede der Platten für sich kann auch nur mit der Geschwindigkeit lesen, die eine einzelne Platte erlaubt. Trotzdem kann mit einem vernünftigen Controller nahezu doppelt so schnell gelesen werden. Wenn das System beim Controller anfordert, einen Block von 100 MB zu lesen, kann der 50 MB von der einen Platte und die anderen 50 MB von der anderen Platte lesen. Da eine Platte 50 MB schneller liefern kann als 100 MB, ist offenbar die Gesamtbandbreite höher.

Bei Multi-GPU-Systemen mit eigenem Speicher pro GPU ist das genauso, die Leistung steigt selbst bei bandbreitenlimitierten Szenen. Die GPUs berechnen unterschiedliche Pixel (ob nun in anderen Teilen des selben Bildes oder in anderen Bildern ist egal), lesen also auch unterschiedliche Texturdaten aus. Im Speicher jeder GPU ist zwar der gleiche Inhalt, aber über das jeweilige Speicherinterface werden unterschiedliche Daten gelesen.

James Ryan
2007-05-28, 17:36:33
Ehm, ist das jetzt der GX2-Bashthread oder geht es hier um die neuerliche ATi-"Taktik" schnell einen Refresh zum vermurksten R600 raus zu bringen?

MfG :cool:

aths
2007-05-28, 17:50:08
Nochmal, in neuen Games wo es auf Shaderleistung ankommt hat die GX2 keine Chance. Außerdem interessiert die OpenGL Performance niemanden mehr. OpenGL ist so gut wie tot.Das wüsste ich.

dargo
2007-05-28, 17:55:23
Das wüsste ich.
Welche Games außer Enemy Territory: Quake Wars sollen denn noch unter Verwendung von OpenGL erscheinen?

aths
2007-05-28, 17:55:30
Wieso Ultrahighend. Was für ein neues Segment erfindest du denn hier jetzt. Eine GTX ist High End, eine Ultra ebenso wobei letztere sinnfrei ist. SLI wäre Ultrahighend aber nicht eine GTX.Ich beziehe diese Begriffe auf einzelne Karten.

Außerdem konnte man die GTS auch schon lange kaufen. Insofern hat sich das Warten auf ATI überhaupt nicht gelohnt, ausser das die GTSen etwas billiger geworden sind. Aber das wär mir der Spielspass der letzten Monate Wert gewesen eben nicht zu warten.(„Außer“ und „Spielspaß“ bitte mit ß.) Dir wäre es das nicht wert gewesen. Andere wollten vielleicht eine ATI-Karte und freuen sich über CFAA mit Edge Detection sowie den geringen Einbruch bei HDR-Rendering.

aths
2007-05-28, 17:59:18
Welche Games außer Enemy Territory: Quake Wars sollen denn noch unter Verwendung von OpenGL erscheinen?Das weiß ich doch nicht. Aber es gibt nicht nur Games.

Ehm, ist das jetzt der GX2-Bashthread oder geht es hier um die neuerliche ATi-"Taktik" schnell einen Refresh zum vermurksten R600 raus zu bringen?

MfG :cool:Häää? Wieso vermurkst? Nur weil ATI nicht mit den G80-Highendversionen mithalten kann? Die neuen ATI-Karten bieten einen anständigen Gegenwert für ihren Preis und sind für heutige Spiele voll ausreichend.

dargo
2007-05-28, 18:00:43
(„Außer“ und „Spielspaß“ bitte mit ß.)
Spielspaß mit ß? Ich dachte nach einem Vokal kommt immer ein ss. Ich blicke bei der Rechtschreibreform echt nicht mehr durch. ;(

Das weiß ich doch nicht. Aber es gibt nicht nur Games.

Ja, ok. In diesem Thread ging es aber nunmal um Games und darauf bezog sich meine Antwort mit OpenGL = tot. :)

LovesuckZ
2007-05-28, 18:00:52
Häää? Wieso vermurkst? Nur weil ATI nicht mit den G80-Highendversionen mithalten kann? Die neuen ATI-Karten bieten einen anständigen Gegenwert für ihren Preis und sind für heutige Spiele voll ausreichend.

Im Beyond3d.com Forum hat es diese Diskussion auch gegeben. Wenn du das so betrachtest, dann ist die Karte HD2900XT für den Preis für einige kaufbar, der Chip r600 ist eine Enttäuschung.

Grey
2007-05-28, 18:02:52
Das weiß ich doch nicht. Aber es gibt nicht nur Games.


Naja aber für den professionellen 3D Sektor gibt es ja extra Karten.

James Ryan
2007-05-28, 18:03:11
Häää? Wieso vermurkst? Nur weil ATI nicht mit den G80-Highendversionen mithalten kann? Die neuen ATI-Karten bieten einen anständigen Gegenwert für ihren Preis und sind für heutige Spiele voll ausreichend.

Die Perfomance pro Watt bspw. ist absolut lachhaft, die maximal mögliche BQ ebenfalls. Sorry, aber wenn man schon 7 Monate später kommt als der Konkurrent, sollte man doch mindestens in diesen Bereich gleichauf sein oder etwa nicht? :|

MfG :cool:

Black-Scorpion
2007-05-28, 18:08:15
Und in 7 Monaten baut man mal eben den Chip neu?
Bleibt mal etwas realistisch.
Was vor 7 Monaten nicht drinn war ist auch nicht mehr möglich.
Sonnst würde nicht schon Jahre vorher mit der Planung und Entwicklung einer neuen GPU begonnen.

Gast
2007-05-28, 18:16:37
Spielspaß mit ß? Ich dachte nach einem Vokal kommt immer ein ss. Ich blicke bei der Rechtschreibreform echt nicht mehr durch.Nein, nach einem lang gesprochenem Vokal kommt immer ein "ß". Nur wenn der Vokal kurz gesprochen wird, verwendet man "ss".

Coda
2007-05-28, 18:17:17
Spielspaß mit ß? Ich dachte nach einem Vokal kommt immer ein ss. Ich blicke bei der Rechtschreibreform echt nicht mehr durch.
Spaß spricht man eigentlich mit langem Vokal. Es gibt aber auch sehr viele die Spass sagen ;)

dargo
2007-05-28, 18:18:59
Nein, nach einem lang gesprochenem Vokal kommt immer ein "ß". Nur wenn der Vokal kurz gesprochen wird, verwendet man "ss".
Ach du sche... X-D

aths
2007-05-28, 18:30:55
Spielspaß mit ß? Ich dachte nach einem Vokal kommt immer ein ss. Ich blicke bei der Rechtschreibreform echt nicht mehr durch. ;(Nach langem Vokal ß statt ss. Das ist die einzige Regel.

Ja, ok. In diesem Thread ging es aber nunmal um Games und darauf bezog sich meine Antwort mit OpenGL = tot. :)Wo steht das es hier nur um Games geht? Wenn es nur um Games geht, sollten wir über Konsolen reden, nicht über PC-Grafikkarten.

Naja aber für den professionellen 3D Sektor gibt es ja extra Karten.Die auf den gleichen Chips beruhen.

Im Beyond3d.com Forum hat es diese Diskussion auch gegeben. Wenn du das so betrachtest, dann ist die Karte HD2900XT für den Preis für einige kaufbar, der Chip r600 ist eine Enttäuschung.Für mich nicht.

aths
2007-05-28, 18:32:21
Die Perfomance pro Watt bspw. ist absolut lachhaft, die maximal mögliche BQ ebenfalls. Sorry, aber wenn man schon 7 Monate später kommt als der Konkurrent, sollte man doch mindestens in diesen Bereich gleichauf sein oder etwa nicht? :|Sind sie doch. Nur nicht in Bezug auf das obere Highend-Segment. Jenes ist zwar prestigeträchtig, aber spielt für die wenigsten Käufer bei der Kaufentscheidung eine Rolle. Die maximal mögliche BQ ist bei den neuen ATI-Grakas doch sehr gut. In Sachen Performance pro Watt ist NV zwar seit einiger Zeit etwas voraus, allerdings ist genau das im Highend-Segment weniger wichtig.

dargo
2007-05-28, 18:49:32
Wo steht das es hier nur um Games geht? Wenn es nur um Games geht, sollten wir über Konsolen reden, nicht über PC-Grafikkarten.

Lies nochmal die Diskussion von mir und Gast dann merkst du es selbst. ;)

Gast
2007-05-28, 19:00:32
Die maximal mögliche BQ ist bei den neuen ATI-Grakas doch sehr gut. In Sachen Performance pro Watt ist NV zwar seit einiger Zeit etwas voraus, allerdings ist genau das im Highend-Segment weniger wichtig.

Aber nicht die Performance im Highend Segment, und wenn das weniger wichtig ist, es geht hier um R600 und R650, sprich die HIGHEND Serie von AMD. HD2900XT im vgl. zur G80 Serie und was an Nachfolgern kommt bzw. was die besser machen als der "Murks" den AMD versucht zu verkaufen.

Das die kleineren Karten durchaus als gelungen anzusehen sind bestreitet hier keiner und darum geht es hier auch gar nicht, siehe Topic.

aths
2007-05-28, 19:42:09
Aber nicht die Performance im Highend Segment, und wenn das weniger wichtig ist, es geht hier um R600 und R650, sprich die HIGHEND Serie von AMD. HD2900XT im vgl. zur G80 Serie und was an Nachfolgern kommt bzw. was die besser machen als der "Murks" den AMD versucht zu verkaufen.Wieso Murks?

deekey777
2007-05-28, 20:00:12
Die Perfomance pro Watt bspw. ist absolut lachhaft, die maximal mögliche BQ ebenfalls. Sorry, aber wenn man schon 7 Monate später kommt als der Konkurrent, sollte man doch mindestens in diesen Bereich gleichauf sein oder etwa nicht? :|

MfG :cool:
Die maximal mögliche Bildqualität ist lachhaft? Beispiel+Erklärung, was daran lachhaft ist.

Gast
2007-05-28, 20:14:06
Wollte ich auch gerade fragen. Es mutet seltsam an, diese Worte von jemandem zu hören, der bisher mir einer 7900 unterwegs war.

Tjell
2007-05-28, 21:42:03
Und in 7 Monaten baut man mal eben den Chip neu?
Bleibt mal etwas realistisch.
Was vor 7 Monaten nicht drinn war ist auch nicht mehr möglich.
Sonnst würde nicht schon Jahre vorher mit der Planung und Entwicklung einer neuen GPU begonnen.
Ich möchte nicht wissen, wie der Treiber vor 7 Monaten ausgesehen hätte. :eek:

Mumins
2007-05-28, 22:15:57
Die Perfomance pro Watt bspw. ist absolut lachhaft, die maximal mögliche BQ ebenfalls. Sorry, aber wenn man schon 7 Monate später kommt als der Konkurrent, sollte man doch mindestens in diesen Bereich gleichauf sein oder etwa nicht? :|

MfG :cool:

Totaler Unfug. An der Bildqualität kann man an einem Produkt, das schon techn. vollendet war nichts mehr ändern. Außerdem ist die so schlecht nicht. Im Vergleich zu deiner 7900 ist sie nämlich sehr gut.

Spasstiger
2007-05-28, 22:18:06
Die Bildqualität wurde gegenüber dem R5XX nur verbessert, ich weiß nicht, was es da zu meckern gibt. Beim R5XX wurde ja auch nicht über die Bildqualität gemeckert.

Und generell ist der R600 ein ganz guter Chip, andere Chipschmieden wären froh drüber, wenn sie nur einen halb so starken Chip bauen könnten.
Das Preis-Leistungsverhältnis stimmt bei der X2900 XT inzwischen auch, hab sie schon für 330€ lieferbar gesehen. Und man bedenke, dass die Karte ab und an sogar eine GF 8800 Ultra schlägt (auch wenn keine CPU-Limitierung vorliegt). Die Performance ist halt leider nicht durchgängig gut, das ist das einzige Problem.
Der Stromverbrauch ist ein Kapitel für sich, im High-End werden halt auch mal 200 Watt hingenommen.

cl55amg
2007-05-29, 00:53:45
Danke für die Erklärungen bezüglich der Bandbreite:)
Und sorry das die Diskusion offtopic wurde...!


Ich freue mich über einen schnell kommenden Refresh seitens ATI.
Das ist gut für die Preisentwicklung der High End Karten und kommt den Kunden zu gute. An den 8800GTX Preisen sieht man wie wichtig Konkurenz ist...

James Ryan
2007-05-29, 07:56:10
Die maximal mögliche Bildqualität ist lachhaft? Beispiel+Erklärung, was daran lachhaft ist.

Ganz einfach: ATi propagiert als maximal mögliche BQ 24xCFAA! Du willst mir doch nicht allen ernstes erzählen, dass dieser Blurfilter eine Verbesserung gegenüber der R5xx Generation ist? :|
Dieses Geblurre ist doch nur eine Notidee von A/A um irgendwas gegen NVIDIAs CSAA zu haben um mit großen Zahlen ala "24xCFAA" punkten zu können.

EDIT: Achja, zum FSAA noch etwas: ATi hat endlich 8xMSAA implenentiert, durchaus eine gute Idee, nur mangels Perfomance nicht nutzbar. Gleichzeitig wurde auch das (bei der R5xx Generation öfters nutzbare) 6xMSAA gestrichen. Bleibt also noch 4xMSAA bei guter Perfomance, was gegenüber der R5xx klar eine Verschlechterung darstellt.

@Mumis
Zum tausendsten Mal: Es ist egal ob ich eine Gf 7900 besitze oder nicht, ich darf auch die BQ der heiligen ATi-Karte anprangern, gerade weil die BQ im Gegensatz zum G80 einfach schlechter ist!
Gott sei Dank werde ich heute oder morgen meine Gf 8800 erhalten, dann darf ich auch "offiziell" über die BQ von ATi-Karten meckern. :P

MfG :cool:

MartinRiggs
2007-05-29, 08:08:31
Du hast doch noch gar keine HD2900XT gehabt, also woher weisst du das die BQ schlechter ist.
Im 3d-Center-REview steht das die BQ des R600 nur marginalst schlechter als die des G80 ist.
Wenn du so ein Adlerauge bist müsstest du bei deiner jetzigen "noch" Geforce 7900 Augenkrebs haben, hast du es -> nö.
Deswegen würde dir auch ne R600 dicke reichen, also lass doch das bashen.
Mittlerweile weiss jeder das du den R600 nicht magst:rolleyes:

James Ryan
2007-05-29, 08:15:34
Du hast doch noch gar keine HD2900XT gehabt, also woher weisst du das die BQ schlechter ist.

Die BQ ist mit CFAA schlechter, Beweise gibt es im "Wer hat schon eine HD 2900 XT"-Thread in Form von Bildern vom Gouvernator.
Ich schreibe immer dass die BQ nur mit CFAA schlechter ist.

Im 3d-Center-REview steht das die BQ des R600 nur marginalst schlechter als die des G80 ist.

Was das AF angeht stimmt dies auch. Ist es aber gut zu heißen dass ein verspätetes Produkt eine schlechtere BQ hat als der Konkurrent? Ich sage nein, die meisten hier aber befürworten das. :hm:

Wenn du so ein Adlerauge bist müsstest du bei deiner jetzigen "noch" Geforce 7900 Augenkrebs haben, hast du es -> nö.

Doch, habe ich! ;D Warum kommt jetzt wohl eine 8800er?

Deswegen würde dir auch ne R600 dicke reichen, also lass doch das bashen.

Ich bashe nicht sondern habe versucht DK777 zu erklären, warum IMO der R600 vermurkst ist. DK777 hat um Erklärung gebeten, die habe ich gebracht.

Mittlerweile weiss jeder das du den R600 nicht magst:rolleyes:

Warum fällt hier das Wort "mögen"? ;D
Der R600 bietet gegenüber dem G80 keinerlei Vorteile, also warum sollte man zum R600 greifen? Weil ATi drauf steht? :rolleyes:

MfG :cool:

Mumins
2007-05-29, 08:52:33
Doch, habe ich! Warum kommt jetzt wohl eine 8800er?

Wieso hattest dan keine X1900? Mittlewrweile ist das meckern auf hohem Niveau. Augenkrebs bekommt man von einer X2900 nämlich sicher nicht.

MartinRiggs
2007-05-29, 08:54:46
Wieso hattest dan keine X1900? Mittlewrweile ist das meckern auf hohem Niveau. Augenkrebs bekommt man von einer X2900 nämlich sicher nicht.

Meckern auf sehr hohem Niveau:rolleyes:
Er hatte doch ne x1900, die hat ihm aber nicht gepasst.

Gast
2007-05-29, 08:55:37
Augenkrebs bekommt man von einer X2900 nämlich sicher nicht.Völlig korrekt, aber auch eine Geforce 7 ist unter HQ weitaus erträglicher als man meinen könnte, wenn man manche Postings hier liest.

Spasstiger
2007-05-29, 08:55:40
Ganz einfach: ATi propagiert als maximal mögliche BQ 24xCFAA! Du willst mir doch nicht allen ernstes erzählen, dass dieser Blurfilter eine Verbesserung gegenüber der R5xx Generation ist? :|
Der Begriff ist zwar etwas optimistisch gewählt, denn mathematisch hat das 24xAA nur wenig mit 24x zu tun (abgetastet wird jedes Pixel 8-fach, 24 Samples werden nur beim Downsampling verwendet). Aber der 24x-Modus mit dem edge-detection-filter stellt dennoch in zweierlei Hinsicht eine Verbesserung gegenüber dem 6xMSAA der alten Generation dar:
- es wird 8-fach statt 6-fach abgetastet, so kann man bei aktivem adaptivem AA (Quality) auch 8xSGSSAA nutzen
- der edge-detection-filter verbessert subjektiv das Downsampling ohne Texturen anzugreifen, da er nur dort wirkt, wo auch das MSAA wirkt; es kann durchaus sein, dass 24x edge detection subjektiv besser aussieht als 16xCSAA von Nvidia, obwohl beim 16xCSAA tatsächlich eine 16-fache Abtastung stattfindet (allerdings nicht immer überall, wo das MSAA wirkt)

EDIT: Achja, zum FSAA noch etwas: ATi hat endlich 8xMSAA implenentiert, durchaus eine gute Idee, nur mangels Perfomance nicht nutzbar. Gleichzeitig wurde auch das (bei der R5xx Generation öfters nutzbare) 6xMSAA gestrichen. Bleibt also noch 4xMSAA bei guter Perfomance, was gegenüber der R5xx klar eine Verschlechterung darstellt.
8xMSAA ist definitiv nutzbar. Hier ist die X2900 XT mit 8xAA deutlich schneller als die nur wenig günstigere GeForce 8800 GTS und in 2560x1600 mit 8xAA teils sogar schneller als die GeForce 8800 Ultra (im Fall von Doom 3 sogar bei spielbarer Framerate):
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/23/#abschnitt_prey
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/25/#abschnitt_the_chronicles_of_riddick
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez

Für den einen oder anderen sind die 340€ für eine X2900 XT dann doch eine lohnende Investition, oder nicht?

lilgefo~
2007-05-29, 08:57:34
also warum sollte man zum R600 greifen? Weil ATi drauf steht? :rolleyes:

MfG :cool:

Gneau. Das ist auch der einzige Grund im Moment und eben auch der Vorteil. Ati hat ihre Treiber seit jeher immer noch nachträglich optimiert und das nicht nur für die aktuellen Karten, so wie es Nvidia macht um sie dann anschließend künstlich auszubremsen. Weiß nicht ob ich der einzige bin aber ich habe es nvidia noch immer nicht verziehen, dass sie meiner geforce4 earlyz geklaut haben. Paradebeispiel für künstliches Verschlechtern älterer Karten. Deswegen würde ich mir eher einen r600 als einen g80 kaufen auch wenn er scheinbar keinerlei Vorteile bietet.

Gast
2007-05-29, 08:58:05
- der edge-detection-filter verbessert subjektiv das Downsampling ohne Texturen anzugreifen, da er nur dort wirkt, wo auch das MSAA wirktDas Wichtigste ist aber, dass er nur optional ist. So kann jeder selbst entscheiden ob er CFAA braucht oder nicht. Der R600 unterstützt ja weiterhin ganz normales MSAA bis 8x. Wobei ich es schöner fände, wenn ATI anstatt dem Blur-Krams ein paar SSAA/MSAA-Hybride gebracht hätte.

Gast
2007-05-29, 08:58:55
aber ich habe es nvidia noch immer nicht verziehen, dass sie meiner geforce4 earlyz geklaut haben.Das hat NV aber nicht gemacht um die Karten auszubremsen, sondern weil es Probleme damit gab.

deekey777
2007-05-29, 08:59:44
Ganz einfach: ATi propagiert als maximal mögliche BQ 24xCFAA! Du willst mir doch nicht allen ernstes erzählen, dass dieser Blurfilter eine Verbesserung gegenüber der R5xx Generation ist? :|
Dieses Geblurre ist doch nur eine Notidee von A/A um irgendwas gegen NVIDIAs CSAA zu haben um mit großen Zahlen ala "24xCFAA" punkten zu können.

EDIT: Achja, zum FSAA noch etwas: ATi hat endlich 8xMSAA implenentiert, durchaus eine gute Idee, nur mangels Perfomance nicht nutzbar. Gleichzeitig wurde auch das (bei der R5xx Generation öfters nutzbare) 6xMSAA gestrichen. Bleibt also noch 4xMSAA bei guter Perfomance, was gegenüber der R5xx klar eine Verschlechterung darstellt.
...

MfG :cool:
Hm...
Die Perfomance pro Watt bspw. ist absolut lachhaft, die maximal mögliche BQ ebenfalls. Sorry, aber wenn man schon 7 Monate später kommt als der Konkurrent, sollte man doch mindestens in diesen Bereich gleichauf sein oder etwa nicht? :|

MfG :cool:
Siehst du, wie du dir selbst widersprichst? Die maximal mögliche Bildqualität ist lachhaft, weil das 24xCFAA blurt? Wenn ich die maximal mögliche Bildqualität haben will und dabei weiß, daß die CFAA-Modi zum Bluren neigen, werde ich definitiv kein CFAA nutzen, oder?
Und wie kann 6xMSAA "gestrichen" worden sein, wenn dies bei 4xMSAA-per-Cycle-ROPs technisch gar nicht möglich ist?:|

James Ryan
2007-05-29, 09:02:18
Wieso hattest dan keine X1900? Mittlewrweile ist das meckern auf hohem Niveau. Augenkrebs bekommt man von einer X2900 nämlich sicher nicht.

Meine X1800 wie auch meine X1900 lieferten ein wirklich sehr gutes Bild, sobald man AI deaktivierte und das AF auf HQ stellte. Die Kühlerlautstärke, der Stromverbrauch und die Treiber trieben mich aber wieder zur Gf 7 Reihe. Die Verschlechterung der BQ war zwar ein Rückschritt, aber mein Trommelfell dankte es mir.
Augenkrebs bekommt man auf einer HD 2900 XT mit aktiviertem CFAA aber schon, siehe die Bilder von Gouvernator mit 16xCFAA.

@Spasstiger
Sorry, aber das 6xMSAA auf einer R5xx ist weitaus schöner als der 24xCFAA Matsch auf einer HD 2900 XT! Oder findest du das nicht? :|

@lilgefo~
Das Early-Z gab es für die Gf 4 Ti doch wieder ab FW 59.xx!
Und NVIDIA optimiert zur Zeit ihre Treiber enorm, siehe FW 158.27 und die Stalker-Perfomance, da sind Steigerungen von ~30-40% drin!

MfG :cool:

lilgefo~
2007-05-29, 09:04:27
Das hat NV aber nicht gemacht um die Karten auszubremsen, sondern weil es Probleme damit gab.

Selbst wenn es so ist. Man schaue sich nur einmal die Chips der vergangenen Jahre an, 6800ultra vs x800xt, 7800gtx vs x1800xt, x1900xt vs 7900gtx. Diese Karten (nv Karten) waren zum Launch schneller oder genauso schnell wie die Ati Karten und sind jetzt allesamt teils deutlich langsamer.
Btw. das es "Probleme" gabt glaube ich gern, nur nicht, dass der Chip es auf einmal nicht mehr konnte mit neueren Spielen. Und wenn es technische Probleme gab, hätte man sie sicher mit einem anderen Treiber umschiffen können..man kann ja auch nicht einfach sagen oh, die gf7 kann jetzt auf einmal kein sm3.0 aber wen störts gibt ja neue Karten..

James Ryan
2007-05-29, 09:05:36
Siehst du, wie du dir selbst widersprichst? Die maximal mögliche Bildqualität ist lachhaft, weil das 24xCFAA blurt? Wenn ich die maximal mögliche Bildqualität haben will und dabei weiß, daß die CFAA-Modi zum Bluren neigen, werde ich definitiv kein CFAA nutzen, oder?

Jep, das ist richtig! Aber frag ATi mal was die maximal mögliche BQ beim R600 ist. Glaubst du sie sagen 8xMSAA anstatt 24xCFAA? ;)

Und wie kann 6xMSAA "gestrichen" worden sein, wenn dies bei 4xMSAA-per-Cycle-ROPs technisch gar nicht möglich ist?:|

:|
Der R600 kann doch kein 6xMSAA mehr, die R3xx - R5xx Generationen konnten es aber schon.
Wenn der R600 noch 6xMSAA kann, bitte ich um einen Beweis von dir!

MfG :cool:

Spasstiger
2007-05-29, 09:07:09
@Spasstiger
Sorry, aber das 6xMSAA auf einer R5xx ist weitaus schöner als der 24xCFAA Matsch auf einer HD 2900 XT! Oder findest du das nicht? :|
Welcher Matsch? 24x edge detection blurrt keine Texturen, es werden lediglich Polygonkantenpixel behandelt. Und wenn nur einzelne Pixel entlang einer Linie verändert werden, wird man keinen Matsch sehen. Es ist nur ein alternatives Verfahren fürs Downsampling beim MSAA wie es z.B. auch die Gammakorrektur ist (klagt dort jemand über Matsch?).

Der R600 kann doch kein 6xMSAA mehr, die R3xx - R5xx Generationen konnten es aber schon.
Wenn der R600 noch 6xMSAA kann, bitte ich um einen Beweis von dir!
DK777 schreibt doch, dass es technisch unmöglich ist. Man hat es nicht gestrichen, sondern es ging einfach nicht mehr, außer man hätte kein 8xMSAA eingeführt. Und was findest du jetzt besser, 6xMSAA oder 8xMSAA? Die Performance des 8xMSAA ist teilweise exzellent, wie ich an den obigen Benchmarks gezeigt habe (schneller als GeForce 8800 Ultra bei fast halbem Preis).

Das Meckern hier ist wirklich auf sehr hohem Niveau, weil die Bildqualität des R600 besser ist als die eines NV G7x und auch besser als die eine R5xx. Klar, wer das derzeitige Optimum möchte, holt sich einen G80. Aber das heißt doch nicht, dass man dem R600 eine miese Bildqualität attestieren muss. Ich bin z.B. mit der Bildqualität meiner Radeon X1900 AIW schon völlig zufrieden, lediglich ein Hybrid-Modus mit SSAA fehlt noch in meinen Augen. Und die X2900 XT ist in keinem Punkt schlechter.

Was mich vom Kauf einer X2900 XT abhält: Die nicht durchgehend gute Performance und der unerträgliche Lüfter.
Der Refresh könnte aber durchaus interessant werden.

James Ryan
2007-05-29, 09:09:12
Selbst wenn es so ist. Man schaue sich nur einmal die CHips der vergangenen Jahre an, 6800ultra vs x800xt, 7800gtx vs x1800xt, x1900xt vs 7900gtx. Diese Karten (nv Karten) waren zum Launch schneller oder genauso wie die Ati Karten und sind jetzt allesamt teils deutlicher langsamer.
Btw. das es "Probleme" gabt glaube ich gern, nur nicht, dass der Chip es auf einmal nicht mehr konnte mit neueren Spielen. Und wenn es technische Probleme gab, hätte man sie sicher mit einem anderen Treiber umschiffen können..man kann ja auch nicht einfach sagen oh, die gf7 kann jetzt auf einmal kein sm3.0 aber wen störts gibt ja neue Karten..

Die NV-GPUs der vergangen Jahre basierten allesamt auf dem vermurksten (ja, ich liebe dieses Wort ;D ) CineFX- Design, dagegen sahen die ATi-GPUs schon seit dem R300 gut aus!
Der G80 ist völlig neu und wird in Zukunft nicht die gleichen Probleme bekommen wie die NV3x/NV4x/G7x Generationen!
Zum Early-Z habe ich schon geschrieben dass NV dies wieder recht zügig implentierte. Es gab wirklich Probleme damit und NV umschiffte dies, wie von dir gefordert, per Treiber. Nur geht das halt nicht von heute auf morgen!

MfG :cool:

lilgefo~
2007-05-29, 09:12:49
Die NV-GPUs der vergangen Jahre basierten allesamt auf dem vermurksten (ja, ich liebe dieses Wort ;D ) CineFX- Design, dagegen sahen die ATi-GPUs schon seit dem R300 gut aus!

MfG :cool:

Das hat aber nichts mit der Treiberphilosophie dieser Firma zu tun.
Was war denn das Problem beim Early Z Culling und wann wurde es wieder implementiert? Mit dem 100.91 oder was?

James Ryan
2007-05-29, 09:21:49
Das Meckern hier ist wirklich auf sehr hohem Niveau, weil die Bildqualität des R600 besser ist als die eines NV G7x und auch besser als die eine R5xx. Klar, wer das derzeitige Optimum möchte, holt sich einen G80. Aber das heißt doch nicht, dass man dem R600 eine miese Bildqualität attestieren muss. Ich bin z.B. mit der Bildqualität meiner Radeon X1900 AIW schon völlig zufrieden, lediglich ein Hybrid-Modus mit SSAA fehlt noch in meinen Augen. Und die X2900 XT ist in keinem Punkt schlechter.


Du hast Recht, ich meckere auf sehr hohem Niveau, und zwar weil ich vom R600 enttäuscht bin! Das Ding kam 7 Monate nach dem G80 und bietet nicht die gleich gute BQ. Auch wenn es wirklich kaum schlechter ist, bleibt es doch schlechter! ;)
Die fehlenden Hybrid-Modi sind dazu noch doppelt ärgerlich!
Ich verstehe auch absolut nicht, wie eine solche Philosophie hier so akzeptiert wird, ich dachte dies hier ist das 3DCenter, wo die maximale BQ gerade gut genug ist und NVIDIA in der Vergangenheit so dermaßen fertig gemacht wurde (auch zu Recht!).

Was mich vom Kauf einer X2900 XT abhält: Die nicht durchgehend gute Performance und der unerträgliche Lüfter.
Der Refresh könnte aber durchaus interessant werden.

ACK! Und um den Refresh geht es hier ja auch. ;)

@lilgefo~
Lies mal meine Posts bitte richtig, Early-Z gab es in den FW 59.xx Treibern wieder! :rolleyes:

MfG :cool:

lilgefo~
2007-05-29, 09:37:38
@lilgefo~
Lies mal meine Posts bitte richtig, Early-Z gab es in den FW 59.xx Treibern wieder! :rolleyes:

MfG :cool:

Und was war jetzt das Problem? Finde leider nur noch das Forceware 50-53 pdf von nvidia. 8(

Odal
2007-05-29, 09:46:29
Völlig korrekt, aber auch eine Geforce 7 ist unter HQ weitaus erträglicher als man meinen könnte, wenn man manche Postings hier liest.


Naja ich sag mal so, man gewöhnt sich (zwangsweise) an viele Sachen....

derzeit zock ich bei meiner Freundin RedOrchestra auf nam Celeron 2,8Ghz mit GF6200TurboCache welche ein 32Bit Speicherinterface hat....alles niedrigst...ohne AA mit 2xAF AF+Tri Optimierungen on im Treiber und nur Quality...damit laufen eigentlich alle maps mit 25-30FPS auf 1024x768....und kann ich dann auf einigen maps doch mal 1280x1024 einstellen weil noch um die 30 FPS bei rauskommen denk ich mir mensch das spiel sieht doch gut aus....

der witz ist das ich mich nach ein paar tagen mittlerweile mit den miesen settings abgefunden hab...wo ich auf meiner kiste nur mit 6xAAA 16xHQAF und EATM gezockt hab....

mit BQ findet man sich manchmal ab...das es deutlich besser geht sieht man erst wenn man wieder an einer Kiste mit höherer BQ sitzt.....

wechsle ich nach ner woche wieder auf mein system kommt der wow effekt erstmal ein paar tage...danach meckert man hier und da das was nicht perfekt ist (meist content basierend)....

4711
2007-05-29, 09:58:14
Der Begriff ist zwar etwas optimistisch gewählt, denn mathematisch hat das 24xAA nur wenig mit 24x zu tun (abgetastet wird jedes Pixel 8-fach, 24 Samples werden nur beim Downsampling verwendet). Aber der 24x-Modus mit dem edge-detection-filter stellt dennoch in zweierlei Hinsicht eine Verbesserung gegenüber dem 6xMSAA der alten Generation dar:
- es wird 8-fach statt 6-fach abgetastet, so kann man bei aktivem adaptivem AA (Quality) auch 8xSGSSAA nutzen
- der edge-detection-filter verbessert subjektiv das Downsampling ohne Texturen anzugreifen, da er nur dort wirkt, wo auch das MSAA wirkt; es kann durchaus sein, dass 24x edge detection subjektiv besser aussieht als 16xCSAA von Nvidia, obwohl beim 16xCSAA tatsächlich eine 16-fache Abtastung stattfindet (allerdings nicht immer überall, wo das MSAA wirkt)


8xMSAA ist definitiv nutzbar. Hier ist die X2900 XT mit 8xAA deutlich schneller als die nur wenig günstigere GeForce 8800 GTS und in 2560x1600 mit 8xAA teils sogar schneller als die GeForce 8800 Ultra (im Fall von Doom 3 sogar bei spielbarer Framerate):
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/23/#abschnitt_prey
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/25/#abschnitt_the_chronicles_of_riddick
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes
- http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez

Für den einen oder anderen sind die 340€ für eine X2900 XT dann doch eine lohnende Investition, oder nicht?

aber alles ohne AA gelle...

Odal
2007-05-29, 10:03:11
aber alles ohne AA gelle...

schau dir z.b. bei dumm3 2560x1600 8xAA/16xAF: an ;)

James Ryan
2007-05-29, 10:06:28
Und was war jetzt das Problem? Finde leider nur noch das Forceware 50-53 pdf von nvidia. 8(

Das Problem ist, dass du behauptet hast, das E-Z kam erst mit einem 100er FW wieder, tatsächlich aber war es ein 59.xxer.

MfG :cool:

Gast
2007-05-29, 10:07:06
aber alles ohne AA gelle...

hehe jo und das von Ihm gebrachte Beispiel mit der hohen Auflösung + AA gegen eine Ultra ist ebenfalls lachhaft.
Da sind die Ergebnisse im unspielbaren Bereich. Wen interessiert es bitte ob die eine Karte 15 statt 13 FPS macht. Niemanden. DAs ist unspielbar - basta.

Ab 25/30 fps aufwärts wirds interessant.

Der R600 ist einfach ein unrundes Produkt. Es gibt keinen Grund eine HD2900XT zu kaufen. Die Konkurenz bietet den besseren und vor allem sicheren Hafen zur Zeit.

lilgefo~
2007-05-29, 10:11:36
Das Problem ist, dass du behauptet hast, das E-Z kam erst mit einem 100er FW wieder, tatsächlich aber war es ein 59.xxer.

MfG :cool:

Das meinte ich nicht.
Ich meinte was das Problem mit Early Z war.

Mir ist im nachhinein auch aufgefallen, dass du schon gweschrieben hast wo das gefixt wurde.

p.s.: wenn ich schreibe "Mit dem 100.03?"..dann ist das eine Frage keine Behauptung ;)

Odal
2007-05-29, 10:21:37
hehe jo und das von Ihm gebrachte Beispiel mit der hohen Auflösung + AA gegen eine Ultra ist ebenfalls lachhaft.
Da sind die Ergebnisse im unspielbaren Bereich. Wen interessiert es bitte ob die eine Karte 15 statt 13 FPS macht. Niemanden. DAs ist unspielbar - basta.

Ab 25/30 fps aufwärts wirds interessant.

Der R600 ist einfach ein unrundes Produkt. Es gibt keinen Grund eine HD2900XT zu kaufen. Die Konkurenz bietet den besseren und vor allem sicheren Hafen zur Zeit.

stimmt schon eine 8800GTS ist mit 19FPS im unspielbaren bereich eine 2900XT mit fast 40FPS nicht ;)

http://666kb.com/i/aor33fvlt1dupuxih.png

Undertaker
2007-05-29, 10:43:37
8xMSAA ist definitiv nutzbar. Hier ist die X2900 XT mit 8xAA deutlich schneller als die nur wenig günstigere GeForce 8800 GTS und in 2560x1600 mit 8xAA teils sogar schneller als die GeForce 8800 Ultra (im Fall von Doom 3 sogar bei spielbarer Framerate):

msaa über 4x, das trifft auf g80 wie r600 zu, ist aber eh recht überflüssig wie ich finde, geringe optische unterschiede bei dafür recht großen einbrüchen - da hätte man sich über den ein oder anderen hybridmodus mehr gefreut...

Nakai
2007-05-29, 10:50:52
Ich finds cool, wie die ganzen NV-Fanboys den R600 in einem R650 bashen.:rolleyes:

Hier gehts doch gar nicht um den R600 sondern um den R650, der deutlich aufgemotzte Einheiten und einen deutlich höheren Takt haben wird.

mfg Nakai

LovesuckZ
2007-05-29, 10:54:06
Ich finds cool, wie die ganzen NV-Fanboys den R600 in einem R650 bashen.:rolleyes:


Hi,
wie bashen den r600, weil du uns einfach mehr versprochen hast. ;)
Warum bist du eigentlich in letzter Zeit so aggressiv drauf?

Nakai
2007-05-29, 11:06:28
Hi,
wie bashen den r600, weil du uns einfach mehr versprochen hast. ;)
Warum bist du eigentlich in letzter Zeit so aggressiv drauf?

Wieso fühlst du dich gleich wieder angesprochen?
Nach den ersten Vorabbenches von AMD war der R600 auch schneller als die GTX. Es waren aber nur 4 Spiele.
Natürlich bin ich enttäuscht, aber nicht in dem Ausmaß, dass ich den R600 als ein schlechtes Produkt verdammen muss.
Warum ich so aggressiv drauf bin, hat gar nichts mit den Foren zu tun, also privater Natur. Wenn sich jemand beleidigt fühlt tut mir das leid.

mfg Nakai

4711
2007-05-29, 11:12:16
stimmt schon eine 8800GTS ist mit 19FPS im unspielbaren bereich eine 2900XT mit fast 40FPS nicht ;)

http://666kb.com/i/aor33fvlt1dupuxih.png

ich frag nochmal was war das für ein Treiber......
und basche du ich garnett ich hätt gewechselt weil ich irgendwie stinksauer auf den G80 bin...

Nakai
2007-05-29, 11:16:59
Und ich frage nochmal, was hat das mit dem R650 zu tun?
Vll kann man daran erkennen, wo der R650 punkten muss. Er muss eine deutlich bessere AA-, AF-Performance haben. Mit dem erhöhten Takt sieht das gar nicht so schlecht aus, wobei er dann eher auf 8800Ultra Niveau oder eher drüber liegen wird.

mfg Nakai

4711
2007-05-29, 11:19:36
ich hab nett mit Balken zeigen angefangen...........und mit dem 650 hat das wie Du schon sagst wenig zutun :smile:

Nakai
2007-05-29, 11:21:34
Dann ist ja gut. :redface::wink:

mfg Nakai

James Ryan
2007-05-29, 12:00:44
Vll kann man daran erkennen, wo der R650 punkten muss. Er muss eine deutlich bessere AA-, AF-Performance haben. Mit dem erhöhten Takt sieht das gar nicht so schlecht aus, wobei er dann eher auf 8800Ultra Niveau oder eher drüber liegen wird.


Genau solche Postings gab es im Vorfeld über den R600, da wurde versprochen und versprochen und was kam am Ende raus?
Lustig dass es jetzt mit dem R650 so weiter geht...
Warum wird nicht einfach mal abgewartet auf wirklich handfeste Infos?

MfG :cool:

Odal
2007-05-29, 12:01:33
ich frag nochmal was war das für ein Treiber......
und basche du ich garnett ich hätt gewechselt weil ich irgendwie stinksauer auf den G80 bin...

ATi Catalyst 8-37-4-070-419a-046505E

und falls du auf den "legendären" 8.37.42iger Treiber anspielst muss ich dich enttäuschen...der wars nämlich nicht ;)

Spasstiger
2007-05-29, 12:09:09
stimmt schon eine 8800GTS ist mit 19FPS im unspielbaren bereich eine 2900XT mit fast 40FPS nicht ;)

http://666kb.com/i/aor33fvlt1dupuxih.png
Jo, genau das meinte ich. Bei OpenGL ist der R600 enorm flott, warum auch immer. Das hat auch nix speziell mit der Doom-3-Engine zu tun, denn sonst wäre der R600 ja nicht auch in Riddick so überlegen.

Gast
2007-05-29, 12:19:46
stimmt schon eine 8800GTS ist mit 19FPS im unspielbaren bereich eine 2900XT mit fast 40FPS nicht ;)

http://666kb.com/i/aor33fvlt1dupuxih.png

Ich meinte einen anderen Bench nicht dem Doom3.
Den Doom3 habe ich erst später gesehen aber eine Außnahme macht nunmal nicht die Regel. Und für einen Shooter ist alles unter 80fps sowieso für die Tonne. Da gehst im Multiplayer ein wie ein Noob.

Gast
2007-05-29, 12:20:47
Offensichtlich wird bei ATI gar kein 8xAA genutzt sondern wahrscheinlich einer der CFAA Modi, anders ist das Ergebnis nicht zu erklären, wenn man mal mit den Ergebnissen in 1600x1200 vergleicht.


stimmt schon eine 8800GTS ist mit 19FPS im unspielbaren bereich eine 2900XT mit fast 40FPS nicht ;)

http://666kb.com/i/aor33fvlt1dupuxih.png

Gast
2007-05-29, 12:20:48
Das Ergebniss ist in der Tat merkwürdig, vorallem weil ihm in den AF-Benches attestiert wird, das er dort enorm Performance verliert:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

Aber warum ist er dann bei dieser Auflösung trotz 8xAA und 16xAF so schnell?

Ich könnte mir das nur durch einen echt miesen Treiber erklären ...

Gast
2007-05-29, 12:25:37
Ich meinte einen anderen Bench nicht dem Doom3.
Den Doom3 habe ich erst später gesehen aber eine Außnahme macht nunmal nicht die Regel. Und für einen Shooter ist alles unter 80fps sowieso für die Tonne. Da gehst im Multiplayer ein wie ein Noob.

Es geht aber nunmal nicht darum, ob spielbar oder nicht, sondern, dass eine x2900 durchaus potential hat und in doom3, riddick eindeutig scneller ist als ein g80!

Nakai
2007-05-29, 12:33:31
Genau solche Postings gab es im Vorfeld über den R600, da wurde versprochen und versprochen und was kam am Ende raus?
Lustig dass es jetzt mit dem R650 so weiter geht...
Warum wird nicht einfach mal abgewartet auf wirklich handfeste Infos?

MfG :cool:

Sicherlich hast du recht, jedoch kann man von der R650 Architektur nun einiges ableiten. Wenn beim R650 alle Bugs behoben sind und der Takt angehoben wird, dann kann er relativ gut mit der Ultra konkurrieren.

mfg Nakai

AnarchX
2007-05-29, 12:34:50
Es ist imo, das VRAM-Problem der GF8-Serie, welches in diesem extremen Setting auch bei 640/768MB auftritt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361895

->GTS 640 hinter einer X1900XT und der Unterschied zwischen GTS und GTX weit über der Rohleistung

LovesuckZ
2007-05-29, 12:35:30
Sicherlich hast du recht, jedoch kann man von der R650 Architektur nun einiges ableiten. Wenn beim R650 alle Bugs behoben sind und der Takt angehoben wird, dann kann er relativ gut mit der Ultra konkurrieren.
mfg Nakai

Du findest also eine Karte, die wohl ein Jahr nach der GTX kommt (die Ultra interessiert keinen) und ca. 10% schneller ist, eine gute Ivestition? Na gut, nach dem r600 hat man wohl seine Ansprüche weit heruntergeschraubt...

Gast
2007-05-29, 12:41:55
Es ist imo, das VRAM-Problem der GF8-Serie, welches in diesem extremen Setting auch bei 640/768MB auftritt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361895

->GTS 640 hinter einer X1900XT und der Unterschied zwischen GTS und GTX weit über der Rohleistung

Das scheidet imo aus, die Skalierung des G80 mit der Auflösung ist so, wie man sie erwartet, immerhin hat 2560x1600 mehr als doppelt soviele Pixel wie 1600x1200, bei einer Limitierung der GPU (und die kann man hier wohl annehmen) muss also die Framerate bei 2560x1600 weniger als die Hälfte der fps bei 1600x1200 sein.

Gast
2007-05-29, 12:44:08
Immerhin erreicht die HD2900XT in 2560x1600 8xAA den gleichen Speed wie die X1950XTX in 4xAA und dieser Auflösung. :eek:
Also das Teil rennt wie sau, leider nicht in den anderen Games. ;-)

Die sollten mal mehr OpenGL Zeug testen, vielleicht fällt dann eine Gemeinsamkeit auf...

Nakai
2007-05-29, 12:48:24
Du findest also eine Karte, die wohl ein Jahr nach der GTX kommt (die Ultra interessiert keinen) und ca. 10% schneller ist, eine gute Ivestition? Na gut, nach dem r600 hat man wohl seine Ansprüche weit heruntergeschraubt...

Hab ich nie behauptet, verdrehe mir bitte nicht die Worte im Mund.:rolleyes:

Vll wird er sogar eine sehr gute Investition, wenn alles richtig klappt. Mit 65Nm ein sehr kleiner Core, also relativ billig herzustellen, dann wird sich der Stromverbrauch auch in Grenzen halten. Wenn er dann noch einen guten Preis hat, ist der R650 eine gute Investition.

Die sollten mal mehr OpenGL Zeug testen, vielleicht fällt dann eine Gemeinsamkeit auf...

Soviel OpenGL-Spiele gibt es nicht mehr. OpenGL stirbt aus.

mfg Nakai

James Ryan
2007-05-29, 13:14:31
Sicherlich hast du recht, jedoch kann man von der R650 Architektur nun einiges ableiten.

R650 Architektur? :| Du meinst wohl R600 Architektur, auf dieser wird der R650 aufbauen.

Wenn beim R650 alle Bugs behoben sind und der Takt angehoben wird, dann kann er relativ gut mit der Ultra konkurrieren.

Genau darum geht es: Wenn...
Wer sagt denn, dass die miese FSAA-Leistung in D3D beim R600 ein Bug und nicht architekturbedingt ist? Einen Bug könnte man im R650 fixen, einen Architekturfehler nicht!
Ich würde einfach mal auf wirklich handfeste Infos warten und nicht wieder mit den üblichen Sätzen anfangen als "Der R6xx wird den G8x besiegen/vernichten/was auch immer!"
Man schürt damit Hoffnungen die gar nicht erfüllt werden können! Der R600 war doch das beste Beispiel, lernt da mal raus!

MfG :cool:

Gast
2007-05-29, 13:16:55
650 frechheit.......ja natürlich,was für eine frechheit is dass,möchlichst schnell ein besseres produkt liefern zu wollen

ohman

Spasstiger
2007-05-29, 13:17:51
Genau darum geht es: Wenn...
Wer sagt denn, dass die miese FSAA-Leistung in D3D beim R600 ein Bug und nicht architekturbedingt ist?
Ein Architekturfehler kann es nicht sein oder wie erklärst du dir, dass die X2900 XT mit 8xAA in manchen Spielen die GF 8800 Ultra schlägt?

James Ryan
2007-05-29, 13:22:52
Ein Architekturfehler kann es nicht sein oder wie erklärst du dir, dass die X2900 XT mit 8xAA in manchen Spielen die GF 8800 Ultra schlägt?

Mit dem Bug im Speicherverwaltungssystem bei den G80-Karten.
Und sorry, unspielbare fps vs. unspielbare fps nützt sowieso keinen was. ;)
Die HD 2900 XT gibt es jetzt schon einige Zeit + 6 Monate vorher in den Testlaboren, da müsste es schon einen Treiber geben der den FSAA-Bug (wenn es denn einer ist) behebt.

MfG :cool:

Gast
2007-05-29, 13:28:33
Ein Architekturfehler kann es nicht sein oder wie erklärst du dir, dass die X2900 XT mit 8xAA in manchen Spielen die GF 8800 Ultra schlägt?

Das tut der R600 doch überhaupt nicht.

seahawk
2007-05-29, 13:29:58
Naja, nur mal ein Paar Gedanken.

Bis welchem AA-Grad kann der G80 im Signelpass arbeiten ?
Was kann der R600 entsprechend einiger Gerüchte nicht ?
Warum ist es dann wahrscheinlich, dass der Unterschied bei 8xMSAA kleiner wird ?

Aber das tut auch gar nichts zum Thema beitragen. Ob R650 unverschämt ist wird davon abhängen, ob und wann ATI brauchbare Treiber für den R600 bringt.

Mr. Lolman
2007-05-29, 13:37:41
Das tut der R600 doch überhaupt nicht.

Doch in Doom³, in Prey und in Riddick zB...

Gast
2007-05-29, 13:38:43
ist das opengl........

Gast
2007-05-29, 13:46:31
Doch in Doom³, in Prey und in Riddick zB...

Diese Benches sind fehlerhaft, da ATI hier kein echtes 8xAA anwendet, sondern einen CFAA Modus.

Sterem
2007-05-29, 13:50:54
Diese Benches sind fehlerhaft, da ATI hier kein echtes 8xAA anwendet, sondern einen CFAA Modus.

Nur ein gerücht.

LovesuckZ
2007-05-29, 13:51:03
Diese Benches sind fehlerhaft, da ATI hier kein echtes 8xAA anwendet, sondern einen CFAA Modus.

Gibt es dazu Quellen?
Soll es nicht eher so sein, dass die CFAA Modie nicht unter OpenGL funktionieren?

Gast
2007-05-29, 14:22:58
Soviel OpenGL-Spiele gibt es nicht mehr. OpenGL stirbt aus.Mag im Moment so aussehen, aber an ein Aussterben von OpenGL glaube ich nicht mal ansatzweise. Da mit OpenGL SM4 auch unter XP (!theoretisch sogar unter W9x!) funktioniert sollte wahrscheinlich eher ein großes Revival von OpenGL bevorstehen.

HOT
2007-05-29, 14:37:48
Mag im Moment so aussehen, aber an ein Aussterben von OpenGL glaube ich nicht mal ansatzweise. Da mit OpenGL SM4 auch unter XP (!theoretisch sogar unter W9x!) funktioniert sollte wahrscheinlich eher ein großes Revival von OpenGL bevorstehen.
Ein interessanter Gedanke, an dem durchaus etwas dran sein könnte. Vor allem id wird das interessieren.

LovesuckZ
2007-05-29, 14:48:03
Mag im Moment so aussehen, aber an ein Aussterben von OpenGL glaube ich nicht mal ansatzweise. Da mit OpenGL SM4 auch unter XP (!theoretisch sogar unter W9x!) funktioniert sollte wahrscheinlich eher ein großes Revival von OpenGL bevorstehen.

Dafür müssten die OpenGl Extension der Hersteller erstmal standardisiert werden. Was bringt es dir, wenn eine OpenGL "SM4.0 Fähigkeiten" verwendet, jedoch nur auf Karten eines Herstellers lauffähig sind?
OpenGL wird kein Wiederbelebung erfahren, dazu ist der Zug einfach schon abgefahren.

HOT
2007-05-29, 14:53:21
OpenGL3 wird bald final sein.

aths
2007-05-29, 15:01:10
Genau solche Postings gab es im Vorfeld über den R600, da wurde versprochen und versprochen und was kam am Ende raus? Wer hat was versprochen? Außer AMD kann da keiner was versprechen.
Lustig dass es jetzt mit dem R650 so weiter geht...
Warum wird nicht einfach mal abgewartet auf wirklich handfeste Infos?Immer das gleiche: Die jeweilige Fraktion lobt ihr Produkt im Vorfeld hoch, wenns zufällig eintrifft das Triumphgeheule "Ich hab's gewusst", wenn's zufällig nicht eintrifft, wird wenigstens der Nachfolger zum Messias gemacht. Als sich NV mit dem NV30 gründlich blamierte, taten die ATI-Fans so, als hätten sie voll den Durchblick bei der NV30-Architektur und gleich gesehen, dass er beim Pixelshader 2.x so langsam ist.

Jetzt hat es mal ATI nicht geschafft, mit einer neuen Serie die Performancekrone zu erlangen (wobei sie näher an der Konkurrenz dran sind als NV damals mit dem NV30.) Aber:

- In welchen Spielen bietet die HD 2900 kein vernünftiges Spieleerlebnis (flüssig, hohe BQ) wo NV zum gleichen Preis einen deutlichen Vorteil bietet?

- In wie vielen Spielen ist es genau andersherum?


Soweit ich das sehe, bietet R600 ausreichend Gegenwert für sein Geld. Natürlich wird es von AMD auch leistungsstärkere Nachfolger geben, und natürlich werden diese nicht gleich mit einer völlig neuen Architektur kommen.

aths
2007-05-29, 15:02:39
@Spasstiger
Sorry, aber das 6xMSAA auf einer R5xx ist weitaus schöner als der 24xCFAA Matsch auf einer HD 2900 XT! Oder findest du das nicht? :|Dafür gibts den Edge-Detection-Modus.

Selbst wenn es so ist. Man schaue sich nur einmal die CHips der vergangenen Jahre an, 6800ultra vs x800xt, 7800gtx vs x1800xt, x1900xt vs 7900gtx. Diese Karten (nv Karten) waren zum Launch schneller oder genauso wie die Ati Karten und sind jetzt allesamt teils deutlicher langsamer.Eben. Man sollte auch ATI 6 Monate Zeit geben, am Treiber zu arbeiten und dann noch mal vergleichen. Der eigentliche Kampf steht imo sowieso noch aus. Es kommt darauf an, welcher Hersteller jetzt seine Hardwarearchitektur besser nach oben skalieren kann.

Naja, nur mal ein Paar Gedanken.

Bis welchem AA-Grad kann der G80 im Signelpass arbeiten ?
Das hängt davon ab, wie viele Takte die Berechnung des Pixels kostet. Bei heutiger Pixel-Komplexität limitieren die ROPs lange nicht mehr, es ist eher die zusätzlich benötigte Bandbreite, die reinhaut.

(Wenn ich das noch sagen darf: Vor Fragezeichen bitte kein Leerzeichen setzen.)




OpenGL stirbt aus.Das wüsste ich.

OpenGL wird kein Wiederbelebung erfahren, dazu ist der Zug einfach schon abgefahren.Woher hast du denn solche Infos?

James Ryan
2007-05-29, 15:05:47
Eben. Man sollte auch ATI 6 Monate Zeit geben, am Treiber zu arbeiten und dann noch mal vergleichen.

Nochmal 6 Monate? :rolleyes:
Warum sollte man immer weiter warten bis ATi beim R600 mal was gutes zustande bringt wenn man mit dem G80 schon seit 7 Monaten was perfomanteres kaufen kann? :confused:
Ich kann mir aber schon denken warum...

MfG :cool:

Gast
2007-05-29, 15:07:58
Es geht aber nunmal nicht darum, ob spielbar oder nicht, sondern, dass eine x2900 durchaus potential hat und in doom3, riddick eindeutig scneller ist als ein g80!

Es ist vollkommen irrelevant welches Potential eine X2900 oder GTX/GTS haben, wenn die bisher erreichten Ergebnisse meilenweit von gewünschten spielbaren Ergebnissen entfernt liegen. Das werden dann auch keine Treiberupdates mehr ändern, zumal diese grundsätzlich für beide gelten.

Hier und heute ist die Karte unrund und für den Endkunden nicht zu empfehlen. AMD/ATI müssen erstmal beweisen, dass das Produkt was taugt. Vorher lautet die Empfehlung ganz klar G80. Zeit für Versprechungen hatten ATI/AMD genug. Gehalten wurde nix, deswegen ist die Schonzeit auch vorbei.

Gast
2007-05-29, 15:17:54
Dafür müssten die OpenGl Extension der Hersteller erstmal standardisiert werden. Was bringt es dir, wenn eine OpenGL "SM4.0 Fähigkeiten" verwendet, jedoch nur auf Karten eines Herstellers lauffähig sind?
OpenGL wird kein Wiederbelebung erfahren, dazu ist der Zug einfach schon abgefahren.Dank D3D10 sind die Hardwarefähigkeiten so nahe beieinander wie schon seit Ewigkeiten nicht mehr, da sehe ich kein Problem darin, schnell von herstellerabhängigen Extensions auf generelle umzuschwenken.
OpenGL wird kein Wiederbelebung erfahren, dazu ist der Zug einfach schon abgefahren.Wuz? HW, die SM4 beherrscht ist noch längst nicht so verbreitet als dass sie breit unterstützt würde. Wie soll dann der Zug schon längst abgefahren sein? Siehst du die D3D10-Spiele massenhaft den Markt stürmen? Nein? Wie viele Zocker haben schon Vista? Noch weniger als SM4-fähige HW...

Odal
2007-05-29, 15:20:18
Ich meinte einen anderen Bench nicht dem Doom3.
Den Doom3 habe ich erst später gesehen aber eine Außnahme macht nunmal nicht die Regel. Und für einen Shooter ist alles unter 80fps sowieso für die Tonne. Da gehst im Multiplayer ein wie ein Noob.


ach jetzt sinds plötzlich schon über 80FPS? vorhin waren es noch 30-35FPS ^^ was kommt als nächstes wenn gezeigt wird das die 2900xt in einem bench über 80FPS hat und vor der 8800ultra liegt?

gezeigt werden sollte das im gegensatz zu DX in OpenGL der R600 durchaus anständig mit AA und AF performt....da kann man durchaus sehen das potential vorhanden ist....inwieweit das auch in DX noch umgesetzt werden kann wird die zeit zeigen

aths
2007-05-29, 15:34:05
Nochmal 6 Monate? :rolleyes:
Warum sollte man immer weiter warten bis ATi beim R600 mal was gutes zustande bringt wenn man mit dem G80 schon seit 7 Monaten was perfomanteres kaufen kann? :confused:Um die Leistung der R600-Architektur gerecht zu bewerten, sollte man AMD ein Treiberoptimierungspotenzial zugestehen, was NV beim G80 vorweisen kann. In modernen Spielen wird heute zum Beispiel die Highend-7900 meistens von einer Highend-X1900 abgezogen. Das war nicht immer so.

R600 bietet mehr arithmetische Leistung als der G80, nur ist es etwas schwieriger, diese Kraft zur Entfaltung zu bringen. R600 sehe ich nicht als schwächeren, eher als anders balancierten Chip an (wenn man mit der 8800 GTS vergleicht.) Die GTX ist deutlich teurer und insofern kein Konkurrent.

Ich kann mir aber schon denken warum...Sprich dich ruhig aus.

aths
2007-05-29, 15:37:25
Es ist vollkommen irrelevant welches Potential eine X2900 oder GTX/GTS haben, wenn die bisher erreichten Ergebnisse meilenweit von gewünschten spielbaren Ergebnissen entfernt liegen. Das werden dann auch keine Treiberupdates mehr ändern, zumal diese grundsätzlich für beide gelten.

Hier und heute ist die Karte unrund und für den Endkunden nicht zu empfehlen. AMD/ATI müssen erstmal beweisen, dass das Produkt was taugt. Vorher lautet die Empfehlung ganz klar G80. Zeit für Versprechungen hatten ATI/AMD genug. Gehalten wurde nix, deswegen ist die Schonzeit auch vorbei.Wo wurde nichts gehalten? Seit der Radeon (R100) gab es von ATI immer eine für Gamer gut brauchbare und bezahlbare Karte. Daran hat sich mit dem R600 nichts geändert.

Wo liegt die 2900 "meilenweit" von spielbaren Ergebnissen wo ein gleichpreisiges NV-basierendes Produkt deutliche Vorteile hat? Und wie oft gibt es den umgekehrten Fall?

Gouvernator
2007-05-29, 15:38:07
In modernen Spielen wird heute zum Beispiel die Highend-7900 meistens von einer Highend-X1900 abgezogen. Das war nicht immer so.

Die X1900 war vom ersten Tag an in allen Spielen sauschnell, in älteren sowieso. Die HD2900XT dagegen ist in allen alten Spielen meist so schnell wie fast 1.5 Jahre alte X1900.

aths
2007-05-29, 15:40:05
Die X1900 war vom ersten Tag an in allen Spielen sauschnell, in älteren sowieso. Die HD2900XT dagegen ist in allen alten Spielen meist so schnell wie fast 1.5 Jahre alte X1900.Ist das nicht mehr schnell genug? Meine 6600 GT wurde in alten Spielen auch von einer Radeon 9800 Pro abgezogen – ja und?

Die Treiber der 1900 waren durch 1600-er Erfahrungen bereits sehr gut optimiert. Das ist bei der 2900 noch nicht der Fall.



Dank D3D10 sind die Hardwarefähigkeiten so nahe beieinander wie schon seit Ewigkeiten nicht mehr, da sehe ich kein Problem darin, schnell von herstellerabhängigen Extensions auf generelle umzuschwenken.Zumal heutige Karten mehr und mehr programmierbar werden. Man muss sich praktisch nur auf Shader-Extensions einigen, um die SM4-Karten (aller Hersteller) gut ausnutzen zu können.

James Ryan
2007-05-29, 15:42:13
Um die Leistung der R600-Architektur gerecht zu bewerten, sollte man AMD ein Treiberoptimierungspotenzial zugestehen, was NV beim G80 vorweisen kann.

Den R600 gibt es schon 6 Monate als lauffähigen Chip, A/A hatten genug Zeit die Treiber zu optimieren. Jetzt nochmal 6 Monate zu warten kann nicht dein Ernst sein.

MfG :cool:

aths
2007-05-29, 15:48:02
Den R600 gibt es schon 6 Monate als lauffähigen Chip,Warum wurde der dann nicht schon ausgeliefert? Wie viele lauffähige Chips braucht man, um ein großes Team am Treiber arbeiten zu lassen? So wie ich das sehe, sind die Launchtreiber noch eher mit heißer Nadel gestrickt.

A/A hatten genug Zeit die Treiber zu optimieren. Jetzt nochmal 6 Monate zu warten kann nicht dein Ernst sein.Nach einer neuen Generation 6 Monate zu warten bis die Treiberqualität einen Status erreicht, der vernünftige Tests erlaubt, ist bei jedem Hersteller mein Ernst.

Gouvernator
2007-05-29, 15:49:47
Naja... ein Treiberproblem mit gleich neuem Chip zu bekämpfen ist gar nicht mal so kluge Idee. Dann spiele ich halt mit 'nem r650 BF2, und Schattenfehlern und halber X1900 Performance - yeah!!

Odal
2007-05-29, 15:56:27
Nach einer neuen Generation 6 Monate zu warten bis die Treiberqualität einen Status erreicht, der vernünftige Tests erlaubt, ist bei jedem Hersteller mein Ernst.


Sehe ich auch so. Sowohl G80 als auch R600 sind keine Refreshs und von der Architektur her was neues. Selbst der R580 war da noch viel näher am R520 als der R600 am R580 (da bestehen praktisch kaum Gemeinsamkeiten).

Sowas schlägt sich eben dadurch nieder das diese neue Architektur erstmal in den Treiber reingefrickelt wird. Optimiert wird dann im Laufe der Zeit. Das Wichtigste ist es das möglichst viele Spiele Bugfrei laufen. Um Optimierungen und FPS sorgt man sich später.

aths
2007-05-29, 16:28:12
Naja... ein Treiberproblem mit gleich neuem Chip zu bekämpfen ist gar nicht mal so kluge Idee. Dann spiele ich halt mit 'nem r650 BF2, und Schattenfehlern und halber X1900 Performance - yeah!!Das verstehe ich jetzt nicht. Der neue Chip kommt scheinbar schneller, weil sich der R600 verzögerte. Das hat doch nichts damit zu tun, dass R600 neu ist und die Treiber noch nicht ausgereift sind. Keiner sagt, dass R600 mit optimierten Treibern die GTX schlägt. Aber man darf erwarten, dass die R600-Performance in vielen Spielen noch zulegen wird. R600 wurde entwickelt als Karte für viele arithmetische Berechnungen und HDR-Rendering, G80 ist – obwohl in gewissen Dingen durchaus schon moderner – eher für traditionelle Spiele ausbalanciert. Mal abgesehen vom R420 (und in geringerem Maße auch R520) waren ATI-Architekturen immer ein gutes Stück voraus. Beispiel R100 vs. GeForce 2. Bei traditionellen Settings (16 Bit) zog die GeForce 2 davon. Bei moderneren Spielen und in 32 Bit war die Radeon 256 von der GeForce 2 nicht mehr zu schlagen.

Ich will hier keine Kaufempfehlung pro R600 oder pro G80 aussprechen. Aber ich halte den R600 für zu schlecht dargestellt.

- Das AF-LOD ist (rein vom LOD her, ob unterfiltert wird, weiß ich nicht) trotz schwacher Winkelabhängigkeit noch "aths-approved". Das ist die erste ATI-Karte mit LOD-seitg "aths-approved" AF.
- Endlich 8xAA
- Mit ED (Edge Detection) sinnvolle Möglichkeit, den Blur nur dort auftreten zu lassen, wo man ihn haben will. Dies kann auch noch die Darstellung bei MS-Transparency-AA verbessern (da die Ditherung minimiert wird.)
- Extreme arithmetische Rechenleistung.
- Schön hohe Vertexleistung.

Xmas
2007-05-29, 16:53:04
Dafür müssten die OpenGl Extension der Hersteller erstmal standardisiert werden.
Das sind sie bereits.

Gast
2007-05-29, 17:21:02
Mal abgesehen vom R420 (und in geringerem Maße auch R520) waren ATI-Architekturen immer ein gutes Stück voraus. Beispiel R100 vs. GeForce 2. Bei traditionellen Settings (16 Bit) zog die GeForce 2 davon. Bei moderneren Spielen und in 32 Bit war die Radeon 256 von der GeForce 2 nicht mehr zu schlagen.


Das liegt imo an der relativ zu geringen Speicherbandbreite der GF2, von der Füllrate her ist sie einer Radon 256 weit überlegen.

Black-Scorpion
2007-05-29, 17:36:20
Ich möchte nicht wissen, wie der Treiber vor 7 Monaten ausgesehen hätte. :eek:
Das ist wieder ein anderes Thema. ;)
Es ging ja um das Argument das man bei 7 Monaten Verspätung wenigstens die BQ hätte verbessern können.
Und das ist einfach nicht drin wenn der Chip schon fertig ist.

Gast
2007-05-29, 17:43:18
Es ging ja um das Argument das man bei 7 Monaten Verspätung wenigstens die BQ hätte verbessern können.
Und das ist einfach nicht drin wenn der Chip schon fertig ist.Naja, die AI-Sauerein hätte man einfach weglassen können. Das ist Treibersache und somit auch im Nachhinein noch zu ändern. Die LOD-Bestimmung soll ja besser sein als beim R580, was schonmal eine gute Vorrausetzung ist.

Crazy_Chris
2007-05-29, 17:52:29
Was waren denn nu die Gründe für diese enorme Verspätung? Die Entwicklung brauchbarer Treiber kanns ja nicht gewesen sein. :rolleyes: Was ist eigentlich aus der "2900XT OEM" Version geworden?

HOT
2007-05-29, 19:03:06
Das liegt imo an der relativ zu geringen Speicherbandbreite der GF2, von der Füllrate her ist sie einer Radon 256 weit überlegen.
Da kannste mal sehen, wie beschissen unausbalanciert der G2 war ;). Das Beispiel gilt heute analog. Der R600 bietet deutlich mehr Potenzial für zukünftige Spiele (Aritmethische Rechenleistung, Vertexleistung, RAM-Interface...). Der R100 erlebte damals als RV200 eine Renessance ohne Gleichen, nämlich als die Spiele plötzlich alle 32Bit Farbtiefe als Standard boten. Die R600 Architektur könnte sich als deutlich potenter für die Zukunft erweisen, als man jetzt vermutet.

Was waren denn nu die Gründe für diese enorme Verspätung? Die Entwicklung brauchbarer Treiber kanns ja nicht gewesen sein. :rolleyes: Was ist eigentlich aus der "2900XT OEM" Version geworden?
Natürlich kann es das gewesen sein, nämlich wenn es schlicht keine brauchbaren Treiber gab. Es ist sogar naheliegend. Zudem kann auch eine sehr schlechte Ausbeute das Problem gewesen sein.

Gast
2007-05-29, 19:12:01
Interessiert nicht im Highend Markt, weil zu klein und hier öfters Grafikkarten ausgetauscht werden als sonstwo. Als Ebay Schnäppchen in 6 Monaten ist die HD2900 sicher gut, aber atm gibt es keinen einzigen Grund diese Karte zu kaufen, zumal sie auf einem Bein hinkt durch massive Treiberprobleme und einer, sagen wir, veralteten Videobeschleunigung.

Der R650 soll alles besser machen, also warum nicht warten? Bei Release des G80 haben ja auch viele geschrien das sie lieber 6 Monate warten bis AMD nachzieht bevor sie ins "grüne" kaufen. Packt nochmal 6 Monate drauf dann ist auch AMD im Highend soweit (zumindest hoffen wir es).

Und ich muss keine "massiven" Vorteile der Konkurrenz nennen, AMD hat genügend Nachteile, die Preis/Leistung zählt einfach, denn wir haben 2 (eigentlich 3) Highend Käuferschichten. XTX/GTX/Ultra Käufer und die "1 drunter" sprich XT/GTS/GT Käufer. Wenn man hier den Forums Durchschnitt dieser Kategorie mal nimmt kommt man mit Sicherheit auf eine maximale Lebensdauer einer Grafikkarte dieser Käufer von 1,5 Jahren (aber dann wird richtig aufgerüstet :))

R600 ist einfach ein unsicheres Pferd auf das man setzen mag, aber dann nicht heulen sollte das es in die Falsche Richtung rennt... Auch wenn es in einem Jahr vieleicht die richtige Richtung findet. Ok, DX10 Software ist noch nicht bei uns angekommen, aber hohe AA Modi kann und will ich ja schon heute auf einem +20" Gerät fahren...
Mit Crysis und U3-Engine Titeln wird der Hunger nach Grafikleistung wieder stark anziehen, da kommt der R650 evtl. genau richtig.

4711
2007-05-29, 19:19:02
wenn Du da 6 Monate draufpackst mußt Du aber mit dem G90 vergleichen..:

Coda
2007-05-29, 19:29:07
Jo, genau das meinte ich. Bei OpenGL ist der R600 enorm flott, warum auch immer. Das hat auch nix speziell mit der Doom-3-Engine zu tun, denn sonst wäre der R600 ja nicht auch in Riddick so überlegen.
Riddick und Doom 3 verwenden aber so ziemlich die gleichen Rendertechniken.

Gast
2007-05-29, 19:33:02
Da kannste mal sehen, wie beschissen unausbalanciert der G2 war ;).


So ein Quark, der ist immer noch einer Radeon 256 in allen Situationen überlegen, unter 16 Bit halt etwas mehr als unter 32 Bit.
Apropos unausgewogen, die dritte TMU beim Radeon war ja auch nicht so der Bringer.


Das Beispiel gilt heute analog. Der R600 bietet deutlich mehr Potenzial für zukünftige Spiele (Aritmethische Rechenleistung, Vertexleistung, RAM-Interface...).


Du irrst, gerade der G80 hat durch seine Flexibiliät wesentlich mehr Potential für zukünftige Spiele als ein R600.

aths
2007-05-29, 19:40:23
Das liegt imo an der relativ zu geringen Speicherbandbreite der GF2, von der Füllrate her ist sie einer Radon 256 weit überlegen.Von der 16-Bit-Füllrate ja, von der 32-Bit-Füllrate eben nicht. Zumal Radeon 256 HyperZ anzubieten hat.

=Floi=
2007-05-29, 19:41:20
und was ist wenn der G80 diesmal nicht einbricht mit der zeit?
der R600 hat eine hohe rechenleistung aber der G80 hat imho mehr und steht sonst auch eher besser als schlechter da und die vergangenheit muß sich nicht immer wiederholen...

Odal
2007-05-29, 19:42:10
Du irrst, gerade der G80 hat durch seine Flexibiliät wesentlich mehr Potential für zukünftige Spiele als ein R600.

Was für eine Flexibilität? Du meinst massive rohpower genau wie damals eine 7800GTX bzw. später 7900GTX.....

wenn der R600 potential hat dann eher in zukünftigen spielen

aths
2007-05-29, 19:42:51
So ein Quark, der ist immer noch einer Radeon 256 in allen Situationen überlegen, unter 16 Bit halt etwas mehr als unter 32 Bit.
Apropos unausgewogen, die dritte TMU beim Radeon war ja auch nicht so der Bringer.HyperZ ist bei 32 Bit der Bringer, so dass die Radeon 256 mit DDR-RAM die GeForce 2 in vielen Spielen wegrult.


Du irrst, gerade der G80 hat durch seine Flexibiliät wesentlich mehr Potential für zukünftige Spiele als ein R600.Das werden wir erst noch sehen.

aths
2007-05-29, 19:44:36
und was ist wenn der G80 diesmal nicht einbricht mit der zeit?
der R600 hat eine hohe rechenleistung aber der G80 hat imho mehr und steht sonst auch eher besser als schlechter da und die vergangenheit muß sich nicht immer wiederholen...Wieso hat der G80 deiner Meinung nach mehr Rechenleistung? Wie viel Rechenleistung die Chips haben, lässt sich angeben – der R600 hat mehr.

Gast
2007-05-29, 19:46:30
was streitet Ihr euch .... vergleichen müßt ihr dann die Ati mit einem G90.... und der wird mit Bestimmtheit nicht schlechter als der G80.. und wenn jeder von Euch 3 dieser ATI Gurken geschenkt bekommt.

Nakai
2007-05-29, 19:57:20
Lol, nur wenn der R650 im Preissegment des G90 liegt, kann man sagen, dass er ein Konkurrent ist.

mfg Nakai

seahawk
2007-05-29, 20:35:58
Was für eine Flexibilität? Du meinst massive rohpower genau wie damals eine 7800GTX bzw. später 7900GTX.....

wenn der R600 potential hat dann eher in zukünftigen spielen

Ich halte beide Aussagen für gewagt. Ich sehe keine Grund warum der R600 jetzt mehr Potential haben sollte, noch sehe ich einen der gegen G80 spricht. Das einzige was ich weiss, ist dass es zu dem zeitpunkt an dem man diese Frage beantworten kann, Karten entsprechender LEistungsfähigkeit für deutlich unter 200 Euro kaufen kann.

=Floi=
2007-05-29, 20:39:33
naja, das kann ich schlecht begründen weil ich mich da nicht so gut auskenne (wie du) aber die theoretische rechenleistung ist über der XT und imho sehe ich beim NV design da ein paar vorteile bei zukünftigen spielen auch wenn die theoretische shaderleistung unter der ati liegt (finde ich das reine 1D design flexibler )

Mr. Lolman
2007-05-29, 20:41:16
http://www.ixbt.com/video3/images/r600/d3drm-gps-4.png

http://www.ixbt.com/video3/images/r600/d3drm-ps3.png

HOT
2007-05-29, 22:08:32
Was tun Spiele in Zukunft? Sie rendern HDR (und nutzen zusätzlich AA), sie haben mehr und komplexere Shader-Programme, sie verwenden grössere Texturen...
Das sind alles Dinge, die belasten die Füllrate nicht und genau da ist die G80 deutlich besser als der R600. Dafür bietet der R600 viel Bandbreite (für HDR+AA sehr gut und auch für Riesen-Texturen) und höhere Rechenleistung in komplexer Form. Sicher wird auch der Anspruch an die Füllrate steigen, aber die steigt schon lange nicht mehr so dramatisch wie die geforderte Rechenleistung. Früher hatte man pro Pipe 2 TMUs, seit dem R300 nurnoch eine TMU pro Pipe und nun sind es deutlich weniger... Damit sollte klar sein, wer für die Zukunft besser gerüstet ist. Jedoch seh ich das so, dass NV da wieder mit dem G90 ausgleichend eingreift und die Schwächen des G80 kompensiert... es wiederholt sich wieder, wie seit dem Geforce6. Als der R520 rauskam, waren die Spiele füllratenlimitierter als jetzt und jetzt sind die R520/R580 Karten im Vorteil...

Mancko
2007-05-29, 22:32:28
Was tun Spiele in Zukunft? Sie rendern HDR (und nutzen zusätzlich AA), sie haben mehr und komplexere Shader-Programme, sie verwenden grössere Texturen...
Das sind alles Dinge, die belasten die Füllrate nicht und genau da ist die G80 deutlich besser als der R600. Dafür bietet der R600 viel Bandbreite (für HDR+AA sehr gut und auch für Riesen-Texturen) und höhere Rechenleistung in komplexer Form.

Das ist ja alles ganz toll nur ist der R600 heute schon performance technisch nicht der Bringer mit AA und AF gegenüber dem G80. Da kann die Rechenleistung besser sein wie sie will. Die zukünftigen Spiele in 2 Jahren mögen mehr Rechenleistung benötigen als heute aber sie benötigen mit Sicherheit nicht weniger Texturleistung als heute sondern eben auch mehr wenn auch prozentual vielleicht nicht so viel mehr. Da die Ausgangsbasis des R600 aber schon bescheiden ist, macht es das Produkt nicht mehr großartig besser. Da ist einfach nicht mehr genug zu reissen.
Und bis es soweit ist, will kein Schwein den R600 haben. Da sind wir schon bei der nächsten Generation angelangt.
G80 Käufer hatten bis dahin maximalen Spass. R600 Wartende haben Zeit liegen gelassen und R600 Käufer erfreuen sich derzeit an Bugs, Ungereimtheiten, unausgeglichenem Produkt und weniger Spielfreude momentan als G80 Käufer.

Es gibt keinen Grund sich einen R600 zuzulegen, sofern man nicht unbedingt bei der IHV Marke festgelegt ist, was sich im Promillebereich nur so verhalten dürfte.
Da ist man mit G80 auf der sicheren Seite und es lohnt sich eigentlich auch nicht weiter darüber zu diskutieren. Das ist müßig. DIe Reviewer haben in der überwiegenden Mehrheit genau das festgehalten und die Quartalszahlen bei AMD's Grafikabteilung vs Nvidia werden genau das wiederspiegeln.

Wenn die ATI Fanboyseite Nr1. "Driverheaven" sich dazu genötigt sieht der HD2900XT keine Kaufempfehlung auszusprechen und lieber die GTS640 MB zu empfehlen ist eigentlich schon alles gesagt.

Da können wir den Thread hier noch 2000 Seiten lang machen.
Es wird nix nützen. Die Runde ist für AMD/ATI verloren und die versuchen nur noch Schadensbegrenzung. Das kann aber nicht das Problem des Kunden sein und ich finde es eine Sauerei wenn hier noch Leute so dreist sind und die problembehaftete 2900XT Lesern im Forum zu empfehlen.
Es das sind sowieso immer die gleichen.
Ihr könnt euch einfach mal damit abfinden, dass AMD/ATI dieses mal einfach kurz und bündig daneben gelegen haben. Punkt!

AnarchX
2007-05-29, 22:33:58
http://www.ixbt.com/video3/images/r600/d3drm-gps-4.png

http://www.ixbt.com/video3/images/r600/d3drm-ps3.png

Den Link anzugeben hast du wohl, bei deinen bewusst ausgewählten Ergebnissen, einfach mal vergessen? ;)

http://www.digit-life.com/articles2/video/r600-part2.html

@Topic:
R600 hat durchaus Potential in einigen Bereichen.
Fragt sich nur wieweit man es beim R600 mit seinem "broken design"(von dem auch AMD spricht) entfalten kann und wieweit es bei R650 so einfach zu reparieren sein wird oder ob man sich besser auf den R700 konzentrieren sollte.

Mr. Lolman
2007-05-29, 22:34:39
Wenn die ATI Fanboyseite Nr1. "Driverheaven" sich dazu genötigt sieht der HD2900XT keine Kaufempfehlung auszusprechen und lieber die GTS640 MB zu empfehlen ist eigentlich schon alles gesagt

Die haben sich von ATI schon länger getrennt. AFAIK seitdem ATi mit Crossfire aufgetaucht ist, wird eigentlich auf DH häufig über ATi abgelästert...

Den Link anzugeben hast du wohl, bei deinen bewusst ausgewählten Ergebnissen, einfach mal vergessen? ;)

http://www.digit-life.com/articles2/video/r600-part2.html

Nö. Ich dachte nur, dass PS3 und GS wichtiger ist, als PS2 und Point Sprites X-D

(von dem auch AMD spricht)

wo denn?

AnarchX
2007-05-29, 22:43:54
Nö. Ich dachte nur, dass PS3 und GS wichtiger ist, als PS2 und Point Sprites X-D
Trotzdem nicht ganz fein, irgendwas ohne Quelle zu posten.
Zudem wer sagt, dass wir diese Benches als Implementierungen in Games sehen werden bzw. inwiefern hier noch der Treiber etwas richten kann, wenn eine populäre App es verwendet.


wo denn?
Natürlich nicht in der Öffentlichkeit/ vor den Kunden, man möchte ja die HD 2900XT noch verkaufen. ;)

LovesuckZ
2007-05-29, 22:45:44
http://www.ixbt.com/video3/images/r600/d3drm-gps-4.png
http://www.ixbt.com/video3/images/r600/d3drm-ps3.png

Verlinkst du Vertex-Shader-Vergleiche? :rolleyes:

/edit: So, da haben wir einen Vertex-Shader-Vergleich, der nur das bekannte darstellt und einen Pixelshadertest aus dem Rightmark3d. Zum zweiten könnte man nun tausende andere Beispiele anfügen, aber belassen wir es einfach dabei. Vorallen der zweite Test sagt überhaupt nichts aus.

Gast
2007-05-29, 22:52:25
Die haben sich von ATI schon länger getrennt. AFAIK seitdem ATi mit Crossfire aufgetaucht ist, wird eigentlich auf DH häufig über ATi abgelästert...

Genau dafür hat man ja hier genug Karten verteilt um das Ding schmackhaft zu machen.....lächerlich!
das Ding ist schrott und basta und fertig aus!

UND HIER GEHT ES UM EINEN R650!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

HOT
2007-05-29, 23:05:40
Ist es nicht. Es liegt sogar im Preis/Leistungsrahmen, also laber net so einen Unsinn.

AnarchX
2007-05-29, 23:09:52
UND HIER GEHT ES UM EINEN R650!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Eigentlich nicht, sondern um die Gründe warum der R600 so schnell ersetzt werden soll und wiefern ein Kauf dessen momenant empfehlenswert ist(siehe #1).

R650 wird, da es sich um ein spekulatives Thema handelt, hier hauptsächlich diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362538

HOT
2007-05-29, 23:16:52
Das ist ja alles ganz toll nur ist der R600 heute schon performance technisch nicht der Bringer mit AA und AF gegenüber dem G80. Da kann die Rechenleistung besser sein wie sie will. Die zukünftigen Spiele in 2 Jahren mögen mehr Rechenleistung benötigen als heute aber sie benötigen mit Sicherheit nicht weniger Texturleistung als heute sondern eben auch mehr wenn auch prozentual vielleicht nicht so viel mehr. Da die Ausgangsbasis des R600 aber schon bescheiden ist, macht es das Produkt nicht mehr großartig besser. Da ist einfach nicht mehr genug zu reissen.
Und bis es soweit ist, will kein Schwein den R600 haben. Da sind wir schon bei der nächsten Generation angelangt.

Warum der Chip bei AA versagt, ist immernoch Spekulation und noch nicht weiter geklärt. Das ändert auch nichts daran, dass das Design nicht zukunftsfähig wäre, es geht mir nur sekundär um den tatsächlichen Stand sondern eher was in Zukunft wahrscheinlich interessant ist. Dort gehören auch AA geglättete Shader hinein und hier könnte ATI gewaltige Vorteile haben - we will see. Zudem wird die Texelleistung nicht weniger, jedoch ist doch a.) sicherlich noch Optimierungsbedarf, b.) ist genug Texelleistung für normale Texturen da und c.) ist der R600 nahezu genausogut wie der G80 bei FP Texturen. Ein weiteres Indiz, dass der Chip auf zukünftige Games designt ist.

G80 Käufer hatten bis dahin maximalen Spass. R600 Wartende haben Zeit liegen gelassen und R600 Käufer erfreuen sich derzeit an Bugs, Ungereimtheiten, unausgeglichenem Produkt und weniger Spielfreude momentan als G80 Käufer.

Es gibt keinen Grund sich einen R600 zuzulegen, sofern man nicht unbedingt bei der IHV Marke festgelegt ist, was sich im Promillebereich nur so verhalten dürfte.
Da ist man mit G80 auf der sicheren Seite und es lohnt sich eigentlich auch nicht weiter darüber zu diskutieren. Das ist müßig. DIe Reviewer haben in der überwiegenden Mehrheit genau das festgehalten und die Quartalszahlen bei AMD's Grafikabteilung vs Nvidia werden genau das wiederspiegeln.

Was soll der Blödsinn? Das ist doch völlig egal. Es ging mir lediglich darum, dass der R600 nicht so schlecht ist wie er gemacht wird und sehr wahrscheinlich noch gutes Potenzial für die Zukunft bietet. Welche Grafikkarte kauft jemand kauft ist jedem selber überlassen. Wenn du einen G80 vorziehst, ist das deine Sache aber bitte lass den Käufer seine eigene Entscheidung treffen.

Wenn die ATI Fanboyseite Nr1. "Driverheaven" sich dazu genötigt sieht der HD2900XT keine Kaufempfehlung auszusprechen und lieber die GTS640 MB zu empfehlen ist eigentlich schon alles gesagt.

Da können wir den Thread hier noch 2000 Seiten lang machen.
Es wird nix nützen. Die Runde ist für AMD/ATI verloren und die versuchen nur noch Schadensbegrenzung. Das kann aber nicht das Problem des Kunden sein und ich finde es eine Sauerei wenn hier noch Leute so dreist sind und die problembehaftete 2900XT Lesern im Forum zu empfehlen.
Es das sind sowieso immer die gleichen.
Ihr könnt euch einfach mal damit abfinden, dass AMD/ATI dieses mal einfach kurz und bündig daneben gelegen haben. Punkt!
Das scheint dich ja regelrecht zu freuen ;). Nein, hier empfielt niemand irgendwas vorzuziehen. Wenn du das hier reininterprätierst, kann ich dir da auch nicht helfen..... Und Punkt! gibt es bei der Beurteilung einer Chiparchitektur nicht, vor allem dann nicht, wenn spekulative Elemente enthalten sind. Zudem weiss ich nicht, was am R600 so unglaublich problembehaftet sein soll...

HOT
2007-05-29, 23:25:28
Eigentlich nicht, sondern um die Gründe warum der R600 so schnell ersetzt werden soll und wiefern ein Kauf dessen momenant empfehlenswert ist(siehe #1).

R650 wird, da es sich um ein spekulatives Thema handelt, hier hauptsächlich diskutiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362538

Na ja, wenn der Chip zu spät ist, muss der Nachfolger sich nicht zwangsläufig auch verspäten, deshalb ist dieser Thread im Prinzip blödsinn. Natürlich ist es nicht unbedingt sinnvoll einen R600 zu kaufen, wenn der (verbesserte) R650 vor der Tür steht und es gute Alternativen wie den G80 gibt. Wenn jemand dennoch an die Zukunftstauglichkeit des R600 glaubt und den Preis ok findet, kann er ja dennoch zuschlagen - wie gesagt, das ist jedem selbst überlassen. Der R520 war damals auch keine Leuchte ggü. der Geforce7, hat sich aber im Nachhinein auch bezahlt gemacht. Von daher kann man nie so genau irgendwelche Kaufempfehlungen ausspechen...

Coda
2007-05-30, 00:59:20
Wieso hat der G80 deiner Meinung nach mehr Rechenleistung? Wie viel Rechenleistung die Chips haben, lässt sich angeben – der R600 hat mehr.
Theoretische Zahlen sind irrelevant. Solltest du eigentlich wissen.

deekey777
2007-05-30, 01:22:56
Theoretische Zahlen sind irrelevant. Solltest du eigentlich wissen.
Da kann man sich betrefflich streiten, ob die theoretische Rechenleistung des R600 auch ins Praktische umgesetzt wird oder. Ich kenne persönlich kein Spiel, womit man eine eindeutige Aussage treffen kann.

StefanV
2007-05-30, 05:57:35
Theoretische Zahlen kann man immer in die Tonne kloppen, da man sie in der Praxis eigentlich nie wirklich erreichen kann, aufgrund anderer Limitierungen (Code, TMUs, Speicherbandbreite)...

Alles was zählt ist die Effizienz.

Gast
2007-05-30, 08:29:16
Theoretische Zahlen sind irrelevant. Solltest du eigentlich wissen.

Das gilt aber dann für beide Chips gleichermaßen, und damit wissen wir im grunde gar nichts.