PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 5] - Übersicht in #1!


Seiten : 1 2 3 [4]

Odal
2008-06-10, 12:31:59
Nein, ich meine, dass sich eine MADD-MUL Architektur (a) wesentlich besser auslasten lässt, als einen reine MADD Architektur (b).

Best case Betrachtung, Code hat sehr viele MULs:

a) MADD Einheit ist zu etwa 0% blockiert
b) MADD Einheit ist zu etwa 100% blockiert

Mann kann nicht einfach sagen von MADD auf MADD-MUL sind nur 50% mehr Flops.


Code: ADD-MUL oder MADD-MUL

Architektur a) 1 Takt
Architektur b) 2 Takte

Da haben wir schon eine Verdoppelung der Rechenleistung.

rechenleistung ist für spiele nicht alles...das zeigt ja das ein G92 über den GPU takt besser skaliert als über den Shadertakt

und wie ich das so bisher mitbekommen habe ist mul relativ unwichtig und madd deutlich gefragter

bei CUDA applikationen mag das anders sein aber das erwähnte ich ja schon

Anarchy-HWLUXX
2008-06-10, 12:49:04
http://www.xtremesystems.org/forums/showpost.php?p=3049772&postcount=1773

Mal sehn ob diese Results mehr sind als ein paar blanke Zahlen ohne echtheitsbeweis ...

Gast
2008-06-10, 12:49:24
G92 über den GPU takt besser skaliert als über den Shadertakt
richtig und zwar so gut das überhaupt kein Bandbreitenprob mehr besteht (9800).

Godmode
2008-06-10, 12:52:12
Wenn man das glaubt was Ail sagt, dass bei GT200 Theorie und Praxis viel näher zusammen liegen, als bei allem anderen was bisher da war, könnte man ja zu folgendem Schluss kommen:

Die theoretischen Daten der G80 Ultra können in der Praxis nur zu etwa 60 % auf die Straße gebracht werden. Wenn wir bei GT200 jetzt 90 % schaffen, haben wir eine Steigerung von ...

Pixel Fillrate:
G80U * 60 %: 8.800 MPix/s
GT200 * 90 %: 17.337 M/Pix/s
Faktor 1.9

Texel Fillrate:
G80U Texel Fillrate * 60 %: 23.500 MTex/s
GT200 Texel Fillrate * 90 %: 43.344 M/Tex/s
Faktor 1.8

Flops:
G80U * 60 %: 348 GFlops
GT200 * 90 %: 839 GFlops
Faktor 2.4

Bandwidth:
G80U * 60 %: 61.8 GB/s
GT200 * 90 %: 127.8 GB/s
Faktor 2

Ich weiß jetzt nicht ob das viel zu optimistisch ist, da ich keine Ahnung habe wie gut zb ein G80U die theoretische Performance auf die Straße bringt, aber nur so könnte man IMO eine Verdoppelung zur G80U erreichen.

robbitop@work
2008-06-10, 12:53:30
Meinst du das Checklist-Feature dynamic branching, was zu Lebzeiten beider Chips nie eine Rolle spielte?!
Insgesamt steigerten beide Chips die Leistung enorm in realen Anwendungen und von nichts anderem reden wir hier.
Nein ich meine die Vermehrung der Einheiten. R520 hatte 16x Vec4 ALUs und R580 hatte 48x. G70 hatte 48x MAD ALUs und NV40 16x. Normiert auf gleiche Pipelineanzahl also eine Verdopplung der MADs. Faktisch jedoch nicht.
Der Punkt ist, dass deine Behauptung so nicht stimmte. Bei einer Skalierung von Ausführungseinheiten geht Effizienz verloren, sofern nicht an Kontroll-logik investiert wird. IdR macht man das aus Kosten/Nutzenverhältnis aber nicht.

Der Gesamtkontext lässt keinen anderen Schluss zu, dass GT200 die Leistung nicht nur um popelige 1.6x steigern wird.
Na dann rechne mal vor. Hast du btw eine Karte, dass du das einschätzen kannst? ;)

robbitop@work
2008-06-10, 12:55:12
Wenn man das glaubt was Ail sagt, dass bei GT200 Theorie und Praxis viel näher zusammen liegen, als bei allem anderen was bisher da war, könnte man ja zu folgendem Schluss kommen:

Die theoretischen Daten der G80 Ultra können in der Praxis nur zu etwa 60 % auf die Straße gebracht werden. Wenn wir bei GT200 jetzt 90 % schaffen, haben wir eine Steigerung von ...

Pixel Fillrate:
G80U * 60 %: 8.800 MPix/s
GT200 * 90 %: 17.337 M/Pix/s
Faktor 1.9

Texel Fillrate:
G80U Texel Fillrate * 60 %: 23.500 MTex/s
GT200 Texel Fillrate * 90 %: 43.344 M/Tex/s
Faktor 1.8

Flops:
G80U * 60 %: 348 GFlops
GT200 * 90 %: 839 GFlops
Faktor 2.4

Bandwidth:
G80U * 60 %: 61.8 GB/s
GT200 * 90 %: 127.8 GB/s
Faktor 2

Ich weiß jetzt nicht ob das viel zu optimistisch ist, da ich keine Ahnung habe wie gut zb ein G80U die theoretische Performance auf die Straße bringt, aber nur so könnte man IMO eine Verdoppelung zur G80U erreichen.

Wo nimmst du denn diese 60% und 90% her? Zahlen, die aus der Luft gegriffen sind, helfen keinem. Kannst du diese faktisch begründen?

AnarchX
2008-06-10, 12:56:37
Nein ich meine die Vermehrung der Einheiten. R520 hatte 16x Vec4 ALUs und R580 hatte 48x. G70 hatte 48x MAD ALUs und NV40 16x. Normiert auf gleiche Pipelineanzahl also eine Verdopplung der MADs. Faktisch jedoch nicht.
Der Punkt ist, dass deine Behauptung so nicht stimmte. Bei einer Skalierung von Ausführungseinheiten geht Effizienz verloren, sofern nicht an Kontroll-logik investiert wird. IdR macht man das aus Kosten/Nutzenverhältnis aber nicht.

Nur ist bei G70 und R580 der Transitorcount nicht großartig gestiegen, während wir bei G200 den doppelten Transistorcount haben, bei nichtmal verdoppelter Einheitenzahl, bei TMUs und ROPs gar unter 50%.

Wo sollen da Transistoren anstatt in die Effizienz hingewandert sein?:|

robbitop@work
2008-06-10, 12:56:53
Raff hat aber nicht die Auslastung der Einheiten berücksichtigt, ein ganz grosser Fehler!
Raff hat AFAIK gar nichts gerechnet. Muss er bei der PCGH zu diesem Zeitpunkt vermutlich auch nicht. ;)

Die Auslastung zu pauschal zu quantifizieren dürfte sowieso recht schwierig werden.

Godmode
2008-06-10, 13:06:31
Wo nimmst du denn diese 60% und 90% her? Zahlen, die aus der Luft gegriffen sind, helfen keinem. Kannst du diese faktisch begründen?

Ich habe ja geschrieben dass dies nur eine Schätzung ist, da ich sonst nicht auf eine Verdoppelung zu G80U komme. Beim besten Willen kann ich mir nicht vorstellen, dass man einen doppelt so große GPU baut, die dann nur 50 % schneller ist, als eine die schon 2 Jahre auf dem Buckel hat.

Wenn die zusätzlichen Transistoren nicht in zusätzliche Einheiten geflossen sind, dann müssen sie die bestehen Einheiten ordentlich verbessert haben. Ich habe auch keine Ahnung wie viel fürs Routing bzw. als Masse Transistoren draufgehen.

IMHO müssen wir Faktor 2 zu G80U sehen (natürlich mit den richtigen Settings, in 12*10 wird die Karte nicht viel bringen, außer natürlich man verwendet SSAA) sonst wird die Karte ein Flop.

robbitop@work
2008-06-10, 13:06:52
Nur ist bei G70 und R580 der Transitorcount nicht großartig gestiegen, während wir bei G200 den doppelten Transistorcount haben, bei nichtmal verdoppelter Einheitenzahl, bei TMUs und ROPs gar unter 50%.

Wo sollen da Transistoren anstatt in die Effizienz hingewandert sein?:|
Völlig richtig. Aber wie du siehst, sind die SPs in den Clustern erhöht worden. Also größere Threadgröße.
Wo genau jetzt welche Transistoren verbraten werden, weiß ich nicht (bzw nur begrenzt).

robbitop@work
2008-06-10, 13:08:04
G92 über den GPU takt besser skaliert als über den Shadertakt
richtig und zwar so gut das überhaupt kein Bandbreitenprob mehr besteht (9800).
Das kann beim G92 auch an banalen Dingen, wie dem sehr engen Trisetup liegen.

Gast
2008-06-10, 13:18:15
Raff hat AFAIK gar nichts gerechnet. Muss er bei der PCGH zu diesem Zeitpunkt vermutlich auch nicht. ;)

Die Auslastung zu pauschal zu quantifizieren dürfte sowieso recht schwierig werden.


OK, Irrtum von mir, die Rechnung kam von dir. (Aber in dem Thread hier den Durchblick zu behalten ist auch nicht ganz einfach )

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6569085&postcount=560

Schlammsau
2008-06-10, 13:24:53
IMHO müssen wir Faktor 2 zu G80U sehen (natürlich mit den richtigen Settings, in 12*10 wird die Karte nicht viel bringen, außer natürlich man verwendet SSAA) sonst wird die Karte ein Flop.
nur weil sie nicht dreimal so schnell zu sein scheint, wird die Karte ein Flop? Ist es ein ungeschriebenes Gesetz, dass eine Karte nur erfolgreich sein kann, wenn sie mindestens doppelt wenn nicht sogar dreimal so schnell ist? :|
Sie würde doch trotzdem für ein paar Monate die schnellste Karte am Markt sein! *Kopfschüttel*

Gast
2008-06-10, 13:27:31
Sie würde doch trotzdem für ein paar Monate die schnellste Karte am Markt sein! *Kopfschüttel*

Du meinst wohl ein paar Jahre, denn der Multi-GPU Schrott zählt nicht.

Raff
2008-06-10, 13:28:33
Hrhrhr, hier steppt ja der Bär.

Ich äußerte mich zu aktuellen Spielen. Da sollte doch klar sein, dass ALUs-Dampf nicht alles ist - auch beim oft genannten Crysis zählt noch viel mehr als das. Auf dem Papier glänzte schon so manche GPU. Der Vergleich R520 vs. R580 passt in meinen Augen ganz gut, wobei der GT200 etwas mehr ist als ALU-Tuning - aber nicht gleich um Faktor 3, das sollte man beachten!

MfG,
Raff

Adam D.
2008-06-10, 13:28:55
nur weil sie nicht dreimal so schnell zu sein scheint, wird die Karte ein Flop? Ist es ein ungeschriebenes Gesetz, dass eine Karte nur erfolgreich sein kann, wenn sie mindestens doppelt wenn nicht sogar dreimal so schnell ist? :|
Sie würde doch trotzdem für ein paar Monate die schnellste Karte am Markt sein! *Kopfschüttel*
Naja, man überlege, was so eine Karte wert wäre, wenn sie im Durschnitt nur etwa 60% schneller wäre.

Du meinst wohl ein paar Jahre, denn der Multi-GPU Schrott zählt nicht.
G200 --> G200b

robbitop@work
2008-06-10, 13:29:14
OK, Irrtum von mir, die Rechnung kam von dir. (Aber in dem Thread hier den Durchblick zu behalten ist auch nicht ganz einfach )

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6569085&postcount=560
Dennoch bin ich der Meinung, dass man keine statische Quantifizierung darüber abgeben kann.
Weiterhin müsste man vorher noch abklären, wie gut das MUL denn jetzt zur Verfügung steht. Laut NV steht es nun zur Verfügung, wird aber gewiss auch durch SFU blockiert. Im G80 konnte es immerhin zu rund 15% genutzt werden.

Godmode
2008-06-10, 13:39:49
nur weil sie nicht dreimal so schnell zu sein scheint, wird die Karte ein Flop? Ist es ein ungeschriebenes Gesetz, dass eine Karte nur erfolgreich sein kann, wenn sie mindestens doppelt wenn nicht sogar dreimal so schnell ist? :|
Sie würde doch trotzdem für ein paar Monate die schnellste Karte am Markt sein! *Kopfschüttel*

Ich sagte nirgends dass sie dreimal so schnell sein muss, aber die spekulierten 150 % im Vergleich zu G80U wären eine herbe Enttäuschung und würden den Transistorcount und die TDP nicht rechtfertigen.

Ich denke Ailurus sollte wieder mal was posten, weil wir hier irgendwie in einer Sackgasse stecken.

Schlammsau
2008-06-10, 13:47:46
Ich sagte nirgends dass sie dreimal so schnell sein muss, aber die spekulierten 150 % im Vergleich zu G80U wären eine herbe Enttäuschung und würden den Transistorcount und die TDP nicht rechtfertigen.

Ich denke Ailurus sollte wieder mal was posten, weil wir hier irgendwie in einer Sackgasse stecken.

1,5-2 fache Leistung, je nach Situation! Mehr gestehe ich der Karte nicht zu.
Das wäre eh eine beachtliche Leistung!

Adam D.
2008-06-10, 13:49:41
1,5-2 fache Leistung, je nach Situation! Mehr gestehe ich der Karte nicht zu.
Das wäre eh eine beachtliche Leistung!
Für 1,4 Milliarden Transistoren, den Die und die Zeit bzw. Entwicklungsaufwand wäre das nicht beachtlich, finde ich :|

mapel110
2008-06-10, 13:50:37
1,5-2 fache Leistung, je nach Situation! Mehr gestehe ich der Karte nicht zu.
Das wäre eh eine beachtliche Leistung!
Bei 8xAA wäre solch eine Steigerung für mich peinlich. Nichts anderes.
Dort hatte der G80/G92 seine größte Schwäche. Dort MUSS mehr rumkommen.

RoNsOn Xs
2008-06-10, 13:51:23
Hier gesteht keiner jmd anderen was zu. Es wird die aktuelle subjektive Stellung wegement verteidigt. Mal schauen was am Ende raus kommt und wer sich dann Entschuldigen wird (:rolleyes:) ;)

Grestorn
2008-06-10, 13:55:02
Steigerungen von 2x und mehr in der Praxis halte ich für nahezu ausgeschlossen. So gut skaliert die Leistung bei kaum einen Spiel.

Ich bin froh, wenn die Karte alleine mein 88GTX SLI-Gespann überholt und noch ein bisschen draufsetzt. Mehr erwarte ich persönlich nicht.

GeneralHanno
2008-06-10, 13:57:53
also ein GTX-SLI gespann sollte sie schon schlagen. alles andere wäre wohl enttäuschend ...

aber die vermutungen in richtung 2,5-3x ULTRA kann man wohl auch als illusorisch abhaken ;)

das ganze ist eben eher mit NV40->G70 zu vergleichen :D

Gast
2008-06-10, 13:58:31
Ich bin froh, wenn die Karte alleine mein 88GTX SLI-Gespann überholt und noch ein bisschen draufsetzt. Mehr erwarte ich persönlich nicht.
Dafür wird es reichen ;)

The_Invisible
2008-06-10, 13:58:35
gabs so ein gejammer auch von geforce3 ti500 auf geforce4?

heute ist es anscheinend wirklich ein muss das eine neue karte mind. doppelt so schnell sein soll. g80 war da eigentlich klar eine ausnahme.

mfg

robbitop@work
2008-06-10, 13:59:31
Bei 8xAA wäre solch eine Steigerung für mich peinlich. Nichts anderes.
Dort hatte der G80/G92 seine größte Schwäche. Dort MUSS mehr rumkommen.
Bei 8xMSAA könnte dann etwas mehr kommen, sofern man das Trisetup aufgebohrt hat.

Gast
2008-06-10, 13:59:54
Naja, vielleicht weist GT200 eher eine R520/580 Leistungscharakteristika auf. :uponder:

dann würde er auch ein ähnliches verhältnis an transistoren aufweisen.

Gast
2008-06-10, 14:01:02
g80 war da eigentlich klar eine ausnahme.

mfg

Auch das nicht, nur weil der G70/71 Schrott war ;)

AnarchX
2008-06-10, 14:01:44
heute ist es anscheinend wirklich ein muss das eine neue karte mind. doppelt so schnell sein soll. g80 war da eigentlich klar eine ausnahme.

Naja, wenn man es aus technischer Sicht sieht, das in G200 1.4Mrd. Transistoren und 2 Jahre RnD eingeflossen sind, dann sollte man schon gewisse Erwartungen haben.

Auch aus Kundensicht haben wir eine Karte, die $650 bzw. ~550€ kosten wird, von der man entsprechende Mehrleistung erwartet, vorallem wenn das Performancesegment momentan so hochkarätig besetzt ist.

robbitop@work
2008-06-10, 14:01:44
gabs so ein gejammer auch von geforce3 ti500 auf geforce4?

heute ist es anscheinend wirklich ein muss das eine neue karte mind. doppelt so schnell sein soll. g80 war da eigentlich klar eine ausnahme.

mfg
Die Enttäuschung ist schon gerechtfertigt. Doppelter Transistorcount, gleiches Featureset. Da sollte logischerweise schon Faktor 2 und mehr rumkommen.
Ich hab allerdings ein paar sehr ominöse Dinge zum Thema DP_ALUs beim GT200 gelesen. Ob das eine Komponente ist, weiß ich nicht. Vieleicht hat NVIDIA abseits des Spielebereichs noch DIE-Fläche investiert. Der GPGPU-Markt ist ja im Kommen.

Gast
2008-06-10, 14:04:05
Auch das nicht, nur weil der G70/71 Schrott war ;)

Dann is der 670er auch nicht sogut? da der 600er auch totaler schrott war/ist ;D Also das ist dann wohl doch zu einfach deine behaubtung.

Gast
2008-06-10, 14:06:12
Steigerungen von 2x und mehr in der Praxis halte ich für nahezu ausgeschlossen. So gut skaliert die Leistung bei kaum einen Spiel.

Ich bin froh, wenn die Karte alleine mein 88GTX SLI-Gespann überholt und noch ein bisschen draufsetzt. Mehr erwarte ich persönlich nicht.

Ich denke das ist auch eine angemessene Erwartung, die Karte sollte wenigstens ein 8800GTX SLI überholen.
Ich besitze selber ein 8800GTX SLI und irgendwie muss Nvidia auch dieser Klientel, einen Anreiz verschaffen auf eine GTX280 umzurüsten.

Zumal eine Single GPU dann doch erhebliche Vorteile gegenüber einem 8800GTX SLI besitzt, erst Recht wenn sie einen Idle Modus besitzt.
Aber die leistung sollte schon etwas über 8800GTX SLI Niveau liegen, das würde meine Erwartungen jedenfalls erfüllen.

Odal
2008-06-10, 14:13:16
Dann is der 670er auch nicht sogut? da der 600er auch totaler schrott war/ist ;D Also das ist dann wohl doch zu einfach deine behaubtung.

am highend segment bemessen ist der 670er auch nicht gut aber das ist durch grösse transistorcount und preis auch nicht sein territorium...

der G71 war "schrott" das ist nunmal so....denn er wilderte nicht nur im "performance preisbereich" sondern ganz oben...nur das die leistung, Bildqualität und Featureset nicht danach war und selbst ne 1950 pro (performance bereich) ihm in neueren sachen das wasser abgrub

Gast
2008-06-10, 14:15:58
der G71 war "schrott" das ist nunmal so....denn er wilderte nicht nur im "performance preisbereich" sondern ganz oben...nur das die leistung, Bildqualität und Featureset nicht danach war und selbst ne 1950 pro (performance bereich) ihm in neueren sachen das wasser abgrub


Was fehlt dir denn am G71 Featureset?

Gast
2008-06-10, 14:18:43
Nvidia sollte eins wissen: Es gibt derzeit nur 1 relevantes Spiel, das mit 1920x1200 in hohen Details mit AA Probleme macht: Crysis.

Und wenn sie das nicht deutlich besser knacken als eine RV770 XT, dann ist letztere die bessere Wahl:
- DX10.1
- Geringerer Verbrauch

Und das sage ich als Nvidia Fan.

Gast
2008-06-10, 14:20:05
am highend segment bemessen ist der 670er auch nicht gut aber das ist durch grösse transistorcount und preis auch nicht sein territorium...


Jep, für 192mm² ist der i.o.

Gast
2008-06-10, 14:22:30
Nvidia sollte eins wissen: Es gibt derzeit nur 1 relevantes Spiel, das mit 1920x1200 in hohen Details mit AA Probleme macht: Crysis.



Bei 1920 VH ohne AA,AF @34Fps reicht der GTX280 nicht aus um Crysis zu stemmen...

Moralelastix
2008-06-10, 14:24:08
Jap, vielleicht kommt ja mit dem Crysis Add-on auch DX10.1?

Wo is Ail hat den das Erdbeben getroffen?

Gast
2008-06-10, 14:25:18
Bei 1920 VH ohne AA,AF @34Fps reicht der GTX280 nicht aus um Crysis zu stemmen...

Doch wird er paken, hab in dieser Einstellung mit zwei 9600GT SLI ja schon 23FPS...

Gast
2008-06-10, 14:27:52
Jap, vielleicht kommt ja mit dem Crysis Add-on auch DX10.1?
Da würd ich nichtmal dran denken :(

Gast
2008-06-10, 14:29:22
Jap, vielleicht kommt ja mit dem Crysis Add-on auch DX10.1?

Wo is Ail hat den das Erdbeben getroffen?

Solange Crytek auf der Bezugsliste von Nvidia steht, sicher nicht.
DX10.1 ist nicht zuletzt durch Nvidias Verzicht, zur Bedeutunglosigkeit degradiert.

reunion@work
2008-06-10, 14:29:46
Die Enttäuschung ist schon gerechtfertigt. Doppelter Transistorcount, gleiches Featureset. Da sollte logischerweise schon Faktor 2 und mehr rumkommen.
Ich hab allerdings ein paar sehr ominöse Dinge zum Thema DP_ALUs beim GT200 gelesen. Ob das eine Komponente ist, weiß ich nicht. Vieleicht hat NVIDIA abseits des Spielebereichs noch DIE-Fläche investiert. Der GPGPU-Markt ist ja im Kommen.

Ich bin mittlerweile auch davon überzeugt das dorthin eine nicht ganz unerheblich Anzahl an Transistoren geflossen ist. Man darf nicht vergessen das die G8x-Architektur stark auf aktuelle Spiele optimiert wurde und wirklich nur bei Spielen überlegen war. Die VS/GS-Leistung war bei R6xx deutlich höher. Das Tri-Setup war bei R6xx deutlich mächtiger. Die 8xMSAA-Leistung, fehlende Features, vielleicht die Möglichkeit FP16-Texturen in einem Takt zu filtern, größere Caches, und sonstige GPCPU-Optimierungen. All das dürfte nicht ganz billig sein.

Gast
2008-06-10, 14:32:55
Mal ganz unabhängig vom Sinn und Nutzen von DX10.1, hätte nur Nvidia der Sache zum Erfolg verhelfen können.
Ati wird kaum in der Lage sein, DX10.1 als wesentlichen Faktor in neueren Spielen durchzusetzen.

crux2005
2008-06-10, 14:36:25
Allein durch den doppelten Registerspace kann man doppelt so viele Threads laufen lassen wie auf G8x und dadurch weitaus mehr Latenzen verstecken dazu kommen effizientere ALUs usw. Das wird ganz sicher weit mehr als 50%. Darüber noch zu diskutieren ist nun wirklich lächerlich.

es sind sogar 2.5x G80 threads ;)

Das ist bestimmt kein Märchen. Kein aktuelles Spiel ist so shaderlastig, dass Faktor 2+ im Vergleich zur 8800 Ultra herauskommen kann.

MfG,
Raff

yup, glaube ich auch immer mehr - die games von Heute brauchen nicht so viel shaderleistung ... tja

mapel110
2008-06-10, 14:40:03
nvidia wäre schön blöd, in diesen GPGPU-Bereich zu viele Transistoren zu stecken. Das ist nur Beiwerk wie Videobeschleunigung.

Moralelastix
2008-06-10, 14:41:43
Wie viele Futzis gibts da draußen die z.B. Videos schneller encoden wollen?

Mehr als PC-Spieler?

reunion@work
2008-06-10, 14:46:02
nvidia wäre schön blöd, in diesen GPGPU-Bereich zu viele Transistoren zu stecken. Das ist nur Beiwerk wie Videobeschleunigung.

Es ist momentan nur Beiwerk. Wenn man die GPUs allerdings vermehrt auch im professionellen Serversegment einsetzen kann könnte es erheblich an Bedeutung gewinnen. Die Folding@home-Demos von nV kamen nicht von ungefähr. Leider zeigte man aus gutem Grund keinen G92 zum Vergleich, aber ich wette GT200 hat hier erhebliche Verbesserungen erfahren.

Gast
2008-06-10, 14:52:36
Bei einer Skalierung von Ausführungseinheiten geht Effizienz verloren, sofern nicht an Kontroll-logik investiert wird.

richtig, da der G200 allerdings trotz der hohen transistorzahl die ausführungseinheiten nur recht gemächlich skaliert lässt es nur den umgekehrten schluss zu, dass viel in kontrolllogik investiert wurde um die effizienz zu steigern.

deekey777
2008-06-10, 14:53:02
nvidia wäre schön blöd, in diesen GPGPU-Bereich zu viele Transistoren zu stecken. Das ist nur Beiwerk wie Videobeschleunigung.
Stell dir ein Rechenzentrum mit Hunderten oder Tausenden G200-Teslas vor. Was ich mir noch vorstellen kann, ist, dass DP auf Tesla (und vielleicht Quadro) beschränkt bleibt.

Moralelastix
2008-06-10, 14:56:39
Für was brauch man dieses DP?

tombman
2008-06-10, 14:57:18
Nochmal: Das ist für dich absolut irrelevant. Auch abseits von Gaming.

Wenns um den WERT der Karte geht ist es für JEDEN Käufer relevant, egal ob er damit was anfangen kann oder nicht.

Ein Veyron verliert ja auch nicht an Wert, nur weil man selbst die 400km/h NIE sehen wird :)

AnarchX
2008-06-10, 14:59:01
Was ich mir noch vorstellen kann, ist, dass DP auf Tesla (und vielleicht Quadro) beschränkt bleibt.
Sieht momentan nicht danach aus, man würde ja auch so unnötige die DP-CUDA-Plattform verkleinern.

Aber DP auf G200 ist ein Kapitel für sich, was noch Klärung bedarf: siehe Jaweds Ausführung im B3D.

GeneralHanno
2008-06-10, 15:00:34
aber DP (FP-64) wird der G200 doch auf jeden fall unterstützen?
die frage ist eben nur wie (stark) ;)

AnarchX
2008-06-10, 15:02:44
aber DP (FP-64) wird der G200 doch auf jeden fall unterstützen?
die frage ist eben nur wie (stark) ;)
http://forum.beyond3d.com/showpost.php?p=1173215&postcount=2294
... da hat Jawed die richtigen Zahlen erfahren.

Hört sich etwas lächerlich an, vorallem wenn man die DP-Leistung von RV670 dagegen setzt.

tombman
2008-06-10, 15:03:15
Übrigens war der Kommentar anders gemeint. ;)
Ja, weiß ich, aber wahrscheinlich haben die einfach die üblichen benchmarks auf nicht allzuhoher Auflösung gefahren.
Wenn das Teil in VANTAGE und Crysis @ 1920x1200 VH nicht schneller als die GX2 ist, DANN glaub ich es erst ;)
Daß man bei heutigen games mit ner 3Ghz cpu zu 90% in ein cpu Limit hineinrennen wird, glaube ich sofort.
Vorallem bei Konsolenports.
Aber ich fahre ja mit 4GHz- und habe vor das baby mit fetten DX10 Titeln zu quälen ;)

Was ist denn daran jetzt so ungewöhnlich? Als die G8800GTX erschien wollten manche Händler sogar 699€ obwohl die UVP bei 599$ lag. Ich meine sogar, du hättest die 699€ bezahlt. ;)
Das Problematische daran ist, daß der Dollarkurs nicht so ist wie vor 2 Jahren.

Normalerweise stellen die Händler die Preise immer so ein, daß dem Kunden nix anderes übrigbleibt als die Anzocke mitzugehen. Diesmal funkt das aber nicht, weil der Dollarkurs so arg am Boden ist, daß selbst die 20% Steuer + Transport noch DEUTLICH günstiger kommen als hier zu kaufen.
Dh, auch mit dem "Faulheitsfaktor" ist es immer noch attraktiver aus USA zu importieren.
Mit Kreditkarte und guten Englischkenntnissen ist das ja kein Problem ;)

Gast
2008-06-10, 15:06:17
Was mir zu denken gibt: Wenn eine 4850 X2 schneller als eine GTX 280 ist, und CF (wie immer) nicht 100 % skaliert, dann:
- Ist der GTX 280 langsam
- Oder die RV770 ziemlich gut

The_Invisible
2008-06-10, 15:06:22
Es ist momentan nur Beiwerk. Wenn man die GPUs allerdings vermehrt auch im professionellen Serversegment einsetzen kann könnte es erheblich an Bedeutung gewinnen. Die Folding@home-Demos von nV kamen nicht von ungefähr. Leider zeigte man aus gutem Grund keinen G92 zum Vergleich, aber ich wette GT200 hat hier erhebliche Verbesserungen erfahren.

dafür haben sie ja die quadro serie, sollen sie uns (spielern) mit dem krams verschonen.

mfg

Gast
2008-06-10, 15:07:26
... habe vor das baby mit fetten DX10 Titeln zu quälen ;)
Die wären Tombam? Für Crysis mit AA+AF reichts kaum^^

deekey777
2008-06-10, 15:08:17
Sieht momentan nicht danach aus, man würde ja auch so unnötige die DP-CUDA-Plattform verkleinern.

Aber DP auf G200 ist ein Kapitel für sich, was noch Klärung bedarf: siehe Jaweds Ausführung im B3D.

Da gibt es diese Aussage:
http://www.beyond3d.com/content/articles/77/3
As we look to G92, which has been stated to be close to 1 TFlop for single precision processing as well as being capable of double precision processing, we can say that double precision on G92 will be limited to the Tesla line. While this will surely disappoint some, the need for double precision processing on a consumer GPU is questionable at best, and NVIDIA sees this as an excellent way to differentiate the two product lines.

Ok, man kann davon ausgehen, dass diese Aussage nicht richtig war. Oder aber dass sie sich nicht auf den G92, sondern wirklich auf den G200 bezieht.

Andererseits beherrscht selbst eine "Pimmel-HD3650" DP, und das wäre für NV schon ein Grund, auch die Desktop-Versionen mit DP-Fähigkeit auszustatten (selbst wenn's keiner braucht).

crux2005
2008-06-10, 15:09:26
Wie viele Futzis gibts da draußen die z.B. Videos schneller encoden wollen?

Mehr als PC-Spieler?

kp, aber:

...

also nimmt nV GPGPU ziemlich ernst

Godmode
2008-06-10, 15:14:25
Die Enttäuschung ist schon gerechtfertigt. Doppelter Transistorcount, gleiches Featureset. Da sollte logischerweise schon Faktor 2 und mehr rumkommen.
Ich hab allerdings ein paar sehr ominöse Dinge zum Thema DP_ALUs beim GT200 gelesen. Ob das eine Komponente ist, weiß ich nicht. Vieleicht hat NVIDIA abseits des Spielebereichs noch DIE-Fläche investiert. Der GPGPU-Markt ist ja im Kommen.

Das hört sich jetzt so an wie damals, als der Inq gemeint hat es wird eigene Pipelines für DX9 und eigene für DX10 geben.;D

Wenn das Design Einheiten enthält die nur für eine Sache verwendbar sind (Spiele oder GPGPU), dann ist da was schief gegangen und das Design ist Müll.

Vielleicht könnte ja Ailurus nochmal was GT200 sagen!

reunion@work
2008-06-10, 15:14:58
http://forum.beyond3d.com/showpost.php?p=1173215&postcount=2294
... da hat Jawed die richtigen Zahlen erfahren.

Hört sich etwas lächerlich an, vorallem wenn man die DP-Leistung von RV670 dagegen setzt.

Extra DP-Einheiten? Können die Einheiten nicht loopen? Da muss ja wirklich einiges in die Hosen gegangen sein. Vorallem sind die 78GFLOPs lächerlich wenig.

tombman
2008-06-10, 15:16:54
Also wenn der Transistorcount echt in GPGPU geflossen ist, dann können sie die Karte behalten. Hoffentlich hat Nvidia nicht vergessen, wer ihre Stammkäufer sind.

Den number-crushing Krieg mit Intel finanziere ICH ihnen sicher NICHT ;)

Das Teil muß in GAMES schnell sein, ansonsten heißt's: HD4870 X2 @ CF ;D

reunion@work
2008-06-10, 15:18:55
dafür haben sie ja die quadro serie, sollen sie uns (spielern) mit dem krams verschonen.

mfg

Du kannst kaum erwarten das dafür ein extra Chip entwickelt wird.

tombman
2008-06-10, 15:19:48
Du kannst kaum erwarten das dafür ein extra Chip entwickelt wird.
Aber gamer zahlen sicher nicht die R&D, damit die Tessla Jungs ihre Freude haben ;)

Gast
2008-06-10, 15:22:33
ab warten!

Moralelastix
2008-06-10, 15:24:56
Auweia, hoffentlich geht das GPGPU Dinges nicht nach Hinten los!:|

tombman
2008-06-10, 15:25:02
ALso wenn die GTX280 die GX2 nicht schlägt, hatte
Jen-Hsun Huang wohl zuviel Reisschnaps gesoffen ;D

Ich kann mir das nur sehr schwer vorstellen. Man verdeutliche sich mal die ganzen Reviews auf den TOP Seiten im Netz (THG, Anandtech) wie die GX2 die GTX280 im Durchschnitt schlägt! :eek:
Da HAGELTS doch schlechte reviews, denn mehr als "Fps = Gott" kennen die meisten doch gar ned!

Und GX2s gibts um 370€ lagernd...

crux2005
2008-06-10, 15:25:34
Extra DP-Einheiten? Können die Einheiten nicht loopen? Da muss ja wirklich einiges in die Hosen gegangen sein. Vorallem sind die 78GFLOPs lächerlich wenig.

wieso spricht nV in der Folie von 1 TFLOPs/s ?
wenn es mit 240 SPs "nur" 933 GFLOPs/s sind ...

und ja, extra DP units ;)

http://img76.imageshack.us/img76/4415/20080609460144c21daa7d0dj7.jpg

was sind diese "IU" units ? ;)

Anarchy-HWLUXX
2008-06-10, 15:26:16
Noch eine woche hin und keine Benches raus denen ich vertrauen würd .... ARGH :|

Odal
2008-06-10, 15:26:20
Was fehlt dir denn am G71 Featureset?

AA+HDRR, einigermaßen winkelunabhängiges AF

nvidia wäre schön blöd, in diesen GPGPU-Bereich zu viele Transistoren zu stecken. Das ist nur Beiwerk wie Videobeschleunigung.

sehe ich anders dann hätte man argumente gegen das hier

http://www.expreview.com/img/news/2008/06/10/Snap2_1.jpg
http://www.expreview.com/img/news/2008/06/10/Snap4_1.jpg

und könnte anfangen so allmählich intel den wind aus den segeln zu nehmen

tombman
2008-06-10, 15:29:48
AA+HDRR, einigermaßen winkelunabhängiges AF



sehe ich anders dann hätte man argumente gegen das hier

http://www.expreview.com/img/news/2008/06/10/Snap2_1.jpg
http://www.expreview.com/img/news/2008/06/10/Snap4_1.jpg

und könnte anfangen so allmählich intel den wind aus den segeln zu nehmen
Auf dem Rücken der Enthusiasten? Not gonna happen ;)

p.s: mein Gott, was sind wir NERDIG. Die Prolls fiebern beim Fußball Euro 2008 mit, und wir fiebern bei den Grafikkarten mit -> ;D
Unsere Euro 2008 heißt: R700 vs G200 ;D;D

Odal
2008-06-10, 15:32:47
Auf dem Rücken der Enthusiasten? Not gonna happen ;)

meinst du nvidia schert sich nen dreck um so ein paar hanseln?

die wollen bei den lowend komplettsystemen kasse machen...und was kommt da besser wenn man verkaufen kann das sie 50€ graka die dinge die die meisten leute mit ihrem pc anstellen 10 mal schneller kann wie der schnellste quadcore?
die machen nicht umsonst so ein Trara um CUDA seit monaten...die haben eben keine CPU sparte und mit grafikkarten lässt sich im fertigpc segment nicht mehr soviel abräumen seit IGPs eigentlich alles können und es ziemlich wurscht is was für ne Grafikkarte man reinklatscht...

da muss man argumente bringen wieso da mehr investiert werden soll....

was meinst du wohl warum in den ganzen aldi und mediamarkt pcs nur lowend grakas drinstecken und nen fetter quadcore? weil es nicht spieleleistung ist was der normalo braucht/kauft

crux2005
2008-06-10, 15:33:48
und wieso spricht nV erst von einer:

http://img89.imageshack.us/img89/944/gtx200seriesintroducingsx6.jpg

Parallel Computing Architecture ?

tombman
2008-06-10, 15:36:45
meinst du nvidia schert sich nen dreck um so ein paar hanseln?
Eigentlich JA, wurde glaube ich auch schon von Nvidia selbst gesagt, daß ihr "Herz" eher im HighEnd Bereich schlägt...

die wollen bei den lowend komplettsystemen kasse machen...und was kommt da besser wenn man verkaufen kann das sie 50€ graka die dinge die die meisten leute mit ihrem pc anstellen 10 mal schneller kann wie der schnellste quadcore?
Das eine muß das andere ja nicht ausschließen.

Odal
2008-06-10, 15:39:45
Eigentlich JA, wurde glaube ich auch schon von Nvidia selbst gesagt, daß ihr "Herz" eher im HighEnd Bereich schlägt...


ihr herz schlägt da wo die kasse klingelt
und das ist da wo für wenig einsatz möglichst viel rausgeholt werden kann...da wo man massen verkauft..highend ist nur zugpferd...
und jetzt zählt nicht mehr nur "uuhhh wir haben das schnellste highend da muss auch das lowend toll sein" jetzt zählt auch "hier steckt in eure fertig pcs unser lowend da könnt ihr sogar nen sau teuren quadcore um längen ausboten"

nvidia ist auch nur ein gewinn orientiertes unternehmen und kein samariter verein

frix
2008-06-10, 15:40:02
Auf dem Rücken der Enthusiasten? Not gonna happen ;)

p.s: mein Gott, was sind wir NERDIG. Die Prolls fiebern beim Fußball Euro 2008 mit, und wir fiebern bei den Grafikkarten mit -> ;D
Unsere Euro 2008 heißt: R700 vs G200 ;D;D

Ich mach mir heut aben n bier auf, wenn denn die ersten ati benches kommen :D

tombman
2008-06-10, 15:40:32
was meinst du wohl warum in den ganzen aldi und mediamarkt pcs nur lowend grakas drinstecken und nen fetter quadcore? weil es nicht spieleleistung ist was der normalo braucht/kauft
Ne, weil der Normalo von Grakas am WENIGSTEN Ahnung hat. Mit Mhz kann ich noch halbwegs was anfangen und mit VIEL Speicher auch.
Und genau das bekommt er dann auch: VIEL Mhz, VIEL HDD Gb, VIEL Graka RAM ;)
Ich wette, die hatten bei Umstellung von P4 auf Core2 schon arge Probleme den Leuten zu erklären warum weniger Mhz jetzt besser sein soll ;)

Frei nach de funès: je mehr, je vieler ;)

Nachdem Mhz ja jetzt praktisch "tot" ist, geht man eben über die Kerne: 4 Kerne !!!!111 -> OMG!!!
Also gibts jetzt eben bei Aldi und co, QUADCORE + viel Graka-Ram+ viel HDD-GB ;)

tombman
2008-06-10, 15:45:10
..highend ist nur zugpferd...
Bei denen aber mehr als anderswo...
Man muß auch die Willen und den SPASS, ja genau, den SPASS haben um HighEnd zu entwickeln. Es gibt ein Sprichwort: "Man kann den Jäger nicht zum Jagen schicken"-> weil er dann versagen wird.
Wenn es bei Nvidia nicht einen gewissen ENTHUSIASMUS bzgl HighEnd geben würde, dann würden sie sowas wie den G80 nie zustandebringen können.
Geld allein ist eine SCHLECHTE Triebfeder, und zwar in allen Gebieten.

PHuV
2008-06-10, 16:28:39
p.s: mein Gott, was sind wir NERDIG. Die Prolls fiebern beim Fußball Euro 2008 mit, und wir fiebern bei den Grafikkarten mit -> ;D
Unsere Euro 2008 heißt: R700 vs G200 ;D;D

Jetzt, wo Du es sagst, ich häng hier rum und aktualisiere jede 5 Minuten die Seite, nur um jedes neue Detail zu erhaschen ;). :tongue:

AnarchX
2008-06-10, 16:31:48
QX9650 3.0GHz,2GB内存,790i主板,Vista SP1
3870X2 GTX280 GTX260
Vantage P7514 P10358 P8408
X2182 X4867 X3781
3DMark06 default 15808 14697 14378
Crysis 1.2 Veryhigh 1280*1024 4XAA 23.5 29.6 25.1
Crysis 1.2 Veryhigh 1920*1200 4XAA 18.1 21.0 17.5
SLi 性能
GTX260 SLi GTX280 SLi
Vantage P13681 P15443
X7218 X9049
Crysis 1.2 Veryhigh 1280*1024 4XAA 43.5 51.7
Crysis 1.2 Veryhigh 1920*1200 4XAA 31.7 37.8
http://we.pcinlife.com/thread-947677-1-1.html

Wohl nicht ganz 30FPS @ 1920 4xAA...

Odal
2008-06-10, 16:36:51
21.0 FPS sind aber ziemlich weit weg von 30 :D

dildo4u
2008-06-10, 16:39:05
21.0 FPS sind aber ziemlich weit weg von 30 :D
Die 38 FPS waren ohne AA@1920*1200 DX10 Very High.

Schlammsau
2008-06-10, 16:39:27
http://we.pcinlife.com/thread-947677-1-1.html

Wohl nicht ganz 30FPS @ 1920 4xAA...

:eek:
bedenkt es sind Scores mit 4xAA!

tombman
2008-06-10, 16:39:30
Die >30fps bezog sich auf OHNE AA!!!

Soda, und jetzt gehe ich Crysis mit 4xAA benchen ;D

Schlammsau
2008-06-10, 16:40:22
Die >30fps bezog sich auf OHNE AA!!!
bricht die Karte mit AA so ein?

mapel110
2008-06-10, 16:43:18
1920*1200 4XAA
18.1 fps für die 3870 X2

CB kommt da nur auf 9 fps. O_o
Kann eigentlich nur bedeuten, dass PCN bei den Benches ziemlich CPU-limitiert waren.

dildo4u
2008-06-10, 16:44:38
Eine 8800GTX kommt mit 4XAA@1920*1200 noch auf ganze 8.5fps die 280GTX bei den selben Settings auf 21fps. :eek:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

mapel110
2008-06-10, 16:45:24
Eine 880GTX kommt mit 4XAA@1920*1200 noch auf ganze 8.5fps die 280GTX auf 21fps. :eek:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
Kann nur ein anderer Bench sein, den PCN da verwendet hat. Die 3870 kommt ja dort auf doppelt so hohe fps.

Gast
2008-06-10, 16:45:39
OMG, die Karte wird von Spekulation zu Spekulation schlechter, jetzt schafft sie es gerade mal 2,9FPS in Crysis 1920x1200 4xAA mehr als eine gummelige 3870X2.

Wie schlecht ist das bitte, das kann doch nicht Nvidias Ernst sein, so ein Weichspüler für 500-600 Euro an den Mann zu bringen.

Odal
2008-06-10, 16:51:39
Eine 8800GTX kommt mit 4XAA@1920*1200 noch auf ganze 8.5fps die 280GTX bei den selben Settings auf 21fps. :eek:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis


lol vielleicht gibt es mehr als ein crysis timedemo?
und es ist bekannt das CB ein spezielles custom timedemo nutzt

ne 3870X2 ist nicht soviel langsamer als ne GTX280 wie der crysis bench da ergibt...lol da sehen wohl einige solangsam ihre felle der Über GTX280 davonschwimmen?

kommt schon ganz gut hin mit 1,5x9800GTX performance

dildo4u
2008-06-10, 16:52:34
und es ist bekannt das CB ein spezielles custom timedemo nutzt

Erst bei späteren Tests.Die X2 Werte sind viel zu Hoch egal welche Timedemo die kommt nie im Schnitt auf 18fps bei 1920*1200 mit 4XAA.

mapel110
2008-06-10, 16:52:57
Wie schlecht ist das bitte, das kann doch nicht Nvidias Ernst sein, so ein Weichspüler für 500-600 Euro an den Mann zu bringen.
Seh ich auch so. Irgendwas ist da faul.

CB-Rating 1280x1024 4xAA
9800 GX2 146.9
3870 X2 106.7

Da können sie gleich den Chip wieder einpacken...

Gast
2008-06-10, 16:54:53
Seh ich auch so. Irgendwas ist da faul.

CB-Rating 1280x1024 4xAA
9800 GX2 146.9
3870 X2 106.7

Da können sie gleich den Chip wieder einpacken...
Naja wenn die mit Cat 8.5 oder 8.6 Beta getestet haben kannst die Werte von CB vergessen.

Grestorn
2008-06-10, 16:55:02
Lustig wie die ATIjaner jubeln... :)

Muss ja schon eine tolle Befriedigung sein. Ich hoffe nur für Euch, dass es nicht in bodenlose Enttäuschung umschlägt ... :)

Bevor keine konkreten Reviews da sind, werde ich mich jedenfalls einer Bewertung enthalten.

Ich kann mich übrigens auch nicht erinnern, dass eine solche Häme über ATI ausgegossen wurde, als der HD2x00 hinter den Erwartungen zurückgeblieben ist.

Gast
2008-06-10, 16:58:52
Der R600 wurde extrem verissen im Forum, lies dir mal die alten Threads durch ;)

Warum sich die ATI-Fans freuen sollten versteh ich auch nicht, RV770 wird sicher teurer wenn er nahe an eine GTX260 rankommt.

gamingforce
2008-06-10, 16:59:57
.

Ich kann mich übrigens auch nicht erinnern, dass eine solche Häme über ATI ausgegossen wurde, als der HD2x00 hinter den Erwartungen zurückgeblieben ist.

oh das war 100x schlimmer als hier beim G200 ;)

Unyu
2008-06-10, 17:02:48
Nö, es war sehr ruhig.

desert
2008-06-10, 17:03:13
Lustig wie die ATIjaner jubeln... :)

Muss ja schon eine tolle Befriedigung sein. Ich hoffe nur für Euch, dass es nicht in bodenlose Enttäuschung umschlägt ... :)

Bevor keine konkreten Reviews da sind, werde ich mich jedenfalls einer Bewertung enthalten.

Ich kann mich übrigens auch nicht erinnern, dass eine solche Häme über ATI ausgegossen wurde, als der HD2x00 hinter den Erwartungen zurückgeblieben ist.

aber grestorn, nvidia ist doch das böse schlechthin währenddessen ati das beste ist was dem kunden überhaupt passieren kann

Ist mir schon immer ein rätsel gewesen wie man fan von einer firma sein kann.

ich hoffe nur die 280gtx ist stark genug für mass effect in 1920 x 1200 4xs oder 8xs/8xsq und dazu 16 af, das ist alles was ich brauche.

seitdem ich einen 24 zöller habe, brauche ich dringend was neues was die spiele mit den kombinierten modi darstellen kann.

Schlammsau
2008-06-10, 17:03:20
Kann nur ein anderer Bench sein, den PCN da verwendet hat. Die 3870 kommt ja dort auf doppelt so hohe fps.

nicht unbedingt.....vielleicht hat PCN nur in DX9 gebencht!

dildo4u
2008-06-10, 17:04:13
nicht unbedingt.....vielleicht hat PCN nur in DX9 gebencht!
Very High geht ohne costum Config nur unter DX10.

seahawk
2008-06-10, 17:09:08
lol vielleicht gibt es mehr als ein crysis timedemo?
und es ist bekannt das CB ein spezielles custom timedemo nutzt

ne 3870X2 ist nicht soviel langsamer als ne GTX280 wie der crysis bench da ergibt...lol da sehen wohl einige solangsam ihre felle der Über GTX280 davonschwimmen?

kommt schon ganz gut hin mit 1,5x9800GTX performance

Und die Spekulation sieht 4870 (nicht x2) bei rund 1.3 x 98000GTX. Da erwartet uns ja mal wieder ein echter Höhepunkt von NV. ;D

Gast
2008-06-10, 17:09:09
ne 3870X2 soll bei 1920x1200 4AA VH 18 FPS liefern, das wäre mir aber jetzt ganz neu!

Gast
2008-06-10, 17:11:13
was soll der scheiß mit der löscherei hier eigendlich?
Ich such einen altes Bild von mir als vergleich raus und weg,was soll das?

tombman
2008-06-10, 17:11:23
http://we.pcinlife.com/thread-947677-1-1.html

Crysis 1.2 Veryhigh 1920*1200 4XAA = 21.0


Crysis 1.2, 32bit DX10 VeryHigh

2x 8800GTX @ DEFAULT ~ 18fps

Also SCHNELLER als 2x GTX ;D;D

Schlammsau
2008-06-10, 17:12:04
Very High geht ohne costum Config nur unter DX10.
Oups....du hast recht!

ne 3870X2 soll bei 1920x1200 4AA VH 18 FPS liefern, das wäre mir aber jetzt ganz neu!
mir auch!

Crysis 1.2, 32bit DX10 VeryHigh

2x 8800GTX @ DEFAULT ~ 18fps

Also SCHNELLER als 2x GTX ;D;D

und wie schnell ist eine GTX?

reunion
2008-06-10, 17:14:08
Crysis 1.2, 32bit DX10 VeryHigh

2x 8800GTX @ DEFAULT ~ 18fps

Also SCHNELLER als 2x GTX ;D;D

Die Werte sind nicht vergleichbar, sonst würde eine 3870 X2 nicht 18.1fps schaffen.

desert
2008-06-10, 17:15:25
Ne, weil der Normalo von Grakas am WENIGSTEN Ahnung hat. Mit Mhz kann ich noch halbwegs was anfangen und mit VIEL Speicher auch.
Und genau das bekommt er dann auch: VIEL Mhz, VIEL HDD Gb, VIEL Graka RAM ;)
Ich wette, die hatten bei Umstellung von P4 auf Core2 schon arge Probleme den Leuten zu erklären warum weniger Mhz jetzt besser sein soll ;)

Frei nach de funès: je mehr, je vieler ;)

Nachdem Mhz ja jetzt praktisch "tot" ist, geht man eben über die Kerne: 4 Kerne !!!!111 -> OMG!!!
Also gibts jetzt eben bei Aldi und co, QUADCORE + viel Graka-Ram+ viel HDD-GB ;)


hatte ich erst am sonntag. ein freund von meinem bruder fragte mich nach sli, so vonwegen 2 grafikkarten. Fragte ihn dann so aus nach mainboard und so. Dann kamen wir zu seiner grafikkarte, erzählte was von 256 mb ram usw.

Damit kann man nichts anfangen meinte ich zu ihm und sagte ich das ich das modell brauche. Er hat eine 7300 gt und wollte eine zweite bei unserem händler um die ecke für 110,00 euro dazu kaufen.

Jetzt hat er eine 8800gt.

kruemelmonster
2008-06-10, 17:15:38
Ist mir schon immer ein rätsel gewesen wie man fan von einer firma sein kann.

Eigentlich gibt sich sowas wenn man ein gewisses Alter/Reife erreicht hat.

Ich für meinen Teil bin absoluter Fan von SSAA, kombinierten AA Modi und dem godlike nHancer, solange sich AMD in der Beziehung nicht bewegt wird es mir schwer fallen was anderes als NV zu kaufen.

/edit: Hat wer gestern zufällig South Park gesehen? Da sind alle Jungens in die mentale Steinzeit zurückgefallen weil bei nem Mädel aus ihrer Klasse das Wachstum der (.)(.) eingesetzt hat. Wenn ich mir hier manches Posting angucke, drängen sich gewisse Parallelen auf.

dildo4u
2008-06-10, 17:17:06
Wär schön wenn einer mit einem 3870CF oder einer X2 mal 1920*1200 mit 4XAA@Veryhigh mit neuen Treibern benchen könnte zum Vergleich

4 Vitamins
2008-06-10, 17:18:50
http://we.pcinlife.com/thread-947677-1-1.html

Wohl nicht ganz 30FPS @ 1920 4xAA...

Das muss ein fake sein, die karte ist mindestens 5 mal schneller als in dem bench bahauptet, die F..kt ein ultra gespann und ist 8 mal schneller als ati neue karten!! kannste den Tombman fragen dr kennt sich aus!!

gruss

Gast
2008-06-10, 17:19:02
Lustig wie die ATIjaner jubeln... :)

Muss ja schon eine tolle Befriedigung sein. Ich hoffe nur für Euch, dass es nicht in bodenlose Enttäuschung umschlägt ... :)

Bevor keine konkreten Reviews da sind, werde ich mich jedenfalls einer Bewertung enthalten.

Ich kann mich übrigens auch nicht erinnern, dass eine solche Häme über ATI ausgegossen wurde, als der HD2x00 hinter den Erwartungen zurückgeblieben ist.


Also mal ganz langsam. Man braucht die aktuellen Threads nur nen paar Seiten zurück gehen um zu sehen wie die "Stimmung" und die Argumentation hier bisher ablief. Von daher ist nen klein! bisschen Schadenfreude gar nicht so unangebracht.

Schlammsau
2008-06-10, 17:21:35
also laut CB ist die Aufteilung im GPU Bench bei der Auflösung folgendermassen:

http://www.abload.de/img/unbenanntvkj.png

desert
2008-06-10, 17:22:24
Eigentlich gibt sich sowas wenn man ein gewisses Alter erreicht hat.

Ich für meinen Teil bin absoluter Fan von SSAA, kombinierten AA Modi und dem godlike nHancer, solange sich AMD in der Beziehung nicht bewegt wird es mir schwer fallen was anderes als NV zu kaufen.

/edit: Hat wer gestern zufällig South Park gesehen? Da sind alle Jungens in die mentale Steinzeit zurückgefallen weil bei nem Mädel aus ihrer Klasse das Wachstum der (.)(.) eingesetzt hat. Wenn ich mir hier manches Posting anguckt, drängen sich gewisse Parallelen auf.

Jup zwei sachen binden mich momentan an nvidia.

einmal die ssaa und kombinierten modi´s und dann nhancer. Habe es neulich wiedermal gothic2 mit 32xs ,tssaa und 16 af durchgespielt. Zum vergleich auch mal nur 4aa und 16, das sieht irgendwie scheisse aus. Oder maxpayne2mit ssaa und dann die schönen texturen, einfach ein traum. Oder half life, oder css oder tf immer min. 8xs oder 8xsq.

solange mir das ati nicht bietet, kann ich leider nicht wechseln.

4711
2008-06-10, 17:22:51
Crysis 1.2, 32bit DX10 VeryHigh

2x 8800GTX @ DEFAULT ~ 18fps

Also SCHNELLER als 2x GTX ;D;D
hab noch was nettes mit ner GX2 ;D
http://s1.directupload.net/images/080503/temp/3jveifdr.jpg (http://s1.directupload.net/file/d/1418/3jveifdr_jpg.htm)

http://s2.directupload.net/images/080503/temp/ri65k235.jpg (http://s2.directupload.net/file/d/1418/ri65k235_jpg.htm)

man achte auf die min FPS ;D ;D ;D

dildo4u
2008-06-10, 17:23:27
Ich würde behaupten egal welches Level/Timedemo vom Spiel eine X2 kommt niemals im Schnitt auf 18fps in 1920*1200 mit 4XAA.

hab noch was nettes mit ner GX2 ;D
http://s1.directupload.net/images/080503/temp/3jveifdr.jpg (http://s1.directupload.net/file/d/1418/3jveifdr_jpg.htm)
"Nur" 1680*1050 und kein Very-High also zum Vergleich nutzlos hier.

Gast
2008-06-10, 17:25:27
Eine 8800GTX kommt mit 4XAA@1920*1200 noch auf ganze 8.5fps die 280GTX bei den selben Settings auf 21fps. :eek:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

Trotzdem unspielbar.Macht also alles kein sinn.

Gast
2008-06-10, 17:25:41
Kann nur ein anderer Bench sein, den PCN da verwendet hat. Die 3870 kommt ja dort auf doppelt so hohe fps.


Neuer Treiber.

tombman
2008-06-10, 17:26:53
Crysis 1.2, 32bit DX10 VeryHigh

2x 8800GTX @ DEFAULT ~ 18fps

Also SCHNELLER als 2x GTX ;D;D

GTX280 ~21fps

2x GTX @ ~Ultra (621/1512/1000) ~ 20fps

Ok, es stellt sich immer mehr heraus, daß eine GTX280 ungefähr so schnell ist wie 2x 8800Ultra @ SLI

War eigentlich zu erwarten :)

seahawk
2008-06-10, 17:27:19
Das dürfte ein Treiber sein, der erste Verbesserung für 4870X2 enthält. Daher die gute Leistung der 3870X2.

Gast
2008-06-10, 17:29:22
Das dürfte ein Treiber sein, der erste Verbesserung für 4870X2 enthält. Daher die gute Leistung der 3870X2.

Bestimmt der 4850 launch Treiber...

dildo4u
2008-06-10, 17:29:30
Das dürfte ein Treiber sein, der erste Verbesserung für 4870X2 enthält. Daher die gute Leistung der 3870X2.
Wenn das alles ein Benchdurchgang war wurde mit dem Cat 8.3 gebencht siehe Vantage Werte der X2.Und selbst wenn ein neuer Treiber macht die Karte nicht um 100% schneller denn Crossfire hat selbst schon mit dem Cat 8.3 zumindest zum Teil gefunzt.(Siehe 3870vs X2 Werte bei CB)

Snoopy69
2008-06-10, 17:38:29
QX9650 3.0GHz,2GB内存,790i主板,Vista SP1
3870X2 GTX280 GTX260
Vantage P7514 P10358 P8408
X2182 X4867 X3781
3DMark06 default 15808 14697 14378
Crysis 1.2 Veryhigh 1280*1024 4XAA 23.5 29.6 25.1
Crysis 1.2 Veryhigh 1920*1200 4XAA 18.1 21.0 17.5
SLi 性能
GTX260 SLi GTX280 SLi
Vantage P13681 P15443
X7218 X9049
Crysis 1.2 Veryhigh 1280*1024 4XAA 43.5 51.7
Crysis 1.2 Veryhigh 1920*1200 4XAA 31.7 37.8

Kann das jmd ein bissl aufschlüsseln?

1920*1200 4XAA
18.1 fps für die 3870 X2

CB kommt da nur auf 9 fps. O_o
Kann eigentlich nur bedeuten, dass PCN bei den Benches ziemlich CPU-limitiert waren.
NIEMALS!
Das muss die CPU schon eine richtige Gurke sein.
Mein E6600 @ 3400MHz hat im 1. CPU-Bench 90 Min-FPS und im 2. CPU-Bench 60 MIN-FPS

GTX280 ~21fps

2x GTX @ ~Ultra (621/1512/1000) ~ 20fps

Ok, es stellt sich immer mehr heraus, daß eine GTX280 ungefähr so schnell ist wie 2x 8800Ultra @ SLI

War eigentlich zu erwarten :)

Und du hast mir nicht geglaubt :D

Ich sagte auch, dass du mit SLI und max. AA/AF + Tweaks nicht flüssig spielen kannst. Du brauchst also wieder T-SLI :ulol:

mapel110
2008-06-10, 17:50:48
NIEMALS!
Das muss die CPU schon eine richtige Gurke sein.
Mein E6600 @ 3400MHz hat im 1. CPU-Bench 90 Min-FPS und im 2. CPU-Bench 60 MIN-FPS

CB bencht mit einem 4 Ghz Quadcore und kam auf 9 fps bzw 16 fps bei 1280er. Was soll das anderes für die Timedemo von PCN bedeuten?!

Mal in Prozenten:
Bei PCN bricht die 3870X2 auf 77 % ein bei dieser Auflösungserhöhung.
Bei CB bricht sie auf 59,6 % ein bei selber Auflösungserhöhung.

gamingforce
2008-06-10, 17:55:42
CB bencht mit einem 4 Ghz Quadcore und kam auf 9 fps bzw 16 fps bei 1280er. Was soll das anderes für die Timedemo von PCN bedeuten?!

.

hier ausm Luxx hat mal einer gebencht in 1280x1024:

Crysis DX10 Very High 4xAA

1280x1024

Phenom 3Ghz
HD3870X2 918/1000


http://www.abload.de/img/unbenanntnta.jpg (http://www.abload.de/image.php?img=unbenanntnta.jpg)

4711
2008-06-10, 18:01:53
wenn der g200 hier 30FPS schafft freß ich nen Besen mit Putzfrau!
http://www.abload.de/thumb/unbenannt222v7k.jpg (http://www.abload.de/image.php?img=unbenannt222v7k.jpg)
und direkt danach geh ich kaufen!

hier ausm Luxx hat mal einer gebencht in 1280x1024:

Crysis DX10 Very High 4xAA

1280x1024

Phenom 3Ghz
HD3870X2 918/1000


http://www.abload.de/img/unbenanntnta.jpg (http://www.abload.de/image.php?img=unbenanntnta.jpg)

Was willste mit der Auflösung?

Kudd3l
2008-06-10, 18:05:48
Im Luxx Forum wurde auch unter 1920x1200 Very High 4xAA gepostet, 9,52 Average FPS, 3870X2.

Der pcinlife Bench, passt vorne und hinten nicht.
Auf der einen Seite ist der Wert der 3870X2 unter 1920x1200 4xAA erheblich zu hoch für Average FPS.
Auf der anderen Seite passen die GTX280 Benchmarks nicht zu den bisher bekannten Daten.

Gestern gab es ein Bench, der GTX280, auf 1920x1200 1xAA/1xAF mit 36 Average FPS.
Diese Zahl wurde von dem XS Forum User OBR auch bestätigt, das sich die 36FPS mit seinen Benchmarkergebnissen deckt.
Es ist völlig unlogisch, das die Karte trotz 1GB Vram und 512bit-SI auf einmal mit 4xAA 15Average FPS einbüsst.

So lange ich keine Bestätigung von seriöser Quelle sehe, bleibt das für mich ein schlecht gemachter China Fake Benchmark.

Unyu
2008-06-10, 18:06:57
wenn der g200 hier 30FPS schafft freß ich nen Besen mit Putzfrau!
http://www.abload.de/thumb/unbenannt222v7k.jpg (http://www.abload.de/image.php?img=unbenannt222v7k.jpg)
und direkt danach geh ich kaufen!
Tja der GX2 fehlt auch der VRAM.

Odal
2008-06-10, 18:20:05
Im Luxx Forum wurde auch unter 1920x1200 Very High 4xAA gepostet, 9,52 Average FPS, 3870X2.

Der pcinlife Bench, passt vorne und hinten nicht.
Auf der einen Seite ist der Wert der 3870X2 unter 1920x1200 4xAA erheblich zu hoch für Average FPS.
Auf der anderen Seite passen die GTX280 Benchmarks nicht zu den bisher bekannten Daten.

Gestern gab es ein Bench, der GTX280, auf 1920x1200 1xAA/1xAF mit 36 Average FPS.
Diese Zahl wurde von dem XS Forum User OBR auch bestätigt, das sich die 36FPS mit seinen Benchmarkergebnissen deckt.
Es ist völlig unlogisch, das die Karte trotz 1GB Vram und 512bit-SI auf einmal mit 4xAA 15Average FPS einbüsst.

So lange ich keine Bestätigung von seriöser Quelle sehe, bleibt das für mich ein schlecht gemachter China Fake Benchmark.


achso einmal sind die 36FPS der GTX280 ohne AA und AF realistisch (die 21FPS mit 4xAA 16xAF wohl noch zu wenig?) und die 18FPS der 3870X2 viel zuviel und da eher 8FPS realistisch? Wie heiß muss es sein das man glaubt eine GTX280 wird 3-4 mal so schnell wie eine 3870X2 (wenn Crossfire funzt)?

Slipknot79
2008-06-10, 18:23:31
649$ sind derzeit 416€ ;D;D

Da IMPORTIER ich doch aus USA und zahle GERNE die Einfuhrumsatzsteuer (20% in .at) + Transport ;)

Mehr als 550€ inkl. aller Gebühren wirds aus USA nicht :)

670€ -> ROFL


Sammelbestellung in tha hood?

Snoopy69
2008-06-10, 18:26:36
Sammelbestellung in tha hood?
Darf bloss nix dran kommen :wink:
Der absolute Albtraum... Die Karte geht von Anfang an nicht. Schnell kostet die Karte dann mehr als hier in DE. Nee danke...

Gast
2008-06-10, 18:28:24
achso einmal sind die 36FPS der GTX280 ohne AA und AF realistisch (die 21FPS mit 4xAA 16xAF wohl noch zu wenig?) und die 18FPS der 3870X2 viel zuviel und da eher 8FPS realistisch? Wie heiß muss es sein das man glaubt eine GTX280 wird 3-4 mal so schnell wie eine 3870X2 (wenn Crossfire funzt)?

Natürlich können auch die 36fps falsch sein, die 19FPS der 3870X2 in 1920x1200 4xAA Very High sind es aber definitiv.
Das reicht, um die Glaubwürdigkeit des PCN benchmarks zu bezweifeln.
Warum sollten die GTX Werte bei PCN richtig sein, wenn sie bei der 3870X2 schon völlig daneben liegen, selbst wenn sie neuere Treiber als den 8.6 haben, erklärt das nicht warum sie mehr als doppelt so schnell sein soll, wie von diversen Quellen gebencht.

Für die 36FPS gibt es immerhin eine Bestätigung, wenn auch keinen Beweis und ich glaube einer Quelle aus dem XS Forum eher, als einem geleakten China Benchmark.

Ich habe nie behauptet, das die Karte 3-4 mal so schnell wird, das saugst du dir aus den Fingern, die X2 Werte des PCN benchmarks sind jedenfalls völlig daneben und das reicht mir, um an der Glaubwürdigkeit der restlichen Werte zu zweifeln.

Slipknot79
2008-06-10, 18:30:39
Darf bloss nix dran kommen :wink:
Der absolute Albtraum... Die Karte geht von Anfang an nicht. Schnell kostet die Karte dann mehr als hier in DE. Nee danke...


Naja, statt 670EUR sind es nun 600EUR

http://www.hw-elektronik.de/xtc/product_info.php/info/p703_Nvidia-GeForce--b-GTX280--b--1024MB-Marke.html

Hat wohl hier im Forum mitgelesen ^^

Odal
2008-06-10, 18:31:19
genau die gleiche quelle sagt aber auch 2x4850>GTX280 und andere quellen sagen 4850>=9800GTX

das heisst GTX280<2x9800GTX

dargo
2008-06-10, 18:32:26
Für die 36FPS gibt es immerhin eine Bestätigung, wenn auch keinen Beweis und ich glaube einer Quelle aus dem XS Forum eher, als einem geleakten China Benchmark.

Richtigkeitshalber - es waren 34,44fps, nicht 36. :)

dildo4u
2008-06-10, 18:34:43
Richtigkeitshalber - es waren 34,44fps, nicht 36. :)
36.8 avg die 34fps sind der momentan Wert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6567402&postcount=306

Gast
2008-06-10, 18:37:13
genau die gleiche quelle sagt aber auch 2x4850>GTX280 und andere quellen sagen 4850>=9800GTX

das heisst GTX280<2x9800GTX

Das gilt aber nur solange wie der 9800er nicht der RAM ausgeht.

Kudd3l
2008-06-10, 18:37:45
Jo, wenn schon Klugscheissen, dann bitte richtig.:)
Es ging in meinem Post auch nicht darum, ob sie nun 34 oder 36 FPS hatte.
Jedenfalls lassen die falschen 3870X2 Werte im PCN Benchmark, grosse Zweifel an der Glaubwürdigkeit der restlichen Werte aufkommen.
Die 19FPS der 3870X2@1920x1200 4xAA Very High sind fernab jeglicher Realität, unabhängig vom Level den man gebencht hat.
Das macht den kompletten Benchmark nicht gerade glaubwürdig.

dargo
2008-06-10, 18:51:16
36.8 avg die 34fps sind der momentan Wert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6567402&postcount=306
Es ist eben andersrum. Die 34,44fps sind die avgs. vom letzten Durchgang.

Gast
2008-06-10, 19:08:45
Wer sagt den das der interne NV Optimierte Island Benchmark genommen wurde? Kann auch ein Savegame sein...

Gast
2008-06-10, 19:10:34
Hast du mal Ingame FPS mit Fraps in Crysis @ 1920x1200 4xAA Very High mitgeschnitten, dann sollte dir klar sein, das die Ergebnisse noch deutlich ernüchternder sind, als in einem FlyBy.

deekey777
2008-06-10, 19:12:35
Wer sagt den das der interne NV Optimierte Island Benchmark genommen wurde? Kann auch ein Savegame sein...
Das ist eine sehr gewagte Äußerung, dass der intergrierte Island-Benchmark NV-optimiert ist: Hast du irgendwelche Belege?

Gast
2008-06-10, 19:14:15
Wer sagt den das der interne NV Optimierte Island Benchmark genommen wurde? Kann auch ein Savegame sein...

Du meinst Ati optimierte...auf PCGH gab es dazu mal einen Artikel der diese belegt

4711
2008-06-10, 20:07:14
Tja der GX2 fehlt auch der VRAM.
Da fehlt garnix!Schongar nicht bei 1200mhz GPU.
Sollte auch eher klarstellen was der PCN Benchmark fürn Quark ist.
http://s4.directupload.net/images/080426/temp/r4j7349u.png (http://s4.directupload.net/file/d/1411/r4j7349u_png.htm)
ist kleiner sind sonst über 5mb....
Und ich wiederholle es nochmal wenn der G200 30 FPS schafft ist es eine Überkarte und jeden Cent Wert.

mr orange
2008-06-10, 20:17:23
GTX280 ~21fps

2x GTX @ ~Ultra (621/1512/1000) ~ 20fps

Ok, es stellt sich immer mehr heraus, daß eine GTX280 ungefähr so schnell ist wie 2x 8800Ultra @ SLI

War eigentlich zu erwarten :)

mich würden mal die werte einer einzelnen GTX @ ~Ultra interessieren.

4711
2008-06-10, 20:22:14
Wenn du das Bild über dir nimmst ca.8-10 FPS an der Stelle.

Snoopy69
2008-06-10, 20:24:11
mich würden mal die werte einer einzelnen GTX @ ~Ultra interessieren.
Ultra 280?

Gast
2008-06-10, 20:27:29
Du meinst Ati optimierte...auf PCGH gab es dazu mal einen Artikel der diese belegt
Blödsinn. Der belegte lediglich, dass ein bestimmter Treiber im Island-Flyby einen höheren Zuwachs erzielte, als in anderen Levels.

Eggcake
2008-06-10, 20:28:42
Is klar. Kooperieren mit nVidia aber der Bench ist ATI optimiert. Wie logisch.

Gast
2008-06-10, 20:38:00
....
Ok, es stellt sich immer mehr heraus, daß eine GTX280 ungefähr so schnell ist wie 2x 8800Ultra @ SLI

War eigentlich zu erwarten :)

Nö, entweder die HD3870X2 hat im Crysis Bench im Durchschnitt 82,8% der Leistung einer GTX280 oder alle Werte sind für die Katz.

Es wurde eben festgestellt, dass die Werte der HD3870X2 nicht hinhauen können und damit die Werte der GTX280 einiges an Glaubwürdigkeit verlieren. Da kannst du noch so oft dein G80 GTX Sli Gespann gegen benchen ... das ist nicht vergleichbar.

Gast
2008-06-10, 20:51:40
Nö, entweder die HD3870X2 hat im Crysis Bench im Durchschnitt 82,8% der Leistung einer GTX280 oder alle Werte sind für die Katz.
Wenn man bedenkt wie CPU-limtiiert dieser Insel-Bench ist - nachvolziehbar

mr orange
2008-06-10, 20:52:37
Wenn du das Bild über dir nimmst ca.8-10 FPS an der Stelle.
Ultra 280?

wenn die 280 von der leistung her ungefähr einem 8800 ultra sli gespann entspricht, wollte ich mir nur kurz ausrechen um wieviel schneller die 280 gegenüber einer einzelnen 8800 ultra ist.

Gast
2008-06-10, 20:55:00
Wenn man bedenkt wie CPU-limtiiert dieser Insel-Bench ist - nachvolziehbar

Ja nee is klar, bei 1920*1200 und 4x AA auf Very High. Zumal der Abstand zwischen der X2 und der GTX280 auf der höheren Auflösung nochmal um gute 6% sinkt.

Gast
2008-06-10, 21:16:43
Blödsinn. Der belegte lediglich, dass ein bestimmter Treiber im Island-Flyby einen höheren Zuwachs erzielte, als in anderen Levels.

Kannst du 1+2 zusammenzählen? ;)

Unyu
2008-06-10, 22:28:25
Da fehlt garnix!Schongar nicht bei 1200mhz GPU.
Was sind "1200mhz GPU"? :confused:

Ist doch Fakt, das 512MiB auf der GX2 lächerlich wenig sind und es sich in den FPS bei harten Settings deutlich bemerkbar macht.
-> 10fache 9800 GX2 Leistung ist in solchen Situationen drin drin.

MikBach
2008-06-10, 22:32:56
Ist doch Fakt, das 512MiB auf der GX2 lächerlich wenig sind und es sich in den FPS bei harten Settings deutlich bemerkbar macht.
-> 10fache 9800 GX2 Leistung ist in solchen Situationen drin drin.
Du glaubst aber auch an den Weihnachtsmann und Osterhasen. ne? ;D

Raff
2008-06-10, 22:35:27
Du glaubst aber auch an den Weihnachtsmann und Osterhasen. ne? ;D

Es stimmt ... fast. Das gilt aber genauso für die 8800 GTX/Ultra. Einfach mal Crysis oder UT3 in mindestens 1.920x1.200 mit 8xQ anwerfen. Die 512-MiB-Karten werfen einstellige Fps aus, die 768-er bringen's auf fast spielbare zwei Stellen (Faktor 3-4).

MfG,
Raff

tombman
2008-06-10, 23:31:33
Ich sagte auch, dass du mit SLI und max. AA/AF + Tweaks nicht flüssig spielen kannst. Du brauchst also wieder T-SLI :ulol:
Was fantasierst du denn da? Mit SLI gabs laut china auf 1920x1200, 4xAA, VH >37fps. Mit oc sind wir über 40fps, und damit ist es spielbar. Nix Triple.
Und ohne AA soll laut Nvidia selbst sogar 2560x1600@ VH spielbar sein...
Nö, entweder die HD3870X2 hat im Crysis Bench im Durchschnitt 82,8% der Leistung einer GTX280 oder alle Werte sind für die Katz.

Es wurde eben festgestellt, dass die Werte der HD3870X2 nicht hinhauen können und damit die Werte der GTX280 einiges an Glaubwürdigkeit verlieren. Da kannst du noch so oft dein G80 GTX Sli Gespann gegen benchen ... das ist nicht vergleichbar.
Die vantage X4800 kamen jetzt aber schon zum 100. Mal, also wird wohl was dran sein. Und das IST nun mal 8800Ultra SLI ;)

Weniger wirds ned werden, da können sich die ATi Jünger noch so dagegen wehren ;)

Gast
2008-06-11, 00:05:00
Was fantasierst du denn da? Mit SLI gabs laut china auf 1920x1200, 4xAA, VH >37fps. Mit oc sind wir über 40fps, und damit ist es spielbar. Nix Triple.
Und ohne AA soll laut Nvidia selbst sogar 2560x1600@ VH spielbar sein...

Die vantage X4800 kamen jetzt aber schon zum 100. Mal, also wird wohl was dran sein. Und das IST nun mal 8800Ultra SLI ;)

Weniger wirds ned werden, da können sich die ATi Jünger noch so dagegen wehren ;)


ne soviel wird es auch im besten fall,blos wird noch lange nicht reichen,ich sags mal so was ist schon eine ultra wert,nix:)

tombman
2008-06-11, 00:06:27
ne soviel wird es auch im besten fall,blos wird noch lange nicht reichen,ich sags mal so was ist schon eine ultra wert,nix:)
8800Ultra @ SLi auf EINEM Chip ist MIR schon ne Menge wert ;)

Gast
2008-06-11, 00:07:23
8800Ultra @ SLi auf EINEM Chip ist MIR schon ne Menge wert ;)


mir nicht,viel zuwenig

tombman
2008-06-11, 00:09:22
mir nicht,viel zuwenig
Mehr geht auf einem Chip aber nicht, ATI hats auch nicht... die schaffen nur +30% gegenüber 9800GTX (eigene ATI Folie)

Gast
2008-06-11, 00:13:20
Mehr geht auf einem Chip aber nicht, ATI hats auch nicht... die schaffen nur +30% gegenüber 9800GTX (eigene ATI Folie)

ohmann jetzt kommt dieses noobiges gerechne,und 30% in der rohperformance muss man erstmal schaffen:) wetten in hohen und quality settings sind es schnell mal bis 80%.:))

tombman
2008-06-11, 00:16:35
ohmann jetzt kommt dieses noobiges gerechne,und 30% in der rohperformance muss man erstmal schaffen:) wetten in hohen und quality settings sind es schnell mal bis 80%.:))
Der Noob bist du, wenn du nicht mal zwischen ner Rechnung und nem Zitat unterscheiden kannst.
Und wenns +80% wären, dann würde das ATi doch auf die EIGENE Folie schreiben- Zurückhaltung gibts bei solchen Folien nämlich nicht :rolleyes:
Außerdem wären +80% GTX280 Niveau, und das wirds 100% NICHT spielen, nicht zu dem Preis...

Gast
2008-06-11, 00:16:38
ohmann jetzt kommt dieses noobiges gerechne,und 30% in der rohperformance muss man erstmal schaffen:) wetten in hohen und quality settings sind es schnell mal bis 80%.:))


kann ja nicht editieren deshalb so:) und ich geh noch weiter du glaubst doch im ernst das die rohperformance der 280gtx gegenüber einer ultra sich verdoppelt?
realistisch wird 50% sein und höher wird es erst bei hohen auflösungen +quality.

tombman
2008-06-11, 00:18:17
kann ja nicht editieren deshalb so:) und ich geh noch weiter du glaubst doch im ernst das die rohperformance der 280gtx gegenüber einer ultra sich verdoppelt?
realistisch wird 50% sein und höher wird es erst bei hohen auflösungen +quality.
Cpu-Limits interessieren ja auch keinen :rolleyes:

Lerns auswendig: X4800 :cool:

Gast
2008-06-11, 00:18:19
Gibts eigentlich irgendwas Neues?

Gast
2008-06-11, 00:20:46
Cpu-Limits interessieren ja auch keinen :rolleyes:

Lerns auswendig: X4800 :cool:


lerns auswendig x5500 und noch nicht optimiert,versuchs erst gar nicht kommste nicht weit:)

tombman
2008-06-11, 00:22:50
lerns auswendig x5500 und noch nicht optimiert,versuchs erst gar nicht kommste nicht weit:)
R700 ist KEIN single chip, und wir haben jetzt NUR von single chips geredet :rolleyes:
Und nein, DU kommst nicht weit, ich bin schon länger "im Geschäft", bei mir gibt jeder auf- weil keiner soviel Zeit hat ;)

Gast
2008-06-11, 00:27:24
R700 ist KEIN single chip, und wir haben jetzt NUR von single chips geredet :rolleyes:

interessiert nicht die bohne ob es ein single chip ist oder nicht,komm nicht mit so billigen ausreden.wenn nv das machen könnte dann würde schon lange was in den startlöchern sein,geht blos nicht bei der stromschleuder da wird auch keine 55nm² helfen.

tombman
2008-06-11, 00:28:48
interessiert nicht die bohne ob es ein single chip ist oder nicht,komm nicht mit so billigen ausreden.
Das interessiert sogar sehr heftig, solange es AFR bei Crossfire gibt ;)
(MR+ Profilabhängigkeit...)

Btw, 5500 zu 4800 sind gerade mal 15% mehr-> das macht NIX spielbar, was nicht auch mit GTX280 spielbar wäre ;)
Und jeder weiß wie sehr bei ATI 3dMark und echte games auseinanderdriften...

Gast
2008-06-11, 00:31:05
Das interessiert sogar sehr heftig, solange es AFR bei Crossfire gibt ;)
(MR+ Profilabhängigkeit...)

werden wir ja sehen;)

Gast
2008-06-11, 00:31:25
http://img504.imageshack.us/img504/8210/4536243424ti3.jpg

Gast
2008-06-11, 00:32:25
http://img504.imageshack.us/img504/8210/4536243424ti3.jpg


wird auch zeit das die träumerei ein ende hat;)

Gast
2008-06-11, 00:32:38
soso 16 und nicht 17, immer wieder interessant wie viele odch unter NDA stehen sollen und schon angeblich Karten haben aber nicht mal das genau Datum kennen...

Sorkalm
2008-06-11, 00:32:44
Noch ein Tag vorgezogen?

Na gut, ein Montagslaunch. ;)

tombman
2008-06-11, 00:34:03
werden wir ja sehen;)
Ja genau, das will ich wirklich sehen, wie sich vor R800 zwei Chips VÖLLIG TRANSPARENT wie einer verhalten, das will ich wirklich sehen ;)

Falls ATI das geschafft hat -> FETTEN RESPEKT. Vorher kriegen die gar nix von mir.

Chronicle
2008-06-11, 00:35:19
Da es hier ja rund um den GT200 geht frag ich einfach mal rein:
Was denkt ihr, wird eine GTX280 beim Release kosten?

Gast
2008-06-11, 00:35:47
ca. 550.- Euro

tombman
2008-06-11, 00:36:14
Da es hier ja rund um den GT200 geht frag ich einfach mal rein:
Was denkt ihr, wird eine GTX280 beim Release kosten?
600€ mindestens...die Händler scheißen sich da NIX in .at.

Gast
2008-06-11, 00:37:21
na sind ja schon für 580.- gelistet, von dem her muss man ganz sicher keine 600.- Zahlen, ausser die Karten sind so gut wie nicht Lieferbar...

frix
2008-06-11, 00:39:25
Wasn gezanke hier. 8800 Ultra SLI ist doch eine gute leistung für die gtx280. Klar könnte besser sein. Wenn jemand mit SLI und CF sagt, dass er einem single chip auf jeden fall den vorzug geben würde, dann hat das für mich schon was zu bedeuten. haben die ganzen gäste denn erfahrung mit SLI/CF?

Chronicle
2008-06-11, 00:39:51
Ehm, ist zwar jetz ganz ein wenig ausm Kontext gerissen, aber dann lohnts sich doch kaum darauf zu warten, wenns im Moment eine 88GTS 512 für 150€ oder? (Wenn man jetzt mal von einem beschränkten Budget ausgeht ;) )

tombman
2008-06-11, 00:40:11
na sind ja schon für 580.- gelistet, von dem her muss man ganz sicher keine 600.- Zahlen, ausser die Karten sind so gut wie nicht Lieferbar...
Genau das wird aber passieren. War bei Nvidia doch immer. Da kriegt ein GROSSER shop vielleicht 20 Karten- und die sind am Launchtag oder spätestens am nächsten Tag weg.
Danach heißts 2 Wochen warten ;)

frix
2008-06-11, 00:40:52
Ehm, ist zwar jetz ganz ein wenig ausm Kontext gerissen, aber dann lohnts sich doch kaum darauf zu warten, wenns im Moment eine 88GTS 512 für 150€ oder? (Wenn man jetzt mal von einem beschränkten Budget ausgeht ;) )

kommt halt drauf an was es dir wert ist keine SLI problematik zu haben.

Chris2CB
2008-06-11, 00:41:02
na sind ja schon für 580.- gelistet, von dem her muss man ganz sicher keine 600.- Zahlen, ausser die Karten sind so gut wie nicht Lieferbar...



Währe ja mal ganz was neues wenn high end Karten am Anfang gut lieferbar sind....da kann man glücklich wenn man eine bekommt.....;(

Gast
2008-06-11, 00:51:39
Genau das wird aber passieren. War bei Nvidia doch immer. Da kriegt ein GROSSER shop vielleicht 20 Karten- und die sind am Launchtag oder spätestens am nächsten Tag weg.
Danach heißts 2 Wochen warten ;)

Ich werde ganz sicher zwei GTX 280er nächste Woche hier haben, endlich Crysis in 1920x1200 VH flüssig Spielen :))

Gast
2008-06-11, 00:52:43
Oder 3-Way GTX 280 SLI, das gibt bestimmt 60FPS :-)

Snoopy69
2008-06-11, 00:55:00
Was fantasierst du denn da? Mit SLI gabs laut china auf 1920x1200, 4xAA, VH >37fps. Mit oc sind wir über 40fps, und damit ist es spielbar. Nix Triple.

Was - avg? :wink:

tombman
2008-06-11, 01:02:17
Was - avg? :wink:
jo, reicht doch...

@Gast, ich werde erstmal EINE nehmen. Solange ich nicht weiß was genau ATI auf die Beine stellt wage ich mich nicht zu weit vor ;)

Gast
2008-06-11, 01:52:02
Ich werde ganz sicher zwei GTX 280er nächste Woche hier haben, endlich Crysis in 1920x1200 VH flüssig Spielen :))

Tja, und danach? :(

Anarchy-HWLUXX
2008-06-11, 02:40:39
GeForce GTX 260 & 280-supporting drivers leaked (http://forums.vr-zone.com/showthread.php?t=287012)

Mal was seltenes - Bilder aus dem Werk und die Teststationen

GeForce GTX280 production pics (http://forums.vr-zone.com/showthread.php?t=287008)

tombman
2008-06-11, 03:43:04
Ein schönes GRID Profil is auch drinnen ;)

4711
2008-06-11, 08:28:37
Was sind "1200mhz GPU"? :confused:

Ist doch Fakt, das 512MiB auf der GX2 lächerlich wenig sind und es sich in den FPS bei harten Settings deutlich bemerkbar macht.
-> 10fache 9800 GX2 Leistung ist in solchen Situationen drin drin.

Du schreibst Unfug!

jo, reicht doch...

@Gast, ich werde erstmal EINE nehmen. Solange ich nicht weiß was genau ATI auf die Beine stellt wage ich mich nicht zu weit vor ;)

Wenn die Kohle bei ATI stimmt wird sich keiner eine GTX kaufen....schau mal rüber was die kleine schon reißt..

The_Invisible
2008-06-11, 09:10:44
GeForce GTX 260 & 280-supporting drivers leaked (http://forums.vr-zone.com/showthread.php?t=287012)

Mal was seltenes - Bilder aus dem Werk und die Teststationen

GeForce GTX280 production pics (http://forums.vr-zone.com/showthread.php?t=287008)

triple-sli, schade das man das netzteil nicht sieht :D

mfg

Gast
2008-06-11, 09:34:06
Ich habe etwas zu sagen. Und zwar dass es technisch absoluter Blödsinn ist und man nicht eine Sekunde über diesen Fall nachdenken muss.

Und ja, das weiß ich ganz sicher.
Ich halte deine Arroganz mal für die Nachwelt fest - nicht, dass du noch heimlich editierst, wenn der Launch erstmal durch ist. ;)

ShadowXX
2008-06-11, 09:35:30
Wenn die Kohle bei ATI stimmt wird sich keiner eine GTX kaufen....schau mal rüber was die kleine schon reißt..
Ich gebe ATI sicher kein Geld für ein Karte die nur 30% schneller als ein 9800GTX ist....das wäre unsinnig.
CF (und damit X2-Karte) kannst (genauso wie SLI) vergessen.

Bei der GTX280 kann ich den überschüssigen Power wenigstens in SSAA stecken.

Gast
2008-06-11, 09:51:15
Wenn die Kohle bei ATI stimmt wird sich keiner eine GTX kaufen....schau mal rüber was die kleine schon reißt..

NVIDIA KANN mehr verlagen als ATI und es wird drotzdem GEKAUFT, war schon immer so, wird auch immer so bleiben!

Ist so wie so lächerlich zu behaupten das keiner eine GTX 280 kauft, wie dumm ist den bitte schön diese Aussage!

Gerade weil ATI rein gar nichts in diesem Leistungs-Berreich hat werden die G200 ein renner...

und nicht jeder muss bei 600.- EURO auf den Preis schauen, begreift das doch jetzt ENDLICH mal!

Schlammsau
2008-06-11, 09:53:54
NVIDIA KANN mehr verlagen als ATI und es wird drotzdem GEKAUFT, war schon immer so, wird auch immer so bleiben!

Ist so wie so lächerlich zu behaupten das keiner eine GTX 280 kauft, wie dumm ist den bitte schön diese Aussage!

Gerade weil ATI rein gar nichts in diesem Leistungs-Berreich hat werden die G200 ein renner...

und nicht jeder muss bei 600.- EURO auf den Preis schauen, begreift das doch jetzt ENDLICH mal!

bla bla bla ;D
bald hat ATi was in dem Preisbereich und dann wird man sehen, wer den kürzeren zieht! ;)
Kuck dich doch mal in unserem Freak Forum um!
Wieviele haben hier eine Graka die über 500€ kostet oder gekostet hat?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
Von 357 Teilnehmern haben nur 10 User eine Ultra und GX2! Immo die 2 teuersten Karten der letzten 2 Jahre!

Gast
2008-06-11, 09:58:25
Ich bin von 8800GTX OC SLI auf 8800ULTRA SLI gewechselt, noch fragen?

Hatte gestern übrigens gerade einen Kunde der sich nächste Woche 3x GTX 280 kauft inkl. 8x SDD 32GB und QX9770, jetzt hat er zwei 9800GX2....

Solche Karten werden tausendfach Verkauft! Es wurden übrigens mehr 8800ULTRA verkauft als 2900XT, sagt doch schon alles

Gast
2008-06-11, 10:00:36
bla bla bla ;D
bald hat ATi was in dem Preisbereich und dann wird man sehen, wer den kürzeren zieht! ;)
Kuck dich doch mal in unserem Freak Forum um!
Wieviele haben hier eine Graka die über 500€ kostet oder gekostet hat?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
Von 357 Teilnehmern haben nur 10 User eine Ultra und GX2! Immo die 2 teuersten Karten der letzten 2 Jahre!

ATi wird nichts im 500+€ Bereich haben, das bla bla kommt mal wieder von dir!
Wie ATi-verblendet kann man eigentlich sein?

Gast
2008-06-11, 10:00:38
bla bla bla ;D
bald hat ATi was in dem Preisbereich und dann wird man sehen, wer den kürzeren zieht! ;)
Kuck dich doch mal in unserem Freak Forum um!
Wieviele haben hier eine Graka die über 500€ kostet oder gekostet hat?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
Von 357 Teilnehmern haben nur 10 User eine Ultra und GX2! Immo die 2 teuersten Karten der letzten 2 Jahre!

Deine stats kannst in Müll haue. Das Forum deckt natürlich das ganze WWW ab oder was?

Anarchy-HWLUXX
2008-06-11, 10:01:17
bla bla bla ;D
bald hat ATi was in dem Preisbereich und dann wird man sehen, wer den kürzeren zieht! ;)
Kuck dich doch mal in unserem Freak Forum um!
Wieviele haben hier eine Graka die über 500€ kostet oder gekostet hat?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413405
Von 357 Teilnehmern haben nur 10 User eine Ultra und GX2! Immo die 2 teuersten Karten der letzten 2 Jahre!

Du ignorierst die leute die eine 8800GTX seit langem im Rechner haben ... SLI gespanne werden ebenfalls nicht berücksichtigt.

Und so ne Umfrage ist eh net repräsentativ - mach das mal bei HWLuxx und des sieht sicher anders aus ;)

Grestorn
2008-06-11, 10:01:25
Hatte gestern übrigens gerade einen Kunde der sich nächste Woche 3x GTX 280 kauft inkl. 8x SDD 32GB und QX9770, jetzt hat er zwei 9800GX2....

Darf ich fragen, wo Dein Laden ist? Ich wünschte es gäb hier nen Laden mit Enthusiast-Equipment und auch Kunden. Aber die Läden hier in München, die ich kenne, haben nur Mainstream-Zeugs und kriegen den High-End Kram bestenfalls verspätet und in kleinsten Mengen.

Schlammsau
2008-06-11, 10:04:51
Du ignorierst die leute die eine 8800GTX seit langem im Rechner haben ... SLI gespanne werden ebenfalls nicht berücksichtigt.

Und so ne Umfrage ist eh net repräsentativ - mach das mal bei HWLuxx und des sieht sicher anders aus ;)

Wir sind hier in einem Enthusiasten Forum! D.h. es eiern hier überdurschnittlich viele Freaks rum! Oder meinst du gerade hier bei uns kaufen sich die meisten nur Mainstream oder Performance Karten? Und es gibt auch Mainstream, Performance und CF Gespanne! ;)

Grestorn
2008-06-11, 10:07:10
Wir sind hier in einem Enthusiasten Forum! D.h. es eiern hier überdurschnittlich viele Freaks rum! Oder meinst du gerade hier bei uns kaufen sich die meisten nur Mainstream oder Performance Karten? Und es gibt auch Mainstream, Performance und CF Gespanne! ;)

Die meisten hier im Forum kaufen bessere Mainstream Karten und nicht High-End.

High-End hat für die meisten hier einfach ein zu schlechtes Preis/Leistungsverhältnis.

Gast
2008-06-11, 10:08:29
Die meisten hier im Forum kaufen bessere Mainstream Karten und nicht High-End.

High-End hat für die meisten hier einfach ein zu schlechtes Preis/Leistungsverhältnis.

So ist es...

Anarchy-HWLUXX
2008-06-11, 10:09:46
Wir sind hier in einem Enthusiasten Forum! D.h. es eiern hier überdurschnittlich viele Freaks rum! Oder meinst du gerade hier bei uns kaufen sich die meisten nur Mainstream oder Performance Karten? Und es gibt auch Mainstream, Performance und CF Gespanne! ;)
Nicht jedes HW Forum gehört automatisch zur Enthusiast Liga ... tombman hingegen gehört sicherlich dazu ;)

3D-Center is mehr ne Know-How ecke als High-End HW user Spielplatz

Odal
2008-06-11, 10:11:25
mnaja wer glaubt das sich ein grossteil der käufer auf 600€ karten stürzt hat sich aber auch geschnitten...

klar gibts solche leute..aber gemessen am gesamtmarkt ist deren zahl nichtig

ist ja auch klar denn jeder der mal nachdenkt kommt zu dem ergebniss das 600€ in eine grafikkarte zu investieren keine "gute" anlage ist....das ding ist nach ein paar monaten nur noch die hälfte wert (glaubt man den gerüchten das da noch was kommt) und wird dann wohl nicht die 3x leistung einer 200€ hardware bringen das man es rechtfertigen kann...

jetzt wird wieder kommen "ja man braucht die leistung" ja das liegt im auge des betrachters..und ja man wird selbst einen GT200 aus/überreizen können
ob das aber nun so den großen unterschied zu einer 200€ hardware macht steht auf ner ganz anderen seite...

und am marktverhalten kann man mit seinen extrawürsten auch nichts ändern....

seahawk
2008-06-11, 10:16:14
Ich kann mir auch nicht vorstellen, dass GT280 viele kunden findet. Gerade weil GT200b schon bald kommt.

XuXo
2008-06-11, 10:19:43
Die meisten hier im Forum kaufen bessere Mainstream Karten und nicht High-End.

High-End hat für die meisten hier einfach ein zu schlechtes Preis/Leistungsverhältnis.

aber hätten wir alle vor fast 2 jahren gleich die G80 GTX (am besten sogar sli) gekauft, hätten wir alle bis jetzt ruhe...und geld gespart.

deshalb ist es sehr interessant ob die G200 endlich einen sprung nach vorne macht oder nicht. vergleichsweise kann man die g92 wirklich vergessen.
ati/amd kann mit der 38er serie auch nicht ernst nehmen.

hoffentlich kann man dieses jahr auch spiele in max. einstellungen bei 2500x1900 zocken. bis jetzt ist das nicht immer ordentlich (!) machbar.
das wünsche ich mir - egal ob mit amd oder nvidia.

die g80 ist einfach ein rieeeesen schritt nach vorne gewesen.

gruss

Grestorn
2008-06-11, 10:21:44
Ich kaufe neue High-End Karten dann, wenn sie sich von der Vorgängergeneration deutlich absetzen oder günstig sind.

Also:
diverse 3dfx Voodoo Karten...
GeForce 3 (das erste Modell)
Radeon 9700
GF 6800 GTX
GF 7800 GT
GF 7950 GX2 (weil sie sooo günstig war)
GF 8800 GTX

und jetzt eben die GTX280.

Auf die Refreshes zu warten halte ich für reichlich sinnlos. Man wartet deutlich länger und bekommt ein paar Prozent bessere Leistung als die Vorgängerkarten. Da bin ich lieber früher dran und habe auch eine wirklich deutliche Verbesserung zu meiner alten Karte.

drmaniac
2008-06-11, 10:22:49
Ich kann mir auch nicht vorstellen, dass GT280 viele kunden findet. Gerade weil GT200b schon bald kommt.


wann? was kann die?

XuXo
2008-06-11, 10:28:30
Auf die Refreshes zu warten halte ich für reichlich sinnlos. Man wartet deutlich länger und bekommt ein paar Prozent bessere Leistung als die Vorgängerkarten. Da bin ich lieber früher dran und habe auch eine wirklich deutliche Verbesserung zu meiner alten Karte.

meine rede.

und daher können die 600 eur für eine 280 durchaus sinnvoll sein.
edit:
wobei ich sogar auf sli gehen würde. leider bleibt es dann mit sli wieder bei einem nvidia board....m.E. intel ist da einfach ein stück besser.
egal

Dadi
2008-06-11, 10:30:15
Sagt mal, hab den Termin grad nicht im Kopf. (Wenns geht auch Uhrzeit)
Wann kann man die Tests bei computerbase.de erwarten?

XuXo
2008-06-11, 10:31:32
hier:

http://img504.imageshack.us/img504/8210/4536243424ti3.jpg

wahrscheinlich nicht vorher

AnarchX
2008-06-11, 10:31:37
15 Uhr am 16.6.

Die Test aus China können wir dann wohl schon Sonntag Abend lesen. ;)

4711
2008-06-11, 10:32:37
Ja?
Seh ich noch nicht,vorallem nicht in den ersten Wochen,aber jeder wie er will.
Ich werde warten,da sind mir diesmal zu viel Ungereimtheiten X2 shared memory..!? 200b/GX2 in 55 mit GDDR5 usw usw....

Gast
2008-06-11, 10:34:31
Wenn es wenigstens mal glaubwürdig Crysis Benchmarks geben würde :(

Odal
2008-06-11, 10:39:08
meine rede.

und daher können die 600 eur für eine 280 durchaus sinnvoll sein.
edit:
wobei ich sogar auf sli gehen würde. leider bleibt es dann mit sli wieder bei einem nvidia board....m.E. intel ist da einfach ein stück besser.
egal

na das kann man so oder so sehen...ich sehe die 600€ nicht als sinnvoll....

bsp: selbst die 8800GTX welche ja als herausragendes beispiel für lange haltbarkeit gilt...kam ja ende 2006...da ist man mit einer x1900xt noch sehr gut gefahren die es damals für um die 150-200€ gab...nen jahr später hast du die 3870 für 180€ bekommen und seit ein paar monaten gibts ne 88GTS für 150€das sind unter 600€ reiner kaufpreis....zieht man nochmal den wiederverkaufserlös ab (bei der kurzen dauer die man die karten hat bekommt man da locker nochmal 300-350€ raus) hast du vielleicht 150-200€ in grafikkarten investiert...konntest dafür praktisch alles (ausser crysis) in normalen auflösungen flüssig spielen

bei der 88GTX konntest du die auflösung wärend dessen ne stufe höher stellen oder sonstwas..bekommst aber vielleicht noch 150-180€ für das ding und hast somit 400-450€ aus dem fenster gehauen

den meisten is es das nicht wert....und der GTX280 scheint die lebzeit schon im vorraus deutlich beschränkt zu sein....

wenn man natürlich das maximum will/braucht kommt man um eine GTX280 oder 4870X2 (falls das microruckelproblem gefixt wurde) nicht herum das ist klar..aber da ist man eine ausnahme

Godmode
2008-06-11, 10:43:49
15 Uhr am 16.6.

Die Test aus China können wir dann wohl schon Sonntag Abend lesen. ;)

Warum wird der Launch immer früher?

Anarchy-HWLUXX
2008-06-11, 10:46:41
Warum wird der Launch immer früher?
Fehler in der Matrix :ucatch:

PHuV
2008-06-11, 10:57:07
Darf ich fragen, wo Dein Laden ist? Ich wünschte es gäb hier nen Laden mit Enthusiast-Equipment und auch Kunden. Aber die Läden hier in München, die ich kenne, haben nur Mainstream-Zeugs und kriegen den High-End Kram bestenfalls verspätet und in kleinsten Mengen.

Finde ich auch. Ich muß in Berlin zwischen zig Läden hin und her eiern, um alle Komponenten zu bekommen, die ich brauche. Es gibt keinen Laden, der wirklich alle Teile auf Lager da hat. Und wenn ich daran denke, was man hier alles braucht

2-3 280GTX
großes Netzteil mit ca. 1000 W und 4 8polige Anschlüsse
DDR3-Speicher (und wer hat 2x2048 zu bezahlbaren Preisen auf Lager? ->KM)
Ein 790i-Mainboard
Eine Intel E8500 (Quadcore ist ja bis heute leider bei Spielen noch überflüssig), ein Q9770 ist in Berlin überhaupt nicht zu bekommen.
Und dann kann man sich gleich noch ein neues Gehäuse (fällt vom Preis kaum ins Gewicht) holen, aber hier muß man wieder aufpassen, man braucht mindestens 55-60 cm Tiefe Platz.
Das DVD-Laufwerk und eine Festplatte machen es dann auch nicht fett, und schon ist man ca 2000-2500 € los.

Ich habe es schon mal simuliert, ich bin (ohne die Grafikkarte), schon bei 4 unterschiedlichen Läden.

Das wäre doch eine Geschäftsidee, oder? ;) Leider macht man eher den Umsatz mit dem Mainstream.

Gast
2008-06-11, 11:11:09
So ein Rechner kostet 4000€.

Gast
2008-06-11, 11:23:25
An dieser Stelle möchte ich extrem gern wieder Konsole vs PC Diskussion lostreten. :D

XuXo
2008-06-11, 11:26:16
na das kann man so oder so sehen...ich sehe die 600€ nicht als sinnvoll....

bsp: selbst die 8800GTX welche ja als herausragendes beispiel für lange haltbarkeit gilt...kam ja ende 2006...da ist man mit einer x1900xt noch sehr gut gefahren die es damals für um die 150-200€ gab...nen jahr später hast du die 3870 für 180€ bekommen und seit ein paar monaten gibts ne 88GTS für 150€das sind unter 600€ reiner kaufpreis....zieht man nochmal den wiederverkaufserlös ab (bei der kurzen dauer die man die karten hat bekommt man da locker nochmal 300-350€ raus) hast du vielleicht 150-200€ in grafikkarten investiert...konntest dafür praktisch alles (ausser crysis) in normalen auflösungen flüssig spielen



deine zahlen sind m.E. schon sehr optimiert. weil z.b. zum start der g92 hast locker 300 eur bezahlt. und mit einer 1900xt hast du 2006 gerade so noch spielen können. ich hatte kurz danach die 1950xtx und war nicht wirklich happy bei einer auflösung von 1920x1200. investition 400 eur. dann die 350eur (dez 07) für eine g92gts + nochmal eine g92gts für 330 eur (feb 08).

PHuV
2008-06-11, 11:27:15
So ein Rechner kostet 4000€.

Beweis? Ich komme mit einem E8500, einem 1500W (!!) Netzteil, 2 280GTX (ca. 600 €/Stück), einem 790i Mainboard und 4 GB DDR-1600-Speicher auf ca. 2300 €.

hacky
2008-06-11, 11:27:22
Finde ich auch. Ich muß in Berlin zwischen zig Läden hin und her eiern, um alle Komponenten zu bekommen, die ich brauche. Es gibt keinen Laden, der wirklich alle Teile auf Lager da hat. Und wenn ich daran denke, was man hier alles braucht



Ich bin ganz begeistert von dem Cyberstore (Cyberport) hier in Berlin Mitte, den solltest Du Dir mal ansehen.
Die haben zwar auch nicht alles da aber wenn Du anrufst und zu Abholung im Shop bestellst kannst Du am nächsten Tag abholen !
Du bekommst die Sachen zur Abholung auch zum Onlinepreis bzw. zum Geizhalspreis !

Hab dort letztens zwei 8800GTX und dann ein BlueRay Laufwerk günstig gekauft. Beide male hat es keine 24 Stunden gedauert bis ich es abholen konnte !

Das funktioniert z.B. bei k&M gar nicht, da kannst Du tagelang warten und zahlst dann nicht den günstigen Geizhalspreis.

Gast
2008-06-11, 11:38:29
Darf ich fragen, wo Dein Laden ist? Ich wünschte es gäb hier nen Laden mit Enthusiast-Equipment und auch Kunden. Aber die Läden hier in München, die ich kenne, haben nur Mainstream-Zeugs und kriegen den High-End Kram bestenfalls verspätet und in kleinsten Mengen.

Nicht in Deutschland ;)

Gast
2008-06-11, 12:48:19
Nicht wirklich viel neues, aber noch einmal eine gute Zusammenfassung:

http://www.hardware-infos.com/news.php?news=2138

Snoopy1978
2008-06-11, 12:58:30
Darf ich fragen, wo Dein Laden ist? Ich wünschte es gäb hier nen Laden mit Enthusiast-Equipment und auch Kunden. Aber die Läden hier in München, die ich kenne, haben nur Mainstream-Zeugs und kriegen den High-End Kram bestenfalls verspätet und in kleinsten Mengen.

@Grestorn: Also der Laden wo ich einkaufe stellt sogar die HighEnd-Ware in Vitrinen aus,wahrscheinlich um die Kauftätigkeit anzuregen:biggrin: .
Wenn ich mir also die GTX260/280 in natura anschauen möchte könnte ich dorthin gehen.Heissen tut der Laden Planet-Elektronik und steht in Chemnitz/Sachsen,hoffentlich werde ich jetzt nicht wegen Schleichwerbung verwarnt.:eek: .

cR@b
2008-06-11, 13:48:00
So nen Poll wäre interessant, wieviele hier sich sofort nach release ne GTX 280 reinklatschen werden. Also eins sei gesagt...

ICH BRAUCH EINE SOFORT!!! :D :ugly:

Schlammsau
2008-06-11, 13:49:42
So nen Poll wäre interessant, wieviele hier sich sofort nach release ne GTX 280 reinklatschen werden. Also eins sei gesagt...

ICH BRAUCH EINE SOFORT!!! :D :ugly:

dann mach einen im Grafikchip Diskussionforum auf!

Gast
2008-06-11, 13:50:48
So nen Poll wäre interessant, wieviele hier sich sofort nach release ne GTX 280 reinklatschen werden. Also eins sei gesagt...

ICH BRAUCH EINE SOFORT!!! :D :ugly:
Dann mußte deinen 3.2er aber kräftig treten....

cR@b
2008-06-11, 13:54:13
Dann mußte deinen 3.2er aber kräftig treten....

Awa in hohen Auflösungen wäre eine CPU wohl überbewertet von daher...
Wie oft habe ich in der Vergangenheit gelesen/gehört das meine CPU der limitierende Faktor für meine Graka wäre und letztendlich musste ich mich durch die Praxis eines besseren belehren lassen was mein Geldbeutel aber nicht gerade lustig fand ;)

The_Invisible
2008-06-11, 13:56:47
Dann mußte deinen 3.2er aber kräftig treten....

wieso? 4x4 SSAA in full hd rein und die karte muckt nicht mehr auf :D

mfg

Snoopy69
2008-06-11, 13:57:56
Nicht jedes HW Forum gehört automatisch zur Enthusiast Liga ... tombman hingegen gehört sicherlich dazu ;)

3D-Center is mehr ne Know-How ecke als High-End HW user Spielplatz
Nicht mehr...
DonVito auch nicht.
HardwareLuxx - Your Guide to Luxurious Hardware

Ich weiss auch nicht, warum wegen 600€ rumgenörgelt wird. Die 8800 Ultra kostete 700€ (8800 GTX 600€) und ist bei weitem nicht so schnell wie die GTX280.
Man zahlt also immer "weniger" für mehr Leistung.

InsaneDruid
2008-06-11, 14:03:05
bsp: selbst die 8800GTX welche ja als herausragendes beispiel für lange haltbarkeit gilt...kam ja ende 2006...da ist man mit einer x1900xt noch sehr gut gefahren die es damals für um die 150-200€ gab...nen jahr später hast du die 3870 für 180€ bekommen und seit ein paar monaten gibts ne 88GTS für 150€das sind unter 600€ reiner kaufpreis....zieht man nochmal den wiederverkaufserlös ab (bei der kurzen dauer die man die karten hat bekommt man da locker nochmal 300-350€ raus) hast du vielleicht 150-200€ in grafikkarten investiert...konntest dafür praktisch alles (ausser crysis) in normalen auflösungen flüssig spielen

bei der 88GTX konntest du die auflösung wärend dessen ne stufe höher stellen oder sonstwas..bekommst aber vielleicht noch 150-180€ für das ding und hast somit 400-450€ aus dem fenster gehauen



Die 1950xtx kam so august 2006. Ich hab sofort eine gekauft für 399, da sie defekt war und zu dem Zeitpunkt keine neue lieferbar war holte ich ne 1900xt - die kam zu diesem zeitpunkt 299,-

Später auf ne 8800GTS gewechselt, für 100 Euro aufpreis. Der Speedbump war gewaltig - und das selbst mit der GTS. Nichts von wegen "Auflösung Stufe hoch". Die 1900 kotzte schon bei 1650*1080 4xFSAA/16xAF in GTL ab, wenn man noch Transparenz AA hinzuschaltete.

Die GTS schafft 1920*1200 mit Transparenz AA UND Supersampling bei immer noch leicht höheren FPS.

CMRDirt Demo - unspielbar in 1650. Die GTS schafft die Grid Demo in 1920 noch mit Transparenz AA.

Wer damals relativ früh ne 88GTX kaufte war deutlich schneller als der weg über 1900xt..3870..gts und wenn man von 550Euro kaufpreis ausging und 160 Wiederverkauf hat man nen Verlust von 400 Euro auf rund 19Monate.20 Euro im Monat.

Rechnen wir mal den Weg über die 1900. Die hat November 2006 keine 150 gekostet. Ne 1950GT stieg mitte 2007 bei ca 150 ein.

Ich würd da mit 220 rechnen für November 2006.
Die 3870 stieg mit 200 Euro ein im November 2007. Wiederverkaufswert ner 1900xt - unter 100.

um die 300 Euro verlust schon im N 2007

Teil 6: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6574422#post6574422