PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 5] - Übersicht in #1!


Seiten : 1 2 [3] 4

tombman
2008-06-09, 16:42:12
Ich weiß es nicht. Anhand der Specs würde ich max. 50-100% sagen. Glaubwürdige Quelle sprechen allerdings von > Faktor 2. Es dürfte also noch einige Effizienzsteigerungen gegeben haben.
Danke :up: :)

Coda
2008-06-09, 16:43:54
Mit einer Verdopplung der Rohleistung erreicht man in der Praxis nur 50% Mehrleistung.
Blödsinn. GPUs skalieren praktisch linear mit der "Rohleistung".

tombman
2008-06-09, 16:48:38
Blödsinn. GPUs skalieren praktisch linear mit der "Rohleistung".
Das weiß sogar ein noob wie ich :D

Gast
2008-06-09, 16:55:22
Die GTX280 ist für mich sowieso aus dem Rennen, da sie kein DX10.1 beherrscht.
Bei ATI bekomme ich 4! 4850er fürs gleiche Geld wie eine GTX280 und diese sind dann mehr als doppelt so schnell wie die GTX280, wobei ich mir doch lieber 2 4870er mit je 1GB RAM zulegen werde.

Slipknot79
2008-06-09, 17:00:24
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390





Sieht nach EINER 280 GXT vs 4850er CF aus.

Gast
2008-06-09, 17:01:26
so schlecht wie CF mit 3 oder 4 GPU Skaliert bestimmt nicht...
Zudem dürfte das System was die Leistung/Verbrauch betrifft recht schlecht dastehen...

crux2005
2008-06-09, 17:01:58
und das meint ein nV fanboy (OBR)

Gast
2008-06-09, 17:02:15
Man wird das P/L nicht eins zu eins messen können.
Einen Aufpreis ist die GTX280 mit Sicherheit auch bei gleicher Leistung wert, denn sie hat keine Skalierungsprobleme, keine Mikroruckler, keine Profilprobleme, kein .exe Renaming, Crossfire hat auch gerne mal Framedrops, häufig dauert es auch bis Multi-GPU mit neuen Spielen ordentlich skaliert (bis dahin haben einige Spiele schon Staub angesetzt), insbesondere Spiele die die Power brauchen, wie Crysis skalieren immer noch sehr bescheiden, u.s.w., dafür wären viele bereit etwas mehr zu zahlen, nur muss das im Rahmen bleiben.

Gast
2008-06-09, 17:06:51
Sieht nach EINER 280 GXT vs 4850er CF aus.

2 x 4850 CF kosten aber nur halb so viel wie eine GTX280!
Wenn noch das Mikrorucklerproblem gelöst wurde, dann gute Nacht Nvidia!

Gast
2008-06-09, 17:07:54
naja, er sagt die Leistung der GTX 280 in Crysis stimmen (3x 8800Ultra) und behauptet aber gleich das zwei 4850 CF schneller sind, recht unglaubwürdig finde ich!

Da müsste eine 4850 locker 3-4 mal schneller sein als eine 3870, wer glaub den das bitte wirklich ernsthaft?

Gast
2008-06-09, 17:09:31
bei einem Preis von 150.- Euro bestimmt ;)

Gast
2008-06-09, 17:10:57
naja, er sagt die Leistung der GTX 280 in Crysis stimmen (3x 8800Ultra) und behauptet aber gleich das zwei 4850 CF schneller sind, recht unglaubwürdig finde ich!

Da müsste eine 4850 locker 3-4 mal schneller sein als eine 3870, wer glaub den das bitte wirklich ernsthaft?

Bei entsprechenden Quality-Settings durchaus drin, genau wie bei GTX280 vs. 9800GTX.

Gast
2008-06-09, 17:14:10
naja, er sagt die Leistung der GTX 280 in Crysis stimmen (3x 8800Ultra) und behauptet aber gleich das zwei 4850 CF schneller sind, recht unglaubwürdig finde ich!

Da müsste eine 4850 locker 3-4 mal schneller sein als eine 3870, wer glaub den das bitte wirklich ernsthaft?

Von 3xUltra schreibt er nichts, er sagt nur das der Benchmark der von der GTX280 im Crysis FlyBy (36,X AverageFPS) sich mit seinen Erfahrungen von der GTX280 deckt, deshalb hät er ihn für echt.

Eine 8800Ultra hat laut CB auf 1920x1200 DX10 Very High 1xAA/1xAF 15,9FPS, das noch mit älteren Treibern und Patch 1.1, also kann man von dreifacher Ultra Leistung nicht sprechen, 100-120% würde schon passen, was ja auch ganz ordentlich ist, wenn auch nicht ausreichend um es in den Settings durchweg flüssig zu spielen.

Gast
2008-06-09, 17:15:26
Ein 3-Way SLI System hat so viel, 3x ULTRA bedeuten nicht 300% mehr...

Gast
2008-06-09, 17:16:12
habe etwas gefunde:

http://img507.imageshack.us/img507/9794/848479bf1.png

Gast
2008-06-09, 17:27:45
Bei entsprechenden Quality-Settings durchaus drin, genau wie bei GTX280 vs. 9800GTX.

Bestimmt, besonders wenn ATi selber von 30% mehr bei der 4870 im vergleich zur 9800GTX ausgeht, die 4850 ist laut den ATI Unterlagen so schnell wie eine 9800GTX...

Gast
2008-06-09, 17:31:10
naja, er sagt die Leistung der GTX 280 in Crysis stimmen (3x 8800Ultra) und behauptet aber gleich das zwei 4850 CF schneller sind, recht unglaubwürdig finde ich!

Da müsste eine 4850 locker 3-4 mal schneller sein als eine 3870, wer glaub den das bitte wirklich ernsthaft?


Fragen wir mall die Experten was der 3870 fehlt bei Crysis?

Vielleicht ja viele Tmus die die 3850 ja jetzt hat.

Ich tippe mall das sich die 4870 bei Crysis um 137 % von der 3870 absetzten kann.;)

Gast
2008-06-09, 17:31:24
Bei entsprechenden Quality-Settings durchaus drin, genau wie bei GTX280 vs. 9800GTX.

ich gehe davon aus, dass es mit entsprechenden settings noch wesentlich mehr werden kann. das problem mit 8xMSAA sollte wohl behoben sein, da ist locker der 5x-fache speed drinnen, wenn der speicher ausgeht noch mehr.

reunion
2008-06-09, 17:41:05
Mal etwas 3DC exklusives:

...

Eben weit mehr als zugefügte Einheiten. ;)

So viele Verbesserungen sehe ich da auch nicht. Es wird auch nur von einer Leistungssteigerung von durchschnittlich 50% im Vergleich zur letzten Generation gesprochen. Ein paar zusätzliche Register, Threads, und andere kleinere Verbesserungen. Alles andere sind entweder Defizite ggü. der Konkurrenz, die schon lange ausgemerzt gehören (GS, DP, 10-bit Color), bzw. noch immer nicht ausgemerzt sind (D3D10.1-Support), oder einfach nur bekannte technische Specs (512-bit SI, 240 ALUs).

Gast
2008-06-09, 17:46:33
Mal etwas 3DC exklusives:
...
Eben weit mehr als zugefügte Einheiten. ;)

wieso schreiben die teraflop performance?
sind doch nur 933 gflop. scheint ja nur ne werbefolie zu sein...

harry

tombman
2008-06-09, 17:50:59
Es wird auch nur von einer Leistungssteigerung von durchschnittlich 50% im Vergleich zur letzten Generation gesprochen..
Wo bitte? Ich sehe da nur 1.88 und 2.5 als Faktoren ;)

Gast
2008-06-09, 17:51:19
wieso schreiben die teraflop performance?
sind doch nur 933 gflop. scheint ja nur ne werbefolie zu sein...



vielleicht gibt es bis zum launch doch ein paar MHz mehr um über die TFlop-marke zu springen, sollte eigentlich kein wirkliches problem sein.

GeneralHanno
2008-06-09, 17:51:37
da steht was von 2,5 fache threadanzahl: der sprung von 8 cluster auf 10 cluster bedeutet faktor 1,25. kann dann ein cluster doppelt so viele threads bearbeiten? würde auch zu den verdoppelten registern passen ...

wenn man einige daten vergleich, wie z.b. 24->32ROPs, 64->80TMUs, 756->1024MiB, 8->10cluster, dann verwundert der "geringe" performenceanstieg von 1,5 im mittel nicht. die aritmetikleistung steigt aber signifikant. nun stellt sich für mich die frage, ob es hierdurch "physikbeschleunigung 4 free" gibt ;)

Gast
2008-06-09, 17:51:58
In extremen Settings sicher bis zu 3x schneller siehe Crysis.

Gast
2008-06-09, 17:52:28
Mal etwas 3DC exklusives:

http://img396.imageshack.us/img396/4005/revguide5iz5.png



wen interessiert da facial-expressions, ich will physikalisch korrekt animierte titten :D

reunion
2008-06-09, 17:53:40
Wo bitte? Ich sehe da nur 1.88 und 2.5 als Faktoren ;)

Ließ den Text. Zweite Seite, erster Absatz.

Schlammsau
2008-06-09, 17:55:37
Wo bitte? Ich sehe da nur 1.88 und 2.5 als Faktoren ;)
Blind?;D

http://www.abload.de/img/technical19vk7opz.png

Gast
2008-06-09, 17:55:56
"Numerous extensions and functional enhancements to the architecture permit a performance increase averaging 1,5x the prior architecture."

Kann mir mal einer sagen was Nvidia damit meint, meinen sie jetzt 50% Performance Increase, oder 150% Performance Increase.

Letzteres würde meine Erwatungen übertreffen, Ersteres wäre eine Entäuschung.

AnarchX
2008-06-09, 17:56:21
Wobei da doch eher über die Architektur an sich gesprochen wird. ;)

Gast
2008-06-09, 17:56:53
150% natürlich ;) Aber das ist noch untertrieben vor allem in Crysis

tombman
2008-06-09, 17:57:07
Ließ den Text. Zweite Seite, erster Absatz.
Das muß nicht "fps" heißen. Heißt ja nur "architektur", wahrscheinlich ist da eher die Effizienz gemeint. Das ganze PLUS die neue Breite und schon hast fette power weit über 1.5x.

dildo4u
2008-06-09, 17:57:35
Wobei da doch eher über die Architektur an sich gesprochen wird. ;)
Jup es geht nicht um bestimmte Karten.Imo immer noch 128 vs 240 Plus 50% pro SP je nach Game 2 oder 2.5 Performance siehe Vantage und Crysis Werte.

Schlammsau
2008-06-09, 17:57:58
"Numerous extensions and functional enhancements to the architecture permit a performance increase averaging 1,5x the prior architecture."

Kann mir mal einer sagen was Nvidia damit meint, meinen sie jetzt 50% Performance Increase, oder 150% Performance Increase.

Letzteres würde meine Erwatungen übertreffen, Ersteres wäre eine Entäuschung.

Sie meinen durchschnittlich 1,5 fache Leistung der Vorgängergeneration!

tombman
2008-06-09, 17:59:33
Sie meinen durchschnittlich 1,5 fache Leistung der Vorgängergeneration!
Mit nur Faktor 1.5x ist aber Faktor 2.7x* bei Crysis unmöglich- ebenso wie X4800* bei vantage.
*Diese beiden Werte wurden mehrfach bestätigt :rolleyes:

deekey777
2008-06-09, 17:59:53
2,5x Threads bedeutet IMO, dass es eine Steigerung bei der zeitglich zu verarbeitenden Threads gibt. Beim G80 sind es um 4.000, wenn mich nicht alles täuscht.

Grestorn
2008-06-09, 18:00:10
Man kann den Satz auch als eine Steigerung um 150% interpretieren. Wäre dann aber schon saudumm formuliert.

Gast
2008-06-09, 18:00:27
Naja ich will wissen, wie sie es interpretieren.
Das dort steht 1,5x, sehe ich auch.
Heisst es jetzt alte Architektur = Faktor 1 und sie haben 0,5 mehr Performance, was 50% entprechen würde.

Oder meinen sie 150% damit.

tombman
2008-06-09, 18:01:11
Außerdem reden sie von der ARCHITEKTUR, NICHT von der GESAMTLEISTUNG!

Gleich der nächste Satz!

NEUE ARCHITEKTUR (+50%) PLUS MEHR PROCESSING POWER (zb 240sp) = GESAMTLEISTUNG ;)

reunion
2008-06-09, 18:01:32
"Numerous extensions and functional enhancements to the architecture permit a performance increase averaging 1,5x the prior architecture."

Kann mir mal einer sagen was Nvidia damit meint, meinen sie jetzt 50% Performance Increase, oder 150% Performance Increase.

Letzteres würde meine Erwatungen übertreffen, Ersteres wäre eine Entäuschung.

Es steht eindeutig "1.5x", also Faktor 1.5 -> 50% mehr.

Wobei da doch eher über die Architektur an sich gesprochen wird. ;)

Möglich. Sehr undurchsichtig geschrieben das Ganze, völlig unüblich für eine Marketingfolie. Alles andere wäre aber in der Tat kaum zu rechtfertigen.

crux2005
2008-06-09, 18:04:23
2,5x Threads bedeutet IMO, dass es eine Steigerung bei der zeitglich zu verarbeitenden Threads gibt. Beim G80 sind es um 4.000, wenn mich nicht alles täuscht.

nV rechnet insgesammt bei G80/G92: 12288 threads

Moralelastix
2008-06-09, 18:07:57
Wenn das stimmt dann hat NV wohl einen R600 entwickelt.

Vielleicht hat NV zu gunsten von GPGPU Gedöhns die eigentliche Spiele Performance vernachlässigt.

tombman
2008-06-09, 18:11:05
MAN BEACHTE DAS WORT "COMBINED" ;)

http://img156.imageshack.us/img156/1454/hhhhhhhhhhhhhhov3.jpg (http://imageshack.us)

Die +50% beziehen sich auf die Architektur, NICHT auf die Gesamtleistung ;)

Fazit: +50% schnellere Architektur + mehr von allem (sp, rop, tex) = speeeeeed ;)

Gast
2008-06-09, 18:13:45
Blind?;D

http://www.abload.de/img/technical19vk7opz.png

das meint 50% mehr effizienz, multiplizier das mit der gesteigerten rohleistung und du hast die effektive leistungssteigerung.

Nakai
2008-06-09, 18:13:58
Wenns auf die Texelleistung geht, dann wirds wohl um die 80% Mehrleistung sein.
Ansonsten sinds bestimmt 100 bis 120% im Schnitt.

Wenn NV aber tatsächlich die Erwartungen nicht erfüllt...:P



mfg Nakai

Coda
2008-06-09, 18:17:25
Das muß nicht "fps" heißen. Heißt ja nur "architektur", wahrscheinlich ist da eher die Effizienz gemeint. Das ganze PLUS die neue Breite und schon hast fette power weit über 1.5x.
Mit "1,5x Performance Increase" ist natürlich relativ zur gleichen Einheitenanzahl eines G8x gemeint.

240/128*1,5 = 2,815x Processing Power. Das halte ich durchaus für realistisch. Vor allem wenn sie die Register-File-Size verdoppelt haben. Das limitiert einen bei CUDA auch sehr oft.

tombman
2008-06-09, 18:17:29
das meint 50% mehr effizienz, multiplizier das mit der gesteigerten rohleistung und du hast die effektive leistungssteigerung.
Yepp, noch einer hats verstanden :up:

Mit "1,5x Performance Increase" ist natürlich relativ zur gleichen Einheitenanzahl eines G8x gemeint.

240/128*1,5 = 2,815x Processing Power. Das halte ich durchaus für realistisch.
So siehts aus :D

Ist ja auch logisch, denn die haben die cores ja nicht 2 Jahre unangetastet gelassen ;)

Gast
2008-06-09, 18:22:05
also doch eine steigerung der effizient von 50% im Vergleich zu G80/G92 und dazu die ganzen erweiterungen, das ding wird rocken!

Gast
2008-06-09, 18:23:45
Mit "1,5x Performance Increase" ist natürlich relativ zur gleichen Einheitenanzahl eines G8x gemeint.

240/128*1,5 = 2,815x Processing Power. Das halte ich durchaus für realistisch. Vor allem wenn sie die Register-File-Size verdoppelt haben. Das limitiert einen bei CUDA auch sehr oft.


Also wenn man schon so rechnet möchte ich aber den unterschiedlichen Takt zum G92 auch berücksichtigt haben...

AnarchX
2008-06-09, 18:24:05
Die 1.5x bezieht offenbar doch auf die Avg-Leistung und das im Bezug auf Single-GF8/GF9:

"GTX 280 board will deliver 1.5x performance improvement on average over high-end GF8 and GF9 single-GPU boards."

Passt nur nicht ganz zur eigenen Performance-Folie. ;D

Coda
2008-06-09, 18:25:14
Also wenn man schon so rechnet möchte ich aber den unterschiedlichen Takt zum G92 auch berücksichtigt haben...
Ist korrekt. Dann wäre es noch etwas mehr.

Das ganze schlägt natürlich aber auch nicht direkt bei Spielen durch.

reunion
2008-06-09, 18:26:15
Ist korrekt. Dann wäre es noch etwas mehr.

Das ganze schlägt natürlich aber auch nicht direkt bei Spielen durch.

Es wäre deutlich weniger, GT200 hat nur 1.296Ghz ALU-Takt. Von den anderen Einheiten, die weit weniger stark skaliert wurden mal ganz zu schweigen.

Moralelastix
2008-06-09, 18:26:45
Mit "1,5x Performance Increase" ist natürlich relativ zur gleichen Einheitenanzahl eines G8x gemeint.

240/128*1,5 = 2,815x Processing Power. Das halte ich durchaus für realistisch. Vor allem wenn sie die Register-File-Size verdoppelt haben. Das limitiert einen bei CUDA auch sehr oft.


2,8 hört sich schon weit besser an.
Unter 2 könnten sie das Ding gleich behalten.

Gast
2008-06-09, 18:28:31
Unter 2 könnten sie das Ding gleich behalten.

es muss über 2 sein, nvidia ist doch nicht so dämlich mit doppelt so vielen transistoren weniger als die doppelte leistung zu holen.

Moralelastix
2008-06-09, 18:33:30
Wollen wir hoffen das die 2,8 auch in Crysis ankommt und nicht nur in irgend so einer GPGPU Dinges Software.

Eingentlich hatte ich auf noch mehr als 3 gehofft.
Wie viel schneller ist eine GX2 Quad SLI Lösung im Vergleich dazu?

reunion
2008-06-09, 18:36:10
"GTX 280 board will deliver 1.5x performance improvement on average over high-end GF8 and GF9 single-GPU boards."


Da stellt sich dann schon die Frage für was man dann die doppelte Transistorenanzahl benötigt. Aber DP, Verbesserungen am Tri-Setup (1Tri/clock), höhere GS-Leistung, 10-bit pro Farbkanal, und die 32 ROPs mit dem 512-bit SI werden wohl nicht ganz billig sein. Trotzdem kaum vorstellbar dass da nicht mehr drin sein soll.

tombman
2008-06-09, 18:38:05
Da stellt sich dann schon die Frage für was man dann die doppelte Transistorenanzahl benötigt. Aber DP, Verbesserungen am Tri-Setup (1Tri/clock), höhere GS-Leistung, 10-bit pro Farbkanal, und die 32 ROPs mit dem 512-bit SI werden wohl nicht ganz billig sein. Trotzdem kaum vorstellbar dass da nicht mehr drin sein soll.
Da hat wohl wer genauso falsch interpretiert/abgeschrieben wie viele hier auch zu Anfangs...
1.5x Gesamtp. ist lächerlich bei 2 Jahren Abstand und der die size...

Raff
2008-06-09, 18:56:54
150% natürlich ;) Aber das ist noch untertrieben vor allem in Crysis

Jetzt hört doch mal mit dem Blödsinn auf. Crysis besteht nicht nur aus Arithmetik. Ich sehe da keine Verdreifachung. Aber wir werden's ja sehen.

MfG,
Raff

pest
2008-06-09, 18:58:43
Wie viel schneller ist eine GX2 Quad SLI Lösung im Vergleich dazu?

schafft im Crysis GPU-Bench 1900x1200 VH @ 50 fps

robbitop
2008-06-09, 19:04:23
Nunja die Granularität der ALUs wird schlechter. Z-Leistung, Texleistung und Bandbreite steigen jetzt nicht so doll. Die Taktraten sind sehr konservativ (waren ja mal höher geplant).
Anhand der nun ziemlich sicheren Daten wüßte ich jetzt nicht, wo dort ein Monster herauskommen soll.
Wenn ich jetzt den Takt in die Rechnung mit einbeziehe (vs 9800GTX / 8800 Ultra) erhalte ich folgende Skalierung (GT200 / G92 und GT200 / G80):
http://img185.imageshack.us/img185/6434/gt200skalierungcy4.png

Und jetzt mal bei der Gewichtung betrachten, dass die Granularität schlechter wird und MUL vieleicht nicht so häufig gebraucht wird und ab und an noch für SFU blockiert ist. Das dürfte die Skalierung noch weiter verschlechtern. Ich würde den MAD+MUL Wert jedenfalls nicht als reinen Vergleich nehmen für die Skalierung.

Achtung: Wenn die Bandbreite (wie letztens in einem Skalierungstest mit G92 gezeigt) nicht so wichtig ist, bricht die Skalierung ggü der G92 auch auf ~1,5 - 1,6 ein.

Ich sehe nicht, wie aus GT200 bei derzeitigen Taktraten ein "Monster" werden soll. Vieleicht schafft GT200b mit GDDR5 und höheren Taktraten das. Diese Taktraten sind jedenfalls sehr konservativ.
Wenn der GT200b ordentliche Taktraten + GDDR5 hat (ich nehme 750 MHz Chiptakt, 2000 MHz Shadertakt und 1600 MHz Speichertakt an), ergeben sich die gewünschten Faktoren von 2 - 2,5.

GeneralHanno
2008-06-09, 19:05:41
schaut mal was HMI daraus macht ;)

http://www.hardware-infos.com/news.php?news=2135

Schlammsau
2008-06-09, 19:11:35
...................
Ich sehe nicht, wie aus GT200 bei derzeitigen Taktraten ein "Monster" werden soll. Vieleicht schafft GT200b mit GDDR5 und höheren Taktraten das. Diese Taktraten sind jedenfalls sehr konservativ.
Schluss jetzt....die 280GTX wird 2,7x schneller sein als sein Vorgänger!
Verbrennt die Skeptiker!!!!!!!!!!! ;D

Godmode
2008-06-09, 19:12:51
Ich sehe nicht, wie aus GT200 bei derzeitigen Taktraten ein "Monster" werden soll. Vieleicht schafft GT200b mit GDDR5 und höheren Taktraten das. Diese Taktraten sind jedenfalls sehr konservativ.

Von den Zahlen her sehe ich auch kein Monster, aber Ail hat oft angedeutet, dass es ein Monster wird und das aber aus den Zahlen nicht wirklich rauskommt.

Ich hoffe mal das beste!

crux2005
2008-06-09, 19:13:33
schaut mal was HMI daraus macht ;)

http://www.hardware-infos.com/news.php?news=2135

18432 threads @ G200 ist auf jeden fall falsch
sollen sie doch selber drauf kommen :P

es ist vieeeel mehr ...

tombman
2008-06-09, 19:13:36
@robbi.

Wenn man die selbe Rechnung mit ner GX2 macht, ist die ja wohl schneller als eine GTX280.

Was aber 100% nicht so ist, die GTX280 ist schneller ;)

reunion
2008-06-09, 19:14:36
Nunja die Granularität der ALUs wird schlechter. Z-Leistung, Texleistung und Bandbreite steigen jetzt nicht so doll. Die Taktraten sind sehr konservativ (waren ja mal höher geplant).
Anhand der nun ziemlich sicheren Daten wüßte ich jetzt nicht, wo dort ein Monster herauskommen soll.
Wenn ich jetzt den Takt in die Rechnung mit einbeziehe (vs 9800GTX / 8800 Ultra) erhalte ich folgende Skalierung (GT200 / G92 und GT200 / G80):
http://img185.imageshack.us/img185/6434/gt200skalierungcy4.png

Und jetzt mal bei der Gewichtung betrachten, dass die Granularität schlechter wird und MUL vieleicht nicht so häufig gebraucht wird und ab und an noch für SFU blockiert ist. Das dürfte die Skalierung noch weiter verschlechtern.

Ich sehe nicht, wie aus GT200 bei derzeitigen Taktraten ein "Monster" werden soll. Vieleicht schafft GT200b mit GDDR5 und höheren Taktraten das. Diese Taktraten sind jedenfalls sehr konservativ.

Naja, es gibt eben doch eine gewisse Diskrepanz zwischen den hinzugefügten Einheiten und der benötigten Transistorenanzahl. Wofür 1.4Mrd Transistoren? Für die paar mehr Einheiten und die nicht gerade gigantischen anderen bis heute bekannten Verbesserungen? Kaum vorstellbar IMHO. Das sind immerhin mehr als doppelt so viel wie bei einem G80 und eine Verdoppelung der Einheiten kostet in der Regel deutlich weniger als doppelt so viele Transistoren.

Gast
2008-06-09, 19:17:26
Jetzt hört doch mal mit dem Blödsinn auf. Crysis besteht nicht nur aus Arithmetik. Ich sehe da keine Verdreifachung. Aber wir werden's ja sehen.


Bis zu 3x so schnell vor allem in hohen Auflösungen oder Qualitätssettings sollten schon drin sein. NV hatte genug Zeit zu optimieren und die wissen der Bedeutung dieses Game (siehe Folien ;) )

mrt
2008-06-09, 19:19:05
Ich sehe nicht, wie aus GT200 bei derzeitigen Taktraten ein "Monster" werden soll. Vieleicht schafft GT200b mit GDDR5 und höheren Taktraten das. Diese Taktraten sind jedenfalls sehr konservativ.
Seh ich genauso, allerdings wird sich G200 in den Szenarien wo G80/92 ziemlich einbrechen wohl dies nicht tun. Stichwort Speicher/Bandbreitenlimit sowie 8xMSAA aber auch beim Trisetup wird sich was getan haben. Das könnte in den entsprechenden Settings und Spielen durchaus in doppelter oder mehr Leistung als G80 resultieren.

Raff
2008-06-09, 19:20:13
Bis zu 3x so schnell vor allem in hohen Auflösungen oder Qualitätssettings sollten schon drin sein. NV hatte genug Zeit zu optimieren und die wissen der Bedeutung dieses Game (siehe Folien ;) )

Eben nicht. Sobald die "Qualitätssettings", was ja nur AA und AF sein kann, aktiv sind, schrumpft der Abstand zum G80. Das einzige, was laut aktuellen Kenntnisstand die letzte Generation wegkeult, ist die Shaderleistung. Ergo: In 2.560x1.600 ohne FSAA/AF knallt der GT200 seinen Vorgänger am deutlichsten weg. Oh, oder natürlich mit reinem Supersampling, was auf dasselbe hinausläuft. Ist natürlich Spekulation.

MfG,
Raff

Gast
2008-06-09, 19:20:36
schaut mal was HMI daraus macht ;)

http://www.hardware-infos.com/news.php?news=2135

Durchschnittlich 50% mehr Leistung zur GTX/Ultra und sonst nur ein Aufschließen zur Konkurrenz. Klingt mau. Warum gibt es noch so wenig Infos zur HD4800 Serie? Brauche endlich einen vernünftigen Vergleich. Mir kribbelt es in den Fingern.

robbitop
2008-06-09, 19:26:20
@robbi.

Wenn man die selbe Rechnung mit ner GX2 macht, ist die ja wohl schneller als eine GTX280.

Was aber 100% nicht so ist, die GTX280 ist schneller ;)
Die GX2 nutzt ja auch AFR. Und wir wissen ja alle, wie gut AFR skaliert. ;)

Von den Zahlen her sehe ich auch kein Monster, aber Ail hat oft angedeutet, dass es ein Monster wird und das aber aus den Zahlen nicht wirklich rauskommt.

Ich hoffe mal das beste!
Von den Zahlen ist es ja auch ein Monster. Aber der Takt fehlt halt. Mit anständigen Taktraten würde er alles vorher dagewesen in den Boden stampfen.
Bloß bei uns rechnen ja im Forum alle nur noch per cycle und klammern den Takt aus.

Naja, es gibt eben doch eine gewisse Diskrepanz zwischen den hinzugefügten Einheiten und der benötigten Transistorenanzahl. Wofür 1.4Mrd Transistoren? Für die paar mehr Einheiten und die nicht gerade gigantischen anderen bis heute bekannten Verbesserungen? Kaum vorstellbar IMHO. Das sind immerhin mehr als doppelt so viel wie bei einem G80 und eine Verdoppelung der Einheiten kostet in der Regel deutlich weniger als doppelt so viele Transistoren.

Ich bin kein Chipdesigner. Vieleicht brauchte man für dieses Monster ein sonderbares Routing und massiv Massetransistoren und evtl mehr Cache? Vieleicht sind aber auch schon Full-Precision-ALUs drin. Das würde extrem kosten.

Wie sicher sind die 1,4 Mrd denn?

reunion
2008-06-09, 19:29:46
Wie sicher sind die 1,4 Mrd denn?

Ganz sicher.

Nakai
2008-06-09, 19:30:40
Durchschnittlich 50% mehr Leistung zur GTX/Ultra und sonst nur ein Aufschließen zur Konkurrenz. Klingt mau. Warum gibt es noch so wenig Infos zur HD4800 Serie? Brauche endlich einen vernünftigen Vergleich. Mir kribbelt es in den Fingern.

Von den theoretischen Daten haut eine HD4870 schon eine GTX 280 weg.

Ich wüsste nicht, welche Effizienzsteigerungen beim GT200 eingeflossen sind.
Die G80-Shader sind doch schon sehr effizient. Den MUL nun für das Shading komplett zugänglich zu machen, bringt auch nicht immer eine Performancesteigerung.
Die Texelleistung sollte ja genug sein, die Shaderleistung wurde wohl für Cuda deutlich angehoben...naja abwarten.
Möglich wäre ja, dass Ail nur NVs-Pläne zum GT200 mitbekommen haben.
Bei den angepeilten Taktrateb wäre der GT200 vll sogar ein Monster geworden.


mfg Nakai

Gast
2008-06-09, 19:37:14
Was ist das denn hier: http://www.hartware.de/news_44980.html ?

Getestet wurde mit einem Intel QX9650 @ 3 GHz, 2 GByte DDR3-Arbeitsspeicher unter Windows Vista SP1

3D Mark 06 1280x1024 Pixel:
HD 3870 X2: 15.808
GTX 280: 14.697
GTX 260: 14.378
8800 Ultra: 13.697

3D Mark 06 1600x1200 4xAA und 16xAF:
HD 3870 X2: 13.220
GTX 280: 12.483
GTX 260: 11.091
8800 Ultra: 9.576

3D Mark 06 2560x1600 4xAA und 16xAF:
GTX 280: 9.370
HD 3870 X2: 9.184
GTX 260: 8.062

robbitop
2008-06-09, 19:38:16
Von den theoretischen Daten haut eine HD4870 schon eine GTX 280 weg.
Von der theoretischen MAD-Leistung ja. Aber die ist ja selten der reine Flaschenhals. Außerdem arbeiten die NV-ALUs effizienter.
Z-Leistung, Tex-Fill, Bandbreite hingegen hinken zurück. Mit hohen Taktraten kann man ein bisschen Boden gutmachen. Ich vermute, dass die 4870, sofern die jetzigen Daten stimmen, knapp an die GTX 260 rankommen könnte.

Ich wüsste nicht, welche Effizienzsteigerungen beim GT200 eingeflossen sind.
Die G80-Shader sind doch schon sehr effizient. Den MUL nun für das Shading komplett zugänglich zu machen, bringt auch nicht immer eine Performancesteigerung.
Ein bisschen vieleicht. G80 konnte ja auch schon ein bisschen MUL beisteuern. Auch die GT200 MUL ALU wird noch nebenher SFU berechnen müssen und nicht immer braucht's ein extra MUL.

AnarchX
2008-06-09, 19:39:56
Angepeilt waren offenbar mal 650MHz, jedenfalls rechnet man in einem Diagramm kurz damit. X-D

Effizienz ist das Stichwort für GeForce 200. ;)

Schlammsau
2008-06-09, 19:41:53
Ich seh Tombman schon mit ner ATi ;D

reunion
2008-06-09, 19:42:02
Enttäuschend finde ich vorallem den ALU-Takt. Das die GTX280 mit 1.296Ghz nichtmal die Taktrate einer 8800GTX erreicht ist schon etwas seltsam. Aber vielleicht muss man hier auch zugunsten der TDP auf mehr verzichten.

GeneralHanno
2008-06-09, 19:43:29
Angepeilt waren offenbar mal 650MHz, jedenfalls rechnet man in einem Diagramm kurz damit. X-D

Effizienz ist das Stichwort für GeForce 200. ;)

und ein shaderakt, um 1TFLOP voll zu kriegen ;)

naja effizienz oder brute-force, da sind die aussagen etwas gegensätzlich ...

Odal
2008-06-09, 19:43:44
Ich seh Tombman schon mit ner ATi ;D

ich nicht der kauft sich trotzdem ne nvidia karte egal wie schlecht die is :D
das hört man schon bei den ganzen laola wellen heraus sobald was vermeintlich positives über den GTX280 spekuliert wird

Gast
2008-06-09, 19:44:04
Was ist das denn hier: http://www.hartware.de/news_44980.html ?

Getestet wurde mit einem Intel QX9650 @ 3 GHz, 2 GByte DDR3-Arbeitsspeicher unter Windows Vista SP1

3D Mark 06 1280x1024 Pixel:
HD 3870 X2: 15.808
GTX 280: 14.697
GTX 260: 14.378
8800 Ultra: 13.697

3D Mark 06 1600x1200 4xAA und 16xAF:
HD 3870 X2: 13.220
GTX 280: 12.483
GTX 260: 11.091
8800 Ultra: 9.576

3D Mark 06 2560x1600 4xAA und 16xAF:
GTX 280: 9.370
HD 3870 X2: 9.184
GTX 260: 8.062

Bis 1600x1200 4xAA und 16xAF sehe ich ein CPU-Limit. Aber 2560x1600 4xAA und 16xAF ist schon seltsam. Alter Treiber? Fake?

Raff
2008-06-09, 19:45:18
ich nicht der kauft sich trotzdem ne nvidia karte egal wie schlecht die is :D

Tombman ist laut eigenen Aussagen eine "Speed-Hure" (O-Ton tombi). Das bedeutet "Ich bin untreu und kaufe immer das schnellste". Recht so.

MfG,
Raff

Odal
2008-06-09, 19:45:57
Bis 1600x1200 4xAA und 16xAF sehe ich ein CPU-Limit. Aber 2560x1600 4xAA und 16xAF ist schon seltsam. Alter Treiber? Fake?


nö ich würde sagen das was man realistisch erwarten kann GX2 niveau mit nem single chip

Tombman ist laut eigenen Aussagen eine "Speed-Hure" (O-Ton tombi). Das bedeutet "Ich bin untreu und kaufe immer das schnellste". Recht so.

MfG,
Raff

ja ich kenne die aussagen..nur setzt er sie nicht um...sobald nvidia draufsteht is das immer besser :D

deekey777
2008-06-09, 19:46:27
Enttäuschend finde ich vorallem den ALU-Takt. Das die GTX280 mit 1.296Ghz nichtmal die Taktrate einer 8800GTX erreicht ist schon etwas seltsam. Aber vielleicht muss man hier auch zugunsten der TDP auf mehr verzichten.
Bis 300 sind noch ein paar Zahlen, mich würde es nicht wundern, wenn wir noch eine sauteure 290 PE sehen werden.
Andererseits darf man nicht den "Öko-Trip" vergessen, wo ein zu hoher Verbrauch schon angekreidet wird.

Gast
2008-06-09, 19:47:04
Ich sehe nicht, wie aus GT200 bei derzeitigen Taktraten ein "Monster" werden soll.

ich auch nicht, nur hätte NV mit dieser größe ohne probleme einen doppelten G80 bauen können. dass man es nicht getan hat kann nur bedeuten, dass die effizienz/transistor deutlich besser ist. warum wissen wir (noch) nicht, aber NV wird nicht einen doppelt so großen chip bauen und dann gerade mal 50% mehrleistung bieten.


warum alle von "niedrigen" taktraten sprechen ist mir auch schleierhaft.

die 8800GTX hatte 575/1350, die 280GTX 600/1300, also fast gleich.

Gast
2008-06-09, 19:47:29
nö ich würde sagen das was man realistisch erwarten kann GX2 niveau mit nem single chip

das ist zuwenig für eine 280gtx, das wird mit eine wenig übertakten eine 4870xt 1gb packen.

Gast
2008-06-09, 19:48:54
nö ich würde sagen das was man realistisch erwarten kann GX2 niveau mit nem single chip

Nein.

Angesichts:
- GX2<2x8800GTX
- 600 Euro (bisher angesetzter Preis)
- 1,4 Mrd. Transi

Ergo, da stimmt was nicht.

gamingforce
2008-06-09, 19:49:22
Bis 1600x1200 4xAA und 16xAF sehe ich ein CPU-Limit. Aber 2560x1600 4xAA und 16xAF ist schon seltsam. Alter Treiber? Fake?

Bei 1600x1200 4xAA 16xAF CPU Limit, ganz sicher;D

robbitop
2008-06-09, 19:50:02
die 8800GTX hatte 575/1350, die 280GTX 600/1300, also fast gleich.
Weil es mit dem G92 schon deutlich höhere Taktraten gibt. Bandbreite (und damit beim derzeitigen design auch Z-Leistung) lässt sich ja nicht mal eben verdoppeln. Das wäre dann ein 768 bi SI.

Gast
2008-06-09, 19:50:39
Bei 1600x1200 4xAA 16xAF CPU Limit, ganz sicher;D
Wer spielt denn heute noch in solchen Low Settings? cO

Gast
2008-06-09, 19:51:31
Bei 1600x1200 4xAA 16xAF CPU Limit, ganz sicher;D

Bei 3DMark06, der CPU und GTX260 (und höher) möglich.

GeneralHanno
2008-06-09, 19:53:08
Weil es mit dem G92 schon deutlich höhere Taktraten gibt. Bandbreite (und damit beim derzeitigen design auch Z-Leistung) lässt sich ja nicht mal eben verdoppeln. Das wäre dann ein 768 bi SI.

1. beim sprung von G8x auf G9x hat man die kompression in den ROPs verbessert
2. beim GT200 sind je ROP-block doppelt so viele blender wie beim G8/9x verbaut
3. reine bandbreite stünde bei GDDR5@512bit mehr als genug bereit

AnarchX
2008-06-09, 19:53:10
naja effizienz oder brute-force, da sind die aussagen etwas gegensätzlich ...
Einige Dinge sind eben auch auf die Zukunft ausgerichtet, wie wohl der größere Registerfile, der in Szenarien mit langen und komplexen Shadern eben eine 2-stellige Leistungssteigerung bringt und das wohl bei eher geringen Transistorkosten. ;)

Gespannt bin ich jedenfalls auf die MSAA-Performance, da sind es eben mehr als 33% mehr ROPs.

Noch gut eine Woche und wir haben ein vollständiges Bild. :D

robbitop
2008-06-09, 19:54:40
1. beim sprung von G8x auf G9x hat man die kompression in den ROPs verbessert
2. beim GT200 sind je ROP-block doppelt so viele blender wie beim G8/9x verbaut
3. reine bandbreite stünde bei GDDR5@512bit mehr als genug bereit
Was beides nicht so ausschlaggebend ist.
Meine Rechnung ist eh nur eine Milchmädchenrechnung, da viele Randbedingungen und Spieldynamik nicht einbezogen sind. Mich würde es aber wundern, wenn das Ergebnis in Spielen deutlich anders aussehen wird.

GDDR5 ist kaum verfügbar.

tombman
2008-06-09, 19:58:34
Die GX2 nutzt ja auch AFR. Und wir wissen ja alle, wie gut AFR skaliert. ;)

AFR skaliert sogar sehr gut :rolleyes:

Gast
2008-06-09, 20:00:26
nö ich würde sagen das was man realistisch erwarten kann GX2 niveau mit nem single chip



ja ich kenne die aussagen..nur setzt er sie nicht um...sobald nvidia draufsteht is das immer besser :D
Einige Dinge sind eben auch auf die Zukunft ausgerichtet, wie wohl der größere Registerfile, der in Szenarien mit langen und komplexen Shadern eben eine 2-stellige Leistungssteigerung bringt und das wohl bei eher geringen Transistorkosten. ;)

Gespannt bin ich jedenfalls auf die MSAA-Performance, da sind es eben mehr als 33% mehr ROPs.

Noch gut eine Woche und wir haben ein vollständiges Bild. :D


siehst du doch beim 3d mark06 wie die mit msaa performt:)

Nakai
2008-06-09, 20:01:59
Von der theoretischen MAD-Leistung ja. Aber die ist ja selten der reine Flaschenhals. Außerdem arbeiten die NV-ALUs effizienter.
Z-Leistung, Tex-Fill, Bandbreite hingegen hinken zurück. Mit hohen Taktraten kann man ein bisschen Boden gutmachen. Ich vermute, dass die 4870, sofern die jetzigen Daten stimmen, knapp an die GTX 260 rankommen könnte.

Deswegen schrieb ich theoretisch.
Aber erstmal abwarten.

Angepeilt waren offenbar mal 650MHz, jedenfalls rechnet man in einem Diagramm kurz damit.

Effizienz ist das Stichwort für GeForce 200

Ich meine immer noch, dass der GT200 einen zu niedrigen Shadertakt hat.
Man schafft es nicht den Teraflop-Bereich zu knacken.
Liegt wohl am zu hohen Stromverbrauch.

Wenn es ATI tatsächlich schafft das Rucklerproblem zu lösen und die Treiber endlich richtig hinzubekommen, dann hat die GTX280 ein Problem.
Vorallem weil man NV dann damit mit deutlich geringerem RnD geschlagen hätte.
Aber ich glaub ATI noch nicht so...;)


mfg Nakai

robbitop
2008-06-09, 20:02:14
AFR skaliert sogar sehr gut :rolleyes:

Laut den Messungen von CB im Bereich von 1,3 bis 1,6
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating

Nirgends erreicht es dort die 2,0.

Raff
2008-06-09, 20:03:51
Aber ich glaub ATI noch nicht so...;)

Erinnert sich noch jemand an den R300? ;) Während NV sich auf den Lorbeeren ausruhte, klotzte Ati.

MfG,
Raff

reunion
2008-06-09, 20:04:30
Laut den Messungen von CB im Bereich von 1,3 bis 1,6
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating

Nirgends erreicht es dort die 2,0.

Die GTS512 ist auch höher getaktet, und trotzdem sind es unter 2560x1600 4xAA/16xAF 80% im Durchschnitt.

Gast
2008-06-09, 20:06:43
Ob jetzt 600 oder 650MHz ist wohl so ziemlich egal...

und das reine MHz denken von manchen hier ist ja mehr als lächerlich, besonders wenn alles für eine deutliche effizient Steigerung spricht...

Aber der P4 hat mit seinem Takt auch alles weggehauen, hab ich ja schon vergessen....

reunion
2008-06-09, 20:08:34
Erinnert sich noch jemand an den R300? ;) Während NV sich auf den Lorbeeren ausruhte, klotzte Ati.

MfG,
Raff

Ein derartiges Monster mit 1.4Mrd Transistoren sieht nicht unbedingt danach aus als würde sich nV ausruhen.

tombman
2008-06-09, 20:09:12
ja ich kenne die aussagen..nur setzt er sie nicht um...sobald nvidia draufsteht is das immer besser :D
Blödsinn. Ich hatte schon massenhaft ATi hardware, (sogar HD3870@CF hatte ich!- für 5 Tage ;D) nur eben seit G80 nimmer wirklich, weil von ATI nix kam ;)

Vielleicht wirds ja diesmal was, wer weiß ;)

Und diese hartware.de benches sind Schrott.

robbitop
2008-06-09, 20:10:15
Die GTS512 ist auch höher getaktet, und trotzdem sind es unter 2560x1600 4xAA/16xAF 80% im Durchschnitt.
Sehe dort kein Ergebnis über 1,6. Wenn ich das mit 1,1 multipliziere, erreiche ich allerdings 1,7 bis 1,8. Und das auch nur in ganz seltenen Fällen. Aber eben keine 2,0.

seahawk
2008-06-09, 20:11:07
Das sieht alles sehr ernüchternd aus für NV. Es scheint so als könnte ATI mit dem RV(!!)770 eine Überraschung schaffen.

Ich stelle mir es gerade vor. 80% der Leistung für 50% des Preises.

OgrEGT
2008-06-09, 20:12:19
Naja, es gibt eben doch eine gewisse Diskrepanz zwischen den hinzugefügten Einheiten und der benötigten Transistorenanzahl. Wofür 1.4Mrd Transistoren? Für die paar mehr Einheiten und die nicht gerade gigantischen anderen bis heute bekannten Verbesserungen? Kaum vorstellbar IMHO. Das sind immerhin mehr als doppelt so viel wie bei einem G80 und eine Verdoppelung der Einheiten kostet in der Regel deutlich weniger als doppelt so viele Transistoren.

Wäre es theoretisch denkbar, dass der GT200 nicht alle Einheiten freigeschaltet hat. Nur so könnte ich mir auf den ersten Blick ungenutzte Tranistoren erklären. Vielleicht noch nicht genutzte Einheiten... Vielleicht werden erst beim GT200b alle Einheiten aktiviert sein... Ganz á la 8800GT und danach 8800GTS-512:rolleyes:

clockwork
2008-06-09, 20:12:34
Da sich einige hier wohl über die angebliche Leistung aufregen.... Waren die G80 zu Anfangs nicht auch so "langsam" bis der Erste Wundertreiber kam?

robbitop
2008-06-09, 20:14:06
Wäre es theoretisch denkbar, dass der GT200 nicht alle Einheiten freigeschaltet hat. Nur so könnte ich mir auf den ersten Blick ungenutzte Tranistoren erklären. Vielleicht noch nicht genutzte Einheiten... Vielleicht werden erst beim GT200b alle Einheiten aktiviert sein... Ganz á la 8800GT und danach 8800GTS-512:rolleyes:
Oder ungünstiges Routing, oder Massetransistoren, erhöter Cache, erhöter Registerfile, 64 bit ALUs (die dürften HAMMER kosten!). Keiner von uns weiß das mit Sicherheit.

reunion
2008-06-09, 20:14:40
Sehe dort kein Ergebnis über 1,6. Wenn ich das mit 1,1 multipliziere, erreiche ich allerdings 1,7 bis 1,8. Und das auch nur in ganz seltenen Fällen. Aber eben keine 2,0.

Wie schon gesagt unter 2560x1600 4xAA/16xAF sind es 80% im Durchschnitt. Also taktbereinigt fast 2.0.

tombman
2008-06-09, 20:14:53
Ich weiß mit Sicherheit, daß die GTX280 schneller als die GX2 wird ;)

AnarchX
2008-06-09, 20:15:48
Ich könnte mir auch vorstellen, dass GTX 200 erstmal ein paar Treiberoptimierungen benötigt, immerhin hat sich im Bezug auf die Shader einige Variablen verändert, die im Shadercompiler wohl erstmal entsprechend optimiert werden müssen.

robbitop
2008-06-09, 20:17:05
Wie schon gesagt unter 2560x1600 4xAA/16xAF sind es 80% im Durchschnitt. Also taktbereinigt fast 2.0.
Wo denn? :confused: Bei CB nicht. Oder ich bin gerad blind.

Winter[Raven]
2008-06-09, 20:17:50
Erinnert sich noch jemand an den R300? ;) Während NV sich auf den Lorbeeren ausruhte, klotzte Ati.

MfG,
Raff

Also wenn du jetzt von Nvidia erwartest, die würden sich ausruhen, dann liegst du aber ganz ganz daneben... :smile:

Odal
2008-06-09, 20:18:18
Ich weiß mit Sicherheit, daß die GTX280 schneller als die GX2 wird ;)

ja wenn SLI mal wieder nicht funzt :D aber nicht im 3dmurks da nehmen die sich nix...

und woher hast du deine bahnbrechenden erkenntnisse?

Gast
2008-06-09, 20:21:19
Da sich einige hier wohl über die angebliche Leistung aufregen.... Waren die G80 zu Anfangs nicht auch so "langsam" bis der Erste Wundertreiber kam?

Ja nur setzt der G200 auf die gleiche Architektur.;)Die Treiber müssten schon mehr als Beta sein.;);)

tombman
2008-06-09, 20:21:34
Wo denn? :confused: Bei CB nicht. Oder ich bin gerad blind.
Du bist blind. +80% bei 25x16, 4xAA. Mach mouse-over bei der GTS512...

dargo
2008-06-09, 20:21:59
Das sieht alles sehr ernüchternd aus für NV. Es scheint so als könnte ATI mit dem RV(!!)770 eine Überraschung schaffen.

Ich stelle mir es gerade vor. 80% der Leistung für 50% des Preises.
Was hier sich manche zusammenreimen ist nicht mehr normal. :|
Glaubst du denn ernsthaft, dass NV 649$ UVP vorschlägt wenn der GT200 eine Niete wird? Schon vergessen was beim R600 für ein Preis geplant war und für was ATI den angesicht dessen Leistung dann verkaufen musste?

Gast
2008-06-09, 20:22:07
;6569327']Also wenn du jetzt von Nvidia erwartest, die würden sich ausruhen, dann liegst du aber ganz ganz daneben... :smile:

Nur weil du es foffst?

Godmode
2008-06-09, 20:22:35
ja ich kenne die aussagen..nur setzt er sie nicht um...sobald nvidia draufsteht is das immer besser :D

Ich kenne Tombmans Aussagen schon seit etlichen Jahren. Als damals die Radeons schneller waren, hatte er auch Radeons in seiner Kiste und niemand konnte ihm das irgendwie streitig machen. Damals wurde er dann als ATI Fanboy beschimpft, da er ähnlich argumentierte wie jetzt. Er hatte sowas ähnliches in seiner Signatur stehen:

Radeon X850XT > 6800 Ultra woher ich das weiß? ich teste alles selber.... Tombman tm

Wenn der R700 jetzt wirklich ein Kracher wird, ist er der erste der diese Karte verbaut. Mit Kracher meine ich beste Leistung, beste Bildqualität, keine Microruckler, ...

tombman
2008-06-09, 20:22:55
ja wenn SLI mal wieder nicht funzt :D aber nicht im 3dmurks da nehmen die sich nix...

und woher hast du deine bahnbrechenden erkenntnisse?
Menschenverstand. Die GX2 wird derzeit abverkauft um unter 370€. Und die GTX280 wird ja wohl nicht weniger kosten ;)

Außerdem schon auf diversen china benches zu sehen gewesen. X4800 für die GTX280 und X3600 für die GX2 ...

robbitop
2008-06-09, 20:23:45
Du bist blind. +80% bei 25x16, 4xAA. Mach mouse-over bei der GTS512...
Oha danke. Gut scheint aber wirklich sehr wechselhaft zu sein diese Skalierung. Hinzu kommt die ganze MR-Problematik.

OgrEGT
2008-06-09, 20:28:10
Oder ungünstiges Routing, oder Massetransistoren, erhöter Cache, erhöter Registerfile, 64 bit ALUs (die dürften HAMMER kosten!). Keiner von uns weiß das mit Sicherheit.

Könnten es auch nicht deaktivierte Shadereinheiten sein? Der G92 hatte anfangs auch nur 112 und später dann die vollen 128... Wieviel Transistorcount wären das rechnerisch. Nur mal vergleichen und nachrechnen... auf wieviele zusätzliche Shadereinheiten käme man dann?

tombman
2008-06-09, 20:29:41
Oha danke. Gut scheint aber wirklich sehr wechselhaft zu sein diese Skalierung. Hinzu kommt die ganze MR-Problematik.
Im Alltag bekommst du locker 80% raus, sofern kein cpu Limit vorliegt...

Moralelastix
2008-06-09, 20:31:07
Was soll der Wert "X" bedeuten bei "X4800 für die GTX280 und X3600 für die GX2 ..."


Und nur läppische 1200 Punkte mehr? Da kann doch nur was faul sein.

Schlammsau
2008-06-09, 20:32:23
Was hier sich manche zusammenreimen ist nicht mehr normal. :|
Glaubst du denn ernsthaft, dass NV 649$ UVP vorschlägt wenn der GT200 eine Niete wird? Schon vergessen was beim R600 für ein Preis geplant war und für was ATI den angesicht dessen Leistung dann verkaufen musste?
natürlich schlagen sie diesen Preis vor!
sie wird ja auch trotz allem die nächsten 2-3 Monate die schnellste Karte auf dem Markt sein! tssssss
Aber wenn die 4870X2 den Markt betritt, wird der Preis der GTX280 nur so purzeln! ;D

robbitop
2008-06-09, 20:32:40
Im Alltag bekommst du locker 80% raus, sofern kein cpu Limit vorliegt...
Das klingt ganz ok (der Rest geht wohl oft für Synchronisierung und nicht skalierenden Postprocessing drauf). Wenn nur die Mikroruckler nicht wären.

AnarchX
2008-06-09, 20:32:50
Könnten es auch nicht deaktivierte Shadereinheiten sein? Der G92 hatte anfangs auch nur 112 und später dann die vollen 128... Wieviel Transistorcount wären das rechnerisch. Nur mal vergleichen und nachrechnen... auf wieviele zusätzliche Shadereinheiten käme man dann?
Goto #1 -> Die-Shot... Da sieht man eindeutig 10 Cluster und vor einigen Seiten wurden auch noch erklärt, wo die Einheiten genau liegen. Die GTX 280 ist der volle G200.

btw.
- 80 G200 TMUs ~ 96 G92 TMUs
- es sind natürlich keine Fullspeed-64-Bit-ALUs und NV ist bei DP-FLOPs-Angabe eher nicht so übertreibend wie ATi oder müssen sie es sein :uponder:

:D

Odal
2008-06-09, 20:35:25
Was hier sich manche zusammenreimen ist nicht mehr normal. :|
Glaubst du denn ernsthaft, dass NV 649$ UVP vorschlägt wenn der GT200 eine Niete wird? Schon vergessen was beim R600 für ein Preis geplant war und für was ATI den angesicht dessen Leistung dann verkaufen musste?
Nvidia is aber nicht ATI siehe das GeFroschFX Debakel...die gingen trotzdem weg wie warme semmeln

robbitop
2008-06-09, 20:36:11
btw.
- 80 G200 TMUs ~ 96 G92 TMUs
- es sind natürlich keine Fullspeed-64-Bit-ALUs
Quelle? Für beides bitte.

Nvidia is aber nicht ATI siehe das GeFroschFX Debakel...die gingen trotzdem weg wie warme semmeln
Die Marktanteile und Gewinne von NVIDIA brachen damals auch heftig ein um die Zeit. Die Midrange und Lowcost wurden zwar noch ganz gut verkauft, aber lange nicht mehr wie vorher. So ähnlich war's bei ATI auch. Nur dass AMD ATI mit ihren Geldproblemen kaputtmacht. (R&D Gelder werden gekürzt, Ingenieure hauen ab, Schlüsselleute hauen ab...das wird sich alles auswirken) Danke AMD! Vieleicht hätte man lieber XGI, S3 oder IMG kaufen sollen. Für deren Zweck hätte das IMO fast gereicht.

GeneralHanno
2008-06-09, 20:38:10
- 80 G200 TMUs ~ 96 G92 TMUs

bitte erleuern ... :confused:

tombman
2008-06-09, 20:44:52
ALso falls das wirklich VERYHIGH war OWNT die GTX280.

Ich habe gerade mit OVERCLOCKTEN 8800GTX @ SLI (648/1512/1000)

26 fps

erreicht auf VERY HIGH und dem selben GPU Bench...:eek:

Das wären dann nämlich ~30% schneller als ~8800Ultra SLI :eek:

UPDATE: diesmal mit 64bit .exe und Version 1.2 ;)

27fps (oc!)

Ich würde mal sagen: GTX280= 25% schneller als Ultra SLI ;)

mapel110
2008-06-09, 20:45:31
Quelle? Für beides bitte.


Die Marktanteile und Gewinne von NVIDIA brachen damals auch heftig ein um die Zeit. Die Midrange und Lowcost wurden zwar noch ganz gut verkauft, aber lange nicht mehr wie vorher. So ähnlich war's bei ATI auch. Nur dass AMD ATI mit ihren Geldproblemen kaputtmacht. (R&D Gelder werden gekürzt, Ingenieure hauen ab, Schlüsselleute hauen ab...das wird sich alles auswirken) Danke AMD! Vieleicht hätte man lieber XGI, S3 oder IMG kaufen sollen. Für deren Zweck hätte das IMO fast gereicht.
Mit ATI gings schon vorher bergab. Daran ist sicher nicht AMD schuld.

robbitop
2008-06-09, 20:48:37
Mit ATI gings schon vorher bergab. Daran ist sicher nicht AMD schuld.
Es ging ein wenig Bergab. Aber da sind noch keine Leute abgehauen. Jetzt wird ihnen aber substanziell die Möglichkeit zum Comeback genommen. (Ressourcen und Leute und vermutlich eine "Umstrukturierung")

Gast
2008-06-09, 21:08:16
Weil es mit dem G92 schon deutlich höhere Taktraten gibt.


hilft ihm aber wenig, angesichts der tatsache, dass man gerade die ALUs auch hardwaremäßig ziemlich stark verbreitert hat ist eine weitere taktsteigerung wohl ziemlich unnotwendig und die leistung würde einfach verpuffen.


Bandbreite (und damit beim derzeitigen design auch Z-Leistung) lässt sich ja nicht mal eben verdoppeln. Das wäre dann ein 768 bi SI.

die bandbreite gegenüber dem G92 verdoppelt sich, der trend geht auch zu immer mehr rechnen und weniger bandbreite.

Gast
2008-06-09, 21:12:14
Da sich einige hier wohl über die angebliche Leistung aufregen.... Waren die G80 zu Anfangs nicht auch so "langsam" bis der Erste Wundertreiber kam?

Nein, damals in den Spielen konnte der G80 in niedrigeren Auflösungen kaum davon ziehen, erstes Spiel wo richtig auf die Ka.. gehauen wurde war glaub Oblivion. 1680*1050 4xAA/16xAF HDR und pipapo ruckelfrei, ging vorher mit gar keiner Karte.
Dann kam dazu, das TS-MSAA und TS-SSAA nicht gescheit von den Benchmarkern unterschieden werden konnte und die ersten Treiber Probleme mit dem Verteilen der Aufgaben hatten.

Gast
2008-06-09, 21:13:49
64 bit ALUs (die dürften HAMMER kosten!).

nur wenn sie single-cycle sind, wovon ich ehrlich gesagt nicht ausgehe.

Coda
2008-06-09, 21:16:09
Oder ungünstiges Routing, oder Massetransistoren, erhöter Cache, erhöter Registerfile, 64 bit ALUs (die dürften HAMMER kosten!). Keiner von uns weiß das mit Sicherheit.
Die 64-Bit-ALUs kosten fast nichts. Es wird über die 32-Bit-ALUs geloopt in 2-4 Takten wie bei ATI auch.

Alles andere wäre totaler Selbstmord was den Transistorcount angeht für null Nutzen im Kerngeschäft.

Gast
2008-06-09, 21:21:50
Die 64-Bit-ALUs kosten fast nichts. Es wird über die 32-Bit-ALUs geloopt in 2-4 Takten wie bei ATI auch.

Alles andere wäre totaler Selbstmord was den Transistorcount angeht für null Nutzen im Kerngeschäft.
Was wäre wenn... Nvidia mit ihren aktuellen FP32-Einheiten kein FP64 hinbekommt ohne größeres Redesign? Also vor der Wahl steht: teures FP64 oder gar kein FP64?

Gast
2008-06-09, 21:22:15
Nvidia is aber nicht ATI siehe das GeFroschFX Debakel...die gingen trotzdem weg wie warme semmeln

vor der FX war nvidia unangefochtener marktführer (intel mal außen vor), nach dem FX-debakel ist man weit zurückgerutscht und konnte erst mit NV4x wieder boden gutmachen.

Gast
2008-06-09, 21:23:18
Was wäre wenn... Nvidia mit ihren aktuellen FP32-Einheiten kein FP64 hinbekommt ohne größeres Redesign?


wieso sollten sie das nicht, und wenn man schon redesignen muss kann man das auch auf die billige art machen.

Coda
2008-06-09, 21:24:03
Was wäre wenn... Nvidia mit ihren aktuellen FP32-Einheiten kein FP64 hinbekommt ohne größeres Redesign? Also vor der Wahl steht: teures FP64 oder gar kein FP64?
Der Fall steht nicht zur Debatte weil es dafür absolut keine technische Grundlage gibt.

Gast
2008-06-09, 21:24:46
Was wäre wenn... Nvidia mit ihren aktuellen FP32-Einheiten kein FP64 hinbekommt ohne größeres Redesign? Also vor der Wahl steht: teures FP64 oder gar kein FP64?

Warum soll das nicht gehen, Loopen kannst doch...

Black-Scorpion
2008-06-09, 21:25:39
vor der FX war nvidia unangefochtener marktführer (intel mal außen vor), nach dem FX-debakel ist man weit zurückgerutscht und konnte erst mit NV4x wieder boden gutmachen.
In was Marktführer?
Im gesamten Grafikmarkt?
Dann nicht.

tombman
2008-06-09, 21:25:59
Was soll der Wert "X" bedeuten bei "X4800 für die GTX280 und X3600 für die GX2 ..."
X = vantage EXTREME preset. (nur bei Bezahlversion zu sehen)

Und nur läppische 1200 Punkte mehr? Da kann doch nur was faul sein.
Nur ist gut, das ist immerhin eine GX2!

AnarchX
2008-06-09, 21:27:01
Die GTX 280 soll unter DP etwa so schnell sein wie zwei schnelle Intel Quadcore Xeons.

tombman
2008-06-09, 21:28:51
Die GTX 280 soll unter DP etwa so schnell sein wie zwei schnelle Intel Quadcore Xeons.
Bei welcher Anwendung?

reunion
2008-06-09, 21:29:15
Die GTX 280 soll unter DP etwa so schnell sein wie zwei schnelle Intel Quadcore Xeons.

Das schafft schon ein RV670.

Gast
2008-06-09, 21:29:16
[B]- 80 G200 TMUs ~ 96 G92 TMUs

Die TA Zahl fehlt noch, und 40 TAs sind falsch!

Die 1,5x Effizienz beziehen sich rein auf die Architektur, Effizienz ist nicht gleich Leistung. Ein G200 mit der "selben" Anzahl an Einheiten ist 1,5 mal so Effizient wie ein G92 ist.

Die 2x-2,5x Leistung resultiert eben aus dem "mehr" an Einheiten gegenüber dem G92.

Gast
2008-06-09, 21:33:26
Der Fall steht nicht zur Debatte weil es dafür absolut keine technische Grundlage gibt.
Ich stelle den Fall zur Debatte. Wenn du dazu nichts zu sagen hast, bitte. Aber dann tu nicht so, als wüsstest du über alles besser Bescheid als der Rest der WElt.

Gast
2008-06-09, 21:35:44
Warum soll das nicht gehen, Loopen kannst doch... Und wie oft muss man das tun?

robbitop
2008-06-09, 21:38:36
hilft ihm aber wenig, angesichts der tatsache, dass man gerade die ALUs auch hardwaremäßig ziemlich stark verbreitert hat ist eine weitere taktsteigerung wohl ziemlich unnotwendig und die leistung würde einfach verpuffen.
Sehe ich anders.


die bandbreite gegenüber dem G92 verdoppelt sich, der trend geht auch zu immer mehr rechnen und weniger bandbreite.
Wie schon in meiner Skalierungsrechnung zu sehen: Die reale ALU-Leistung (MAD) und die Filterleistung steigt ja dank dieser miesen Taktraten ggü G92 nur moderat.
Der Trend geht dahin. Wer aber den Fehler begeht und es nur darauf reduziert, ist selbst schuld.

Die 64-Bit-ALUs kosten fast nichts. Es wird über die 32-Bit-ALUs geloopt in 2-4 Takten wie bei ATI auch.

Alles andere wäre totaler Selbstmord was den Transistorcount angeht für null Nutzen im Kerngeschäft.
Ich meine ja native 64 bit ALUs. Keine Emulation. Dass die kaum kostet ist mir (spätestens seit RV670) klar.
Glauben tue ich auch nicht wirklich dran. ;)

AnarchX
2008-06-09, 21:41:53
Die Aussage, dass DP nicht Full-Speed ist, muss ich wohl zurückziehen, aber die Leistungseinschätzung bleibt bestehen. ;)

crux2005
2008-06-09, 22:04:03
wieso schreiben die teraflop performance?
sind doch nur 933 gflop. scheint ja nur ne werbefolie zu sein...

harry

wer sagt das die GTX 280 nicht schon jetzt mehr als 1TFLOPs/s hat ? ;D

Gast
2008-06-09, 22:06:02
Erinnert sich noch jemand an den R300? ;) Während NV sich auf den Lorbeeren ausruhte, klotzte Ati.

MfG,
Raff

NV hat sich nicht ausgeruht, sondern ist ein sehr ehrgeiziges Projekt angegangen, daß nun mal leider etwas schief ging. Unter anderem, weil die finale DX9 Spec nicht so richtig zum Chip gepasst hat!

robbitop
2008-06-09, 22:10:08
Die Aussage, dass DP nicht Full-Speed ist, muss ich wohl zurückziehen, aber die Leistungseinschätzung bleibt bestehen. ;)
Deine Aussage zu den TMUs würde ich aber überdenken in dem Falle. ;)

Gast
2008-06-09, 22:14:11
wer sagt das die GTX 280 nicht schon jetzt mehr als 1TFLOPs/s hat ? ;D

bis jetzt ist nur bekannt das sie 933 gflops haben soll. wo steht denn das sie mehr hat? außer auf dieser werbefolie?

crux2005
2008-06-09, 22:16:59
bis jetzt ist nur bekannt das sie 933 gflops haben soll. wo steht denn das sie mehr hat? außer auf dieser werbefolie?

werbefolie ? :eek: das soll ne werbefolie sein ?
nein, das glaube ich nicht

Deine Aussage zu den TMUs würde ich aber überdenken in dem Falle. ;)

wieso ? :confused: kannst auch gerne PM schicken ;)
denn, eigentlich hat er schon recht, aber ja, ich verstehe dich schon cca., wie du es meinst

Gast
2008-06-09, 22:21:47
werbefolie ? :eek: das soll ne werbefolie sein ?
nein, das glaube ich nicht


wo steht denn das es keine ist?

crux2005
2008-06-09, 22:22:48
sowas schreibt man nicht auf werbefolien :wink:

Gast
2008-06-09, 22:27:00
Jetzt hört doch mal mit dem Blödsinn auf. Crysis besteht nicht nur aus Arithmetik. Ich sehe da keine Verdreifachung. Aber wir werden's ja sehen.

MfG,
Raff

Kann ATI hier aus den über 2T-Flops ein nutzen ziehen?

http://i26.tinypic.com/27x1303.jpg

Gast
2008-06-10, 01:12:01
GTX280 669,90€ ;D

http://www.hw-elektronik.de/xtc/product_info.php/info/p703_Nvidia-GeForce--b-GTX280--b--1024MB-Marke.html

Gast
2008-06-10, 01:13:12
GTX280 669,90€ ;D

http://www.hw-elektronik.de/xtc/product_info.php/info/p703_Nvidia-GeForce--b-GTX280--b--1024MB-Marke.html


wenn das keim ladenhüter wird,haha ich lach mich weg

Coda
2008-06-10, 01:22:39
Ich stelle den Fall zur Debatte. Wenn du dazu nichts zu sagen hast, bitte. Aber dann tu nicht so, als wüsstest du über alles besser Bescheid als der Rest der WElt.
Ich habe etwas zu sagen. Und zwar dass es technisch absoluter Blödsinn ist und man nicht eine Sekunde über diesen Fall nachdenken muss.

Und ja, das weiß ich ganz sicher.

tombman
2008-06-10, 01:23:39
Kann ATI hier aus den über 2T-Flops ein nutzen ziehen?

http://i26.tinypic.com/27x1303.jpg
der fake wurde schon einmal vom mod gelöscht, wie oft noch?

tombman
2008-06-10, 01:25:02
GTX280 669,90€ ;D

http://www.hw-elektronik.de/xtc/product_info.php/info/p703_Nvidia-GeForce--b-GTX280--b--1024MB-Marke.html
Na LOL; selbe Abzocke wie beim G80 Start...

Nur daß diesmal der Dollarkurs anders ist ;)

Das sind mindestens 30% über dem empfohlenen Preis...

Nightspider
2008-06-10, 01:49:35
TICKT IHR NOCH GANZ ?

Ich hab endlich Feierabend und muss 17 (!) Seiten lesen !!! :eek:

Wehe auf den 17 Seiten wurde geflamed oder gespamed, dann werd ich sauer ! ;D

tombman
2008-06-10, 01:54:50
649$ sind derzeit 416€ ;D;D

Da IMPORTIER ich doch aus USA und zahle GERNE die Einfuhrumsatzsteuer (20% in .at) + Transport ;)

Mehr als 550€ inkl. aller Gebühren wirds aus USA nicht :)

670€ -> ROFL

Gast
2008-06-10, 01:56:57
mehr als 400 euro ist die karte auch nicht wert,lol 670 euro

tombman
2008-06-10, 01:59:55
mehr als 400 euro ist die karte auch nicht wert,lol 670 euro
nene, 500€ is die schon wert...

Man darf da nicht nur nach dem Leistungsdelta zur GX2 gehen. Sie kann auch featureseitig mehr. 1gb ram, double precision...

Spasstiger
2008-06-10, 02:00:15
mehr als 400 euro ist die karte auch nicht wert,lol 670 euro
Bei doppelter 8800-Ultra-Performance ist sie locker 500€ wert, wenn zudem der Energieverbrauch deutlich unter dem von zwei 8800 Ultras liegt.
Und die 9800 GX2 ist für den qualitätsverwöhnten User ohnehin keine Alternative, weil die GX2 effektiv zu wenig Grafikspeicher hat und an Mikrorucklern leidet.

Gast
2008-06-10, 02:03:26
Bei doppelter 8800-Ultra-Performance ist sie locker 500€ wert, wenn zudem der Energieverbrauch deutlich unter dem von zwei 8800 Ultras liegt.


wovon träumst du,seit wann sind ultra karten die mehr als 1jahr auf den buckel haben maßstab?und 2 ultra performance wird die auch nicht mal ansatzweise haben.

tombman
2008-06-10, 02:04:28
und 2 ultra performance wird die auch nicht mal ansatzweise haben.
Glaubst wohl auch das +50% Märchen, gell? :D

Gast
2008-06-10, 02:06:15
Glaubst wohl auch das +50% Märchen, gell? :D

ne ich glaub nicht an das märchen von 2 ultra karten,nie und nimmer.2 lächerliche 4850 karten im cf für gerade mal 330 euro sollen in crysis schneller sein,also schön ball flach halten ihr möchtegern pros:)

Spasstiger
2008-06-10, 02:07:59
wovon träumst du,seit wann sind ultra karten die mehr als 1jahr auf den buckel haben maßstab?und 2 ultra performance wird die auch nicht mal ansatzweise haben.
Die 8800 Ultras sind derzeit immer noch die schnellsten Grafikkarten, wenn man auf bestmögliche Spielbarkeit bei Enthusiast-Settings geht.
Die 9800 GX2 liefert zwar meist höhere Average-fps, aber was beim Betrachter tatsächlich ankommt, ist bei extremen Settings schlechter als mit einer 8800 Ultra.
Und die die 9800 GTX leidet an den nur 16 ROPs und dem kleinen Grafikspeicher.

tombman
2008-06-10, 02:08:48
ne ich glaub nicht an das märchen von 2 ultra karten,nie und nimmer.2 lächerliche 4850 karten im cf für gerade mal 330 euro sollen in crysis schneller sein,also schön ball flach halten ihr möchtegern pros:)
Also du glaubst tatsächlich, daß Nvidia an der Effizienz der cores seit 2 Jahren NICHTS geändert hat, und alles was sie geschafft haben war einfach das ganze ein bischen breiter zu machen, und dafür haben sie auch noch 1.4 Milliarden Transistoren gebraucht. Das glaubst du also echt?
Ich wiederhole, 2 JAHRE ;)

Raff
2008-06-10, 02:09:10
Glaubst wohl auch das +50% Märchen, gell? :D

Das ist bestimmt kein Märchen. Kein aktuelles Spiel ist so shaderlastig, dass Faktor 2+ im Vergleich zur 8800 Ultra herauskommen kann.

MfG,
Raff

tombman
2008-06-10, 02:12:10
Das ist bestimmt kein Märchen. Kein aktuelles Spiel ist so shaderlastig, dass Faktor 2+ im Vergleich zur 8800 Ultra herauskommen kann.

Und wie können dann >30fps bei Crysis @ VH 1920x1200 herauskommen? Das IST >Faktor 2.

Gast
2008-06-10, 02:12:48
Also du glaubst tatsächlich, daß Nvidia an der Effizienz der cores seit 2 Jahren NICHTS geändert hat, und alles was sie geschafft haben war einfach das ganze ein bischen breiter zu machen, und dafür haben sie auch noch 1.4 Milliarden Transistoren gebraucht. Das glaubst du also echt?
Ich wiederhole, 2 JAHRE ;)


ich sag nur eins und da brauch ich auch kein betriebswirt sein,wenn die gtx280 bei 600 euro sich einpendelt für die leistung dann wird es nur schaufensterware und nicht mehr.

Spasstiger
2008-06-10, 02:16:41
Bin mal gespannt, ob es die GTX280 auch mit externem Netzteil für OCer geben wird. ;)

Gast
2008-06-10, 02:18:34
http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Tigershark
2008-06-10, 02:21:29
alt, schlechtes englisch ftw und kaum ATI-biased....;D

Gast
2008-06-10, 02:24:42
alt, schlechtes englisch ftw und kaum ATI-biased....;D

wenn interessiert ob es schlechtes english ist,naja was du schreibst ist ja nicht besseres deutsch,kannst du das mal auch in deutsch wiedergeben?

Gast
2008-06-10, 02:32:12
wenn interessiert ob es schlechtes english ist,naja was du schreibst ist ja nicht besseres deutsch,kannst du das mal auch in deutsch wiedergeben?

Wer es glaubt, wird seelig :-)

Gast
2008-06-10, 02:35:34
Wer es glaubt, wird seelig :-)


viel glaubwürdiger sogar sehr viel als das märchen von 2 ultra´s,was hatte ich vor paar tagen gesagt?die verdammte folie mit den nv vergleichen zur x2 ist absoluter murks aber ne wir haben ja märchenstunde:)

Gast
2008-06-10, 02:37:40
viel glaubwürdiger sogar sehr viel als das märchen von 2 ultra´s,was hatte ich vor paar tagen gesagt?die verdammte folie mit den nv vergleichen zur x2 ist absoluter murks aber ne wir haben ja märchenstunde:)

Nvidias Folien waren bisher immer glaubwürdig. Auf jeden Fall glaubwürdiger als frustschiebende Ati Fanboys die versuchen die Karten der Konkurrenz schlecht zu reden.

Anarchy-HWLUXX
2008-06-10, 02:38:24
http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390
Nur wenn man den schmodder 10 mal postet wird es nicht glaubhafter - entweder der Postet ausführliche Benches (Rechner Specs usw. , am besten incl. Pic vom Testaufbau) oder es ist gewäsch.

Gast
2008-06-10, 02:40:05
Nvidias Folien waren bisher immer glaubwürdig. Auf jeden Fall glaubwürdiger als frustschiebende Ati Fanboys die versuchen die Karten der Konkurrenz schlecht zu reden.

ich rede nicht mit ahnunglosen:)


talk to my hand

Coda
2008-06-10, 03:12:15
double precision...
Nochmal: Das ist für dich absolut irrelevant. Auch abseits von Gaming.

Das ist bestimmt kein Märchen. Kein aktuelles Spiel ist so shaderlastig, dass Faktor 2+ im Vergleich zur 8800 Ultra herauskommen kann.

MfG,
Raff
Is klar. Doppelter Transistorcount und dann 50% mehr Leistung nach 2 Jahren. Raff ich hätte dir etwas mehr Intuition zugetraut ;)

Allein durch den doppelten Registerspace kann man doppelt so viele Threads laufen lassen wie auf G8x und dadurch weitaus mehr Latenzen verstecken dazu kommen effizientere ALUs usw. Das wird ganz sicher weit mehr als 50%. Darüber noch zu diskutieren ist nun wirklich lächerlich.

Daredevil
2008-06-10, 03:35:10
ATI hat es auch geschafft ihre Effizienz zu verbessern bei der 3870 im Vergleich zu 2900xt bei nur halbem Speicherinterface innerhalb eines Halben Jahres in etwa.
Die ist z.t. 10-15% schneller in manchen Situationen, also da wird denke ich auch einiges rauskommen bei der GT200, 2 Jahre is ne lange Zeit, da wird Sicherlich sehr viel verbessert worden sein.

cR@b
2008-06-10, 03:37:03
Uff das ist hart :( http://www.hartware.de/news_44980.html

Also wenn das nur annähernd stimmt...

Taigatrommel
2008-06-10, 04:45:56
Also Preise im Bereich 500,- bis 550,- halte ich bei entsprechender Performance für gerechtfertigt, alles was drüber liegt wird sich erst einmal einpendeln müssen. Dann bleibt vor allem noch einmal abzuwarten, wie schnell diese Karte denn nun wirklich ist.
Hier was aus Frankreich:
http://www.tdshop.fr/Negozio.asp?IdNegozio=1&Categoria=45&SottoCategoria=&CodProdotto=B994421
Ob die ~580,- Euro jetzt aber mit oder ohne Mehrwersteuer sind, weiß ich nicht.

Gast
2008-06-10, 07:16:37
Uff das ist hart :( http://www.hartware.de/news_44980.html

Also wenn das nur annähernd stimmt...
predige ich doch schon die ganze Zeit,aber wer fährt die Auflösung?
Wir müssen abwarten bis alle 4 Karten da sind und man in 1920x1200 sieht was passiert.

Adam D.
2008-06-10, 08:35:03
Uff das ist hart :( http://www.hartware.de/news_44980.html

Also wenn das nur annähernd stimmt...
"Getestet wurde mit einem Intel QX9650 @ 3 GHz[...]"

1. Punkt: who the fuck cares for 3DMark?
2. Punkt: GTX280 und 'nen 3GHz-QC? CPU-Limit ftw?

robbitop@work
2008-06-10, 08:44:29
Und wie können dann >30fps bei Crysis @ VH 1920x1200 herauskommen? Das IST >Faktor 2.
Du weißt schon, dass Raff für die PCGH arbeitet? ;)

Schlammsau
2008-06-10, 08:45:11
"Getestet wurde mit einem Intel QX9650 @ 3 GHz[...]"

1. Punkt: who the fuck cares for 3DMark?
2. Punkt: GTX280 und 'nen 3GHz-QC? CPU-Limit ftw?

ich glaube eher, das ein CPU Limit bei dem CF vorlag! MultiGPU braucht wesentlich mehr CPU Power als SingleGPU! ;)

Grestorn
2008-06-10, 08:45:16
Nicht jeder OCed bis der Arzt kommt. Und deswegen sind 3GHz schon recht gut, erst recht mit Quad-Core.

Adam D.
2008-06-10, 08:50:31
ich glaube eher, das ein CPU Limit bei dem CF vorlag! MultiGPU braucht wesentlich mehr CPU Power als SingleGPU! ;)
Wesentlich mehr? Soso...

Nicht jeder OCed bis der Arzt kommt. Und deswegen sind 3GHz schon recht gut, erst recht mit Quad-Core.
Es ist ok, aber jetzt kommt wieder mein Lieblingssatz: wer 600+€ für 'ne GTX280 zahlt, hängt sie sicher nicht an 'nen 3GHz-Prozessor ;)

Gast
2008-06-10, 09:01:32
"Getestet wurde mit einem Intel QX9650 @ 3 GHz[...]"

1. Punkt: who the fuck cares for 3DMark?
2. Punkt: GTX280 und 'nen 3GHz-QC? CPU-Limit ftw?

stimmt der qx9650 is ja mit das schlappste was intel momentan aufem markt hat,
das muss ja ein cpu limit sein! was sonst? :rolleyes:

Adam D.
2008-06-10, 09:05:19
stimmt der qx9650 is ja mit das schlappste was intel momentan aufem markt hat,
das muss ja ein cpu limit sein! was sonst? :rolleyes:
Bring ihn auf 4Ghz und guck, was passiert.

3DMark06 ist sinnlos in seiner Vergleichbarkeit, das hat sie mich Vantage ja deutlich gebessert. Also Spiele-Benchmarks abwarten, das allseits geliebte "Ich schließe vom 3DMark-Wert auf die Gesamt-Performance"-Spiel nervt so langsam.

Gast
2008-06-10, 09:12:00
Bring ihn auf 4Ghz und guck, was passiert.

3DMark06 ist sinnlos in seiner Vergleichbarkeit, das hat sie mich Vantage ja deutlich gebessert. Also Spiele-Benchmarks abwarten, das allseits geliebte "Ich schließe vom 3DMark-Wert auf die Gesamt-Performance"-Spiel nervt so langsam.

wenn du bei nem highend 3 ghz quad von cpu limit redest nervt das, das teil stellt wohl upper end auch hier im forum dar. und man sollte realistisch bleiben 3 ghz 45nm intel power sind wohl auch die zu erwartende plattform für den grünen bolliden.

wie stellst du dir das denn vor?
sollen die karten gleich von striker oder sonstwem getestet werden, mit flüssiger stickstoff kühlung? alles am limit? ist das dann vergleichbar?

Schlammsau
2008-06-10, 09:16:55
wenn du bei nem highend 3 ghz quad von cpu limit redest nervt das, das teil stellt wohl upper end auch hier im forum dar. und man sollte realistisch bleiben 3 ghz 45nm intel power sind wohl auch die zu erwartende plattform für den grünen bolliden.

wie stellst du dir das denn vor?
sollen die karten gleich von striker oder sonstwem getestet werden, mit flüssiger stickstoff kühlung? alles am limit? ist das dann vergleichbar?

genau so ist es!:up:
Die CPU kostet allein schon 770€ (http://geizhals.at/deutschland/?cat=cpup7&asuch=qx9650)! :nono:
Der Prozzi müsste doch eine 280GTX mehr als zufriedenstellend befeuern können!

Gast
2008-06-10, 09:36:51
Du weißt schon, dass Raff für die PCGH arbeitet? ;)

Raff sollte sich mal Gedanken darüber machen, wie die Auslastung einer MADD-Unit gegenüber einer MADD-MUL-Unit bei bestimmtem Befehlsabfolgen von ADD, MADD, MUL ist.
Tipp: Bei ADD und MUL arbeitet eine MADD-Unit nur zu 50%.

robbitop@work
2008-06-10, 09:40:23
Raff sollte sich mal Gedanken darüber machen, wie die Auslastung einer MADD-Unit gegenüber einer MADD-MUL-Unit bei bestimmtem Befehlsabfolgen von ADD, MADD, MUL ist.
Tipp: Bei ADD und MUL arbeitet eine MADD-Unit nur zu 50%.
Beim Dual-Issue wird die MUL auch noch durch SFU in Beschlag genommen. Ich würde das jetzt nicht linear verrechnen.

Übrigens war der Kommentar anders gemeint. ;)

Gast
2008-06-10, 09:44:37
Du meinst wohl eher, er durfte sich die Karte schon mal zur Brust nehmen?

dargo
2008-06-10, 09:51:09
649$ sind derzeit 416€ ;D;D

Da IMPORTIER ich doch aus USA und zahle GERNE die Einfuhrumsatzsteuer (20% in .at) + Transport ;)

Mehr als 550€ inkl. aller Gebühren wirds aus USA nicht :)

670€ -> ROFL
Was ist denn daran jetzt so ungewöhnlich? Als die G8800GTX erschien wollten manche Händler sogar 699€ obwohl die UVP bei 599$ lag. Ich meine sogar, du hättest die 699€ bezahlt. ;)

Adam D.
2008-06-10, 10:00:12
wenn du bei nem highend 3 ghz quad von cpu limit redest nervt das, das teil stellt wohl upper end auch hier im forum dar. und man sollte realistisch bleiben 3 ghz 45nm intel power sind wohl auch die zu erwartende plattform für den grünen bolliden.

wie stellst du dir das denn vor?
sollen die karten gleich von striker oder sonstwem getestet werden, mit flüssiger stickstoff kühlung? alles am limit? ist das dann vergleichbar?
Ne, aber dann sollen hier die Leute aufhören von enttäuschenden Resultaten zu sprechen. Wenn die Performance an der CPU hängt, kann die GPU auch nix dafür. Aber dann flennen hier 90% der Leute schon wieder rum "OMG, kack karte!11!!1".

Schlammsau
2008-06-10, 10:02:11
Ne, aber dann sollen hier die Leute aufhören von enttäuschenden Resultaten zu sprechen. Wenn die Performance an der CPU hängt, kann die GPU auch nix dafür. Aber dann flennen hier 90% der Leute schon wieder rum "OMG, kack karte!11!!1".

die wenigesten flennen hier rum!
nur die meisten hier haben ihre Erwartungen, gelinde gesagt, ein klein wenig zu hoch gesteckt!
Und wenn ein 3Ghz Quad für 800€ nicht ausreicht, dann ist das nicht unser Problem!

Adam D.
2008-06-10, 10:06:59
die wenigesten flennen hier rum!
nur die meisten hier haben ihre Erwartungen, gelinde gesagt, ein klein wenig zu hoch gesteckt!
Und wenn ein 3Ghz Quad für 800€ nicht ausreicht, dann ist das nicht unser Problem!
Wenn ich von (min.) doppelter G80-Performance ausgehe, dann hab ich meine Erwartungen nicht zu hoch gesteckt. Dass die GTX280 schätzungsweise an 'nem 800€-Prozessor hängen wird, ist in der Tat dämlich. Aber selbst mit normaler Kühlung kriegt man den auf >3,5GHz und mit jedem MHz mehr kann die GTX280 ihre Power weiter ausspielen.

Schlammsau
2008-06-10, 10:16:15
Wenn ich von (min.) doppelter G80-Performance ausgehe, dann hab ich meine Erwartungen nicht zu hoch gesteckt. Dass die GTX280 schätzungsweise an 'nem 800€-Prozessor hängen wird, ist in der Tat dämlich. Aber selbst mit normaler Kühlung kriegt man den auf >3,5GHz und mit jedem MHz mehr kann die GTX280 ihre Power weiter ausspielen.

ich würde nur von 1,5 bis maximal 2 facher Leistung ausgehen!
Und da von einem CPU Limit bei einem QX9650 auszugehen, halt ich für sehr gewagt!

Gast
2008-06-10, 10:17:01
Bei doppelter 8800-Ultra-Performance ist sie locker 500€ wert, wenn zudem der Energieverbrauch deutlich unter dem von zwei 8800 Ultras liegt.
Und die 9800 GX2 ist für den qualitätsverwöhnten User ohnehin keine Alternative, weil die GX2 effektiv zu wenig Grafikspeicher hat und an Mikrorucklern leidet.


Sie ist das wert, was die Leute bereit sind dafür zu zahlen...

mapel110
2008-06-10, 10:18:24
Ist doch völlig logisch, dass man die Karte auch ausreizen muss, dass man auch bei kleineren CPUs etwas davon hat. Ich versteh nicht, warum hier alle so geil auf 500 fps sind.
Aktuelle CPUs reichen für alle Spiele aus. Nur aktuelle Grafikkarten reichen nicht für alle Auflösungen und AA-Modi aus.

Gast
2008-06-10, 10:20:06
... Nur aktuelle Grafikkarten reichen nicht für alle Auflösungen und AA-Modi aus.

Liegt wahrscheinlich daran dass es unendlich viele Auflösungen gibt...?!

James Ryan
2008-06-10, 10:21:14
Und da von einem CPU Limit bei einem QX9650 auszugehen, halt ich für sehr gewagt!

Mit Verlaub, 3 GHz sind recht wenig heutzutage. In Spielen bringt ein Quad dazu eh kaum etwas.
Und man bekommt schon einen 150€-Quad (Q6600) auf 3,6 GHz, ein Wolfdale (E8400) mal eben auf 4 GHz.
Und du willst mir doch nicht erzählen, dass jemand, der sich eine GTX 280 kauft, sich mit einem 3 GHz Quad zufrieden gibt.
Klar, das Ding ist schnell, reizt eine GTX 280 aber nicht aus, schon garnicht im 3DMurks.
In grafiklimitierten Spielen sieht das wiederum anders aus (Beispiel Crysis).

MfG :cool:

Adam D.
2008-06-10, 10:21:33
ich würde nur von 1,5 bis maximal 2 facher Leistung ausgehen!
Und da von einem CPU Limit bei einem QX9650 auszugehen, halt ich für sehr gewagt!
Vielleicht hab ich das etwas misverständlich ausgedrückt, es ging mir ja hauptsächlich um die 3DMark-Performance, wenn ich vom CPU-Limit spreche. Wenn man der GTX280 ordentlich Dampf unterm Hintern macht (1920x1040 + Qualitätseinstellungen), dann wird da keine CPU mehr groß mit reden ;)
Bzgl. der Performance-Einschätzung sprechen wir uns in einer Woche nochmal, dann wissen wir ja beide mehr :wink:

Grestorn
2008-06-10, 10:24:27
Mit Verlaub, 3 GHz sind recht wenig heutzutage. In Spielen bringt ein Quad dazu eh kaum etwas.
Und man bekommt schon einen 150€-Quad (Q6600) auf 3,6 GHz, ein Wolfdale (E8400) mal eben auf 4 GHz.
Und du willst mir doch nicht erzählen, dass jemand, der sich eine GTX 280 kauft, sich mit einem 3 GHz Quad zufrieden gibt.
Klar, das Ding ist schnell, reizt eine GTX 280 aber nicht aus, schon garnicht im 3DMurks.
In grafiklimitierten Spielen sieht das wiederum anders aus (Beispiel Crysis).

Nochmal: Es gibt auch Leute die auf Stabilität mehr Wert legen als auf das letzte FPS.

In GPU Reviews CPUs zu nehmen, die um mehr als 10% übertaktet sind, ist m.E. unseriös.

AnarchX
2008-06-10, 10:25:39
Die Leistung ist in der Tat noch ein größeres Fragezeichen, so wurden mir Zahlen zugetragen, die NV verspricht, aber auf der anderen Seite wieder nicht. :hammer:

Naja, vielleicht weist GT200 eher eine R520/580 Leistungscharakteristika auf. :uponder:

Adam D.
2008-06-10, 10:26:29
Nochmal: Es gibt auch Leute die auf Stabilität mehr Wert legen als auf das letzte FPS.

In GPU Reviews CPUs zu nehmen, die um mehr als 10% übertaktet sind, ist m.E. unseriös.
Dann ist CB mit ihrem 4GHz-Quad unseriös?

Es gibt doch schon genug Review-Seiten, die mit normalen Prozessoren arbeiten, wieso dann nicht einige, die mit stark übertakteten Modellen zeigen, wo es hingehen kann?

Grestorn
2008-06-10, 10:28:20
Bei CPU Tests gerne. Aber nicht bei GPU Tests. Da finde ich das unseriös.

Wenn man ein CPU Limit ausschließen will, dann soll man Auflösung, AA und AF hochdrehen!

Adam D.
2008-06-10, 10:32:16
Die Leistung ist in der Tat noch ein größeres Fragezeichen, so wurden mir Zahlen zugetragen, die NV verspricht, aber auf der anderen Seite wieder nicht. :hammer:

Naja, vielleicht weist GT200 eher eine R520/580 Leistungscharakteristika auf. :uponder:
Faszinierend, dass so kurz vor dem Launch noch so ein großes Fragezeichen über der Performance steht. Gibt Quellen für beide Seiten, also für "Ultra-Pwnage!11" und für "Narf, fail!!11". Ich bin echt richtig gespannt :D

Bei CPU Tests gerne. Aber nicht bei GPU Tests. Da finde ich das unseriös.

Wenn man ein CPU Limit ausschließen will, dann soll man Auflösung, AA und AF hochdrehen!
Macht man doch auch so. Aber ich sehe schon, wir haben da unterschiedliche Ansichten, das ist ja auch ok :biggrin:

Schlammsau
2008-06-10, 10:40:44
Faszinierend, dass so kurz vor dem Launch noch so ein großes Fragezeichen über der Performance steht. Gibt Quellen für beide Seiten, also für "Ultra-Pwnage!11" und für "Narf, fail!!11".

nur leider mehren sich gerade jetzt die Anzeichen, dass er wahrscheinlich nicht das ist was die meisten erhofft haben!

Odal
2008-06-10, 10:42:16
hier werden noch so einige seifenblasen zerplatzen...ich seh hier schon viele enttäuschte kinderaugen vor mir...buuuuhhhh die GTX280 wird nicht doppelt so schnell oder mehr wie ne 88Ultra *heul, wein* :D

seid doch mal realistisch schon allein laut dem was auf dem papier steht kann sie es nicht sein (Raff hats mal ansatzweise vorgerechnet)
ausserdem hat NV keinen grund eine über megakarte zu verkaufen die drehn euch lieber ein paar monate später wieder ein etwas schnelleres modell an)
zwischen einer ultra und 2,5-3 ultras (wie hier wahnsinniger weise spekuliert wird) liegen nämlich so einige grafikkarten die verkauft werden könnten

und das hier leute aus xtreme systems die dort schon lange registriert sind und augenscheinlich nur nvidia hardware besitzen, als ati biased bezeichnet werden nur weil sie schon erste vergleiche andeuten ist schon mal lol

Adam D.
2008-06-10, 10:44:13
nur leider mehren sich gerade jetzt die Anzeichen, dass er wahrscheinlich nicht das ist was die meisten erhofft haben!
Wie gesagt, vorsichtig mit solchen Aussagen. Ich sag's mal so: wenn sie nach der Zeit mit dem Chip nicht das erreicht haben, was man sich realistisch erhoffen kann, wäre das ein Rückschlag und irgendwie untypisch für Nvidia in der aktuellen Situation.

mrt
2008-06-10, 11:10:29
Die Leistung ist in der Tat noch ein größeres Fragezeichen, so wurden mir Zahlen zugetragen, die NV verspricht, aber auf der anderen Seite wieder nicht. :hammer:

Naja, vielleicht weist GT200 eher eine R520/580 Leistungscharakteristika auf. :uponder:
In hohen Auflösungen wird der G200 schon davonziehen. Außerdem vermute ich, dass das 8xMSAA-Problem beseitigt wurde, sollte sich also schon bei den richtigen Settings 2*G80 ausgehn, aber sicher nicht bei 1280x1024 4xAA ;D
Es wird sowieso eine ähnliche Situation wie R580 zu G71 geben, nur mit vertauschten Rollen.

mapel110
2008-06-10, 11:14:33
(Raff hats mal ansatzweise vorgerechnet)

Raff steht mit seiner Meinung aber ziemlich allein da von unseren Insidern.

GeneralHanno
2008-06-10, 11:17:11
Raff steht mit seiner Meinung aber ziemlich allein da von unseren Insidern.

raff ist der einzige, der vll schon (bald) eine GTX280 zum benchen hat (natürlich unter NDA ...)

ich denke der GT200 wird KEINE so gute effizienz (leistung/transistor) wie der G80 unter gaming aufweisen, weil der GT200 eben nicht als reine gaming-maschine, sondern auch als paralleler-co-prozessor entwickelt wurde (größere register, mehr SP, caches, DP, usw ...)

Sorkalm
2008-06-10, 11:18:05
Raff steht mit seiner Meinung aber ziemlich allein da von unseren Insidern.

Ich glaube nicht, dass er die Karte schon hat. ;)

Odal
2008-06-10, 11:24:11
raff ist der einzige, der vll schon (bald) eine GTX280 zum benchen hat (natürlich unter NDA ...)

ich denke der GT200 wird KEINE so gute effizienz (leistung/transistor) wie der G80 unter gaming aufweisen, weil der GT200 eben nicht als reine gaming-maschine, sondern auch als paralleler-co-prozessor entwickelt wurde (größere register, mehr SP, caches, DP, usw ...)

so sehe ich das auch...der GT200 ist nicht als reine gaming card konzipiert sondern soll das zugpferd für CUDA werden...sprich erstmal eher wissenschaft und entwicklung und später rechenleistung für cuda applikationen in der industrie (oder halt dessen nachfolger)

Raff steht mit seiner Meinung aber ziemlich allein da von unseren Insidern.

naja von ailuros liest man auch nicht mehr soviel ;)

das der typ ORB der die aussage traf 2x4850>GTX280 in crysis nicht ATI biased ist zeigt schon

actually OBR is the biggest nVidia fanboy ever... the fact that he isn't excited has me quite worried :(

ich denke mal schon das hier die GTX280 als gaming karte maßlos überschätzt wird

mrt
2008-06-10, 11:25:14
PCGH hat sicher schon Testexemplare, nur ob Raff darauf zugriff hat ist eine andere Frage ;)

Schlammsau
2008-06-10, 11:26:34
Raff steht mit seiner Meinung aber ziemlich allein da von unseren Insidern.

Robbitop nicht zu vergessen......
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6569085#post6569085

The_Invisible
2008-06-10, 11:31:10
freue mich schon auf die ersten richtigen tests.

da wird meine produktivität in der firma wieder ins bodenlose fallen ;D

mfg

OgrEGT
2008-06-10, 11:31:15
"Getestet wurde mit einem Intel QX9650 @ 3 GHz[...]"

1. Punkt: who the fuck cares for 3DMark?
2. Punkt: GTX280 und 'nen 3GHz-QC? CPU-Limit ftw?

Vielleicht liege ich falsch, aber alle Karten wurden mit der gleichen CPU getestet. Das würde bedeuten, jeder Testaufbau müsste von der gleichen CPU Limitierung betroffen sein. Jedoch liegt die HD 3870X2 doch sehr deutlich vorne (außer in den extrem hohen Quality settings)...? Wie erklärt sich das dann?

mapel110
2008-06-10, 11:35:40
Robbitop nicht zu vergessen......
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6569085#post6569085
hehe, ohne Robbitop zu nahe treten zu wollen, aber er lag schon mehr als einmal daneben.
Wie kann man nur zu der Annahme kommen, dass der GT200 ineffektiver werden wird?! Wann war das jemals in der GPU-Geschichte der Fall?! Ich verfolge das Geschehen seit etwa 2000 sehr genau mit.

nvidia bastelt keine neue API-Kompliance rein und wie gesagt, hat so eine GPU eine Menge Teile, die man gar nicht verdoppeln muss. Also entsprechen 1.4 Milliarden ohnehin ohne jedliche Effizienz-Steigerungen mehr als dem Doppelten.

Schlammsau
2008-06-10, 11:37:42
hehe, ohne Robbitop zu nahe treten zu wollen, aber er lag schon mehr als einmal daneben.
Wie kann man nur zu der Annahme kommen, dass der GT200 ineffektiver werden wird?! Wann war das jemals in der GPU-Geschichte der Fall?! Ich verfolge das Geschehen seit etwa 2000 sehr genau mit.

darum gehts nicht aber in der Gesamtleistung, hat Robbi ja sehr schön dargestellt, ist das Gesamtpaket "nur" 1,6x schneller als seine Vorgänger.....

GeneralHanno
2008-06-10, 11:38:16
hehe, ohne Robbitop zu nahe treten zu wollen, aber er lag schon mehr als einmal daneben.
Wie kann man nur zu der Annahme kommen, dass der GT200 ineffektiver werden wird?! Wann war das jemals in der GPU-Geschichte der Fall?! Ich verfolge das Geschehen seit etwa 2000 sehr genau mit.

nvidia bastelt keine neue API-Kompliance rein und wie gesagt, hat so eine GPU eine Menge Teile, die man gar nicht verdoppeln muss. Also entsprechen 1.4 Milliarden ohnehin ohne jedliche Effizienz-Steigerungen mehr als dem Doppelten.

jup, der spung von G80 auf G92 war "ineffizient" :D

mapel110
2008-06-10, 11:39:18
darum gehts nicht aber in der Gesamtleistung, hat Robbi ja sehr schön dargestellt, ist das Gesamtpaket "nur" 1,6x schneller als seine Vorgänger.....
Wenn man sämtliche CPU-limitierten Szenen dazu nimmt, logisch. Wenns drauf ankommt (eben wenn der alten Generation die Luft ausgeht), gehe ich von mehr als 2x aus.

robbitop@work
2008-06-10, 11:44:45
hehe, ohne Robbitop zu nahe treten zu wollen, aber er lag schon mehr als einmal daneben.
Wie kann man nur zu der Annahme kommen, dass der GT200 ineffektiver werden wird?! Wann war das jemals in der GPU-Geschichte der Fall?! Ich verfolge das Geschehen seit etwa 2000 sehr genau mit.

1. du meinst "effizienter" ;)

2. ich sprach von Effizienz pro Ausführungseinheit. Und natürlich gab es das schon öfter in der Geschichte. R580 verlor einiges an Effizienz pro Ausführungseinheit, durch Granularität und Steuerlogik. Beim G70 genauso (Registerfile limitierte da, er hatte zwar 2x theoretische MAD-Rate pro Pipe wie NV40, aber real natürlich nicht)

3. irren ist leicht, wenn man keine Specs hat und diese dann anders kommen (Verwirrtaktik der IHV). Hat man die Specs jedoch, ist irren viel schwerer. ;)

4. einfach mal über den Gesamtkontext nachdenken :)

AnarchX
2008-06-10, 11:48:20
Auch wenn es schon klar ist.

So ist NVs Statement, weshalb D3D10.1 nicht unterstützt wird doch vielleicht gar nicht mal so uninteressant:

...

Also dürfte das "D3D10.1-MSAA" auch machbar sein, wenn vielleicht nicht ganz so einfach wie unter D3D10.1 mit API-Support, aber NV steht ja entsprechend gut zu den Devs.

robbitop@work
2008-06-10, 11:49:22
Wenn man sämtliche CPU-limitierten Szenen dazu nimmt, logisch. Wenns drauf ankommt (eben wenn der alten Generation die Luft ausgeht), gehe ich von mehr als 2x aus.
Wer bencht denn bitte CPU-limitierte Szenen in einem Grafikkartentest? Vermutlich wohl nur Computer-Bild. ;)

Allerdings ist mir immernoch unklar, wo die Transistoren geblieben sind. In 1,4 Mrd Transistoren bekommst du 2x komplette G80s rein. Was das angeht ist mir die Sache auch ein Rätsel. Ohne B3D oder einen gesprächigen NV Ingenieur werden wir das zum Launch aber auch nicht wissen. ;)

AnarchX
2008-06-10, 11:51:18
Allerdings ist mir immernoch unklar, wo die Transistoren geblieben sind. In 1,4 Mrd Transistoren bekommst du 2x komplette G80s rein. Was das angeht ist mir die Sache auch ein Rätsel. Ohne B3D oder einen gesprächigen NV Ingenieur werden wir das zum Launch aber auch nicht wissen. ;)

Vielleicht Logik für X86-Support, die man aber mangels Lizenz noch nicht preisgegeben und aktivieren kann. ;D

GeneralHanno
2008-06-10, 11:55:20
Allerdings ist mir immernoch unklar, wo die Transistoren geblieben sind. In 1,4 Mrd Transistoren bekommst du 2x komplette G80s rein. Was das angeht ist mir die Sache auch ein Rätsel. Ohne B3D oder einen gesprächigen NV Ingenieur werden wir das zum Launch aber auch nicht wissen.

MIR ist bis heute nich klar, wafür die transistoren vom sprung G80 zu G92 drauf gegangen sind ;D;D

Sorkalm
2008-06-10, 11:58:02
Vielleicht Logik für X86-Support, die man aber mangels Lizenz noch nicht preisgegeben und aktivieren kann. ;D

Dafür würde man aber eine Lösung finden. Und wenn man VIA nur als Zwischenhändler einspannt, der dann den x86-Support "aktiviert".

AnarchX
2008-06-10, 11:58:41
MIR ist bis heute nich klar, wafür die transistoren vom sprung G80 zu G92 drauf gegangen sind ;D;D
Laut Arun belegen ja die Cluster abzüglich den ALUs bei G200 immerhin 26% der Fläche:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6540462&postcount=1666
Also wohl schon etwas über 300M Transistoren für 10, wo dann die 8 bei G92 wohl bei 240M liegen dürften.

Spasstiger
2008-06-10, 11:58:51
MIR ist bis heute nich klar, wafür die transistoren vom sprung G80 zu G92 drauf gegangen sind ;D;D
VP2 (Videoprozessor) und 64 statt 32 TAs (Texturadressierungseinheiten).

reunion@work
2008-06-10, 11:59:11
Auch wenn es schon klar ist.

So ist NVs Statement, weshalb D3D10.1 nicht unterstützt wird doch vielleicht gar nicht mal so uninteressant:



Also dürfte das "D3D10.1-MSAA" auch machbar sein, wenn vielleicht nicht ganz so einfach wie unter D3D10.1 mit API-Support, aber NV steht ja entsprechend gut zu den Devs.

Was soll man auch sonst sagen? Wichtigste Marketingregel: Was man nicht hat ist unnötig.

Allerdings ist mir immernoch unklar, wo die Transistoren geblieben sind. In 1,4 Mrd Transistoren bekommst du 2x komplette G80s rein. Was das angeht ist mir die Sache auch ein Rätsel. Ohne B3D oder einen gesprächigen NV Ingenieur werden wir das zum Launch aber auch nicht wissen. ;)

Dinge wie ein endlich brauchbarer GS, zumindest 1Tri/clock, verschiedenste GPCPU-Optimierungen und dgl. könnten durchaus einiges kosten IMO.

Gast
2008-06-10, 12:00:00
MIR ist bis heute nich klar, wafür die transistoren vom sprung G80 zu G92 drauf gegangen sind ;D;D
NVIO?

Sorkalm
2008-06-10, 12:00:24
Was soll man auch sonst sagen? Wichtigste Marketingregel: Was man nicht hat ist unnötig.

Klar. Aber vorher müssen sich auch Ingenieure mal Gedanken gemacht haben.

Gast
2008-06-10, 12:10:19
seid doch mal realistisch schon allein laut dem was auf dem papier steht kann sie es nicht sein (Raff hats mal ansatzweise vorgerechnet)



Raff hat aber nicht die Auslastung der Einheiten berücksichtigt, ein ganz grosser Fehler!

Odal
2008-06-10, 12:12:32
Raff hat aber nicht die Auslastung der Einheiten berücksichtigt, ein ganz grosser Fehler!

ja du meinst das der G80/G92 so unausbalanciert war das der GTX280 jetzt das optimum darstellt? selbst wenn könnte grob geschätzt nur das an mehrleistung dazu kommen was prozentual am meisten "erweitert" wurde

mapel110
2008-06-10, 12:18:19
R580 verlor einiges an Effizienz pro Ausführungseinheit, durch Granularität und Steuerlogik. Beim G70 genauso

Meinst du das Checklist-Feature dynamic branching, was zu Lebzeiten beider Chips nie eine Rolle spielte?!
Insgesamt steigerten beide Chips die Leistung enorm in realen Anwendungen und von nichts anderem reden wir hier.

einfach mal über den Gesamtkontext nachdenken :)
Der Gesamtkontext lässt keinen anderen Schluss zu, dass GT200 die Leistung nicht nur um popelige 1.6x steigern wird.

Gast
2008-06-10, 12:28:28
ja du meinst das der G80/G92 so unausbalanciert war das der GTX280 jetzt das optimum darstellt? selbst wenn könnte grob geschätzt nur das an mehrleistung dazu kommen was prozentual am meisten "erweitert" wurde


Nein, ich meine, dass sich eine MADD-MUL Architektur (a) wesentlich besser auslasten lässt, als einen reine MADD Architektur (b).

Best case Betrachtung, Code hat sehr viele MULs:

a) MADD Einheit ist zu etwa 0% blockiert
b) MADD Einheit ist zu etwa 100% blockiert

Mann kann nicht einfach sagen von MADD auf MADD-MUL sind nur 50% mehr Flops.


Code: ADD-MUL oder MADD-MUL

Architektur a) 1 Takt
Architektur b) 2 Takte

Da haben wir schon eine Verdoppelung der Rechenleistung.

Gast
2008-06-10, 12:29:25
Nächste Woche um diese zeit wissen wir mehr, der User ORB aus dem XS Forum, der mit der Aussage 4850CF > GTX280 hat angekündigt heute erste Benchmarks der 4850 zu posten.

Auch wenn ich mir wünsche, das die GTX280 der Hammer wird, scheint wohl etwas Wahres dran zu sein, das die Karte die Erwartungen nicht ganz erfüllen kann.

http://www.xtremesystems.org/forums/showpost.php?p=3049772&postcount=1773