PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 6] - Übersicht in #1!


Seiten : 1 2 [3] 4 5

4711
2008-06-13, 13:39:15
aja danke
1296 orig..ist das jetzt viel oder wenig oder einfach völlig wurst?
Als Vergleich 1870 (OC) bei meiner GX2,oder kann man das nicht miteinander vergleichen?

dildo4u
2008-06-13, 13:42:49
Der Chip ist halt doppelt so groß wie ein G92 von daher schon ein Kunstück den im selben Fertigungsprozess auf 1.3-1.5Ghz zu bringen.Ich schätze 1.5Ghz werden beim Winter Refrech des G200 Default Shadertakt sein.

Godmode
2008-06-13, 13:46:02
Ich bin schon auf das Übertaktungspotenzial der GTX 280 gespannt. Ich bin der Meinung das mit dem 65nm Prozess 700-750 MHz Chiptakt bzw 1800 - 2000 MHz Shadertakt möglich sein werden. Das Problem ist wohl die Hitze die dadurch entsteht, da müsste man dann schon eine Wassserkühlung verwenden um das alles noch halbwegs lautlos kühlen zu können.

AnarchX
2008-06-13, 13:50:27
Als Vergleich 1870 (OC) bei meiner GX2,oder kann man das nicht miteinander vergleichen?

Deine OC-GX2:
2*128*~2,3 FLOPs * 1,87GHz = 1101GFLOPs

GTX 280 Default:
240*3 FLOPs*1,296GHz = 933GFLOPs

Ich bin schon auf das Übertaktungspotenzial der GTX 280 gespannt. Ich bin der Meinung das mit dem 65nm Prozess 700-750 MHz Chiptakt bzw 1800 - 2000 MHz Shadertakt möglich sein werden. Das Problem ist wohl die Hitze die dadurch entsteht, da müsste man dann schon eine Wassserkühlung verwenden um das alles noch halbwegs lautlos kühlen zu können.
OC Versionen der AIBs scheinen wohl mit bis zu 650-675MHz kommen.

4711
2008-06-13, 13:55:24
Deine OC-GX2:
2*128*~2,3 FLOPs * 1,87GHz = 1101GFLOPs

GTX 280 Default:
240*3 FLOPs*1,296GHz = 933GFLOPs


OC Versionen der AIBs scheinen wohl mit bis zu 650-675MHz kommen.

Das ist nett von Dir das du mir die Daten um die Ohren haust,sind leider alles Böhmische Dörfer für mich.
Ist das jetzt ok für die 280er oder "viel" zuwenig=es fehlt massig Leistung wenn man die reinen MHZ Zahlen sieht,oder im Grund egal weils eh nix bringt?

AnarchX
2008-06-13, 14:00:17
Das ist nett von Dir das du mir die Daten um die Ohren haust,sind leider alles Böhmische Dörfer für mich.

http://de.wikipedia.org/wiki/GFLOPS
;)

Die 9800GX2 kommt schon ziemlich nah der GTX 280 im theoretischen Maximum der arithmetischen Leistung. Aber in der Realität kann es dank umfangreicher Optimierungen bei G200 im Bezug auf die Arithmetik doch etwas besser aussehen.

4711
2008-06-13, 14:04:02
nun gut :D so langsam rede ich sie mir schön.
Für 450-500€ kann ich dann auch nicht mehr bis zum Winter warten.

Gast
2008-06-13, 14:19:13
In Japan sind die Karten angeblich für 650 bis 750.- Euro gelistet!

Die 499.- $ sind wohl doch nicht war?

AnarchX
2008-06-13, 14:21:35
In Japan sind die Karten angeblich für 650 bis 750.- Euro gelistet!

Die 499.- $ sind wohl doch nicht war?
Laut Expreview scheint wohl die GTX 280 bei $649 zu bleiben:
http://en.expreview.com/2008/06/13/gtx-200-finally-officially-priced/

btw.
Da scheint wohl schon jemand seine GTX 280 zu haben:
http://www.benchmark.co.yu/forum/showthread.php?t=164842&page=14

Gast
2008-06-13, 14:24:08
Da werden wohl sowieso nur so wenige Karten verfügbar sein dass der Preis automatisch oben bleibt...

-=Popeye=-
2008-06-13, 14:24:52
Mher GTX280 Vantage Scores@Default und mit OC 675/1450/1200.

Default P-Score

http://ukj58sa8.multipic.de/vanteg.jpg

OC 675/1450/1200 P-Score

http://ukj58sa8.multipic.de/oc-gtxd.jpg

Default X Score

http://ukj58sa8.multipic.de/defcault-x.jpg

OC 675/1450/1200 X-Score

http://ukj58sa8.multipic.de/oc-gtx-xd.jpg

http://www.xtremesystems.org/forums/showpost.php?p=3058422&postcount=1606

da ist aber was oberfaul ^^

http://resources.vr-zone.com//newspics/Jun08/12/3SLI_GTX280_m.png

http://vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

dildo4u
2008-06-13, 14:27:28
Was soll da faul sein 3Way SLI Skaliert halt scheisse oder man braucht für 30000 Punkte eine 5 oder 6GHz CPU.Ich tippe auf eine Mischung aus beidem nicht vergessen die P-Score ist nur 1280*1024 ohne AA und AF also dann whol bei 3 Karten schon sher CPU Limitiert.

Godmode
2008-06-13, 14:28:02
da ist aber was oberfaul ^^

http://resources.vr-zone.com//newspics/Jun08/12/3SLI_GTX280_m.png

http://vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

Deine Zahlen sind mit TRI-SLI entstanden.

Der Chip ist halt doppelt so groß wie ein G92 von daher schon ein Kunstück den im selben Fertigungsprozess auf 1.3-1.5Ghz zu bringen.Ich schätze 1.5Ghz werden beim Winter Refrech des G200 Default Shadertakt sein.

Ich glaube nicht das es hier einen Zusammenhang gibt -> größerer Chip, weniger Takt. Eher glaube ich das niedrige Takt aus der enormen Abwärme resultiert.

Taigatrommel
2008-06-13, 14:28:20
Laut Expreview scheint wohl die GTX 280 bei $649 zu bleiben:
http://en.expreview.com/2008/06/13/gtx-200-finally-officially-priced/

btw.
Da scheint wohl schon jemand seine GTX 280 zu haben:
http://www.benchmark.co.yu/forum/showthread.php?t=164842&page=14
Sollte der Preis bei 649,- bleiben und die Performance keinerlei positive Überraschungen bieten, dann werde ich wohl noch warten. Für den Preis bei der aktuell sich abzeichnenden Performance ist diese Karte schlicht uninteressant.

4711
2008-06-13, 14:28:39
Laut Expreview scheint wohl die GTX 280 bei $649 zu bleiben:
http://en.expreview.com/2008/06/13/gtx-200-finally-officially-priced/

btw.
Da scheint wohl schon jemand seine GTX 280 zu haben:
http://www.benchmark.co.yu/forum/showthread.php?t=164842&page=14
649$ sind 423€ :eek:

Sonyfreak
2008-06-13, 14:33:37
649$ sind 423€ :eek:Naja dazu kommen noch diverse Steuern, wodurch man im Endeffekt auf einen wesentlich höheren Preis kommt, als wenn man die Werte einfach direkt umrechnet. :(

mfg.

Sonyfreak

Gast
2008-06-13, 14:34:11
649$ sind 423€ :eek:

+Deppenaufschlag! ;)

Schlammsau nicht daheim
2008-06-13, 14:36:40
649$ sind 423€ :eek:

Nur wird sind das die Preise ohne Steuern! ;)
Ich denke der Preis wird sich Anfangs zwischen 500 und 600€ liegen!
Viel zu hoch für die gebotene Leistung und deswegen wird sie innerhalb kürzester Zeit auf unter 500€ fallen!

Gast
2008-06-13, 14:39:23
4711 sagt schöööö das muß ich nicht haben,die Beteiligten wissen warum,mein Name kann komplett gestrichen werden!

Gast
2008-06-13, 14:39:50
Sollte der Preis bei 649,- bleiben und die Performance keinerlei positive Überraschungen bieten, dann werde ich wohl noch warten. Für den Preis bei der aktuell sich abzeichnenden Performance ist diese Karte schlicht uninteressant.

Eine GX2 kostet auch um die 649.- $ von dem her ist die Karte immer noch recht gut für den Preis.

Gast
2008-06-13, 14:42:41
http://img238.imageshack.us/img238/9814/gpuz1xg7.th.png (http://img238.imageshack.us/my.php?image=gpuz1xg7.png)

Das dürfte wohl der 2D Takt sein und wohl erst noch sehr leise bei 728RPM!

Gast
2008-06-13, 14:45:41
649$ das werden wohl um die 600 Euro bei uns werden.... Na viel Spaß

-=Popeye=-
2008-06-13, 14:46:20
Was soll da faul sein 3Way SLI Skaliert halt scheisse oder man braucht für 30000 Punkte eine 5 oder 6GHz CPU.Ich tippe auf eine Mischung aus beidem nicht vergessen die P-Score ist nur 1280*1024 ohne AA und AF also dann whol bei 3 Karten schon sher CPU Limitiert.

mag sein.

Deine Zahlen sind mit TRI-SLI entstanden.

das weiß ich auch aber P10k sind eindeutig zuviel für eine Karte im Vergleich zu 3Way SLI.

dargo
2008-06-13, 14:48:00
http://img238.imageshack.us/img238/9814/gpuz1xg7.th.png (http://img238.imageshack.us/my.php?image=gpuz1xg7.png)

Das dürfte wohl der 2D Takt sein und wohl erst noch sehr leise bei 728RPM!
Ui, da geht man aber sehr tief mit den Taktraten runter, vorallem beim Speicher. Aber was sollen die beiden Sensoren bei der GPU?

dildo4u
2008-06-13, 14:48:44
das weiß ich auch aber P10k sind eindeutig zuviel für eine Karte im Vergleich zu 3Way SLI.
Wie gesagt sind sie nicht eine 9800GX2 kommt auch auf ~10000 Punkte und kostet zur Zeit ca 370€ von daher muss eine neue 500€ High-End Karte das minimal auch bringen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/7/#abschnitt_3dmark_vantage

Gast
2008-06-13, 14:50:03
Ui, da geht man aber sehr tief mit den Taktraten runter, vorallem beim Speicher. Aber was sollen die beiden Sensoren bei der GPU?

Ui, ist ja auch garkein Fake :P hast du dir schon mal die Crysis "Benchmarks" angesehen, besonders das Datum^^

Gast
2008-06-13, 14:51:12
Ui, da geht man aber sehr tief mit den Taktraten runter, vorallem beim Speicher. Aber was sollen die beiden Sensoren bei der GPU?


Jo und bei den Takt grade mall 50 C.Das ist ziemlich viel.

dargo
2008-06-13, 14:58:19
Jo und bei den Takt grade mall 50 C.Das ist ziemlich viel.
Finde ich überhaupt nicht. Erstens ist nichts zur Raumtemperatur bekannt. Zweitens komme ich bei 20°C Zimmertemperatur bei meiner G80GTS mit nur 681Mio. Transistoren @200/200Mhz auf 47°C in Idle. Der Lüfter dreht dabei mit unhörbaren 1435RPM (54%). Wenn also der selbe Lüfter verwendet wird steht dieser mit 728RPM schon bald. :D

Gast
2008-06-13, 15:00:14
Haltet ihr das für realistisch, dass die EVGA GTX 280 BlackPearl auf 700 MHz Chiptakt kommt? Immerhin wassergekühlt, dennoch vielleicht ein wenig zu hoch gegriffen...

http://www.hardware-infos.com/news.php?news=2146

Raff
2008-06-13, 15:04:22
Das Verhältnis wird aber von den Boardpartnern bei OC-Versionen öfter mal verändert, sodass zwar der GPU-Takt, nicht aber der Shadertakt stark steigt. Abgesehen davon kann der Rivatuner ja auch alles ändern. :)

Haltet ihr das für realistisch, dass die EVGA GTX 280 BlackPearl auf 700 MHz Chiptakt kommt? Immerhin wassergekühlt, dennoch vielleicht ein wenig zu hoch gegriffen...

http://www.hardware-infos.com/news.php?news=2146

17 Prozent mehr GPU-Takt. Ein Anzeichen dafür, dass die Teile noch Reserven haben?

MfG,
Raff

Gast
2008-06-13, 15:06:09
Aber sind prinzipiell 700 MHz möglich? Fände ich eine interessante Frage - 675 MHz wurden ja gestern im Forum von Chiphell schon luftgekühlt erreicht.

Gast
2008-06-13, 15:08:49
das weiß ich auch aber P10k sind eindeutig zuviel für eine Karte im Vergleich zu 3Way SLI.

Wie oft den noch???

3DMark ist bei solchen Systemen klar am CPU limit zudem man einen G200 kaum in einer 1280x1024 Testen sollte, erst recht nicht mit solchen schwachen CPUs.

Die Karte macht unter der extrem (1900x1200 4AA 16AF) Einstellung x5000 Punkte, eine GX2 x3800 oder 8800GTX x2600!

Gast
2008-06-13, 15:10:22
Haltet ihr das für realistisch, dass die EVGA GTX 280 BlackPearl auf 700 MHz Chiptakt kommt? Immerhin wassergekühlt, dennoch vielleicht ein wenig zu hoch gegriffen...

http://www.hardware-infos.com/news.php?news=2146

Der Takt beim G200 dürfte wohl eher an der TDP scheitern bei LuKü als am Chip selber, von dem her halte ich die 700MHz unter WaKü für gut möglich!

Gast
2008-06-13, 15:53:37
Es gibt übringens 9800 GTX-Chips mit bis zu 770 MHz im Handel.

Aber mal was anderes:
Weiß nicht, ob es schon gepostet wurde. Bei VR-Zone ist nun ein Bild der XFX-Karte (GTX 280) aufgetaucht. :)

http://forums.vr-zone.com/showthread.php?t=288296

davidzo
2008-06-13, 16:01:32
IMO müssten dann alle Spiele profitieren die an der Shaderleistung hängen.


Jene spiele werden aber bei der hd4870 x2 deutlich mehr shaderpower vorfinden. Trotz der optimierungen würde ich sagen dass du mit 933gflops nicht den hauch einer chance gegen 2,4Teraflops hast. Die stärken der GTX280 liegen in anderen Bereichen. Bei der shadinbgpower hat selbst eine midrange 4850 die nase vorn...

Der Takt beim G200 dürfte wohl eher an der TDP scheitern bei LuKü als am Chip selber, von dem her halte ich die 700MHz unter WaKü für gut möglich!

Das ist keine reine TDP-Sache, denn die größe des chips wirkt sich auch auf die taktbarkeit aus. Das liegt an der enormen Transistorenzahl und den damit verbundenen schlechten Yields - das Kettenproblem. Die Haltbarkeit ist abhängig vom schwächsten Glied einer Kette. - je mehr Glieder, desto höher die Wahrscheinlichkeit ein schwaches dabei zu haben. Erinnert ihr euch noch an die Athlon Classics, die mit deaktiviertem cache deutlich besser takten? oder die durons, welche mit lediglich 64kbyte cache schärfer übertaktbar waren als mancher jiuhb aus der Mitte des Wafers.

Winter[Raven]
2008-06-13, 16:04:30
Jene spiele werden aber bei der hd4870 x2 deutlich mehr shaderpower vorfinden. Trotz der optimierungen würde ich sagen dass du mit 933gflops nicht den hauch einer chance gegen 2,4Teraflops hast. Die stärken der GTX280 liegen in anderen Bereichen. Bei der shadinbgpower hat selbst eine midrange 4850 die nase vorn...

Nochmal für dich: Flops != Flops ....

The_Invisible
2008-06-13, 16:11:39
Jene spiele werden aber bei der hd4870 x2 deutlich mehr shaderpower vorfinden. Trotz der optimierungen würde ich sagen dass du mit 933gflops nicht den hauch einer chance gegen 2,4Teraflops hast. Die stärken der GTX280 liegen in anderen Bereichen. Bei der shadinbgpower hat selbst eine midrange 4850 die nase vorn...



Das ist keine reine TDP-Sache, denn die größe des chips wirkt sich auch auf die taktbarkeit aus. Das liegt an der enormen Transistorenzahl und den damit verbundenen schlechten Yields - das Kettenproblem. Die Haltbarkeit ist abhängig vom schwächsten Glied einer Kette. - je mehr Glieder, desto höher die Wahrscheinlichkeit ein schwaches dabei zu haben. Erinnert ihr euch noch an die Athlon Classics, die mit deaktiviertem cache deutlich besser takten? oder die durons, welche mit lediglich 64kbyte cache schärfer übertaktbar waren als mancher jiuhb aus der Mitte des Wafers.

sieh dir mal 3870 und 8800gtx in der theorie und praxis an ;)

mfg

Gast
2008-06-13, 16:21:05
Das ist keine reine TDP-Sache, denn die größe des chips wirkt sich auch auf die taktbarkeit aus. Das liegt an der enormen Transistorenzahl und den damit verbundenen schlechten Yields - das Kettenproblem. Die Haltbarkeit ist abhängig vom schwächsten Glied einer Kette.

Ja das schon, nur bedeudet eine hohe TDP und einen grossen Chip auch das man das Limit höher setzten muss als zb. bei einen kleine Chip der recht Kühlbleibt!

Genau deswegen lassen sich die R600 und der G80 bei guter Kühlung im Vergleich zu ihrer grösse sehr gut übertakten! Ich glaube das wird beim G200 genau so sein!

Gast
2008-06-13, 16:29:25
Ja das schon, nur bedeudet eine hohe TDP und einen grossen Chip auch das man das Limit höher setzten muss als zb. bei einen kleine Chip der recht Kühlbleibt!

Genau deswegen lassen sich die R600 und der G80 bei guter Kühlung im Vergleich zu ihrer grösse sehr gut übertakten! Ich glaube das wird beim G200 genau so sein!

Wird dann ne Lotterie^^

Godmode
2008-06-13, 16:42:16
Jene spiele werden aber bei der hd4870 x2 deutlich mehr shaderpower vorfinden. Trotz der optimierungen würde ich sagen dass du mit 933gflops nicht den hauch einer chance gegen 2,4Teraflops hast. Die stärken der GTX280 liegen in anderen Bereichen. Bei der shadinbgpower hat selbst eine midrange 4850 die nase vorn...



Das ist keine reine TDP-Sache, denn die größe des chips wirkt sich auch auf die taktbarkeit aus. Das liegt an der enormen Transistorenzahl und den damit verbundenen schlechten Yields - das Kettenproblem. Die Haltbarkeit ist abhängig vom schwächsten Glied einer Kette. - je mehr Glieder, desto höher die Wahrscheinlichkeit ein schwaches dabei zu haben. Erinnert ihr euch noch an die Athlon Classics, die mit deaktiviertem cache deutlich besser takten? oder die durons, welche mit lediglich 64kbyte cache schärfer übertaktbar waren als mancher jiuhb aus der Mitte des Wafers.

Ich kann mir nicht vorstellen das ATI es schafft, zwei 4780 auf eine Platine zu schnallen, das würde dann in einer TDP münden die jenseits von gut und böse wäre, aber ich lasse mich gerne überraschen.

Eine GTX 280 wird aber auch schon von zwei 4850 in der Theorie schwer geschlagen. Was aber noch niemand weiß, ist wie sich ein RV770 Dualchip Gespann in der Praxis schlägt. Bzw. wie gut die neue Radeon überhaupt wird, also wie schnell sie abseits vom 3DMark sein wird. Bei der GTX kann man davon ausgehen, dass sie sich ähnlich wie G8x/G9x verhalten wird.

Gast
2008-06-13, 16:49:48
sieh dir mal 3870 und 8800gtx in der theorie und praxis an ;)

mfg

Viel besser finde ich da der Vergleich von G94 zu RV670, der G94 hat nur 1/3 der Shader Leistung als der RV670 und kommt aber trotzdem ganz gut mit...

Aquaschaf
2008-06-13, 17:10:50
Viel besser finde ich da der Vergleich von G94 zu RV670, der G94 hat nur 1/3 der Shader Leistung als der RV670 und kommt aber trotzdem ganz gut mit...

So einfach kann man da ja in keine Richtung Schlüsse ziehen. G94 hat auf der anderen Seite ja die doppelte Texturleistung.

Gast
2008-06-13, 17:15:49
So einfach kann man da ja in keine Richtung Schlüsse ziehen. G94 hat auf der anderen Seite ja die doppelte Texturleistung.

Eben, sind komplett verschiedene Architekturen, mal kann die eine ihre stärke ausspielen mal die andere.;)

Gast
2008-06-13, 17:19:51
So einfach kann man da ja in keine Richtung Schlüsse ziehen. G94 hat auf der anderen Seite ja die doppelte Texturleistung.

G200 80TMUs vs RV770 32/40 TMUs ;)

AnarchX
2008-06-13, 17:21:14
Was aber noch niemand weiß, ist wie sich ein RV770 Dualchip Gespann in der Praxis schlägt. Bzw. wie gut die neue Radeon überhaupt wird, also wie schnell sie abseits vom 3DMark sein wird.
Schau mal hier:
http://diybbs.pconline.com.cn/topic.jsp?tid=8725790
... R700 kann man imo doch anhand der X2-Skalierung auch recht gut projezieren.

G200 80TMUs vs RV770 32/40 TMUs ;)
80 vs 2x32 TMUs, und höher als GTX 280 wird wohl R700 auf jeden Fall takten.
Wenn ATi ordentlich Manpower an die Profile setzt und wohlmöglich durch Zeitverzögerungen die Mikroruckler minimiert, wird es für die GTX 280 mehr als gefährlich.

Gast
2008-06-13, 17:34:04
Haltet ihr das für realistisch, dass die EVGA GTX 280 BlackPearl auf 700 MHz Chiptakt kommt? Immerhin wassergekühlt, dennoch vielleicht ein wenig zu hoch gegriffen...

http://www.hardware-infos.com/news.php?news=2146


halte ich durchaus für möglich. ich denke dass die taktraten der neuen karten eher niedrig angesetzt sind um

a) den stromverbrauch halbwegs in zaum zu halten, mit höheren taktraten würde man wohl auf die 250-300W zugehen

b) in diesem marktsegment keine konkurrenz zu fürchten hat (wobei NV wohl von den extrem günstigen preisen der RV770-modelle ziemlich überascht wurde)

Gast
2008-06-13, 17:35:34
Der RV770 kann bei diesen Benchmarks bei 16AF gerade mal auf den G92 aufschliessen, das ist also nicht wirklich die Hammer Leistung!

Godmode
2008-06-13, 17:45:53
Schau mal hier:
http://diybbs.pconline.com.cn/topic.jsp?tid=8725790
... R700 kann man imo doch anhand der X2-Skalierung auch recht gut projezieren.


80 vs 2x32 TMUs, und höher als GTX 280 wird wohl R700 auf jeden Fall takten.
Wenn ATi ordentlich Manpower an die Profile setzt und wohlmöglich durch Zeitverzögerungen die Mikroruckler minimiert, wird es für die GTX 280 mehr als gefährlich.

Wow, wusste gar nicht das wir schon soviel wissen über die 4850, Danke!

Naja die Zahlen schauen ganz gut aus!

tombman
2008-06-13, 17:52:15
Das Gemeine ist ja, daß der Preis für die 260er im Fallen ist, die 280er bleibt aber total teuer :mad:

Adam D.
2008-06-13, 17:57:33
Das Gemeine ist ja, daß der Preis für die 260er im Fallen ist, die 280er bleibt aber total teuer :mad:
Hieß es nicht 499$?

dildo4u
2008-06-13, 17:59:40
Hieß es nicht 499$?
Nein.

http://en.expreview.com/2008/06/13/gtx-200-finally-officially-priced/

fulgore1101
2008-06-13, 17:59:49
Gibts mittlerweile eigentlich auch was handfestes zu Nvidia's Nextgen? Ich lese hier größten Teils nur blabla. Naja Spekulationen halt, außerdem verstehe ich viel
des Technikgelabers auch garnicht ;D

Und was hat es denn mit diesem ominösen G92b auf sich?

Gast
2008-06-13, 18:08:07
Das Gemeine ist ja, daß der Preis für die 260er im Fallen ist, die 280er bleibt aber total teuer :mad:


ist doch immer so, dass das topmodell übertrieben teuer ist, war bei 6800GT vs Ultra, 7800GT vs GTX, 7900GT vs GTX, 8800GTX vs Ultra immer der fall.

Winter[Raven]
2008-06-13, 18:08:55
Wenn ATi ordentlich Manpower an die Profile setzt und wohlmöglich durch Zeitverzögerungen die Mikroruckler minimiert, wird es für die GTX 280 mehr als gefährlich.

Multis sind noch einfach keine Lösung ... , und so schnell kommt das umdenken nicht, da ist der Verbrauch, Lautstärke, MR und Profile...

The_Invisible
2008-06-13, 18:10:20
Viel besser finde ich da der Vergleich von G94 zu RV670, der G94 hat nur 1/3 der Shader Leistung als der RV670 und kommt aber trotzdem ganz gut mit...

ja, stimmt.

btw
wenn beim gt200 wirklich so viele transis für cache draufgehen kann der ja gar nicht soviel mehr verbraten als g80 oder? der core2 ist da ja auch sehr genügsam.

mfg

Superheld
2008-06-13, 18:11:03
Tombman

kannst du vielleicht mal dein Sli anwerfen

die GTX 280 schafft:

Run #3- DX10 1900x1200 AA=No AA, 32 bit test, Quality: High ~~ Overall Average FPS: 44.685
oder such dir was anderes aus;)
http://www.benchmark.co.yu/forum/showpost.php?p=1475340&postcount=344

Gast
2008-06-13, 18:12:14
Tombman

kannst du vielleicht mal dein Sli anwerfen

die GTX 280 schafft:

Run #3- DX10 1900x1200 AA=No AA, 32 bit test, Quality: High ~~ Overall Average FPS: 44.685
oder such dir was anderes aus;)
http://www.benchmark.co.yu/forum/showpost.php?p=1475340&postcount=344

Und VeryHigh?

Superheld
2008-06-13, 18:18:00
Very High kann er auch machen aber sind ja dann nur min Werte vergleichbar wie auf der Seite (Last Average FPS:|)

Gast
2008-06-13, 18:23:59
http://www.itocp.com/attachments/month_0806/20080613_73dc49f03dce7b12f8b6ZTTt4qmF7NL8.jpg

XFX GTX280

dargo
2008-06-13, 18:25:45
Tombman

kannst du vielleicht mal dein Sli anwerfen

die GTX 280 schafft:

Run #3- DX10 1900x1200 AA=No AA, 32 bit test, Quality: High ~~ Overall Average FPS: 44.685
oder such dir was anderes aus;)
http://www.benchmark.co.yu/forum/showpost.php?p=1475340&postcount=344
Die Werte scheinen ebenfalls unbrauchbar zu sein. Oder was soll das sein - DX9 very high?

Superheld
2008-06-13, 18:31:22
keine Ahnung was der da verbockt hat:cool:

Gast
2008-06-13, 18:38:50
http://www.frankenland-pc.de/jtlshop2_os/index.php?k=178

Point of View GeForce GTX 280, 1024MB GDDR3 + Spiel Assassin's Creed SOFORT LIEFERBAR für 599€uro ;)

dargo
2008-06-13, 18:42:15
http://www.frankenland-pc.de/jtlshop2_os/index.php?k=178

Point of View GeForce GTX 280, 1024MB GDDR3 + Spiel Assassin's Creed SOFORT LIEFERBAR für 599€uro ;)
Heute schon lieferbar? :confused:

Gast
2008-06-13, 18:43:40
Heute schon lieferbar? :confused:

Jo hinfahrn und abholn kein Problem

dargo
2008-06-13, 18:47:28
Hmm, wer wohnt da in der Nähe und wollte eh eine G280GTX sofort kaufen? :D
Der Ersteindruck und paar Benchmarks wären nicht schlecht. :)

Gast
2008-06-13, 19:07:12
Die dinger sind beim Distributor an Lager und nicht bei denen...

EK 440.- Euro

Gast
2008-06-13, 19:09:54
Heute schon lieferbar? :confused:

naja, nicht schwer sie heute als lieferbar zu kennzeichnen, wenn sie sowieso erst ab montag verschickt wird ;)

Gast
2008-06-13, 19:15:50
Hardware-Infos scheint bei denen angerufen zu haben, keiner da. ^^

http://www.hardware-infos.com/news.php?news=2149

Gast
2008-06-13, 20:08:16
wenn sie die karten am montag verschicken wollen, sollten sie eigentlich schon auf lager sein.

tombman
2008-06-13, 20:14:00
Die dinger sind beim Distributor an Lager und nicht bei denen...

EK 440.- Euro
LOL; 160€ Deppenaufschlag ;D

Taigatrommel
2008-06-13, 20:17:53
599,- ist mir schlichtweg zu teuer. Damit wird nVidia hoffentlich nicht viele Kunden gewinnen können. Ich sehe ja schon fast eine zweite GX2 Situation:
Produkt zu teuer gelauncht, nach zwei Wochen wird dann der Preis erstmal um rund 100,- reduziert...... da gucken dann wieder die Käufer der ersten Stunde in die Röhre.

AnarchX
2008-06-13, 20:19:27
LOL; 160€ Deppenaufschlag ;D
Distributoren listen in Nettopreisen. ;)

btw.
GTX 280 Review @ PCGamer, da haben wohl die Abonnenten ihre Zeitung eher bekommen:
http://forum.beyond3d.com/showpost.php?p=1175650&postcount=2475
... aber ein sehr dürftiger Benchmarkparkour. :rolleyes:

Schlammsau
2008-06-13, 20:25:20
Distributoren listen in Nettopreisen. ;)

btw.
GTX 280 Review @ PCGamer, da haben wohl die Abonnenten ihre Zeitung eher bekommen:
http://forum.beyond3d.com/showpost.php?p=1175650&postcount=2475
;)

*hust* eine 9800GX2 ist zum Teil schneller und in HL-E1 ist sogar eine 3870X2 schneller!
was haben die nur gemacht? *kopfschüttel*

Gast
2008-06-13, 20:34:13
Meine Güte sind die Vantage Werte schlecht. Zu dem Preis nen Fall für den Ofen. Naja, hoffentlich wird mal bei den Käufern auf P/L geachtet und nicht auf den Namen. Prost und Tschüss

Taigatrommel
2008-06-13, 20:37:15
Naja, die Werte lassen wirklich zu wünschen übrig. Jedenfalls zeigt sich wieder, dass man die Dollarkurse nicht umrechnen kann:
PC Gamer gibt den Retail Preis mit 649,- US-$ an, hier in Deutschland beträgt er dann wohl um die 599,- €. Ein schlechter Scherz aber leider bittere Realität.

Superheld
2008-06-13, 20:38:07
aber wenigstens 15fps in Crysis statt unter 1fps;D

Gast
2008-06-13, 20:39:02
Man bedenke, hier kommen die Steuern druff und ich rechne schon mit 600 Teuronen. Einfach lächerlich. Jetzt bin ich aber weg. Schönen Abend noch!

Sorkalm
2008-06-13, 20:43:27
Meine Güte sind die Vantage Werte schlecht. Zu dem Preis nen Fall für den Ofen. Naja, hoffentlich wird mal bei den Käufern auf P/L geachtet und nicht auf den Namen. Prost und Tschüss

Wird wohl aber mit dem alte Treiber gewesen sein. ;)

AnarchX
2008-06-13, 20:45:22
Wird wohl aber mit dem alte Treiber gewesen sein. ;)
Genau, der "Wundertreiber" wurde ja erst von wenigen Tagen auf den FTP gestellt.
Da hofft man sich wohl, dass die Reviewer im Zeitdruck dann nur noch die GTX 200 damit durchlaufen lassen. ;)

Gast
2008-06-13, 20:47:27
Crysis 34FPS bei 1600x1200, was will man mehr? Ist doch super.

Gast
2008-06-13, 20:50:14
Crysis 34FPS bei 1600x1200, was will man mehr? Ist doch super.

das gleiche in 1920x1200 ;)

Moralelastix
2008-06-13, 20:50:42
*hust* eine 9800GX2 ist zum Teil schneller und in HL-E1 ist sogar eine 3870X2 schneller!
was haben die nur gemacht? *kopfschüttel*

Gleich kommt bestimmt wieder der Spruch:

"Die Karte sei für künftige Nextgen Spiele."

:biggrin:

Schlammsau
2008-06-13, 20:51:19
Crysis 34FPS bei 1600x1200, was will man mehr? Ist doch super.

wenns in Very High wär, dann ja! Is es aber nicht! Sonst hätten die GX2 bzw. X2 nicht so "hohe" FPS! Die werden in DX9@High gebencht haben!
Traurig :frown:

dargo
2008-06-13, 20:53:27
GTX 280 Review @ PCGamer, da haben wohl die Abonnenten ihre Zeitung eher bekommen:
http://forum.beyond3d.com/showpost.php?p=1175650&postcount=2475
... aber ein sehr dürftiger Benchmarkparkour. :rolleyes:
Die Werte sind echt komisch. In Crysis ist die G280GTX knapp 42% schneller als eine G9800GX2. Die anderen Werte passen irgendwie gar nicht dazu. :|
Entweder die Treiber spinnen noch, oder der Crysisbench ist nicht glaubhaft. Anders kann ich mir das nicht erklären.

PS: in WiC sind es stolze +83% gegenüber der GX2. Aber das könnte am zu knappen Vram der GX2 liegen. Also auf weitere Benches warten. :cool:

Daddelprinz
2008-06-13, 20:54:39
Distributoren listen in Nettopreisen. ;)

btw.
GTX 280 Review @ PCGamer, da haben wohl die Abonnenten ihre Zeitung eher bekommen:
http://forum.beyond3d.com/showpost.php?p=1175650&postcount=2475
... aber ein sehr dürftiger Benchmarkparkour. :rolleyes:


Bild/Scan ist leider entfernt worden...

Hat jemand noch eine Version im Cache ?

Gast
2008-06-13, 20:58:43
wenns in Very High wär, dann ja! Is es aber nicht! Sonst hätten die GX2 bzw. X2 nicht so "hohe" FPS!


ich bekomm mit einer 8800GT in 1920x1200 VH ~12fps, also sollte eine GX2 in 1600x1200 durchaus 24fps schaffen können.

Superheld
2008-06-13, 21:00:18
wenns in Very High wär, dann ja! Is es aber nicht! Sonst hätten die GX2 bzw. X2 nicht so "hohe" FPS! Die werden in DX9@High gebencht haben!
Traurig :frown:

jop ist High steht im Text

mapel110
2008-06-13, 21:01:44
Die haben wohl alles ohne AA gebencht?! Darauf deuten jedenfalls auch die WIC-Werte hin.

dildo4u
2008-06-13, 21:01:53
So ein Printmagazin muss vor dem Druck schon vor ca 10 Tage fertiggestellt worden sein.Von daher sind die Treiber die verwendet worden sind mindestens 3 Wochen älter als der Launch Treiber.

The_Invisible
2008-06-13, 21:10:02
leute, ihr habt ja keine ahnung welche crysis szene da gebencht wurde, zumindest ist sie mindestenz 40% schneller als die konkurrenz, mehr lässt sich nicht sagen.

mfg

Gast
2008-06-13, 21:10:45
Ist doch super, 45% mehr in Crysis und 30% mehr WiC gegen zwei G92, was hab ihr den euch eigentlich Vorgestellt???

Nur zu Erinnerung, die 8800GTX war im November 2006 bei 1600x1200 4xAA/16xAF gerade mal 20% schneller als eine 7950GX2!!!

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Gast
2008-06-13, 21:10:48
"The Price stinks worse". Und womit? Mit Recht. Die glauben doch nicht ernsthaft, das nüchterne Menschen sich so ein Teil zulegen? Die GTX/Ultra Sli Besitzer werden die schonmal nicht ködern können. Treiber hin oder her, der Preis ist eine Unverschämtheit. Geldgeier die schon mit dem G92 die Leute aufs Glatteis gezogen haben. Der Boss von denen ist eh größenwahnsinnig. Sehr unsympathisch ist dieser "Verein" geworden.

AnarchX
2008-06-13, 21:13:34
Das direkte Verlinken von Zeitungsscans bitte unterlassen.

Wenn jemand will kann er ja die Ergebnisse abtippen bzw. zitieren. ;)

The_Invisible
2008-06-13, 21:15:41
sind die meisten hier etwa erst jetzt als gamer hinzugekommen?

das ist schon seit ewig so das die neueste highendkarte >500€ kostet. aber über die 1000€ cpus von intel regt sich keiner auf obwohl die nur 200mhz mehr takt haben ;D

mfg

Gast
2008-06-13, 21:18:49
sind die meisten hier etwa erst jetzt als gamer hinzugekommen?

das ist schon seit ewig so das die neueste highendkarte >500€ kostet. aber über die 1000€ cpus von intel regt sich keiner auf obwohl die nur 200mhz mehr takt haben ;D

mfg

Ja ist echt traurig was hier manche schreiben, da werden 80% mehr Leistung im Vergleich zur 8800GTX als schlecht hingestellt, einfach unfassbar!

Aber eine CPU die nur ganz wenige % schneller ist, ist dann wieder ganz toll (Core 2 Duo 65nm vs 45nm)

Gast
2008-06-13, 21:19:00
Mir gehts um das Verhältnis Leistung zu Preis zu Konkurrenz. Ganz einfach. Aber immer schön die Unwissenden abzocken. Steht ja nen dickes Nvidia Label drauf. LOL. Da schwillt mir der Kamm. Nene, nicht mit mir.

Gast
2008-06-13, 21:27:44
Ja ist echt traurig was hier manche schreiben, da werden 80% mehr Leistung im Vergleich zur 8800GTX als schlecht hingestellt, einfach unfassbar!


80% schneller als die 8800GTX klingen ja erstmal ganz gut, 80% schneller mit mehr als doppeltem transistoraufwand dagegen weniger.

Gast
2008-06-13, 21:31:04
Die haben wohl alles ohne AA gebencht?! Darauf deuten jedenfalls auch die WIC-Werte hin.
Nee mit 4xAA steht unten mit grauer Schrift ;)

mapel110
2008-06-13, 21:33:08
Ohje, dann waren da jedenfalls Hobby-Benchmarker am Werk. Die Werte für die 3870 und Gx2 können dann nicht stimmen.

Gast
2008-06-13, 21:34:43
leute, ihr habt ja keine ahnung welche crysis szene da gebencht wurde, zumindest ist sie mindestenz 40% schneller als die konkurrenz, mehr lässt sich nicht sagen.

mfg

Ein 576mm² gegen 2x 192mm² da ist das nicht der Hit

dargo
2008-06-13, 21:40:18
Mir gehts um das Verhältnis Leistung zu Preis zu Konkurrenz. Ganz einfach. Aber immer schön die Unwissenden abzocken. Steht ja nen dickes Nvidia Label drauf. LOL. Da schwillt mir der Kamm. Nene, nicht mit mir.
Reicht es nicht einmal, dass du uns darüber informierst diese Karte nicht zukaufen? Dann kauf doch einfach eine für deinen Geldbeutel. Man, es nervt langsam. :mad:

tombman
2008-06-13, 22:26:20
Kann die scans mir mal wer per pm schicken?

Andreas12
2008-06-13, 22:36:49
Schon reingeschaut, Tombman?
Was meinst Du dazu?

dr_mordio
2008-06-13, 22:48:33
mist, ich hab die scans verpasst.
und die quelle hat sie auch nicht mehr.

kann mir jemand per PM nen link zukommen lassen, wo man die noch findet?

Danke, hat sich erledigt.

MfG
Alex

AnarchX
2008-06-13, 22:51:40
Einfach die gängigen Foren abklappern (http://www.xtremesystems.org/forums/showthread.php?t=185628&page=66)...

Aber wie schon gesagt, die Scans hier nicht direkt verlinken!

tombman
2008-06-13, 22:52:45
Schon reingeschaut, Tombman?
Was meinst Du dazu?
Frage mich, warum die GTX280 bei CoH auf 2560x1600 10fps langsamer als die GX2 ist...
Die anderen Werte sind auch ned berühmt...

Hier nochwas:
http://www.evilavatar.com/forums/showpost.php?p=1500729&postcount=1

So wie ich gesagt habe, VERYHIGH mit 4xAA wird mit ZWEI GTX280@SLI höchstens in 1600x1000 spielbar sein..

Die Karte geht hierzulange ~600€ raus-> ist sie ganz sicher nicht wert. Dafür bekommt man ja schon 2x GX2, die ganz sicher DEUTLICH schneller sind...

AnarchX
2008-06-13, 23:02:34
Die Karte geht hierzulange ~600€ raus-> ist sie ganz sicher nicht wert. Dafür bekommt man ja schon 2x GX2, die ganz sicher DEUTLICH schneller sind...
Oder ein 88GTX Tri-SLI, was ich doch einem 98GX2 SLI vorziehen würde. ;)


Nunja, an den "1.5x average perfomance of single-board GF8/9" ist eben doch mehr dran als man glaubt...

Wobei PCGamer wohl auch auf AA und dergleichen verzichtet, wo wiederrum die die GTX 280 nicht ganz so schwach sein sollte bzw. nicht auf einstellige Werte einbricht. :D

Ronny145
2008-06-13, 23:04:23
Wobei PCGamer wohl auch auf AA und dergleichen verzichtet, wo wiederrum die die GTX 280 nicht ganz so schwach sein sollte bzw. nicht auf einstellige Werte einbricht. :D

Ganz unten steht was mir 4xAA. Ist aber schwierig zu erkennen was da genau steht.

Gast
2008-06-13, 23:04:24
Die 280 wird mir mit jedem Tag unsympathischer muss ich leider sagen :(

Andreas12
2008-06-13, 23:05:09
Die Karte geht hierzulange ~600€ raus-> ist sie ganz sicher nicht wert. Dafür bekommt man ja schon 2x GX2, die ganz sicher DEUTLICH schneller sind...

aber die BQ einer Single Karte dürfte doch deutlich besser sein als die der
GX2?

dr_mordio
2008-06-13, 23:08:35
Die Karte geht hierzulange ~600€ raus-> ist sie ganz sicher nicht wert. Dafür bekommt man ja schon 2x GX2, die ganz sicher DEUTLICH schneller sind...

und jetzt soll nachmal einer sagen das Tombi nen extremer Fanboy sei, der alles von NV gut findet.

also die performance der GTX280 ist nicht die schlechteste, aber der Preis passt auch meiner Meinung nach nicht so ganz dazu

MfG
Alex

aber die BQ einer Single Karte dürfte doch deutlich besser sein als die der
GX2?
Nein die BQ ist gleich. Dual-Lösungen leiden nur mal ab und an an Microrucklern.
bei einigen dualGPU kombis kann man als bonus sogar hähere AA modi fahren, so das die BQ sogar besser wird, als bei einer singel lösung

MfG
Alex

Daddelprinz
2008-06-14, 00:04:12
Die Techdemo Bilder sehen ja auch nett aus...


http://www.tweaktown.com/news/9668/medusa_stars_in_nvidia_s_upcoming_gt200_tech_demo/


http://translate.google.com/translate?hl=en&sl=zh-CN&tl=en&u=http://publish.it168.com/2008/0611/20080611028402.shtml

Gast
2008-06-14, 00:08:55
Die Techdemo Bilder sehen ja auch nett aus...


http://www.tweaktown.com/news/9668/medusa_stars_in_nvidia_s_upcoming_gt200_tech_demo/


http://translate.google.com/translate?hl=en&sl=zh-CN&tl=en&u=http://publish.it168.com/2008/0611/20080611028402.shtml


Hm. Nvidia hamitte eigentlich immer den Nerv getroffen t ihren Tech-Demos. D.h. das war immer was was Hip war. Diesmal siehts irgenwie mau aus.

PHuV
2008-06-14, 01:05:05
Frage mich, warum die GTX280 bei CoH auf 2560x1600 10fps langsamer als die GX2 ist...
Die anderen Werte sind auch ned berühmt...

Hier nochwas:
http://www.evilavatar.com/forums/showpost.php?p=1500729&postcount=1

So wie ich gesagt habe, VERYHIGH mit 4xAA wird mit ZWEI GTX280@SLI höchstens in 1600x1000 spielbar sein..


Was ich aber nicht verstehe, daß hier behauptet wird:

Now, what we're seeing here is the CPU limiting the GPU's by a LOT! The GTX 280's are so fast that almost any processor that isn't overclocked is going to bottleneck them by a huge amount.

Meine bisherigen Messungen und die von anderen zeigt doch, je höher die Auflösung, umso weniger limitiert die CPU, und bei 2560x1600 sollte ein 3,2 GHz CPU vollkommen ausreichen, mehr bringt hier wirklich nicht. Bei der "Poppelauflösung" 1440x900 ist ja wohl klar, das die CPU dann die 280-SLI-Kombination überhaupt nicht ausreizt, aber was soll daran neu sein? :rolleyes:

tombman
2008-06-14, 01:12:07
Was ich aber nicht verstehe, daß hier behauptet wird:


Meine bisherigen Messungen und die von anderen zeigt doch, je höher die Auflösung, umso weniger limitiert die CPU, und bei 2560x1600 sollte ein 3,2 GHz CPU vollkommen ausreichen, mehr bringt hier wirklich nicht. Bei der "Poppelauflösung" 1440x900 ist ja wohl klar, das die CPU dann die 280-SLI-Kombination überhaupt nicht ausreizt, aber was soll daran neu sein? :rolleyes:
Das war VERY HIGH + 4xAA-> da gibts sowas wie "Popelauflösungen" nicht mehr ;)

PHuV
2008-06-14, 01:43:25
Das war VERY HIGH + 4xAA-> da gibts sowas wie "Popelauflösungen" nicht mehr ;)

4AA bei so einer niedrigen Auflösung, da ist doch klar, das die CPU limitiert.

Gast
2008-06-14, 01:44:39
4AA bei so einer niedrigen Auflösung, da ist doch klar, das die CPU limitiert.

omg man man,die wäre nit mal bei 800*600(+4aa) cpu limitiert.MUH

tombman
2008-06-14, 02:19:13
4AA bei so einer niedrigen Auflösung, da ist doch klar, das die CPU limitiert.
Nein, da ist gar nix klar, weil wir hier von VERY HIGH reden...

edit: habs gerade getestet:

er hatte dort mit 3ghz Yorki und G200 SLI: ~38fps (kein gpu oc)

ich habe dort mit 4ghz Yorki und G80 SLI; ~23fps (kein gpu oc)

Wenn es ein cpu Limit bei 1440x900, Very High, 4xAA gegeben hätte, hätte ich schneller sein müssen, nicht er.

38/23 = 65% mehr power ;)

robbitop
2008-06-14, 07:51:01
Mit Crysis bekommt man auch eine GT200 recht schnell klein. Mich überraschen die Ergebnisse anhand der Daten der Karte nicht. Vantage scheint sehr gut mit der MAD+MUL Leistung zu skalieren. Crysis hingegen, wie viele aktuelle Spiele, nicht ganz so. Das Teil wirkt auf mich (vom Speedup) wie der Schritt von G70 auf NV40.
Das einzige was davon ablenkte, war die Transistorzahl. Da wurde eine Menge in GPGPU investiert.
Ich bin gespannt, inwiefern GT200b anständige Taktraten rausholen kann. Kommt aber wohl eh nicht vor Weihnachten.

tombman
2008-06-14, 07:56:12
Was gerade total seltsam ist: auf 1600x1000, 4xAA, Very High hatte ich gerade die selben 23fps :eek:
===

Naja, meine Aussage bleibt aufrecht: 1600x1000, 4xAA, very High wird mit 280 SLI spielbar sein ;)

Und mit EINER 280er: 1280x800, Very High, 4xAA (ausgehend von meinen SLi benches ;))

Gast
2008-06-14, 09:34:32
Was gerade total seltsam ist: auf 1600x1000, 4xAA, Very High hatte ich gerade die selben 23fps :eek:
===

Naja, meine Aussage bleibt aufrecht: 1600x1000, 4xAA, very High wird mit 280 SLI spielbar sein ;)

Und mit EINER 280er: 1280x800, Very High, 4xAA (ausgehend von meinen SLi benches ;))

du behauptest auch viel wenn der tag lang ist.
wie war das "welches spiel wird es wagen eine gtx280 in die knie zu zwingen?"
:rolleyes:

Gast
2008-06-14, 09:51:49
3dmark06/vantage= 16650/10639
crysis, 1600/2560= 34fps/15fps
HL2: ep1, 1600/2560= 219fps/122fps
company of heroes, 1600/2560= 58fps/42fps
world in conflict, 1600/2560= 52fps/33fps
Quelle: http://forum.beyond3d.com/showpost.php?p=1175685&postcount=2476

Gast
2008-06-14, 09:59:25
Also wenn Crysis in 1920 Very High nicht möglich ist, dann wird das nicht meine nächste Graka...

Gast
2008-06-14, 10:02:08
Also wenn Crysis in 1920 Very High nicht möglich ist, dann wird das nicht meine nächste Graka...
mein auch nicht höchstens wieder für ca. 200€ wie 8800GTX

dargo
2008-06-14, 10:04:15
Nein, da ist gar nix klar, weil wir hier von VERY HIGH reden...

edit: habs gerade getestet:

er hatte dort mit 3ghz Yorki und G200 SLI: ~38fps (kein gpu oc)

ich habe dort mit 4ghz Yorki und G80 SLI; ~23fps (kein gpu oc)

Wenn es ein cpu Limit bei 1440x900, Very High, 4xAA gegeben hätte, hätte ich schneller sein müssen, nicht er.

Limits (egal ob CPU oder GPU) gibts nicht nur zu 100%. Es könnte genauso möglich sein, dass du zb. mit 3Ghz 20fps hättest. Um also herauszufinden ob hier zu 100% ein GPU-Limit vorliegt reicht es einfach aus nochmal mit 3Ghz zu benchen. Bleiben die Frames weiterhin bei 23fps ist alles in Butter.

Gast
2008-06-14, 10:07:30
Auf CB habe ich gerade diesen Beitrag gefunden: http://www.computerbase.de/forum/showpost.php?p=4357485&postcount=44

=> Im PCGamer Test ist eine GTX280 schneller als eine GX2
=> Im CB Test macht eine GX2 in 1920, 1xAA, Very High 24,8 FPS

1920, Very high, 1xAA müsste damit flüssig möglich sein!!!

Ronny145
2008-06-14, 10:25:03
Auf CB habe ich gerade diesen Beitrag gefunden: http://www.computerbase.de/forum/showpost.php?p=4357485&postcount=44

=> Im PCGamer Test ist eine GTX280 schneller als eine GX2
=> Im CB Test macht eine GX2 in 1920, 1xAA, Very High 24,8 FPS

1920, Very high, 1xAA müsste damit flüssig möglich sein!!!


Ja die Werte wurden gestern schon genannt. Aber 1920 ohne AA würde ich mir nicht antun. Ein bisschen enttäuschend ist das schon, dass das neue NVIDIA Flagschiff für Crysis in Very high und 1680x1050 mit ordentlich AA+AF scheinbar noch zu langsam oder nur im niedrigen FPS Bereich spielbar ist. Aber mal abwarten, vielleicht wurde dort noch der alte Treiber verwendet und der neue haut noch was raus.

Gast
2008-06-14, 10:31:57
Auf CB habe ich gerade diesen Beitrag gefunden: http://www.computerbase.de/forum/showpost.php?p=4357485&postcount=44

=> Im PCGamer Test ist eine GTX280 schneller als eine GX2
=> Im CB Test macht eine GX2 in 1920, 1xAA, Very High 24,8 FPS

1920, Very high, 1xAA müsste damit flüssig möglich sein!!!


Ja lol, in den ersten Levels.

Taigatrommel
2008-06-14, 10:40:00
KCN Computer hat die Karte für 559,- €uro sofort lieferbar. Jedoch nur im Onlineshop........ zu schade, sonst wäre ich kurz hingelaufen und hätte mir mal eine mitgenommen......

Gast
2008-06-14, 10:47:54
Es geht munter weiter:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/8.html

Crysis, 16200x1200, High, 4xAA: 65FPS

Superheld
2008-06-14, 10:50:45
Es geht munter weiter:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/8.html

Crysis, 16200x1200, High, 4xAA: 65FPS

na endlich mal was richtiges:smile:

Taigatrommel
2008-06-14, 10:55:23
Leider haben die Crysis wieder nur mit DX9 und "High" getestet. Ich frage mich wieso keine DX10 Tests gemacht wurden. Gehen die davon aus, dass Leute die sich so eine Karte kaufen kein Vista haben?

Gast
2008-06-14, 10:56:41
Leider haben die Crysis wieder nur mit DX9 und "High" getestet. Ich frage mich wieso keine DX10 Tests gemacht wurden. Gehen die davon aus, dass Leute die sich so eine Karte kaufen kein Vista haben?
Eigentlich wartet die Gaming Welt doch nur auf einen Test:
- 1920, very high, island
- 1920, very high, eislevel

Wieso bringt das niemand???

Superheld
2008-06-14, 10:59:21
wenn ich mir die Werte so angucke bei Crüsis warum bricht die so schnell ein bei hohen Auflösungen aa/af :confused:

...die gx2 kommt immer näher

AffenJack
2008-06-14, 11:02:54
guck mal auf alle tests bei techpowerup
immer wenn die auflösung höher wird und aa/af zugeschaltet wird bricht die gtx280 mehr ein als die gx2
kann mir das mal einer erklären?

dildo4u
2008-06-14, 11:03:20
Erstmal die Ergebnisse sichern die Seite könnte je Minute Down sein.


http://s7.directupload.net/images/080614/xvcccx4m.jpg

http://s5.directupload.net/images/080614/4v6a4yct.jpg

Taigatrommel
2008-06-14, 11:04:52
Also irgendwie bin ich von dem Review nicht angetan. Schaut euch mal die Vorstellung der Hardware und den Overclocking Bericht an:
Die Bilder sind zwar von der GTX 280, im Text wird aber dauernd von der 9800 GTX gesprochen.
Laut GPU-Z Screenshot lief deren GTX 280 mit maximal 715 MHz Core Takt. Im Text steht man hätte 784 MHz erreicht - allerdings wird dann dahinter gleich wieder die 9800 GTX.

Wenn man GPU-Z glauben darf, dann läuft die AMP! Edition mit folgenden Taktraten:
Core: 700 MHz
Speicher: 1150 MHz
Shader: 1400 MHz


PS: Company of Heroes auch nur mit DirectX9 getestet....

Gast
2008-06-14, 11:05:17
Weil die Shadereinheiten relativ niedrig getaktet sind. Sobald die GTX280 da ist, wird erstmal der Shadertakt auf 1,4-1,5GHz angehoben und dann mal verglichen. In AoC hat das bei meiner 8800GTS640 8FPS gebracht in Crysis 7FPS.

dargo
2008-06-14, 11:05:34
Es geht munter weiter:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/8.html

Also wenn ich mir einige Benches so anschaue dann komme ich zu dem Fazzit, dass die Treiber noch einen Mega Beta-Status haben.

G280GTX auf HD3850 Niveau. :ugly:


http://img210.imageshack.us/img210/362/benchtw5.png

Gast
2008-06-14, 11:07:26
Also wenn ich mir einige Benches so anschaue dann komme ich zu dem Fazzit, dass die Treiber noch einen Mega Beta-Status haben.

G280GTX auf HD3850 Niveau. :ugly:


http://img210.imageshack.us/img210/362/benchtw5.png


Oder was falsch gebencht wurde, die 8800GTX is ja auch grottig, was aber RL nicht wiederspiegelt...

Taigatrommel
2008-06-14, 11:09:05
Weil die Shadereinheiten relativ niedrig getaktet sind. Sobald die GTX280 da ist, wird erstmal der Shadertakt auf 1,4-1,5GHz angehoben und dann mal verglichen. In AoC hat das bei meiner 8800GTS640 8FPS gebracht in Crysis 7FPS.
Die AMP! Edition scheint von Haus aus mit 1400 MHz Shadertakt zu laufen.....

Hier mal die GPU-Z Daten:
http://www.abload.de/thumb/gpuz_ocvwy.gif (http://www.abload.de/image.php?img=gpuz_ocvwy.gif)

Treiber sind ForceWare 177.34, also wohl noch einen Tick neuer als die in unserem nvidia Forum herumschwirrenden 177.26 von Asus.


Edith schreibt übers Fazit:

Palit's 9800 GTX can be yours for a retail price of about $279.
Slower than GeForce 8800 GTX
As most of you know, the GeForce 9800 GTX is based on the G92 GPU which is the same as used on the 8800 GT 512 MB and 8800 GTS. Even though NVIDIA calls this "GeForce 9" I don't really see much progress compared to "GeForce 8".

Offenbar wurde das Review so dahingeschmiert :mad:

dargo
2008-06-14, 11:13:58
Der Idle-Stromverbrauch ist nun bestätigt. :up:

http://www.pic-upload.de/14.06.08/p4eppx.PNG
Nach meiner Rechnung müsste dieser bei 25-28W liegen.

Zu den Benchmarks sage ich lieber nichts, die haben tatsächlich mit einem E6550 2.33 GHz getestet. :ugly:

dildo4u
2008-06-14, 11:15:00
Zu den Benchmarks sage ich lieber nichts, die haben tatsächlich mit einem E6550 2.33 GHz getestet. :ugly:
Öhm nö.

Alle Tests mit XP SP2 Crysis DX9 High Settings

Zotac GTX 280 AMP Edition Specs 700/1150/1400/Default GTX280 Specs 600/1100/1300

http://www.abload.de/img/gpuz_ocvwy.gif

http://8ynme6w1.multipic.de/750x445/clipboard09gh.jpg

http://s7.directupload.net/images/080614/xvcccx4m.jpg

http://8ynme6w1.multipic.de/750x637/clipboard06fg.jpg

http://8ynme6w1.multipic.de/750x641/clipboard08g.jpg

http://s5.directupload.net/images/080614/4v6a4yct.jpg

http://8ynme6w1.multipic.de/750x644/gtx28093.jpg

http://8ynme6w1.multipic.de/750x654/clipboard035.jpg

http://8ynme6w1.multipic.de/750x648/clipboard02f.jpg

http://8ynme6w1.multipic.de/750x652/clipboard04ff.jpg

http://8ynme6w1.multipic.de/750x649/clipboard05f.jpg

http://8ynme6w1.multipic.de/750x636/clipboard07g.jpg

http://www.abload.de/img/farcry_1600_1200jji.gif http://www.abload.de/img/farcry_2048_1536gl5.gif

Gast
2008-06-14, 11:15:47
Der Test is ja irre ;)

GTX280 vs 8800GTX
2048*1536/4xAA/16AF

CoD: 66,1 vs 43,1 (GX2 schneller)
Crysis: 49,7 vs 27,6
Quake Wars: 92,9 vs 53,8
Farcry: 233 vs 131
Fear: 107 vs 57
Prey: 123 vs 66
SplinterCell3: 123 vs 52 (ist Shaderlimitiert, da G92 Karten hier stark zulegen)
Stalker: 62,7 vs 43
Supreme Commander: 56,9 vs 35 (GX2 hier bei 68)
UT3 ohne AA!: 129,6 vs 77,1 (GX2 selbe) hier sieht man das die GTX280 eventuell die Bandbreite zum füttern der TMUs ausgeht, da die GX2 hier immer locker mithalten kann

Gast
2008-06-14, 11:19:09
Der Speicher scheint nicht viele Reserven zu haben, ist schon das beste was GDDR3 zu bieten hat:

The GDDR3 chips are made by Samsung and have the model number K4J52324QE-BJ08. Their cycle time of 0.8 ns (= 1250 MHz) is about the fastest you can find for GDDR3 memory on the market right now

dargo
2008-06-14, 11:19:17
Öhm nö.


http://8ynme6w1.multipic.de/750x445/clipboard09gh.jpg

Ist etwas verwirrend.
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/22.html

Haben die für die Messungen vom Stromverbrauch ein anderes System verwendet? :|

pXe
2008-06-14, 11:20:25
Es geht munter weiter:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/8.html
...

Hmm, die neuen Stromsparmodi scheinen noch nicht zu funktionieren?
Im Idle braucht der Rechner mit GTX280 fast genauso viel Strom wie mit 8800GTS
(die Standardversion nur 10W weniger, das kommt ja nicht hin).

Und schaut euch mal die Lautstärkemessungen an :-(.

pXe

Superheld
2008-06-14, 11:21:07
glaub Nvidia hätte mehr TMUs verbauen sollen 80 vs 128 (gx2) :cool:

Godmode
2008-06-14, 11:21:14
Die haben einen 175.xx Treiber verwendet, ist den Launchtreiber nicht der 177.xx?

AffenJack
2008-06-14, 11:23:43
jop,daher dürfte da auch noch gut geschwindigkeit dazu kommen.
Die wirkliche geschwindigkeit wird man wohl erst so innem monat wissen,wenn die treiber wirklich ausgereifter werden

Taigatrommel
2008-06-14, 11:23:57
Die haben einen 175.xx Treiber verwendet, ist den Launchtreiber nicht der 177.xx?
Laut dem GPU-Z Screenshot ist die Treiberversion 177.36
Vielleicht wurden die Tests selber mit einem alten Treiber durchgeführt, wobei ich mir 175.xx nicht vorstellen kann.

Godmode
2008-06-14, 11:26:12
Laut dem GPU-Z Screenshot ist die Treiberversion 177.36
Vielleicht wurden die Tests selber mit einem alten Treiber durchgeführt, wobei ich mir 175.xx nicht vorstellen kann.

Jetzt ist mir alles klar: der hat einfach das 9800 GTX Review genommen und Bilder bzw Benchmarks der GTX280 eingefügt, also müsste da wohl dann schon der 177.36 verwendet worden sein. Den Text wird er dann erst im laufe der nächsten Tage anpassen.

dargo
2008-06-14, 11:26:16
Hmm, die neuen Stromsparmodi scheinen noch nicht zu funktionieren?
Im Idle braucht der Rechner mit GTX280 fast genauso viel Strom wie mit 8800GTS
(die Standardversion nur 10W weniger, das kommt ja nicht hin).

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6582551&postcount=642

;)

kami
2008-06-14, 11:26:26
Ist etwas verwirrend.
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/22.html

Haben die für die Messungen vom Stromverbrauch ein anderes System verwendet? :|

Der Test ist noch preliminary (wie überall auf der Seite steht) also vorläufig und damit noch nicht final. Da wird wohl das Layout des 9800GTX-Tests genutzt und zur Zeit noch auf den 280GTX-Test umgeschrieben. Daher die Umgereimtheiten (dürfte ja wohl eigentlich auch noch nicht öffentlich zugänglich sein).

AffenJack
2008-06-14, 11:27:55
da ergibt einfach vieles keinen sinn,wieso steht am ende nen fazit zur 98gtx?
wieso im testsetup 175 treiber und im gpu-z 177?
warten wir mal weitere tests ab

edit:ahh ok, das erklärt einiges
aber ist der 177 der alte treiber oder der ganz neue bei dem nv gesagt hat,man solle die benches mit dem wiederholen?

Gast
2008-06-14, 11:33:54
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6582551&postcount=642

;)

Warum der Smilie? Seit wann verbraucht eine 8800GTS512 im Idle nur 25-30Watt?
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0

Ronny145
2008-06-14, 11:35:07
Der Test is ja irre ;)

GTX280 vs 8800GTX
2048*1536/4xAA/16AF

CoD: 66,1 vs 43,1 (GX2 schneller)
Crysis: 49,7 vs 27,6
Quake Wars: 92,9 vs 53,8
Farcry: 233 vs 131
Fear: 107 vs 57
Prey: 123 vs 66
SplinterCell3: 123 vs 52 (ist Shaderlimitiert, da G92 Karten hier stark zulegen)
Stalker: 62,7 vs 43
Supreme Commander: 56,9 vs 35 (GX2 hier bei 68)
UT3 ohne AA!: 129,6 vs 77,1 (GX2 selbe) hier sieht man das die GTX280 eventuell die Bandbreite zum füttern der TMUs ausgeht, da die GX2 hier immer locker mithalten kann


Naja, du vergleichst übertaktete GTX 280 mit default 8800 GTX. In Crysis wären das dann 27 vs 45.

dargo
2008-06-14, 11:42:26
Warum der Smilie?

Weils stimmt.


Seit wann verbraucht eine 8800GTS512 im Idle nur 25-30Watt?
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
Wo habe ich das gesagt? Das System mit der G8800GTS verbraucht in Idle 11W mehr als das mit der G280GTX. Wenn ich die Effizienz vom NT dabei berücksichtige bleiben ca. 9W übrig. 38W - 9W = ? ;)
Da es leichte Toleranzen (sieht man ja sehr schön an der GT vs. GTS bei xbitlabs und techpowerup) zwischen den Grakas gibt wird die NV-Folie mit den 25W wohl gestimmt haben. Lass es von mir aus 30W sein, finde ich immer noch völlig in Ordnung für so ein Monster.

Godmode
2008-06-14, 11:42:32
Und weg ist das Review! Gut das wer die Bildchen gesichert hat!;D

Ronny145
2008-06-14, 11:43:31
Hat jemand alle Bilder gesichert?

Eggcake
2008-06-14, 11:43:54
Hat jemand alle Bilder gesichert?

Mausrad benutzen und nach oben scrollen.

Mr.Magic
2008-06-14, 11:45:55
Öhm nö.


http://8ynme6w1.multipic.de/750x445/clipboard09gh.jpg

http://s7.directupload.net/images/080614/xvcccx4m.jpg

http://8ynme6w1.multipic.de/750x637/clipboard06fg.jpg

http://8ynme6w1.multipic.de/750x641/clipboard08g.jpg

http://s5.directupload.net/images/080614/4v6a4yct.jpg

http://8ynme6w1.multipic.de/750x644/gtx28093.jpg

http://8ynme6w1.multipic.de/750x654/clipboard035.jpg

http://8ynme6w1.multipic.de/750x648/clipboard02f.jpg

http://8ynme6w1.multipic.de/750x652/clipboard04ff.jpg

http://8ynme6w1.multipic.de/750x649/clipboard05f.jpg

http://8ynme6w1.multipic.de/750x636/clipboard07g.jpg

Ganz nett, aber für mich nicht heftig genug, um nicht auf eine Version mit 1.5GB GDDR5 warten zu können. Vor allem, da es für mich relevante Tests sowieso nicht, oder zumindest extrem spät, geben wird (16xS+AA bei 1920+).

ps: 1.5GB, weil bei allen meinen Spielen die 768MB reichen, außer bei einem. Das pumpt allerdings auch 1GB ruckzuck voll.

Unyu
2008-06-14, 12:06:11
1,5GiB Versionen wirds wohl nicht geben, höchstens 2GiB Versionen. ;)

Godmode
2008-06-14, 12:06:33
Ganz nett, aber für mich nicht heftig genug, um nicht auf eine Version mit 1.5GB GDDR5 warten zu können. Vor allem, da es für mich relevante Tests sowieso nicht, oder zumindest extrem spät, geben wird (16xS+AA bei 1920+).

ps: 1.5GB, weil bei allen meinen Spielen die 768MB reichen, außer bei einem. Das pumpt allerdings auch 1GB ruckzuck voll.

Es wird dann eher eine Version mit 2GB geben. Weil es keine krummen Speicherchips gibt. Oder eine mit einem 384 Bit SI, dann wären auch 1.5 GB möglich.

Ich bin schon auf die Min-FPS der GTX 280 gespannt, ob die sich richtig von der alten Generation absetzen kann!

dargo
2008-06-14, 12:08:26
1,5GiB Versionen wirds wohl nicht geben, höchstens 2GiB Versionen. ;)
Ist nicht gesagt. Es reicht wenn es einen GT200B mit 384Bit SI geben sollte. ;)

Superheld
2008-06-14, 12:09:04
was hat der >Typ eigentlich bei Crysis gebencht:hammer:

meine 8800gt 1280x1024 ~38fps

Typ 8800gt 1600x1200 4xAA 16xAF 34.1


also werden die fps noch niedriger in Game sein:(

Mr.Magic
2008-06-14, 12:10:10
eine mit einem 384 Bit SI

Ich dachte dahin gehen die Gerüchte für den GT200b. Eine Version direkt mit 2GB wäre mir natürlich lieber...

edit: Zu langsam.

Gast
2008-06-14, 12:10:39
Jo da stimmt so einiges nicht. Shaut euch die Werte der Radeons an, ist das Cat 7.11? Hat der die alten Karten nicht neu gebencht?

Ronny145
2008-06-14, 12:11:42
Mausrad benutzen und nach oben scrollen.


Far Cry, Quake 4 und Last Verbrauch fehlen noch. Far Cry und Verbrauch hatte ich noch im Cache. Insgesamt liegt die GTX 280 etwa auf 9800 GX2 Niveau. 2x G80 performance gibt es aber nicht in einem Test zu sehen. Hab jetzt nur auf die default Karte geschaut. Die Zotac hebt sich ein bisschen ab. Aber Respekt an die Leistungsaufnahme bei dieser Leistung. Die Point of View zieht unter Last so viel wie eine HD 2900XT, der Mehrverbrauch zu einer 8800 GTX hält sich auch in Grenzen. Da musste man schlimmeres befürchten bei dem Monster.

http://www.abload.de/img/farcry_1600_1200jji.gif http://www.abload.de/img/farcry_2048_1536gl5.gif

http://www.abload.de/img/power_averagezc7.gif http://www.abload.de/img/power_peak9ah.gif

Unyu
2008-06-14, 12:19:00
Ist nicht gesagt. Es reicht wenn es einen GT200B mit 384Bit SI geben sollte. ;)
Das wär ja quasi eine günstige GTX 240. :eek:

Nakai
2008-06-14, 12:20:58
NV muss unbedingt den Die kleiner machen, der GT200 ist ja deutlich zu groß.
Und mit GDDR5 sollte ja genug Bandbreite selbst bei 384 Bit SI vorhanden sein.


mfg Nakai

dargo
2008-06-14, 12:22:44
Aber Respekt an die Leistungsaufnahme bei dieser Leistung. Die Point of View zieht unter Last so viel wie eine HD 2900XT, der Mehrverbrauch zu einer 8800 GTX hält sich auch in Grenzen. Da musste man schlimmeres befürchten bei dem Monster.

Ja, ich habe auch in dieser Hinsicht zuerst gestaunt. Das wäre dann um die 160W bei Last. Hier sollte man aber vorsichtig sein. Die haben afaik den Lastverbrauch mit dem 3DMark03 gemessen. Dass dies die GPU gut auslastet bezweifle ich.

cR@b
2008-06-14, 12:32:10
http://cgi.ebay.de/Brand-New-EVGA-01G-P3-1280-AR-GeForce-GTX-280-1GB-GDDR3_W0QQitemZ380035581900QQihZ025QQcategoryZ3762QQrdZ1QQssPageNameZWD2VQQcmdZV iewItemQQ_trksidZp1638Q2em122

3-2-1... meins :ugly:

MartinRiggs
2008-06-14, 12:37:30
Naja warten wir mal ab, glaube das stimmt einiges in puncto Treiber etc. nicht.
Glaube kaum das die GTX 280 so schlecht ist wie es momentan aussieht, aber montag wissen wir ja mehr.

Taigatrommel
2008-06-14, 12:38:38
Mit Versand nichtmal 475,- €, verglichen mit unseren Preisen ganz gut, hier ist die günstigste GTX 280 mit 559,- € gelistet.
Wie sieht es mit Zoll aus? Da kann auch noch mal etwas dazu kommen.... zudem könnte es schwierig werden, wenn die Karte mal einen Defekt haben sollte.

Gast
2008-06-14, 12:44:59
Also wenn ich mir einige Benches so anschaue dann komme ich zu dem Fazzit, dass die Treiber noch einen Mega Beta-Status haben.

G280GTX auf HD3850 Niveau. :ugly:


http://img210.imageshack.us/img210/362/benchtw5.png



Das kommt hin bei Q4, da sind die "alten" ATI's sehr stark siehe auch hier ->http://www.hartware.de/review_768_9.html

Der Idle-Stromverbrauch ist nun bestätigt. :up:

http://www.pic-upload.de/14.06.08/p4eppx.PNG
Nach meiner Rechnung müsste dieser bei 25-28W liegen.

Zu den Benchmarks sage ich lieber nichts, die haben tatsächlich mit einem E6550 2.33 GHz getestet. :ugly:

Hmmm kommt nicht hin, einen HD3870 zieht laut X-Bit knapp 19Watt und in dem Test von TP verbraucht die 20Watt weniger als die GTX280, macht ~40Watt dann. ;)

Ronny145
2008-06-14, 12:47:27
Hmmm kommt nicht hin, einen HD3870 zieht laut X-Bit knapp 19Watt und in dem Test von TP verbraucht die 20Watt weniger als die GTX280, macht ~40Watt dann. ;)


Nein es sind 3 Watt Unterschied. Die andere ist übertaktet.

dargo
2008-06-14, 12:48:59
Hmmm kommt nicht hin, einen HD3870 zieht laut X-Bit knapp 19Watt und in dem Test von TP verbraucht die 20Watt weniger als die GTX280, macht ~40Watt dann. ;)
Du hast das NT vergessen. ;)

Außerdem sind Gesamtverbräuche in diesem Zusammenhang wo es um +/- 5-10W geht eh nicht wirklich brauchbar. Xbitlabs wird da bald Klarheit schaffen.

Gast
2008-06-14, 12:55:14
Nein es sind 3 Watt Unterschied. Die andere ist übertaktet.
???

Ronny145
2008-06-14, 12:59:50
???


Hab bei der 9600 GT geschaut. Waren also doch richtig die 20 Watt.

Gast
2008-06-14, 13:20:24
montag Abend hab ich eine und für unter 500€!
Kein Laden verkauft die am Montag über 500€
Jetzt stellt sich allerdings die Frage warum......kommt die "b" etwa doch schon früher..dann wäre es natürlich erst recht rausgeworfenes Geld.

dargo
2008-06-14, 13:24:28
Jetzt stellt sich allerdings die Frage warum......kommt die "b" etwa doch schon früher..dann wäre es natürlich erst recht rausgeworfenes Geld.
Ach, du weißt schon wie schnell die B-Variante wird? :rolleyes:

Gast
2008-06-14, 13:26:24
darum gehts doch garnicht du schwätzer!
Sondern darum das die 280er kräftig unter 500€ am Montag über den Tisch geht und die Frage ist warum auf einmal.

Gast
2008-06-14, 13:26:54
Hab bei der 9600 GT geschaut. Waren also doch richtig die 20 Watt.

Alles klar :)

dildo4u
2008-06-14, 13:27:10
Ach, du weißt schon wie schnell die B-Variante wird? :rolleyes:
Auch nicht schneller als die Zotac GTX 280 ich tippe sogar nur auf 675/1200/1375 wegen dem TDP.

Taigatrommel
2008-06-14, 13:27:27
montag Abend hab ich eine und für unter 500€!
Kein Laden verkauft die am Montag über 500€
Jetzt stellt sich allerdings die Frage warum......kommt die "b" etwa doch schon früher..dann wäre es natürlich erst recht rausgeworfenes Geld.
So? Darf man erfahren woher du diese Weißheit hast?
Ich gehe davon aus das die Preise zwischen 550,- und 600,- € liegen werden. Wünschenwert wären ja eher 500,- bis 550,- Euro.....

Die bisherigen Shops haben die Karte mit 560,- bis 599,- gelistet.

dargo
2008-06-14, 13:27:50
darum gehts doch garnicht du schwätzer!
Sondern darum das die 280er kräftig unter 500€ am Montag über den Tisch geht und die Frage ist warum auf einmal.
Weil die Konkurrenz so tief ansetzt. 2+2 zusammenzählen ist so schwer.

PHuV
2008-06-14, 13:28:01
http://cgi.ebay.de/Brand-New-EVGA-01G-P3-1280-AR-GeForce-GTX-280-1GB-GDDR3_W0QQitemZ380035581900QQihZ025QQcategoryZ3762QQrdZ1QQssPageNameZWD2VQQcmdZV iewItemQQ_trksidZp1638Q2em122

3-2-1... meins :ugly:

Denk daran, da kommt noch Zoll (ca 2-3 %) und MwSt drauf.

dargo
2008-06-14, 13:31:02
Auch nicht schneller als die Zotac GTX 280 ich tippe sogar nur auf 675/1200/1375 wegen dem TDP.
Es ist zum GT200b noch überhaupt nichts bekannt. Theoretisch könnte man das Ding aus Kostengründen auch auf 384bit SI schrumpfen lassen (+ GDDR5) und dementsprechend die ROPs auf 24 kastrieren. Und schon weiß niemand wie es mit der Performance im Vergleich zum GT200 aussieht.

Gast
2008-06-14, 13:31:46
Hardware-Infos hat sich die Mühe gemacht alle Werte - bis auf 3DMarks - zusammenzurechnen und zu ermitteln. Dabei folgende Ergebnisse:

1600x1200 - 4xaa,16xaf:
- GTX 280 und 9800 GX2 gleichschnell
- GTX 280 54% schneller als 8800 GTX

2048x1536 - 4xaa/16xaf:
- GTX 280 4% langsamer als 9800 GX2
- GTX 280 64% schneller als 8800 GTX

Weisen aber auch daraufhin, dass die Treiber alt sind etc.

http://www.hardware-infos.com/news.php?news=2150

dildo4u
2008-06-14, 13:32:39
Es ist zum GT200b noch überhaupt nichts bekannt. Theoretisch könnte man das Ding aus Kostengründen auch auf 384bit SI schrumpfen lassen (+ GDDR5) und dementsprechend die ROPs auf 24 kastrieren. Und schon weiß niemand wie es mit der Performance im Vergleich zum GT200 aussieht.
Imo wirds eine Ultra und keine G92 GTS davon ab will NV vor Mitte 2009 nix mit GDDR5 zu tun haben.Abgespeckt wird da imo nix die Karte muss gegen eine X2 48XX bestehen.

Don Vito
2008-06-14, 13:33:10
Denk daran, da kommt noch Zoll (ca 2-3 %) und MwSt drauf.

Zoll kommt keiner drauf, habe mich beim Zollamt informiert;)

dargo
2008-06-14, 13:34:34
Imo wirds eine Ultra und keine G92 GTS davon ab will NV vor Mitte 2009 nix mit GDDR5 zu tun haben.Abgespeckt wird da imo nix die Karte muss gegen eine X2 48XX bestehen.
Die "Ultra" soll afaik auf dem GT200 basieren.

Gast
2008-06-14, 13:39:06
So? Darf man erfahren woher du diese Weißheit hast?
Ich gehe davon aus das die Preise zwischen 550,- und 600,- € liegen werden. Wünschenwert wären ja eher 500,- bis 550,- Euro.....

Die bisherigen Shops haben die Karte mit 560,- bis 599,- gelistet.

Habe gerade eine gekauft für unter 500€.
Es gibt auch ehrliche Händler die ihre Stammkunden nicht über den Tisch ziehen.

dargo
2008-06-14, 13:40:58
Habe gerade eine gekauft für unter 500€.

Na dann hoffe ich doch, dass wir Dienstag einen User-Bericht von dir im NV-Forum sehen werden. :)

Gast
2008-06-14, 13:41:05
Habe gerade eine gekauft für unter 500€.
Es gibt auch ehrliche Händler die ihre Stammkunden nicht über den Tisch ziehen.

PIXXX!!???

Gast
2008-06-14, 13:43:22
Na dann hoffe ich doch, dass wir Dienstag einen User-Bericht von dir im NV-Forum sehen werden. :)

Ist ne Pov und holen kann ich sie am Montag und lesen kannste das im Luxx.

Black-Scorpion
2008-06-14, 13:46:54
Habe gerade eine gekauft für unter 500€.
Es gibt auch ehrliche Händler die ihre Stammkunden nicht über den Tisch ziehen.
Du kennst den EK von allen Händlern?
Du musst ja den richtigen Durchblick haben bei solchen Aussagen. :rolleyes:
Nur weil du vielleicht (Ohne Pics der Rechnung glaube ich nichts davon) eine unter 500,- € gekauft hast, heißt das gar nichts.

nagus
2008-06-14, 13:51:12
das schon bekannt?

ZOTAC GTX 280 AMP edition full review (http://forums.vr-zone.com/showthread.php?t=288666)

Gast
2008-06-14, 13:52:16
neid?
Schön!
und ja ich kenne den EK des Händlers und nun?
Und dir oder irgendeinem anderen Pics vorlegen....was glaubst du wer du bist?
Aber ich werde es machen das du noch mehr in den Tisch beißt :lol:

Gast
2008-06-14, 13:54:32
das schon bekannt?

ZOTAC GTX 280 AMP edition full review (http://forums.vr-zone.com/showthread.php?t=288666)

Ja, ein paar Seiten zurück blättern bitte.

Tarkin
2008-06-14, 14:02:25
Also mal ganz abgesehen dass mich die 280er jetzt nicht gerade vom Hocker haut... Findet ihr die Crysis Ergebnisse nicht auch ETWAS merkwürdig?!

Wenn ich mir diverse Reviews ansehe, dann haben die Radeons in extrem höhen Auflösungen eher Vorteile ...

hier z.b.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

und beim Techpowerup Review ist eine 9800GTX plötzlich WESENTLICH schneller - also da stimmt definitiv was nicht.

Kann es sein, dass die bei den nVidia Karten eine Qualitätsstufe zurückgerdreht haben?

Uh... ich habe eben gesehen sie haben XP verwendet - also KEIN DX10

Hat jemand Vergleichszahlen? Kann mir ned vorstellen dass die Radeons in DX9 da so schlecht abschneiden

dildo4u
2008-06-14, 14:04:30
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

und beim Techpowerup Review ist eine 9800GTX plötzlich WESENTLICH schneller - also da stimmt definitiv was nicht.
Techpowerup hat unter DX9 High gebencht Computerbase unter Vista DX10 very High also nicht vergleichbar.

Taigatrommel
2008-06-14, 14:06:49
Habe gerade eine gekauft für unter 500€.
Es gibt auch ehrliche Händler die ihre Stammkunden nicht über den Tisch ziehen.
Das ist schön für dich, wirklich. Nur du meintest das Zitat "Kein Händler" die Karte am Montag für über 500,- verkaufen wird.
Da du Stammkunde bist, vielleicht ja auch noch gute Kontakte zum Inhaber hast, ist es kaum verwunderlich das du entsprechenden Rabatt bekommst.

Nur das sind Einzelfälle und keine Regelfälle. Deine Aussage klang so, als könntest du definitive Aussagen zum Preis machen, dem ja offenbar nicht so ist. Dein Sonderfall interessiert hier wohl kaum jemanden. Was zählt sind Preise von Alternate, HoH, K&M, etc. für Jedermann.

Hätte ja auch sein können, dass du da entsprechende Kenntnisse hast.....

nagus
2008-06-14, 14:06:51
ohne die seltsamen crysis werte mitgerechnet ist die nicht übertaktete 280GTX ca. 1,9-2,3x so schnell wie eine 3870er.

zum vergleich: die 4850er is, nimmt man die aktuellen vantage werte, ca. doppelt so schnell wie eine 3870er. die 4870er is nochmal ca. 20% schneller (realistisch gerechnet, nicht 30%), dann dürfte die 4870er locker auf augenhöhe mit der 260GTX sein, wenn nicht sogar an der 280GTX kratzen.

oder?

pest
2008-06-14, 14:08:06
rofl, die 9800GX2 ist für ~350,-€ lieferbar, da muss die GTX280 aber noch nachlegen

Black-Scorpion
2008-06-14, 14:08:17
neid?
Schön!
und ja ich kenne den EK des Händlers und nun?
Und dir oder irgendeinem anderen Pics vorlegen....was glaubst du wer du bist?
Aber ich werde es machen das du noch mehr in den Tisch beißt :lol:
Wohin ich beiße dürfte dich einen feuchten angehen.
Und wegen einer überteuerten Karte beiße ich erst recht nicht in den Tisch.
Was glaubst du mit deinen Behauptungen ohne Beweise wer du bist?

Taigatrommel
2008-06-14, 14:09:53
ohne die seltsamen crysis werte mitgerechnet ist die nicht übertaktete 280GTX ca. 1,9-2,3x so schnell wie eine 3870er.

zum vergleich: die 4850er is, nimmt man die aktuellen vantage werte, ca. doppelt so schnell wie eine 3870er. die 4870er is nochmal ca. 20% schneller (realistisch gerechnet, nicht 30%), dann dürfte die 4870er locker auf augenhöhe mit der 260GTX sein, wenn nicht sogar an der 280GTX kratzen.

oder?
An die GTX 280 wird sie IMO nicht rankommen, jedoch wurde wohl schon indirekt bestätigt, dass sie der GTX 260 sehr gefährlich wird. Deswegen gab es ja u.A. auch die erste offizielle Preissenkung von 449,- auf 399,- US-$, um Gerüchten zufolge der Konkurenz besser standhalten zu können.

Die Frage ist halt nur, wieviel die GTX 280 schneller als die 4870 sein wird. Immerhin wird sie beinahe das Doppelte kosten.

pest
2008-06-14, 14:11:56
Fakt ist doch, das die HD48xx garnicht dafür ausgelegt waren in die Nähe von GTX260/280 zu gelangen, und jetzt spekuliert ihr schon wie nah' sie wohl kommt :D

Gast
2008-06-14, 14:12:32
Die Treiber werdens richten>G80>was ein geheule 10-20% nach ein paar Treibern 300%.

dildo4u
2008-06-14, 14:12:41
Die Frage ist halt nur, wieviel die GTX 280 schneller als die 4870 sein wird. Immerhin wird sie beinahe das Doppelte kosten.
Wird sie nicht nach ein paar Wochen nach dem üblichen Lauchaufschlag liegt die GTX280 bei Rund 430€ wegen dem starken Eurokurs.Imo wird eine 4870 mit GDDR 5 nicht soo schnell unter 270€ fallen.

http://cgi.ebay.de/Brand-New-EVGA-01G-P3-1280-AR-GeForce-GTX-280-1GB-GDDR3_W0QQitemZ380035581900QQihZ025QQcategoryZ3762QQrdZ1QQssPageNameZWD2VQQcmdZV iewItemQQ_trksidZp1638Q2em122

doors4ever1
2008-06-14, 14:18:18
Ich hab jetzt extra auf 2048x1535 Ergebnisse geachtet. Also paar alte Spiele wie FEAR oder Splinter Cell gehen richtig ab damit man kann sagen fast doppelt soviel wie 8800GTX. Ansonsten nur magere +50% auf 8800GTX das bedeutet im Preis soll eine GT200 Grafikkarte ca. 300€ kosten. Für soviel würde ich die auch kaufen.

Gast
2008-06-14, 14:22:46
Das geht doch gar nicht ^^ Um 50% mehr fühlbare FPS zu bekommen, muste mit 400€ mindestens Rechnen. War bei Einführung des G70 und des G80 genauso, G71 und G92 sind ja "nur" Refreshes, da gibts nich soviel Performance für günstige Preise.

Alles in allem isses ok bisher, G200 vs G80 sieht entsprechende Sprünge wie seinerseits G80 zu G70. Wobei G200 nicht komplett neu ist, der dickere Fisch wird die G100 (wenn sie noch so heist bzw. NV70)

The_Invisible
2008-06-14, 14:28:05
Ich hab jetzt extra auf 2048x1535 Ergebnisse geachtet. Also paar alte Spiele wie FEAR oder Splinter Cell gehen richtig ab damit man kann sagen fast doppelt soviel wie 8800GTX. Ansonsten nur magere +50% auf 8800GTX das bedeutet im Preis soll eine GT200 Grafikkarte ca. 300€ kosten. Für soviel würde ich die auch kaufen.

das ist "highend" aufschlag, da gibt es keine vernünftige skalierung, siehe auch intels extreme cpus.

mfg

Gast
2008-06-14, 14:30:10
Es geht munter weiter:
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/8.html

Crysis, 16200x1200, High, 4xAA: 65FPS

Naja Techpowerup war schon immer pro Nvidia.Ausserdem wurde bei denn anderen karten ältere treiber genommen.Der Test sagt nichts aus.

Gast
2008-06-14, 14:33:10
Neu im Beyond3d Forum:

http://forum.beyond3d.com/showpost.php?p=1176005&postcount=3513

3DMark 2006

fillrate - single texturing:
HD4850: ~ 7300
HD3870: ~ 6500
RV670X2: ~ 11400
GTX 280: ~ 14300
fillrate - multi texturing:
HD4850: ~ 19800
HD3870: ~ 12300
RV670X2: ~ 25300
GTX 280: ~ 40177
pixel shader:
HD4850: ~ 680
HD3870: ~ 360
RV670X2: ~ 710
GTX 280: ~ 845
vertex shader - simple:
HD4850: ~ 292
HD3870: ~ 315
RV670X2: ~ ?
GTX 280: ~ 246
vertex shader - complex:
HD4850: ~ 160
HD3870: ~ 180
RV670X2: ~ 370
GTX 280: ~ 119
shader particles:
HD4850: ~ 160
HD3870: ~ 90
RV670X2: ~ 170
GTX 280: 177
perlin noise:
HD4850: ~ 335
HD3870: ~ 175
RV670X2: ~ 355
GTX 280: ~ 300


Vertex Performance is wohl uninteressant geworden ^^

Unyu
2008-06-14, 14:35:01
rofl, die 9800GX2 ist für ~350,-€ lieferbar, da muss die GTX280 aber noch nachlegen
Da muss erst mal die GX2 nachlegen.
Die 8800 GTS gibts für 150€.
Die GX2 dürfte maximal 225€ kosten.

Odal
2008-06-14, 14:37:09
Das geht doch gar nicht ^^ Um 50% mehr fühlbare FPS zu bekommen, muste mit 400€ mindestens Rechnen. War bei Einführung des G70 und des G80 genauso, G71 und G92 sind ja "nur" Refreshes, da gibts nich soviel Performance für günstige Preise.

Alles in allem isses ok bisher, G200 vs G80 sieht entsprechende Sprünge wie seinerseits G80 zu G70. Wobei G200 nicht komplett neu ist, der dickere Fisch wird die G100 (wenn sie noch so heist bzw. NV70)


die GT200 ist auch nur ein refresh und nix weiter....

aber das sie soooooo "schlecht" (vom preis/leistung/chipgrösse) gegen 4850/70 dazustehen scheint fress ich nun nicht mehr...

da muss doch was faul sein...das sie nicht so toll wird wie viele hier in ihren feuchten träumen spekulierten war mit klar aber laut den ganzen geleakten benches scheint der abstand zum RV770 viel zu gering

Gast
2008-06-14, 14:38:35
Neu im Beyond3d Forum:

http://forum.beyond3d.com/showpost.php?p=1176005&postcount=3513

3DMark 2006

fillrate - single texturing:
HD4850: ~ 7300
HD3870: ~ 6500
RV670X2: ~ 11400
GTX 280: ~ 14300
fillrate - multi texturing:
HD4850: ~ 19800
HD3870: ~ 12300
RV670X2: ~ 25300
GTX 280: ~ 40177
pixel shader:
HD4850: ~ 680
HD3870: ~ 360
RV670X2: ~ 710
GTX 280: ~ 845
vertex shader - simple:
HD4850: ~ 292
HD3870: ~ 315
RV670X2: ~ ?
GTX 280: ~ 246
vertex shader - complex:
HD4850: ~ 160
HD3870: ~ 180
RV670X2: ~ 370
GTX 280: ~ 119
shader particles:
HD4850: ~ 160
HD3870: ~ 90
RV670X2: ~ 170
GTX 280: 177
perlin noise:
HD4850: ~ 335
HD3870: ~ 175
RV670X2: ~ 355
GTX 280: ~ 300


Vertex Performance is wohl uninteressant geworden ^^

Intressant das die GTX 280 sogut wie nirgends überlegen ist.Die 4850 schlägt die Karte sogar bei denn wichtigen tests.;)Die füllrate war bei Ati ja immmer niedriger.Das hat diesmall nichts zu bedeuten.

Schlammsau
2008-06-14, 14:38:54
Da muss erst mal die GX2 nachlegen.
Die 8800 GTS gibts für 150€.
Die GX2 dürfte maximal 225€ kosten.

Und die 280GTX dürfte nicht einmal 400€ kosten!
Wird sie aber nicht!
Jedenfalls nicht bis der R700 released wurde.

Unyu
2008-06-14, 14:42:10
Und die 280GTX dürfte nicht einmal 400€ kosten!

Die schnellste Karte darf teuer sein.

dildo4u
2008-06-14, 14:44:46
Die schnellste Karte darf teuer sein.
Fang bloß nicht an darüber mit ihm zu diskutieren bringt nix.High-End Käufer haben imo kein Problem bis zu 100€ mher auszugeben über dem "sollte" Preis.Imo lässt sich die Karte selbst für 500€ noch eine ganze Weile gut verkaufen.Wenn man die beste Preis/Leistungs Karte sucht muss man im 100€ Bereich gucken.(9600/8800GT etc.)

Gast
2008-06-14, 14:45:16
Wenn ich jetzt mal die Werte von techPowerUp! als Referenz nehme, so ist der Sprung Geforce 8800 GTX => Geforce GTX 280 längst nicht so groß wie Geforce 7800 GTX => Geforce 8800 GTX, aber ein wenig größer als 6800 Ultra => 7800 GTX.

Unterschied: Der Stromverbrauch ist proportional angestiegen. Die GTX 280 ist nicht nur rund 60 Prozent schneller als die 8800 GTX, sondern verbraucht auch so viel. Das stimmt mich schon etwas pessimistisch.
Klar, das Review zeigt lediglich die DirectX 9-Performance und wurde auch noch mit älteren Treibern gefahren, aber das sind alles kleine Schwankungen, die das Pendel vielleicht noch 5-10 Prozent zugunsten der neuen Nvidia-Karte auslegen lassen... muntert mich auf. ;)

Schlammsau
2008-06-14, 14:48:34
Fang bloss nicht an darüber mit ihm zu diskutieren bringt nix.High-End Käufer haben imo kein Problem bis zu 100€ mher auszugeben über dem "sollte" Preis.Wenn man die beste Preis/Leistungs Karte sucht muss man im 100€ Bereich gucken.(9600/8800GT etc.)

keine Angst, hab eh keinen Bock über so einen überbewerteten/überteuerten Dinosaurier zu diskutieren! ;)
Was kann man an diesem Teil noch gut finden....ausser der etwas höheren Leistung?
Ihr redet euch alles schön, und klammert euch an die letzte Hoffnung, dass evtl. doch noch ein Wunder geschieht und die Karte doch noch viel schneller wird als alle denken. Auch wenns erst mit einem PC der nächsten Generation ist.
Die Karte ist mal abgesehen davon, dass sie immo die schnellste (auch nicht immer), wirklich nichts neues!
Der Stromverbrauch ist proportional gestiegen, kein DX10.1, etc......

dargo
2008-06-14, 14:48:35
Unterschied: Der Stromverbrauch ist proportional angestiegen. Die GTX 280 ist nicht nur rund 60 Prozent schneller als die 8800 GTX, sondern verbraucht auch so viel. Das stimmt mich schon etwas pessimistisch.

Ich habe noch keine Messungen gesehen die ~210W real der G280GTX bescheinigen, du etwa?

keine Angst, hab eh keinen Bock über so einen überbewerteten/überteuerten Dinosaurier zu diskutieren! ;)
Warum tust du es dann ständig?

dildo4u
2008-06-14, 14:50:51
Was kann man an diesem Teil noch gut finden....ausser der etwas höheren Leistung?
Sie hat auch das beste Watt/FPS Verhältniss braucht nur 25 Watt mher als eine 8800GTX ist aber 1.5-1.7 mal so schnell hat endlich ein 2D idle Mode etc.

Gast
2008-06-14, 14:50:51
Intressant das die GTX 280 sogut wie nirgends überlegen ist.Die 4850 schlägt die Karte sogar bei denn wichtigen tests.;)Die füllrate war bei Ati ja immmer niedriger.Das hat diesmall nichts zu bedeuten.

Naja die theoretische "Überlegenheit" kommt ja in der Praxis auh nicht zur Geltung, nV hat mehr Effizienz AMD eben die größerer Rohpower die aber teils verpufft.

Vieleicht kommen ja noch Treiber, bei G80 hatte man anfangs auch starke bedenken, WTF kann sich kaum absetzen.
Ob es neue AA Modi gibt? Aber da es wohl nur Refresh Nummer 2 ist, wirds wohl bei den 3 CSAA Modi bleiben.

Schlammsau
2008-06-14, 15:02:58
Sie hat auch das beste Watt/FPS Verhältniss braucht nur 25 Watt mher als eine 8800GTX ist aber 1.5-1.7 mal so schnell hat endlich ein 2D idle Mode etc.


Die übertaktete Version verbraucht unter Last@Average verbraucht sie so viel wie eine 2900XT, und unter Last@Peak mehr als eine 3870X2! Ist ok aber ich hätte mir mehr erwartet!
Die Idle Werte sind verarsche, wenn ihr mal die tollen Marketingfolien anschaut.
45Watt eine 9800GTX und versprochene 25 Watt bei einer 280GTX? ;D
Das ist doch alles Lug und Betrug!

http://img205.imageshack.us/img205/4553/gtx280powersj4pi7.jpg

dargo
2008-06-14, 15:04:18
keine Angst, hab eh keinen Bock über so einen überbewerteten/überteuerten Dinosaurier zu diskutieren! ;)

Könntest du bitte auch dein Wort halten? Danke.

dildo4u
2008-06-14, 15:05:57
Die übertaktete Version verbraucht unter Last@Average verbraucht sie so viel wie eine 2900XT, und unter Last@Peak mehr als eine 3870X2
Warum vergleichst du eine OC Version gegen eine non OC Version?Macht doch kein Sinn.Die nicht übertaktet GTX280 schlägt eine X2 3870 mher als deutlich braucht aber ca 30 Watt weniger Strom.

Schlammsau
2008-06-14, 15:10:41
Warum vergleichst du eine OC Version gegen eine non OC Version?Macht doch kein Sinn.Die nicht übertaktet GTX280 schlägt eine X2 3870 mher als deutlich braucht aber weniger Watt.

weil diese beiden Karten von Ati mir auch deutlich zu viel Strom fressen!
Der Verbrauch der GTX280 ist ja schon besser geworden, aber ich hätte mir mehr erwartet.
Und bei der übertakteten Version zeigt es auch sehr deutlich, das die Karte über kein undervolten bzw. underclocking verfügt!
Sonst würde der Idle Verbrauch nicht so ansteigen! Das heisst die Karte hat auch in 2D die gleiche Spannung und Volt, wie unter 3D!
Traurig!

Unyu
2008-06-14, 15:20:17
Sonst würde der Idle Verbrauch nicht so ansteigen!
Alte Treiber. :rolleyes:

Gast
2008-06-14, 15:40:56
Und bei der übertakteten Version zeigt es auch sehr deutlich, das die Karte über kein undervolten bzw. underclocking verfügt!

wer sagt denn, dass die übertaktete version nicht auch andere 2D taktraten/spannungen hat?

eventuell wird auch nur die taktrate angepasst und die übertaktete version hat von haus aus mehr spannung.

möglichkeiten gibt es jedenfalls viele.

pest
2008-06-14, 15:55:28
Zumindest die Crysis-Resultate des Techpowerup Review sind für den Popo
8800GT 1600x1200 4xAA 16xAF ~ 34.1 fps :|, vielleicht haben die auch nur in den Himmel geschaut :D

Nazar
2008-06-14, 16:29:13
http://s7.directupload.net/images/080614/xvcccx4m.jpg

http://s5.directupload.net/images/080614/4v6a4yct.jpg[/QUOTE]



Ich wusste bis dato nicht mal, dass meine 8800GTX 27 FPS in Crysis unter eine nativen 30" Auflösung schafft *g*

dildo4u
2008-06-14, 16:36:34
Ich wusste bis dato nicht mal, dass meine 8800GTX 27 FPS in Crysis unter eine nativen 30" Auflösung schafft *g*
Es ist whol eine Custom Timedemo "nur" DX9 High unter XP und auch keine native 30 Auflösung.

Snoopy69
2008-06-14, 16:41:38
Da scheint tatsächlich irgendwo ein CPU Limit zu sein:

Vantage 1920x1200
GTX 280: X4817
4870: X2773
9800 GTX: X2096

Lost Planet (Snow) 1920x1200
GTX 280: 86
4870: 43
9800 GTX: 48

Lost Planet (Cave) 1920x1200
GTX 280: 63
4870: 56
9800 GTX: 63

Call of Juarez 1920x1200
GTX 280: 31,1
4870: 32,5
9800 GTX: 19,7

World in Conflict 1920x1200
GTX 280: 32
4870: 26
9800 GTX: 17

Im Vantage ist die GTX 280 deutlich überlegen.
Im ersten Lost Planet Benchmark (kenne ich nicht) zieht die 280er der neuen Radeon um gaze 100% davon, selbst die 9800 GTX schlägt die 4870.

Im zweiten Cave Benchmark ist der Abstand deutlich geringer, die neue GeForce ist nur um knapp 12% schneller. Interessant ist hier die Tatsache das die 9800 GTX nicht nur schneller als die 4870 ist, sondern gleich auf mit der GTX 280 liegt.

In Call of Juarez ist die 4870 ein wenig schneller.
Zu guter letzt WiC wo nVidia um rund 20% schneller ist.

Die Preise werden noch immer mit 349,- für 4870 und 649,- für GTX 280 angegeben. Sollte die GTX 280 wirklich nur 20-30% schneller sein, dann sollte nVidia mal die Preisschraube deutlich nach unten drehen.
Wo erkennst du das? Hast du es auch nachgeprüft?


Das Verhältnis wird aber von den Boardpartnern bei OC-Versionen öfter mal verändert, sodass zwar der GPU-Takt, nicht aber der Shadertakt stark steigt. Abgesehen davon kann der Rivatuner ja auch alles ändern. :)



17 Prozent mehr GPU-Takt. Ein Anzeichen dafür, dass die Teile noch Reserven haben?

MfG,
Raff
Mal gespannt, ob ich wieder 30% knacken kann :)


http://www.frankenland-pc.de/jtlshop2_os/index.php?k=178

Point of View GeForce GTX 280, 1024MB GDDR3 + Spiel Assassin's Creed SOFORT LIEFERBAR für 599€uro ;)
600€ war mir klar...


Öhm nö.

Alle Tests mit XP SP2 Crysis DX9 High Settings

Zotac GTX 280 AMP Edition Specs 700/1150/1400/Default GTX280 Specs 600/1100/1300

http://www.abload.de/img/gpuz_ocvwy.gif

http://8ynme6w1.multipic.de/750x445/clipboard09gh.jpg

http://s7.directupload.net/images/080614/xvcccx4m.jpg

http://8ynme6w1.multipic.de/750x637/clipboard06fg.jpg

http://8ynme6w1.multipic.de/750x641/clipboard08g.jpg

http://s5.directupload.net/images/080614/4v6a4yct.jpg

http://8ynme6w1.multipic.de/750x644/gtx28093.jpg

http://8ynme6w1.multipic.de/750x654/clipboard035.jpg

http://8ynme6w1.multipic.de/750x648/clipboard02f.jpg

http://8ynme6w1.multipic.de/750x652/clipboard04ff.jpg

http://8ynme6w1.multipic.de/750x649/clipboard05f.jpg

http://8ynme6w1.multipic.de/750x636/clipboard07g.jpg

http://www.abload.de/img/farcry_1600_1200jji.gif http://www.abload.de/img/farcry_2048_1536gl5.gif
Schade, dass so gut wie NIE auch Min-FPS gebencht werden ;(
Diese FPS-Angaben sehe ich als äusserst optimistisch an. Die AVG über das ganze Spiel gesehen ist sicher um einiges niedriger.

Ich würde mal ca. 30% abziehen - dann hat man ca. die Min-FPS


Beim Ram hat man wohl den gleichen wie bei einer 8800Ultra genommen. Manche OC-Editions komme auch mit 1150MHz daher.

AnarchX
2008-06-14, 17:28:53
Neu im Beyond3d Forum:

http://forum.beyond3d.com/showpost.php?p=1176005&postcount=3513

3DMark 2006

[...]
Vertex Performance is wohl uninteressant geworden ^^
Offensichtlich und wieder stellt sich die Frage: Wo sind die 1.4 Mrd. Transistoren hin? :uponder:

Anhand der Daten kann man wohl schätzen, dass die höhere GS-Performance auf verbessertem Threading oder ähnlichen basiert und 8xMSAA weiterhin vom Vertex-Setup limitiert wird.


Der geleakte Test von Techpowerup ist ja auch eher nur bedingt interessant, wenn man mal einen Blick auf die FPS-Bereiche wirft. ;D

Und schliesslich hat man wohl hier auch FW175 vs 177 getestet, hoffentlich gibt es dann nächste Woche mal Reviews mit kleinerem Kartenumfang, welche die GTX 280/260 gegen 8800 Ultra/GTX unter dem gleichen FW.

dildo4u
2008-06-14, 17:32:27
Und schliesslich hat man wohl hier auch FW175 vs 177 getestet, hoffentlich gibt es dann nächste Woche mal Reviews mit kleinerem Kartenumfang, welche die GTX 280/260 gegen 8800 Ultra/GTX unter dem gleichen FW.
Wirds imo nicht geben da niemand der Serious abreitet Treiber mit Inimods nutzt.Es gibt nunmal kein FW 177 mit G80/92 Support.Bei ATI wird man auch die alten Karten mit Cat8.5 und die neuen mit einem Beta Cat 8.6 testen.War ja eigentlich immer so das die neuen Betas erstmal eine Weile nur die neuen Karten unterstüzten war beim G80 whol auch so.

Snoopy69
2008-06-14, 17:37:49
Ich finde den 177er auf Nvidia nicht? :confused:
Bringt der auch was für 8800GTX?

Gast
2008-06-14, 17:39:36
die karte ist ja total in die hose gegangen,so kann man amd auch wieder zur alten stärke verhelfen,:haha:

AnarchX
2008-06-14, 17:39:55
Ich finde den 177er auf Nvidia nicht? :confused:
Bringt der auch was für 8800GTX?
Denn wird es ja erst am Montag offiziel geben, bisher gibt es den 177.26 nur inoffiziell von ASUS:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420985
...tombman hat damit seinen 88GTX OC SLI Vantage X-Score über 5k heben können.

dildo4u
2008-06-14, 17:40:26
Ich finde den 177er auf Nvidia nicht? :confused:
Bringt der auch was für 8800GTX?
Der 177.34 ist der Beta Treiber für die GTX280 den gibts wenn dann offizell erst am Montag(Mit der Karte) als Beta bei nvidia.Aber whol ohne G80/G92 Untersützung.(IniMod wär da eine Lösung)

http://www.xtremesystems.org/forums/showpost.php?p=3061346&postcount=11

Snoopy69
2008-06-14, 17:43:45
Denn wird es ja erst am Montag offiziel geben, bisher gibt es den 177.26 nur inoffiziell von ASUS:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=420985
...tombman hat damit seinen 88GTX OC SLI Vantage X-Score über 5k heben können.
Also ein leaked Driver...
Ist das hier nicht verboten? :wink:

Was hatte er vorher? Und bringt der Treiber nur was für die Punkte oder auch echte FPS in Spielen?

Gast
2008-06-14, 17:49:34
Schaue doch einfach in den entsprechenden Thread hier im nvidia Forum. Da gab es auch entsprechende Berichte zu den 177.xx treibern. Hier geht es nochn immer um die neuen Karten und nicht um alte Forceware v. Neue Forceware.

Odal
2008-06-14, 17:50:50
die karte ist ja total in die hose gegangen,so kann man amd auch wieder zur alten stärke verhelfen,:haha:


naja ich denke mal die meisten hier hatten viel zu hohe erwartungen.....


aber so wie es derzeit aussieht fress ich den braten noch nicht

das riecht was oberfaul

das kann nicht sein das die fast das doppelte an transistoren brauchen nur um sich etwas von ati abzusetzen

AnarchX
2008-06-14, 17:53:15
ASUS GTX 280 für 516€ und die 260 für 354€:
http://www.azerty.nl/producten/zoek?p_tab=8&GROEP_ID=160&SORTERING=prijs_desc

Gast
2008-06-14, 17:54:07
Die haben doch noch ein Ass im Ärmel oder ? Vielleicht haben sie noch nciht die ganze Power´mit dem Treiber frei geschaltet. Hmpf ?!

Wie war das damals mit der 8800er GTX im Vergleich zum Vorgänger (hat da jemand noch Werte zu?)


MfG

Gast
2008-06-14, 17:54:31
G71 auf G80 war auch eine Verdoppelung der Transistoren.
Die AMD Architektur hatte bisher wohl die TMUs als große schwäche die diesmal halt einfach verdoppelt wurden, wohl relativ günstig was die Transistoren angeht und schwubs gehts durch die Decke, dazu 55nm mit ein wenig Taktvorteil. Über die Temp der GTX280 weis man ja noch nix, warum es bisher nur A2 Step Chips gibt frag ich mich ernsthaft.

Wenn G200 schon im Dezember fertig war, und es Probleme gab, warum hat er dann keinen Respin Nummer3 erfahren? Das passt nicht irgendwie, evtl lohnt es sich doch bis in den November zu warten, bis der "echte" G200 kommt. In 55nm sollte das Monster nochmal zulegen können.

GeneralHanno
2008-06-14, 17:55:32
nachdem der RV670 und der G92 im 100-150€ bereich für ein extrem gutes preis-leistungs-verhältnis sorgen, können die 4870 und die GTX-260 nun für 300€ neue maßstäbe sätzen. der gewinner ist im jeden fall der kunde.