PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 6] - Übersicht in #1!


Seiten : 1 [2] 3 4 5

dargo
2008-06-12, 11:11:25
GTX 280 drops to $499, GTX 260 to $399 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=65)
Da scheint ja deutlich Bewegung in den Markt zu kommen. Erklärungsversuche (meinerseits):
- nVidia hat den RV770 unterschätzt
- nVidia hat die selbstgesteckten Ziele beim GT200 nicht erreicht
- AMD liefert zu extrem agressiven Preisen und nVidia muss reagieren
Meine Fresse. :eek:

360-370€ für eine G280GTX und 290-300€ für eine G260GTX. :ucrazy3:
Jetzt bin ich erst recht auf die Leistung gespannt.

Taigatrommel
2008-06-12, 11:19:02
GTX 280 drops to $499, GTX 260 to $399 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7853&Itemid=65)
Da scheint ja deutlich Bewegung in den Markt zu kommen. Erklärungsversuche (meinerseits):
- nVidia hat den RV770 unterschätzt
- nVidia hat die selbstgesteckten Ziele beim GT200 nicht erreicht
- AMD liefert zu extrem agressiven Preisen und nVidia muss reagieren

Sollte das stimmen, dann ist mein Interesse an der GTX 280 wieder deutlich gestiegen. Wenn sich der GTX Preis irgendwo zwischen 400 und 450,- € einpendelt, wäre das sicher eine interessante Sache.

Ich glaube einfach, dass nVidia keine großartig andere Wahl hat, als mit den Preisen im Vorfeld herunter zu gehen. Man hat AMD meines Erachtens nach einfach unterschätzt oder die Startpreise von denen überschätzt.
Gleichzeitig wird der GT200 nun einmal nicht der Überchip sein, für den er anfangs gehalten wurde.

Odal
2008-06-12, 11:36:48
Nich jedes Spiel skaliert zu 80 oder mher Prozent mit CF siehe z.B Crysis.Von daher ist erstmal gar nix klar.

Hier mit aktuellen Treibern eine X2 3870 22fps ohne CF 31fps mit CF.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6564474&postcount=118

es gibt immer beispiele wo crossfire nicht funktioniert wie es soll...es gibt auch immer beispiele die einer architektur nicht schmecken...

und ja man kann sicherlich auch beispiele konstruieren wo eine 3850 eine 9800GX2 vermöbelt

ich hoffe du merkst das man keine aussagen zu jedem einzelfall treffen kann

daher spreche ich vom schnitt, da ich mir sonst die finger wundschreiben würde

dildo4u
2008-06-12, 11:39:45
Crysis ist aber nunmal ein Game was so zu sagen als Spitze der PC Spieleentwicklung angesehen wird.Von daher steht es sher im Fokus beim Vergleich ATI 4XXX vs GTX260/280.

Gast
2008-06-12, 11:48:07
Crysis ist aber nunmal ein Game was so zu sagen als Spitze der PC Spieleentwicklung angesehen wird.Von daher steht es sher im Fokus beim Vergleich ATI 4XXX vs GTX260/280.
ist das ein witz? crysis ist nur was ähnliches wie 3dmurks wo man sich dran grafisch aufgeilen kann!

Chris2CB
2008-06-12, 11:49:23
Crysis ist aber nunmal ein Game was so zu sagen als Spitze der PC Spieleentwicklung angesehen wird.Von daher steht es sher im Fokus beim Vergleich ATI 4XXX vs GTX260/280.


Nö, man sucht sich nur immer eine Herausvorderrung, die einen benchen, die anderen spielen. Crysis ist 3DMark mit Spieleelementen damit wars das aber auch schon. Zudem wird die Engine kaum verkauft ist also Uninterresant zum Quadrat.


Wenn man jetzt Crysis mit 100fps avg darstellen könnte.......schön das nächste bitte......mehr Mainstream geht ja wohl kaum.


Unreal Engine 3 wird sehr oft verkauft.

dildo4u
2008-06-12, 11:49:55
ist das ein witz? crysis ist nur was ähnliches wie 3dmurks wo man sich dran grafisch aufgeilen kann!
Es geht ja hier um ein technischen Vergleich.




Unreal Engine 3 wird sehr oft verkauft.
Sicher aber das sind alles auch Konsolenumsetzungen und die Engine an sich läuft auch auf der derzeitgen Generation schon sher gut.

Taigatrommel
2008-06-12, 11:50:06
ist das ein witz? crysis ist nur was ähnliches wie 3dmurks wo man sich dran grafisch aufgeilen kann!
Könnten wir die spielerischen Crysis Diskussionen ins entsprechende Forum verlagern? Ob und wieviel Spaß Crysis macht, ist und bleibt jedem selbst überlassen. Ich spiele es ganz gerne zwischendurch.

Fakt ist nun einmal, dass Crysis als Benchmark aktuell eine sehr wichtige Rolle spielt. Egal in welchen Foren man liest, es wird ständig nachgefragt, wie schnell die neuen Karten in Crysis sind. Von daher sind diese Werte nun einmal wirklich interessant.

King
2008-06-12, 11:50:47
Crysis ist aber nunmal ein Game was so zu sagen als Spitze der PC Spieleentwicklung angesehen wird.Von daher steht es sher im Fokus beim Vergleich ATI 4XXX vs GTX260/280.

Ich kann das Wort Crysis nicht mehr hören, das ist mit Abstand der ödeste Shooter den ich je gespielt habe. Vielleicht kommt ja mal ein ansprechendes Game mit dieser Engine, aber bis dahin kann ich nicht verstehen warum so viele eine gute Performance in diesem Spiel als Kaufgrund für eine neue Graka sehen.

X.Perry_Mental
2008-06-12, 11:51:50
Vom Inquirer: GT200 scores revealed (http://www.theinquirer.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed)
Basis dieser Tests ist wohl ein QX9650 @ 3.0GHz und der nicht mehr ganz taufrische 177.26er Treiber unter Vista 32 (oder laut Charlie "the broken OS"). Leider keine Quellenangabe.

Gast
2008-06-12, 11:53:01
Könnten wir die spielerischen Crysis Diskussionen ins entsprechende Forum verlagern? Ob und wieviel Spaß Crysis macht, ist und bleibt jedem selbst überlassen. Ich spiele es ganz gerne zwischendurch.

Fakt ist nun einmal, dass Crysis als Benchmark aktuell eine sehr wichtige Rolle spielt. Egal in welchen Foren man liest, es wird ständig nachgefragt, wie schnell die neuen Karten in Crysis sind. Von daher sind diese Werte nun einmal wirklich interessant.
wie gesagt, es wird auch nach 3dmurks gefragt... und wie oft spielst du den? es geht hier darum, evnt. den fokus mehr auf die in diesem jahr noch erscheinenden titel zu legen und nicht auf eine eintagesfliege. die spielerische diskussion interessiert mich nicht, aber wenn man ein spiel das z.b. 20 mal verkauft wurde, als referenz nimmt, und nicht das 100000 mal verkaufte, dann ist was falsch.

ansonsten, ack, ich werds nie spielen und hoffe dass bald wieder was ansprechendes kommt was auch spieltiefe besitzt.

Taigatrommel
2008-06-12, 11:53:18
Ich kann das Wort Crysis nicht mehr hören, das ist mit Abstand der ödeste Shooter den ich je gespielt habe. Vielleicht kommt ja mal ein ansprechendes Game mit dieser Engine, aber bis dahin kann ich nicht verstehen warum so viele eine gute Performance in diesem Spiel als Kaufgrund für eine neue Graka sehen.
Vielleicht weil eine schnelle Crysis Grafikkarte auch sehr schnell in anderen Spielen ist? Vor allem in zukünftigen Spielen.

frix
2008-06-12, 11:55:54
Ich finde die kurzsichtigkeit mancher erschreckend. Auch wenn einem crysis nicht gefallen mag. Es bietet technische featuers die zur zeit kein spiel sonst bietet und ist techn. seiner zeit voraus. Und ich bin mir sehr sicher, dass die entwicklung neuer spiele diverse features aufgreifen wird. An was für einem spiel soll man denn derzeit sonst überprüfen wie leistungsstark die neuen karten auch in zukünftigen games sein könnten?

Godmode
2008-06-12, 11:58:49
Naja, Fuad. Aber wenn die Leistung stimmt, die ich gehört habe, dann sind $499 wohl wirklich angebrachter.

Nur was werden wohl die Investoren dazu sagen, dass NV eine 575mm² Die inkl. 512-Bit PCB für so einen Preis verkaufen muss. X-D

Ich frage mich was Ailurus die ganze Zeit gehört hat? Wurde er grob verarscht? Mittlerweile kann man davon ausgehen das GT200 nicht das wird, was wir uns gewünscht haben -> G80U-SLI-Killer

edit: und hört mit OT auf!

Winter[Raven]
2008-06-12, 12:04:50
Ich frage mich was Ailurus die ganze Zeit gehört hat? Wurde er grob verarscht? Mittlerweile kann man davon ausgehen das GT200 nicht das wird, was wir uns gewünscht haben -> G80U-SLI-Killer

Glaube ich persönlich nicht über irgendwelche Fehlinterpretationen... Ail. konnte immer eine GPU in die richtige Richtung einschätzen und bei der GPU wirds ähnlich sein.

Ich glaube Ehe wieder an ein Verarsche durch Nvidia ... ;)

Schlammsau
2008-06-12, 12:07:05
http://www.theinquirer.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed

Nur 36fps unter High Quality in Crysis mit einer Auflösung von 1920x1200! Also nix mit Very High und 4xAA! Das ist echt eine herbe Entäuschung! In erster Linie für Tombman!

This card is a dinosaur, too hot, too late


http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg

Godmode
2008-06-12, 12:09:37
;6577124']Glaube ich persönlich nicht über irgendwelche Fehlinterpretationen... Ail. konnte immer eine GPU in die richtige Richtung einschätzen und bei der GPU wirds ähnlich sein.

Ich glaube Ehe wieder an ein Verarsche durch Nvidia ... ;)

So kurz vor dem Launch gibt es aber schon Leute die eben entsprechende Hardware besitzen. Die ersten Zahlen über G80 haben wir auch erst kurz vor dem Launch erhalten und sie waren beeindruckend. Die Zahlen die wir jetzt bekommen haben, sind aber eher naja, wenn man bedenkt wie fett diese GPU ist. Könnte es wirklich sein, das GT200 die geplanten Taktraten nicht erreicht hat?

mapel110
2008-06-12, 12:10:49
Für die Performance bislang bleibt nur eine Erklärung. Die Transistoren sind aus irgendeinem Grund in irgendwas anderes als Leistung geflossen.

dargo
2008-06-12, 12:13:24
Für die Performance bislang bleibt nur eine Erklärung. Die Transistoren sind aus irgendeinem Grund in irgendwas anderes als Leistung geflossen.
Mal davon abgesehen, dass mir die Crysiswerte spanisch vorkommen - findest du X5000 für den neuen 3DMark mit "nur" einem 3Ghz Quad wenig?

pest
2008-06-12, 12:13:29
http://www.theinquirer.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed

Nur 36fps unter High Quality in Crysis mit einer Auflösung von 1920x1200! Also nix mit Very High und 4xAA! Das ist echt eine herbe Entäuschung! In erster Linie für Tombman!




http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg

die Werte sind doch geraten, so glatte Zahlen... ups steht ja drin

Superheld
2008-06-12, 12:13:31
http://www.theinquirer.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed

Nur 36fps unter High Quality in Crysis mit einer Auflösung von 1920x1200! Also nix mit Very High und 4xAA! Das ist echt eine herbe Entäuschung! In erster Linie für Tombman!



http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg

ist doch nur eine Zusammenfasszung der Benchmarks die hier schon rum geistern.....

Gast
2008-06-12, 12:14:26
Nein, die Erklärung ist folgende: aufgrund der Architekturänderungen muss der Shader-Compiler im Treiber angepasst werden, im Moment laufen die Karten nur im G80-Kompatibilitätsmodus, also etwa mit 2/3 ihrer Leistungsfähigkeit.

Gast
2008-06-12, 12:14:28
Für die Performance bislang bleibt nur eine Erklärung. Die Transistoren sind aus irgendeinem Grund in irgendwas anderes als Leistung geflossen.

Die Frage ist, wieviel diese 30 dedizierten DP-MADDs gekostet haben, mit den der G200 wohl nichtmal die DP-Leistung des RV670 erreicht.

dargo
2008-06-12, 12:15:11
Könnte es wirklich sein, das GT200 die geplanten Taktraten nicht erreicht hat?
Wen juckt das überhaupt? :)
Als ob 650-700Mhz sooo einen Unterschied machen würden.

Odal
2008-06-12, 12:16:47
Es geht ja hier um ein technischen Vergleich.


Sicher aber das sind alles auch Konsolenumsetzungen und die Engine an sich läuft auch auf der derzeitgen Generation schon sher gut.

Crysis ist aber nunmal ein Game was so zu sagen als Spitze der PC Spieleentwicklung angesehen wird.Von daher steht es sher im Fokus beim Vergleich ATI 4XXX vs GTX260/280.

crysis mal installiert wow gesagt per "map xyz" ne stunde durch die karten geswitcht...gelangweilt...deinstalliert

wie schon erwähnt gibts immer was was einer architektur besser schmeckt als einer anderen...davon ausgehend sollte man nicht generalisieren...

und mit der engine gibts nunmal nix anderes während spiele mit UT3 engine wie pilze aus dem boden schiessen...

also da wäre dann eher diese "generalisierbar" wobei mir die optik der UT3 engine jetzt nicht sooo zusagt


Für die Performance bislang bleibt nur eine Erklärung. Die Transistoren sind aus irgendeinem Grund in irgendwas anderes als Leistung geflossen.

hm mir schoss ja schonmal der gedanke durch den kopf das sie nen teil speziell für physiX drin haben...aber das hätte man an den DIE shots ja eigentlich sehen müssen

mapel110
2008-06-12, 12:18:14
Mal davon abgesehen, dass mir die Crysiswerte spanisch vorkommen - findest du X5000 für den neuen 3DMark mit "nur" einem 3Ghz Quad wenig?
3DMark interessiert mich nicht. In Spielen hätte doch deutlich mehr rumkommen müssen. Vielleicht holen sie ja noch was mit neueren Treibern, aber das Problem hatte G80 noch in wesentlich größerem Maße.

hm mir schoss ja schonmal der gedanke durch den kopf das sie nen teil speziell für physiX drin haben...aber das hätte man an den DIE shots ja eigentlich sehen müssen
WTF? Adlerauge?
Für PhysX war die Zeit viel zu knapp, um es in Hardware zu implementieren.

dildo4u
2008-06-12, 12:18:21
Die einzige Score wo man 100% sicher ist das AA und Af Aktiv war ist die Vantage X Score und die ist mit 5000 immerhin über 100% schneller als eine 9800GTX.

Odal
2008-06-12, 12:18:55
Wen juckt das überhaupt? :)
Als ob 650-700Mhz sooo einen Unterschied machen würden.


vielleicht will er eher darauf hinaus das es keine 600 werden könnten...also eher 500-550

PHuV
2008-06-12, 12:20:05
Vielleicht hat ja der Treiber 177.26 mit Absicht noch eine Beschränkung drin? Tara, am 16. wird seltsamerweise ein neuer Treiber released, der dann auf einen Schlag eine bessere Performance liefert? Tja, und wenn ATI hier auch nachziehen kann, wird es echt interessant.

dildo4u
2008-06-12, 12:20:10
3DMark interessiert mich nicht. In Spielen hätte doch deutlich mehr rumkommen müssen. Vielleicht holen sie ja noch was mit neueren Treibern, aber das Problem hatte G80 noch in wesentlich größerem Maße.
Bei den Gamebenches steht im Gegensatz zu Vantage X Score noch nicht mal fest ob überhaupt AA und AF genutzt wurde. :rolleyes:

Aquaschaf
2008-06-12, 12:23:54
hm mir schoss ja schonmal der gedanke durch den kopf das sie nen teil speziell für physiX drin haben...aber das hätte man an den DIE shots ja eigentlich sehen müssen

Dafür spezielle Einheiten zu integrieren würde nun wirklich keinen Sinn machen. Und es wäre völlig gegenläufig zur gerade ablaufenden Entwicklung der GPUs zu allgemein nutzbaren Rechnern.

dargo
2008-06-12, 12:24:08
crysis mal installiert wow gesagt per "map xyz" ne stunde durch die karten geswitcht...gelangweilt...deinstalliert

UE3-Spiele installiert, über die wischi waschi Optik geärgert, sich gelangweilt und wieder deinstalliert. Und nun?

Sorry, aber der Geschmack von Spielen interessiert in diesem Thread niemanden.


und mit der engine gibts nunmal nix anderes während spiele mit UT3 engine wie pilze aus dem boden schiessen...

Klar, für die UE3 braucht man auch eine G280GTX. :rolleyes:

pest
2008-06-12, 12:26:19
ich hab Crysis 1280x1024@Medium mit ner 8800GT schon 79fps, oder sie haben was anderes als den GPU-Bench benutzt...abwarten ;)

Odal
2008-06-12, 12:30:19
Dafür spezielle Einheiten zu integrieren würde nun wirklich keinen Sinn machen. Und es wäre völlig gegenläufig zur gerade ablaufenden Entwicklung der GPUs zu allgemein nutzbaren Rechnern.


das müssen ja nicht unbedingt spezielle funktionen sein

aber sowie ich das in erinnerung habe können cuda DX etc. sachen nur seriell ablaufen....

wie wärs denn mit "logik" von den ALU's einen Teil (am besten variable) separat nur für CUDA (und somit ner physX CUDA implementierung) ansprechen zu können um das alles parallel laufen zu lassen?

pest
2008-06-12, 12:31:08
ich dachte die DP-Einheiten fressen ne ganze Menge

dargo
2008-06-12, 12:32:25
ich hab Crysis 1280x1024@Medium mit ner 8800GT schon 79fps, oder sie haben was anderes als den GPU-Bench benutzt...abwarten ;)
Die neuen Karten mit medium Details zu testen macht überhaupt keinen Sinn. Da ist man mit ~80fps schnell am CPU-Limit.

Gast
2008-06-12, 12:32:58
;6577124']Glaube ich persönlich nicht über irgendwelche Fehlinterpretationen... Ail. konnte immer eine GPU in die richtige Richtung einschätzen und bei der GPU wirds ähnlich sein.

Ich glaube Ehe wieder an ein Verarsche durch Nvidia ... ;)



genau und er "sagte" da kommt noch was schnelleres.

captainsangria
2008-06-12, 12:33:31
ich hab Crysis 1280x1024@Medium mit ner 8800GT schon 79fps, oder sie haben was anderes als den GPU-Bench benutzt...abwarten ;)Mit "medium" werden die neuen Karten wohl nicht getestet werden.

Godmode
2008-06-12, 12:33:47
Vielleicht hat ja der Treiber 177.26 mit Absicht noch eine Beschränkung drin? Tara, am 16. wird seltsamerweise ein neuer Treiber released, der dann auf einen Schlag eine bessere Performance liefert? Tja, und wenn ATI hier auch nachziehen kann, wird es echt interessant.

Und die Reviewer dürfen die ganze Arbeit dann von vorne beginnen?:rolleyes:
Wenn sie sowas machen, schießen sie sich selber ins Knie.

dreamweaver
2008-06-12, 12:44:42
http://www.theinquirer.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed

Nur 36fps unter High Quality in Crysis mit einer Auflösung von 1920x1200! Also nix mit Very High und 4xAA! Das ist echt eine herbe Entäuschung! In erster Linie für Tombman!




http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg

LOL, 77FPS unter 1280x1024 ohne AA und medium settings... :crazy:
tstss

Eggcake
2008-06-12, 12:51:49
Mit "medium" werden die neuen Karten wohl nicht getestet werden.

http://images.vnu.net/gb/inquirer/news/2008/06/12/gt200-scores-revealed/nv_gt200_numbers.jpg


Geht um das hier.

deekey777
2008-06-12, 13:06:17
Wow...
Wenn TheInq was postet, kommen hier alle und regen sich über die Unprofessionalität der Redakteure auf. Wenn aber eine Tabelle mit Zahlen auftaucht, werden diese Vorbehalte sofort vergessen und es wird seitenlang über diese Zahlen diskutiert.
Dass die Redakteure noch nie ein gutes Wort über den G200 verloren haben, scheint untergegangen zu sein. Dass diese Zahlen nicht prüfbar sind, scheint auch niemanden zu interessieren. Dass gestern auch erwähnt wurde, dass NV einen neuen Treiber an die Reviewer verschickt hat und zwar mit der Bitte, die Tests zu wiederholen, wurde schon vergessen.

Aber schön, dass ihr auf Zahlen so steht, ohne sich Gedanken über deren Herkunft und ihre tatsächliche Aussagekraft zu machen.

Gast
2008-06-12, 13:08:06
Die einzige Score wo man 100% sicher ist das AA und Af Aktiv war ist die Vantage X Score und die ist mit 5000 immerhin über 100% schneller als eine 9800GTX.

Naja im X Test rennt die 9800GTX schon in ein Vramlimit, aber die 8800Ultra soll knapp an 3K rankommen mit dem 177er Treiber.

Gast
2008-06-12, 13:11:48
die GX2 5100-Tombs G80 SLI 5800....und was sagt uns das?

Gast
2008-06-12, 13:12:49
x5000 ist aber schon mal richtig fett, das ist eine verdopplung einer 8800ULTRA!!!

Was wohlt ihr eigentlich noch mehr?

InsaneDruid
2008-06-12, 13:17:01
Wow...
Wenn TheInq was postet, kommen hier alle und regen sich über die Unprofessionalität der Redakteure auf. Wenn aber eine Tabelle mit Zahlen auftaucht, werden diese Vorbehalte sofort vergessen und es wird seitenlang über diese Zahlen diskutiert.
Dass die Redakteure noch nie ein gutes Wort über den G200 verloren haben, scheint untergegangen zu sein. Dass diese Zahlen nicht prüfbar sind, scheint auch niemanden zu interessieren. Dass gestern auch erwähnt wurde, dass NV einen neuen Treiber an die Reviewer verschickt hat und zwar mit der Bitte, die Tests zu wiederholen, wurde schon vergessen.

Aber schön, dass ihr auf Zahlen so steht, ohne sich Gedanken über deren Herkunft und ihre tatsächliche Aussagekraft zu machen.

Zumal die Jungs selber erwähnen wie angepisst sie sind das NV sie diesmal ausgesperrt hat.

4711
2008-06-12, 13:18:54
x5000 ist aber schon mal richtig fett, das ist eine verdopplung einer 8800ULTRA!!!

Was wohlt ihr eigentlich noch mehr?

Ich nix
Fürne Singlekarte ok,wenn sie das hält mit AA ist sie 500€ Wert und keinen Cent mehr.

Gast
2008-06-12, 13:19:42
x5000 ist aber schon mal richtig fett, das ist eine verdopplung einer 8800ULTRA!!!

Was wohlt ihr eigentlich noch mehr?

Tobman hat 5800 mit einem Ultra SLI, da sind die 5000 im leben keine 8800GTX 2 mal und schon garnicht 3 mal wie hier immer propagiert wurde ;D

Gast
2008-06-12, 13:20:23
Zumal die Jungs selber erwähnen wie angepisst sie sind das NV sie diesmal ausgesperrt hat.

sind ja selber schuld...

4711
2008-06-12, 13:21:44
jo die Träume waren etwas hochgesteckt...aber eine Verdopplung ist auch ok.
Man sollte mal SLI und GX2 endlich außen vorlassen,das verfälscht irgendwie ;D

Odal
2008-06-12, 13:21:48
Tobman hat 5800 mit einem Ultra SLI, da sind die 5000 im leben keine 8800GTX 2 mal und schon garnicht 3 mal wie hier immer propagiert wurde ;D

na das haben auch nur blinde realitätsfremde idealisten so propagiert
wobei eigentlich alles dagegen sprach

also wer immer noch glaubt GTX280> doppelt so schnell wie ne 88Ultra oder gar 3 mal so schnell ist wirklich ein traumtänzer

Gast
2008-06-12, 13:22:40
Tobman hat 5800 mit einem Ultra SLI, da sind die 5000 im leben keine 8800GTX 2 mal und schon garnicht 3 mal wie hier immer propagiert wurde ;D

ja mit OC? laut computerbase hat ne Ultra 2500 mit 4GHz Quad! Da kommen zwei nie auf 5800, das wären ja 125% lol...

mictasm
2008-06-12, 13:24:45
ja mit OC? laut computerbase hat ne Ultra 2500 mit 4GHz Quad! Da kommen zwei nie auf 5800, das wären ja 125% lol...

Treiberunterschiede? Tombi war ja selbst überrascht, was mit dem neuen Treiber plötzlich an Werten herauskam...

Gast
2008-06-12, 13:25:54
Da wird sich Nvidia mit dem geplanten Shrink in Form des GT200b beeilen müssen,ansonsten steigen die Investoren denen aufs Dach.

Niemand hier hat auch nur einen hauch von Ahnung, welchen Deal nV mit TSMC für die Fertigung des G200 hat. Also hört doch auf da zu mutmaßen, davon hat nunmal KEINER Ahnung/Wissen.
Solange der Quartalsbericht nicht irgendwie einbricht gibts es keinerlei Indiz, was nV verdient/drauflegt...

Warum wird das immer wieder angestoßen wo doch klar ist, das man 0 darüber weiß...

Gast
2008-06-12, 13:26:07
jo die Träume waren etwas hochgesteckt...aber eine Verdopplung ist auch ok.
Man sollte mal SLI und GX2 endlich außen vorlassen,das verfälscht irgendwie ;D

Man hat immer gesagt 2x G80 Leistung, habe nie was anderes gehört!

Nach den benchmarks ist der G200 sogar über diesen zwei G80! Also müsste man fast an ein 3-Way SLI System mit einem G200 ran kommen....

4711
2008-06-12, 13:26:33
Man hat ja im Grunde SLI und GX2 Leistung und das mit einer Karte!
Ich finde das eigendlich in Ordnung.
Jetzt kommt es drauf an was ATI mit der Dicken bringen kann,wobei ich allerding nicht denke das die an die 280er rannkommt,wenn ich die Ergebnisse der kleinen sehe,würde mich das schon sehr wundern.
Und wie gesagt da kommt mit bestimmtheit was schnelleres noch dieses Jahr,aber wozu?
Crysis...ich kanns nicht mehr hören echt,dieses Schrottgame :D

Und vorallem hat auch Tomb und ich ne Ageia drinn,das macht schon mal kräftig Punkte extra im Vantage.

Gast
2008-06-12, 13:28:29
Die GX2 sieht kein land gegen einen G200, schon alleine die Speicher Menge macht das für den G200...

Gast
2008-06-12, 13:29:33
jo die Träume waren etwas hochgesteckt...aber eine Verdopplung ist auch ok.
;D

Die Verdopplung steht aber auch noch auf wackligen Beinen und nach über 2 Jahren finde ich das schon erbärmlich :(

AnarchX
2008-06-12, 13:29:36
na das haben auch nur blinde realitätsfremde idealisten so propagiert
wobei eigentlich alles dagegen sprach

Ja, bei G200 sprach wirklich alles dagegen, dass man aus einem 575mm² großen und 1.4 Mrd. Transistoren schweren Chip die doppelte Leistung gegenüber dem 680M Transistoren schweren Vorgänger holt, was RV770 offenbar aus gerade mal 70-80mm² gegenüber dem RV670 schafft. :rolleyes:

Wenn du nichts sinnvolles zum Thema beizutragen hast und hier versucht Provokationen zu sähen, dann rate ich dir ernsthaft von diesem Thread fern zu bleiben...

Gast
2008-06-12, 13:29:54
Treiberunterschiede? Tombi war ja selbst überrascht, was mit dem neuen Treiber plötzlich an Werten herauskam...

welcher Treiber?

4711
2008-06-12, 13:30:43
Die Verdopplung steht aber auch noch auf wackligen Beinen und nach über 2 Jahren finde ich das schon erbärmlich :(
Ich seh hier eine deutliche Verdopplung

Die GX2 sieht kein land gegen einen G200, schon alleine die Speicher Menge macht das für den G200...

Dummes Zeug von einem der noch nie eine GX2 aus der Nähe gesehen hat,geschweige denn damit gespielt etc.
incl.1920x1200 mit VIEL AA ist der Karte vollkommen wurst.

mictasm
2008-06-12, 13:32:37
welcher Treiber?

177.26

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6576439#post6576439

Gast
2008-06-12, 13:33:46
x5000 ist ein hammer wert für eine single gpu, wer mehr erwartet hat ist selber schuld...

Gast
2008-06-12, 13:34:12
177.26

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6576439#post6576439

ich teste mal...

Gast
2008-06-12, 13:35:12
Dummes Zeug von einem der noch nie eine GX2 aus der Nähe gesehen hat,geschweige denn damit gespielt etc.
incl.1920x1200 mit VIEL AA ist der Karte vollkommen wurst.

lol habe selber ne GX2 hier inkl. zwei 8800Ultra, die GX2 sieht dagegen kein land...

4711
2008-06-12, 13:35:31
rennt wie Harry und irgendwelche Treibereinstellungsschweinereien konnt ich auch nicht finden.

Odal
2008-06-12, 13:36:45
Man hat immer gesagt 2x G80 Leistung, habe nie was anderes gehört!

Nach den benchmarks ist der G200 sogar über diesen zwei G80! Also müsste man fast an ein 3-Way SLI System mit einem G200 ran kommen....

ich sehe hier keinen widerspruch, eine 8800GTS 640 hat auch nen G80 drauf ;D

4711
2008-06-12, 13:37:21
lol habe selber ne GX2 hier inkl. zwei 8800Ultra, die GX2 sieht dagegen kein land...

Schwätzer
Ich hab meine Ultras gegen die GX2 getauscht und keine Sek.daran gedacht wieder zu wechseln.
Und bei mir weiß man das ich hatte.
Aber das ist OT und gehört hier nicht hin.

Odal
2008-06-12, 13:39:27
Ja, bei G200 sprach wirklich alles dagegen, dass man aus einem 575mm² großen und 1.4 Mrd. Transistoren schweren Chip die doppelte Leistung gegenüber dem 680M Transistoren schweren Vorgänger holt, was RV770 offenbar aus gerade mal 70-80mm² gegenüber dem RV670 schafft. :rolleyes:

Wenn du nichts sinnvolles zum Thema beizutragen hast und hier versucht Provokationen zu sähen, dann rate ich dir ernsthaft von diesem Thread fern zu bleiben...


laut den specs ist der G200 aber kein doppelter G80
selbst unter der annahme das die leistung linear zu den angestrickten ALUs TMUs ROPs etc. skaliert kann somit bei gleichem takt niemals doppelte leistung herauskommen...
dazu müsste man die effizienz von jedem GPU teil schon deutlich steigern

Gast
2008-06-12, 13:41:35
für alle die mekern das 2xG80 nicht gut sind, würde ich mal die ersten Test von der 8800GTX anschauen, besonders gegen den G71:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Rating 1600x1200 4xAA/16xAF
8800GTX NUR 29% schneller als 7950GX2!!!!

Echt schwach die Leistung muss schon sagen, lächerlich was hier manche schreiben!

AnarchX
2008-06-12, 13:42:02
Ich frage mich was Ailurus die ganze Zeit gehört hat? Wurde er grob verarscht? Mittlerweile kann man davon ausgehen das GT200 nicht das wird, was wir uns gewünscht haben -> G80U-SLI-Killer

Naja, was hättest denn du einem 500-600mm² Die auf >= 65nm zugetraut, von dem du Weihnachten 2007 das erste Mal hörst? ;)

Aber er hat offenbar NVs Engagement für GPGPU unterschätzt, was wohl maßgeblich für einige Designentscheidungen am G200 war.

Wobei sich hier wieder die Frage stellt, was man dann mit 78GFLOPs DP-MADDs will, wo schon ein RV670 bei ~125 GFLOPs liegt und R700 wahrscheinlich ganze ~500 GFLOPs aufbieten kann. (Laut Mike Houston DP-MADDs ~ 1/4 SP-MADDs) :crazy:

Als kleiner Trost bleibt wohl, dass G200 durch seinen erheblich verbesserten Shadercore wohl in Zukunft etwas besser aussieht, wie reunion es wohl schon verglich: R580-like.

Das ist jedenfalls mein Momentaneindruck.

4711
2008-06-12, 13:42:10
Das ist ja eben glaube das mörderische an dem Chip,doppelte Leistung bei gleichem Takt?!

für alle die mekern das 2xG80 nicht gut sind, würde ich mal die ersten Test von der 8800GTX anschauen, besonders gegen den G71:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Rating 1600x1200 4xAA/16xAF
8800GTX NUR 29% schneller als 7950GX2!!!!

Echt schwach die Leistung muss schon sagen, lächerlich was hier manche schreiben!

??
nur 29% als Single Karte wirklich lächerlich was einige hier schreiben.

dargo
2008-06-12, 13:43:59
Dummes Zeug von einem der noch nie eine GX2 aus der Nähe gesehen hat,geschweige denn damit gespielt etc.
incl.1920x1200 mit VIEL AA ist der Karte vollkommen wurst.
Das sieht aber CB zum Teil anders.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/15/
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/18/

Bereits in 1280x1024 4xMSAA/16xAF sehe ich bei der GX2 eine Tendenz zum fehlenden Vram. Die CB misst nur die avg.fps. Würde man einen Frameverlauf präsentieren würde das stellenweise übel für die GX2 aussehen.

CoJ sieht bei 1600x1200 4xMSAA/16xAF auch übel aus.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/17/

Das sind genau die Bereiche wo die 1GB Vram Abhilfe schaffen. :)

Odal
2008-06-12, 13:45:55
für alle die mekern das 2xG80 nicht gut sind, würde ich mal die ersten Test von der 8800GTX anschauen, besonders gegen den G71:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Rating 1600x1200 4xAA/16xAF
8800GTX NUR 29% schneller als 7950GX2!!!!

Echt schwach die Leistung muss schon sagen, lächerlich was hier manche schreiben!


vielleicht solltest du mal

Rating 2560x1600 4xAA/16xAF betrachten da sinds schon 51%

aber das ist eh egal da es sich bei G71/G80 um zwei vollkommen unterschiedliche architekturen handelt und da ist es klar das letzterer seine shadermacht bei neueren titeln ausspielen kann...

G200 und G80 ist aber im groben die gleiche architektur

4711
2008-06-12, 13:49:02
jo ;D ich frag mich wie die getestet haben,bei der Masse an FPS brauch das Spielchen ja Stunden um zu starten,soviel dazu.
Schade das ich CoJ nicht mehr habe.
Aber ich lauf ja eh außer Konkurenz wie Schlammsau schrieb bei 20% Karten OC ;D

AnarchX
2008-06-12, 13:49:29
GTX 280 OCing!

http://img505.imageshack.us/img505/6553/20080612d8debf03b3ba00dhk1.jpg (http://imageshack.us)
http://img502.imageshack.us/img502/4522/20080612fba94547f4ec927eg0.jpg (http://imageshack.us)
http://img136.imageshack.us/img136/4792/20080612aa89e73a2b96f95ke7.jpg (http://imageshack.us)
http://img176.imageshack.us/img176/3153/200806126a1878087d2931ctn8.jpg (http://imageshack.us)

Gast
2008-06-12, 13:49:31
Ja, bei G200 sprach wirklich alles dagegen, dass man aus einem 575mm² großen und 1.4 Mrd. Transistoren schweren Chip die doppelte Leistung gegenüber dem 680M Transistoren schweren Vorgänger holt, was RV770 offenbar aus gerade mal 70-80mm² gegenüber dem RV670 schafft. :rolleyes:


Der G80 war ein Meisterwerk was man von dem RV670 wohl kaum sagen kann , schonmal daran gedacht?

Vieleicht hat NV mit dem G200 ein R600 kopiert ;)

4711
2008-06-12, 13:53:29
GTX 280 OCing!

http://img505.imageshack.us/img505/6553/20080612d8debf03b3ba00dhk1.jpg (http://imageshack.us)
http://img502.imageshack.us/img502/4522/20080612fba94547f4ec927eg0.jpg (http://imageshack.us)
http://img136.imageshack.us/img136/4792/20080612aa89e73a2b96f95ke7.jpg (http://imageshack.us)
http://img176.imageshack.us/img176/3153/200806126a1878087d2931ctn8.jpg (http://imageshack.us)

hat der Angst die Regler hochzuziehen?
Dem Ding kann man doch genau so Beine machen wie nem G92,versteh ich nicht.
Zu wenig...schade ist unter OC G80 was soll denn das nun wieder..ist ja wieder kein Verhältniß zu den Ergebnissen von gestern ohne OC..?
Wird Zeit das das Ding kommt und diese eigenartigen Benches aufhören.

Gast
2008-06-12, 13:55:00
echt cool was die karte in Vantage erreicht, besonders die X Werte sind richtig gut.

GeneralHanno
2008-06-12, 13:57:06
kann jemand mal die featuretestwerte mit denen von AMD in ner tabelle zusammenstellen?

Superheld
2008-06-12, 13:58:11
lol nicht mal 30fps in Vantage;D

....was sollen die noch für Grafikkarten bauen:|

Gast
2008-06-12, 13:59:05
seine shadermacht bei neueren titeln ausspielen kann...


Kann man im Vergleich von G80 zu G200 genau das selbe sagen...

4711
2008-06-12, 14:00:16
echt cool was die karte in Vantage erreicht, besonders die X Werte sind richtig gut.
Das ist ja mal echt fies soviel Ironie in so wenig Worten ;D

Gast
2008-06-12, 14:04:34
hat der Angst die Regler hochzuziehen?
Dem Ding kann man doch genau so Beine machen wie nem G92,versteh ich nicht.
Zu wenig...schade ist unter OC G80 was soll denn das nun wieder..ist ja wieder kein Verhältniß zu den Ergebnissen von gestern ohne OC..?
Wird Zeit das das Ding kommt und diese eigenartigen Benches aufhören.

Glaub kaum das der G200 an die G92 Prozente was OC angeht rankommen kann, wir haben hier fast 600mm², da wird nicht so viel gehen, allein schon von der Güte des Chip's her.
NV muß ja auf die Yields achten ;)

AnarchX
2008-06-12, 14:05:52
kann jemand mal die featuretestwerte mit denen von AMD in ner tabelle zusammenstellen?
Mal auf die schnelle:
http://img213.imageshack.us/img213/451/vantageperffeaturerv770so1.jpg

In Perlin Noise, welches mit einem Tex:ALU-Verhältnis von 1:5 extrem ALU-lastig ist, rechnet G200 offenbar trotz unterlegener Peak-Leistung doch noch etwas effizienter.

4711
2008-06-12, 14:06:58
@Gast
Wenn das so ist,dann kann man das Ding entgültig in der Pfeife rauchen,muß ich mich wohl oder übel vom nHancer trennen.

Gast
2008-06-12, 14:07:08
Ich dachte der Test 6 sei sehr ALU lastig?

4711
2008-06-12, 14:08:54
Mal auf die schnelle:
http://img213.imageshack.us/img213/451/vantageperffeaturerv770so1.jpg

In Perlin Noise, welches mit einem Tex:ALU-Verhältnis von 1:5 extrem ALU-lastig ist, rechnet G200 offenbar trotz unterlegener Peak-Leistung doch noch etwas effizienter.

sehr schön,wie war das die 4870 30% schneller wie die kleine...dann sind wir ja da wo ich schrieb,wer kauft sich ne NV für 600€.

Gast
2008-06-12, 14:09:41
Nvidia says DirectX 10.1 is not important and not good enough for GTX 280

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7856&Itemid=1

Eggcake
2008-06-12, 14:09:57
4711 - deine Aussagen in Ehren, aber langsam nervts echt, dass jeder 2. Beitrag von dir ist und darin jedes Mal, in irgendeiner Form "Omg, G200 is so kacke" zu lesen ist. Musst nicht jedes Posting kommentieren ...


G200 ~2x 8800GTX, wie zu erwarten war. Schlecht ist das nicht.

Gast
2008-06-12, 14:10:05
Mal auf die schnelle:
http://img213.imageshack.us/img213/451/vantageperffeaturerv770so1.jpg

Und wieviel wird so eine X2 bringen? Das werden ja sicher 2x4850er werden.
Wie wird die so scaliern? im schnitt 80% oder? kann das mal einer zusammen "spinnen" :D

4711
2008-06-12, 14:11:13
Du solltest auch lesen was ich schreibe,ich hab sie sogar verteidigt,aber jetzt nicht mehr>das ist ne Gurke.

AnarchX
2008-06-12, 14:12:30
sehr schön,wie war das die 4870 30% schneller wie die kleine...dann sind wir ja da wo ich schrieb,wer kauft sich ne NV für 600€.

Mittlerweile sind wir ja bei $499 ~ 450€(?).

edit:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6576830#post6576830

4711
2008-06-12, 14:15:42
Mittlerweile sind wir ja bei $499 ~ 450€(?).
Die große? Echt,ich lach mich kaputt,ist es also bei NV auch schon angekommen..naja egal, ich halt mich an Ail >"da kommt noch was"..das kanns ja nicht sein oder?

Schlammsau
2008-06-12, 14:19:06
Mal auf die schnelle:
http://img213.imageshack.us/img213/451/vantageperffeaturerv770so1.jpg

In Perlin Noise, welches mit einem Tex:ALU-Verhältnis von 1:5 extrem ALU-lastig ist, rechnet G200 offenbar trotz unterlegener Peak-Leistung doch noch etwas effizienter.


schau dir mal die CPU Scores an!
Doppelt so hoch wie bei der ATi! :eek:
Würde mich mal interessieren, wie die GPU Bench Scores bei einem CPU Gleichstand sind! Mit Sicherheit würden der HD4850 Score noch ein wenig nach oben gehen! Toll!

AnarchX
2008-06-12, 14:22:36
Würde mich mal interessieren, wie die GPU Bench Scores bei einem CPU Gleichstand sind! Mit Sicherheit würden der HD4850 Score noch ein wenig nach oben gehen! Toll!
Es geht doch hier um die GPU-lastigen Featuretests und da dürfte es keinen Unterschied machen, ob es nun ein 4GHz DC oder QC ist, der die Daten liefert:
http://bbs.chiphell.com/viewthread.php?tid=24334&extra=page%3D1
http://xfastest.com/viewthread.php?tid=10925&extra=&page=1

4711
2008-06-12, 14:22:46
das ist doch normal...Tombs 4gig Q haut mir auch 10000 Punkte mehr um die Ohren als mit meinem 4gig Due.

Eggcake
2008-06-12, 14:24:38
Es geht doch hier um die GPU-lastigen Featuretests und da dürfte es keinen Unterschied machen, ob es nun ein 4GHz DC oder QC ist, der die Daten liefert:
http://bbs.chiphell.com/viewthread.php?tid=24334&extra=page%3D1
http://xfastest.com/viewthread.php?tid=10925&extra=&page=1

Glaube nicht, dass die CPU keinerlei Auswirkung auf den GPU-Test haben. Vor allem direkt doppelt soviel... http://bbs.chiphell.com/images/smilies/default/97.gif

Gast
2008-06-12, 14:26:59
bei Vantage ca.~800P (4gig zu 4gig)
im 06er ca.~ 3-4000 Punkte!
das ist wie der Blickwinkel ist,schon heftig.

dargo
2008-06-12, 14:27:11
@Gast
Wenn das so ist,dann kann man das Ding entgültig in der Pfeife rauchen,muß ich mich wohl oder übel vom nHancer trennen.
Dann tue das bitte und hört auf diesen Thread hier vollzuspamen! Danke.

GeneralHanno
2008-06-12, 14:28:24
@anarchX:
editiere doch noch bitte den CB link mit dem featuretest ergebnissen dazu, dann hat man die beste vergleichbarkeit ;)

4711
2008-06-12, 14:28:43
ach hör auf,ich bin noch da,geh Geld zählen für die 260er und laß mich in Ruhe!

dargo
2008-06-12, 14:28:44
sehr schön,wie war das die 4870 30% schneller wie die kleine...dann sind wir ja da wo ich schrieb,wer kauft sich ne NV für 600€.
Was du hier für ein Bullshit labberst das ist nicht mehr normal. Wo steht was von 600€?!
Die Karte wird unter 400€ kosten.

derguru74
2008-06-12, 14:28:53
der vantage interessiert mich überhaupt nicht mehr seit dem fake treiber der die leistung nicht mal ansatzweise wieder spiegelt.

ist ja nicht so das mit dem treiber alles prozentual verbessert wurde sondern nur der benchmark.

das ist schon mehr cheat als alles andere,(daran sieht man eigentlich nur wie nv druck am arsch hat um auf biegen und brechen vantage werte zu optimieren)ich will spiel,dann ist butter bei de fische

AnarchX
2008-06-12, 14:31:55
Glaube nicht, dass die CPU keinerlei Auswirkung auf den GPU-Test haben. Vor allem direkt doppelt soviel... http://bbs.chiphell.com/images/smilies/default/97.gif
Na dann bring eine ernsthafte Begründung und nicht ein "Glaube nicht", was ich angesichts dass es bei 4850 auch ein 4GHz Wolfdale ist, nicht wirklich akzeptieren kann. ;)


btw.
Jawed meinte Perlin Noise ist wohlmöglich auf RV770 doch schon Tex-limitiert.

@anarchX:
editiere doch noch bitte den CB link mit dem featuretest ergebnissen dazu, dann hat man die beste vergleichbarkeit ;)
Wollte ich eher nicht, da doch Treiber doch erheblich älter sind.


Die Karte wird unter 400€ kosten.
Unter 400€ halte ich für den ersten Monat doch etwas untertrieben, vorallem wenn ATi wegen mangelnder GDDR5-Verfügbarkeit die 4870 nicht ausreichend liefern kann. Imo ist wohl 400-450€ eine gute Spanne.

dargo
2008-06-12, 14:34:03
Unter 400€ halte ich für den ersten Monat doch etwas untertrieben, vorallem wenn ATi wegen mangelnder GDDR5-Verfügbarkeit die 4870 nicht ausreichend liefern kann. Imo ist wohl 400-450€ eine gute Spanne.
Ich rede auch nicht vom ersten Monat. :)
4-6 Wochen gebe ich den Preisen Zeit.

4711
2008-06-12, 14:35:43
Was du hier für ein Bullshit labberst das ist nicht mehr normal. Wo steht was von 600€?!
Die Karte wird unter 400€ kosten.

Ach ja?
Ich kann mich nur an 600€ erinnern für die große,wenn sich das jetzt geändert hat ist es ja schön und sagt alles über die Qualli der Karten aus...
Was kostet dann die 260er 200€?

Dann müssen die ja die 9800 für 50€ herschenken...sauber!

Flame entfernt

AnarchX
2008-06-12, 14:37:52
Auch wenn die Stimmung etwas gereizt ist, bitte ich doch alle einen vernünftigen Ton an den Tag zu legen.

dargo
2008-06-12, 14:41:28
Ach ja?
Ich kann mich nur an 600€ erinnern für die große,wenn sich das jetzt geändert hat ist es ja schön und sagt alles über die Qualli der Karten aus...

Was kostet dann die 260er 200€?

Wenn du nicht soviel unsinnigen OT schreiben würdest dann würdest du auch die Preisanpassung hier mitbekommen haben.

Jeder weiß mittlerweile wie toll deine GX2 ist. Genauso wie vorher deine Ultra toll war. Beides ist das beste der Welt weil du es ja hast. Das will hier aber niemand wissen. Oder zumindest einmal hätte die Mitteilung gereicht. Und nicht in jedem zweiten Post wie toll doch die GX2 ist und wie sche.. die Geforce-Next.

Fetza
2008-06-12, 14:47:42
Nvidia says DirectX 10.1 is not important and not good enough for GTX 280

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7856&Itemid=1

Tja, das beste ist halt nicht genug für nv - wenn das nicht sinn macht. ;)

Adam D.
2008-06-12, 15:14:28
Naja, wenn sie jetzt für 499$ an den Start geht, wird sie wohl doch recht schwach. Mehr als alles andere interessiert mich momentan, wo zur Hölle die 1,4 Milliarden Transistoren hin sind. Eventuell ist die Karte wirklich extremst GPGPU-optimiert, um den Kampf gegen Intel auf ein neues Level zu tragen. Dumm nur, wenn dann nur 60% Mehrleistung drin sind :rolleyes:

Die gelbe Eule
2008-06-12, 15:16:04
Tja, das beste ist halt nicht genug für nv - wenn das nicht sinn macht. ;)

Für 2-3 Anwendungen aka Spiele kauft man bestimmt keine 500€ Karte.

Traxx
2008-06-12, 15:20:37
Mehr als alles andere interessiert mich momentan, wo zur Hölle die 1,4 Milliarden Transistoren hin sind.

Geht mir genau so. Evtl. brauchen wir ja keine CPU mehr in Kombination mit einem Board mit NV-Chipsatz? Mit ca. 400Mio Transis sollte doch eine brauchbarer CPU zu realisieren sein ;D

Und ich hoffte schon, auf 1920x1200 28" mit der neuen Single-Chip Graka aufrüsten zu können...

Greetings
Traxx

Unyu
2008-06-12, 15:20:55
Für 2-3 Anwendungen aka Spiele kauft man bestimmt keine 500€ Karte.
Warum 2-3?

Gibt doch genug Anwendungen, um ein GTX 280 Triple SLI in die Knie zu zwingen.

Dazu muss man natürlich den Qualitätsschalter finden.

Schlammsau
2008-06-12, 15:25:32
Jetzt ist es "offiziell"!
Eine 280GTX wird von einem Crossfire Gespann, bestehend aus 2 HD4850 geschlagen!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6577606#post6577606

Gast
2008-06-12, 15:26:48
ich sehe hier höchstes etwas Gleichstand...

Gast
2008-06-12, 15:30:17
schlammsau, dir scheint das wohl eine gewisse freude zu bereiten, hier immer alles schlecht zu reden. "Geschlagen" sieht für mich anders aus.

frix
2008-06-12, 15:33:04
@schlammsau
Aha, das kann man also an bereits nur einem benchmark festmachen? :udown:

Gast
2008-06-12, 15:34:59
Jede wette, in echten Games is die GTX280 vorn. dann werden wir ja sehn, was dann unser flammsau so macht. ;)

Odal
2008-06-12, 15:43:35
das ist ja mal wieder mächtig spannend hier :D

wieviel X punkte bekommt die GTX280 mit nem 3Ghz quadcore?

Gast
2008-06-12, 15:51:30
schau dir mal die CPU Scores an!
Doppelt so hoch wie bei der ATi! :eek:
Würde mich mal interessieren, wie die GPU Bench Scores bei einem CPU Gleichstand sind! Mit Sicherheit würden der HD4850 Score noch ein wenig nach oben gehen! Toll!

im vantage idled die cpu außer in den cpu-tests vor sich hin, da hast du gerade mal 5-30% auslastung.

Gosh
2008-06-12, 15:53:02
Intel Q6600 + NF680i + 2GB DDR2 800 Memory
Microsoft Windows Vista 64-bit SP1
http://img519.imageshack.us/img519/5368/10404725b7b9237qn1.jpg (http://imageshack.us)
http://publish.it168.com/2008/0611/20080611033801.shtml

ohman is die GTX280 schwach,kann sich nichtmal in hohen Auflösungen deutlich absetzen.

Gast
2008-06-12, 15:54:30
Mehr als alles andere interessiert mich momentan, wo zur Hölle die 1,4 Milliarden Transistoren hin sind. Eventuell ist die Karte wirklich extremst GPGPU-optimiert, um den Kampf gegen Intel auf ein neues Level zu tragen. Dumm nur, wenn dann nur 60% Mehrleistung drin sind :rolleyes:


etwa full-speed-DP-ALUs? wäre zwar eine gehörige überaschung für GPGPU, bringt aber natürlich für die spieleleistung nix und kostet jede menge transistoren.

AnarchX
2008-06-12, 15:57:05
etwa full-speed-DP-ALUs? wäre zwar eine gehörige überaschung für GPGPU, bringt aber natürlich für die spieleleistung nix und kostet jede menge transistoren.
Die 240 MADD+MUL SPs sind nicht DP-fähig.
Die lächerlichen 78GFLOPs DP-Performance werden über 30 extra DP-MADDs erzeugt.

Gast
2008-06-12, 16:03:45
ohman is die GTX280 schwach,kann sich nichtmal in hohen Auflösungen deutlich absetzen.

130% mehr in Vantage extrem gegen die 9800GTX soll schwach sein?

Gast
2008-06-12, 16:05:42
Die 240 MADD+MUL SPs sind nicht DP-fähig.
Die lächerlichen 78GFLOPs DP-Performance werden über 30 extra DP-MADDs erzeugt.

wer kommt denn auf so einen schwachsinn? da wäre es wohl billiger die normalen ALUs loopen zu lassen und man hätte trotzdem mehr leistung.

seahawk
2008-06-12, 16:06:02
das ist ja mal wieder mächtig spannend hier :D

wieviel X punkte bekommt die GTX280 mit nem 3Ghz quadcore?

Ist doch egal, wenn 2 170 Euro 4850 das Ding gefährden, dann ist es unsinnig und nutzlos und überteuert, gerade auch weil es technologisch veraltet ist. (kein DX10.1)

Gast
2008-06-12, 16:06:09
Die 32% von der 4870 im Vergleich zu 9800GTX sind dann wohl der ober hammer ;)

Manche hier sind wirklich nicht mehr ernst zu nehmen!

AnarchX
2008-06-12, 16:08:03
wer kommt denn auf so einen schwachsinn? da wäre es wohl billiger die normalen ALUs loopen zu lassen und man hätte trotzdem mehr leistung.
Wäre es wohl, aber NV ist halt etwas anderes daran gegangen.

Wobei Jawed@B3D meinte, dass diese Einheiten Tranzendale Funktion, wie Sin, Cos,..., wohlmöglich in einem Takt ausführen können, was bei RV670 und wohl RV770 mehr als die 4 Loops benötigt.

Adam D.
2008-06-12, 16:09:38
Die paar Fanboys hier muss man einfach überlesen, sind ja eh nur zum Provozieren hier.

Mal schauen, ob sie AiL nochmal meldet. Gut möglich, dass sich alle im G200 geirrt haben. 60% und mehr Mehrleistung für ~450€ ist auch für mich 'ne Enttäuschung, aber die paar Tage bis zum Launch muss man jetzt einfach warten. Ich zweifle auch weiterhin daran, dass der RV770 die aktuell spekulierten +30% gegenüber der 9800GTX jederzeit fahren kann.

Gast
2008-06-12, 16:19:09
Jetzt kommt die GTX 260 erst ab 26. Juni? :(

http://www.hardware-infos.com/news.php?news=2145

pest
2008-06-12, 16:19:27
Tranzendale Funktion, wie Sin, Cos,...,

Transzendente :redface:

Sorkalm
2008-06-12, 16:21:36
GTX 260 am 26. Juni wäre ein Tag nach dem RV770-Launch, hmm... :hammer:

Edit: Einer von fünf Streamprozessoren in einer Einheit des R600/RV670 kann doch transzendente Funktionen in einem Rutsch ausführen, oder? Ansonsten bin ich da falsch informiert...

Gast
2008-06-12, 16:25:27
Jetzt kommt die GTX 260 erst ab 26. Juni? :(

http://www.hardware-infos.com/news.php?news=2145

Da bekommt einer wohl kalte Füße^^ wegen der HD4870

AffenJack
2008-06-12, 16:26:51
kalte füße?
ich würde eher behaupten da will wer der hd 4870 die show stehlen

crux2005
2008-06-12, 16:33:31
Edit: Einer von fünf Streamprozessoren in einer Einheit des R600/RV670 kann doch transzendente Funktionen in einem Rutsch ausführen, oder? Ansonsten bin ich da falsch informiert...

aber nicht mit DP

Sorkalm
2008-06-12, 16:41:01
aber nicht mit DP

Aso, darum gings.

Gast
2008-06-12, 16:42:32
Jetzt ist es "offiziell"!
Eine 280GTX wird von einem Crossfire Gespann, bestehend aus 2 HD4850 geschlagen!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6577606#post6577606

Weil Ati wieder nur auf 3dmark optimiert. War bei dem R600 auch schon so. :-)

deekey777
2008-06-12, 16:43:58
Wäre es wohl, aber NV ist halt etwas anderes daran gegangen.

Wobei Jawed@B3D meinte, dass diese Einheiten Tranzendale Funktion, wie Sin, Cos,..., wohlmöglich in einem Takt ausführen können, was bei RV670 und wohl RV770 mehr als die 4 Loops benötigt.
Der RV670 unterstützt keine DP-SFUs (die T-ALU ist nicht DP-fähig), aber eigentlich führt sie (die T-ALU) SFUs in einem Takt aus (und blockiert dabei MADD). Der G80&Co brauchen für SFUs vier Takte.

Oder bin ich im falschen Kino?

Die vermutliche DP-Leistung des G200 ist gar nicht so schlimm, denn - wie beim RV670 - holt man im Mixed Mode bestimmt einige hunderte SP-GFLOPs.

crux2005
2008-06-12, 16:47:02
Der RV670 unterstützt keine DP-SFUs (die T-ALU ist nicht DP-fähig), aber eigentlich führt sie (die T-ALU) SFUs in einem Takt aus (und blockiert dabei MADD). Der G80&Co brauchen für SFUs vier Takte.

Oder bin ich im falschen Kino?

nein, habe die gleichen infos :wink:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6577932&postcount=386

Die vermutliche DP-Leistung des G200 ist gar nicht so schlimm, denn - wie beim RV670 - holt man im Mixed Mode bestimmt einige hunderte SP-GFLOPs.

von einem "mixed" mode spricht nVidia nicht
oder habe ich es wieder nur übersehen ?

deekey777
2008-06-12, 16:52:13
ATi sprich von einem Mixed Mode*, der für viel Verwirrung sorgte:
Ab hier: http://forum.beyond3d.com/showthread.php?p=1141133#post1141133
Und insbesondere das hier: http://www.computerbase.de/news/treiber/grafikkarten/ati/2008/maerz/dp-performance_amd_firestream/ (siehe Update)

Giuseppe either spoke incorrectly or was misquoted. We do have mixed mode double+single precision applications that get 350GFlops, but the upper limit for raw double performance is 1/5th single rate as I stated above. You can grab CAL/Brook+ and an 3850/3870 and play with this for yourself.
...
I should also note that 1/5 is peak DP rate vs. SP rate doing MADs. There are cases, like DP add, in which we can do better, 2/5th rate, but raw peak DP flops is 1/5 SP flops. Another architect reminded me of the DP add performance as compared to SP add performance this afternoon.

And, despite what others may claim, we have actual hardware for doing this, it's not emulated...


(*Wie soll NV von einem Mixed Mode sprechen, wenn sie noch keine HW auf den Markt gebracht haben, die DP unterstützt?)

crux2005
2008-06-12, 16:59:10
ja, den mixed mode vom RV670 kenne ich
(*Wie soll NV von einem Mixed Mode sprechen, wenn sie noch keine HW auf den Markt gebracht haben, die DP unterstützt?)

in internen dokumenten über G200

trotzdem, danke ;)

AnarchX
2008-06-12, 17:22:42
Natürlich kann man in einem Mixed-Mode auf eine anständige Leistung kommen, aber die User, welche Wert auf DP legen bzw. es für ihre Berechnungen benötigen, für die ist wohl G200 nicht die erste Wahl.
Und wenn Tesla erfolgreich sein soll, dann sollte NV doch hier dringend Nachbessern.

Sorkalm
2008-06-12, 17:27:33
Natürlich kann man in einem Mixed-Mode auf eine anständige Leistung kommen, aber die User, welche Wert auf DP legen bzw. es für ihre Berechnungen benötigen, für die ist wohl G200 nicht die erste Wahl.

Für wen wurde denn G200 dann entwickelt? :uconf2:

Gast
2008-06-12, 17:32:29
Für wen wurde denn G200 dann entwickelt? :uconf2:
Um die Dau's einzufangen die nicht auf den G92 reingefallen sind ;)

Gast
2008-06-12, 17:56:51
Keine Ahnung was hier einige wollen.
Die GTX280 ist zwar etwas langsamer als erhofft, aber NV hat schon angefangen den Preis anzupassen.
Für 450,- ist die Karte ihr Geld sicher wert.
Dafür bekommt man schon mit den ersten Treibern 8800GTX SLI Performance, mit einer Single Karte.
Keine Skalierungsschwankungen, keine Mikroruckler, sehr wahrscheinlich ein 2D Modus und ganz sicher auch deutlich bessere Werte im High Quality Filtering, als die in dem Bereich katastrophalen 9800GX2 Karten.
Vram Probleme wird man mit der Karte auch nicht haben.

Entäuschend ist die Leistung eher für Leute, die sowieso schon ein 8800GTX SLI u.s.w. haben, für alle Anderen ist sie ein Blick wert.
Ihr grösster Vorteil ist, das sie die Power ohne jegleiche Multi-GPU Problematiken liefert, wenn NV die Preise fair gestaltet, eine interessante Karte, die mit neueren Treibern mit der Zeit noch deutlich mehr Potential besitzen wird.

Gast
2008-06-12, 18:06:29
Keine Ahnung was hier einige wollen.
Die GTX280 ist zwar etwas langsamer als erhofft, aber NV hat schon angefangen den Preis anzupassen.
Für 450,- ist die Karte ihr Geld sicher wert.
Dafür bekommt man schon mit den ersten Treibern 8800GTX SLI Performance, mit einer Single Karte.
Keine Skalierungsschwankungen, keine Mikroruckler, sehr wahrscheinlich ein 2D Modus und ganz sicher auch deutlich bessere Werte im High Quality Filtering, als die in dem Bereich katastrophalen 9800GX2 Karten.
Vram Probleme wird man mit der Karte auch nicht haben.

Entäuschend ist die Leistung eher für Leute, die sowieso schon ein 8800GTX SLI u.s.w. haben, für alle Anderen ist sie ein Blick wert.
Ihr grösster Vorteil ist, das sie die Power ohne jegleiche Multi-GPU Problematiken liefert, wenn NV die Preise fair gestaltet, eine interessante Karte, die mit neueren Treibern mit der Zeit noch deutlich mehr Potential besitzen wird.

So ist es!

Gast
2008-06-12, 18:10:29
Ist doch egal, wenn 2 170 Euro 4850 das Ding gefährden, dann ist es unsinnig und nutzlos und überteuert, gerade auch weil es technologisch veraltet ist. (kein DX10.1)

*Hust* wo ist dann der Sinn der HD4870? Außerdem is nix offiziell, Treiber gecheate 4th3w!n im 3DMark Vantage hat wieder einzug erhalten.
Wenn hier im Benchmark Forum die ersten Tests reinlaufen, dann sieht man was Sache ist, oder eben bei Anandtech und XBitlabs.

Gast
2008-06-12, 18:12:45
Natürlich kann man in einem Mixed-Mode auf eine anständige Leistung kommen, aber die User, welche Wert auf DP legen bzw. es für ihre Berechnungen benötigen, für die ist wohl G200 nicht die erste Wahl.

dann fassen wir mal zusammen:

-wir haben fast doppelt so viele transistoren wie bei G80/92.
-diese wurden angeblich nur zu einem geringen teil für eine bessere spieleperformance verwendet.
-angeblich will nvidia in erster linie die GPGPU-performance verbessern
-bietet dann aber nur geringe DP-leistung

irgendwo ist da doch was faul, für irgendwas müssen die doch die 700Mio. transistoren gebraucht haben, techlevel gibt es auch kein neues, irgendwas müssen sie also stark erweitert haben.

Gast
2008-06-12, 18:27:34
Der G200 ist ja schon fast ein doppelter G92 + halt noch etwas verbesserungen/erweiterungen.

Gast
2008-06-12, 18:34:35
Weil Ati wieder nur auf 3dmark optimiert. War bei dem R600 auch schon so. :-)

Damals http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/

Bin gespannt wie es nächste Woche aussieht, 3dMark Top, rest 9800GT Niveau.

Gast
2008-06-12, 18:40:38
In Register und Caches sind auch einige Transisoren geflossen, die bringen vor allem in GPGPU-Bereich was. Da hat man bei G8x/G9x ein wenig geknausert ;) (und ATi bei R600 übers Ziel hinausgeschossen bei den Caches)

Gast
2008-06-12, 18:41:58
Damals http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/

Bin gespannt wie es nächste Woche aussieht, 3dMark Top, rest 9800GT Niveau.
Nur war halt primär die Füllrate zu gering...

tombman
2008-06-12, 18:46:00
x5000 ist aber schon mal richtig fett, das ist eine verdopplung einer 8800ULTRA!!!

Was wohlt ihr eigentlich noch mehr?
Naja, eben nicht ganz, ein paar % fehlen noch, aber FAST.
Man hat ja im Grunde SLI und GX2 Leistung und das mit einer Karte!
Ich finde das eigendlich in Ordnung.
Also für unter 500€ ist es in Ordnung. Für 600€ eher weniger.

Das Problem ist: um wirklich einen fps Schub zu spüren, muß man leider ZWEI GTX280@ SLi kaufen, ansonsten bekommt man einfach zu wenig "Druck" um die Ohren ;D

2x HD4870 machen auch nix spielbarer, was eine GTX280 zb nicht mehr könnte. Weil 30% mehr als 8800GTX SLI (= GTX280) macht das Kraut auch nicht fetter.

In Crysis und co könnte man vielleicht mit 2x HD4870 2xAA oder kleinere Sachen noch "dazuschalten", aber eine gänzlich neue Erfahrung der Marke "jetzt fliegt mir gleich das Kinn auf den Boden", wie zur Einführung des G80 wirds auch bei ATI nicht geben- wenn man, wie gesagt, schon 8800GTX SLI hat!

Fazit: um WIKLICH fps-mäßig was zu spüren, muß es schon 2x GTX280 sein, sonst hat das keinen Sinn.

Ich werde es, nach derzeitigem Wissensstand, so machen, mir erstmal EINE GTX280 zu kaufen um MR loszuwerden (mit oc sollte ich gegenüber SLI kaum fps verlieren, dafür aber subjektiv WEIT flüssigere fps bekommen) und EVENTUELL später noch eine zweite dazu, wenn ich der Meinung bin ich könnte ohne SLI nicht leben ;D

Black-Scorpion
2008-06-12, 18:48:37
*Hust* wo ist dann der Sinn der HD4870? Außerdem is nix offiziell, Treiber gecheate 4th3w!n im 3DMark Vantage hat wieder einzug erhalten.
Wenn hier im Benchmark Forum die ersten Tests reinlaufen, dann sieht man was Sache ist, oder eben bei Anandtech und XBitlabs.
Nur gut das nV nie im leben cheatet um im 3dMurks den längsten zu haben.
Man kann es nicht mehr hören.
Und wer den Murks für voll nimmt dem ist erst recht nicht zu helfen.

tombman
2008-06-12, 18:55:05
Ich glaube ganz einfach, Nvidia hat nicht erwartet, daß sie mit dem Takt nicht nach oben kommen. Die gesamte Rechnung wäre aufgegangen, wäre zb der Takt bei >700core/>1500 shader gekommen.
Dann wäre der Abstand zu HD4870@CF wirklich sehr klein, und auch 8800Ultra@SLI wäre "geschlagen."
Dann wären auch 600€ kein Problem gewesen.

Jetzt merken sie halt, daß es so nicht geht, und schon sind 100€ zum Teufel ;)

Tja, wo sind die fehlenden Transis? Ich glaube, in GPGPU.
Intel eines auszuwischen war Nvidia offenbar wichtiger als an die gamer zu denken.
ATI hat ja auch Teraflops ohne Ende, da mußte man offenbar was tun.

Ein Dinosaurier ist die G200 schon ein bischen, aber das sind manche gamer ja auch :devil:
Manche stehen eben auf muscle cars ;D;D

Moralelastix
2008-06-12, 18:56:17
Naja, .....

Fazit: um WIKLICH fps-mäßig was zu spüren, muß es schon 2x GTX280 sein, sonst hat das keinen Sinn.


Macht schon Sinn aber leider nicht für User wie dich und mich sondern höchstens für die Erbsenzähler bei NV.

Für NV könnte der Chip richtg teuer werden.

tombman
2008-06-12, 19:02:31
Die Frage ist ob man sich wegen EINEM Spiel und EINEM benchmark ne zweite GTX280 kaufen soll ;D

Alles andere hat genug fps mit 8800GTX SLI, also mit EINER GTX280.

"Schuld" sind die Konsolenports, die brauchen einfach nicht mehr Leistung...

Da wärs vielleicht sinnvoller, sich statt ner zweiten GTX280 eine GEFLASHTE Xbox360 zu kaufen ...[upps, habe ich das gerade "laut geschrieben"?] ;D

Gashahn
2008-06-12, 19:06:04
Ich werde es, nach derzeitigem Wissensstand, so machen, mir erstmal EINE GTX280 zu kaufen um MR loszuwerden (mit oc sollte ich gegenüber SLI kaum fps verlieren, dafür aber subjektiv WEIT flüssigere fps bekommen) und EVENTUELL später noch eine zweite dazu, wenn ich der Meinung bin ich könnte ohne SLI nicht leben ;D

mit "später ne 2te" wirds mM nichts, das Monster-Die ist zu teuer und die Ausbeute und damit die überhaupt verfügbaren Stückzahlen werden sicher auch unterirdisch sein, wahrscheinlich wirds laufen wie damals mit der 7800gtx512: am Anfang erreichen ne Handvoll Karten tröpfchenweise den Handel und nach 4 Wochen ist gar nichts mehr zu bekommen
ordentliche Stückzahlen wird es wohl erst mit dem 55nm refresh geben, wobei ich selbst das noch in Frage stellen würde, insofern ATI tatsächlich mit dem 4xxx signifikant an nvidia vorbeizieht - dann wird man wohl direkt zum g100(..g300 or whatever) umsatteln

Gast
2008-06-12, 19:09:18
na so teuer auch wieder nicht wenn er in wenigen monaten von G200b abgelöst wird...

Der G200b wird Garantiert eine Karte mit mehr Takt bringen, da kann mir jeder erzählen was er will, das wird so sein.

ich möchte jetzt mal die x5800 mit zwei Ultras (ohne OC) sehen von denen hier immer gesprochen wird!

Ich kann nicht testen, da auf dem System nur XP drauf ist...

tombman
2008-06-12, 19:10:04
mit "später ne 2te" wirds mM nichts,
über ebay geht alles ;)

tombman
2008-06-12, 19:12:18
ich möchte jetzt mal die x5800 mit zwei Ultras (ohne OC) sehen von denen hier immer gesprochen wird!..
Ich hatte mit 2x GTX @ 648/1512/1000: X5700 (selber Treiber wie bei den geleakten GTX280 Tests, 177.26)

Ok, ich habe kranke Cpu Werte, also laß es X5500 sein mit 2x Ultra..,ändert auch ned viel.
Es fehlen einfach 10%...

Allerdings: 10% fps gebe ich gerne her, wenn ich dafür MR loswerde ;)

Gashahn
2008-06-12, 19:14:23
über ebay geht alles ;)

..ist natürlich eine Möglichkeit, bei der 7800gtx512 betrug der ebay-Aufschlag satte 150€, ich würde an deiner Stelle gleich 2 holen, meine Unterdurchschnittlichkeit wird sich in 1 Karte manifestieren(u.A. auch null Bock auf nv-chipset) :biggrin:

tombman
2008-06-12, 19:15:34
..ist natürlich eine Möglichkeit, bei der 7800gtx512 betrug der ebay-Aufschlag satte 150€, ich würde an deiner Stelle gleich 2 holen, meine Unterdurchschnittlichkeit wird sich in 1 Karte manifestieren(u.A. auch null Bock auf nv-chipset) :biggrin:
Ich weiß ned ob ich gleich 2 hole, hängt vom Ego ab. Und vom Abzockerpreis der Händer in .at.
Bei 500€ nehme ich wahrscheinlich gleich zwei. Bei >600€ sicher nur EINE.

Gast
2008-06-12, 19:16:15
dafür hat man die Leistung aber IMMER und nicht nur bei guter SLI Skalierunge wo der 3DMark nun mal hat.

tombman
2008-06-12, 19:17:11
dafür hat man die Leistung aber IMMER und nicht nur bei guter SLI Skalierunge wo der 3DMark nun mal hat.
Jo, eben. Viel Spaß wird man mit der GTx280 auf JEDEN Fall haben.
Keine MR, keine Profile, nur mehr massig fps ohne was einzustellen ;)

Außerdem muß ich die beiden 8800GTX sowieso loswerden, habe sie schon viel zu lange...

Und ein Wasserkühler für die GTX280 muß ja auch noch her, und der wird sicher NICHT billig. Da wird auch wieder heftig abgezockt.

dargo
2008-06-12, 19:18:10
Ich hatte mit 2x GTX @ 648/1512/1000: X5700 (selber Treiber wie bei den geleakten GTX280 Tests, 177.26)

Ok, ich habe kranke Cpu Werte, also laß es X5500 sein mit 2x Ultra..,ändert auch ned viel.
Es fehlen einfach 10%...

Allerdings: 10% fps gebe ich gerne her, wenn ich dafür MR loswerde ;)
Eine Ultra taktet mit 612/1512/1080Mhz. Deine übertakteten Grafikkarten leisten im 3DMark also etwas mehr. Auch wenns kaum der Rede wert ist.

Gast
2008-06-12, 19:22:25
Ok, ich habe kranke Cpu Werte



Was hast du den genau für eine CPU?

tombman
2008-06-12, 19:25:22
Was hast du den genau für eine CPU?
QX9650@ 4ghz + Ageia PPU -> >17K cpu score.

Gast
2008-06-12, 19:29:46
Gerade mal den 7800GTX test rausgesucht

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_sli/14/#abschnitt_performancerating

Performancerating 1600x1200
7800GTX wahr nur 21% schneller als eine 6800ULTRA!

Ich glaube einige haben von G200 einfach viel zu viel erwartet, 100-300% was einige hier erwartet haben gab es einfach noch nie!

Gast
2008-06-12, 19:32:57
QX9650@ 4ghz + Ageia PPU -> >17K cpu score.

OK, also standard ;)

tombman
2008-06-12, 19:42:49
OK, also standard ;)
In gewissen Kreisen vielleicht, sonst nicht :)

Btw, habe mir gerade aus dem vantage white paper die Formeln rausgeschrieben und vereinfacht.
Der cpu Wert ist bei EXTREME preset sowas von scheißegal.
Habe den Wert von 17k auf 5k reduziert und das Ergebnis neu berechnet-> gerade mal 200 Pünktchen weniger bei einer MASSIVEN Reduktion des cpu scores. Bei extreme ist der eben nur mit 0.05 gewichtet, während der gpu score auf 0.95 (!) drin ist.

Der extreme preset eignet sich daher am besten zum GPU Vergleich.

Ich schätze mal, der GTX280 fehlen ca 10% auf 8800Ultra @ SLI...
Das kann man verschmerzen, wenn man dafür 1Gb NUTZBAREN Ram, 500mb mehr Speicher in 32bit OS (2x GTX = 1.5gb -> 4gb ram - 1.5gb = 2.5gb: GTX280 = 1gb ram -> 4gb-1gb = 3gb) bekommt, und dafür endgültig MR los wird ;)

robbitop
2008-06-12, 19:58:45
Ist die Frage, wie wichtig für Vantage die reine Aritmetikleistung ist. Hat jemand dazu mal auf einer GF8/9 mal Sklalierungstests gemacht?

crux2005
2008-06-12, 20:02:55
100-300% was einige hier erwartet haben gab es einfach noch nie!

hängt davon ab, was "100-300%" sein soll
aber der G80 hat in manchen situationen ~ 3x G71 performance gebracht

Gast
2008-06-12, 20:07:39
auch der G200 wird in einigen situationen 3mal mehr haben, das hat mit dem Durchschnitt aber halt nichts zu tun ;)

Gast
2008-06-12, 20:16:12
mich würde mal ein Vergleich g80 vs. g280 im crysis ice-level interessieren

4711
2008-06-12, 20:16:43
So nachdem ich hier gerade eine Flasche Bier in Nachbars Garten gepfeffert habe.....

Wo kann man den jetzt realistisch die 4870 einordnen,lesen tut man ja immer nur von der Kleinen,seltsamerweise.

Gast
2008-06-12, 20:18:29
So nachdem ich hier gerade eine Flasche Bier in Nachbars Garten gepfeffert habe.....

Wo kann man den jetzt realistisch die 4870 einordnen,lesen tut man ja immer nur von der Kleinen,seltsamerweise.


Falscher Thread?

The_Invisible
2008-06-12, 20:19:46
mit "später ne 2te" wirds mM nichts, das Monster-Die ist zu teuer und die Ausbeute und damit die überhaupt verfügbaren Stückzahlen werden sicher auch unterirdisch sein, wahrscheinlich wirds laufen wie damals mit der 7800gtx512: am Anfang erreichen ne Handvoll Karten tröpfchenweise den Handel und nach 4 Wochen ist gar nichts mehr zu bekommen
ordentliche Stückzahlen wird es wohl erst mit dem 55nm refresh geben, wobei ich selbst das noch in Frage stellen würde, insofern ATI tatsächlich mit dem 4xxx signifikant an nvidia vorbeizieht - dann wird man wohl direkt zum g100(..g300 or whatever) umsatteln

der g80 hatte auch ein monster die und gibt es heute noch zu kaufen.

mfg

Gast
2008-06-12, 20:23:20
Die frage ist halt wann der G200b kommt, die DIE grösse wäre dann wieder im "normalen" Bereich.

4711
2008-06-12, 20:24:04
Falscher Thread?

Sport?

Wieso wenn ich mir schon anfange den G200 schön zureden kann man doch Vergleiche einholen,oder nicht?

Dieses Riesenvieh geht kaum zu ocen wie auch schon der G80 und die ATI....verstehste was ich denke?

Gast
2008-06-12, 20:24:56
der G80 kann man recht gut Übertakten, besonders der A3!

4711
2008-06-12, 20:26:18
Nö keine GTX und keine Ultra,denk an die mhz Schritte,bei 99% ist da schon bei 621 Schluß.

tombman
2008-06-12, 20:26:50
Wo kann man den jetzt realistisch die 4870 einordnen,lesen tut man ja immer nur von der Kleinen,seltsamerweise.
Ganz klar UNTER der GTX280.

Schau dir mal die beiden hier an:
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611033801&picid=1040491.jpg
http://publish.it168.com/diy/showBigPic.asp?cDocid=20080611033801&picid=1040472.jpg

Jetzt mußt du aber schwer aufpassen, da hier EINIGE Werte cpu limitiert sind.
Alles unter 1920x1200 -> gleich vergessen
3dm06 -> gleich vergessen
L.Planet "cave" = cpu limit ("snow" nicht!)

4711
2008-06-12, 20:29:24
Ja ich weiß,auch das sie klar drunter ist,aber wo kannste das Ding hinjagen,wenn die mit OC auf nem 280 Level ist und nur die Hälfte kostet,ich hab ehrlich keinen Bock den Krieg zwischen NV und Intel mitzufinanzieren.

tombman
2008-06-12, 20:33:49
Ja ich weiß,auch das sie klar drunter ist,aber wo kannste das Ding hinjagen,wenn die mit OC auf nem 280 Level ist und nur die Hälfte kostet,
Schau dir mal Juarez und WiC an. Da geht die HD4870 ÄRGER ab. Wobei ich bei WiC nicht auch ein cpu Limit ausschließen will.
Und Juarez rannte auf ATi immer schon deutlich besser.

Beim vantage Wert gibts allerdings keine Bevorzugung, weil hier optimiert jeder was er kann. X2700 vs X4800. Deutliche Sache ;)


ich hab ehrlich keinen Bock den Krieg zwischen NV und Intel mitzufinanzieren.
He, das war mein Spruch ;D

Der Geheimtip dürfte aber überhaupt die HD4850 sein! Liegt nur ein paar lächerliche Pünktchen unter der HD4870 und kostet weniger.
Mit OC kann man da FETT absahnen und Geld sparen.

Die HD4850 scheint überhaupt DER Sieger in dieser Runde zu sein :)

Gast
2008-06-12, 20:35:53
wartet doch die finalen test ab, mit solchen vorab möchte gern benchmarks kann man so gut wie nichts anfangen...

Fetza
2008-06-12, 20:35:54
Für 2-3 Anwendungen aka Spiele kauft man bestimmt keine 500€ Karte.

Eben, aber man kauft noch weniger eine 500 euro karte, wenn sie technologisch nicht auf der höhe der zeit ist. Mit 3 anwendungen liegst du vielleicht aktuell richtig, aber wieviel spiele in 6-12 monaten mit dx10.1 pfad erscheinen weiss keiner.

Für ein high-end produkt finde ich es eine schwache leistung den featuremäßig (auf spieler bezogen) bietet die karte nichts anderes, als der uralt g80.

tombman
2008-06-12, 20:37:08
Eben, man kauft sie aber bestimmt auch nicht, wenn sie technologisch nicht auf der höhe ist. Mit 3 anwendungen liegst du vielleicht aktuell richtig, aber wieviel spiele in 6-12 monaten mit dx10.1 pfad erscheinen weiss keiner.
Der nächste, der hier zum 100sten Mal eine 10.1 Diskussion anfangen will wird gemeldet. Habe echt Bock mehr auf den Scheiß.

robbitop
2008-06-12, 20:37:28
Der Geheimtip dürfte aber überhaupt die HD4850 sein! Liegt nur ein paar lächerliche Pünktchen unter der HD4870 und kostet weniger.
Mit OC kann man da FETT absahnen und Geld sparen.

Die HD4850 scheint überhaupt DER Sieger in dieser Runde zu sein :)
Stimmt schon, wird aber deutlich weniger Speicherbandbreite haben.

Gast
2008-06-12, 20:38:23
Stimmt schon, wird aber deutlich weniger Speicherbandbreite haben.

bringt das dem RV770 den überhaupt was?

4711
2008-06-12, 20:38:28
ich weiß nett eigendlich weiß ich garnix mehr ;D
wenn ich mir die zwei Links betrachte und mich richtig blöd stelle kannste die ATIs ocen wie du willst (wenn ich nachdenke was da bei mir mit 20% rauskommt)und da fehlen immer bis zu 40% zur 280er...ich glaub ich watre auf ne GX2 und ärgere mich mit MR rum..obwohl in den Gefilden wirds wohl kein MR mehr geben das es spürbar ist.

tombman
2008-06-12, 20:40:29
Stimmt schon, wird aber deutlich weniger Speicherbandbreite haben.
Scheint die Karte bei 1920x1200+ 4xAA (!) aber nicht im geringsten zu kümmern, rechnet einfach brav weiter ;D
Bleibt ca 10% unter der 70er und bleibt billig :eek:

ich weiß nett eigendlich weiß ich garnix mehr ;D
wenn ich mir die zwei Links betrachte und mich richtig blöd stelle kannste die ATIs ocen wie du willst (wenn ich nachdenke was da bei mir mit 20% rauskommt)und da fehlen immer bis zu 40% zur 280er...ich glaub ich watre auf ne GX2 und ärgere mich mit MR rum..obwohl in den Gefilden wirds wohl kein MR mehr geben das es spürbar ist.
Du meinst X2, oder? (GX2 = Nvidia).

Na, aber R700 kommt noch lange nicht...und Fudo ist sich ned sicher, wer gewinnen wird, GTX280 oder R700.

4711
2008-06-12, 20:45:24
nö irgendwie hat sichs in meinen Hirn festgesetzt GTX280/GX2/in 55.
Da kommt was,ich spürs schon fast :D
Ich tu mir doch kein ATI CF an und wenn der Kram noch so schnell ist.

tombman
2008-06-12, 20:48:04
nö irgendwie hat sichs in meinen Hirn festgesetzt GTX280/GX2/in 55.
Da kommt was,ich spürs schon fast :D
Ich tu mir doch kein ATI CF an und wenn der Kram noch so schnell ist.
ATI CF würde ich mir auch nur mit SEHR hohem Druck antun :)

Aber selbst wenn eine GX2 in 55nm kommt (muß ja eigentlich, denn sowas läßt Nvidia nicht auf sich sitzen, die wollen IMMER die Leistungskrone, siehe 9800GX2), dann aber erst zu Weihnachten. Früher kann ich mir das kaum vorstellen...

Und solange kann ICH sicher nicht warten ;D

4711
2008-06-12, 20:50:33
Bis dahin halt ichs aus.Ich beiß mir in den Hintern wenn ich jetzt kaufe und 4 Monate später kommt das Teil.
Bis dahin hat sich die 9800 gerechnet,die hab ich praktisch im Tausch mit ner GTS/92 bekommen + Crisis und dann wirdse an die Wand genagelt.

Fetza
2008-06-12, 20:51:24
Der nächste, der hier zum 100sten Mal eine 10.1 Diskussion anfangen will wird gemeldet. Habe echt Bock mehr auf den Scheiß.

Danke für den realsatirischen beitrag tombman. Ich rede hier über den chip als solchen und über meine entäuschung, das er eben kein 10.1 featureset hat. Ob du das nun meldest ist mir ziemlich egal, denn es gehört meiner meinung nach genau in diese diskussion.

Ganz gut wäre es, wenn du in der zukunft dieses kritische augenmerk, vor allem auf deine eigenen postings legen würdest. ;)

4711
2008-06-12, 20:56:29
realsatirischen ist gut..erinnert mich irgendwie an das Fußballspiel vor nicht allzulanger Zeit oder wars Handball ich weiß schon garnicht mehr...

Aber es ist wirklich gut mit dem DX nun weiß es ja jeder und wir grämen uns alle zu tode.

Gast
2008-06-12, 21:02:28
3-Way GTX 280 SLI

http://www.vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

Gast
2008-06-12, 21:11:36
3-Way GTX 280 SLI

http://www.vr-zone.com/articles/3-way_SLI_GTX_280_Scores_P21350_In_3DMark_Vantage/5866.html

na toll, wie panne im hirn muss man sein, um sich so einen 1kw heizstrahler hinzustellen?!

tombman
2008-06-12, 21:13:11
Und skaliert auch noch Scheiße. Schlappe +2x%, genauso schlecht wie triple SLi immer war ;)

frix
2008-06-12, 21:14:46
na toll, wie panne im hirn muss man sein, um sich so einen 1kw heizstrahler hinzustellen?!

Kannst auch im winter komplett auf die heizung verzichten damit :)
Aber geil ist es bestimmt trotzdem irgendwie soviel dampf in der kiste zu haben.
Wieso testen die denn bitte mit 3-fach SLI nur das performance preset. Super...

tombman
2008-06-12, 21:15:58
Danke für den realsatirischen beitrag tombman. Ich rede hier über den chip als solchen und über meine entäuschung, das er eben kein 10.1 featureset hat. Ob du das nun meldest ist mir ziemlich egal, denn es gehört meiner meinung nach genau in diese diskussion.
Aber nur EIN MAL, und nicht 100x. Solche Diskussionen wurden bereits von den Mods AUSGELAGERT, weil sie ganze threads angefangen haben zu killen.
Also laß diese "Diskussion" bitte.
Jeder kennt jetzt deine Enttäuschung, einer weiteren Ausführung bedarf es nicht ;)

Gast
2008-06-12, 21:17:41
wie viel haben zwei 9800GX2?

Ich glaube für 3-Way G200 SLI gibt es derzeit auch gar keine CPU die die 3 Karten auslasten können, da muss man dann schon in extrem hohe Qualitäts Einstellungen fahren...

tombman
2008-06-12, 21:19:37
Mit Crysis und Vantage bringst alles in die Knie, ganz easy ;)

Gast
2008-06-12, 21:21:06
in 1280x1024 kaum ;)

tombman
2008-06-12, 21:25:25
in 1280x1024 kaum ;)
Für diese Auflösung braucht man gar nix kaufen, da reicht auch ne 100€ Karte...

Gast
2008-06-12, 21:27:33
zwei 9800GX2 haben mit 4GHz Quad 16K

Gast
2008-06-12, 21:28:09
Für diese Auflösung braucht man gar nix kaufen, da reicht auch ne 100€ Karte...

Vantage P läuft aber in 1280x1024, genau um das geht es ja ;)

tombman
2008-06-12, 21:40:47
Vantage P läuft aber in 1280x1024, genau um das geht es ja ;)
Geiles Spiel, vantage, gell? Vorallem im PvP ;D;D

Gast
2008-06-12, 21:42:37
du sagst es skaliert scheisse, ich sage cpu limit, du verstehen?

tombman
2008-06-12, 21:44:09
du sagst es skaliert scheisse, ich sage cpu limit, du verstehen?
Bei vantage gibts kein cpu Limit :rolleyes:

Habe ich einige posts früher schon geschrieben, schau dir die Formeln an!
Ja, auch bei performance, nicht nur extreme...

Andreas12
2008-06-12, 21:54:13
Also 21000 Punkte im Vantage finde ich etwas schwach für
3 Wege-SLI...dann käme 1 Karte ca. auf 10000 Punkte..richtig?

Gast
2008-06-12, 21:59:48
Bei vantage gibts kein cpu Limit :rolleyes:

Habe ich einige posts früher schon geschrieben, schau dir die Formeln an!
Ja, auch bei performance, nicht nur extreme...

was den das?

We overclocked our QX9650 to 4GHz to remove some CPU bottleneck and the 3DMark Vantage performance preset score scales from P17759 to P21350.

Gast
2008-06-12, 22:00:40
schon mit 3x G80 ist man bei diesen Auflösungen ständig im CPU Limit...

Gast
2008-06-12, 22:09:09
Bei vantage gibts kein cpu Limit :rolleyes:

Habe ich einige posts früher schon geschrieben, schau dir die Formeln an!
Ja, auch bei performance, nicht nur extreme...


Was hat die Formel mit nem CPU Limit zu tun?! Du meinst einfach nur dass die CPU Score keinen so großen Einfluss halt.

Raff
2008-06-12, 22:26:11
Ich glaube für 3-Way G200 SLI gibt es derzeit auch gar keine CPU die die 3 Karten auslasten können, da muss man dann schon in extrem hohe Qualitäts Einstellungen fahren...

Du kannst jede Grafikkarte plattmachen. Es ist eigentlich ganz einfach: 30-Zöller kaufen (schon ab 1.300 €uro) und dann mal nativ aufgelöst durch die Lieblingsspiele wackeln. Bei 2.560x1.600 Bildpunkten ist eine 8800 Ultra sehr schnell am Ende, eine 512-MiB-Karte sowieso. Eine zweite Karte erlaubt dann vielleicht noch eine AA-Stufe zusätzlich, die mangelnde Effizienz sorgt aber meist dafür, dass auch ein Duo schnell platt ist. Eine dritte Karte kostet wieder 100%, bringt aber bestenfalls 20% mehr Fps => auch platt. So mächtig "Triple" oder "Quad" dank des Marketings auch klingen mögen: Sie sind es nicht.

Dank 1.024 MiB und 512 Becks wird die GTX 280 vermutlich sehr mächtig in hohen Auflösungen. Wo andere Karten nach mehr VRAM und Bandbreite schreien, wird sie noch souverän rechnen. Die Frage ist, wo diese Grenze ist. Vermutlich ganz weit oben ab 1.920x1.200 mit mindestens 8x MSAA ... oder Über-Modi wie 16xS & Co.

MfG,
Raff

Gast
2008-06-12, 23:18:23
Was glaubst du eigentlich was ich mit extrem hohe Qualitäts Einstellungen gemeint habe?

Das einzige Spiel das derzeit ein 3-Way SLI System wirklich gut auslasten kann ist Crysis und oh Wunder da Skaliert die 3. Karte ganz gut, komisch nicht war?

http://img181.imageshack.us/img181/1012/crysisfraps1920veryhighic4.gif

http://img181.imageshack.us/img181/3764/kjtjdtkdga4.th.png (http://img181.imageshack.us/my.php?image=kjtjdtkdga4.png)

Gast
2008-06-12, 23:30:58
Was glaubst du eigentlich was ich mit extrem hohe Qualitäts Einstellungen gemeint habe?

Das einzige Spiel das derzeit ein 3-Way SLI System wirklich gut auslasten kann ist Crysis und oh Wunder da Skaliert die 3. Karte ganz gut, komisch nicht war?

http://img181.imageshack.us/img181/1012/crysisfraps1920veryhighic4.gif

http://img181.imageshack.us/img181/3764/kjtjdtkdga4.th.png (http://img181.imageshack.us/my.php?image=kjtjdtkdga4.png)


Unter 30 FPS?Kannst du das Spielen?

Gast
2008-06-12, 23:32:29
Unter 30 FPS?Kannst du das Spielen?

natürlich, ich hab es auch mit unter 30fps, wenn auch nur mit einer karte und in 1280x1024 gespielt ;)

cR@b
2008-06-13, 00:30:19
Für diese Auflösung braucht man gar nix kaufen, da reicht auch ne 100€ Karte...

Das halte ich fürn Gerücht! Meine 88 GTX mach ich mit AoC in dieser Auflösung fix und fertig bis sie kotzt... auch bei Crysis ;)
Alles high mit 4xAA/16Af und V-Sync "an" und schon bricht sie zusammen... denke ne GTX280 hat die Rohpower, um die frames über dem V-Sync Halbierwert zu halten. TB scheint bei AoC net zu ziehen, wie auch? :D
Von daher bin ich gespannt was ne GTX 280 aufen Kasten hat... her damit endlich!!

natürlich, ich hab es auch mit unter 30fps, wenn auch nur mit einer karte und in 1280x1024 gespielt ;)

Jo ich auch aber nach der Hälfte des Spiels hab ich es deinstalliert und warte seither auf ne neue Graka ;)

deekey777
2008-06-13, 00:34:45
Leute, kommt zum Threadthema zurück: G200.

tombman
2008-06-13, 01:17:40
Nur 36fps unter High Quality in Crysis mit einer Auflösung von 1920x1200! Also nix mit Very High und 4xAA! Das ist echt eine herbe Entäuschung!
Habs mal mit 8800GTX SLI nachgemessen-> kommt unter Vista DX10 HIGH genau das selbe heraus. GTX280 dürfte also wirklich ziemlich genau 2x 8800GTX schnell sein (+/- 10%).
In XP und DX9 ist HIGH übrigens 20% schneller :eek:

tombman
2008-06-13, 01:49:49
Nochwas: der abartige GPUTEST2 (wo im Eislevel viel mit Rox herumgeballert wird) schafft auf 8800GTX SLI (default clock) auf 1920x1200, VERY HIGH, 4xAA gerade mal 12fps AVG.
Nicht mal overclocktes GTX280@ SLI würde da ausreichen um spielbare fps zu erhalten, denn wir bräuchten die DREIFACHE SLi power.

Das wird wohl erst mit Quad G200 möglich sein :eek:
Also 2x GX2 auf G200 Basis :eek:

Gast
2008-06-13, 01:54:39
Habs mal mit 8800GTX SLI nachgemessen-> kommt unter Vista DX10 HIGH genau das selbe heraus. GTX280 dürfte also wirklich ziemlich genau 2x 8800GTX schnell sein (+/- 10%).
In XP und DX9 ist HIGH übrigens 20% schneller :eek:

WIe soll sie auch schneller sein? Doppelte Shader und gut ist.

Gast
2008-06-13, 01:54:40
Ein Edelshooter brauch Edel-HW ;D

tombman
2008-06-13, 01:58:19
1600x1000, Very High, 4xAA, Cpu-Test 2: 18fps

Das wird also reichen mit 2x GTX280 + OC ;)

Sollte man irgendwo im 3x fps Bereich ankommen, und das bei extremer Situation :cool:
(Cpu Test 2 hat >3 Mille Polys/frame + Aktion ohne Ende+ Physik)

Hmm, 2x GTX280 kaufen? :devil:

p.s. das ganze dann über den beamer laufen lassen und abfilmen und Video ins Netz stellen ;D

Gast
2008-06-13, 02:00:10
2xGTX280? Ich geh gleich auf drei damit kann ich 1920x1200 flüssig zocken 4xAA und Bloom aus ;)

tombman
2008-06-13, 02:08:21
2xGTX280? Ich geh gleich auf drei damit kann ich 1920x1200 flüssig zocken 4xAA und Bloom aus ;)
Ne, mach ich ned. MR werden auf triple sli unerträglich...

cR@b
2008-06-13, 02:09:01
Hmm, 2x GTX280 kaufen? :devil:



Und wieder MR in Kauf nehmen? Hat ich da vorher net irgendwas von dir gelesen :rolleyes:
Naja aber was wäre Tombman ohne Größenwahn... eben, kein Tombman! :ugly:

Gast
2008-06-13, 02:24:36
Und wieder MR in Kauf nehmen? Hat ich da vorher net irgendwas von dir gelesen :rolleyes:
Naja aber was wäre Tombman ohne Größenwahn... eben, kein Tombman! :ugly:

SLI mit MR ist immer noch besser als eine Karte ohne MR aber das kapieren einige Leute anscheind nie. ;)

Gast
2008-06-13, 02:28:19
SLI mit MR ist immer noch besser als eine Karte ohne MR aber das kapieren einige Leute anscheind nie. ;)

Genau, hauptsache eine hohe gelbe Zahl oben in der Ecke stehen haben :rolleyes:

Gast
2008-06-13, 02:30:31
Genau, hauptsache eine hohe gelbe Zahl oben in der Ecke stehen haben :rolleyes:

Nein Denkfehler, es geht um Spielbar oder NICHT Spielbar.

cR@b
2008-06-13, 02:36:31
Wenn sich zwei Gäste streiten freut sich der... :D

Also ich empfand das MR als sehr unschöne Nebenwirkung von Multi GPU und bin aufgrund dessen wieder zurück zur Singlelösung. Generell ist der Bildaufbau deshalb wesentlich geschmeidiger bei Singlechip Varianten. Deswegen gabs auch keine zweite 88 GTX in meinem Rechner und ich freue mich auf eine GTX 280, welche aber diese Leistung und evtl. bissl mehr bringen wird.

Godmode
2008-06-13, 09:35:34
... Mehr als alles andere interessiert mich momentan, wo zur Hölle die 1,4 Milliarden Transistoren hin sind. Eventuell ist die Karte wirklich extremst GPGPU-optimiert, um den Kampf gegen Intel auf ein neues Level zu tragen. Dumm nur, wenn dann nur 60% Mehrleistung drin sind :rolleyes:

Um noch einmal darauf zurück zu kommen: Wenn sie für GPGPU optimiert haben, kann das nur heißen, dass der Shadercore effizienter arbeitet, daher müssen auch Spiele davon profitieren.

Wenn sie jetzt wirklich viele Transitoren für DP Einheiten verwendet haben und die auch noch recht teuer sind, wäre das wirklich schade für uns Spieler. Ich hoffe beim Launch wird alles etwas klarer.

The_Invisible
2008-06-13, 09:46:48
wenn sie wirklich doppelt so schnell wie ne gtx ist und nen brauchbaren 2d modus besitzt UND nur 400€ kostet ist sie schon mein.

aber mal seriöse tests abwarten, dauert eh nicht mehr lange.

mfg

Adam D.
2008-06-13, 09:47:19
Um noch einmal darauf zurück zu kommen: Wenn sie für GPGPU optimiert haben, kann das nur heißen, dass der Shadercore effizienter arbeitet, daher müssen auch Spiele davon profitieren.
Die Frage ist, wie stark die Spiele davon profitieren können.

Wenn sie jetzt wirklich viele Transitoren für DP Einheiten verwendet haben und die auch noch recht teuer sind, wäre das wirklich schade für uns Spieler. Ich hoffe beim Launch wird alles etwas klarer.
"Für uns Spieler" ist genau der Stichpunkt. Ich erwarte von so einer Karte vor allem brachiale Spielleistung, GPGPU ist zwar schön und gut, aber primär ist das Ding zum Zocken da und nicht für Video-Decoding.

Gast
2008-06-13, 09:50:42
Um noch einmal darauf zurück zu kommen: Wenn sie für GPGPU optimiert haben, kann das nur heißen, dass der Shadercore effizienter arbeitet, daher müssen auch Spiele davon profitieren.

Wenn sie jetzt wirklich viele Transitoren für DP Einheiten verwendet haben und die auch noch recht teuer sind, wäre das wirklich schade für uns Spieler. Ich hoffe beim Launch wird alles etwas klarer.
DP können schon jetzt alle GPUs hier (http://ati.amd.com/products/streamprocessor/specs.html), da muss man nichts an der Hardware ändern, es ist nur langsam, entsprechend wird das bei der GT200 sein denk ich mir.

Was GPGPU wirklich optimieren könnte wäre ein cache um normale Zugriffe auf den Speicher zu erlauben. Bei Cuda verreckt dir die Performance wenn du nicht mit bestimmten Pattern arbeitest, aber das ist nicht immer möglich. Du hast also einmal 10mal mehr Performance als CPUs und dann wieder ne stelle die 30-300mal langsammer ist.
Und Cache draufknallen zieht massig Transistoren, ist aber sowohl produktionstechnisch wie auch vom Design her relativ trivial.

Godmode
2008-06-13, 09:50:46
Die Frage ist, wie stark die Spiele davon profitieren können.


"Für uns Spieler" ist genau der Stichpunkt. Ich erwarte von so einer Karte vor allem brachiale Spielleistung, GPGPU ist zwar schön und gut, aber primär ist das Ding zum Zocken da und nicht für Video-Decoding.

IMO müssten dann alle Spiele profitieren die an der Shaderleistung hängen.

DP können schon jetzt alle GPUs hier (http://ati.amd.com/products/streamprocessor/specs.html), da muss man nichts an der Hardware ändern, es ist nur langsam, entsprechend wird das bei der GT200 sein denk ich mir.

Was GPGPU wirklich optimieren könnte wäre ein cache um normale Zugriffe auf den Speicher zu erlauben. Bei Cuda verreckt dir die Performance wenn du nicht mit bestimmten Pattern arbeitest, aber das ist nicht immer möglich. Du hast also einmal 10mal mehr Performance als CPUs und dann wieder ne stelle die 30-300mal langsammer ist.
Und Cache draufknallen zieht massig Transistoren, ist aber sowohl produktionstechnisch wie auch vom Design her relativ trivial.

Ok das klingt schlüssig, aber dürfte sich das dann nicht auch positiv auf Spiele auswirken? IMO könnten dadurch ja die Shader schneller berechnet werden.

Adam D.
2008-06-13, 09:57:09
IMO müssten dann alle Spiele profitieren die an der Shaderleistung hängen.
Das ist klar :D Ist nur die Frage, ob Spiele kommen, die wirklich an der Shader-Leistung hängen.

drmaniac
2008-06-13, 11:11:19
Nochwas: der abartige GPUTEST2 (wo im Eislevel viel mit Rox herumgeballert wird) schafft auf 8800GTX SLI (default clock) auf 1920x1200, VERY HIGH, 4xAA gerade mal 12fps AVG.
Nicht mal overclocktes GTX280@ SLI würde da ausreichen um spielbare fps zu erhalten, denn wir bräuchten die DREIFACHE SLi power.

Das wird wohl erst mit Quad G200 möglich sein :eek:
Also 2x GX2 auf G200 Basis :eek:

und jetzt stell dir vor ich will aber meinen 30" nativ betreiben.. :(

1600x1000, Very High, 4xAA, Cpu-Test 2: 18fps

Das wird also reichen mit 2x GTX280 + OC ;)

Sollte man irgendwo im 3x fps Bereich ankommen, und das bei extremer Situation :cool:
(Cpu Test 2 hat >3 Mille Polys/frame + Aktion ohne Ende+ Physik)

Hmm, 2x GTX280 kaufen? :devil:

p.s. das ganze dann über den beamer laufen lassen und abfilmen und Video ins Netz stellen ;D

Hast du nen Full HD Beamer und ne Full HD Cam?

;)

.

Gast
2008-06-13, 12:01:11
Sorry wenn man das schon mal gepostet hat
http://we.pcinlife.com/thread-948441-1-1.html

dildo4u
2008-06-13, 12:17:39
Mher GTX280 Vantage Scores@Default und mit OC 675/1450/1200.

Default P-Score

http://ukj58sa8.multipic.de/vanteg.jpg

OC 675/1450/1200 P-Score

http://ukj58sa8.multipic.de/oc-gtxd.jpg

Default X Score

http://ukj58sa8.multipic.de/defcault-x.jpg

OC 675/1450/1200 X-Score

http://ukj58sa8.multipic.de/oc-gtx-xd.jpg

http://www.xtremesystems.org/forums/showpost.php?p=3058422&postcount=1606

Gast
2008-06-13, 12:22:44
Naja, schon garnicht so schlecht. Ne HD4850 mach @default ca. P7500 Punkte

Taigatrommel
2008-06-13, 12:29:44
Naja, schon garnicht so schlecht. Ne HD4850 mach @default ca. P7500 Punkte
Naja, die HD4850 mit der GTX 280 zu vergleichen ist auch irgendwo arm. Sie kostet weniger als die Hälfte und ist eigentlich gar nicht als Konkurenz zur 280 gedacht.

Gast
2008-06-13, 12:45:02
Ich meinte das auch eher so das die HD4850/70 ebenfalls gute Karten werden und wir uns auf ordentlich Performance aus beiden Lagern freuen können ;)

Gast
2008-06-13, 12:58:56
Bei Alternate zu sehen:

"Ab dem 16.06., 15 Uhr wird Power neu definiert."

Auf in die letzte Runde.


MfG

Winter[Raven]
2008-06-13, 13:06:39
Hängt euch nicht an dem Vantage auf... Was zählt ist Gameperf. ;)

4711
2008-06-13, 13:06:47
Mher GTX280 Vantage Scores@Default und mit OC 675/1450/1200.

Default P-Score

http://ukj58sa8.multipic.de/vanteg.jpg

OC 675/1450/1200 P-Score

http://ukj58sa8.multipic.de/oc-gtxd.jpg

Default X Score

http://ukj58sa8.multipic.de/defcault-x.jpg

OC 675/1450/1200 X-Score

http://ukj58sa8.multipic.de/oc-gtx-xd.jpg

http://www.xtremesystems.org/forums/showpost.php?p=3058422&postcount=1606
eigendlich sehr gut aber was ist mit der shader Einstellung?
bei 675 müßten das eigendlich schon ~1690 sein..kackt die da ab oder sind die Takte wieder getrennt,das wird immer eigenartiger.

AnarchX
2008-06-13, 13:22:05
bei 675 müßten das eigendlich schon ~1690 sein..kackt die da ab oder sind die Takte wieder getrennt,das wird immer eigenartiger.
Bei GTX 200 ist das Shaderratio bei 1:2,16.