PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 5] - Übersicht in #1!


Seiten : 1 [2] 3 4

tombman
2008-06-08, 18:26:23
und du bist wieder mal am hoffen:)
Genau wie du, nur in entgegengesetzter Richtung.

SICHER ist nur eines: sie wird SCHNELLER als eine GX2 sein-> und damit stimmen alle Faktoren für mich ;)

Ich habe X4800 mit overclockten 8800GTX SLI Karten und 17000 cpu score.

Die GTX280 packt jetzt schon X4800 :cool:

Und das ist zu 99% keine Speku mehr :P

Gast
2008-06-08, 18:27:32
Genau wie du, nur in entgegengesetzter Richtung.

SICHER ist nur eines: sie wird SCHNELLER als eine GX2 sein-> und damit stimmen alle Faktoren für mich ;)


WOOOW

Nightspider
2008-06-08, 18:28:45
In 9 Tagen ist es soweit...

tombman
2008-06-08, 18:31:32
WOOOW
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6566028&postcount=251

crux2005
2008-06-08, 21:01:26
ja, also :frown::frown::frown:

laut OBR ist die Karte nicht so geil, wie er erwartet hat ...
deshalb wird auch der preis nicht so hoch sein

:mad: und ich habe meine 8800GTX und 2x 8800GTS verkauft ...

Gast
2008-06-08, 21:19:34
ja, also :frown::frown::frown:

laut OBR ist die Karte nicht so geil, wie er erwartet hat ...
deshalb wird auch der preis nicht so hoch sein

:mad: und ich habe meine 8800GTX und 2x 8800GTS verkauft ...
Wo ist das Problem? Die Karte wird wesentlich schneller als eine GTX und Ultra sein. Und SLi-Lösungen zählen nicht, da nix halbes und nix ganzes, außerdem kann man auch mit einer GTX280 SLi betreiben. Also ist(sind) die Karte(n) in allen Fällen überlegen. Denke nV wird eher ein Problem bei der Vermarktung/Verkauf von SLi bekommen. Bis jetzt nur eine große Klappe bzgl. Mikrorucklerbeseitigung gehabt, aber nichts zustande gebracht. Aber die GTX280 würde selbst wenn sie nur gleichem Speed wie eine GX2 in Praxisanwendungen aufzeigt, sich verkaufen wie warme Semmeln.

Gast
2008-06-08, 21:21:35
Wo ist das Problem? Die Karte wird wesentlich schneller als eine GTX und Ultra sein. Und SLi-Lösungen zählen nicht, da nix halbes und nix ganzes, außerdem kann man auch mit einer GTX280 SLi betreiben. Also ist(sind) die Karte(n) in allen Fällen überlegen. Denke nV wird eher ein Problem bei der Vermarktung/Verkauf von SLi bekommen. Bis jetzt nur eine große Klappe bzgl. Mikrorucklerbeseitigung gehabt, aber nichts zustande gebracht. Aber die GTX280 würde selbst wenn sie nur gleichem Speed wie eine GX2 in Praxisanwendungen aufzeigt, sich verkaufen wie warme Semmeln.

Für 600€ ? :ugly2:

mictasm
2008-06-08, 21:38:59
Für 600€ ? :ugly2:
Jepp!

Godmode
2008-06-08, 21:59:11
ja, also :frown::frown::frown:

laut OBR ist die Karte nicht so geil, wie er erwartet hat ...
deshalb wird auch der preis nicht so hoch sein

:mad: und ich habe meine 8800GTX und 2x 8800GTS verkauft ...

Quelle bitte!

crux2005
2008-06-08, 22:07:49
kannst tschechisch?

Godmode
2008-06-08, 22:13:55
kannst tschechisch?

Nein leider nicht, aber ich dachte es gibt dazu einen Link.

crux2005
2008-06-08, 22:15:59
klar gibt es - http://pctforum.tyden.cz/viewtopic.php?p=7608163#7608163

až uvidíš skutečný výkon, budeš se té ceně divit podstatně méně ...

wenn du die reale performance siehst, wirst du dich nicht so sehr über den Preis wundern

tragicky rozhodne ne, ale ja osobne cekal vice ... tot vse.

tragisch nicht, aber ich habe mehr erwartet ... das ist alles

/frei übersetzt

Gast
2008-06-08, 22:20:01
Subjektiver Eindruck oder sieht man da auch Zahlen?

Godmode
2008-06-08, 22:36:33
klar gibt es - http://pctforum.tyden.cz/viewtopic.php?p=7608163#7608163


wenn du die reale performance siehst, wirst du dich nicht so sehr über den Preis wundern

/frei übersetzt

Wenn er hier auf den hohen Preis eingeht, dann passt doch alles? Ok das 2. ist dann nicht so toll.

Ein Problem was GT200 bzw R700 haben werden, ist die enorme CPU Limitierung in den jetzt üblichen Settings (12*10, 16*10). Viele Reviewer werden das wohl wieder nicht erkennen und die Karten dann schlechter machen, als sie wirklich sind.

Schlammsau
2008-06-08, 22:43:01
Jepp!
Wetten wenn ich in 2 Monaten eine öffentliche Umfrage mache, hat nichtmal eine handvoll User hier in unserem Enthusiasten/Freak Forum diese Karte! ;)
600€......jemand der das ausgibt, hat doch eine an der Waffel!

Coda
2008-06-08, 22:46:34
Oder einfach nur das nötige Kleingeld.

Godmode
2008-06-08, 22:49:49
Wetten wenn ich in 2 Monaten eine öffentliche Umfrage mache, hat nichtmal eine handvoll User hier in unserem Enthusiasten/Freak Forum diese Karte! ;)
600€......jemand der das ausgibt, hat doch eine an der Waffel!

Hab ich dann auch einen an der Waffel wenn ich einmal pro Jahr um 600 € in den Urlaub fliege? Da habe ich nur eine Woche Spaß, mit einer 600 € GPU zumindest ein Jahr.

Wenn jemand die Kohle hat, dann soll er sich doch eine Graka um 600 € kaufen. Oder gehörst du auch zu den Leuten, die einen Sportwagen Fahrer sehen und sofort motzen, von wegen Prolet, Zuhälter, Betrüger... -> Neid

IMO hat solch eine Diskussion überhaupt nichts zu suchen hier, es geht schließlich um High-End und das hat eben seinen Preis.

pest
2008-06-08, 22:50:47
Oder einfach nur das nötige Kleingeld.

Oder nur zu dumm dazu etwas sinnvolles mit 600,-€ zu machen

Gast
2008-06-08, 22:54:27
Naja, die einen tanken halt 2x voll und die anderen kaufen ne 600€ GraKA ;D ;D ;D

Gast
2008-06-08, 22:55:18
mach mal wie ich nen benchmarktest und präsentier den uns...und komm mir jetzt nicht wieder mit 3dmark....

ausserdem kannst du keinen G80 mit einem G92 vergleichen....vollkommen verschiedene chips und die karten haben auch vollkommen verschiedene speicherbestückung
ein G92 ist eher GPU limitiert als Bandbreite...punkt***********

was nicht heißt das man mit mehr bandbreite noch mehr performance erreichen könnte...aber das verhältnis "mehr bandbreite/mehr fps" ist halt nicht sonderlich rosig



Da musste ich gerade Grinsen und dachte "na sicher Bestes Beispiel weil einziges Beispiel" aber im Grunde hast du Recht...

**********das stellste aber zb.mit der GX2 locker ein,die rennt ohne Ach und Weh mit 1200mhz.
Deshalb sehe ich bis jetzt absolut keinen Kaufgrund für den G200 für 1920x1200 mit AA.

gamingforce
2008-06-08, 22:56:31
Oder einfach nur das nötige Kleingeld.

Ich zB könnt mir sofort nen 3 Way SLi damit bauen wenn ich das will, aber ich bin nichtmehr bereit dazu soviel Geld in eine Graka zu hauen die in 6 Monaten schon wieder nix mehr taugt;( (oder schon wieder schnellere kommen)

Ich geb Max 300€ für 1 Graka aus (ich denk mal 95% sehen das genauso) und das ist wohl schon viel würd ich sagen, ich hab mich auch auf ne 8800Ultra Black Pearl gestürzt, den Fehler mach ich nie wieder.

Coda
2008-06-08, 22:56:40
Oder nur zu dumm dazu etwas sinnvolles mit 600,-€ zu machen
Man kann auch 600€ für ne GPU ausgeben und 10000€ für andere "sinnvolle" Dinge im Jahr. Stell dir vor.

Gast
2008-06-08, 22:57:43
Hab ich dann auch einen an der Waffel wenn ich einmal pro Jahr um 600 € in den Urlaub fliege? Da habe ich nur eine Woche Spaß, mit einer 600 € GPU zumindest ein Jahr.

Wenn jemand die Kohle hat, dann soll er sich doch eine Graka um 600 € kaufen. Oder gehörst du auch zu den Leuten, die einen Sportwagen Fahrer sehen und sofort motzen, von wegen Prolet, Zuhälter, Betrüger... -> Neid

IMO hat solch eine Diskussion überhaupt nichts zu suchen hier, es geht schließlich um High-End und das hat eben seinen Preis.

Wo ist dein High_End,bei einem 30"?
Die Karten sind wenn sich das alles bewahrheitet vollkommen EOD.
Und die 4870er wird sich verkaufen wie warme Semmeln.

Gast
2008-06-08, 22:59:07
EOD? :confused:

pest
2008-06-08, 22:59:19
Man kann auch 600€ für ne GPU ausgeben und 10000€ für andere "sinnvolle" Dinge im Jahr. Stell dir vor.

Jmd. der 10000€ zuviel hat, pimpt was anderes als seinen PC, ausserdem bezog es sich eher darauf das in 6mon. eh die 55nm Variante kommt

mapel110
2008-06-08, 23:00:55
Jmd. der 10000€ zuviel hat, pimpt was anderes als seinen PC, ausserdem bezog es sich eher darauf das in 6mon. eh die 55nm Variante kommt
Die 55nm-Variante könnte ein Mid Range Chip sein. Erwarte ich jedenfalls so. Genau wie es halt bei G92 war.

Coda
2008-06-08, 23:08:12
Jmd. der 10000€ zuviel hat, pimpt was anderes als seinen PC
Wie du meinst.

dargo
2008-06-08, 23:10:48
Die 55nm-Variante könnte ein Mid Range Chip sein. Erwarte ich jedenfalls so. Genau wie es halt bei G92 war.
Eben. Midrange würde ich den vielleicht nicht bezeichnen, es ist aber erstaunlich zu sehen wie manche sich sicher sind, dass der GT200b schneller wird. :D

Gast
2008-06-08, 23:17:21
Natürlich ist es schneller!
Du selbst führst es doch andauernd an.
Die GPU limitiert die 9800 Reihe und wenn du denn hochziehst....brauchen die Leute auf jedenfall keinen 600€ Aufguß.

Snoopy69
2008-06-08, 23:18:24
Wetten wenn ich in 2 Monaten eine öffentliche Umfrage mache, hat nichtmal eine handvoll User hier in unserem Enthusiasten/Freak Forum diese Karte! ;)
600€......jemand der das ausgibt, hat doch eine an der Waffel!
Hm - normaler Preis zu Anfang. Die 8800 Ultra kostete 700€. Die GTX 600€

Die 55nm-Variante könnte ein Mid Range Chip sein. Erwarte ich jedenfalls so. Genau wie es halt bei G92 war.
Die aber aufgrund besserer OC-Potentials sogar schneller und billiger als eine 8800GTX ist.

Gast
2008-06-08, 23:21:03
Das war was anderes,der G80 war und ist heute noch jeden Cent wert!
Was der G200 erst mal zeigen muß,naja es wird bestimmt hier einige geben die nicht abwarten können :D

Sonyfreak
2008-06-08, 23:22:08
Wetten wenn ich in 2 Monaten eine öffentliche Umfrage mache, hat nichtmal eine handvoll User hier in unserem Enthusiasten/Freak Forum diese Karte! ;)
600€......jemand der das ausgibt, hat doch eine an der Waffel!Und warum hat jemand "eine an der Waffel", wenn er für sein Hobby soviel Geld ausgibt? Andere Leute stecken tausende Euros pro Jahr in ihre Autos, ihre Audioanlagen, in den Swimmingpool, schaffen sich Haustiere an und so weiter. Nur wenn man mehr Geld als manche Leute für nötig erachten in PC-Equipment steckt, dann ist man verrückt oder wie? :confused:

mfg.

Sonyfreak

Snoopy69
2008-06-08, 23:45:25
Neid?

Ich sag auch nicht, dass jmd eine an der Waffel hat, nur weil er sich einen Bugatti Veyron 16.4 leisten kann.
Jeder wie er will oder "kann"...

Gast
2008-06-08, 23:54:18
Neid?

Ich sag auch nicht, dass jmd eine an der Waffel hat, nur weil er sich einen Bugatti Veyron 16.4 leisten kann.
Jeder wie er will oder "kann"...

bugatti veyron = lifestyle

600€ grafikkarte = vollnerd

Gast
2008-06-08, 23:54:32
Sowas ist einfach kleinkariertes Denken, von Leuten die nicht über ihren Horizont hinausschauen können.
Abgesehen davon, das die Ansprüche und Mittel völlig individuell sind, gibt es genug Leute, die HD Gaming betreiben wollen mit Auflösungen von 1920x1200 aufwärts.
Dort ist man angewiesen auf potente Grafiklösungen, wodurch man sich in anderen Preisregionen befindet.

Snoopy69
2008-06-09, 00:12:38
bugatti veyron = lifestyle

600€ grafikkarte = vollnerd
Du meinst wohl Vollneid oder Lifestyle für den kleinen Gedbeutel :D

Ich denke nicht, dass jmd sowas sagen würde, wenn es ihm nicht "weh" tun würde. So einfach ist das.
Ich würde auch niemals jmd verspotten, weil er die "Mittel" dazu nicht hat. Dafür ist ja die Midrange-HW da.

Sonyfreak
2008-06-09, 00:14:43
Neid?So kommts mir echt manchmal vor. Grad in einem Forum wie diesem, habe ich mir eigentlich etwas mehr von den Leuten erwarten. :rolleyes:

Da diese Diskussion aber nichts zum Thema beiträgt, würde ich mal sagen wir wenden uns wieder dem zukünftigen Highend-Kärtchen von Nvidia zu. :)

mfg.

Sonyfreak

frix
2008-06-09, 00:21:27
wenn keiner die highend grakas kaufen würde, würds mit der technik auch nicht so schnell voran gehn.

Gast
2008-06-09, 00:22:48
Du meinst wohl Vollneid :D

Ich denke nicht, dass jmd sowas sagen würde, wenn es ihm nicht "weh" tun würde. So einfach ist das.
Ich würde auch niemals jmd verspotten, weil er die "Mittel" dazu nicht hat. Dafür ist ja die Midrange-HW da.

definiere neid bezüglich pc hardware.
ich würde nie jemand um einen komponente für den computer beneiden.
ich stecke meine interessen einfach anders.
das hat nichts mit leisten können oder mittel für etwas haben zu tun.
natürlich trifft man in solchen foren nicht auf gleichgesinnte :>

Snoopy69
2008-06-09, 00:26:58
definiere neid bezüglich pc hardware.
ich würde nie jemand um einen komponente für den computer beneiden.
ich stecke meine interessen einfach anders.
das hat nichts mit leisten können oder mittel für etwas haben zu tun.
natürlich trifft man in solchen foren nicht auf gleichgesinnte :>
Du warst nicht gemeint.

Marodeur
2008-06-09, 01:18:14
24"-Displays gibts inzwischen ab 300€, das gab man vor nichtmal allzu langer Zeit noch für 19" aus. Dank Yuraku kann man dafür sogar schon auf TN verzichten, wenn auch bei bescheidener Verarbeitung :D .

Das hier dann die dicken Grafikkarten nur noch für "Nerds" sind oder ähnliches Zeug, davon kann daher wohl kaum noch die Rede sein.

Nazar
2008-06-09, 01:30:21
Oder nur zu dumm dazu etwas sinnvolles mit 600,-€ zu machen
Der mit Abstand Dümmste, bist Du!
Du bist offensichtlich nicht in der Lage die Hobbys Anderer anzuerkennen.
Ob nun jemand 1000€ für Modellbau, 4000€ für sein MB oder 20.000€ für seine Superanlage im Auto ausgibt, ist deiner Meinung nach dumm?
Du selber liest diese Threads und Investierst in einen PC in eine Internetanbindung usw.
Nur weil Du nicht soviel ausgibts bist Du schlauer?!
Sorry aber Sie mein Herr sind, wie schon oben erwähnt, mit Abstand der Dümmste Mensch hier im Thread!

tombman
2008-06-09, 01:38:26
Der mit Abstand Dümmste, bist Du!
Du bist offensichtlich nicht in der Lage die Hobbys Anderer anzuerkennen.
Ob nun jemand 1000€ für Modellbau, 4000€ für sein MB oder 20.000€ für seine Superanlage im Auto ausgibt, ist deiner Meinung nach dumm?
Du selber liest diese Threads und Investierst in einen PC in eine Internetanbindung usw.
Nur weil Du nicht soviel ausgibts bist Du schlauer?!
Sorry aber Sie mein Herr sind, wie schon oben erwähnt, mit Abstand der Dümmste Mensch hier im Thread!
*unterschreib*

Soda, nachdem das geklärt ist -> ON TOPIC, PLEASE ;)

Nicht sicher ob R700 GTX280 haut!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7780&Itemid=1

Coda
2008-06-09, 01:47:56
Bin ich mir auch nicht so sicher. Die Frage ist halt ob die Multi-GPU-Probleme bei R700 noch da sind oder nicht.

Evtl. biegen sie ja auch was mit dem Treiber hin.

tombman
2008-06-09, 01:49:46
Die werden beide biegen was geht, jeder vantage Punkt zählt ;D

Im Endeffekt muß man eh wieder selbst testen, vorallem DX10 Titel @ maxxed.

Coda
2008-06-09, 01:52:06
Wenn sie viel Vantage-Punkte wollen dann sind wäre es ziemlich blöd in Software was gegen die Mikroruckler zu tun.

Im Endeffekt muß man eh wieder selbst testen, vorallem DX10 Titel @ maxxed.
Das ist mir irgendwie zu viel Aufwand.

Snoopy69
2008-06-09, 01:53:17
Die werden beide biegen was geht, jeder vantage Punkt zählt ;D


Joh, wie zb, dass die 3870 da zwar richtig Punkte macht, aber bei Spielen in HQ gegen eine 8800/9800 abloost. Genau solche "realistischen" Benches brauchen wir garnicht.

Egal, ob jmd nur 1280x1024 spielt, finde ich es besser Spiele ab 1680x1050 (und aufwärts) + AA/AF zu benchen. Denn 3DMark06 bencht standardmäßig nur 1280x1024 ohne AA/AF. Dementsprechend skalieren die Karten ähnlich bzw. ATIs vielleicht mit leichtem Vorteil, der bei Last in Rauch aufgeht. Bei HQ findet man die wahre Leistung der Karte heraus.
Der jeweilige Käufer kann die Leistung im Mom. aufgrund 19" vielleicht noch nicht nutzen, will die Karte aber 2-3 Jahre behalten. Da finde ich es schon gut zu wissen, was die Karte bei Last kann - auch wenn ich nur einen 19" hab. Eine Game als gutes Beispiel gibt es ja auch für 1280x1024...

=Floi=
2008-06-09, 01:55:12
600€ sind auch nicht gerade viel geld, wenn man arbeiten geht und mit geld umgehen kann.
an sich ist es schon viel geld, aber auch wieder nicht.

damals musste man auch viel geld ausgeben für gute hardware und leistung kostet eben

Psychopat
2008-06-09, 01:56:42
Eben. Midrange würde ich den vielleicht nicht bezeichnen, es ist aber erstaunlich zu sehen wie manche sich sicher sind, dass der GT200b schneller wird. :D

Deswegen, weil Ail es angedeutet hat. Er meinte das die GTX 280 nicht die schnellste Karte dieses Jahr sein wird. Also muss noch was schnelleres kommen. Ohne Grund macht Ail solche Andeutungen nicht...

Edit: Man sollte sich mal vor Augen führen, wieviel Geld man für ne gute Sourroundsound Anlage ausgeben kann. Da kann man viiiiieeeeel ausgeben, wenn man's hat. Und am Ende hörst du vermutlich nicht mal nen Unterschied zu einer halb so teuren Anlage...

Snoopy69
2008-06-09, 02:08:00
600€ sind auch nicht gerade viel geld, wenn man arbeiten geht und mit geld umgehen kann.
an sich ist es schon viel geld, aber auch wieder nicht.

damals musste man auch viel geld ausgeben für gute hardware und leistung kostet eben
Ja, ist alles relativ...
Wenn man es unbedingt haben will ist es nicht zuviel.
Wenn man aber Hunger leiden muss schon.

Bin auch auf Neuigkeiten der GTX280 gespannt. Gerüchte oder Spekus haben wir schon genug

Gast
2008-06-09, 03:25:27
Hab ich dann auch einen an der Waffel wenn ich einmal pro Jahr um 600 € in den Urlaub fliege? Da habe ich nur eine Woche Spaß, mit einer 600 € GPU zumindest ein Jahr.

Der Vergleich mit dem spritsaufenden,teuren Auto passt eher.Von einem guten Urlaub kann man ein Leben lang "zehren".

Schlammsau
2008-06-09, 06:59:13
Es geht darum, dass die erwartete Leistung nur eine Verdoppelung darstellt!
Und dafür 600€ oder evtl. noch mehr zu blechen und die 55nm Version schon in ein paar Monaten an den Start geht?
Finde ich absolut balabala!
Und ein Vorredner nat schon Recht.....wenn ich 10000€ über hätte, würde ich die mit Sicherheit woanders reinstecken! Mit Sicherheit aber auch nicht ins Auto!

AnarchX
2008-06-09, 07:14:41
http://img76.imageshack.us/img76/4415/20080609460144c21daa7d0dj7.jpg (http://imageshack.us)

Gast
2008-06-09, 07:56:24
Deswegen, weil Ail es angedeutet hat. Er meinte das die GTX 280 nicht die schnellste Karte dieses Jahr sein wird. Also muss noch was schnelleres kommen. Ohne Grund macht Ail solche Andeutungen nicht...

Edit: Man sollte sich mal vor Augen führen, wieviel Geld man für ne gute Sourroundsound Anlage ausgeben kann. Da kann man viiiiieeeeel ausgeben, wenn man's hat. Und am Ende hörst du vermutlich nicht mal nen Unterschied zu einer halb so teuren Anlage...
ich korrigiere, du schon, alle anderen schütteln den kopf...

Schlammsau
2008-06-09, 08:12:42
Der mit Abstand Dümmste, bist Du!
Du bist offensichtlich nicht in der Lage die Hobbys Anderer anzuerkennen.
Ob nun jemand 1000€ für Modellbau, 4000€ für sein MB oder 20.000€ für seine Superanlage im Auto ausgibt, ist deiner Meinung nach dumm?
Du selber liest diese Threads und Investierst in einen PC in eine Internetanbindung usw.
Nur weil Du nicht soviel ausgibts bist Du schlauer?!
Sorry aber Sie mein Herr sind, wie schon oben erwähnt, mit Abstand der Dümmste Mensch hier im Thread!

*Wow* normalerweise gehörst du, wegen diesem Beitrag verwarnt!
Evtl meint er es anders als du denkst.
Viele Mitglieder hier meinen sie wären so intelligent, aber wenns darum geht die schnellste Hardware haben zu müssen, werden sie zu "Urzeitmenschen"!
Da kommt dann einfach nur ein.......geil, boah oder sonst was!
Das ist wie wenn man geile T***** sieht, da hat man(n) sich nicht mehr unter Kontrolle!

AnarchX
2008-06-09, 08:15:16
Da hat wohl jemand heimlich bei Gainwards GTX 280 Test-Setup fotografieren können:
http://img520.imageshack.us/img520/3214/lknrdornv034c0e3cfbfg5.jpg (http://imageshack.us)
http://plusd.itmedia.co.jp/pcuser/articles/0806/09/news034.html
Laut Text und auch den anderen Berichten über dieses Setup: 1920x1200 VH.

pest
2008-06-09, 08:24:50
Der mit Abstand Dümmste, bist Du!
...
Sorry aber Sie mein Herr sind, wie schon oben erwähnt, mit Abstand der Dümmste Mensch hier im Thread!


i don't care what you think :)
und...getroffene Hunde bellen...;)


Du bist offensichtlich nicht in der Lage die Hobbys Anderer anzuerkennen.
Ob nun jemand 1000€ für Modellbau, 4000€ für sein MB oder 20.000€ für seine Superanlage im Auto ausgibt, ist deiner Meinung nach dumm?
Du selber liest diese Threads und Investierst in einen PC in eine Internetanbindung usw.


Es ging um PC-Hardware ;) - von meinen Modellflugzeugen hab ich länger was
Und ja, jmd. der soviel Geld in etwas investiert, dessen Wert so schnell sinkt...muss wohl auf dem emotionalen Niveau eines 16jährigen hängengeblieben sein...

AnarchX
2008-06-09, 08:26:17
Wer über die Sinnhaftigkeit über Ausgaben im Enthusiastenbereich diskutieren will, der soll dies woanders tun.

Gast
2008-06-09, 08:40:25
Da hat wohl jemand heimlich bei Gainwards GTX 280 Test-Setup fotografieren können:
mg520/3214/lknrdornv034c0e3cfbfg5.jpg[/URL][/URL]
http://plusd.itmedia.co.jp/pcuser/articles/0806/09/news034.html
Laut Text und auch den anderen Berichten über dieses Setup: 1920x1200 VH.

35 Fps sind ja jetzt nicht so der Burner.

Wenn mit aa dann gehts,,,

dargo
2008-06-09, 08:44:39
Deswegen, weil Ail es angedeutet hat. Er meinte das die GTX 280 nicht die schnellste Karte dieses Jahr sein wird. Also muss noch was schnelleres kommen. Ohne Grund macht Ail solche Andeutungen nicht...

Das ist immer noch keine Andeutung, dass der GT200b schneller wird. ;)
Ail sagte, dass diese GPU hauptsächlich da ist um Kosten zu sparen.

Schlammsau
2008-06-09, 08:51:51
35 Fps sind ja jetzt nicht so der Burner.

Wenn mit aa dann gehts,,,

Also ich finde das in der Auflösung und @Very High, wäre es durchaus eine gute Leistung!
Laut CB wäre es dann auch mehr als doppelte G80 Leistung!

http://www.abload.de/img/unbenanntll1.png

dargo
2008-06-09, 08:57:36
Da hat wohl jemand heimlich bei Gainwards GTX 280 Test-Setup fotografieren können:
http://img520.imageshack.us/img520/3214/lknrdornv034c0e3cfbfg5.jpg (http://imageshack.us)
http://plusd.itmedia.co.jp/pcuser/articles/0806/09/news034.html
Laut Text und auch den anderen Berichten über dieses Setup: 1920x1200 VH.
Kleine Anmerkung - 37 ~34fps im GPU-Bench reichen imo nicht ganz aus um durchgängig Crysis flüssig zu spielen. Aus meiner Erfahrung mit Crysis kann ich sagen, dass dies erst mit 40fps geschieht. Obwohl ich selbst damit an manchen Stellen (zb. Eislevel oder Flugzeugträger) eine AA Stufe (von 4xMSAA auf 2xMSAA) runter gehen musste. Optimal wären ca. 45fps im Benchmark.

Was kommt näher an 1920x1200 1xAA/1xAF - 1440x900 4xMSAA/16xAF oder 1680x1050 4xMSAA/16xAF?

Ich brauche einen Vergleichswert. :D

Gast
2008-06-09, 08:57:45
Gut? DU untertreibst mal wieder das ist mega

Gast
2008-06-09, 08:58:48
Lasst mal den Benchmark laufen selbst QuadSLI GX2 schafft da nicht so hohe FPS

Godmode
2008-06-09, 09:01:17
Leider sind wir hier erst bei Frame 425, es kommen noch 1600. Ich hab jetzt nicht im Kopf wie der Frameverlauf im Crysis Benchmark weitergeht.

Gast
2008-06-09, 09:03:38
Das ist die Stelle wo er umschwenkt nach dem Wasser.

dargo
2008-06-09, 09:03:54
Leider sind wir hier erst bei Frame 425, es kommen noch 1600. Ich hab jetzt nicht im Kopf wie der Frameverlauf im Crysis Benchmark weitergeht.
Öhm... Looped 2 mit 34,44fps. :)

Godmode
2008-06-09, 09:07:35
Öhm... Looped 2 mit 34,44fps. :)

Ah... sry:biggrin: hab den Benchmark schon lange nicht mehr laufen lassen! Naja dann ist das doch ein sehr gutes Ergebnis, wenn die Auflösung und VH stimmt. Ich freue mich schon auf die ersten offiziellen Benchmarks und hoffe dass die Karte all das halten kann was Ail im Vorfeld durchsickern ließ.

dargo
2008-06-09, 09:08:38
Also ich finde das in der Auflösung und @Very High, wäre es durchaus eine gute Leistung!
Laut CB wäre es dann auch mehr als doppelte G80 Leistung!

http://www.abload.de/img/unbenanntll1.png
Dann wäre es also Faktor ~2,6. Wie erwartet. :)

Edit:
Wenn das wirklich stimmt, dann Hut ab NV. Je nachdem wie ausgereift die Launchtreiber sind halte ich hier einen Faktor 3 nicht für ausgeschlossen.

Superheld
2008-06-09, 09:19:00
Ich brauche einen Vergleichswert. :D


guck dir doch mal die Werte an von der Ultra , in 1680x1050 4xAA/16xAF müstest du dann weniger FPS haben als in 1920x1200:|
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/17/#abschnitt_crysis

Psychopat
2008-06-09, 09:19:26
Das ist immer noch keine Andeutung, dass der GT200b schneller wird. ;)
Ail sagte, dass diese GPU hauptsächlich da ist um Kosten zu sparen.

Es muss ja auch nicht der G200b sein, der schneller wird...

Hier die betreffenden Posts von Ail:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6541752&postcount=1809

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6535581&postcount=1333

Gast
2008-06-09, 09:20:22
Dann wäre es also Faktor ~2,6. Wie erwartet. :)

Die Crysis Karte :-)

Superheld
2008-06-09, 09:25:11
Die Crysis Karte :-)

wenn man nicht mal 1280x1024 4xAA/16xAF richtig flüssig spielen kann;(

dargo
2008-06-09, 09:25:16
guck dir doch mal die Werte an von der Ultra , in 1680x1050 4xAA/16xAF müstest du dann weniger FPS haben als in 1920x1200:|
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/17/#abschnitt_crysis
Danke. :)
Ich denke 1680x1050 2xMSAA/16xAF ist eher mit 1920x1200 1xAA/1xAF vergleichbar. Ich habe mit meiner OC-G80GTS in 1680x1050 4xMSAA/16xAF VH 8fps. ;D

Gast
2008-06-09, 09:28:52
*Wow* normalerweise gehörst du, wegen diesem Beitrag verwarnt!
Evtl meint er es anders als du denkst.
Viele Mitglieder hier meinen sie wären so intelligent, aber wenns darum geht die schnellste Hardware haben zu müssen, werden sie zu "Urzeitmenschen"!
Da kommt dann einfach nur ein.......geil, boah oder sonst was!
Das ist wie wenn man geile T***** sieht, da hat man(n) sich nicht mehr unter Kontrolle!

Ich finde Du befindest dich im falschen Forum. Weinen und Trollen tut man im
CB Forum nicht hier. Es wäre nett von Dir wen Du Deine überflüssigen Kommentare wo anders schreiben könntest hier geht es um High-End NV Karten und nicht um irgendwelche "Billiglösungen" oder wie sinnig das ist wen man einen 600€ Beschleuniger kauft. Ich sagte Die gestern schon das man auch mal über den Tellerrand schauen sollte. Hier im diesem Thread nervst Du nur rum, und die wenigsten können denke ich Deinem Standpunkt was abgewinnen. Hier geht es nunmal um High End und nicht um Mid-Range wie Du es verbaust.

MfG

AnarchX
2008-06-09, 09:38:53
Die (generelle) Diskussion über Sinnhaftigkeit von Enthusiastenprodukten ist hier ab sofort einzustellen.
Die nicht erwünschte, unnötige Beleidigung von Nazar wurde entsprechend geahndet.

Adam D.
2008-06-09, 09:39:12
Könnt ihr eure Streitigkeiten bitte privat lösen? Dafür ist der Thread nicht da. Über den Sinn und Unsinn von High-End-Karten wurde schon so oft diskutiert, dass ihr da ruhig mal einen Thread per Suchfunktion ausgraben könnt.

wenn man nicht mal 1280x1024 4xAA/16xAF richtig flüssig spielen kann
AF + Very High geht eh nicht, außer CryTek hat vor, daran noch was zu ändern. PM verhindert bis dato jede anisotrope Filterung.
Ob's mit 4xAA was wird ... Schwer zu sagen, wie hart das beim G200 reinhaut, aber ich denke, man kann optimistisch bleiben ;)

Gast
2008-06-09, 09:44:44
Wenn 2560x1600 mit zwei GTX280 laut NV Folie machbar ist, dann dürfte 1920x1200 auch kein Problem darstellen mit wenigstens 2xAA, auch 4xAA kostet kaum mehr Leistung

Gast
2008-06-09, 09:45:56
Und man sollte bedenken unter WinXP mit FakeVeryHigh gibts noch extra Performance gegenüber dem noch lahmen Vista.

Superheld
2008-06-09, 09:52:06
also 16xAF frißt bei der 8800gt ganz schön FPS bei Crysis ca 4fps mit very High,
darum hab ichs da meistens aus so das man noch halbwegs spielen kann=)

drmaniac
2008-06-09, 10:39:30
Die Crysis Karte :-)

Ne, DIE Crysis Karte wäre es für mich, wenn ich 2560x1600 ruckelfrei spielen könnte :) Mag weder Sli, noch meine Auflösung reduzieren...

tombman
2008-06-09, 10:57:56
Da hat wohl jemand heimlich bei Gainwards GTX 280 Test-Setup fotografieren können:
http://img520.imageshack.us/img520/3214/lknrdornv034c0e3cfbfg5.jpg (http://imageshack.us)
http://plusd.itmedia.co.jp/pcuser/articles/0806/09/news034.html
Laut Text und auch den anderen Berichten über dieses Setup: 1920x1200 VH.
Wow, ein sehr guter Wert, und das noch ohne OC ;)
4xAA dazu macht unter VH gar nicht mal so viel aus, könnte man also noch probieren.

Mit GTX280 SLI und 1920x1200 4xAA müßte Crysis abgehen als gäbs kein Morgen :cool:

Gast
2008-06-09, 10:58:57
Es muss ja auch nicht der G200b sein, der schneller wird...

Hier die betreffenden Posts von Ail:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6541752&postcount=1809

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6535581&postcount=1333
Gibts auch Infos wann da noch was kommt?

tombman
2008-06-09, 11:01:02
Ne, DIE Crysis Karte wäre es für mich, wenn ich 2560x1600 ruckelfrei spielen könnte :) Mag weder Sli, noch meine Auflösung reduzieren...
Da wirste Pech haben, denn G200 war der letzte Megachip und danach gibts nur noch SLI/CF (oder eben die Nachfolger von AFR)

Gast
2008-06-09, 11:02:38
Da wirste Pech haben, denn G200 war der letzte Megachip und danach gibts nur noch SLI/CF (oder eben die Nachfolger von AFR)

Es wird dich sicher freuen zu hören, dass das bei Nvidia nicht der Fall sein wird.

Adam D.
2008-06-09, 11:05:24
Da wirste Pech haben, denn G200 war der letzte Megachip und danach gibts nur noch SLI/CF (oder eben die Nachfolger von AFR)
Das ist nicht so gesagt. Multi-Die --> Multi-Chip. Erstmal abwarten, was der G200 wirklich kann und dann mal auf den Refresh/Shrink warten. Wie gesagt, AiL hat ja angedeutet, dass da noch was kommt ;)

Gast
2008-06-09, 11:08:30
ich glaub das Bild ist auch nen fake die MÜSSTE stärker sein:

auf dem Bild von dem angeblichen GTX280 shot von Crysis sieht man Frame 427, also im Bench schnell einegtippt das er an dieser Stelle nen Screen macht:

http://www.abload.de/img/lknrdornv034c0e3cfbfvr3.jpg (http://www.abload.de/image.php?img=lknrdornv034c0e3cfbfvr3.jpg)

http://www.abload.de/img/unbenanntjfe.jpg (http://www.abload.de/image.php?img=unbenanntjfe.jpg)

also entweder will der uns verscheissern (was ich eher glaube) oder das mit sicherheit nicht Very High gewesen weil sieht man schön auf dem Foto das der Berg verwaschen ist und die Details fehlen genauso sieht das aus wenn man Shader auf Medium hat :)

(selben Settings 1920x1200 Very High DX10 )

tombman
2008-06-09, 11:15:59
ich glaub das Bild ist auch nen fake die MÜSSTE stärker sein:

auf dem Bild von dem angeblichen GTX280 shot von Crysis sieht man Frame 427, also im Bench schnell einegtippt das er an dieser Stelle nen Screen macht:

http://www.abload.de/img/lknrdornv034c0e3cfbfvr3.jpg (http://www.abload.de/image.php?img=lknrdornv034c0e3cfbfvr3.jpg)

http://www.abload.de/img/unbenanntjfe.jpg (http://www.abload.de/image.php?img=unbenanntjfe.jpg)

also entweder will der uns verscheissern (was ich eher glaube) oder das mit sicherheit nicht Very High gewesen weil sieht man schön auf dem Foto das der Berg verwaschen ist und die Details fehlen genauso sieht das aus wenn man Shader auf Medium hat :)

(selben Settings 1920x1200 Very High DX10 )

Und jetzt rate mal warum einige Ziffern ebenfalls verwaschen sind?

WEIL DAS EIN FOTO VON BEWEGTEM MATERIAL UND KEIN SCREENSHOT IST.

Stutziger sollte dich da eher die Polys/frame Anzeige bei frame 427 machen. Die ist nämlich sehr wohl abhängig vom preset.
VH hat viel mehr Polys als H. Aber auch die Angabe ist verwischt- mit Absicht? ;D

Gast
2008-06-09, 11:26:11
aha sicherlich:

das ne billige 0.8 MP CAM von nem Handy :rolleyes:

http://www.abload.de/img/12xz7b.jpg (http://www.abload.de/image.php?img=12xz7b.jpg)

tombman
2008-06-09, 11:36:54
Beweist gar nix...jede cam ist anders. Lichtverhältnisse---BLA.

ESAD
2008-06-09, 12:10:05
Beweist gar nix...jede cam ist anders. Lichtverhältnisse---BLA.

er hat allerdings recht so sehr wie die texturen verwaschen sind so sehr sind die pflanzen scharf im vergleich

allerdings ist das bild grausam komprimiert. was wiederum viele details zermanscht

tombman
2008-06-09, 12:13:53
ALso falls das wirklich VERYHIGH war OWNT die GTX280.

Ich habe gerade mit OVERCLOCKTEN 8800GTX @ SLI (648/1512/1000)

26 fps

erreicht auf VERY HIGH und dem selben GPU Bench...:eek:

Das wären dann nämlich ~30% schneller als ~8800Ultra SLI :eek:

MartinRiggs
2008-06-09, 12:16:26
Die Leistung wäre wirklich pornös:biggrin:
Ich bekomme immer mehr Lust mal wieder ne High-End-Karte zu kaufen, den Very High test will ich jetzt gar nicht machen, da schmilzt meine GT:ugly:

Snoopy69
2008-06-09, 12:16:55
Sie würde erst ownen, wenn ich nie unter Min-fps von 30 komme.
Bei 1920x1200 + AA/AF/sehr hoch

AnarchX
2008-06-09, 12:17:14
Wie eben PHK es schon Anfang Mai geleakt hat:
GTX 280 SLI = Crysis VH 2560x1600 4xAA flüssig (also wohl ~30FPS).
;):D

Snoopy69
2008-06-09, 12:18:35
Wie eben PHK schon vor Monaten geleakt hat:
GTX 280 SLI = Crysis VH 2560x1600 4x flüssig (also wohl ~30FPS).
;):D
avg
Und min?

Ich vermute mal min 20fps

Gast
2008-06-09, 12:18:58
Also ich finde das in der Auflösung und @Very High, wäre es durchaus eine gute Leistung!
Laut CB wäre es dann auch mehr als doppelte G80 Leistung!

http://www.abload.de/img/unbenanntll1.png


Das kann man mit den CB Werten nicht vergleichen, da sie NICHT den Island-Bench nutzen.

Dann wäre es also Faktor ~2,6. Wie erwartet. :)

Edit:
Wenn das wirklich stimmt, dann Hut ab NV. Je nachdem wie ausgereift die Launchtreiber sind halte ich hier einen Faktor 3 nicht für ausgeschlossen.

Sihe Oben
ich glaub das Bild ist auch nen fake die MÜSSTE stärker sein:

auf dem Bild von dem angeblichen GTX280 shot von Crysis sieht man Frame 427, also im Bench schnell einegtippt das er an dieser Stelle nen Screen macht:

http://www.abload.de/img/lknrdornv034c0e3cfbfvr3.jpg (http://www.abload.de/image.php?img=lknrdornv034c0e3cfbfvr3.jpg)

http://www.abload.de/img/unbenanntjfe.jpg (http://www.abload.de/image.php?img=unbenanntjfe.jpg)

also entweder will der uns verscheissern (was ich eher glaube) oder das mit sicherheit nicht Very High gewesen weil sieht man schön auf dem Foto das der Berg verwaschen ist und die Details fehlen genauso sieht das aus wenn man Shader auf Medium hat :)

(selben Settings 1920x1200 Very High DX10 )


Sieht aus als ob da 32bit gebencht wurde (bei der GTX280)

Adam D.
2008-06-09, 12:19:01
Versteh mich nicht falsch, ich setze auch große Hoffnungen in den G200, aber aus solchen zusammenhangslosen Screenshots irgendwas heraus zu ziehen, ist bekloppt. Nichts ist leichter als sowas zu faken. Das Diagramm von CJ hat dem G200 ja etwa 60% mehr Geschwindigkeit gegenüber einer 3800X2 zugesprochen, wenn daraus jetzt G80x2,3 wird ... Naja, nichts genaues weiß man nicht.

AnarchX
2008-06-09, 12:19:27
avg
Und min?
Natürlich Avg, für Min. muss dann wohl schon auf GeForce GTX 400 warten.

MartinRiggs
2008-06-09, 12:19:48
Sie würde erst ownen, wenn ich nie unter Min-fps von 30 komme.
Bei 1920x1200 + AA/AF/sehr hoch

Joh, man kann es auch übertreiben:rolleyes:
Dein Ansprüche sind etwas sehr abgehoben, warte noch 2-3 Generationen ab dann kannst Crysis so zocken.:up:

dildo4u
2008-06-09, 12:19:59
Der erste Level ist doch Anfornderungsmäßig noch gar nix die späteren Level(Eislandschaft,Alienschiff) sind viel Aufwändiger(Oder scheisse programmert?)imo sieht man erst da was die Karte kann.

Snoopy69
2008-06-09, 12:21:28
Nix scheise programmiert - nur wesentlich mehr Texturen/Polygons als andere Games.

@ MartinRiggs

Ja, sind sie. Einmal an HQ "gerochen" will man sich nur ungerne wieder "verschlechtern"

tombman
2008-06-09, 12:24:18
Joh, man kann es auch übertreiben:rolleyes:
Dein Ansprüche sind etwas sehr abgehoben, warte noch 2-3 Generationen ab dann kannst Crysis so zocken.:up:
Da wird schon GTX280 @ SLi ausreichen, garantiert ;)

Btw, mit oc GTX SLI hatte ich auf HIGH (vista64 mit 32bit .exe, DX10) 41fps. OC macht mindestens 10% aus.

Also selbst wenn der screenshot nur auf HIGH war, kann man sagen, daß eine GTX280 MINDESTENS G80 GTX SLI Niveau erreicht

Mission accomplished :cool:

p.s. weil "medium" war der screenshot von oben sicher nicht, da wäre das Licht ganz anders ;)

dildo4u
2008-06-09, 12:24:40
Nix scheise programmiert - nur wesentlich mehr Texturen/Polygons als andere Games.
Ich rede nicht vom Vergleich mit anderen Games sondern davon das die FPS zum Ende hin immer niedriger werden auch wenn die Level Teilweise imo nicht so viel besser aussehen.Davon ab wurde Crysis natürlich unfertig und unoptemiert auf den Markt geworfen.

Snoopy69
2008-06-09, 12:26:03
Natürlich Avg, für Min. muss dann wohl schon auf GeForce GTX 400 warten.
Gibts dafür eine Roadmap?

AnarchX
2008-06-09, 12:26:33
Das Diagramm von CJ hat dem G200 ja etwa 60% mehr Geschwindigkeit gegenüber einer 3800X2 zugesprochen, wenn daraus jetzt G80x2,3 wird ... Naja, nichts genaues weiß man nicht.

In Crysis ist GTX 280 laut Diagramm knapp über 1.8-facher 3870X2-Leistung.

HD3870X2 Cat8.3(wie wohl auch in der Folie) @ 1920x1200 1xAA/1xAF: 18.1 FPS (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis) * ~1.81 = ~ 33FPS.

Und was erreicht die GTX 280 laut dem Screenshot der Japaner? ;)


Jetzt bleibt nur noch die Frage offen wie sich G9x-ROP-Kompression und die 3-fache Blending-Leistung laut CJ auf die Kosten von 4xMSAA auswirken.

dargo
2008-06-09, 12:27:30
Das kann man mit den CB Werten nicht vergleichen, da sie NICHT den Island-Bench nutzen.

Stimmt, hab mich mal wieder zu schnell von den bunten Balken verführen lassen. :ugly:
CB testet ja eine eigene Timedemo vom Eislevel. Da der Eislevel deutlich mehr Leistung fordert sieht es dann wiederum gar nicht mal so hammermäßig für die G280GTX aus. Naja, es bleibt spannend. :)

PS: kennt jemand eine andere Seite im Netz die den intergrierten GPU_Bench von Crysis mit 1920x1200 DX10 verwendet?

Der erste Level ist doch Anfornderungsmäßig noch gar nix die späteren Level(Eislandschaft,Alienschiff) sind viel Aufwändiger(Oder scheisse programmert?)imo sieht man erst da was die Karte kann.
Wie gesagt, sobald man im intergrierten GPU_Bench 40-45fps hat kann man das ganze Game wunderbar flüssig durchspielen.

reunion@work
2008-06-09, 12:28:29
*unterschreib*

Soda, nachdem das geklärt ist -> ON TOPIC, PLEASE ;)

Nicht sicher ob R700 GTX280 haut!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7780&Itemid=1

Wäre auch verdammt peinlich für nV wenn AMD mit dieser schnell zusammgebastelten Notlösung im CF-Verbund die High-End-Krone holen würde.

Gast
2008-06-09, 12:29:47
In Crysis ist GTX 280 laut Diagramm knapp über 1.8-facher 3870X2-Leistung.

HD3870X2 Cat8.3(wie wohl auch in der Folie) @ 1920x1200 1xAA/1xAF: 18.1 FPS (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis) * ~1.81 = ~ 33FPS.

Und was erreicht die GTX 280 laut dem Screenshot der Japaner? ;)

Cat 8.3 :rolleyes: würd mal wissen wie es mit dem Cat 8.5 oder 8.6 Beta ausschaut.

mapel110
2008-06-09, 12:29:49
Ich rede nicht vom Vergleich mit anderen Games sondern davon das die FPS zum Ende hin immer niedriger werden auch wenn die Level Teilweise imo nicht so viel besser aussehen.Davon ab wurde Crysis natürlich unfertig und unoptemiert auf den Markt geworfen.
Nahezu jedes Spiel wird unoptimiert auf den Markt geworfen. Es wären sicher in jedem Game noch mehr fps drin, aber es läuft halt auf aktuellen Systemen auf denen getestet wird und das langt dann. Sie stecken keine Arbeit weiter rein in Optimierungen. Hohn und Spot gibts dafür nicht. Und warum?! Weil ja alle sich brav wenigstens Mid Range Hardware kaufen, um aktuelle Spiele zu zocken. Aber wehe, es kommt jemand auf die Idee, High End Hardware auszureizen...

AnarchX
2008-06-09, 12:32:41
Cat 8.3 :rolleyes: würd mal wissen wie es mit dem Cat 8.5 oder 8.6 Beta ausschaut.
Das ist aber für den hier gezogenen Vergleich, wo es darum ging die beiden GTX 280 Ergebnisse zu vergleichen, völlig irrelevant.

dargo
2008-06-09, 12:40:05
@tombman
Teste bitte den intergrierten GPU_Bench mit nur einer nicht übertakteten G8800GTX in 1920x1200 1xAA/1xAF VH damit wir einen Vergleich haben. :)

AnarchX
2008-06-09, 12:43:30
Woher kommt eigentlich die Annahme, dass CB eine eigene Demo verwendet?
Als Benchmark verwenden wir in Crysis die integrierte GPU-Timedemo, die man mittels einer Batch-Datei ausführen kann.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
Da steht nichts von einer speziellen Demo, ohne die man es wie weiter ausgeführt wohl "am heimischen PC selber nachvollziehen" könnte.

Adam D.
2008-06-09, 12:44:38
In Crysis ist GTX 280 laut Diagramm knapp über 1.8-facher 3870X2-Leistung.

HD3870X2 Cat8.3(wie wohl auch in der Folie) @ 1920x1200 1xAA/1xAF: 18.1 FPS (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis) * ~1.81 = ~ 33FPS.

Und was erreicht die GTX 280 laut dem Screenshot der Japaner? ;)


Jetzt bleibt nur noch die Frage offen wie sich G9x-ROP-Kompression und die 3-fache Blending-Leistung laut CJ auf die Kosten von 4xMSAA auswirken.
Ok verdammt, mein Gedächtnis hat betrogen ;(

Naja, meine Restzweifel bleiben. Muss man einfach den Release abwarten, um vollen Einblick in die technologische Entwicklung zu erhalten. Wichtig wäre ja z.B. auch, ob der Leistungsvorsprung des G200 in Zukunft stagniert oder ob da noch Potential nach oben ist (besonders im Hinblick auf die Treiber).

Schlammsau
2008-06-09, 12:44:55
Woher kommt eigentlich die Annahme, dass CB eine eigene Demo verwendet?

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
Da steht nichts von einer speziellen Demo, ohne die man es wie weiter ausgeführt wohl "am heimischen PC selber nachvollziehen" könnte.


bei den neueren Benchmarks schon!
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/17/#abschnitt_crysis
Als Benchmark verwenden wir nicht den integrierten Benchmark, sondern setzen auf eine eigens erstellte Timedemo in dem grafiklastigen Level „Ice“. Wir testen die auf Version 1.21 aktualisierte Vollversion des Spiels. Auch wenn die Einstellung „Very High“ für viele (und vor allem günstigeren) Grafikkarten unspielbar ist, haben wir uns dennoch für die höchste Qualität entschieden, um selbst mit zukünftigen Grafikkarten keine CPU-Limitierung zu schaffen.

AnarchX
2008-06-09, 12:48:48
Oha, also nur im neuesten Test.

Naja, da behält ja meine Beweisführung ihre Gültigkeit, da ich noch einen älteren Test als Basis genommen habe.

dildo4u
2008-06-09, 12:49:18
Die FPS Unterscheiden sich auch leicht vieleicht haben sie bei den ältern Test noch den integrierten Benchmark genutzt.

dargo
2008-06-09, 12:50:05
Woher kommt eigentlich die Annahme, dass CB eine eigene Demo verwendet?

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis
Da steht nichts von einer speziellen Demo, ohne die man es wie weiter ausgeführt wohl "am heimischen PC selber nachvollziehen" könnte.
Oh man, langsam drehe ich am Rad.:ucrazy3:

In deinem Link testet CB die V1.1 und den intergrierten GPU_Bench. In diesem Link (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/17/#abschnitt_crysis) testen sie die V1.21 und eine eigene Eislevel-Timedemo. :crazy:

Ok, also 14,4fps für die G8800GTX. Ist immer noch ein Faktor ~2,4. :)

gamingforce
2008-06-09, 12:50:57
p.s. weil "medium" war der screenshot von oben sicher nicht, da wäre das Licht ganz anders ;)


falsch, stell nur die Shader auf Medium und dein Screen/Foto sieht genauso aus wirste sehen ;)

Aber wie ich das hier so lesen, erwartet ihr wirklich so eine Monsterleistung.
Soll ich euch was sagen, ihr werden alle auf die Gusche fallen und viele die jetzt 8800GTX SLI haben werden dabei immernoch bleiben.

tombman
2008-06-09, 12:52:05
@tombman
Teste bitte den intergrierten GPU_Bench mit nur einer nicht übertakteten G8800GTX in 1920x1200 1xAA/1xAF VH damit wir einen Vergleich haben. :)
~13 fps (crysis version 1.1)

G80GTX: 13fps
GTX280: 34fps

so owned ;)

tombman
2008-06-09, 12:53:25
falsch, stell nur die Shader auf Medium und dein Screen/Foto sieht genauso aus wirste sehen ;)
Ja klar, der Stand auf der Messe hat dort nen Nerd sitzen, der großartig an den .cfgs rumpfuscht-> nur um uns alle zu täuschen :rolleyes:

Aber wie ich das hier so lesen, erwartet ihr wirklich so eine Monsterleistung.
Soll ich euch was sagen, ihr werden alle auf die Gusche fallen und viele die jetzt 8800GTX SLI haben werden dabei immernoch bleiben.
No way, baby, es gibt schon VIEL ZU VIELE HInweise, die darauf hindeuten, daß GTX280 SCHNELLER als G80 SLI ist-> you can't stop it :cool:

gamingforce
2008-06-09, 12:54:04
~13 fps (crysis version 1.1)

G80GTX: 13fps
GTX280: 34fps

so owned ;)

GTX280 =Shader auf Medium ganz einfach, der Foto da oben ist nicht Very High Mensch ey schön reden kann man es sich auch wa ?

tombman
2008-06-09, 12:55:43
Jop, und eine HD4870 wird mindestens 80% schneller als eine 9800GTX, keine Sau wird die GTX280 kaufen, weil ATi eh toller ist und deine kleine Welt ist so wie du sie dir vorstellst. Meine Güte, wir kennen deine Einstellung inzwischen und jetzt zisch ab.
Jo, direkt herzig, wie sich manch ATI Jünger an immer absurdere Hoffnungen klammert ;)

dildo4u
2008-06-09, 12:55:43
Aber wie ich das hier so lesen, erwartet ihr wirklich so eine Monsterleistung.
Soll ich euch was sagen, ihr werden alle auf die Gusche fallen und viele die jetzt 8800GTX SLI haben werden dabei immernoch bleiben.
Die Vantage Ergebisse passen auch zur G80 x2 Theorie.

gamingforce
2008-06-09, 12:55:51
Jop, und eine HD4870 wird mindestens 80% schneller als eine 9800GTX, keine Sau wird die GTX280 kaufen, weil ATi eh toller ist und deine kleine Welt ist so wie du sie dir vorstellst. Meine Güte, wir kennen deine Einstellung inzwischen und jetzt zisch ab.

was willste den von mir?
hab ich irgendwas von ATI geschrieben ?

Flame entfernt.

Die Vantage Ergebisse passen auch zur G80 x2 Theorie.

das steite ich ja auch nicht ab, 3Dmark halt ;)

dildo4u
2008-06-09, 12:59:22
das steite ich ja auch nicht ab, 3Dmark halt ;)
Jo und bei NV laufen dann bei Games sogar noch besser.Normal kann ATI bei den 3DMark noch mithalten wird dann aber bei den echten Gamebenches geschlagen.

Adam D.
2008-06-09, 12:59:24
was willste den von mir?
hab ich irgendwas von ATI geschrieben ?

Flame entfernt.



das steite ich ja auch nicht ab, 3Dmark halt ;)
Du hast dich in Vergangenheit oft genug pro ATi ausgesprochen und alles gebasht, was nur irgendwie mit Nvidia zu tun hat.
Als ob es auch nur noch irgendeinen Zweifel gäbe, dass der G200 so stark ist wie hier vermutet. Klar vermischt sich hier Utopie mit Vorfreude, aber 1,5 Jahre nach G80 mit diesem Die ... klar, kannst du hier von 2xG80 ausgehen.

AnarchX
2008-06-09, 12:59:24
Einigen Diskussionsteilnehmern ist es anzuraten Ausdrucksweise und Inhalte ihrer Postings zu überdenken, wenn sie weiter an der Diskussion teilnehmen wollen. ;)

gamingforce
2008-06-09, 12:59:51
Jo, direkt herzig, wie sich manch ATI Jünger an immer absurdere Hoffnungen klammert ;)


ATI Jünger ?

ach gottchen hör doch auf, ich bin nicht umsonst vom tollen NV wo ja SLi alles rockt mal zufällig auf ne X2 gewechselt weil solche Helden wie du schreiben "Nvidia sind die Götter" die das alles glauben was ihr hier schreibt.

ach mir ist doch wayne, wenn die Karte raus ist werd ich mir nen Bier holen und euch zugucken wie ihr heult das sie doch net so schnell ist wie ihr glaubt ;D


Du hast dich in Vergangenheit oft genug pro ATi ausgesprochen und alles gebasht, was nur irgendwie mit Nvidia zu tun hat.



was wo den ?

4711
2008-06-09, 13:01:33
nana ;D wenn alle Fanboys hier weg bleiben bin ich ja ganz alleine hier.
Ich werde auf jedenfall nicht kaufen egal wie schnell das Teil ist,abwarten Tee trinken,die Hinweise von Ail sind zu offensichtlich das da was schnelleres kommt.

Gast
2008-06-09, 13:02:05
Jop, und eine HD4870 wird mindestens 80% schneller als eine 9800GTX, keine Sau wird die GTX280 kaufen, weil ATi eh toller ist und deine kleine Welt ist so wie du sie dir vorstellst. Meine Güte, wir kennen deine Einstellung inzwischen und jetzt zisch ab.

Solange ATI Grafikkarten verkauft die auf vielen Intel Chipsätzen nicht laufen können sie 1000% schneller sein und ich würde sie mir nicht kaufen.

Adam D.
2008-06-09, 13:02:47
ach gottchen hör doch auf, ich bin nicht umsonst vom tollen NV wo ja SLi alles rockt mal zufällig auf ne X2 gewechselt weil solche Helden wie du schreiben "Nvidia sind die Götter" die das alles glauben was ihr hier schreibt.

Und du fragst wo?

Solange ATI Grafikkarten verkauft die auf vielen Intel Chipsätzen nicht laufen können sie 1000% schneller sein und ich würde sie mir nicht kaufen.
Kannst du das erläutern? Ich weiß nicht, was du meinst ;(

tombman
2008-06-09, 13:05:47
ATI Jünger ?

ach gottchen hör doch auf, ich bin nicht umsonst vom tollen NV wo ja SLi alles rockt
fps-mäßig ist Nvidia immer noch der Chef ;) Die performance Krone gehört Nvidia mit Quad SLI= 2x GX2. Und MR haben beide, ATI vielleicht weniger...(aber die fps sind sowieso zu schwach, daher eh keine Option)

Oder hast schon vergessen WER den "die SLi Lüge" thread eröffnet hat? Kein fanboy würde sowas jemals tun ;)

Aber DU wirst sicher NICHT hier in diesem Forum zugeben, daß DU dich bzgl der GTX280 Leistung schwer getäuscht hast-> DU wirst dann einfach durch Abwesenheit glänzen, und das wars.

So schauts aus.

tombman
2008-06-09, 13:07:33
http://www.abload.de/img/tvi6sf.jpg (http://www.abload.de/image.php?img=tvi6sf.jpg)


http://www.abload.de/img/uu6yug.jpg (http://www.abload.de/image.php?img=uu6yug.jpg)



@Mod Wiso wurde mein Post gelöscht ? :udown: :ufinger:
Unterschiedliche crysis .exe ... ich hatte nur 1.1, die hatten wahrscheinlich 1.2.
Deshalb der 1fps Unterschied. (genau warens bei mir 13.3fps)

Ändert aber nix an der Gesamtaussage.

Gaestle
2008-06-09, 13:07:38
nana ;D wenn alle Fanboys hier weg bleiben bin ich ja ganz alleine hier.
Ich werde auf jedenfall nicht kaufen egal wie schnell das Teil ist,abwarten Tee trinken,die Hinweise von Ail sind zu offensichtlich das da was schnelleres kommt.

Ich denke, dass "schnellere" wird eine Ultra sein, oder so. Nur ein bißchen schneller als die GTX280 und gut für die Kunden, um den Preis zu senken. Siehe G80GTX vs. G80Ultra. Eventuell die Ultra auch auf G200b-Basis, um die Abwärme und den Stomverbrauch beherrschbar zu halten.

IMHO ist Intels Tick-Tock-Model ähnlich der Strategie von NV. Im Herbst haben wir also zwei Tocks, so wie damals mit Core2 und G8800GTX. Sollte eine gute Zeit sein, um im Falle eines Kaufs lange an oder nahe der Spitze zu sein.

gamingforce
2008-06-09, 13:09:59
fps-mäßig ist Nvidia immer noch der Chef ;) Die performance Krone gehört Nvidia mit Quad SLI= 2x GX2. Und MR haben beide, ATI vielleicht weniger...(aber die fps sind sowieso zu schwach, daher eh keine Option)

Oder hast schon vergessen WER den "die SLi Lüge" thread eröffnet hat? Kein fanboy würde sowas jemals tun ;)

Aber DU wirst sicher NICHT hier in diesem Forum zugeben, daß DU dich bzgl der GTX280 Leistung schwer getäuscht hast-> DU wirst dann einfach durch Abwesenheit glänzen, und das wars.

So schauts aus.

wirste schon sehen, abwesend bin ich mit sicheheit nicht ich lach mich dann bloss schalpp wenn du kommst "30 FPS fühlen sich sehr flüssig an" die es sicher nicht sind ;D

Gast
2008-06-09, 13:11:03
Kannst du das erläutern? Ich weiß nicht, was du meinst ;(

Das kann ich, leider sogar aus erster Hand. Wenn du ein X38 oder X48 basierendes Mainboard hast und eine 3870X2 damit betreibst kanns sein dass du in einen Bug läufst. Am schnellsten findet man es raus wenn man ganz einfach Steam startet. Das basiert auf Flash und wenn es angezeigt wird freezt der gesamte Rechner. Das war eine ziemlich ernüchternde Erkenntnis .. als Besitzer von 2 X2en. Mit so einem lächerlichen Bug hat ATI bei mir für die nächsten 3 Jahre keine Meter mehr, komme was wolle. Jedesmal wenn ich auf ATI umgestiegen bin war ich hinterher der Dumme weil ich immer in Bugs lief, diesmal in einen extrem argen sogar.

AnarchX
2008-06-09, 13:11:33
Diagramme oder ähnliches nicht ohne Quelle verlinken, da die Werte dann nicht mehr nachvollziehbar sind.
Zudem sollte man auch dazu schreiben was man damit ausdrücken will.
Ansonsten wird so ein Post als Trash klassifiziert und entsprechend entsorgt.

4711
2008-06-09, 13:11:45
Ich denke er hat nicht nur NV gemeint,ich werde auf jedenfall bis Ende des Jahres warten,mal sehen was da ganz schnell noch aus der Schublade kommt wenn die 4870X2 da ist.

tombman
2008-06-09, 13:12:02
wirste schon sehen, abwesend bin ich mit sicheheit nicht ich lach mich dann bloss schalpp wenn du kommst "30 FPS fühlen sich sehr flüssig an" die es sicher nicht sind ;D
Lol, du hast selbst gesagt, DEINE 30 CF fps fühlen sich in Crysis spielbar an. Ich wiederhole: MIT CF!!!
Und dann sollen 30 SINGLE GPU fps nicht flüssig sein, nur weil sie von Nvidia kommen?

Schach-Matt.

Adam D.
2008-06-09, 13:13:09
wirste schon sehen, abwesend bin ich mit sicheheit nicht ich lach mich dann bloss schalpp wenn du kommst "30 FPS fühlen sich sehr flüssig an" die es sicher nicht sind ;D
Könntet ihr mal damit aufhören? Das ist hier Kindergarten-Niveau, yipee yah yeh.

Das kann ich, leider sogar aus erster Hand. Wenn du ein X38 oder X48 basierendes Mainboard hast und eine 3870X2 damit betreibst kanns sein dass du in einen Bug läufst. Am schnellsten findet man es raus wenn man ganz einfach Steam startet. Das basiert auf Flash und wenn es angezeigt wird freezt der gesamte Rechner. Das war eine ziemlich ernüchternde Erkenntnis .. als Besitzer von 2 X2en. Mit so einem lächerlichen Bug hat ATI bei mir für die nächsten 3 Jahre keine Meter mehr, komme was wolle. Jedesmal wenn ich auf ATI umgestiegen bin war ich hinterher der Dumme weil ich immer in Bugs lief, diesmal in einen extrem argen sogar.
Aha, ok. Davon hab ich tatsächlich bis heute nichts gehört. Andere Grafikkarten- oder Chipsatz-Treiber haben auch keine Besserung gebracht? Ist natürlich doof gelaufen, aber deshalb gleich ATi abschwören, das solltest du nicht :wink:

4711
2008-06-09, 13:14:54
Ich denke Schach-Matt sind alle die,die jetzt losrennen und den G200 kaufen,wetten und vorallem die die wieder knausrig sind und sich die kleine kaufen.

Adam D.
2008-06-09, 13:16:45
Ich denke Schach-Matt sind alle die,die jetzt losrennen und den G200 kaufen,wetten und vorallem die die wieder knausrig sind und sich die kleine kaufen.
Wieso? Dass bald ein Nachfolger kommt, ist sowas von klar, weil es immer so ist. Damit kann man einfach nicht argumentieren. Wer es jetzt schnell haben will, muss halt 'nen G200 kaufen, wer warten kann, tut dies bis der 55nm-Refresh kommt.

tombman
2008-06-09, 13:16:57
Ich denke Schach-Matt sind alle die,die jetzt losrennen und den G200 kaufen,wetten und vorallem die die wieder knausrig sind und sich die kleine kaufen.

11. Gebot: Du sollst keine verkrüppelten Karten kaufen :devil:

Wie lange hat die G80 GTX gehalten? Und wie lange die G80 GTS? Eben :)

dildo4u
2008-06-09, 13:18:55
Wieso? Dass bald ein Nachfolger kommt, ist sowas von klar, weil es immer so ist. Damit kann man einfach nicht argumentieren. Wer es jetzt schnell haben will, muss halt 'nen G200 kaufen, wer warten kann, tut dies bis der 55nm-Refresh kommt.
Ebend viel schneller wird der Refresh nicht.Die GTX280 kann die neue 8800GTX werden gerade jetzt wo kein anderer Hersteller mher solche Monster GPUs baut.Ich glaub dem High End User sind 40Watt Mherverbrauch egal imo hat so gut wie Keiner Freiwillig von 8800GTX auf 9800GTX umgerüstet nur um ein paar Watt zu sparen.Davon ab ist der Sprung von 65 auf 55nm auch viel kleiner als von 90 auf 65nm so viel sparen wird man da nicht für NV wirds halt billiger den G200 zu produzieren.

AnarchX
2008-06-09, 13:21:49
11. Gebot: Du sollst keine verkrüppelten Karten kaufen :devil:

Wie lange hat die G80 GTX gehalten? Und wie lange die G80 GTS? Eben :)

Wobei der GTX 260 diesmal nur "die Hand fehlt und nicht der ganze Arm". ;)

Ich denke doch das die GTX 260 sich auch attraktiv positionieren wird.

Gast
2008-06-09, 13:21:58
24"-Displays gibts inzwischen ab 300€, das gab man vor nichtmal allzu langer Zeit noch für 19" aus. Dank Yuraku kann man dafür sogar schon auf TN verzichten, wenn auch bei bescheidener Verarbeitung :D .


bei lenovo gibt es das auch mit guter verarbeitung, zwar nur 22", aber 1920x1200 ;)

Gaestle
2008-06-09, 13:22:09
Ich denke er hat nicht nur NV gemeint,ich werde auf jedenfall bis Ende des Jahres warten,mal sehen was da ganz schnell noch aus der Schublade kommt wenn die 4870X2 da ist.

NV kann auch nicht zaubern. Evtl. eine GX2 auf GTX260-Basis? Ich denke, die wird wohl erst in 2009 kommen (aber dass sie kommt, glaube ich auch).
Un d bei der X2 steht und fällt ja offenbar vieles mit der Microruckler-Problematik. Ich hoffe, dass sie (AMD) das gelöst haben und es nicht nur Marketing ist. (Gilt auch für die GX2)

4711
2008-06-09, 13:22:41
wir sollten die G80 Serie (bis auf eine Ausnahme)außen vor lassen,so was wird es nie wieder geben.
Und der G200 der jetzt gekauft wird hält max.bis Ende des Jahres darauf würd ich Haus und Hof verwetten.
Und ich meine keine Ultra auf der Basis des jetzigen G200 die kommt im Leben nicht.

4711
2008-06-09, 13:23:47
NV kann auch nicht zaubern. Evtl. eine GX2 auf GTX260-Basis? Ich denke, die wird wohl erst in 2009 kommen (aber dass sie kommt, glaube ich auch).
Ne GX2 auf der Basis des jetzigen G200 wird es auch nie geben,wie willste das Monster kühlen.
Und ne GX2 auf der Basis hätte mit MR so wenig zutun wie G200 SLI.

Gast
2008-06-09, 13:24:06
Unterschiedliche crysis .exe ... ich hatte nur 1.1, die hatten wahrscheinlich 1.2.
Deshalb der 1fps Unterschied. (genau warens bei mir 13.3fps)

Ändert aber nix an der Gesamtaussage.

Easy Tombam war nur noch ein Vergleich mit 2 HW Seiten dazu

dildo4u
2008-06-09, 13:25:50
Ne GX2 auf der Basis des jetzigen G200 wird es auch nie geben,wie willste das Monster kühlen.
55nm und man nimmt "nur" zwei GTX260 geht locker und verbaucht ca so viel wie eine X2 4870.Eine GTX260 wird in 55nm nicht mher als ein G92 verbrauchen.

4711
2008-06-09, 13:28:10
Ich schrieb mit der jetzt kommenden G200...die 55er Variante wird das Monster sowas von verhauen und die 4870x2 sowieso.

tombman
2008-06-09, 13:29:12
Vielleicht geht sogar 2x 280er. Dann aber nur mit 55nm und vielleicht geringerem Takt + weniger Spannung.

Gast
2008-06-09, 13:29:42
Leider sind wir hier erst bei Frame 425, es kommen noch 1600. Ich hab jetzt nicht im Kopf wie der Frameverlauf im Crysis Benchmark weitergeht.

aber wir haben den AVG-wert des letzten durchlaufes und bereits 2 loops, also fällt der erste, üblicherweise langsamere durchgang schon mal raus.

AffenJack
2008-06-09, 13:30:53
Ich schrieb mit der jetzt kommenden G200...die 55er Variante wird das Monster sowas von verhauen und die 4870x2 sowieso.

Glaube ich nicht, in erster Linie gehts bei 55nm um Yield, es wird denke ich dann ne ultra geben mit max 10% vorsprung und das wars

edit: zumindest in diesem jahr

dildo4u
2008-06-09, 13:31:07
Ich schrieb mit der jetzt kommenden G200...die 55er Variante wird das Monster sowas von verhauen und die 4870x2 sowieso.
Klar wenn dann in 55nm Vor Q1 2009 braucht NV eine GX2 G200 Karte eh nicht.

Gaestle
2008-06-09, 13:33:12
wir sollten die G80 Serie (bis auf eine Ausnahme)außen vor lassen,so was wird es nie wieder geben.
Und der G200 der jetzt gekauft wird hält max.bis Ende des Jahres darauf würd ich Haus und Hof verwetten.
Und ich meine keine Ultra auf der Basis des jetzigen G200 die kommt im Leben nicht.

Ich denke, Du liegst doppelt falsch. Der G200 wird massiv Mehrleistung bringen, NV hat das in der Vergangenheit schon mehrfach durchgezogen. Denk an GF3 vs. GF4 oder an GF-FX vs. GF6.
Und ich rechne relativ fest damit, dass im Herbst/Winter eine 280Ultra kommt. Sie würde IMHO sehr gut zur aktuellen Strategie von NV passen.
Meine Quelle ist dieses Forum hier.

4711
2008-06-09, 13:33:38
Vielleicht geht sogar 2x 280er. Dann aber nur mit 55nm und vielleicht geringerem Takt + weniger Spannung.
Jo und wenn man ihr das Kleidchen ausziehen kann wie der "alten" kannste dem Ding GPU geben bis zum abwinken,vom Bandbreitenlimit ist dann weit und breit nix mehr zusehen,ich hab sie richtig lieb gewonnen.

Gaestle
2008-06-09, 13:35:04
Glaube ich nicht, in erster Linie gehts bei 55nm um Yield, es wird denke ich dann ne ultra geben mit max 10% vorsprung und das wars

edit: zumindest in diesem jahr

Sehe ich auch so.

Gast
2008-06-09, 13:35:25
also entweder will der uns verscheissern (was ich eher glaube) oder das mit sicherheit nicht Very High gewesen weil sieht man schön auf dem Foto das der Berg verwaschen ist und die Details fehlen genauso sieht das aus wenn man Shader auf Medium hat :)

mit 32bit ist der berg ohne tweaks immer verwaschen, nur mit 64bit ist er scharf.

4711
2008-06-09, 13:36:00
Ich denke, Du liegst doppelt falsch. Der G200 wird massiv Mehrleistung bringen, NV hat das in der Vergangenheit schon mehrfach durchgezogen. Denk an GF3 vs. GF4 oder an GF-FX vs. GF6.
Und ich rechne relativ fest damit, dass im Herbst/Winter eine 280Ultra kommt. Sie würde IMHO sehr gut zur aktuellen Strategie von NV passen.
Meine Quelle ist dieses Forum hier.

NVs Strategie zur Zeit ist den Leuten mit Aufgüssen die Kohle aus der Tasche zu ziehen sonst nix und da wird sich beim G200 auch nix ändern,wer das noch nicht geschnallt hat tut mir leid.

4711
2008-06-09, 13:36:50
Sehe ich auch so.
Lassen wir uns überraschen und ich werde Recht behalten.

Gaestle
2008-06-09, 13:40:31
NVs Strategie zur Zeit ist den Leuten mit Aufgüssen die Kohle aus der Tasche zu ziehen sonst nix und da wird sich beim G200 auch nix ändern,wer das noch nicht geschnallt hat tut mir leid.

Denk an Intels Tick-Tock-Strategie, das ist im Grunde ähnlich. Am Anfang einen Kracher (G80 / Conroe) und dann Technologie verfeinern (G92 / Penryn).
G200 wäre wieder eine neuer Kracher, genau wie Nehalem.

Dies macht NV ja auch schon längere Zeit.
(siehe z.B. FX5800 vs. FX5900 - auch wenn die FX-Serie nicht so gut war, dass Modell ist das Gleiche und siehe GF6 vs. GF 7)


Und ne GX2 auf der Basis hätte mit MR so wenig zutun wie G200 SLI.

Warum?

Gast
2008-06-09, 13:42:38
Wenn die ~34FPS be 1920x1200 ohne AA AF halbwegs stimmen, dann wird die Luft im weiteren Game verlauf ziemlich dünn :( z.b. auf dem Flugzeugträger.

Wie war das? Auf 2560x1600 spielbar mit AA u.AF?

tombman
2008-06-09, 13:44:11
Wenn die ~34FPS be 1920x1200 ohne AA AF halbwegs stimmen, dann wird die Luft im weiteren Game verlauf ziemlich dünn :( z.b. auf dem Flugzeugträger.

nö, wirds nicht, weil oc gibts auch noch :)

gamingforce
2008-06-09, 13:45:07
mit 32bit ist der berg ohne tweaks immer verwaschen, nur mit 64bit ist er scharf.

:|

ganz sicher nicht, mein Foto ist auch 32 Bit und ist scharf:rolleyes:

reunion@work
2008-06-09, 13:46:47
55nm und man nimmt "nur" zwei GTX260 geht locker und verbaucht ca so viel wie eine X2 4870.


Träum weiter. Zwei solche Monster-Dice, 2x NVIO, 2GB VRAM, >300W TDP, etc. Daran brauchst du nichtmal denken.


Eine GTX260 wird in 55nm nicht mher als ein G92 verbrauchen.

Jetzt wird es wirklich witzig. Beinahe doppelte Transistorenanzahl und der bekanntlich kaum stromsparendere 55nm Prozess. Damit kommst du nichtmal annähernd auf G92 Verbauchswerte.

Gaestle
2008-06-09, 13:46:58
Vielleicht geht sogar 2x 280er. Dann aber nur mit 55nm und vielleicht geringerem Takt + weniger Spannung.

Kann auch sein.
Dann würde Sie wahrscheinlich später kommen, als Q1/ 2009, was nach meiner Meinung vielleicht mit 2xGTX260 möglich wäre.
Ich könnte mir vorstellen, das G200b nicht mehr GTX280 heißt, sondern anders (Ultra oder 290).

Gast
2008-06-09, 13:47:14
Wenn die ~34FPS be 1920x1200 ohne AA AF halbwegs stimmen, dann wird die Luft im weiteren Game verlauf ziemlich dünn :( z.b. auf dem Flugzeugträger.

Wie war das? Auf 2560x1600 spielbar mit AA u.AF?

Laut der marketingfolie bei einem SLI system.

Gaestle
2008-06-09, 13:48:40
Träum weiter. Zwei solche Monster-Dice, 2x NVIO, 2GB VRAM, >300W TDP, etc. Daran brauchst du nichtmal denken.


Wir wurden in der Vergangenheit diesbezüglich schon von beiden Kontrahenten überrascht.

Gast
2008-06-09, 13:51:01
:|

ganz sicher nicht, mein Foto ist auch 32 Bit und ist scharf:rolleyes:

dann hast du eben den entprechenden eintrag in der config gesetzt. @default sieht es genauso aus.

reunion@work
2008-06-09, 13:51:08
Wir wurden in der Vergangenheit diesbezüglich schon von beiden Kontrahenten überrascht.

Wo denn?

Gast
2008-06-09, 13:51:58
Träum weiter. Zwei solche Monster-Dice, 2x NVIO, 2GB VRAM, >300W TDP, etc. Daran brauchst du nichtmal denken.


NVIO bräuchte man nur 1x, es sei denn man will der karte 4 ausgänge spendieren.

gamingforce
2008-06-09, 13:53:43
NVIO bräuchte man nur 1x, es sei denn man will der karte 4 ausgänge spendieren.

toll, weil NV es ja auch auf Tasche hat mit Multimonitoring und SLI :rolleyes:

Gast
2008-06-09, 13:54:21
Aus dem beyond3d-Forum:

The strange numbers are the scores of the 8800GTX and the 8800Ultra. The Ultra improved the score around 20% from the old driver to the new one ( roughly the same improvement as the GTX280 X4100 -> X4800 ) but the score of the 8800GTX did go down a little bit ( X2200 -> X2100 ). So the results could be true and the difference between the 8800GTX and the Ultra could have been a mistake from Nvidia. They crippled the GTX but forgot to do the same with the Ultra. Same procedure as last year (AFAIR NV40 -> G70).

mictasm
2008-06-09, 13:56:12
Aus dem beyond3d-Forum:

The strange numbers are the scores of the 8800GTX and the 8800Ultra. The Ultra improved the score around 20% from the old driver to the new one ( roughly the same improvement as the GTX280 X4100 -> X4800 ) but the score of the 8800GTX did go down a little bit ( X2200 -> X2100 ). So the results could be true and the difference between the 8800GTX and the Ultra could have been a mistake from Nvidia. They crippled the GTX but forgot to do the same with the Ultra. Same procedure as last year (AFAIR NV40 -> G70).

Last year?

Gaestle
2008-06-09, 13:58:33
Wo denn?

Viele haben ~700mio. Transis wegen Abwärme und Stromverbrauch nicht für möglich gehalten, viele haben gedacht, dass eine GX2 7900 nicht möglich sei....
Das ist zumindest meine Erinnerung. Ich werde jetzt nicht hier in den Tiefen des Forums wühlen, sorry.

Gast
2008-06-09, 14:15:45
:|

ganz sicher nicht, mein Foto ist auch 32 Bit und ist scharf:rolleyes:


so sieht es standardmäßig ohne .ini-tweaking aus:

http://img296.imageshack.us/img296/2805/screenshot0000rl5.th.jpg (http://img296.imageshack.us/img296/2805/screenshot0000rl5.jpg)
http://img296.imageshack.us/img296/5405/screenshot0001eh5.th.jpg (http://img296.imageshack.us/img296/5405/screenshot0001eh5.jpg)

natürlich kann man auch in 32bit die qualität auf 64bit-niveau heben, aber eben nicht wenn man bei den schaltern bleibt die crysis vorgesehen hat.

Gast
2008-06-09, 14:16:52
In einem jahr bekommt man die GTX280 für 250€ hinterher geschmissen^^

Gaestle
2008-06-09, 14:18:39
so sieht es standardmäßig ohne .ini-tweaking aus:


Ist das am Rand 'ne Bewegungsunschärfe?

In einem jahr bekommt man die GTX280 für 250€ hinterher geschmissen^^
Ja, ist normal so. Ist bei anderem PC-Kram auch so, Prozzis, RAM, HDDs etc.

Gast
2008-06-09, 14:19:53
so sieht es standardmäßig ohne .ini-tweaking aus:

http://img296.imageshack.us/img296/2805/screenshot0000rl5.th.jpg (http://img296.imageshack.us/img296/2805/screenshot0000rl5.jpg)
http://img296.imageshack.us/img296/5405/screenshot0001eh5.th.jpg (http://img296.imageshack.us/img296/5405/screenshot0001eh5.jpg)

natürlich kann man auch in 32bit die qualität auf 64bit-niveau heben, aber eben nicht wenn man bei den schaltern bleibt die crysis vorgesehen hat.

&4bit sieht besser aus und läuft Komischerweise auch leicht schneller :confused:

tombman
2008-06-09, 14:20:03
In einem jahr bekommt man die GTX280 für 250€ hinterher geschmissen^^
Und in zwei Jahren erst, oder DREI ^^^^^^^^^^^^

:rolleyes:

Superheld
2008-06-09, 14:24:35
@Gast

das mit den unscharfen Bergen ist ein Bug:mad:

wenn man Crysis neuinstalliert hat ist alles OK, sobald Tweaks ins Spiel kommen sindse für immer unscharf......:(

..außer man nimmt den Tweakk dafür;)

Gast
2008-06-09, 14:37:53
@Gast

das mit den unscharfen Bergen ist ein Bug:mad:

wenn man Crysis neuinstalliert hat ist alles OK, sobald Tweaks ins Spiel kommen sindse für immer unscharf......:(

..außer man nimmt den Tweakk dafür;)

Damit wird aber Tex.streaming deaktiviert :((

Gast
2008-06-09, 14:47:21
Will endlich zwei GTX280er, kann es schon nicht mehr abwarten und die Ultras müssen langsam raus...

Gast
2008-06-09, 14:48:28
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Sieht nicht gut aus für NV in dieser Runde, bleibt zwar finale Tests abzuwarten, derartige Meldungen aus dem XS Forum haben aber in der Vergangenheit meistens Substanz gehabt.

Schlammsau
2008-06-09, 14:58:03
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Sieht nicht gut aus für NV in dieser Runde, bleibt zwar finale Tests abzuwarten, derartige Meldungen aus dem XS Forum haben aber in der Vergangenheit meistens Substanz gehabt.

wie zu erwarten war!
Es gibt eindeutig zu viele solcher Meldungen! Da scheint wirklich was dran zu sein!

frix
2008-06-09, 14:58:49
Wer soll das sein? Und wieso soll er eine GTX280 haben?

This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Sieht nicht gut aus für NV in dieser Runde, bleibt zwar finale Tests abzuwarten, derartige Meldungen aus dem XS Forum haben aber in der Vergangenheit meistens Substanz gehabt.

PHuV
2008-06-09, 15:00:44
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Sieht nicht gut aus für NV in dieser Runde, bleibt zwar finale Tests abzuwarten, derartige Meldungen aus dem XS Forum haben aber in der Vergangenheit meistens Substanz gehabt.

Kontra:

http://www.pcgameshardware.de/aid,646672/News/Geforce_GTX_280_Crysis_in_1920x1200_very_high_fluessig/

Die obere linke Ecke des abfotografierten Bildschirms zeigt, dass die Crysis "Island"-Timedemo mit 36,81 Average Fps läuft. Doch weder die Szene im Hintergrund, noch die eingeblendete Eingabekonsole lassen Rückschlüsse auf die verwendeten Settings zu. Angeblich handelt es sich um 1.920x1.200 Bildpunkte mit allen Details auf "very high". Damit wäre die GTX 280 in etwa so schnell wie drei 8800 Ultras.

:eek: 3 Mal so schnell. Heftig.

Schlammsau
2008-06-09, 15:06:12
Kontra:

http://www.pcgameshardware.de/aid,646672/News/Geforce_GTX_280_Crysis_in_1920x1200_very_high_fluessig/


:eek: 3 Mal so schnell. Heftig.

auf PCGH ist das auch nur eine Zusammenfassung aktueller Gerüchte, wie es CB auch immer macht!

wolf-Cottbus
2008-06-09, 15:07:43
Kontra:

http://www.pcgameshardware.de/aid,646672/News/Geforce_GTX_280_Crysis_in_1920x1200_very_high_fluessig/


:eek: 3 Mal so schnell. Heftig.

Hast wohl da nicht zu Ende gelesen. So schnell wie 3 Ultras ist nicht 3 mal so schnell wie eine Ultra.

Gruß Wolf

Anarchy-HWLUXX
2008-06-09, 15:08:19
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Sieht nicht gut aus für NV in dieser Runde, bleibt zwar finale Tests abzuwarten, derartige Meldungen aus dem XS Forum haben aber in der Vergangenheit meistens Substanz gehabt.
LoL, nen Heini schreibt zwei Sätze ohne irgendeine Art von Beweis und trozdem springen die ersten drauf an :rolleyes:

frix
2008-06-09, 15:09:42
So oder so, wenn die Karte auch nur 2x soviel FPS liefert wie eine 8800 ultra ist das schon sehr gut.

w0mbat
2008-06-09, 15:10:16
Der hatte schon immer die Karten früher und es lag bis jetzt auch immer richtig.

frix
2008-06-09, 15:11:57
LoL, nen Heini schreibt zwei Sätze ohne irgendeine Art von Beweis und trozdem springen die ersten drauf an :rolleyes:

Jo echt unglaublich. Ich schreib hier jetzt auch mal, dass meine 280GTX die ich gerade zum testen dahab 3-way-SLI mit 8800Ultra in die tasche steckt.
Einer von euch muss es dann einfach in einem anderen forum quoten. ;D

Gast
2008-06-09, 15:13:06
Mit anspringen hat das nichts zu tun, in der Regel waren Quellen aus dem XS Forum in der Vergangenheit relativ zuverlässig.
Der User ORB ist seit langem SLI User und wenn die GTX280 schon 2x4850 nicht in Schach halten kann, wird sie entweder ein Flop, oder NV muss die Preise deutlich nach unten korrigieren.
Natürlich wird man erst wissen, wie die Karten im verhältnis stehen, wenn man den direkten Vergleich hat, aber die Tendenz, das der G200 die Erwartungen nicht erfüllt, zeichnet sich klar ab.

Schlammsau
2008-06-09, 15:13:16
LoL, nen Heini schreibt zwei Sätze ohne irgendeine Art von Beweis und trozdem springen die ersten drauf an :rolleyes:

es haben schon einige in gewissen Foren das gleiche geschrieben....und zwar das sie 4870X2 schneller sein soll und das die 280GTX überschätzt wird!
Es gibt genausowenig Beweise, dass sie wie viele meinen, 3x schneller als der G80 ist!
Ihr solltet langsam Abstand von diesen utopischen Vorstellungen nehmen und der Realität ins Auge blicken!

James Ryan
2008-06-09, 15:14:32
Der hatte schon immer die Karten früher und es lag bis jetzt auch immer richtig.

Im Vorfeld zum G80-Launch gab es AFAIK ähnliche Berichte.
Darum würde ich auf sowas nicht allzuviel Wert legen, vor allem mit unfertigen Treibern!

MfG :cool:

dildo4u
2008-06-09, 15:14:49
Das wär ziehmlich genau 3mal 8800GT(12fps) G92 Speed.Wär cool wenn die GTX280 das im Schnitt bei alle Games schafft.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

frix
2008-06-09, 15:14:53
es haben schon einige in gewissen Foren das gleiche geschrieben....und zwar das sie 4870X2 schneller sein soll und das die 280GTX überschätzt wird!
Es gibt genausowenig Beweise, dass sie wie viele meinen, 3x schneller als der G80 ist!
Ihr solltet langsam Abstand von diesen utopischen Vorstellungen nehmen und der Realität ins Auge blicken!

Richtig es gibt weder richtige beweise in die eine noch in die andere richtung.
Aber hier wird immer alles direkt als absolut hingestellt und quellen nicht in frage gestellt.

tombman
2008-06-09, 15:15:40
Blöd ist nur, daß selbst am 17. nix klar sein wird, weil ATI ja den launch verschoben hat :mad:

Verläßliche Aussagen wird man wohl erst Anfang July machen können :(

w0mbat
2008-06-09, 15:16:15
@tombman: AMD hat den HD4k Launch NICHT verschoben.

dildo4u
2008-06-09, 15:19:08
@tombman: AMD hat den HD4k Launch NICHT verschoben.
Doch auf den 25 damit nich nur die 4850 gelauncht wird.4870 und GDDR5 sind whol noch Mangelware zu Zeit.

tombman
2008-06-09, 15:19:11
@tombman: AMD hat den HD4k Launch NICHT verschoben.
War da nicht was mit 25.?

Gast
2008-06-09, 15:21:21
This score in Crysis are authentical ... i got very similar FPS on my GTX 280 ...

GTX 280 is not brutal powerfull card! performance is good, but i expected many more ....

According testing of Radeon HD4850 in CF i can say - radeons are better then GTX 280

http://www.xtremesystems.org/forums/showpost.php?p=3047486&postcount=1390

Sieht nicht gut aus für NV in dieser Runde, bleibt zwar finale Tests abzuwarten, derartige Meldungen aus dem XS Forum haben aber in der Vergangenheit meistens Substanz gehabt.

Hab ich von Anfang an gesagt, dass es so kommen wird. Erinnert sich noch jemand an die Meldung von "Projekt Thunder", der Geheimwaffe von ATI. Bald wissen wir mehr!

reunion@work
2008-06-09, 15:21:42
War da nicht was mit 25.?

Es war schon immer der 25.

Gast
2008-06-09, 15:23:17
Ist das am Rand 'ne Bewegungsunschärfe?


du meinst rechts?

ja.

w0mbat
2008-06-09, 15:23:18
Doch auf den 25 damit nich nur die 4850 gelauncht wird.4870 und GDDR5 sind whol noch Mangelware zu Zeit.

Der 25. war schon immer der Launchtag, da wurde nichts verschoben.

reunion@work
2008-06-09, 15:23:29
Wer soll das sein? Und wieso soll er eine GTX280 haben?

Weil OBR regelmäßig Karten vor dem Launch bekommt und seine Aussagen nie falsch waren.

Gast
2008-06-09, 15:24:26
@Gast

das mit den unscharfen Bergen ist ein Bug:mad:


nein, das ist das textur-streaming, welches standardmäßig in 32bit aktiviert und in 64bit deaktiviert ist.

man kann es per .ini auch in 32bit aktivieren, dann sehen beide identisch aus, über die regler im spiel ist das aber nicht möglich.

frix
2008-06-09, 15:28:57
Weil OBR regelmäßig Karten vor dem Launch bekommt und seine Aussagen nie falsch waren.

Also wenn die crysis scores authetisch sind, dann wär das dorch wirklich sehr gut. Ich frage mich, was er dann um alles in der welt erwartet hat?
8800gtx lag bei den settings um die ~13fps
gtx280 bei ~35fps

tombman
2008-06-09, 15:33:00
Also wenn die crysis scores authetisch sind, dann wär das dorch wirklich sehr gut. Ich frage mich, was er dann um alles in der welt erwartet hat?
8800gtx lag bei den settings um die ~13fps
gtx280 bei ~35fps
Ich frag mich auch was daran schlecht sein soll...

Schlammsau
2008-06-09, 15:37:27
Also wenn die crysis scores authetisch sind, dann wär das dorch wirklich sehr gut. Ich frage mich, was er dann um alles in der welt erwartet hat?
8800gtx lag bei den settings um die ~13fps
gtx280 bei ~35fps
Ich frag mich auch was daran schlecht sein soll...

es wäre eine Verdreifachung der Leistung! :nono:
nur 2x so viel ist realistisch!

frix
2008-06-09, 15:39:07
es wäre eine Verdreifachung der Leistung! :nono:

und was passt dir daran jetzt nicht?
Nach den aktuellen spekulationen wenn man die aussage von "ORB" als wahr betrachtet, dann wärs doch fast eine verdreichfachung. (zumindest in crysis)

Gast
2008-06-09, 15:41:09
Mit anspringen hat das nichts zu tun, in der Regel waren Quellen aus dem XS Forum in der Vergangenheit relativ zuverlässig.
Der User ORB ist seit langem SLI User und wenn die GTX280 schon 2x4850 nicht in Schach halten kann, wird sie entweder ein Flop, oder NV muss die Preise deutlich nach unten korrigieren.
Natürlich wird man erst wissen, wie die Karten im verhältnis stehen, wenn man den direkten Vergleich hat, aber die Tendenz, das der G200 die Erwartungen nicht erfüllt, zeichnet sich klar ab.

Die Erwartungen sind auch viel zu hoch. Da kann die GTX280 gar nicht mithalten. Die neue hat nur 23% mehr Texelfüllrate; 37% mehr Bandbreite und (je nachdem ob das "missing MUL" bei Spielen benutzt werden kann oder nicht) 60% - 140% mehr Shaderpower. Und bei den ATi-Karten hat man ja gesehen das Shaderpower alleine nicht reicht.

Wie soll also diese "geringfügig stärkere" Karte die übersteigerten Erwartungen der Fans erfüllen? Jeder geht davon aus das es wieder so läuft wie beim G70 -> G80 Sprung. Aber da waren die Rohdaten der G80 auch gleich wesentlich besser als bei der G70

Anarchy-HWLUXX
2008-06-09, 15:41:17
es haben schon einige in gewissen Foren das gleiche geschrieben....und zwar das sie 4870X2 schneller sein soll und das die 280GTX überschätzt wird!
Es gibt genausowenig Beweise, dass sie wie viele meinen, 3x schneller als der G80 ist!
Ihr solltet langsam Abstand von diesen utopischen Vorstellungen nehmen und der Realität ins Auge blicken!
Und wenn sich diese leute alle auf die werte des andere beziehen dann ist es im endeffekt trozdem nix ... für mich ist jedenfalls immernoch NICHTS wirklich bestätigt was die Performance angeht, alles bisher scheint mir wenig glaubhaft - besonders in der Art der Darstellung.

Wenn da leute sind die die Karte haben ist es doch unglaubwürdig wenn diese nur sagen "ja die werte stimmen" anstatt eigene Benches zu posten ...

Schlammsau
2008-06-09, 15:41:18
und was passt dir daran jetzt nicht?

wenn der Typ schreibt, die Karte liegt unter den erwartungen und sie ist wirklich 3x schneller als eine 9800GTX?? Was hat der dann erwartet?
Das sie 6x schneller ist?
Also entweder er meint andere Crysis Benches oder die Auflösung war nicht 1900x1200 oder es wurde nicht mit Very High gebencht! *Punkt*
Bleibt realistisch!

Gast
2008-06-09, 15:43:02
Das ist keine Begründung.

Gast
2008-06-09, 15:47:02
Die Erwartungen sind auch viel zu hoch. Da kann die GTX280 gar nicht mithalten. Die neue hat nur 23% mehr Texelfüllrate; 37% mehr Bandbreite und (je nachdem ob das "missing MUL" bei Spielen benutzt werden kann oder nicht) 60% - 140% mehr Shaderpower. Und bei den ATi-Karten hat man ja gesehen das Shaderpower alleine nicht reicht.

Wie soll also diese "geringfügig stärkere" Karte die übersteigerten Erwartungen der Fans erfüllen? Jeder geht davon aus das es wieder so läuft wie beim G70 -> G80 Sprung. Aber da waren die Rohdaten der G80 auch gleich wesentlich besser als bei der G70


Naja, die Erwartungen richten sich ja nach dem Preis, wenn Nvidia die GTX 280 bei 600,- Euro ansetzt, erwarten die Leute auch Leistung für 600,-.
Von daher kommen die Erwartungen ja nicht aus dem Nichts, sondern haben ihre Grundlage in den genannten Preisen.
Wenn es dann wirklich so ist, das ein 4850 CF vergleichbare, oder sogar bessere Performance für 400,- abliefert, ist das entäuschend.

Möglich wäre natürlich noch, das Nvidia in der Realität deutlich geringere Preise nimmt, war ja bei der 9800GTX auch so, die wurde ja auch erst auf >300 Euro taxiert.

tombman
2008-06-09, 15:49:15
es wäre eine Verdreifachung der Leistung! :nono:
nur 2x so viel ist realistisch!
Isses nicht, sondern nur 2.7x.

Kann durchaus sein.

frix
2008-06-09, 15:50:10
wenn der Typ schreibt, die Karte liegt unter den erwartungen und sie ist wirklich 3x schneller als eine 9800GTX?? Was hat der dann erwartet?
Das sie 6x schneller ist?
Also entweder er meint andere Crysis Benches oder die Auflösung war nicht 1900x1200 oder es wurde nicht mit Very High gebencht! *Punkt*
Bleibt realistisch!

Jo wahrscheinlich bezieht er sich zudem noch auf farcry benches...
Wenn ich alle spekulationen und leaks gegeneinander halte, dann siehts doch eher nach knapp 2.7x so schnell aus. Abgesehen davon würde ich auch schon 2x so schnell für ordentlich halten.

Gast
2008-06-09, 15:50:20
Die hohe Mehrleistung bei diesen Settings kommt hauptsächlich durch den größeren Speicher und die viel höhere Bandbreite und nicht durch die reine Rohleistung der GPU.
Bei normaler Auflösung (1280x1024) und Standardsettings wird die GTX280 keine 30% schneller sein als die Vorgängergeneration, das wurde schon durch die geposteten 3DMark-Benches bestätigt.

tombman
2008-06-09, 15:52:38
Die hohe Mehrleistung bei diesen Settings kommt hauptsächlich durch den größeren Speicher und die viel höhere Bandbreite und nicht durch die reine Rohleistung der GPU.
Bei normaler Auflösung (1280x1024) und Standardsettings wird die GTX280 keine 30% schneller sein als die Vorgängergeneration, das wurde schon durch die geposteten 3DMark-Benches bestätigt.
Bei der Auflösung hättest du auch ein megafettes Cpu Limit :rolleyes:

crux2005
2008-06-09, 15:53:08
"GeForce GTX 200 GPUs provide 50-100% more performance over prior generation GPUs ..."

;)

frix
2008-06-09, 15:54:16
Die hohe Mehrleistung bei diesen Settings kommt hauptsächlich durch den größeren Speicher und die viel höhere Bandbreite und nicht durch die reine Rohleistung der GPU.
Bei normaler Auflösung (1280x1024) und Standardsettings wird die GTX280 keine 30% schneller sein als die Vorgängergeneration, das wurde schon durch die geposteten 3DMark-Benches bestätigt.

Wen jucken denn 1280x1024 bei dieser karte?

tombman
2008-06-09, 15:54:17
"GeForce GTX 200 GPUs provide 50-100% more performance over prior generation GPUs ..."

;)
"No, they provide 1000% more..."

;)

dildo4u
2008-06-09, 15:54:20
Die hohe Mehrleistung bei diesen Settings kommt hauptsächlich durch den größeren Speicher und die viel höhere Bandbreite und nicht durch die reine Rohleistung der GPU.
Bei normaler Auflösung (1280x1024) und Standardsettings wird die GTX280 keine 30% schneller sein als die Vorgängergeneration, das wurde schon durch die geposteten 3DMark-Benches bestätigt.
CPU Limit zumindest bei den alten 3DMarks bei Vantage macht die GTX280 auch ihre 13000 Punkte unter 1280*1024 eine 8800GTX ca 6000 wenn die CPU mit Rund 4Ghz läuft.Als Alternavie holt man sich ein Nehalem im November dann reichen auch 3.2Ghz

James Ryan
2008-06-09, 15:54:23
Die hohe Mehrleistung bei diesen Settings kommt hauptsächlich durch den größeren Speicher und die viel höhere Bandbreite und nicht durch die reine Rohleistung der GPU.
Bei normaler Auflösung (1280x1024) und Standardsettings wird die GTX280 keine 30% schneller sein als die Vorgängergeneration, das wurde schon durch die geposteten 3DMark-Benches bestätigt.

Wer bitteschön benutzt für 1280*1024 und "Standardsettings" auch eine GTX 280? :|

MfG :cool:

crux2005
2008-06-09, 15:55:03
"No, they provide 1000% more..."

;)

nein :biggrin:

frix
2008-06-09, 15:59:40
Die hohe Mehrleistung bei diesen Settings kommt hauptsächlich durch den größeren Speicher und die viel höhere Bandbreite und nicht durch die reine Rohleistung der GPU.
Bei normaler Auflösung (1280x1024) und Standardsettings wird die GTX280 keine 30% schneller sein als die Vorgängergeneration, das wurde schon durch die geposteten 3DMark-Benches bestätigt.

Eine grafikkarte besteht eben nicht nur aus der gpu. Ist doch letztendlich egal wodurch sie mehr leistung hat. Die FPS zählen.

Gaestle
2008-06-09, 16:00:55
Es ist doch wurscht, ob die Karte zwei- oder dreimal so schnell ist, wie eine 8800GTX. Es ist so oder so aller Voraussicht nach ein fetter speed-Boost und eine deutlich größerer Sprung als von G80 zu G92.
Wegen HD4k:
Der Kundschaft kann es nur Recht sein, wenn auch AMD gute Chips bringt.

Gast
2008-06-09, 16:01:28
Wer soll das sein? Und wieso soll er eine GTX280 haben?
Guck dir doch mall sein sys an.8800 Ultra sli 8800 GT sli.

Im Extremeforum gibts genug leute die schon imemr früher dran waren....

Gast
2008-06-09, 16:03:43
Mit anspringen hat das nichts zu tun, in der Regel waren Quellen aus dem XS Forum in der Vergangenheit relativ zuverlässig.
Der User ORB ist seit langem SLI User und wenn die GTX280 schon 2x4850 nicht in Schach halten kann, wird sie entweder ein Flop, oder NV muss die Preise deutlich nach unten korrigieren.
Natürlich wird man erst wissen, wie die Karten im verhältnis stehen, wenn man den direkten Vergleich hat, aber die Tendenz, das der G200 die Erwartungen nicht erfüllt, zeichnet sich klar ab.


Ein flop wird die Karte mit Sicherheit nicht.

Ati hat aber bei der 4800 Serie irgendwie getrixt.Bis jetzt gibt es noch keine genauen daten zur 4800 Serie.Vielleicht ist das ding einfach überall aufgebohrt...

Gast
2008-06-09, 16:03:54
Wer bitteschön benutzt für 1280*1024 und "Standardsettings" auch eine GTX 280? :|

MfG :cool:

Ein Vergleich mit einer 9800GTX mit 1GB Speicher und 512bit Interface wäre interessant. Dann würde die GTX280 bestimmt nicht mehr so toll aussehen. Von der reinen Rohleistung der GPU ausgehend sind nicht mehr als 30% Leistungszuwachs drin.

tombman
2008-06-09, 16:05:54
Von der reinen Rohleistung der GPU ausgehend sind nicht mehr als 30% Leistungszuwachs drin.
Lol, was für ein Schwachsinn...240 SP vs 128 SP,

Selbst ohne jede Verbesserung wäre das weit >30% :rolleyes:

Gast
2008-06-09, 16:07:48
http://img247.imageshack.us/img247/5663/capture09062008160136hx5.png

Gast
2008-06-09, 16:10:51
Ein flop wird die Karte mit Sicherheit nicht.

Ati hat aber bei der 4800 Serie irgendwie getrixt.Bis jetzt gibt es noch keine genauen daten zur 4800 Serie.Vielleicht ist das ding einfach überall aufgebohrt...

Ein Flop in Relation auf den Preis, das die Karte insbesondere in hohen Auflösungen und Quality Settings ihren Vorgängern ein gutes Stück überlegen sein wird, ist wohl klar.
Das NV mit dem G200 nicht auf das P/L Niveau der Midrange/Performance Karten von Ati kommt, ist auch logisch, trotzdem muss die Relation halbwegs stimmen und es zeichnet sich ab, das eben in diesem Punkt der G200 zumindest auf Basis der bekannten Preisrahmen nicht vollens überzeugen kann.

tombman
2008-06-09, 16:12:26
http://img247.imageshack.us/img247/5663/capture09062008160136hx5.png
Ich komme mit SLI @ OC (!!!) auf nicht mehr als 38Gtex/s (XP, Vista isses 35Gtex/s).
Und EINE GTX280 kommt schon auf 48Gtex/s -> ownage? ;)

James Ryan
2008-06-09, 16:13:30
Ein Vergleich mit einer 9800GTX mit 1GB Speicher und 512bit Interface wäre interessant. Dann würde die GTX280 bestimmt nicht mehr so toll aussehen. Von der reinen Rohleistung der GPU ausgehend sind nicht mehr als 30% Leistungszuwachs drin.

Die GTX 280 ist Nachfolger der Gf 8800 GTX/Ultra, und nicht von der Krüppel-9800 GTX. ;)
Und wie tombman schon geschrieben hat, beträgt die Rohleistung der GTX 280 GPU etwas mehr als 30%!

MfG :cool:

Gast
2008-06-09, 16:21:24
Wie soll also diese "geringfügig stärkere" Karte die übersteigerten Erwartungen der Fans erfüllen? Jeder geht davon aus das es wieder so läuft wie beim G70 -> G80 Sprung. Aber da waren die Rohdaten der G80 auch gleich wesentlich besser als bei der G70

von den reinen rohdaten her wäre die kleine ausführung des G80 (8800GTS-640) schwächer als die 7900. wie es mit der tatsächlichen leistung aussieht wissen wir ja alle.

reunion@work
2008-06-09, 16:21:42
Ich komme mit SLI @ OC (!!!) auf nicht mehr als 38Gtex/s (XP, Vista isses 35Gtex/s).
Und EINE GTX280 kommt schon auf 48Gtex/s -> ownage? ;)

Du kommst mit einer GTX@default schon auf 36.8GTexel/s peak.

tombman
2008-06-09, 16:23:07
Du kommst mit einer GTX@default schon auf 36.8GTexel/s peak.
Ich spreche nicht von peak, sondern von real gemessenen 3dm06 multitexture Werten...

crux2005
2008-06-09, 16:23:39
32 * 575 = 18,4 GTexels/s * 2 (SLI) = max. 36,8 GTexels/s

reunion@work
2008-06-09, 16:24:40
Ich spreche nicht von peak, sondern von real gemessenen 3dm06 multitexture Werten...

Die GTX 280 Werte sind auch peak und nicht real gemessen. Beim 3dmark Multitexturing-Test limitiert die Bandbreite.

reunion@work
2008-06-09, 16:25:46
32 * 575 = 18,4 GTexels/s * 2 (SLI) = max. 36,8 GTexels/s

Wen interessiert bilineares Single-Texturing?

Gast
2008-06-09, 16:26:31
Die Erwartungen sind auch viel zu hoch. Da kann die GTX280 gar nicht mithalten. Die neue hat nur 23% mehr Texelfüllrate; 37% mehr Bandbreite und (je nachdem ob das "missing MUL" bei Spielen benutzt werden kann oder nicht) 60% - 140% mehr Shaderpower. Und bei den ATi-Karten hat man ja gesehen das Shaderpower alleine nicht reicht.


bei der transistorenzahl hätte man locker einen "doppelten" G80 untergebracht, da würde es niemanden verwundern wenn auch die leistung entsprechend höher wäre.

dass man aber nicht einfach das G80-design verdoppelt hat kann nur eines bedeuten, nämlich dass man so mehr leistung/transistor bekommt, auch wenn es sich nicht in den rohdaten widerspiegelt.

mapel110
2008-06-09, 16:27:55
auch wenn es sich nicht in den rohdaten widerspiegelt.
Von den Rohdaten ist ja auch nicht alles bekannt.

tombman
2008-06-09, 16:28:15
Die GTX 280 Werte sind auch peak und nicht real gemessen. Beim 3dmark Multitexturing-Test limitiert die Bandbreite.
Also was meinst du: wieviel schneller wird die GTX280 bzgl der 8800GTX im Durchschnitt aller benchmarks und games bei nicht cpu limitierten Szenarien? Mal Butter bei de Fische ;)

reunion@work
2008-06-09, 16:35:24
Also was meinst du: wieviel schneller wird die GTX280 bzgl der 8800GTX im Durchschnitt aller benchmarks und games bei nicht cpu limitierten Szenarien? Mal Butter bei de Fische ;)

Ich weiß es nicht. Anhand der Specs würde ich max. 50-100% sagen. Glaubwürdige Quelle sprechen allerdings von > Faktor 2. Es dürfte also noch einige Effizienzsteigerungen gegeben haben.