PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 280/260: (P)Review-Thread


Seiten : 1 [2] 3 4

Grestorn
2008-06-16, 15:38:43
Karte ist da,mehr um 15 Uhr.
nHancer (Modi werden nicht erkannt)und eVGA Tool (OC) laufen noch nicht.

Für nHancer gibt's nen Patch und zwar hier: http://forum.nhancer.com/showthread.php?t=380

pXe
2008-06-16, 15:38:50
auf der ersten Seite
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421569

Oh, enttäuschend. Von meiner 8800 GTS 512 auf die GTX 260 umzusteigen bei der 1680er Auflösung lohnt nicht wirklich, 30% ist grenzwertig. Also erst mal abwarten, vielleicht wird die 280er ja noch ein gutes Stück günstiger.


pXe

Gast
2008-06-16, 15:39:19
Ja in euren Träumen vielleicht. Die Karte ist und bleibt eine Enttäuschung

Unyu
2008-06-16, 15:39:33
http://www.pcgameshardware.de/screenshots/original/2008/06/UT_2560_8x.PNG

dildo4u
2008-06-16, 15:40:11
NVIDIA GTX 260 & Zotac GTX 280 AMP!

http://www.driverheaven.net/reviews.php?reviewid=579

ne X2 hält die GTX 280 ziemlich gut in Schach (bei Assassins Creed, HL2 und Oblivion)

Wirklich flott ist die GXT 280 in WIX .. ähm sorry WIC ;) und GRID

Jup

http://www.driverheaven.net/reviewimages/zotac_280_gtx_nv_260_gtx/swf/jpg/grid.jpg

http://www.driverheaven.net/reviewimages/zotac_280_gtx_nv_260_gtx/swf/jpg/wic.jpg

http://www.driverheaven.net/reviewimages/zotac_280_gtx_nv_260_gtx/swf/jpg/r6v2.jpg

http://www.driverheaven.net/reviewimages/zotac_280_gtx_nv_260_gtx/swf/jpg/lostplanet.jpg

Odal
2008-06-16, 15:41:51
http://www.pcgameshardware.de/screenshots/original/2008/06/UT_2560_8x.PNG


:eek: 3870 DOPPELT so schnell wie 9800GX2 :eek:

wir haben den RV670 total unterschätzt er muß nur ordentlich belastet werden

Raff
2008-06-16, 15:42:10
http://www.pcgameshardware.de/screenshots/original/2008/06/UT_2560_8x.PNG

Geil, ne? Wenn 768 MiB mal nicht reichen ... Schön zu sehen, dass Ati effizienter mit 512 (!) umgeht ... und dass PCIe 2.0 die 9800 GTX beschleunigt, während die G80 Ultra stirbt.

MfG,
Raff

mictasm
2008-06-16, 15:42:58
Es ist wirklich erstaunlich, was die 8800GTX doch für ein geniales Stück Hardware war und ist. Ich bleibe wohl auch noch ein paar Tage bei meinem SLI.

Gast
2008-06-16, 15:43:51
Beim Computerbase-Test sieht es gar nicht gut aus.

Bei vielen Spielen ist eine GX2 schneller (trotz altem Treiber):
- Call of Duty 4 (bis zu 50%)
- Clive Barker's Jericho (bis zu 20% ohne AA, mit AA ist GTX280 schneller)
- Gothic3 (bis 25%)
- Stalker (10-28%)
- UT3 in etwa Gleichstand
- Bioshock (bis 20%)
- Crysis (bis 10%)
- Lost Planet in etwa Gleichstand

Sogar die HD3870X2 ist teilweise schneller (trotz altem Treiber - gerade Cat8.4, 8.5 und 8.6 sollen nochmal Leistung bei Crossfire bringen):
- Rainbow Six (20-60% schneller, allerdings ohne AA)
- Assassin's Creed (teilweise 10% schneller)

Nur in extremen Settings kann die GTX280 Ihre erwartete Leistung auf die Strasse bringen - aber auch nicht bei allen Spielen. Da muss Nvidia noch einiges mit dem Treiber rausholen oder über den Preis regeln.

mapel110
2008-06-16, 15:44:15
Geil, ne? Wenn 768 MiB mal nicht reichen ... Schön zu sehen, dass Ati effizienter mit 512 (!) umgeht ... und dass PCIe 2.0 die 9800 GTX beschleunigt, während die G80 Ultra stirbt.

MfG,
Raff
O_o was du alles aus diesen Zahlen lesen kannst.

btw Glückwunsch Robbitop. Du hast richtig gelegen. Aber irgendwie bezweifel ich, dass du das ohne Vorwissen hinbekommen hättest. Wer konnte schon ahnen, dass nviida tatsächlich so idiotisch ist und so viele Transistoren sinnlos verballert.

Unyu
2008-06-16, 15:44:21
... und dass PCIe 2.0 die 9800 GTX beschleunigt, während die G80 Ultra stirbt.

Woh auf 1fps beschleunigt. :eek:

:eek: 3870 DOPPELT so schnell wie 9800GX2 :eek:
1fps Messungenauigkeit. :eek:

J0ph33
2008-06-16, 15:46:47
ohne 13 Seiten gelesen zu haben, ist schon raus, was zur Hölle nV nun mit 1,4Mrd Transistoren gemacht hat, die Leistung finde ich da schon etwas enttäuschend...

mapel110
2008-06-16, 15:47:44
ohne 13 Seiten gelesen zu haben, ist schon raus, was zur Hölle nV nun mit 1,4Mrd Transistoren gemacht hat, die Leistung finde ich da schon etwas enttäuschend...
Es ging wohl für Double Precision drauf, wer auch immer davon was hat, der Gamer ists nicht.

Gast
2008-06-16, 15:50:44
Die 1920x1200 Auflösungen sind viel interessanter und hier kann sich eine GTX280 nicht wirklich absetzen...

Blaire
2008-06-16, 15:51:32
Für nHancer gibt's nen Patch und zwar hier: http://forum.nhancer.com/showthread.php?t=380

Der Martin denkt an alles ;)

Coda
2008-06-16, 15:51:37
Ich denke das Hauptproblem ist wirklich, dass man die Taktraten nicht erreicht hat. Vor allem die Shaderdomain ist ja ein Witz.

robbitop@work
2008-06-16, 15:53:15
Ich ging von dieser Grafik aus:

http://publish.it168.com/2008/0616/images/1044443.jpg
Alles ist gesteigert worden, aber die Texelleistung am wenigsten.
Wil auch mehr als genug davon da war/ist.

Anarchy-HWLUXX
2008-06-16, 15:53:25
Es ging wohl für Double Precision drauf, wer auch immer davon was hat, der Gamer ists nicht.
Tesla C1060 (Karte) :

VIER GIGABYTE RAM !

http://www.nvidia.com/object/tesla_c1060.html

Tesla C1070 (1HE, Quad-GPU-System)

http://www.nvidia.com/object/tesla_s1070.html

Gast
2008-06-16, 15:55:14
Du stellst dich aber Dämlich an junge. Du kannst solche Monster nunmal nich in 1280er aufloessung vergleichen. Da langweiln die sich doch. man müsste andere modis fahren zb.
Und unterlasse deine Dummen provokativen sprüche ja?

jo Meister, nur das 85% der Gamer nen TFT haben die solche Auflösungen nicht hergibt. Da fragt man sich jetzt wer was nicht verstanden hat. NVidia oder die Gamer... Lost wieder Röhren kaufen hop hop

desert
2008-06-16, 15:56:21
jo Meister, nur das 85% der Gamer nen TFT haben die solche Auflösungen nicht hergibt. Da fragt man sich jetzt wer was nicht verstanden hat. NVidia oder die Gamer... Lost wieder Röhren kaufen hop hop


oder nur noch in 16xS benchen ;)

Unyu
2008-06-16, 15:57:02
jo Meister, nur das 85% der Gamer nen TFT haben die solche Auflösungen nicht hergibt.
Kaufen sich 85% der Gamer für 500€ Grafikkarten? :eek: (die Restlichen für 1500€ ...)
Kann man die Leistung nicht anderwertig für Bildqulität nutzen? :rolleyes:

robbitop@work
2008-06-16, 15:57:18
Herzlichen Glückwunsch CB. :hammer:
Völlig richtig erkannt. Dieses Benchmarkrecycling zerstört nicht nur völlig die Vergleichbarkeit, es gaukelt diese dem Leser vor. Das nützt so keinem was. An dieser Stelle eindeutige Kritik an die Kollegen. Diese Methode ist indiskutabel.
Wenn man den Aufwand eines breiten Benchmarks nicht schafft, muss man eben die Benchmarks reduzieren.

dildo4u
2008-06-16, 15:57:19
extremetech

http://www.extremetech.com/article2/0,2845,2320089,00.asp

Pcper

http://www.pcper.com/article.php?aid=577

Techreport

http://techreport.com/articles.x/14934

Anandtech

http://anandtech.com/video/showdoc.aspx?i=3334

Hexus

http://www.hexus.net/content/item.php?item=13736

Hardocp

http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA==

Hothardware

http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed

Benchmarkreviews

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1

tomshardware.com

http://www.tomshardware.com/reviews/nvidia-gtx-280,1953.html

Hardwarezone

http://www.hardwarezone.com/articles/view.php?cid=3&id=2593

Neoseeker

http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/

Raff
2008-06-16, 15:57:49
oder nur noch in 16xS benchen ;)

Kommt morgen, versprochen.

MfG,
Raff

Schlammsau
2008-06-16, 15:59:03
Die GX2 wird vernichtet. :eek:
eine 550€ Karte schlägt eine 350€ Karte! Ganz grosses Kino! :uclap:

Wichtig ist nur das!
http://www.abload.de/img/unbenannttpw.png

Gast
2008-06-16, 15:59:58
jo Meister, nur das 85% der Gamer nen TFT haben die solche Auflösungen nicht hergibt. Da fragt man sich jetzt wer was nicht verstanden hat. NVidia oder die Gamer... Lost wieder Röhren kaufen hop hop

Dann Wundert euch nicht, wenn in einer woche die 4850 und 4870er da auch total "versagen". Oder lassen wir dann doch wieder 1920er und 25xx auflössung zu? ;D haha. Aber man muss glaub ich nen ATI fanboy sein, und Dämlcih noch dazu, umdas nicht zuschnallen.! EOD:

Gast
2008-06-16, 16:00:17
Ich hol mir die Karte doch nicht, zumindest nicht jetzt, umsonst Strom verbrauche... hab jetzt ne stromspanrende 30€ PCIe als Üebrbrückung, da es jetzt sowieso keine Spiele gibt. .D

Wenn GTA IV oder ALAN WAKE mal für den PC kommen hol ich sie mir. :D

Gast
2008-06-16, 16:00:33
Auch bei anandtech sieht es für die GTX280 nicht gut aus. Die GX2 ist meistens schneller, auch in hohen Auflösungen.

tombman
2008-06-16, 16:00:45
jaja, ein RIESENenttäuschung ...

http://www.pcgameshardware.de/screenshots/original/2008/06/AoC_x4xAA.PNG

Das nenn ich mal OWNAGE ;)

Gast
2008-06-16, 16:02:11
Ich würde zwar nicht unbedingt 5000x5000 sehen wollen aber dafür 3840x1024 oder villeicht 4800x1200 als SoftTH das noch mit AA oder sogar mit SSAA...

mapel110
2008-06-16, 16:02:36
Das nenn ich mal OWNAGE ;)
Ja, geowned vom Diagrammersteller. Der Graph fängt bei 20 an anstatt bei 0. ^^

desert
2008-06-16, 16:03:22
Kommt morgen, versprochen.

MfG,
Raff

dann warte ich solange mit dem kauf

Ronny145
2008-06-16, 16:03:23
Du stellst dich aber Dämlich an junge. Du kannst solche Monster nunmal nich in 1280er aufloessung vergleichen. Da langweiln die sich doch. man müsste andere modis fahren zb.
Und unterlasse deine Dummen provokativen sprüche ja?


Mit der richtigen CPU geht auch so eine Auflösung, siehe CB.

Sorkalm
2008-06-16, 16:03:26
Ja, geowned vom Diagrammersteller. Der Graph fängt bei 20 an anstatt bei 0. ^^

Und unter den Umständen sind die Ergebnisse gar nicht mal so toll.

Unyu
2008-06-16, 16:03:46
http://enthusiast.hardocp.com/images/articles/1213329410dkPbuPba8A_7_2_l.gif
http://enthusiast.hardocp.com/article.html?art=MTUxOCw3LCxoZW50aHVzaWFzdA==
:eek:

robbitop@work
2008-06-16, 16:04:35
O_o was du alles aus diesen Zahlen lesen kannst.

btw Glückwunsch Robbitop. Du hast richtig gelegen. Aber irgendwie bezweifel ich, dass du das ohne Vorwissen hinbekommen hättest. Wer konnte schon ahnen, dass nviida tatsächlich so idiotisch ist und so viele Transistoren sinnlos verballert.
Ich hab's doch (mit frei verfügbaren Spezifikationen) vorgerechnet oder nicht? Und nein, ich hatte keine Karte da und auch kein NDA. Ich bin derzeit mit meiner Diplomarbeit ausgelastet genug.

dildo4u
2008-06-16, 16:04:43
Treiber 177.34.Neuste WHQL Treiber für G80/G92 und die ATI's.

"We used ForceWare 177.34 drivers from Nvidia to test the new GTX 200 based GeForce cards, and the latest public WHQL drivers (175.16) for the other GeForce cards. For the ATI cards, we used Catalyst 8.5."

http://img180.imageshack.us/img180/6799/01425sz1i18681200xl7.gif

http://www.extremetech.com/article2/0,2845,2320123,00.asp

Sorkalm
2008-06-16, 16:04:46
Schönes Bild wo der Speicher limitiert, Unyu. 8800 GTX/Ultra gabs da wohl nicht?

BTW: Das Bild zerhaut das Design, mach es doch bitte etwas kleiner.

pXe
2008-06-16, 16:05:19
Ja, geowned vom Diagrammersteller. Der Graph fängt bei 20 an anstatt bei 0. ^^

;D

Wie ich solche Effekthascherei Diagramme hasse.

pXe

tombman
2008-06-16, 16:05:56
Ja, geowned vom Diagrammersteller. Der Graph fängt bei 20 an anstatt bei 0. ^^
Du sollst auf die 30fps Linie schauen :rolleyes:

Btw

While we'd have trouble recommending a single GTX 280 over a single 9800 GX2, a pair of GTX 280s will probably give you a more hassle-free, and consistent experience than a pair of 9800 GX2s.
;)

Grestorn
2008-06-16, 16:06:13
Ja, geowned vom Diagrammersteller. Der Graph fängt bei 20 an anstatt bei 0. ^^

Ja, und?

Gast
2008-06-16, 16:06:46
Wäre auch schön, wenn man nicht nur Crysis anguggen würde. Manchmal sinds auch die kleinen Dinge, die Freude bringen. Zum beispiel Company of Heroes bei CB:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/24/#abschnitt_company_of_heroes


Generell fällt auf, dass die neue Karte in DX10 Games besser zurecht kommt.

robbitop@work
2008-06-16, 16:07:20
@mapel

unterschätze btw nicht den GP-GPU Markt. Die Investitionen waren dort schon sinnvoll. Da wird denke ich immer mehr kommen. NV braucht mittelfristig neue Standbeine im Markt, damit sie nicht umklappen, wenn Intel fahrt aufnimmt.

Ronny145
2008-06-16, 16:07:32
Treiber 177.34



Was ist da besonderes dran? Hat doch fast jeder mit dem getestet. Die anderen Karten wurden aber auch wieder nur mit einem älteren getestet (175.16).

PCGH_Raffael
2008-06-16, 16:11:20
Für nHancer gibt's nen Patch und zwar hier: http://forum.nhancer.com/showthread.php?t=380

Du, da ist keine Erkennung für den GT200 drin. Aber mit <string>0x5e0</string> <!-- G200 --> geht es. :)

MfG,
Raff

dildo4u
2008-06-16, 16:12:55
Netter Vergleich G80 vs G200@ selben Takt.

http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/GT200vsG80.png

http://anandtech.com/video/showdoc.aspx?i=3334&p=8

mapel110
2008-06-16, 16:13:56
Ich hab's doch (mit frei verfügbaren Spezifikationen) vorgerechnet oder nicht? Und nein, ich hatte keine Karte da und auch kein NDA. Ich bin derzeit mit meiner Diplomarbeit ausgelastet genug.
Spezifikationen sind eins und vorallem hat Ailuros gesagt, dass man auf die Specs nicht viel geben sollte. Die werden wenig beeindruckend sein, hat er gesagt. Effizienz-Steigerungen kann man ja an den Specs auch nicht ablesen. Das sowas bei rumkommt, konnte man nur befürchten, nicht wissen.
Netter Vergleich G80 vs G200@ selben Takt.

Das hätten sie gegen G92 machen sollen, dann wären die Zahlen weniger beeindruckend. Allein schon wegen der Texelleistung.
@mapel
unterschätze btw nicht den GP-GPU Markt. Die Investitionen waren dort schon sinnvoll. Da wird denke ich immer mehr kommen. NV braucht mittelfristig neue Standbeine im Markt, damit sie nicht umklappen, wenn Intel fahrt aufnimmt.
neue Standbeine, separate Chips und fertig. Was soll der Gamer mit dem Müll?!

Neocroth
2008-06-16, 16:14:55
http://img180.imageshack.us/img180/6799/01425sz1i18681200xl7.gif


sorry, aber der Bench widerspricht allen meinen Erfahrungswerten... eine 3870X2 ist permanent schneller als die 9800GX2, in 1440*900 mit 4xAA sogar um ~100%? Hab ich die Leistungssteigerungen im Cat8.5 verschlafen oder stimmt da was nicht?

Grestorn
2008-06-16, 16:15:19
Du, da ist keine Erkennung für den GT200 drin. Aber mit <string>0x5e0</string> <!-- G200 --> geht es. :)

Ich hatte versehentlich die falsche Datei hochgeladen, hab's aber selber gemerkt (etwa vor ner halben Stunde) und korrigiert. Jetzt sollte der Patch stimmen (nochmal runterladen am besten!). Aber danke für den Hinweis trotzdem :)

Unyu
2008-06-16, 16:16:13
eine 3870X2 ist permanent schneller als die 9800GX2
Seit wann ist eine 3870 schneller als eine 8800 GTS?

Edit: ups ;)

dildo4u
2008-06-16, 16:17:32
Kann es sein das die SLI Skalierung beim G200 richtig gut ist die SLI Werte bei Computerbase sind ja Pervers hoch 10. :eek:

http://s5.directupload.net/images/080616/hnygdmj2.jpg

http://s7.directupload.net/images/080616/q5qyaorp.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

Neocroth
2008-06-16, 16:18:04
Seit wann ist eine 3870 schneller als eine 8800 GTS?

das frag ich mich ja auch, sieh dir den Bench doch einfach an...

Anarchy-HWLUXX
2008-06-16, 16:18:18
Netter Vergleich G80 vs G200@ selben Takt.

http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/GT200vsG80.png

http://anandtech.com/video/showdoc.aspx?i=3334&p=8

Das heisst soviel wie :

Crysis skaliert am schlechtesten unter den aufgeführten Games :usad: und wird als messlatte für performance hergenommen ...

Mr. Lolman
2008-06-16, 16:21:28
Treiber 177.34.Neuste WHQL Treiber für G80/G92 und die ATI's.

"We used ForceWare 177.34 drivers from Nvidia to test the new GTX 200 based GeForce cards, and the latest public WHQL drivers (175.16) for the other GeForce cards. For the ATI cards, we used Catalyst 8.5."

http://img180.imageshack.us/img180/6799/01425sz1i18681200xl7.gif

http://www.extremetech.com/article2/0,2845,2320123,00.asp

Heftig wie stark da die 3870 ist. :eek:

Gast
2008-06-16, 16:22:10
Du sollst auf die 30fps Linie schauen :rolleyes:

Btw

;)

Ja, und? Die GTX280 ist etwa 50% schneller als eine 9800GTX mit ein paar wenigen Ausnahmen.

Gast
2008-06-16, 16:22:57
I went back and looked, and it turns out that when the GeForce 8800 GTX debuted, it was often slower than two GeForce 7900 GTX cards in SLI. No one cared much at the time...


Quelle: http://www.techreport.com/articles.x/14934/17

Ihr seid einfach zu verwöhnt! Die SLI Perf. des GT200 ist unglaublich, die ca 80% über der G80 sind auch verdammt gut.

Neocroth
2008-06-16, 16:24:35
Heftig wie stark da die 3870 ist. :eek:

genau das meinte ich... da stimmt irgendwas nicht, schon gar nicht, dass die 3870X2 die 9800GX2 dermaßen reinbuttert.

dildo4u
2008-06-16, 16:25:12
Ja, und? Die GTX280 ist etwa 50% schneller als eine 9800GTX mit ein paar wenigen Ausnahmen.
60-80% über G80 eher 80%(Wenn genug V-Ram da ist) bis 120%(Wenn der V-ram zu Ende geht) über der 9800GTX.

Gesammt Rating.

http://s5.directupload.net/images/080616/hnygdmj2.jpg

http://s7.directupload.net/images/080616/q5qyaorp.jpg

Bei V-Ram Mangel.

Crysis

http://s4.directupload.net/images/080616/du3j9225.jpg

Gesammtrating

http://s1.directupload.net/images/080616/mj28zgo4.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

MEDIC-on-DUTY
2008-06-16, 16:25:49
Was mich besonders nervt sind diese Bullshit-Animationen bei den Benchmark-Grafiken. Geht das auch ohne?

Sonst eine Karte, die ihre Gegner und Grenzen noch finden muss. Erst mit neuen Treibern, Kühlerupdates und OC-Versionen wird sich
zeigen, was wirklich in ihr steckt.

Aquaschaf
2008-06-16, 16:26:17
Quelle: http://www.techreport.com/articles.x/14934/17

Ihr seid einfach zu verwöhnt! Die SLI Perf. des GT200 ist unglaublich, die ca 80% über der G80 sind auch verdammt gut.

Die Situation ist nicht ganz vergleichbar. Gegenüber der Geforce 7 hatte man damals noch einen großen Sprung in Hinsicht auf Bildqualität und Features.

Gast
2008-06-16, 16:27:26
jaja, ein RIESENenttäuschung ...

http://www.pcgameshardware.de/screenshots/original/2008/06/AoC_x4xAA.PNG

Das nenn ich mal OWNAGE ;)

Da kann wohl einer nicht lesen. Die GTX280 ist max. 50% schneller als eine 9800GTX. An ein/zwei Stellen ist die 9800GTX gleich schnell.

Gast
2008-06-16, 16:27:55
In COD4 bei 2560x1600 ist GTX280 nur 10-15 FPS schneller wie 8800GTX. Das ist sowas von arm. Ich habe erwartet das man mehr als 100% Leistung bekommt. Aber hier liefern 280GTX@SLI etwa das was ich von nur einer erwarte. Wer kauft diesen Mist für 500 Steine?

Gast
2008-06-16, 16:28:47
Die Features hast Du nun auch, nur eben in einem Bereich, der derzeit noch zu jung ist (Cuda, GPUGPU).

Gast
2008-06-16, 16:29:57
Ich sag nur: Preis/Leistung 48%. Bei Nvidia haben se wohl nen Clown gefrühstückt. Die GX2 für 350 verhökern und die GTX280 für 550! Dafür ein dickes LOL

Nakai
2008-06-16, 16:30:42
Die Features hast Du nun auch, nur eben in einem Bereich, der derzeit noch zu jung ist (Cuda, GPUGPU).

Was bringen Features die kaum genutzt werden. Natürlich muss NV auf diese Features setzen, dabei hat der GT200 etwas an Biss verloren, welcher er unbedingt gebräucht hätte.


mfg Nakai

Mr. Lolman
2008-06-16, 16:33:48
genau das meinte ich... da stimmt irgendwas nicht, schon gar nicht, dass die 3870X2 die 9800GX2 dermaßen reinbuttert.

Schon komisch. Hier ists aber ähnlich: http://www.techreport.com/articles.x/14934/13 (man beachte auch die Scores von Asassins Creed und Race Driver :eek: )

Grestorn
2008-06-16, 16:36:40
Ich sag nur: Preis/Leistung 48%. Bei Nvidia haben se wohl nen Clown gefrühstückt. Die GX2 für 350 verhökern und die GTX280 für 550! Dafür ein dickes LOL

Das war bei der 7950GX2 zur 8800 GTX noch viel viel extremer. Und da hat keiner gelacht.

Ich weiß gar nicht, was ihr alle erwartet habt, bzw. welche Werte die Karte hätte haben müssen, damit nVidia-Hasser nicht ihren Spott über sie ergießen lassen würden.

Ich frage mich nur, aus welcher Position ihr das macht. Es ist ja nicht so, dass es eine echte Alternative für High-End gäbe...

Nakai
2008-06-16, 16:37:35
"329" der beiß ganz schön gell ;D

Für etwa 1200€...:rolleyes:

Wer soviel Geld ausgeben will, der solls machen. Ja ich weiß, die ultimative Performance für den ultimativen Preis, für die meisten Leute einfach zu teuer.
Wir sind ja nicht alle Tombmans...;D


mfg Nakai

Odal
2008-06-16, 16:37:49
Du stellst dich aber Dämlich an junge. Du kannst solche Monster nunmal nich in 1280er aufloessung vergleichen. Da langweiln die sich doch. man müsste andere modis fahren zb.
Und unterlasse deine Dummen provokativen sprüche ja?


ich glaube du stellst dich nicht nur so an :eek:

wenn eine grafikkarte mit doppelter speichermenge in pervers hohen auflösungen mit aa eine andere grafikkarte mit halber speichermenge deutlich schlägt, ist das nicht der verdienst der GPU sondern das verbauten speichers...

erkennt man wie gesagt immer schön wenn 88GTX und 88U weit vor der 98GTX liegen

würde man dagegen z.b. eine 8800GTS mit 1024 MB ram testen (z.b. die hier http://geizhals.at/deutschland/a301196.html) würde diese auch wieder sich meilenweit vor einer 8800GTS mit 512MB positionieren können (und nicht soooo weit hinter einer GTX280)...wow nvidia kann zaubern....

da frühstückt dann auch schonmal gerne ne 88Gt mit 1024MB ne 88Ultra ab wenn die einstellungen richtig gewählt sind :eek:

Gast
2008-06-16, 16:39:12
Schon komisch. Hier ists aber ähnlich: http://www.techreport.com/articles.x/14934/13 (man beachte auch die Scores von Asassins Creed und Race Driver :eek: )

Dort wurde Asassins Creed mit DX10.1 bei HD3870(X2) getestet. Ev. liegt es daran. Schön wäre noch ein Vergleich mit Patch ohne DX10.1 - ob sich hier die Relationen ändern.

Gast
2008-06-16, 16:39:34
Ja, es gab auch sconmal nen kalten Winter. Was ich damit sagen will: Die Leute hier in Deutschland sind finanztechnisch nicht mehr so auf Rosen gebettet. Der Strompreis steigt, überhaupt alles. Was 2000etc war interessiert micht nicht. Und ja, ich lache. Lache über solche Weltfremden Nvidiamenschen.

Neocroth
2008-06-16, 16:40:21
Schon komisch. Hier ists aber ähnlich: http://www.techreport.com/articles.x/14934/13 (man beachte auch die Scores von Asassins Creed und Race Driver :eek: )

wenn ich 1440*900 aus dem Slide hier mit dem ComputerBase-Test bei 1280*1024 vergleiche (wohl noch am EHESTEN vergleichbar), da haut die 9800GX2 die 3870X2 mit gut 60% Abstand im Crysis-Rating rein, verwendet wurde der 8.3er - und hier (in dem vorher geposteten Slide) liegen die 2 gleichauf?

auch wenn ich ATi nicht schlecht machen will - aber soviel Rückstand in 2 Treiberrevisionen aufholen? Das klingt mehr als unrealistisch.

Gast
2008-06-16, 16:41:06
Das war bei der 7950GX2 zur 8800 GTX noch viel viel extremer. Und da hat keiner gelacht.

Ich weiß gar nicht, was ihr alle erwartet habt, bzw. welche Werte die Karte hätte haben müssen, damit nVidia-Hasser nicht ihren Spott über sie ergießen lassen würden.

Ich frage mich nur, aus welcher Position ihr das macht. Es ist ja nicht so, dass es eine echte Alternative für High-End gäbe...

Die Situation war damals anders und es hilft auch nicht, das ständig zu wiederholen. Der Spekuthread zum GTX280 hat gezeigt, das von der GTX280 mehr erwartet wurde - auch von den Spezis, die teilweise schon die Specs kannten.

Eggcake
2008-06-16, 16:42:17
Wurde doch überall bestätigt, dass der 8.5 (oder wars doch erst der 8.6?) einen extremen Performanceschub brachte.

Unyu
2008-06-16, 16:42:29
aber soviel Rückstand in 2 Treiberrevisionen aufholen? Das klingt mehr als unrealistisch.
Wenns bei nvidia wär würden alle von fehlenden Details schwärmen.

Gibts Bildqualitätsvergleiche zwischen 8.x und 8.5?

Gast
2008-06-16, 16:43:36
wenn ich 1440*900 aus dem Slide hier mit dem ComputerBase-Test bei 1280*1024 vergleiche (wohl noch am EHESTEN vergleichbar), da haut die 9800GX2 die 3870X2 mit gut 60% Abstand im Crysis-Rating rein, verwendet wurde der 8.3er - und hier (in dem vorher geposteten Slide) liegen die 2 gleichauf?

auch wenn ich ATi nicht schlecht machen will - aber soviel Rückstand in 2 Treiberrevisionen aufholen? Das klingt mehr als unrealistisch.

Es macht nur wenig Sinn zwischen verschiedenen Tests, Systemen und Treiberversionen Schlüsse ziehen zu wollen.

Nakai
2008-06-16, 16:43:59
Hä unter 500€! Das ist eine Karte nur ein bisgen OCed :lol:

OC interessiert mich nicht, und selbst wenn es ganze 15%...

Die Karte haut erst mit SLI rein(und da gewaltig) und das kostet 1200€ mit allen drum und dran.
Eine Karte alleine ist über GX2-Niveau, aber kaum mehr.


mfg Nakai

Grestorn
2008-06-16, 16:44:06
Ja, es gab auch sconmal nen kalten Winter. Was ich damit sagen will: Die Leute hier in Deutschland sind finanztechnisch nicht mehr so auf Rosen gebettet. Der Strompreis steigt, überhaupt alles. Was 2000etc war interessiert micht nicht. Und ja, ich lache. Lache über solche Weltfremden Nvidiamenschen.

Wenn man das Posting so liest, könnte man daraus schließen, dass nVidianer eben das nötige Kleingeld haben.

Und Du wohl nicht. Aber das ist ehrlich gesagt nicht "unser" Problem... :)

Sorry, aber das hast Du echt provoziert.

dildo4u
2008-06-16, 16:44:25
firingsquad

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/

techpowerup

http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/

legitreviews

http://www.legitreviews.com/article/726/1/

nvnews.net

http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml

bjorn3d.com

http://www.bjorn3d.com/read.php?cID=1293

elitebastards

http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31

tweaktown

http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html

Gast
2008-06-16, 16:45:15
Es wurde damals erwartet das die Karte mindestens doppelt so schnell wird wie 8800GTX plus Effizienz Bonus 50%. In Wirklichkeit sieht es eher aus das 280GTX NUR 50% schneller ist wie 8800GTX/Ultra.

Odal
2008-06-16, 16:46:05
jaja 50-60% wenn man realistisch ist....

MuLuNGuS
2008-06-16, 16:46:14
das schlusswort von hardocp ist auch nicht zu verachten:

One thing we can say about both the BFGTech GeForce GTX 280 OC and GeForce GTX 260 is that both were very stable in our testing. We had no major game problems at all, all of our games were rendered properly and we had no driver control panel problems. The video cards were very stable in both stock frequency and overclocking frequencies, no lock ups, nothing out of the ordinary at all. We were pleased to be able to just plug them in, load driver and start gaming! This NVIDIA GeForce 200 series definitely has a mature feeling about it comes to stability and ease of use.

Gast
2008-06-16, 16:46:37
Ja klar, Nvidiamenschen legen jetzt unverhältnismässig viel Geld über die Ladentheke. Aber das wird offtopic. Hab meine Meinung kundgetan. MfG

Odal
2008-06-16, 16:47:46
wär auch traurig wenns anders wäre....denn sie haben ja wirklich nichts relevantes geändert das man großartige treiberprobleme befürchten könnte

Grestorn
2008-06-16, 16:48:52
Es wurde damals erwartet das die Karte mindestens doppelt so schnell wird wie 8800GTX plus Effizienz Bonus 50%. In Wirklichkeit sieht es eher aus das 280GTX NUR 50% schneller ist wie 8800GTX/Ultra.

Ohne CPU Limit ist die Karte gut 100% schneller als eine GTX/Ultra. Und genau das war zu erwarten.

Wenn es ein Teillimitierung über die CPU gibt, dann kann der Faktor natürlich niemals optimal sein.

Es gibt im Übrigen nur sehr selten eine 100%ige CPU oder GPU Limitierung. Wenn ein Benchmark zu 80% durch die CPU limitiert wird, wird sich eine schnellere GPU zwar sichtbar auswirken, aber eben weit weniger als bei 5% oder weniger CPU Limitierung.

OC_Burner
2008-06-16, 16:50:23
Habe jetzt schon mehrfach etwas über "internal SPDIF cable" gelesen. Wo bitte, soll den der Anschluss sein, bin ich blind?

Gast
2008-06-16, 16:51:46
Ohne CPU Limit ist die Karte gut 100% schneller als eine GTX/Ultra. Und genau das war zu erwarten.

Wenn es ein Teillimitierung über die CPU gibt, dann kann der Faktor natürlich niemals optimal sein.

Es gibt im Übrigen nur sehr selten eine 100%ige CPU oder GPU Limitierung. Wenn ein Benchmark zu 80% durch die CPU limitiert wird, wird sich eine schnellere GPU zwar sichtbar auswirken, aber eben weit weniger als bei 5% oder weniger CPU Limitierung.
Wieso nimmst du an das ich das nicht selbst berücksichtigt habe? Guck dir mal COD4 benchmarks in 2560x1600 an da ist alles rein GPU limiteirt.

pest
2008-06-16, 16:51:50
Er hat Very high gebencht und es sollten 36fps Very High 1920*1200 ohne AA sein. ;)

Der Bench ist auf High, kuck ihn dir an. Ich kann auch auf Medium Benchen und dann auf VeryHigh stellen :rolleyes:

Neocroth
2008-06-16, 16:52:37
Es macht nur wenig Sinn zwischen verschiedenen Tests, Systemen und Treiberversionen Schlüsse ziehen zu wollen.

ich behaupte ja auch nicht, dass beide Tests miteinander vergleichbar sind - ich habe bloß den Test zur "Bestätigung" genommen, da ich eigentlich vorher kein Szenario mit einer 3870X2 kannte, das der 9800GX2 bei Crysis gefährlich werden konnte. Und genau das kommt mir sehr seltsam vor...

dildo4u
2008-06-16, 16:54:34
Das sieht so blöde aus,weil ich zuerst den CPU Test eingestellt ich Hirn :D dann abgebrochen und umgestellt,dann rennt der Test aber in einen Loop,den hab ich dann beim2 Durchlauf abgebrochen.
High oder Very High was stimmt nun?

Einige dieser Reviews fehlen noch im Eingangsposting.

firingsquad

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/

techpowerup

http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/

legitreviews

http://www.legitreviews.com/article/726/1/

nvnews.net

http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml

bjorn3d.com

http://www.bjorn3d.com/read.php?cID=1293

elitebastards

http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31

tweaktown

http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html

extremetech

http://www.extremetech.com/article2/0,2845,2320089,00.asp

Pcper

http://www.pcper.com/article.php?aid=577

Techreport

http://techreport.com/articles.x/14934

Anandtech

http://anandtech.com/video/showdoc.aspx?i=3334

Hexus

http://www.hexus.net/content/item.php?item=13736

Hardocp

http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA==

Hothardware

http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed

Benchmarkreviews

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1

tomshardware.com

http://www.tomshardware.com/reviews/nvidia-gtx-280,1953.html

Hardwarezone

http://www.hardwarezone.com/articles/view.php?cid=3&id=2593

Neoseeker

http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/

mapel110
2008-06-16, 16:57:18
http://www.hardware.fr/articles/723-1/dossier-nvidia-geforce-gtx-280-260.html
Hier noch die Franzosen.

anderer Gast
2008-06-16, 16:57:31
Momentan sieht es nicht so gut für die GTX280 aus. Aber noch ist nicht das letzte Wort gesprochen (schon gar nicht hier:)).

Was ich mir für den Test am 25.Juni von Computerbase wünsche (Ihr lest bestimmt mit):
- aktuelle Nvidia-Treiber für alle Karten (mind. GeForce 177.34)
- aktuelle ATI-Treiber für alle Karten (mind. Cat8.6, besser Cat8.7 beta)
- aktuelles System ist okay
- GRID, Age of Conan, Mass Effect mit in Benchmark-Parcour aufnehmen
- 3DMark06 könnt ihr weglassen

Damit nicht zuviel getestet wurden muss, reichen folgende Karten:
GTX280SLI, GTX280, GTX260, 9800GTX, 9800X2, 8800GTX, 8800GT
HD4870CF, HD4870, HD4850, HD3870X2, HD3870, HD3850

Bitte kein Copy and Paste.
Danke.

tombman
2008-06-16, 16:58:25
Zwei liegen dann genau in dem Bereich der Mikroruckler.

pXe
Nicht auf 1600x1000 +OC ;) (19x12= 30fps. OC = 35fps, 16x10 = 44% weniger Pixel ;) --> 45fps ;))

Hab ich mir doch schon alles zusammengereimt ;) 1600x1000, 4xAA, Very High -> ohne MR ;)

Klar, man zahlt zuviel, die Karten sind es nicht wert- aber es gibt einfach keine Alternative. (nein, 2x X2 von ATi ist IMO keine)

Ich bin sicher, Nvidia hätte eine +100% Karte locker bauen können, aber sie wollten eben ganz stark auf GPGPU setzen. Ist verständlich, wenn man an den künftigen Krieg mit Intel denkt...

Nakai
2008-06-16, 17:00:46
Ja schon klar :lol: ab in die Ecke und weinen oder bestellen brauchst nett meHR weinen dann ;D
Ich bin ein gesperrter User, der sich nicht an die Sperre hält.

Haha lol...;D
Warum sollte ich Geld für ne Karte ausgeben, welche mir zwar derzeitig 4-fache Leistung bringt, aber was ich nicht brauche?

Aber die Karte kann man um 15%!!!!! übertakten, deswegen muss ich sie mir zulegen. UM JEDEN PREIS...;D


mfg Nakai

Schlammsau
2008-06-16, 17:00:53
Nicht auf 1600x1000 +OC ;)

Hab ich mir doch schon alles zusammengereimt ;) 1600x1000, 4xAA, Very High -> ohne MR ;)

Das wird aber knapp Tombi! ;)

dildo4u
2008-06-16, 17:05:17
Ich lese zu viel Reviews gleichzeitig.

mapel110
2008-06-16, 17:07:42
Da sind die 34fps unter Very High 1920*1200 ohne AA.

http://www.hardware.fr/medias/photos_news/00/23/IMG0023496.gif
Hab ich was am Auge, oder steht bei dem Test was von "High" und nirgends "Very High"?!

Riplex
2008-06-16, 17:08:28
Die ist ja langsamer als ne 9800 GX2. Das einzig gute ist das die Karte kein Microruckeln hat. Aber dafür 530 € ausgeben ??
Also für Leute mit ner Gx2 lohnt mit Auflösungen bis 1680x1050 lohnt sich die
Karte ja absolut nicht.

Blaire
2008-06-16, 17:08:31
3-WAY SLI GTX280 User Review

http://www.nvnews.net/vbulletin/showthread.php?t=114867

3DMark Vantage:
Performance Setting
GX2 Quad SLI= 17,397 (46FPS/52FPS)
Single GTX 280 = 11,300 (29FPS/28FPS)
GTX 280 2-way = 18,641 (54/53FPS)
GTX 280 3-way = 22,882 (70FPS/73FPS)

Crysis:
1920x1200 2xAA, Very High, DX10
GX2 Quad SLI = 23FPS
Single GTX 280 = 18FPS
GTX 280 2-way = 34FPS
GTX 280 3-way = 46FPS

World In Conflict:
1920x1200 4xAA/16xAF, Max Settings
GX2 Quad SLI = 53FPS
Single GTX 280 = 37FPS
GTX 280 2-way = 66FPS
GTX 280 3-way = 67FPS

GRID:
1920x1200 16xAA/16xAF, Max Settings
GX2 Quad SLI = 45FPS
Single GTX 280 = 48FPS
GTX 280 2-way = 57FPS
GTX 280 3-way = 76FPS

Holla die Waldfee ^^

Godmode
2008-06-16, 17:11:00
Dieses Architektur Review ist auch zum empfehlen:
http://www.beyond3d.com/content/reviews/51

Gast
2008-06-16, 17:11:03
lol GTX280 3-way.

dildo4u
2008-06-16, 17:15:25
Deshalb ist die GX2 keine Alternative für den High-End User.

http://s3.directupload.net/images/080616/52v3oz45.gif

http://s5.directupload.net/images/080616/r4rsipra.gif

http://www.tweaktown.com/reviews/1464/11/page_11_benchmarks_high_quality_aa_and_af/index.html

pXe
2008-06-16, 17:16:06
3-WAY SLI GTX280 User Review

http://www.nvnews.net/vbulletin/showthread.php?t=114867

3DMark Vantage:
Performance Setting
GX2 Quad SLI= 17,397 (46FPS/52FPS)
Single GTX 280 = 11,300 (29FPS/28FPS)
GTX 280 2-way = 18,641 (54/53FPS)
GTX 280 3-way = 22,882 (70FPS/73FPS)

Crysis:
1920x1200 2xAA, Very High, DX10
GX2 Quad SLI = 23FPS
Single GTX 280 = 18FPS
GTX 280 2-way = 34FPS
GTX 280 3-way = 46FPS

World In Conflict:
1920x1200 4xAA/16xAF, Max Settings
GX2 Quad SLI = 53FPS
Single GTX 280 = 37FPS
GTX 280 2-way = 66FPS
GTX 280 3-way = 67FPS

GRID:
1920x1200 16xAA/16xAF, Max Settings
GX2 Quad SLI = 45FPS
Single GTX 280 = 48FPS
GTX 280 2-way = 57FPS
GTX 280 3-way = 76FPS

Holla die Waldfee ^^

Bei WiC bringt die 3. Karte nichts, und in GRID bringt die 3. Karte mehr als die zweite:confused:

pXe

Adam D.
2008-06-16, 17:18:11
Ok, mal die positiven Dinge:

- Lautstärke
- Stromverbrauch
- GPGPU-Fähigkeiten
- Teilweise Performance

Immerhin etwas ;)

robbitop
2008-06-16, 17:18:51
Ohne CPU Limit ist die Karte gut 100% schneller als eine GTX/Ultra. Und genau das war zu erwarten.
Wo siehst du 100%? Bitte kein Beispiel mit VRAM-Limitierung.

tombman
2008-06-16, 17:19:23
3-WAY SLI GTX280 User Review

http://www.nvnews.net/vbulletin/showthread.php?t=114867

3DMark Vantage:
Performance Setting
GX2 Quad SLI= 17,397 (46FPS/52FPS)
Single GTX 280 = 11,300 (29FPS/28FPS)
GTX 280 2-way = 18,641 (54/53FPS)
GTX 280 3-way = 22,882 (70FPS/73FPS)

Crysis:
1920x1200 2xAA, Very High, DX10
GX2 Quad SLI = 23FPS
Single GTX 280 = 18FPS
GTX 280 2-way = 34FPS
GTX 280 3-way = 46FPS

World In Conflict:
1920x1200 4xAA/16xAF, Max Settings
GX2 Quad SLI = 53FPS
Single GTX 280 = 37FPS
GTX 280 2-way = 66FPS
GTX 280 3-way = 67FPS

GRID:
1920x1200 16xAA/16xAF, Max Settings
GX2 Quad SLI = 45FPS
Single GTX 280 = 48FPS
GTX 280 2-way = 57FPS
GTX 280 3-way = 76FPS

Holla die Waldfee ^^
Quad-SLi wird ordentlich verdroschen von 2-way 280 ;)

Gast
2008-06-16, 17:20:56
Ok, mal die positiven Dinge:

- Lautstärke
- Stromverbrauch
- GPGPU-Fähigkeiten
- Teilweise Performance

Immerhin etwas ;)

Lautstärke kannst du streichen. Da muss eine Speziallösung her.
Siehe: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/30/#abschnitt_lautstaerke

Gast
2008-06-16, 17:20:58
Der Bench ist auf High, kuck ihn dir an. Ich kann auch auf Medium Benchen und dann auf VeryHigh stellen :rolleyes:
war keine Absicht sorry,der verwurschtelt wohl was beim Umstellen
http://www.abload.de/thumb/unbenannt1111oxg.jpg (http://www.abload.de/image.php?img=unbenannt1111oxg.jpg)

Ich bin ein gesperrter User, der sich nicht an die Sperre hält.

Unyu
2008-06-16, 17:21:16
Bitte kein Beispiel mit VRAM-Limitierung.
Warum?
Gehört der VRAM nicht zum Gesamtpaket?

Marodeur
2008-06-16, 17:22:02
jaja, ein RIESENenttäuschung ...

http://www.pcgameshardware.de/screenshots/original/2008/06/AoC_x4xAA.PNG

Das nenn ich mal OWNAGE ;)

Verdammte Hacke, musstest du DAS jetzt posten? :P

Aber ich wart noch auf den Nachtest der 260, die hat sich bei HardOCP ja auch nicht sooo schlecht in AoC geschlagen und ich hab ja 1920x1200.

http://enthusiast.hardocp.com/images/articles/1213329410dkPbuPba8A_7_2_l.gif

pXe
2008-06-16, 17:23:01
Ok, mal die positiven Dinge:

- Lautstärke
- Stromverbrauch
- GPGPU-Fähigkeiten
- Teilweise Performance

Immerhin etwas ;)

Also computerbase war von der Lautstärke nicht gerade begeistert, liegt auf 9800 GX2 Niveau. Die 7950GX2 ist genauso laut, die hatte ich ein Jahr lang, im Sommer war mir diese eindeutig zu laut.


pXe

Gast
2008-06-16, 17:23:07
Hab mir gerade zwei 280er bestellt, endlich Crysis in 1920 flüssig :)

Schlammsau
2008-06-16, 17:23:21
Warum?
Gehört der VRAM nicht zum Gesamtpaket?

Dann könnte man sich eine auch eine 9800GTX mit 1GB VRAM zulegen!
Wenn sie denn Verfügbar wäre!

Gast
2008-06-16, 17:24:25
Heftig wie stark da die 3870 ist. :eek:

Und das mit dem alten 8.3 Catalyst ;)

dildo4u
2008-06-16, 17:24:59
Wo siehst du 100%? Bitte kein Beispiel mit VRAM-Limitierung.
100% bei den Min FPS und nein das Spiel braucht in der Auflösung nicht mher als die 768mb-Vram der Ultra.Das Game ist sher Shaderlastig und zeigt die Zukunft.

http://www.pcgameshardware.de/screenshots/medium/2008/06/GTX280_Test_Benchmark_Call_of_Juarez_DirectX_10_v1.1.0.0_1680x1050.PNG

seahawk
2008-06-16, 17:25:05
Sehr ernüchternd. 40-50% vor der 9800GTX, das liegt in Schlagdistanz der 4870, von der 4870X2 wird man gar nicht reden müssen.

Sorkalm
2008-06-16, 17:25:42
Ok, mal die positiven Dinge:

- Lautstärke

Ich dachte erst du meintest das sarkastisch. X-D

In welchem Review gefällt dir denn die Lautstärke?

Unyu
2008-06-16, 17:26:04
Dann könnte man sich eine auch eine 9800GTX mit 1GB VRAM zulegen!
Wenn sie denn Verfügbar wäre!
Ja es ist schade, das niemand (?) eine 1GiB G92 Karte mitgetestet hat.

dildo4u
2008-06-16, 17:27:31
Sehr ernüchternd. 40-50% vor der 9800GTX, das liegt in Schlagdistanz der 4870, von der 4870X2 wird man gar nicht reden müssen.
60-100% Siehe hier und hier.Die 9800GTX wird sogar noch deutlicher geschlagen als die 8800GTX und Ultra man muss halt High-End Auflösungen testen wie es sich für eine 500€ Karte gehört.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6588856&postcount=308

http://www.pcgameshardware.de/screenshots/medium/2008/06/GTX280_Test_Benchmark_Call_of_Juarez_DirectX_10_v1.1.0.0_1680x1050.PNG

Mr.Magic
2008-06-16, 17:27:45
So langsam finde ich die GTX280 doch beeindruckend.

http://www.nvnews.net/reviews/geforce_gtx_280/images/1680_1050_16xq_aa.png

Mal sehen, ob ich mich bis zum Shrink/Refresh zurückhalten kann.

tombman
2008-06-16, 17:27:53
Sehr ernüchternd. 40-50% vor der 9800GTX, das liegt in Schlagdistanz der 4870, von der 4870X2 wird man gar nicht reden müssen.
Wieso schätzt hier jeder die 4870 50% schneller als die 4850 ein???

Check ich ned...

Es ist der selbe core, nur 20% höher getaktet und mehr Speicherbandbreite. ALso wieso soll da jetzt die Mörderleistung rauskommen? :confused:

ATI selbst spricht von 1.3x.

robbitop
2008-06-16, 17:29:46
Warum?
Gehört der VRAM nicht zum Gesamtpaket?
Weils eine GPU-unabhängige Limitierung ist nein. Zumal es 1024 MiB Karten auch vorher gab, nur keiner sie in die Tests einbezogen hat.

Schlammsau
2008-06-16, 17:29:51
Wieso schätzt hier jeder die 4870 50% schneller als die 4850 ein???

Check ich ned...

Es ist der selbe core, nur 20% höher getaktet und mehr Speicherbandbreite. ALso wieso soll da jetzt die Mörderleistung rauskommen? :confused:

ATI selbst spricht von 1.3x.

Tut doch keiner!
Es geht doch nur darum, was die 4870 kosten wird, und was sie damit leistet! ;)

Odal
2008-06-16, 17:31:01
100% bei den Min FPS und nein das Spiel braucht in der Auflösung nicht mher als die 768mb-Vram der Ultra.Das Game ist sher Shaderlastig und zeigt die Zukunft.


nur schade das die GTX280 nur 45% mehr GigaFlops mehr bietet wie die 9800GTX :rolleyes:

coj ist bei 1680 und 4xAA auf jeden fall speicherlimitiert aber egal

dildo4u
2008-06-16, 17:32:04
So langsam finde ich die GTX280 doch beeindruckend.

http://www.nvnews.net/reviews/geforce_gtx_280/images/1680_1050_16xq_aa.png

Mal sehen, ob ich mich bis zum Shrink/Refresh zurückhalten kann.
G80 und Konkkurenz Vernichtung vom feinsten hat ATI für Single Karten ein vergleichbaren AA Modus?Die neue Königin ist das da besteht kein Zweifel.

robbitop
2008-06-16, 17:32:27
100% bei den Min FPS und nein das Spiel braucht in der Auflösung nicht mher als die 768mb-Vram der Ultra.Das Game ist sher Shaderlastig und zeigt die Zukunft.

http://www.pcgameshardware.de/screenshots/medium/2008/06/GTX280_Test_Benchmark_Call_of_Juarez_DirectX_10_v1.1.0.0_1680x1050.PNG
Keiner weiß, wo die Limitierung in diesem Falle bei den MinFPS lag. Ist also nicht unbedingt repräsentativ. Dazu müßte man einen Frameratenverlauf mindestens sehen. Die Breite der Benchmarks in nicht VRAM-limitierten Spielen zeigt im Mittel keine 100%. Schon gar nicht dort, wo die höchsten Anforderungen derzeit liegen: Crysis.

Coda
2008-06-16, 17:32:46
Wie sieht's jetzt eigentlich mit den Stromanschlüssen aus? Reicht 2x6 vom Netzteil?

Adam D.
2008-06-16, 17:33:20
Ich dachte erst du meintest das sarkastisch. X-D

In welchem Review gefällt dir denn die Lautstärke?
Ich hatte einfach mit was schlimmerem gerechnet. Da die Lüfterregelung die GPU bei 80°C halten will, könnte man manuell noch eingreifen. So ein Monster auf gut 45 Dezibel zu halten, ist doch in Ordnung.

Rasta-Fahndung
2008-06-16, 17:34:25
Was die 260er angeht: Finde, für knapp über 300 EURO sieht die vielversprechend aus.

In ein paar Wochen liegt sie drunter, das ist ein fairer Deal, vor allem bei dem Speichersetup.

Gast
2008-06-16, 17:34:29
Deshalb ist die GX2 keine Alternative für den High-End User.

http://s3.directupload.net/images/080616/52v3oz45.gif

http://s5.directupload.net/images/080616/r4rsipra.gif

http://www.tweaktown.com/reviews/1464/11/page_11_benchmarks_high_quality_aa_and_af/index.html

Ich bin Überrascht wie gut die gurkige X2 da steht :confused:

tombman
2008-06-16, 17:34:35
Tut doch keiner!
Es geht doch nur darum, was die 4870 kosten wird, und was sie damit leistet! ;)
Die wird aber keine X4800 haben, nicht mal in die Nähe kommen...

w0mbat
2008-06-16, 17:34:42
TT fasst es sehr gut zusammen:

The other thing I have to say before I wrap this all up is that I’ve tested the HD 4850, and I’ve tested it in Crossfire. Now, if I hadn’t tested those cards I may have been more impressed with the GTX 280, but I have. I’ve seen the performance figures the cards put out. We also know the price on a pair of HD 4850s is going to be under $600 AUD, while the new GTX 280 in stock form seems to be launching at the absolute cheapest in Australia in the low $700 AUD area. Ouch.
http://www.tweaktown.com/reviews/1464/18/page_18_final_thoughts/index.html

Schlammsau
2008-06-16, 17:36:43
Die wird aber keine X4800 haben, nicht mal in die Nähe kommen...
Weiss ich! ;)

Gast
2008-06-16, 17:37:24
Die wird aber keine X4800 haben, nicht mal in die Nähe kommen...
lol Vanage ist kein Game Tomban :rolleyes:

tombman
2008-06-16, 17:37:51
TT fasst es sehr gut zusammen:
2x HDirgendwas nützt einem SLi verwöhnten user aber nix ;)

Nur 2x X2 wäre klar schneller...aber das will ich mir einfach nicht antun :)

Neocroth
2008-06-16, 17:40:04
So langsam finde ich die GTX280 doch beeindruckend.

http://www.nvnews.net/reviews/geforce_gtx_280/images/1680_1050_16xq_aa.png



mit dem faden Beigeschmack, dass das hier DirectX9 ist

tombman
2008-06-16, 17:40:27
lol Vanage ist kein Game Tomban :rolleyes:
Mann, lernt mal den nick ordentlich. Es hießt nicht tobmann, tobman, tomban oder was weiß ich, sondern toMBMan. Ja genau, vor UND nach dem "b" gibts ein "m" ;D

Nvidia kann aber sicher nicht besser auf vantage hintweaken als ATI. Und die vantage Leistung ist nun mal real und wichtig, weil sie die Zukunft zeigt...

Schlammsau
2008-06-16, 17:41:38
2x HDirgendwas nützt einem SLi verwöhnten user aber nix ;)

Nur 2x X2 wäre klar schneller...aber das will ich mir einfach nicht antun :)

Du redest hier von ungelegten Eiern!
Wir wissen noch gar nicht ob ATi vielleicht doch etwas gegen die µRuckler am Start hat! Es gab im Vorfeld viele Gerüchte in diese Richtung!
Ausserdem tust du dir mit deinem 1100€ SLi genau das wieder an, was du eigentlich nicht mehr wolltest!

tombman
2008-06-16, 17:42:42
Du redest hier von ungelegten Eiern!
Wir wissen noch gar nicht ob ATi vielleicht doch etwas gegen die µRuckler am Start hat! Es gab im Vorfeld viele Gerüchte in diese Richtung!
Ausserdem tust du dir mit deinem 1100€ SLi genau das wieder an, was du eigentlich nicht mehr wolltest!
Nein, eigentlich nicht. Denn GTX280 SLI hat soviel kranke fps, daß ich einfach per BRUTE FORCE über den MR Bereich gehe ;D;D

In normalen games (Konsolenports) werde ich damit eh nur mehr dreistellige fps haben ;D

Und vergiß mal die Gerüchte über den Wunder-CF Modus...das glaube ich erst wenn ich es sehe, also frühestens im August :)

derwalde
2008-06-16, 17:43:02
Wie sieht's jetzt eigentlich mit den Stromanschlüssen aus? Reicht 2x6 vom Netzteil?

dass will ich wissen. und vorallem ob mein bequiet straight power 500w reichen würde.....


"muss mich zurückhalten" ;D

Anarchy-HWLUXX
2008-06-16, 17:43:11
Nvidia kann aber sicher nicht besser auf vantage hintweaken als ATI. Und die vantage Leistung ist nun mal real und wichtig, weil sie die Zukunft zeigt...

Ne, die Vantage Leistung ist wichtig da es genug nixwisser gibt die daraufhin kaufentscheidnugen fällen ...

Gast
2008-06-16, 17:43:23
Mann, lernt mal den nick ordentlich. Es hießt nicht tobmann, tobman, tomban oder was weiß ich, sondern toMBMan. Ja genau, vor UND nach dem "b" gibts ein "m" ;D

Nvidia kann aber sicher nicht besser auf vantage hintweaken als ATI, eher das Gegenteil. Und die vantage Leistung ist nun mal real und wichtig, weil sie die Zukunft zeigt...

O.k. TOMBMAN :)

Die Zukunft zeigt das es nur Konsolenportierungen geben wird :(

Marodeur
2008-06-16, 17:43:51
Wie wärs mit Tombi? :P :D ;)

Wenn ich mir die Lautstärke so ansehe frag ich mich grad wie es mit Wakü aussieht. Solls da bezahlbare Karten geben die schon einen Kühler haben oder sind die eh wieder unrentabel teurer als die normalen Versionen (Sprich: Selber basteln oder basteln lassen).

Odal
2008-06-16, 17:44:04
Nein, eigentlich nicht. Denn GTX280 SLI hat soviel kranke fps, daß ich einfach per BRUTE FORCE über den MR Bereich gehe ;D;D

In normalen games werde ich damit eh nur mehr dreistellige fps haben ;D

Und vergiß mal die Gerüchte über den Wunder-CF Modus...


um einen merkbaren unregelmäßigen frameverlauf 100% ausschliessen zu können müsstest du dann aber immer mindestens
60-70FPS haben :eek:

also doch nur crysis in 800x600 tmobman ? :D

Schlammsau
2008-06-16, 17:45:21
Nein, eigentlich nicht. Denn GTX280 SLI hat soviel kranke fps, daß ich einfach per BRUTE FORCE über den MR Bereich gehe ;D;D

Aber nicht in deiner angepeilten Auflösung in Crysis@VeryHigh! ;)
Da wirst du sehr wohl, weil deiner Ansicht nach die MR ja bis 45fps deutlich spürbar sind, in den Genuss der MR kommen! ;)


In normalen games (Konsolenports) werde ich damit eh nur mehr dreistellige fps haben ;D
wo man sich wieder über den Sinn dieser Karte gedanken machen kann! Wofür brauche ich dann jetzt schon, solch eine Karte? ;)


Und vergiß mal die Gerüchte über den Wunder-CF Modus...das glaube ich erst wenn ich es sehe, also frühestens im August :)
Es sind Gerüchte....richtig!
Aber du hast dich auch bis zum Schluss an 2,5 facher Leistung geklammert!

Daddelprinz
2008-06-16, 17:45:45
Gibt es eigentlich auch schon ein Review der aktuell flottesten 280GTX ?

Zur Zeit dürfte das die Zotac mit satten 700 Mhz sein.


http://geizhals.at/deutschland/a344256.html

http://www.zotac.com/index.php?option=com_content&task=view&id=206&Itemid=142

Gast
2008-06-16, 17:46:54
@derwalde: Bei Sli GTX280 würde ich es nicht wagen. Dann gibts nen kurzen Knall und dann isses Quiet im Rechner:-)))

tombman
2008-06-16, 17:47:38
um einen merkbaren unregelmäßigen frameverlauf 100% ausschliessen zu können müsstest du dann aber immer mindestens
60-70FPS haben :eek:

also doch nur crysis in 800x600 tmobman ? :D
Ne, wenn ne 4 als erste Ziffer steht fühle ich mich schon wohl :)
Also irgendwas um die 4x fps werde ich schon hinbekommen ;)

derwalde
2008-06-16, 17:48:14
@derwalde: Bei Sli GTX280 würde ich es nicht wagen. Dann gibts nen kurzen Knall und dann isses Quiet im Rechner:-)))

sli juckt mich net. ne single gtx280 reicht für meine bedürfnisse bei weitem.:smile:

Neocroth
2008-06-16, 17:48:47
@derwalde: Bei Sli GTX280 würde ich es nicht wagen. Dann gibts nen kurzen Knall und dann isses Quiet im Rechner:-)))

beQuiet ;D kompletter Passivrechner - sogar die CPU verhält sich passiv ;D

scnr

Gast
2008-06-16, 17:48:55
Ja, dürfte reichen:-)

tombman
2008-06-16, 17:49:59
Aber nicht in deiner angepeilten Auflösung in Crysis@VeryHigh! ;)
Da wirst du sehr wohl, weil deiner Ansicht nach die MR ja bis 45fps deutlich spürbar sind, in den Genuss der MR kommen! ;)
Kommt drauf an wie schlimm er ist. Bei ner 10-50 Kadenz wirds kritisch, aber in letzter Zeit sah ich bei Nvidia eher 20-40.

Und meine angepeilte Auflösung ist 1600x1000, 4xAA, Very High + OC :)

Bei ca 30fps ohne oc auf 1920x1200 könnte das hinkommen ;)

dildo4u
2008-06-16, 17:50:21
Gibt es eigentlich auch schon ein Review der aktuell flottesten 280GTX ?

Zur Zeit dürfte das die Zotac mit satten 700 Mhz sein.


http://geizhals.at/deutschland/a344256.html

http://www.zotac.com/index.php?option=com_content&task=view&id=206&Itemid=142

http://www.driverheaven.net/reviews.php?reviewid=579

http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/

AnarchX
2008-06-16, 17:52:39
Auch wenn NV es in den Dokumenten nicht eingestehen will, werden wohl die 16kB bzw. 480kBit Register-Speicher insgesamt, die nun bei jeder Vec8-Einheit hinzugefügt wurden sind, nicht unerheblich für die 1.4Mrd. Transitoren sein.

Wiefern sinnvoll dieses Investition auch für Spiele sein wird, muss die Zeit zeigen.

Schlammsau
2008-06-16, 17:54:23
Kommt drauf an wie schlimm er ist. Bei ner 10-50 Kadenz wirds kritisch, aber in letzter Zeit sah ich bei Nvidia eher 20-40.

Und meine angepeilte Auflösung ist 1600x1000, 4xAA, Very High + OC :)

Bei ca 30fps ohne oc auf 1920x1200 könnte das hinkommen ;)
wie gesagt...sehr knapp!
und in extrem Situation, werden die fps noch mehr fallen!

Mr.Magic
2008-06-16, 17:57:09
mit dem faden Beigeschmack, dass das hier DirectX9 ist

Ich hatte mit meiner 8800GTX bisher keinerlei Probleme mit dem Spielen unter DX10, d.h. ungefähr zu DX9 gleiche FPS bei identischen/r Settings/Bildqualität. Wieso sollte mich das dann bei der GTX280 interessieren?

Gast
2008-06-16, 18:00:32
Sehr gut. Dank genügend VRAM bricht sie nicht so stark ein wie die mickrig bestückten GX2 Karten. Vor allem bei den min fps ist sie teilweise 4-6x so schnell wie eine GX2 bei fast gleichen average Werten. Das gemeine Fußvolk soll sich an den avg. fps Werten aufgeilen ...

dildo4u
2008-06-16, 18:01:44
Hardtecs4u.net MSI N280GTX-T2D1G-OC (NVIDIA GeForce GTX 280) Review

http://ht4u.net/reviews/2008/msi_n280gtx/

http://bjvq779l.multipic.de/clipboard03jjk.jpg

http://bjvq779l.multipic.de/clipboard01jjk.jpg

http://bjvq779l.multipic.de/jjkzu.jpg

tombman
2008-06-16, 18:03:12
wie gesagt...sehr knapp!
und in extrem Situation, werden die fps noch mehr fallen!
Habe gerade gebenched auf 1600x1000, VH, 4xAA: 23.7 fps (OHNE OC)

23.7* 1.5 = 35.5. --> mit OC prügel ich das auf 40fps :)

Skalierung habe ich jetzt erstmal nur mit 1.5 gerechnet.

Gast
2008-06-16, 18:05:31
Kommt drauf an wie schlimm er ist. Bei ner 10-50 Kadenz wirds kritisch, aber in letzter Zeit sah ich bei Nvidia eher 20-40.

Und meine angepeilte Auflösung ist 1600x1000, 4xAA, Very High + OC :)

Bei ca 30fps ohne oc auf 1920x1200 könnte das hinkommen ;)

ich verstehe dich nicht mehr. erst wetterst du gegen die kommende ati x2, da sli und cf dank mr nichts bringen und somit die einzige alternative die gt280 wäre da nur sie als single karte die von dir erhoffte leistung bringt.
jetzt zeichnet sich ein anderes bild ab und du willst wieder sli, wo die fps ja deutlich in dem von dir umrahmten bereich der afr ruckler liegen werden.
dual x2 verteufelst du aber wieder im selben atemzug, obwohl du damit keine erfahrung hast. Bist du auf nem kreuzzug gegen ati oder wie soll man das noch deuten`?

Gast
2008-06-16, 18:07:24
Skalierung je nach Spiel kannste bei Anandtech nachlesen:
http://www.anandtech.com/video/showdoc.aspx?i=3334&p=8

COD4 ist nicht von der Texture Leistung alleine abhängig z.b.

http://images.anandtech.com/reviews/video/NVIDIA/GeForceGTX200/GT200vsG80.png

Gast
2008-06-16, 18:07:30
Ohje tombman. Ich sehe du hast ein gutes Sli System? und willst jetzt auf GTX280 Sli umsteigen? Naja, ist dein Geld. Jeder kann damit machen was er will. Ich würde das nicht machen. Meine Meinung. Ich bin dann mal weg. Bis denne

Gast
2008-06-16, 18:09:50
Kannst dir ja auch ein Tesla reindrücken, bei 3GiB Speicher läuft da Garantiert nix voll ^^ http://www.anandtech.com/video/showdoc.aspx?i=3334&p=21

Banshee18
2008-06-16, 18:12:07
dual x2 verteufelst du aber wieder im selben atemzug, obwohl du damit keine erfahrung hast.
Input Lag? Fehlende Profilverwaltung? Zwei gute Gründe, die gegen zwei X2 sprechen.

Schlammsau
2008-06-16, 18:13:33
Input Lag? Fehlende Profilverwaltung? Zwei gute Gründe, die gegen zwei X2 sprechen.

:confused: Input Lag hat SLi genauso wie CF!
Und ausserdem traue ich mich zu behaupten, dass CF seit dem 8.6Beta Treiber besser läuft!

tombman
2008-06-16, 18:15:26
Input Lag? Fehlende Profilverwaltung? Zwei gute Gründe, die gegen zwei X2 sprechen.
Und funktionieren muß es auch erst mal...
Und ein CF mobo bräuchte ich auch noch...

Ich will einfach Crysis mal so zocken wie ich es von Anfang an wollte. Und diesem Ziel bringt mich Nvidia derzeit einfach näher als ATI ;)

Wenn sich bei ATI im Bereich CF großartig was getan hat, kann es durchaus sein, daß tombi demnächst mit X48 mobo + X2 CF daherkommt

-> speedhure FTW :)

tombman
2008-06-16, 18:15:56
:confused: Input Lag hat SLi genauso wie CF!
Nein, da 2 Gpu vs 4 Gpu...

Schlammsau, benche doch mal Crysis @ VH,4xAA, 1920x1200. (GPU Test)

Neocroth
2008-06-16, 18:16:14
Ich hatte mit meiner 8800GTX bisher keinerlei Probleme mit dem Spielen unter DX10, d.h. ungefähr zu DX9 gleiche FPS bei identischen/r Settings/Bildqualität. Wieso sollte mich das dann bei der GTX280 interessieren?

ich hätte gerne Vista Benches mit DirectX10 und DX10 Spielen gesehen, wo auch dabei steht, welche Einstellungen im Spiel gewählt wurden - so ist das meiner Meinung nach nicht sonderlich aussagekräftig. Und das einzige Game, wo die Einstellungen explizit erwähnt wurden (Crysis), läuft unter XP nur in DX9 und nicht in DX10 - der Performanceunterschied ist gering, ich weiß - aber es geht mir ums Prinzip ;)

Banshee18
2008-06-16, 18:16:14
:confused: Input Lag hat SLi genauso wie CF!
Und ausserdem traue ich mich zu behaupten, dass CF seit dem 8.6Beta Treiber besser läuft!
Mit 4 Chips ist der Input Lag größer.

Außerdem ist 4-Way-AFR afaik nur unter DX10 möglich.

Gast
2008-06-16, 18:16:18
Input Lag? Fehlende Profilverwaltung? Zwei gute Gründe, die gegen zwei X2 sprechen.

ich hatte noch kein dual x2 4870 system, wenn du irgendwelche quellen hast wo bei betrieb dieser beiden karten von input lag die rede ist, her damit.
du weißt worauf ich raus will, erstmal test in ein paar monaten abwarten und nicht vorher schon probleme herbei spekulieren

mapel110
2008-06-16, 18:17:00
Nein, da 2 Gpu vs 4 Gpu...
Was heißt da Nein?! Es ist halt nur halb so schlimm.

Unyu
2008-06-16, 18:18:29
Halb so schlimm ist doppelt so gut. ;)

tombman
2008-06-16, 18:18:35
Was heißt da Nein?! Es ist halt nur halb so schlimm.
Deshalb "nein" zu "genauso" ;) "genauso" != "halb so schlimm" ;)

Btw, mit 2x 280 könnte ich sogar in XP gamen und den "DX10-hack" (pom etc) nutzen und massiv fps erhalten...
Geht mit 2x X2 auch nicht, da Vista only ;)

nagus
2008-06-16, 18:19:59
ich find das teil sinnlos. weder die revolution von der nvidia gesprochen hat, noch sonst irgendwie "geil" (und die techdemos sind ultrakindisch)

next in line please :)

OC_Burner
2008-06-16, 18:20:12
So den SPDIF Anschluss habe ich mittlerweile ausfindig machen können. Jetzt frage ich mich nur noch ob die GTX 280 genauso lang ist wie die 8800GTX. Kann mir das jemand auf die schnelle sagen?

Skinner
2008-06-16, 18:20:20
Nein, da 2 Gpu vs 4 Gpu...

Schlammsau, benche doch mal Crysis @ VH,4xAA, 1920x1200. (GPU Test)

Also gibts doch noch Leute, die nur wegen einem Spiel ihren PC aufrüsten, egal zu welchem Preis :ucrazy2:

Naja, gibts wenigstens wieder was zu lesen hier :D

tombman
2008-06-16, 18:20:35
So den SPDIF Anschluss habe ich mittlerweile ausfindig machen können. Jetzt frage ich mich nur noch ob die GTX 280 genauso lang ist wie die 8800GTX. Kann mir das jemand auf die schnelle sagen?
Ja, ist sie, wurde schon 10x bestätigt.

Unyu
2008-06-16, 18:21:35
Also gibts doch noch Leute, die nur wegen einem Spiel ihren PC aufrüsten, egal zu welchem Preis :ucrazy2:

Seit wann sind die Bildqualitätsregler in anderen Spielen festgewachsen? :confused:

tombman
2008-06-16, 18:22:11
Also gibts doch noch Leute, die nur wegen einem Spiel ihren PC aufrüsten, egal zu welchem Preis :ucrazy2:

Naja, gibts wenigstens wieder was zu lesen hier :D
Nicht nur wegen Crysis. AoC genauso ;)

Ich werde diese babies durch alle DX10 Titel quälen :cool:
(LP, COJ, PTB, HGL...) :)

dildo4u
2008-06-16, 18:26:35
Gibts den Folding@Home Client für die NV Karten nun schon zumindest mal als open Beta?

Gast
2008-06-16, 18:26:52
Gibt es eine reine Technik Diskussion zum G200?
Die ganzen kleinen Änderungen hier im MegaThread zu besprechen is ja Irre.

Was hats mit den ROPs auf sich?
Das ist zwar schön geschrieben auf PCGamesHardware, aber was es bringt, steht da nit:

Der logisch gesehen letzte Punkt der Render-Pipeline, an dem Nvidia Verbesserungen hat einfließen lassen, sind die Raster-Operatoren (auch ROP oder RBE, Render Backends genannt). Teilten sich in der ersten Direct-X-10-Generation von GPUs noch je zwei ROPs eine Blending-Einheit, verfügt beim Geforce-GTX-Chip nun jede ROP einzeln über diese Fähigkeit. Die Gesamtzahl der Blendings pro Takt steigt also von 12 auf nunmehr 32.

Brauch mans in Spielen heutzutage, wenn ja, welche Engine macht gebrauch von "mehr" an Fähigkeiten in diesem Bereich.


Oder die FP64 Einheiten, sind die für Spiele nun einsetzbar oder nicht? Geht irgendwie auch nicht aus den Texten hervor.

Hat man das fehlende MUL beim G80 nun gefunden, in dem man der GPU massiv mehr Caches gibt?

Und nochwas: Der GT200 verfügt über einen sechsmal so großen GS-Cache wie der G80 und kann demnach deutlich performanter zusätzliche Geometrie oder Cube-Maps erzeugen. Tests mit Rightmark3D 2.0 unter Vista und Direct X 10 untermauern Nvidias Behauptung.

Praxistest dazu, sprich gibts ein Spiel, wo man das sehen kann?
Ist die Geometrie-Shader Performance eigentlich Shadertakt oder GPU Takt abhängig?

Viele Fragen, hoffe es kommt ein mehr auf Technik bezogener Artikel von 3dcenter oder pcgameshardware für die Geeks ;)

AnarchX
2008-06-16, 18:32:02
Gibt es eine reine Technik Diskussion zum G200?
Die ganzen kleinen Änderungen hier im MegaThread zu besprechen is ja Irre.


Naja, ich hoffe doch aths Artikel geht heute noch online, dieser wäre dann eine gute Basis mit dem zugehörigen Thread, um darüber weiterzudiskutieren.

dildo4u
2008-06-16, 18:35:12
Wow was ist das? Wie extrem CPU limitiert die min fps bei Crysis sind. :eek:

http://www.pcgameshardware.de/screenshots/medium/2008/06/CPU_Crysis.png

http://www.pcgameshardware.de/screenshots/medium/2008/06/CPU_WiC.png

http://www.pcgameshardware.de/aid,647693/Test/Benchmark/GT200-Test_CPU-Skalierung_bei_der_Geforce_GTX_280/&menu=browser&image_id=839048&article_id=647693

Gast
2008-06-16, 18:38:16
Wow was ist das?Wie extrem CPU limitiert die min fps bei Cyrsis sind. :eek:

http://www.pcgameshardware.de/screenshots/medium/2008/06/CPU_Crysis.png

http://www.pcgameshardware.de/aid,647693/Test/Benchmark/GT200-Test_CPU-Skalierung_bei_der_Geforce_GTX_280/&menu=browser&image_id=839048&article_id=647693

Das sag ich schon immer aber einige sind ja schlauer hier :rolleyes: hät gern noch ein Quad mit verschiedenen Taktungen gesehn zu vergleichen...Raff?

Gast
2008-06-16, 18:38:22
Naja, ich hoffe doch aths Artikel geht heute noch online, dieser wäre dann eine gute Basis mit dem zugehörigen Thread, um darüber weiterzudiskutieren.

Danke für die Info, den Artikel bei Beyond3D verstehe ich vieleicht zu 20% (was schon viel ist *g).


Wann ist denn bei der PCGamesHardware mit der nachgereichten GTX260 zu rechnen?

Gast
2008-06-16, 18:38:48
Wow was ist das? Wie extrem CPU limitiert die min fps bei Crysis sind. :eek:

http://www.pcgameshardware.de/screenshots/medium/2008/06/CPU_Crysis.png

http://www.pcgameshardware.de/aid,647693/Test/Benchmark/GT200-Test_CPU-Skalierung_bei_der_Geforce_GTX_280/&menu=browser&image_id=839048&article_id=647693

Und was ist daran bitte neu?

GeneralHanno
2008-06-16, 18:40:25
Wann darf man denn mit den ersten deutschsprachigen GTX-260 tests rechnen?

AnarchX
2008-06-16, 18:41:33
Danke für die Info, den Artikel bei Beyond3D verstehe ich vieleicht zu 20% (was schon viel ist *g).

Hast du schon Anandtech gelesen?
Diese haben nämlich diesmal auch einen sehr empfehlenswerten Technikteil, der es fast mit der Informationsdichte eines B3D aufnimmt, aber es einfacher erklären kann.

dildo4u
2008-06-16, 18:41:37
Und was ist daran bitte neu?
Also ich war der Meinung mit einem 3Ghz C2D wären von der CPU her immer min 30fps möglich.

HarryHirsch
2008-06-16, 18:42:21
gibt es denn noch irgendwo folding@home "benches" außer denen auf pcgh? (http://www.pcgameshardware.de/aid,647599/Test/Benchmark/GT200-Test_Geforce_GTX_280/260_im_Technik-Test_plus_Architektur-Analyse/&menu=browser&image_id=838683&article_id=647599)
ich brauch mehr faltpower :D

Gast
2008-06-16, 18:43:56
Und was ist daran bitte neu?


Lass ihn doch. Er versteht sich wahrscheinlich als Gegenpol zu den Leuten die GTX280 kleinreden. Da passieren solche Sachen schonmal ;)

Das Auge
2008-06-16, 18:45:04
Für mich sind die Neuen GTXen nichts. Sicher, die Leistung ist für eine single-GPU Karte schon beeindruckend, aber das wurde nach 1,5a auch Zeit. Die 9800GTX war ja eher ein schlechter Marketingwitz.

Dennoch warte ich lieber auf den Refresh, ich hoffe der lässt nicht so lange auf sich warten wie vom G80 zum G92. So ist mir die Karte noch zu heftig.
Auch wenn man den idle-mode nur begrüßen kann (wurde auch Zeit) sind 236W unter Last einfach zu krass. Das packt mein Liberty 500W nie und nimmer, komme ja jetzt schon locker auf über 300W, wenn alle 4 Kerne rödeln + rthdribl und das mit einer kleinen 65W-8800GT.

Der Preis ist natürlich auch (noch) zu hoch, aber das wird sich wohl bald einpendeln. Außerdem bin ich mit meiner popeligen GT immer noch sehr zufrieden, außer Crysis kann ich alle meine Games prima in 1920x1200 zocken, also besteht sowieso schon mal kein akuter Aufrüstungsbedarf.
Nur für mehr AA/AF sind mir 500 Euro, die ich atm sowieso nicht hab, jedenfalls zu schade.

Außerdem sollte man auch mal schauen, was die Konkurrenz so abliefert, selbst wenn es nur hilft die Preise etwas zu drücken. Wobei ich nicht denke, daß die 48er Radeons jetzt wirklich schlecht werden, aber für die schnellste single-GPU Karte soll es ja wieder nicht reichen.

Gaestle
2008-06-16, 18:47:56
gibt es denn noch irgendwo folding@home "benches" außer denen auf pcgh? (http://www.pcgameshardware.de/aid,647599/Test/Benchmark/GT200-Test_Geforce_GTX_280/260_im_Technik-Test_plus_Architektur-Analyse/&menu=browser&image_id=838683&article_id=647599)
ich brauch mehr faltpower :D

Computerbase, ziemlich weit hinten, Abschnitt GPGPU

WEGA
2008-06-16, 18:50:56
Für mich sind die Neuen GTXen nichts. Sicher, die Leistung ist für eine single-GPU Karte schon beeindruckend, aber das wurde nach 1,5a auch Zeit. Die 9800GTX war ja eher ein schlechter Marketingwitz.

Dennoch warte ich lieber auf den Refresh, ich hoffe der lässt nicht so lange auf sich warten wie vom G80 zum G92. So ist mir die Karte noch zu heftig.
Auch wenn man den idle-mode nur begrüßen kann (wurde auch Zeit) sind 236W unter Last einfach zu krass. Das packt mein Liberty 500W nie und nimmer, komme ja jetzt schon locker auf über 300W, wenn alle 4 Kerne rödeln + rthdribl und das mit einer kleinen 65W-8800GT.

Der Preis ist natürlich auch (noch) zu hoch, aber das wird sich wohl bald einpendeln. Außerdem bin ich mit meiner popeligen GT immer noch sehr zufrieden, außer Crysis kann ich alle meine Games prima in 1920x1200 zocken, also besteht sowieso schon mal kein akuter Aufrüstungsbedarf.
Nur für mehr AA/AF sind mir 500 Euro, die ich atm sowieso nicht hab, jedenfalls zu schade.

Außerdem sollte man auch mal schauen, was die Konkurrenz so abliefert, selbst wenn es nur hilft die Preise etwas zu drücken. Wobei ich nicht denke, daß die 48er Radeons jetzt wirklich schlecht werden, aber für die schnellste single-GPU Karte soll es ja wieder nicht reichen.
dafür bekommt man auch leistung
L/W ist weit aus besser wie bei der 8800ultra.

Botcruscher
2008-06-16, 18:51:15
Das Fazit für das bischen Leistungssteigerung a 1,5 Jahre, den Preis/Stromverbrauch ist wirklich enttäuschend.

Mal sehen was die b Varianten bringen...

dafür bekommt man auch leistung
L/W ist weit aus besser wie bei der 8800ultra.


Die Einheit Leistung pro Watt ist echtes Bullshitbingo der Marketingabteilung. Die spastische Bezeichnung kommt immer um einen inakzeptablen Verbrauch schön zu reden.

GeneralHanno
2008-06-16, 18:53:19
das "schlimme" ist ja, dass die GTX-280 zwar 9800GX2 performence erreicht (schlägt), dafür aber quasi den selben stromverbrauch hat.


dafür bekommt man auch leistung
L/W ist weit aus besser wie bei der 8800ultra.

bitte nur gleiche fertigungsprozesse vergleichen! und der G92 hat ein besseres P/W als der G200 !

Gast
2008-06-16, 19:02:58
das "schlimme" ist ja, dass die GTX-280 zwar 9800GX2 performence erreicht (schlägt), dafür aber quasi den selben stromverbrauch hat.



bitte nur gleiche fertigungsprozesse vergleichen! und der G92 hat ein besseres P/W als der G200 !
Was war anderes erwarten? Gleicher Fertigungsprozess, damit ist alles schon gesagt. Die Leute sollen bitte nicht immer auf den verkrüppelten G70 und dann auf den Meilenstein G80 gucken. Ohne kleinere Fertigungsprozesse können wir uns bald Leistungssteigerungen abschminken, denn die TDP kommt schon langsam ins maximal Machbare, jedenfalls was das Dual Slot Design hergibt. Ansonsten müsste man da alles umkrempeln, zudem dürften bei den Extremen immer weniger User mitmachen. Wurde ja schon afaik erwähnt, dass dies nVs letzte größte GPU gewesen ist. Danach wirds scheinbar keine Steigerung in der Diegröße geben, sprich kleinerer Fertigungsprozess ist die einzige Möglichkeit was zu reißen.

Das Auge
2008-06-16, 19:14:53
Die Einheit Leistung pro Watt ist echtes Bullshitbingo der Marketingabteilung. Die spastische Bezeichnung kommt immer um einen inakzeptablen Verbrauch schön zu reden.

Sehe ich auch so. Das ganze stösst langsam in Regionen vor, die nicht mehr so ganz mit meinen Vorstellungen von einem PC konform sind. Nvidia hätte mMn lieber den ganzen unnützen GPGPU-Kram weglassen sollen, sofern es denn hilft die TDP dank weniger Transistoren zu senken.

Wie auch immer, für dieses Monster bräuchte ich ein neues Gehäuse (oder geich die Karte in ein externes verfrachten, aber wird sowieso der nächste Schritt) und ein neues Netzteil. Das wird dann wohl auch demnächst jeder Karte beigelegt.

Klar, ich kann verstehen, wenn die Enthusiasten jubeln (endlich neues Spielzeug), aber richtig sinnvoll ist die Karte derzeit für den dreckigen Rest sicher nicht. Außer Crysis gibt es _nichts_ was nicht auch mit dem G80/G92 sehr gut bis zufriedenstellend läuft. Und bei der Portschwemme wird das auch eine ganze Weile so bleiben, das nächste Crysis wird ewig auf sich warten lassen.

tombman
2008-06-16, 19:17:32
Außer Crysis gibt es _nichts_ was nicht auch mit dem G80/G92 sehr gut bis zufriedenstellend läuft.
Stimmt ned ganz. AoC @ maxxed braucht SLI für 30fps... :)

Gast
2008-06-16, 19:26:32
Der Preis der Karte ist ja wohl eine Frechheit, über 500 €. Das sind fast 800 $.

Gauß
2008-06-16, 19:28:36
Anhand der Skalierung kann man ungefähr abschätzen, dass etwa ein Viertel der Transistoren in GP-Unterstützung investiert worden ist.

Dass der hauptsächliche Kundenkreis davon am Preis gemessen profitiert, bezweifle ich stark.
Zumindest als Endanwender interessiert es mich nicht, dass ich damit Videos in ein paar Minuten schneller encodieren kann, da ich das schlichtweg seltenst nutze.
Es gibt einfach fast keine Anwendungen für Endverbraucher die GPGPU-Fähigkeiten nutzen, und daher ist dieser Kostenaufwand einfach nicht gerechtfertigt.

Grestorn
2008-06-16, 19:29:33
500€ / 1.19 = 420€ netto

420€ * 1,55 = 650$

AnarchX
2008-06-16, 19:32:33
Anhand der Skalierung kann man ungefähr abschätzen, dass etwa ein Viertel der Transistoren in GP-Unterstützung investiert worden ist.

Dass der hauptsächliche Kundenkreis davon am Preis gemessen profitiert, bezweifle ich stark.
Zumindest als Endanwender interessiert es mich nicht, dass ich damit Videos in ein paar Minuten schneller encodieren kann, da ich das schlichtweg seltenst nutze.
Es gibt einfach fast keine Anwendungen für Endverbraucher die GPGPU-Fähigkeiten nutzen, und daher ist dieser Kostenaufwand einfach nicht gerechtfertigt.

Wenn eine GTX 200 neben der Grafik auch noch die PhysX-Berechnungen gut stemmt, profitieren auch die Endanwender.

Schlammsau
2008-06-16, 19:33:52
Wenn eine GTX 200 neben der Grafik auch noch die PhysX-Berechnungen gut stemmt, profitieren auch die Endanwender.
Bringt PhysX eigentlich jetzt noch etwas? Jetzt wo ATi sich auf Intel´s Seite geschlagen hat?

Gauß
2008-06-16, 19:34:01
500€ / 1.19 = 420€ netto

420€ * 1,55 = 650$In den U.S. of A. gibt es eine Verkaufssteuer von etwa 7%.

deekey777
2008-06-16, 19:37:51
Bringt PhysX eigentlich jetzt noch etwas? Jetzt wo ATi sich auf Intels Seite geschlagen hat?
Aber natürlich bringt PhysX was, denn jedes Spiel, dass die PhysX-Karte unterstützt, kann von jeder CUDA-fähigen Grafikkarte beschleunigt werden. Dazu kommt, dass CUDA nicht auf nur PhysX begrenzt ist, sondern darauf beinahe portiert werden darf, einen Überblick verschafft Guru3D:
http://www.guru3d.com/article/geforce-gtx-280-review-test/9

Grestorn
2008-06-16, 19:38:38
In den U.S. of A. gibt es eine Verkaufssteuer von etwa 7%.

In jeder Stadt gibt es eine andere Steuer ("VAT" = Value Added Tax) in den USA. Und alle Preisangaben in USA sind prinzipiell Netto, an der Kasse zahlt man dann den ortsüblichen Aufschlag.

Schlammsau
2008-06-16, 19:39:59
Aber natürlich bringt PhysX was, denn jedes Spiel, dass die PhysX-Karte unterstützt, kann von jeder CUDA-fähigen Grafikkarte beschleunigt werden. Dazu kommt, dass CUDA nicht auf nur PhysX begrenzt ist, sondern darauf beinahe portiert werden darf, einen Überblick verschafft Guru3D:
http://www.guru3d.com/article/geforce-gtx-280-review-test/9

hätte da intel mit Havok nicht etwas dagegen?

deekey777
2008-06-16, 19:43:01
hätte da intel mit Havok nicht etwas dagegen?
Was?
Irgendwie entgeht der Sinn deines Postings. :|

Gauß
2008-06-16, 19:44:09
Wenn eine GTX 200 neben der Grafik auch noch die PhysX-Berechnungen gut stemmt, profitieren auch die Endanwender.Ich bin mir ziemlich sicher dass dies mittelfristig und vielleicht auch langfristig mangels Industriestandards nicht sinnvoll genutzt werden kann.

Warum sollte mich das als Spieleentwickler überhaupt interessieren, wo doch Physikberechnungen schon jetzt völlig ausreichen von der CPU verarbeitet werden? Da gibt es einfach keinen Grund ein Risiko einzugehen und einen Mehraufwand zu betreiben.

Schlammsau
2008-06-16, 19:48:49
Was?
Irgendwie entgeht der Sinn deines Postings. :|
dann hab ich deinen Post nicht richtig verstanden!
Ich meinte da Intel doch mit Havok eine eigene Physikbeschleunigung anbietet, hätten die doch was dagegen, wenn man PhysX darauf portieren könnte, oder? :cool:

Mr.Magic
2008-06-16, 19:49:05
Bringt PhysX eigentlich jetzt noch etwas? Jetzt wo ATi sich auf Intel´s Seite geschlagen hat?

Die Physikberechnung soll m.W. ab DX11 in die Grafikkarten wandern bzw. ab dann wird GPGPU für die Spieleprogrammierung interessant. Lassen sich ja noch andere Sachen damit anstellen.

Gast
2008-06-16, 19:51:21
Die Physikberechnung soll m.W. ab DX11 in die Grafikkarten wandern.

Dann machts auch Sinn:
- einheitliche Schnittstelle
- Unterstützung durch alle GraKa-Hersteller

Bis dahin ist es wohl für den Gamer nutzlos (noch nutzloser als DX10.1).

dildo4u
2008-06-16, 19:51:37
@Raff ihr habt ein Fehler im Fazit euers Artikels.

"It also was beaten by a Radeon HD 3870 or a Geforce 9800 GX2"

http://www.pcghx.com/aid,647641/Reviews/Geforce_GTX_280/260_The_great_PCGH_Benchmark_Review/&page=13

Das Auge
2008-06-16, 19:51:38
Stimmt ned ganz. AoC @ maxxed braucht SLI für 30fps... :)

...bei denen du dann deine hinaufbeschworenen Mikroruckler hast :tongue:

Majestic
2008-06-16, 19:52:09
Beeindruckende Karte. Doch der Preis ist noch jenseits von gut und böse. Ich denke so gegen November/Dezenber wird das das Teil Preislich interessant. Mal schauen was die ATi so bringt. Ich hoffe das sie stark wird damit die Preise vielleicht schneller purzeln.

Gast
2008-06-16, 19:52:15
Aber natürlich bringt PhysX was, denn jedes Spiel, dass die PhysX-Karte unterstützt, kann von jeder CUDA-fähigen Grafikkarte beschleunigt werden. Dazu kommt, dass CUDA nicht auf nur PhysX begrenzt ist, sondern darauf beinahe portiert werden darf, einen Überblick verschafft Guru3D:
http://www.guru3d.com/article/geforce-gtx-280-review-test/9


Frage, wenn PhysX vom Spiel angefodert wird, kann dann der "Treiber" melden, dass die Karte ein paar dedizierte Einheiten (die FP64 Einheiten eventuell) dafür bereit stellt??

Snoopy69
2008-06-16, 19:52:52
Hat schon jmd die Karte und kann das mit den Rucklern bestätigen?
Und was ist an dem Gerücht dran, dass das "T" in "GT200" GPU-Twin darstellen soll!? Hab irgendwo mal was gelesen. Die anderen Karten haben ja nur ein "G"

Weil überlegt mal, die Transistor-Anzahl ist mit dem GT200 extrem stark angestiegen. Würde das nicht DC (Dual-Core) sprechen? Wenn ja - Mikroruckler? :eek:

Sorry, wenn das schon mal durchgekaut wurde...

tombman
2008-06-16, 19:53:20
...bei denen du dann deine hinaufbeschworenen Mikroruckler hast :tongue:
Und trotzdem ist es damit spielbar, ohne SLI: nicht :tongue:

MR ist KEIN Freifahrtschein SLi generell für sinnlos zu erklären, gelle? ;)

Auch wenn diese Auffassung vielen sehr gelegen kommt, um sich wohl mit ihrem midrange zu fühlen. NIX DA. SLi user gamen besser, TROTZ MR ;)

dildo4u
2008-06-16, 19:53:27
...bei denen du dann deine hinaufbeschworenen Mikroruckler hast :tongue:
Er meint er braucht für 30fps zwei 8800GTX im SLI und nur eine GTX280 also keine MR. ;)

pXe
2008-06-16, 19:57:09
Und trotzdem ist es damit spielbar, ohne SLI: nicht :tongue:

MR ist KEIN Freifahrtschein SLi generell für sinnlos zu erklären, gelle? ;)

Auch wenn diese Auffassung vielen sehr gelegen kommt, um sich wohl mit ihrem midrange zu fühlen. NIX DA. SLi user gamen besser, TROTZ MR ;)

Wenn man hauptsächlich Benchmarks "spielt" sowieso.


pXe

pest
2008-06-16, 19:57:30
was ich sehr verwunderlich finde oder eher seltsam ist die Tatsache das Crysis auf das Viele ihre Argumentation stützen mit am Schlechtesten skaliert im Vergleich zur alten Generation. Frag mich woran das liegt.

Mr.Magic
2008-06-16, 19:57:41
Hat schon jmd die Karte und kann das mit den Rucklern bestätigen?
Und was ist an dem Gerücht dran, dass das "T" in "GT200" GPU-Twin darstellen soll!? Hab irgendwo mal was gelesen. Die anderen Karten haben ja nur ein "G"

Weil überlegt mal, die Transistor-Anzahl ist mit dem GT200 extrem stark angestiegen. Würde das nicht DC (Dual-Core) sprechen? Wenn ja - Mikroruckler? :eek:

Sorry, wenn das schon mal durchgekaut wurde...

Laut Erfahrungsthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421609) gab es bei DMC4 Ruckler.

Twin macht keinen Sinn. Die Karte besitzt insgesamt 240 Processor Cores, bestehend aus zehn 24er Clustern - acht Prozessoren bilden ein Array (mit geteiltem, softwaregesteuertem Speicher; Scratch Memory), drei Arrays bilden einen Cluster (mit geteiltem Logik-Filter+L1-Cache).

edit: Die Ruckler kommen scheinbar, weil die Karte mittendrin kurzzeitig auf Throttled 3D umschaltet. Dürfte also ein Treiberfehler* oder ein Hitzeproblem sein.

*Zu aggressives Runtertakten. Bei mir (G80) taktet die Karte sehr früh hoch, manchmal sogar am Desktop, also scheinbar auch auf Verdacht (Input vorhanden). Das dürfte zum Stromsparen geändert worden sein.

tombman
2008-06-16, 19:57:55
Wenn man hauptsächlich Benchmarks "spielt" sowieso.

AoC ist ein benchmark? :eek:

:rolleyes:

AnarchX
2008-06-16, 20:00:10
Hat schon jmd die Karte und kann das mit den Rucklern bestätigen?
Und was ist an dem Gerücht dran, dass das "T" in "GT200" GPU-Twin darstellen soll!? Hab irgendwo mal was gelesen. Die anderen Karten haben ja nur ein "G"

Weil überlegt mal, die Transistor-Anzahl ist mit dem GT200 extrem stark angestiegen. Würde das nicht DC (Dual-Core) sprechen? Wenn ja - Mikroruckler? :eek:

Sorry, wenn das schon mal durchgekaut wurde...

Die GPU heisst nicht GT200, sondern G200, siehe HS.
Das GT200 war wohl ein teilweise herausgeleaktes "GTX 200".;)

Gast
2008-06-16, 20:02:31
Und trotzdem ist es damit spielbar, ohne SLI: nicht :tongue:

MR ist KEIN Freifahrtschein SLi generell für sinnlos zu erklären, gelle? ;)

Auch wenn diese Auffassung vielen sehr gelegen kommt, um sich wohl mit ihrem midrange zu fühlen. NIX DA. SLi user gamen besser, TROTZ MR ;)
Es verbessert sich die Eingabe oder? Jedenfalls kann ich ich mich daran mit meinen beiden 7800 GTs bei Call of Juarez erinnern. Einzeln eigentlich unspielbar, mit SLi ging es wesentlich kontrollierter, allerdings war die optisch wahrnehmbare unharmonische Bildabfolge immer noch ein Graus. Es wird Zeit nV bei den Eiern zu packen. Wenn jetzt alle losstürmen und SLi wieder eine Chance geben, werden die MRs in absehbarer Zukunft nie angepackt werden.

Gast
2008-06-16, 20:05:30
was ich sehr verwunderlich finde oder eher seltsam ist die Tatsache das Crysis auf das Viele ihre Argumentation stützen mit am Schlechtesten skaliert im Vergleich zur alten Generation. Frag mich woran das liegt.

Nun, vieleicht limitiert doch die Textureleistung in Crysis eher als alles andere beim G200.

Ein Test hierzu wäre mal interessant, da man den GPU Takt ohne den Shadertakt erhöhen kann, wäre hier eine Messung, was mehr Performance bringt, angebracht.

HOT
2008-06-16, 20:05:44
Hmm... sicherlich, die Karte ist schnell. Aber so der Oberkracher ist das Teil ja nicht unbedingt finde ich... muss wohl am relativ niedrigen Takt auch liegen. Technisch ist man ja wohl immernoch auf dem Stand von 2006 steckengeblieben - warum auch immer man nicht für nötig befunden hat, daran was zu machen. Eine D3D10.1 Implementierung hätte sicher nicht geschadet und würde im besseren AA bei D3D10 Spielen resultieren. Das fällt ja jetzt dank NV wohl auch bei ATI flach. Na ja, warten wir mal ab, wie die neuen ATI-Moppeds so werden.

Snoopy69
2008-06-16, 20:05:52
Äh Leute??? :|

Sollte man vielleicht doch besser zu 2x9800GX2 greifen, statt zu 2x GTX280? :O
Oder geht 9800GX2/SLI immer noch nicht?

http://www.abload.de/img/hc_253h12.jpg http://www.abload.de/img/hc_254i41.jpg


Es wird Zeit nV bei den Eiern zu packen. Wenn jetzt alle losstürmen und SLi wieder eine Chance geben, werden die MRs in absehbarer Zukunft nie angepackt werden.
Ich sehe 2 Möglichkeiten...

NV und ATI weiss nicht wie sie es lösen sollen oder die Lösung ist immens teuer.
Was könnte es noch sein?

tombman
2008-06-16, 20:06:10
@gast
Jo, erstens die EIngabe, und die Ruckler sind ganz anderer "Natur". Wenn du zb 18fps single hast und 30fps mit SLi, dabei aber MR, dann ist letzteres einfach spielbar, ersteres ganz sicher NICHT. Es ist zwar nicht so schön wie "echtes 30 single fps", aber immer noch Welten von 18fps entfernt ;)

@Snoopy,
in den reinen fps wirst du mit 2x GX2 wahrscheinlich vor 2x GTX280 liegen, in der Spielbarkeit aber ganz sicher dahinter. Und deutlich mehr Ärger wirst auch haben..IMO. Solche Leistung will man gerne in hohe Auflösungen + massiv AA usw stecken, und da wird dir der schwache 512mb ram der GX2 um die Ohren fliegen.
Kenne Leute, die hatten Quad-SLi und wolltens wieder loswerden...

Nene, mehr als 2 Gpus mache ich nicht, solange es heutige MRs gibt. Wenn ATI ein neues Wunder-CF herausbringt, bitte, dann kann man neu überdenken, aber in der jetzigen Form: nope.

dildo4u
2008-06-16, 20:06:37
Was wurde da eigentlich so extrem aufgebohrt das der Fablemark so abgeht?

http://s5.directupload.net/images/080616/9jyrb493.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/11/#abschnitt_theoretische_benchmarks

Schlammsau
2008-06-16, 20:09:04
Jo, erstens die EIngabe, und die Ruckler sind ganz anderer "Natur". Wenn du zb 18fps single hast und 30fps mit SLi, dabei aber MR, dann ist letzteres einfach spielbar, ersteres ganz sicher NICHT. Es ist zwar nicht so schön wie "echtes 30 single fps", aber immer noch Welten von 18fps entfernt ;)
merkst du was....du redest auf einmal ganz anders wie noch in meinem MGPU Thread! Dort hast du MGPU noch verteufelt, wohl noch in der Hoffnung, dass die GTX280 3x schneller wird! Jetzt da dem nicht so ist, ist SLi doch nicht so schlimm!?
Du bist ein Witz.....und ihr wollt heute ein zweites Cordoba? :P

pest
2008-06-16, 20:11:37
Nun, vieleicht limitiert doch die Textureleistung in Crysis eher als alles andere beim G200.


Könnte sein, oder ein ungünstiges Verhältnis innerhalb der GPU
Dann müssten die aktuellen ATIs auch noch mehr abloosen , denke ich


Jo, erstens die EIngabe, und die Ruckler sind ganz anderer "Natur". Wenn du zb 18fps single hast und 30fps mit SLi, dabei aber MR, dann ist letzteres einfach spielbar, ersteres ganz sicher NICHT. Es ist zwar nicht so schön wie "echtes 30 single fps", aber immer noch Welten von 18fps entfernt ;)


2 x 3 macht 4
Widdewiddewitt und Drei macht Neune !!
Ich mach' mir die Welt
Widdewidde wie sie mir gefällt

:)

Odal
2008-06-16, 20:13:11
naja tmobi hat auch gesagt er kauft sich einen GTX280 nur wenn er 88Ultra Sli + 30% schafft :D

nun steht da eher ein - und dennoch hat er sich zwei stück bestellt :D

Grestorn
2008-06-16, 20:14:13
Sagt mal, die Missgunst und der Neid hier im Thread erklimmt ja immer neue Höhen.

tombman
2008-06-16, 20:16:11
Sagt mal, die Missgunst und der Neid hier im Thread erklimmt ja immer neue Höhen.
Jo, echt schlimm. Nur weil sie wissen, daß sie nicht schneller sein können als ich, ohne sich 2x X2 kaufen zu müssen, und das sind 1000€. Dazu sind die wenigsten bereit, also wird gebashed :cool:

Das Auge
2008-06-16, 20:16:33
Und trotzdem ist es damit spielbar, ohne SLI: nicht :tongue:

MR ist KEIN Freifahrtschein SLi generell für sinnlos zu erklären, gelle? ;)

Auch wenn diese Auffassung vielen sehr gelegen kommt, um sich wohl mit ihrem midrange zu fühlen. NIX DA. SLi user gamen besser, TROTZ MR ;)

Also komm, zocken könnte ich es trotzdem, zwar mit weniger Details oder AA/AF, dafür aber mit smoothen 30fps.

Außerdem will ich SLI gar nicht generell schlechtreden, aber besser gamen tut damit niemand. Nur die Grafik wird schöner :tongue:

tombman
2008-06-16, 20:19:18
Also komm, zocken könnte ich es trotzdem, zwar mit weniger Details oder AA/AF, dafür aber mit smoothen 30fps.

Ähm, wo ist da jetzt der Sinn? Man kann auch gleich ein anderes Spiel spielen, quake3, dafür in 300fps, gaaanz toll :rolleyes:

AnarchX
2008-06-16, 20:19:34
Was wurde da eigentlich so extrem aufgebohrt das der Fablemark so abgeht?

http://s5.directupload.net/images/080616/9jyrb493.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/11/#abschnitt_theoretische_benchmarks

Nunja, bei G200 gab es ja einige ROP-Verbesserungen:
- bessere ROP-Kompression wie bei G9x
- Fullspeed-Blender, also 32 Pixel pro Takt vs 12 bei der 88GTX/U
- besseres Z-Culling

pest
2008-06-16, 20:20:07
Jo, echt schlimm. Nur weil sie wissen, daß sie nicht schneller sein können als ich, ohne sich 2x X2 kaufen zu müssen, und das sind 1000€. Dazu sind die wenigsten bereit, also wird gebashed :cool:

Jaja, wenn die Argumente ausgehen issess immer der Neid. :rolleyes:
mein Gott tombman du bist über 30...ich hoffe du merkst wenigstens Selbst noch wenn deine Aussagen ne 180° Wende hinlegen.

tombman
2008-06-16, 20:20:25
2 x 3 macht 4
Widdewiddewitt und Drei macht Neune !!
Ich mach' mir die Welt
Widdewidde wie sie mir gefällt

Komm wieder wenn du verstanden hast was ich gesagt habe...

Oder was ist an "30fps + MR ist BESSER als 18fps ohne MR" nicht zu verstehen?

tombman
2008-06-16, 20:23:20
naja tmobi hat auch gesagt er kauft sich einen GTX280 nur wenn er 88Ultra Sli + 30% schafft :D

nun steht da eher ein - und dennoch hat er sich zwei stück bestellt :D
Nicht dennoch, sondern AUCH deswegen... ich will eine neue Leistungsregion nach 2 Jahren.
Und das geht nur mit 2 Karten, eine Karte würde nix bringen. Ja, ok, smoothe fps, aber ich will auch MEHR davon ;)

Schließlich brauchts einen kick, und den gibts mit einer GTX280 nur begrenzt ;)

MadManniMan
2008-06-16, 20:29:10
Man kann sicherlich guten Gewissens sagen, dass mehr Prügelleistung von der GTX 280 erwartet wurde - klar, ultrahohe Einstellungen und Auflösungen bringen den erhofften Gewinn, aber bei allem darunter ist der recht geringe Boost dann doch ernüchternd.

Ich habe ja eigentlich genau diese Leistung so lange erwartet, bis ich eben den Preis von über 500 € gelesen habe... da MUSSTE nV ja noch was in der Hinterhand haben.

Hattense aber nich, kochen auch nur mit Wasser.

tombman
2008-06-16, 20:30:31
Hatten sie schon, aber nicht für den gamer...eher GPGPU...

Das Auge
2008-06-16, 20:30:33
Ähm, wo ist da jetzt der Sinn? Man kann auch gleich ein anderes Spiel spielen, quake3, dafür in 300fps, gaaanz toll :rolleyes:

Schwachsinniger Vergleich, sry. Selbst mit weniger Details sieht AoC ganz sicher nicht wie Q3 aus :rolleyes:

Für zwei Games zwei neue Karten? ICH finds wie gesagt _etwas_ übertrieben, ganz ohne Neid ;)

Gast
2008-06-16, 20:32:29
Sagt mal, die Missgunst und der Neid hier im Thread erklimmt ja immer neue Höhen.

Grestorn, das hat nichts mit Missgunst oder Neid zu tun. Tombman kann sich kaufen was er will, egal wie schnell/teuer/von welcher Firma. Ist mir persönlich und wahrscheinlich auch vielen anderen herzlich egal. Sein Diskussionsstil ist allerdings wenig kultiviert und auch etwas einseitig.

@Tombman:
Wenn du einfach eingestehst, dass die GTX280 nicht deinen Erwartungen entspricht, würde das etwas Größe zeigen. Dieses Eingeständnis steht auch nicht im Widerspruch sich trotzdem 2 GTX280 zu zulegen.

tombman
2008-06-16, 20:33:33
Schwachsinniger Vergleich, sry. Selbst mit weniger Details sieht AoC ganz sicher nicht wie Q3 aus :rolleyes:
Weniger Details? => Weiche, SATAN ;D

Bevor ich weniger Details in einem Spiel einstelle weigere ich mich es zu spielen :cool:

Für zwei Games zwei neue Karten? ICH finds wie gesagt _etwas_ übertrieben, ganz ohne Neid ;)
Es sind nicht nur 2 games... 8800GTX SLI hat erstmal 1920x1200 in fps Regionen gebracht, die fps-mäßig spielbar waren. Dann kamen die MR ;) Und deshalb brauche ich OVERKILL um von der MR Zone wegzukommen ;)

Und was wäre ein tombman ohne Übertreibung? :D

Gast
2008-06-16, 20:34:58
Und was wäre ein tombman ohne Übertreibung? :D

Ein armer, einsamer Mensch.

tombman
2008-06-16, 20:36:22
Ein armer, einsamer Mensch.
Und das wäre er MIT nicht? :rolleyes:

@Gast, Nr 2343: wenn mich wer direkt gefragt hätte, ob ich enttäuscht bin von der GTX280, dann hätte er eine direkt Antwort erhalten.
Das ist aber nicht geschehen...

@mods, bitte überprüft mal die IP Adressen der ganzen Gäste. Da haben sich sicher wieder einige regs ausgeloggt um gratis bashen zu können...

MadManniMan
2008-06-16, 20:39:22
Hatten sie schon, aber nicht für den gamer...eher GPGPU...

Wieviele GPGPU-Anwendungen spielst Du, wieviele GPGPU-Anwendungen spielen die Gamer im allgemeinen?