PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 295: (P)Review-Thread


Seiten : [1] 2 3

deekey777
2008-12-18, 03:02:34
Tomorrow 18 December ... (http://www.guru3d.com/news/tomorrow-18-december-/)

http://www.abload.de/img/imageview.phpo2jg.jpeg

Esikatsaus: NVIDIA GeForce GTX 295 (http://plaza.fi/muropaketti/artikkelit/naytonohjaimet/esikatsaus-nvidia-geforce-gtx-295)

GeForce GTX 295 preview (http://www.guru3d.com/article/geforce-gtx-295-preview/)@Guru3D
GeForce GTX 295 Performance Pre-Preview (http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/default.asp)@FiringSquad
Geforce GTX 295 im Performance-Test (http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=1)@PCGH
NVIDIA GeForce GTX 295 Preview (http://enthusiast.hardocp.com/article.html?art=MTU5OSwxLCxoZW50aHVzaWFzdA==)@[H]ardOCP
NVIDIA GeForce GTX 295 Preview - Performance King Returns (http://www.pcper.com/article.php?aid=651)@PCPer
Nvidia GTX295 Performance Preview (http://www.overclockersclub.com/reviews/gtx295/)@OCClub
First Look: Nvidia’s GeForce GTX 295 graphics card (http://www.bit-tech.net/hardware/2008/12/18/first-look-nvidia-geforce-gtx-295-1792mb/1)@Bit-Tech.net


Jetzt mit echten Reviews:
Test: Nvidia GeForce GTX 295 (1/27) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/)@CB
Geforce GTX 295 - Test der finalen Nvidia-Dual-Grafikkarte (http://www.pcgameshardware.de/aid,671953/Test/Benchmark/Geforce_GTX_295_-_Test_der_finalen_Nvidia-Dual-Grafikkarte/)@PCGH
BFGTech GeForce GTX 295 (http://enthusiast.hardocp.com/article.html?art=MTYwOCwxLCxoZW50aHVzaWFzdA==)@[H]ardOPC
GeForce GTX 295 Quad SLI gaming test (http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/)@Guru3D
GeForce GTX 295 review - BFG (http://www.guru3d.com/article/geforce-gtx-295-review-bfg/)@Guru3D
NVIDIA GeForce GTX 295 (http://www.ixbt.com/video3/gt200-6-part1.shtml)@iXBT

AnarchX
2008-12-18, 08:59:08
Mit $499 MSRP ziemlich aggressiv angepreist, gerade wenn man den Dollarkurs momentan im Auge behält.
Mehr als 450€ Listenpreis für Europa sollten es dann wohl nicht sein.
Und dafür gibt es fast 2GiB Speicher, 2800M Transitoren, ~1000mm² Die-Size und 996-Bit SI. :ugly:

MartinRiggs
2008-12-18, 09:06:14
mir wäre die neue GTX285 lieber:frown:
10% mehr Leistung als die alte GTX280 bei weniger Stromverbrauch(2x6PIN) das ganze auch recht aggresiv eingepreist und ich kann endlich GTA4 mit hohen Texturen spielen:up:

derguru
2008-12-18, 10:10:24
Mit $499 MSRP ziemlich aggressiv angepreist, gerade wenn man den Dollarkurs momentan im Auge behält.
Mehr als 450€ Listenpreis für Europa sollten es dann wohl nicht sein.

haben ja auch was gut zumachen was die preistrategie angeht siehe 260gtx & 280gtx zum release.diesmal sollen die preise stabiler bleiben auf längere zeit damit nicht noch mehr exclusivepartner die düse machen;)

crux2005
2008-12-18, 10:19:34
mir auch, und mit 2GiB VRAM :-)

PCGH_Raffael
2008-12-18, 10:24:04
http://www.pcgameshardware.de/aid,670581/News/Geforce_GTX_295_in_Kuerze_im_Test_bei_PC_Games_Hardware/

MfG,
Raff

Exxtreme
2008-12-18, 10:51:02
gibt's schon irgendwo technische Spezifikationen?

dildo4u
2008-12-18, 10:52:21
gibt's schon irgendwo technische Spezifikationen?
http://www.xtremesystems.org/forums/showpost.php?p=3507820&postcount=311

Exxtreme
2008-12-18, 10:54:56
http://www.xtremesystems.org/forums/showpost.php?p=3507820&postcount=311
Danke. Und Dinge wie Shaderversionen sind noch nicht bekannt oder?

dildo4u
2008-12-18, 10:59:19
Danke. Und Dinge wie Shaderversionen sind noch nicht bekannt oder?
DX10 der Chip ist wie die neueren GTX 260 (SP216) ein 55nm Shrink des G200.
http://ht4u.net/news/2737_vollstaendige_gtx_260_in_55-nm-fertigung_gesichtet/

Bei der GTX 295 sinds nur 2 Chips mit den vollen 240SP.

Exxtreme
2008-12-18, 11:53:49
Dann wird diese Generation wohl wieder recht "langweilig" werden, schade. Dachte, ich kann meine Radeon 3870 aufrüsten aber einen Downgrade bei den Features mache ich nicht.

Raff
2008-12-18, 12:10:38
Schon eine HD 4870/1.024 klatscht eine 3870 sowas von an die Wand. Und wenn du echt MGPU ertragen kannst, ist die 4870 X2 nochmal eine Dimension schneller.

MfG,
Raff

Gast
2008-12-18, 12:14:40
Wieder eine Karte, die die Welt nicht braucht. Meinetwegen schnell, technisch aber rückständig.

Fetza
2008-12-18, 12:29:09
Mit $499 MSRP ziemlich aggressiv angepreist, gerade wenn man den Dollarkurs momentan im Auge behält.
Mehr als 450€ Listenpreis für Europa sollten es dann wohl nicht sein.
Und dafür gibt es fast 2GiB Speicher, 2800M Transitoren, ~1000mm² Die-Size und 996-Bit SI. :ugly:

Naja, die aufzählung ist so aber doch kaum sinnvoll. Es müsste doch vielmehre 2x896 speicher, 2x 1,4 millio transistoren, 2x ~500mm² die-size und 2x996 speicherinterface heißen.

Ich denke mal das sich kaum etwas daran geändert hat, dass bei sli das graka-ram doppelt belegt wird, und in dem fall hat man es doch letztlich mit dem speicherausbau einer 260 gtx zu tun.

So wie du das aufzählst klingt es ja schon nach dem gt212/300. ;)

dargo
2008-12-18, 12:39:45
Mit $499 MSRP ziemlich aggressiv angepreist, gerade wenn man den Dollarkurs momentan im Auge behält.
Mehr als 450€ Listenpreis für Europa sollten es dann wohl nicht sein.
Und dafür gibt es fast 2GiB Speicher, 2800M Transitoren, ~1000mm² Die-Size und 996-Bit SI. :ugly:
Naja, eigendlich sind es 896Bit. Und wenn man es genau nimmt 2x 448Bit. ;)
Mal davon ab, mir wäre eine "GTX 380" (Single-GPU) mit diesen Daten @40nm und diesem Preis lieber. :biggrin:

Gast
2008-12-18, 13:31:15
Und wieder wurde der Testablauf von Nvidia streng vorgegeben. Unabhängige Reviews wird's erst nächstes Jahr geben.

LovesuckZ
2008-12-18, 13:33:26
Deswegen nennt man es auch Previews. :ugly:
Viel schlimmer sind die Seiten, die sich darauf einlassen. Das zeigt nämlich nur mehr, dass nicht der Journalismus gilt sondern die pure Lust nach Aufmerksamkeit und Hits.

igg
2008-12-18, 13:34:19
@gast: Tja, so ist das halt :-(. Aber sobald ein paar Enthusiasten das Teil in den Händen haben wirds in den einschlägigen Foren entsprechende User-Reviews geben.

Exxtreme
2008-12-18, 13:36:32
Schon eine HD 4870/1.024 klatscht eine 3870 sowas von an die Wand. Und wenn du echt MGPU ertragen kannst, ist die 4870 X2 nochmal eine Dimension schneller.

MfG,
Raff
Also wenn dann will ich schon ein sehr ordentliches Upgrade und kein reines Speed-Upgrade.

w0mbat
2008-12-18, 13:55:15
http://www.hardwarezone.com/articles/view.php?cid=3&id=2770

NVIDIA GeForce GTX 295 1792MB GDDR3 (ForceWare 180.87)
NVIDIA GeForce GTX 280 1GB GDDR3 (ForceWare 180.48)
NVIDIA GeForce GTX 260 Core 216 896MB GDDR3 (ForceWare 180.48)
ATI Radeon HD 4870 X2 2GB GDDR5 (Catalyst 8.10)
ATI Radeon HD 4870 512MB GDDR5 (Catalyst 8.10)

Haha, ein echt fairer Vergleich :rolleyes:

Gast
2008-12-18, 13:56:30
Also wenn dann will ich schon ein sehr ordentliches Upgrade und kein reines Speed-Upgrade.


Der GT300 wird aber erst in Q4/2009 aufschlagen, dafürallerdings auch mit DirectX11 und mit Sicherheit weiteren Überraschungen.

Aber ich sehe es ähnlich, ich habe selber noch eine GF7800 GTX und warte auch auf das Ding. Eigentlich wollte ich auch auf den Zug aufspringen, aber lediglich 1 Jahr eine GTX280 zu haben, um dann wieder umzusatteln rechtfertigt nicht den Kaufpreis.

Gast
2008-12-18, 13:59:17
Was für ein Netzteil wird man denn bei der Stromaufnahme mind. benötogen ? Ouhh... Mit Sicherheit etwas großes...


Und gibt es jetzt immer noch die Mikroruckler oder wurden die seitens eines aktuellen Treibers behoben ? Nvidia wollte sich ja darumkümmern ! War doch so, oder ?

derguru
2008-12-18, 14:12:39
Was für ein Netzteil wird man denn bei der Stromaufnahme mind. benötogen ? Ouhh... Mit Sicherheit etwas großes...


Und gibt es jetzt immer noch die Mikroruckler oder wurden die seitens eines aktuellen Treibers behoben ? Nvidia wollte sich ja darumkümmern ! War doch so, oder ?

600W Markennetzteil wird reichen und die mikroruckler werden sicherlich noch da sein.

mapel110
2008-12-18, 14:27:30
http://www.pcpop.com/doc/0/355/355395.shtml
steht wohl nicht viel neues drin

Tarkin
2008-12-18, 14:53:10
http://www.hardwarezone.com/articles/view.php?cid=3&id=2770



Haha, ein echt fairer Vergleich :rolleyes:

OMG ... also ehrlich, entweder der Reviewer ist schwerst geistesgestört, oder nVidia hat Druck ausgeübt. Frechheit sowas!

Wundert mich überhaupt nicht. Das sind die altbekannten Tricks :|

Die wollen die Leute echt für dumm verkaufen. Macht mich irre. Genau sowas kommt meist nur aus einer bestimmten Ecke.

Ich könnte KOTZEN!

Spasstiger
2008-12-18, 14:53:35
http://www.pcpop.com/doc/0/355/355395.shtml
steht wohl nicht viel neues drin
Die GTX 295 schlägt die HD 4870 X2 durchweg auch in 2560x1600 mit 4xAA. Der kleinere VRAM gegenüber der HD 4870 X2 scheint also bei heutigen Games kein Nachteil zu sein.

derguru
2008-12-18, 14:53:39
eröffnet:)

http://www.guru3d.com/article/geforce-gtx-295-preview/1

dildo4u
2008-12-18, 14:54:59
Die GTX 295 schlägt die HD 4870 X2 durchweg auch in 2560x1600 mit 4xAA. Der kleinere VRAM gegenüber der HD 4870 X2 scheint also bei heutigen Games kein Nachteil zu sein.
Crysis mal wieder die Ausname.
http://www.guru3d.com/article/geforce-gtx-295-preview/10

derguru
2008-12-18, 14:56:30
Die GTX 295 schlägt die HD 4870 X2 durchweg auch in 2560x1600 mit 4xAA. Der kleinere VRAM gegenüber der HD 4870 X2 scheint also bei heutigen Games kein Nachteil zu sein.

far cry2 und crysis aber nicht

edit far cry 2 erst bei 8aa

Spasstiger
2008-12-18, 14:57:51
far cry2 und crysis aber nicht
:confused:

http://img5.pcpop.com/ProductImages/0x0/1/1057/001057228.jpg

http://img5.pcpop.com/ProductImages/0x0/1/1055/001055724.jpg

edit far cry 2 erst bei 8aa
Ich sehe bei pcpop keine Benchmarks mit 8xAA.

dildo4u
2008-12-18, 14:58:39
far cry2 und crysis aber nicht
FC 2 erst unter 8XAA Crysis schon unter 2XAA.(2560*1600)Laut Guru 3D.

Spasstiger
2008-12-18, 15:01:07
Wie siehts mit Mikrorucklern aus, gibts dazu schon einen Test?

mapel110
2008-12-18, 15:02:13
http://www.hexus.net/content/item.php?item=16657
http://www.anandtech.com/video/showdoc.aspx?i=3481
keine Benchmarks

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/

VooDoo7mx
2008-12-18, 15:02:57
Mit $499 MSRP ziemlich aggressiv angepreist, gerade wenn man den Dollarkurs momentan im Auge behält.
Mehr als 450€ Listenpreis für Europa sollten es dann wohl nicht sein.
Und dafür gibt es fast 2GiB Speicher, 2800M Transitoren, ~1000mm² Die-Size und 996-Bit SI. :ugly:

Mit wird die Hose eng. :ulol:

dildo4u
2008-12-18, 15:03:37
PCGH: Geforce GTX 295 - Erster Test der Nvidia-Dual-Grafikkarte

http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/

deekey777
2008-12-18, 15:13:36
FiringSquad hat malwieder gezeigt, dass solche Grafikkarten nicht dafür gemacht sind, um mit 4xMSAA zu spielen.

KonKorT
2008-12-18, 15:14:25
http://www.hardware-infos.com/news.php?news=2596

Demnach werden unabhängige Testberichte am 8. Januar 2009 präsentiert werden, was auch gleichzeitig Launch der GTX 285 ist. Von der wird es dann aber erst zum 15. Januar 2009 unabhängige Tests geben - hält Nvidia so künstlich die Spannung hoch?!

derguru
2008-12-18, 15:18:16
FiringSquad hat malwieder gezeigt, dass solche Grafikkarten nicht dafür gemacht sind, um mit 4xMSAA zu spielen.

sag das nicht zu laut sonst geht das mit dem 8aa wieder los;D

Unyu
2008-12-18, 15:20:34
FiringSquad hat malwieder gezeigt, dass solche Grafikkarten nicht dafür gemacht sind, um mit 4xMSAA zu spielen.
Stimmt, sondern für 16x oder 32x.

deekey777
2008-12-18, 15:24:35
Stimmt, sondern für 16x oder 32x.
16xQ bitte. Nicht 16xCSAA.

Gast
2008-12-18, 15:27:58
G200b-B3 nicht schlecht, da wurde wohl noch viel arbeit in den G200 gesteckt!

Unyu
2008-12-18, 15:34:01
16xQ bitte. Nicht 16xCSAA.
Bitte 16x, 16xQ oder 16xS. Ist alles nutzbar, je nach Situation.

dildo4u
2008-12-18, 15:34:56
16xQ bitte. Nicht 16xCSAA.
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=8

Gast
2008-12-18, 15:38:09
GPU-z erkennt trotz Beta-Version weder Transistor-Anzahl noch Die-Size der GTX-295-GPUs korrekt.

http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/

Keine 1400Mio. mehr????

deekey777
2008-12-18, 15:39:47
Bitte 16x, 16xQ oder 16xS. Ist alles nutzbar, je nach Situation.
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=8
Ihr versteht irgendwie die Intention nicht: FS ist die einzige Seite, die durchgängig mit 8xMSAA getestet haben (mit Ausnahmen). PCGH hatte sich wohl nicht getraut, genau wie alle anderen Seiten.

Coda
2008-12-18, 15:52:16
Warum sollte man das tun? Sehr viele sind auch mit 4x zufrieden. Dann müsste man im Umkehrschluss auch einfach mal A.I. off benchen. Macht man aus dem gleichen Grund nicht.

uweskw
2008-12-18, 15:55:14
So ne Karte und dann 4AA?
Das ist wie nen Porsche im Stadtverkehr!

derguru
2008-12-18, 16:00:23
erstmal glaub ich nicht das viele mit 4aa zufrieden sind,vorallem nicht die leute die solche graka´s haben.
2.das man mit a.i. off nicht bencht hat eigentlich nur einen grund und das ist nur weil kein cf funtkioniert

8msaa wir nicht gebencht weil nv karten relative stark einbrechen,eine andere begründung gibt es nicht.

MadManniMan
2008-12-18, 16:01:19
Demnach werden unabhängige Testberichte am 8. Januar 2009 präsentiert werden, was auch gleichzeitig Launch der GTX 285 ist. Von der wird es dann aber erst zum 15. Januar 2009 unabhängige Tests geben - hält Nvidia so künstlich die Spannung hoch?!

Hype hype baby!

Ich finds fürchterlich, wie sehr sich die Mags als Werkzeugs missbrauchen lassen - es geht doch sowieso nur um die Pagehits. Dass die 295 ungefähr doppelt so schnell, wie eine 260 würde, war ja eh klar.
Wie schnell genau und mit welchen Nachteilen, ja erst das würde der Berichterstattung Gehalt, Wert und Sinn verschaffen.

Schämt euch, Boulevardblätter!

Coda
2008-12-18, 16:02:29
So ne Karte und dann 4AA?
Das ist wie nen Porsche im Stadtverkehr!
Auch wieder wahr. Hast recht.

dildo4u
2008-12-18, 16:02:40
Das sind eh erst Previews 8XMSAA Benches kommen noch auch von der PCGH steht schon in der Preview.Für ne erste Einschätzung reicht es wenn man die Karte kaufen kann wirds auch vollständige Tests geben.

Raff
2008-12-18, 16:03:57
Dass die 295 ungefähr doppelt so schnell, wie eine 260 würde, war ja eh klar.

Dieser Argumentation zur Folge, hätte man weder die HD 4870 noch deren X2-Pendant testen müssen, nachdem die 4850 durchgenommen wurde. Auch Tests der GTX260-216 erscheinen sinnlos, wo doch die Ergebnisse der GTX260-192 und GTX280 bekannt waren. Die Liste ist fast unendlich. Simple Mathematik macht sehr, sehr viele Tests obsolet. Diese Mathematik beherrschen aber 99,1337 Prozent der Leute nicht.

MfG,
Raff

MadManniMan
2008-12-18, 16:09:30
Dieser Argumentation zur Folge...

Du hättest aber auch ganz einfach den entscheidenden Satz mitzitieren können :rolleyes:

Was bringen uns Ergebnisse, deren Rahmen nV schon vorher höchstselbst abgesteckt hat? Ihr unterstützt damit gleich zwei hässliche Tendenzen:
1) ihr legitimiert Ergebnisse, die Meinungen bilden, diese aber nicht bilden können dürften
2) langfristig mindert ihr eure Glaubwürdigkeit.

=Floi=
2008-12-18, 16:10:26
die fps sollten ber auch im spielbaren bereich liegen...

warum schneiden da die 260² und die 280er so schlecht ab? die können sich ja fast garnicht vom G80 und G92 absetzen. :rolleyes:

Blaire
2008-12-18, 16:13:10
Ihr versteht irgendwie die Intention nicht: FS ist die einzige Seite, die durchgängig mit 8xMSAA getestet haben (mit Ausnahmen). PCGH hatte sich wohl nicht getraut, genau wie alle anderen Seiten.

Vieleicht weil es ein falsches Bild aufwirft? Warum soll man 8xMSAA nehmen wenn man viel bessere Alternativen aus Performance und Qualitätssicht bekommt? 8xMSAA wird generell überbewertet, mittesten kann man es , aber für Vergleiche würde ich es nicht nutzen. Aus ganz genau dem Grund da neuere Spiele und je höher die Auflösung die Luft bereits für 4xAA recht dünn wird und man oft an Spielbarkeitsgrenzen gerät. Man sollte generell dazu übergehn spielbare Settings zu testen ähnlich wie hardocp.com es macht, das ist um einiges aussagekräftiger für Vergleiche verschiedenster Grafikkarten.

dildo4u
2008-12-18, 16:13:50
Du hättest aber auch ganz einfach den entscheidenden Satz mitzitieren können :rolleyes:

Was bringen uns Ergebnisse, deren Rahmen nV schon vorher höchstselbst abgesteckt hat? Ihr unterstützt damit gleich zwei hässliche Tendenzen:
1) ihr legitimiert Ergebnisse, die Meinungen bilden, diese aber nicht bilden können dürften
2) langfristig mindert ihr eure Glaubwürdigkeit.
NV hier NV da: :rolleyes:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/viele_previews_ati_radeon_hd_4870_x2/

Mit der X2 wars genau das Selbe auch dort gab es Einschränkungen wie die Previews aussehen sollen.Wie gesagt so lange es die Karte eh nicht zu kaufen gibt ist das informativ.Jeder hat die Möglichkeit auf finale Tests zu warten da man vorher eh nich an die Karten kommt.

derguru
2008-12-18, 16:16:46
http://pctuning.tyden.cz/index.php?option=com_content&task=view&id=12266&Itemid=44&limit=1&limitstart=10

http://www.abload.de/img/vysledkyry54.png

PCGH_Raffael
2008-12-18, 16:20:11
Da auch hier eine Auffrischung der Gedächtnisse von Nöten ist, zitiere ich nochmals aus unserem Test der Radeon HD 4870 X2 (http://www.pcgameshardware.de/aid,653166/Test/Benchmark/Radeon_HD_4870_X2_im_PCGH-Benchmark-Test/):

"AMDs Launchpolitik mutet derzeit seltsam an. Schon zur Einführung der Radeon HD 4850 gestattete man der Presse anfangs nur Tests in Häppchenform: Benchmarks ja, Informationen zur Architektur nein. Dasselbe Spiel wiederholt sich mit der 4870 X2. Wir dürfen Ihnen eine Hand voll Benchmarks und Eindrücke liefern, Details zur Architektur bleiben tabu. Das hält uns aber nicht davon ab, die Ergebnisse zu deuten."

Diese Art der Previews ist mittlerweile Standard. Aber erst, wenn Nvidia davon Gebrauch macht, startet der virtuelle Krieg. Nur wenige erkennen, dass die Werte zwar nur einen Teilbereich abstecken, diesen aber authentisch wiedergeben.

MfG,
Raff

mapel110
2008-12-18, 16:22:05
Mit GTA4 haben sie natürlich auch einen "nvidia-Titel" gefunden.

MadManniMan
2008-12-18, 16:28:55
Da auch hier eine Auffrischung der Gedächtnisse von Nöten ist, zitiere ich nochmals...

Das ist mir ja sowas von fürchterlich egal, ob es auch bei ATi schon so war - hätte ich da mitdiskutiert, hätte ich genauso gemosert, keine Angst ;)

Ihr bekrittelt die Vorgehensweise von ATi bzw. nV, habt aber andererseits keine Eier, mal ein Bisschen Boykott zu üben.


UNABHÄNGIG, ÜBERPARTEILICH :uup:

reunion
2008-12-18, 16:29:02
Es sind eben die selben fünf Spiele wie schon bei der letzten Werbeaktion plus GTA4.

dildo4u
2008-12-18, 16:29:49
Es sind eben die selben fünf Spiele wie schon bei der letzten Werbeaktion plus GTA4.
ATI hat Treiber nachgelegt jeder kann die ATIs mit dem 8.12 gegentesten.

derguru
2008-12-18, 16:31:54
ATI hat Treiber nachgelegt jeder kann die ATIs mit dem 8.12 gegentesten.

es wurde der 8.12 treiber verwendet,da braucht man nix nachlegen.

Gast
2008-12-18, 16:32:55
Mit GTA4 haben sie natürlich auch einen "nvidia-Titel" gefunden.

Jo ist ein richtiger NV Titel direkt von den billig Konsolen die nix leisten, erst überlegen und dann schreiben...

dildo4u
2008-12-18, 16:33:34
es wurde der 8.12 treiber verwendet,da braucht man nix nachlegen.
Dann gibts hier auch nix zu Meckern imo.

PCGH_Raffael
2008-12-18, 16:36:15
Ihr bekrittelt die Vorgehensweise von ATi bzw. nV, habt aber andererseits keine Eier, mal ein Bisschen Boykott zu üben.


UNABHÄNGIG, ÜBERPARTEILICH :uup:

Warum sollten wir das boykottieren? Ati macht es, Nvidia macht es. Komplette Tests folgen in Kürze. Sollen wir auf die Tests verzichten? Wer hat etwas davon? Nochmals: Das sind keine "gekauften"/gestellten Werte, sondern brandneue Zahlen, die mit unseren Spielständen entstanden sind.

Und jede Seite, die jetzt einen Heiligenschein aufsetzt, wurde ganz einfach nicht mit einem der raren Testsamples versorgt. That's it.

MfG,
Raff

MadManniMan
2008-12-18, 16:36:41
ATI hat Treiber nachgelegt jeder kann die ATIs mit dem 8.12 gegentesten.

Ob jetzt Spezialtreiber oder nicht: es bleibt nV-Auswahl. *schulterzuck*

PCGH_Raffael
2008-12-18, 16:38:18
Ob jetzt Spezialtreiber oder nicht: es bleibt nV-Auswahl. *schulterzuck*

Das sind 5 Spiele, die sich aktuell verkaufen und gezockt werden. Wenn du jetzt eine Grafikkarte kaufst und Spieler bist, werden dich diese Werte interessieren. Das wird in diesem ganzen Wahn völlig übersehen. Die Spiele wären zumindest bei uns auch ohne irgendwelche Nvidia-Aktionen in den Parcours gewandert, darauf kannst du wetten. :)

MfG,
Raff

dildo4u
2008-12-18, 16:38:47
Ob jetzt Spezialtreiber oder nicht: es bleibt nV-Auswahl. *schulterzuck*
Warhead gehörte nicht dazu wird aber von vielen Seiten getestet es gab also kein Verbot andere Spiele zu testen.

Spasstiger
2008-12-18, 16:38:50
Die PCGH hat mal wieder das beste Review im Angebot, 16xS und 32xS wurden mitgetestet. Wenn ich so eine Karte kaufe, würde ich auch 16xS oder 32xS bei jeder Gelegenheit nutzen wollen. Und die GTX 295 gibt sich hier - im Gegensatz zur 9800 GX2 - nirgendwo die Blöße.
Fragt sich nur, wie es mit Mikrorucklern bei Frameraten zwischen 30 und 40 fps aussieht.

mapel110
2008-12-18, 16:38:53
Jo ist ein richtiger NV Titel direkt von den billig Konsolen die nix leisten, erst überlegen und dann schreiben...
Mit "nvidia-titel" meine ich, dass das Game den nvidia-Karten sehr gut liegt.
http://www.pcgameshardware.de/aid,670856/Test/Benchmark/GTA_4_PC-_Benchmark_mit_7_Grafikkarten_von_Ati_und_Nvidia/?page=2
Siehe auch hier. Erst lesen...

Megamember
2008-12-18, 16:44:19
Oh wie schlimm, darf es deshalb nicht mitgetestet werden? Das ist im Moment das gefragteste Spiel, ist doch logisch das es in aktuellen Grakatests gebencht wird.

Ronny G.
2008-12-18, 16:46:45
und das die GTX295 teils deutlich schneller als ne HD4870X2 ist war doch von vornherein klar, wenn man ne Single GTX280 mit ner HD4870 vergleicht hat sich das doch nicht erst seit Gestern klar abgezeichnet.

Wie steht die GTX295 nun gegenüber nem GTX280@SLI da, kann man da schon was erkennen? Den Vergleich finde ich viel besser weil es zeigt was die einsparungen in Bandbreite und Menge des Speichers bedeuten.

MadManniMan
2008-12-18, 16:48:54
Warum sollten wir das boykottieren? Ati macht es, Nvidia macht es. Komplette Tests folgen in Kürze. Sollen wir auf die Tests verzichten? Wer hat etwas davon? Nochmals: Das sind keine "gekauften"/gestellten Werte, sondern brandneue Zahlen, die mit unseren Spielständen entstanden sind.

- "die machens, also isses nich so schlimm, wenn wir das machen" :rolleyes:
- richtige Tests folgen in Kürze - da kann man sich diesen Mist doch gleich schenken :rolleyes:
- wer hat was davon, auf so einen Mist zu verzichten? Alle, die nicht desinformiert würden! :rolleyes:
- dass ihr die selbst erbencht habt, bestreitet keiner - nur dumm, dass es da eine kleine, feine Vorauswahl gab :rolleyes:


Und jede Seite, die jetzt einen Heiligenschein aufsetzt, wurde ganz einfach nicht mit einem der raren Testsamples versorgt. That's it.

Ja, klar. Alle sind sau-neidisch darauf und wollen unbedingt die Hits, die sie mit so ner Scheiße verpassen. Vielleicht geht's ja auch irgendwem mal nicht nur um die Kohle, sondern sind ein bissel idealistischer.

Ihr seid lange nich so schlimm, wie euer Schwesterschmierblatt ohne Hardware (Und ich LIEBTE früher die PCG. Lange her.), aber die Bereitschaft, sich von den Herstellern gängeln zu lassen, schimmert durch.

Sorkalm
2008-12-18, 16:48:57
Es sind eben die selben fünf Spiele wie schon bei der letzten Werbeaktion plus GTA4.

Laut Golem hat Nvidia diese 5 Spiele + ein selbst ausgewähltes den Testern erlaubt.

PCGH_Raffael
2008-12-18, 16:49:32
Wie steht die GTX295 nun gegenüber nem GTX280@SLI da, kann man da schon was erkennen? Den Vergleich finde ich viel besser weil es zeigt was die einsparungen in Bandbreite und Menge des Speichers bedeuten.

Schau mal hier rein: http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=9 :)

MfG,
Raff

dildo4u
2008-12-18, 16:49:34
Wie steht die GTX295 nun gegenüber nem GTX280@SLI da, kann man da schon was erkennen? Den Vergleich finde ich viel besser weil es zeigt was die einsparungen in Bandbreite und Menge des Speichers bedeuten.
http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/page7.asp

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/page12.asp

LovesuckZ
2008-12-18, 16:51:11
Schade eigentlich, dass viele nicht den Unterschied zwischen Vorschau und Test kennen...
Wieso man sich hier aufregt ist sowieso total Banane. Wer nur das Fünkchen von Grips hat, wird die Ergebnisse nicht überbewerten - und alle anderen haben sowieso keine Ahnung.

MadManniMan
2008-12-18, 16:51:34
Warhead gehörte nicht dazu wird aber von vielen Seiten getestet es gab also kein Verbot andere Spiele zu testen.

Ich habe nicht unbedingt Lust, den ganzen Seiten Hits zu verpassen, indem ich die "Artikel" durchgehe, aber das, was hier gepostet wurde, ist schon eine ziemlich homogene Masse. Ja, es sind nicht einfach nur die fünf Spiele aus der Treiber-Promo Geschichte mit den bereitgestellten Dingens, aber die Tendenz ist einfach da.

Wäre es ATi, wärest Du doch jetzt der, der schimpft.

Spasstiger
2008-12-18, 16:51:38
Wie steht die GTX295 nun gegenüber nem GTX280@SLI da, kann man da schon was erkennen? Den Vergleich finde ich viel besser weil es zeigt was die einsparungen in Bandbreite und Menge des Speichers bedeuten.
Die Taktraten der GTX 295 sind gegenüber der GTX 280 auch reduziert. Es trifft vom Performanceranking her ziemlich genau das zu, was ich hier abgeschätzt habe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6983307&postcount=700

Die GTX 295 ist stets deutlich näher an zwei GTX 260-216 dran als an zwei GTX 280:
http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/

Gast
2008-12-18, 16:53:57
hab ich das überlesen oder gibt es bei keinem der tests angaben zur temp und lautstärke?

Spasstiger
2008-12-18, 16:54:41
hab ich das überlesen oder gibt es bei keinem der tests angaben zur temp und lautstärke?
NV erlaubt bislang nur Performancetests.

Gast
2008-12-18, 16:55:42
NV erlaubt bislang nur Performancetests.

aso, thx

MadManniMan
2008-12-18, 17:05:26
Schade eigentlich, dass viele nicht den Unterschied zwischen Vorschau und Test kennen...

Und das geht woraus hervor?


Geforce GTX 295 im Performance-Test

Geforce GTX 295 - Erster Test der Nvidia-Dual-Grafikkarte

Raff
2008-12-18, 17:07:12
Ja, ich höre auch immer nach dem Lesen der Überschrift auf und bewerte direkt den Inhalt, alles andere ist viel zu aufwändig. :ulol: Dass das eine Vorschau auf Pre-Production-Basis ist, steht auf der ersten Seite. :)

MfG,
Raff

Sorkalm
2008-12-18, 17:09:22
Nun hör doch mal auf, alles zu verteidigen Raff. Das ihr euch da habt einspannen lassen, um entsprechende Klicks zu bekommen, steht doch wohl ohne Frage. Man kann über die Bedingungen diskutieren (übrigens nehme ich euch nicht ab, wenn ihr sagt es ist alles frei wählbar gewesen, dafür steht in zu vielen anderen Quellen etwas anderes), aber das ist nun mal Fakt.

Euer Verlag interessiert sich eben auch nur für den Gewinn, wie fast jedes Unternehmen.

LovesuckZ
2008-12-18, 17:11:39
Und das geht woraus hervor?

Abgesehen davon, dass ich nicht für die Artikelüberschriften verantwortlich bin:

GeForce GTX 295 preview@Guru3D
GeForce GTX 295 Performance Pre-Preview@FiringSquad
Geforce GTX 295 im Performance-Test@PCGH
NVIDIA GeForce GTX 295 Preview@[H]ardOCP

Na, fällt was auf? 3 von 4, die Zahlen haben, schreiben, dass es sich um ein Preview handelt.

Ronny G.
2008-12-18, 17:17:10
Die Taktraten der GTX 295 sind gegenüber der GTX 280 auch reduziert. Es trifft vom Performanceranking her ziemlich genau das zu, was ich hier abgeschätzt habe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6983307&postcount=700

Die GTX 295 ist stets deutlich näher an zwei GTX 260-216 dran als an zwei GTX 280:
http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/

Also wie bisher bekannt irgendwie am Ziel vorbei?......

@ALL
das ganze Spekuliere und gehetze in diesem Thread bringt ja auch nichts, wir müssen einfach noch etwas Geduld haben und nicht um die Wette austeilen!

w0mbat
2008-12-18, 17:19:54
Warum sollten wir das boykottieren? Ati macht es, Nvidia macht es. Komplette Tests folgen in Kürze. Sollen wir auf die Tests verzichten? Wer hat etwas davon? Nochmals: Das sind keine "gekauften"/gestellten Werte, sondern brandneue Zahlen, die mit unseren Spielständen entstanden sind.

Und jede Seite, die jetzt einen Heiligenschein aufsetzt, wurde ganz einfach nicht mit einem der raren Testsamples versorgt. That's it.

MfG,
Raff

Natürlich sind sie gestellt, da Nvidia die meisten Spiele vorgegeben hat. Und sowas nennt man gestellt.


Das sind 5 Spiele, die sich aktuell verkaufen und gezockt werden. Wenn du jetzt eine Grafikkarte kaufst und Spieler bist, werden dich diese Werte interessieren. Das wird in diesem ganzen Wahn völlig übersehen. Die Spiele wären zumindest bei uns auch ohne irgendwelche Nvidia-Aktionen in den Parcours gewandert, darauf kannst du wetten. :)

MfG,
Raff

Ach so, jetzt benched man nur noch die aktuellen 5 Spiele? Bisher hat man immer versucht eine große Bandbreite abzudecken, das gilt hier nicht?


Warhead gehörte nicht dazu wird aber von vielen Seiten getestet es gab also kein Verbot andere Spiele zu testen.

Es gab Vorschriften + 1x freie Wahl.


Was kommt also raus: Mal wieder so ein PR-Gag, der natürlich nicht falsch ist, aber eben nur einen Ausschnitt zeigt. Und die Leute die mitgemacht haben versuchen es jetzt runterzuspielen obwohl sie selber am besten wissen was Nvidia für Anforderungen hatte damit sie den Test bringen können. Ich finde es schade dass da überhaupt jemand mit macht, dadurch zieht man nur den Name Journalist durch den Dreck. Positiv ist dass CB aus ihrem Fehler gelernt hat und sowas nicht mehr macht.

pest
2008-12-18, 17:19:57
Die GTX 295 ist stets deutlich näher an zwei GTX 260-216 dran als an zwei GTX 280


das liest sich anders als du es bestimmt gemeint hast.

Raff
2008-12-18, 17:21:13
Nun hör doch mal auf, alles zu verteidigen Raff. Das ihr euch da habt einspannen lassen, um entsprechende Klicks zu bekommen, steht doch wohl ohne Frage. Man kann über die Bedingungen diskutieren (übrigens nehme ich euch nicht ab, wenn ihr sagt es ist alles frei wählbar gewesen, dafür steht in zu vielen anderen Quellen etwas anderes), aber das ist nun mal Fakt.

Euer Verlag interessiert sich eben auch nur für den Gewinn, wie fast jedes Unternehmen.

Siehe Sig.

Jeder, der etwas Ahnung von der Materie hat und grundlegender Mathematik mächtig ist, sieht, dass diese Zahlen genau dem entsprechen, was zu erwarten war. Ihr werdet's ja bei den folgenden "Full-Tests" sehen, dass sich am Bild nichts grundlegend ändern wird. Die Karte liegt zwischen GTX260-216-SLI und GTX280-SLI. Wo die HD4870 X2 Letzteres plattmacht, macht sie auch die GTX295 platt.

Oh nein, Nvidia ist schneller als Ati! Nvidias Karte ist aber 5 Monate neuer. Bald legt Ati nach ... Seht ihr da Parallelen zum Geschehen der letzten 10 Jahre? Achtung, die Antwort ist so offenbar, dass sie keiner Zeichen bedarf.

Siehe Sig.

MfG,
Raff

MadManniMan
2008-12-18, 17:22:32
Raff,

Du schreibst mit dem Herzblut des Autors und durch die Brille des Arbeitgebers, das ist verständlich. Ich will Dir auch nicht selbst ans Bein pissen, aber die Kritik musst Du Dir einfach gefallen lassen.


Na, fällt was auf? 3 von 4, die Zahlen haben, schreiben, dass es sich um ein Preview handelt.

Das ist ja das schlimme gerade am PCGH-"Test" - exklusiv in Deutschland auch noch. Wir wissen, wie wir damit umzugehen haben und außerdem haben wir ja noch die Adressen der weltweiten Magazine.

Was ist jetzt aber mit dem durchschnittlichen PCGH-Leser, der (und hier schon wieder eine Einschränkung) immerhin so weit geht, dann und wann mal auf die Web-Präsenz seiner Lieblings-Hardwarezeitung zu gucken?

MadManniMan
2008-12-18, 17:23:49
Positiv ist dass CB aus ihrem Fehler gelernt hat und sowas nicht mehr macht.

PCGH hat als einziges deutsches Magazin ein Sample :usweet:

Sorkalm
2008-12-18, 17:25:23
Jeder, der etwas Ahnung von der Materie hat und grundlegender Mathematik mächtig ist, sieht, dass diese Zahlen genau dem entsprechen, was zu erwarten war. Ihr werdet's ja bei den folgenden "Full-Tests" sehen, dass sich am Bild nichts grundlegend ändern wird. Die Karte liegt zwischen GTX260-216-SLI und GTX280-SLI. Wo die HD4870 X2 Letzteres plattmacht, macht sie auch die GTX295 platt.

Ich widerspreche ja gar nicht, dass die Tests falsch sind. Ich bin nur entsetzt, mit welcher Gelassenheit ihr den Journalismus hier mit Füßen tretet und Marketing draus macht. Das zeigt mir letztendlich, dass hinter dem Verlag (das du dazu vielleicht intern eine andere Meinung hattest, kann natürlich sein -aber nun ist der Artikel so da und du hast damit zu tun) Entscheidungsträger stehen, die das auch nicht stört. Und das finde ich besonders Schlimm!

Eine Diskussion über Nvidia-ATI ist hier sowieso völlig Fremd am Platz, denn damit hat das nichts zu tun.

dildo4u
2008-12-18, 17:25:27
bit-tech First Look: Nvidia GeForce GTX 295 1,792MB

http://www.bit-tech.net/hardware/2008/12/18/first-look-nvidia-geforce-gtx-295-1792mb/2

LovesuckZ
2008-12-18, 17:28:24
Ach so, jetzt benched man nur noch die aktuellen 5 Spiele? Bisher hat man immer versucht eine große Bandbreite abzudecken, das gilt hier nicht?

Warum sollte es bei der Spieleauswahl anders sein als bei den (Qualitätss-)Einstellungen? :rolleyes:

w0mbat
2008-12-18, 17:29:17
PCGH hat als einziges deutsches Magazin ein Sample :usweet:

Ja, weil CB & Co. aus den Fehlern gelernt haben. PCGH hat das Sample nur bekommen weil sie sich Nvidia unterworfen haben.

MadManniMan
2008-12-18, 17:33:54
Ja, weil CB & Co. aus den Fehlern gelernt haben. PCGH hat das Sample nur bekommen weil sie sich Nvidia unterworfen haben.

Das könnte natürlich auch sein - aber wir müssten hinter die Kulissen blicken können. Ob man jetzt gut tut, weil man keine Karte bekommen hat, oder ob man gut war und deswegen keine bekommen durfte... Mechwollier ist doch bei CB, oder nicht? Den könnte man fragen ;)

Gast
2008-12-18, 17:37:43
Ja, weil CB & Co. aus den Fehlern gelernt haben. PCGH hat das Sample nur bekommen weil sie sich Nvidia unterworfen haben.

nö, die haben nur keine bekommen weil ihr Publikum zu klein ist...

Keine Seite kann auf Massenweisse HITS verzichten...

w0mbat
2008-12-18, 17:45:05
Achso, klar PCGH ist ja auch DIE Hardwareseite :rolleyes:

Und weil sie so toll sind mussten sie, im Gegensatz zu den ganzen anderen englischen Seiten, auch nicht nach den Wünschen von Nvidia "Testen" sonder hatten freie Hand.

Witzig ist dass PCGH schreibt:
Auch das Thema Mikroruckeln werden wir genau beleuchten. Soviel vorab: Die GTX 295 stellt mit der aktuellen Treibersituation relativ wenig des ungewollten Ruckelns dar.

Weniger MR als die Konkurrenz und das ohne eine Test. Aber alles ganz unabhängig, eben wie echte Journalisten.
;D;D;D;D

PCGH, der Reinfall des Jahres. In etwa so glaubwürdig wie "Niemand hat die Absicht eine Mauer zu bauen".

VooDoo7mx
2008-12-18, 17:46:53
Ja, weil CB & Co. aus den Fehlern gelernt haben. PCGH hat das Sample nur bekommen weil sie sich Nvidia unterworfen haben.

Und sie werden auch von ATi nur Testsamples bekommen, wenn sie sich deren Bedingungen unterwerfen.
Und nun?

Gast
2008-12-18, 17:48:08
PCGH dürfte sehr wohl zu den grössten in DE gehören, ich weis es aber nicht.

Wo steht das was von der Konkurenz die mehr MR haben soll???

w0mbat
2008-12-18, 17:50:07
Und sie werden auch von ATi nur Testsamples bekommen, wenn sie sich deren Bedingungen unterwerfen.
Und nun?

Mir ist nicht bekannt dass ATI vorschreibt was für Spiele man testen darf. Als ATI verboten hat den Stromverbrauch zu testen hat sich PCGH sogar über das Verbot gesetzt und ihn trotzdem gemessen. Aber bei Nvidia gelten wohl andere Regeln.

@Gast: PCGH hat regelmäßig über die MR zB bei der HD4870X2 etc. berichtet, in ihrem "Vortest" der GTX2950 steht dann aber drinn die Karte hätte wenig MR? Lächerlich!

LovesuckZ
2008-12-18, 17:50:18
Achso, klar PCGH ist ja auch DIE Hardwareseite :rolleyes:

Und weil sie so toll sind mussten sie, im Gegensatz zu den ganzen anderen englischen Seiten, auch nicht nach den Wünschen von Nvidia "Testen" sonder hatten freie Hand.

Witzig ist dass PCGH schreibt:


Weniger MR als die Konkurrenz und das ohne eine Test. Aber alles ganz unabhängig, eben wie echte Journalisten.
;D;D;D;D

PCGH, der Reinfall des Jahres. In etwa so glaubwürdig wie "Niemand hat die Absicht eine Mauer zu bauen".

Die PCGH - und viele anderen Seiten auch - haben ein Testmuster gehabt und konnten die Siele benchen wie sie wollten.
Warum regst du dich eigentlich so auf? Previews sind ganz normale Vorgänge. Gibt es bei CPUs auch, oder in der Spielebranche.

Raff
2008-12-18, 17:50:34
Achso, klar PCGH ist ja auch DIE Hardwareseite :rolleyes:

Und weil sie so toll sind mussten sie, im Gegensatz zu den ganzen anderen englischen Seiten, auch nicht nach den Wünschen von Nvidia "Testen" sonder hatten freie Hand.

Witzig ist dass PCGH schreibt:


Weniger MR als die Konkurrenz und das ohne eine Test. Aber alles ganz unabhängig, eben wie echte Journalisten.
;D;D;D;D

PCGH, der Reinfall des Jahres. In etwa so glaubwürdig wie "Niemand hat die Absicht eine Mauer zu bauen".

1. Bist du ein AMD-Fanboy. Wie ernst darf ich dich nehmen?
2. Werden im PCGH-Test sowohl Aussagen zur Lautstärke als auch zum Mikoruckeln getätigt, die innerhalb der Testzeit ermittelt wurden. Nvidia gestattet keine Zahlenwerte, das steht doch überall. Auch steht da, dass Genaueres folgt. Sind Zusatzinfos im Rahmen der Restriktionen gut ... oder sollte man sie ganz weglassen? Herr ...

MfG,
Raff

reunion
2008-12-18, 17:56:07
1. Bist du ein AMD-Fanboy. Wie ernst darf ich dich nehmen?

Und du arbeitest bei PCGH, auch nicht gerade der neutrale Beobachter. Aber die Diskussion ist lächerlich. Wer "unbeeinflusste" Tests will muss eben bis Januar warten, bis jetzt kann man die Karte ohnehin nicht kaufen. Und es ist sowohl aus Sicht von Nvidia als auch aus Sicht von PCGH und den anderen Seiten verständlich, dass man solche Tests vereinbart, beides sind Unternehmen die Geld verdienen wollen - sozusagen eine "Win-Win"-Situation. Wer sich nicht informiert ist wie immer selbst Schuld. Da gibt es weder was zu beschönigen, noch was zu verteidigen.

Unyu
2008-12-18, 17:56:37
Mir ist nicht bekannt dass ATI vorschreibt was für Spiele man testen darf.
Dafür wie: mit AI-default. Und nicht nur im Preview Artikel.

Gast
2008-12-18, 17:58:23
PCGH dürfte sehr wohl zu den grössten in DE gehören, ich weis es aber nicht.

Wo steht das was von der Konkurenz die mehr MR haben soll???

Also laut IVW ist Computerbase gut dreimal so groß wie PCGH.

MadManniMan
2008-12-18, 18:02:33
Und sie werden auch von ATi nur Testsamples bekommen, wenn sie sich deren Bedingungen unterwerfen.
Und nun?

Bei beiden stur auf Journalismus setzen, den Marketingabteilungen auf den Kopf scheißen (ich sitze selbst in einer! ich kann das alles nachvollziehen!) und langfristig an Glaubwürdigkeit gewinnen? Vielleicht mal nicht immer nur an die Kohle für die nächste Woche, sondern mal an die Zukunft denken? Mal darüber nachdenken, was das für Auswirkungen hat, wenn man zu sehr mitzieht?


Die PCGH - und viele anderen Seiten auch - haben ein Testmuster gehabt und konnten die Siele benchen wie sie wollten.

5 vorgegeben + 1 frei :rolleyes: Die restlichen Einschränkungen kennen wir nicht. Und selbst, wenn es keine gab: die standardmäßigen Einstellungen sind totaler Mist, aber das ist eine andere Geschichte.


Warum regst du dich eigentlich so auf? Previews sind ganz normale Vorgänge. Gibt es bei CPUs auch, oder in der Spielebranche.

Schlimm genug, dass es dazu kommen musste. Jetzt könnte man immernoch gegensteuern.

Aber vor allem sollte man es auch PREVIEW nennen - und nicht Test, liebe PCGH.


1. Bist du ein AMD-Fanboy. Wie ernst darf ich dich nehmen?

Ja, das ist kompliziert an der Stelle. Was nun?
- was er sagt, wird prinzipiell gefärbt sein
- trotzdem kann es richtig sein

Andererseits: was DU sagst, wird prinzipiell gefärbt sein. Trotzdem kann es richtig sein.


Sind Zusatzinfos im Rahmen der Restriktionen gut ... oder sollte man sie ganz weglassen? Herr ...

Man sollte den ganzen Werbemist nicht als regulären Artikel tarnen. Man sollte als objektives Blatt dem Leser aufzeigen, dass man von den Herstellern in Ketten gelegt wird.

"Idealismus ist eine feine Sache, aber wenn wir uns nach dem richten, könnten wir Einbußen haben... und wer weiß, ob das Geld später wieder reinkommt?" - So wird doch gedacht, wenn darüber entschieden wird, ob man so ein Angebot annimmt, oder nicht?

w0mbat
2008-12-18, 18:03:06
1. Bist du ein AMD-Fanboy. Wie ernst darf ich dich nehmen?
2. Werden im PCGH-Test sowohl Aussagen zur Lautstärke als auch zum Mikoruckeln getätigt, die innerhalb der Testzeit ermittelt wurden. Nvidia gestattet keine Zahlenwerte, das steht doch überall. Auch steht da, dass Genaueres folgt. Sind Zusatzinfos im Rahmen der Restriktionen gut ... oder sollte man sie ganz weglassen? Herr ...

MfG,
Raff

Ich bin soviel Fanboy wie PCGH unabhängig ist. Wie du das auslegst ist dir überlassen.

Ronny G.
2008-12-18, 18:03:16
Leute!!!!!!

geht alle mal ne pause machen, ihr puscht euch doch nur sinnlos hoch, wie in einer Endlosschleife, die schon seit vielen Jahren immer wieder aufs neue da ist.

Gast
2008-12-18, 18:06:36
Irgendwie bin ich enttäuscht.Wenn nV schon so ein Grafikmonster baut, warum dann solche einschnitte? Ob so eine karte nun eine tdp von 289 oder 300W wäre mir da ehrlich gesagt dann auch egal.

erwartet hätte ich einen höheren speichertakt (wieso nicht 1,2GHz oder gleich GDDR5?), mehr Speicher (mind. 2x1GB) und weniger Einschnitte bei den Hardwareeinheiten.
Das Problem ist nun, das zwar zwei Grafikchips werkeln,aber wenn die skalierung mal nicht optimal ist, dann geht einiges an Leistung einfach so verloren. Ich könnte mir durchaus vorstellen, das in extremfällen (SLI probleme) die leistung sogar unter denen einer Werks-OC-Single Karte liegt. Bei Einzelkarten stellt sich das SLI Problem auch nicht...

Tja. Wie so oft kann ich mich nicht mit den Gedanken anfreunden, eine teurere Karte zu kaufen, die weniger Grafikram oder Recheneinheiten hat.

Nakai
2008-12-18, 18:11:49
Und du arbeitest bei PCGH, auch nicht gerade der neutrale Beobachter. Aber die Diskussion ist lächerlich. Wer "unbeeinflusste" Tests will muss eben bis Januar warten, bis jetzt kann man die Karte ohnehin nicht kaufen. Und es ist sowohl aus Sicht von Nvidia als auch aus Sicht von PCGH und den anderen Seiten verständlich, dass man solche Tests vereinbart, beides sind Unternehmen die Geld verdienen wollen - sozusagen eine "Win-Win"-Situation. Wer sich nicht informiert ist wie immer selbst Schuld. Da gibt es weder was zu beschönigen, noch was zu verteidigen

Was regen wir uns hier eigentlich auf? NV macht so einen Marketing-Unsinn seit etwa 10 Jahren. Die haben halt ne sehr gute Marketingabteilung.
Schade ist, dass sehr viele DAUs drauf reinfallen werden und somit ein total falsches Bild von der Karten bekommen. Die Previews werden alle samt schon nicht falsch sein, aber dass wieder alles vorgeschrieben wird, ist wieder tragisch.


mfg Nakai

derguru
2008-12-18, 18:11:50
find die karte auch nicht so berauschend,wie vermutet ist es eine 260gtx² im sli von der performance bloß das sie 4-5 monate zuspät kommt.:|

Mr. Lolman
2008-12-18, 18:13:10
Als ATI verboten hat den Stromverbrauch zu testen hat sich PCGH sogar über das Verbot gesetzt und ihn trotzdem gemessen.

Stimmt das?

Blaire
2008-12-18, 18:17:07
find die karte auch nicht so berauschend,wie vermutet ist es eine 260gtx² im sli von der performance bloß das sie 4-5 monate zuspät kommt.:|

Prestige nur darum gehts. Zu zeigen was ihr könnt da drüben , das können wir noch besser. ;)

Gast
2008-12-18, 18:18:13
Schade ist, dass sehr viele DAUs drauf reinfallen werden und somit ein total falsches Bild von der Karten bekommen.
mfg Nakai

Welches Falsches Bild? Die GTX 295 ist derzeit die schnellste Karte und mehr sagen die vorabtest nicht aus, ob jetzt 1% oder 20% im Durchschnitt schneller ist dabei doch völlig egal.

w0mbat
2008-12-18, 18:20:05
Stimmt das?

Ich kann mich daran erinnern, würde dafür aber nicht meine Hand ins Feuer legen. Ich such mal...


Welches Falsches Bild? Die GTX 295 ist derzeit die schnellste Karte und mehr sagen die vorabtest nicht aus, ob jetzt 1% oder 20% im Durchschnitt schneller ist dabei doch völlig egal.

Ach so, ob gleichauf oder 20%+ schneller ist egal. LOL!

Gast
2008-12-18, 18:25:34
Was regen wir uns hier eigentlich auf? NV macht so einen Marketing-Unsinn seit etwa 10 Jahren. Die haben halt ne sehr gute Marketingabteilung.
Schade ist, dass sehr viele DAUs drauf reinfallen werden und somit ein total falsches Bild von der Karten bekommen. Die Previews werden alle samt schon nicht falsch sein, aber dass wieder alles vorgeschrieben wird, ist wieder tragisch.


mfg Nakai

Was meinst du wieviele DAUs auf das 10.1 oder zb. PP² reingefallen sind.
Und was an den Ergebnissen falsch bzw. daran ein reinfall sein soll? Es ändert sich nix an den Ergebnissen auch in weiteren tests.

Fusion_Power
2008-12-18, 18:27:00
Das wichtigste, was mich bei Grafikkarten eigentlich interessiert neben der Leistung ist der Stromverbrauch...und nachdem ich wieder zu mir kam als ich "289 Watt" gelesen hatte mußte ich ernsthaft überlegen, wer sich heute noch so einen Boliden leisten kann und will. Sicher Leute, die ihre Stromrechnung nicht selber bezahlen müssen. :D OK, die meißten Gamer gehen halt nach der Grafikleistung und ich bin da mit meinem Stromspar-Anspruch ziemlich alleine, doch da bei Grafikkarten mit 2 GPU's zwar der Stromverbrauch verdoppelt wird aber nie die Grafikleistung, reizt mich so eine Karte nicht mal ansatzweise.
Wird das nun so weitergehn oder gibts irgend wann schnelle Grafikkarten, die wenig Saft ziehen? Vielleicht sowas wie ne ARM Architektur für Grafikboliden? ARM Prozzies sind recht genügsam was den Strombedarf angeht. Man kann doch nicht bis in alle Ewigkeit die "alte" GPU Architektur fortsetzen, wo soll das hin führen?

MartinRiggs
2008-12-18, 18:33:25
Wann hört endlich mal diese Hexenjagd auf:ucrazy4:
- Es gibt von beiden Herstellern vorab Tests mit bestimmten Restriktionen
- beide Hersteller probieren viel um den anderen schlecht aussehen zu lassen
- beide Multi-GPU Lösungen sind zum brechen, die Gründe dürfte jeder kennen.
- beide karten sind laut und teuer
- hatte ich schon erwähnt das beide hersteller keine Engel sind?
- jeder Hersteller hat seine Leiche im Keller(ATI - A.I., NV - Treibersituation)
- usw......

Sorkalm
2008-12-18, 18:46:41
Wann hört endlich mal diese Hexenjagd auf:ucrazy4:

Das Problem waren hier eigentlich nicht die Hersteller, von denen ist ja bekannt das sie beide als gewinnmaximierende Unternehmen arbeiten, sondern davon, dass PCGH bzw. Computec ebenso handelt, ohne auch nur irgendeine Art Rücksicht auf Journalismus zu nehmen. ;)
[Na, so dürfte jedenfalls der Hintergedanke sein. Ob das dem Gewinn so zuträglich ist, sich als Werbeblatt darzustellen, hat da hoffentlich wer gut durchgerechnet - oder die Ausgaben das Image wieder zu verlieren.]


Achso, vielleicht auch mal noch ein paar Worte zu Karte: Die scheint gar nicht so schlecht zu sein (bei den Kosten für Nvidia aber auch zu warten). Ich warte aber bis zum 8.1 um ein breiteres Fundament für meine Meinung zu haben. :)

Gast
2008-12-18, 18:49:06
Ach so, ob gleichauf oder 20%+ schneller ist egal. LOL!

Glaube kaum das es 4870X2 User gibt die auf die Wechseln werden und alle anderen dürfte es einfach Wichtig sein das es die schnellste Karte ist Punkt!

MartinRiggs
2008-12-18, 18:54:33
naja wenn ich hier die Kommentare lese dann ist das eine Hexenjagd sowohl auf NV(weil sie nur eingeschränkte tests erlauben) als auch die PCGH die aber auch bei der HD4870x2 so einen Vorab-Test gefahren haben.

Daher verstehe ich nicht wie man sich jetzt so aufregen kann, nur weil NV wieder führt was die Gesamtleistung angeht:confused:
Gibt doch oft von allem möglichen diese Hands-On Tests, die sind zwar nicht ausführlich, reichen aber allemal für einen ersten Eindruck und ob es sich lohnt auf richtige tests zu warten oder man das ding gleich ad acta legen kann.

derguru
2008-12-18, 18:56:32
Prestige nur darum gehts. Zu zeigen was ihr könnt da drüben , das können wir noch besser. ;)

ja 5 monate später,aber ihr sollt ja auch mal wieder führend sein.(für paar tage:tongue:)

aber immerhin sind so die mikroruckler,schlechte skalierung und der hohe stromverbrauch jetzt kein thema mehr,puuuh.:wink:

Nakai
2008-12-18, 18:57:58
Welches Falsches Bild? Die GTX 295 ist derzeit die schnellste Karte und mehr sagen die vorabtest nicht aus, ob jetzt 1% oder 20% im Durchschnitt schneller ist dabei doch völlig egal.

Es ist ein falsches Bild, da ein zu kleines Spektrum an Spielen ausgewählt wurde.

Was meinst du wieviele DAUs auf das 10.1 oder zb. PP² reingefallen sind.
Und was an den Ergebnissen falsch bzw. daran ein reinfall sein soll? Es ändert sich nix an den Ergebnissen auch in weiteren tests.

Wieviele Leute sind auf SM 3.0 reingefallen, obwohl es nichts gebracht hat?
Is ja egal. An den Tests bemängel ich nichts, aber wie es präsentiert wird, dass ist falsch.

Daher verstehe ich nicht wie man sich jetzt so aufregen kann, nur weil NV wieder führt was die Gesamtleistung angeht

Die meisten regen sich nicht deswegen auf...


mfg Nakai

Sorkalm
2008-12-18, 18:58:55
naja wenn ich hier die Kommentare lese dann ist das eine Hexenjagd sowohl auf NV(weil sie nur eingeschränkte tests erlauben) als auch die PCGH die aber auch bei der HD4870x2 so einen Vorab-Test gefahren haben.

Beim Test zur 4870 X2 hat man aber zumindest die Einschränkungen klar jedem mitgeteilt.

Klar, dass ist immer noch kein vollständiger Test. Aber zumindest wusste man da, womit man es zu tun hatte.

Außerdem gabs da noch den Unterschied, dass dort lediglich die Anzahl der Benchmarks begrenzt wurde, aber alle frei auswählbar waren. Aber das hat hier mit nichts zu tun.

Unyu
2008-12-18, 19:07:07
Es ist ein falsches Bild, da ein zu kleines Spektrum an Spielen ausgewählt wurde.
Ändert das etwas an der Performance der getesteten Spiele?


Wieviele Leute sind auf SM 3.0 reingefallen, obwohl es nichts gebracht hat?

Immerhin gabs dafür sinnvolle Anwendungen.
Man erinner sich an die SM2 Karte, die auf dem SM1.x Pfad ausweichen musste.

Raff
2008-12-18, 19:09:15
aber immerhin sind so die mikroruckler,schlechte skalierung und der hohe stromverbrauch jetzt kein thema mehr,puuuh.:wink:

Erinnert sich noch jemand an die GeForce 9800 GX2? ;) Die HD4870 X2 ist gewiss nicht die erste MGPU-Karte, die kritisiert wurde.

MfG,
Raff

Schlammsau
2008-12-18, 19:11:22
Erinnert sich noch jemand an die GeForce 9800 GX2? ;) Die HD4870 X2 ist gewiss nicht die erste MGPU-Karte, die kritisiert wurde.

MfG,
Raff

Die Karte ist mit Sicherheit momentan die schnellste MGPU Karte. Aber das mit den µR glaubst du doch wohl selber nicht. Also das sie weniger bis gar nicht mehr auftreten, meine ich.

Raff
2008-12-18, 19:13:18
Die Frage ist nicht das, was ich ich glaube, sondern das, was ich weiß. Mit Glauben schreibt man keine Artikel, mit Glauben sollte man nicht mal posten. Von einer Abstinenz der Mikroruckler hat indes niemand was gesagt. Leider.

MfG,
Raff

Schlammsau
2008-12-18, 19:15:51
Die Frage ist nicht das, was ich ich glaube, sondern das, was ich weiß. Mit Glauben schreibt man keine Artikel, mit Glauben sollte man nicht mal posten. Von einer Abstinenz der Mikroruckler hat indes niemand was gesagt. Leider.

MfG,
Raff

Ok....aber weniger sind sie mit Sicherheit auch nicht geworden. Man merkt sie nur wegen der enormen Leistung kaum!

Gast
2008-12-18, 19:17:20
Es ist ein falsches Bild, da ein zu kleines Spektrum an Spielen ausgewählt wurde.
mfg Nakai

Es sind nunmal die neusten Toptitel die wir alle spielen. Warum soll die dann nicht "uns" Gamern ziegen, was die im jan09 kommente GTX 295 schon "kann". Womöglich kann man damit paar user davon abhalten ihr weihnachtsgelt oder so :D doch lieber im jan09 in eine GTX295 zustegorn ;)

Für mich is das nur gejammer von zb. w0mbat, der kost weil seine Firma nun wieder die arschkarte hat. UNd er nie gedacht hätte das NV so eine karte noch hinzubekommen. Und nun heult und trollt er wie immer!

Raff
2008-12-18, 19:18:57
Ok....aber weniger sind sie mit Sicherheit auch nicht geworden. Man merkt sie nur wegen der enormen Leistung kaum!

Woher nimmst du diese Gewissheit? Wie war das eben mit dem Glauben? :naughty:

MfG,
Raff

horn 12
2008-12-18, 19:20:45
Ca. 10-20% durch die Bank, ist zwar was ABER sicherlich nicht dies was sich NV verhofft hatte seinerzeit!
Da wird ATI mit einer wömöglichen H4970 X² in sehr guten 40um wohl recht gut kontern können, dass es zugunsten ATI erneut geht, Rechne zur Cebit könnte es gar soweit sein!

Nakai
2008-12-18, 19:21:06
Ändert das etwas an der Performance der getesteten Spiele?

Kannst du nicht lesen? :confused:

Ich zitiere mich selber:

An den Tests bemängel ich nichts, aber wie es präsentiert wird, dass ist falsch.

Die Previews werden alle samt schon nicht falsch sein, aber dass wieder alles vorgeschrieben wird, ist wieder tragisch.

Immerhin gabs dafür sinnvolle Anwendungen.
Man erinner sich an die SM2 Karte, die auf dem SM1.x Pfad ausweichen musste.

Aber erst ungefähr 3 Jahre später und selbst dafür war die Geforce 6 meistens zu schwach um SM3.0-Effekte in voller Pracht bestaunen zu dürfen.
Damals hat eine SM 2.0-Karte gereicht um 99,99% aller Spieler mit allen Details bestaunen zu dürfen. Aber natürlich hat Nvidias Marketing Maschine wieder funktioniert, dass DAUs geglaubt haben, dass eine 6600GT schneller als ne X850XT war...


mfg Nakai

€:
Es sind nunmal die neusten Toptitel die wir alle spielen. Warum soll die dann nicht "uns" Gamern ziegen, was die im jan09 kommente GTX 295 schon "kann". Womöglich kann man damit paar user davon abhalten ihr weihnachtsgelt oder so doch lieber im jan09 in eine GTX295 zustegorn

Ich spiele diese Spiel nicht, nur so nebenbei. Aber du hast schon recht, nur sollte man immer ein breites SPektrum von Spielen testen.

Schlammsau
2008-12-18, 19:22:57
Woher nimmst du diese Gewissheit? Wie war das eben mit dem Glauben? :naughty:

MfG,
Raff

So nicht ;)
Über das Thema haben sich schon sehr viele den Kopf zerbrochen und mit AFR scheint es einfach nicht möglich, ohne Performanceverlust den Frametimeversatz zu verhindern bzw. abzumildern.
Aber ich lasse mich gerne eines besseren belehren.....von mehrern unabhängigen Seiten. Wenn nVidia es wirklich geschafft hat, dann Hut ab!

derguru
2008-12-18, 19:23:03
Erinnert sich noch jemand an die GeForce 9800 GX2? ;) Die HD4870 X2 ist gewiss nicht die erste MGPU-Karte, die kritisiert wurde.

MfG,
Raff

du hast doch gar nicht verstanden was gemeint war,die leute die jetzt die 295gtx oder wie die heißt jetzt loben werden sind genau die die damals wo die 4870x² karte raus kam genau diese punkte kritisiert haben(wie mikroruckler,stromverbrauch etc.) und jetzt an die decke springen vor glück.
auf einmal zählen nur noch die fps ,wah:eek:

Raff
2008-12-18, 19:28:27
Wer wird das? PCGH? Warum sollte man – außer, es hat sich wirklich etwas getan? :confused:

€dit: Ah, ok, verstehe. Die "Fans". Möglich. Aber ist das nicht immer so? ;)

MfG,
Raff

HarryHirsch
2008-12-18, 19:30:37
kann hier nicht mal jemand aufräumen? ist ja nicht zum aushalten

Blaire
2008-12-18, 19:34:31
Die Frage ist nicht das, was ich ich glaube, sondern das, was ich weiß. Mit Glauben schreibt man keine Artikel, mit Glauben sollte man nicht mal posten. Von einer Abstinenz der Mikroruckler hat indes niemand was gesagt. Leider.


Armer Redakteur ;D

Unyu
2008-12-18, 19:43:56
Kannst du nicht lesen? :confused:

Ich zitiere mich selber:
Na also, das Bild ist nicht falsch, sondern lückenhaft. ;)


Aber erst ungefähr 3 Jahre später und selbst dafür war die Geforce 6 meistens zu schwach um SM3.0-Effekte in voller Pracht bestaunen zu dürfen.

Afaik war ein gewiesses Splinter Cell recht bald am Markt.

Aber natürlich hat Nvidias Marketing Maschine wieder funktioniert, dass DAUs geglaubt haben, dass eine 6600GT schneller als ne X850XT war...
Ähm, so wie eine heute noch nicht releaste HD 5350 schneller als eine GTX 280 ist? :eek:
Manchen ist eben nicht zu helfen, mir scheissegal.

deekey777
2008-12-18, 19:45:46
SC3 kam im Frühling 2005. Und lief auf GF6 einwandfrei.

Nakai
2008-12-18, 19:48:40
Ähm, so wie eine heute noch nicht releaste HD 5350 schneller als eine GTX 280 ist?

He, netter Trick...

Na also, das Bild ist nicht falsch, sondern lückenhaft.

Eine objektive Berichterstattung sollte so wenig lückenhaft sein wie möglich.


mfg Nakai

Exxtreme
2008-12-18, 19:58:21
Woher nimmst du diese Gewissheit? Wie war das eben mit dem Glauben? :naughty:

MfG,
Raff
Microruckler sind schon prinzipbedingt nie komplett rauszubekommen da keine Grafikkarte hellsehen kann. Und deshalb kommt mir keine MultiGPU-Karte ins Haus.

LovesuckZ
2008-12-18, 20:14:24
Aber erst ungefähr 3 Jahre später und selbst dafür war die Geforce 6 meistens zu schwach um SM3.0-Effekte in voller Pracht bestaunen zu dürfen.
Damals hat eine SM 2.0-Karte gereicht um 99,99% aller Spieler mit allen Details bestaunen zu dürfen. Aber natürlich hat Nvidias Marketing Maschine wieder funktioniert, dass DAUs geglaubt haben, dass eine 6600GT schneller als ne X850XT war...



Warum sollte der DAU geglaubt haben, dass die 6600GT schneller wäre als die X850XT? Vorallen, da die zweite später auf dem Markt kam...
Und wie man sieht: SM3.0 hat sich durchgesetzt. Was macht eigentlich 10.1?

Schlammsau
2008-12-18, 20:17:10
Was macht eigentlich 10.1?

Setzt sich genauso durch! ;)
So wie es aussieht werden die ersten DX11 Karten erst in einem Jahr aufsschlagen, von den ersten DX11 Games brauchen wir erst gar nicht reden.
Bis dahin läuft noch sehr viel Wasser durch deine Klospülung.

y33H@
2008-12-18, 20:56:35
Es ist ein falsches Bild, da ein zu kleines Spektrum an Spielen ausgewählt wurde.Nö. Das Bild stimmt für die getesteten Spiele.

Ein allumfassendes Bild ist Bullshit - wen interessiert, wie schnell Mafia oder HL1 auf ner 295er laufen? Genau, keine Sau. Wen andere außer den getesteten Spielen interessieren, der muss halt warten - kaufen kann man die ja noch nicht. Die Tendenz ist eh klar - die X2 ist nicht mehr die schnellste Karte, so wie sich die HD4870/1.024 eben den der GTX 260-216 beugen muss.

cYa

=Floi=
2008-12-18, 21:14:53
ich verstehe auch nicht wie man sich hier immer wieder so darüber aufregen kann. Die settings sind gut und die spiele auch brauchbar. Das ganze ist absolut brauchbar und wasserdicht. Ati hat bis heute nicht nachlegen können und das beweist auch der 8.12er test bei cb.

Die ganzen amd fanboys hier sollten mal still sein. Es ist echt nicht mehr auszuhalten wie manche immer und immer wieder versuchen hier alles schlecht darzustellen.

Frank1974
2008-12-18, 21:15:05
Schade dann kommt die Karte also nicht mehr vor Weihnachten, wäre ein schönes Geschenk für mich gewesen, ich will schon so lange SLI testen, zwei Karten wollte ich aber wegen der Nforce Boards nicht und die 9800GX2 da waren mir die 512MB zu wenig, aber diese Karte mit den über 800MB sollte reichen und ich hätte wieder für Monate was zum testen.

Kann man mit Mitte Januar rechnen?

mfg
Frank

w0mbat
2008-12-18, 21:18:10
Nö. Das Bild stimmt für die getesteten Spiele.

Ein allumfassendes Bild ist Bullshit - wen interessiert, wie schnell Mafia oder HL1 auf ner 295er laufen? Genau, keine Sau. Wen andere außer den getesteten Spielen interessieren, der muss halt warten - kaufen kann man die ja noch nicht. Die Tendenz ist eh klar - die X2 ist nicht mehr die schnellste Karte, so wie sich die HD4870/1.024 eben den der GTX 260-216 beugen muss.

cYa

Hier ist die HD4870X2 schneller: http://enthusiast.hardocp.com/article.html?art=MTU5OSwxLCxoZW50aHVzaWFzdA==

Und tu doch nicht so wie wenn es keine anderen aktuellen Spiele gäbe.

Raff
2008-12-18, 21:19:59
Kann man mit Mitte Januar rechnen?

mfg
Frank

Die NDA-Brecher von der Gamestar ;) sprechen vom 8. Januar als Launchdatum, ergo: ja.

MfG,
Raff

Unyu
2008-12-18, 21:22:26
Hier ist die HD4870X2 schneller: http://enthusiast.hardocp.com/article.html?art=MTU5OSwxLCxoZW50aHVzaWFzdA==

In 2 von 5 Balken. Beidesmal nur dank 8xMSAA und AI-default.

w0mbat
2008-12-18, 21:25:12
Ne, in 2 von 3 Spielen (wobei sie eher auf gleichem Niveau sind, aber trotzdem eher Vorteil für die X2).

Raff
2008-12-18, 21:26:37
Beidesmal nur dank 8xMSAA und AI-default.

Gegen A.I. Default spricht relativ wenig, sofern die Geforces ebenfalls mit Default getestet wurden.

MfG,
Raff

y33H@
2008-12-18, 21:31:30
Außer die Flimmerei und den Zwang dazu, da sonst CF nicht will. AI zwingt den Testern Q auf ... wer zockt auf ner GTX 295 mit Q? :wink:

cYa

Unyu
2008-12-18, 21:32:18
Ne, in 2 von 3 Spielen
Stimmt, man spielt Warhead lieber mit avg17 als mit avg26,6 FPS.

Raff
2008-12-18, 21:35:42
Außer die Flimmerei und den Zwang dazu, da sonst CF nicht will. AI zwingt den Testern Q auf ... wer zockt auf ner GTX 295 mit Q? :wink:

cYa

Indeed. Aber: Auf meiner 8800 GTX nutzte ich schon oft Q + SSAA-Anteil, um 10 Prozent zu gewinnen. Durch 4x SS werden die "Optimierungen" geplättet. Irgendwie ist das schon kaputt ... aber egal. Im Falle einer GTX 295 braucht's solche Maßnahmen aber echt nicht. ;)

MfG,
Raff

y33H@
2008-12-18, 21:39:12
SSAA ist ne Ausnahme, da bei 2x2 ja 32xAF appliziert wird, da ist Q nicht so tragisch. Aber idR will ich nicht drauf verzichten ...

cYa

Godmode
2008-12-18, 22:31:14
Auf diese Microruckler Karten verzichte ich gerne! Nur für GPGPU zu gebrauchen, weil ich dadurch wieder 8 GPUs in ein Gehäuse bekomme.

Raff
2008-12-18, 22:32:36
Auf diese Microruckler Karten verzichte ich gerne! Nur für GPGPU zu gebrauchen, weil ich dadurch wieder 8 GPUs in ein Gehäuse bekomme.

12. X-D

http://www.pcgameshardware.de/aid,670723/News/Asus_P6T6_WS_Revolution-_X58-Mainboard_fuer_Intel_Core_i7_mit_6_Grafikslots_im_Testlabor/

MfG,
Raff

Spasstiger
2008-12-18, 22:35:56
12. X-D

http://www.pcgameshardware.de/aid,670723/News/Asus_P6T6_WS_Revolution-_X58-Mainboard_fuer_Intel_Core_i7_mit_6_Grafikslots_im_Testlabor/

MfG,
Raff
Sechs Dual-Slot-Karten passen da aber nicht drauf.

Raff
2008-12-18, 22:39:43
Argh, stimmt. Hm, Single-Slot-Wasserkühlung? :naughty:

MfG,
Raff

Spasstiger
2008-12-18, 22:42:01
Argh, stimmt. Hm, Single-Slot-Wasserkühlung? :naughty:

MfG,
Raff
Geht doch auch nicht, die GTX 295 besteht aus zwei PCBs im Sandwich-Design.

Raff
2008-12-18, 22:43:54
Ich seh schon, das war heute einfach zu viel. ;D Hier haben wir also den ersten "praxisnahen" Nachteil, nicht auf eine einzige, lange Platine zu setzen.

MfG,
Raff

dargo
2008-12-18, 22:48:11
Vieleicht weil es ein falsches Bild aufwirft? Warum soll man 8xMSAA nehmen wenn man viel bessere Alternativen aus Performance und Qualitätssicht bekommt? 8xMSAA wird generell überbewertet, mittesten kann man es , aber für Vergleiche würde ich es nicht nutzen. Aus ganz genau dem Grund da neuere Spiele und je höher die Auflösung die Luft bereits für 4xAA recht dünn wird und man oft an Spielbarkeitsgrenzen gerät. Man sollte generell dazu übergehn spielbare Settings zu testen ähnlich wie hardocp.com es macht, das ist um einiges aussagekräftiger für Vergleiche verschiedenster Grafikkarten.
Ob das aussagekräftiger ist bezweifle ich, schließlich nehmen die sicherlich auch nur Timedemos (was ja für Grafikkartentests nur sinnvoll sein kann). Die ermittelten Werte spiegeln aber keinesfalls die Frameraten die man Ingame auch hat wieder.

Spasstiger
2008-12-18, 22:52:10
Hier haben wir also den ersten "praxisnahen" Nachteil, nicht auf eine einzige, lange Platine zu setzen.
"Praxisnah". :biggrin:
Man kann ja immer noch mehrere Tesla S1070 (http://www.nvidia.com/object/product_tesla_s1070_us.html) dranhängen. Die haben zudem Speicher satt (16 GiB).
Ein Komilitone von mir arbeitet an einer CUDA-Implementierung einer Software zur Simulation der Ausbreitung von elektromagnetischen Wellen und er meinte, dass viel Speicher immer wünschenswert sei. Seine Implementierung sei auch schon für die Verwendung mehrerer GPUs vorbereitet. Momentan werkelt er noch mit einer 9800 GTX rum.

Blaire
2008-12-18, 22:57:36
Ob das aussagekräftiger ist bezweifle ich, schließlich nehmen die sicherlich auch nur Timedemos (was ja für Grafikkartentests nur sinnvoll sein kann). Die ermittelten Werte spiegeln aber keinesfalls die Frameraten die man Ingame auch hat wieder.

Ein subjektiver Test kann manchesmal aussagekräftiger sein , als irgendwelche nichtssagende Balken. Und wenn das mehrere Sites machen würden , könnte man sich eher ein Bild machen. Was auch verboten gehört sind Balken mit unspielbaren Werten <30fps das macht auch überhaupt keinen Sinn.
Edit: Ist natürlich klar das dies nicht so einfach umsetzbar ist wie man sich das vorstellt, aber man kann vieleicht ein Kompromiss finden der einige Dinge daraus vereint. ;)

Unyu
2008-12-18, 23:12:46
Sechs Dual-Slot-Karten passen da aber nicht drauf.
PCIe Riser?

pXe
2008-12-18, 23:15:50
tomshardware:

"Laut Nvidia wird die GeForce GTX 295 bei der nächsten CES im neuen Jahr, das heißt in wenigen Wochen, auf den Markt gebracht. Sie wird € 370 kosten – entsprechend dem Online-Verkaufspreis der Radeon HD 4870 X2 – und am Veröffentlichungstag online zu erwerben sein."

Wie kommen die auf 370 Euro??

pXe

dildo4u
2008-12-18, 23:19:01
tomshardware:

"Laut Nvidia wird die GeForce GTX 295 bei der nächsten CES im neuen Jahr, das heißt in wenigen Wochen, auf den Markt gebracht. Sie wird € 370 kosten – entsprechend dem Online-Verkaufspreis der Radeon HD 4870 X2 – und am Veröffentlichungstag online zu erwerben sein."

Wie kommen die auf 370 Euro??

pXe
"Estimated price in US: $499"

http://www.xtremesystems.org/forums/showpost.php?p=3507820&postcount=311

http://de.finance.yahoo.com/waehrungsrechner/convert?amt=499&from=USD&to=EUR&submit=Umrechnen

derguru
2008-12-18, 23:21:50
Wie kommen die auf 370 Euro??

pXe

drogen? hehe ne die haben bestimmt 499 dollar auf euro umgerechnet+mehrwertsteuer oder so:biggrin:

aber ziemlich unrealistisch zum launch.370 euro ist der durchschnittspreis einer 280gtx.

Sorkalm
2008-12-19, 00:06:28
Die haben die $499 umgerechnet und die Mehrwertsteuer vergessen. ;)

Jünsgtes Gericht
2008-12-19, 02:49:17
Und jede Seite, die jetzt einen Heiligenschein aufsetzt, wurde ganz einfach nicht mit einem der raren Testsamples versorgt. That's it.




Ich frage mich wer hier der Scheinheilige ist. Mal daran gedacht, dass Nvidia die begrenzten raren Samples genau den Magazinen zukommen lässt, die am meisten sputen?

Wer Eier in der Hose hat (z.B. Computerbase) und solche einseitigen Pseudo-Tests nicht mehr mitmacht, wird schlichtweg nicht mit Exklusiv-Samples versorgt. Aber ich denke damit lässt sich leben. Glaubwürdigkeit wird SIEGEN!

Gast
2008-12-19, 03:13:54
Ich frage mich wer hier der Scheinheilige ist. Mal daran gedacht, dass Nvidia die begrenzten raren Samples genau den Magazinen zukommen lässt, die am meisten sputen?

So rare...;)
http://chrisray.soterial.com/295/card/GTX295system.jpg

Kaffetasse
2008-12-19, 03:40:05
Glaubwürdigkeit wird SIEGEN!
Nur die Frage ob da unbedingt CB dazu gehört.

tombman
2008-12-19, 04:18:35
So rare...;)
http://chrisray.soterial.com/295/card/GTX295system.jpg
http://static.twoday.net/anima/images/homer_simpson.jpg

Gibts schon reviews von quad sli mit 2x GTX295?

Da wäre ich wirklich SEHR gespannt drauf, vorallem wegen der Skalierung im Vergleich zu quad crossfire :)

Falls die wirklich 400€ kosten soll (glaub ich erst wenn ichs sehe, ich wette die Händler werden mit 500€+ abzocken wollen) könnte ich mich
schwer dafür interessieren :)

So mal eben Crysis @ VH nicht mehr an den 30fps herumkrebsen, sondern im geilen 45+ Bereich, oder Vantage Extreme statt 11500 locker mal >15K raushauen (geschätzt) wäre schon geil :)

die raffens wenigstens
2008-12-19, 04:53:25
Nur die Frage ob da unbedingt CB dazu gehört.

CB weiß zumindest was die Leser möchten: http://www.computerbase.de/forum/showthread.php?p=5122803#post5122803

Wenn die Leser keine von Hersteller inszenierten einseitigen Tests, die nicht mal die halbe Wahrheit darstellen, mehr sehen wollen... DANN wird darauf reagiert! Ich kenne kein Magazin das so schnell & gut auf Kritik reagiert.

Ronny G.
2008-12-19, 05:54:14
Guten Morgen.

Ist schon irre wie eine solche Karte so nen aufriss verursachen kann, kaum neuerungen, schlichte verdoppelung der Hardware um an mehr Leistung zu kommen, dazu noch künstlich ausgebremst, dabei hoffe ich das sie wenigsten gut zu takten geht um die defizite ausbügeln zu können.
Ansonsten wieder mal nicht aufs ganze gegangen, prima NV, wiegesagt werden 2xGTX285 mehr Geld einspielen, so einfach wird die Rechnung für NV sein.

geh dann mal auf Arbeit, mal schauen wie viel seiten der Thread bis zum Nachmittag mit dem aufgebrause wächst;D

=Floi=
2008-12-19, 06:07:25
die mussten auch die 300watt grenze im auge behalten und so einfach wie du es hinstellst war es leider dann auch wieder nicht!

Unyu
2008-12-19, 08:09:01
CB weiß zumindest was die Leser möchten
Den 3. 4870 X2 Test?

Gast
2008-12-19, 12:10:57
nö, die haben nur keine bekommen weil ihr Publikum zu klein ist...

Keine Seite kann auf Massenweisse HITS verzichten...
lol, ja ne klar Computerbase hat ein zu kleines Publikum^^
Schon mal geschaut wieviel Leute dort unterwegs sind und wieviel bei PCGH. CB ist wohl eher DEUTLICH größer.

CB: 6024 (Registrierte Benutzer: 932, Gäste: 5092)
PCGH: 732 (Registrierte Benutzer: 175, Gäste: 557)

Unyu-²
2008-12-19, 12:16:33
Den 3. 4870 X2 Test?

Du kannst es drehen und wenden wie du willst, wenn viele Leser etwas nicht mehr wollen, reagiert CB darauf.

Bei anderen nutzen ja noch nicht mal Kritikstürme damit sie von ihrem Standpunkt abrücken oder von ihrem hohen Ross der Unfehlbarkeit herunterkommen. Aber vielleicht sind manchen Mags auch nur viele Clicks für hohe Werbeeinnahmen wichtig. Ob die nun durch Qualität (gute Artikel) zustandekommen oder durch polarisierende Sensationsgeschichten scheint erstmal Wurst. Solange es gut geht...

Leonidas
2008-12-19, 12:49:25
Haut euch nicht. Die Presse muß nun einmal von den Krumen leben, welche die Hersteller diesen hinwerfen. Das ist nicht schön, aber Realität.

Gast
2008-12-19, 13:34:14
Ich sehe das eher so, die Hersteller sind von der Presse abhängig, nicht nur umgekehrt. Man muss nur Prinzipien und Selbstbewusstsein haben. Wenn sich kleine "Schmierblätter" für nichts zu schade sind, muss ein großes Blatt noch lange nicht mitschwimmen.

VooDoo7mx
2008-12-19, 14:19:36
Doch die Presse ist von den Herstellern abhängig.
Wenn die Presse die Bedingenungen nicht erfüllt, bekommen sie keine Hardware. Bekommt die Presse keine Hadware, können sie keine Reviews schreiben, die für das Printmagazin und/oder die Website dringend benötigt werden.
Wenn sich eine Website gegen die Hersteller aufstellt, wird das im Endeffekt nichts bringen, da sich so eine Seite nur ins eigene Fleisch schneidet.

Um die Maßnahmen der Hersteller zu boykottieren, müssten weltweit alle Reviewer an einen Strang ziehen.
Da dies aber niemals passieren wird, ist in dem Fall die Presse von den Herstellern abhängig.

Armaq
2008-12-19, 14:40:28
Wenn ich genug Kapital habe, teste ich erst zum Verkaufsstart+1 Woche und kann absolut unabhängige Reviews schreiben. Das machen zZ. ja die User in den Foren.

Es ist eine Frage der Marktmacht. Der Springer Verlag in seiner jetzigen Form auf die PC-Welt übertragen könnte extremen Druck auf die Hersteller ausüben. Aber Internet und Co. verhindern, mal mehr mal weniger, dass es große Blöcke in den Medien gibt.

Die Nutzer generieren soviel Inhalt, dass die Frage nach einer starken Presse mehr als einen Gesichtspunkt hat.

Kaffetasse
2008-12-19, 16:36:14
Als es vor kurzer Zeit diesen nVidia Treibertest gab, hat CB seine Leser auch nicht gefragt ob die es gut finden, dass nV die Vorgaben macht zum Test.
Ist nur aufgeflogen weil x Seiten haargenau das gleiche Lieferten innerhalb eines so kurzen Zeitraumes.
Trotzdem, dann nd wann lese ich auch gerne bei CB mit, kann mir ja die News aussuchen und mir meine eigenen Gednkaen machen dazu, zB zur Newsmeldung von Fatalyti Netzteilen. :P

HarryHirsch
2008-12-19, 19:33:50
gibt es denn schon nen festen termin für karte? ich lese immer nur mitte januar

edit: habs gefunden, am 8. januar

Gast
2008-12-19, 21:35:06
Im Gegensatz zu CB ist PCGH am Kiosk mit einem Printmagazin vertreten. Deshalb ist PCGH größer, denn es gibt sehr viele Leute die sich die Infos in Magazinform holen.

Im übrigen sollten die Ati-Fanboys die Füsse mal stillhalten. Wenn Ihnen die Previews nicht passen brauchen sie sie nicht zu lesen - basta!

AnarchX
2008-12-19, 23:18:30
Die Energieeffizienz scheint wohl auch bei der Karte zu stimmen:
On paper, the GeForce GTX 295 uses up to 289 W TDP on its own. The 4870 X2 has a 286 W TDP. And yet, when we measured total system load at the socket, the GTX 295 idled 10 W lower than the AMD board. While looping the Far Cry 2 benchmark at 2560x1600 with AA and AF cranked up, the Nvidia board averaged a full 50 W lower.

http://img389.imageshack.us/img389/293/image0104924716ki5.png (http://imageshack.us)

http://img257.imageshack.us/img257/5849/image0214998214qu6.png (http://imageshack.us)
"GTX 295": ~200W Idle, ~335W Load


http://www.tomshardware.com/reviews/geforce-gtx-295,2107-2.html

Also im Idle ~20W mehr als eine GTX 280 und unter Last auch nur ~20W mehr bei 60% mehr FPS.
Natürlich bleibt die Frage wie diese FPS verteilt sind und dann gibt es ja auch noch die GTX 285.

Spasstiger
2008-12-20, 04:14:32
Meine Abschätzung für Quad-SLI/3-way-SLI-Benchmarks der neuen Karten:
http://www.abload.de/img/rating_20_12_08_extremhfiq.png

y33H@
2008-12-20, 10:32:19
8x FSAA bei PCGH (http://www.pcgameshardware.de/aid,671188/Test/Benchmark/Geforce_GTX_295_vs_Radeon_HD_4870_X2-_Benchmark-Test_mit_8x-Kantenglaettung/) :)Die Geforce GTX 295 ist über die fünf getesteten Spiele hinweg mit vier- wie achtfacher Kantenglättung der klare Sieger. Zwar schrumpfen die 25 Prozent mit 4x FSAA auf 18 Prozent mit 8x FSAA zusammen, der Vorsprung bleibt aber deutlich. Die Stunde der HD 4870 X2 schlägt einzig in sehr hohen Auflösungen, allerdings wird diese Tatsache durch die absolut niedrigen Fps relativiert. cYa

reunion
2008-12-20, 13:34:39
"Estimated price in US: $499"

http://www.xtremesystems.org/forums/showpost.php?p=3507820&postcount=311

http://de.finance.yahoo.com/waehrungsrechner/convert?amt=499&from=USD&to=EUR&submit=Umrechnen

Wahnsinn, hätte ich mir nicht mal annähernd gedacht das nV hier auch noch derart aggressiv die Preise festlegt. Denn der Materielaufwand für die Karte ist enorm, kann mir nicht vorstellen das da viel Gewinn übrig bleibt. AMD wird als Reaktion darauf wohl die Preise weiter senken müssen, jetzt geht es um Marktanteile um jeden Preis.

Sorkalm
2008-12-20, 14:29:07
Wahnsinn, hätte ich mir nicht mal annähernd gedacht das nV hier auch noch derart aggressiv die Preise festlegt. Denn der Materielaufwand für die Karte ist enorm, kann mir nicht vorstellen das da viel Gewinn übrig bleibt. AMD wird als Reaktion darauf wohl die Preise weiter senken müssen, jetzt geht es um Marktanteile um jeden Preis.

Na, nachdem man sich bei GTX 280 und 260 (orginal) mit den Preisen so verkalkuliert hat, muss man sich nun wieder Marktanteile zurückschnappen. Im High-End geht das jetzt Schlag auf Schlag. Man muss halt aufpassen, dass man irgendwo anders die Kosten hereinholen kann, jetzt ist Anpassung gefragt (die nur eben nicht sonderlich schnell passieren kann, weil das Chipgeschäft eher langfristig ist).

(Nebenbei hat das für Nvidia und ATI den positiven Nebeneffekt, dass sie Larrabees Markteintritt erschweren...)

Gast
2008-12-20, 16:50:38
Wie schlägt sich die Karte eigentlich gegen zwei OC 4870 (800/1800)?
Kann man da ungefähr sagen, wie groß der unterschied sein wird? die Karten kriegt man ja auch schon für ~400€, samt 2x1024MB Speicher.

Unyu
2008-12-20, 17:14:22
Wie schlägt sich die Karte eigentlich gegen zwei OC 4870 (800/1800)?
Toll, OC vs noOC. :rolleyes:

die Karten kriegt man ja auch schon für ~400€, samt 2x1024MB Speicher. Das CF-Mainboard ist umsonst?

Raff
2008-12-20, 17:20:20
Wie schlägt sich die Karte eigentlich gegen zwei OC 4870 (800/1800)?
Kann man da ungefähr sagen, wie groß der unterschied sein wird? die Karten kriegt man ja auch schon für ~400€, samt 2x1024MB Speicher.

Mei, Mathematik. Der Chiptakt ist bei 800 MHz und 6,7 Prozent erhöht, das HD4870-Duo wird also ~5 Prozent schneller arbeiten als mit dem Referenztakt. Und damit sind sie immer noch deutlich langsamer als die GTX 295 (die man übrigens auch um 6,7% übertakten kann ;)).

MfG,
Raff

Gast
2008-12-20, 17:23:11
Toll, OC vs noOC. :rolleyes:

Die sind nicht OC, sondern so im Handel erhältlich. Da es praktisch keinen Aufpreis kostet, hats für uns Käufer keinen praktischen Nachteil!

Das CF-Mainboard ist umsonst?

ja, denn das besitze ich schon :D
Im übrigen ist dein Post wenig hilfreich gewesen, hast du ja auch die Preisdifferenz unterschlagen. Wenn ich 2x4870 1 GB für ~400-410€ bekomme, will ich natürlich wissen, wie sich eine Dual Karte so schlägt.

Mr. Lolman
2008-12-20, 17:25:28
Ist Multi-GPU mittlerweile wieder empfehlenswert? Kann man mit 30 MultiGPU fps mittlerweile ordentlich spielen? Gibts eigentlich SLI-AA Modi mit ordentlichem Samplegrid und SGSSAA?

Gast
2008-12-20, 17:26:13
Und damit sind sie immer noch deutlich langsamer als die GTX 295 (die man übrigens auch um 6,7% übertakten kann ;)).

Um wieviel denn ungefähr? Gibts da irgendwie eine brauchbare Differenz?

eine Serien-Karte kann ich ja auch nochmal übertakten, also daran würde ich das jetzt nicht bemessen.

LovesuckZ
2008-12-20, 17:27:36
ja, denn das besitze ich schon :D
Im übrigen ist dein Post wenig hilfreich gewesen, hast du ja auch die Preisdifferenz unterschlagen. Wenn ich 2x4870 1 GB für ~400-410€ bekomme, will ich natürlich wissen, wie sich eine Dual Karte so schlägt.

Wenn du es preislich betrachtest: Auch den erhöhten Stromverbrauch miteingerechnet? So werden zwei 4870 wohl mehr als doppelte beim Idlen verbrauchen - wohl ca. 50 Watt. Unter Last sind es wohl nochmal 50 Watt mehr.
Imo müsste die Differenz wohl deutlich niedriger zu der GTX295 sein, um sich zwei 4870 einzubauen.

derguru
2008-12-20, 17:30:05
Um wieviel denn ungefähr? Gibts da irgendwie eine brauchbare Differenz?

eine Serien-Karte kann ich ja auch nochmal übertakten, also daran würde ich das jetzt nicht bemessen.

hier gibt es alle varianten

http://www.bit-tech.net/hardware/2008/12/18/first-look-nvidia-geforce-gtx-295-1792mb/1

Mr. Lolman
2008-12-20, 17:32:36
Wenn du es preislich betrachtest: Auch den erhöhten Stromverbrauch miteingerechnet? So werden zwei 4870 wohl mehr als doppelte beim Idlen verbrauchen - wohl ca. 50 Watt. Unter Last sind es wohl nochmal 50 Watt mehr.

Den Idleverbrauch bekommt man ganz leicht mit den ATT in Griff. Dürfte somit für eine HD4870 irgendwo zw 20 und 25Watt liegen.

Unyu
2008-12-20, 17:36:13
Den Idleverbrauch bekommt man ganz leicht mit den ATT in Griff. Dürfte somit für eine HD4870 irgendwo zw 20 und 25Watt liegen.Gibt es dazu inzwischen nicht User Tests?

Gast
2008-12-20, 17:41:50
http://www.bit-tech.net/hardware/2008/12/18/first-look-nvidia-geforce-gtx-295-1792mb/1

Jo, das passt schon eher.
Leider ist die Benchauswahl ziemlich begrenzt dort. Warum ist die min-fps bei CF so schlecht? Hat das einen besonderen Grund?

Hmm, jetzt werde ich erstmal die Endkundenpreise abwarten.
Die Vorteile liegen bei mir eigentlich klar auf der Hand: volle 1024MB (man weiß ja nie)... außerdem die Möglichkeit, die Karten leichter zu selektieren oder eine davon später zu verkaufen.
Eine "gute" 295GTX zu erwischen dürfte sicherlich schwieriger sein, weil beide Chips die Taktraten mitmachen müssen und die Karte auch so schon einen ordentlichen Verbrauch hat.
An zwei 1GB 4870er zu kommen die 850 GPU mitmachen scheitert es bei mir wohl nicht. Leider benchen die alle mit Standardkarten, obwohl der Markt voll von Serien-OC's ist.

y33H@
2008-12-20, 18:56:51
Als ob bei einer X2 oder zwei 70ern die Wahrscheinlich größer wäre als bei einer 295er. Zumal sich der GT200 prozentual im Vergleich zum RV770 schon viel stärker OCen lies (eine sehr gute 280 macht mit Luft 756/1.512 (+25%/+17%), eine 70er kommt idR nicht über 870 MHz raus (+15%)). Und wenn man sich die GTX+ anschaut, dann dürfte der GT200b da noch mal ne kräftige Schippe drauf legen, über 800 Core und 1.600-1.700 Shader halte ich für realistisch.

Black-Scorpion
2008-12-20, 19:03:22
Toll, OC vs noOC. :rolleyes:
Dich stört es doch auch nicht wenn in Tests ab Werk übertaktete nV kraten gegen ATI Karten mit Standardtakt getestet werden.
Und es soll tatsächlich auch OC Versionen von Ati Karten geben.

Gast
2008-12-20, 19:04:40
Als ob bei einer X2 oder zwei 70ern die Wahrscheinlich größer wäre als bei einer 295er.

das denke ich schon,zumal niemand von einer X2 geredet hat.
ich kann mir für den gleichen preis beispielweise mehrere dieser karten kaufen und "testen" und nur die besten behalten, von den teuren karten würde ich vielleicht wesentlich weniger kaufen und müsste wesentlich mehr glück haben ein gutes modell zu erwischen. Gerade bei dualkarten stellt sich das problem, das beide chips gut sein müssen, nicht nur einer.

Zumal sich der GT200 prozentual im Vergleich zum RV770 schon viel stärker OCen lies

das zählt hier aber nicht, denn es ist keine einzelne, sondern eine dual karte und die hat ganz andere vorraussetzungen (bespielsweise stromverbrauch, kühllösung). wenn die karten so nah beinander operieren erreichste auch nie die gleiche Kühleffizienz, jedenfalls nicht mit luft.

y33H@
2008-12-20, 19:05:50
Mit OC-Karten ist das immer so eine Sache. Ich finde es idR gut, diese einzeln zu testen, der geneigte Leser kann sich die prozentual besseren Werte ja dann selbst denkenderweise herbeirechnen. Aber statt dem RefDesign OC-Karten für große Tests? Nö. Weil da nie was "faires" bei rum kommt.ich kann mir für den gleichen preis beispielweise mehrere dieser karten kaufen und "testen" und nur die besten behalten, von den teuren karten würde ich vielleicht wesentlich weniger kaufenAha. CF braucht mindestens 2x HD4870. Dummerweise bist du dann im Faller 1.024er (nicht des 512er-Speicherkrüppels) bei 400€. Ne X2 oder 295 kostet in etwa das gleiche. Mehrere kaufen und selektieren ist also imo nicht und wenn ist der rechnerische Verlust doch ähnlich. Btw ist die Wahrscheinlichkeit eine gute 70er zu kaufen genauso groß wie eine gute 295er, da jeweils eine Karte.das zählt hier aber nicht, denn es ist keine einzelne, sondern eine dual karte und die hat ganz andere vorraussetzungen (bespielsweise stromverbrauch, kühllösung). wenn die karten so nah beinander operieren erreichste auch nie die gleiche Kühleffizienz, jedenfalls nicht mit luft.Der Stromverbrauch hat Auswirkungen auf das OC-Verhalten? Spannend, mal testen *g* Die Kühlung wird überschätzt. Viel mehr als einen Taktsprung mehr schaffst du mit einer Geforce idR nicht, wenn du von auto auf 100% Lüfter gehst. Bei den Radeons siehts ähnlich aus.

cYa

derguru
2008-12-20, 19:06:16
du sagst es eine 280 aber im sli kannste froh sein wenn mit luft die 700 erreicht werden und du glaubst doch wohl nicht im ernst das der sandwich gut zu clocken ist wie eine einzelne karte.
in irgendeinem preview gabs auch schon oc werte von der 295.ok es gibt nur ein oc wert bis jetzt aber besser als keiner.

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/page13.asp

eine x² wird ruckzuck wenn die 295 raus ist im preis fallen,ich tippe der preisunterschied wird immer so um die 100 euro sein.

y33H@
2008-12-20, 19:29:53
Das ist ein Pre-Production-Sample. Und ja, ich bin sicher, die beiden GT200b lassen idR höher takten als der GT200 einer 280er.

cYa

derguru
2008-12-20, 19:31:42
Das ist ein Pre-Production-Sample. Und ja, ich bin sicher, die beiden GT200b lassen idR höher takten als der GT200 einer 280er.

cYa

achne da braucht man kein hellseher sein,ich rede von der 295.wenn es so wäre dann ist das fahrlässig von nv den takt nicht erhöht zuhaben.

Gast
2008-12-20, 19:49:14
Aber statt dem RefDesign OC-Karten für große Tests? Nö. Weil da nie was "faires" bei rum kommt.

Umgekehrt ist es genauso. Bei den 1024er Karten sind 40-60% der Karten welche mit erhöhten Taktraten. Welche "fairen Ergebnisse" bekomme ich nun, wenn ich eine teurere Standartkarte nehme, obwohl eine schnellere für weniger Geld zu haben ist? Überleg mal... ich finde das auch nie fair, schließlich sind das alles "Serienkarten", direkt vom Hersteller.

Dummerweise bist du dann im Faller 1.024er (nicht des 512er-Speicherkrüppels) bei 400€.

Warum dummerweise? Das ist doch gut.

Ne X2 oder 295 kostet in etwa das gleiche.

Im falle der 295 bleibt das abzuwarten und gerade bei solchen Karten interessiert mich auch die Speichermenge.

Mehrere kaufen und selektieren ist also imo nicht und wenn ist der rechnerische Verlust doch ähnlich.

Der Verlust ist nicht ähnlich, es gibt nämlich keinen besonderen. ;)
wenn ich mir 10 Karten für 2000,- hole, davon mir die besten zwei heraussuchen muss, aber nur 4-5 Karten von der teuren Sorte kaufen kann und da *doppeltes Glück* haben muss, weil jeweils zwei Chips verbaut sind, wo habe ich leichteres Spiel?

Der Stromverbrauch hat Auswirkungen auf das OC-Verhalten?

Natürlich, denn sowohl beim Verbrauch als auch bei der Temperatur sind Grenzen gesetzt und es war schon häufig so, das die Dual-Karten einiges an Hitze erzeugten. Ich will da ja auch nicht großartig herumbasteln und nochmal 200,- für neue Kühler ausgeben. Bei Luftkühlung seit jeher ein entscheidendes Argument.

y33H@
2008-12-20, 19:51:40
@ derguru

Warum sollten Sie? Die Karte würde wärmer und lauter werden und mehr schlucken. Gerade der deutlich geringere Verbrauch bei gleichzeitig klar besserer Leistung gegenüber der X2 ist doch das, was nV imo abzielte.

@ GastWelche "fairen Ergebnisse" bekomme ich nun, wenn ich eine teurere Standartkarte nehme, obwohl eine schnellere für weniger Geld zu haben ist?Preise schwanken, Referenztaktraten idR nicht ;) direkt vom HerstellerBoardpartner ;) nV wie AMD liefern für gewöhnlich keine OC-Modelle aus, sondern 100% RefDesign mit Referenztaktraten.

cYa

VooDoo7mx
2008-12-20, 20:00:24
achne da braucht man kein hellseher sein,ich rede von der 295.wenn es so wäre dann ist das fahrlässig von nv den takt nicht erhöht zuhaben.

Ich denke mal wenn er von 2 GT200 redet, wird er schon die GTX295 meinen.:rolleyes:

Und mit Prognosen bezüglich der Übertaktung wäre ich etwas vorsichtiger. An 800MHz glaube ich da nicht. Ich denke mal nVidia dürfte die Spannungen bei der Karte auch nicht allzu hoch angelegt haben, sonst wäre der "relativ niedrige" Stromverbrauch dieses Monstrums so nicht möglich gewesen.

Der erste Übertaktungstest von Firingsquad zeugt allerdings nicht gerade von viel Fachkenntnis bezüglich des Autors über dieses Thema.
Die in den Balkendiagramm angegebenen Taktraten lassen sich nämlich so überhaupt nicht auf G200 Karten einstellen, da der Taktgeber der Karten dies gar nicht zulässt. Der Tester hat da warscheinlich einfach nur die Taktraten eingestellt und gar nicht darauf geschaut, was dann im Endeffekt die Karte wirklich hat.
Bei meiner GTX260 limitieren beispielsweise die Shader. 1458MHz sind da das Maximum. Die nächste Taktstufe wären da was über 1500MHz und da gibt es immer Bildfehler. Die TMU Domain kann ich aber bis zum Anschlag auf 729MHz hochziehen wenn ich Shader und TMU Domain unabhängig von einander einstelle. Und genau das, dürfte der Firing Squad Redakteur nicht gemacht haben.

Ich gehe auch davon aus, das die GTX 295 ne Ecke teurer wird als die 4870X2.
Warum auch nicht, ist ja schließlich auch die bessere Hardware. Durch einen sinnlosen Preiskampf in den Sektor würden sich die Hersteller ihre Margen nur noch mehr zerstören. Außerdem is so ein kampf in diesen ereich auch nicht nötig, da die Käufer solcher Proukte auch nicht gerade Pfennigfuchser sind.
Meine Prognose wird sein: GTX 295 für ca 450-500€ und HD 4870X2 für ca 400€ und an den Preisen wird sich auch bis zu den 40nm Refreshs sich nichts großartig ändern.

Gast
2008-12-20, 20:02:17
Preise schwanken, Referenztaktraten idR nicht ;)

Taktraten schwanken genauso wie Preise und Referenztaktraten sind mir als Kunde völlig egal.
Mich interessiert nur das, was ich für mein Geld bekomme. Und das ist eben oftmals mehr als Standard...
Im Endeffekt erlaubt ATI/NV vielen Herstellern sowieso die Taktraten selbst festzulegen, also ist das alles bloß Definitionssache.
Referenz/Serientakt ist immer das, was ich direkt mit Garantie kaufen kann, jedenfalls für mich. Warum sollten ich mich auch für was anderes interessieren..

Eine bzw. mehrere Einzelkarten haben für mich hier den klaren Vorteil, das ich sie auch einzelnd tauschen kann. Ich stehe dann nicht ohne Grafikkarte da.
Noch dazu kann ich sie frei im Rechner platzieren und so mehr Raum für Belüftung schaffen, was ein weiteres Argument für mich ist.
Der Preis steht auch schon fest und die RAM-Menge ebenfalls. Jetzt bleibt nur abzuwarten, wie sich dieses Modell im Handel schlägt.

=Floi=
2008-12-20, 20:09:37
mit mehr takt kommen diese karten nicht mehr unter die 300 watt!

jede karte hat nur ein 3 pahsen design
http://www.computerbase.de/bildstrecke/23797/15/

die normalen karten bekommen 4 pahsen
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/erste_bilder_geforce_gtx_260_55-nm-gpu/

y33H@
2008-12-20, 20:19:24
Mich interessiert nur das, was ich für mein Geld bekomme.Wie willst du das aber in einem großen Test machen? Zich OC-Karten statt Referenzdesign? Ist praktisch ziemlich schwierig, das P/L solcher OC-Karten prozentual idR schlechter ist als beim RefDesign.Eine bzw. mehrere Einzelkarten haben für mich hier den klaren Vorteil, das ich sie auch einzelnd tauschen kann.Full Ack.

cYa

Gast
2008-12-20, 20:45:41
Wie willst du das aber in einem großen Test machen?

Das wäre in der Praxis nicht schwer: Eine Standardkarte + eine Karte mit der höchsten verfügbaren Taktrate am Markt mit in den Testparcourse aufnehmen.
Das hätte unter anderem noch den Vorteil, das man sehen könnte, wie gut die Architektur mit dem Takt skaliert.

y33H@
2008-12-20, 21:00:15
Das hätte unter anderem noch den Vorteil, das man sehen könnte, wie gut die Architektur mit dem Takt skaliert.Gutes Argument. Bleibt der Faktor Zeit/Nutzen abzuwägen ... Quickpoll FTW :)

cYa

Gast
2008-12-22, 14:01:43
du sagst es eine 280 aber im sli kannste froh sein wenn mit luft die 700 erreicht werden und du glaubst doch wohl nicht im ernst das der sandwich gut zu clocken ist wie eine einzelne karte.
in irgendeinem preview gabs auch schon oc werte von der 295.ok es gibt nur ein oc wert bis jetzt aber besser als keiner.

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_295_early_performance/page13.asp

eine x² wird ruckzuck wenn die 295 raus ist im preis fallen,ich tippe der preisunterschied wird immer so um die 100 euro sein.

Die NV Karten lassen sich IMMER gut Takten, das wird auch auf die GTX 295 zutreffen.

Übrigens schon die letzte 9800GX2 vergessen? Hatte selber eine und die lief von 600MHz auf 750MHz!!! So was kann man bei den ATI vergessen, die laufen fast immer am Limit siehe 4870X2 und so...

Nightspider
2008-12-22, 16:56:07
Die NV Karten lassen sich IMMER gut Takten, das wird auch auf die GTX 295 zutreffen.

Übrigens schon die letzte 9800GX2 vergessen? Hatte selber eine und die lief von 600MHz auf 750MHz!!! So was kann man bei den ATI vergessen, die laufen fast immer am Limit siehe 4870X2 und so...

Nett...und das mit Luft...ich würd ja gern einen Wasserkühler auf bzw. in die GTX 295 setzen aber der muss zwischen 2 Platinen...da muss ich die gesamte Karte auseinandernehmen...

Weiß jemand ob es Probleme gibt ne Dual-Chip Karte wie GTX 295 auseinanderzunehmen um einen WaKü draufzuschrauben?

pest
2008-12-22, 17:14:11
Weiß jemand ob es Probleme gibt ne Dual-Chip Karte wie GTX 295 auseinanderzunehmen um einen WaKü draufzuschrauben?

das zählt für mich schon unter Ghetto-Mod, weil die eine Hälfte
dann rumbammelt..aber wenn die genauso zusammengefriemelt sind wie die 9800GX2 geht's zumindest

Nightspider
2008-12-22, 17:18:06
das zählt für mich schon unter Ghetto-Mod, weil die eine Hälfte
dann rumbammelt..aber wenn die genauso zusammengefriemelt sind wie die 9800GX2 geht's zumindest

Was meinst du damit, das die Hälfte rumbammelt? :confused:

pest
2008-12-22, 17:34:18
Was meinst du damit, das die Hälfte rumbammelt? :confused:

da das sind doch 2PCBs, wenn du die auseinanderschraubst, steckt das
eine PCB im Slot, und das andere hängt frei in der Luft und ist nur per SLI-Brücke mit dem anderen PCB verbunden

http://i163.photobucket.com/albums/t307/Solarfall_photos/DSCN1419.jpg

AnarchX
2008-12-22, 17:34:41
das zählt für mich schon unter Ghetto-Mod, weil die eine Hälfte
dann rumbammelt..aber wenn die genauso zusammengefriemelt sind wie die 9800GX2 geht's zumindest
Natürlich werden die Hersteller entsprechende Wasserkühlblöcke anbieten, mit denen nichts "herumbammelt":
http://www.guru3d.com/news/evga-watercooled-9800-gx2/
;)

Schlammsau
2008-12-22, 17:35:19
da das sind doch 2PCBs, wenn du die auseinanderschraubst, steckt das
eine PCB im Slot, und das andere hängt frei in der Luft und ist nur per SLI-Brücke mit dem anderen PCB verbunden

http://i163.photobucket.com/albums/t307/Solarfall_photos/DSCN1419.jpg

Oh my godness :eek:

Ronny G.
2008-12-22, 17:35:21
Die NV Karten lassen sich IMMER gut Takten, das wird auch auf die GTX 295 zutreffen.

Übrigens schon die letzte 9800GX2 vergessen? Hatte selber eine und die lief von 600MHz auf 750MHz!!! So was kann man bei den ATI vergessen, die laufen fast immer am Limit siehe 4870X2 und so...

Das stimmt schon so grob, habe auch mit NV bessere Erfahrungen beim OCen als mit ATI.
Trotzdem spielt die Temperatur die entscheidente Rolle beim OCen, schlechte Temperaturen->schlechtes OCing, und der G92 von der 9800GX2 heizt wesentlich weniger als der GT200, die GTX295 hat zwar nun den Refreshchip mit weniger Temp, sie wird aber bestimmt trotzdem mehr heizen.
Und wenn ich mir so die Temps meines Kumpels mit seiner 9800GX2 anschaue und dazu denke das an dem Kühllayout nix weiter geändert sein wird kann man sich den Rest ja denken.
750Mhz bei ner 9800GX2 sind aber schon gute werte, viele schaffen nur knapp über 700Mhz, was aber auch noch ok ist.

pest
2008-12-22, 17:37:34
Natürlich werden die Hersteller entsprechende Wasserkühlblöcke anbieten, mit denen nichts "herumbammelt":
http://www.guru3d.com/news/evga-watercooled-9800-gx2/
;)

oder so :biggrin: wird aber teuer - ich mag's ja Ghetto

dildo4u
2008-12-22, 17:38:27
http://www.pc-max.de/forum/news.php?n=1316

Sowas in der Art wirds auch für die GTX 295 geben.

http://www.aqua-computer.de/prodimg/aquagrafx_9800gx2_800_7.jpg

Unyu
2008-12-22, 18:08:00
oder so :biggrin: wird aber teuer - ich mag's ja Ghetto
80-100€, so viel kostet ein normaler Wakühler auch.

AnarchX
2008-12-23, 08:33:53
GTX 295 Q-SLI + OCing @ Vantage:

http://img187.imageshack.us/img187/530/gtx295sli27553947qu3.jpg (http://imageshack.us)

http://www.xfastest.com/viewthread.php?tid=17275&extra=&page=1

=Floi=
2008-12-23, 08:40:57
ich bin schon wie tombman. Der hätte extreme und nicht performance testen sollen!

AnarchX
2008-12-23, 08:44:08
ich bin schon wie tombman. Der hätte extreme und nicht performance testen sollen!
In der Tat, zumal er ohne PhysX getestet hat, was ihm noch ein paar mehr Punkte gebracht hätte.

Jedoch interessant, dass sich die GTX295 offenbar auf 700/1400/1250MHz übertakten lässt.

Ronny G.
2008-12-23, 12:50:48
In der Tat, zumal er ohne PhysX getestet hat, was ihm noch ein paar mehr Punkte gebracht hätte.

Jedoch interessant, dass sich die GTX295 offenbar auf 700/1400/1250MHz übertakten lässt.

Das sind aber keine besonders tollen werte!

Gast
2008-12-23, 12:53:57
700 / 1480 / 1250MHz sind klasse Werte! Das ist schon über GTX 285 Takt und das mit vier GPUs :)

dildo4u
2008-12-23, 12:54:44
In der Tat, zumal er ohne PhysX getestet hat, was ihm noch ein paar mehr Punkte gebracht hätte.
.
Muss man so testen wenn man Ergebnisse zum vergleichen hochladen will.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6989538&postcount=411

Ronny G.
2008-12-23, 12:57:43
700 / 1480 / 1250MHz sind klasse Werte! Das ist schon über GTX 285 Takt und das mit vier GPUs :)

schaffen tut das bereits wohl jede alte GTX280, natürlich nur mit einer GPU:biggrin:

Gast
2008-12-23, 13:04:06
Du musst das auch auf den standard Takt zurück rechnen, das sind dann schon über 20% mehr Takt und das ist ein Super Werte und ich bin mir sicher das dass noch nicht alles war

4870X2 + 20% mehr Takt (900MHz) = unmöglich mit stock Kühler

Schlammsau
2008-12-23, 13:06:10
Der Preis entscheidet letztendlich ob die Karte konkurrenzfähig ist. Ich bin gespannt!

Ronny G.
2008-12-23, 13:07:36
Du musst das auch auf den standard Takt zurück rechnen, das sind dann schon über 20% mehr Takt und das ist ein Super Werte und ich bin mir sicher das dass noch nicht alles war

4870X2 + 20% mehr Takt (900MHz) = unmöglich mit stock Kühler

Wir wissen aber zu was der Chip auf anderen SingleGPUKarten im Stande ist, deswegen zähle ich diese Drosselung seitens Nvidia nicht. Die 4870X2 wird im gegensatz nicht vom Herstellergedrosselt, sie läuft identisch zur Single 4870, was ich vernünftig finde.

Gast
2008-12-23, 14:14:55
und die Spannung der GPUs spielt bei dir keine rolle? die wird bei der 295 zu 100% niedriger sein als bei den alten GTX 260/280

AnarchX
2008-12-23, 14:17:10
schaffen tut das bereits wohl jede alte GTX280, natürlich nur mit einer GPU:biggrin:
Der "niedrige" OC wird wohl auch daran liegen, dass bei der GTX 295 die Spannung eher sehr niedrig liegt, laut THG brauch sie unter Last ja nur 20W mehr als eine GTX 280 bei 60% mehr Leistung.
Also wer sie an die Grenzen treiben will, der muss hier wohl selbst Hand anlegen - Wakü + VMod.

Die 4870X2 wird im gegensatz nicht vom Herstellergedrosselt, sie läuft identisch zur Single 4870, was ich vernünftig finde.
Die 4870 ist aber auch nur auf GTX 260(216) Niveau. Im Worst-Case hätte NV wohl auch nur 2x216SPs gereicht um knapp vor der 4870X2 zu liegen.

Im Endeffekt kann sich der Kunde doch nun freuen, dass er hier 2x240SPs für läppische $499 bekommt, $50 mehr als was NV noch vor 6 Monaten plante für die GTX 260(192) zu verlangen und das wohl auch heute noch, wenn da RV770 nicht gewesen wäre. ;)

Ronny G.
2008-12-23, 14:29:53
Im Endeffekt kann sich der Kunde doch nun freuen, dass er hier 2x240SPs für läppische $499 bekommt, $50 mehr als was NV noch vor 6 Monaten plante für die GTX 260(192) zu verlangen und das wohl auch heute noch, wenn da RV770 nicht gewesen wäre. ;)

Wir werden sehen, letztendlich hätte es doch auch nicht geschadet das volle Programm aufzufahren, aber ich verstehe schon, man gibt nur soviel wie nötig ist um besser als die Konkurenz da zustehen.
Hätte NV das volleg Programm mit 2GB und 512bit anbindung samt der Taktraten einer GTX285 genommen währe ein wahres Monster geboren, das hätten sich wohl viel mehr gewünscht.

AnarchX
2008-12-23, 14:34:41
Hätte NV das volleg Programm mit 2GB und 512bit anbindung samt der Taktraten einer GTX285 genommen währe ein wahres Monster geboren, das hätten sich wohl viel mehr gewünscht.
289W TDP = GTX 295
300W TDP = das Maximum, was die PCIe2.0-Spec erlaubt, darüber darf man wohl nicht mehr als PCIe2.0-GraKa verkaufen
?W TDP = Ronnys Dual-G200B
;)

Ronny G.
2008-12-23, 14:41:06
289W TDP = GTX 295
300W TDP = das Maximum, was die PCIe2.0-Spec erlaubt, darüber darf man wohl nicht mehr als PCIe2.0-GraKa verkaufen
?W TDP = Ronnys Dual-G200B
;)

2GB + 512bit hätten aber wohl kaum mehr strom gekostet, wenigstens das.
Also wird es wohl gewiss auch keine OC-Editions von der GTX295 geben?

Gast
2008-12-23, 16:23:33
2GB wären wohl schon irgend wie gegangen, aber das hätte halt noch mal richtig was gekostet, da könnt man jetzt die 499.- Doller vergessen!

GTX 285 Takt bei der 295 wären hingegen wohl unmöglich gewessen, da würde man nie unter die 300Watt kommen, ob wohl die jetztige 295 ja satte 50Watt weniger verbrauchen soll als die 4870X2...

Aber hast du dir mal schon überlegt was deine wunsch Karte gekostet hätte? Da wäre man wohl locker bei 800.- Doller und NV will doch aber nur die 4870X2 kontern, eine solche Karte würde Wirdschaftlich NULL Sinn machen, ganz im Gegenteil das würde die X2 sogar etwas stärken.

Ronny G.
2008-12-23, 18:04:21
200mb Speicher kosten doch nicht die Welt, dazu ist das teuerste, die GPU fähig die entsprechenden Taktraten zu fahren, einzig die Spannungsversorgung müßte noch angepaßt werden, das wird in der Summe aber sicherlich kein 40% mehr Kosten mit sich bringen.

Aber ich merke schon, es ging einzig und alleine darum mit möglichst wenig aufwand der HD4870X2 was engegen zu setzen.

dildo4u
2008-12-27, 02:46:00
3D Mark Duell (03/05/06/Vantage) Geforce GTX 295 Quad-SLI vs. Radeon HD 4870 X2 Quad-Crossfire
@Core i7/4.2Ghz

http://www.pcgameshardware.de/aid,671639/Bildergalerie/xfastestcom_Geforce_GTX_295_Quad-SLI_vs_Radeon_HD_4870_X2_Quad-Crossfire/&article_id=671639&image_id=956716&show=original