PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 280/260: (P)Review-Thread - Teil 2


Seiten : [1] 2 3

AnarchX
2008-06-20, 10:34:37
http://img337.imageshack.us/img337/6153/gtx280722e56ebko9.jpg

Testberichte:

3DCenter - Was bringt uns der GT200? (http://www.3dcenter.org/artikel/was-bringt-uns-der-gt200)

Anandtech - NVIDIA's 1.4 Billion Transistor GPU: GT200 Arrives as the GeForce GTX 280 & 260 (http://www.anandtech.com/video/showdoc.aspx?i=3334)

Benchmark Reviews - NVIDIA GeForce GTX 280 (http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1)

Beyond3D - NVIDIA GT200 GPU and Architecture Analysis (http://www.beyond3d.com/content/reviews/51)

bit-tech.net

Bjorn3D - XFX GTX 280: A Preview of What's to Come (http://www.bjorn3d.com/read.php?cID=1293)

CPU3D - Gigabyte Geforce GTX 280 (1Gb GDDR3) (http://www.cpu3d.com/content/view/5178/53/)

Computerbase - Nvidia GeForce GTX 280 (SLI) (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/)

Driverheaven - NVIDIA GTX 260 & Zotac GTX 280 AMP! (http://www.driverheaven.net/reviews.php?reviewid=579)

Digit-Life - GTX 260 (http://www.digit-life.com/articles3/video/gt200-2-p1.html)

Elite Bastards - NVIDIA GeForce GTX 200 series technology preview (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31)

Extremetech - Brute Force: Nvidia's GeForce GTX 280 and 260 (http://www.extremetech.com/article2/0,2845,2320089,00.asp)

Firingsquad - NVIDIA GeForce GTX 280/GTX 260 Performance Preview (http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/)

Gamestar - Zotac Geforce GTX 280 (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1946289/geforce_gtx_280.html)

Guru3D - GTX 280 vs. GX2, GTX, 3870 und X2 (http://www.guru3d.com/article/geforce-gtx-280-review-test/)

The Inquirer - GTX 280 vs. 9800 GTX (OC) (http://www.theinquirer.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here)

HardOCP - BFG Tech GeForce GTX 280 OC & GTX 260 (http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA==)

Hardware-Aktuell - GeForce GTX 280 im Kurztest (http://www.hardware-aktuell.com/viewtest.php?article=51&seite=4)

Hardware Canucks - EVGA GeForce GTX 280 1GB Superclocked Edition Review (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html)

Hardwareluxx

Hardware Secrets - GeForce GTX 280 Video Card Review (http://www.hardwaresecrets.com/article/570)

Hardtecs4u - OC GTX 280 von MSI
(http://ht4u.net/reviews/2008/msi_n280gtx/)
Hardwarezone - Beyond Gaming - NVIDIA GeForce GTX 280 1GB GDDR3 (http://www.hardwarezone.com/articles/view.php?cid=3&id=2593)

Hartware - Nvidia GeForce GTX 260 und 280 (http://www.hartware.de/report_424.html)

Hexus - BFG (NVIDIA) GeForce GTX 280: does it rock our world? (http://www.hexus.net/content/item.php?item=13736)

Hothardware - NVIDIA GeForce GTX 280 and GTX 260 Unleashed (http://hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/)

IT 168 - Chinesisches Review (http://translate.google.ch/translate?u=http%3A%2F%2Fpublish.it168.com%2F2008%2F0616%2F20080616000202.shtml&sl=zh-CN&tl=de&hl=de&ie=UTF-8)

IT.com.cn - Chinesisches Review mit 8800 Ultra und 3870 X2 im Vergleich (http://www.it.com.cn/f/diy/086/16/609817.htm)

Legion Hardware

NeoSeeker - Initial testing and impressions of the GTX 280 (http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/)

nvNews - EVGA GeForce GTX 280 FTW Edition (http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml)

Overclock3D - NVIDIA GTX 280 Performance Revealed - MSI N280GTX (http://www.overclock3d.net/reviews.php?/gpu_displays/nvidia_gtx_280_performance_revealed_-_msi_n280gtx/1)

PC Games Hardware - Gleicher Treiber, SLI und CPU-Skalierung (http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/)

PC Games Hardware - GTX 260 (http://www.pcgameshardware.de/aid,648317/Geforce_GTX_260_im_PCGH-Benchmark-Test/)

PC Perspective - NVIDIA GT200 Revealed - GeForce GTX 280 and GTX 260 Review (http://www.pcper.com/article.php?aid=577)

Rage3D - nVIDIA GTX200 Preview: GTX260 and GTX280 (http://www.rage3d.com/previews/video/nvg2xx/)

techPowerUp! - Zotac GeForce GTX 280 Amp! Edition (http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/)

TechReport - Nvidia's GeForce GTX 280 graphics processor - Can the green team do it again? (http://www.techreport.com/articles.x/14934)

t-break - nVidia GeForce GTX 280 : Introduction + Specs (http://www.tbreak.com/reviews/article.php?id=614)

TechSpot

Tomshardware (US) - Nvidia GeForce GTX 260/280 Review (http://www.tomshardware.com/reviews/nvidia-gtx-280,1953.html)

TweakPC.de - Material vom EditorDay in München (Video-Eklärung der Architektur) (http://www.tweakpc.de/berichte/nvidia_geforce_gtx_200/s02.php)

TweakTown - ZOTAC GeForce GTX 280 AMP! Edition (http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html)

VR-Zone - GeForce GTX 280 Preview (http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_Preview/5872.html)

Xbitlabs

Spezfikationen:

GPU:

Bezeichnung: G200
Prozess: 65nm bei TSMC
Transistorenanzahl: 1400 Mio.
Chip-Größe: 576mm²

Funktionseinheiten:

240 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL*); 192 bei GTX 260
80 TAs, 80 bi-TMUs; 64/64 bei GTX 260
32 ROPs(8 Z, 4xMSAA in einem Takt); 28 bei GTX 260
512-Bit Speicherinterface (8 fach unterteilt); 448-Bit, 7-fach bei GTX 260

* MUL bei G200 bis ~93% für normales Shading auslastbar, bei G8x/G9x nur ~15%


GTX 280:
1024MiB GDDR3

GTX 260:
896MiB GDDR3

Taktraten:

GTX 280:

TMU/ROPs: 602MHz
Shadertakt: 1296MHz
Speichertakt: 1107MHz


GTX 260:

TMU/ROPs: 576MHz
Shadertakt: 1242MHz
Speichertakt: 999MHz

Theoretische Leistungs-Daten:

GTX 280:

Pixelfüllrate: 19264 MPix/s
Texelfüllrate: 48160 MTex/s
arithmetische Leistung: MADD -> 622 GFLOPs, MADD+MUL -> 933 GFLOPs
Speicherbandbreite: 141,7 GB/s


GTX 260:

Pixelfüllrate: 16128 MPix/s
Texelfüllrate: 36864 MTex/s
arithmetische Leistung: MADD -> 477 GFLOPs, MADD+MUL -> 715 GFLOPs
Speicherbandbreite: 112 GB/s



PS: Dank an Tarkin für die Sammlung der Testberichte. :up:

gbm31
2008-06-20, 11:30:57
spasstiger: gibts irgendwo quellen für die assage, daß der grafiktreiber unabhängig vom vram pro grafikkarte "nur" 256mb puffer reserviert?


hab nämlich noch nix dazu gefunden...

AnarchX
2008-06-20, 11:50:42
Netzteildiskussion:
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=422089

Snoopy69
2008-06-20, 13:07:49
@ AnarchX

Könntest du in Post #1 einfügen was bei welcher Marke für Zubehör/Spiele dabei ist?
Ich hab nicht alles durchsucht, aber das hab ich bisher mitbekommen...

Zotac - Grid
XFX - AC
PoV - AC

Und gibts irgendwo einen Bench mit vielen verschiedenen GTX280? Einzelne Benches von versch. Seiten bringen mir nichts, da die Systeme nie gleich sind. bzw. anders gebencht wurde. Es sollte also EIN System mit versch. Karten sein. Angeblich soll GPU-Takt auch kaum was bringen (zumin. in 3DMark). Der Ram-Takt soll da besser skalieren.

Karte läuft jetzt mit vmod, habe gestern sicher 1 Stunde Crysis mit 800MHz gespielt!

Nur leider bringt der mehr Takt so gut wie gar nichts, Vantage Extreme hab ich mit 800MHz nur 10 Punkte mehr als mit 750MHz, das ding limitiert trotz 512Bit Komplett am Speicher!!!

50MHz mehr am Speicher (von 1250 auf 1300MHz) gibt gleich 200Punkte mehr!

Kann das jmd bestätigen?

deekey777
2008-06-20, 17:05:01
iXBT-Test in Englisch: http://www.digit-life.com/articles3/video/gt200-part1-p1.html

Gast
2008-06-20, 18:21:03
iXBT-Test in Englisch: http://www.digit-life.com/articles3/video/gt200-part1-p1.html


Was ist das den für ein lächerlicher Test. Ist man da von Xbit-Labs nicht was anderes gewöhnt?! Btw wird behauptet die GTX280 würde bis zu 280 Watt nuckeln.

Raff
2008-06-20, 18:28:14
GeForce GTX 260 inklusive OC getestet (http://www.pcgameshardware.de/aid,648317/Test/Benchmark/Geforce_GTX_260_im_PCGH-Benchmark-Test/)

MfG,
Raff

Blaire
2008-06-20, 19:14:15
Das Vergleichsvideo aus HL2 ist interessant. Ati flimmert immer noch ganz schön.;) Die Wand wabert richtig, bei Nvidia bleibt sie sauber, oder in dem Tunnel sieht man es recht deutlich.

Snoopy69
2008-06-20, 19:18:59
Link?
Welche Karten sind da genommen worden?

@ Mods

Gibts irgendwo Tests, wo viele verschiedene GTX280 gebencht wurden? Aber nicht von versch. Seiten, sondern von EINER Seite in EINEM System.

LovesuckZ
2008-06-20, 19:19:48
GeForce GTX 260 inklusive OC getestet (http://www.pcgameshardware.de/aid,648317/Test/Benchmark/Geforce_GTX_260_im_PCGH-Benchmark-Test/)

MfG,
Raff

Keine Verbrauchswerte?
Und wann werden die Bilder besser in die Seite eingefügt? Die Bedienung ist echt grausam. :(

Blaire
2008-06-20, 19:20:58
Link?
Welche Karten sind da genommen worden?

Unter Fazit ganz unten, musst dich aber vorher anmelden um das Video runterladen zu können. Die GTX280 wurde getestet und eine 3870X2

Snoopy69
2008-06-20, 19:25:14
Hm - ich dachte Einzel vs. Einzel

Ausserdem suche ich eine OC-Liste versch. Karten/Marken.
Die AMP-Edition von Zotac ist doch sicher selektiert bzw. hat vielleicht mehr VGPU?

Blaire
2008-06-20, 19:35:15
Hm - ich dachte Einzel vs. Einzel


Hier geht es ja nur um einen Bildqualitätsvergleich ,da ist es egal ob 1 oder 2 Chipkarte. ;)

Mr. Lolman
2008-06-20, 19:53:10
Hier geht es ja nur um einen Bildqualitätsvergleich ,da ist es egal ob 1 oder 2 Chipkarte. ;)

Nur sofern keine Mikroruckler auftreten.

Das Vergleichsvideo aus HL2 ist interessant. Ati flimmert immer noch ganz schön.;) Die Wand wabert richtig, bei Nvidia bleibt sie sauber, oder in dem Tunnel sieht man es recht deutlich.

Dafür sieht ATi bei NFS Carbon sogar schon auf den Standbildern besser aus.


EDIT - apropos ruckeln: Das NV-Video ruckelt ja übelst :eek: Was ist denn da passiert? Also erkennen, kann man da nicht viel, mal abgesehen davon, dass es besser gewesen wäre die gleichen Bildausschnitte zu verwenden, anstatt die linke Hälfte der ATi-Karte mit der rechten Hälfte der NV-Karte zu vergleichen.

Snoopy69
2008-06-20, 20:03:59
Nur sofern keine Mikroruckler auftreten.




MR ist ja noch nicht alles...
Wenn man im Bereich von 80fps ist, gibt es quasi keine MR mehr.
Mich interessiert eher, ob es Stotterer (nicht MR) bei SLI gibt.
Hab schon mehrere Leute mit SLI gefragt, aber die sind wohl im Bench-Fieber oder hocken irgendwo im "Wald oder Dschungel".

Kann ich aber verstehen... :wink:

Blaire
2008-06-20, 20:06:54
Dafür sieht ATi bei NFS Carbon sogar schon auf den Standbildern besser aus.

Das die Ati schlechter filtert, sieht man deutlich im Video. Das genügt mir und hab genug gesehn. :rolleyes: Von Carbon gab es auch schon ein Video dort hat die 8800GTX auch schon besser gefiltert.

Mr. Lolman
2008-06-20, 20:08:48
MR ist ja noch nicht alles...
Wenn man im Bereich von 80fps ist, gibt es quasi keine MR mehr.
Mich interessiert eher, ob es Stotterer (nicht MR) bei SLI gibt.

Die Frametimes bleiben aber unregelmässig. Auch wenn mans nicht merkt, sinds also keine 80 fps. Mal abgesehen davon, dass man anstatt mit 80 unregelmässigen SLI-fps auch gut mit 50 SingleGPU-fps, weniger Lag und halben Stromverbrauch sehr gut zurande käme...

Das die Ati schlechter filtert, sieht man deutlich im Video. Das genügt mir und hab genug gesehn. :rolleyes: Von Carbon gab es auch schon ein Video dort hat die 8800GTX auch schon besser gefiltert.

Und deswegen zählen die Screenshots jetzt nicht, oder wie?


Für nen Unbedarften ist der Videovergleich eher ne Werbung für ATi und suggeriert ziemlich genau das Gegenteil von dem, was es eigentlich zeigen hätte sollen.

Raff
2008-06-20, 20:14:40
Dafür sieht ATi bei NFS Carbon sogar schon auf den Standbildern besser aus.

"Schärfer"? :ulol: Die Radeons flimmern bei diesem Bodenbelag in Bewegung absolut karzinogen. Die GF-Karten @ HQ sind nicht flimmerfrei, es ist aber besser.

MfG,
Raff

Schlammsau
2008-06-20, 20:18:32
"Schärfer"? :ulol: Die Radeons flimmern bei diesem Bodenbelag in Bewegung absolut karzinogen. Die GF-Karten @ HQ sind nicht flimmerfrei, es ist aber besser.

MfG,
Raff

war AI Standard oder Advanced eingestellt?
Hast aber mal wieder ein Paradebeispiel rausgesucht. Die Source Engine........

Mr. Lolman
2008-06-20, 20:18:33
"Schärfer"? :ulol: Die Radeons flimmern bei diesem Bodenbelag in Bewegung absolut karzinogen. Die GF-Karten @ HQ sind nicht flimmerfrei, es ist aber besser.

MfG,
Raff
Nein glatter. Habt ihr etwa die Bilder verwechselt? Darf ich sie posten?

Ich bezieh mich auf NFSC_RV670_4xAA_16xAF_front.png vs NFSC_GTX280_4xAA_16xAF_front.png. Mit back ists aber genau das Gleiche.


EDIT2: Darf ich zumindest anhand eines Ausschnitts zeigen was ich meine, oder muss ich fürchten von PCGH dafür abgemahnt zu werden?

Blaire
2008-06-20, 20:23:40
war AI Standard oder Advanced eingestellt?
Hast aber mal wieder ein Paradebeispiel rausgesucht. Die Source Engine........

Es gibt mehrere Paradebeispiele, wenn man das Auge dafür hat. ;) Muss dazusagen das ich gerade eine Ati Karte im Rechner habe :-)

Taigatrommel
2008-06-20, 20:25:01
@ AnarchX

Könntest du in Post #1 einfügen was bei welcher Marke für Zubehör/Spiele dabei ist?
Ich hab nicht alles durchsucht, aber das hab ich bisher mitbekommen...

Zotac - Grid
XFX - AC
PoV - AC

MSI N280GTX-T2D1G-OC

Takte:
Core: 650 MHz
Speicher: 1150 MHz
Shader: 1300 MHz

Zubehör:
HDMI Dongle
Molex-6Pin PCI-E Adapter
DVI-VGA Adapter
TV Out Kabel

Software:
Treiber/Tools
Colin McRae DiRT Vollversion
Lord of the Rings Online Trial Version

Snoopy69
2008-06-20, 20:52:59
An alle GTX280-SLI-User! Bitte mitmachen!!!

ATI scheint MR in den Griff bekommen zu haben!!! :O

http://www.forumdeluxx.de/forum/showthread.php?p=9339841#post9339841

Ich finde es sehr wichtig, dass ALLE SLI-User mitmachen und NV mit Reklamationen zu bombadieren.
Denn wenn niemand meckert, ändert man garnichts! Die MR müssen entgültig weg!!!

derwalde
2008-06-20, 23:25:04
An alle GTX280-SLI-User! Bitte mitmachen!!!

ATI scheint MR in den Griff bekommen zu haben!!! :O

http://www.forumdeluxx.de/forum/showthread.php?p=9339841#post9339841

Ich finde es sehr wichtig, dass ALLE SLI-User mitmachen und NV mit Reklamationen zu bombadieren.
Denn wenn niemand meckert, ändert man garnichts! Die MR müssen entgültig weg!!!

wenn dem so wäre, eieiei. dass könnt das zünglein an der waage sein.

frix
2008-06-20, 23:41:18
wenn dem so wäre, eieiei. dass könnt das zünglein an der waage sein.

glaub ich eher nicht, nur die hardware nerds wissen doch von MR :D

Gast
2008-06-21, 11:37:41
Gibt es eigentlich die Nvidia Demos zur GTX200 Serie irgendwo zum Download? In der nZone und auf der Developer Seite hab ich nix gefunden und bei meiner GTX260 von PoV is nix dabei...

AnarchX
2008-06-21, 11:40:12
Gibt es eigentlich die Nvidia Demos zur GTX200 Serie irgendwo zum Download? In der nZone und auf der Developer Seite hab ich nix gefunden und bei meiner GTX260 von PoV is nix dabei...
http://nzone.com/object/nzone_medusa_home.html

pXe
2008-06-21, 16:05:35
Gibt es irgendwo Benchmarks der GTX260 oder GTX280 mit SSAA?


pXe

Snoopy69
2008-06-21, 16:09:30
*hust*

@ AnarchX

Könntest du in Post #1 einfügen was bei welcher Marke für Zubehör/Spiele dabei ist?
Ich hab nicht alles durchsucht, aber das hab ich bisher mitbekommen...

Zotac - Grid
XFX - AC
PoV - AC

dildo4u
2008-06-21, 16:11:34
Gibt es irgendwo Benchmarks der GTX260 oder GTX280 mit SSAA?


pXe
http://www.pcgameshardware.de/aid,647767/Test/Benchmark/GT200-Test_Extrem-FSAA-Benchmarks_und_Uebertaktung/

Mr.Magic
2008-06-21, 16:11:54
Gibt es irgendwo Benchmarks der GTX260 oder GTX280 mit SSAA?


pXe

16xQ, 16xS, 16xSS & 32xS @PC Games Hardware (http://www.pcgameshardware.de/aid,647767/Test/Benchmark/GT200-Test_Extrem-FSAA-Benchmarks_und_Uebertaktung/)

robbitop
2008-06-21, 17:00:00
Ist nur die Frage, wie sie die MR wegbekommen haben. Wenn sie einfach nur die Ausgabe des Backbuffers verzögert haben, ist die Wirkung nicht dieselbe, als wenn das Bild inkl Geometrie in der CPU verzögert wird.

Grestorn
2008-06-21, 17:05:00
Ist nur die Frage, wie sie die MR wegbekommen haben. Wenn sie einfach nur die Ausgabe des Backbuffers verzögert haben, ist die Wirkung nicht dieselbe, als wenn das Bild inkl Geometrie in der CPU verzögert wird.

Doch, da spätestens das nächste Bild auch von der CPU zum richtigen Zeitpunkt berechnet wird. Man muss ja nicht permanent ein Delay einbauen, sondern nur einmal. Erst wenn wieder ein Versatz auftritt, ist ein erneuter, einmaliger Delay nötig.

robbitop
2008-06-21, 17:08:55
Doch, da spätestens das nächste Bild auch von der CPU zum richtigen Zeitpunkt berechnet wird. Man muss ja nicht permanent ein Delay einbauen, sondern nur einmal. Erst wenn wieder ein Versatz auftritt, ist ein erneuter, einmaliger Delay nötig.
Spiele sind ja nicht statisch sondern hoch dynamisch. Also ein hohes d(FPS)/d(t)
Also muss aufgrund der Daten aus der Vergangenheit (ein besserer Ansatz, der nicht latenzkritisch ist, fällt mir nicht ein) der Frame bereits in der CPU verzögert werden.
Richtig perfekt wird's mit AFR aber nie und ich hoffe, dass man irgendwann mal von dieser veralteten Bastellösung mal wegkommt.

Grestorn
2008-06-21, 17:13:02
Natürlich sind Spiele nicht statisch, aber trotzdem muss nicht permanent ein Delay eingebaut werden, sondern hin und wieder. Es gibt 30-50 Frames pro Sekunde, verglichen damit ändert sich der Bildinhalt deutlich seltener wirklich so dramatisch, dass die CPU/GPUs wieder aus dem Takt geraten würden.

Wenn man wirklich krass dynamische Szenen hat, kann man das MR eh von den normalen Frameschwankungen nicht mehr unterscheiden.

robbitop
2008-06-21, 17:18:17
Ich halte es trotzdem für eine veraltete Bastellösung. :-P
Außerdem kommt der Delay ja nicht ständig rein. Nur wenn wir ein d(FPS)/d(t) in der näheren Vergangenheit haben. Es ist eben nur die Frage, wo man das Delay reinschiebt. M.E. am Besten dort, wo der Frame erzeugt wird. Sonst ist ein verzögerter Frame nämlich nicht mehr korrekt.

pXe
2008-06-21, 17:18:26
16xQ, 16xS, 16xSS & 32xS @PC Games Hardware (http://www.pcgameshardware.de/aid,647767/Test/Benchmark/GT200-Test_Extrem-FSAA-Benchmarks_und_Uebertaktung/)

Ah danke, hab den Wald vor lauter Bäumen nicht mehr gesehen*g*.


Gibt es eigentlich noch SLI-AA auf G80 und neuer? Evtl. mit neuen Modi?
Hab dazu gar nix mehr gelesen. Wie sieht es da mit Mikrorucklern aus?
(soweit ich das verstanden hab berechnen beide Karte ja das gleiche Bild,
nur mit entsprechenden Versatz, je nach sample Muster)

pXe

Grestorn
2008-06-21, 17:38:14
Ich halte es trotzdem für eine veraltete Bastellösung. :-P
Außerdem kommt der Delay ja nicht ständig rein. Nur wenn wir ein d(FPS)/d(t) in der näheren Vergangenheit haben. Es ist eben nur die Frage, wo man das Delay reinschiebt. M.E. am Besten dort, wo der Frame erzeugt wird. Sonst ist ein verzögerter Frame nämlich nicht mehr korrekt.

Mein Algo würde den Versatz der Frames messen, also wie sehr sich die Zeitabstände von einem Frame zum nächsten unterscheiden (und zwar in x-Tupeln, wobei x die Anzahl der GPUs ist).

Dieser Versatz wird immer über ein paar dieser Frame-Tupel (so 3-5) hinweg gemessen. Bleibt der Versatz während dieser Zeit über einem gewissen Grenzwert, dann füge ich einen einmaligen Delay so ein, dass der Versatz genau ausgeglichen wird.

Danach sollte (bei einer vollkommen statischen Szene) erst mal kein Versatz mehr vorhanden sein. Es wird dann weiter immer der Versatz auf die selbe Art beobachtet und wieder eingegriffen, wenn er wie oben beschrieben aus dem Ruder läuft.

So schwer ist das nicht zu machen, und ich behaupte, dass das das Problem nahezu perfekt beheben würde.

Wann der Delay eingefügt wird, ist nicht von Belang. Das Bild im Prerender-Puffer hat eh schon einen festen Zeitbezug, der sich durch den Delay so oder so nicht mehr beheben lässt. Aber die nach dem Delay berechneten Bilder sind auch von der CPU automatisch immer an der richtigen Stelle, weil dann eben kein Versatz mehr da ist.

robbitop
2008-06-21, 17:51:50
Ja das klingt gut. Dann dürfte die GPU aber während des verzögern des Backbuffers nicht schon wieder an der nächsten Framekadenz arbeitet.

Gast
2008-06-21, 20:41:37
Warum drängen AMD und NVidia die SPieleentwickler nicht einfach dazu, das Bild zu "tilen" wie auf der Xbox360 - man hätte dann zwar ein bissle Verschnitt, könnte aber bis zu vier Karten mit einem Tile auslasten - lediglich ein gemeinsame Framebuffer wäre noch net..

Gast
2008-06-21, 22:38:03
Weil das aktuell mit der Hardware und den ganzen Belichtungstechniken nicht funktioniert. Das Tiling bei der Box wird auch nur marginal eingesetzt (2 oder 3 Spiele).

PCGH_Raffael
2008-06-21, 22:41:58
16xQ, 16xS, 16xSS & 32xS @PC Games Hardware (http://www.pcgameshardware.de/aid,647767/Test/Benchmark/GT200-Test_Extrem-FSAA-Benchmarks_und_Uebertaktung/)

Die GTX 260 (und eine "Bonuskarte" ;)) folgt am Montag. :)

MfG,
Raff

LovesuckZ
2008-06-21, 22:42:43
Hm, auch mit CSAA?

PCGH_Raffael
2008-06-21, 22:43:44
Nein, nicht unter 16xQ. Ist nicht extrem genug. ;) Aber es ist mehr als eine Überlegung wert, mal alle offiziellen Modi durchzubenchen.

MfG,
Raff

Gast
2008-06-22, 13:05:56
Die GTX 260 (und eine "Bonuskarte" ;)) folgt am Montag. :)

MfG,
Raff

Bonuskarte? Habt ihr eine 10P Tesla Karte etwa bekommen ;)

Raff
2008-06-23, 13:59:17
So ähnlich – eine 9800 GTX+ ;):
http://www.pcgameshardware.de/aid,648498/Test/Benchmark/Geforce_GTX_260_und_9800_GTX_Extrem-FSAA-Benchmarks_und_OC/

MfG,
Raff

Odal
2008-06-23, 14:32:17
was so ein vram limit alles ausmachen kann :D

wär aber noch schöner wenn ihr mal die vram auslastung mit gemessen und dargestellt hättet....

so ein max. wert und ein durchschnittswert

dildo4u
2008-06-23, 14:41:54
@Raff kommt noch ein "normaler" Test mit der 9800GTX+?

dildo4u
2008-06-24, 13:23:52
GT200: Nvidia GeForce GTX 280 Analysis (Architecture Review)

http://www.bit-tech.net/hardware/2008/06/24/nvidia-geforce-gtx-280-architecture-review/1


http://s8.directupload.net/images/080624/6rxdk2p9.jpg

http://s8.directupload.net/images/080624/hk6xfz8e.jpg

http://s7.directupload.net/images/080624/gsh9igqd.jpg

http://s7.directupload.net/images/080624/y4x3lhd7.jpg

LovesuckZ
2008-06-24, 18:59:41
Mit der neuen 9800GTX+ erreicht man die selbe Rechenleistung wie bei der GTX260. Das ist total lolig. Irgendwie hat nVidia komplett den Bock abgeschossen.

AnarchX
2008-06-24, 19:02:33
Mit der neuen 9800GTX+ erreicht man die selbe Rechenleistung wie bei der GTX260. Das ist total lolig. Irgendwie hat nVidia komplett den Bock abgeschossen.
Aber auch nur in der Theorie, durch verbessertes Dual-Issue, doppelten LRF und den anderen Optimierungen am Shadercore kann die GTX 260 doch durchaus noch etwas mehr aus der ihr gegebenen Leistung machen und in der Zukunft wird sich wohl der Abstand noch etwas erhöhen.

LovesuckZ
2008-06-24, 19:04:24
Das muss sich erstmal alles in der Praxis zeigen. Die 280 kann ihren 80% Vorteil auch nicht 1:1 in rechenintensiven Spielen durchbringen.

AnarchX
2008-06-24, 19:32:32
Das wird sich zeigen müssen, jedenfalls stehen die Chancen und Zeichen nicht schlecht. Wenn natürlich es auch sehr fraglich bleibt, ob denn diese Leistung momentan 300€ wert ist.

btw.
PCGH hat auch den etwas anderen Benchmarkparkour für die GTX 260 und GTX+ durchgeführt:
Geforce GTX 260 und 9800 GTX+: Extrem-FSAA-Benchmarks und OC (http://www.pcgameshardware.de/aid,648498/Test/Benchmark/Geforce_GTX_260_und_9800_GTX_Extrem-FSAA-Benchmarks_und_OC/)

LovesuckZ
2008-06-24, 22:29:22
http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17123.png
http://www.anandtech.com/video/showdoc.aspx?i=3340&p=4

In Bioshock sieht es nicht schlechter. Ehrlich, die Karte hat überhaupt keine Daseinsberechtigung...

Gast
2008-06-24, 22:32:24
Das wird sich zeigen müssen, jedenfalls stehen die Chancen und Zeichen nicht schlecht. Wenn natürlich es auch sehr fraglich bleibt, ob denn diese Leistung momentan 300€ wert ist.

btw.
PCGH hat auch den etwas anderen Benchmarkparkour für die GTX 260 und GTX+ durchgeführt:
Geforce GTX 260 und 9800 GTX+: Extrem-FSAA-Benchmarks und OC (http://www.pcgameshardware.de/aid,648498/Test/Benchmark/Geforce_GTX_260_und_9800_GTX_Extrem-FSAA-Benchmarks_und_OC/)


Hat Raff schon verlinkt weiter oben.

Gast
2008-06-24, 22:50:11
32xS is total Panne, da bricht die Leistung so extrem ein, da ist 4x4 Supersampling noch besser.
Welches EER hat eigentlich 3x3 Supersampling? Das rennt besser als 16xS.

Gast
2008-06-24, 22:54:43
Zitat aus dem PCGAMESHARDWARE Bericht "32xS enthält ebenfalls 4x SSAA, paart dies jedoch mit 8xQ-MSAA."

Ist das nicht falsch/irreführend?
Im nHancer ist der Modus mit 2x2SSAA angegeben, im Artikel 4xSSAA oder 4x Supersampling.
Wie nennt man dann 2x2SSAA und 4x4SSAA? *verwirrt bin*

Godmode
2008-06-24, 22:55:08
Ich frage mich wie viel Nvidia mit den normalen Spielern verdient, also wie viele Highend Chips gehen auf die Desktop Highend Karten und wie viele gehen auf die Quadros und Teslas? Die Profikarten lassen sie sich ja ordentlich bezahlen, kann man dadurch G200 für den Desktop vielleicht so billig verscherbeln (280 € kostet die billigste GTX 260 derzeit bei Geizhals)?

Auf die neuen Quartalszahlen bin ich schon wirklich sehr gespannt.

Sorkalm
2008-06-24, 23:26:12
Auf die neuen Quartalszahlen bin ich schon wirklich sehr gespannt.

Naja, die werden noch nicht so aussagekräftig sein, ist ja Ende April bis Ende Juli... (Q2 des FJ 2009).

Gast
2008-06-25, 01:24:05
Hab die 260GTX seit einigen Tagen in Betrieb. Nach intensivsten Stabilitätstests ist erstmal 630/1250 drin. Atitool wirft ab 640 Core Artifakte. Die Performance ist durchweg flüssig und das Spielgefühl butterweich. Nutze einen 22TFT mit supersampling und AA8Q bei Grid etc. Zum Preis der 280: Völlig übertrieben. Der müsste meiner Ansicht nach bei 350-400 liegen. Mir tun die Leute leid die 500 dafür gelatzt haben. Soweit, Gute Nacht

DrumDub
2008-06-25, 10:23:48
http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17123.png
http://www.anandtech.com/video/showdoc.aspx?i=3340&p=4

In Bioshock sieht es nicht schlechter. Ehrlich, die Karte hat überhaupt keine Daseinsberechtigung... den unterschied zwischen der gtx 260 und der 9800gtx+ sieht man wirlich nur mit aa (je höher die auflösung, um so größer wird der unterschied):

http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17121.png

http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17122.png

http://images.anandtech.com/graphs/geforce9800gtxpreview_062408105205/17124.png

einzige ausnahme bei anandtech ist oblivion.

AnarchX
2008-06-26, 10:02:29
PCGH hat nun ein Rating auf Basis ihrer Benchmarks gebildet:
http://www.pcgameshardware.de/aid,648978/Test/Benchmark/PCGH-Performance-Index_inklusive_GT200_und_RV770/

... vorallem in den Min-FPS macht sich wohl die höhere Speicherausstattung bemerkbar.

Da steht die GTX 260 mit ihren aktuellen 270€ gar nicht mal so schlecht da.

Sorkalm
2008-06-26, 10:08:18
... vorallem in den Min-FPS macht sich wohl die höhere Speicherausstattung bemerkbar.

Deutlich wird der Unterschied aber erst in 2560x1600 (bezogen auf die MinFPS-Folie, bei der Averange stimmt sowieso irgendwas nicht)...

AnarchX
2008-06-26, 10:19:17
Deutlich wird der Unterschied aber erst in 2560x1600 (bezogen auf die MinFPS-Folie,
Was man ja auch in niedrigeren Auflösungen durch die Hybrid-Modi erreichen kann, wenn dann auch das Verhältnis eher zu den anderen GeForce interessant ist.


bei der Averange stimmt sowieso irgendwas nicht)...
Wieso? Das 4850-zu-GTX 280-Verhältnis deckt sich jedenfalls auch mit den Ratings die CB ermittelt hat.

Sorkalm
2008-06-26, 11:05:04
Wieso? Das 4850-zu-GTX 280-Verhältnis deckt sich jedenfalls auch mit den Ratings die CB ermittelt hat.

Sie haben es inzwischen gefixt, vmtl. war einfach die Beschriftung durcheinander geraten. Oben stand da die GTX 260, die GTX 280 war irgendwie die viert letzte und ich konnte mir absolut keinen Reim mehr machen welche Grafikkarte jetzt welcher Balken sein sollte.

Andreas12
2008-06-26, 16:36:41
Also wenn man den Artikel über den RV770 auf der ersten Seite so liest,
dann kann man ja die neuen und alten Nvidia- Karten alle "verschrotten".

Die gebotene Leistung muß ja überragend sein?!

Odal
2008-06-26, 17:01:01
was heisst überragend...die bieten halt den meisten bang for the bucks
und das mit abstand

Grestorn
2008-06-26, 21:04:45
Man kann es auch so sehen: ATI kommt im High End immer noch nicht ran und kann nur über den Preis punkten.

Das die schnellsten Karten überproportional teuer sind, war schon immer so. Könnte ATI hier etwas anbieten, wären diese Karten auch nicht billiger als eine GTX280.

reunion
2008-06-26, 21:10:26
Man kann es auch so sehen: ATI kommt im High End immer noch nicht ran und kann nur über den Preis punkten.

Wenn man beide Augen ganz fest zudrückt kann man es vielleicht so sehen. Wenn man die Augen etwas weiter aufmacht sieht man schon das ein RV770 nur einen Bruchteil der Größe eines GT200 hat und es schlicht ein Armutszeugnis für nV wäre wenn RV770 hier vorne liegen würde. Schon die jetzige Situation ist äußerst prekär für nV. Die X2 wird die GTX280 sowas von vernichten, bei weniger Die-Fläche. RV770 wildert eh schon auf GTX260-Niveau. ATI muss nicht über den Preis punkten, ATi kann über den Preis punkten dank niedriger Produktionskosten.

HarryHirsch
2008-06-26, 21:13:44
Wenn man beide Augen ganz fest zudrückt kann man es vielleicht so sehen. Wenn man die Augen etwas weiter aufmacht sieht man schon das ein RV770 nur einen Bruchteil der Größe eines GT200 hat und es schlicht ein Armutszeugnis für nV wäre wenn RV770 hier vorne liegen würde. Schon die jetzige Situation ist äußerst prekär für nV. Die X2 wird die GTX280 sowas von vernichten, bei weniger Die-Fläche. RV770 wildert eh schon auf GTX260-Niveau.

von dem ganzen gpgpu zeug bei ati ganz zu schweigen

Grestorn
2008-06-26, 21:15:29
Klar wird die X2 den 280 vernichten. Und 2 280s werden die X2 vernichten.

Wenn die X2 noch nicht mal schneller wäre als EINE 280, dann wäre das mehr als peinlich.

Man kann gerne argumentieren, dass die 280 zu teuer ist für die gebotene Leistung. Aber mit der Die-Größe zu argumentieren ist ja nun völlig absurd, denn die stört wirklich niemanden.

Odal
2008-06-26, 21:23:01
ich halte das nicht für absurd denn daran sieht man für welchen preisbereich ein produkt konzipiert ist..

ein chip mit der fläche eines G200 und der leistung einer 2600XT ist eindeutig eine fehlentwicklung...

während ein chip mit der fläche der GPU einer 2600XT und der performance einer 9800GTX ein absoluter kracher wäre

ATI hat eindeutig gesagt sie konzentrieren sich aufs performance segment (was in der neusten generation schon am highend der konkurenz kratzt) und werfen höchstens ne multi GPU karte als ihr highend ins rennen...

imho ist es eher peinlich das ein G200>2xRV770 (auch wenns nur ein bisschen ist bzgl. DIE size) aber 2xRV770 deutlich schneller wie ein G200 sind

HarryHirsch
2008-06-26, 21:25:16
ich halte das nicht für absurd denn daran sieht man für welchen preisbereich ein produkt konzipiert ist..

ein chip mit der fläche eines G200 und der leistung einer 2600XT ist eindeutig eine fehlentwicklung...

während ein chip mit der fläche der GPU einer 2600XT und der performance einer 9800GTX ein absoluter kracher wäre

ATI hat eindeutig gesagt sie konzentrieren sich aufs performance segment (was in der neusten generation schon am highend der konkurenz kratzt) und werfen höchstens ne multi GPU karte als ihr highend ins rennen...

imho ist es eher peinlich das ein G200>2xRV770 (auch wenns nur ein bisschen ist bzgl. DIE size) aber 2xRV770 deutlich schneller wie ein G200 sind

man könnte jetzt auch die oblivion benches zur hand nehmen...
aber das bringt uns hier nicht weiter

Gast
2008-06-26, 21:25:21
*Ahem*
48xx = "Performance"-Segment.
GTX 280 und X2 = "High-End"-Segment.

Innerhalb der Segmente vergleichen? Soll erlaubt sein.
Den Performance-Karten vorwerfen, dass sie "nur über den Preis punkten können"? Sinnlos, da das ja wohl dieses Segment ausmacht.

mapel110
2008-06-26, 21:38:30
Nur dass man bei ATI merkwürdigerweise den schnellstmöglichen Speicher auf der Performance-Karte einsetzen möchte und deswegen die Verfügbarkeit leidet. Hat man normalweise bei einem solch günstigen Angebot für den Kunden ja nicht.

HarryHirsch
2008-06-26, 21:41:03
Nur dass man bei ATI merkwürdigerweise den schnellstmöglichen Speicher auf der Performance-Karte einsetzen möchte und deswegen die Verfügbarkeit leidet. Hat man normalweise bei einem solch günstigen Angebot für den Kunden ja nicht.

was ist wohl teurer? 512bit si oder gddr5?

reunion
2008-06-26, 21:49:21
Klar wird die X2 den 280 vernichten. Und 2 280s werden die X2 vernichten.

Wenn die X2 noch nicht mal schneller wäre als EINE 280, dann wäre das mehr als peinlich.

Man kann gerne argumentieren, dass die 280 zu teuer ist für die gebotene Leistung. Aber mit der Die-Größe zu argumentieren ist ja nun völlig absurd, denn die stört wirklich niemanden.

RV770 ist ein Midragechip, ihm vorzuwerfen nur über den Preis punkten zu können ist schon verdammt lächerlich. Ebenso zwei Midragechips dann mit zwei High-End-Chips vergleichen zu wollen. Peinlich ist es höchstens für nV das deren High-End-Chips sich kaum von AMDs Midrageangebot absetzen können und deshalb das High-End-Pendant die NV Karten versägen wird.

Coda
2008-06-26, 21:53:31
von dem ganzen gpgpu zeug bei ati ganz zu schweigen
Also bei GPGPU sehe ich NVIDIA vor allem was Dev-Support angeht und auch sonst eindeutig vorne.

Wobei Brook+ sehr cool aussieht.

Snoopy69
2008-06-26, 21:54:15
OBERGEIL!!! :O
Preis - 89,95€!!!

http://www.watercool.de/cms/forumpics/gpu_x2_g200_1.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_2.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_3.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_4.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_5.jpg

Grestorn
2008-06-26, 21:55:44
RV770 ist ein Midragechip, ihm vorzuwerfen nur über den Preis punkten zu können ist schon verdammt lächerlich.

Moment, ihr argumentiert doch, dass der 280 zu wenig Abstand zum 4870 hat für die Mehrkosten die er mit sich bringt.

Also argumentiert IHR über den Preis.

So lange ATI kein SingleChip bringt, der nVidia Paroli bieten kann, bleibt ja nur der Preis als Kaufargument.

Und dass genau die selben Leute, die seit Bestehen von SLI dagegen gewettert haben jetzt auf einmal im X2 den einzig wahren Segen für eine HighEnd Karte sehen, da ja ein MonsterChip wie die 280 "ganz offensichtlich" der falsche Weg wäre, finde ich auch sehr amüsant.

HarryHirsch
2008-06-26, 21:55:51
ich dachte da eher an dieses opencl? zeug. das gerade für die zukunft einiges bringen dürfte

edit:
OBERGEIL!!!
Preis - 89,95€!!!

http://www.watercool.de/cms/forumpics/gpu_x2_g200_1.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_2.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_3.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_4.jpg

http://www.watercool.de/cms/forumpics/gpu_x2_g200_5.jpg

also der sieht mal wirklich jeil aus

Snoopy69
2008-06-26, 22:05:17
Und hier ein Test des Kühlers...

http://www.pcmasters.de/hardware/review/watercoll-heatkiller-gpu-x2-r670.html

Nakai
2008-06-26, 22:09:55
So lange ATI kein SingleChip bringt, der nVidia Paroli bieten kann, bleibt ja nur der Preis als Kaufargument.

Und genau dieser Preis trennt die Chips.

Jeder Hersteller bietet verschiedene Produkte zu verschiedenen Preisen an. Man kann nur über den Preis argumentieren. NV könnte ja den GT200 für 200€ anbieten, dann würde er fast unschlagbar sein. Er hätte ein unglaubliches PreisLeistungsverhältnis, aber NV kann sich das leider nicht leisten.
Zum Schluß bleibt nur der Preis als Grundlage.


mfg Nakai


€:

Und dass genau die selben Leute, die seit Bestehen von SLI dagegen gewettert haben jetzt auf einmal im X2 den einzig wahren Segen für eine HighEnd Karte sehen, da ja ein MonsterChip wie die 280 "ganz offensichtlich" der falsche Weg wäre, finde ich auch sehr amüsant.

Was soll daran schlecht sein?
Wenn der R700 30% schneller als ne GTX280 ist, aber zum gleichen Preis kommt, dann ist die Karte sehr gut.

Odal
2008-06-26, 22:10:07
Und dass genau die selben Leute, die seit Bestehen von SLI dagegen gewettert haben jetzt auf einmal im X2 den einzig wahren Segen für eine HighEnd Karte sehen, da ja ein MonsterChip wie die 280 "ganz offensichtlich" der falsche Weg wäre, finde ich auch sehr amüsant.

sobald das "mikroruckler" problem angegangen wird, ist das in der tat eine gute lösung

denn entweder liegt beim G200 was sehr im argen oder solche "monsterchips" sind einfach nur total ineffizient

schaut man sich mal die situation damals R300 NV30 an

R300 hatte gut 100Mio Transis und NV30 hatte um die 130Mio Transis

ein RV360 war ca. ein halber R300

damals hatte NVidia wenigstens noch ein höheres techlevel zu bieten (PS 2.A vs PS2.0)

der R300 zog den NV30 fast immer ab...später noch mehr...aber schon bei release galt der NV30 bei den meisten als rohrkrepierer und später als katastrophe....


jetzt steht ein performance chip/die eigentliche obere mittelklasse schon fast am GTX280
und hat oben drauf sogar noch ein höheres techlevel

zwei davon auf einer karte holen sich auf jedenfall die krone...

wenn die mikrorucklerproblematik gefixt wird, ist das der einzige weg (solang beim G200 nicht irgendwas im sack ist) denn so scheint man ja nicht weiter zu kommen (ohne unverhältnismäßig hohem aufwand an transistoren-chipfläche und somit kosten)

bei ati scheint man ähnlich wie damals beim R300 gesagt zu haben: "leute egal was ihr macht und wie ihr es anstellt...macht das ding schnell (basierend auf der R600 architektur)"

und rausgekommen ist, für die grösse, ne kanone

ps: mehrere karten im pc sehe ich auch nicht als effiziente lösung..aber multigpu auf einer karte könnte (ohne oben genannte probleme) das optimum darstellen...man darf halt nicht in 3dfx manier technischen fortschritt als unwichtig abtuen und still stehen

Taigatrommel
2008-06-26, 22:22:41
Abgesehen von den Mikrorucklern, wie sieht es mit der allgemeinen Kompatibilität aus? Zumindest vor rund ein bis zwei Jahren hat längst nicht jedes Spiel vom zweiten Chip, egal ob auf einem Board oder Multi-Board, profitiert. WoW fällt mir da ganz spontan ein, weil es bei mir grad im Hintergrund läuft. SLI funktioniert nicht, im Gegenteil: Blizzard empfiehlt hierbei sogar SLI im Treiber zu deaktivieren, da es sonst zu Problemen führen kann. Dies kann ich so teilweise sogar bestätigen.

Wenn ich mich an diverse GX2/X2 Reviews erinnere, dann gab es da wohl auch andere Spiele, die kaum oder nur gering vom zweiten Chip profitierten. Da habe ich dann am Ende doch lieber einen starken Chip mit der Option zum Aufrüsten für MGPU, als das ich direkt auf eine MGPU Lösung mit zwei schwächeren Chips angewiesen bin.

Verstehe ohnehin nicht, wieso man jetzt auf einmal so stark auf den MGPU Lösungen mit billigen Karten herumreitet. Bereits 8800 GT/GTS boten für weniger Geld mehr Leistung als ihre High-End Konkurenten. Neu ist dies, wie bereits so oft gesagt, auf keinen Fall.

Snoopy69
2008-06-27, 00:23:34
Gibt es mittlerweile eine OC-Liste versch. Karten? Mich interessiert, ob die Zotac AMP 700MHz selektiert ist oder auch nicht besser geht als normale Karten mit 602MHz.

deekey777
2008-06-27, 01:00:15
NVIDIA GeForce GTX 260 896MB (http://www.digit-life.com/articles3/video/gt200-2-p1.html)
4850 ist dabei.

Gast
2008-06-27, 02:03:54
deeky777s Artikel hat auch ein interessantes und einleuchtendes Nachwort. Danke!

Snoopy69
2008-06-27, 08:49:39
DD-Tieton for GTX280/260

http://www.dangerden.com/store/product.php?productid=353&cat=0&page=

http://www.abload.de/img/image2.phpx5u.jpg

http://www.abload.de/img/image.php7l5.jpg


EK-FC280 GTX SLI

http://ekwaterblocks.com/shop/product_info.php?cPath=21_31_42&products_id=279&osCsid=34d33c974a90de5797597830f31369a8


EK-FC280 GTX SLI - Acetal

http://ekwaterblocks.com/shop/product_info.php?cPath=21_31_42&products_id=280


EK-FC280 GTX SLI - Nickel plated

http://ekwaterblocks.com/shop/product_info.php?cPath=21_31_42&products_id=281

DrumDub
2008-06-27, 12:15:28
test der gtx 260 bei ixbt in englisch mit vergleichswerten zur 4850: http://www.digit-life.com/articles3/video/gt200-2-p1.html

der gleiche test mit balken auf russisch: http://www.ixbt.com/video3/gt200-2.shtml#p28

hier nur die balken: http://www.ixbt.com/video3/gt200-2-d.shtml#p18

Gast
2008-06-27, 22:12:00
Sah man vorher schon auf diff. Seiten, das die GTX260 gut vor der HD4850 ist. Crysis ist halt so eine Sache, da man nicht weis, warum es jetzt auf der AMD Schiene besser rennt für weniger Geld als bei nV. In anderen Spielen kann sich die GTX260 klar absetzen.

In Crysis liegt evtl auch was im argen, da sich die Karten nicht wirklich, wie in allen anderen Spielen, stark von einander unterscheiden, je nach Preislage.
Schon seltsam, aber ist nur ein Spiel, und ich habs nichtmal, egal ^^

Snoopy69
2008-06-27, 22:26:55
So, hab nun 2x GTX280 + 2x GPU-X² G200 bestellt :D

Gast
2008-06-28, 07:43:38
Sah man vorher schon auf diff. Seiten, das die GTX260 gut vor der HD4850 ist. Crysis ist halt so eine Sache, da man nicht weis, warum es jetzt auf der AMD Schiene besser rennt für weniger Geld als bei nV. In anderen Spielen kann sich die GTX260 klar absetzen.


http://www.techreport.com/articles.x/14990/13
http://www.techreport.com/articles.x/14990/11
http://www.techreport.com/articles.x/14990/9

Imho ist die GTX 280 mindestens 220 Euro zu teuer.

Gast
2008-06-28, 10:52:47
http://www.techreport.com/articles.x/14990/13
http://www.techreport.com/articles.x/14990/11
http://www.techreport.com/articles.x/14990/9

Imho ist die GTX 280 mindestens 220 Euro zu teuer.

Tests ohne AF ignoriere ich generell, mein Spielesetting ist 4xAA/16xAF (HQ und WU, wenns geht)...
Klar ist die GTX280 teuer, schnellste Graka auf dem Markt. Aber ihr müsst sich ja nicht kaufen, also würde ich mir mal an die Nase fassen. Es interessiert nicht, ob die Karte einigen zu teuer ist, sollte sie wie Blei im Laden liegen, wird man den Preis schon senken, echte Massenware ist die Karte sowieso nicht, ähnlich der 8800Ultra.

tombman
2008-06-28, 11:02:15
So, hab nun 2x GTX280 + 2x GPU-X² G200 bestellt :D
Ich warte auf die aquagrafx Kühler, da weiß man wenigstens sicher, daß sie single slot sind...

Ist der X2 single slot?

=Floi=
2008-06-28, 11:07:24
Hallo
warum ist die gpgpu performance bei den neuen karten so schlecht? Die GTX280 soll ja noch ca. doppelt so schnell sein wie die 9800GTX+?!
Was hat nv hier falsch gemacht und wie kann es sein, dass man von den angeblichen optimierungen für gpgpu garnichts sieht? Diese 18% geschwindigkeitszuwachs sind doch einfach nur ein witz im vergleich mit der aufgebohrten hardware.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/27/#abschnitt_gpucomputing

Chris2CB
2008-06-28, 11:13:34
Ich warte auf die aquagrafx Kühler, da weiß man wenigstens sicher, daß sie single slot sind...

Ist der X2 single slot?



Sieht nicht so aus, der X² wirkt etwas dick, aber die Seite sagt: (LxBxH) 210,0 x 117,0 x 10,5mm, somit eindeutig Singleslot.

Die Graka Kühler von AC fand ich nie besonderst gut, ganz im gegenteil zu den CPU Kühler.

dildo4u
2008-06-28, 11:14:53
Hallo
warum ist die gpgpu performance bei den neuen karten so schlecht? Die GTX280 soll ja noch ca. doppelt so schnell sein wie die 9800GTX+?!
Was hat nv hier falsch gemacht und wie kann es sein, dass man von den angeblichen optimierungen für gpgpu garnichts sieht? Diese 18% geschwindigkeitszuwachs sind doch einfach nur ein witz im vergleich mit der aufgebohrten hardware.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/27/#abschnitt_gpucomputing


Der Client ist halt Beta und die Treiber dazu sind auch nicht final.Mit einer bestimmten Treiber/Client Kombination schafft die GTX280 schon an die 2000 ns/Day eine 8800Ultra zum Vergleich 500ns/Day.

http://www.pcgameshardware.de/?article_id=647994

AnarchX
2008-06-28, 11:18:49
Der Client ist halt Beta und die Treiber dazu sind auch nicht final.Mit einer bestimmten Treiber/Client Kombination schafft die GTX280 schon an die 2000 ns/Day eine 8800Ultra zum Vergleich 500ns/Day.

http://www.pcgameshardware.de/?article_id=647994
Unterschiedliche Projekte!
Das ist wohl eher vergleichbar:
http://www.pcgameshardware.de/aid,648258/Folding@Home_auf_Nvidia-GPUs_PCGH-Benchmarks/

tombman
2008-06-28, 11:22:34
Unterschiedliche Projekte!
Das ist wohl eher vergleichbar:
http://www.pcgameshardware.de/aid,648258/Folding@Home_auf_Nvidia-GPUs_PCGH-Benchmarks/

Dort wurde aber nicht der spezielle Treiber verwendet, sondern nur ein 177er ;)

dildo4u
2008-06-28, 11:25:39
Dort wurde aber nicht der spezielle Treiber verwendet, sondern nur ein 177er ;)
Jup ich glaub der 174.55 war der spezielle Cuda Treiber.Wie gesagt abarten imo befindet sich sowhol der Client wie auch der Treiber dazu noch im frühen Beta Stadium.

Gast
2008-06-28, 11:30:45
Unterschiedliche Projekte!
Das ist wohl eher vergleichbar:
http://www.pcgameshardware.de/aid,648258/Folding@Home_auf_Nvidia-GPUs_PCGH-Benchmarks/


Kann es sein dass man MUL eher selten braucht?

tombman
2008-06-28, 11:32:56
So, hab nun 2x GTX280 + 2x GPU-X² G200 bestellt :D
Habe jetzt auch 2x X² bestellt ;D

Ich bestelle solange Kühler bis ich welche bekomme :mad:

Sommer + 2x GTX280 = pöhse :D

=Floi=
2008-06-28, 12:11:03
warum habt ihr mein thema wieder hier eingefügt? :mad:
ich halte es viel zu wichtig und differenziert um es hier untergehen zu lassen und die steigerung bei pcgh ist auch nur bei ca. 33%

Eggcake
2008-06-28, 12:11:13
Sommer + 2x GTX280 = pöhse :D

Kannste laut sagen...bei mir sinds über 30°C am Tag...eigentlich hat mein System genügend Reserve was Temps betrifft (Lüfter laufen auch nach wie vor alle auf Silent), aber sobald ich auf die Temps schiele wird mir manchmal schon bisl mulmig...obwohls noch im grünen Bereich liegt. Naja bei 2x GTX280...wills mir ned vorstellen :D

Lösung: Nicht mehr auf Temps schauen :biggrin:

tombman
2008-06-28, 12:25:09
Kannste laut sagen...bei mir sinds über 30°C am Tag...eigentlich hat mein System genügend Reserve was Temps betrifft (Lüfter laufen auch nach wie vor alle auf Silent), aber sobald ich auf die Temps schiele wird mir manchmal schon bisl mulmig...obwohls noch im grünen Bereich liegt. Naja bei 2x GTX280...wills mir ned vorstellen :D

Lösung: Nicht mehr auf Temps schauen :biggrin:
Ich habe vor kurzem meinen PC in ein anderes Zimmer gestellt (kleiner Abstellraum).
Nach Stunden hat der pc es tatsächlich geschafft, den kleinen Raum 7°C über die normale Temp zu heizen :uhammer: Hat also definitiv Heizungsqualität.

Jetzt braucht man für seinen PC schon einen eigenen "server"Raum :eek:

Naja, wenigstens kriege ICH das jetzt nimmer ab :cool: (lange Kabel FTW!)

Und wenn ich endlich meine Wasserkühler für die beiden babys bekomme, kann ich sogar das Gehäuse wieder zumachen :uhammer:

S940
2008-06-28, 12:28:14
Jetzt braucht man für seinen PC schon einen eigenen "server"Raum :eek:
Kleine Berichtigung der Aussage:
Jetzt braucht man für seinen PC mit zwei GTX280 schon einen eigenen "server"Raum
So kapiert das jeder ;D

Fehlt als standesgemäße CPU eigentlich nur noch ein 140W Phenom ^^

ciao

Alex

Slipknot79
2008-06-28, 12:51:50
Also ich weiß ned was ihr für Probleme mit der Hitze der 280 GTXen habt? Oo Ich habs nur in Furmark geschafft eine Graka der beiden auf 105°C (Da beginnt die Graka zu drosseln) zu treiben und mein PC steht am Dachboden ;-) Sonst sind es in Spielen chillige 80°C +- ohne eingeschalteter Klimaanlage.

Skinny12
2008-06-28, 13:22:28
Hallo Jungs,

für alle, die den Thread bei den Luchskollegen nicht verfolgen, ich habe bei meiner 280GTX jetzt mit Nibitor die Spannung von 1,18 auf 1,06 gesenkt, mit -soweit ich es sagen kann- großem Erfolg.

Die Karte wird deutlich weniger warm, daher der Lüfter auch deutlich leiser, weil er langsamer drehen muss.

Ja, ich weiss, es ist verrückt und so weiter...;)

Einige Jungs haben es bereits gemacht, auch bei ihnen läuft es prima...

LG
Skinny

Edit: Rechtschreibung

tomsen
2008-06-28, 16:36:18
Darum poste ich auch nochmal hier meinen kleinen Undervolting Bericht nochmal:

So ich habe meine "normal getaktete" Point of View GTX280 erfolgreich undervoltet.
Standard:
1.03v (2D)
1.06v (3D) – nun 1.03v
1.18v (Extra) – nun 1.03v
380Watt vs. 320 Watt!!! > ~60Watt weniger in 3D

Leider gabs bei längeren Testphasen mit Spielen und Benchs Freezes bei 700/1400/1200, was natürlich darauf deutet das zu wenig Saft da ist.

Der Verbrauch ist um 60 Watt gesunken was sich in einer deutlich reduzierten Abwärme niederschlägt.

Bei 25 Grad Raumtemperatur lastete ich die GPU 30 Minuten lang mit Furmark aus und hatte folgende Ergebnisse:
GTX280 - 1.18v
88° - 100% Lüfter

GTX280 – 1.03v
78° - 61% Lüfter (68° Grad bei manuell 100% Lüfter)

1h Crysis
GTX280 - 1.18v
~82° - ~80% Lüfter

GTX280 – 1.03v
~72° - ~51% Lüfter

Meine Karte ist durch die Senkung des Lüfters auf 25% nicht warnehmbar und für silent Systeme absolut perfekt. Unter Last hat sie jetzt maximal 61% Lüfter was nicht lauter ist wie meine „leise“ G92 GTS. Der Stromverbrauch ist genial, ~120 Watt in Idle und maximal 320 Watt in 3D(aber auch nur in Benchmarks oder Crysis). Bin nun überglücklich die negativen Aspekte der Karte selber ausgebügelt zu haben.

Nach 2h Jericho, 3hCrysis, 1hAC, 2h AoC und 3Dmark/Furmark Durchläufen waren 648/1400/1215 absolut stabil. Natürlich fehlt ein Langzeittest. Werde die Karte mit den Einstellungen nun am WE ausgiebig testen.

AnarchX
2008-06-28, 16:38:29
@ tomsen:
Wie hoch war denn der Lastverbrauch bei deiner G92GTS im Vergleich?
Und die 320W sind schon mit dem OC auf 648/1400/1215?

tomsen
2008-06-28, 16:54:31
@ tomsen:
Wie hoch war denn der Lastverbrauch bei deiner G92GTS im Vergleich?
Und die 320W sind schon mit dem OC auf 648/1400/1215?

Jo mit OC, wobei sind eher 310Watt, denn ich hatte ja auch die GPU auf 700MHz vorher. Ingame sinds oft nur 280 Watt mehr nicht.

Mit der GTS hatte ich Idle 160 Watt. Maximum weiß ich nicht mehr so genau, aber 240-260Watt waren das auch!

Alles in allem ist meine GTX280 zur Stromsparkarte geworden, absolut stabil in Games und verbraucht kaum mehr als mein G92 GTS. Idle ist sie eh klar besser und spart mir bis zu 40 Watt an Strom.
Ingame ist der Lüfter der GTX280 meist bei MAXIMALEN 51%! :)

AffenJack
2008-06-28, 17:41:41
nette sache, das man die soweit undervolten kann, leider ist sie noch immer nicht in meinem preisbereich;)
hoffentlich wird das bei der 4870 auch gut gehen

tomsen
2008-06-28, 18:10:54
Muss mich korrigieren, meine GTX280 läuft laut GPU-z auf 655/1410/1204 und das mit nur 1.03v, stromsparend, kühl und leise.

http://www.abload.de/thumb/gtx280clocknix.jpg (http://www.abload.de/image.php?img=gtx280clocknix.jpg)

pest
2008-06-28, 18:14:28
Muss mich korrigieren, meine GTX280 läuft laut GPU-z auf 655/1410/1204 und das mit nur 1.03v, stromsparend, kühl und leise.

http://www.abload.de/thumb/gtx280clocknix.jpg (http://www.abload.de/image.php?img=gtx280clocknix.jpg)

du musst auf Sensors-Tab oder Rivatuner nehmen, sonst zeigt GPU-Z nur die eingestellten Taktraten

Snoopy69
2008-06-28, 19:35:12
Ich warte auf die aquagrafx Kühler, da weiß man wenigstens sicher, daß sie single slot sind...

Ist der X2 single slot?
Soweit ich das sehe nicht. Ist mir persönlich auch egal, da meine einzigste PCI-Karte (X-FI Fatal1ty) zwischen den Graka´s stecken wird, wie mom. bei den 8800ern.
Zudem haben die GPU-X meiner Meinung nach die beste Kühlleistung als Komplettkühler und sehen wie immer sehr geil aus (massives Kupfer und Edelstahl).
AC hat mit seinem Kühler mehr oder weniger diesen "Kupfer-Edelstahl-Mix" von Watercool "geklaut".

Das hier sind immernoch echte Schmuckstücke http://www.forumdeluxx.de/forum/showpost.php?p=5388328&postcount=101
Tut irgendwie weh sie herzugeben ;(


btw:

:)


Zitat von »Rico«

Der Kühler ist ab morgen (27.06.) bestellbar und wird ab der kommenden Woche ausgeliefert.

Wie ich erfahren hab wartet HisN immer noch auch seine Kühler von AC, die er am 19.06. bestellt hat.


Meine 2 Karten sind übrigens heute mittag in den Versand gegangen *gier* :)

Gast
2008-06-28, 20:35:27
Habe jetzt auch 2x X² bestellt ;D

Ich bestelle solange Kühler bis ich welche bekomme :mad:

Sommer + 2x GTX280 = pöhse :D
wir haben das anders gelöst.. :D Bios Flash und zwar die 1,18 runter auf 1.12 zb.einige sind sogar auf 1.06 wie der 3d low takt ist auch noch bis 680 stabil.

PHuV
2008-06-29, 02:57:03
Kurioses Erlebnis heute in einem Computerladen in Berlin:

Ich frage, ob sie GTX 280 da hätten. Antwort, sie hätten welche da. Gut, sagte ich, nehme ich 2. Nö, wäre nur eine da, warum ich 2 bräuchte, das wäre doch Blödsinn. Ich sage, nö, nicht Blödsinn, da ich SLI brauche. Warum SLI, kommt die pampige Antwort, eine 280 wäre verdammt schnell. Ich sage, Crysis auf 2560x1600 mit einer GTX 280 kommt nicht schnell auf very high, und da ich schon 2 8800GTX besitze. Meint der Oberexperte, interessiert ihn einen feuchten Dreck, eine Karte wäre gut, und fertig, ich solle nicht so mit meinem Pseudowissen angeben. Na ja, sage ich, erstens verstehe ich doch ein bißchen was von der Materie, und 2. gibt es mittlerweile so viele Reviews, die alle Zeiten, das Crysis auf very high mit einer Karte nicht machbar ist, sondern nur im SLI einigermaßen flüssig spielbar sein. Weiterhin gibt es auch in Foren mittlerweile viele praktische Usererfahrungen. Interessiert ihn einen Scheiß, sein Einwurf, es geht mit einer 280, und die Reviews und Forenbeiträgen taugen eh nichts. Gut, sage ich vor all seinen Kollegen, 1000 € wette ich mit ihm, daß es nicht geht. Er wollte schon einschlagen, zieht aber im letzten Moment seine Hand zurück, 30" haben sie nicht da. Kein Problem, entgegen ich, ich bringe mein Equipment mit bei (weil ein großes Netzteil hatten die auch nicht da (größte war 635 W:lol:).

Na ja, nachdem ich mir noch weiter anhören konnte, daß er mir nicht glaube, und er mir sehr deutlich zu verstehen gab, daß ich nur ein doofer angeberische Kunde sei, der keine Ahnung habe, hat er weiterhin gekniffen.

Ein Bekannter war mit dabei, dem ich gerade sein PC herrichtete und weswegen wir eigentlich in den Laden fuhren (weil er eine neue GK brauchte), und als ich mich bei der Rückfahrt doch etwas genervt über diese Person äußerte, meinte er nur: Schau doch nur, was er verdient, und was Du verdienst. Wenn er wirklich dieser tolle Crack sei, warum arbeitet er dann, genervt, in so einem Job? Wenn er wirklich was könne, würde er doch woanders arbeiten. Stimmt, dachte ich so bei mir, und meine GTX 280 kaufe ich definitiv woanders. ;)

Snoopy69
2008-06-29, 03:04:13
Was für ein Depp! :ulol:

Hast du jetzt deine 2 Karten?

PHuV
2008-06-29, 03:09:59
Was für ein Depp! :ulol:

Hast du jetzt deine 2 Karten?

Nö, war schon Sa, 19:30, und die hatten nur eine da. Bei der blöden Anmache hätte ich sie dann eh nicht dort gekauft. Zudem wollte ich eh ein OC-Modell, die anderen hätte ich wirklich nur genommen, wenn 2 da gewesen wären (quasi als Ersatzbefriedigung). Aber ich glaube, ich mache es wie Du und Tombman, mit den X²-Kühlern, aber da müßte ich erst mal unkundig auf Wakü umstellen, da warte ich doch lieber erst mal Eure praktischen Erfahrungen ab (bitte gleich posten, ja ;) ), und bastle dann, bevor ich mir von so einem "ahnungsvollen Händler" irgendeinen Scheiß andrehen lasse.

Ich finde es nur schade, daß er sich nicht auf die Wette einließ, so hätte ich gerne meine 1000 € schnell verdient. Leider sind das alles so Weicheier, und wahrscheinlich hätte er seinen ganzen Monatslohn verzockt :lol:.

Snoopy69
2008-06-29, 03:16:48
Ich würde ausserdem ganz normale GTX280 nehmen, da selbst die fette Zotac AMP 700MHz oder alle EVGA´s nicht besser gehen als alle normalen 280er.

Macht dann 2x 458€ (ohne versand). Für den Mehrpreis der OC-Karten springen also locker 2x GPU-X2 G200 raus.

Du hast noch garkeine Wakü?



Ich finde es nur schade, daß er sich nicht auf die Wette einließ, so hätte ich gerne meine 1000 € schnell verdient. Leider sind das alles so Weicheier, und wahrscheinlich hätte er seinen ganzen Monatslohn verzockt :lol:.

Mehr verdient man auch nicht in so einem "Hardware-Puff" :D


@ tombman

Gute Wahl, da der Kühler modular aufgebaut ist. Für eine kommende Karte wirst du den Haupt-Kühlblock weiterverwenden können.
Mach bitte mit :wink: http://www.forumdeluxx.de/forum/showthread.php?t=503045

btw:

Besitzer eine GPU-X² für G92 können sich freuen, da der Kühlblock auch für den G200 weiterverwendbar ist :wink:
Watercool ist und bleibt einfach der innovativste GPU-Kühler-Hersteller :)

PHuV
2008-06-29, 03:26:05
Ich würde ausserdem ganz normale GTX280 nehmen, da selbst die fette Zotac AMP 700MHz oder alle EVGA´s nicht besser gehen als alle normalen 280er.

Macht dann 2x 458€ (ohne versand). Für den Mehrpreis der OC-Karten springen also locker 2x GPU-X2 G200 raus.

Du hast noch garkeine Wakü?


Nö, und da ich bei der Gelegenheit eh gleich auf ein 790i wechseln wollte, und damit dann auch gleich wieder eine neue CPU, Ram und Netzteil fällig werden, kann eh gleich ein neuer Rechner her. Da meine bisherigen 8800GTXse doch schon ganz schön heißt rumpusten, wäre bei den 280-SLI vielleicht eine Wakü doch besser. Aber hier bin ich noch ein Noob. Warst nicht Du der Wahnsinnige mit der Heizung als Radiator? Wenn das gut funktioniert, überlege ich echt auch so eine Lösung, auf lärmende Radiatoren habe ich kein Bock. BTW habe ich mir gerade eine PCGH-Extreme 03/08 gekauft und gelesen, aber richtig schlauer bin ich dadurch in Wakü auch nicht geworden.

Mit den OC-Modellen sehe ich doch ein bißchen anders, weil ich mir vorstellen kann, daß die Hersteller die guten GPUs vorher selektieren und testen, und die schlechte in die normalen Modelle einbauen.

Snoopy69
2008-06-29, 03:38:06
Nee, der mit der Heizung nicht, aber die Lösung ist schon recht alt.

Die PCGH ist zwar für Wakü-Einsteiger vielleicht ok, aber Enthusiasten werfen da sicher kein Blick rein. Da bist du am besten aufgehoben. http://www.forumdeluxx.de/forum/forumdisplay.php?f=137

Mit Wakü hast du jedenfalls je nach Wohnlichkeit fast unendlich viele Möglichkeiten. Wie zb den Radi und Heizkörper in den Nebenraum zu stellen, damit Lüfter (wenn aktiv) nicht stören oder die Abwärme den Zockerraum nicht aufheizen. Das spürt man ungemein.

Noch besser wäre ein kühler Keller. Manche verbuddeln auch lange Kupferschlangen 1m tief im Garten. Oder sowas :D http://www.forumdeluxx.de/forum/showthread.php?t=241143

Falls du Hilfe bei der Zusammenstellung brauchst - meld dich.

btw:

Das mit den selektierten karten dachte ich auch, aber das ist Quatsch!!! In HWluxx haben einige schon eine GTX280. Auch welche mit der Zotac. Jeder dort empfiehlt eine normale 280er zu nehmen, da ihre Zotac´s und EVGA´s wirklich nicht besser gehen. Glaubs mir :wink:

Wie du sehen kannst - eine stinknormale 280er (default 602MHz) @ 720MHz :wink:

http://www.forumdeluxx.de/forum/showthread.php?t=504260&highlight=gtx280

Taigatrommel
2008-06-29, 11:13:56
Das mit den selektierten karten dachte ich auch, aber das ist Quatsch!!! In HWluxx haben einige schon eine GTX280. Auch welche mit der Zotac. Jeder dort empfiehlt eine normale 280er zu nehmen, da ihre Zotac´s und EVGA´s wirklich nicht besser gehen. Glaubs mir :wink:

Wie du sehen kannst - eine stinknormale 280er (default 602MHz) @ 720MHz :wink:

http://www.forumdeluxx.de/forum/showthread.php?t=504260&highlight=gtx280

Tja, andere Foren berichten wiederum über Werte von 650-680 MHz mit normalen Karten. Man kann also auch Pech haben oder muss größere Modifikationen vornehmen, um die 700 MHz zu erreichen.
Alleine aus Garantiegründen würde ich bei einer ~500,- € Karte lieber zu einer vom Hersteller übertakteten Karte greifen - da ist die Übertaktung garantiert und wenn sie mal kaputt geht, dann wird sie halt eingeschickt.

Slipknot79
2008-06-29, 11:18:40
>Kurioses Erlebnis heute in einem Computerladen in Berlin:

Name, Geschlecht, Adresse, Telefonnummer, Email-Adresse, Alter, Hobbies, sonstige Interessen, Lebenslauf, Haarfarbe, Hautfarbe, Augenfarbe, körperliche Merkmale (Narbe etc.) vom PC-Laden und vom Verläufer bitte hier posten zum an den Pranger stellen :redface:

>da selbst die fette Zotac AMP 700MHz oder alle EVGA´s nicht besser gehen als alle normalen 280er

Naja, in Crysis bringt es schon was. Mein oc bringt ca. 7-10%. Aber auch ich würde keine oc-Karte kaufen sondern ne normale. Kann sein, dass sie nicht ganz an die Werte einer hoch geocten Karte rankommt, aber wenn sie nicht ganz rankommt, dann ist das Unterschied auch nicht mehr spürbar. Habe zwar selbst ne oc-Karte, aber auch nur weil sie ned teurer war wie andere verfügbare normale Karten.

Snoopy69
2008-06-29, 12:47:07
Tja, andere Foren berichten wiederum über Werte von 650-680 MHz mit normalen Karten. Man kann also auch Pech haben oder muss größere Modifikationen vornehmen, um die 700 MHz zu erreichen.
Alleine aus Garantiegründen würde ich bei einer ~500,- € Karte lieber zu einer vom Hersteller übertakteten Karte greifen - da ist die Übertaktung garantiert und wenn sie mal kaputt geht, dann wird sie halt eingeschickt.
Die sind NICHT selektiert!
Ich hab in HWluxx extra mehrere mit normaler 280er gefragt und alles sagten, dass sie diese Takte packen. KA was in anderen Foren falsch läuft.

tombman
2008-06-29, 13:00:53
Schau doch nur, was er verdient, und was Du verdienst. Wenn er wirklich dieser tolle Crack sei, warum arbeitet er dann, genervt, in so einem Job? Wenn er wirklich was könne, würde er doch woanders arbeiten. Stimmt, dachte ich so bei mir, und meine GTX 280 kaufe ich definitiv woanders. ;)
Neid Pur, aber extrem peinlich, daß das von nem Angestellten kommt.

Na DER hätte was von mir gehört--

"Was ich kaufe oder nicht kaufe, hat sie nichts anzugehen- geben sie mir mal den Geschäftsführer..."

--aber in .at trauen die sich sowas eh ned.

Slipknot79
2008-06-29, 17:42:35
Die sind NICHT selektiert!
Ich hab in HWluxx extra mehrere mit normaler 280er gefragt und alles sagten, dass sie diese Takte packen. KA was in anderen Foren falsch läuft.


Meine packt keine 700MHz.

Gast
2008-06-29, 17:44:34
KA was in anderen Foren falsch läuft.

Da ist der Phantasielevel vielleicht einfach höher...

tombman
2008-06-29, 18:18:34
Meine packt keine 700MHz.
Packt sie sicher schon, nur müssen die temps unten bleiben, was ohne wakü kaum geht.

Gast
2008-06-29, 19:37:21
Packt sie sicher schon, nur müssen die temps unten bleiben, was ohne wakü kaum geht.

Dann müsste aber an der "Zotac AMP 700MHz" ja doch was besser sein, damit die die 700Mhz stabil mit Lukü schafft.

Hat mal jemand die Vcore bei den OC-Versionen mit den normalen verglichen? Vielleicht bekommen die ja einfach nur ~0,05V mehr und schaffen dadurch durchwegs 700Mhz+ ohne selektiert zu werden !?!

Megamember
2008-06-29, 19:52:43
Es scheint sehr starke Schwankungen bei den 280er zu geben was die Hitzeentwicklung angeht. Im Hardwareluxx gibts da einen Thread und in Fur-Bench laufen einige mit max 87 Grad und bei anderen saust die Temp nach sehr kurzer Zeit über 110 (alles mit Standartkühler).

Radeonfreak
2008-06-29, 20:01:27
Also meine Zotac @ 700 MHZ ist noch nie wärmer als 79° C geworden und bei mir sinds bestimmt an die 27° im Zimmer.Das Teil ist toll...


edit: nach 30min Crysis

http://img413.imageshack.us/img413/5305/neu2bc6.jpg (http://imageshack.us)

mapel110
2008-06-29, 20:01:48
Die Schwankungen können auch an den Umgebungen der einzelnen Rechner liegen. Offenes Gehäuse, viele Gehäuse-Lüfter, Rechner steht im Keller etc pp.

Megamember
2008-06-29, 20:10:35
Da haben aber auch welche ihre Karten umgetauscht oder mehrere Karten und ganz Unterschiedliche Temps gehabt.

Taigatrommel
2008-06-29, 20:26:38
Liegt vielleicht an der Wärmeleitpaste, wäre nicht das erste mal, dass bei bestimmter Hardware und bei einzelnen Stücken die WLP falsch aufgetragen wurde.

Slipknot79
2008-06-30, 00:51:56
Packt sie sicher schon, nur müssen die temps unten bleiben, was ohne wakü kaum geht.

Wäre mir da ned so sicher :(, ich konnte damals aus meiner 78GTX auch nimma viel rausholen trotz Wakü :(

Also meine Zotac @ 700 MHZ ist noch nie wärmer als 79° C geworden und bei mir sinds bestimmt an die 27° im Zimmer.Das Teil ist toll...



Wirft mal Furmark paar Minuten an ;-)

frix
2008-06-30, 00:58:45
lol, das ist ja echt ein "armer" verkäufer
Und wenn du 100 280GTX zum beheizen einer sauna verwenden wollen würdest ist es deine sache, ob es sinn macht oder nicht.

Zatoichi
2008-06-30, 01:38:25
Liegt vielleicht an der Wärmeleitpaste, wäre nicht das erste mal, dass bei bestimmter Hardware und bei einzelnen Stücken die WLP falsch aufgetragen wurde.

Da gibts im Evga Forum auch Threads drüber, das manche Karten haben die extrem heiß werden. Die Mods haben den Leuten auch geraten die Paste zu tauschen ohne Erfolg. Da es meine 4870 ohne Grund gehimmelt hat, hab ich ab Dienstag auch eine 280er von Evga, hoffentlich ohne die übermäßigen Temps.

MuLuNGuS
2008-06-30, 08:06:04
lol,

als verkäufer hätte ich versucht ihm noch eine dritte GTX280 aufzuschwatzen :D

Radeonfreak
2008-06-30, 10:28:05
Wirft mal Furmark paar Minuten an ;-)


Na gut im Furmark sind es 89°C. Finde ich aber persönlich noch im Rahmen.


http://img167.imageshack.us/img167/8940/neu1nd5.th.jpg (http://img167.imageshack.us/my.php?image=neu1nd5.jpg)

Schrotti
2008-06-30, 11:27:27
Also ganz ehrlich, ich mag nvidia aber der Preis einer GTX 280 ist zu hoch. Dafür kann ich mir 2 AMD 4870 ins System hängen und komme immer noch günstiger weg.

Ich überlege mir das ganze nochmal.

Gast
2008-06-30, 13:47:50
Hö!

Welcher Laden in Berlin war denn das?

Ich tippe mal auf JE oder Acom.

PHuV
2008-06-30, 17:03:30
Hö!

Welcher Laden in Berlin war denn das?

Ich tippe mal auf JE oder Acom.

Gut geraten, man kennt wohl seinen Pappenheimer, wa? ;)

Gast
2008-06-30, 18:54:02
lol, das ist ja echt ein "armer" verkäufer
Und wenn du 100 280GTX zum beheizen einer sauna verwenden wollen würdest ist es deine sache, ob es sinn macht oder nicht.

Bei der Händlermarge die da üblicherweise drauf sind würd ich Ihm bei 100Stück gar eine schenken ;)

Snoopy69
2008-06-30, 20:36:36
Vielleicht glaubt man mir jetzt :wink:

http://www.forumdeluxx.de/forum/showpost.php?p=9427251&postcount=1157

Ist eine stinknormale 280er

mictasm
2008-06-30, 23:17:14
Warum schreiben eigentlich nur Leute mit kleinen Monitoren solche Reviews? Wieder keine Vantage Extreme Vergleichswerte wegen eines 22" Monitors...

Sorkalm
2008-06-30, 23:31:46
Warum schreiben eigentlich nur Leute mit kleinen Monitoren solche Reviews? Wieder keine Vantage Extreme Vergleichswerte wegen eines 22" Monitors...

Das findest du sogar in ganz offiziellen Reviews kleinerer Webseiten. Da ist die Anschaffung eines 1680*1050-fähigen Monitors teilweise extra durchgeführt wurden (also vor gewisser Zeit), weil gerade solche technikbegeisterten Leute wenig spielen und keine großen Monitore brauchen.

Snoopy69
2008-07-01, 11:04:20
Wenn sie nicht spielen, weshalb brauchen sie überhaupt eine GTX280?

Taigatrommel
2008-07-01, 11:07:54
Wenn sie nicht spielen, weshalb brauchen sie überhaupt eine GTX280?
Keine Ahnung, sowas gibt es aber überall. Gibt auch Fotoforen mit Usern die Ausrüstungen im Wert von deutlich über 10.000,- € haben und sie selten nutzen. Man kann aber mitreden und ist bei "Benchmarks" stets einer der ersten Ansprechpartner....

Werewolf
2008-07-01, 11:08:19
Warum sparen Leute überhaupt so sehr am Monitor wenn sie für den Rest Tausende Euros verbraten? GTX 280 SLI aber einen 22" TN :ugly:

Snoopy69
2008-07-01, 12:23:19
Keine Ahnung, sowas gibt es aber überall. Gibt auch Fotoforen mit Usern die Ausrüstungen im Wert von deutlich über 10.000,- € haben und sie selten nutzen. Man kann aber mitreden und ist bei "Benchmarks" stets einer der ersten Ansprechpartner....
Wie soll man da mitreden können, wenn man sich garnicht an der Kamera auskennt (weil nie benutzt)?

Und ja, 22" für SLI ist auch sowas. Bei Crysis verstehe ich das ja noch. 24" sollte es da schon sein. Zumal man da auch Full-HD Filme ansehen kann. Bei 0,75-1,0m Abstand und 61cm Diagonale schon sehr geil.

Ich erinnere mich an alte Röhren-TVs in der Grösse, wo man noch 3-4m wegsaß :ulol:

knallebumm
2008-07-01, 13:48:11
Ich hab auf youtube eine GTX280 SLI "Review" gefunden. (3 Teile)

1 http://www.youtube.com/watch?v=A_qDVeKZWsk
2 http://www.youtube.com/watch?v=LhofvbTlO2Y&feature=related
3 http://www.youtube.com/watch?v=rr_WBTY0EK4&feature=related

Man kann sich par Eindrücke zur Lautstärke verschaffen und es werden auch Cryisis (1900*1200), COD4 und WIC getestet. Beim Auspacken klingt der Reviewer etwas horny, etwa so als wäre es ein Casting. :)

Für mich war das vor allem aufgrund der Lautstärke mal ganz interessant.

Gast
2008-07-01, 13:51:40
hatte die tage mal auf youtube nach videos vonnen 4850 und gtx gesucht, kamen dann immer son mist von katzen und so. echt affig, haben die leute nix besseres zu tun als fakevids hochzuladen?

Snoopy69
2008-07-01, 14:16:55
Wozu Review?

Das sollte aussagekräftig genug sein (1920x1200 + 8xAA/16xAF) :D

http://www.abload.de/image.php?img=sli7qm.jpg

Eine 8800GTX/Ultra schafft gerade mal ein 1/4 davon :ulol:

Blaire
2008-07-01, 17:24:16
http://geizhals.at/deutschland/a344408.html

Die erste GTX280 ist unter die 450€uro Marke gerutscht. :D

san.salvador
2008-07-01, 17:27:53
Du lachst, das sind aber immernoch mehr als 700$.

AnarchX
2008-07-01, 17:31:21
Du lachst, das sind aber immernoch mehr als 700$.
449 / 1,19 *1,57 = $592.
Der US-MSRP ist immer ohne Steuern, da diese ja in den einzelnen Staaten variieren.

san.salvador
2008-07-01, 17:37:15
Ich versteh nicht ganz, was du mir damit sagen willst. :usad:

Gast
2008-07-01, 17:38:17
Immer noch viel zu teuer, mehr als 349,- Euro isse ned wert.

AnarchX
2008-07-01, 17:40:40
Ich versteh nicht ganz, was du mir damit sagen willst. :usad:
Mein Gedanke war der, dass du offenbar meintest, das wir gegenüber dem US-MSRP von $649 immernoch "abgezockt" werden, welcher aber wie dargestellt keine Steuern enthält.

Immer noch viel zu teuer, mehr als 349,- Euro isse ned wert.
Naja, ist halt High-End und die momentan schnellste Lösung, da war der Aufpreis immer unverhältnismässig.
Aber in 4 Wochen soll ja die 4870X2 für $499 kommen. ;)

san.salvador
2008-07-01, 17:44:14
Darauf wollte ich nicht hinaus, ich wollte nur zu denken geben, dass die GTX gar nicht so brutal abgerutscht ist, wie man meinen möchte.

Sorkalm
2008-07-01, 18:22:41
Naja, ist halt High-End und die momentan schnellste Lösung, da war der Aufpreis immer unverhältnismässig.

Lohnt aber diesmal wirklich nicht. Die GTX 260 liegt verhältnismäßig gering hinter der GTX 280, ich denke mal mit einer großzügigen Übertaktung kann man die sogar einholen (der geringere Speicherunterschied dürfte das Kraut auch nicht fest machen), und da fragt man sich schon, warum man eine GTX 280 kaufen sollte.
{Natürlich kann man die GTX 280 auch übertakten, womit sie dann sicher auch das absolute High-End darstellt ... aber der Preisunterschied bleibt, womit das Produkt eigentlich nur für Rekorde interessant sein sollte...}

Blaire
2008-07-01, 18:23:50
Immer noch viel zu teuer, mehr als 349,- Euro isse ned wert.

Na wir wollen mal nicht übertreiben. Ich würde sagen so 400€uro ist sie schon wert, sie ist immerhin die schnellste Karte und hat 1GB Speicher ;)

Snoopy69
2008-07-01, 18:28:19
Meine ersten Tests mit 3DMark06 @ 1920x1200 + 8xAA + 2Q + 16xAF hab ich schon.
Bin bis jetzt bei 730/1500/1250. Für eine stinknormale 280er on Air ziemlich ok, oder (an die Skeptiker)? :)

Schrotti
2008-07-02, 08:32:34
Ich hab mich jetzt gegen AMD/ATI entschieden und eine GTX 280 bestellt.

Ausschlaggebend war, das man nicht alle Treiberoptimierungen bei ATI deaktivieren kann.
Eine 4870 hat zwar einen tollen Preis aber das langt mir eben nicht.

MartinRiggs
2008-07-02, 08:35:21
Für deinen 19 Zoll ist die GTX280 totaler overkill, das ist echt mal Geldversenkung, oder hast noch nen Monitor mitbestellt?:biggrin:

Schrotti
2008-07-02, 08:38:56
22" hp W2207h beabsichtige ich zu kaufen.

seahawk
2008-07-02, 08:41:24
Ich hab mich jetzt gegen AMD/ATI entschieden und eine GTX 280 bestellt.

Ausschlaggebend war, das man nicht alle Treiberoptimierungen bei ATI deaktivieren kann.
Eine 4870 hat zwar einen tollen Preis aber das langt mir eben nicht.

Und alle Cheats kannst Du bei NV auch nicht abstellen, siehe OGL usw.

MartinRiggs
2008-07-02, 08:41:59
Dann aber mal Hurtig bestellen, sonst langweilt sich die karte oder du musst SSAA reindrehen bis zum anschlag:wink:
Die GTX280 ist schon cool, aber Preis/Leistung ist nicht nur schlecht sondern so gut wie nicht vorhanden, die HD4870 ist grad mal 20-30% langsamer kostet aber nur die Hälfte.

Schrotti
2008-07-02, 08:49:02
Dann aber mal Hurtig bestellen, sonst langweilt sich die karte oder du musst SSAA reindrehen bis zum anschlag:wink:


Ha ha was ja auch nicht schlecht wäre.

desert
2008-07-02, 08:53:08
Dann aber mal Hurtig bestellen, sonst langweilt sich die karte oder du musst SSAA reindrehen bis zum anschlag:wink:
Die GTX280 ist schon cool, aber Preis/Leistung ist nicht nur schlecht sondern so gut wie nicht vorhanden, die HD4870 ist grad mal 20-30% langsamer kostet aber nur die Hälfte.

die hd 4870 hat aber keine ssaa oder hybriden modi, und dafür für mich gestorben. Nichts geht über z.b. gothic2 mit 32xs,tsaaa und 16 af und das kann dir keine ati bieten, oder oblivion auf 1920 x 1200 mit quarlstexturenpack und 8xs, tsaaa und 16 af oder mass effect mit 4xs,tmssaa und 16af.

Solange ati mir das nicht bietet sind sie überhaupt keine alternative

MartinRiggs
2008-07-02, 09:06:58
das stimmt, die hybriden sind schon fein, aber bei aktuellen Games sieht es teilweise mit Hybriden aus als wäre das ganze Bild verblurrt.
Weiss nicht ob das mit den Shadern zusammenhängt oder wo da der Pferdefuss ist.
Solange sie nicht auf bezahlbaren Karten vernünftig laufen bringen sie nicht viel, meine 8800GT stirbt zu oft mit Hybriden und ne GTX280 ist mir viel zu teuer

Mr. Lolman
2008-07-02, 09:15:34
die hd 4870 hat aber keine ssaa oder hybriden modi, und dafür für mich gestorben. Nichts geht über z.b. gothic2 mit 32xs,tsaaa und 16 af und das kann dir keine ati bieten, oder oblivion auf 1920 x 1200 mit quarlstexturenpack und 8xs, tsaaa und 16 af oder mass effect mit 4xs,tmssaa und 16af.

Solange ati mir das nicht bietet sind sie überhaupt keine alternative

ASBT kann man immer aktivieren. Je nach Spiel scheint das sogar SGSSAA zu sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=278258

AnarchX
2008-07-02, 09:23:01
ASBT kann man immer aktivieren. Je nach Spiel scheint das sogar SGSSAA zu sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=278258
Der Thread is ja von 2006, kann man denn das überhaupt auf die aktuelle Karten übertragen bzw. unterstützt der Treiber es denn noch?

Mr. Lolman
2008-07-02, 09:35:37
Der Thread is ja von 2006, kann man denn das überhaupt auf die aktuelle Karten übertragen bzw. unterstützt der Treiber es denn noch?

AFAIK funktionierts noch.

MadManniMan
2008-07-02, 09:44:20
Schade, dass die Screens futsch sind :usad:

Zatoichi
2008-07-02, 11:08:41
Dann aber mal Hurtig bestellen, sonst langweilt sich die karte oder du musst SSAA reindrehen bis zum anschlag:wink:
Die GTX280 ist schon cool, aber Preis/Leistung ist nicht nur schlecht sondern so gut wie nicht vorhanden, die HD4870 ist grad mal 20-30% langsamer kostet aber nur die Hälfte.

Aber das muß jeder selbst wissen. Da ich beide Karten hatte (Ati wieder weg wegen defekt), würde ich mich im nachhinnein immer wieder für die 280er entscheiden.

MartinRiggs
2008-07-02, 11:32:20
ich hatte ja auch ne hd4870 und hab die zurückgeschickt und würde gerne die GTX280 testen, aber 450€ sind einfach unverschämt.
Mal schauen was die Zeit mit sich bringt, die GTX280 ist ja schon einige Euros gefallen

Schrotti
2008-07-02, 12:02:37
Na meine 8800GT mit Zalman hab ich schon verkloppt (glatte 100€) also kostet mich die GTX 280 effektiv 389€ und damit kann ich leben.

TheBrother
2008-07-02, 17:25:46
Na meine 8800GT mit Zalman hab ich schon verkloppt (glatte 100€) also kostet mich die GTX 280 effektiv 389€ und damit kann ich leben.

Ich hab' über ebay meine 2 8800GTS auch rechtzeitig über ebay vertickt 2x170€ ;D

aber so mache ich das seit Jahren...

edit: heute ist mein WaKü gekommen. werde den morgen oder übermorgen mal einbauen. dann mach ich auch ein paar Bilder.

Gruß

Brother

Snoopy69
2008-07-02, 20:26:59
ich hatte ja auch ne hd4870 und hab die zurückgeschickt und würde gerne die GTX280 testen, aber 450€ sind einfach unverschämt.
Mal schauen was die Zeit mit sich bringt, die GTX280 ist ja schon einige Euros gefallen
Für den gleichen Preis hab ich Aug. 2007 meine 2x 8800GTX gekauft (455€ je Stück). Und jetzt? :wink:

reunion
2008-07-02, 21:17:20
Nvidia to drop 280 / 260 prices $90 and $30 : http://www.fudzilla.com/index.php?option=com_content&task=view&id=8252&Itemid=1

/Edit: Die GTX280 ist schon ab 413€ gelistet: http://geizhals.at/deutschland/?cat=gra16_512&asuch=GTX%20280&sort=p

Sorkalm
2008-07-02, 21:26:41
Mit 90 US-Dollar runter wird die unter 400€ fallen. Ist jedenfalls zu erwarten.

Gast
2008-07-02, 21:29:29
413 ist doch schon mal ein Wort aber immernoch ziemlicht teuer
für die se Heizung.
Ich wate noch bis sie bei 350 sind.

Das Auge
2008-07-02, 21:39:39
Na meine 8800GT mit Zalman hab ich schon verkloppt (glatte 100€) also kostet mich die GTX 280 effektiv 389€ und damit kann ich leben.

Trotzdem zuviel, die Preislücke zwischen 260er und 280er ist mir einfach in Anbetracht der Mehrleistung zu groß. Da ist die 260er imho um einiges attraktiver, die wird in schon sehr bald für 250€ und weniger zu haben sein.

Der Preis für eine gebrauchte GT wird auch nicht mehr wesentlich fallen, von daher lohnt sich etwas warten imho noch. Na gut, ich hab auch schon jemanden im Auge, der mir 120 Euro für meine GT + S1 & Lüfter zahlen wird, sobald er die Kohle hat :D

Blaire
2008-07-02, 21:39:40
/Edit: Die GTX280 ist schon ab 413€ gelistet: http://geizhals.at/deutschland/?cat=gra16_512&asuch=GTX%20280&sort=p

Klick mal auf den Link...459€uro war wohl eher ein Fehler vom Geizhals

Edit: Vorhin war bei dem ersten Link auf alternate verlinkt...da stand 459€uro nun ist es ein anderer Anbieter, aber lieferbar ist sie trotzdem nicht für den Preis.

Sorkalm
2008-07-02, 21:41:32
Klick mal auf den Link...459€uro war wohl eher ein Fehler vom Geizhals

Der Duisburger Shop steht immer noch bei 413.69 Euro.

reunion
2008-07-02, 21:42:34
Klick mal auf den Link...459€uro war wohl eher ein Fehler vom Geizhals

Edit: Vorhin war bei dem ersten Link auf alternate verlinkt...da stand 459€uro nun ist es ein anderer Anbieter, aber lieferbar ist sie trotzdem nicht für den Preis.

Ich sehe 413.69€.

Blaire
2008-07-02, 21:43:09
Der Duisburger Shop steht immer noch bei 413.69 Euro.

Jo vorhin stand bei 413€uro Alternate als Anbieter. Ich nehme mal an die bauen gerade an der Seite herum. ;)

Gast
2008-07-02, 22:50:55
Wenn die Presie so fallen, dann gibts bald eine 2te für Sli.

Matzi
2008-07-03, 21:29:54
Hi @ all .... heut kam meine MSI GTX 260 OC version Läuft standart auf 620 Mhz ..... hatte heut beim ersten versuch sie zu übertakten gleich mal 720 / 1511 und den speicher auf 1200 ..... hatte sie ohne bildfehler im fumark mitgemacht @ luft ! Temp´s war dabei max. 86° ..... bin recht glücklich mit der ``kleinen`` von der lautstärke her muss ich sagen im Idle fällt sie überhaupt nicht auf und unter last ist es auch nich schlimm , aber muss dazu sagen das mein rechner nich auf silent getrimmt is .... temp`s sind wichtiger :-) ..... hab mir aber trotzdem nen EK bestellt !
runtertakten im idle funzt auch tadellos , was will man mehr !
mfg. Matzi

Snoopy69
2008-07-04, 07:51:57
Jo vorhin stand bei 413€uro Alternate als Anbieter. Ich nehme mal an die bauen gerade an der Seite herum. ;)

386€!!! :eek:

http://geizhals.at/deutschland/a344247.html

Mom. echt Tagespreise...

Marodeur
2008-07-04, 15:49:30
So langsam wirds ja. Die 260er ist auch schon fast bei 240 angekommen. :)

http://geizhals.at/deutschland/a346053.html

vinacis_vivids
2008-07-04, 15:58:06
So langsam wirds ja. Die 260er ist auch schon fast bei 240 angekommen. :)

http://geizhals.at/deutschland/a346053.html

175,- für ne GTX260 und 250,- für ne GTX280 fänd ich angenehm. Da könnte ich mirs überlegen einer der beiden zu holen.

Gast
2008-07-04, 16:46:59
175,- für ne GTX260 und 250,- für ne GTX280 fänd ich angenehm. Da könnte ich mirs überlegen einer der beiden zu holen.

Jaja, 50 für die 280 und 20 für die 260 fänd ich auch angenehm.:rolleyes:

Undertaker
2008-07-04, 16:49:30
175,- für ne GTX260 und 250,- für ne GTX280 fänd ich angenehm. Da könnte ich mirs überlegen einer der beiden zu holen.

Warum sollte die 260 unter die 4870 rutschen müssen?

Sorkalm
2008-07-04, 16:52:53
Warum sollte die 260 unter die 4870 rutschen müssen?

Also solange die 4870 und die GTX 260 den selben Preis hat, würde ich die 4870 nehmen (käme in einem Spiele-PC) - und die gibts schon ab 206€. Folglich muss die GTX 260 auf jeden Fall unter 200€ fallen.

Snoopy69
2008-07-04, 17:01:24
@ all

Hab eine grosse Bitte an euch und bitte ehrlich sein. Ab wieviel Takt kommen bei euch Fehler in Furmark (stability) @ 1280x1024 + 4xAA (min. 15min. laufen lassen)?
Wäre schön, wenn ihr davon einen Beweis-Screen posten könntet. Furmark sollte nicht Fullscreen sein + Rivatuner oder GPU-Z mit Takten und Temperaturen daneben.
Oder kennt jmd eine andere, bessere Methode als Beweis?

Sollte dann so aussehen...

http://www.abload.de/thumb/hc_3032pk3.jpg (http://www.abload.de/image.php?img=hc_3032pk3.jpg)

Frank1974
2008-07-04, 17:10:18
@ all

Hab eine grosse Bitte an euch und bitte ehrlich sein. Ab wieviel Takt kommen bei euch Fehler in Furmark (stability) @ 1280x1024 + 4xAA (min. 15min. laufen lassen)?
Wäre schön, wenn ihr davon einen Beweis-Screen posten könntet. Furmark sollte nicht Fullscreen sein + Rivatuner oder GPU-Z mit Takten und Temperaturen daneben.
Oder kennt jmd eine andere, bessere Methode als Beweis?

Sollte dann so aussehen...

http://www.abload.de/thumb/hc_3032pk3.jpg (http://www.abload.de/image.php?img=hc_3032pk3.jpg)


Ich vertraue Furmark nicht, bei ATi-Tool habe ich sofort Bildfehler wenn der Takt zu Hoch ist, bei Furmark nicht.

mfg
Frank

Snoopy69
2008-07-04, 17:11:15
Dein Takt?

Zudem lastet Furmark die GPU stärker aus. Da zieht das System ca. 50W mehr.
Hab eben ATI-Tool probiert. Das kann ja GARNIX! Beim kleinsten Wichs akct das Sys. ab. Liegt aber nicht an der Karte, sondern, am Tool!!!
Rivatuner zu NV - ATI-Tool zu ATI!!! :wink:

Frank1974
2008-07-04, 17:18:16
Dein Takt?

Der Shader macht bei mir als erstes zu, bei 1512MHz(aber nur Fehler bei ATi-Tool), GPU ging über 700MHz und wird nur durch den Shader gebremst, würde glaube ich höher gehen, und der Speicher geht bis knapp über 1300MHz, bei 1350MHz hatte ich dann aber auch Bildfehler.

mfg
Frank

Undertaker
2008-07-04, 17:23:03
Also solange die 4870 und die GTX 260 den selben Preis hat, würde ich die 4870 nehmen (käme in einem Spiele-PC) - und die gibts schon ab 206€. Folglich muss die GTX 260 auf jeden Fall unter 200€ fallen.

Ich hatte eigentlich mehr eine objektive Begründung erwartet... so a'la:

Pro 260GTX:
OC-Potential
Stromverbrauch
Speichermenge
SSAA-Modi

Pro 4870:
Lautstärke
schnelles 8xaa

Bei gleichem Preis ist das denke ich keine eindeutige Sache für eine der beiden Karten...

Snoopy69
2008-07-04, 17:24:17
Wie gesagt, mach Furmark. ATI-Tool ist eig. nicht für NV geschrieben.

lilgefo~
2008-07-04, 17:25:31
Ich hatte eigentlich mehr eine objektive Begründung erwartet... so a'la:

Pro 260GTX:
OC-Potential
Stromverbrauch
Speichermenge
SSAA-Modi

Pro 4870:
Lautstärke
schnelles 8xaa

Bei gleichem Preis ist das denke ich keine eindeutige Sache für eine der beiden Karten...


Das Speicehrmenge Plus kannste bei NV glei wieder rausstreichen. Aber dadurch das ATIs nur extrem eingeschränkt zu SS zu überreden sind is das eigtl trotzdem keine Wahl.

Undertaker
2008-07-04, 17:29:39
Das Speicehrmenge Plus kannste bei NV glei wieder rausstreichen.

Warum? Auch wenn der GT200 generell etwas verschwenderischer damit umgeht, hat die GTX260 hier definitiv mehr Reserven, siehe z.B. PT Boats DX10 - durchaus heute noch wenig relevant, aber ein Stückchen Zukunftssicherheit und damit ein Pluspunkt.

pest
2008-07-04, 17:37:23
Wie gesagt, mach Furmark. ATI-Tool ist eig. nicht für NV geschrieben.

Lass mal Crysis Timedemo 4xAA 16xAF 99-mal durchlaufen...da wirste noch was abziehen müssen ;)

Frank1974
2008-07-04, 17:55:25
Wie gesagt, mach Furmark. ATI-Tool ist eig. nicht für NV geschrieben.

So hier, den Speicher hab ich aber nicht hochgezogen, bei diesem Dauerstress, und einer Temp um die 95° war mir das zu riskant, bei Crysis komm ich grad mal auf 85 Grad.

Meine Dauer Einstellung ist, 691/1404/1215MHz

Hier für den Test 720/1458/1107MHz, wie gesagt der Ram geht meist am schnellsten drauf, deshalb hab ich den hier nicht höher gestellt.
http://www.abload.de/thumb/furmarkv140_temp_tes07u.png (http://www.abload.de/image.php?img=furmarkv140_temp_tes07u.png)


/edit
Raumtemp ist 26°

mfg
Frank

misterh
2008-07-04, 18:02:47
Ich vertraue Furmark nicht, bei ATi-Tool habe ich sofort Bildfehler wenn der Takt zu Hoch ist, bei Furmark nicht.

mfg
Frank

vergisst ATI-Tool

da gab es auch damals probleme mit neue graka und erst späteren version von ati-tool war fehler dann verschwunden. vertrau lieber auf furmark oder benchmark/spiele wo graka lastig ist.

Frank1974
2008-07-04, 18:27:57
Hab eben ATI-Tool probiert. Das kann ja GARNIX! Beim kleinsten Wichs akct das Sys. ab. Liegt aber nicht an der Karte, sondern, am Tool!!!
Rivatuner zu NV - ATI-Tool zu ATI!!! :wink:

Also ich habe meine Karte nun 2Wochen am laufen, und die Stabilitätstests sind schon abgeschlossen :rolleyes:, und auf ATI-Tool konnte ich mich auch schon immer bei meinen NV-Karten verlassen.
Shader auf 1512MHz, ATI Tool, Crysis, 3DMark06, zeigen Bildfehler, Furmark nicht :rolleyes:
Shader auf 1458MHz, ATI Tool, Crysis und 3DMark06 sagen OK, das ist für mich eindeutig.

ATI-Tool läuft bei mir unter WINXP32 und Vista64 ohne Probleme, muss dann an deiner Config liegen ;)

http://www.abload.de/img/ati_tool_testuxu.png

mfg
Frank

Gast
2008-07-04, 18:32:28
Wie gesagt, mach Furmark. ATI-Tool ist eig. nicht für NV geschrieben.


Versteh ich nicht. Weil das Tool ürsprünglich mal für ATI Karten geschrieben wurde ist es nicht relevant wenn sich deine Karte aufgrund zu hoher Übertaktung dort verrechnet?! Da ist wohl eher der Wunsch der Vater des Gedankens...

Frank1974
2008-07-04, 18:37:49
Versteh ich nicht. Weil das Tool ürsprünglich mal für ATI Karten geschrieben wurde ist es nicht relevant wenn sich deine Karte aufgrund zu hoher Übertaktung dort verrechnet?! Da ist wohl eher der Wunsch der Vater des Gedankens...

Genau das meine ich, manche reden sich ihre unstabile Karte einfach schön, wenn ATI-Tool, bis 1458MHz Shader Super läuft und bei 1512MHz erscheint nach kurzer Zeit ein gelber Pixelbrei, dann wird schon was dahinter stecken ;).
Aber mir solls egal sein.


mfg
Frank

Snoopy69
2008-07-04, 18:40:54
Bei mir kacht es halt ab. Bei ihm nicht. Aber Rivatuner läuft super mit NV. Zumal ich GPU und Shader separat einstellen kann. Wozu dann noch ATI-Tool?

@ Frank1974

Wer will unstabile Karten schönreden? Ich nicht!!! Aber wenn ATI-Tool bei mir schon bei niedrigem Takt versagt, stimmt damit was nicht. Dann lieber Crysis etc.
Und früher oder später würden sich auch bei Fellmark @ 720 Fehler einschleichen. Du hast ja vorher abgebrochen :wink:

Frank1974
2008-07-04, 18:44:20
Bei mir kacht es halt ab. Bei ihm nicht. Aber Rivatuner läuft super mit NV. Zumal ich GPU und Shader separat einstellen kann. Wozu dann noch ATI-Tool?

Ich stelle auch alles per Rivatuner ein, aber bei Stabilität hat sich ATI-Tool bei mir bewährt, aber auch Crysis und 3DMark06, Furmark nicht, das ist zum Stromverbraten gut, sonst nix, bei ATI-Tool bekomm ich bei 20° weniger schon die Fehler.


Und früher oder später würden sich auch bei Fellmark @ 720 Fehler einschleichen. Du hast ja vorher abgebrochen :wink:

Du sagtes doch 15min. von mehr war nicht die Rede :smile:

Außerdem kommen die Fehler nicht von den 720MHz GPU, sondern von 1512MHz Shader.

mfg
Frank

Schrotti
2008-07-04, 18:50:10
Nature Test von 3D Mark 2003 (ist alt ich weiß) bringt mir Gewissheit ob die Karte stabil ist.

Voyager
2008-07-04, 18:55:17
Grid ist auch sehr empfindlich.
Der Takt der bei furmark und ATI Tool stabil war hat Grid nicht mitgemacht ;)

Frank1974
2008-07-04, 19:17:03
Grid ist auch sehr empfindlich.
Der Takt der bei furmark und ATI Tool stabil war hat Grid nicht mitgemacht ;)

Grid lag bei meiner Zotac bei, habe ich schon 10-15Stunden gespielt, mit meinem Takt von 691/1404/1215MHz, ich hab noch ne gute Reserve zu meinem Max TAKT gelassen, ist bisher nicht abgestürtzt oder sonstiges.

mfg
Frank

Snoopy69
2008-07-04, 19:19:27
Du sagtes doch 15min. von mehr war nicht die Rede :smile:


(min. 15min. laufen lassen) :wink:

Gast
2008-07-04, 20:04:27
Moin Leutz. Mal was zum Übertaktungspotential der GTX Reihe. Der Hynix Speicher geht Extrem! gut. 1250 sollte bei der GTX260/80 drin sein. So isses bei meiner 260. Hab den Furball grad 2 Stunden drehen lassen bei 32X. Null Probleme. Auf der Hynix Webside ist der Speicher auf 1200 Spec. Also frohes übertakten, Freunde!

Sorkalm
2008-07-04, 20:09:54
Ist denn auf jeder Karte Hynix-Speicher drauf?

Gast
2008-07-04, 20:11:09
ja, der 0,8er. Also haut rein und habt Spass. Ich bekomme das Grinsen net mehr aus der Fresse. lol

Gast
2008-07-04, 20:13:29
142gigs bandwidth. lolz

Sorkalm
2008-07-04, 20:17:10
ja, der 0,8er. Also haut rein und habt Spass. Ich bekomme das Grinsen net mehr aus der Fresse. lol

Ist der auch auf der GTX 260 drauf?
Dachte nur auf der 280...

derguru
2008-07-04, 20:19:03
Ist der auch auf der GTX 260 drauf?
Dachte nur auf der 280...

der ist auch auf den 260gtx karten

Gast
2008-07-04, 20:21:19
Und das ist das schöne. Also, 1200 sollten klar sein. Bis 1300 mit Glück. Bei 1275 gabs bei mir nach 15 Minuten Freeze. Soweit, sogut:-)))

Frank1974
2008-07-04, 20:22:07
der ist auch auf den 260gtx karten

Fragt sich nur ob auf allen, jetzt mit dem Preiskampf mit ATI geht es doch um jeden Cent, mit etwas schlechterem Ram könnte man doch bei der 260 etwas sparen, oder ist das Preislich nicht so wild, ob 08 oder 1er Ram?

mfg
Frank

Gast
2008-07-04, 20:22:41
Der ist auf allen. Ganz einfach

Snoopy69
2008-07-04, 20:29:20
Moin Leutz. Mal was zum Übertaktungspotential der GTX Reihe. Der Hynix Speicher geht Extrem! gut. 1250 sollte bei der GTX260/80 drin sein. So isses bei meiner 260. Hab den Furball grad 2 Stunden drehen lassen bei 32X. Null Probleme. Auf der Hynix Webside ist der Speicher auf 1200 Spec. Also frohes übertakten, Freunde!
32x AA ist witzlos, da du extreme FPS-Drops hast.
Nimm mal 1280x1024 + 4xAA. Sollst mal sehen, wie die Temp. raufsaust :ulol:


btw: 3DMark03 - Mother Nature ist wirklich ganz gut, um Stabilität zu testen. Als nächstes ist der GPU2-Bench von Crysis dran

Gast
2008-07-04, 20:35:23
http://youtube.com/watch?v=vQdrJCPsWF0

GTX280 Destruction unbedingt mal anschaun eine Karte gibt bei über 100 Grad den Geist auf.

Sorkalm
2008-07-04, 20:35:35
Fragt sich nur ob auf allen, jetzt mit dem Preiskampf mit ATI geht es doch um jeden Cent, mit etwas schlechterem Ram könnte man doch bei der 260 etwas sparen, oder ist das Preislich nicht so wild, ob 08 oder 1er Ram?

Vermutlich. Gerade da relativ viele Speicherbausteine benötigt werden, wird da bald 1,0ns-Speicher drauf sein.

derguru
2008-07-04, 20:57:16
Fragt sich nur ob auf allen, jetzt mit dem Preiskampf mit ATI geht es doch um jeden Cent, mit etwas schlechterem Ram könnte man doch bei der 260 etwas sparen, oder ist das Preislich nicht so wild, ob 08 oder 1er Ram?

mfg
Frank

also zurzeit sind es die 08er,klar wird später eingespart aber wer jetzt zugreift der kriegt höchstwahrscheinlich noch den 08er speicher.

Schrotti
2008-07-04, 21:04:32
Meine GTX 280 landet eh unterm Wasserkühler (der soll ab dem 16.07.08 verfügbar sein).

Snoopy69
2008-07-04, 21:08:32
Meine GTX 280 landet eh unterm Wasserkühler (der soll ab dem 16.07.08 verfügbar sein).
Welchen nimmst du? 71°C und höher mit dem Kühler von AC finde ich nicht gerade geil.

Schrotti
2008-07-04, 21:12:36
Ich habe den Watercool HK GPU-X G200 bestellt aber der ist wohl erst ab dem 16.07.08 lieferbar.

http://www.aquatuning.de/product_info.php/info/p4073_Watercool-HK-GPU-X-G200.html

Bezahlt ist er schon, ich muss nur noch warten.

Skinny12
2008-07-04, 21:18:18
Welchen nimmst du? 71°C und höher mit dem Kühler von AC finde ich nicht gerade geil.

Hi!

...ich habe den von AC und habe unter Last 50° bis 55°...im Silentmode der Pumpe...also kann der so schlecht nicht sein ;)

Gruss Skinny

Snoopy69
2008-07-04, 21:21:50
Wie war die Wassertemp. Raumtemp? Taktung?

Matzi
2008-07-04, 22:17:39
also ich hab mir gestern nacht den hier bestellt :http://www.abload.de/thumb/4074_0hge.jpg (http://www.abload.de/image.php?img=4074_0hge.jpg)
die versandbestätigung kam heut um 16 uhr .... sollte also dann morgen mit der post kommen !
mir waren die 90° dann doch auch zu viel ....und naja die lautstärke ist nicht sooo störend wie es viele ati fan boys gern hätten ...aber leise is immer besser .... mfg.

Schrotti
2008-07-04, 22:23:19
EK Waterblock ist ok aber mit Plexi kann und will ich nicht.

Snoopy69
2008-07-04, 22:30:49
Warum mehr als 512MB bei NV @ HD/HQ so wichtig ist...

Die Einstellung...

http://www.abload.de/thumb/hc_306nxz.jpg (http://www.abload.de/image.php?img=hc_306nxz.jpg)

Und so sah es ingame aus...
Links VMem ca. 800MB :eek: (rechts Desktop-Mem 1055MB)

http://www.abload.de/thumb/hc_30428bq.jpg (http://www.abload.de/image.php?img=hc_30428bq.jpg)


btw:
Gibts irgendwo weitere Benches, die man in das Tool einfügen kann?

Matzi
2008-07-04, 22:33:08
gehörst auch zu denen, die mit plexi schlechte erfahrungen gemacht haben schrotti ?
ich kann nix dagegen sagen mein CPU Kühler is der ac xt-di (plexi) und das aquaduct hat auch n plexi `deckel`und mit beidem keine probl.
passt halt bei mir vom design her perfekt und lieferbar war er auch noch ....

The_Invisible
2008-07-04, 22:39:35
http://youtube.com/watch?v=vQdrJCPsWF0

GTX280 Destruction unbedingt mal anschaun eine Karte gibt bei über 100 Grad den Geist auf.

verrückter typ der da blabbert :D

mfg

tombman
2008-07-04, 22:51:31
http://youtube.com/watch?v=vQdrJCPsWF0

GTX280 Destruction unbedingt mal anschaun eine Karte gibt bei über 100 Grad den Geist auf.
Bullshit. Ein rotes Lamperl kann auch heißen, daß das NT schlicht zuwenig Strom geliefert hat. Hatte auch schon orange und rote Lamperl, hin ist deswegen noch lange nix. Da sollte er sich lieber mal sein NT ansehen...

Triple SLI würde ich aber auch nie ohne Wakü laufen lassen ;)

Skinny12
2008-07-04, 22:54:22
Wie war die Wassertemp. Raumtemp? Taktung?

Raum ca. 22° C
Wasser 32 ° C

Taktung 650 Mhz original MSI-OC

LG
Skinny

Matzi
2008-07-04, 23:20:19
Warum mehr als 512MB bei NV @ HD/HQ so wichtig ist...

Die Einstellung...

http://www.abload.de/thumb/hc_306nxz.jpg (http://www.abload.de/image.php?img=hc_306nxz.jpg)

Und so sah es ingame aus...
Links VMem ca. 800MB :eek: (rechts Desktop-Mem 1055MB)

http://www.abload.de/thumb/hc_30428bq.jpg (http://www.abload.de/image.php?img=hc_30428bq.jpg)


btw:
Gibts irgendwo weitere Benches, die man in das Tool einfügen kann?

Hi Snoopy .... hier haste mal nen vergleich von deiner 280 GTX zu ner 260 er (nicht übertaktet)
wenn du mal meine auflösung fahren könntest wärs interessant zu vergleichen wie weit ich die 260er hochtakten muss um auf 280 werte zu kommen
http://www.abload.de/thumb/crisysbenchfls.bmp (http://www.abload.de/image.php?img=crisysbenchfls.bmp)

Frank1974
2008-07-04, 23:50:35
Hi Snoopy .... hier haste mal nen vergleich von deiner 280 GTX zu ner 260 er (nicht übertaktet)
wenn du mal meine auflösung fahren könntest wärs interessant zu vergleichen wie weit ich die 260er hochtakten muss um auf 280 werte zu kommen
http://www.abload.de/thumb/crisysbenchfls.bmp (http://www.abload.de/image.php?img=crisysbenchfls.bmp)

Habt ihr auch AF an, das zieht auch noch ganz schön was, Snoopy69 sein Screen ist etwas unglücklich getroffen, sieht eher aus als wäre AF nicht an.
AF immer mit angeben, ob an oder aus und welche Stufe, sonst hatt man keinen genauen Vergleich, ich habe mit 16xAF, 5-10fps weniger als ohne, kommt immer auf die jeweilige Situation an.

mfg
Frank

Snoopy69
2008-07-05, 02:09:38
Habt ihr auch AF an, das zieht auch noch ganz schön was, Snoopy69 sein Screen ist etwas unglücklich getroffen, sieht eher aus als wäre AF nicht an.

Screen wurde stark komprimiert wegen hochladen. AF war aus...

@ Matzi

Ich weiss nicht, ob das viel bringt, da du ein anderes Sys. hast. Ich brauche eine stärkere CPU (Quad mit min. 4000MHz)

Snoopy69
2008-07-05, 02:15:16
Bullshit. Ein rotes Lamperl kann auch heißen, daß das NT schlicht zuwenig Strom geliefert hat. Hatte auch schon orange und rote Lamperl, hin ist deswegen noch lange nix. Da sollte er sich lieber mal sein NT ansehen...

Triple SLI würde ich aber auch nie ohne Wakü laufen lassen ;)
Verstehe sowieso nicht, warum er die so heiss laufen liess...
Entweder hatte da einer sehr viel Geld oder was weiss ich.

Überhaupt ist das Design für T-SLI beschissen. Die obere Karte suagt doch nur noch heisse Luft.

Snoopy69
2008-07-05, 02:21:13
@ tombman

Dafür, dass es 2x 4870 sind nicht schlecht, oder?
1920x1200 + 8x AA + 16x AF

http://www.abload.de/image.php?img=48702tj8.jpg

410€ vs. 768€ (jeweils minimum)
Also CF vs. SLI


Hier das Gleiche mit SLI, aber viel stärkerer CPU. Und jeder weiss, dass man 2x GTX280 @ HD/HQ eine sehr starke CPU braucht.

http://www.forumdeluxx.de/forum/attachment.php?attachmentid=72060&d=1214907434


Jetzt fehlen nur noch gescheite Spielebenches...

Frank1974
2008-07-05, 02:32:58
Verstehe sowieso nicht, warum er die so heiss laufen liess...


Mein Englisch ist jetzt nicht das beste, aber wenn man die Temperaturen auf dem Bildschirm sieht, ich hätte bei 100° längst abgebrochen und er lacht da die ganze Zeit vorallem von 110-114° ist er nur am lachen :rolleyes:, das war eher ein Test wie zerstöre ich eine GTX280 oder gleich mehrere, jeder seriöse Tester würde da abbrechen(obwohl man kann das auch von der anderen Seite sehen), naja vielleicht wollte er nur zeigen das 3 GTX mit Luft nicht gehen, naja gibt schon merkwürdige Leute da draußen ;D.

mfg
Frank

Snoopy69
2008-07-05, 02:58:06
Die unteren beiden gingen ja noch...
Vielleicht sollte man nur die obere mit Wasser kühlen :ulol: