PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 780: (P)Review-Thread


Seiten : 1 2 [3] 4

Angiesan
2013-08-07, 18:32:38
Ja das habe ich jetzt auch schon mehrmals gelesen das die MSI Gaming die leiseste GTX 780 sein soll. Bei der EVGA habe ich aber unterschiedliche Aussagen mitbekommen es scheint da eine Serie zu geben die die beiden Propeller im Idel mit 33 % ansteuert und das scheint dann schon laut zu sein wenn man da einigen Usern glauben darf. Wieder andere sagen verstehe überhaupt nicht was ihr habt super leise, ich würde da auf alle Fälle drauf achten das die Karte mit ungebrochenem Siegel kommt dann war sie zumindest nicht schon mal im User Test :freak:

RMA
2013-08-08, 23:12:39
Werde ich drauf achten, danke. :biggrin: Habe jetzt beim Laden meines Vertrauens bei mir um die Ecke (Computeruniverse) mal die MSI geordert, der sie in Kürze reinbekommt. Werde weiter berichten.

Hübie
2013-08-09, 11:07:43
Da die GTX 770 und 780 eine sehr ähnliche TDP haben kann man davon ausgehen dass der Kühler auf der MSI ähnlich agiert wie auf meinen 770er. Und das ist verdammt leise. Die EVGA ist dagegen ein Krachmacher. Da ist selbst die Gigabyte mit dem Windforce x3 besser.
Ich schätze dass ihr mit der MSI am besten fahrt wenn ihr leise Lukü wollt. Selbst unter Last und in 3D kann man die nicht wirklich heraus hören. Ich musste wirklich staunen. Wenn nachher Zeit ist mach ich ein Video ;D

LG Hübie

Funky Bob
2013-08-09, 11:29:07
Nur als kurze Info, für alle, die die Karte vor der Splintercell-Aktion bei Mindfactory gekauft hatten (bin mri nicht sicher ob das schon jemand geposted hat):
Einfach für den Code anmelden, klappt ohne Probleme. Habe 3 Wochen vor der Aktion meine Karte erhalten und anstandslos einen Code bekommen.

RMA
2013-08-09, 23:26:21
Boah, also die Lieferbarkeitssituation der MSI 780er gleicht der, Elfenbein kaufen zu wollen. Vermutlich ist selbst das einfacher. Gestern hatte man mir noch am Telefon versichert, dass das Ding zu 95 % heute kommt, heute abend war es dann plötzlich der 13.08.2013. Ich versuche jetzt schon seit fast zwei Wochen eine zu bekommen, bis auf die Apotheken, die Dinger wohl noch von der Erstlieferung bei sich liegen haben und daher jeden Preis verlangen können (auch wenn sie keiner kauft) ist das im Moment echt nur traurig.

MiamiNice
2013-08-12, 14:17:11
Ja das habe ich jetzt auch schon mehrmals gelesen das die MSI Gaming die leiseste GTX 780 sein soll. Bei der EVGA habe ich aber unterschiedliche Aussagen mitbekommen es scheint da eine Serie zu geben die die beiden Propeller im Idel mit 33 % ansteuert und das scheint dann schon laut zu sein wenn man da einigen Usern glauben darf. Wieder andere sagen verstehe überhaupt nicht was ihr habt super leise, ich würde da auf alle Fälle drauf achten das die Karte mit ungebrochenem Siegel kommt dann war sie zumindest nicht schon mal im User Test :freak:


Das liegt daran das EVGA ein neues Bios rausgegeben hat welches die Lüfter im Idle noch weiter runter regelt. Mit dem neuen Bios ist sie schön leise, mit dem alten (welches beim Kauf drauf ist) lauter.

Meine EVGA 780 GTX mit ACX Kühler ist im Idle gar nicht zu hören.

BTW: Das Teil lässt sich gnadenlos takten. Ich bekomme 1200Mhz Chiptakt ohne Probs hin, damit snacke ich eine standard Titan zum Frühstück.

Raff
2013-08-12, 14:19:58
Könntest du dieses BIOS bitte mal per GPU-Z oder NVFlash sucken und mir per PN schicken? Würde es mir gern mal ansehen. :)

MfG,
Raff

MiamiNice
2013-08-12, 14:34:32
Das "leiser mach" Bios von Evga oder das "Zauber Bios" von SLV aus dem Luxx welches ich drauf habe ohne GPU Boost 2.0 und Power/Temp Target?

Raff
2013-08-12, 14:35:53
Das offizielle. :)

MfG,
Raff

MiamiNice
2013-08-12, 14:39:10
Wenn ich at home bin, schau ich mal ob ich es noch auf Platte habe. Habe mir nur das Kaufbios gesichert, zwecks eventueller RMA. Falls ich es nicht mehr finde, im Luxx gibt es einen 780er Thread, auf der ersten Seite findest Du das Bios direkt vom EVGA Mann im Luxx.

http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-780-gk110-sammelthread-faq-bei-fragen-erste-seite-960365.html

Ganz unten, 1. Post.

LSSJBroly
2013-08-13, 14:27:45
So skaliert GPU/Speicher-Takt auf einer GTX 780:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Geforce-GTX-780-Taktskalierung-im-Test-1082208/

RMA
2013-08-13, 20:47:42
Habe meine MSI 780er seit heute und kann nur sagen, wow, da hat MSI wirklich ganze Arbeit geleistet. Der Lüfter zählt zu den leisesten, die ich seit langem auf einer Grafikkarte hatte, absolut kein Vergleich mit dem Radaubruder der Gainward Phantom. Und das bei einem Factory-OC, der bereits an eine Stock-Titan herankommt – Respekt. Jetzt heißt es benchen, benchen, benchen. :D

RMA
2013-08-13, 21:45:12
Hm, kann man mit der OC-Fähigkeit des Speichers auch Pech haben? Ich kriege bereits bei +400 MHz auf dem Desktop (!) Artefakte und selbst +300 MHz crashen mir noch im 3DMark. Core kriege ich dagegen locker auf 1,2 GHz hoch... alles mit vollen +37.5 mV, versteht sich. Oder mache ich da was falsch?

Atma
2013-08-13, 22:02:14
Hm, kann man mit der OC-Fähigkeit des Speichers auch Pech haben? Ich kriege bereits bei +400 MHz auf dem Desktop (!) Artefakte und selbst +300 MHz crashen mir noch im 3DMark. Core kriege ich dagegen locker auf 1,2 GHz hoch... alles mit vollen +37.5 mV, versteht sich. Oder mache ich da was falsch?
Man kann mit GPU/Ram Pech oder Glück haben. Mein GK110 ist z.B. ganz und gar nicht OC freudig. Selbst die in meiner Signatur stehenden 1100 MHz laufen nicht rockstable, sodass ich aktuell bei ca. 1070 MHz angekommen bin. Dafür ist der Speicher recht solide und hat in den ersten zwei Wochen selbst bei 3,5 GHz keinerlei Probleme gemacht. Zu Gunsten der Stabilität habe ich den Takt jedoch gesenkt, da Speicher-OC beim GK110 ohnehin nicht viel bringt.

RMA
2013-08-13, 22:10:29
Alles klar. Ich lass die Finger jetzt auch davon, nachdem mir eben Mirror's Edge mit 8xSGSSAA nach Speicher-OC kapital gecrasht ist, obwohl es im 3DMark stable war. Ist im Endeffekt eh Blödsinn, da selbst Crysis 3 mit der Factory-OC'ten 780er nun gut spielbar ist. Was will man mehr? :biggrin:

Hübie
2013-08-13, 22:48:46
Kannst du mal bitte Valley mit extreme preset @fhd laufen lassen? Vielleicht auch noch RE6- und 3DMark-Benchmark :smile:

RMA
2013-08-13, 23:13:02
Mit factory-OC-stock oder dem, was machbar ist? Wenn du mit RE6 Resident Evil 6 meinst, das habe ich nicht, die anderen zwei kein Ding.

LSSJBroly
2013-08-13, 23:20:20
da Speicher-OC beim GK110 ohnehin nicht viel bringt.

was Speicher-OC bringt, siehst du in meinem Artikel ;)

Atma
2013-08-13, 23:29:13
was Speicher-OC bringt, siehst du in meinem Artikel ;)
Auf den hab ich mich bezogen ;)

RMA
2013-08-14, 01:28:08
Gerade noch vorm Schlafengehen die ersten Benches: 2770 beim Unigine Valley @ Extreme-Preset, allerdings musste ich auf 1,15 GHz runtergehen, da 1,2 GHz wohl doch nicht ganz stabil sind (Far Cry 3 hat sich kurz verabschiedet, allerdings kein TDR im Ereignisprotokoll, evtl. auch nur ein regulärer Crash), die Wahrheit liegt wahrscheinlich irgendwo dazwischen. Trotzdem wohl ein ganz guter Wert, wenn ich mir die wenigen bisher verfügbaren Punktzahlen von Titans hier im Bench-Forum anschaue.

Leider spielt bei der Übertaktung ständig das viel zu niedrige PT von nur 103% (offenbar hat MSI da nochmal am BIOS rumgebastelt, sollte das bei GK110-default nicht 106% sein?) mit rein, weswegen der Wert dann stellenweise nochmal um 13 MHz absinkt. Wirklich vernünftiges OC'n ist wohl wie bei der Titan nur mit BIOS-Mod möglich, aber dafür bin ich nicht geekig genug. ;)

Hübie
2013-08-14, 07:06:14
Guten Morgen.

Danke schon mal für diesen Wert. Hast du direkt nach dem Start den Benchmark aktiviert? Ich lasse so 15 Minuten "warm" laufen. Hier mein Wert ohne irgendwas zu übertakten:
http://abload.de/img/unigine_valley_bench_3iuwo.png (http://abload.de/image.php?img=unigine_valley_bench_3iuwo.png)

Nicht zum pay-nix-Vergleich sondern weil ich noch überlegt die beiden 770 gegen eine 780 zu tauschen. Da mir aber selbst die beiden 770er in 3D zu lahm sind wäre eine 780 auch keine Option.
Wenn dir irgendwann mal Leistung fehlt kannst du immer noch ein BIOS-flash vornehmen ;) Wäre freundlich wenn du noch ein paar weitere Tests veröffentlichst damit ich dann endlich einen Schlußstrich ziehen kann ;D RE6-Benchmark ist übrigens gratis herunterladbar.

Edit: Ach ja und aktualisiere bitte deine Systeminfos :tongue: :smile:

Angiesan
2013-08-14, 14:30:26
@RMA, die hat schon ein erhöhtes PT daher nur die 103% default steht die auf 285 Watt:wink:

Grüße

Bringhimup
2013-08-14, 16:26:58
Mit meiner Super Jetstream sieht es wie folgt in Unigine Valley Benchmark 1.0 aus:

FPS: 72.2
Score: 3020
Min FPS: 35.0
Max FPS: 135.8

System
Platform:Windows 8 (build 9200) 64bit
CPU model:Intel(R) Core(TM) i7-4770K CPU @ 4.30GHz
GPU model:NVIDIA GeForce GTX 780 9.18.13.2641 (3072MB)

Settings
Render:Direct3D11
Mode:1920x1080 8xAA fullscreen
PresetExtreme HD

Grafikkarte lief dabei auf 1215 Mhz (GPU offset +103 / Mem + 307) bei 1.162V. Max-Temp waren 77°C


3DMark (noch nicht mit Max OC (Ich glaub ich hatte 1177 Mhz), die 10000 schaff ich aber noch, warte auf nächsten WHQL-Treiber)

3DMark Score
9932.0
Graphics Score
11291.0
Physics Score
12054.0
Combined Score
4585.0
Graphics Test 1
54.6
Graphics Test 2
44.6
Physics Test
38.3
Combined Test
21.3

Resident Evil 6 Benchmark
Bei 1920x1200 -> 15789 Punkte / Rang: S
Grafikkarte lief dabei auf 1215 Mhz (GPU offset +103 / Mem + 307) bei 1.162V. Max-Temp waren 76°C

RMA
2013-08-15, 00:17:31
@ Angiesan: Danke für die Info, hatte schon vermutet, dass das Ding schon regulär mit erhöhtem PT läuft und somit hier 100% 103% einer Referenzkarte entsprechen.

@ Bringhimup: Deine Karte läuft ohne Overvolting bei 1,2 GHz stabil? Ich hatte mich ehrlich gesagt gar nicht getraut, das zu testen, sondern gleich voll um die regulär erlaubten +37.5 mV auf 1.2 V aufgedreht. Meine ist jetzt nach neuesten Benches bei 1176 MHz stabil. Macht schon richtig Bock in Crysis 3 oder Far Cry 3, im Gegensatz zur 770er, wo man merkt, dass die ein GK104 am Anschlag hängt, hat man bei der 780er einfach dieses subtile Gefühl, dass da verdammt viel Headroom ist. Wobei da sicher auch das 384 Bit-Speicherinterface zu beiträgt, dieses gute Gefühl kenne ich noch von meiner 8800 Ultra. :biggrin:

RoughNeck
2013-08-15, 06:44:10
Wobei ich mir sicher bin das Nvidia noch nicht die ganze Power der GK110 Karten ausreizen kann. Da geht mit den Treiben bestimmt noch was.

Skysnake
2013-08-15, 06:46:52
Ziemlich unwahrscheinlich. GK110 unterscheidet sich eigentlich grundlegend nicht von GK104. Er ist halt größer, that's it.

boxleitnerb
2013-08-15, 08:27:27
Galaxy GTX 780 HoF review bei [H]. 1,1 GHz standardmäßig, 1,3 GHz mit OC:
http://hardocp.com/article/2013/08/14/galaxy_geforce_gtx_780_hof_edition_review

Bringhimup
2013-08-15, 16:33:59
@ Bringhimup: Deine Karte läuft ohne Overvolting bei 1,2 GHz stabil? Ich hatte mich ehrlich gesagt gar nicht getraut, das zu testen, sondern gleich voll um die regulär erlaubten +37.5 mV auf 1.2 V aufgedreht. Meine ist jetzt nach neuesten Benches bei 1176 MHz stabil. Macht schon richtig Bock in Crysis 3 oder Far Cry 3, im Gegensatz zur 770er, wo man merkt, dass die ein GK104 am Anschlag hängt, hat man bei der 780er einfach dieses subtile Gefühl, dass da verdammt viel Headroom ist. Wobei da sicher auch das 384 Bit-Speicherinterface zu beiträgt, dieses gute Gefühl kenne ich noch von meiner 8800 Ultra. :biggrin:

Ob sie wirklich zu 100% stabil ist, kann ich nicht sagen. Hab ja auch noch nicht soooo viele verschiedene Dinge getestet.;D Z.B. kein Furmark oder so. Aber ich habe noch nicht an den Voltages rumgespielt. Musste ich noch nicht. Und ich habe auch noch nicht wirklich versucht das Limit der Karte zu finden. Ich hab halt pi mal Daumen hochgedreht, dass ich min 1,2 Ghz habe und es sind dann halt 1215 Mhz geworden. Das reicht mir so eigentlich erst mal auch.

Stabilität: Hab aber zumindest Tomb Raider und Rage damit durchgespielt (ca. 40 Stunden insgesamt und max 6 Std. am Stück) und hatte mit dem 326.41 auch keine Probleme mehr. Mit dem 320.49 hatte ich aber Anfangs mal einen komischen Treiberreset 2 Sekunden nach dem Beenden von 3dMark2006, was aber vermutlich am Treiber selbst lag.

Und ich finde das Ding auch einfach nur richtig geil. Es war eine scheißteure Investition, so viel hab ich noch nie für ne Graka ausgegeben, aber es hat sich für mich gelohnt.

Inzwischen ist witzigerweise sogar das Spulenfiepen weg, was anfangs bei ein paar tausend fps noch da war.:freak:

Hier mal ein Durchlauf vom RE6 Benchmark:
http://img.techpowerup.org/130815/RE6.png

Godmode
2013-08-15, 16:55:19
Galaxy GTX 780 HoF review bei [H]. 1,1 GHz standardmäßig, 1,3 GHz mit OC:
http://hardocp.com/article/2013/08/14/galaxy_geforce_gtx_780_hof_edition_review

Warum zieht die HOF die Titan in Metro und TR so ab?

Btw. sau dumme Politik von Nvidia die Titan so einzuschnüren. Da wären echt geile Karten möglich, mit gutem Custom-Kühler und 300W TDP.

Godmode
2013-08-15, 16:59:03
Hm, kann man mit der OC-Fähigkeit des Speichers auch Pech haben? Ich kriege bereits bei +400 MHz auf dem Desktop (!) Artefakte und selbst +300 MHz crashen mir noch im 3DMark. Core kriege ich dagegen locker auf 1,2 GHz hoch... alles mit vollen +37.5 mV, versteht sich. Oder mache ich da was falsch?

Ja das ist möglich. Bei mir kann ich maximal 250 Mhz auf den Speicher draufgeben. Mit vier Karten war es noch weniger.

boxleitnerb
2013-08-15, 17:00:30
Sind doch nur 10% mehr bei Metro und nur ca. 8% bei Tomb Raider. Unübertaktet natürlich.

Hübie
2013-08-15, 17:08:59
Warum zieht die HOF die Titan in Metro und TR so ab?

Schauen wir uns zwei verschiedene Benchmarks an? Wo wird die abgezogen? Wenn ich mir die Verlaufsdiagramme so ansehe zieht die (logischerweise) nur im OC wirklich davon.

Btw. sau dumme Politik von Nvidia die Titan so einzuschnüren. Da wären echt geile Karten möglich, mit gutem Custom-Kühler und 300W TDP.

Wer pisst sich schon selbst ans Bein? :freak::rolleyes:

Godmode
2013-08-15, 17:15:31
Ok hab mich verschaut, hab auf HOF OC geschaut.

@ Hübie: Sie pissen sich selber ans Bein, weil niemand mehr ne Titan kauft sondern lieber eine 780 OC.

phoenix887
2013-08-15, 18:16:45
Warum zieht die HOF die Titan in Metro und TR so ab?

Btw. sau dumme Politik von Nvidia die Titan so einzuschnüren. Da wären echt geile Karten möglich, mit gutem Custom-Kühler und 300W TDP.

Gebe ich dir Recht. Aber habe das Problem selber gelöst. Habe mir selber einen Custom Kühler drauf gemacht und ein Mod Bios:freak:

Hübie
2013-08-15, 18:20:34
Ok hab mich verschaut, hab auf HOF OC geschaut.

@ Hübie: Sie pissen sich selber ans Bein, weil niemand mehr ne Titan kauft sondern lieber eine 780 OC.

Nö. Titan ist für Leute wie dich. Und ihr wisst das die ebenfalls auf 1100-1200 MHz geht ;)
Die 780 strampelt sich ein ab um Titan @stock zu überholen. Denk auch mal an den Energiebedarf...

RMA
2013-08-15, 18:34:36
Also Energiebedarf dürfte in dieser Größenordnung wohl kaum noch eine Rolle spielen. Ganz ehrlich, also ich kenne nur wenige Leute, denen ich erzählen kann, dass ich 600 € für eine Grafikkarte hingeblättert habe. :freak: Und für unter 1.100 € (die Palit ist gerade unter 550 € gefallen) kriegt man aber auch schon ein 780er SLI-Gespann gebaut, da fragt man sich schon nur mal rein vom Preis- / Leistungsverhältnis, wo die Titan da ins Gefüge passt, Mikroruckler-Problematik mal beiseite.

Hübie
2013-08-15, 19:26:07
Ich deutete dabei mehr in Richtung Effizienz ;) Aber ganz unrecht hast du ja nun auch wieder nicht.

Godmode
2013-08-15, 19:36:49
Also Energiebedarf dürfte in dieser Größenordnung wohl kaum noch eine Rolle spielen. Ganz ehrlich, also ich kenne nur wenige Leute, denen ich erzählen kann, dass ich 600 € für eine Grafikkarte hingeblättert habe. :freak: Und für unter 1.100 € (die Palit ist gerade unter 550 € gefallen) kriegt man aber auch schon ein 780er SLI-Gespann gebaut, da fragt man sich schon nur mal rein vom Preis- / Leistungsverhältnis, wo die Titan da ins Gefüge passt, Mikroruckler-Problematik mal beiseite.

Ist bei mir genau so. Die Leute jammern schon wenn sie 130 € für ne 650 ausgeben. Würden 4 Titans so laufen wie eine oder maximal zwei, hätte ich kein Problem viel Geld für mehrere GPUs auszugeben.

Bringhimup
2013-08-15, 20:31:51
Für's Zocken ist die GTX 780 natürlich die vernünfitgere Wahl.

Weswegen ich z.B hier auch zugeschlagen habe. Zum einen wollte ich wieder eine NVIDIA. Zum anderen wollte ich TOP Leistung. Und natürlich single GPU. SLI ist mir mit all seinen Risiken im Moment noch nicht wirklich geheuer. Vielleicht in 2 Jahren. Geld war dabei erstmal nur Nebensache (sonst hätte ich schlicht ne AMD nehmen müssen). Aber natürlich spielt Preis-Leistung schon eine Rolle. Und für eine Titan hätte ich mindestens 50% mehr hinlegen müssen.

Wieviel ist eine Titan mit "normalem" max OC schneller als ne 780 (also ohne extreme Wasserkühlung mit Spannungsmods und Spezial BIOS)? Vielleicht 20% (sicher eher weniger). Bei 50% höheren Kosten. Die 780 ist also so ziemlich das Maximum des "Vernüftigen". Hart an der Grenze zum Unvernünftigen, da AMD halt Preisleistungsmäßig schon noch besser dasteht.

Aber ich gebe zu, eine Titan hat ihren Reiz. Ich war kurz nach Erscheinen auch schon fast so weit eine zu kaufen. Der Vorsprung vor der GTX680 war riesig. Heute bin ich froh, dem Impuls widerstanden zu haben und ne 780 genommen zu haben. Ich habe während der Zeit sowieso kaum gespielt. Mit der 780 zock ich jetzt alles, was die Steam Sales der letzten Zeit hergegeben haben und alles bei 1920x1200 auf Anschlag. Downsampling scheint mein Monitor leider nicht zu mögen. Aber was solls. Am Ende zählt, ich kann die 780 nur empfehlen. Ein geiles Ding.

Mal sehen, wie gut AMD kontern kann.

Godmode
2013-08-16, 16:05:25
Wieviel ist eine Titan mit "normalem" max OC schneller als ne 780 (also ohne extreme Wasserkühlung mit Spannungsmods und Spezial BIOS)? Vielleicht 20% (sicher eher weniger). Bei 50% höheren Kosten. Die 780 ist also so ziemlich das Maximum des "Vernüftigen". Hart an der Grenze zum Unvernünftigen, da AMD halt Preisleistungsmäßig schon noch besser dasteht.


Wenn du zb. von 1150 MHz ausgehst, was mit dem Ref Kühler durchaus drinnen ist, dann hast du ca. 30% mehr Leistung als mit dem Baseclock von 876 MHz. Eine Ref Titan ist wiederum 10% schneller als ne Ref 780, also sind wir bei 40%. Wenn du wiederum eine 780 OC vs Titan OC vergleichst, dann wird die Titan vielleicht eher nur mehr 10-20% schneller sein.

aufkrawall
2013-08-16, 16:14:52
Wobei ein gutes 780 Custom Design aufgrund der besseren Kühlleistung und Lautstärke je nach Vorlieben vielleicht auch gar nicht langsamer sein muss als ne Referenz Titan.

Godmode
2013-08-16, 16:27:15
Wobei ein gutes 780 Custom Design aufgrund der besseren Kühlleistung und Lautstärke je nach Vorlieben vielleicht auch gar nicht langsamer sein muss als ne Referenz Titan.

Wie gesagt, Ref vs Ref. Das eine 780 die bessere Lösung ist, brauchen wir nicht wohl nicht mehr bereden. Titan ist halt dann für denjenigen, der auch noch das letzte Quäntchen Leistung will und sowieso gleich ein andere BIOS flasht und noch den Kühler gegen was stärkeres tauscht.

Angiesan
2013-08-17, 12:56:38
Das Problem ist doch, das die Titan nach wie vor nur als Ref angeboten wird, die GTX 780 aber ein fast schon unüberschaubares Angebot an non Ref hat und da auch heftigst an der Taktschraube gedreht wird. Abseits von Wasser und der AC Lösung ist eine Titan immer langsamer wie eine Non Ref GTX 780 den die 1GHZ Grenze knacken die alle ohne irgend ein zutun der Referenzkühler der Titan wenn nicht hochgestellt schaft es nicht die Titan beim Spielen im TT zu halten ebenso wenig wie er das bei der GTX 780 schafft.
Ich verstehe NV in dieser Politik gerade nicht!
Denn man macht sich den Titan unnötig schwach was er gewiss nicht ist.

Skysnake
2013-08-17, 13:04:28
Man will/muss sich halt Luft lassen. Für die Kunden zwar scheise, aber darauf kann nV keine Rücksicht nehmen. Zumal es ja wenigstens die Möglichkeit mit dem Custom Bios gibt. nVidia lässt euch das durchgehen, weil Sie sich des Problems 100% sicher bewusst sind. Den "DAU" User wollen Sie aber halt melken so gut es geht.

Godmode
2013-08-17, 17:53:18
Btw. in der aktuellen PCGH 09/2013 sind sehr viele Benches mit 780 vs 780 OC vs Titan vs Titan OC vs 690 vs 7990. Sehr aufschlussreich, gute Arbeit @Raff. Und ja Titan hat mit 1250 MHz wirklich die Bezeichnung Titan verdient.

Woklbokl
2013-08-17, 19:30:01
Mit der Afterburner Beta 14 ist es möglich bei Karten die den NCP4206 Voltage Regulator Chip nutzen bis zu 1.3V zu geben (Referenz 780/Titan)
Man muss in der VEN_10DE&DEV_1005&SUBSYS_84511043&REV_A1&BUS_1&DEV_0&FN_0.cfg folgendes hinzufügen:

[Settings]
VDDC_Generic_Detection = 0
VDDC_NCP4206_Detection = 4:20h

ODER (je nachdem wo der Chip auf dem PCB sitzt)

[Settings]
VDDC_Generic_Detection = 0
VDDC_NCP4206_Detection = 3:20h

Afterburner zeigt mir bei den eingestellten 1300mv im OSD schwankende Werte zwischen 1.25V-1.26V an, nachmessen kann ich es leider nicht.
Powertarget waren ca 105% vom svl7 Bios also ungefähr 368 Watt.

Viel Spaß beim testen, aber seid bitte vorsichtig, vorallem unter Luft.

Godmode
2013-08-17, 19:54:47
Geiler schice, die Spawas werden sich freuen ;)

LSSJBroly
2013-08-18, 00:29:28
Btw. in der aktuellen PCGH 09/2013 sind sehr viele Benches mit 780 vs 780 OC vs Titan vs Titan OC vs 690 vs 7990. Sehr aufschlussreich

Jup, interessant ist auch, dass eine 780 bei selben takt (1254MHz) weiterhin nur um die 8 bis 10% langsamer als die Titan ist. Da scheint die Bandbreite doch so langsam der limitierende Faktor zu werden.

Skysnake
2013-08-18, 06:47:48
Oder der Verwaltungsoverhead.

boxleitnerb
2013-08-18, 08:29:40
War da auch der Speicher übertaktet? Overhead glaube ich nicht, Kepler skaliert exzellent mit mehr Einheiten, wenn keine anderen Chipteile limitieren. Evtl. ist es auch die Pixelfüllrate, gerade bei nur 4 GPCs.

Skysnake
2013-08-18, 08:36:45
irgendwann kann so was aber immer anfangen aus dem Ruder zu laufen.

KEINER! von uns hat ja Ahnung davon, was nVidia alles für fancy shit macht. Das sind immer Läufe auf dem Drahtseil. Traut man sich nicht, hat man schon verloren weil man zu langsam ist. Traut man sich, kann man schneller runter fallen als man schauen kann.

Chips brauchen ja nicht zum Spaß so lange bis Sie entwickelt sind, und die Entwickler sind ja auch nicht dumm und finden trotzdem immer und immer wieder neue Tricks. Das ist halt alles sehr komplex.

gnahr
2013-08-18, 08:49:09
skysnake, komm mit indizien rüber über den tisch, aber lass das gesappel deines örtlichen priesters raus.

"irgend wann kann... keiner weiß..." aber unbedingt einen anderen punkt gegen boxleits idee anführen müssen.
richtig, vielleicht sind das auch die illuminaten oder godzilla oder ... das muss doch nicht.

Skysnake
2013-08-18, 08:58:03
Wenn die Skalierung nicht mehr linear ist, beginnt was schief zu gehen, was ist doch absolut scheis! egal... Können wir eh nichts dran ändern.

Du hast mehr Ausführungseinheiten, also mehr on-the-fly. Das kann schon dazu führen, dass du anfängst dir den L2 zu trashen. Buhuhu. Supi. haste halt Pech gehabt. Das war, ist und wird auch immer so bleiben, so lange man Caches verwendet. Alles geht bis zu nem gewissen Punkt gut, und dann gehts schief und du hast Pech gehabt.

Die Diskussion, die boxleitnerb da vom Zaun brechen will ist auch total fürn Poppes. Was da wann wo wie in welchem Rahmen "schief" geht wird nie einer von uns wissen. Das wissen wahrscheinlich nicht mal die Leute bei nVidia so wirklich 100%, weil die auch nicht Taktgenau alles anschauen. Der Aufwand wäre einfach VIEL zu groß.

boxleitnerb
2013-08-18, 08:58:55
Nein, es ist nicht für den Poppes. Was für den Poppes ist, sind deine vagen Einwände. Brolys Review bei PCGH hat ja schon gezeigt, dass ein paar Prozent Leistung durch die limitierende Bandbreite liegenbleiben. Selbst, wenn man den Speicher übertaktet - und das war nur bei 1176 MHz, 1254 ist da nochmal mehr. Das sind konkrete Hinweise, von dir kommt nichts Konkretes und schon gar nichts Belegtes. Gähn.

Wenn, dann müsste man bei niedrigerem Takt vergleichen wo die Bandbreite absolut kein Thema mehr ist. Wenn Broly bereit dazu ist, würde ich mitmachen.
Titan vs 780 bei z.B. 600-700 MHz. Damit sollte eine Bandbreitenlimitierung ausgeschlossen sein und man kann rein auf die Skalierung der Einheiten schauen.

fondness
2013-08-18, 09:10:10
Die Skalierung ist eh absolut in Ordnung. Titan hat ca. 16% mehr Einheiten. ~2% Leistung geht für den clamshell modus des VRAMs drauf. Da sind 8-10% mehr Leistung bei identischer Bandbreite mehr als ordentlich. Absolut linear mit der ALU-Anzahl zu skalieren ist ohnehin nicht möglich. Würde die Bandbreite im selben Maße mitskaliert hätte man vielleicht noch 2% mehr Leistung, aber sicher nichts weswegen man von Bandbreitenlimitierung sprechen müsste. Noch dazu werden mit Chips mit wesentlich mehr als üblich Takt betrieben.

Skysnake
2013-08-18, 09:18:22
Boxleitnerb, einen Grund hab ich dir gesagt. Man fängt an sich den L2 zu trashen. ;)

Kann aber auch drölf Millionen andere Gründe haben. Angefangen von der zentralen Workdistribution die nicht mehr nach kommt, bis zum Speichercontroller, der eben die Zugriffe nicht mehr so schön sotiert bekommt, wenn von ein paar Einheiten mehr auch noch Zugriffe kommen.

Woher willst du wissen, was davon zutrifft und was nicht?

Das kannste ohne gezielte Testsoftware komplett knicken, und die Mühe wird sich hier keiner machen, und selbst wenn ist halt die Frage in wieweit man das dann auf reale Anwendungen/Games übertragen kann, wo alles mögliche passiert. Deswegen seh ich den Sinn hinter so ner Diskussion nicht. Da können wir genau so gut Münzen werfen. Haben wir zumindest ne 50% Chance richtig zu liegen. Mehr kommt doch dabei nicht raus.

Zumindest wüsste ich nicht, wie man dem wirklich auf den Grund gehen sollte.

@fondness:
Seh ich auch so. Lässt man halt etwas Leistung auf der Straße liegen. So what ist halt so. Können wir eh nichts zu sagen/ändern.

boxleitnerb
2013-08-18, 09:31:22
@fondness,
es geht hier nur um ca. 6% (16% mehr Einheiten aber 10% mehr Leistung). Natürlich ist es kein totales Bandbreitenlimit, aber es trägt sicher seinen Teil dazu bei. 4-5% mehr fps bei 16% mehr Speichertakt -> LSSBrolys Test auch mal anschauen. Es würde mich überhaupt nicht wundern, wenn das der Grund für die Unterschiede 780/Titan wäre.

@Skysnake:
Ich lese da wieder nur allgemeines Blabla statt konkret auf die Ergebnisse und Indizien aus dem Test einzugehen oder erstmal abzuwarten, was bei meinem vorgeschlagenen Test rauskommt.

Skysnake
2013-08-18, 09:45:09
Ja ich versteh schon was du sagen/wissen willst. Man muss sich aber auch eingesthen können, wenn man etwas nicht weiß und auch gar nicht wissen kann.

Was für einen Sinn macht es, sich irgendwas aus den Fingern zu saugen, was sein kann, aber eben auch nicht. So lange man praktisch nur nen Münzwurf hat, um zu sagen, ob das so ist oder nicht, ist es irgendwo sinnlos in meinen Augen. Da verarscht man sich doch selbst.

Ich könnte da noch sicherlich 5 Punkte aufzeigen, die so einen geringen Einbruch erklären, aber was bringts?

boxleitnerb
2013-08-18, 10:10:16
Dann pack dich mal an der eigenen Nase! Du rätselst doch hier so vage rum, nicht ich. Im Gegensatz zu dir habe ich nämlich konkrete Ergebnisse kommentiert. Also bitte!

Skysnake
2013-08-18, 10:20:48
Wo denn?

Etwa das hier?
War da auch der Speicher übertaktet? Overhead glaube ich nicht, Kepler skaliert exzellent mit mehr Einheiten, wenn keine anderen Chipteile limitieren. Evtl. ist es auch die Pixelfüllrate, gerade bei nur 4 GPCs.
Das ist doch nur Gerate. Keine Argumente, keine Belege/Hinweise, dass das wirklich so ist, und nicht irgendwas anderes.

Und ich muss mir da nicht an die Nase fassen, weil ich weiß, dass das Gerate ist. Ich sags ja extra dazu, weshalb es eben auch sinnfrei ist darüber zu diskutieren.

Nehmer wir doch einfach mal an, es wäre wirklich einer der beiden Punkte, also entweder hab ich Recht, und die Caches werden einfach getrashed, was Leistung kostet, oder du hast Recht, und die Pixelfüllrate limitert.

Wie willst du unterscheiden/herausfinden, wer Recht hat? Ich hab keine Ahnung! Was besseres als Münze werfen und danach entscheiden wer richtig liegt fällt mir nicht ein. Wenn dir was besseres einfällt nur zu! Das interessiert mich nämlich auch, aber ich hab dazu absolut keine Idee, was man eben da machen könnte. -> sinnfreie "Diskussion". "" weil es eben keine Diskussion sondern einfach nur stumpfes rumgerate/gestochere ist.

boxleitnerb
2013-08-18, 10:25:45
Sag mal wie oft muss ich den Bandbreitentest noch erwähnen? Die Bandbreite war das erste, was ich angesprochen habe, und da sehe ich auch den plausibelsten Flaschenhals. Wie man das testen kann, habe ich auch vorgeschlagen, was du gekonnt ignorierst. Du nervst.

Skysnake
2013-08-18, 10:48:28
Kausalität sagt dir was?

Du lieferst nichts, rein gar nichts an Argumenten. Wie soll man da diskutieren?

Hey ich sag jetzt 42. Das ist die richtige Antwort das wissen wir doch alle!

Also bring fundierte Argumente, oder lass es bleiben, und akzeptiert einfach, dass die Titan scheinbar nicht linear skaliert. So what. Ists halt so. Ich seh den Sinn nicht hinter deiner "Diskussion". Gehts dir nur drum etwas zum schreiben zu haben?

boxleitnerb
2013-08-18, 11:01:34
Du verwechselst dich grad mit mir. Wieder kein Argument, nur Blabla. Wie willst du ernst genommen werden, wenn du auf hervorgebrachte Punkte nicht eingehst und nur rumlaberst? Das würde ich schon fast als Trollen bezeichnen.
Nochmal damit du es verstehst (auch wenn ich meine Zweifel habe):
Solange man einen bandbreitenbereinigten Test nicht macht, kann man keine Aussage zur Skalierung treffen. Wenn dann der Abstand bei gleichem Takt immer noch 10% beträgt, dann und erst dann kann man nach anderen Gründen suchen. Der logischste Schritt ist, bei der Bandbreite anzusetzen, denn nur das können wir Endnutzer beeinflussen und überprüfen.

Godmode
2013-08-18, 11:26:44
Echt nervig hier. :mad:

LSSJBroly
2013-08-18, 12:08:49
War da auch der Speicher übertaktet?

Ja, die Titan mit 3703MHz, die 780 mit 3602MHz, also nochmal ein leichten Vorteil für die Titan.


Wenn, dann müsste man bei niedrigerem Takt vergleichen wo die Bandbreite absolut kein Thema mehr ist. Wenn Broly bereit dazu ist, würde ich mitmachen.
Titan vs 780 bei z.B. 600-700 MHz. Damit sollte eine Bandbreitenlimitierung ausgeschlossen sein und man kann rein auf die Skalierung der Einheiten schauen.
Wäre sicherlich kein problem. Aber nach meinen 500 Messwerten hab ich erstmal genug vom benchen - vllt nächste woche :D

AnarchX
2013-08-20, 12:36:33
Die MSI 780 Lightning verwendet 7Gbps Speicher: http://www.techpowerup.com/189296/msi-geforce-gtx-780-lightning-pictured.html
Vielleicht erreicht dieser auch, wie auf der 770, 8Gbps OC.

LSSJBroly
2013-08-20, 13:55:33
Vielleicht erreicht dieser auch, wie auf der 770, 8Gbps OC.

Das wären satte 384 GB/s :eek:

Nightspider
2013-08-20, 14:17:08
Nicht schlecht Herr Specht.
Wurde bei den Lightnings schon immer schnellerer VRAM verbaut?
(Also bei der 680,580 und 480?)

Thunder99
2013-08-20, 15:18:14
Nicht schlecht Herr Specht.
Wurde bei den Lightnings schon immer schnellerer VRAM verbaut?
(Also bei der 680,580 und 480?)
Bei der 680er nicht da sie noch nicht verfügbar wahren :(

fulgore1101
2013-08-26, 20:00:31
Wie übertakte ich denn meine 780? Wenn ich per Evga Tool das Power- und Temp Target aufs Maximum setze, dann geht der Takt innerhalb von ~3 Sekunden im Afterburner Furrmark auf den Baseclock zurück. Wenn ich ich nichts änder, dann isses auch so.:conf2: Was sollte denn Priorität haben? Power oder Temp? Abgesehen davon machts bei mir keinen Sinn die Karte zu übertakten, aber für den Fall möchte ich es gerne wissen.:biggrin:

RMA
2013-08-26, 20:26:21
AFAIR wird Kombustor (ich nehme mal an, dass du das meinst) genauso wie Furmark hartverdrahtet gedrosselt und taugt daher nicht mehr. Nach meinen Beobachtungen der letzten Wochen sollte die Priorität auf Temperatur liegen, das Power Target wird zumindest in der Praxis und bei normalmenschlichen Auflösungen (hier: bis 1620p) nicht erreicht. Gute Tests sind synthetisch Uniengine Heaven (braucht allerdings etwas Zeit, um aufzuheizen) und der aktuelle 3DMark (Fire Strike, heizt abartig und deckt zu krasse Übertaktung fast ausnahmslos nach Sekunden auf).

fulgore1101
2013-08-27, 12:27:26
AFAIR wird Kombustor (ich nehme mal an, dass du das meinst) genauso wie Furmark hartverdrahtet gedrosselt und taugt daher nicht mehr. Nach meinen Beobachtungen der letzten Wochen sollte die Priorität auf Temperatur liegen, das Power Target wird zumindest in der Praxis und bei normalmenschlichen Auflösungen (hier: bis 1620p) nicht erreicht. Gute Tests sind synthetisch Uniengine Heaven (braucht allerdings etwas Zeit, um aufzuheizen) und der aktuelle 3DMark (Fire Strike, heizt abartig und deckt zu krasse Übertaktung fast ausnahmslos nach Sekunden auf).

Ja, ich habe vom Kombustor gesprochen. Stimmt, da war ja was mit Drosselung.:idea:

Dann schau ich mir mal Uniengine an. Beim 3DMark lassen sich ja leider die Settings in der freien Version nicht einstellen. Ich möchte die Karte ja auch nicht an Limit treiben. Macht ja mit meiner CPU auch keinen Sinn, aber mal schauen was so geht, wäre schon interessant.:biggrin:

RMA
2013-08-29, 12:34:51
AFAIK der erste richtige Test der neuen MSI GTX 780 Lightning @ Guru3D. Habe ja sehr meine Zweifel, ob das Ding mit drei Lüftern auch nur ansatzweise bei den 2 Sone bleiben kann, die die Gaming seltenst überschreitet.

http://www.guru3d.com/articles_pages/msi_geforce_gtx_780_lightning_review,1.html

Thunder99
2013-08-29, 14:00:43
AFAIK der erste richtige Test der neuen MSI GTX 780 Lightning @ Guru3D. Habe ja sehr meine Zweifel, ob das Ding mit drei Lüftern auch nur ansatzweise bei den 2 Sone bleiben kann, die die Gaming seltenst überschreitet.

http://www.guru3d.com/articles_pages/msi_geforce_gtx_780_lightning_review,1.html
Meine neue Karte wenn ich Geld hätte :eek:

Raff
2013-09-08, 14:32:49
Die Lightning trägt keinen 7-Gbps-Speicher. Wer hat das Gerücht in die Welt gesetzt?

Beste Grüße von Teneriffa,
Raff

AnarchX
2013-09-08, 15:15:40
Die Lightning trägt keinen 7-Gbps-Speicher. Wer hat das Gerücht in die Welt gesetzt?

TPU: http://www.techpowerup.com/189296/msi-geforce-gtx-780-lightning-pictured.html
Auf den Bildern sind es aber auch nur 60F -Chips (6Gbps).


Beste Grüße von Teneriffa,
Raff
Für Europäer nur eine nahegelegene Ersatz-Volcano-Island?:D

Raff
2013-09-17, 11:59:58
Hehehe, so ähnlich - der Teide ist aber momentan ein zahmer Bursche, welcher zuletzt Ende des 18. Jahrhunderts Bombenstimmung brachte. Hoffen wir, dass AMDs Hawaii mehr als heißen Schwefeldampf .... ääh, heiße Luft produziert. :D

Tenerfenische Grüße,
Raff

WhiteVelvet
2013-09-18, 10:23:09
Gibts irgendwo eine aktuelle Vergleichsliste, wo ich mal sehen kann, wie eine GTX780 gegen meine aktuelle GTX580 abschneidet?

Lassen sich eigentlich alle GTX780 Varianten mit einem Wasserkühlkörper ausstatten? Bei meiner GTX580 (ASUS) hatte ich erst gemerkt, dass es nicht geht, als ich den Luftkühlkörper schon abgebaut hatte...

dildo4u
2013-09-18, 10:26:13
Gibts irgendwo eine aktuelle Vergleichsliste, wo ich mal sehen kann, wie eine GTX780 gegen meine aktuelle GTX580 abschneidet?

http://www.anandtech.com/bench/product/767?vs=827

WhiteVelvet
2013-09-18, 15:22:11
Perfekt, dankeschön :)

RIPchen
2013-09-21, 11:38:03
Das Problem ist doch, das die Titan nach wie vor nur als Ref angeboten wird, die GTX 780 aber ein fast schon unüberschaubares Angebot an non Ref hat und da auch heftigst an der Taktschraube gedreht wird. Abseits von Wasser und der AC Lösung ist eine Titan immer langsamer wie eine Non Ref GTX 780 den die 1GHZ Grenze knacken die alle ohne irgend ein zutun der Referenzkühler der Titan wenn nicht hochgestellt schaft es nicht die Titan beim Spielen im TT zu halten ebenso wenig wie er das bei der GTX 780 schafft.
Ich verstehe NV in dieser Politik gerade nicht!
Denn man macht sich den Titan unnötig schwach was er gewiss nicht ist.


Dafür beherrscht die Titan schnelleres DoublePrecision-Rechnen und wird mit 6GB angeboten, letzteres wurde bei den GTX780 bisher erfolgreich verboten. Es gibt schon Unterschiede und es stellt sich sowieso die Frage, wer für +/- 0% mehr Leistung 300€ mehr ausgeben will. Meines Erachtens sowieso nur eine ganz geringe Käuferschicht, die die starke Rechenleistung benötigt oder auch den Titan-Referenzkühler entfernen und auch diese auf 1GHz OC´en wird.

Ich denke, dass Nvidia auch deshalb die Titan kurz hält, weil sie nicht genügend funktionierende Chips übrig haben. Schon bei der GTX780 gibt es welche mit 4 und welche mit 5 ROPs, ungewöhnliche Vorgehensweise, die wohl mit der mangelnden Chipzahl zusammenhängen könnte. Denn dass die 2000-3000€-Profikarten mit demselben Chip bevorzugt bedient werden ist auch klar. Das Fertigungsproblem löst sich sicher mit der Zeit, bzw hat sich vielleicht auch schon gelöst, aber die Titan Ultra mit 2880 Shadern soll auch noch kommen und da taugt ein größerer Performanceunterschied eben als Verkaufsargument. Über die Shader alleine wird man das nicht reißen, aber über mehr Takt und bessere Kühler schon.

boxleitnerb
2013-09-21, 11:47:27
Auf jeden Fall werden sich in Zukunft die meisten Titan-Käufer überlegen, beim nächsten Aufrüsten erstmal ein paar Monate zu warten. Ich werde es so machen, dann hätte ich ordentlich Geld sparen können.
Dass man nicht genügend Chips mit 14 SMX hat, glaube ich hingegen nicht. Die GPUs funktionieren ja - was würde sich an der Nachfrage ändern, wenn die von Haus aus 5-10% höher takten würden beim gleichen Preis? Doch eigentlich nichts. Es ist eher eine bewusste Entscheidung wegen Verbrauch und Lautstärke - übrigens etwas, das auch AMD so sieht, wie mir bzgl. deren neuen Boost kürzlich gesagt wurde. Man will halt am liebsten die Performance vom Boost-Modus und die restlichen Messwerte vom Basistakt :D
Bloß ist das ein bisschen schizophren, schließlich empfiehlt Nvidia ja soweit ich weiß, mit guter Kühlung zu testen. Da geht der Takt und der Verbrauch eh hoch - also hätte man die Targets auch von Haus aus höher setzen können, es hätte kaum einen Unterschied gemacht (außer in den Reviews hierzulande).

Skysnake
2013-09-21, 12:17:54
Der Verbrauch ist aber bei kühleren TEmperaturen niedriger bei gleichem Takt als bei höheren...

boxleitnerb
2013-09-21, 12:25:59
Laut meinen Tests mit Wakü liegen bei Titan zwischen 95°C und 65°C 20-25W (mit Verlusten am Netzteil).
Hingegen liegen zwischen 836 MHz@1.0V und 1006 MHz@1.162V (maximaler Boost) je nach Anwendung 50+W. Und 65°C erreichst du lockerst mit Luftkühlung, die Karten hängen meist beim Temperaturtarget von 80°C. D.h. es bleiben vielleicht noch gute 10W übrig an Differenz zum maximierten Temperaturtarget von 94°C. Den Löwenanteil am Mehrverbrauch verursachen also Takt und Spannung. Und deshalb will man, dass die Karte ins Temperaturlimit läuft - damit sie eben nicht so hoch taktet.

Angiesan
2013-09-21, 12:58:31
Wenn man sowohl GTX 780 wie auch Titan im Referenz Design betrachtet kann man sagen, dass der Kühler der wirklich eine Sahnestück ist einfach zu schwach ausgelegt ist, bzw die thermischen Probleme einfach immer größer werden oder zumindest nicht kleiner.

Man muss dabei eben beachten das in der Aufwärm-Phase der Chip mit 1,162 Volt betrieben wird was eben aufgrund des Boost-Volttables in relativ hohen Taktraten über dem Basetakt liegt, bis zu 100 MHz sind da möglich.

Wenn der Kühler jedoch bei der GTX 780 seine 2000-2100 RPM bei 79°C erreicht hat fängt das TT an den Chip runter zu takten, dabei wird eben auch die Spannung verändert was dann wieder in einer geringeren Leistungsaufnahme und damit auch geringeren Wärmeabgabe endet.

Bei meinen GTXen war es so, dass zum Start eines Spiels ~ 280 Watt von dem ganzen Pc genommen wurden und wenn sich das eingependelt hatte es nur noch ~ 230-250 Watt waren das sind dann aus Erfahrung ca 200-220 Watt für die GTX 780, das ist schon beeindruckend und auch durchaus als noch leise oder zumindest nicht laut zu bezeichnen.

Wenn ich jedoch ein Gigabyte WF3 Bios aufgespielt habe, lag der Verbrauch bei ~ 300 Watt zum Start und ca 285 Watt nach der Aufwärmphase bei dann ~ 2650 -2860 RPM bei 79°C was wirklich kein Vergnügen mehr ist.

Wenn man jetzt wie oben beschrieben bedenkt das der Kühler optisch und technisch ein AAA Produkt ist muss man einfach einen Kompromiss finden sonst fängt man sich wieder die Schelte der hohen Lautstärke ein, AMD Referenzkarten können da ja im wahren Sinne des Wortes ein Lied von singen das ist wirklich nur für die Harten zu gebrauchen.

Bei der GTX 780 haben es die Hersteller ja dann auch machen dürfen und das mit Ihren Non-Referenzdesigns geregelt bei der Titan gibt es ja nur diese Bastellösung von Gigabyte, für mich immer noch unverständlich, warum man das immer noch nicht freigibt. Die Entscheidung des relativ niedrigen TT und PT mit Standard-Kühler bei der Titan kann ich jedoch voll nachvollziehen zumal dort das RPM-Target etwas höher liegen wie bei der GTX 780 und die Titan dadurch schon etwas lauter ist.

boxleitnerb
2013-09-21, 13:09:43
Na deine restlichen Komponenten brauchen sicher etwas mehr wie 30W ;)
Laut 3DC-Zusammenfassung, liegt die 780 je nach Spiel bei 170-220W (nur die Karte ohne Netzteilverluste). Und das eben ohne dass sich der Boost voll austoben darf, klar.

Man könnte auch den besten Kühler verbauen, der die Karte bei 1 GHz leise hält - der Verbrauch wäre trotzdem deutlich höher. Das ist halt das Problem. Wobei ich glaube, dass Lautstärke höher gewichtet wird bei den Consumerkarten und dass man den Kühler nicht besser macht aus Kostengründen (hust) bzw. um den Partnern noch Spielraum zu lassen für Eigenkreationen.

Angiesan
2013-09-21, 15:34:04
Jo mein Fehler, ich war eben noch bei einem anderen Gedanken, dass sind nicht viel mehr wie 60-80 Watt unter Vollgas da nichts übertaktet ist auf der CPU Seite und in Spielen verbraucht der 3770 nicht so viel und die SSD´s eh nicht dann noch mal runde 10-15% Verlustleistung für das NT runter und ein paar Watt für das MB und den sonstigen Kram.
Ich denke deine Angaben kommen hin. 170 -200Watt müsste in etwa richtig sein ohne OC deckt sich auch mit den Angaben des PT das hatte bei mir immer gereicht und hat nie limitiert war immer das TT.

LSSJBroly
2013-09-21, 22:42:38
Nochmal mein Artikel zur Taktskalierung - nun mit 4K Benchmarks
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Geforce-GTX-780-Taktskalierung-im-Test-1082208/

digidoctor
2013-10-22, 12:40:50
Mal wieder alles richtig gemacht. Mit Overclocking lässt die 780er die 290x stehen. Selbst die OC'ed 290X schafft grad mal pari. Siehe News mit dem 3DMark11 Ergebnis.

http://videocardz.com/47039/xfx-radeon-r9-290x-overclocking-temperatures-exposed

Ätznatron
2013-10-22, 13:51:42
Mal wieder alles richtig gemacht. Mit Overclocking lässt die 780er die 290x stehen. Selbst die OC'ed 290X schafft grad mal pari. Siehe News mit dem 3DMark11 Ergebnis.

http://videocardz.com/47039/xfx-radeon-r9-290x-overclocking-temperatures-exposed

Erstmal ist der 3DMark natürlich ein Test (und hier sogar nur ein inoffizieller Vorabtest mit fraglicher Glaubwürdigkeit), der ohnehin nVidia schon immer sehr entgegenkommt, dann stehen ausgereifte Treiber wahrscheinlich noch optimierungsfähigen gegenüber, und last but not least ist der größte Minuspunkt der GTX 780 der zwar üppig aussehende, aber mittlerweile für das High End Segment höchstens noch durchschnittliche Speicherausbau.

aufkrawall
2013-10-22, 13:55:50
Erstmal ist der 3DMark natürlich ein Test (und hier sogar nur ein inoffizieller Vorabtest mit fraglicher Glaubwürdigkeit), der ohnehin nVidia schon immer sehr entgegenkommt

Wieso?
Der nutzt im Vergleich zu Spielen viel Compute, was ja angeblich eher den Radeons nützt.

Ätznatron
2013-10-22, 14:09:52
Wieso?
Der nutzt im Vergleich zu Spielen viel Compute, was ja angeblich eher den Radeons nützt.

Einem jahrelangen Szenebeobachter ;) wie mir fällt das schon auf, angeblicher Vorteil durch Compute hin oder her.

Iruwen
2013-10-22, 14:16:06
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-im-test/3/
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-im-test/17/
Bei Performance Preset deckt sich das genau mit der Spieleleistung in 1080p mit AA/AF, bei Extreme eher nicht.

Knuddelbearli
2013-10-28, 16:57:19
wenn einem der Kühler egal ist da eh ein eigens dafür angefertigte Kühler draufkommt, was ist die P/L beste 780 für OC?

( Kein Hersteller der Kühlerwechsel explizit ausschließt! wobei mir da aber gerade nur Gainward einfällt )

Felixxz2
2013-10-28, 17:24:21
Mal wieder alles richtig gemacht. Mit Overclocking lässt die 780er die 290x stehen. Selbst die OC'ed 290X schafft grad mal pari. Siehe News mit dem 3DMark11 Ergebnis.

http://videocardz.com/47039/xfx-radeon-r9-290x-overclocking-temperatures-exposed

Hä? Bei gleichem Takt ist die 290X schneller....da müsste die 780 ja schon nen höheren OC Takt schaffen, was bei gleicher Kühlung nicht der Fall ist.

geezer
2013-10-30, 20:46:08
Vielleicht ist meine Frage aus dem Preis-Thread doch besser hier aufgehoben:

Eine kurze Frage, jetzt wo die 780 so langsam interessant wird und hoffentlich durch die 290 noch ein bisschen unter Druck gerät:

In wie weit erkauft man sich bei einer typischen 780 OC die höhere Performance durch Chipspannugen und einen Stromverbrauch, der mit der anfangs getesteten Referenzversion nicht mehr viel gemein hat?

Ich stehe nicht so auf hochgezüchtete Modelle (und lasse z.B. meinen 3570K auch nur auf 4.2 laufen, da man ja weiß, wie schön seit Ivy Bridge die Kurven danach ansteigen) und überlege, bei meinetwegen 20-30€ weniger vielleicht auch zu einer Referenz 780 zu greifen.

Danke für eure Einschätzungen!

Duplex
2013-11-04, 12:09:17
Hat jemand zufällig einen Samsung 6470 (46Zoll) LED mit einer GTX780 getestet?

http://www.amazon.de/Samsung-UE46F6470-3D-LED-Backlight-Fernseher-Sprachsteuerung-schwarz/dp/B00BMKATU8/ref=sr_1_1?ie=UTF8&qid=1383563380&sr=8-1&keywords=samsung+46+zoll

Wenn ja, wie ist das Spiel Gefühl?

TheCounter
2013-11-04, 12:35:47
Laut Hifi-Forum hat der Samsung auch einen Gaming-Mode der den Inputlag deutlich reduzieren soll.

Kann nur von meinem 55" LG berichten, mit dem sich im Gaming-Mode super spielen lässt (PC HDMI -> A/V-Receiver -> LCD). Sollte beim Samsung nicht anders sein.

Spielgefühl:

Zocke momentan Assassins Creed 3 auf dem TV. Geniale IQ sowie >60FPS sind ein wahnsinns Spielgefühl auf dem großen Teil ;)

Duplex
2013-11-04, 12:42:02
Wieviel Hz hat dein LG?
200Hz CMR sollte doch ausreichend sein oder?

derF
2013-11-04, 13:27:40
Im Gaming-Modus wird die Zwischenbildberechnung aus sein, sonst hast du nämlich wieder den Input-Lag.
Also vermutlich 60 Hz.

Duplex
2013-11-04, 13:37:15
Ich hab das Gerät jetzt einfach bestellt, die Kunden Bewertungen sehen ganz gut aus und bei 629 € kann man nichts verkehrt machen.

TheCounter
2013-11-04, 15:06:54
Im Gaming-Modus wird die Zwischenbildberechnung aus sein, sonst hast du nämlich wieder den Input-Lag.
Also vermutlich 60 Hz.

Exakt. Die ZBB ist nur außerhalb des Gaming-Modus einstellbar bzw. aktiv.

Thomas Gräf
2013-11-05, 10:37:09
Ich hab das Gerät jetzt einfach bestellt, die Kunden Bewertungen sehen ganz gut aus und bei 629 € kann man nichts verkehrt machen.

Hugh, schreib dann mal was zu dem Teil ich liebäugle auch mit solch einem 46'er...für xRebirth!

TheCounter
2013-11-05, 16:22:33
Oh man, mit meiner EVGA GTX780 hab ich wohl richtig Glück gehabt, das Teil lässt sich verdammt gut Übertakten (ohne Voltage erhöhung).

Bin jetzt schon bei 1250/3402 (Stock = 902/3004) und das Ding bleibt kühler (Max. 46°C) als meine GTX670 xD

Raff
2013-11-05, 16:23:41
1.250 MHz? Glückwunsch, du hast wohl den besten Die des Wafers erwischt. Falls dir langweilig ist, dann rupf mal den Kühler ab, vermutlich hast du schon einen GK110-B1. :naughty:

MfG,
Raff

TheCounter
2013-11-05, 16:26:48
1.250 MHz? Glückwunsch, du hast wohl den besten Die des Wafers erwischt. Falls dir langweilig ist, dann rupf mal den Kühler ab, vermutlich hast du schon einen GK110-B1. :naughty:

Hatte ich schon unten, hab aber ned drauf geschaut (wollte schnell den GPU-X³ draufhaun damit ich testen kann) :ugly:

Allerdings stand bei nvflash vorhin was von GK110-B. Wollte das FTW Bios flashen, ging aber genau deswegen nicht. Hab dann mein Stock Bios verändert und wieder geflasht, genau da stand dann GK110-B. Allerdings ohne ne Nummer.

Mal schauen wie weit das Teil rauf geht.

EDIT:

1250/3500MHz @ 1.162 ist das Maximum. Mehr geht wohl erst mit Voltage Erhöhung. Aber das ist total unnötig bei den Taktraten.

Hübie
2013-11-05, 18:47:28
Womit und wie lange getestet? An Schnellschüsse glaub ich nämlich nicht :tongue:

TheCounter
2013-11-05, 18:54:57
3D Mark 11/13, mehrere Runden Battlefield 4 und dem EVGA OC Scanner X.

EDIT:

Und noch das erste Level von Crysis 3, ganz anderes Spielgefühl jetzt :biggrin:

Sunrise
2013-11-05, 19:08:56
3D Mark 11/13, mehrere Runden Battlefield 4 und dem EVGA OC Scanner X.
Kannst du mal GPU-Z testen, erkennt der B1?

Ist das die ACX-Version mit EVGA-eigenem Kühler oder die normale EVGA 780 GTX Referenz? Ich gehe mal davon aus, die Referenz, weil du ja ne Wakü drauf gemacht hast, oder? Interessiert mich aber, weil die ACX aktuell praktisch genau so teuer ist. Darf man noch fragen, wo du die bestellt hast?

Scheint mir eine wahnsinnig gute Kombi mit dem Accelero zu sein, wenn man da nen B1 erwischt. Hab damals für meine GTX580 (Anarchy) mit dem Accelero auch ca. 420 EUR bezahlt und das ist aktuell für mich ungefähr der Preisrahmen, bei dem ich zuschlagen würde.

Schade, dass du vom Die kein Bild gemacht hast, als du deine Wakü drauf gebaut hast. Sowas wäre mir direkt ins Auge gesprungen.
Und Raff erst. :)

aufkrawall
2013-11-05, 19:11:03
Und noch das erste Level von Crysis 3, ganz anderes Spielgefühl jetzt :biggrin:
Spiel doch mal das Fields-Level in hoher Auflösung wie 4k und ohne MSAA/TXAA/Smaa4x durch.

Godmode
2013-11-05, 19:12:24
Spiel doch mal das Fields-Level in hoher Auflösung wie 4k und ohne MSAA/TXAA/Smaa4x durch.

Jep, der Test hat meine 1250 MHz Titan auch schnell auf den Boden der Realität geholt.

TheCounter
2013-11-05, 19:13:40
Kannst du mal GPU-Z testen, erkennt der B1?

Nope, steht A1 da. Und laut GPU-Z beherrscht meine 780 kein PhysX :ugly:

Ist das die ACX-Version mit EVGA-eigenem Kühler oder die normale EVGA 780 GTX Referenz? Ich gehe mal davon aus, die Referenz, weil du ja ne Wakü drauf gemacht hast, oder? Interessiert mich aber, weil die ACX aktuell praktisch genau so teuer ist. Darf man noch fragen, wo du die bestellt hast?


Ist die normale, mit dem Referenz Kühler der durch einen Watercool Heatkiller GPU-X³ ersetzt wurde ;)

Allerdings soll die ACX laut Watercool auch im Referenz-Design sein, lediglich der Kühler ist ein anderer.

Hab sie bei hardwareversand.de für 420EUR ergattert ;)

Spiel doch mal das Fields-Level in hoher Auflösung wie 4k und ohne MSAA/TXAA/Smaa4x durch.

Werd ich die Tage mal machen :)

aufkrawall
2013-11-05, 19:14:23
Jep, der Test hat meine 1250 MHz Titan auch schnell auf den Boden der Realität geholt.
Mein SLI auch, das hat mit Mod-Bios und Custom-Lüfterkurve da immer angefangen zu spinnen.
War kurios. Ach, und mein altes Netzteil hats auch zerlegt. ^^

boxleitnerb
2013-11-05, 19:15:14
Mich würde ja echt mal interessieren, ob das B1-Stepping nun effizienter ist als A1 oder nicht. Dazu müsste man aber wohl schon eine beträchtliche Anzahl von Karten untersuchen und auch noch bei gleichem Takt.

Mcdave
2013-11-05, 20:39:05
Ich habe ebenfalls von meiner Geforce GTX 670 Phantom @ 1300MHZ auf eine GTX 780 gewechselt. Es ist die Palit Super Jetstream geworden. Sie boostet ohne mein Zutun schon auf 1134MHZ.

Ich teste sie noch aus; wie immer bin ich darauf bedacht, mit möglichst wenig Volt möglichst viele MHZ herauszukitzeln. Aktuell bin ich bei 1204MHZ bei tiefen 1.11 Volt. Das reicht, um die GTX 670 Phantom @ 1300MHZ um gut 50% abzuhängen --> mehr, als ich erwartet hätte.

Folgende Tests hat die Karte mit den oben genannten Einstellungen bereits erfolgreich absolviert:

1h Unigine Valley @ Ultra HD Extreme Setting
1h Unigine Heaven V4 @ max. Settings in 1080p
Etliche Durchläufe mit verschiedenen 3DMarks
Ca. 3h Risen 2 (im Sommer gekauft und jetzt endlich Zeit dafür gefunden).

Schaut bislang sehr vielversprechend aus.

Zur Karte habe ich noch 3 Games, genauer gesagt 3 Gutscheine, erhalten: Batman: Arkham Origins, Splinter Cell 7 und Assassin's Creed 4.

nicht erlaubtes Angebot

Angiesan
2013-11-06, 15:58:39
Na ich habe gerade eine B1 hier und die macht mit Standard Vid 1,15Volt 1202 MHZ bei 1,20 Volt lande ich bei 1306 Mhz das Ding geht wird aber trotz ACX Kühler sehr heiß bei den oben genannten Werten.

Ach und jetzt kann man mit dem neuen GPU-Z 0.7.4 auch endlich wie bei AMD die VRM Temperatur auslesen und noch ein paar andere Sachen sehr schön.

Ist noch nicht final auf OC getestet, bis jetzt alles fehlerfrei aber auch noch nicht wirklich lange gespielt.

Ätznatron
2013-11-06, 16:09:00
Na ich habe gerade eine B1 hier und die macht mit Standard Vid 1,15Volt 1202 MHZ bei 1,20 Volt lande ich bei 1306 Mhz das Ding geht wird aber trotz ACX Kühler sehr heiß bei den oben genannten Werten.

Ach und jetzt kann man mit dem neuen GPU-Z 0.7.4 auch endlich wie bei AMD die VRM Temperatur auslesen und noch ein paar andere Sachen sehr schön.

Ist noch nicht final auf OC getestet, bis jetzt alles fehlerfrei aber auch noch nicht wirklich lange gespielt.

Hm,

wo finde ich denn die VRM-Temps? Unter "Sensors"?

Bei mir sieht da die Sache so aus wie im Anhang, also wie immer. ;)

Angiesan
2013-11-06, 16:29:18
Runter scrollen ;-) ist der letzte Eintrag zumindest bei meiner Karte.

LSSJBroly
2013-11-06, 16:31:58
Runter scrollen ;-) ist der letzte Eintrag zumindest bei meiner Karte.


Welche Karte hast du denn? Bei einer referenzkarte sieht es weiterhin so aus:
http://www.abload.de/img/sdfdfdsfdsf0duu0.jpg

Angiesan
2013-11-06, 16:51:36
Bei mir sieht es so aus aber von Zeit zu Zeit passiert es wie jetzt das die VCore angehoben wird wenn ich das Tool starte, das sieht man dann auch an der Temperatur :-( da hilft dann nur ein Neustart!

http://abload.de/thumb/gtxvrm1ysfp.png (http://abload.de/image.php?img=gtxvrm1ysfp.png)

Ätznatron
2013-11-06, 16:58:58
Bei mir sieht es so aus aber von Zeit zu Zeit passiert es wie jetzt das die VCore angehoben wird wenn ich das Tool starte, das sieht man dann auch an der Temperatur :-( da hilft dann nur ein Neustart!

http://abload.de/thumb/gtxvrm1ysfp.png (http://abload.de/image.php?img=gtxvrm1ysfp.png)


Du hast eine B1 Revision?

Eventuell deswegen?

Bei A1 jedenfalls nicht.

Angiesan
2013-11-06, 17:13:50
Ja hatte ich ja geschrieben.
Da ich aber keine A1 mehr hier habe konnte ich es jetzt nicht gegentesten, ich dachte das würde jetzt alle Karten unterstützen.

Ätznatron
2013-11-06, 17:16:44
Ja hatte ich ja geschrieben.
Da ich aber keine A1 mehr hier habe konnte ich es jetzt nicht gegentesten, ich dachte das würde jetzt alle Karten unterstützen.

Den älteren Modellen fehlen da möglicherweise die Sensoren.

Hast du denn schon Idle- und Load-Werte auslesen können?

Angiesan
2013-11-06, 17:29:24
Ja mit GPU-Z 0.7.2 das Tool sagt 0,862 Volt im Idel und max 1,15 Volt keine 1,162 oder 1,175 Volt trotzdem boostet die Karte out of the Box konstant mit 1006 MHz und das OC Potential scheint selbst mit den relativ geringen 1,15 Volt recht gut zu sein. Bei 1150 MHZ und 1,15 Volt bleibt die Karte recht leise und nicht wärmer wie 73°C ab 1202 geht es dann schon auf 78° und der Lüfter ist auch lauter, bei 1,20 Volt und 1306 MHz 82-84 und der Lüfter ist sehr laut das taugt zumindest mit der Luftkühlung nur zum Benchen :-)

Grüße

LSSJBroly
2013-11-06, 17:31:06
Zum vergleich: Meine Karte braucht satte 1,3V um nicht mal stabile 1.306MHz zu erreichen :freak:

Angiesan
2013-11-06, 17:45:08
Ich kann dir noch nicht sagen ob das stabil ist, Karte ist gestern erst hier gelandet :-)

LSSJBroly
2013-11-06, 17:49:34
Stabil hin, oder her - 1,3V stehen trotzdem 1,2V gegenüber :freak: ->Aber: Selbst mit 90% Fanspeed (Lautstärke der 290X im Übermodus), 1.306MHz @1,3V bleibt meine Karte (Referenzdesign mit Referenzkühler) unter der 80°C Marke - bei einer Leistungsaufnahme von satten 370 Watt. Wer hat jetzt hier nochmal den besseren Referenzkühler?;)

Angiesan
2013-11-06, 17:54:31
Der ACX dreht bei 1,20 Volt bis 68 % und ja das ist laut!

LSSJBroly
2013-11-06, 17:55:55
Bei den 78°C? Von der Lautstärke soll der ACX sowieso nicht das gelbe vom Ei sein (stock so laut wie die Referenzkarte) - wenn man den Platz hat, ist der Herculez-Kühler (ergo die Inno Herculez 780) mit am besten.

Angiesan
2013-11-06, 17:57:19
ne bei 82-84°C mit PT und TT @max Das ist jetzt kein Witz, ich hatte die Tür zu und meine Frau kam ins Büro und sagte ich habe das Geräusch gehört und dacht du bist am Staubsaugen :freak::biggrin:

LSSJBroly
2013-11-06, 18:00:03
Mmm... Wenn ich meine Karte mit 1,2V laufe @1,163/1.176MHz wird die ebenfalls rund 84°C warm - bei rund 60 bis 62% Fanspeed. Ist zwar alles andere als Leise, aber eben auch der Worst Case. Meine Karte läuft halt wie ne Stock-Karte, nur mit 18% mehr Takt und 20% mehr Speicherbandbreite und wird nicht lauter als die Referenzkarte.

Dass deine Karte vllt lauter wird, liegt wohl an der höheren ASIC - je höher, desto wärmer und schwieriger zu kühlen.

Angiesan
2013-11-06, 18:06:29
Die Karte reagiert relativ empfindlich mit Takterhöhungen, dass schlägt viel heftiger durch wie bei den anderen GTX 780 die ich hatte da war das wenn ich die Spannung nicht angerührt habe fast identisch vielleicht 100 RPM mehr, hier ist das aber nur bis ca. 1150 MHz so danach heizt das Ding wie die Hölle keine Ahnung woran das liegt.

LSSJBroly
2013-11-06, 18:09:19
Wie gesagt, welche ASIC? Im hardwareluxx hatte mal einer ne Karte mit ner ASIC um die 95% - das Ding war stock schon sogut wie nicht zu kühlen :D

Angiesan
2013-11-06, 18:13:30
Ne ist nix Besonderes:

Ich schicke dir eine PN mit einem DL Link aber das wird nicht funktionieren denke ich

http://abload.de/thumb/asic8kuo2.png (http://abload.de/image.php?img=asic8kuo2.png)

LSSJBroly
2013-11-06, 18:14:55
Mmm... das ist wirklich merkwürdig...
Meine Karte wird mit 1,2V gegenüber 1,162V kaum wärmer.


Kannst du mir dein BIOS mal geben?

Angiesan
2013-11-06, 18:22:56
hast Post!

dildo4u
2013-11-07, 15:38:05
Inno3D iChill GeForce GTX 780 Herculez X3 Ultra DHS Edition

http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-ti-gegen-gtx-titan-im-test/4/

geezer
2013-11-09, 17:47:56
So, habe nun meine neue Gainward GTX 780 Phantom in Betrieb genommen und ein wenig durch Unigine Valley geschickt. Wollte nur mal fragen, ob die Werte alle so in Ordnung sind und warum die Karte auf bis zu 1032 MHz boostet, obwohl im BIOS nur 954 MHz hinterlegt sind?!

http://abload.de/thumb/valley_benchmark91ijh.png (http://abload.de/image.php?img=valley_benchmark91ijh.png) http://abload.de/thumb/valley_loopdsdhx.png (http://abload.de/image.php?img=valley_loopdsdhx.png)

Hübie
2013-11-09, 18:23:13
Für diese Auflösung und den Takt passt das.
Hast du vielleicht eine GHL (goes like hell)?? Die hat 1033 Boost.
Kannst ja mal kepler bios tweaker nehmen und bios lesen.

Max944
2013-11-10, 02:47:18
Ich habe eine Frage zu dem Boost 2.0

Vor der Boost Ära lotete man das Übertaktungspotenzial anhand von auftretenden Bildfehlern oder Abstürzen aus. Ist es bei Boost 2.0 so das die Karten selbst mit max. Temperatur & Power Target noch 100% fehlerfrei laufen? Könnte man mit einer Wassekühlung den Takt so hoch bekommen das es zu Fehlern kommt?

Hübie
2013-11-10, 02:58:40
Na heutzutage ist es eher so dass sich der Treiber zurücksetzt und die GPU danach wieder normal verwendet werden kann. Also wenn du im Limit bist merkst du das.
Gestern musste ich feststellen das meine beiden nicht konstant 1280 MHz schaffen. Da kam nach einer Stunde Crysis 3 die Fehlermeldung "D3D9 ERROR - Device removed" :freak: Takt gesenkt, Spiel gestartet und weiter gemacht ;D

Knuddelbearli
2013-11-10, 05:29:44
und wenn man es beim Speicher übertreibt sinkt halt die Leistung da sich die Fehlerkorrektur einschaltet, Bildfehler gibt es eher selten.

OC wurde schon verdammt kompliziert ...

Nightspider
2013-11-10, 09:11:56
und wenn man es beim Speicher übertreibt sinkt halt die Leistung da sich die Fehlerkorrektur einschaltet, Bildfehler gibt es eher selten.

OC wurde schon verdammt kompliziert ...

Ist das tatsächlich so?
Bei AMD und Nvidia? Ab wann schaltet sich diese Fehlerkorrektur ein? Sobald viele Artefakte auftreten, sobald die ersten, kaum erkennbaren Artefakte auftreten oder schon davor, wenn man noch gar keine Artefakte sieht?

Wie finde ich am besten raus, ab wann die Fehlerkorrektur bei meinen GTX670 auftritt?
Kurze, reine Grafiktests durchlaufen lassen und so oft Benchmarken, bis man sieht das die FPS wieder fallen?

Knuddelbearli
2013-11-10, 09:25:38
wenn trotz Fehlerkorrektur Fehler / Artefakte zu sehen sind macht die Fehlerkorrektur ihren Job falsch ^^

und ja AMD und NV wie lange weiß ich aber nicht. Um den Ram zu übertakten gibt es deshalb eigene Bandbreitentests, wobei ich sicherheitshalber auch paar spiele dazutesten würde.

Crysis 1 ist ja recht ram empfindlich und kann man ohne großen Zeitaufwand einfach 10 mal loopen lassen und sichd ann das ergebniss anzeigen lassen

Ätznatron
2013-11-10, 10:14:42
wenn trotz Fehlerkorrektur Fehler / Artefakte zu sehen sind macht die Fehlerkorrektur ihren Job falsch ^^

und ja AMD und NV wie lange weiß ich aber nicht. Um den Ram zu übertakten gibt es deshalb eigene Bandbreitentests, wobei ich sicherheitshalber auch paar spiele dazutesten würde.

Crysis 1 ist ja recht ram empfindlich und kann man ohne großen Zeitaufwand einfach 10 mal loopen lassen und sichd ann das ergebniss anzeigen lassen

Gut, das ist eine Möglichkeit, wenn du auf offensichtliche Pixel- bzw. Bildfehler achten möchtest.

Einzelne Fehlpixel aktivieren ebenfalls die Fehlerkorrektur, sind aber mit bloßem Auge nur schwer bis gar nicht zu erkennen.

Kleinste Fehler kannst du also mehr oder weniger nur erkennen lassen, bspw. durch spezielle Tools wie den EVGA OC Scanner und dessen Artefaktscanner (In den "Settings" die max. Artifacts unbedingt auf 1 setzen, wenn du es sehr streng handhaben möchtest) .

Knuddelbearli
2013-11-10, 10:35:31
Nein so wie ich das verstehe nützt das eben nichts!
Fehlerkorrektur verhindert ja Artefakte auf kosten der Speicherbandbreite / Leistung. Da nützt dir dann kein Scanner sondern nur Benches oder eben Bandbreitentools wo du dann siehst ab wann die Bandbreite mit höherem Takt abfällt

Nightspider
2013-11-10, 10:37:16
Also könnte man geringe Fehlerkorrektur bei winzigen Artefakten in kauf nehmen, solange die Leistung noch mit steigender Taktrate steigt?

Ätznatron
2013-11-10, 10:42:36
Nein so wie ich das verstehe nützt das eben nichts!
Fehlerkorrektur verhindert ja Artefakte auf kosten der Speicherbandbreite / Leistung. Da nützt dir dann kein Scanner sondern nur Benches oder eben Bandbreitentools wo du dann siehst ab wann die Bandbreite mit höherem Takt abfällt

Na ja, Fehlpixel treten durch zu hohes OC auf.

Das schraubst du entsprechend runter, bis halt keine Fehlpixel mehr auftauchen.

Dadurch sinkt natürlich die Leistung, das Ergebnis ist dafür aber zu 100% stabil.

PS: erhöhe ich bei meiner Karte übrigens den Speichertakt um nur eine Stufe über den vom Artefaktscanner nach 1 Stunde Laufzeit immer noch als fehlerfrei bewerteten Wert, tauchen beim Firestrike schon erste deutlicher wahrnehmbare Störungen auf. Andere Benchmarks sind da deutlich toleranter, u.a. Crysis 1.

Knuddelbearli
2013-11-10, 10:58:10
Also könnte man geringe Fehlerkorrektur bei winzigen Artefakten in kauf nehmen, solange die Leistung noch mit steigender Taktrate steigt?


zB muss man eben gucken ab welchem Punkt die Leistung sinkt. Finde nur das Tool zur Bandbreitenmessung nimmer ...

@ Ätznatron nein

es geht nicht darum das die Leistung durch geringeren Takt sinkt sondern eben durch höheren Takt! da sich eben die Fehlerkorrektur dazwischen schiebt was Leistung und Bandbreite kostet.

Da die Fehlerkorrektur eben Fehler verhindert nützt dir da dein Scanner nichts. Da der erst aus schlägt sobald die Fehlerkorrektur überfordert ist ( oder was übersehen hat ), da ist die Leistung aber schon lange gesunken statt mit dem höheren Takt zu steigen

Ätznatron
2013-11-10, 11:02:01
zB muss man eben gucken ab welchem Punkt die Leistung sinkt. Finde nur das Tool zur Bandbreitenmessung nimmer ...

@ Ätznatron nein

es geht nicht darum das die Leistung durch geringeren Takt sinkt sondern eben durch höheren Takt! da sich eben die Fehlerkorrektur dazwischen schiebt was Leistung und Bandbreite kostet.

Da die Fehlerkorrektur eben Fehler verhindert nützt dir da dein Scanner nichts. Da der erst aus schlägt sobald die Fehlerkorrektur überfordert ist ( oder was übersehen hat ), da ist die Leistung aber schon lange gesunken statt mit dem höheren Takt zu gestiegen

Was tritt denn zuerst ein? Die Bildstörung oder die Fehlerkorrektur?

StefanV
2013-11-10, 11:26:17
Fehlerkorrektur. Bildstörung gibts erst, wenn nix mehr zu retten ist.

Rancor
2013-11-10, 11:31:55
Für diese Auflösung und den Takt passt das.
Hast du vielleicht eine GHL (goes like hell)?? Die hat 1033 Boost.
Kannst ja mal kepler bios tweaker nehmen und bios lesen.

Meine GLH boostet bis 1123 xD

Ätznatron
2013-11-10, 11:38:29
Fehlerkorrektur. Bildstörung gibts erst, wenn nix mehr zu retten ist.

Und daher steigen bspw. beim Crysis 1 Bench die FPS noch an, wenn das Bild von schwarzen oder wie-auch-immer Dreiecken und sonstigen Fehlern nur so wimmelt.

Bis dahin limitiert die Fehlerkorrektur die Bandbreite also nicht.

Eggcake
2013-11-10, 12:20:39
Meine Erfahrungen decken sich damit aber auch. Beim Übertakten kann es sein, dass die Performance schlechter wird, ohne dass Bildfehler angezeigt werden. Man muss so auf beides achten.

Ätznatron
2013-11-10, 12:47:18
Meine Erfahrungen decken sich damit aber auch. Beim Übertakten kann es sein, dass die Performance schlechter wird, ohne dass Bildfehler angezeigt werden. Man muss so auf beides achten.

Sicher, man kann nur seine eigenen Erfahrungen schildern.

Und meine bisherigen waren halt so, dass das Erhöhen des Speichertakts immer mit einer FPS-Verbesserung einherging, trotz schlimmster Bildfehler.

Die finale "Fehlerkorrektur" war bei mir meist das manuelle Drücken des Reset-Knopfes, wenn durch zu übermäßiges OC gar nichts mehr ging.

Wie auch immer, das eine schließt das andere nicht aus. Und man kann es nicht generalisieren.

Hübie
2013-11-10, 14:40:04
Meine GLH boostet bis 1123 xD

Ja, die geben vielleicht den min-Boost an. Hast wohl ne gute Karte erwischt.

Aber klare Regeln gibt`s da nicht. Meine soll bis 1189 boosten, tut sie aber nicht. 1176 oder oft nur 1084 MHz. Ich müsste erst diese alberne "gaming app" von denen installieren damit deren boost immer geht. :rolleyes: Ich rede hier jedoch von zwei 770er...

Skysnake
2013-11-10, 15:33:41
Ist das tatsächlich so?
Bei AMD und Nvidia? Ab wann schaltet sich diese Fehlerkorrektur ein?
Sobald viele Artefakte auftreten, sobald die ersten, kaum erkennbaren Artefakte auftreten oder schon davor, wenn man noch gar keine Artefakte sieht?

Die ist IMMER! an. Das kann man gar nicht abschalten.


Wie finde ich am besten raus, ab wann die Fehlerkorrektur bei meinen GTX670 auftritt?
Kurze, reine Grafiktests durchlaufen lassen und so oft Benchmarken, bis man sieht das die FPS wieder fallen?
Du kannst Benchmarks laufen lassen und schauen, ob die FPS steigen oder fallen. Damit kannst du aber eben nur schauen, ob die Fehlerrate mehr steigt, als die Bandbreite durch die Takterhöhung. Auch hast du gar keine Information darüber, wie hoch die Fehlerrate absolut ist.

Was du machen kannst ist ein Bandbreitentest durch zu führen, und mit der theoretischen Bandbreite vergleichen.

Das ist aber auch nur ein Hinweis. Absolute Zahlen kannst du meines Wissens nach nich in Erfahrung bringen. Zumindest ist mir nicht bekannt, das es einen Counter für die Errorkorrektion gibt, den man auslesen könnte.

Nein so wie ich das verstehe nützt das eben nichts!
Fehlerkorrektur verhindert ja Artefakte auf kosten der Speicherbandbreite / Leistung. Da nützt dir dann kein Scanner sondern nur Benches oder eben Bandbreitentools wo du dann siehst ab wann die Bandbreite mit höherem Takt abfällt
Richtig, wobei eben die Fehlerkorrektur auch nur bedingt hilft. Die kann meistens nur 1 oder 2 Bitfehler erkennen. Wenns mehr sind, denkt die Fehlererkennung, die gesendeten Daten wären korrekt.

Die Bandbreite muss auch nicht zwigend abfallen, wenn die Fehlerkorrekur anfängt zu arbeiten oder stärker arbeiten muss. Es kommt immer darauf an, wie viel Bandbreite man durch die Takterhöhung bekommt, und wieviel einen die Fehlerkorrektur auf der anderen Seite wieder kostet.

Na ja, Fehlpixel treten durch zu hohes OC auf.

Das schraubst du entsprechend runter, bis halt keine Fehlpixel mehr auftauchen.

Dadurch sinkt natürlich die Leistung, das Ergebnis ist dafür aber zu 100% stabil.

PS: erhöhe ich bei meiner Karte übrigens den Speichertakt um nur eine Stufe über den vom Artefaktscanner nach 1 Stunde Laufzeit immer noch als fehlerfrei bewerteten Wert, tauchen beim Firestrike schon erste deutlicher wahrnehmbare Störungen auf. Andere Benchmarks sind da deutlich toleranter, u.a. Crysis 1.
Das liegt daran, dass das Auftreten von Übertragungsfehlern von SEHR! vielen Faktoren abhängt!

Wenn du eine höhere Last auf dem Chip hast, oder gar SEHR hohe Lastwechsel, dann ist die Warscheinlichkeit für ÜBertragungsfehler stark erhöht, da es zu Schwingungen in der Spannungsversorgung kommen kann, die dann eben dazu führt, dass das Auge der Datenübertragung zu geht.

Was tritt denn zuerst ein? Die Bildstörung oder die Fehlerkorrektur?
Fehlerkorretur tritt schon LANGE vor den Bildfehlern auf, wenn denn die Bildfehler vom Speicher kommen. Das müssen Sie aber nicht zwingend!

Bildfehler durch RAM OC kommen ja dadurch, das man eben so viele Fehler in der Übertragung gleichzeitig hat, dass die Fehlererkennung dies eben nicht mehr erkennt.

Und daher steigen bspw. beim Crysis 1 Bench die FPS noch an, wenn das Bild von schwarzen oder wie-auch-immer Dreiecken und sonstigen Fehlern nur so wimmelt.

Wenn die Fehlerrate so hoch ist, das Bildfehler auftreten, da die Fehler gar nicht mehr erkannt werden, steigt natürlich die Bandbreite.

Kleines Beispiel.

RAM Takt 6GHz: Jedes vierte Paket hat einen Fehler, der erkannt wird. Die Datenübertragung für 10 Pakete sieht also so aus, wobei X Paket mit Fehlern bedeutet.
RAM Takt 7 GHz: Es treten zwar immer noch alle vier Pakete Fehler auf, in der Hälfte der Pakete treten jetzt aber so viele Fehler auf, dass die Fehlererkennung nicht mehr sieht, dass das Paket einen Fehler hat. So ein falsch Fehlerfreies Paket ist mit Y markiert

1-2-3-4X-4-5-6-7X-7-8-9-10X-10
1-2-3-4X-4-5-6-7Y-8-9-10-11X-11

Wie du hier ganz leicht sehen kannst, steigt die effektive Bandbreite trotz mehr Fehlern an ;)


Bis dahin limitiert die Fehlerkorrektur die Bandbreite also nicht.
Doch tut Sie! Jede Fehlerkorrektur, bzw. bei Consumer-GPU ist es nur Fehlererkennung per CRC, kostet Bandbreite, da die Daten dann einfach verworfen und nochmals vom RAM angefordert werden.

geezer
2013-11-10, 15:45:55
Für diese Auflösung und den Takt passt das.
Hast du vielleicht eine GHL (goes like hell)?? Die hat 1033 Boost.
Kannst ja mal kepler bios tweaker nehmen und bios lesen.

http://abload.de/img/biosswi7u.png

Da haben wir die Ursache: Zusätzlich zum Boost-Takt gibt es noch ein Boost-Limit, was mir bisher so nicht bekannt war.

Naja, aber es sollte der Karte ja wohl nicht schaden, noch ein bisschen höher zu gehen? Habe keine Lust, da noch extra etwas zu flashen.

Hugo78
2013-11-11, 18:39:45
Gigabytes fünfte 780, die 780 GHz Ed. mit GK110-B1 ist offenbar seit heute erhältlich.
Ein Effizienzwunder ist die Karte sicherlich nicht, aber das Backplatte Design hätte ich auch gern bei der großen 780 Ti gesehen.
Mal schauen ob die beiden alten 780 WindForce 3X OC Rev 1 und 2 auslaufen und die GHz Ed. dann auch preislich ihren Platz einnimmt.

http://geizhals.at/de/gigabyte-geforce-gtx-780-ghz-edition-windforce-3x-gv-n780ghz-3gd-a1029917.html

http://geizhals.at/p/1029917.jpg

http://geizhals.at/p/9917/1029917/1029917-9.jpg

mustrum
2013-11-11, 23:02:56
Wow solche Kühler bracht die r290! Ich weiß: off topic aber der Kühler würde den Karten gut tun.

dargo
2013-11-11, 23:14:49
Wow solche Kühler bracht die r290! Ich weiß: off topic aber der Kühler würde den Karten gut tun.
Kommt... nur Geduld. ;)

Thomas Gräf
2013-11-11, 23:38:31
Guten Abend, hoffe is noch nich gepostet. EVGA hat bringt den 2x8pol PureSaft Anschluß!

http://www.evga.com/products/images/gallery/03G-P4-2888-KR_XL_6.jpg

Hoffentlich mit passendem Graka Bios. ;)

Oiiihh hätte im 780ti Fred landen sollen...aber ach z.Z. gehts ja eh quer Beet was Grakas angeht. :)

AffenJack
2013-11-17, 21:18:28
Laufen die 780er eigentlich aus oder wieso werden die immer teurer und weniger verfügbar? Hatte eigentlich gehofft, dass sie nach 420€ bald Richtung 400€ gehen und ich dann vll zuschlage. Aber so wird das nix.

Angiesan
2013-11-18, 00:47:01
Hmmm verfügbar sind die doch sehr gut und die hat doch erste ein neues Stepping bekommen B1. Ich denke mal solange AMD (mit den Lüftern) schwächelt bleibt der Preis.

Schaffe89
2013-11-18, 01:50:43
Naja, die 290x schwächelt nicht wirklich. Ich finde die Lüfter eigentlich gut, ich weiß nicht was alle haben. O.O

Raff
2013-11-18, 08:55:33
Wenn das Hawaii-Referenzdesign gut ist, dann war die GeForce GTX 480 sehr gut. Wir wissen, wie diese (deutlich leisere) Karte damals bewertet und heute in der Retrospektive bewertet wird. ;)

MfG,
Raff

Mr. Lolman
2013-11-18, 09:00:44
Wenn das Hawaii-Referenzdesign gut ist, dann war die GeForce GTX 480 sehr gut. Wir wissen, wie diese (deutlich leisere) Karte damals bewertet und heute in der Retrospektive bewertet wird. ;)

MfG,
Raff

Da messen anscheinend auch alle was anderes:
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/9/
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/24/

MartinRiggs
2013-11-18, 09:19:11
Laufen die 780er eigentlich aus oder wieso werden die immer teurer und weniger verfügbar? Hatte eigentlich gehofft, dass sie nach 420€ bald Richtung 400€ gehen und ich dann vll zuschlage. Aber so wird das nix.

Weil Leute wie ich so dumm sind und denken die GTX780 Custom Designs taugen was, nur um dann festzustellen das die auch laut wie kacke sind und teilweise surren wie verrückt.

Ich hol mir doch ne R9 290 und schnall nen Accelero drauf.

uweskw
2013-11-18, 09:23:08
Weil Leute wie ich so dumm sind und denken die GTX780 Custom Designs taugen was, nur um dann festzustellen das die auch laut wie kacke sind und teilweise surren wie verrückt.

Ich hol mir doch ne R9 290 und schnall nen Accelero drauf.

Hat nichts mit Dummheit zu tun, nur leider den falschen Hardware-Reviews vertraut.
Bei einigen ist es so: Bei NV ist es ein Feature, bei AMD eine Katastrophe....

Janni555
2013-11-18, 09:38:17
jetzt wo schon einige Hersteller B1 anbieten, ist da ein Unterschied zu A1??? wenn ja, welcher?

und wenn jemand eine Glaskugel hat, fällt diese Woche noch der Preis? ;-)

Rente
2013-11-18, 09:48:52
Er fällt nicht, warum sollte er auch?
B1 erreicht bessere OC-Ergebnisse bzw. braucht weniger Strom dafür.

AffenJack
2013-11-18, 10:59:34
Weil Leute wie ich so dumm sind und denken die GTX780 Custom Designs taugen was, nur um dann festzustellen das die auch laut wie kacke sind und teilweise surren wie verrückt.

Ich hol mir doch ne R9 290 und schnall nen Accelero drauf.

Welche Custom Designs hattest du denn? Hatte mit der Gigabyte geliebäugelt.

Hmmm verfügbar sind die doch sehr gut und die hat doch erste ein neues Stepping bekommen B1. Ich denke mal solange AMD (mit den Lüftern) schwächelt bleibt der Preis.

Die interessanten Customs sind bei den Händlern die Bundlepartner sind nur mäßig verfügbar oder für nen hohen Preis.

Angiesan
2013-11-18, 11:09:58
Naja, die 290x schwächelt nicht wirklich. Ich finde die Lüfter eigentlich gut, ich weiß nicht was alle haben. O.O

Vielleicht gibt es da auch bei den Lüftern deutliche Unterschiede!?
Ich habe eine Asus R 9 290X gehört und wer sagt das geht i.O. hat zumindest bei dem Modell was ich hören durfte einen Gehörschaden von dem er nichts weiß oder ist sehr sehr unempfindlich gegen ein knurrendes Lüftergeräusch auch im "silent" Modus.
Ich hätte gerne die AMD gekauft und habe mich nach diesem Hörerlebnis dann doch wieder für eine GTX 780 entschieden da diese viel leiser ist.

Zumindest die Karten im Referenz Design und auch die jetzt verbaute EVGA ACX mit Dual-Bios.
Betreibt man die Karte mit dem 2. Bios, welches die Lüfter beim Nichtstun auf 1100 RPM drosselt ist die Karte nicht hörbar und so man nicht heftig übertaktet werden nicht mehr wie 2000 RPM unter Last abgeliefert, das ist nicht geräuschlos aber leise! Mein Model stellt 1006 MHz bei 3D Anwendungen ein und da bleibt das auch auf Bedarf kann man locker bis 1202 Übertakten und selbst das schafft der Lüfter noch ohne das die Karte in das TT rennt oder zu einem Haarstylisten- Handwerkszeug mutiert:biggrin:

Mein Fazit: Eine eh schon nicht langsame GTX 780 (1006 MHZ) gepaart mit der sehr guten Übertaktbarkeit des B1 Steppings( 1202 sind ohne Spannungserhöhung eher die Regel denn die Ausnahme) und 3 Topspiele die auch mitgeliefert werden, schaden ebenso nicht;) das Ganze ohne Garantieverlust, Bastelaufwand und Mehrkosten die ein Ersatzkühler verursacht.
Was bitte spricht aktuell für eine R 290x, bei der 290er ohne X könnte man noch den Preis anführen.
Das haben wohl auch andere User und damit auch die Händler bemerkt denn die Preise ziehen wieder an.

Grüße

MartinRiggs
2013-11-18, 11:29:57
Welche Custom Designs hattest du denn? Hatte mit der Gigabyte geliebäugelt.

Die interessanten Customs sind bei den Händlern die Bundlepartner sind nur mäßig verfügbar oder für nen hohen Preis.

Hatte die so hoch gelobte Palit Super Jetstream.
Im idle mit ca. 1100 rpm schon viel zu laut und unter last geht die auf 1400-1600rpm, das Geräusch ist ein sehr starkes und nerviges surren. Ich kann die vielen guten Wertungen für diese Karte nicht nachvollziehen. Ich hätte sie zwar mit 120er Lüfter modden können aber dann kann ich gleich was anderes kaufen, daher geht die zurück.

Auch das viel gelobte Downsampling habe ich nicht mehr hinbekommen, 2520x1576 ging, 3360x2100 habe ich auch nach ewiger tüftelei nicht hinbekommen trotz vieler Tipps im Forum.

Ich weiß nicht wie die GTX780 von Gigabyte ist, ich hatte aber die HD7970 Windforce 3x und auch die war grausam vom Lüftergeräusch.

TobiWahnKenobi
2013-11-18, 11:37:59
Vielleicht gibt es da auch bei den Lüftern deutliche Unterschiede!?
Ich habe eine Asus R 9 290X gehört und wer sagt das geht i.O. hat zumindest bei dem Modell was ich hören durfte einen Gehörschaden von dem er nichts weiß oder ist sehr sehr unempfindlich gegen ein knurrendes Lüftergeräusch auch im "silent" Modus.
Ich hätte gerne die AMD gekauft und habe mich nach diesem Hörerlebnis dann doch wieder für eine GTX 780 entschieden da diese viel leiser ist.

Zumindest die Karten im Referenz Design und auch die jetzt verbaute EVGA ACX mit Dual-Bios.
Betreibt man die Karte mit dem 2. Bios, welches die Lüfter beim Nichtstun auf 1100 RPM drosselt ist die Karte nicht hörbar und so man nicht heftig übertaktet werden nicht mehr wie 2000 RPM unter Last abgeliefert, das ist nicht geräuschlos aber leise! Mein Model stellt 1006 MHz bei 3D Anwendungen ein und da bleibt das auch auf Bedarf kann man locker bis 1202 Übertakten und selbst das schafft der Lüfter noch ohne das die Karte in das TT rennt oder zu einem Haarstylisten- Handwerkszeug mutiert:biggrin:

Mein Fazit: Eine eh schon nicht langsame GTX 780 (1006 MHZ) gepaart mit der sehr guten Übertaktbarkeit des B1 Steppings( 1202 sind ohne Spannungserhöhung eher die Regel denn die Ausnahme) und 3 Topspiele die auch mitgeliefert werden, schaden ebenso nicht;) das Ganze ohne Garantieverlust, Bastelaufwand und Mehrkosten die ein Ersatzkühler verursacht.
Was bitte spricht aktuell für eine R 290x, bei der 290er ohne X könnte man noch den Preis anführen.
Das haben wohl auch andere User und damit auch die Händler bemerkt denn die Preise ziehen wieder an.

Grüße

den ersten tag mit der 290 dachte ich, dass das geheule über das lüftergeräusch übertrieben ist. weder bei ner testrunde skyrim, noch beim battlefield4 spielen ging mir die default-karte auf die eier.

erst beim näheren testen am zweiten und dritten tag emfand ich die optionalen möglichkeiten des lüfters abartig laut.

nach zwei umbauten - erst auf wasser, dann auf AC3E empfinde ich meine nVidia GTX-Titan als überzogen, überteuert eingekauft.


http://www.abload.de/img/11-2013-kartenb6suor.jpg
http://www.abload.de/img/r290gpuonlywakgguzn.jpg
http://www.abload.de/img/ac3etcck6.jpg


was titan und co angeht, so sehe ich heute nur noch einfachstes downsampling und 3DVision auf der habenseite. letzteres verhindert hier den abverkauf der 900€ karte, denn der bildschirm samt brillen wird nach titans abreise auch überflüssig.

ich bin sicher der letzte, der nvidia etwas bösartiges unterstellen möchte, aber vllt. ist die 780Ti für knapp 700€ einfach noch ein versuch, leute abzukassieren bevor AMD mit custom-karten + mantle an den start geht..


(..)

mfg
tobi

Mr. Lolman
2013-11-18, 11:43:50
ich bin sicher der letzte, der nvidia etwa bösartiges unstellen möchte, aber vllt. ist die 780Ti für knapp 700€ einfach noch ein versuch, leute abzukassieren bevor AMD mit custom-karten + mantle an den start geht..


(..)

mfg
tobi


Solang seitens der Fachpresse ein 250€ Aufschlag für eine leisere GraKa als gerechtfertigt betrachtet wird, wird der gemeine User auch kein Problem damit haben...

Iruwen
2013-11-18, 11:54:39
Der reale Preisunterschied liegt bei 110€.

Angiesan
2013-11-18, 12:00:36
Ich habe ja nicht geschrieben das die R9 per se eine schlechte Karte ist ganz im Gegenteil! Aber nicht jeder ist gewillt das selbst in die Hand zu nehmen wie du das ja gemacht hast. Und ja wäre die Karte mit einer vernünftigen Kühllösung gekommen und selbst wenn es nur für den Silentmodus gereicht hätte ich hätte eine hier im Rechner.
Ich habe meine HD 7950 mit dem AC Kühler nicht für einen vernünftigen Preis an den Mann bekommen / Gott sei Dank) das ist der Preis für die Ruhe obwohl die Karte super ist niedrige Spannung sehr hohes OC Potential super leise...., gut frisst kein Brot wie man so schön sagt:-)

Das die Titan im Preis überzogen ist da gebe ich dir auch gerne Recht aus diesem Grund konnte ich dem Angebot auch widerstehen :-) selbst die GTX 780 Ti ist einfach auch zu teuer weshalb meine seit Samstag in einem anderen Rechner eines Freundes Platz genommen hat. (sorry Hubie aber er wollte sie dann doch)

Die GTX 780 reicht mir zuerst mal für das was ich brauche.

Ich bin aber auf deine Erfahrungsberichte gespannt schnell ist die Karte ja auf alle Fälle und die Treiber sind seit geraumer Zeit ebenso auf Augenhöhe mit NV.

Eggcake
2013-11-18, 12:18:39
Hatte die so hoch gelobte Palit Super Jetstream.
Im idle mit ca. 1100 rpm schon viel zu laut und unter last geht die auf 1400-1600rpm, das Geräusch ist ein sehr starkes und nerviges surren. Ich kann die vielen guten Wertungen für diese Karte nicht nachvollziehen. Ich hätte sie zwar mit 120er Lüfter modden können aber dann kann ich gleich was anderes kaufen, daher geht die zurück.

Auch das viel gelobte Downsampling habe ich nicht mehr hinbekommen, 2520x1576 ging, 3360x2100 habe ich auch nach ewiger tüftelei nicht hinbekommen trotz vieler Tipps im Forum.

Ich weiß nicht wie die GTX780 von Gigabyte ist, ich hatte aber die HD7970 Windforce 3x und auch die war grausam vom Lüftergeräusch.

Naja, ich mache gerade ähnliche Erfahrungen mit der überall sehr gut bewerteten ASUS 770 DC2OC - dürfte ja derselbe Kühler wie auf der 780er sein. Im Idle ist sie zwar leise, trotz ~1000rpm (die 600rpm des Noctua D14 sind lauter). Aber sobald sie unter Last aufdreht ist das Geräusch kaum zu ertragen. Das ist ein absolut nervtötendes, hochfrequentes Surren welches mit jeder Prozentstufe völlig unterschiedliche Töne produziert. Es ist zum Glück mit Kopfhörer nicht zu hören, aber ich kann hier nicht verstehen wieso die Karte solch gute Wertungen erhält. In Sone oder dB ist es vielleicht leise, aber subjektiv ist es (ohne Kopfhörer) kaum ertragbar.

Janni555
2013-11-18, 12:28:05
ich meine Raff hatte mal folgende Rangliste gepostet, wo es um Lautstärke ging:
Inno 3D Geforce GTX 780 iChill X3 Ultra
– Evga Geforce GTX 780 Superclocked ACX
– MSI Geforce GTX 780 Twin Frozr Gaming
– Asus Geforce GTX 780 Direct CU II OC
– Zotac Geforce GTX 770 AMP-Edition
– Inno 3D Geforce GTX 770 iChill X3 Ultra
– Asus Matrix HD 7970 Platinum
– MSI Geforce GTX 770 Lightning
– MSI Geforce GTX 770 Twin Frozr Gaming
– Gigabyte Geforce GTX 770 Windforce 3x
– Asus Geforce GTX 770 Direct CU II OC
– Palit Geforce GTX 770 Jetstream
– Gainward Geforce GTX 770 Phantom
– Evga Geforce GTX 770 Superclocked ACX
– MSI R7970 Lightning Boost Edition
– VTX3D Radeon HD 7970 X-Edition
– Sapphire Radeon HD 7970 GHz Edition Vapor-X
– XFX Radeon HD 7970 GHz Edition Double Dissipation
– Club 3D Radeon HD 7970 Royal Ace
– Asus Geforce GTX 670 Direct CU Mini

Da gibt es dann schon Unterschiede zwischend er 770 und 780..
und die Jetstream war auch nicht prickelnd...

Eggcake
2013-11-18, 12:34:46
Nun, zumindest die DC2OC ist in div. Tests am leisesten, auch die 770er (oder zumindest eine der leisesten). Ich meine, ich komme von einer Ref. 5850, welche deutlich lauter war - dafür war's aber auch einfach ein "Rauschen". Die DC2OC ist zwar leiser aber die Töne sind übel. Aufnahmen wären imho jeweils nicht schlecht.

Aber gut, die 780er scheint wohl doch deutlich besser zu sein.

Angiesan
2013-11-18, 13:44:10
Naja, ich mache gerade ähnliche Erfahrungen mit der überall sehr gut bewerteten ASUS 770 DC2OC - dürfte ja derselbe Kühler wie auf der 780er sein. Im Idle ist sie zwar leise, trotz ~1000rpm (die 600rpm des Noctua D14 sind lauter). Aber sobald sie unter Last aufdreht ist das Geräusch kaum zu ertragen. Das ist ein absolut nervtötendes, hochfrequentes Surren welches mit jeder Prozentstufe völlig unterschiedliche Töne produziert. Es ist zum Glück mit Kopfhörer nicht zu hören, aber ich kann hier nicht verstehen wieso die Karte solch gute Wertungen erhält. In Sone oder dB ist es vielleicht leise, aber subjektiv ist es (ohne Kopfhörer) kaum ertragbar.

Zumindest die 780er Asus hat aber erst nach einem Biosupdate erträgliche Last- Lautstärke geliefert. Schau mal vielleicht gibt es für die 770er auch ein update.

Edit: Ich glaube das gab es nicht so auf der Webseite sondern musste man beim Support anfragen, bin mir aber nicht sicher.

Raff
2013-11-18, 14:07:37
ich meine Raff hatte mal folgende Rangliste gepostet, wo es um Lautstärke ging:
Inno 3D Geforce GTX 780 iChill X3 Ultra
– Evga Geforce GTX 780 Superclocked ACX
– MSI Geforce GTX 780 Twin Frozr Gaming
– Asus Geforce GTX 780 Direct CU II OC
– Zotac Geforce GTX 770 AMP-Edition
– Inno 3D Geforce GTX 770 iChill X3 Ultra
– Asus Matrix HD 7970 Platinum
– MSI Geforce GTX 770 Lightning
– MSI Geforce GTX 770 Twin Frozr Gaming
– Gigabyte Geforce GTX 770 Windforce 3x
– Asus Geforce GTX 770 Direct CU II OC
– Palit Geforce GTX 770 Jetstream
– Gainward Geforce GTX 770 Phantom
– Evga Geforce GTX 770 Superclocked ACX
– MSI R7970 Lightning Boost Edition
– VTX3D Radeon HD 7970 X-Edition
– Sapphire Radeon HD 7970 GHz Edition Vapor-X
– XFX Radeon HD 7970 GHz Edition Double Dissipation
– Club 3D Radeon HD 7970 Royal Ace
– Asus Geforce GTX 670 Direct CU Mini

Da gibt es dann schon Unterschiede zwischend er 770 und 780..
und die Jetstream war auch nicht prickelnd...

Das ist die Liste nach Endnoten, nicht nach Lautheit.

MfG,
Raff

derguru
2013-11-18, 14:15:32
Naja, die 290x schwächelt nicht wirklich. Ich finde die Lüfter eigentlich gut, ich weiß nicht was alle haben. O.O
:facepalm:
nichts für ungut aber du musst was an deinen lauschern haben.(Kapselgehörschützer eventuell ?) (http://www.amazon.de/dp/B006RAW01E/?tag=gid-21&ascsubtag=4e1a0bebbee555169e04326644175673):tongue:

Angiesan
2013-11-18, 14:17:07
Da messen anscheinend auch alle was anderes:
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/9/
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/24/

Das liegt sicherlich an der unterschiedlichen Chipgüte und Lüftergüte. Scheint auch eher ein Lotteriespiel zu sein genau wie bei NV mal hat man Glück und mal nicht deshalb habe ich auch oben geschrieben die Asus die ich hören durfte;) Das ändert sich zum Teil schon bei gleichem Lüftermodel, der eine läuft etwas runder wie der andere und schon bauen sich keine nervigen Vibrationen auf die durch ein schlecht gedämmtes Gehäuse dann noch verstärkt werden können. Ich weiß wovon ich rede mit meinem billig Lian Li Alu-Dünnblechgehäuse:-)

Dawn on Titan
2013-11-18, 14:19:48
Ich glaube man muss sich mal verständigen, dass es Unterschiede zwischen nicht silent, hörbar, laut und lächerlich laut gibt.

Eine ASUS 770 DC2T hat bei einigen PWN Frequenzen imho ein hörbares Summen, das ist irgendwo zwischen nicht silent und hörbar. Eine Titan oder 780ti sowie eine 290X Silent sind hörbar bis laut, eine 290X Ubermode oder 290 erreichen schon lächerlich laut. (290X Laubsauger)

Janni555
2013-11-18, 14:30:33
@Raff: ich dachte es ging dort um Lautstärke bzw. welche am leisesten ist ;-)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544199

deswegen bezog ich das auf die Noten, den Link kann ich nicht öffnen...bin im Büro

TobiWahnKenobi
2013-11-18, 14:54:54
Das liegt sicherlich an der unterschiedlichen Chipgüte und Lüftergüte. Scheint auch eher ein Lotteriespiel zu sein genau wie bei NV mal hat man Glück und mal nicht deshalb habe ich auch oben geschrieben die Asus die ich hören durfte;) Das ändert sich zum Teil schon bei gleichem Lüftermodel, der eine läuft etwas runder wie der andere und schon bauen sich keine nervigen Vibrationen auf die durch ein schlecht gedämmtes Gehäuse dann noch verstärkt werden können. Ich weiß wovon ich rede mit meinem billig Lian Li Alu-Dünnblechgehäuse:-)

dazu fällt mir ein, dass ich 2012 drei palit jetstream gtx680 hatte, die alle drei verschiedene geräuschentwicklungen und temperaturverhalten an den tag legten.

es waren auch nicht alle kühler gleich. eine hatte platte kupferheatpipes, die direkt auf dem DIE lagen, eine hatte ne kupferplatte mit runden heatpipes und die dritte sah untenrum vernickelt aus.

leise waren die nur im idle. unter last war es laut (,wenn auch kraftvoll). an SLi betrieb war mit den customs nicht zu denken - die haben sich nur auf über 90°C gegenseitig aufgeheizt. durch solche erfahrungen entstehen dann wünsche nach DHE, die mancheiner nicht nachvollziehen kann.

nichts-desto-trotz sind die DHEs, die NV seit GTX690 verbaut schon königsklasse ihrer art. das was AMD standardmäßig verwendet (auch bei den CPUs) war irgendwie immer laut oder unzureichend und wirkte oft auf mich, wie grad ausreichender industriestandard.

eine karte wie gtx780/titan/290x usw. darf für mein dafürhalten laut werden - wenn der nutzer es will, denn wer teuer kauft will auch spielen - und wenn es nur mit reglern ist. laut ist aber ein negatives wort - ich sage: eine pornoschnelle karte darf gern aufdrehen und vernehmbar werden. die tonlage macht die musik - sie soll nicht schreien und ich will karten auch nicht erst aufreissen müssen, um die erwartete performance zu erhalten (abseits des OC).

btw,
ja, auf meine erfahrungsberichte bin ich selbst noch gespannter als du ;-)


(..)

mfg
tobi

N0Thing
2013-11-18, 14:57:19
Da messen anscheinend auch alle was anderes:
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/9/
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/24/


Gut möglich, daß die was anderes messen, denn das steht sogar bei der Testmethodik dabei.

Bei der GTX 480: Beide Messungen werden im Abstand von 15 cm zur Grafikkarte durchgeführt. Die Messung erfolgt für das gesamte Testsystem

Bei der R290x: Nach dreißig Minuten notieren wir die Lautstärke, wobei sämtliche Systemlüfter (CPU-Lüfter und Gehäuselüfter) angehalten werden. Die Messungen werden im Abstand von 30 cm zur Grafikkarte durchgeführt, wobei das Gehäuse geschlossen bleibt, um so ein realitätsnahes Szenario nachzustellen.

boxleitnerb
2013-11-18, 15:03:55
Ja, Methodiken ändern sich. Das sollte man sich vorher vielleicht mal anschauen. Ist bei anderen Seiten nicht anders, z.B. Anandtech hat hier auch Änderungen vorgenommen. Die Leute meinen halt, es ist alles immer vergleichbar - das ist ein Trugschluss.

TobiWahnKenobi
2013-11-18, 15:06:01
es ist realistisch, nach ner halben stunde last im case die gehäuselüfter anzuhalten?? idealerweise gehen die mit hoch, wenn die temperatur der innenluft während lastzuständen ansteigt.

dass das gehäuse und seine bestückung ne große rolle spielt ist klar und ist auch nicht nur bei spielerechnern so.

als ich am ersten tag mit der neuen radeon am schreibtisch saß, habe ich versucht mit der memo-funktion meines iphones ein audiofile aufzunehmen um festzuhalten in-wie-weit das geräusch im spielsound noch vernehmbar ist. eben, weil mich - nach der ganzen negativen berichterstattung im netz - die geräuschemission überrascht hat.

hat nicht geklappt der versuch - aber das geräusch war vertretbar entsprach nicht dem billigfön, die ich erwartet habe.


(..)

mfg
tobi

N0Thing
2013-11-18, 15:11:48
es ist realistisch, nach ner halben stunde last im case die gehäuselüfter anzuhalten?? idealerweise gehen die mit hoch, wenn die temperatur der innenluft während lastzuständen ansteigt.

Wenn man die Lautstärke des Gesamtsystems messen will, ist es nicht realistisch die anderen Lüfter anzuhalten.
Wenn man allein die Lautstärke der Grafikkarte messen will, wenn sie in einem normalen System steckt, dann ist es realistisch.

boxleitnerb
2013-11-18, 15:12:59
@tobi
jein. Es gibt ja durchaus Leute, die lautere Lüfter haben und dann solche, die Silentlüfter besitzen. Es kann durchaus vorkommen, dass die Gehäuselüfter gerade bei leiseren Grafikkarten das Ergebnis verfälschen können.

Zudem hält natürlich niemand die Lüfter unter Last an - die Lautstärkemessungen werden soweit ich weiß später gemacht. Im Spiel wird nach den 30 Minuten die Lüfterdrehzahl der Grafikkarte notiert und später manuell eingestellt. Da ist dann auch der Kühlungseffekt durch die Gehäuselüftung mit inbegriffen - ein gutes System, wie ich finde.

CoolhandX
2013-11-18, 15:20:07
Hatte die so hoch gelobte Palit Super Jetstream.
Im idle mit ca. 1100 rpm schon viel zu laut und unter last geht die auf 1400-1600rpm, das Geräusch ist ein sehr starkes und nerviges surren. Ich kann die vielen guten Wertungen für diese Karte nicht nachvollziehen. Ich hätte sie zwar mit 120er Lüfter modden können aber dann kann ich gleich was anderes kaufen, daher geht die zurück.

Auch das viel gelobte Downsampling habe ich nicht mehr hinbekommen, 2520x1576 ging, 3360x2100 habe ich auch nach ewiger tüftelei nicht hinbekommen trotz vieler Tipps im Forum.

Ich weiß nicht wie die GTX780 von Gigabyte ist, ich hatte aber die HD7970 Windforce 3x und auch die war grausam vom Lüftergeräusch.

Habe selber die Palit 780 SJ drinn und muss im Gegensatz zu dir sagen das sie echt angenehm ist. Im Idle ist sie gar nicht zu höhren und wenn ich z.B. BF4 damit spiele wird sie logisch lauter, 70C und ca. 50% Lüfter laut Palit Tool, aber das Geräusch stört nicht, noch surrt es unangenehm in den Ohren. :cool: Entweder du hast eine empfindliche Karte oder sehr empfindliche Ohren :D

MartinRiggs
2013-11-18, 16:03:32
Habe selber die Palit 780 SJ drinn und muss im Gegensatz zu dir sagen das sie echt angenehm ist. Im Idle ist sie gar nicht zu höhren und wenn ich z.B. BF4 damit spiele wird sie logisch lauter, 70C und ca. 50% Lüfter laut Palit Tool, aber das Geräusch stört nicht, noch surrt es unangenehm in den Ohren. :cool: Entweder du hast eine empfindliche Karte oder sehr empfindliche Ohren :D

Wieviel rpm dreht deine im Idle? Auch 1100?

CoolhandX
2013-11-18, 16:11:38
Da muss ich nachher zu Hause mal schauen. Benutze zum auslesen nur das Palit Tool. Mit welchem kann man das denn gut rauslesen? GPU-Z?

Hübie
2013-11-18, 16:43:57
selbst die GTX 780 Ti ist einfach auch zu teuer weshalb meine seit Samstag in einem anderen Rechner eines Freundes Platz genommen hat. (sorry Hubie aber er wollte sie dann doch)

:ufinger: Ich mag dein Kumpel jetzt schon nicht :biggrin: Aber danke das du an mich gedacht hast.
Spaß beiseite: Hab noch mal darüber nachgedacht und es wäre kaum ein Unterschied ob nun zwei 770er oder eine 780Ti bei mir werkelt. Es gibt bei mir nur ein Spiel welches kein SLi nutzen kann: CoH2. Und da reicht auch die Power einer Graka.

Ich bin wirklich erstaunt wieviele auf Palits Jetstream immer noch reinfallen. Im HWL hatte ich schon so einige "Patienten" welche sich beschwerten wie laut dieser Lüfter selbst auf einer 770 ist. Meine klare Empfehlung ist immer noch Inno3D X3 (wenns kein SLi werden soll), MSI TF Gaming (SLi-Tauglichkeit im Mesh-Gehäuse bzw gut belüftetem Gehäuse) oder halt ASUS's DCII.

Das die EVGA ACX leiser ist als MSI TF bezweifel ich an dieser Stelle mal. Hab schon eine 780 probe gehört und fand die unangenehmer als die (770) TFG. Kann mich natürlich täuschen, weil es zwei unterschiedliche Chips sind, aber afaik liegen die doch recht nahe bei einander.

CoolhandX
2013-11-18, 16:53:11
Naja, was heist reinfallen. Ich empfinde sie wirklich nicht als zu laut. Hänge ja auch nicht mit dem Ohr am Rechner, bedeutet bei mir der Rechner steht unter Tisch, etwas weiter weg und das Gehäuse ist recht gut.

Vielleicht empfinde ich das in meinem Alter auch nicht mehr als laut :freak: Aber ich kenne da ganz andere Grakas.... z.B. meine alte Asus 570er, die war laut.:eek:

Hübie
2013-11-18, 16:58:26
Na das ist ja auch Sache der Gewohnheit. Schon zu X1900er-Zeiten habe ich leisere Kühlsysteme auf die Grakas gesetzt. Wie es z.B. bei meiner 9700Pro war weiß ich gar nicht mehr. Aber ich steigerte mich immer mehr und habe heute - trotz mesh-case und ohne Wakü - ein sehr leises System unter Vollast.
Das erwarte ich dann auch in Zukunft bzw. will das weiter "steigern" (also Lautstärkeemission verringern).
Bei den Jetstreams fällt es mir halt nur besonders häufig auf, dass Kunden sich beschweren.

Gruß Hübie

MartinRiggs
2013-11-18, 17:59:23
Da muss ich nachher zu Hause mal schauen. Benutze zum auslesen nur das Palit Tool. Mit welchem kann man das denn gut rauslesen? GPU-Z?

Mit MSI Afterburner oder vergleichbaren Tools.

Dawn on Titan
2013-11-18, 18:20:04
Bei heutigen High-End-Karten ist es sehr einfach. Entweder die 780/770 von Inno X3 oder die MSI Gaming. Alles andere ist mehr oder weniger laut.

Hübie
2013-11-18, 18:24:50
Full ack. Es sei denn man wässert sein Sys ;D

Dawn on Titan
2013-11-18, 18:27:48
Dann die eVGA weil die Garantie erhalten bleibt.

Hübie
2013-11-18, 18:30:20
Bleibt auch bei ASUS und MSI :) Allerdings ist EVGA dennoch die bessere Wahl, da die noch andere nette Sachen haben.
Binned EVGA nicht sogar bei Top-Modellen? :|

Hugo78
2013-11-18, 19:44:41
Bleibt auch bei ASUS und MSI :)

Laut ht4u ist das nicht der Fall.
http://ht4u.net/reviews/2013/arctic_accelero_xtreme_iii_meets_amd_r9_290/index7.php

Das Hauptmanko bleibt grundlegend also auch hier erhalten, dass der Wechsel des Kühlers zum Garantieverlust führt. Irriger Glaube mancher Forenjünger, dass Hersteller wie beispielsweise ASUS oder MSI solch einen Vorgang billigen, können wir klar verneinen. MSI klebt inzwischen gar auf seine rückseitigen Kühlerschrauben Aufkleber um diesen Eingriff einfacher nachvollziehen zu können (wie viele andere Hersteller auch). Und die ASUS RMA-Abteilung hat uns vor Jahren an einem Testmuster gar den Support verwehrt, nachdem wir bei unserer Fehlersuche den Kühler entfernten und auf korrekten Sitz prüften. Nein, Interessenten dieser Umsetzungen müssen sich diesem Umstand klar bewusst sein: in aller Regel ist die Garantie im Falle eines Defektes hin.

Raff
2013-11-18, 19:52:58
Ich bin wirklich erstaunt wieviele auf Palits Jetstream immer noch reinfallen. Im HWL hatte ich schon so einige "Patienten" welche sich beschwerten wie laut dieser Lüfter selbst auf einer 770 ist. Meine klare Empfehlung ist immer noch Inno3D X3 (wenns kein SLi werden soll), MSI TF Gaming (SLi-Tauglichkeit im Mesh-Gehäuse bzw gut belüftetem Gehäuse) oder halt ASUS's DCII.

Inwiefern "reinfallen"?

Palit ist wahrlich nicht für Superflüsterkarten bekannt, aber was ich vom aktuellen Jetstream-Design hörte, war durchweg gut. Es geht nur derzeit um, dass die Lüfterkurve der aktuellen Charge steiler ist bzw. höher startet ...

MfG,
Raff

AffenJack
2013-11-18, 20:14:04
Bei heutigen High-End-Karten ist es sehr einfach. Entweder die 780/770 von Inno X3 oder die MSI Gaming. Alles andere ist mehr oder weniger laut.

Ach scheiße, jetzt habt ihr die MSI soviel gelobt und meine 7970 ging mir gerade bei GTA 4 so aufn Senkel, dass ich spontan bei der MSI 780 zugeschlagen hab;D
Brauch wer ne 7970?:biggrin: Brauch noch Geld für ne PS4;)

Hübie
2013-11-18, 21:01:09
Inwiefern "reinfallen"?

Das sie den Usern doch öfter zu laut ist, als es Tests suggerieren. Das kann Serienschwankung, Testmethodik oder auch Wahrnehmung sein. Nur sind es halt wirklich oft Palit-Käufer die sich beschweren.
Jetzt forderst du vielleicht links der Beiträge ein, aber da kannst du selber mal alle Sammler hier, auf PCGH, aufm HWL und und und durchsuchen :freak:

Dawn on Titan
2013-11-18, 22:01:01
Es ist imho Wahrnehmung. Es gibt ja auch hier Leute, die eine 290 als erträglich beschreiben und dagegen ist die Super jet silent. Trotzdem sind ihre rund 3 Sone aber deutlich hörbar. Würde ich von meiner 670 Sig 2 (1.4 Sone unter Last) auf die Super Jet wechseln fände ich sie laut, käme ich von einer GTX480, R9-290 fände ich sie leise.

Hübie
2013-11-18, 22:28:18
Ja aber es gibt auch schlechte Testberichte. Ein Gross wird schon die eigene Wahrnehmung ausmachen, da gebe ich dir recht.

Angiesan
2013-11-18, 23:18:26
:ufinger: Ich mag dein Kumpel jetzt schon nicht :biggrin: Aber danke das du an mich gedacht hast.
.
Ist aber auch ein sehr Netter dafür betrachte das SC BL als Familienspende, ich weiß ja was Du gerade für Ärger hattest viel Spaß damit !!! :D

Rancor
2013-11-19, 12:32:37
Also die Phantom von Gainward finde ich jetzt auch net sonderlich laut

Hübie
2013-11-19, 12:42:22
Ist aber auch ein sehr Netter dafür betrachte das SC BL als Familienspende, ich weiß ja was Du gerade für Ärger hattest viel Spaß damit !!! :D

Oooh vielen Dank :) Hier ist schon wieder high life in dozen :freak:

@Rancor: Die scheint auch einer gewissen Serienstreuung zu unterliegen, da einige User melden die sei zu laut. Mich wundert, dass man hierzulande kein oder kaum ein Wort über KFA² Hall of Fame redet. Die scheint auch eine sehr gute Kühlung zu haben.
PNY hat auf der GTX 770 auch eine 3-Lüfter-Lösung anzubieten die ebenfalls nicht übel aussieht. Leider gibts keine Reviews dazu. Ebenso wenig zu Inno3D Herculez 2000.

Dawn on Titan
2013-11-19, 12:51:16
Die Phantom ist leicht lauter als die Super Jetstream, beide sind imho unter Last deutlich hörbar. In Sone ca. 3,0-3,2 für die Phantom und 2,8-3,2 für die Jetstream. Beide sind damit ungefähr doppelt so laut wie eine MSI Gaming.

Raff
2013-11-19, 13:08:36
Brauch wer ne 7970?:biggrin: Brauch noch Geld für ne PS4;)

Du hast jetzt eine GTX 780, wofür also eine PS4? :naughty:

MfG,
Raff

TheCounter
2013-11-19, 13:17:24
Also die Phantom von Gainward finde ich jetzt auch net sonderlich laut

Meine letzte Phantom war eine GTX570, diese hab ich allerdings nach 30 Minuten wieder ausgebaut und sofort zurückgeschickt. Das Teil war extrem laut.

Weis nicht ob sich an den Phantom viel geändert hat, aber würde diese niemals empfehlen nach diesem Erlebnis.

Radeonfreak
2013-11-19, 13:18:49
Kann mich nicht beschweren mit meiner Phantom. Auch auf 100% Lüfter nicht störend.

Hübie
2013-11-19, 13:20:15
Na ganz so schlimm wird es nicht mehr sein, aber ich lese von der Phantom auch nicht sehr oft dass diese leise zu werke geht. Einige fallen aber wohl mehr aus der Bahn als andere.

Raff
2013-11-19, 13:20:33
Meine letzte Phantom war eine GTX570, diese hab ich allerdings nach 30 Minuten wieder ausgebaut und sofort zurückgeschickt. Das Teil war extrem laut.

Weis nicht ob sich an den Phantom viel geändert hat, aber würde diese niemals empfehlen nach diesem Erlebnis.

Wenn jemand vor 15 Jahren von einer crappigen Ati Xpert genervt wurde, hat das nichts mit aktuellen Radeons zu tun. Ähnliches gilt für das Kühldesign, die werden üblicherweise alle paar Jahre überarbeitet. Superleise ist eine GTX 780 Phantom trotzdem nicht, aber annehmar für High-End.

MfG,
Raff

TobiWahnKenobi
2013-11-19, 13:22:23
Meine letzte Phantom war eine GTX570, diese hab ich allerdings nach 30 Minuten wieder ausgebaut und sofort zurückgeschickt. Das Teil war extrem laut.

Weis nicht ob sich an den Phantom viel geändert hat, aber würde diese niemals empfehlen nach diesem Erlebnis.

ich kaufe palit auch nur, wenn es sich nicht vermeiden lässt. wenn grad kein anderer liefern kann oder ich von anfang an nur ne übergangslösung einplane.



(..)

mfg
tobi

Hübie
2013-11-19, 13:24:55
Na was wird da schon groß überarbeitet? Mal ne heatpipe hier, ein paar Lamellen dort und vielleicht mal andere Lüfter. Aber grundlegende Neukonzeptionierung wird seltenst durchgeführt. Vergleich mal die ganzen Direct CU z.B. - nicht das diese schlecht wären ;) Das Konzept wie bei der Phantom scheint ja auch mit Überarbeitung nicht aufzugehen. Aber Hauptsache am "Markenzeichen" festhalten :rolleyes:
MSI scheint durch die zweiwinkligen Lüfterschaufeln ein gutes Optimierungspotenzial angewandt zu haben. Anders kann ich mir den Sprung nicht erklären. Meine vorherige TwinFrozr II war im Gegensatz zur neuen TwinFrozr III Kühlung eine Katastrophe.

Rancor
2013-11-19, 13:41:34
Na was wird da schon groß überarbeitet? Mal ne heatpipe hier, ein paar Lamellen dort und vielleicht mal andere Lüfter. Aber grundlegende Neukonzeptionierung wird seltenst durchgeführt. Vergleich mal die ganzen Direct CU z.B. - nicht das diese schlecht wären ;) Das Konzept wie bei der Phantom scheint ja auch mit Überarbeitung nicht aufzugehen. Aber Hauptsache am "Markenzeichen" festhalten :rolleyes:
MSI scheint durch die zweiwinkligen Lüfterschaufeln ein gutes Optimierungspotenzial angewandt zu haben. Anders kann ich mir den Sprung nicht erklären. Meine vorherige TwinFrozr II war im Gegensatz zur neuen TwinFrozr III Kühlung eine Katastrophe.

Naja was heisst nicht aufgehen. Die Karte wird nicht wärmer als 55 Grad bei mir und das bei 1123MHZ@1.123V. Man hat also noch genug Spielraum um die Lüfterkurve anzupassen.

AffenJack
2013-11-19, 13:43:29
Du hast jetzt eine GTX 780, wofür also eine PS4? :naughty:

MfG,
Raff

Zu wenig Spiele die man zu 2 an einem Fernseher spielen kann und ich brauchn Bluray-Player:biggrin:
Man könnte auch fragen, ich hatte ne 7970, wofür brauch ich ne GTX780;)
Aber ich brauch einfach mal nen neues Spielzeug.

Dawn on Titan
2013-11-19, 13:47:36
Na was wird da schon groß überarbeitet? Mal ne heatpipe hier, ein paar Lamellen dort und vielleicht mal andere Lüfter. Aber grundlegende Neukonzeptionierung wird seltenst durchgeführt. Vergleich mal die ganzen Direct CU z.B. - nicht das diese schlecht wären ;) Das Konzept wie bei der Phantom scheint ja auch mit Überarbeitung nicht aufzugehen. Aber Hauptsache am "Markenzeichen" festhalten :rolleyes:
MSI scheint durch die zweiwinkligen Lüfterschaufeln ein gutes Optimierungspotenzial angewandt zu haben. Anders kann ich mir den Sprung nicht erklären. Meine vorherige TwinFrozr II war im Gegensatz zur neuen TwinFrozr III Kühlung eine Katastrophe.

Naja, bei Phantom z.B. gab es die 680 mit den Lüftern unter dem Kühlkörper, dann die 670 mit den Lüftern auf dem Kühlkörper und 2 HPs weniger, bei der 780/770 ist man nun wieder zum Design der 680 zurück, aber wieder mit anderen Lüftern.

Oder schau Dir EVGA an. Von der Sig2 zum ACX bestehen am Kühler nur geringe Unterschiede, an den Lüfterkurven aber schon. Wobei es imho an der Zeit wäre EVGA zu erklären, dass sie ein Power und ein Silent BIOS auf ihre DUAL Karten ziehen sollten.

Skysnake
2013-11-19, 14:00:27
Ach scheiße, jetzt habt ihr die MSI soviel gelobt und meine 7970 ging mir gerade bei GTA 4 so aufn Senkel, dass ich spontan bei der MSI 780 zugeschlagen hab;D
Brauch wer ne 7970?:biggrin: Brauch noch Geld für ne PS4;)
Welche, wie alt und für wieviel denn :naughty:

@Topic:
Das Problem ist doch, dass die Kühler immer empfindlicher werden. Mal hier nen bischen zu lockere/feste Schraube, da "schlechte" aufgetragene WLP, oder dort nen Lüfter mit nem "seltsamen" Laufverhalten, dass die Abdeckung in Schwingung versetzt...

Dann dazu noch das ganze rumgehampel mit den Boosts, unterschiedlichen Spannung und weiß der Teufel was noch alles jeweils mit rein spielt...

Ich fände es daher wirklich nicht schlecht, wenn PCGH oder CB sich mal möglichst ALLE! GPU-Kühler die es am Markt gibt schnappen würden, und auf einer STandardisierten Wärmeplatte testen würden statt ner GPU.

So könnte man schöne Profile fahren! Es ist ja auch nicht immer gesagt, das alle Kühler gleich gut bei allen Verlustleistungen arbeiten ;)

Mit nem bischen Vorbereitung könnte man mit Matlab oder so, sicherlich das ganze sogar voll automatisieren, so dass der Tester "nur" den Kühler aufschnallen und das Testprogramm (24h?) starten muss und am Ende dann halt die Ergebnisse einsammeln kann.

Sicherlich nen gewisser Aufwand, bis das mal aufgesetzt ist, aber dann läuft es auch.

StefanV
2013-11-19, 14:45:03
Es ist ja auch nicht immer gesagt, das alle Kühler gleich gut bei allen Verlustleistungen arbeiten ;)

Das ist ein guter Punkt, der auch sehr stark von den verwendeten Heatpipes, dem Biegungsgrad usw abhängt...

Und der Heatpipe sieht man nunmal ihre Qualität/Wärmeleitfähigkeit nicht an. Ebenso beeinflusst der Biegeradius die Leistungsfähigkeit einer Heatpipe stark (=vermindert die Wärmeleitfähigkeit)...


Von daher wäre dein Punkt gar nicht soo schlecht. Und IMO der einzig gangbare Weg, die ganzen unterschiedlichen Kühler auch wirklich mal zu testen...

Hübie
2013-11-19, 17:28:08
Und wo läge da der praktische Nutzen? :| Ich kaufe mir ja keine Gainward Phantom und ASUS DC II um die Kühler untereinander zu tauschen :freak:
Verstehe da den Sinn gerade nicht. Wollt ihr einfach nur das Potenzial eines Kühlsystems ermitteln oder wie?

@Rancor: Dann hat Gainward aber echt mist gebaut wenn die Karte läppische 55°C aufweist. Da würde ich lieber gen 70°C schreiten aber mir dafür Bestnoten in Punkto Lautstärkeemission einheimsen.

Edit: Offenbar hast du ein Spitzenmodell erwischt. In Tests wird die oft um die 70-80 °C warm. Lautstärke bis 50 dB(A).

StefanV
2013-11-19, 18:24:00
Und wo läge da der praktische Nutzen? :|
Dann wüsstest du, was das Kühlsystem welcher Grafikkarte leistet.
So kann man z.B. sehen, dass ein Hersteller das Kühlsystem einer Karte mal total verkackt hat (wahrscheinlcih würd dabei rauskommen, dass das bei Gigabytes Windforce 3X AMD der Fall ist)


Ich kaufe mir ja keine Gainward Phantom und ASUS DC II um die Kühler untereinander zu tauschen :freak:
Verstehe da den Sinn gerade nicht. Wollt ihr einfach nur das Potenzial eines Kühlsystems ermitteln oder wie?
Nein, aber dann wüsstest du mehr über die Kühlsysteme bzw welcher der beiden Kühler jetzt besser ist und um wieviel...

Angiesan
2013-11-19, 19:09:58
Oder schau Dir EVGA an. Von der Sig2 zum ACX bestehen am Kühler nur geringe Unterschiede, an den Lüfterkurven aber schon. Wobei es imho an der Zeit wäre EVGA zu erklären, dass sie ein Power und ein Silent BIOS auf ihre DUAL Karten ziehen sollten.
Na machen sie doch, die 37er Serie der ACX haben alle eine Standardbios und ein Powerbios mit gesenkter Lüfterkurve und erhöhtem PT da kannste einstellen was immer du willst, out of the box ist das aber schon leise und schnell:D....mit Powerbios

Dawn on Titan
2013-11-19, 19:24:23
Nein, aber dann wüsstest du mehr über die Kühlsysteme bzw welcher der beiden Kühler jetzt besser ist und um wieviel...

Hilft ja nix, weil die Lautheit am Ende von der Lüfterkurve im BIOS abhängt.

@Angiesan wirklich? :eek:

Janni555
2013-11-19, 20:00:16
na, ich bin gespannt! Morgen kommt meine MSI Twin frozr, mal sehen, wie laut die ist...

Rancor
2013-11-19, 20:16:25
Und wo läge da der praktische Nutzen? :| Ich kaufe mir ja keine Gainward Phantom und ASUS DC II um die Kühler untereinander zu tauschen :freak:
Verstehe da den Sinn gerade nicht. Wollt ihr einfach nur das Potenzial eines Kühlsystems ermitteln oder wie?

@Rancor: Dann hat Gainward aber echt mist gebaut wenn die Karte läppische 55°C aufweist. Da würde ich lieber gen 70°C schreiten aber mir dafür Bestnoten in Punkto Lautstärkeemission einheimsen.

Edit: Offenbar hast du ein Spitzenmodell erwischt. In Tests wird die oft um die 70-80 °C warm. Lautstärke bis 50 dB(A).

Naja bei Furmark mag das sein. Da ich Furmark aber so selten spiele, ist das nicht relevant für mich. In BF4 ist 55 Grad so der Druchschnitt

Angiesan
2013-11-19, 21:43:17
Hilft ja nix, weil die Lautheit am Ende von der Lüfterkurve im BIOS abhängt.

@Angiesan wirklich? :eek:

Ja wirklich kann ich auch mit meiner bestätigen, Bios 1 ist das normale Standard Bios und Bios 2 ein Bios mit um 10% gesenktem Drehzahlprofil und einem PT das nun bis 110% geht ist eine komische Kombination das man das Silentbios mit einem erhöhten PT ausstattet. Aber das liegt vielleicht auch daran das auch die Spannungsversorgung verändert wurde bei den 37er.

Grüße

CoolhandX
2013-11-19, 21:58:07
Wieviel rpm dreht deine im Idle? Auch 1100?

So habe jetzt mal geschaut, egal was ich mache, sprich surfen oder Office, der geht nie höher als 788rpm im idle, das entspricht dann ca. 30%. Keine Ahnung warum deine Karte mit 1100 los brettert.:confused:

MartinRiggs
2013-11-19, 22:06:47
So habe jetzt mal geschaut, egal was ich mache, sprich surfen oder Office, der geht nie höher als 788rpm im idle, das entspricht dann ca. 30%. Keine Ahnung warum deine Karte mit 1100 los brettert.:confused:

Weil es scheinbar eine neue(beschissene) Revision mit 48%(1100rpm) im idle gibt.
Hab das Ding zurückgeschickt, etwas lauter unter last ist ja noch i.O. aber im Idle will ich von der Graka nix hören.
Man konnte auch mit keinem gängigen Tool unter 48% einstellen:mad:

boxleitnerb
2013-11-19, 22:29:18
Und was ist, wenn du die Lüfterkurve mit EVGA Precision anpasst, ging das auch nicht? Teilweise wird einem im Hauptfenster ein Minimum bei der Drehzahl angezeigt, das höher liegt als die Werte, die man bei der Lüfterkurve einstellen kann.

Hübie
2013-11-19, 22:34:27
Naja bei Furmark mag das sein. Da ich Furmark aber so selten spiele, ist das nicht relevant für mich. In BF4 ist 55 Grad so der Druchschnitt

Nein das waren Skyrim, BF3 und noch irgendein Spiel. Google mal Reviews. Auf der ersten Seite findest du schon ein paar. Das würde meine Theorie bzgl. Serienstreuung bekräftigen.

Dawn on Titan
2013-11-20, 07:17:46
Ja wirklich kann ich auch mit meiner bestätigen, Bios 1 ist das normale Standard Bios und Bios 2 ein Bios mit um 10% gesenktem Drehzahlprofil und einem PT das nun bis 110% geht ist eine komische Kombination das man das Silentbios mit einem erhöhten PT ausstattet. Aber das liegt vielleicht auch daran das auch die Spannungsversorgung verändert wurde bei den 37er.

Grüße

Cool, das steht aber bei EVGA nicht in der Produktbeschreibung. Da hoffe ich mal auf einen Test in einer Fachpublikation. (PCGH)

Rancor
2013-11-20, 08:47:44
Nein das waren Skyrim, BF3 und noch irgendein Spiel. Google mal Reviews. Auf der ersten Seite findest du schon ein paar. Das würde meine Theorie bzgl. Serienstreuung bekräftigen.

Hmm das ist echt merkwürdig. Ich habe allerdings die GLH Edition, keine Ahnung ob dort ein anderer Kühler verbaut wird. Also unter Spielen erreiche ich keine 70 Grad

MartinRiggs
2013-11-20, 11:02:16
Und was ist, wenn du die Lüfterkurve mit EVGA Precision anpasst, ging das auch nicht? Teilweise wird einem im Hauptfenster ein Minimum bei der Drehzahl angezeigt, das höher liegt als die Werte, die man bei der Lüfterkurve einstellen kann.

Ging alles nicht, im Bios ist minimal 48% verankert und die Tools vermögen nicht das auszuhebeln.

CoolhandX
2013-11-20, 15:31:05
Weil es scheinbar eine neue(beschissene) Revision mit 48%(1100rpm) im idle gibt.
Hab das Ding zurückgeschickt, etwas lauter unter last ist ja noch i.O. aber im Idle will ich von der Graka nix hören.
Man konnte auch mit keinem gängigen Tool unter 48% einstellen:mad:


Das ist aber wirklich der Knaller, wenn ich BF4 spiele dann dreht der Lüfter maximal bei 53% und wird ca. 70°C warm.

Das würde ja bedeuten das deine Karte im idle so laut ist wie meine unter Volllast...:freak: Echt merkwürdig.

AffenJack
2013-11-20, 23:15:04
So meine 780 ist mittlerweile auch angekommen, aber so ganz komme ich nicht drauf klar wie das mit dem Boost abläuft. Das Powerlimit kann ich mir auf 103% anheben, bei meiner MSI TF, dachte ja eh das das meist 106% sind.
Dann geb ich der mal +100mhz Gpu Offset, dann boostet sie bis 1124 mhz. Aber obwohl das PT Limit bei 103% ist, Afterburner 96-99% PT zeigt und sie weit vom TT entfernt ist, gehts nach etwas Zeit auf 1070 mhz runter mit Peaks nach oben. Wieso ist die nicht stabil bei 1124?
Und haben alle die höhere Übertaktungswerte haben ihr Bios geflasht oder wie? Weil wenn ich eh schon ins PT laufe, dann sollte höherer GPU Offset den Takt doch gar nicht mehr erhöhen oder versteh ich das falsch?

Eggcake
2013-11-21, 08:47:44
Ja wirklich kann ich auch mit meiner bestätigen, Bios 1 ist das normale Standard Bios und Bios 2 ein Bios mit um 10% gesenktem Drehzahlprofil und einem PT das nun bis 110% geht ist eine komische Kombination das man das Silentbios mit einem erhöhten PT ausstattet. Aber das liegt vielleicht auch daran das auch die Spannungsversorgung verändert wurde bei den 37er.

Grüße

Gibt's das auch für die 770er?
Soviel ich weiss geht das ja nur bei den Karten mit DUal BIOS? Denn meine dreht jetzt im Leerlauf mit 40% (1300rpm) und ist 29° warm. Weiss nicht was EVGA da geritten hat.

Dawn on Titan
2013-11-21, 09:27:43
Kontaktire doch einfach mal den EVGA support. Die haben oftmals BIOS Versionen, die nicht auf der Seite stehen und solche Änderungen enthalten.

Eggcake
2013-11-21, 09:50:41
Habe gerade das hier gefunden:
http://www.hardwareluxx.de/community/f300/gtx-770-sc-acx-luefterdrehzahlbereich-962684.html

Scheint eine BIOS Version zu geben für die Karte, habe mal angefragt. Wäre wirklich toll, die Karte ist ansonsten super.

Duplex
2013-12-01, 13:19:09
So meine 780 ist mittlerweile auch angekommen, aber so ganz komme ich nicht drauf klar wie das mit dem Boost abläuft. Das Powerlimit kann ich mir auf 103% anheben, bei meiner MSI TF, dachte ja eh das das meist 106% sind.
Dann geb ich der mal +100mhz Gpu Offset, dann boostet sie bis 1124 mhz. Aber obwohl das PT Limit bei 103% ist, Afterburner 96-99% PT zeigt und sie weit vom TT entfernt ist, gehts nach etwas Zeit auf 1070 mhz runter mit Peaks nach oben. Wieso ist die nicht stabil bei 1124?
Hast du mal deine Temperaturen überprüft?
Wenn deine Temps zu hoch sind dann wird der Turbo nicht gleich gehalten, war bei mir damals mit dem Stock Kühler auch so (Referenz Design), seitdem ich ein Fullblock Wasserkühler montiert habe (Watercool Heatkiller) sind meine Taktraten permanent gleich weil die Karte bei Last nicht wärmer als 35-36°C wird.

MartinRiggs
2014-02-09, 02:07:21
Heute kam meine MSI GTX780 Twin Frozr Gaming, das Ding ist einfach nur klasse.

Unhörbar im Idle(1000rpm) und unter Last nur minimalst hörbar(1400rpm), hab sie jetzt erstmal bis 1175 getestet mit minimaler Spannungserhöhung.

Das Ding ist geil schnell und vor allem geil leise und bleibt unter Last(BF4) bei 70 Grad.
:massa: MSI :massa:

Raff
2014-02-09, 02:18:54
Freut mich. :up: Pass aber beim Übertakten auf, die Wandler werden knackheiß.

MfG,
Raff

MartinRiggs
2014-02-09, 02:44:06
Kann ich die Wandler irgendwie auslesen?
GPU-Z zeigts nicht an

Angiesan
2014-02-09, 13:11:04
Hmm bei meiner EVGA geht das ohne Probleme.

http://abload.de/thumb/vrm6oe4o.png (http://abload.de/image.php?img=vrm6oe4o.png)