PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 Ti: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16

Hübie
2015-11-16, 13:19:29
Okay, hätte mich auch gewundert, aber vielen Dank dass du es, Versuchskaninchen-mäßig, getestet hast ;D :up:

@Matthias2304: Kann der MSI Ab das auch mit Fremdhersteller-Karten?

Raff
2015-11-16, 13:20:22
Wie sieht so ein Nvidia GPU Grey Screen Ausfall aus so wie dieser AMD Grey Screen ? :)

https://youtu.be/mXl53o_Vg3E?t=289

Bei GM200-OC sieht ein Greyscreen tatsächlich aus wie ein Greyscreen, also grau gefüllt – und nicht etwa wie ein Colored-Line-Screen. ;)

PS ich halte die Ansichtsweise was bombenstabil angeht für Falsch von euch beiden ;)

Was genau ist falsch an "Rockstable ist erst, wenn alles läuft"? :confused:

MfG,
Raff

-/\-CruNcher-/\-
2015-11-16, 13:26:35
Siehe meine Ergänzung aber das ist nicht das erstemal das ich das anspreche ;)

Es ist Semi Rockstable für den einen Task, das habt ihr vielleicht bestimmt aber ob der DSP zusätzlich noch Stabil ist das ignoriert ihr ;)

Hübie
2015-11-16, 13:32:37
Da ich des öfteren Aufnehme kann ich wohl behaupten dass es bombenstabil ist. Das anschließende decoding per CUDA ist auch noch nicht abgekackt. :D

-/\-CruNcher-/\-
2015-11-16, 13:34:46
3D + CUDA + gleichhzeitige Aufnahme und gleichzeitiges Playback via CUDA ist schon ein ordentlicher Stabilitätstest und wenn man noch weiter geht testet man das ganze noch unter G-sync und Multimontor zusätzlich vielleicht noch SLI um ganz sicher zu gehen ;)

Niall
2015-11-16, 13:43:07
Ich sehe die Definition da etwas lockerer.
Wenn bei mir alle von mir im Normallfall genutzten Szenarien stabil durchlaufen, ist es für mich und meinen Anwendungsbereich stabil.

Also V-Ray RT via CUDA, diverse Spiele, der ein oder andere Benchmark, ein bisschen En- und Decoden. Ein Szenario in welchem alles auf einmal auftritt wird so schnell nicht eintreten. Aus die Maus. :D

Im Übrigen handhabe ich das schon seit Jahren so, wenn irgendeine der o.g. Szenarien abstürzt oder fehlerhaft läuft ist es nicht stabil. Wenn alle Sachen laufen - Stabil.

TurricanM3
2015-11-16, 13:46:30
Ich hatte ja CUDA-Tests probiert aber instabiler war das bei mir nicht. ShadowPlay läuft bei mir immer mit. Hab es die letzten Tage aber nicht mehr angehabt wegen der nervigen Takt-Problematik (taktet nicht mehr sauber runter). Bins leid da immer ShadowPlay off/on zu stellen.

Mir sind gestern übrigens noch die 1149mV abgeschmiert mit Greyscreen nach einiger Zeit. Lasse mal 1155mV laufen.

Spielt hier sonst niemand Anno2205 und kann was dazu sagen bez. Stabilitätstest? Mit der alten Karte sind mir 4200 RAM nach spät. 3h abgeschmiert. Nichts war so empfindlich wie Anno.

Mein Coil-Burn-In Test hat nichts gebracht. Hätte mich aber auch gewundert.


Danke fürs Berichten.

-/\-CruNcher-/\-
2015-11-16, 13:56:17
Ich sehe die Definition da etwas lockerer.
Wenn bei mir alle von mir im Normallfall genutzten Szenarien stabil durchlaufen, ist es für mich und meinen Anwendungsbereich stabil.

Also V-Ray RT via CUDA, diverse Spiele, der ein oder andere Benchmark, ein bisschen En- und Decoden. Ein Szenario in welchem alles auf einmal auftritt wird so schnell nicht eintreten. Aus die Maus. :D

Im Übrigen handhabe ich das schon seit Jahren so, wenn irgendeine der o.g. Szenarien abstürzt oder fehlerhaft läuft ist es nicht stabil. Wenn alle Sachen laufen - Stabil.

So ein Szenario nutze ich in meinem Treibertest einmal alles einzeln und 1x alles zusammen ;)

Hübie
2015-11-16, 15:31:24
3D + CUDA + gleichhzeitige Aufnahme und gleichzeitiges Playback via CUDA ist schon ein ordentlicher Stabilitätstest und wenn man noch weiter geht testet man das ganze noch unter G-sync und Multimontor zusätzlich vielleicht noch SLI um ganz sicher zu gehen ;)

Das ist nicht stabil, sondern paranoid. =) Wenn ich stundenlang zocken kann, ohne dass es abkackt ist es de facto stabil. Bäm! Ich hatte letzte Woche zum ersten Mal seit ich BF4 habe, diesen DX11 Device removed error. Entweder das lag an PCIE3.0 das ich ein paar Tage zuvor aktivierte oder der neue Treiber, denn dass OC lief jetzt monatelang abschmierfrei... Zumindest schiebe ich es eher auf eines dieser beiden Faktoren.

N0Thing
2015-11-16, 15:42:19
Ich würde mir auch nicht extra ne weitere Grafikkarte und Monitore kaufen, nur um meine aktuelle Karte auf Stabilität zu testen. :ugly:
Wenn alles was ich nutze und mache stabil läuft, dann ist mein System für mich stabil genug. Egal ob es nun rockstable, paperstable oder scissorstable ist.

Raff
2015-11-16, 16:18:52
Ich würde mir auch nicht extra ne weitere Grafikkarte und Monitore kaufen, nur um meine aktuelle Karte auf Stabilität zu testen. :ugly:
Wenn alles was ich nutze und mache stabil läuft, dann ist mein System für mich stabil genug. Egal ob es nun rockstable, paperstable oder scissorstable ist.

:D
:up:
+1
Ack.

MfG,
Raff

qiller
2015-11-16, 19:28:26
... Egal ob es nun rockstable, paperstable oder scissorstable ist.

;D

phoenix887
2015-11-16, 22:55:02
Ich würde mir auch nicht extra ne weitere Grafikkarte und Monitore kaufen, nur um meine aktuelle Karte auf Stabilität zu testen. :ugly:
Wenn alles was ich nutze und mache stabil läuft, dann ist mein System für mich stabil genug. Egal ob es nun rockstable, paperstable oder scissorstable ist.

Richtig. Zustimmung auch von mir.

gedi
2015-11-17, 06:41:04
undervolting geht ja nur per Bios oder?

Nö: Angepisstes Zotac Ref-Bios und Inspector - wobei wir dann allerdings wieder beim Bios-Mod wären. Der Vorteil liegt allerdings auf der Hand: Zum Testen das Beste was einem passieren kann, denn der Bios-Flash muss nur 1x erfolgen ;)

(del)
2015-11-17, 06:41:55
Nur mal so am Rande:
Was heute noch rock- oder hosenstable im absoluten Grenzbereich läuft, wird dies nach einem (un)gewissen Zeitraum garantiert nicht mehr tun. Ich habe seinerzeit mal den Verfall eines Q6600 dokumentiert, der anfangs sogar auf auf 4.0 GHz lief (dank des einmaligen DFI Lanparty X38) und im Laufe der Zeit immer "schlechter" wurde. Gleiches lässt sich übrigens auch bei Grafikkarten beobachten, was ich selbst bei einer 780 Ti "leidvoll" erfahren musste.

Ich wünsche all denen einen schönen Tag und gutes Wetter, die es bei Maxwell all zu stark übertreiben. Zwischen Voids und Hillocks lässt es sich nämlich trefflich wandern gehen. Nvidias rules sind zwar lästig und auf den ersten Blick eine Gängelung, aber was ich in einigen R&D Abteilungen aufgeschnappt habe, lässt mich dann schon etwas nachdenklicher werden. :P

Niall
2015-11-17, 06:49:18
Nvidias rules sind zwar lästig und auf den ersten Blick eine Gängelung, aber was ich in einigen R&D Abteilungen aufgeschnappt habe, lässt mich dann schon etwas nachdenklicher werden. :P

Welche Regeln meinst du? Die des maximalen PTs ohne BIOS Modifikation?

(del)
2015-11-17, 07:16:34
Frag die Boardpartner, nicht alles ist für die Öffentlichkeit bestimmt ;)

Nur so viel: das Power Target ist uninteressant, da hat die Firmware eh den Riegel vor. Nvidia schreibt die Spannungen sehr restriktiv vor, dazu die Maximaltemperaturen und noch einige andere Dinge mehr. Jedes BIOS muss zudem von Nvidia kontrolliert und bestätigt werden, bevor es veröffenlicht werden darf. Was glaubst Du, warum Hersteller wie Asus oder Gigabyte angefangen haben, mit Offset und Zahl der Boost-Steps zu jonglieren? Weil es genau dort noch eine Lücke in den Rules gibt, wo man ein derart modifiziertes BIOS nicht neu zertifizieren lassen muss (weil es nicht auffällt und auch nichts mit der Karte passieren kann).

Niall
2015-11-17, 07:56:13
Ah ich verstehe.

Na dann bin ich ja mit meiner Stock-Spannung und den maximalen 43°C Kerntemperatur im dunkelgrünen Bereich. Bis auf das Zirpen bin ich wirklich zufrieden mit der Karte, unter normalen Umständen wäre sie mir aber zu laut und zu heiß – jedoch bin ich hier ja eh seit Jahren Wakü-Versaut was Lautheit und Temperaturen angeht. :D

(del)
2015-11-17, 08:41:40
Naja... Gute Spulen sind kein Hexenwerk, aber es darf auch nicht passieren wie bei inno3D, wo sie in der Vorserie speziell einbetonierte Spulen verwendet hatten, um dann festzustellen, dass die nicht erschütterungsfest genug sind und mit der Zeit zudem noch Risse bekamen, weil das Matrial zu spröde war. Man bekommt so Einiges mit, was einen echt den Kopf schütteln lässt. Dumm ist eben, dass das VGA Geschäft viel zu kurzlebig ist, um als Hersteller die eigentlich notwendigen Environmental-, Shock-, Drop-Down-, HALT- und MTBF-Tests zu machen.

TurricanM3
2015-11-17, 10:25:19
Also ich übertakte schon seit DX2-80 Zeiten und bis vor ein paar Generationen auch häufig mit vMod (bei Grafikkarten). Aktuell lohnt sich das nur nicht mehr. Degradation hatte ich noch nie in den ganzen Jahren, teu teu teu. Die schmerzfreien Amis fahren häufig so brutale Spannungen (lese im OCN ab und an mit), da müsste viel mehr hopsgehen (5960X @1.5v+ 24/7).
Da fällt mir ein, mein Opteron ist inzwischen über 10 Jahre alt und läuft im Bekanntenkreis noch immer ohne Probleme (mit OC). :freak:

Air Force One
2015-11-17, 10:36:19
Hab auch seit Release (über 6 Jahre inzwischen?) einen Intel i7-860 mit 4GHz und 1.4X Volt 20h/6T am laufen.
Er hat noch immer keine Probleme, die Temperatur ist dabei sogar fast immer zwischen 90°C-95°C.

Würde ich jetzt bei meinem 4790K auch machen. Aber der geht nur bis maximal 4.80GHz mit 1.320V. Mehr Spannung bringt leider nichts. Mit biegen und brechen wären wohl noch 4.90GHz.

Monty
2015-11-17, 11:09:18
Bin ja normal kein Fan von solchen Hinweisen. Aber hier ist es glaub angebracht. Hier geht es um die GTX 980ti :tongue:

Air Force One
2015-11-17, 11:11:37
Ich weiß, wurde halt angekratzt das Thema x)
Sorry

(del)
2015-11-17, 18:04:34
Das Problem sind die immer kleineren Strukturbreiten. Drei große Haufen Schutt und drei tiefe Schlaglöcher sind in einer engen Gasse schlimmer als auf einem Supermarktparkplatz :)
Der entscheidende Faktor bei Elektromigration ist stets die Spannung, nicht die hohe Temperatur. Genau deswegen bremst NV so bei den Spannungen. Es gibt nämlich auch interne Tests dazu...

Schrumpelratte
2015-11-17, 23:24:44
dieser thread hat mich so weich gekocht, das nun seit gestern eine palit super jetstream in meinem rechner arbeitet :P :biggrin:

bin für hilfreiche oc/bios mod (dau) anleitungen dankbar! diese ganze turbo boost geschichte ist neuland für mich. meine letzte nvidia war noch eine gtx 570 ohne den ganzen quatsch.

Hübie
2015-11-18, 00:04:35
Jensen sollte uns Provision zahlen, Jungs :biggrin:
Erst mal Gratulation und willkommen im Club. Bevor du das BIOS modifizieren gehst, solltest du über mehrere Tage und Spiele dein Ziel testen. In der Zwischenzeit solltest du mal bei Oli's Blog (https://oli.new-lan.de/2015/08/geforce-980ti-bios-voltage-slider-in-maxwell-bios-tweaker-1-36-freischalten/) vorbei schauen und schon mal die Spannungsregler freischalten. Der Boost läuft in etwa so: Grundtakt sind z.B. 1002 MHz. Die Elektronik sagt aber "hey wir haben noch ne Menge Budget das wir verpulvern können ", also regelt die Logik nach und gibt mehr Takt und Spannung. Dann meldet sich der Tempsensor und sagt "Ey Leute, macht halblang, denn es wird warm hier oben!" (ab 65 Grad Celsius). Von hier an werden Schritt für Schritt 13,5 MHz herunter getaktet.
Intern gibt es noch mehr Messungen wie etwa errechnete Stromdichte und vermutlicher Verbrauch in der nächsten Sekunde, aber das interessiert erst mal nicht.

Zur Elektromigration: Die Temperatur ist sehr wohl ein Faktor. Wärme kommt immer von Bewegung. Viel Bewegung, viel Wärme bedeuten höher Wahrscheinlichkeit dass Elektronen wandern und manchmal eben so heftig dass die Energie ausreicht um benachbarte ungewollt anzuregen. In Chips sind heiß wie auch Kaltleiter drin. Also kann man diesen Einflussfaktor keinesfalls ausblenden.
Was du meinst ist Zerstörung der Dotierung bzw. des Kristallgitter / der Gitterkonstante durch zu viel Energie (Spannung). Das nennt sich aber nicht Elektromigration, soviel ich weiß. Der Name will mir aber auch gerade nicht einfallen. Am häufigsten gehen die PHYs vom MC kaputt, da hier halt noch richtige "Leitungen" na beieinander liegen und schneller kaputt gehen. Wenn hier und da mal ein Transistor nicht oder nicht mehr richtig schaltet, dann bemerkt dass der User IdR wenig bis gar nicht.
Intel CPUs haben z.B. retry counter. Wenn also etwas nicht richtig lief, wird es einfach noch mal losgeschickt. Bis zu 3 mal auf Desktop-CPUs. Sind mit Latenz vielleicht mal 50ns. Wer merkt die schon? ;)

-/\-CruNcher-/\-
2015-11-18, 00:50:48
Das Problem sind die immer kleineren Strukturbreiten. Drei große Haufen Schutt und drei tiefe Schlaglöcher sind in einer engen Gasse schlimmer als auf einem Supermarktparkplatz :)
Der entscheidende Faktor bei Elektromigration ist stets die Spannung, nicht die hohe Temperatur. Genau deswegen bremst NV so bei den Spannungen. Es gibt nämlich auch interne Tests dazu...

Naja bei denen die sich jedes Jahr ne neue GPU kaufen ist das eh umsonst anzusprechen und was sie der GPU beim Verkauf über Ebay und Co in der Zwischenzeit angetan haben interessiert die meisten nicht wirklich und sowas wie einen Kilometerstandszähler für Elektromigration gibt es nicht jedenfalls öffentlich nicht (Blacksche Gleichung) ;)
Mich wundert aber schon länger ob Nvidia diese daten mit ihrem RTOS mitlogt und auslesen kann :D

Hübie
2015-11-18, 01:58:28
Das RTOS kann Daten nirgendwo in größeren Quantitäten speichern, geschweige denn dauerhaft. Das ist eine rein rudimentäre Überwachung, Benachrichtigung und Steuerung. So eine Flashzelle braucht auch Logik und Platz. Meinst nicht das wäre schon aufgefallen?
Ich kenne einige Debug-Ports von nVidia Karten und bisher ist nichts dahingehend aufgefallen.

Edit: Die Elektromigration ist wie gesagt keine dauerhafte Auswirkung. Erst wenn die Dotierung diffundiert bilden sich Majoritäten von Ladungsträgern zentralisiert und an der alten Stelle halt eine Minorität, was relativ viel Aktivierungsenergie benötigt. Ich kann mir sogar Vorstellen dass hier die Temperatur insofern mit reinspielt, weil sich die Dichte bei ändernden Luftdruck und Wärme ändert. Das ist jedoch nur meine Vermutung, da es durchaus möglich ist, dass diese geringen Änderungen vielleicht auch gar keine Auswirkungen diesbezüglich haben.
Igor könnte hier sicher interessante Dinge erzählen, aber wahrscheinlich nicht öffentlich.

Niall
2015-11-18, 07:01:31
dieser thread hat mich so weich gekocht, das nun seit gestern eine palit super jetstream in meinem rechner arbeitet :P :biggrin:

bin für hilfreiche oc/bios mod (dau) anleitungen dankbar! diese ganze turbo boost geschichte ist neuland für mich. meine letzte nvidia war noch eine gtx 570 ohne den ganzen quatsch.


Glückwunsch! :D

Zuerst einmal hast du den ab Werk eingestellten Grundtakt, auf welchen du Takt aufschlagen kannst. Die Karte bzw. die Logik boostet diesen dann hoch, abhängig von Temperatur und Power Target - bis zu einem gewissen Maximum. Dein auf den Basistakt gegebenes Plus wird, sofern Temperatur und maximales Power Target eingehalten wird, dann obendrauf gerechnet.
Eigentlich relativ simpel. (Man korrigiere bzw. erweitere meine Aussagen hier, , falls etwas ungenau.

Was für einen ASIC haste? Bist du bisher zufrieden? Lässt du den Kühler "Stock"? :)

(del)
2015-11-18, 11:27:11
Igor könnte hier sicher interessante Dinge erzählen, aber wahrscheinlich nicht öffentlich.

Naja, die Gelehrten streiten sich immer noch über den Anteil von elektrostatischer Kraft und der Impulsübertragung am Gesamtschaden, wobei ich ebenfalls eher zu Letzterem als Hauptursache tendiere (sogenannter "Eleketronenwind"). Es gibt auch Annäherungsformeln für die MTBF-Abschätzung, wobei das bei Halbleitern reichlich komplex wird. Und unser Freund Boltzmann spielt dabei mit seiner Konstante auch noch eine Rolle und nicht nur bei AMDs neuer Offensive ;)

Um auf die Haltbarkeit schließen zu können, benötigt man die jeweilige Materialkonstante, die Stromdichte (nicht mit Stromstärke zu verwechseln!), die Aktivierungsenergie für den Schädigungseffekt (wichtig), die eben erwähnte Boltzmannkonstante und letztendlich die Temperatur, die wiederum rekursiv die zulässige Stromdichte direkt beeinflusst.

Wobei sich die Fertigungsprozesse und auch Anfälligkeiten bei NV und AMD sehr deutlich unterscheiden. Doch Voids (Leerstellen) und Hillocks (Anhäufungen) entstehen durch Übertreibungen der Parameter bei beiden. Während die Voids oft genug für fehlerhafte Leiterbahnen und damit Unterbrechungen sorgen, lassen diese Hillocks, wenn sie sich ungünstig ablagern, sogar ungewollte Verbindungen zwischen einzelnen Leiterbahnen entstehen, also eine Art Kurzschluss. Man hat ungünstigenfalls also beides und zwar um so stärker in den Auswirkungen, je kleiner die Struturbreite wird. AMD GPUs können höhere Temperaturen ab, wobei zwar eklige Leckströme entsehen (die NV so nicht kennt), aber die GPU nicht kurzfristig schädigen können. Bei NV ist das Ganze deutlich fragiler, weshalb man auch die Temperatur- und Spannungslimits deutlich enger setzt. Um den Unterschied genau zu erklären, müsste man auf den genauen Fertigungspoozess eingehen. Und genau diese Details sind leider komplett unter Verschluss.

-/\-CruNcher-/\-
2015-11-18, 11:37:04
Das würde auch zu vielen vorkommnisen in der Vergangenheit passen sprich ausfall probleme Nvidias vs AMD statistisch :)
Nvidia scheint da immer sehr an der Edge des machbaren und manchmal geht es scheinbar schief ;)


Das RTOS kann Daten nirgendwo in größeren Quantitäten speichern, geschweige denn dauerhaft. Das ist eine rein rudimentäre Überwachung, Benachrichtigung und Steuerung. So eine Flashzelle braucht auch Logik und Platz. Meinst nicht das wäre schon aufgefallen?
Ich kenne einige Debug-Ports von nVidia Karten und bisher ist nichts dahingehend aufgefallen.
Du hast dich schonmal ans JTAG von Nvidia angestöpselt ?

Godmode
2015-11-18, 11:45:39
Naja bei denen die sich jedes Jahr ne neue GPU kaufen ist das eh umsonst anzusprechen und was sie der GPU beim Verkauf über Ebay und Co in der Zwischenzeit angetan haben interessiert die meisten nicht wirklich und sowas wie einen Kilometerstandszähler für Elektromigration gibt es nicht jedenfalls öffentlich nicht (Blacksche Gleichung) ;)
Mich wundert aber schon länger ob Nvidia diese daten mit ihrem RTOS mitlogt und auslesen kann :D

Ich bin so einer, der jedes Jahr sein Zeug verkauft und nicht gerade zimperlich was VCore und Takt angeht. Bisher hat noch kein einziger Käufer etwas reklamiert oder einen Schaden gemeldet. IMHO wird das ganze maßlos übertrieben.

TurricanM3
2015-11-18, 11:54:58
IMHO wird das ganze maßlos übertrieben.


Sehe ich auch so.

(del)
2015-11-18, 12:17:15
Sehe ich auch so.
Ich nicht. Ihr hattet bisher nur einfach Glück. :D

Aber manchmal ist es wirklich besser, keine RMA-Zahlen zu kennen. Das lässt der Unvernuft freieren Lauf :P

-/\-CruNcher-/\-
2015-11-18, 12:22:40
Ist halt problematisch wie willst du einen OC markt loswerden den du selbst aufgebaut hast über jahre die holzhammer methode bei laptops wurde ja nicht so gut aufgenommen von den usern, da ist man verdammt schnell zurückgerudert nach dem Treiber test "war nur ein versehen" ;)

TurricanM3
2015-11-18, 12:29:55
Gerade in Foren wäre das ein viel häufiger thematisierter Aspekt. Bei der Anzahl an Karten und CPUs kann ich da einfach nicht an Glück glauben. =)

(del)
2015-11-18, 12:30:40
Es wird ja generell alles mit entsprechend viel Headrom geplant. Insofern sind werksübertaktete Modelle noch voll im MTBF-Plan und der ganze OC-Gaming-Mist mit einbezogen. Erst das manuelle BIOS-Modding geht über diese Grenzen hinaus. Wobei so manches Werksmodell hart an die Grenzen geht. Allerdings ist es nichts, was von NV nicht vorher abgesegnet wäre ;)

Tja, und Foren... Ich möchte nicht das Verhältnis von Legendenbildung und verzerrter Wirklichkeitswahrnehmung zur Realität analysieren. Und die Vielzahl von Losern, die ihre Hardware übermütig zerkocht haben, wird sich hüten, den Misserfolg publik zu machen. :D

Es gibt Firmen, die haben aktuell z.B. sehr hohe Rücklaufquoten durch RAM Ausfälle. Und erzähle mir keiner, das wäre alles auch stets nur bei Default-Settings passiert ist. Gestern abend habe ich mit ein paar Leuten aus dem Handel bei Griechen gesessen, da gings um Produkte einer Firma mit S am Anfang, die besonders häufig betroffen ist. Sowohl von GPU, als auch Memory-Issues. Meist typische Übertakter-Scheiße von Kunden, die gern mit Ihrer Hardware auch so schnell wären, wie andere mit äquivalenten grünen Produkten. Diese Idioten findet man selten in Foren :D

-/\-CruNcher-/\-
2015-11-18, 12:36:08
Ja wie gesagt bei Maxwell sollte das Bios Modding ja eigentlich schon nicht mehr machbar sein aber die Russen waren wieder einmal schlauer mit Pascal kommt noch ein Security Layer mehr dazu mal abwarten vor allem muss die Sicherheit des Bios unter Windows 10 gegeben sein ;)

Eine nicht Authorisierte Veränderung des Bios stellt ein potenzieles Sicherheitsproblem dar.

Also mittleid hab ich mit denen nicht wirklich seit sie das OCing Kommerzialisierten schon nicht mehr, selbst schuld sie haben das ganze quasi schon als selbstverständlich erklärt, nu müssen sie damit leben die Kontrolle verloren zu haben ;)

Ob den leuten gefallen wird was in Zukunft passieren wird, abwarten an Intels Strategie haben sie sich ja auch gewöhnt ;)

Monty
2015-11-18, 12:56:17
dieser thread hat mich so weich gekocht, das nun seit gestern eine palit super jetstream in meinem rechner arbeitet :P :biggrin:

bin für hilfreiche oc/bios mod (dau) anleitungen dankbar! diese ganze turbo boost geschichte ist neuland für mich. meine letzte nvidia war noch eine gtx 570 ohne den ganzen quatsch.

Lach. Du wurdest doch von niemandem gezwungen :D Aber Glückwunsch zur Karte. Ist denke ich eine gute Wahl. Hab bisher kaum was Negatives zur Palit gehört ;)

phoenix887
2015-11-18, 15:32:37
Es wird ja generell alles mit entsprechend viel Headrom geplant. Insofern sind werksübertaktete Modelle noch voll im MTBF-Plan und der ganze OC-Gaming-Mist mit einbezogen. Erst das manuelle BIOS-Modding geht über diese Grenzen hinaus. Wobei so manches Werksmodell hart an die Grenzen geht. Allerdings ist es nichts, was von NV nicht vorher abgesegnet wäre ;)

Tja, und Foren... Ich möchte nicht das Verhältnis von Legendenbildung und verzerrter Wirklichkeitswahrnehmung zur Realität analysieren. Und die Vielzahl von Losern, die ihre Hardware übermütig zerkocht haben, wird sich hüten, den Misserfolg publik zu machen. :D

Es gibt Firmen, die haben aktuell z.B. sehr hohe Rücklaufquoten durch RAM Ausfälle. Und erzähle mir keiner, das wäre alles auch stets nur bei Default-Settings passiert ist. Gestern abend habe ich mit ein paar Leuten aus dem Handel bei Griechen gesessen, da gings um Produkte einer Firma mit S am Anfang, die besonders häufig betroffen ist. Sowohl von GPU, als auch Memory-Issues. Meist typische Übertakter-Scheiße von Kunden, die gern mit Ihrer Hardware auch so schnell wären, wie andere mit äquivalenten grünen Produkten. Diese Idioten findet man selten in Foren :D

Immer wieder interessant, deine Beiträge, ich weiss warum ich kein Bios Modding mehr mache und nur minimal per Software übertakte.

Habe mal kurz die Beta vom Afterburner 4.2 ausprobiert, damit ich die verschiedene Spannungen, ansteuern konnte. Habe ich aber dann gleich wieder sein lassen. Zu Buggy. Die VRAM überspannung, habe ich erst nach Deinstallation und Neustart wieder rausbekommen. Der Käse ist es mir nicht Wert:freak:

Armaq
2015-11-18, 15:53:07
Immer wieder interessant, deine Beiträge, ich weiss warum ich kein Bios Modding mehr mache und nur minimal per Software übertakte.

Habe mal kurz die Beta vom Afterburner 4.2 ausprobiert, damit ich die verschiedene Spannungen, ansteuern konnte. Habe ich aber dann gleich wieder sein lassen. Zu Buggy. Die VRAM überspannung, habe ich erst nach Deinstallation und Neustart wieder rausbekommen. Der Käse ist es mir nicht Wert:freak:
Ich weiss, warum ich gute Produkte out of the box will.

phoenix887
2015-11-18, 16:02:58
Ich weiss, warum ich gute Produkte out of the box will.

Sehe ich auch so. Mit der Lightning, habe ich gar nicht mehr das verlangen nach Bios Modding. Die nächste Karte wird auch erst wieder eine Pascal Lightning.

Thunder99
2015-11-18, 16:13:43
Es wird ja generell alles mit entsprechend viel Headrom geplant. Insofern sind werksübertaktete Modelle noch voll im MTBF-Plan und der ganze OC-Gaming-Mist mit einbezogen. Erst das manuelle BIOS-Modding geht über diese Grenzen hinaus. Wobei so manches Werksmodell hart an die Grenzen geht. Allerdings ist es nichts, was von NV nicht vorher abgesegnet wäre ;)

Tja, und Foren... Ich möchte nicht das Verhältnis von Legendenbildung und verzerrter Wirklichkeitswahrnehmung zur Realität analysieren. Und die Vielzahl von Losern, die ihre Hardware übermütig zerkocht haben, wird sich hüten, den Misserfolg publik zu machen. :D

Es gibt Firmen, die haben aktuell z.B. sehr hohe Rücklaufquoten durch RAM Ausfälle. Und erzähle mir keiner, das wäre alles auch stets nur bei Default-Settings passiert ist. Gestern abend habe ich mit ein paar Leuten aus dem Handel bei Griechen gesessen, da gings um Produkte einer Firma mit S am Anfang, die besonders häufig betroffen ist. Sowohl von GPU, als auch Memory-Issues. Meist typische Übertakter-Scheiße von Kunden, die gern mit Ihrer Hardware auch so schnell wären, wie andere mit äquivalenten grünen Produkten. Diese Idioten findet man selten in Foren :D
Danke für die Info :D. Das zeigt umso mehr, dass je extremer die Übertaktung wird, desto wichtiger eine gute Kühlung ist :). Was heute stabil ist muss morgen nicht mehr stabil sein :wink:.
Leider aber schon mit Werks-OC erlebt bei meiner alten MSI GTX 680 Lightning :eek: (selten manuelles OC gemacht) :mad:

Hübie
2015-11-18, 16:43:15
Ein noch recht großes Problem sind die verwendeten Materialien (Rohstoffe), welche früher oder später an die Grenzen stoßen. Jeder Stoff hat nun mal seine eigene "Schwingung" und somit kommt man einer Resonanzkatastrophe auch immer näher, je kleiner die Strukturen und je höher die Taktraten werden.
Das sollte spätestens irgendwo bei 10 GHz sein.
@Format_C: Was hast du eigentlich studiert bzw. wie ist deine Berufsbezeichnung? Ich suche ja als angehender Wirtschaftsingenieur natürlich nerdmäßig in "unserem" Revier (ASUS, nVidia oder Microsoft z.B. wären doch adäquate Arbeitgeber ;D). Hab nur noch kein Plan wie ich das anstellen soll, da ich kein Vitamin C zu den Unternehmen habe.

Das Thema "Auswirkungen von zu hohen Taktraten auf ASICs" wäre glatt eine Doktorarbeit, da es ein sehr umfangreiches und noch recht wenig erforschtes Themengebiet ist.

Edit: Übrigens ist auch das Thema Stromdichte eine sehr interessante Erkenntnis wenn man mal Fiji und GM200 gegenüberstellt. Das ist ein weiterer Grund für den vergleichsweise hohen (Mehr-)Verbrauch von AMD-Karten. Natürlich sind auch die vielen scratchpads / registger und Cache-Subsysteme große Ladungsträger.

Schrumpelratte
2015-11-18, 16:53:44
Jensen sollte uns Provision zahlen, Jungs :biggrin:
Erst mal Gratulation und willkommen im Club. Bevor du das BIOS modifizieren gehst, solltest du über mehrere Tage und Spiele dein Ziel testen. In der Zwischenzeit solltest du mal bei Oli's Blog (https://oli.new-lan.de/2015/08/geforce-980ti-bios-voltage-slider-in-maxwell-bios-tweaker-1-36-freischalten/) vorbei schauen und schon mal die Spannungsregler freischalten. Der Boost läuft in etwa so: Grundtakt sind z.B. 1002 MHz. Die Elektronik sagt aber "hey wir haben noch ne Menge Budget das wir verpulvern können ", also regelt die Logik nach und gibt mehr Takt und Spannung. Dann meldet sich der Tempsensor und sagt "Ey Leute, macht halblang, denn es wird warm hier oben!" (ab 65 Grad Celsius). Von hier an werden Schritt für Schritt 13,5 MHz herunter getaktet.
Intern gibt es noch mehr Messungen wie etwa errechnete Stromdichte und vermutlicher Verbrauch in der nächsten Sekunde, aber das interessiert erst mal nicht.

danke für die erklärung und den link. ich werde mich mal einlesen.

Glückwunsch! :D

danke :biggrin:

Was für einen ASIC haste? Bist du bisher zufrieden? Lässt du den Kühler "Stock"? :)

ASIC liegt bei 73%. gutes mittelfeld denke ich. kühler soll stock bleiben, die karte ist unfassbar leise! das problem ist nun das die letzte verbaute platte das lauteste bauteil geworden ist xD

Lach. Du wurdest doch von niemandem gezwungen :D Aber Glückwunsch zur Karte. Ist denke ich eine gute Wahl. Hab bisher kaum was Negatives zur Palit gehört ;)

schön zu hören! wenn man hier monate mit liest und sich dann auch noch das eine oder andere review anschaut, schleicht sich so ein verlangen einfach ein! :biggrin:


ich werde jetzt mal schauen wie weit ich die tage ohne bios gefummel komme. aktuell läuft sie mit 1222 base und 4000 speicher. der boost geht dann hoch bis 1444@stock voltage (1180mv).

Hübie
2015-11-18, 17:01:08
Das ist schon recht ordentlich. Ich selber habe das BIOS hauptsächlich für höheres PT, weniger Spannung und höhere Taktraten für GPC etc. verwendet. Also nicht unbedingt für den ALU-Takt selber.
Wer übirgens über die Taktraten immer wieder staunt sollte mal schauen wie hoch die bei GF110 gingen :D Verglichen mit der aktuellen Strukturbreite und Komplexität, dennoch erstaunlich. Ich selber hätte alles über 1350 für Glück gehalten, aber so irrt man sich. nVidias clock Distribution auf dem gesamten Chip ist enorm.

Godmode
2015-11-18, 17:05:39
@Job: Normalerweise kommt man über ein Internship/Praktikum am einfachsten rein. Das wird aber wohl schon zu spät für dich sein, wenn du schon bald mit der Dis anfangen willst. Man muss aber wirklich gut sein. Hatte einige Freunde die bei MS und Amazon waren/sind.

@Clocks: Das hätte wohl niemand für möglich gehalten, aber anscheinend haben sie gute Arbeit geleistet. Ich bin gespannt was wir mit 16ff+ sehen werden. Ich kann das überhaupt nicht einschätzen, erwarte eber wieder höhere Base/Boostclocks als noch bei GM200.

Hübie
2015-11-18, 17:57:49
Hehe. Gut auf Noten bezogen wird nix. Bin nicht so der Theoretiker. Was aber meine Arbeit angeht: Da stelle ich an mich selber hohe Ansprüche und bin daher nur begrenzt teamfähig. Mit einem zusammengewürfelten Haufen würde ich wahrscheinlich nicht klar kommen. Wenn ich mir dagegen ein Team zusammenstelle, dann machen wir alles platt. ;) Genug OT.

Was 16FF+ angeht: Da erwarte ich einfach mal 1,5 GHz, da kleinere Strukturen tendenziell mehr Schwingungen verkraften bzw. die Transistoren schneller schalten.

TurricanM3
2015-11-21, 11:54:24
Ich hab nun 10h auf 1155mV undervoltet @1500/4000 gespielt, scheint zu laufen. Hier Anno2205:

http://abload.de/thumb/unbenannt3zzkri.png (http://abload.de/image.php?img=unbenannt3zzkri.png)

Raff
2015-11-21, 11:56:32
Pervers. :D Mit dieser Spannung kriege ich meine TX gerade mal mit 1.405 MHz ans Laufen (was keineswegs schlecht, aber nicht ansatzweise so imba ist wie deine Karte).


MfG,
Raff

TurricanM3
2015-11-21, 22:51:39
Du hast aber denke ich mal viel mehr Spiele getestet. ^^
Ich hab mit der Karte bislang nur Anno gezockt.

Megamember
2015-11-21, 23:42:01
Pervers. :D Mit dieser Spannung kriege ich meine TX gerade mal mit 1.405 MHz ans Laufen (was keineswegs schlecht, aber nicht ansatzweise so imba ist wie deine Karte).


MfG,
Raff

Läuft die bei dir auch mit 39 Grad max?

Godmode
2015-11-22, 11:03:30
Ich hab nun 10h auf 1155mV undervoltet @1500/4000 gespielt, scheint zu laufen. Hier Anno2205:

http://abload.de/thumb/unbenannt3zzkri.png (http://abload.de/image.php?img=unbenannt3zzkri.png)

Das ist wirklich ein verdammt guter Wert. Ich müsste mal meine TX austesten, was diese für 1500 MHz an VCore benötigt. Immerhin hat meine ja auch einen 80+ ASIC Wert. Ich denke aber, dass ich da mit dir nicht mithalten kann.

phoenix887
2015-11-22, 12:26:17
Kann man das mit der Spannung überhaupt 1:1 vergleichen? Eine Ti hat doch weniger Shaderkerne oder fällt das bei der GPU Spannung nicht ins Gewicht?

Raff
2015-11-22, 12:45:28
Man kann davon ausgehen, dass ein voller Chip etwas mehr Spannung braucht als ein teilaktiver.

MfG,
Raff

TurricanM3
2015-11-22, 12:55:38
Das ist wirklich ein verdammt guter Wert. Ich müsste mal meine TX austesten, was diese für 1500 MHz an VCore benötigt. Immerhin hat meine ja auch einen 80+ ASIC Wert. Ich denke aber, dass ich da mit dir nicht mithalten kann.


Die 1155mV sind nicht stabil, schon witzig, kaum poste ich das und spiele heute 2h -> Greyscreen. :freak:

Fassen wir zusammen wann der Greyscreen jeweils kam:
1143mV = 10Min.
1149mV = ca. 2h
1155mV = ca. 12h
1162mv = testing =)

Ich finds kurios wie wenig die Voltage beim GM200 hinsichtlich der Temp ausmacht. Mit 1274mV habe ich vielleicht 3° mehr als mit 1149mV.

Raff
2015-11-22, 13:15:06
Du musst das Powerlimit natürlich mit erhöhen. Und dann heizt die Kiste heftig. Welche TDP hast du denn hinterlegt?

MfG,
Raff

TurricanM3
2015-11-22, 13:30:41
Nene, da läuft nichts ins Limit. =)
375W = 100%, kann per Regler auf 425. Mit 1155mV bin ich immer unter 80% geblieben.
Ich habe mich schon bei der Karte davor gewundert.

Troyan
2015-11-22, 13:32:23
Problematisch wird es erst, wenn du Spiele hast, wo die Karte sich heruntertaktet.
Ich spiele hier Dirty Bomb. DX9 UE3 Engine und die Karte taktet dauernd auf 1100Mhz - 12xxMHz oder so. Natürlich bekomme ich dann dauernd einen Abbruch, da der Offset für die Spannung zu hoch ist...

TurricanM3
2015-11-22, 13:33:15
Ich hab die Zwischenstufen angepasst, ist alles original. :smile:

Raff
2015-11-22, 13:52:31
Nene, da läuft nichts ins Limit. =)
375W = 100%, kann per Regler auf 425. Mit 1155mV bin ich immer unter 80% geblieben.
Ich habe mich schon bei der Karte davor gewundert.

80 % von 375 Watt wären rund 300 Watt. Passt zu dem Niveau, das ich auf vergleichbar gut "gehenden" Karten gesehen habe. Ich würde aber mal behaupten, dass 375 Watt für 1,274 Volt nicht genügen; 425 könnten's, aber nur, weil deine Karte eiskalt ist. Mit Luftkühlung sind zumindest 450 Watt bei 1,274 Volt kaum dauerhaft unter Volllast kühlbar.

MfG,
Raff

Troyan
2015-11-22, 13:58:00
Ich hab die Zwischenstufen angepasst, ist alles original. :smile:

Raffiniert... :freak:

Ich bleibe bei 1,1224V. Damit erreiche ich 1500MHz in fast allen Spielen und der Stromverbrauch ist z.B. in Syndicate bei ca. 77% (270W), Batman:AK bei ca. 85% (300W) und in BlackOps3 bei ca. 75% (262W).

Beeindruckend, wie effizient Maxwell bei ca. 65°C läuft.

TurricanM3
2015-11-22, 14:05:10
In Anno2205 hatte ich mit 1274mV 89% TDP (333W) Raff. Hab das aber nur 10Min. getestet weil jemand wissen wollte wie heiß die Karte damit wird.

Troyan, Anno2205 spielst nicht zufällig? Würde mich im Vergleich mal interessieren. 1500MHz mit 1,1224V, hast dich vertippt? :freak:

Godmode
2015-11-22, 14:08:34
Raffiniert... :freak:

Ich bleibe bei 1,1224V. Damit erreiche ich 1500MHz in fast allen Spielen und der Stromverbrauch ist z.B. in Syndicate bei ca. 77% (270W), Batman:AK bei ca. 85% (300W) und in BlackOps3 bei ca. 75% (262W).

Beeindruckend, wie effizient Maxwell bei ca. 65°C läuft.

Was hat deinen Karte für einen ASIC, weil 1,12 ist wirklich schon extrem wenig Spannung für 1500 MHz?

Troyan
2015-11-22, 14:09:31
Ach, ich mache immer den selben Fehler, es sind 1,224V.

/edit: Ich bin kein Strategiespieler.

LSSJBroly
2015-11-22, 14:18:52
Schon interessant, wie weit sich die Karten untereinander unterscheiden. Meine Karte braucht allein für 1.405 MHz schon 1,224V - für rund 1.450 MHz brauche ich richtung 1,274V. Mehr geht wohl nur bei niedrigeren Temperaturen, nicht bei um die 80 °C.

Mit 1,162V komme ich wirklich stabil auf rund 1.342 MHz :D

Lowkey
2015-11-22, 14:20:55
Sind die Daten überhaupt zuverlässig? Bei AMD CPUs und bei alten Intel CPUs waren die Werte auch nur grobe, geschätze Angaben. Oder liegt es an den VRMs?

Godmode
2015-11-22, 14:22:19
Für 1500|4000 MHz brauche ich bei der TX (ASIC 80,6) mindestens 1,218 Volt. Ich muss das mal in TW3 testen, ob das dort auch stabil ist.

Raff
2015-11-22, 14:33:00
Für 1500|4000 MHz brauche ich bei der TX (ASIC 80,6) mindestens 1,218 Volt. Ich muss das mal in TW3 testen, ob das dort auch stabil ist.

Dann scheint's da echt harte Zwischenstufen zu geben, die mit den elektrischen Eigenschaften der GPU zusammenhängen. 1.500 MHz kann ich beispielsweise komplett vergessen, die Karte ist mit keiner Spannung rockstable. Die Spannung verlängert die Scheinstabilität nur. 1.450 MHz sind kein Ding, ab 1.463 MHz kriege ich sporadische Abstürze, selbst mit 1,23 Volt. Schon krass, wie abrupt das ist.

MfG,
Raff

-/\-CruNcher-/\-
2015-11-22, 15:06:49
Wie sieht das hier auf der GTX980/GTX 980 TI aus bei euch bei 4K auch bei stabilen 30 FPS ? Also wie niedrig kommt ihr hier unter die 33.3 ms im Windowed Borderless ?

HBAO+ + HairWorks

http://i1.sendpic.org/t/jx/jx0FnJqs2rYQECZ7p0memjAtPlY.jpg (http://sendpic.org/view/1/i/klbTE0uxN8W3W1QUrZm1Hh3JdxX.png)
http://i1.sendpic.org/t/gj/gjJCYRzS5QXv7kOkCJTOFp2p21Y.jpg (http://sendpic.org/view/1/i/x7R1fAUCNZHNkLvpzVYsJTJ8XKd.png)


Syndicate ist gerade im Download bin echt gespannt was Ubisoft rausprest ohne HairWorks am DX 11 Limit aus Nvidias Treiber :D

Die stabilität meiner GTX 970 hab ich mit einem eigenen Multithread test soweit schon bestimmt bei 81*C 1.2v 1304 MHz und horror load demnach noch absolut stabil

Godmode
2015-11-22, 16:11:14
Wie sieht das hier auf der GTX980/GTX 980 TI aus bei euch bei 4K auch bei stabilen 30 FPS ? Also wie niedrig kommt ihr hier unter die 33.3 ms im Windowed Borderless ?



Da müsstest du schon eine genaue Stelle nennen, oder ein Savegame bereitstellen. Das Spiel ist verdammt groß.

-/\-CruNcher-/\-
2015-11-22, 16:35:06
Die Brücke vor der ersten Greifen Cutscene, rechte seite Abgrund tschadsching ;)

Hübie
2015-11-22, 21:48:12
Deine genauen Settings wären ebenfalls interessant. 8xMSAA für Hairworks macht ja z.B. überhaupt keinen Sinn usw.. Edit: wie kannst du eigentlich mit diesen Frametimes spielen? :eek::| Ich finde 33.3 schon gruselig ohne G-Sync.

Meine Karte ist jetzt bei 1430@1155 mV. Jede Woche eine Stufe herunter. Ich gehe kommende Woche auf 1450 MHz @1155 mV. Wenns läuft wieder ne Stufe weniger. Die 1450 sind eigentlich mein Ziel. Die 1430 liefen ja nun einige Wochen einwandfrei.

@Turrican: Die Wärme kommt von der Stromstärke und der Stromdichte. Diese ändert sich nicht so dramatisch.

TurricanM3
2015-11-22, 22:00:20
Bei CPUs ist der Unterschied halt viel größer. Ich kann mich auch an keine Grafikkarte erinnern, bei der das genauso minimal gewesen wäre.

Good Luck. :biggrin:

Hübie
2015-11-22, 22:04:18
Hier stellst du auch deutlich kleinere Bereiche um. Außerdem betrifft das ja nicht den kompletten Chip. ;) GM200 hat wie eine CPU mehrere Spannungseingänge und auch clock domains.
Wer von euch hat eigentlich die restlichen Taktraten (XBAR, GPC...) angehoben???

Godmode
2015-11-25, 14:40:20
Hier stellst du auch deutlich kleinere Bereiche um. Außerdem betrifft das ja nicht den kompletten Chip. ;) GM200 hat wie eine CPU mehrere Spannungseingänge und auch clock domains.
Wer von euch hat eigentlich die restlichen Taktraten (XBAR, GPC...) angehoben???

Nein, XBAR, etc. habe ich bisher nicht angerührt. Hast du das schon getestet? Ich erwarte mir davon eigentlich nur eine instabile GPU, bei sehr minimalem Leistungsplus.

TurricanM3
2015-11-25, 14:49:54
Ich hatte das mal getestet hier, hat überhaupt nichts gebracht.

ChaosTM
2015-11-25, 15:04:18
Meine neue Palit Jetstream, die gsd fast unhörbar ist, macht 1430/3850 ohne Stromerhöhung.
Damit kann ich leben.

MartinRiggs
2015-11-25, 18:54:48
Na wenn ich auch soviel Glück habe dann bin ich zufrieden.

Meine Palit Super Jetstream ist auch unterwegs, als leidenschaftlicher Downsampler hatte ich auch keine andere Wahl als ne 980Ti:freak:

Godmode
2015-11-25, 19:04:08
Na wenn ich auch soviel Glück habe dann bin ich zufrieden.

Meine Palit Super Jetstream ist auch unterwegs, als leidenschaftlicher Downsampler hatte ich auch keine andere Wahl als ne 980Ti:freak:

Titan X ginge auch ;)

Hier ein neues Review von Guru3D zur Gigabyte GeForce GTX 980 Ti Extreme Gaming WaterForce

http://www.guru3d.com/articles-pages/gigabyte-geforce-gtx-980-ti-extreme-gaming-waterforce-review,1.html

MartinRiggs
2015-11-25, 19:31:12
Hehe, ginge schon aber das wäre noch teurer und auf Bastellei hab ich keinen Bock.

Obwohl ich als Silent-Fetischist vom GTX980Ti Lineup der Hersteller recht enttäuscht bin.
Asus, Gigabyte, MSI, EVGA sind entweder laut oder qualitativ nix tolles.
Inno3D stirbt wohl gerne an den VRM

Da bleibt dann nicht mehr soviel, naja bin mal gespannt, mit Palit hab ich auch schonmal in die Sch.... gegriffen.

phoenix887
2015-11-25, 20:10:46
Hehe, ginge schon aber das wäre noch teurer und auf Bastellei hab ich keinen Bock.

Obwohl ich als Silent-Fetischist vom GTX980Ti Lineup der Hersteller recht enttäuscht bin.
Asus, Gigabyte, MSI, EVGA sind entweder laut oder qualitativ nix tolles.
Inno3D stirbt wohl gerne an den VRM

Da bleibt dann nicht mehr soviel, naja bin mal gespannt, mit Palit hab ich auch schonmal in die Sch.... gegriffen.

Doch keine Lightning?

MartinRiggs
2015-11-25, 21:07:25
Ich gebe Palit nochmal ne Chance, sollte die nix sein dann muss ich zur Lightning greifen:wink:

phoenix887
2015-11-25, 21:17:04
Ok alles klar. War nur überrascht das du zur ne Palit gegriffen hast.;)

Simon
2015-11-26, 00:35:40
Meine GTX 980 Ti lässt sich seit gestern nur noch im x8 Modus initialisieren. PCIe x16 geht nicht mehr :confused:
Na mal schauen was der Hersteller da zur Garantie meint ...

Hübie
2015-11-26, 07:11:20
Hast du denn geprüft ob die richtig sitzt und ob es auch kein Treiberproblem ist? Sonst mal mit DDU löschen und älteren Treiber probieren und ggf. anderen Slot testen. Viel Erfolg. :up:

Simon
2015-11-26, 07:25:28
Hast du denn geprüft ob die richtig sitzt und ob es auch kein Treiberproblem ist? Sonst mal mit DDU löschen und älteren Treiber probieren und ggf. anderen Slot testen. Viel Erfolg. :up:
Alle PCIe Slots auf zwei verschiedenen Mainboards (z68 und z170) durchprobiert mit dem gleichen Ergebnis. Frisch installiertes Windows, 3 verschiedene Treiber, gleiches Ergebnis ;(

Hübie
2015-11-26, 07:45:58
Okay, eindeutiger geht's net.

MartinRiggs
2015-11-26, 13:39:32
Was verreckt denn an/in einer Grafikkarte das nur noch PCI-Express x8 geht:confused:

kokett
2015-11-26, 14:21:15
Alle PCIe Slots auf zwei verschiedenen Mainboards (z68 und z170) durchprobiert mit dem gleichen Ergebnis. Frisch installiertes Windows, 3 verschiedene Treiber, gleiches Ergebnis ;(

Hast du mal die PCIE-Pins an der Grafikkarte mit hochreinem Isopropyl-Alkohol gereinigt? die 16x Initialisierung ist auf den hinteren Pins, wenn da Fett (vom Anfassen) oder sonstiger Dreck drauf ist, kann das durchaus sein. Die Grafikkarte wird an den vorderen Pins beim POST erkannt (es gibt ein Bild), aber die Link Breite (1x 4x 8x 16x) findet dann auf der gesamten Länge der Pinbelegung statt.

qiller
2015-11-26, 16:28:53
Obwohl ich als Silent-Fetischist vom GTX980Ti Lineup der Hersteller recht enttäuscht bin...

Viel Leistung, viel Abwärme. Ich hab gestern aus Spass mal die TDP-Grenze auf 50% gestellt. Meine Zotac taktet dann mit 1,018V auf 1190-1240MHz in Witcher 3@1080p. Trotz der gerade mal ~200MHz weniger wurde die Karte gut 4-5°C kühler und (viel wichtiger) die Fan-Speed landete bei gerade mal 1k RPM. Das ist zwar auch in meinem gedämmten Fractal Design R4 noch hörbar, aber ~1200MHz auf ner 980Ti haben immer noch ordentlich Dampf.

Und wer mit den stärksten, aktuellen OC-GPUs Silent-Gaming-Umgebungen haben möchte, muss zwangsläufig auf externe Wasserkühlungen ausweichen. Wer nicht so viel Geld ausgeben möchte, muss halt mit der TDP/Voltage/Takt runtergehen und schon muss weniger Abwärme abgführt werden. Und wir wissen ja alle, dass gerade die letzten MHz größere Spannungsprünge benötigen, ergo lässt sich hier auch am meisten sparen, was zu geringeren Temps und somit zu geringeren RPMs der Lüfter führt.

MartinRiggs
2015-11-26, 16:57:57
Viel Leistung, viel Abwärme ist klar, aber es sind leider immer die gleichen Hersteller die Müll bauen und es gibt ja einige wenige die zeigen das es geht.
Ein Zotac-Design hätte ich mir z.b. nie gekauft, überzeugt mich absolut nicht.

qiller
2015-11-26, 17:51:47
Ach das Design ist mir nicht so wichtig (Gehäuse ist eh geschlossen), Funktionalität schon eher und zumindest beim Kühlkörper hat Zotac da ordentlich was vorgelegt. Der Triple-Slot ist auch wirklich Triple und nicht 2,5 und der Kühlkörper nimmt aufgrund der flachen Lüfter sehr viel Bauhöhe ein. Allerdings finde ich die Backplates immer fragwürdig (wobei die bei der Zotac eher der Stabilität wegen vorhanden sein wird) und auch die Lüfterregelung ist ein großer, wenn nicht sogar der größte Schwachpunkt der Zotac (Igor hatte es ja in seinem Review erwähnt). Da ich BIOS-Modding aber nicht abgeneigt bin, konnte ich da etwas Abhilfe schaffen und hab die Karte letztendlich behalten.

MartinRiggs
2015-11-26, 17:57:33
Du hast mich falsch verstanden, unter Design verstehe ich bei Grafikkarten nicht das Blingbling sondern z.b. die vergurkte Lüfterkurve bei Zotac :wink:

Wenn eine Grafikkarte nicht grade lila oder sowas ist dann ist mir das Design völlig Laterne, hauptsache leise und gute Leistung.

MartinRiggs
2015-11-27, 16:53:35
Über die Leistung der 980Ti brauche ich kein Wort verlieren, die kennen alle, die Palit ist soweit auch ok, allerdings ist das Spulenfiepen wirklich nicht von schlechten Eltern, es kann doch nicht sein das aktuelle 700€ Grakas selbst bei 80-90 FPS Zirpen, Hobeln, Brutzeln oder whatever :mad:

(del)
2015-11-27, 17:39:36
Kleiner Appetizer aus meiner Fotoecke... :)

http://scontent-fra3-1.xx.fbcdn.net/hphotos-xtf1/t31.0-8/11231223_1116801255021204_3056281128929255660_o.jpg

MartinRiggs
2015-11-27, 17:42:19
Ich will einfach nur eine nicht fiepende Grafikkarte, keine mit Wakü

(del)
2015-11-27, 17:50:29
Dann back Dir eine. Die auf dem Bild fiept fast gar nicht ;)

RoughNeck
2015-11-27, 18:00:43
MSI 980 TI Gaming.
Fiept erst ab 400 FPS, da auch nur sehr leise. Ab 1000 FPS wird es dann schon hörbar, aber immer noch leiser als meine Titan X.

PS: Das fiepen kann auch am Netzteil liegen.

Hübie
2015-11-27, 18:02:27
Gefällt. Die Strix ist in puncto Kühlung für mich ein Fehlkauf. War bisher mit den ASUS DC Kühlungen stets sehr zufrieden, aber die Strix ist entweder laut oder heiß. Aktuell nehme ich bis zu 87 Grad in Kauf. 90% ist sie bei 84 Grad Celsius. Da ich zugegebenermaßen ziemlich knapp bei Kasse bin habe ich leider keine Wahl (Student und Papa halt) :D

Fiepen: Da hat Turri ja drauf aufmerksam gemacht. Im Heaven und Valley fiept es auch hier in unteren fps-Bereichen. Warum, wieso, weshalb..? Das weiß nur der Geier.

Lowkey
2015-11-27, 18:02:42
Die Gigabyte hat im Gegensatz zu den anderen Wakü-Karten einen anderen Kühler. Ich bin schwer gespannt.

MartinRiggs
2015-11-27, 18:02:59
Ja das weiß ich, bei nem 750Watt Corsair glaube ich aber weniger ans Netzteil

Hübie
2015-11-27, 18:10:08
Ein Corsair schließt ja per se kein Fiepen aus. ;) Kann man nur feststellen, indem man verschiedene Netzteile probiert.

RoughNeck
2015-11-27, 18:15:39
Gefällt. Die Strix ist in puncto Kühlung für mich ein Fehlkauf. War bisher mit den ASUS DC Kühlungen stets sehr zufrieden, aber die Strix ist entweder laut oder heiß. Aktuell nehme ich bis zu 87 Grad in Kauf. 90% ist sie bei 84 Grad Celsius. Da ich zugegebenermaßen ziemlich knapp bei Kasse bin habe ich leider keine Wahl (Student und Papa halt) :D

Fiepen: Da hat Turri ja drauf aufmerksam gemacht. Im Heaven und Valley fiept es auch hier in unteren fps-Bereichen. Warum, wieso, weshalb..? Das weiß nur der Geier.

Der Direct CU Müll von Anus war schon immer Müll.
Ich hatte eine 580 Matrix, heiß, laut und ein Lüfter viel schon nach paar Monaten aus. Die 290X Direct CU, wurde entweder heiß oder laut. Die 980 TI von MSI ist schon gut, hat halt wenig Reserven für OC.
Aber die Karte die ich hier habe hält den Takt von 1400 (die Karte boostet Stock schon so hoch) und wird dabei 71° warm und ich höre nur ein ganz leichtes säuseln, wenn ich die Seitentür öffne.

Kann ich jeden empfehlen der eine leise Karte sucht die nicht nach paar Wochen sterben will (Inno 3D X3 self destruction)

MartinRiggs
2015-11-27, 18:28:19
Ich kenne die Direct CU -Kühlung von Asus auch nur als absoluter Müll, hab diverse Karten genießen "dürfen".
GTX570, GTX770, R9 290X, alle totaler Schrott

RoughNeck
2015-11-27, 18:38:22
Die 500er Direct CU waren wirklich extrem shice.
Ich hatte insgesamt 4 Matrix Karten (nein nicht SLI). Nach 6 Monaten hatte ich die schnauze voll, dann habe ich mit die 780 Windforce angetan.
Die blieb kühl aber der Name Windforce war Programm, wobei Tornado hätte auch gepasst. Die MSI ist dagegen so leise, dass ich nochmal nachsehen musste ob die Lüfter wirklich drehen.

MartinRiggs
2015-11-27, 18:39:39
Obwohl du zu den wenigen gehörst wo die MSI GTX980TI gescheit läuft, scheinbar schwankt da die Qualität wie Sau.

Bei manchen wird die Karte sehr laut und heiss.

RoughNeck
2015-11-27, 18:52:12
Dann sollte ich Lotto spielen.
Wir haben insgesamt 3 MSI Karten gekauft und alle sind leise und werden dabei höchstens 75° warm. Die negativen Bewertungen kann ich nicht nachvollziehen.

Novum
2015-11-27, 19:00:55
Drei ist kein aussagenkraeftiger Stichprobenumfang.

dildo4u
2015-11-27, 19:08:38
Hier wird das erklärt warum die Endrücke unterschiedlich sind,es hängt davon ab in welchem Modus die Karte betrieben wird.Die Temps lassen noch weitere Lüfter Drosselungen zu.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35872-drei-modelle-der-geforce-gtx-980-ti-im-test.html?start=21

RoughNeck
2015-11-27, 19:11:43
Drei ist kein aussagenkraeftiger Stichprobenumfang.

Dann gib mir 20 Karten und ich teste alle durch.
Mein Gott, manche haben echt Vorstellungen :rolleyes:

qiller
2015-11-27, 20:26:43
Ihr vergesst auch die Güte der Chips, die ja auch innerhalb desselben Produkts schwanken kann. Es ist nunmal ein Unterschied, ob ich für 1400MHz 1,15V oder 1,2V brauche. Desweiteren sind Aussagen wie "läuft total leise bei 71°C" bei Grafikkarten vom Schlage einer 980Ti oder auch TX mehr oder weniger nichtssagend, da hier schon unterschiedliche Umgebungsbedingungen (Raumtemp, Gehäuse offen/geschlossen/Lüfter/gedämmt/zusätzliche Hitzeerzeuger), Chipgüte, Testmethode, OC/UC etc. zu starken Schwankungen bzgl. Temperaturen, Lüftergeschwindigkeiten und somit auch der Geräuschentwicklung führen können. Auch einzelne Reviews zu den Customdesigns sind sinnlos, solang man in den Tests immer nur den Vergleich zu den Referenzkarten sieht, aber nie den direkten Vergleich zu anderen Customdesigns. Und nochwas: Die Customdesigns sind nicht alle gleich getaktet/voltet, so dass z.B. Rückschlüsse auf die Güte der Kühllösung und deren Lautstärke eigt. nur Sinn machen, wenn man alle Karten z.B. bei 1400MHz@1,18V testet (womit man als Tester btw auch dem Cherrypicking der Hersteller entgeht). Dann wird für mich da langsam ein Schuh draus...

-/\-CruNcher-/\-
2015-11-27, 21:30:25
Ich will einfach nur eine nicht fiepende Grafikkarte, keine mit Wakü


Gefällt. Die Strix ist in puncto Kühlung für mich ein Fehlkauf. War bisher mit den ASUS DC Kühlungen stets sehr zufrieden, aber die Strix ist entweder laut oder heiß. Aktuell nehme ich bis zu 87 Grad in Kauf. 90% ist sie bei 84 Grad Celsius. Da ich zugegebenermaßen ziemlich knapp bei Kasse bin habe ich leider keine Wahl (Student und Papa halt) :D

Fiepen: Da hat Turri ja drauf aufmerksam gemacht. Im Heaven und Valley fiept es auch hier in unteren fps-Bereichen. Warum, wieso, weshalb..? Das weiß nur der Geier.

Fiepen lässt sich am einfachsten bei Luft Systemen mit Offscreen tests testen sehr gut geignet sind hier

Windows Experience Index
GFxbench Offscreen tests
3Dmark Offscreen tests

Die Lüftersteuerung springt in diesen Briefmarken Surface Tests faktisch so gut wie nie an, allerdings muss man auch beachten das das eben kein Standard Usage Szenario ist ausser vielleicht für Wasserkühlungen deswegen wird man dort auch mehr versuchen zu investieren um die Probleme niedriger zu halten als bei den Gesamtkosten eines (2-3) Lüfter Produkts was eine gewisse Technisch bedingte eigen Noise Cancellation Geräuschkulisse erzeugt die Gigabyte Watterforce ist hier ein Target Produkt bei der dieses Problem sofort auffallen sollte, ergo wird man hier mehr investieren um es so gut wie geht zu verhindern oder auch nur irgendwie abzumildern vor allem in diesem Prestige Preissegment :)

Garantiert werden hier schon lange R&D tests gemacht und man entscheidet sich für den Kostenaufwand des Produktes nach diesen Tests auch Zielgruppengesteuert.

Auch sieht man jetzt langsam einen Markt für solche spezieleren Targets nach den Intensivieren Maxwell Reviews wurde es ja langsam zu einem Verkaufsargument und der R&D Engineer Ehrgeiz der verschiedenen AIBs spielt natürlich auch eine Rolle auch die besten Komponentenhersteller mit wiederum der besten R&D zu finden :)

In der hinsicht ist auch interessant das Inno3D (PC Partner R&D) schon versucht hat (laut Format_C) das Problem zu mildern aber letztendlich am Ende doch die Flinte ins Korn geworfen haben mit ihren alles Einbetonieren versuchen so wie es scheint ;)

Format_C seine Aussage bzgl der Gigabyte würde ich da sehr viel gewicht schenken wenn er sagt fiept fast garnicht glaub ich ihm das persönlich sofort ist halt die Frage wie er dieses Fiept fast garnicht testet ob er gleich das Hardcore Szenario wählt oder ein eher realistischeres Usage Szenario oder vielleicht sogar gleich mehrere verschiedene mit einbezieht :)

Die Methodik muss ordentlich durchdacht sein ein simpler offener Benchtable bringt es hier nicht wirklich das muss Zielgenauer sein :)

Sprich ein Raum Model mit verschiedenen Noise Bedingungen und PC Konfigurationen + Entfernungen + Einbeziehung von verschiedenen Testpersonen und eben verschiedenen Applikationsszenarien.

(del)
2015-11-28, 06:45:24
Zur MSI 980 Ti Gaming 4G:
Exakt 75° im eingebauten Zustand und kein wahrnehmbares Fiepen auch hier. Ich bin nach meinem Testbericht sogar offen angefeindet worden, weil einige Leser sehr heiße Karten erwischt hatten. Mögliche Ursache war oft die teilweise schlecht aufgetragene Wärmeleitpaste, die neben dem eigentlichen Aufsetzpunkt (in viel zu hohem Umfang) aufgetragen wurde. Dazu muss man wissen, dass die Pampe fast immer zunächst auf den Kühler kommt. Je nach Hersteller gibt es dann verschiedene Methoden das Ganze aufzutragen, von einer Transferfolie bis hin zum Siebdruck. Ich vermute mal, hier wurde einfach beim Kühler geschludert.

Geräuschemissionen sind sehr unterschiedlich in der subjektiven Wahrnehmung und es fällt auch mir schwer, das allgemeingültig bewerten zu wollen. Ich messe in einer speziellen Kammer, die bei mir zwei Fliegen mit einer Klappe schlägt: Minimierung des Schallpegels von außen und Vermeidung von Refexionen im Raum. Ich kann auch noch 25 dB(A) sicher messen, reproduzierbar bis auf die Nachkommastelle. Wobei ich Nachkommastellen eigentlich albern finde, wenn mit normalen Schallpegelschätzgeräten gemessen wird. Deshalb nutze ich ein sehr hochwertiges Messmikrofon und geeignete Software, denn runden kann man später ja immer noch. Intern nutze ich für meine Bewertungen deshalb parallel auch noch dB, aber da diese Werte viel höher sind, würde es die Leser komplett verwirren.

Sone lehne ich übrigens aus gutem Grund ab, das ist was für die Bewertung von Windkraftanlagen, Autobahnen usw., aber bei sehr differenziert auftretenden Geräuschen einfach viel zu grob. Dabei darf man auch nicht vergessen, dass sowohl bewertete dB-Kurven (A, B, C) als auch Sone zur Psychakustik gehören und beides keine echten Messwerte im herkömmlichen Sinne, sondern nur Interpretationsversuche in Zahlen sind.

Bei der Gigabyte handelt es sich um ein Vorserienmodell, das wohl auch so in die MP geht. Genaue Daten kann/darf ich aber erst liefern, wenn das NDA gefallen ist. Und: irgend etwas hört man immer. Zumindest im offenen Aufbau.

Niall
2015-11-28, 08:02:10
Dann gib mir 20 Karten und ich teste alle durch.
Mein Gott, manche haben echt Vorstellungen :rolleyes:

Fiieeeep ...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10840472&postcount=2793

(del)
2015-11-28, 08:51:16
Also das Thermaltake Toughpower Grand 850W in meinem Wand-PC fiept und zwitschert z.B. deutlich lauter als die MSI 980 Ti Lightning, die Gaming 4G und die wassergekühlte Gigabyte. Ich werde wohl Firmen wie TT oder auch Corsair nie verstehen, die glauben, bei CWT bekäme man wirkliches High-End. Alles nur lookalike...

-/\-CruNcher-/\-
2015-11-28, 11:24:30
Danke für den kleinen Einblick in dein hehe THG Emissionstest Labor Igor ;)

Kann den vergleich der Daten zwischen MSI und Gigabyte kaum noch abwarten :D

Auch im direkten vergleich mit der Arbeit von Collermaster mit AMD bei der Fury X wird das sehr interessant :)

Niall
2015-11-28, 11:29:17
Also das Thermaltake Toughpower Grand 850W in meinem Wand-PC fiept und zwitschert z.B. deutlich lauter als die MSI 980 Ti Lightning, die Gaming 4G und die wassergekühlte Gigabyte. Ich werde wohl Firmen wie TT oder auch Corsair nie verstehen, die glauben, bei CWT bekäme man wirkliches High-End. Alles nur lookalike...

Irre dass es da scheinbar solche Unterschiede gibt.
Ich hatte mir kürzlich nochmal den Spaß gemacht und bin bei verschiedenen Settings in denen es zirpte oder pfiff mit dem Ohr an die verschiedenen Komponenten gegangen. Mein Corsair HX750i bleibt - bis auf den Lüfter irgendwann - totstill. Es kommt also definitiv von den Drosseln/Spulen/Wasauchimmer der Karte. :freak:

(del)
2015-11-28, 12:27:04
Man wird es mit Sicherheit hören, wenn man mal ein wirkliches Passivsystem nutzt. Mit Lärm kann man weniger dominante Geräusche nämlich trefflich überdecken.

Ich bin drauf gestoßen, als ich das Testsystem auf dem VGA Bench Table für meinen Messraum angepasst habe. Und auch wenn ich jetzt eine PSU drin habe, die quasi nicht zirpt, habe ich trotzdem deren Rücken zur Mikrofonseite gedreht und die Lüftein- und Auslässe noch einmal gedämmt. Wenn es nachts richtig still und alles aus ist, geht es in der Chamber locker runter bis 20 dB(A). Da ist jedes Hardwarehüsterchen messbar ;) Mit laufendem Testsystem sind es mittlerweile auch nur noch 23 dB(A), dank abgeregelter Pumpe.

https://scontent-fra3-1.xx.fbcdn.net/hphotos-xpf1/t31.0-8/12308071_1117171448317518_3353338082286385573_o.jpg

MartinRiggs
2015-11-28, 12:47:22
Fiieeeep ...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10840472&postcount=2793

Eieiei, schlimmer ist meine Palit auch nicht.

Monty
2015-11-28, 13:08:44
Dann gehts dir ja genauso wie mir mit meiner MSI 6G. Die Kühlung ist keine Fehlkonstruktion, aber für eine 980ti halt nicht gebaut und daher für diese Karte einfach ungeeignet.

Dafür aber null Spulenfiepen :)

Schrumpelratte
2015-11-28, 13:33:59
meine palit fiept auch aber relativ leise, mit geschlossenem gehäuse unter dem schreibtisch für mich unhörbar :)

ChaosTM
2015-11-28, 13:50:01
Das Fiepen meiner Palit wird bei mir anscheinend durch den Tinnitus verdeckt.
Ich spiele aber meistens mit nur 30-40fps per Afterburner gelockt, da viel mehr unter 4k sowieso nicht drinnen ist und ich lieber eine konstante Framerate hab.

Aus meinem Define 4 ist jedenfalls kaum was heraus-zuhören außer dem konstanten, leisen Luftstrom der vielen Gehäuselüfter, wenn es drinnen mal wärmer wird.

MartinRiggs
2015-11-28, 23:19:41
Hat jemand mit GTX980TI auch Far Cry 4?
Bei mir stürzt das Game ständig nach kurzer Zeit ab, mit der GTX780 hab ich es ohne Probleme durchgezockt, war halt nur ein älterer Treiber.
Treiber 359.00

Oder liegt das am aktuellen Treiber?

arcanum
2015-11-29, 01:45:08
Hat jemand mit GTX980TI auch Far Cry 4?
Bei mir stürzt das Game ständig nach kurzer Zeit ab, mit der GTX780 hab ich es ohne Probleme durchgezockt, war halt nur ein älterer Treiber.
Treiber 359.00

Oder liegt das am aktuellen Treiber?

habe farcry 4 vorher mit einer gtx970 und anschließend mit einer gtx980ti gespielt. habe 359.00 zwar nie getestet aber bei beiden musste ich die physx-effekte bei allen installierten treiberversionen vollständig deaktivieren, damit das game nicht ständig abstürzt.
wundert mich ein wenig, dass das problem mit der gtx780 nicht auftrat, wobei es, wenn ich mich recht erinnere, mit einer kombination aus treiber- und game-update eingeführt wurde.

Hübie
2015-11-29, 07:36:21
Ich habe vor wenigen Wochen FC4 ohne Probleme beendet. Keine Abstürze und auch keine Probleme mit PhysX. Was sagt denn das Protokoll? Gibt es eine Fehlermeldung beim Absturz?

MartinRiggs
2015-11-29, 12:29:53
Tja komisch, hab den 359.00 nochmal komplett neu installiert, Arschbrenner ausgemacht und bisher scheint es stabil zu laufen.
Gestern konnte ich keine 10 Minuten spielen, jetzt zocke ich schon fast ne Stunde.

RoughNeck
2015-11-29, 12:30:28
Ich kann auch in der Richtung nichts negatives berichten.
FC4 läuft einwandfrei mit der 980 TI un dem 359er Treiber, habe erst vor 2 Tagen im Coop gezockt.

@Topic.
Sagt mal, mir ist aufgefallen dass die Asus Strix keine VRAM Kühlung hat. Andere Hersteller wie MSI, Zotac oder EVGA setzen ja so "Kühlplatten" ein. Warum Asus nicht?
Potenzielle Sollbruchstelle?

Monty
2015-11-29, 12:48:50
Aber wie es aussieht, sind die Palits doch recht stark vom Spulenfiepen betroffen, oder ?
So kann man dann auch die sehr günstigen Preise erklären ;)

MartinRiggs
2015-11-29, 13:34:41
Läuft jetzt einwandfrei, weiß der Geier was da gestern los war, endlich wieder Kyrat unsicher machen :tongue:

Die Palit fiept gefühlt etwas mehr wie meine alte MSI GTX780, es fällt aber auch einfach mehr auf da ich eh ein Mesh-Gehäuse habe und vor allem da die Palit so verdammt leise ist, die bleibt stoisch bei 72 Grad und dreht mit 1160RPM, geht aber ne Booststufe runter von 1344 auf 1329

TurricanM3
2015-11-29, 13:35:52
Ich hatte die Jetstream und nun ref. PCB, beide mit Wakü. Das davon eine weniger surrte ist mir nicht aufgefallen.

Bei einer eher leisen Karte (erst recht leisem Rest) fällt das Surren mehr auf, obwohl es nicht unbedingt stärker ausgeprägt sein muss. Außerdem, frag 5 User bei der gleichen Karten du kriegst Antworten von "meine Karte fiept 100%ig gar nicht, auch nicht bei 5000fps" bis "deutlich hörbar schon bei 80fps". :freak:
Ich wette das wäre selbst dann schon so, wenn man ein und dieselbe Karte 5 Usern schicken würde. :biggrin:

MartinRiggs
2015-11-29, 13:40:43
Wenn man ein wirklich leises System hat dann fiept/surrt jede Karte zumindest wenn man kein Tinitus hat.
Hatte vorher extra nochmal meine GTX780 getestet und die Fiept/surrt auch fröhlich vor sich hin.

Ich würde ja gerne mal die Lightning testen, aber ob die wirklich fiepfrei ist wage ich zu bezweifeln.

TurricanM3
2015-11-29, 13:46:50
Wenn man ein wirklich leises System hat dann fiept/surrt jede Karte zumindest wenn man kein Tinitus hat.


Das sehe ich auch so. Allerdings empfinde ich das nicht unbedingt als Fiepen, eher surren. Ich höre das ohne Probleme, trotz Tinnitus. :frown:

ChaosTM
2015-11-29, 14:08:22
Eine kurze Zwischenfrage:
Ich kann weder am Monitor, noch am 2. Ausgabegerät (1080p TV) 50hz einstellen.
Das Nvidia Panel stellt immer wieder auf 60hz zurück ?!

24hz geht auch nicht am TV, was Filme schauen zu einer ruckeligen Geschichte macht.

Gibt es irgendwelche Treiberprobleme derzeit ?
Die Nvidia Systemsteuerung ist nebenbei extrem langsam.


edit: Nach einer Neuinstallation der Treiber sind 50/24hz jetzt zumindest über die Windows Einstellungen möglich.
Über das Nvidia Panel geht nach wie vor nichts. Sobald ich dort etwas ändere, friert Monitor 2 sofort wieder bei 60Hz ein ?!

MartinRiggs
2015-11-29, 14:20:29
Das sehe ich auch so. Allerdings empfinde ich das nicht unbedingt als Fiepen, eher surren. Ich höre das ohne Probleme, trotz Tinnitus. :frown:

Naja ist halt ne Frage der Begrifflichkeit, bis zu ner bestimmten FPS-Rate ist es ein Surren/Zirpen wie immer man das nennen möchte, ab 1000 FPS würde ich es schon Fiepen nennen.

Hübie
2015-11-29, 17:52:42
Die RAM Bausteine werden bei der Strix direkt angeblasen, also braucht man nicht zwangsläufig passive Kühlkörper, da das Silizium drum herum für genug Wärmeabgabe sorgt. Glaube dass passive Kühlkörper hier wohl keinen Vorteil hätten. Das müsste man jetzt aber explizit nachmessen.
Bei mir habe ich jetzt in Spielen echt noch mal gehorcht und da fiept oder zirpt es nicht in niederen Bereichen (alles bis 120 fps gemessen). Die Unigine Dinger tanzen da aus der Reihe.

kdvd
2015-11-30, 06:42:26
Gigabyte GTX 980 Ti Waterforce

http://www.techpowerup.com/reviews/Gigabyte/GTX_980_Ti_Waterforce/

http://www.techpowerup.com/reviews/Gigabyte/GTX_980_Ti_Waterforce/images/cooler2.jpg
http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_Waterforce/images/gtav_2560_1440.png http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_Waterforce/images/civbe_2560_1440.png

(del)
2015-11-30, 07:40:07
Das Review kann ich in weiten Teilen bestätigen. Was aber nervt, sind die viel zu kurzen Schläuche.

Hübie
2015-11-30, 07:59:46
Aus dem PCB werd ich nicht schlau. 12 MOSFETs, 12 Spulen und dann 19 Kondensatoren? :confused: Ich vermute mal dass einer der C zum PCIE gehört. Blieben noch 18. Dann sind wohl 6 mit zwei Kapazitäten und 6 einzeln verbunden. Daraus schlußfolgere ich mal dass jeder MC (2*32 Bit=1MC bei 6 Partitionen) einen MOSET, Spule und Kondensator zur Steuerung nutzt, während der Rest wohl doppelte C nutzt um die PWM-Frequenz zu erhöhen oder weniger Ripple reinzubringen.
Das dürfte dem RAM-OC ebenfalls sehr zuträglich sein. Aber nur in der Theorie.

Pirx
2015-11-30, 08:48:12
GTX 970 - 4 GB, 256 bit, SLI 8 GB?? techpowerdown

Hübie
2015-11-30, 09:04:14
Kannst du dich auch mal ausdrücken dass jeder Mensch versteht was du uns sagen willst? Wo steht das da? Im ganzen Review hab ich nix mit GTX 970 und 8 GB SLi gelesen. Also was bitte hat das damit zu tun?

Laut tpu soll die Karte 720$ kosten. Kann ich gar nicht glauben. Wenn dem so ist vercheck ich meine Strix und knüppel mir die rein. =)

(del)
2015-11-30, 09:51:45
Ich haue diese Woche noch die Karte durch den Testlauf. Hab halt gerade etwas Stau, weil ich meinen Akustik-Messraum mit jeder Menge Lautsprechertests blockiert habe. Naja, wird schon irgendwie. Mir gefällt sie jedenfalls auch, selbst wenn die Pumpe etwas hörbar ist. Die Alphacool AIO ist deutlich leiser. Ich muss mal schaun, ob ich die Bohrungen von deren Pumpe nutzen kann. :D

FatBot
2015-11-30, 11:13:04
@Hübie: Er meint halt die Angabe in den Diagrammen (SLI 8 GB), ist imo eben irreführend, auch wenn die Werte selbst passen.

Hübie
2015-11-30, 13:16:57
Ich haue diese Woche noch die Karte durch den Testlauf. Hab halt gerade etwas Stau, weil ich meinen Akustik-Messraum mit jeder Menge Lautsprechertests blockiert habe. Naja, wird schon irgendwie. Mir gefällt sie jedenfalls auch, selbst wenn die Pumpe etwas hörbar ist. Die Alphacool AIO ist deutlich leiser. Ich muss mal schaun, ob ich die Bohrungen von deren Pumpe nutzen kann. :D

Kannst du etwas zum Preis sagen? :naughty: Ist das die gleiche Kühllösung wie auf der 980 non-Ti??

(del)
2015-11-30, 13:20:14
Es ist nicht ganz die gleiche Kühllösung aber ähnlich. Beim finalen Preis habe ich keinen Plan, die MP wird ja diese Woche erst verschifft. Aber sie wollen die direkten Mitbewerber unterbieten, immerhin etwas.

Hübie
2015-11-30, 13:23:39
Das lässt hoffen. Es sei denn die Distris stopfen sich dass dann wieder in die Tasche.

(del)
2015-11-30, 13:30:12
Dafür kann ja dann aber GB nichts :D

Hübie
2015-11-30, 15:27:20
Ne natürlich nicht. Wäre zu schön um wahr zu sein wenn dieser Fall eintreten sollte. Die ASUS kostet immer noch 760€. War kurzzeitig mal bei 715. Jetzt "Dank" cashback wieder die üblichen 40-50€ mehr. X-D
Was sagst du zum PCB, Igor? Konntest du da etwas herausfinden bzw. hast du nähere Informationen wie die Verteilung da ist? Sieht jedenfalls nach einer mächtigen Versorgung aus. Oder ist das nur für den gesonderten PCIE Stecker im LN2-Modus? Bin auf deinen Bericht gespannt. :up: Hatte 2013 mal kurz ein Gigabyte Board, aber totaler Müll und davor zuletzt 2004 zu denen gegriffen. Wäre also mal eine willkommene Marke im Hause Hübie :)

x-force
2015-11-30, 18:20:05
http://tpucdn.com/reviews/Gigabyte/GTX_980_Ti_Waterforce/images/perf_oc.png
glaubt hier jemand ernsthaft, daß die waterforce 40% schneller ist als eine normale 980ti?

boostet die normale version nicht, oder hat techpowerup den takt auf 1000 lächerliche mhz limitiert?

laut tpu schafft die waterforce aber auch nur 70mhz mehr auf der gpu und 30mhz beim ram als eine normale 980ti.

imo ist es schon etwas beschönigend, die waterforce oc mit einer nicht oc version zu vergleichen. die schönen balken bescheinigen +40%, dabei können es real nach tpu nur ungefähr 5% sein (1437 vs 1510 mhz)

(del)
2015-11-30, 18:48:15
Die normale 980 Ti im Referenzdesign throttelt aber unter längerer Last bei mir auf deutlich unter 1000 MHz. Im Extremfall waren dann nur noch etwas über 900 Mhz drin. Boost kann man da voll vergessen, denn es liegt noch unter dem eigentlichen Standardtakt (Metro LL in Ultra-HD). Bei 600 MHz mehr Takt und besserem Speicherdurchsatz sind dann die knapp 40% durchaus realistisch. Der Referenzkühler ist eine echte Spaßbremse.

LSSJBroly
2015-11-30, 19:03:57
In Games (2160p - egal ob Anno 2070, Risen 3 oder auch Metro LL) ist mir der Takt bisher noch nie unter dem Basistakt gefallen (mit dem Referenzkühler). In Furmark oder anderen Anwendungen, klar, wenn die Leistungsaufnahme der Karte über dem im BIOS eingestellten PT steigt.
Aber sonst hast du natürlich recht. 1.510 MHz wären eben 51% mehr Takt (gegenüber praxisnahen 1.000 MHz). Mit dem Plus an Bandbreite kommt da eben schon was rum.

Niall
2015-11-30, 19:07:11
Die normale 980 Ti im Referenzdesign throttelt aber unter längerer Last bei mir auf deutlich unter 1000 MHz. Im Extremfall waren dann nur noch etwas über 900 Mhz drin. Boost kann man da voll vergessen, denn es liegt noch unter dem eigentlichen Standardtakt (Metro LL in Ultra-HD). Bei 600 MHz mehr Takt und besserem Speicherdurchsatz sind dann die knapp 40% durchaus realistisch. Der Referenzkühler ist eine echte Spaßbremse.

Heftig.
Wobei ich eh immer diese Geste vollführe, wenn ich die Temperaturen unter dem Stock-Kühler sehe: :weg:

Eine ordentliche Custom-Wakü ist teuer, keine Frage (mit Backplate pro Karte rund +150€, das ganze Geraffel drumherum gar nicht eingerechnet) - dafür wirst du (und die Karte) allerdings bei guten Setup mit Totenstille und Temperaturen <= 40°C verwöhnt. :love4:

Hübie
2015-11-30, 19:23:09
Die normale 980 Ti im Referenzdesign throttelt aber unter längerer Last bei mir auf deutlich unter 1000 MHz. Im Extremfall waren dann nur noch etwas über 900 Mhz drin. Boost kann man da voll vergessen, denn es liegt noch unter dem eigentlichen Standardtakt (Metro LL in Ultra-HD). Bei 600 MHz mehr Takt und besserem Speicherdurchsatz sind dann die knapp 40% durchaus realistisch. Der Referenzkühler ist eine echte Spaßbremse.

Schön dass du meine Fragen ignorierst :P :biggrin:

TurricanM3
2015-11-30, 20:15:57
Mal wieder BF4 nach 10h gecrashed @1162mV:

http://abload.de/img/unbenannt5ju78.png (http://abload.de/image.php?img=unbenannt5ju78.png)

Ich bin mal gespannt ob ich das Spiel je stabil kriege. Mit den drei Karten davor (andere 980Ti + GTX980 und 780Ti) das gleiche. Ich bin ja fast schon so weit mal ohne OC zu testen, wenns nicht so spürbar schlechter liefe.

(del)
2015-11-30, 20:44:02
Schön dass du meine Fragen ignorierst :P :biggrin:
Ich bin heute mit meinem neuen Smartphone beschäftigt :P

qiller
2015-11-30, 21:14:30
Das TechpowerUp-Review ist mal wieder ne gute Bestätigung meiner zuvor geäußerten Kritik (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10863098#post10863098).

Wieso stehen in einem Custom-980Ti-Review in sämtlichen Diagrammen lauter Referenzkarten anderer Modelle? Jemand, der sich für ein 980Ti-Custom-Design interessiert, möchte den Vergleich zu anderen 980Ti-Custom-Designs sehen, nicht zum Referenzdesign einer R9 Fury oder GTX970. Man kann ja gerne 3-4 Referenzkarten reinnehmen zur groben Einordnung, aber irgendwelche SLI-Gespanne, interessieren mich nicht die Bohne. Und wenn man die Taktfrequenzen und Voltage auf eine Test-Einstellung festtackert, kann man sich nämlich auch die ganzen Benchmarks sparen (sollte ja eh dasselbe rauskommen) und sich vollkommen auf die wichtigen Dinge bei einem Customdesign konzentrieren: Board-Design, Lautheit, Kühlung, Temperaturverteilung, Lüftersteuerung, VBios, Verbrauch, Zusatz-Features etc.

akuji13
2015-11-30, 21:37:06
dafür wirst du (und die Karte) allerdings bei guten Setup mit Totenstille und Temperaturen <= 40°C verwöhnt. :love4:

Das will ich sehen bzw. nicht hören.
Bei 22° Raumtemperatur vielleicht. :D

Aber nicht mal da, Totenstille heißt schon mal keine Lüfter.

Niall
2015-11-30, 23:05:59
Das will ich sehen bzw. nicht hören.
Bei 22° Raumtemperatur vielleicht. :D

Aber nicht mal da, Totenstille heißt schon mal keine Lüfter.

Du weißt was ich meine.:freak:

Unter Dauervollast laufen drei 140er bei 500 1/min, zwei 120er bei um 600 1/min und zwei 140er BeQuiets für Frischluft bei 700 1/min. Natürlich nicht Totenstille, im Vergleich zur Stocklösung aber schon. Mehr als ein seichtes Rauschen ist da wirklich nicht. :D Die Wassertemperatur pendelt sich bei um 36'C ein, normale Raumtemperatur eben.

Hübie
2015-11-30, 23:17:09
Mal wieder BF4 nach 10h gecrashed @1162mV:

http://abload.de/img/unbenannt5ju78.png (http://abload.de/image.php?img=unbenannt5ju78.png)

Ich bin mal gespannt ob ich das Spiel je stabil kriege. Mit den drei Karten davor (andere 980Ti + GTX980 und 780Ti) das gleiche. Ich bin ja fast schon so weit mal ohne OC zu testen, wenns nicht so spürbar schlechter liefe.

Das kackte bei mir jetzt vor einer Woche oder so auch zum ersten Mal, seit ich es besitze, ab. Liegt vielleicht einfach am Game selber.
Obowhl mir nun auch Dying Light manchmal abschmiert. Hab das lange nicht gezockt, also weiß ich nicht ob OC schuld ist oder nicht. Andere Games liefen bisher auch nach Stunden noch einwandfrei. Würde jetzt erst mal sagen, dass meine Karte wohl nicht gamestable ist, aber weder das eine noch dass andere kann ich 100%ig sagen.

@Igor: Was hast denn für eins bekommen?:naughty:

BlacKi
2015-11-30, 23:23:16
Heftig.
dafür wirst du (und die Karte) allerdings bei guten Setup mit Totenstille und Temperaturen <= 40°C verwöhnt. :love4:

nimms mir nicht krumm, aber ob die temp nun bei 40° oder 60° liegt ist doch vollkommen schnuppe. du hast dadurch doch garkeine vorteile. 80+ grad sind mir allerdings auch gefühlt zuviel, auch wenn die karten das verkraften sollten.

ein 360er reicht eigentlich 55° bei der 980ti und 65° cpu zb 5820k@4,4ghz. 800-900rpm ist eigentlich auch nicht laut.

derzeit hab ich nur einen 240er slim.

aber jedem das seine.

Niall
2015-12-01, 06:28:44
nimms mir nicht krumm, aber ob die temp nun bei 40° oder 60° liegt ist doch vollkommen schnuppe. du hast dadurch doch garkeine vorteile. 80+ grad sind mir allerdings auch gefühlt zuviel, auch wenn die karten das verkraften sollten.

ein 360er reicht eigentlich 55° bei der 980ti und 65° cpu zb 5820k@4,4ghz. 800-900rpm ist eigentlich auch nicht laut.

derzeit hab ich nur einen 240er slim.

aber jedem das seine.

Nehm' ich nicht. ;)
Ich bastel halt gern und versuche immer wieder das System zu perfektionieren. Natürlich ist es bis zu bestimmten Temperaturen grundsätzlich egal, ich optimiere auch eher um des Optimieren willens. :freak:

phoenix887
2015-12-01, 08:31:00
Nehm' ich nicht. ;)
Ich bastel halt gern und versuche immer wieder das System zu perfektionieren. Natürlich ist es bis zu bestimmten Temperaturen grundsätzlich egal, ich optimiere auch eher um des Optimieren willens. :freak:

Kenne ich. Das Alibi vor sich selber:D

(del)
2015-12-01, 11:10:01
Ich wollte es ja eigentlich noch nicht groß breittreten, aber nur mal so nebenbei: auf der Gigabyte ist so eine Dreckspumpe vom Kühlermeister, die bei AVC zusammengefrickelt wurde. Fury X und mal wieder ein Déjà-vu. Das hätte TPU ruhig offen schreiben können :D
Es ist wirklich eine geile Karte, bis auf den ollen Buzzer. Da hat Cooler Master jetzt Gigabyte den ganzen Müll aufs Auge gedrückt, den man bei AMD wohl nicht mehr losgeworden ist :D

Monty
2015-12-01, 13:00:37
Wenn man ein wirklich leises System hat dann fiept/surrt jede Karte zumindest wenn man kein Tinitus hat.
Hatte vorher extra nochmal meine GTX780 getestet und die Fiept/surrt auch fröhlich vor sich hin.

Ich würde ja gerne mal die Lightning testen, aber ob die wirklich fiepfrei ist wage ich zu bezweifeln.


Dies kann ich verneinen. Ich hab ein wirklich feines Gehör und bin extrem Geräuschempfindlich, weshalb ich schon viele Stunden in die Geräuschentfernung meines PCs investiert habe. Meine MSI fiept tatsächlich nur wenn man sein Ohr schon fast drauflegt und es dabei schön brutzeln lässt.
Kein Vergleich zu meiner Palit GTX770 :)

Hübie
2015-12-01, 17:47:01
Ich wollte es ja eigentlich noch nicht groß breittreten, aber nur mal so nebenbei: auf der Gigabyte ist so eine Dreckspumpe vom Kühlermeister, die bei AVC zusammengefrickelt wurde. Fury X und mal wieder ein Déjà-vu. Das hätte TPU ruhig offen schreiben können :D
Es ist wirklich eine geile Karte, bis auf den ollen Buzzer. Da hat Cooler Master jetzt Gigabyte den ganzen Müll aufs Auge gedrückt, den man bei AMD wohl nicht mehr losgeworden ist :D

Wo wir bei "zu schön um wahr zu sein" angekommen wären. Schade. Dann bleibt die Strix halt hier.

(del)
2015-12-01, 19:44:27
GB hatte den Vertrag mit CM wohl schon vor dem Fury X Fiasko und die Pumpe ist und bleibt eine Fehlkonstruktion. Ich muss echt mal schaun, ob nicht die Alphacool-Pumpeneinheit drauf passt :D

Hübie
2015-12-01, 21:38:11
Dann war der Anforderungskatalog nicht vorhanden oder nicht präzise genug. Solche fails muss ein Unternehmen teuer bezahlen, statt ungeschoren davon zu kommen.

MartinRiggs
2015-12-02, 00:33:18
Dies kann ich verneinen. Ich hab ein wirklich feines Gehör und bin extrem Geräuschempfindlich, weshalb ich schon viele Stunden in die Geräuschentfernung meines PCs investiert habe. Meine MSI fiept tatsächlich nur wenn man sein Ohr schon fast drauflegt und es dabei schön brutzeln lässt.
Kein Vergleich zu meiner Palit GTX770 :)

Ich habe grade mal nachgelesen, die MSI GTX980TI hat 8+2 Phasen VRM und Palit natürlich nur 6+2, war ja klar :freak:
Dann wundert es mich auch nicht das die MSI doch merklich leiser bleiben kann.

Hübie
2015-12-02, 01:46:53
Aktualisier mal deine Sig =) Die Palit ist im Grunde ein Referenzdesign, auch wenn hier und dort andere Bauteile verwendet wurden und die Platzierung nicht baugleich der Referenz entspricht. Palit ist einer der wenigen mit eigenen Fertigungsstraße, was bedeutet dass diese Jungs eben auch selber die PCBs gestalten. Leider sind die auch mit am geizigsten. X-D

qiller
2015-12-02, 10:54:30
Hatte mit Palit noch nie gute Erfahrung gemacht. Für meine eigenen PCs hab ich die nie gekauft. Mal meine NVidia-Serie:

-Diamond Riva 128: lief beim letzten Test eines Win98-Vintage-Rechners noch
-Geforce 256 DDR (Hersteller weiß ich nimmer): kaputt
-Asus Geforce 2 GTS: kaputt
-Asus Geforce 4 Ti 4400: kaputt
-Gainward 6600GT AGP: kaputt
-MSI 8800GTS 320MB: läuft immer noch
-Gigabyte GTX260: läuft immer noch
-Gigabyte GTX460OC: futsch (ging von einem auf dem nächsten Tag nicht mehr)
-EVGA GTX580: lüppt immer noch
-EVGA Titan SC Classic: lüppt auch noch
-Zotac 980Ti Amp Extreme: ...

Monty
2015-12-02, 11:11:00
Ich finde, dass man Palit deswegen nicht schlecht reden sollte. Die sind halt "meist" konkurrenzlos günstig. Dass da irgendwo gespart werden muss, sollte jedem klar sein ;)

MartinRiggs
2015-12-02, 11:34:41
@Monty
Darf man bei der MSI Ti den Kühler tauschen? Bei meiner alten MSI ist ein Siegel drauf.
Überlege ob ich den Palit-Hobel zurückschicke, das Fiepen in der 700€-Klasse ist irgendwie määäh

Niall
2015-12-02, 12:49:18
@Monty
Darf man bei der MSI Ti den Kühler tauschen? Bei meiner alten MSI ist ein Siegel drauf.
Überlege ob ich den Palit-Hobel zurückschicke, das Fiepen in der 700€-Klasse ist irgendwie määäh

Schreib denen einfach mal 'ne Mail.
Bei meiner vorherigen Karte (Gainward Phantom 780ti) waren die Aussagen recht nebulös und bevor ich sie verkaufte, habe ich bei denen nachgefragt wie es in diesem Fall um die Garantie stünde. Weise aber in der Mail explizit darauf hin, wie es sich verhält wenn der Kühler getauscht wird, der mögliche Defekt aber nicht durch den Tausch zustande kam. :freak:

Hübie
2015-12-02, 14:44:12
Bei Kepler hat mir MSI noch versichert, dass das Siegel für Deutschland keine Bedeutung habe und ein Tausch des Kühlers kein Garantiebruch sei. Ich denke das hat sich bis heute nicht geändert. Anruf oder Mail genügt (dann jedoch besser eine andere Adresse als die mit welcher man sich registriert).

Lowkey
2015-12-02, 14:49:47
Der Sachverhalt mit dem Kühlerwechsel ist der, dass jemand hier öfters geschrieben hat, dass es in Germay grundsätzlich erlaubt sei. Die Händler oder Hersteller sehen das manchmal anders und es verkommt zum Glücksspiel. Manche Händler wie Amazon tauschen innerhalb der Gewährleistung alles aus und Hersteller wie Palit stellen sich grundsätzlich quer. Laut HT4U ist deren Liste auch nicht mehr aktuell. Einige Hersteller haben direkt nach dem Artikel ihre Politik verändert.

Hübie
2015-12-02, 14:55:33
Ja da spielt auch die Beweislastumkehr eine Rolle. Wenn der Hersteller einen Tausch ablehnt und man ist noch innerhalb der sechs Monate, dann macht kein Händler soviel Aufwand dem Kunden das in die Schuhe zu schieben. Wenn der Hersteller dies gestattet und man ist aus den sechs Monaten raus, kann der Hersteller statt des Händlers einspringen. In jedem Fall ist es ratsam einen Hersteller zu wählen der es gestattet und einen Händler zu wählen der auch für Kulanz steht. Dann macht man eigentlich nix falsch. :) Mir hat man bisher nie etwas verweigert *auf-Holz-klopf*

MartinRiggs
2015-12-02, 15:51:58
Im Luxx hat MSI es grade bestätigt, im Defektfall auf Original zurückbauen und einschicken.

(del)
2015-12-03, 19:37:32
Wenn die bekloppte Tinitus-Pumpe nicht wäre.... Die Gigabyte läuft mit +30% Power Target und +87mV dann satte 1510 Mhz stabil durch, Ram geht fast 2100. Bei <53°C in Metro LL nach einer Stunde Loop. Da kann der Corsair-Kühler auf der MSI einpacken. Der Alibi-Lüfter für die VRM ist echt überflüssig.

Hübie
2015-12-03, 22:08:20
Wann geht dein Review online, Igor? :smile:

-/\-CruNcher-/\-
2015-12-03, 22:15:56
@Igor

Hälst du jetzt eigentlich Rücksprache mit Gigabyte auf was sie sich gefasst machen müssen mit diesem Kritikpunkt im Review ? ;)

(del)
2015-12-04, 14:30:50
Ich darf leider nicht alles ausplaudern, aber GB hat gerade die Verantworlichen von CM rangezerrt. Es sind, wie bei der Fury auch, nicht alle Karten gleich stark betroffen. Ich schicke meine am Montag per Kurier und Overnight zu den Kollegen vom R&D. Langsam bekomme ich echt Frust mit dem AVC-Gerümpel. CM sollte sich schleunigst einen besseren OEM suchen oder Gigabyte einen anderen Zwischenhändler. Warum die nicht selbst mit den OEM verhandeln, erschließt sich mir nicht.

Review ist zwar fertig, aber ich bin auch so fair, die Ergebnisse der Diskussionen mit CM abzuwarten. Es gibt noch mehr Issues, leider. Da funktionieren Heatpipes nicht, wie sie sollen usw. Ist produktionsbedingt, weil hingeschludert. CM ruiniert gerade seinen Ruf auf breitester Front. Wobei die Corsair-Kühlung technisch auch nicht besser ist. Und PC-Partner nutzt bei den eigenen Brands dafür Arctic. Die gleiche Loser-Truppe, was AIO Wasserkühlungen für Grafikkarten betrifft. Man könnte echt heulen, mit was für Brettern vorm Kopp das Management vieler Firmen rumrennt. Und damit die Reviewer die Pumpen nicht wieder so einfach abmontieren können wie bei der Fury, kommen jetzt sogar zwei Sorten unterschiedlicher Spezialschrauben zum Einsatz. Wer Leichen im Keller hat, schließt halt die Kellertür besonders fest ab. :P

akuji13
2015-12-04, 15:07:37
CM kann mMn gar keinen Ruf ruinieren. :D

Die stehen für mich schon lange für billig, egal welcher Produktbereich.

W4RO_DE
2015-12-04, 15:11:39
Das Stacker 832 Gehäuse war toll. *in Erinnerungen schwelg* :D

Lowkey
2015-12-04, 15:12:40
Meine zweite CM Tastatur, mechanisch, hat nun auch Ausfallerscheinungen.

akuji13
2015-12-04, 15:17:33
Das Stacker 832 Gehäuse war toll. *in Erinnerungen schwelg* :D

Ist aber lange her. :wink:
Länger als die Produkte danach die immer schwächer wurden.

Meine zweite CM Tastatur, mechanisch, hat nun auch Ausfallerscheinungen.

Meine beiden bislang noch nicht.
Aber die Nova Touch habe ich auch nur weil es keine Alternative zu ihr gibt.

hq-hq
2015-12-05, 00:11:22
Wusste garnicht, dass man mit dem Precision X jetzt undervolten kann :confused:

mit der 980ti hab ich es neu installiert

einmal default und einmal "overboost" auf 1.150v, erreicht allerdings nie 1.15v höchstens mal 1.120v...

Hab den 3d murks ein paar mal laufen lassen, die niedrigere Spannung hat hier keinen Einfluss auf Takt oder Stabilität.

http://abload.de/img/undervolten_gtx980tib1y72.jpg

Lowkey
2015-12-07, 13:40:39
@ Format_c

http://www.computerbase.de/2015-12/asetek-us-verkaufsstopp-fuer-fury-x-und-water-force-beantragt/

(del)
2015-12-07, 17:22:36
Dort gehts um die Die 980 Waterforce, nicht die 980 Ti Extreme und es ist lustig, dass es auch mal in der Presse wieder hochgespült wird. Diese Story läuft doch schon seit AMDs Launch ;)

Die 980 Ti Extreme hat Asetek bisher nicht in die Finger bekommen, ich schon. Aber - falls Asetek jetzt mitliest - es ist der selbe Seidon-Pumpenkrüppel drauf, der AMD schon den Launch verhagelt hat. Somit wäre es also zumindest in Nordamerika durchaus auch ein potentieller Kandidat. Ich habe Gigabyte seit Langem nahegelegt, sich nicht auf CM einzulassen. Ich hoffe, langsam fällt dort auch mal der Groschen. :)

Exklusiv von mir für Asetek ;)
http://media.bestofmicro.com/S/V/544063/original/Seidon-01.jpg

http://media.bestofmicro.com/S/W/544064/original/Seidon-02.jpg

Gigabyte hat übrigens die gleichen Produktionsschwankungen bemerkt, wie wir es schon bei AMD hatten. AVC ist nicht in der Lage, eine abgekupferte Pumpe sauber nachzubauen, Cooler Master bekommt einen Patent-Rüffel nach dem anderen und die angeschmierten Kunden haben das Mega-Los. Wie viele rote Karten braucht CM eigentlich noch? The "Maker Company"?!

RoughNeck
2015-12-07, 18:06:00
Was ich nicht verstehe, wieso kauft AMD und Gigabyte nicht direkt bei Asetek?
Ich meine, die Seidon sind das billigste was ich so im AiO Sektor gesehen habe. Die 295 x2 hatte eine Kühlung von Asetek, das hätte AMD bei der Fury X auch machen sollen.

phoenix887
2015-12-07, 18:13:23
Format C:\ eine Frage an dich, da du auch die Lightning hast. Die 4.2 Beta hat bei mir die Lightning einwandfrei erkannt. Konnte die Einzelne Spannungen auch einstellen.

Jetzt habe ich die 4.2 Final drauf, und in der Kopfleiste von Afterburner steht nur noch GTX 980 Ti. "Lightning" fehlt. Zudem kann ich keine Spannungen wie VRAM einstellen. Zudem soll man ja auch die VRAM Temperaturen auslesen können. Ist das bei dir auch so?

(del)
2015-12-07, 18:40:25
Weiß ich leider nicht, weil ich den Arschbrenner nicht permanent nutze. Mach doch die Beta wieder drauf :D

@RoughNeck:
Weil Gigabyte eine komplette Kühllösung und eben nicht nur eine Pumpe benötigt und CM als Label sich mit den ganzen OEM rumschlagen muss. Außerdem ist die Asetek-Pumpe fast genauso laut und aus meiner Sicht keine echte Alternative (Wortspiel). Alphacool wird wohl zu teuer sein, jedenfalls pumpen die aber nicht, sondern saugen. Das ist zumindest bei der Schöpfungshöhe gehaltvoller als das ganze Troll-Patent. Ich frage mich immer noch, warum der Herrgott nicht Apple anzeigt, weil sie Evas angebissenen Apfel als Logo missbrauchen. Als das Paradies existierte, gabs wohl noch keine Trolle. Paradiesisch eben :D

Niall
2015-12-07, 19:23:07
Corsair baut WaKüs mit 2x120er Radiatoren für CPUs die "normal" übertaktet bis zu 160W Abwärme produzieren. Das funktioniert soweit sogar einigermaßen. Gigabyte & Co. nehmen einen dünnen 120er High-Fin-Density Radiator für um die 300W. :uclap:

Jaja, meine Ansprüche liege da 'ne ganze Ecke höher, aber mir kann doch keiner erzählen dass die Teile leiser sind als Stock- oder luftgekühlte Custom-Karten, oder?! Der arme Radiator, die arme "Krüppel-"Pumpe.

*edit*
Mal davon ab hätten sie sich das Fenster der Abdeckung sparen sollen. Das Innenleben sieht 'meiner Meinung nach' für solche Spielereien nicht "sexy" genug aus.

phoenix887
2015-12-07, 19:50:47
Weiß ich leider nicht, weil ich den Arschbrenner nicht permanent nutze. Mach doch die Beta wieder drauf :D

@RoughNeck:
Weil Gigabyte eine komplette Kühllösung und eben nicht nur eine Pumpe benötigt und CM als Label sich mit den ganzen OEM rumschlagen muss. Außerdem ist die Asetek-Pumpe fast genauso laut und aus meiner Sicht keine echte Alternative (Wortspiel). Alphacool wird wohl zu teuer sein, jedenfalls pumpen die aber nicht, sondern saugen. Das ist zumindest bei der Schöpfungshöhe gehaltvoller als das ganze Troll-Patent. Ich frage mich immer noch, warum der Herrgott nicht Apple anzeigt, weil sie Evas angebissenen Apfel als Logo missbrauchen. Als das Paradies existierte, gabs wohl noch keine Trolle. Paradiesisch eben :D

Ne die Beta will ich nicht drauf machen, die war Buggy. Da konnte ich zwar die VRAM Spannung einstellen. Aber auch wieder erst auf Default stellen, wenn ich die Beta deinstalliert habe und den Rechner neu gestartet habe.

(del)
2015-12-07, 21:45:27
@Niall:
Unter Volllast ist der Lüfter trotzdem kaum hörbar und die Pumpe ist deutlich lauter als der Lüfter. Trotz reichlich 260 Watt und immerhin nur max 53 °C. Das Fenster ist seitlich mit LEDs illumiert. Sieht funny aus, ist aber nicht ganz mein Geschmack. Und ja, sie ist überraschenderweise leiser als alle luftgekühlten Karten - bis auf die Pumpe. :)

Niall
2015-12-07, 22:22:23
@Niall:
Unter Volllast ist der Lüfter trotzdem kaum hörbar und die Pumpe ist deutlich lauter als der Lüfter. Trotz reichlich 260 Watt und immerhin nur max 53 °C. Das Fenster ist seitlich mit LEDs illumiert. Sieht funny aus, ist aber nicht ganz mein Geschmack. Und ja, sie ist überraschenderweise leiser als alle luftgekühlten Karten - bis auf die Pumpe. :)

Dank' dir für die Info - das hätte ich wirklich nicht erwartet, zumal man mit bspw. Noctuas oder Noiseblocker Lüftern im Push/Pull noch ein bisschen was an Laufruhe und Performance rausholen kann! :)

edit:
Hast du zufällig aus Spaß an der Freude ein Soundfile von der Pumpe aufgenommen? ;)

akuji13
2015-12-07, 22:28:08
Corsair baut WaKüs mit 2x120er Radiatoren für CPUs die "normal" übertaktet bis zu 160W Abwärme produzieren. Das funktioniert soweit sogar einigermaßen. Gigabyte & Co. nehmen einen dünnen 120er High-Fin-Density Radiator für um die 300W. :uclap:

Jaja, meine Ansprüche liege da 'ne ganze Ecke höher, aber mir kann doch keiner erzählen dass die Teile leiser sind als Stock- oder luftgekühlte Custom-Karten, oder?! Der arme Radiator, die arme "Krüppel-"Pumpe.

Corsair hat sogar 280er AiOs. :wink:

Da meine Ti mit dem EVGA Hybrid läuft kann ich sagen das ich noch keine stock Ti gehört habe die leiser und kühler gewesen wäre.

Wechselt man den Lüfter und drosselt die Pumpe zieht die AiO weit davon und ist z. B. bei 65° nicht mehr lauter als meine MSI GTX 980 (keine Ti) damals.

Den Abstand zur Titan an richtig viel Radiatorfläche (MO-RA 3 und 360er) liegt zwar bei knapp 18°, ist aber wenn man den Aufwand sieht nur für ganz wenige lohnenswert.

(del)
2015-12-08, 06:16:57
65°C sind aber für Wasser viel zu viel, auch wenn es nur eine AIO ist. Denke mal an die Drücke im System. Die Hersteller warnen alle vor eigenmächtigem Drosseln und zu viel Druck. Ich würde so etwas nicht riskieren. Bei der FuryX hat AMD extra viel Luft drin gelassen, nur bin ich mir bei EVGA da nicht so sicher. Ich habe schon mal eine AIO hochgejagt, war echt eine alte Sauerei :)

Hast du zufällig aus Spaß an der Freude ein Soundfile von der Pumpe aufgenommen?Sogar ein Video. Das gehört aber zum Review und geht somit auch erst damit online. Du kannst Dir aber ersatzweise das der FuryX anhören, kommt aufs Gleiche raus, denn es ist ja die gleiche Tinitus-Säge :D

-/\-CruNcher-/\-
2015-12-08, 07:00:51
@Niall:
Unter Volllast ist der Lüfter trotzdem kaum hörbar und die Pumpe ist deutlich lauter als der Lüfter. Trotz reichlich 260 Watt und immerhin nur max 53 °C. Das Fenster ist seitlich mit LEDs illumiert. Sieht funny aus, ist aber nicht ganz mein Geschmack. Und ja, sie ist überraschenderweise leiser als alle luftgekühlten Karten - bis auf die Pumpe. :)

Wie kann man sich ein tolles Produkt wegen ein paar cent nur immer wieder kaputt machen ich versteh diese Asiatische Logik langsam nicht mehr :D

Gibt es ein angekündigtes AIO konkurenz equal von MSI zur Watterforce AIO ?

akuji13
2015-12-08, 08:44:01
65°C sind aber für Wasser viel zu viel, auch wenn es nur eine AIO ist. Denke mal an die Drücke im System. Die Hersteller warnen alle vor eigenmächtigem Drosseln und zu viel Druck. Ich würde so etwas nicht riskieren. Bei der FuryX hat AMD extra viel Luft drin gelassen, nur bin ich mir bei EVGA da nicht so sicher.

Da ist auch viel Freiraum in den Schläuchen und Druck nicht wirklich erkennbar.

Die 65° sind ja nur ein Beispiel, mit dem stock Lüfter bewegt man sich bei 50°.
Meine läuft mit 2 Lüftern und gedrosselter Pumpe bei 50° und moderater Lautstärke auf dem Niveau sehr guter Luftkühler.

Das die Hersteller warnen ist nicht verwunderlich, schließlich soll das Produkt mehrere Jahre Garantie Laufzeit überstehen und werbewirksam so lange als möglich laufen.
Auch wenns nicht direkt vergleichbar ist, mein Nachbar betreibt seit 4 Jahren eine gedrosselte AiO an der CPU.

No risk no fun, wenns schief gehts ists nur eine kaputte Karte, im schlimmsten Fall ein kaputter Rechner. :)

Raff
2015-12-08, 08:57:38
Format C:\ eine Frage an dich, da du auch die Lightning hast. Die 4.2 Beta hat bei mir die Lightning einwandfrei erkannt. Konnte die Einzelne Spannungen auch einstellen.

Jetzt habe ich die 4.2 Final drauf, und in der Kopfleiste von Afterburner steht nur noch GTX 980 Ti. "Lightning" fehlt. Zudem kann ich keine Spannungen wie VRAM einstellen. Zudem soll man ja auch die VRAM Temperaturen auslesen können. Ist das bei dir auch so?

Kann ich bestätigen, die v4.2.0 Final behandelt die Lightning wie eine ordinäre GTX 980 Ti.

Dieser Workaround hilft: http://forums.guru3d.com/showpost.php?p=5202654&postcount=29

MfG,
Raff

Endgegner
2015-12-08, 09:40:37
Die haben also statt eine brauchbare Pumpe zu bauen die Einwegschrauben geändert? Weil im ganzen Internet eine Person Bilder vom Innenleben der Pumpe gepostet hat?

(del)
2015-12-08, 10:07:02
Da das Einwegsystem eh nicht getauscht wird, kann man gleich die Schrauben auf unlösbar ändern... Naja, Scherz beseite, aber ganz ohne Grund wird man ja wohl nicht gehandelt haben. Und sonst? Ich finde die ganze Kühlkonzeption suboptimal. Wenn die zur Abführung der VRM-Abwärme angebrachte Heatpipe satte 7-8K kühler ist, als die Alu-Platte, auf der sie angebracht wurde, dann stimmt da generell was nicht. Die Kupferplatte, die die Wärme von der Heatpipe und den Speichermodulen aufnehmen soll und die die Pumpeneinheit samt deren Heatsink trägt, ist viel zu kühl, als dass man von einem sinnvollen Wärmetransfer zum Pumpenheatsink sprechen könnte.

Ich habe hier mal ein hochauflösendes IR-Messbild. Die orangen/helleren Punkte sind die Messpunkte mit geeichtem Speziallack (Emissionsgrad!), weil man normale IR-Bilder ohne bekannten Emissionsgrad an den Messpunkten als nutzlose Pixelgrütze abtun muss. Leider hat sich das bis heute noch nicht wirklich rumgesprochen ;)

http://media.bestofmicro.com/Z/F/544299/original/Waterforce-IR.jpg

akuji13
2015-12-08, 11:15:04
:eek:

Ist ist das heiß!
Am besten man guckt sich sowas gar nicht an. :D

Lowkey
2015-12-08, 11:23:40
Die meisten 980 Ti Karten sind doch so gebaut, dass die GPU massivst gekühlt wird, aber die heißeren VRMs bekommen etwas Alu drauf und gut ist es. Das große 980 Ti Sterben wird irgendwann los gehen ;)

Monty
2015-12-08, 11:32:24
Wenn das so sein sollte, betrifft es ja fast nur die Referenzversionen. Die meisten Customs haben ja Kühlplatten ;)

Niall
2015-12-08, 11:37:07
Naja, die msi gaming 980ti hat stock immerhin einen kompletten Alu-Kühlblock der das PCB nahezu komplett abdeckt, das war schon ordentlich konzipiert.

Ansonsten finde ich die Temperaturen der Gigabyte auch äußerst grenzwertig. Selbst wenn die Komponenten bei hohen Temperaturen laufen sollten, schön ist das trotzdem nicht anzusehen. Der AIO Wasserkühler suggeriert ja zudem noch irgendwie, dass die Karte insgesamt kühler läuft.

Lowkey
2015-12-08, 11:50:42
Der Wasserkühler auf der GPU kühlt die GPU und die umliegenden Bauteile indirekt mit. Aber die VRMs sind bei jeder Karte ebenso heiss. Gerade unter Last dürften die Temperaturen die 100° immer überschreiten. Bei der MSI sitzt auch nur ein bisschen Alu auf den VRMs. Das reicht sicherlich nicht aus, auch wenn der hintere Lüfter draufhält.


Der Referenzkühler ist relativ massiver für die VRMs ausgelegt und darüber sitzt der 20 Watt Radiallüfter. Zudem takten die Referenzkarten nicht sehr hoch.

Ich finde es immer wieder interessant, dass zwischen der 980 Ti Referenz und einigen Custom 980 Ti über 30% Leistungsunterschied bestehen. Der Abstand ist groß genug für eine Defintion aka 980 Ti Ultra.

akuji13
2015-12-08, 11:53:56
Ich finde das Prinzip des EVGA Hybrid schon sinnvoll.

Die originale VRM Kühlung bleibt, wird aber durch die geänderte GPU Kühlung zumindest etwas entlastet.
Zudem wird fast die gesamte Abwärme aus dem Gehäuse entfernt.

Niall
2015-12-08, 11:55:25
Ja, ich weiß was du meinst - trotzdem suggeriert die Gigabyte Wasserkühlung dass die ganze Karte gekühlt wird wie bspw. bei meinem EKWB Full-Cover alle Elemente abgedeckt sind, die massiv Hitze produzieren.

Hübie
2015-12-08, 14:34:36
102.3 Grad an der gemessen Stelle sind aber auch nicht normal. Welches PT hat die Karte und mit welcher Spannung bei Takt lief die zu diesem Zeitpunkt. Andere liegen meist deutlich (>10K) darunter.
Das Konstrukt wäre effizienter wenn es "aus einem Guss" wäre, ums mal salopp darzustellen. Aber dann versaut man sich wohl wieder Margen. Schade dass dein Review noch nicht online geht, Igor. Und wieso machst du das nicht beruflich? Scott hat ja auch gewechselt =) Wir können doch afaik nur davon profitieren. Ich denke in Fernost gibt es nach wie vor ein hohen Bedarf an Ingenieuren, welche genau so etwas analysieren und optimieren können.

(del)
2015-12-08, 16:48:02
PT 260 Watt, Boost 1442 MHz (ab Werk).

Und wieso machst du das nicht beruflich?Woher weißt Du das so genau? Mich und das Labor kann man mieten, es ist mein privates ;)

Es hat schon Gründe, warum ich z.B. keine Netzteile mehr teste, bestimmte Gehäuseklassen und andere Hardware, die ich früher stets mit abgedeckt habe (Netzwerktechnik usw.) auch nicht. Ich nenne es Vermeidung von Interessenskonflikten :D Von den Einkünften als Journalist kann man, das richtige Medium vorausgesetzt, sicher ganz gut leben. Aber es ist nie genug und wenn man zudem noch Neugier mit Erkenntnis und Geheimniskrämerei paaren und finanziell ausschlachten kann, dann wäre man sicher dumm, dies nicht zuzulassen. Nur muss man straight bleiben, Abstand halten und sich nicht an eine Butze verkaufen wie so einige andere. Es gibt deutlich bessere Techniker als mich, da muss man seine Grenzen sehen. Aber ich ziehe Ungereimtheiten und Probleme magisch an und bin zudem ein wirklich guter Beobachter und Datenerfasser. Das kann man durchaus zu seinem Vorteil nutzen :D

Hübie
2015-12-08, 17:38:22
Das ist auch meine Einschätzung von dir. Du erfasst die Dinge in der Gesamtheit. Das vermisse ich bei 90% der Reviews.

Ich frage mich warum an der Stelle da hinten 100+ °C auftreten. Das ist ja nur die "Vorstufe" und da sollte gar nicht soviel Verlust auftreten. :| 260 Watt sind vergleichsweise wenig. Da möcht ich nicht wissen, was bei 300+ auftreten würde :eek:

(del)
2015-12-08, 18:17:53
Naja, die Teile können 150°C ab. Trotzdem wirklich unschön.

BTW:
Ich habe geade eine neue inno3D in der Mache. Müsst Ihr mal morgen beim Käsekönig auf die Homepage gucken, nettes Teil ;)

phoenix887
2015-12-08, 18:52:49
Was für eine Inno?

uha
2015-12-08, 18:53:42
Es gibt aber auch genug Karten, bei denen die VRMs mit unter dem Heatpipe-Kühlkörper Platz finden. Das ist zB bei der recht beliebten Palit so. Negatives Beispiel ist hingegen die inno3D ohne den kleinen Lüfter. Da wird afaik nichtmal ein Kühlkörper verwendet und die Karte lässt ab Werk ein PT von 300W zu. Solche Karten und die ganzen Radeons ab 290x rauchen da viel eher ab.

phoenix887
2015-12-08, 18:55:22
Kann ich bestätigen, die v4.2.0 Final behandelt die Lightning wie eine ordinäre GTX 980 Ti.

Dieser Workaround hilft: http://forums.guru3d.com/showpost.php?p=5202654&postcount=29

MfG,
Raff

Danke.

Niall
2015-12-08, 18:56:24
Selbst wenn die Karten bzw die Bauteile solch hohe Temperaturen aushalten - ist doch trotzdem Käse wenn man bei solch teuren Boliden blöd rumspart, also allein fürs "Gefühl". :(

Hübie
2015-12-08, 19:26:28
Naja, die Teile können 150°C ab. Trotzdem wirklich unschön.


Über Zeitstandfestigkeit muss ich dir ja nichts erzählen und ich denke auch nicht bei welchen Bedingungen diese 150 °C gelten ;)

Inno3D kommt mir erst ins Haus wenn die anständigen Support vor Ort haben und auch optional Garantieverlängerungen anbieten oder zumindest selbst 36 Monate gewähren. So selbstsicher sollte man schon sein.

Edit: Wobei ich mir sicher bin, dass nicht alle der Komponenten in dieser Region 150°C machen. Wenn 105 °C ist das schon gutes midrange-Zeug.

phoenix887
2015-12-08, 20:02:48
Kann ich bestätigen, die v4.2.0 Final behandelt die Lightning wie eine ordinäre GTX 980 Ti.

Dieser Workaround hilft: http://forums.guru3d.com/showpost.php?p=5202654&postcount=29

MfG,
Raff

Funktioniert bei mir nicht. Bzw. finde die Third Party Voltage Control Option nicht. Klar Dritthersteller bla bla, aber wie wurde die ins deutsche übersetzt? Finde die Option nicht.

(del)
2015-12-08, 20:03:02
Inno3D kommt mir erst ins Haus wenn die anständigen Support vor Ort haben und auch optional Garantieverlängerungen anbieten oder zumindest selbst 36 Monate gewähren. So selbstsicher sollte man schon sein.

Inno3D, Zotac, Sapphire und andere sind alle Brands von PC Partner. Also faktisch eine Butze ;)

Hübie
2015-12-08, 20:06:47
Ja war mir bekannt (glaube das sagtest du mal). Und diese, zummen mit ein paar anderen kommen mir einfach net ins Haus.
Das kranke ist: immer wenn ich einen Ausflug zu anderen Herstellern machte wurde ich enttäuscht. Ohne scheiß, ASUS bot mir hier bisher immer das beste Paket. :eek: Mal sehen wie lange meine Strix hält. Ich bilde mir ein, dass ein Lüfter bereits rattert. Aber warten wir mal ab. Für den Moment ist es nämlich wieder verschwunden.

Edit: Ich hatte nur mal Spaß beim Wechsel wegen des B3-Bugs vom P67. :facepalm: Das war auch so ne Story für sich, aber mit ASUS gabs dann doch ein happy end, weil da nicht nur Roboter sitzen.

MartinRiggs
2015-12-08, 20:11:07
Ja war mir bekannt (glaube das sagtest du mal). Und diese, zummen mit ein paar anderen kommen mir einfach net ins Haus.
Das kranke ist: immer wenn ich einen Ausflug zu anderen Herstellern machte wurde ich enttäuscht. Ohne scheiß, ASUS bot mir hier bisher immer das beste Paket. :eek: Mal sehen wie lange meine Strix hält. Ich bilde mir ein, dass ein Lüfter bereits rattert. Aber warten wir mal ab. Für den Moment ist es nämlich wieder verschwunden.

Komisch das du so von Asus überzeugt bist, mir kommt alles andere außer Asus ins Haus.

Außer Marketing können die nicht nix, allein die ganzen Direct CU II-Karten, Überhitzung, schlechte Lüfter, unnütze Heatpipes usw. usw.

Hübie
2015-12-08, 20:17:27
Deshalb nennt man es ja Nutzererfahrung :biggrin: Ich hatte echt schon alles. Von Biostar, zu EVGA, MSI hin zu Asrock oder weiß der Geier. Erinner mich nicht an alles.
Die DC-Kühlungen sind offenbar auch nur für kleine Chips, denn auf der HD 6870 war die echt nicht zu hören. Selbst mit OC war die sauleise. Klasse Teil. Auch auf der GTX 660 Ti war die absolut leise. Mainboards sind ebenfalls hervorragend, wenn man nicht in der "Billig-Walachei" wildert. Und wenn etwas kaputt war, haben die getauscht. Ist jetzt aber OT :smile:

-/\-CruNcher-/\-
2015-12-08, 20:26:18
Bin immernoch beim Cougar Point B2 Stepping Asus "läuft" ;)
Nur GPU von Asus weiss nicht bin immer gut mit MSI gefahren und muss sagen Galaxy ist auch nice bis jetzt kann ich da nix sagen was die Hardware in der Langzeit angeht lüfter laufen noch 1A und auch trotz des alten silent bios keine probleme (die Spawas sind mir bis jetzt noch nicht um den Fuß geflogen ;) ) bis jetzt auch noch keine anzeichen eines ausfalls :)
Die größten unterschiede meiner Beobachtung nach liegen eh eher im Software berreich und support und den EOL Zeiten bei Asus ist man da schnell in der Sackgasse was Softwarepflege und Synchro langzeit angeht, muss man schon oft selber basteln oder ganz auf die Software verzichten was meist eh das beste ist bei der Teils noch schlampigen programmierung zu 80% eh unnützes overhead ;)
Dann lieber jemanden verpflichten der schon gezeigt hat das er es ordentlicher macht "Unwinder" z.b MSI waren die ersten die gesagt haben hui müssen wir haben danach sind plötzlich alle aufgesprungen und haben ihre Schrott Software gedumped ;)

Das ein eher Premium Brand Zotac so schlecht sein muss wie ein AVG Brand ala Inno3D muss ja nicht sein die komponenten von Zotac scheinen auf jedenfall etwas teurer ausgewählt und kalkuliert als wie für die billigeren brands, leider ist auch der Anteil von schrott den keiner brauch meist höher und den hätte man dann wiederum in wichtigere parts stecken können ;)

Gigabyte hat in einigen bereichen sehr innovative ideen oder geht andere Wege die aber meist auch mit nachteilen verbunden sind irgendwo ;)

Imho finde ich die Balance bei MSI irgendwo immernoch am Besten jedenfalls bei GPUs aber auch in anderen bereichen sind sie auch noch sehr gut aufgestellt gegen Asus und Gigabyte :)

kruemelmonster
2015-12-09, 23:54:00
Format C:\ eine Frage an dich, da du auch die Lightning hast. Die 4.2 Beta hat bei mir die Lightning einwandfrei erkannt. Konnte die Einzelne Spannungen auch einstellen.

Jetzt habe ich die 4.2 Final drauf, und in der Kopfleiste von Afterburner steht nur noch GTX 980 Ti. "Lightning" fehlt. Zudem kann ich keine Spannungen wie VRAM einstellen. Zudem soll man ja auch die VRAM Temperaturen auslesen können. Ist das bei dir auch so?

Es gibt ein aktualisiertes 4.2.0 Release welches diesen Datenbankfehler behebt:
Yesterday we released MSI Afterburner 4.2.0, unfortunately for GeForce GTX 980 Ti Lightning owners there has been a mixup in the database with a device_ID. This has been fixed. Please re-download the software after which you will notice the card is recognized properly.

If you want extended voltage ranges with your Lightning please go to preferences -> general and select 'extended MSI' at the unlock voltage box.

Also unwinder recompiled the binaries with slight changes in the IR3595A detection implementation, this allows users to unlock support the 980 Ti cards from other vendors (EVGA, KFA2 and GALAX) through the 3rd party database mode.

You can download the updated build here.
http://www.guru3d.com/files-details/msi-afterburner-beta-download.html

Die CRC32 Checksumme vom alten Release ist 21D28EF4, die neue Version hat FEEA0072.

Hübie
2015-12-10, 08:40:35
Bin immernoch beim Cougar Point B2 Stepping Asus "läuft" ;)
Nur GPU von Asus weiss nicht bin immer gut mit MSI gefahren und muss sagen Galaxy ist auch nice bis jetzt kann ich da nix sagen was die Hardware in der Langzeit angeht lüfter laufen noch 1A und auch trotz des alten silent bios keine probleme (die Spawas sind mir bis jetzt noch nicht um den Fuß geflogen ;) ) bis jetzt auch noch keine anzeichen eines ausfalls :)
Die größten unterschiede meiner Beobachtung nach liegen eh eher im Software berreich und support und den EOL Zeiten bei Asus ist man da schnell in der Sackgasse was Softwarepflege und Synchro langzeit angeht, muss man schon oft selber basteln oder ganz auf die Software verzichten was meist eh das beste ist bei der Teils noch schlampigen programmierung zu 80% eh unnützes overhead ;)
Dann lieber jemanden verpflichten der schon gezeigt hat das er es ordentlicher macht "Unwinder" z.b MSI waren die ersten die gesagt haben hui müssen wir haben danach sind plötzlich alle aufgesprungen und haben ihre Schrott Software gedumped ;)

Das ein eher Premium Brand Zotac so schlecht sein muss wie ein AVG Brand ala Inno3D muss ja nicht sein die komponenten von Zotac scheinen auf jedenfall etwas teurer ausgewählt und kalkuliert als wie für die billigeren brands, leider ist auch der Anteil von schrott den keiner brauch meist höher und den hätte man dann wiederum in wichtigere parts stecken können ;)

Gigabyte hat in einigen bereichen sehr innovative ideen oder geht andere Wege die aber meist auch mit nachteilen verbunden sind irgendwo ;)

Imho finde ich die Balance bei MSI irgendwo immernoch am Besten jedenfalls bei GPUs aber auch in anderen bereichen sind sie auch noch sehr gut aufgestellt gegen Asus und Gigabyte :)

Also wenn es um Produktpflege bei ASUS geht kann ich mich wirklich nicht beschweren. Hatte neulich gemeldet dass deren OC-Tool zuviel Pagefaults cycled (wohl Datenbankzugriffe die per API geblockt werden) und man hat sich prompt darum gekümmert. Auch mein Mainboard von 2011 oder 2012 erhielt bis vor kurzem noch ein Update. Läuft alles, gibt es natürlich keine Updates mehr.
Was genau meinst du mit Schrott auf Zotac und Zotac=Premiumbrand? :|

phoenix887
2015-12-10, 14:25:49
Es gibt ein aktualisiertes 4.2.0 Release welches diesen Datenbankfehler behebt:


Die CRC32 Checksumme vom alten Release ist 21D28EF4, die neue Version hat FEEA0072.

Super. Danke für die neue Info.

phoenix887
2015-12-11, 17:40:38
Habe jetzt mal etwas mit dem neuen Afterburner und meiner Lightning gespielt. Was genau bewirkt die Aux Voltage Steuerung?

Wenn ich diese erhöhe, ist die GPU Spannung trotz dessen Erhöhung niedriger. Vorher 1505mhz@1,200V, mit Aux 1505mhz@1,15V:eek:

Ist das logisch? Ahja Powertarget bleibt bei unter 100% bei 122%.

Hübie
2015-12-12, 19:23:46
Klingt für mich nach der Versorgungsspannung der Spannungsversorgung :freak: Als würdest du wie bei einer Intel CPU dem SA mehr Saft geben, u know?

Ich hasse übrigens lückenhafte Dokumentation. Wenn man so etwas anbietet, sollte man als Hersteller auch sagen was das ist und welche Auswirkungen es hat. Guck doch sonst mal im MSI-Forum.

ZapSchlitzer
2015-12-12, 20:03:53
Sofern sich nicht Grundlegendes geändert hat, dürfte es sich um die PLL-Spannung handeln.
Damit greift man quasi der Signalqualität unter die Arme. Warum dabei jedoch die GPU-Spannung sinkt :confused:

phoenix887
2015-12-12, 21:57:34
Sofern sich nicht Grundlegendes geändert hat, dürfte es sich um die PLL-Spannung handeln.
Damit greift man quasi der Signalqualität unter die Arme. Warum dabei jedoch die GPU-Spannung sinkt :confused:

Ok danke. Habe ich eben auch in englische Foren gelesen, das es die PLL Spannung sein müsste. Welche Signalqualität ist das?

ZapSchlitzer
2015-12-13, 10:44:43
Die Signalqualität vom Taktgeber.
Soll angeblich helfen, die letzten paar Mhz stabil zu bekommen.
Wie bei jeder Spannungserhöhung, ist auch hier Vorsicht geboten.

hq-hq
2015-12-13, 11:55:15
Naja, die Teile können 150°C ab. Trotzdem wirklich unschön.

BTW:
Ich habe gerade eine neue inno3D in der Mache. Müsst Ihr mal morgen beim Käsekönig auf die Homepage gucken, nettes Teil ;)

Genau, an der Temperatur werden die Spannungswandler nicht zugrunde gehen... Die Elkos altern nur schneller und die Lötstellen leiden ein wenig durch die starken Temperaturschwankungen.
Für den normalen Gebrauchszeitraum völlig egal die 100°C

Darum ist die Kühlung dort ja auch nur relativ schwach ausgelegt weil es egal ist mit orig. Bios.

Hübie
2015-12-13, 12:11:38
Das ist so nicht richtig. Inno3D hat selbst bemerkt dass deren RMA-Quoten zu hoch sind und ergreifen entsprechende Maßnahmen. Ich lese oft von abgerauchten Inno 980 Ti. Zufall? :| Wohl kaum.

Dr.Doom
2015-12-13, 12:47:23
Das ist so nicht richtig. Inno3D hat selbst bemerkt dass deren RMA-Quoten zu hoch sind und ergreifen entsprechende Maßnahmen.Der Garantiezeitraum wird auf 6 Monate gesenkt? :freak:

Hübie
2015-12-13, 13:58:30
X-D Zum Beispiel.

phoenix887
2015-12-13, 15:07:34
Die Signalqualität vom Taktgeber.
Soll angeblich helfen, die letzten paar Mhz stabil zu bekommen.
Wie bei jeder Spannungserhöhung, ist auch hier Vorsicht geboten.

Danke, wieder was neues gelernt.

-/\-CruNcher-/\-
2015-12-13, 16:52:41
Genau, an der Temperatur werden die Spannungswandler nicht zugrunde gehen... Die Elkos altern nur schneller und die Lötstellen leiden ein wenig durch die starken Temperaturschwankungen.
Für den normalen Gebrauchszeitraum völlig egal die 100°C

Darum ist die Kühlung dort ja auch nur relativ schwach ausgelegt weil es egal ist mit orig. Bios.

Naja die Galaxy Tech Engineers z.b haben das bei ihren verwendeten Spawas damals anders gesehen nach Format_C seinen Daten sind sie dann scheinbar in schierer Panik auf Nummer sicher gegangen und haben den Airflow per Bios erhöht.
Selber nutze ich dieses "gefährliche" silent Bios nun schon aber seit Release und die Karte läuft immernoch bei ihren Max 1305 MHz (GTX 970 EXOC) ;)

Ob sie die MBTF von 3 Jahre durchält ist allerdings eine ganz andere Frage und dann wohl teils eher Glück vieleicht wird sie die 3 Jahre auch durchhalten müssen mal sehen ;)

Ohne Grund geraten Engineers doch eigentlich nicht in Panik wenn sie ihr Produkt und die verbauten komponenten kennen, wenn man von solchen RMAs hört fragt man sich aber ob das viele Engineers wirklich auch tun ;)

RoughNeck
2015-12-13, 19:16:40
Ohne Grund geraten Engineers doch eigentlich nicht in Panik wenn sie ihr Produkt und die verbauten komponenten kennen, wenn man von solchen RMAs hört fragt man sich aber ob das viele Engineers wirklich auch tun ;)

Die wissen was sie tun, müssen sich aber den Sparfüchsen geschlagen geben.
Wenn von "oben" z.B. die Order kommt, die Karte muss leise sein, günstig in der Herstellung und dennoch OC zulassen, dann machen die das auch.

Die Asus Engineers haben der Obrigkeit sicher auch gesagt dass das Direct CU mit aktuellen Karten nicht so funktioniert wie gewollt aber das Marketing hat sich da durchgesetzt.

-/\-CruNcher-/\-
2015-12-13, 19:55:53
Das mag ja sein aber wie kann man dann im Fall von Galaxy Tech plötzlich nach Retail Shipping doch zurückrudern wo noch garkeine RMAs passiert sind man ist ja eigentlich nur Aufgrund von Igors Daten plötzlich in Panik ausgebrochen und hat aber sofort reagiert ;)

@Igor

Wer sind den die schon wieder,bzw wer steckt hinter diesem Brand ?

http://www.zogis.com/about.php

HQ scheint Taiwan zu sein mit Registrierung in den USA (MIami) Distribution Zone scheint Süd Amerika zu sein, und die sind nichtmal wirklich so neu :D

https://scontent-ams3-1.xx.fbcdn.net/hphotos-ash2/t31.0-8/10560564_10154405438625361_8810208192227251556_o.jpg

RoughNeck
2015-12-13, 20:06:02
Eventuell haben die den Testaufbau von Igor nachgebaut und wollten auf Nummer sicher gehen.

phoenix887
2015-12-13, 20:25:38
Sofern sich nicht Grundlegendes geändert hat, dürfte es sich um die PLL-Spannung handeln.
Damit greift man quasi der Signalqualität unter die Arme. Warum dabei jedoch die GPU-Spannung sinkt :confused:

Habe den Fehler gefunden. Habe die neue einfach drüber installiert, da steuert Afterburner die Spannung des GPUs falsch an. Nach eine Deinstallation und neu installieren, verhält sich die GPU Spannung wieder normal.

(del)
2015-12-13, 20:42:23
Ohne ins Detail zu gehen... Die kontinuierliche Durchwärmung der Platine, ausgehend von diversen Hotspots, ist zusammen mit dem Faktor Zeit ein nicht unwesentliches Risiko. Man kann so etwas unter verschiedenen Bedingungen simulieren, wobei eine längere Gaming-Session im eingebauten Zustand nicht unbedingt gesudheitsfördernde Auswirkungen haben kann. Das unterscheidet sich aber von Hersteller zu Hersteller, je nach Platinenmaterial und -layout, Lot, Komponentenauswahl, Packungsdichte, Kühlkonzept und Airflow (punktuell und flächig). Neben den HALT- und Environment-Tests gibt es auch manuelle Komponententests, die die jeweilige MTBF eines Bauteil im konkreten Einsatz bei Volllast und Hitzeeinwirkung abzuschätzen helfen. Wenn es ein hersteller wirklich ernst meint, kann sowas schon mal Monate dauern. Bei Grafikkarten ist das jedoch nur bei Workstation-Grafikkarten so, Consumer-Gerümpel ist zu schnelllebig für echte Tests, da wird meist nur am Computer simuliert. Mit dem bekannten Ergebnis. Das sind meist keine Sollbruchstellen, sondern einfach dem Cost-Down geschuldete und in der Kostenrechnung einkalkulierte Ausfälle. ;)

Hübie
2015-12-13, 20:59:07
Das Inno3D im konkreten Fall jedoch mit so vielen Ausfällen kalkuliert hat bezweifel ich an der Stelle einfach mal. Galax / HOF haben wohl auch einige Probleme. Die sind hier jedoch nicht so präsent. Generell ist das Ref-Design unter Luft anfälliger. Wehe da landet mal die Montagsproduktion auf dem Tresen. 15% Serienschwankung sind da keine Seltenheit.

aufkrawall
2015-12-13, 20:59:16
Dass die VRM-Temperaturen oft so hoch sind, scheint mir aber schon in Richtung Ignoranz zu gehen.
Was ist so schwer daran, die VRMs über den Hauptkühlkörper mitzuversorgen, wie etwa bei Palit?

-/\-CruNcher-/\-
2015-12-13, 21:55:52
Ohne ins Detail zu gehen... Die kontinuierliche Durchwärmung der Platine, ausgehend von diversen Hotspots, ist zusammen mit dem Faktor Zeit ein nicht unwesentliches Risiko. Man kann so etwas unter verschiedenen Bedingungen simulieren, wobei eine längere Gaming-Session im eingebauten Zustand nicht unbedingt gesudheitsfördernde Auswirkungen haben kann. Das unterscheidet sich aber von Hersteller zu Hersteller, je nach Platinenmaterial und -layout, Lot, Komponentenauswahl, Packungsdichte, Kühlkonzept und Airflow (punktuell und flächig). Neben den HALT- und Environment-Tests gibt es auch manuelle Komponententests, die die jeweilige MTBF eines Bauteil im konkreten Einsatz bei Volllast und Hitzeeinwirkung abzuschätzen helfen. Wenn es ein hersteller wirklich ernst meint, kann sowas schon mal Monate dauern. Bei Grafikkarten ist das jedoch nur bei Workstation-Grafikkarten so, Consumer-Gerümpel ist zu schnelllebig für echte Tests, da wird meist nur am Computer simuliert. Mit dem bekannten Ergebnis. Das sind meist keine Sollbruchstellen, sondern einfach dem Cost-Down geschuldete und in der Kostenrechnung einkalkulierte Ausfälle. ;)

Reden wir hier jetzt von toxischen Substanzen die im Berechneten Gau Freigesetzt werden könnten oder wie meinst du das ?

Aber bei Galaxy Tech hier in dem Fall der EXOC gingen die Befürchtungen doch hoffentlich nur um die Lebensdauer und nicht eventuelle möglichkeiten einer Vergiftung ?

Wobei ich schon mal gerne wissen würde wie ein Spawa im Betrieb ausfällt und was dann genau passiert bei voller Auslastung und welche redundanzen und sicherheitschaltungen dann genau greifen @ Hübie ?

Also explodierende Netzteile (China Böller) hab ich schon hinter mir wo eben keine sicherheitsschaltungen scheinbar gegriffen haben ;)

https://forum-en.msi.com/index.php?topic=28323.0

Bei dieser Firma (Brand) Q-TEC musste ich es erleben, ja schande diesen schund überhaupt gekauft zu haben aber hey ;)

Hübie
2015-12-14, 00:29:00
Das ist nicht so ganz einfach. Nach unseren Analysen sind es wahscheinlich die Schottky-Dioden im MOSFET, welche irgendwann einfach nachgeben. Zu hohe Schaltgeschwindigkeiten bedeuten halt, dass auch Strom wieder zurück fließen kann (regen-time). Um das aber festzustellen müsste man on-the-fly so eine Diode im MOSFET durchleuchten und schauen was da passiert, wenn man die Frequenz auf einen bestimmten Wert erhöht. Leider fehlen zu viele Daten, seitens der Hersteller, als dass man es treffend formulieren könnte. So ist es halt Analytik mit Ausschlußverfahren.
Es gibt auch noch andere Theorien, aber A) bin ich kein Elektroniker und B) ist das dann in der Materie relativ komplex, im Falle einer GPU, da hier auch die Kapazitäten vom Transistor eine Rolle spielen und natürlich die Wärmekapazität im Zeitintervall, welche das gesamte Bauteil beeinflusst.

Edit: Also ich hoffe der ein oder andere ist mit der Grundfunktion von Dioden oder überhaupt Halbleitern vertraut. =)

(del)
2015-12-14, 06:57:57
Reden wir hier jetzt von toxischen Substanzen die im Berechneten Gau Freigesetzt werden könnten oder wie meinst du das ?
Es ist der Gesundheit der Karte als solcher abträglich ;) Ich liebe nun mal Metaphern & Co., sonst würde ich hier im Labor noch verblöden.

Ich habe vor einiger Zeit mal ein Zeitraffer-Video online gestellt, wie sich die R9 295X2 insgesamt aufheizt. Das ging auch an die Adresse derer, die meinten, die Spannungsversorgungsanschlüsse würden auf Grund der überschrittenen Normvorgaben für die Leistung verglühen. Pustekuchen, denn die Hitze der Spannungswandler von der Mitte der Karte (>113°C) war nach einigerZeit sogar über die Pins der Stecker gewandert und bis in die Netzteilkabel messbar. Die ca. 75°C unterhalb der Anschlussbuchsen kamen von den Spannungswandlern, nicht von den fließenden Strömen. Der Kühler war damals schon Schrott, aber AMD setzt weiter auf Fertiger mit halbgaren Kühlern und albernen Pumpen. Leider ist Gigabyte dem Ruf der roten Wildnis gefolgt und hat sich nunmehr ebenfalls bei Cooler Desaster mit der GTX 980 Ti Waterforce eine blutige Nase geholt.

Apropos Pump-Gate:
Es gibt wirklich solche und solche Pumpen, die Serienstreuung ist immer noch enorm. Das zeigt allerdings auch, dass AVC das Problem mit dem homogenen Eingießen/Fixieren der Pumpen bis heute nicht lösen konnte. Die Tinitus-Böller sind alle frisch produzierte Pumpen, keine Lagerware. Da sollte AMD wirklich aufpassen, dass der Doppelwhopper nicht auch mit diesem Müll bestückt wird. Wobei ich kaum Hoffnung habe, dass dies nicht wieder schief gehen wird.

@Hübie:
Zurückfließen ist übrigens ein gutes Stichwort. Mir ist nämlich mittlerweile auch aufgefallen, warum einfache Stromzangenamperemeter meist deutlich höhere Ströme ausspucken, als meine Clamps. Es fließen nämlich auch Ströme zurück bzw. je nach Kartenlayout auch in unterschhiedlichen Richtungen bei mehreren PCIe-Anschlüssen. Die Ergebnisse zwischen den separaten Messungen und der Messung an einem einzigen Kabelbaum differieren da schon recht ordentlich. Eigentlich kann man nur abraten, beide Buchsen mit nur einem Strang zu versorgen. Die mit dem Doppelstecker gleichen sich dann gleich wieder aus, ohne die Secondary Caps zu Hilfe zu nehmen. Interessant ist in diesem Zusammenhang auch, dass das Fiepen mit der Versorgung über nur einen Strang fast immer stärker war. Zumindest bei den Messungen in der Kammer. Wie gut das dann die eigenen Ohren noch differenzieren können, steht auf einem anderen Blatt. :)

ChaosTM
2015-12-14, 13:50:26
Die VRM`s meiner Vorgängerkarte, der 290X liefen 6 Monate lang hart am Limit von 125 Grad ohne das ich davon etwas mitgekriegt habe.
Ich hätte beim Accelero IV doch lieber die Backplate mit-verbauen sollen. :)

(del)
2015-12-14, 14:37:12
Das hätte auch nicht viel geholfen, diese Backplate ist eine Fehlkonstruktion. Der AC IV ist schlechter als sein Vorgänger. Hart, aber leider wahr.