PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX 860M lässt sich nicht mehr übertakten


Gast
2015-02-12, 17:37:48
Hi zusammen,

ich habe ein kleines Problem: Ich hatte testweise und zum Zocken die GTX 860M meines Notebooks übertaktet. Über die Sinnhaftigkeit von OC im Notebook möchte ich jetzt nicht streiten - der Zuwachs war gewaltig, soviel ist sicher.
Rein aus Interesse wollte ich nun mit GPU-Z das Bios auslesen, um es mir mal anzusehen. Irgendwas flashen sollte nie geschehen und ist auch nie geschehen ;)
Das Auslesen hat nach etwas Flackern des Bildschirms nicht geklappt, das Notebook hat vom Speaker zwei mal kurz gepiept, das Bild war wieder da. Ok dachte ich schade drum.
Nochmal den NV Inspector aufgemacht: Huch, nun sind die Regler ausgegraut :o Afterburner aufgemacht: Lässt sich ändern, bei Haken für Übernehmen wird aber nichts übernommen.

Furmark gestartet: 2fps, max. 200 MHz Chiptakt oO

Notebook zugeklappt, schlafen gelegt, heute nach der Arbeit Windows neu aufgesetzt. NV Inspector aufgemacht: Wie vorher. Furmark gestartet ~1040 MHz. Zumindest funktioniert es jetzt wieder normal. Warum zum Teufel kann ich aber nicht mehr übertakten?

Irgendjemand eine Idee?

Danke!

Gast
2015-02-12, 17:52:34
Möglichkeit 1:
Du hast die Festplatte nicht formatiert bevor du Windows neuaufgesetzt hast. -> Alle fehlerhaften Einstellungen wurden bei der Neuinstallation unverändert übernommen.

Möglichkeit 2:
Deine GPU ließ sich noch nie übertakten. Das Tool hat einfach früher falsch angezeigt. Inzwischen verwendest du eine aktuellere Version des Tools, welche die nicht übertaktbaren Chips korrekt erkennt.


Mein Vorschlag:
Versuche mal eine Neuinstallation der Grafiktreiber und aktiviere diesmal [x] Clean Install bei der Installation. Damit werden vorhandene Treiberreste entfernt.

Gast
2015-02-12, 17:55:21
Danke für deine Antwort!
Ich habe bei der Neuinstallation die Partition komplett gelöscht, damit sollte sie ja formatiert sein. Da ich Windows 8.1 nutze, wurden jedoch ein paar Einstellungen synchronisiert - ich glaube aber kaum, dass dazu sowas gehört.

Die Grafikkarte ließ sich übertakten, haben auch Benchmarks bestätigt. Tools sind die gleichen, besitze das Notebook auch erst 2 Monate, sodass ich die gleiche Software installiert habe wie bei der Erstinstallation.

Alles klar, versuche einen neuen Treiber mit Clean Install.

Gast
2015-02-12, 18:01:24
So, Clean Install erfolglos. Habe auch mal die Defaulteinstellungen des BIOS geladen. Bin irgendwie mit dem Latein am Ende :/

rudl
2015-02-12, 18:15:21
Das Auslesen hat nach etwas Flackern des Bildschirms nicht geklappt, das Notebook hat vom Speaker zwei mal kurz gepiept, das Bild war wieder da. Ok dachte ich schade drum.
Nochmal den NV Inspector aufgemacht: Huch, nun sind die Regler ausgegraut

Imho: der displaytreiber hat sich resetet, vermutlich aufgrund eines Fehlers der durch zu viel takt aufgetreten ist. Gpu-Z stellt die grafikkarte vielleicht kurz auf maximale performance um den takt zu ermitteln, den du vlt aufgrund eines power/temp targets im Alltag gar nicht erreicht hast.

Kdr
2015-02-12, 18:16:48
Hier ist die Lösung: Nvidia verbietet es nun über den Treiber.
http://www.pcgameshardware.de/Overclocking-Thema-98540/News/Kepler-Maxwell-Mobile-Uebertakten-Notebooks-1150641/

Gast
2015-02-12, 18:22:01
@ rudl:
Das könnte sein. Das Problem des maximal 200MHz bestand aber auch nach einem Neustart, da sollte der Treiber ja neu geladen werden.

@Kdr: Danke...
Auto-Update des Treibers hat die neuste Version drüber gebügelt... Werde mal manuell ne etwas ältere einspielen, nur um sicher zu gehen und dann in Zukunft erstmal die Finger davon lassen. Hatte nur Angst, was kaputt gemacht zu haben.

Kdr
2015-02-12, 19:11:25
am besten finde ich diesen Kommentar von Incredible Alk (im Pcgh Forum)

Klar, das ist natürlich nur zur Sicherheit gegen extreme Hardwareschäden durch OC ohne Spannungserhöhung (die es schlicht nicht gibt). Es hat garantiert nichts damit zu tun, dass geschicktere User einfach aus einer 850M eine 860M machen könnten und NV dadurch Schotter durch die Lappen geht.

Das ist so offensichtliches Marketing-Geblubber dass es eigentlich jedem auffallen sollte wie man hier die Kunden veräppelt.

Handelt Nvidia nun nach dem Motto: "Ist der Ruf erst ruiniert, lebt es sich ganz ungeniert"?

Gast
2015-02-12, 20:34:55
https://www.change.org/p/nvidia-re-enable-overclocking-on-geforce-equipped-notebooks

Unterschreiben :)

Gast
2015-02-12, 23:15:12
"Ist der Ruf erst ruiniert, lebt es sich ganz ungeniert"?
Das glaube ich nicht. Ich vermute, daß man mit neueren Mobile-Chips stärker an die Grenzen für die thermische Belastbarkeit von bleifreien Lötverbindungen stößt, so daß man kurzerhand für sämtliche Mobile-Chips die OC-Option gestrichen hat.

Ist natürlich etwas blöd für Leute mit OC-fähigen Notebooks.

Letzten Endes kann nVidia vermutlich nicht allen Notebookbesitzern garantieren, daß OC bei ihrem Modell nicht zu einem Hardwareschaden führt. Soweit OC über den Treiber möglich ist, hat nVidia das bislang ja mehr oder weniger als unbedenklich durchgewunken.

Das Problem von OC bei Mobile-Chips liegt imo nicht darin, die Chips bei hohem Takt stabil zu bekommen. Das Problem ist, daß je nach Kühllösung des Notebookherstellers die Kühlung zu stark reagiert. Kurze Benchmarks sind Gift für das Lötzinn, da die Chips stark aufheizen und nach dem Bench sofort wieder stark an Temperatur verlieren.
Afair gab es da seinerzeit schonmal ein Problem mit Notebooks von Herstellern wie zB. Fujitsu-Siemens. Dort hatte man viel Wert auf eine äußerst durchzugsstarke und effiziente Kühllösung gelegt mit der Folge, daß sich die Grafikchips nach wenigen Monaten im Betrieb selbst entlötet haben. Der starke Temp-Wechsel zwischen Idle und voller Last führte damals zu erheblichem Verschleiß der Lötverbindungen. Gerüchteweise sollen GPUs zum Teil so lose gewesen sein, daß sie nur noch durch die Kühleinheit auf ihre Kontakte gepreßt wurden.

Vielleicht ist mittlerweile bei manchen Anbietern wieder ein ähnliches Problem mit den Mobile-Chips aufgetreten, so daß man als erste Maßnahme das OC rausgenommen hat.

Hast du mal geschaut wie hoch die Temperaturdifferenz bei dir unter OC war?

@TS: Ich würde bei den aktuellsten Treibern bleiben und auf OC verzichten. Die Bugs in neueren Spielen sind imo schlimmer als die paar MHz die jetzt auf der Strecke bleiben. Wenn ein Spiel auf einem Notebook nicht mehr rund läuft, dann machen die paar MHz durch OC den Bock auch nicht mehr fett. Das OC vorher geklappt hat ist natürlich traurig. - Aber auf der anderen Seite weißt du nicht, ob dir nVidia durch diese unpopuläre Maßnahme nicht eine vorzeitige RMA erspart hat.
Effekte wie das vorzeitige Aufbrechen von Lötverbindungen zeigen sich uU erst nach Wochen/Monaten. Und dann mußt du dein Gerät wochenlang in RMA geben mit der Gewißheit, daß die Lötverbindungen trotz Reparatur irgendwann wieder aufbrechen werden.

Ich sitze hier gerade an einem PC mit einer 8800GT, die inzwischen von mir schon zweimal im Backofen wiederbelebt wurde. Wenn man erstmal ein elektrisches Problem mit den Lötverbindungen hat, dann wird man es nicht mehr los. ;)

nVidia-Bashing ist im Moment mal wieder groß in Mode.

Gast
2015-02-13, 00:00:49
Das glaube ich nicht. Ich vermute, daß man mit neueren Mobile-Chips stärker an die Grenzen für die thermische Belastbarkeit von bleifreien Lötverbindungen stößt, so daß man kurzerhand für sämtliche Mobile-Chips die OC-Option gestrichen hat.

Afair gab es da seinerzeit schonmal ein Problem mit Notebooks von Herstellern wie zB. Fujitsu-Siemens. Dort hatte man viel Wert auf eine äußerst durchzugsstarke und effiziente Kühllösung gelegt mit der Folge, daß sich die Grafikchips nach wenigen Monaten im Betrieb selbst entlötet haben. Der starke Temp-Wechsel zwischen Idle und voller Last führte damals zu erheblichem Verschleiß der Lötverbindungen. Gerüchteweise sollen GPUs zum Teil so lose gewesen sein, daß sie nur noch durch die Kühleinheit auf ihre Kontakte gepreßt wurden.

Vielleicht ist mittlerweile bei manchen Anbietern wieder ein ähnliches Problem mit den Mobile-Chips aufgetreten, so daß man als erste Maßnahme das OC rausgenommen hat.
Nicht mal abwegig solche Thesen, weil alles schon da gewesen.

Ich glaube aber das die 860m den stark überteuerten Versionen 870m-880m mit Overclock sehr gefährlich werden kann. Da diese wegen der 970m wie Blei im Regal liegen und man sie so kaum noch los kriegt, schiebt man einfach einen Riegel vor. Hatte so eine Fujitsu Siemens Kiste, ein Graus!

So spricht man technisch und preislich den an der die 860m so zu lahm findet eine 970m aber zu teuer.

Abverkauf ankurbeln für die 960-965m?

Gruß @Mirko

PS: an dem gebashe sind sie doch selbst Schuld! ;)

Ihm
2015-02-13, 00:42:29
Bei mir läuft die 680MX mit neuestem Treiber + Afterburner immer noch als 780M (823 MHz) oder 880M (954 MHz).
Wenn es also wirklich eine treiberseitige Sperre gibt, dann gilt diese nicht für alle Nvidia Mobile-GPUs.

Gast
2015-02-13, 10:03:31
TS hier:

Ich kann deine Argumentation vollkommen verstehen. Das "Problem" was ich damit habe ist jedoch: Es macht keinerlei Unterschied in der Temperatur - zumindest bei meinem Notebook. Denn selbst im GPU-Killer Furmark erreicht das Kühlsystem nicht die höchste Drehzahl (die ich manuell per Lüftersteuerung setzen kann) - die GPU wird mit und ohne OC gleich warm +/- 2-3°C (etwa 85°C). Bei 60°C wird der Lüfter ausgeschaltet, sodass das Delta-T relativ gering ist.
Natürlich bei einer dicken GPU vom Schlage GTX 880M: Wenn die ans Limit mit einer eh schon schwachen Kühlung gebracht wird... könnte das kritisch werden. KÖNNTE, denn inzwischen verfügen doch alle neueren GPUs über Powerlimits/Templimits/... die die GPU mächtig einbremsen, wenn eins der Limits erreicht wird. (Und in meinem Fall kann ich ohne throttle durch Furmark rennen)
Ich habe gelesen, dass es seitens Dell/Alienware Notebooks gab mit GTX 980M, die durch OC das Netzteil überlastet haben und vermutet wird, dass das der Auslöser ist - aber auch nur eine Vermutung.

Ergo: Für mich persönlich ist es scheiße und gemessene (!) im Schnitt 15% Mehrleistung sind natürlich kein Unterschied zwischen läuft und läuft nicht, da hast du recht. Aber es ist der Unterschied, ob noch Schatten mittel oder hoch oder Framedrop bis in den Keller oder doch noch beherrschbar. Gäbe es seitens NV die 135MHz-Sperre nicht (die ja in den alten Treibern vorlag), dann wäre sicher noch viel mehr möglich.

Ja, eine GTX 860M (Maxwell) kann einer GTX870M gefährlich werden, aber alle sind doch eh Auslaufmodelle... Da glaube ich gerade nicht so dran - ausschließen kann ich es aber nicht.

Zum Thema NV-Bashing: Wie der Vorposter gesagt hat: Wer scheiße baut, muss das auch einstecken können. Ich habe 2 NV-Karten in Notebook und Rechner, bin also beileibe kein Fanboy des Gegenlagers, aber die beiden Aktionen werden mich beim nächsten Mal wieder überlegen lassen.

Gast
2015-02-13, 20:04:24
selbst im GPU-Killer Furmark erreicht das Kühlsystem nicht die höchste Drehzahl
Die Zeiten, als der Furmark noch ein aussagekräftiger Belastungstest waren, sind lange vorbei. Die FurMark.exe wird vom nVidia Treiber erkannt und es wird ein Profil gestartet, welches die Leistung unter OpenGL drosselt. ;)
Von GPU-Killer kann da gar keine Rede mehr sein.
Bestenfalls noch von einer mittelmäßigen OpenGL-Demo. Demo deswegen, da die Karte heute im Furmark treiberbedingt bei weitem nicht so schnell rendert wie in jedem anderen OpenGL-Titel.

die GPU wird mit und ohne OC gleich warm +/- 2-3°C (etwa 85°C).
Das dürfte dann wohl die Grenze vom Powertarget sein.

ans Limit mit einer eh schon schwachen Kühlung gebracht wird
Es geht bei dem Problem mit dem Lötzinn nicht um zu hohe Temperaturen. Es geht um die starken Temperaturschwankungen zwischen idle und Last. Eine starke Kühlung schadet in dem Fall sogar mehr als eine schwache Kühlung. ;)

Und in meinem Fall kann ich ohne throttle durch Furmark rennen
Da würde ich mich an deiner Stelle mal am Kopf kratzen. ;)

In order to stay within the 300 W power limit, NVIDIA has added a power draw limitation system to their card. When either Furmark or OCCT are detected running by the driver, three sensors measure the inrush current and voltage on all 12 V lines (PCI-E slot, 6-pin, 8-pin) to calculate power. As soon as the power draw exceeds a predefined limit, the card will automatically clock down and restore clocks as soon as the overcurrent situation has gone away. NVIDIA emphasizes this is to avoid damage to cards or motherboards from these stress testing applications and claims that in normal games and applications such an overload will not happen. At this time the limiter is only engaged when the driver detects Furmark / OCCT, it is not enabled during normal gaming.
http://www.geeks3d.com/20101109/nvidia-geforce-gtx-580-the-anti-furmark-dx11-card/

Die Sache dabei ist die: Diese Erkenntnisse sind mittlerweile 5 Jahre alt. Aktuelle Spiele erzeugen mittlerweile durchaus Lasten, die mit dem ungebremsten Furmark vergleichbar sind. In den letzten Jahren verwendet auch so gut wie niemand mehr den Furmark, um die Leistungsaufnahme einer Grafikkarte etc. zu überprüfen.
Leistungsaufnahme einer GTX580 im Furmark mit Limiter: 153 Watt
Leistungsaufnahme einer GTX580 im Furmark ohne Limiter: 304 Watt
(Quelle: obiger Link)

Imo kannst du davon ausgehen, daß mittlerweile sämtliche OC- und Benchmarktools vom nVidia-Treiber sofort erkannt werden. Da wird auch nicht der Takt gedrosselt (denn du siehst ja selbst das es bei dir nur wenig Unterschied macht). Imho werden halt von den verfügbaren Cores +/-50% intern deaktiviert. Resultat: 50% weniger Leistungsaufnahme unter Furmark/OpenGL.

Ich habe gelesen, dass es seitens Dell/Alienware Notebooks gab mit GTX 980M, die durch OC das Netzteil überlastet haben und vermutet wird, dass das der Auslöser ist - aber auch nur eine Vermutung.
Das könnte sein, ist aber eher unwahrscheinlich, weil Dell in so einem Fall kurzerhand andere Netzteile versandt hätte.

Für mich persönlich ist es scheiße und gemessene (!) im Schnitt 15% Mehrleistung sind natürlich kein Unterschied zwischen läuft und läuft nicht, da hast du recht.
Jetzt überleg dir nochmal, was der Treiber noch alles macht, wenn die Karte an ihre Belastungsgrenze kommt. Die 15% Mehrleistung hast du nur im Benchmark. ;)
Und natürlich in manchen Spielen. Aber imo auch nur immer dann, wenn die 15% Mehrleistung nicht benötigt werden, weil der Chip nicht an der Leistungsgrenze ist. An den Stellen, wo es im Game dann wirklich nicht mehr reicht, nutzt dir der höhere Takt nicht viel. Ganz im Gegenteil. Du solltest dir im Frameverlauf mal einzig und allein die MinFPS anschauen. Da bringt dir das OC unter Umständen nicht viel. Sobald es mit Schatten oder was auch immer anfängt zu ruckeln, ruckelt es auch mit OC, weil die Karte uU dann schon im Powerlimit ist.

die beiden Aktionen werden mich beim nächsten Mal wieder überlegen lassen.
Man sollte eigentlich immer überlegen..... :D

Ich hoffe ja auch immer noch, daß ATi/AMD irgendwann mal wieder ein konkurrenzfähiges Produkt auf die Beine stellen kann, so daß sich die Preise wieder normalisieren.

Gast
2015-02-13, 20:22:46
Das dürfte dann wohl die Grenze vom Powertarget sein.
Werde ich nachsehen, meine aber nein.


Es geht bei dem Problem mit dem Lötzinn nicht um zu hohe Temperaturen. Es geht um die starken Temperaturschwankungen zwischen idle und Last. Eine starke Kühlung schadet in dem Fall sogar mehr als eine schwache Kühlung. ;)
Deswegen schrieb ich ja, dass das Delta-T gering ist. Bis 85°C geht sie, bei 60°C geht der Lüfter aus. Ich glaube viel freundlicher geht es kaum.


Da würde ich mich an deiner Stelle mal am Kopf kratzen. ;)
Wieso (ehrlich gemeint?)


Imo kannst du davon ausgehen, daß mittlerweile sämtliche OC- und Benchmarktools vom nVidia-Treiber sofort erkannt werden. Da wird auch nicht der Takt gedrosselt (denn du siehst ja selbst das es bei dir nur wenig Unterschied macht). Imho werden halt von den verfügbaren Cores +/-50% intern deaktiviert. Resultat: 50% weniger Leistungsaufnahme unter Furmark/OpenGL.
Ja, davon habe ich auch gehört - die Wahl fiel dennoch auf FurMark, da das, nach StarCraft II (zumindest bei meiner Karte) der beste Indikator ist. Furmark-Takt minus ein paar MHz ist dann SC2 stabil - und ja, ich habe von Crysis 3 bis haste nichts gesehen mit Furmarktakt gespielt, nur um dann in SC2 Hänger zu haben (Desktopkarte). Die im Notebook rennt in SC2 auch übertaktet immer mit Maximaltakt. So oder so, es geht ja nicht nur um den Core, auch einige Hundert MHz beim Speicher waren vorher drin... Jetzt nicht mehr.


Jetzt überleg dir nochmal, was der Treiber noch alles macht, wenn die Karte an ihre Belastungsgrenze kommt. Die 15% Mehrleistung hast du nur im Benchmark. ;)
Und natürlich in manchen Spielen. Aber imo auch nur immer dann, wenn die 15% Mehrleistung nicht benötigt werden, weil der Chip nicht an der Leistungsgrenze ist. An den Stellen, wo es im Game dann wirklich nicht mehr reicht, nutzt dir der höhere Takt nicht viel. Ganz im Gegenteil. Du solltest dir im Frameverlauf mal einzig und allein die MinFPS anschauen. Da bringt dir das OC unter Umständen nicht viel. Sobald es mit Schatten oder was auch immer anfängt zu ruckeln, ruckelt es auch mit OC, weil die Karte uU dann schon im Powerlimit ist.
Ich vergleiche ja nicht in 3DMark, FurMark oder anderen Spaßsoftwares, sondern in Spielen. Ich zocke auch mit Framelimiter auf 60fps, von daher bewegt sich die Karte - je nach Game - häufig nur bei 800 MHz um dann eben für ein paar Sekunden / Szenen mit dem höheren Maximaltakt eben den dort anliegenden höheren Berechnungsaufwand aufzufedern.
Ich muss gerade gestehen, dass ich nicht weiß, in welches Limit ich da renne, da ich zuletzt mit der Desktopkarte beschäftigt war, die (dankenswerterweise?) bei einem bestimmten Takt bis auf Temp durch alles limitiert hat (Power, Spannung).
Ich würde wetten, die Karte läuft in keinerlei Limit - wieso auch, wenn sie durchweg den höchsten Takt hält.


Man sollte eigentlich immer überlegen..... :D
Das ist wahr - am Ende war meine Entscheidung allerdings einfach vorgegeben - es gab schlicht kein vergleichbares Notebook.

Ich hoffe ja auch immer noch, daß ATi/AMD irgendwann mal wieder ein konkurrenzfähiges Produkt auf die Beine stellen kann, so daß sich die Preise wieder normalisieren.
Die Hoffnung habe ich aufgegeben. Eher glaube ich daran, dass wir irgendwann ausreichen starke APUs sehen...

Gast
2015-02-13, 20:58:29
Der Einfachheit halber ein paar Ergebnisse aus FurMark:


Ohne OC (und aktuellem Treiber):
Defaulttakt: 1020/2500 MHz
720p ohne AA: Karte ist im Powerlimit, 1019/2504 MHz, 44 fps bei 79-80°C
900p 4xAA: Karte ist ohne Limit, 1097/2504 MHz, 20 fps bei 75-77°C

Mit OC (und altem Treiber):
OC-Takt: 1155/3300 MHz
720p ohne AA: Karte ist im Powerlimit, 1058/3304 MHz, 47 fps (+6%) bei 79-80°C
900p 4xAA: Karte ist ohne Limit, 1154/3304 MHz, 29 fps (+38%) bei 76-79°C


OC-Test mit Bioshock Infinite ohne FPS-Limiter (gerade das fordernste Game, dass installiert ist):
Takt: 1232 / 3304 MHz
Temp: 71°C

Daher mein Fazit: *möp* OC bringt was

Gast
2015-02-13, 21:04:51
Edit: Natürlich ist die Karte mit OC-Takt bei 900p im Powerlimit - blöder C&P-Fehler.

Gast
2015-02-13, 21:23:53
So, als Nachtrag nun noch den integrierten Benchmark von Bioshock:Infinite gestartet. Settings sind: 1080p, hohe (nicht ultra) Details:

no-OC:
1. Durchlauf: 67fps avg, 7fps Minimum, 134fps Maximum
2. Durchlauf: 67fps avg, 11fps Minimum, 136fps Maximum

OC:
1. Durchlauf: 77fps avg, 7fps Minimum, 149fps Maximum (+15% im AVG)
2. Durchlauf: 77fps avg, 12fps Minimum, 153fps Maximum (zusätzlich mit GPU-Z-Log): Takt lag dauerhaft zwischen 1219 und 1232 MHz

Die Minimum-FPS sind glaube ich leider nicht relevant, da der Benchmark - egal wie - flüssig läuft. Der Einbruch ist vermutlich den Szenenwechseln geschuldet.

Blaire
2015-02-13, 21:49:26
Zum Thema NV-Bashing: Wie der Vorposter gesagt hat: Wer scheiße baut, muss das auch einstecken können. Ich habe 2 NV-Karten in Notebook und Rechner, bin also beileibe kein Fanboy des Gegenlagers, aber die beiden Aktionen werden mich beim nächsten Mal wieder überlegen lassen.

Aus Kundensicht sicher nachvollziehbar, aber dieses "Problem" spielt sich doch eher in den Köpfen der Leute ab, als daß es wirklich ein Problem im Gaming-Alltag darstellt. Die GTX 970 darf langsamer sein, bei rund 40% niedrigeren Preis ggü. der GTX 980 eigentlich selbstredend und wenn die Fachpresse schon zum Launch keine Nachteile anmahnte und lobend voranging, braucht man jetzt erst recht kein Faß mehr auftun , irrwitzige Fälle zu konstruieren oder gar Stimmung zu machen, ja warum NV immer noch so von ihren Produkt überzeugt sind , vielmehr sollten jene daran arbeiten, wie sich solche Dinge in Zukunft vermeiden lassen, gleichermaßen NV die Specs klarer definieren um somit erst garkeine Angriffsfläche anzubieten.

Zu dem GeForce Mobile-OC kann dies genauso gut von einem oder mehreren Notebook-Herstellern ausgegangen bzw. darum gebeten worden sein, da sollte man erstmal abwarten ob es nicht doch etwas voreilig war, solch eine Meldung herauszugeben.

Linusfan
2015-02-13, 22:17:01
Zu dem GeForce Mobile-OC kann dies genauso gut von einem oder mehreren Notebook-Herstellern ausgegangen bzw. darum gebeten worden sein, da sollte man erstmal abwarten ob es nicht doch etwas voreilig war, solch eine Meldung herauszugeben.

Insgesamt eine sicherlich vertretbare Meinung, schlimmer wäre wohl eher sowas nicht raus zu geben und der Öffentlichkeit mitzuteilen. Bestimmt jetzt NVIDIA was ich mit meiner Hardware mache oder ich selbst? Die Garantie ist bei OC sowieso verwirkt. Und wenn NVIDIA das eigene OC 850m vs. 860m nicht im Griff hat, sollen sie einpacken. Oder den Partner richtungsweisende Vorgaben machen wie ein ausreichend dimensioniertes Kühlsystem auszusehen hat.

Ein Problem mit der Temperatur ergibt sich ja im Fall des @Gastes nicht, warum also etwas verhindern oder beschneiden, was man nicht verhindern zu braucht?

Das ist doch mehr als dumm! Das ist auch keine "Parole machen" sondern rechtens. Wenn die mich ab jetzt bevormunden wollen und sagen welche Leistung für mich die Beste ist, können sie ihren Zong behalten. Und das ist mehr als Erst gemeint. Weiss nicht was NVIDIA meint als KUNDENSICHT ansehen zu müssen, die meinen eher Bevormundung. So amazing...was ein Laden.

Mit Linus Torvald ziemlich gut getroffenem Argument antworten: ***Fuck You NVIDIA***, mehr kann man da nicht machen. Und das haben sie auch verdient.

Solange von denen kein offizielles Statemant zur 970 kommt, beachte ich die gar nicht mehr. IGNOR ON und gut.

Gast(TS)
2015-02-13, 23:03:25
Das Problem der GTX 970 ist imho einfach die Haltung. Ein Eingestehen: Jupp, so isses wäre vllt. für die Haltung, dass es keinen "Rückruf" gibt nicht so vorteilhaft, hat für mich aber den faden Beigeschmack. Dennoch ja: Es ist ein wenig Hetze.
Andererseits wird auf der hohen Leistungsaufnahme von AMD rumgeritten, als würde jeder 24/7 zocken um dann im Jahr 30 Euro mehr auf Stromrechnung zu haben. Grafikkarten sind mehr als Balken und Stromverbrauch. Und gerade wegen des Supports hatte ich mich für NV entschieden...

Zum Thema: Ich bleibe vorerst bei dem Treiber und warte ab, ob sich etwas tut. Ansonsten bleibt mir wohl spätestens beim GTA-Launch nichts anderen übrig als ein Update zu vollziehen.

Linusfan
2015-02-13, 23:26:21
Das Problem der 970 ist viel größer, nur NVIDIA will es klein halten. Da hilft am besten nicht antworten, wie das schon in der Vergangheit so war. ich hatte zwei von diesem NVIDIA-M-Krüppeln die kurz nach der Garantie den Dienst versagt haben, was will man mit dem Schrott dann noch. Bei Fujitsu Siemens war der Chip dann auch noch hardverlötet auf dem Mobo angebracht, Schrott. Das andere hat nachträglich 350 Euro Reparaturkosten gefressen, nie wieder! Brauchte es aber.

Sieh dir mit der 970 einfach mal Benchmarks unter EVOLVE an...da zeigt sich das ganze Ausmaß schon in 1080p und einer Cryengine, fehlen die vollen 4GB die mit 256bit anprechbar sind und das geht weiter! Gut passt nicht hier her, aber was NVIDIA derzeit tut ist einfach am Kunden vorbei. Soviel Arroganz gehört einfach abgestraft.

Die Revolution im Spielebereich, und dann kommt ein Tablet, man, kann mir kaum das lachen verkneifen. Diese Shield-Gurke mit dem Gamepad dran, Pah. Da gibt es zig Varianten und kein Programmierer setzt in so einem riesigem Markt allein auf NVIDIA. Die merken das doch selbst nicht mehr. Glauben die könnten dort noch was bewegen. Wie sieht man jetzt gut, Konkurrenz mit linken Praktiken ausknocken und den Fanbereich abzocken.

Tun zum Jahresabschluss so als würde Tegra 3,4,K,X das riesen Geschäft ausmachen. Watt ein Selbstbetrug, das war Kepler, Maxwellv1 und Maxwellv2 und nichts anderes und jetzt die Leute hintenrum bescheißen. Das ist keine Hetze sondern gerechtfertigt.

Den Jensen sollen sie zum Mond schießen, da gehört der hin! Hoffentlich kommt AMD bald mit der Antwort. In 1600p unter EVOLVE haben sie es geschafft, die 980 mit einer 350 Euro Karte geschlagen! Lachhaft, dann für den 970-Krüppel 350 Euro zu verlangen!

So amazing, yes...

Gast
2015-02-14, 03:22:08
Wieso (ehrlich gemeint?)
Weil es dir zeigt, daß der Furmark den Chip nicht ausreizen kann. Jedenfalls nicht mit dem nVidia Treiber. :)

Die im Notebook rennt in SC2 auch übertaktet immer mit Maximaltakt.
CPU Limit.

@Thema GTX970:
Für alle diejenigen, die sich auch nur ein bischen für Technik interessieren, ist das 'niedliche Problemchen' mit der Speicheranbindung der GTX970 alles andere als eine Bagatelle. Viele kaufen sich so eine teure Karte in der Erwartung, daß man damit auch für kommende Spiele gerüstet ist.

Daß es tatsächlich lange keinem aufgefallen ist, daß die 970 mit 4GB starke Probleme bekommt, zeigt natürlich auch die 'Qualität' der heutigen 'Fachzeitschriften'.
In der Hardwareredaktion das Thema schnell vor Weihnachten durchgenudelt und die 970-Karten schon nach wenigen Benches eimerweise mit Lorbeeren und Awards überschüttet. Soll man jetzt angesichts der Qualität so einer Copy&Paste Berichterstattung Überraschung heucheln? nVidia hat die Fachjournalisten mit der GTX970 mal so richtig öffentlich vorgeführt. Was für eine Blamage!

Man hat vielleicht bei nVidia im Stillen gehofft, daß die Sache erst zu einem späteren Zeitpunkt publik/relevant wird. Und zwar dann, wenn wirklich die ersten 4GB-Spieleengines im Spielemarkt angekommen sind. Vermutlich vorzugsweise erst, wenn schon die nächste Generation in den Regalen liegt, welche in den kommenden 4GB-Titeln dann natürlich auf magische Weise viel besser performen werden...

@Blaire:
Ich glaube irgendwie nicht, daß ausgerechnet dann, wenn die Fachpresse mit wehenden Fahnen lobend vorangegangen ist, beim verunsicherten Kunden mit erhöhter Nachsicht zu rechnen ist.
Ich glaube eher, daß jetzt bei jedem kleinsten Ruckler auch immer der Verdacht im Raum stehen wird, daß es etwas mit dem 'ganz speziellen' Speicherinterface der GTX970 zu tun haben könnte.
Ich seh schon kommen, daß bald womöglich eine GTX970V2 kommt. Und dann ist hier aber Stimmung in der Bude... ;)
Ich würde also davon absehen die Sache vorschnell kleinzureden.

Wenn ich eine GTX970 gekauft hätte, wäre sie schon auf dem Weg zurück zum Händler. Allein aus Angst, daß das Problem in der zweiten Revision der Karte irgendwie behoben sein wird. Da der Hardware-Bug bei der GTX980 nicht vorhanden ist, liegen die Chancen hierfür aus meiner Sicht ziemlich exakt bei 100,00%.
Das ganze ist fast wie damals beim VRAM-Bug. Der VRAM-Bug ist auch erst zu Tage getreten, weil nVidia den Kunden unbedingt abgespeckte Karten mit nur 320MB Ram verkaufen wollte. Bei den ursprünglich 640MB hat es natürlich entsprechend länger gedauert, bis so eine Karte mit G80 dem Bug erlegen ist.

Gast
2015-02-14, 08:39:07
Und wenn es keine Anwendung geben sollte, die die GPU ausreizen sollte? Ich hab nun auf dem Notebook bisher keine Kracher gespielt, wie ich schrieb: Außer SC2 und Bioshock sind da bisher noch keine zu fordernden Spiele gelaufen. Die liefen aber häufig (dank FPS Limiter) auch mal mit Maximaltakt...

Das in SC2 ein CPU-Limit vorliegt glaube ich nicht. Ein und dasselbe Spiel läuft auf dem Notebook bedeutend schlechter als auf dem HomePC und da stehen sich ein i5 3570(nonK) im PC einem i7 4710HQ gegenüber:
Beide erreichen etwa 3.4GHz +/- paar MHz, dafür Haswell-IPC-Steigerung im Notebook.
Ich werde nochmal Crysis2 aufs Notebook ziehen und mir da den Takt übertaktet anschauen, insbesondere natürlich die Schlüsselszenen (geringe FPS). Ich bin mir aber sicher, dass OC im Notebook genauso sinnvoll oder sinnlos ist, wie bei einer Desktopkarte mit der Einschränkung, dass das thermische Management und der mögliche Schaden (wenn kein MXM-Modul benutzt wird) etwas kniffliger bzw. größer sein können.

linusfan
2015-02-14, 08:55:13
Das steht doch alles im direkten Zusammenhang. NVidia versprach bei Launch von Maxwellv2 Mobile und Maxwellv2 Desktop, dass die Leistungscharakteristik dieser Generationen enger zusammenrückt. Ein großer Unterschied zwischen 970m und 970 bestünde damit nicht unter spielen.

Das Problem dabei ist das Maxwellv2 Mobile alias 970m nicht am SI und Weiterem beschnitten ist. Was bedeuten kann, dass die Mobileversion bei entsprechender Speicherausstattung (980m-970m) und OC Modus die Desktop-Variante unter Spielen womöglich schlagen kann. Da muss man verhindern. Dann wäre der Schaden am Image der 970 irreparabel. Nachträglich weitet man diese treiberseitige Beschneidung bei den Taktraten auf das gesamte Portfolie aus, um das Leistungsvermögen entsprechnd den Geneartionen etc. anzupassen und zurecht zu rücken.

Hammer ist, dass man diese treiberbeschränkung den Partner nicht mitteilt und deren vermarketete OC Tools und damit die versprochene Mehrleistung die daraus bei Kauf z.B. eines solchen Notebooks resultieren kann, abwürgt und unterbindet. Sei ein Bug in alten Treiberversionen und müsse gefixt werden, ja ihr mich auch!

Damit dürfte bei genauerer Prüfung der nächste Sachmangelanspruch lauern, ich würde das betroffene Notebook jetzt wegen falsch angegebener Eigenschaften bei Kauf zurückgeben wollen und dahin meinen Anspruch gegenüber dem verantwortlichen Händler geltend machen.

Was die 970 ansich betrifft, war das nicht unerwartet. @leonidas hatte spekulativ angenommen das man ggf. mit Beschneidung des L2 Caches bei Savalgeparts des GM204 rechnen muss (damals stand die Größe noch nicht genau fest; 4mb vs 2mb) und @askingar hatte durch die Blume mitgeteilt des es ggf. bei der SI Anbindung der Desktopvarianten Unterschiede geben könnte-wird. Beachtet hat dies von den Herren Redakteuren niemand!, gelesen haben sie es zu Hauf. 3DC hatte dazu sogar in einer News berichtet und den Text zusammen mit dem betreffenden Forenlink veröffentlich.

Kommt es daher unerwartet, nein meine ich, da war wohl nicht nur nVidia stark von sich eingenommen. Scheint so als wären Redaktuere auch nicht mehr so frei wie einst, wenn es darum geht mal ordentliche Testergebnisse abzuliefern und festzustellen was eine Achritektur und deren gesamtes Herstellerportfolie so ausmacht.

Ein paar schienen dann doch Bescheid zu wissen oder ahnten zumindestens das es was geben muss, was die einzelnen Versionen unterscheidet. So einem "Baugefühl" kann man dann schon mal nachgehen.

Hat keiner getan, blind vor Freude?....Über was?

NVidia macht weiter wie bisher, Reaktionen keine, bißchen Forengebashe, ach was solls, dass vergeht wieder, Hauptsache die Aktionäre sind zufrieden. Fangemeinde...was wollen die, die 970 ist doch sooooo guuuuut. (erinnert mich stark an AMDs Event zur 285 Einführung...USA USA USA...juhu)

Hatte auch noch Tegra 3 und 4, schlimm, beide Tablets gingen wieder zurück. Rucklige Krücken, kaum händelbar, mit viel zu geringer Akkulaufzeit, mit der Smoothness von Apple oder Samung absolut nicht vergleichbar, womöglich waren Tegra 3 und 4 eher auf Win8 zugeschnitten. Daher ringt mir eine Shield nicht mal ein zurückhaltendes Lächlen ab. Das was einen erwartet schlummert im Verborgenen, wenn man bereits bezahlt hat und keine Anspruchserfüllung seitens des Herstellers mehr besteht. Daher, nein, bestimmt nicht, eher-nie wieder.

Dann soll es röhren, Strom verbrauchen, langsamer sein und die Bude heizen, mir egal. Aber hoffentlich ehrlich und man bekommt was einem versprochen wird.

Gast
2015-02-14, 10:40:43
So, mein letzter Beitrag zum eigentlichen Thema: Sinn oder Unsinn des OC der GTX 860M.


Bioshock:Infinite auf Ultra Quality bei 1080p mit Fraps gemessen, Mittelwert aus 3 Durchläufen, Min/Avg/Max-fps:

Standard: 25/43,1/63
OC: 30/49,7/72 (+20%/+15%/+14%)

Min-fps um 5 gesteigert. 'nuff said.

Linusfan
2015-02-14, 12:07:35
3 Durchläufen, Min/Avg/Max-fps:
Standard: 25/43,1/63
OC: 30/49,7/72 (+20%/+15%/+14%)
Wer weiß schon, was da als Rebranding ala GTX9x0m geplant ist! Im Schnitt 16%, kann man gut als GT940m vermarkten!

Ihm
2015-02-14, 12:23:32
Wer weiß schon, was da als Rebranding ala GTX9x0m geplant ist! Im Schnitt 16%, kann man gut als GT940m vermarkten!

Rebranding inkl. Verarsche zieht aber auch nur bei Leuten die keine Ahnung von der Materie haben. Aber in welchen Lebensbereichen profitiert man schon von Unwissen?

linusfan
2015-02-14, 12:32:22
Viele Notebookkäufer wissen letztendlich nicht was sie kaufen, woher auch. Da kommt es dann auch noch auf die Vorlibe des Verkäufers an! Spielt alles mit rein. da kommt jemand und sagt ja ich will AMD Noebook, was denskt du was ein NVIDIA-lastiger Verkäufer dem antwortet?

Haben eben nicht alle irgendwas mit der IT branche zu tun. Nur weil meine 65 jährige Mutter ein Notebook will das paar Jahre hält wird sie nicht noch mal GPU-Design studieren.

Aber mal was anderes:"Einbildung ist auch eine Bildung!" Was willst du wissen oder wovon keine Ahnung haben, wenn du es nicht feststellen kannst. Oder hast du herausgefunden dass der der L2 Cache der 970 beschnitten ist.

Immer her mit der Erkenntnis!

Man sollte die Leute nicht ohne weiteres über einen Kamm scheren, der ganz normale "ich brauche ein Notebook" weiss das nicht und muss er auch nicht. Das macht es um so schlimmer, wenn ihm was völlig neues untergejubelt wird.

Da ist AMD auch nicht besser.

Keine Materie haben stimmt schon, nur müsste der Hersteller darüber aufklären, was sich im Innern befindet. Macht er das. Nee. Das ist schon länger so, nur hat es NVIDIA auf die Spitze getrieben. Die müssen jetzt für eine ganze Branche herhalten. Opferrolle?

octiceps
2015-02-14, 14:29:43
Please help by signing the petition: http://chn.ge/1F34mfS

Nvidia cannot be allowed to get away with this nonsense!

It is false advertising/bait & switch for Nvidia OEM partners like ASUS to advertise overclocking as a feature and selling point of their products when Nvidia has disabled it. This is illegal.

http://i.imgur.com/A61LOPr.jpg

ASUS GPU Tweak for Laptops (http://support.asus.com/Download.aspx?SLanguage=en&m=ASUS+GPU+Tweak+for+Laptops&p=3&s=588)

Gast
2015-02-14, 17:54:50
Bioshock:Infinite auf Ultra Quality bei 1080p mit Fraps gemessen, Mittelwert aus 3 Durchläufen, Min/Avg/Max-fps:

Standard: 25/43,1/63
OC: 30/49,7/72 (+20%/+15%/+14%)

Min-fps um 5 gesteigert. 'nuff said.
Der Schritt von 25 auf 30 FPS bei den minFPS ist natürlich der Worstcase. Alles unter 30 FPS sieht das menschliche Auge deutlich.

Du hast die GPU wie oben um 800MHz von 2500MHz auf 3300MHz übertaktet, nehme ich an? Das wären 32% mehr Takt. 20% mehr minFPS sind also durchaus möglich.

Wenn ich wirklich noch BS3 spielen würde, würde mich das ebenfalls aufregen. Weil es genau in dem Bereich ist, wo es am meisten zählt (30 FPS Grenze). Ich fand die Grafik von BS3 ganz ok - aber das Spiel selbst leider ziemlich 'bescheiden'. Nach BS1 und BS2 hatte ich wieder was mit Unterwasser erwartet. Das Überdenwolkenszenario fand ich auch auf den zweiten Blick recht unspektakulär. ;)

Tja - dann wirst du wohl bei diesem Treiber bleiben müssen und auf alle Optimierungen für neue Titel verzichten. :(
Immerhin weißt du jetzt, daß dein Notebook nicht kaputt ist.

Nur weil meine 65 jährige Mutter ein Notebook will das paar Jahre hält wird sie nicht noch mal GPU-Design studieren.
Meine Mutter wollte ein iPad. Hat sie zu Weihnachten auch bekommen. Alles ist gut. Das permanente nachträgliche Rumgefrickel seitens der Hersteller hat auf diesen Geräten tatsächlich ein Ende. :up:

Ihm
2015-02-15, 13:00:34
Erst denken, dann schreiben.

Viele Notebookkäufer wissen letztendlich nicht was sie kaufen, woher auch.

Dann ist ihnen die "Problematik" aber auch egal, weil sie nicht zu der entsprechenden Nutzergruppe gehören.

Da kommt es dann auch noch auf die Vorlibe des Verkäufers an! Spielt alles mit rein. da kommt jemand und sagt ja ich will AMD Noebook, was denskt du was ein NVIDIA-lastiger Verkäufer dem antwortet?

Ein guter Verkäufer verkauft, egal was. So lange er dir kein Schrott andreht, wirst du auch nicht rumheulen. Hauptsache adäquat und passend, das ist wichtig. Und manchmal weiß der Verkäufer tatsächlich besser, was du willst und brauchst. ;)
Solltest du jedoch trotzdem auf ein AMD-Notebook bestehen, dann hast du dich vorher wahrscheinlich schlau gemacht. In diesem Fall brauchst du den Verkäufer nicht als Berater, sondern als den Typen, der dir den Weg zu Kasse zeigt. Beraten kann er dich dann sowieso nicht mehr und du lässt dich dann auch nicht mehr beraten. Alles gut.

Haben eben nicht alle irgendwas mit der IT branche zu tun. Nur weil meine 65 jährige Mutter ein Notebook will das paar Jahre hält wird sie nicht noch mal GPU-Design studieren.

Und deine 65 jährige Mutter gehört zu der entsprechenden Nutzergruppe?
Wow, coole Mutter.

Aber mal was anderes:"Einbildung ist auch eine Bildung!" Was willst du wissen oder wovon keine Ahnung haben, wenn du es nicht feststellen kannst. Oder hast du herausgefunden dass der der L2 Cache der 970 beschnitten ist.

Du setzt das OotB-Problem der GTX 970 mit dem OC-Verhalten von Notebook-GPUs gleich? Völlig logisch.

Man sollte die Leute nicht ohne weiteres über einen Kamm scheren, der ganz normale "ich brauche ein Notebook" weiss das nicht und muss er auch nicht. Das macht es um so schlimmer, wenn ihm was völlig neues untergejubelt wird.

Da ist AMD auch nicht besser.

Nur weil die Zahl der Bezeichnung größer ist, muss es nichts neues sein;
auch wenn Nvidia/AMD hier natürlich mieses Marketing betreiben.
Ansonsten: Stichwort "Nutzergruppe". Außerhalb dieser Gruppe merkt es keiner.

Keine Materie haben stimmt schon, nur müsste der Hersteller darüber aufklären, was sich im Innern befindet. Macht er das. Nee. Das ist schon länger so, nur hat es NVIDIA auf die Spitze getrieben. Die müssen jetzt für eine ganze Branche herhalten. Opferrolle?

Bullshit. Technische Spezifikationen stehen bei Nvidia auf der Seite und Tests etc. gibt es immer etliche im Netz. Wie soll ein technisches Unternehmen denn sonst seine Spezifikationen präsentieren? Mit lebensnahen Produkten und Zahlen vergleichen, damit keine Fachbegriffe auftauchen? :rolleyes:

Die GTX 970 Nummer ist natürlich eine Sauerei und pure Absicht.
Das Problem ist hier aber wohl eher, dass die GTX 970 schon in die Kategorie "OC-beliebt" fällt. Wenn man die Karte ordentlich übertaktet und in die Regionen einer 980 gelangt, dann könnte man auch Settings wählen, die 4GB VRAM ausreizen könnten. Ab 3,5GB würde man hier dann aber einen Drop feststellen, was dann natürlich auffällt.
Eine 960 mit 4GB RAM z.B. hätte schon nicht genug Rohleistung, um den gesamten Speicher bei spielbaren Framerates zu füllen. Wäre also "fast" egal gewesen.
Auf der anderen Seite gab es hier und auf anderen Seiten Umfragen für Besitzer zum Umgang mit der bereits erworbenen Karte.
Schau dir mal die Ergebnisse an und deute.

Gast
2015-02-15, 19:40:23
Auf der anderen Seite gab es hier und auf anderen Seiten Umfragen für Besitzer zum Umgang mit der bereits erworbenen Karte.
Schau dir mal die Ergebnisse an und deute.
Ich nehme an, du spielst auf diese denkwürdige Umfrage an:
http://www.3dcenter.org/news/umfrage-auswertung-geforce-gtx-970-behalten-abwarten-zurueckschicken

Die Umfrage ist für die Katz', weil die Kriterien viel zu schwammig sind. Da wird zB. durch den Anteil der Nicht-Besitzer suggeriert, daß dort AMD-Fanboys mitgestimmt haben.
Leider ist es so, daß alle diejenigen welche ihre GTX970 bereits an den Händler zurückgeschickt hatten und diejenigen, welche ihre GTX970 für 200,-€ und weniger bei eBay verkaufen mußten, ebenfalls bei Nicht-Besitzer abstimmen mußten. ;)

Auch weiß die Formulierung 'trotz allem Ärgernis' zu mißfallen, weil es ja durchaus auch Leute geben könnte, die sich überhaupt nicht über ihre GTX970 ärgern und daher erbost nicht mit abgestimmt haben.

Statistiken lügen immer. Besonders wenn sie bereits so stark eingefärbt sind, daß mancher schon gleich gar nicht mit abstimmen möchte.
Vermeiden Sie Unterstellungen und suggestive Fragen
http://www.q-set.de/Umfragetipps/Umfragetipp_5__Vermeiden_Sie_Unterstellungen_und_suggestive_Fragen.php

;)

Wie dem auch sei. Ich habe mir inzwischen die Gebrauchtpreise für GTX970 angesehen (ja es gibt schon welche, die sie loswerden möchten und wo die Händler scheinbar anders, als in den Medien dargestellt, reagieren).
Erst gestern wollte jemand seine GTX970 Phantom-Edition für 250,-€ loswerden. Neupreis vor Weihnachten vermutlich über 400,-€.
Das ist wirklich hart für die Betroffenen, was nVidia da gemacht hat. Der rekordverdächtige Wertverlust beim Wiederverkauf dieser Karte sprengt alles bisher dagewesene.
Wenn der Händler die Karte also nicht zurücknehmen muß (weil sie zB. im Preis reduziert war, was jetzt einige Händler offenbar ganz fix gemacht haben), dann ist vermutlich Schicht im Schacht.

Gast4
2015-02-15, 20:22:13
Und deine 65 jährige Mutter gehört zu der entsprechenden Nutzergruppe?Wow, coole Mutter.
Wieso soll man mit 65 einen Rollator vor sich herschieben? Bis 67 musst du arbeiten!

Zur Nutzergruppe gehören oder nicht, dass kann man nicht so einfach beantworten, aber wenns paar Jahre halten soll und ein Rebrandig ohne zusätzlichen Technologieansatz ist, wäre das klar Mist.

Wer weiß schon was die Entwickler demnächst so einbauen. Wenn ein Hersteller dann nicht darüber aufklärt solte das ganz klar irgendeine Konsequenz haben.

Umfragen spiegeln wieder welche Meinung derjenige zum Zietpunkt seines Klivcks hatte, ob das so bleibt ist eine ganz andere Sache. Umfragen sind immer nur temporäre Meinungswiedergabe. Wenn man die richten Informationen das Thema betreffend nicht hat, oder sie erst nach dem Klick erlangt, sagt das eben nicht viel aus.

Thema 970 und Overclocking bei Notebooks. Eine Frechheit ist das. Wer weiß schon welcher technischer Fehler sie dazu zwingt und Nvidia schweigt mal wieder. Kann alles nicht wahr sein. War schon bei der 8600m-Serie so. Die haben nichts dazu gelernt.

Ich bin vollständig auf AMD unterwegs und werde erstmal dabei bleiben. Mal sehen was da noch so kommt. Natürlich weiß ich das dies nicht immer das Beste ist, aber preislich kann man einfach nicht meckern. Passt gut ein mein Buget. ;) Fanboy bin ich trotzdem nicht.

BigKid
2015-02-18, 10:08:11
Entschuldigt bitte aber glaubt hier irgend jemand ERNSTHAFT die Geschichte vom Treiber Bug ? Ein Bug der JAHRE nicht entdeckt wurde ?
Ein Bug dessen Fix jetzt nur GTX800M und GTX900M Besitzer betrifft wärend GTX500-700er Nutzer weiter munter übertakten können?

Das ist BS... Die sehen ihre Margen in Gefahr... Im Notebook Umfeld wird schon seit Jahren jede zweite Generation der exakt selbe Chip in der selben Platine/Package recycelt und einfach nur höher getaktet... Das ist vermutlich auch den Notebookbauern recht so, dann dann brauchen sie nix groß neu testen etc. Ich persönlich glaube, das hat sich mittlerweile so gut eingespielt, daß die das Takt-Potential bei einerm neuen Chip ganz bewußt zurückhalten für den Refresh !

Wenn aber die Nutzer mehr und mehr dahinter kommen, daß man das auch ganz ohne Geldausgeben hinkriegt in dem man die Reserven einfach nutzt...

Ich hatte ne GTX570M, 770M, 780M und ne 980M unter meinen Fingern. Jede davon ließ sich mindestens 20% übertakten... Einige 30%... Rockstable und ohne Probleme im Alltag, ohne die Kühllösung zu überfordern... Das sind Zugewinne die man spührt und zwar nicht nur im Schw*nzmark... Da kann man besseres AA oder mehr Details für "kaufen" ...

Nach der Geschichte mit dem "Kommunikationsproblem" bei der GTX970 ist das doch einfach nicht mehr zu glauben... Ich hoffe daß sich auch die Presse der Sache annimmt und uns hilft den Druck zu verstärken !

Gibt es rechtliche Möglichkeiten gegen sowas vorzugehen ?

Schrotti
2015-02-18, 10:54:25
Afair gab es da seinerzeit schonmal ein Problem mit Notebooks von Herstellern wie zB. Fujitsu-Siemens. Dort hatte man viel Wert auf eine äußerst durchzugsstarke und effiziente Kühllösung gelegt mit der Folge, daß sich die Grafikchips nach wenigen Monaten im Betrieb selbst entlötet haben. Der starke Temp-Wechsel zwischen Idle und voller Last führte damals zu erheblichem Verschleiß der Lötverbindungen. Gerüchteweise sollen GPUs zum Teil so lose gewesen sein, daß sie nur noch durch die Kühleinheit auf ihre Kontakte gepreßt wurden.

Vielleicht ist mittlerweile bei manchen Anbietern wieder ein ähnliches Problem mit den Mobile-Chips aufgetreten, so daß man als erste Maßnahme das OC rausgenommen hat.

Hast du mal geschaut wie hoch die Temperaturdifferenz bei dir unter OC war?



Dafür wären mindestens 180°C unterhalb des Grafikchips notwendig damit das Lot ansatzweise weich wird.

Sorry aber das kann ich mir kaum vorstellen.

Gast
2015-02-18, 11:27:55
Dafür wären mindestens 180°C unterhalb des Grafikchips notwendig damit das Lot ansatzweise weich wird.

Sorry aber das kann ich mir kaum vorstellen.
Zumal GPUBOOST2.0 einen ziemlich guten Job macht den Chip innerhalb der gesetzten Grenzen zu halten...

BigKid
2015-02-18, 11:30:19
Übrigens können die GTX900Mer nur noch mit einem signierten unmodifizierten vBIOS geflasht werden ! Es gibt zwar ein gemoddedets NVFLash das auch unsignierte zuläßt aber der MOD kann wohl vom Treiber erkannt werden (NVidiaInspector zeigt ein "MOD" hinter dem Bios an !). Somit können sie also auch diese Lücke jerdezeit zumachen.

Gast
2015-02-18, 18:35:07
Dafür wären mindestens 180°C unterhalb des Grafikchips notwendig damit das Lot ansatzweise weich wird.

Sorry aber das kann ich mir kaum vorstellen.
Dann laß dir helfen:

Würden an der GPU tatsächlich ~200°C erreicht, würde das Lötzinn flüssig und die angebrochenen Lötverbindungen würden sich vermutlich selbst reparieren. Nichts anderes macht man mit einer 'Backofenreparatur'.
Aber das passiert ja nicht. Es wird immer nur aufgeheizt und anschließend stark abgekühlt. Das Lötzinn dehnt sich erst aus und zieht sich dann wieder unnötig schnell zusammen. Von flüssig ist man da noch weit entfernt.
Jetzt ist es imo so, daß sich Lötzinn und die Pins/Stifte/Kontaktflächen der GPU nicht gleichermaßen ausdehnen. Es entsteht also eine Belastung an der Stelle, wo die beiden Metalle miteinander verschmolzen sind.
Und irgendwann kommt es dann zum Bruch und die Lötverbindung ist nur noch rein mechanisch (Anpreßdruck vom Kühlkörper). Zusätzlich können auch noch Spannungen durch den Anpreßdruck des Kühlkörpers auf das weiche (nicht flüssige) Lot einwirken.

Wenn ich oben geschrieben habe, daß sich die Chips selbst 'entlöten', dann war das technisch nicht korrekt, sondern bildlich gesprochen. Ich habe die Formulierung selber auch nur von einem Techniker übernommen, weil ich bis dahin noch nie gehört habe, daß nach Abnahme der kombinierten CPU-GPU-Kühleinheit im Notebook der GPU-Chip lose auf dem Mainboard lag.
Weil ich es damals nicht mit eigenen Augen gesehen habe, habe ich auch 'gerüchteweise' geschrieben. ;)

Gast
2015-02-18, 19:21:09
Ich sitze hier gerade an einem PC mit einer 8800GT, die inzwischen von mir schon zweimal im Backofen wiederbelebt wurde. Wenn man erstmal ein elektrisches Problem mit den Lötverbindungen hat, dann wird man es nicht mehr los. ;)

Eigentlich sollte doch nur G84 und G86 betroffen sein... Ein Notebook hatte ich mit dem Backofen-Trick auch wieder flott gemacht.

http://www.heise.de/newsticker/meldung/Nvidia-Grafikchips-mit-Lebensdauerproblemen-Update-185737.html

Gast
2015-02-18, 23:00:56
Eigentlich sollte doch nur G84 und G86 betroffen sein...

Vielen Dank für deinen Link!
Den Artikel von heise kannte ich bislang noch nicht. Aber dort steht genau das nochmal drin, was wir damals als Ursache für die Ausfälle bei den FS-Notebooks vermutet hatten. Ein Notebook-MB habe ich bislang noch nicht gebacken. :D
Der Ausbau ist so umständlich und das oft nur eingeclipste Panel bricht dabei so leicht (gerade bei älteren Geräten). Sogar einem vom Hersteller eigens beauftragten und angereisten Techniker sind während den wöchentlichen Reparaturmaßnahmen immer wieder Plastikteile abgebrochen.

Meine gebackene 8800GT ist eine dedizierte Grafikkarte. Diese wird im Artikel bei Heise aber indirekt ebenfalls erwähnt:

Laut Demerjian sollen auch Desktop-PC- und Workstation-Grafikkarten mit GPUs der GeForce-8-Serie, also etwa GeForce 8600 GTS/GT, GeForce 8500 GT und ältere Versionen des GeForce 8400 GS sowie Quadro FX 1700 potenziell betroffen sein.

8600GT wird erwähnt und von meiner 8800GT weiß ich es inzwischen aus erster Hand, daß diese ein Problemfall ist (jetzt schon zweimal gebacken). Aber sie läuft immernoch.

Thread dazu hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=550371

Zurück zum Thema dieses Threads:
Vielleicht ist bei den aktuellen Mobile-Chips wieder etwas ähnliches im Busche. Freiwillig hat nVidia die OC-Option mit Sicherheit nicht rausgenommen. Wenn man schon dabei ist nVidia irgendwas zu unterstellen, dann sollte man bedenken, daß es durchaus im Sinne des Herstellers sein könnte, wenn sich die Geräte mit Mobile-Chips selbst zerschrotten.
Man kann nie wissen, was hinter den Kulissen wirklich los ist.

Wenn ich sehe wie effizient und sparsam aktuelle Mobile-Chips sind, dann kann ich mir gut vorstellen, daß sich das Problem von damals weiter verschärft hat. Daß die Leute es natürlich nicht wahr haben wollen, wenn man bei nVidia sagt, daß die OC-Fähigkeit der Mobile-Chips dieses Problem weiter verstärkt und zum Totalausfall der Hardware führt, war mir klar.
Deswegen sagen sie es vermutlich auch gar nicht erst. Das ist nur wieder Munition für Anwälte in den USA. ;)
Und wenn unsere Fachmedien davon erstmal Wind bekommen....

Lieber 5 randalierende OC-Fans, als zig-tausende RMA innerhalb der Garantie. Die Petition hat ja auch kaum jemand unterschrieben. Letzten Endes müssen wir als 'normale' Kunden von nVidia ja den Schaden den manche OC-Fans durch unqualifizierte Nachahmer verursachen über den Kaufpreis unserer nächsten Grafikkarten/Notebooks mittragen.

octiceps
2015-02-18, 23:49:52
I cannot believe how long Nvidia has stayed silent on this. It's been one week already. The petition has over 600 signatures and growing.

Schrotti
2015-02-19, 01:13:29
Dann laß dir helfen:

Würden an der GPU tatsächlich ~200°C erreicht, würde das Lötzinn flüssig und die angebrochenen Lötverbindungen würden sich vermutlich selbst reparieren.

Du ich arbeite in der SMD Fertigung bei pyrexx hier in Berlin und eines lass dir gesagt sein, bei ~200°C wird Bleifreies Lot nicht mal ansatzweise flüssig oder auch weich. Unsere SLA (selektiv Löt Anlage) rührt sich kein bissel bei 200°C Lot Temperatur.

Da stimmt doch was vorne und hinten nicht.

PS: Ich werde morgen mal nach der Lötpaste schauen.

Gast
2015-02-19, 05:01:28
Du ich arbeite in der SMD Fertigung bei pyrexx hier in Berlin und eines lass dir gesagt sein, bei ~200°C wird Bleifreies Lot nicht mal ansatzweise flüssig oder auch weich. Unsere SLA (selektiv Löt Anlage) rührt sich kein bissel bei 200°C Lot Temperatur.

Da stimmt doch was vorne und hinten nicht.

PS: Ich werde morgen mal nach der Lötpaste schauen.
Ja mach mal. - Ich will hier keinen Streit vom Zaun brechen. ;)
Vielleicht ist Zeit auch ein Faktor. Oder euer bleifreies Lot ist ein anderes, als auf Grafikkarten. Ich vermute auch, daß das bleifreie Lot von heute von anderer Qualität ist als damals, als die 8er geForce nach den neuen RoHS Richtlinien gefertigt werden mußte.

Ich habe meine 8800GT jetzt schon 2x bei 190°C wieder flott bekommen. Ich habe ein separates Backofenthermometer verwendet, weil ich dem Backofen nicht über den Weg traue. Es waren wirklich 190°C. Die Grafikkarte selbst hatte keinen Kontakt zum Blech (war in einem nach unten abgeknickten Bratschlauch - schwebte also in der geknüllten Plastikfolie über dem Blech). Hätte das bei 190°C nicht funktioniert, wäre ich mit der Temperatur weiter hochgegangen.
Etwa 12 Minuten bei vorgeheiztem Backofen haben jetzt schon zweimal gelangt.

Vielleicht sind die Risse im Lötzin auch so fein, daß noch andere Dinge eine Rolle spielen. Ich gehe inzwischen davon aus, daß auch bleifreies Lot bei ~200°C flüssig wird, wenn man lange genug wartet (10 min).

Denkbar wäre auch noch, daß es im Backofen unterschiedlich warme Bereiche gibt. Vielleicht wirkt das Backblech wie eine Art Parabolspiegel für die Wärmestrahlung (hatte Ober- und Unterhitze an). Dann wäre es denkbar, daß in der Mitte vom Blech höhere Temperaturen waren, als das Thermometer angezeigt hat. Das Thermometer stand vor der Grafikkarte also näher zur Scheibe hin, so daß man es ablesen konnte.
Es wäre denkbar, daß in der Mitte vom Backofen leicht höhere Temperaturen waren.

Was imo aber die Risse im Lot verursacht sind, wie im Heiseartikel beschrieben, die Temperaturschwankungen. Meine 8800GT ist keinesfalls wärmer als 100°C geworden. Das ist weit entfernt von 190°C. Es ist imo tatsächlich so, daß der Temperatursturz von 100°C (Burnin mit Furmark) auf ~57°C (Idle) die Lötverbindungen der 8800GT beschädigt hat.
Das kann ja eigentlich nicht sein und bedeutet für mich, daß die Risse im bleifreien Lot schon bei Temperaturschwankungen in Bereichen deutlich unter dem Schmelzpunkt auftreten können.

Gast
2015-02-19, 17:58:32
As you know, we are constantly tuning and optimizing the performance of your GeForce PC.

We obsess over every possible optimization so that you can enjoy a perfectly stable machine that balances game, thermal, power, and acoustic performance.

Still, many of you enjoy pushing the system even further with overclocking.

Our recent driver update disabled overclocking on some GTX notebooks. We heard from many of you that you would like this feature enabled again. So, we will again be enabling overclocking in our upcoming driver release next month for those affected notebooks.

If you are eager to regain this capability right away, you can also revert back to 344.75.
https://forums.geforce.com/default/topic/805791/geforce-drivers/gtx-900m-overclocking-with-347-09-347-25/post/4466443/#4466443

octiceps
2015-02-20, 01:02:48
https://forums.geforce.com/default/topic/805791/geforce-drivers/gtx-900m-overclocking-with-347-09-347-25/post/4466443/#4466443
Yahoo!

Gast
2015-02-20, 23:06:31
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Notebook-Maxwell-OC-Treiber-1151296/

NVidia aktiviert das "Feature" wieder. Also dürfte mit dem Lot alles i.O. sein.

Denke eher das liegt daran, dass die nächste Generation auch nur Refreshs sind, also gleiche Hardware etwas optimiert, da können OC versionen der 850m, schon sehr nahe kommen, was dem Marketing gar nicht gefallen dürfte. NVidia schröpft nun mal gern, werden aber langsam etwas vorsichtiger?