PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 1080 Ti Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10

(del)
2017-04-20, 10:44:55
Die Folie ist recht dick und ist ein guter Isolator. Ist doch simpel das rauszucutten.

soLofox
2017-04-20, 10:46:55
Ja klar, das cutten ist kein Problem. Dachte nur an einen Garantiefall, nicht dass man dann Ärger bekommen könnte. Aber die Modifikation macht ja Sinn. Frage ist halt ob MSI das auch so sehen würde ;)

Könnte man sich ja ideal mit rausreden. Man verändert ja das Kühldesign.

(del)
2017-04-20, 10:49:59
Merkt eh keiner. Dann zieh halt die komplette Folie runter und häng sie später wieder rein

Niall
2017-04-20, 11:04:09
Die Karte ist relativ hoch. Das bläst in vielen Cases schon fast direkt an die Seitenwand, vor allem bei gedämmten. Das ist ein zusätzliches Problem, weil es oft sogar einen Rückstau bzw. eine Rückleitung gibt. Noch viel schlimmer: die Karte saugt dummerweise auch die heiße Luft wieder an, du unten am Slot austritt. Das kann kein noch so gut durchlüftetes Tower-Case verhindern.

Das ist dann ja exakt ein solcher Fall, den wir vor ein paar Seiten schon propagierten. Bleibt nur zu hoffen dass sich andere Reviewer auch dazu hinreißen lassen die Karten (zusätzlich) im realistischen Szenario zu testen. ;)

soLofox
2017-04-20, 11:04:53
Ich scheisse mir ja normalerweise nie in die hose wegen Garantie, aber gerade weil man ja nun schon einiges gelesen hat bzgl. Der Langlebigkeit ;)

Naja, erstmal schauen wann die karte da ist.

Dr.Doom
2017-04-20, 11:25:03
Hier gibt es übrigens 7 Seiten MSI GTX 1080 Ti Gamig X 11G - im offenen und im geschlossenen Aufbau :)

Leise, schnell und bedarfsweise auch hungrig: MSI GeForce GTX 1080 Ti Gaming X 11G im Test (http://www.tomshardware.de/1080ti-performance-leistungsaufnahme-lautstarke-temperatur,testberichte-242349.html)

Bei den Spannungen sehen wir im direkten Zusammenspiel mit der Erwärmung der Karte dann auch den Grund. Sind es anfangs noch die vollen 1.0625V, sinkt der Wert im Verlaufe der Erwärmung schnell auf maximal 1.5 Volt ab,
Sind die Werte verdreht oder schreibst du auf dem Kopf stehend? :freak:

(del)
2017-04-20, 11:29:04
Fehlt 'ne Null. Nun ja, zwei Launchreviews nebenher und keinen Lektor... ich schreibe es ja immer direkt ins CMS. Da kommt immer mal was quer. Danke, ich fixe das natürlich :D

dildo4u
2017-04-20, 13:24:57
VRM Kühlung der EVGA 1080 Ti ICX.


https://twitter.com/EVGA_JacobF/status/854744920837455873

(del)
2017-04-20, 14:07:22
Was ich nicht verstehe - die nehmen extra flache SMD Polymers und kühlen die dann nicht mal? Das ist doch eine ideale Fläche, um Hitze abzuführen. Vor allem: wenn man die aktiv kühlt, kann man eine Temperaturklasse niedriger einsteigen und spart echtes Geld...

Typisches Fabless-Design, wo die Kühler-Willis nicht mit den PCB-Designern kommunizieren und der PM kein echter Ingenieur zu sein scheint. Vor allem kostet so eine Pipe ordentlich Kohle und bringt am Ende doch weniger als ein echter VRM-Heatsink. Da ist viel PR, aber kaum praktisches Miteinander zu finden. Aber es sieht erst mal gut aus und man kann die geliebte Sandwichplatte behalten. Selbst MSI hat es mittlerweile kapiert. :D

scully1234
2017-04-20, 19:50:09
Man muss aber doch anerkennen das sie sich bemühen in der Hinsicht,auch wenn nicht alles ideal ist=)

(del)
2017-04-20, 19:55:03
Das ist mir einfach etwas zu viel Bohei, ein VRM-Heatsink wäre billiger und vor allem auch effizienter gewesen. Wobei man natürlich auch erst einmal die Unmengen alter Kühler abtragen muss, die sicher auf Halde lagern. Da ist so eine Sandwichplatte temporär dann doch günstiger. Fabless ohne echtes R&D mit Verbindung zur eigenen Produktion ist immer eine Crux.

Aber selbst Firmen wie Zotac haben da so ihre Altlasten. Und die können auf die Konzernmutter PC Partner zurückgreifen. Da müsste man einfach nur mal eine Etage tiefer bei Sapphire in der Insertion Line bis zum Karussell gehen, wo die Kühler auf die Platinen kommen und sich einen stibitzen. :D

Das ist übrigens der geilste Job, den ich dort in der Fabrik gesehen habe. Scheiß auf den Heatsink, es gibt doch reichlich Fußbälle!

http://i.imgur.com/wvbY4CP.jpg

Iruwen
2017-04-20, 22:28:12
Related:

TW_MQZR-zo4

Chris Lux
2017-04-20, 23:15:23
I loled... ;)

Skysnake
2017-04-20, 23:53:37
hehe der war wirklich gut ;D

ChaosTM
2017-04-21, 21:23:53
Die Aorus ist heute angekommen. Out of the Box läuft sie mit knapp 1900mhz und mit +11% PT bekomme ich immerhin 2Ghz und 6000MB Speichertakt (bisher) stabil hin.
Bin sehr zufrieden.

JaniC
2017-04-21, 21:28:35
EVGA GTX 1080 Ti SC2 review: A ferocious graphics card with a radical cooler
http://www.pcworld.com/article/3191272/components-graphics/evga-gtx-1080-ti-sc2-review-a-ferocious-graphics-card-with-a-radical-cooler.html

Mir Google grad empfohlen, noch nicht gelesen. Keine Ahnung, ob der Test was taugt.

dildo4u
2017-04-21, 21:33:56
Kühler rockt und ist extrem kompackt,EVGA lässt die Karte aber nicht am Limit laufen sie zieht nur so viel wie die Referenz Karte bei Rund 1.8Ghz.

(del)
2017-04-21, 21:47:19
EVGA GTX 1080 Ti SC2 review: A ferocious graphics card with a radical cooler
http://www.pcworld.com/article/3191272/components-graphics/evga-gtx-1080-ti-sc2-review-a-ferocious-graphics-card-with-a-radical-cooler.html
Mir Google grad empfohlen, noch nicht gelesen. Keine Ahnung, ob der Test was taugt.
Bisschen arg für die Tonne. Steckdosenkram und EVGA-Software ausgelesen, fertig ist der Lack. Braucht man eigentlich nicht, sowas.

Freitagabend-Beschäftigung: Game of Details, Season 6. Wer errät, von welcher 1080 Ti das PCBA stammt?

https://scontent.ftxl1-1.fna.fbcdn.net/v/t31.0-8/18056223_1577217018979623_3696221017648790478_o.jpg?oh=4f9c58049a7d58494da7d7d8e 9f5d5c7&oe=598679BC

TobiWahnKenobi
2017-04-21, 21:54:08
gigabyte - da ist hinten HDMI und vorn dran.


(..)

mfg
tobi

scully1234
2017-04-21, 21:55:17
Gigabyte...


für Rechtschreiblegastheniker :P


https://abload.de/img/unbenanntkwui8.png

TobiWahnKenobi
2017-04-21, 22:04:24
gigabyte - da ist hinten HDMI und vorn dran.


(..)

mfg
tobi

sollte hinten und vorn HDMI heissen, aber mit etwas fantasie kann man es auch lesen..

bin ich etwas neidisch drauf - habe ne rift und ein frontpanel HDMI wäre schon irgendwie kuhl. leider ist gbt nicht soo meine marke; könnte das jetzt aber nicht begründen. hatte zuletzt gbt boards und grakas zu 6800gt-zeiten.


(..)

mfg
tobi

24p
2017-04-21, 22:04:35
Ich habe mir jetzt mal die Gigabyte Aorus xtreme bestellt. Nach kursorischer Durchsicht der Reviews scheint mir hier der Kühler am besten.
Endlich W3 mit 60fps in 4K weiterzocken. :D

(del)
2017-04-21, 22:06:55
Hmm, ich hätte es umdrehen sollen.... Stimmt. :up:

Besser kann man die Platine eigentlich nicht kühlen.

TobiWahnKenobi
2017-04-21, 22:10:07
oder du hättest das licht noch etwas aufdrehen müssen.

aber fein dass du die karte da hast. was für einen eindruck macht denn der front-hdmi-schnuffi. traut man dem regelmäßiges einstecken und abziehen einer x-hunderteuro-hardware auf dauer zu? ist nichtmal ne blöde frage, denn mit einem minderwertigen DP-HDMI-adapter habe ich schon eine rift ruiniert.. und auch einige kabel, mit denen ich dieses steckerzerstörende verhalten der buchse reproduziert habe.. quasi zur verifizierung des mangels.

kennt eigentlich jemand den unterschied zwischen HDMI-2.0 nativ und HDMI-2.0 per DP-adapter? DP gibts bei 1080Ti und TXp ja reichlich..

https://abload.de/thumb/atmostnop4.jpg (http://abload.de/image.php?img=atmostnop4.jpg) https://abload.de/thumb/txhdminativ8soo1.jpg (http://abload.de/image.php?img=txhdminativ8soo1.jpg)

^das mit dem grün im bild ist der TXp rechner, der per adapter läuft; rechts natives HDMI-2.0 aus einer TXP.


(..)

mfg
tobi

scully1234
2017-04-21, 22:11:13
Spannungsspitzen?




kennt eigentlich jemand den unterschied zwischen HDMI-2.0 nativ und HDMI-2.0 per DP-adapter? DP gibts bei 1080Ti und TXp ja reichlich..

(..)

mfg
tobi


dürfte vielleicht nicht jeden HDMI Kopierschutz Supporten den das Konsortium genehmigt hat

TobiWahnKenobi
2017-04-21, 22:52:13
Spannungsspitzen?





dürfte vielleicht nicht jeden HDMI Kopierschutz Supporten den das Konsortium genehmigt hat

deshalb bietet man per adapter die normalen 2.0 - 7.1 modi nicht an? das kann doch nur ein fehler sein. wer ist da in der pflicht? ist das eine betriebssystem-geschichte oder ist das der NV-treiber? da ich gezwungen bin, die TXp über einen adapter zu betreiben, weil die rift über DP nicht funzt und er DVI (mit dem die rift funzt, sofern man ihn auf HDMI umformt) wegrationalisiert wurde, stimmt mich das mit den lautsprechern irgendwie negativ..


(..)

mfg
tobi

FastAndy
2017-04-21, 22:54:17
Ich habe eine MSI Gaming und bin ganz angetan von der Karte. Ich empfinde sie als sehr leise. Man hört jedoch die Spulen zwitschern. Das nervt etwas bei absoluter Stille (wenn ich ohne Headset spiele). Ich frage mich ob das irgendwann mal behoben wird. Die Bauteile sind ja nicht sonderlich teuer, das muss doch quasi lautlos klappen.

Bisschen arg für die Tonne. Steckdosenkram und EVGA-Software ausgelesen, fertig ist der Lack. Braucht man eigentlich nicht, sowas.Das ist mir einfach etwas zu viel Bohei, ein VRM-Heatsink wäre billiger und vor allem auch effizienter gewesen.


Du fällst mir mit so vielen Beiträgen mit deiner abfälligen, anmaßenden Art negativ auf. Hast es scheinbar schwer nötig schlecht über Mitbewerber zu reden. Ich finde den verlinkten Test interessant und völlig ok. Wärmebilder etc. interessieren mich z.B. überhaupt nicht. Da vertraue ich dem Hersteller. Apropos Hersteller. Dein Groll gegen EVGA reicht langsam auch. Die müssen dich ja massiv damit geärgert haben, keinen Wert auf deine Meinung zu legen. Wundert mich bei deiner unsymphatischen Art aber auch nicht.
Und so Vorschläge wie Karte zerlegen und Pads cutten für lachhafte 3-4°, da kann man sich als normaler User nur vor die Stirn klatschen.

scully1234
2017-04-21, 22:54:28
@Tobi

nun du kennst doch mittlerweile die Paranoia die dem zu Grunde liegt

(del)
2017-04-21, 23:37:15
...Bilder von gelieferten PR-Folien finde ich ja nun nicht sonderlich aufregend und die paar Benchmarks streuen durch unterschiedliche Chipgüte eher, als durch besondere Fähigkeiten der Hersteller. Und dass man Herstellern bei solchen (teuren) Karten eben nicht blind vertrauen sollte, beweist sich doch täglich aufs Neue. Technische Informationen? Fehlanzeige und Totalausfall, nur copy und paste aus der PR-Mappe.

Nein, einen Groll hege ich nicht gegen EVGA, warum sollte ich? Aber ich ich finde es schon ärgerlich, wenn angekündigte Änderungen dann doch nicht nicht passieren und der Kunde stattdessen mit abenteuerlichen Heatpipe-Konstruktionen geködert wird, die kaum besser sind als das Vorangegangene. Wo in aller Welt liegt das Problem, einfach einen Heatsink draufzuklatschen, die Caps als flache SMD-Polymer vorn und hinten aufzuteilen und das ganze noch als ebene, zusätzliche Kühlfläche zu nutzen? Indem man VRM, Spulen und Caps aktiv von oben kühlt, hat man das ganze Abwärmegeraffel von der Platine weg und auch der Speicher profitiert davon. DAS wiederum machen andere nämlich richtig und siehe da - es ist rundherum kühl :)

Das ist doch alles nur PR und alle springen brav und ohne Nachzufragen übers goldene Stöckchen.

Und so Vorschläge wie Karte zerlegen und Pads cutten für lachhafte 3-4°, da kann man sich als normaler User nur vor die Stirn klatschen. Dann mach mal. Die R&D sehen das komplett anders. Zumindest die, wo Ingenieure arbeiten, die sich aktiv mit den Problemen auseinandersetzen. Vor einem Jahr hätte es diese Firma so auch nicht gebaut. 3-Ebenen-VRM Heatsink und genau das mit den Spulen und Caps, wie ich oben geschrieben habe. Und ja, ein wenig stolz drauf bin ich schon. ;)

http://i.imgur.com/tynZr98.jpg

ChaosTM
2017-04-22, 00:11:14
Hab jetzt den Nachbrenner ausgeschaltet und überlasse alles der Karte.
Es kommen meist ~1945mhz und eine angenehme Geräuschkulisse heraus. Das reicht mir eigentlich. Die letzen paar Mhz mehr werden einfach zu teuer erkauft. Wenn dann nur unter Wasser..

(del)
2017-04-22, 00:16:33
Hab jetzt den Nachbrenner ausgeschaltet und überlasse alles der Karte.
Es kommen meist ~1945mhz und eine angenehme Geräuschkulisse heraus. Das reicht mir eigentlich. Die letzen paar Mhz mehr werden einfach zu teuer erkauft. Wenn dann nur unter Wasser..Reicht doch völlig aus :)

FastAndy
2017-04-22, 00:20:43
...
Ja beweist sich täglich aufs neue, gerade was EVGA angeht wirst du tagtäglich informiert über RMA-Quoten, Ausfälle und sonstige Ungereimtheiten. Erzähle doch bitte keinen Unsinn. Als ob irgendeine Karte wegen 3-4° hops ginge. Das was EVGA da macht ist vielleicht nicht perfekt, reicht aber vollkommen. Du siehst das einfach viiieeell zu pedantisch ohne Alltagsnutzen. Aber hey, ganz EVGA hat halt keine Ahnung, du hingegen schon...
Und was reviews angeht, ich schaue mir lieber Videos der PCGH an, am liebsten vom User Raff hier. Er macht das für den Laien verständlich, geht auf alles für mich Wichtige ein und ist super symphatisch.

crs2601
2017-04-22, 03:28:35
Hab jetzt den Nachbrenner ausgeschaltet und überlasse alles der Karte.
Es kommen meist ~1945mhz und eine angenehme Geräuschkulisse heraus. Das reicht mir eigentlich. Die letzen paar Mhz mehr werden einfach zu teuer erkauft. Wenn dann nur unter Wasser..

Welche Temps hast du durchschnittlich beim Zocken? :D Läuft bei dir der OC-Mode ohne abzuschmieren?

(del)
2017-04-22, 06:25:40
Du siehst das einfach viiieeell zu pedantisch ohne Alltagsnutzen. Aber hey, ganz EVGA hat halt keine Ahnung, du hingegen schon...Nach über 20 Jahren Erfahrungen in der Industrie einschließlich Entwicklung und Qualitätsmanagement traue ich mir da schon einiges zu. Die tollen Sensoren auf der iCX sind an sich keine schlechte Idee, es war auch mal Gesprächsgegenstand, nur ist es wieder mal inkonsequent umgesetzt. Da beeinflusst ein Bauelement unter dem einen Lüfter die Drehzahl des anderen. Ohne jeglichen Sinn. Ich kenne kaum Reviews, wo das überhaupt aufgefallen ist. Nur bringen die 100 U/min mehr auf der falschen Seite eben nichts außer mehr Krach. Der ist dann wenigstens ausfgefallen, nur fragt keiner mal, warum das so ist. Im Übrigen war EVGA ja auch genau wegen der Probleme hier bei mir im Lab und rate mal, von wem der Pad-Mod kam. Nicht ich bin zu pedantisch, sondern andere sind viel zu gutgläubig und oft auch zu nonchalant. Es wird Dir auch keiner ausreden wollen, die Videos zu schauen. Für alles gibt es eine Zielgruppe. :)

Trotzdem gibt es viele Beispiele, wo mich Oberflächkeit extrem aufregt. Da gibt es Leute, die glauben, auf der Galax/KFA² 1080 Ti HoF wären wirklich 19 Phasen verbaut, nur weil es die PR (oder ein Vdeo / Review) so erzählt. Es sind in Wahrheit ganze 9 (3 für den Speicher und 6 für die GPU), der Rest ist simples Verdoppeln von Wandlerzügen. Das Gleiche beim Launch der RX 580. Sapphire verbaut nur noch ganze 3 Phasen, verdoppelt die Spannungsregler und schreibt 6 Phasen dran. Und dann wundern sich die Leute, warum das Flashen von irgendwelchen 480ern mit diesem BIOS so oft schiefgeht... Das sind Dinge, die ich bisher kaum irgendwo richtig lesen konnte. Das ist auch keine Pedanterie, sondern einfach schlichte Sorgfalt. Die bin ich den Lesern, die sich für die wichtigen Details interessieren, einfach schuldig. Aber es gibt nun mal verschiedene Interessenlagen und das ist auch gut so. Das mag einige Leser sicher langweilen, anderen hingegen wünschen sie so etwas durchaus. Damit kann jeder leben.

Hübie
2017-04-22, 08:40:34
Ja beweist sich täglich aufs neue, gerade was EVGA angeht wirst du tagtäglich informiert über RMA-Quoten, Ausfälle und sonstige Ungereimtheiten. Erzähle doch bitte keinen Unsinn. Als ob irgendeine Karte wegen 3-4° hops ginge. Das was EVGA da macht ist vielleicht nicht perfekt, reicht aber vollkommen. Du siehst das einfach viiieeell zu pedantisch ohne Alltagsnutzen. Aber hey, ganz EVGA hat halt keine Ahnung, du hingegen schon...
Und was reviews angeht, ich schaue mir lieber Videos der PCGH an, am liebsten vom User Raff hier. Er macht das für den Laien verständlich, geht auf alles für mich Wichtige ein und ist super symphatisch.

Wenn alle so denken würden, dann würden wir noch in Höhlen an Wänden malen. Ich fürchte du hast auch überhaupt keine Ahnung was Format_C schon alles für bessere Kühlungen auf Grakas "für uns" getan hat. Aber sei mal ruhig weiter so kleinkariert und stell dich vor EVGA. :rolleyes:

Wenn ein Hersteller Scheiße baut - und das passiert ja nicht selten - dann muss man diesen dafür rügen, sowie Verbesserungsvorschläge machen dürfen. Denn die haben eine Fehlentscheidung getroffen und zeigen damit, dass die es eben nicht drauf haben. Gerade diese Wurstblinker bei EVGA haben es nicht so mit Konstruktion... Wo ist nun also dein Problem? Willst du weiterhin mit suboptimalen Lösungen hantieren? Vielleicht sitzt du ja sogar dort irgendwo und bist nun beleidigte Leberwurst. Geh mal fleißig Raff gucken. Der hat Erfahrung als Hardware-Redakteur, aber kein Plan als Ingenieur.

Auch immer bezeichnend wie die üblichen, austauschbaren Reviewer auf youtube ein Exemplar gestellt bekommen (neeeeiiiin natürlich nicht selektiert) und dann gleich der ganzen Modellreihe einen Boost von XXXX MHz bescheinigen. Das die Chipgüte das Maß ist interessiert keine Sau.
Anscheinend ist die Varianz allerdings auch nicht sehr hoch. Schlechter Chip mit guter Kühlung bringt wahrscheinlich das gleiche Ergebnis wie guter Chip mit schlechter Kühlung. :freak:

(del)
2017-04-22, 08:50:53
...Schlechter Chip mit guter Kühlung bringt wahrscheinlich das gleiche Ergebnis wie guter Chip mit schlechter Kühlung. :freak:Genau das ist das hüpfende Komma, warum man eigentlich so ähnlich gestrickte Karten wie die MSI, Asus oder Gigabyte eben NICHT miteinander nur in in Benchmarkbalken und im offenen Aufbau vergleichen und be-/aburteilen sollte. Erneuter Griff ins Regal, andere Karte des gleichen Modells geschnappt und schon sieht die Welt möglicherweise ganz anders aus.

Ich habe bei einem Distri mal 10 Karten eines 1080er Modells getestet, just for fun, um eine Stunde Wartezeit zu überbrücken. Bis zu 5% Serienstreuung beim Boost, dazu mögliche Toleranzen beim Benchmark - mit ca. 6% an Unwägbarkeiten hat man ein Toleranzfeld, so groß wie der Bodensee. Dann kauf ich mir doch lieber die im richtigen Umfeld auch leisere und kühlere Karte, weil das handfeste Fakten sind, von denen ich auch im realen Leben was habe. Genau da helfen mir aber ein Video oder eine bunte Benchmark-Orgie nicht weiter. Ein feines Beispiel ist die Galax/KFA² 1070 EX. Zweckmäßig bestückt, Kühler einigermaßen brauchbar für diese Leistungsklasse und im Endprodukt völlig identisch zur EXOC - umflashen geht, denn im Werk werden die gleichen Karte je nach Auftragseingang zur EX oder EXOC geflasht. Sparpotential bis zu 40 Euro. Nur ist das keine Bling-Bling-Karte für hormongeplagte Akneplantagen, sondern ein solider Preis-Leistungskracher. Und nun zählt doch mal die Reviews und Infos dazu... Man sollte sich auch dafür nicht zu schade sein. Mit, oder ohne Video.. Die läuft wie geschnitten Brot, auch ohne Golden Samples. :)

BTW: Ich habe heute die Backplate der Gigabye zerbohrt, um auch die Temps unterhalb messen zu können. Wie respektlos und langweilig :D

Following the rules - So.Muss.Komponentenkühlung!

http://i.imgur.com/M2siyAj.jpg

Anstelle schwindliger DHT-Gammeleien eine sauber zusammengeschraubter (!) Kühlblock
mit gemeinsamer Kupferplatte für GPU und RAM. Bei Gewichten von über einem Kilo
verzieht sich das gepresste Geraffel nämlich mit der Zeit. Vernickelt ist nette Optik,
aber schlecht fürs eigentliche Kühlgeschäft.

http://i.imgur.com/oL7ahqN.jpg

Und jetzt frag ich mich, warum der Typ aus dem Link eben seine Karte nicht wirklich mal richtig zerlegt hat.
Das hätte nämlich deutlich anders ausgesehen. Aber zerschredderte Karten sind halt weniger Wert ;)

rentex
2017-04-22, 10:00:20
Ich habe eine MSI Gaming und bin ganz angetan von der Karte. Ich empfinde sie als sehr leise. Man hört jedoch die Spulen zwitschern. Das nervt etwas bei absoluter Stille (wenn ich ohne Headset spiele). Ich frage mich ob das irgendwann mal behoben wird. Die Bauteile sind ja nicht sonderlich teuer, das muss doch quasi lautlos klappen.




Du fällst mir mit so vielen Beiträgen mit deiner abfälligen, anmaßenden Art negativ auf. Hast es scheinbar schwer nötig schlecht über Mitbewerber zu reden. Ich finde den verlinkten Test interessant und völlig ok. Wärmebilder etc. interessieren mich z.B. überhaupt nicht. Da vertraue ich dem Hersteller. Apropos Hersteller. Dein Groll gegen EVGA reicht langsam auch. Die müssen dich ja massiv damit geärgert haben, keinen Wert auf deine Meinung zu legen. Wundert mich bei deiner unsymphatischen Art aber auch nicht.
Und so Vorschläge wie Karte zerlegen und Pads cutten für lachhafte 3-4°, da kann man sich als normaler User nur vor die Stirn klatschen.

Du glaubst aber auch, das die Hersteller die letzte Instanz in der Grakaentwicklung sind🙄 Wie in jeder Branche, ist es leider nicht so. Produkte im allgemeinen werden oftmals nicht nach besten Wissen und Gewissen entwickelt und produziert. Ich bin sehr froh, das es solche Leute wie Format_C oder Raff gibt.

24p
2017-04-22, 10:08:29
Wenn alle so denken würden, dann würden wir noch in Höhlen an Wänden malen. Ich fürchte du hast auch überhaupt keine Ahnung was Format_C schon alles für bessere Kühlungen auf Grakas "für uns" getan hat. Aber sei mal ruhig weiter so kleinkariert und stell dich vor EVGA. :rolleyes:

Wenn ein Hersteller Scheiße baut - und das passiert ja nicht selten - dann muss man diesen dafür rügen, sowie Verbesserungsvorschläge machen dürfen. Denn die haben eine Fehlentscheidung getroffen und zeigen damit, dass die es eben nicht drauf haben. Gerade diese Wurstblinker bei EVGA haben es nicht so mit Konstruktion... Wo ist nun also dein Problem? Willst du weiterhin mit suboptimalen Lösungen hantieren? Vielleicht sitzt du ja sogar dort irgendwo und bist nun beleidigte Leberwurst. Geh mal fleißig Raff gucken. Der hat Erfahrung als Hardware-Redakteur, aber kein Plan als Ingenieur.

Auch immer bezeichnend wie die üblichen, austauschbaren Reviewer auf youtube ein Exemplar gestellt bekommen (neeeeiiiin natürlich nicht selektiert) und dann gleich der ganzen Modellreihe einen Boost von XXXX MHz bescheinigen. Das die Chipgüte das Maß ist interessiert keine Sau.
Anscheinend ist die Varianz allerdings auch nicht sehr hoch. Schlechter Chip mit guter Kühlung bringt wahrscheinlich das gleiche Ergebnis wie guter Chip mit schlechter Kühlung. :freak:


Das sehe ich genau so. Wenn es einem egal ist, dann kann er sich ja eine FE oder eine x-beliebiges Costum Design kaufen und muss hier nicht lesen. Wenn ich aber schon fast 900€ für eine Grafikkarte ausgeben will ich auch etwas vernünftiges. Und die paar Grad sind es ja eben nicht, denn an bestimmten Hotspots auf der Karte sind die Unterschiede ja tw viel höher, wie man beim Vergleich der Gigabyte und der Strix sehen kann. Da will ich einfach, dass ich auch im Sommer keine Probleme bekomme.

Auf die Boostraten habe ich bei den Reviews auch wenig Wert gelegt, sondern mir einfach die Kühlerkonstruktion und was darüber geschrieben wurde. Selbst die Temps des Chips sind ja nicht aussagekräftig, da eine Karte die mit dem Kühler die komplette Platine kühlt eben etwas schlechtere GPU-Temps haben kann, da dieser eben mehr Wärme abführen muss.

robbitop
2017-04-22, 10:25:53
@Format_C

Warum fräst man die Kühlkörper nicht direkt so, dass sie direkt auf den Kompomenten sitzen? Also analog zum Kontakt mit der GPU. Kleiner Spalt und Wärmeleitpaste. Diese dicken WLPads sind sicherlich wesentlich schlechter vom Wärmeleitwert als Kupfer. Und das dann auch noch über Strecken von 2...5 mm. Da schlage ich jedes Mal die Hände über dem Kopf zusammen. Die Schwankungsbreite der Höhen der Komponenten wird sicherlich sehr gering sein. Die Wiederholgenauigkeit der Fräsen liegt Größenordnungen drunter.

Das kann eigentlich nur eine Frage der Materialkosten sein. 2...5 mm dickere Kuperplatte und die entsprechend höhere Bearbeitungszeit auf der CNC Fräse.

Selbst bei den hochpreisigen Wasserkühlern (wo einiges an mehr Marge drin sein sollte) ist das der Fall.

Als relativ günstige Alternative würde mir einfallen statt WLP Kupferplatten, die den Spalt zu den Bauteilen verkürzen, mit der Grundplatte des Kühlers zu verkleben.

Beim GPD Win gibt es einen solchen Kühlermod. Das brachte dort bei läppischen 5-10W ~15K.

(del)
2017-04-22, 10:50:05
Warum fräst man die Kühlkörper nicht direkt so, dass sie direkt auf den Kompomenten sitzen? Also analog zum Kontakt mit der GPU. Kleiner Spalt und Wärmeleitpaste. Diese dicken WLPads sind sicherlich wesentlich schlechter vom Wärmeleitwert als Kupfer...

Es sind erst einmal weniger die reinen Materialkosten, sondern die benötigte Modularität und Wiederverwertbarkeit. Tooling, also das Herstellen von Werzeugen für die Massenproduktion, ist nun mal sauteuer und es dauert ewig, eh die Kosten wieder rein sind. Dann lieber ein Baukastensystem, wo man je nach Leistungsklasse auch mal eine Heatpipe einspart oder den Heatsink versimplifiziert, der Rest aber bleibt.

Außerdem ist Fräsen auf der CNC ganz nett, aber nichts für eine echte Massenproduktion, denn das dauert viel zu lange. Kleinserien ja, aber mal eben so 300K Kühler rauswerfen geht nicht. Die zeitliche Abfolge in den Entwicklungsschritten wird ja leider auch immer kürzer. Und nicht vergessen: die Kühler kommen fast immer von einem anderen OEM, der auch massig Vorlauf braucht. So ein Custom-Kühler in der Klasse wie die 1080 Ti kostet bei guten Drittanbietern locker ab 30 USD aufwärts. Und die sind VORAB zum Großteil schon mal fällig. Dann ist es natürlich schon billiger, die Sandwichplatte mit einer Heatpipe zu verzieren, anstatt einen komplett neuen Kühler zu ordern und die alten alle zu verschrotten.

Und dann kommt noch der Grusel-Faktor Insertion Line + Chinesische Ameise. An der Stelle, wo im Karussell Kühler, Platine und ggf. vorher die Backplate zusammenkommen, sitzen Mädels (und Jungs), denen Du bei dem Tempo dort keine Präzision mehr abverlangen kannst. Pads sind geduldig und gleichen das aus, was die Montage-Tusnelda früh an privatem Frust mit ans Fließband bringt. Spaltmaße und so, denn das Qualitätsmanagement beginnt mit Ursachenvorwegbehandlung ;) WLP von Hand geht gar nicht, denn das Zeug bei der CPU wird z.B. gleich beim Kühler-OEM gesiebdruckt, tamponiert oder kommt später von der Transferfolie.

Trotz (oder wegen) der Hilfswerkzeuge ist nur ein gewisses Maß an Präzision möglich, denn das Tempo ist echt hoch. Das muss beim ersten Mal sofort sitzen:

http://i.imgur.com/UhfY1xY.jpg

uweskw
2017-04-22, 11:20:24
Schon extrem heute. Bei einem Produkt für 8-900,00€ wird an wenigen Sekunden Fertigungszeit gegeizt.
Offensichtlich weil die Reviewer/Käufer den Mehraufwand nicht honorieren.

greetz
US
@format_c
danke für tiefergehende Reviews.

rentex
2017-04-22, 11:28:45
Der Gewinn hat Priorität...ist aber auch verständlich.

(del)
2017-04-22, 11:42:08
Der Gewinn hat Priorität...ist aber auch verständlich.Gewinn, nun ja.... Bei einer Karte, wo Nvidias Bundle aus GPU und RAM schon über 60% der HKP, also den reinen Herstellkosten der Produktion (nicht zu verwechseln mit den Herstellungskosten) beträgt, fällt die Spanne für die Boardpartner kleiner aus, als man gemeinhin denkt. Das kann bei kleineren Chips über die Masse gehen, oder bei größeren Karten über die Veredelung des Produktes in Form von solchen Bling-Bling-Editions, wo der Kevin Benchmarkfetischist sich dann genüsslich einen abrubbelt und so den richtigen Gewinn garantiert, weil er nun mal für jeden unnützen Sensor und jede blinkende ArDschieBieh-LED kreative Mondaufpreise akzeptiert.

Einfach ein paar Karten locker machen, die Blogger und Computer-BILD mit Golden Samples bestücken und von der PR so richtig beseiern lassen - beim unbedarften Kunden wird schon was davon hängen bleiben. Dann rollt der Rubel und die Erde dreht sich weiter. Marktwirtschaft :D

FastAndy
2017-04-22, 13:54:08
Nach über 20 Jahren Erfahrungen in der Industrie einschließlich Entwicklung und Qualitätsmanagement traue ich mir da schon einiges zu.
Ja, das hast du mit deinem Test neulich und den wirren Aussagen hier dazu kürzlich bewiesen. In einem anderen Forum haben sie deinen Unsinn schön zusammengefasst.

keine Bling-Bling-Karte für hormongeplagte Akneplantagen
Ist halt nicht alles für übergewichtige MidLifeCrisler gemacht. Es sieht gut aus, verkauft sich und läuft trotzdem. Schau mal über deinen Tellerrand.

24p
2017-04-22, 14:04:07
Mcdonalds verkauft sich auch. Ist es gutes Essen? Nein. Sorry, aber mit solchen Allgemeinplätzen als Argumentation kann ich nichts anfangen.

(del)
2017-04-22, 14:15:01
...Das dürfen sie gern, das Forum dort hatte auf seine Art schon immer einen gewissen Unterhaltungswert. :)

Es ist am Ende doch wie immer, dass keiner willens ist, sich die Details anzuhören, wenn man sie ihm (sogar auch noch per PN) anbietet, aber an anderer Stelle die ultimative Profilierung sucht und munter drauflosfabuliert. Auf sowas kann ich gern verzichten, deshalb bin ich auch hier nicht mehr näher darauf eingegangen und habe es auch dort gelassen. Das kostet Lebenszeit für nichts. Komisch nur, dass es lief :D

Ist halt nicht alles für übergewichtige MidLifeCrisler gemacht. Es sieht gut aus, verkauft sich und läuft trotzdem. Schau mal über deinen Tellerrand.
Leseblockade? Diese Dinge dienen der Gewinnmaximierung (siehe oben). Solange es dafür Zielgruppen gibt... Und wenn nicht, werden es die PR und gewisse Tests schon richten. Ich finde es nur lustig, dass viele immer gleich persönlich werden, wenn sie ihre Meinung propagieren (und sich auf irgendeine Weise angesprochen fühlen). Das macht den Inhalt nicht tiefsinniger. ;)

@24p:
Würden plötzlich alle Sous Vide zubereiten, wäre es auch langweilig. :D

TurricanM3
2017-04-22, 18:41:36
Die Ti meines Bekannten ist fertig:

https://abload.de/img/20170422_145720hiuqb.jpg (http://abload.de/image.php?img=20170422_145720hiuqb.jpg)

https://abload.de/img/20170422_1831122eun9.jpg (http://abload.de/image.php?img=20170422_1831122eun9.jpg)

Hab die unter Luft mal kurz auf Funktion getestet und mit 100% Fan laufen lassen, selbst der anspruchslose Heaven ist bei 2063 nach wenigen Sekunden abgeschmiert. Bei meiner TXP ist der damals erst bei 2139 abgeschmiert.
Der Watercool Kühler ist echt mal hochwertig.

(del)
2017-04-22, 18:52:24
Sieht wirklich gut aus, topp. Kammer nicht meckern :up:
Berichte mal weiter, ich brauch auch noch zwei Blöcke.

Edit ----- Achtung ----- Edit

[Taft-Modus]
***Im offenen und im geschlossenen Aufbau ist die Aorus ein bisschen kühler als die MSI und sogar noch einen Tick leiser. Aber bis auf den Hotspot der MSI sind beide auf einem wirklich hohem Niveau. Es nimmt sich bei der Performance kaum etwas, so dass das GPU-Lotto entscheidet.
[/Taft-Modus]

uweskw
2017-04-22, 19:03:22
Mcdonalds verkauft sich auch. Ist es gutes Essen? Nein. Sorry, aber mit solchen Allgemeinplätzen als Argumentation kann ich nichts anfangen.

pass nur auf format: keine Kritik an irgendwas von NV. Sonst wirst Du noch als roter Fanboy bezeichnet ;D;D;D

scnr.
US

scully1234
2017-04-22, 19:08:48
Der Watercool Kühler ist echt mal hochwertig.

Schon immer so gewesen

Nur hat diese Hochwertigkeit eben ihre zeitlichen Nachteile

So gern ich Rico Weber unterstützen würde, denn der Preis ist für das Gebotene auch unschlagbar

Angiesan
2017-04-22, 19:12:16
Natürlich sind die Leute hier an der Technik interessiert, aber der Fehler wurde bei EVGA behoben und der Nachtest von Format C hat das auch gezeigt.

Das man da immer wieder nachtreten muss, lässt schon auf einen Groll oder Marketing für eine andere Firma schließen. Das "alberne Sandwich-Design" hat ja nun mal nicht alleine EVGA.
Und wenn man sich unsicher ist, kann man auch die erweiterte Garantie kaufen und dann reden wir über 5 Jahre! Danach ist die Karte eh nur noch E-Schrott und reicht höchstens noch für Moorhuhn 2020. Es wird immer so hingestellt, dass die Karte innerhalb der kommenden 14 Tagen einen Zimmerbrand verursachen würde:freak:

Wenn man über eine Karte schlechtes berichtet die man noch nicht in Händen hatte lässt das zumindest Raum für Spekulationen 1080 TI SC.

Es ist meiner Meinung nach offensichtlich, dass alle außer Gigabunt momentan Scheiße bauen........zumindest wenn man in der Welt von Format-C gefangen ist. Die Frage ist nur wie Scheiße der Mitbewerber ist und auch dann wenn es nur um ein Loch geht das man dann vielleicht selbst in sein WL Pad schneiden soll:redface:
Für mich hört sich da so an als ob man einen Tipp gegeben hat, dieser umgesetzt wurde bei der neuen Generation und er nun beweisen will, dass er damit absolut richtig lag und der Umsatz damit angekurbelt wird.
Unterstützt wird das dann noch von seinem Viralen Marketing das er ja nicht nur hier betreibt:wink:
Ich denke das erledigt sich von selbst in den kommenden Monaten. Vielleicht kann er dann ja in das Design von Grafikkarten-Platinen und deren Kühlung einsteigen und endlich alles richtig machen. Ingenieure mit solcher Kompetenz werden in der Industrie doch immer gesucht und das meine ich jetzt nicht ironisch!

TurricanM3
2017-04-22, 19:20:44
Schon immer so gewesen

Nur hat diese Hochwertigkeit eben ihre zeitlichen Nachteile

So gern ich Rico Weber unterstützen würde, denn der Preis ist für das Gebotene auch unschlagbar


Nein nicht immer, es gab mal Probleme mit nur aufgeklebten Teilen bei den Kühlern. Die sind wohl abgefallen. :freak: Hatte davon aber nur gelesen. Qualitativ sind die alle sehr nah beieinander, außer EKWB, insbesondere die neuen curved Kühler in Anlehnung an den TV Trend. :D
EKWB würde ich aktuell nur noch im Notfall für mich selbst kaufen. Bei den letzten Karten hatte ich immer AquaComputer. Watercool braucht mir leider immer zu lange und Termine werden nicht eingehalten. Meine 1080 war es glaube, die lag 8 Wochen ungenutzt rum weil ich vergeblich auf den Kühler von denen gewartet hatte. :(

scully1234
2017-04-22, 19:32:44
Natürlich sind die Leute hier an der Technik interessiert, aber der Fehler wurde bei EVGA behoben und der Nachtest von Format C hat das auch gezeigt.

Das man da immer wieder nachtreten muss


Es geht um das neue Platinenlayout und wie dort eben die VRMs ihre Wärmeabgabe realisieren über das Kühlerdesign

Warum darf er das nicht aufschlüsseln, ohne das da jemand es als "Nachtreten" einstuft?

Ich finde ja auch sie bemühen sich, aber als Techniker kann man doch wohl auch akzeptieren, das das Gebilde eben noch eine Ecke davon entfernt ist, optimale Verhältnisse zu liefern?

Messergebnisse werden ja letztendlich auch geliefert in den entsprechenden Tests, die den Standpunkt untermauern, und nicht nur irgend etwas lapidar in den Raum gestellt

Wenn das nächste Design dann besser funktioniert wegen dem "Minimi" ist doch den Verbraucher nur geholfen

(del)
2017-04-22, 19:44:33
...Ich spare mir da einen Kommentar.

Die MSI hat richtig gut abgeschnitten, wo ist das Problem? Nur ist es halt so, dass nicht wirklich optimal ist, die VRM für den Speicher so nah an selbigem zu positionieren und gleich noch mit über den gemeinsamen kleinen Kühlframe zu kühlen anstatt über den großen Heatsink. Das war übrigens der einzige Kritikpunkt. Virales Marketing? Gott behüte, die andere Karte hat sogar einen Kauftipp bekommen. Mehr geht eh nicht.

EVGA... sagen wir es mal so. Ich lasse mich ungern mehrmals wegen des gleichen Themas anrufen und mir mitten in den Tests erklären, was ich wie zu beurteilen habe. Vorschreiben lasse ich mir schon mal gar nichts und belatschern auch nicht. Da bin ich allergisch. Den Rest kläre ich nächsten Monat persönlich vor Ort. Dass Sandwich-Konzepte funktionieren können, hat Galax (KF²) mit dem Gussframe der HoF bewiesen. Einfach ordenlich Kühklrippen drauf und damit gleich noch alles fein stabilisiert. :)

Edit 1:
Typos gefixt:)

Edit 2:
Garantieleistungen kann (und muss) man sogar im Preis mit einkalkulieren. Hier ist auch noch der mögliche Imagegewinn mit zu verbuchen, der unterm Strich mögliche Einbußen locker wettmachen kann, wenn man das sonstige Budget fürs Marketing betrachtet. Ich finde da die Bedingungen von EVGA noch nicht mal schlecht und als Basis für einen eigenen Kühlerumbau (z.B. auf Wasser) sind die Teile gut geeignet. Da gibt es schlimmere Formulierungen bei anderen Herstellern, z.B. auch bei Netzteilen über eine sachgemäße Nutzung. Das mit der Garantie ist aber auch recht gut kalkulierbar, wenn man davon ausgeht, dass vor allem im Enthusiastenbereich die Nutzungszeit wohl meist eh nur mit maximal zwei Jahren angesetzt wird. Was dann beim Zweit- oder Drittbesitzer passiert - shit happens. Und diejenigen, die sich Kühlerumbauten zutrauen, sind eher die versierteren Nutzer, die wissen, wie sie mit Hardware umgehen müssen. MSI hat übrigens ganz offensichtlich auch mal gegengerechnet und das Riskio vor allem beim M7 der 1080 so eingeschätzt, dass dann gleich ein komplett neuer Kühler auf die 1080 Ti kam. Man hätte den alten durchaus auch aufbohren können, aber beim GDDRX5 gibt es noch keine verlässlichen Langzeiterfahrung. Da wird man schnell vorsichtig. RMA kann kosten.

Edit 3:
Ich erinnere bei RMA an die guten alten Tahiti und den tweilweise verbauten Elpida-RAM samt Artefakten und Sterbe-Orgien. Da war aber nicht etwa der RAM als solcher der Schuldige, sondern der Umstand, dass die Platinen unter dem Speicher meist so heiß wurden, dass der perspektivisch keine andere Perspektive hatte, als schleichend kaputt zu gehen, weil alle auf die Specs geschissen haben. Das betraf viele HIS-Karten, während der Hynix GDDR5 etwas unempfindlicher war (z.B. viele Sapphire). Doch es kam keiner mal auf die zündende Idee, mal den Wärmefluss zu messen. Die Kühller hätten damals schon ein echtes Update gebraucht. Ich hatte unlängst mal eine 7970 IceQ X2 TurboX im Messaufbau (meine letzte, die übrhaupt noch läuft - außer der Referenzkarte) - das waren partiell bis zu 100°C und mehr. Nur hat es damals einfach keinen interessiert, ich schließe mich da nicht aus :)

Angiesan
2017-04-22, 20:05:07
Du und Format C habt natürlich recht, aber wenn man nicht wirklich einen Nachteil aus der Ist-Situation mitnimmt, ergibt sich zuerst auch kein Vorteil;)

Das ist wie bei vielen anderen Sachen, wenn man es nicht weiß, erfreut man sich an der Sache, wenn man aber auf einen Nachteil aufmerksam gemacht wird, verliert man die Freude an einem einwandfrei funktionierendem Produkt.

Dem Großteil der Kunden dürfte das am Arsch vorbeigehen, aber die Enthusiasten sind auch meinungsbildend unterwegs und genau da setzt das an.

Wenn man es richtig machen wollte müsste man nicht nur sagen was falsch ist, sondern welche Auswirkungen das sehr wahrscheinlich haben wird. Davon habe ich aber noch nichts gelesen! Nur damit es verständlicher wird: Ein Bauteil ist auf Temperatur xy ausgelegt, wenn ich es nun mit einer höheren Temperatur betreibe verringert sich nun die Lebensdauer, es gibt für die einzelnen Bauteile meines Wissens nach auch sehr genaue Tabellen, in denen das beschrieben wird und die MTTF nach Temperatur aufgeteilt wird.

Wenn ich also z.B. eine MTTF von 10 Jahren bei einer Temperatur von 75°C habe und diese sich bei 85°C halbiert, dann kann ich daraus eine Storry machen. Erschwerend kommt dann noch hinzu, dass das Nutzerverhalten sich deutlich unterscheiden dürfte, denn selbst der wildeste Zocker wird nicht nur das oder die Spiele ohne Unterbrechung zocken.
Also wenn Format C aufgrund seiner Fachkenntnisse hierzu mal detaillierte Aussagen treffen würde, könnte man das geschriebene auch ernst nehmen.
Gerade bei einem technisch interessiertem Publikum könnte man damit doch wirklich punkten und auch verständlich machen worum es geht.
Ansonsten ist das für mich so als ob ich angezeigt werde weil ich bei Rot über die Ampel gelaufen bin, aber nix passiert ist.

Also zusammengefasst, wenn Format C z.B. eine Aussage treffen würde die Karte hält dann nur 10 Jahre anstelle von 15, hätte seine Aussage kaum Gewicht und jeder würde sagen, jo wenn interessiert es! Wenn er aber sagen würde die Karte wird die 5 Jahre mit hoher Wahrscheinlichkeit nicht überleben, könnte der ein oder andere dies sehr wohl als relevant ansehen. Es wäre ein handfeste Grundlage für eine Kaufentscheidung.
Und dann gibt es noch die dritte Variante man sagt durch die höhere thermische Belastung halten die betroffenen Bauteile 3 Jahre weniger ohne die Angabe was denn die MTTF des entsprechenden Bauteils ist.
Solange man nur weiß, das die Temperatur zu hoch ist, ohne einen Hinweis was dies bedeuten könnte, ist die Aussage für mich wertlos, für viele andere aber Grund für einen Shitstorm ;-) Ich denke, wenn er wirklich was bewegen will und dies auch mit Argumenten die greifbar sind belegen kann, warum macht er es dann nicht. So einen Wärmebild-Kamera macht noch kein technisches klasse Review aus, so ein Ding kann ich bei meinem Nachbarn ausleihen, der braucht das beruflich, wenn auch in einer anderen Branche.

(del)
2017-04-22, 20:24:39
Wenn man es richtig machen wollte müsste man nicht nur sagen was falsch ist, sondern welche Auswirkungen das sehr wahrscheinlich haben wird. Davon habe ich aber noch nichts gelesen!

Über MTBF- und Belastbarkeitstests habe ich schon mal was geschrieben, das bezog sich allerdings auf Netzteile. Und wenn Du meine Reviews liest, dann steht dann auch schon mal eine Erklärung zu den Bildern. Unlängst habe ich mich in einem Review z.B. zu den Problemen bei den Multil-Layerplatinen geäußert. Was nützt mir ein Flammpunkt des 8-Layer-Materials von jenseits der 200 Grad, wenn ich bereits ab über 100°C Ausgasen/Austrocken befürchten muss und in unmittelbarer Folge auch Bending, Leiterabrisse und Ähnliches? Die VRM sind meist bis 150°C (oder höher) spezifiziert, schön. Aber das sagt trotz allem absolut nichts über das Umfeld. Wenn man allein an manche Kühlerungetüme und die hängenden Einbauten denkt und den Platz wo sie verschraubt sind, dann wird mir übel. In den Absätzen der Reviews zur der Platinenanalyse liest Du übrigens auch vieles wie z.B. das Verdoppeln der Phasen zum Entzerren von möglichen Hotspots, Komponentenauswahl oder dem Platzieren von Caps wenn es angebracht scheint. Nur kann nicht jedes Review redundant zum Erklärwerk mutieren. Das liest keiner und bläht alles sinnlos auf.

Ich kann allerdings keine HALT-, Schock-, Environmental- oder sonstige Komponententests zur Einschätzung der MTBF von Einzelkomponenten oder Baugruppen liefern. Das maße ich mir nicht an und ohne passendes Equipment und einen längeren Zeitraum geht so etwas auch überhaupt nicht. Im Gegenzug wirst Du von mir aber sogar hier lesen, dass eine gute Kühlung, die auf den ersten Blick teuer scheint, sogar Kosten sparen kann, weil man einfachere Qualitäten kaufen kann. Aber ich kann nicht jedes Review zur MTBF-Kaffeesatzleserei machen. Die umgekehrte Richtung der guten Kühlung ist immer Glaskugelfutter. Und oft genug wurden Komponenten als Fehlerquelle vermutet, obwohl eigentlich nur Haarrisse in irgendeinem Layer aufgetreten sind. :)

Nachtrag:
Vieles ist unwägbar und es wäre vermessen von mir, über die mögliche Haltbarkeit von z.B. GDDR5X zu spekulieren. Wenn der Hersteller mittlerweile in den Specs 95°C angibt, dann ist der Umstand immer noch nicht geklärt, wann die Langzeit-Bitch zuschlägt und ob Temperatur + OC nicht doch eine böse Allianz bilden. Es gibt aktuell keine wirklich belastbaren Daten, dazu ist das Produkt zu neu. Also halte ich mich bei einer Einschätzung dann genau daran, dass eine Obergrenze auch eine solche ist und man sie nicht im Normalbetreib 24/7 ausnutzen oder leicht überschreiten sollte. Deswegen hat MSI bei der 1080 Gaming X von mir einen dazu passenden Kommentar ins Review bekommen. Klar halten die Karten, aber niemand weiß, wie lange. Oder was passiert, wenn der Volkssport OC zuschlägt. :)

Nachtrag 2:
Es gibt übrigens auch kleine Randnotitzen, die einem so manches Gerücht auf ungewöhnlichem Weg aufzuklären helfen und die einen gewissen Unterhaltungswert besitzen. Es wurde z.B. kolportiert, Asus hätte bei der 1080 Ti Strix die Produktion kurzzeitig gestoppt und daraus haben so einige dann für sie interessante Schlüsse gezogen. Nun ist es so, dass Asus und Gigabyte den gleichen Auftragsfertiger für die PCBs nutzen. Also kann man schon mal davon ausgehen, wie Lecks entstehen könn(t)en. Allerdings kann man auch über die andere Firma die Kontakte zum Werk nutzen und die Hintergründe herausbekommen, wenn man von der einen direkt nichts erfährt. Eigentlich ging es nämlich nur ums Geld und es wurde auch nur die PCB-Produktion umgestellt. Da man das ursprünglich geplante Dual-BIOS aus Gründen der Kostenoptimierung verworfen hat, hat man später auch gemerkt (warum eigentlich erst dann?), dass z.B. ein völlig überflüssiger Switch auch hätte eingespart werden können. Aufgefallen ist es wohl erst beim Endkunden, der sich über eine mangelnde Funktionalität des Schalters wunderte. Also hat man das komplett wieder weggebügelt und obendrein Kosten minimiert. So schnell entstehen Legenden :)

Nachtrag 3:
Spulenfiepen. Ich hatte selbst den Effekt, dass eine 1080 Ti, die luftgekühlt recht leise war, mit dem Wasserblock samt Chiller loströtet wir die Trompeten von Jericho. Nachfragen zu den Spulen haben ergeben, dass diese sogar eine gewisse Mindesttemperatur haben sollten, wenn sie gekapselt/vergossen wurden. Das war auch mir neu. Kühlen ja, aber nicht unter ca. 45-50°C. Ich habe den Kontakt zum Wasserblock also wieder entfernt. Nicht extrem, aber hörbar im Unterschied. Man lernt wirklich nie aus. Trotzdem muss man sie unter Luft besser kühlen, denn die Temperaturen im Inneren werden oft unterschätzt. Doch auch dazu kann man nur Mutmaßungen äußern, die sich nicht in exakten Nutzungstagen festtackern lassen. ;)

Nachtrag 4:
Spannungswandler sind auch ein Thema. Karten wie die MSI oder Gigabyte lassen aus thermischen Gründen mit max. 400 KHz schalten, obwohl die MOSFETs deutlich schneller könnten. Boost ist extrem fix und da spielt eine gute Glättung eine immense Rolle für die Stabilität (auch beim OC) - vor allem dann, wenn andere Firmen die VR noch deutlich darunter betreiben und zudem an Phasen sparen. Ab 200 KHz abwärts wird es schon etwas kritisch. Das erklärt sicher auch, warum Karte A besser zu übertakten geht als Karte B, obwohl sie nominell ähnlich ausfallen. Je besser die VR-Kühlung, umso größer auch der Spielraum für die Techniker, die optimale Schaltfrequenz zu wählen. Die RX 580 Nitro+ Limited Edition ist so ein zweischneidiges Ding. Ganze drei Phasen (immerhin gedoppelt) aber ziemlich heiß. Hier gehen fast 50 Watt allein an den VRM verloren! Aber sie hält den Takt von 1450 MHz recht ordentlich. Zweckmäßige VR gepaart mit gutem Kühler - passt.

akuji13
2017-04-22, 22:52:39
Ansonsten ist das für mich so als ob ich angezeigt werde weil ich bei Rot über die Ampel gelaufen bin, aber nix passiert ist.

Du wirst zu Recht angezeigt damit dich nicht irgendwann eine Frau überfahrt und den Rest ihres Lebens mit der "Schuld" leben muss oder ein Kind deinem Beispiel folgt und überfahren wird. ;)

Solange man nur weiß, das die Temperatur zu hoch ist, ohne einen Hinweis was dies bedeuten könnte, ist die Aussage für mich wertlos, für viele andere aber Grund für einen Shitstorm ;-)

"Shitstorm" ist eine negative Umschreibung für Kritik weil die andere Seite zu empfindlich ist und damit versucht sie zu diskreditieren. ;)

Sachliche Kritik an Unternehmen ist immer berechtigt.
Ohne solche Artikel gäbe es bis heute z. B. noch Tricksereien beim AF.

Wir reden hier von Multi-Millionen Dollar Unternehmen die nicht existieren um den Planeten zu retten oder uns ein Geschenk zu machen.
Wir sollen ihre hochpreisigen Produkte kaufen, da darf man eine bestmögliche Kühlung erwarten damit auch nachfolgende Käufer so lange als möglich ein funktionierendes Produkt haben.
Vor allem wenn diese Änderungen mit einem derart niedrigen Aufwand umzusetzen sind.

In dem Punkt unterscheiden sich die Anbieter auch leider nicht von anderen großen Firmen dieses Planeten, ohne Druck geht da nichts.

Das es viel mehr benötigt um genau den Verfall eines Produktes hieb- und stichfest nachzuweisen hat er ja bereits dargelegt, eine Sache dürfte aber auch logisch nachvollziehbar sein:
Im besten Fall halten die Karten mit einer besseren Kühlung länger, im schlimmsten Fall bestimmt nicht kürzer.
Als Kunde ist die Sache da für mich eindeutig wo die Reise hingehen muss. :wink:

Angiesan
2017-04-23, 00:48:26
Über MTBF- und Belastbarkeitstests habe ich schon mal was geschrieben, das bezog sich allerdings auf Netzteile. Und wenn Du meine Reviews liest, dann steht dann auch schon mal eine Erklärung zu den Bildern. Unlängst habe ich mich in einem Review z.B. zu den Problemen bei den Multil-Layerplatinen geäußert. Was nützt mir ein Flammpunkt des 8-Layer-Materials von jenseits der 200 Grad, wenn ich bereits ab über 100°C Ausgasen/Austrocken befürchten muss und in unmittelbarer Folge auch Bending, Leiterabrisse und Ähnliches? Befürchten muss? Gibt es da keine Specs die beschreiben wie heiß die Bauteile werden dürfen? Nur den Flammpunkt!? Die VRM sind meist bis 150°C (oder höher) spezifiziert, schön. Aber das sagt trotz allem absolut nichts über das Umfeld. Wenn man allein an manche Kühlerungetüme und die hängenden Einbauten denkt und den Platz wo sie verschraubt sind, dann wird mir übel. In den Absätzen der Reviews zur der Platinenanalyse liest Du übrigens auch vieles wie z.B. das Verdoppeln der Phasen zum Entzerren von möglichen Hotspots, Komponentenauswahl oder dem Platzieren von Caps wenn es angebracht scheint. Nur kann nicht jedes Review redundant zum Erklärwerk mutieren. Das liest keiner und bläht alles sinnlos auf. Ja aber wenn die Hotspots nicht heiß genug sind muss man sie auch nicht ausschlachten.

Ich kann allerdings keine HALT-, Schock-, Environmental- oder sonstige Komponententests zur Einschätzung der MTBF von Einzelkomponenten oder Baugruppen liefern. Das maße ich mir nicht an und ohne passendes Equipment und einen längeren Zeitraum geht so etwas auch überhaupt nicht. Im Gegenzug wirst Du von mir aber sogar hier lesen, dass eine gute Kühlung, die auf den ersten Blick teuer scheint, sogar Kosten sparen kann, weil man einfachere Qualitäten kaufen kann. Aber ich kann nicht jedes Review zur MTBF-Kaffeesatzleserei machen. Die umgekehrte Richtung der guten Kühlung ist immer Glaskugelfutter. Und oft genug wurden Komponenten als Fehlerquelle vermutet, obwohl eigentlich nur Haarrisse in irgendeinem Layer aufgetreten sind. :)
Doch das geht zumindest teilweise mit dem MTTF oder MTBF Calculator ich suche dir das noch raus wo du eine Demo runterladen kannst.
Und wenn der Hersteller aus welcher Design-Entscheidung doch den anderen Weg geht und höherwertige Bauteile verwendet bei schlechterer Kühlung ist das seine Entscheidung, die muss Dir nicht gefallen, die muss funktionieren.
Und wenn Du keinen Kaffee-Satz lesen kannst dann mach es auch nicht ;-)...nein Spaß beiseite, wir wissen es nicht und natürlich kann man jetzt argumentieren kühler ist immer besser, was zumindest fast immer stimmt, wie Du selbst unten angemerkt hast:)

=Floi=
2017-04-23, 02:47:13
Anstelle schwindliger DHT-Gammeleien eine sauber zusammengeschraubter (!) Kühlblock
mit gemeinsamer Kupferplatte für GPU und RAM.

die gigabyte bei den 1080Ti ist aber (bewußt) ein eck teurer. ~150€ mehr ist kein pappenstiehl. die 1,9ghz schafft die andere auch.
unter den normalen gibt es imho keine mit einer perfekten kühlung. Was soll ich dann machen?


Du könntest wenigstens mal dazuschreiben, welches modell und welche karte das ist. :rolleyes:
Denn nur von den tollen bildern kann ich mir davon auch nichts kaufen.


Raff testet das für den consumer relevante. Er legt augenmerk auf die kühlung und auf andere details. das ist auch nur ein kurztest und dafür reicht es ja. man gann die karte "live" erleben.


In der branche ist doch eh hopfen und malz verloren. ich denke da an das zusammengesparte pcb der 1080 für 700€. Es werden ja oft nichtmal die 180watt der 1080 und die 150watt der 1070er leise gekühlt.

rentex
2017-04-23, 07:44:53
Wow...genau dieses tiefe Eingehen in die Thematik, schätze und liebe ich am Forum...verdammt, ich hätte mir Popcorn einpacken sollen. Thema Mindesttemps bei Bauteilen: Gibt es diese auch bei der GPU oder gar bei CPU's?

(del)
2017-04-23, 09:30:52
Doch das geht zumindest teilweise mit dem MTTF oder MTBF Calculator ich suche dir das noch raus wo du eine Demo runterladen kannst.Software ist bei komplexen Gebilden untauglich, das solltest Du selbst am besten wissen. Es geht Komponenten-, maximal Baugruppen-weise. Und: MTTF (wenn was etwas völlig unbrauchbar wird, Totalausfall) und MTBF (wenn etwas nach dem möglichen Verschleiß noch ausgetauscht/repariert werden kann/könnte) dürfen niemals mit einer durchschnittlichen Lebensdauer verwechselt werden. ;)

FR4 ist eine schwierige Kost. Ich war 2014 bei FSP Group im R&D und im Safety-Lab, da habe ich mir vieles ansehen (und dazulernen) können. Dort nimmt man es mit den Specs übigens extrem genau. Die allgemeinen Angaben, wie z.B. der Flammpunkt des Platinenverbundmaterials ist nur einer von vielen Anhaltspunkten, da er eh kaum erreicht wird. Das oft verwendete FR4 Hi-Tg (z.B. Shengyi S1000-2 oder ITEQ IT-180A) ist aber nicht so unproblematisch, wie man denken mag. Man kann künstliche Alterung natürlich simulieren, dann aber müsste man die Faktoren wie zyklische/mechanische Belastung, Temperaturverläufe usw. im konkreten Fall eines jeden Anwenders kennen. Man veranschlagt maximal 85 bis 100°C für großflächige Hotspots auf Multilayer FR4 mit wechselnder mechanischer Belastung im Langzeiteinsatz.

Wenn ich mich in den Tests an Temperaturen aufhänge, dann meist nur, wenn es Sachen sind, die normalerweise auch bei einer sinnvollen Prüfung hätten auffallen können/müssen. Beispiel: Ich habe mal Gigabyte ertappt (ja, die sind auch nicht fehlerfrei :D ), wo zwei Shunts auf der Rückseite exakt unter einem IC auf der Oberseite lagen. Die Teile wurden weit über 100°C heiß und nach der Wärmedurchdringung fing der Buck-Controller an zu driften, der seinerseits ja auch schon fast 100°C hatte. Das PCB ist vorher durch eine Simulation gegangen, was aber schön die Grenzen der dafür verwendeten Software beim PCB Maker zeigt, der über den Kühler nur das Gröbste weiß. Das ist natürlich im allerletzten Detail nichts für einen Artikel, aber die Platine wurde innerhalb von 48 Stunden abgeändert.

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS80LzUvNTkzNzE3L29yaWdpbmFsL1BDQi1ab29tLW9u LUhvdHNwb3RzLUZ1cm1hcmsuanBn

Warum ich so oft beim RAM lamentiere? Micron gibt bei den Temperaturen eine maximale Obergrenze an, die NICHT überschritten werden sollte. Es gibt aber keine Angaben dazu, wie viele Kelvin Überschreitung in welchem Zeitraum/Zyklen und welcher Auslastung zu Fehlern (Stabilität) oder irreversiblen Schäden (Ausfall) führen (können). Da ich aber einige Zahlen aus dem Elpida-Drama von vor ein paar Jahren kenne, würde ich beim RAM nie auf nonchalante Großzügigkeit setzen. Im nachfolgenden Bild wandert die Abwärme über das Kupfer in den vielen Layern von der VR direkt zur GPU. Auf dem direkten Weg liegt das Speichermodul M7, für das ich äußerlich noch fast 97°C messen konnte. Die Innentemperaturen im Package sollten aber deutlich höher liegen, da man sie mit Sensoren oder einer berührungslosen Messung nicht erfassen kann. Der Hersteller hat so um die 100-105°C veranschlagt, was echt eine Hausnummer ist.

https://img.purch.com/o/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9SL1MvNTkxOTc2L29yaWdpbmFsLzAyLUluZnJhcmVk LVRvcnR1cmUucG5n

Und jetzt nochmal zurück zur Platine und Problemen von Firmen, die fabless sind. Wenn ich als Hersteller sowohl bei OEM 1 meine Platine in Auftrag gebe, also auch bei OEM 2 meinen Kühler, beide aber nichts voneinander wissen und ich keine Möglichkeiten habe, den Kühler der Platine selbst noch anzupassen, sowie selbst physikalische Test vorzunehmen (und nicht umgekehrt), besteht die Gefahr von Wechselwirkungen, die man kaum oder gar nicht simulieren kann. ich habe schon für so manchen Hersteller auf Wunsch radiometrische Videos erstellt, wo die Wärmeverteilung im zeitlichen Verlauf dokumentiert wird. Das kann man mit geeigner Software immer wieder abspielen und auch weitere, eigene Auswertepunkte setzen.

Mal eben so die FLIR oder was weiß ich draufhalten, geht auch schief. Man muss schon den Emissionsgrad der Oberflächen kennen und auch den richtigen Winkel nutzen. Ich arbeite mit Speziallack und einem Brusher, damit die Werte überhaupt stimmen. Dazu kommt eine aufwändige Kalibrierung mit einem simulierten schwarzen Strahler. Mit 1.0 FLIR-Standardeinstellung misst man nämlich nur teure Grütze. (Allgemeinverständliche Erklärung als Artikel (http://www.tomshardware.de/infrarot-messtechnik-richtig-messen-methodik-so-testen-wir,testberichte-242029-2.html)). Außerdem gestattet es der neue Messaufbau nunmehr auch, in geschlossenen Gehäusen zu messen (http://www.tomshardware.de/so-testen-wir-grafikkarten-vga-benchmarks-performance,testberichte-242310-2.html). Das hat nicht mal PC-Partner, die kleben immer noch bis zu 50 Sensoren manuell mit Heißkleber fest, bevor die Karte in die Hotbox kommt. ;)

(del)
2017-04-23, 09:46:25
...consumer relevante...
Um die Aussagen des Videos auf deinen PC projizieren zu können, müsstest Du dann schon einen offenen Benchtable nutzen. Im geschlossenen Case sieht die Welt meist völlig anders aus ;)

=Floi=
2017-04-23, 10:03:37
empfehle lieber 3 modelle, welche nicht um unteren ende der geizhals statistik stehen. ;)
ja, der offene benchtable ist nicht optimal. (bietet aber eine gute vergleichbarkeit der einzelnen karten.) ich hatte bei dem satz nur die lüftergeräusche und die kurve im kopf. Boost und taktverhalten unter last.

(del)
2017-04-23, 10:20:47
Ich gebe ungern öffentliche Produktempfehlungen, schon wegen der möglichen Unterstellung viralen Marketings und so. Das weißt Du doch ;)

Um eine objektive Empfehlung abgeben zu können, müsste ich die Karten schon selbst physikalisch getestet haben und das waren bisher hier nur wenige, eine davon ist veröffentlicht (MSI, mit Kauftipp), drei stehen in der Pipe und eine ist so halb in der Mache...

Was ich jedoch nicht zwingend kaufen würde, wären bis an die Kotzgrenze hochgetrimmte, überschwere Karten wie die AMP! Extreme, denn wenn es im Case warm wird, sind die quasi auch nicht schneller. Und die VRM, nun ja... altes Thema. Unterm Strich sind die MSI, die neue Asus ohne DHT und die Gigabyte sicher keine schlechte Wahl. Die Palit macht im ersten Hands-On auch einen guten. Bei der Galax HoF schnarren mir die offenen Spulen etwas zu sehr, aber das ist Ansichtssache.

24p
2017-04-23, 10:42:31
Was man bei der MSI auch bedenken muss ist imo, dass es die Tage ja noch recht kühl ist. Im Sommer kann man da je nach Raumtemperatur noch 5+ Grad draufpacken. Ob das dann noch so toll ist...

basix
2017-04-23, 11:12:06
Die Ti meines Bekannten ist fertig

Schicke Karte :thumbs:

basix
2017-04-23, 11:23:22
Wow...genau dieses tiefe Eingehen in die Thematik, schätze und liebe ich am Forum...verdammt, ich hätte mir Popcorn einpacken sollen. Thema Mindesttemps bei Bauteilen: Gibt es diese auch bei der GPU oder gar bei CPU's?

Mindesttemperaturen Jein:
- Coldbug bei CPUs (bei LN2 und Konsorten)
- Temperaturdiode funktioniert nur einigermassen richtig bei >Raumtemperatur (einfach irrelevant für den Betrieb in 99.99% der Fälle). Extremes Beispiel: Ryzen (Igor hat da schöne Messungen gemacht)

Thema Spulen: Audehnungskoeffizienten der Materialien beeinflussen den "Halt" der Spule im Vergussmaterial. Deshalb sind thermische Aspekte bei Elektronik mit hoher Temperaturdynamik eine Kunst ;) Ich habe mal ein Teilsystem eines Kleinsatelliten bezüglich Hardware Robustness betreut und Designvorgaben / Guidelines dazu erstellt. 100°C Temperaturdifferenz im 1h Takt sind massiv Stress für die Materialien (Ermüdungsbrüche, Spannungen aufgrund verschiedener Ausdehnungskoeffizienten der Materialien). Dann noch Outgassing aufgrund geringem Umgebungsdruck und obendrauf noch der Killer kosmische Strahlung. Da muss man dann plötzlich noch den inneren Aufbau der P-N sowie Isolatinsschichten, CMOS vs. Bipolar, Single Event Effects usw. berücksichtigen. Der Raketenstart mit sehr starken Vibrationen kommt noch dazu, welche z.B. Kurzschlüsse innerhalb von Keramikkondensatoren verursachen können. So Themen wie hohe Designmarge der Komponenten, Redundanz oder Graceful Degradation erhalten einen ganz anderen Stellenwert. Einfach mal schnell einschicken und reparieren geht nicht so einfach ;)

Alles in allem eine sehr interessante Arbeit. Aber ebenfalls sehr komplexes Thema.

So nun fertig OT, bin ein wenig abgeschweift :)

(del)
2017-04-23, 11:24:16
Was man bei der MSI auch bedenken muss ist imo, dass es die Tage ja noch recht kühl ist. Im Sommer kann man da je nach Raumtemperatur noch 5+ Grad draufpacken. Ob das dann noch so toll ist...
Die maximalen Temps im Worst-Case sind im geschlossenen Gehäuse bei allen Karten in etwa gleich, wenn mit Temp-Targets gearbeitet wird. Die MSI versucht übrigens die max. 75°C auf Teufel komm raus zu halten. Sogar bei Temps im Case von 45°C. Das wird dann allerdings richtig hörbar im Torture - geht aber.

@Mindesttemperaturen:
Mit dem CPU-Temperaturen ist das so eine Sache. Die DHT (egal ob nun Intel oder AMD) sind ja keine üblichen Sensoren, die GPU-Diode hingegen schon.

Wenn wir von normalen Raumbedingungen ausgehen, hat man diesen Temperatur-Effekt eigentlich nur bei schwingenden Bauteilen wie Spulen. Sind diese gekapselt, hängt das vom Vergussmaterial und den Bechern/Töpfen ab, sonst ist es auch Wurst. Inno3D hatte mal Spulen mit Concrete-Gemisch-Füllung (Beton mit Zusätzen). Da war es egal. Aber die waren so spröde, dass sie meist den Transport nicht überlebt haben -> RMA. Beim Chiller muss ich aber dann schon auf Kondensate aufpassen. Die Aorus ist z.B. tropikalisiert, auch auf der Oberfläche. Das hilft allerdings nur bei hoher Luftfeuchtigkeit und max. ganz feinem Sprühnebel, fette Tropfen finden hingegen oft Ihren Weg und dann wird es zumindest kritisch.

@basix:
Interessanter Job, alle Achtung. :)

Hübie
2017-04-23, 12:09:05
@Angiesan:

Aus meiner Zeit beim DFKI kann ich mich noch gut daran erinnern, dass MTBF-Angaben von Bauteilen statistische Hochrechnungen von Messwerten der künstlichen Alterung mit einer semi-Varianz sind. Darauf festnageln kann und will sich verständlicherweise kein Hersteller. Luftfeuchtigkeit ist nämlich auch ein nicht zu unterschätzender Einflussfaktor, um mal einen zu nennen und (da wir ja für Raumfahrt gebastelt haben) auch Strahlungsemissionen bzw. die Resistenz. Wenn du nun mal überlegst, wie viele Unterschiedliche Materialien (Kunstoffverbund, Kupfer, Tantalit, Aluminium, Kupfer usw. usf.) auf so einer Platine wechselwirken wünsche ich dir schon mal viel Spaß beim errechnen der MTBF so einer Karte. Das ist praktisch unmöglich. Das lösen AIB indem man auf Erfahrungswerte zurück greift. Und das Format_C längst in der Industrie sitzt ist dir offenbar auch entgangen.

Der Rest, wie mit dem Ausleihen einer Wärmebildkamera, wurde schon erklärt.

Igor sagt auch keineswegs, dass die EVGA-Karten bspw. nach drei Jahren alle durchbrennen, nur das man es eben optimal in puncto Kosten- / Nutzenfaktor lösen kann, wenn man denn mal bereit ist die Vorschläge umzusetzen. Man wird ja immer gleich als anmaßend hingestellt, wenn man sagt, dass hätte Hersteller XY aber auch so und so besser lösen können. Dabei dreht es sich ja um harte Fakten. ;)

Edit: @Igor: Im CB-Forum hatte ich da mal eine Diskussion mit einem angeblichen Doktor (ja klar und ich bin Prof. Dr. Dr. :rolleyes:) der mir einfach nicht abkaufen wollte dass die kleinsten Unterschiede in Ausdehnung durch Temperatur bzw. Wärme das Kupfer in dem vergossenen Gehäuse zum Schwingen bringt und der Korpus wie ein Resonator einer Gitarre den Spaß weiter verstärkt.

Skysnake
2017-04-23, 12:14:42
Wow...genau dieses tiefe Eingehen in die Thematik, schätze und liebe ich am Forum...verdammt, ich hätte mir Popcorn einpacken sollen. Thema Mindesttemps bei Bauteilen: Gibt es diese auch bei der GPU oder gar bei CPU's?
Ja gibt es. Das hat aber meist mehr damit zu tun, das man keine Wasserkondensation auf den Bauteilen bekommen kann. Daher sind auch immer Temperatur + Luftfeuchtigkeit spezifiziert für die Bauteile. Mal ganz davon abgesehen, das es auch an sich immer eine Betriebs und eine Lagertemperatur gibt. <0 °C sind z.B. fast immer ausgeschlossen, was btw. ziemliche Fragen bei Geräten wie Smartphones aufwerfen sollte, die man ja immer mit sich rum trägt. Auch im Winter....

Im Normalfall sind das aber Temperaturen, die man bei normaler Benutzung nicht erreicht, bzw. schon der gesunde Menschenverstand einem sagen sollte, das man nachdem man ein Päcken im Wintor mit ner neuen GPU bekommen hat, die Arsch kalt ist, die nicht direkt einbauen sollte.

Hübie
2017-04-23, 12:18:28
Jap. Mein Weib hält mich für bekloppt wenn ich ne Graka föhne. ;D

Skysnake
2017-04-23, 12:20:26
Mindesttemperaturen Jein:
- Coldbug bei CPUs (bei LN2 und Konsorten)
- Temperaturdiode funktioniert nur einigermassen richtig bei >Raumtemperatur (einfach irrelevant für den Betrieb in 99.99% der Fälle). Extremes Beispiel: Ryzen (Igor hat da schöne Messungen gemacht)

Thema Spulen: Audehnungskoeffizienten der Materialien beeinflussen den "Halt" der Spule im Vergussmaterial. Deshalb sind thermische Aspekte bei Elektronik mit hoher Temperaturdynamik eine Kunst ;) Ich habe mal ein Teilsystem eines Kleinsatelliten bezüglich Hardware Robustness betreut und Designvorgaben / Guidelines dazu erstellt. 100°C Temperaturdifferenz im 1h Takt sind massiv Stress für die Materialien (Ermüdungsbrüche, Spannungen aufgrund verschiedener Ausdehnungskoeffizienten der Materialien). Dann noch Outgassing aufgrund geringem Umgebungsdruck und obendrauf noch der Killer kosmische Strahlung. Da muss man dann plötzlich noch den inneren Aufbau der P-N sowie Isolatinsschichten, CMOS vs. Bipolar, Single Event Effects usw. berücksichtigen. Der Raketenstart mit sehr starken Vibrationen kommt noch dazu, welche z.B. Kurzschlüsse innerhalb von Keramikkondensatoren verursachen können. So Themen wie hohe Designmarge der Komponenten, Redundanz oder Graceful Degradation erhalten einen ganz anderen Stellenwert. Einfach mal schnell einschicken und reparieren geht nicht so einfach ;)

Alles in allem eine sehr interessante Arbeit. Aber ebenfalls sehr komplexes Thema.

So nun fertig OT, bin ein wenig abgeschweift :)
Naja, deswegen ist das ganze Weltraumzeug ja auch noch quasi in der guten alten Zeit hängen geblieben. Banded Transistor usw usf.

Ein Prof. von mir hat auch Schaltungen gebaut, die an Beschleunigern eingesetzt werden und daher ziemlich hohen Strahlendosen ausgesetzt sind. Da weiß man einfach das man z.B. halt schon sehr darauf aufpassen muss genug GND Anschlüsse zu machen, nicht das die parasitären BiPolartrasistoren in CMOS Schaltungen zünden. Wenn das nämlich passiert, dann wars das mit der Schaltung :devil::naughty:

(del)
2017-04-23, 12:28:08
Es gibt Boardparter, die lassen komplett fabless nur von Dritten fertigen, dann hat man welche mit einem HQ in HK oder auf Taiwan und Fertigungsanlagen in China Mainland samt R&D oder aber welche, da ist ein Teil des R&D redundant sowohl in der Fab als auch dem HQ vorhanden, um unter identischen Bedingungen auch gegentesten zu können. Was nützt mir der Platinenfertiger auf Taiwan, wenn die Kühlerbutze in Dongguan steckt? Dann ist man wegen jedem Pups stundenlang auf Achse. Cathay Pacific verdient sich mit den ganzen Kurz-Trips eine Goldene Nase :D

PC-Partner ist ein interessantes Beispiel, wenn man z.B. Brands wie Zotac oder Inno3D vergleicht. Gemeinsame Produktionsressorcen in Dongguan samt einem gut ausgestattenten R&D und SL, in den HQs in HK noch einmal eigene Entwickler, teilweise getrennter Zukauf von unterschiedlichen OEMs... Gemischtwarenladenstrategie vom Feinsten und am Ende hakt es dann doch immer irgendwo. Und wenn man mal wieder mit dem Auto an der Grenze feststeckt und ein Meeting verpasst. :D

Was man nämlich meist vergisst: auch der Kühler-OEM kauft wieder Zeug von Fremden ein, z.B. Heatpipes oder Lüftermodule. Das ist am Ende eine kausale Kette, denn keiner kommt so schnell aus irgendwelchen Verträgen raus, wenn die Sache schon am Laufen ist. Fehlerhafter Semi-Passiv-Modus, weil die Anlaufdrehzahlen der Lüfter zu hoch sind? Wenn erstmal Hundertausend der falschen Luftquirle rumliegen, ist es schon zu spät (Zotac, Palit, Galax). Schleifende Lager? Muss man vor der Abnahme merken, aber auch hier schlampen viele (Gigabyte Windforce 3x). Zu fette Heatpipes, die nach dem Bending nicht mehr so performen wie erhofft? Kann ja mal passieren (Asus R9 290X Strix). Es sind fast immer Kommunikationsprobleme und Schlampereien im Vorfeld. Leider.

Hübie
2017-04-23, 12:58:20
Stichwort: Projektmanagement. Klingt banal, aber richtig ausgeführt erspart man sich so einiges. Genau da hakt es aber. Entweder gar nicht oder nicht richtig ausgeführt endet es eben in solchen Katastrophen.
Ich hasse Unternehmen in denen man keinen Entscheider hat sondern mehrere möchtegern Entscheider. :rolleyes: Da kommen abenteuerliche Sachen heraus. X-D

(del)
2017-04-23, 15:21:25
Wenn Du das Ganze dann noch mit den Befindlichkeiten des asiatischen Hierarchieempfindens multiplizierst, bis Du in der Gegenwart angekommen :D

Ok, wir sollten mal wieder zur 1080 Ti zurückfinden ;)

JaniC
2017-04-23, 15:58:09
TL; DR die letzten 3 Seiten.. welche soll ich denn nu kaufen? :D

HansSolo
2017-04-23, 16:48:23
TL; DR die letzten 3 Seiten.. welche soll ich denn nu kaufen? :D

Hallo, ich habe mir die Gigabyte geforce gtx 1080 ti aorus gekauft und kann diese auf jeden Fall mal empfehlen. Sie ist leise und der Kühler ist dementsprechend gut. In Spielen bleibt sie immer so zwischen 1924 bis 1974 Mhz.

(del)
2017-04-23, 16:57:51
Hallo, ich habe mir die Gigabyte geforce gtx 1080 ti aorus gekauft und kann diese auf jeden Fall mal empfehlen. Sie ist leise und der Kühler ist dementsprechend gut. In Spielen bleibt sie immer so zwischen 1924 bis 1974 Mhz.

Raider heißt jetzt Twix und Aorus nicht mehr Gigabyte. Ansonsten approved. Mit der Emmentaler Dremel-Edition:

http://i.imgur.com/WCR53gx.jpg
Nunmehr wie immer unverkäuflich :D Deshalb schicken mir manche Hersteller auch so ungern Samples...

TL; DR die letzten 3 Seiten.. welche soll ich denn nu kaufen? :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11356815&postcount=1064

HansSolo
2017-04-23, 17:18:38
Ich habe mal aus Neugier meine aorus versucht auf die Werte der Xtreme zu übertakten. Dafür habe ich den Afterburner benutzt und den Firestrike ultra um zu testen. Was soll ich sagen war wohl nicht stabil das Bild ist eingefroren. Der VRam geht aber die GPU nicht da sind wohl lediglich noch 25 Mhz möglich ohne jetzt mehr Volt draufzugeben. Habe lediglich das Powertarget auf die 125% gestellt. Möglich sind dann die 1999,5 Mhz bei 1,062 Volt.
Nachtrag 1:
Allerdings bin ich der Meinung das die übertaktung wohl auch nicht mehr viel Sinn ergibt da dadurch nur die Temperatur und der Verbrauch in die Höhe steigt. Der tatsächlich Mehrwert bleibt da wohl auf der Strecke. Ich könnte mir vorstellen das Gigabyte hier die GPU`s auch evtl. selektiert und die Aorus Xtreme die 64 Mhz und evtl. auch mehr bei gleicher Volt oder sogar weniger Volt schafft.
Nachtrag 2:
Deshalb habe ich auch davon Abstand genommen das Bios der Aorus Xtreme auf die normale Aorus zu flashen. Die Versuchung ist aber da und die verschiedenen Biosfiles kann man ja auf der Gigabyte Seite herunterladen. Da aber mit dem Afterburner die Taktraten nicht stabil sind würde es wohl auch mit dem Bios der Aorus Xtreme nicht stabil laufen.

Hübie
2017-04-23, 17:27:35
Wenn Du das Ganze dann noch mit den Befindlichkeiten des asiatischen Hierarchieempfindens multiplizierst, bis Du in der Gegenwart angekommen :D

Ok, wir sollten mal wieder zur 1080 Ti zurückfinden ;)

Hab von Asien und asiatischer Kultur keinen Plan. Jungfräulich wenn man so will. ;)
Mir fällt es immer noch schwer die Finger still zu halten. :D Vega soll endlich kommen. :mad:
Wird ASUS noch ne Matrix aufleben???

(del)
2017-04-23, 17:30:53
Die Extreme Gaming nutzt vorselektierte Chips. Gigaybte hat ein eigenes, spezielles Verfahren entwickelt, mit dem das Package vor dem Aufbringen aufs Transferband noch einmal auf elektrische Qualität geprooft wird ("Gountlet Verfahren"). Die Extreme hier ist zwar retail, läuft aber bei entsprechender Temperatur mit nur 1.031 Volt satte 2038 MHz. Die schreit geradezu nach einem Wasserblock. Die Backplate ist eh im Arsch :D

Ob Asus noch was nachlegt? Keine Ahnung. Vielleicht selektiert man ja auch erst mal Chips... Das kostet Zeit.

Edit:
Witcher 3 mit LuKü (Lüfter 100%) läuft 2076 MHz bei 1.05V erst einmal stable. Sobald die Karte aber nach geraumer Zeit über 50°C geht, schaltet sie auf 1.062V hoch und dann hängt das Spiel. Bei 2050 MHz sind es bei 59°C Endtemperatur nach 30 Minuten 1.075V und es läuft stabil durch. Bin gerade etwas verwirrt.

rentex
2017-04-23, 18:27:01
Ja gibt es. Das hat aber meist mehr damit zu tun, das man keine Wasserkondensation auf den Bauteilen bekommen kann. Daher sind auch immer Temperatur + Luftfeuchtigkeit spezifiziert für die Bauteile. Mal ganz davon abgesehen, das es auch an sich immer eine Betriebs und eine Lagertemperatur gibt. <0 °C sind z.B. fast immer ausgeschlossen, was btw. ziemliche Fragen bei Geräten wie Smartphones aufwerfen sollte, die man ja immer mit sich rum trägt. Auch im Winter....

Im Normalfall sind das aber Temperaturen, die man bei normaler Benutzung nicht erreicht, bzw. schon der gesunde Menschenverstand einem sagen sollte, das man nachdem man ein Päcken im Wintor mit ner neuen GPU bekommen hat, die Arsch kalt ist, die nicht direkt einbauen sollte.

Jupp, akklimatisieren von neuen elektronischen Geräten ist bei mir obligatorisch (min. 2 Std. im eingesetzten Raum). Danke für die ausführliche Erklärung😳
Meine Strix OC macht sich immer noch gut...6Std. WT3 macht se klaglos @1936 MHz bei max 68 Grad.

basix
2017-04-23, 18:30:02
...nicht das die parasitären BiPolartrasistoren in CMOS Schaltungen zünden. Wenn das nämlich passiert, dann wars das mit der Schaltung :devil::naughty:

Das nennt sich SEL oder Single Event Latchup. Habe mal versucht das an einem CMOS LM555 elektrisch zu provozieren. Hat nicht geklappt, der war einfach zu robust :freak: Gegen SEL kannst du deine Schaltung aber schützen, indem du den Strom misst und bei zu hohen Werten unterbrichst und gegen GND kurzschliesst (z.B. mit einer "SEL Crowbar"). Dann "trocknet" dir der entstandene Thyristor aus und löscht sich selber. Device danach neu starten und gut ist. Natürlich geht das nur gut, wenn die Stromaufnahm im Normalbetrieb relativ genau bekannt und nicht zu hoch ist (Varianz Stromverbrauch < Kurschlussstrom durch Latchup).

SEGR oder Single Event Gate Rupture in Power MOSFETs ist aber ein in 100% der Fälle zerstörerischer Effekt. Da kommt dann Redundanz, Designmarge und Graceful Degradation zum Zug. Bei sogenannten COTS-Bauteilen (Commercial off-the-shelf) liegt Custom Radiation Hardening wie du beschreibst leider nicht drin. Ist am Schluss aber meistens trotzdem günstiger und man hat ebenfalls aktuellere Technik als aus den 90er Jahren (vor allem Microcontroller etc.). Für maximal 2-3 Jahre Betriebsdauer tut es das schon. Danach soll es eh in der Atmosphäre verglühen und nicht zu noch mehr Weltraumshrott werden :D

Skysnake
2017-04-23, 20:08:31
Ich weiß, dass das Latchup ist, aber man muss ja nicht mit mehr Fachchinesisch um sich werfen als nötig ;)

Und bei diskreten Bauteilen ist das natürlich kein Ding. Wenn du aber Leistungsmosfets oder auch große Digitaldesigns hast, dann wird das schon sehr sehr sehr schwierig. Da musste an sich einfach genug GND setzen. Der Vorteil davon ist, das man auch weniger GND-bounce hat. So nen Tripple Well um wichtige Schaltungen hilft schon gut ;)

Am Ende muss man aber wenn man wirklich selbst ASICs baut eben sich von den 0815 Standardzellen verabschieden...

=Floi=
2017-04-23, 20:14:12
Ich gebe ungern öffentliche Produktempfehlungen, schon wegen der möglichen Unterstellung viralen Marketings und so. Das weißt Du doch ;)

Um eine objektive Empfehlung abgeben zu können, müsste ich die Karten schon selbst physikalisch getestet haben und das waren bisher hier nur wenige, eine davon ist veröffentlicht (MSI, mit Kauftipp), drei stehen in der Pipe und eine ist so halb in der Mache...

Was ich jedoch nicht zwingend kaufen würde, wären bis an die Kotzgrenze hochgetrimmte, überschwere Karten wie die AMP! Extreme, denn wenn es im Case warm wird, sind die quasi auch nicht schneller. Und die VRM, nun ja... altes Thema. Unterm Strich sind die MSI, die neue Asus ohne DHT und die Gigabyte sicher keine schlechte Wahl. Die Palit macht im ersten Hands-On auch einen guten. Bei der Galax HoF schnarren mir die offenen Spulen etwas zu sehr, aber das ist Ansichtssache.


ich erwarte keine kaufempfehlung, wo du schon 100€ für bekommen hast, nur könntest bei den positiven fällen auch dazuschreiben, welcher hersteller sich hier mühe gegeben hat. gibt es noch einen hersteller mit brauchbarer vrm kühlung und gutem preis?



meine 560Ti von EVGA hatte damals extra noch den vrm kühler und ist mir trotzdem (durch den 2D betrieb) kaputt gegangen.

(del)
2017-04-23, 20:32:59
Du hast doch meine Antwort schon mitzitiert. Letzter Absatz. Und für 100€ stehe ich früh noch nicht mal auf ;)

MiamiNice
2017-04-23, 20:58:23
Bissel OT vielleicht:

Auf der letzten Seite meinte jemand (habs auf dem Handy unterwegs gelesen) das er keine EK Kühler mehr verbaut. Gibt es dafür einen speziellen Grund der mir entgangen ist?

Grüße

akuji13
2017-04-23, 21:02:20
Es gab in letzter Zeit bei EK einen Rückfall was die Qualität angeht.

Da wurden extrem krumme Kühler ausgeliefert.
Meiner ist davon zum Glück nicht betroffen.

crs2601
2017-04-23, 22:07:22
Die Extreme Gaming nutzt vorselektierte Chips. Gigaybte hat ein eigenes, spezielles Verfahren entwickelt, mit dem das Package vor dem Aufbringen aufs Transferband noch einmal auf elektrische Qualität geprooft wird ("Gountlet Verfahren"). Die Extreme hier ist zwar retail, läuft aber bei entsprechender Temperatur mit nur 1.031 Volt satte 2038 MHz. Die schreit geradezu nach einem Wasserblock. Die Backplate ist eh im Arsch :D

Meine verabschiedet sich ja beim Zocken im OC-Mode nach ner Zeit, im Gaming-Modus läufts ohne Probleme. Sollte ich mal selbst Hand anlegen?

Kann hier noch jemand was zu den Temps unter Last sagen?

Wenn nicht bleibts halt bei Stock & fertig :D

(del)
2017-04-23, 22:36:24
Meine verabschiedet sich ja beim Zocken im OC-Mode nach ner Zeit, im Gaming-Modus läufts ohne Probleme. Sollte ich mal selbst Hand anlegen?

Kann hier noch jemand was zu den Temps unter Last sagen?

Wenn nicht bleibts halt bei Stock & fertig :Dtemp und voltage?

crs2601
2017-04-23, 23:32:18
temp und voltage?

Nach 30 Minuten Wildlands siehts folgendermaßen aus:

http://gpuz.techpowerup.com/17/04/23/r27.png

Naja und nach den 30 Min hat sich das Spiel + Treiber kurzzeitig verabschiedet und ich bin wieder auf dem Desktop gelandet :(

Damals hatte ich auch meine erste Xtreme eingetauscht, weil der OC-Mode nicht lief - bei der zweiten hats dann geklappt. Wenn ich jetzt schon wieder damit ankomme...

(del)
2017-04-24, 05:52:42
In der GB-Software müsste auch die Möglichkeit bestehen, ein aggressiveres Lüfterprofil anzuklicken. Check das mal ab und setze ggf das Power Target auf Max. Ansonsten gilt das Untenstehende.

Edit:
Apropos GPU-Lotto... Ich habe mal dein Problem mal dem Platinenentwickler bei GB's R&D geschickt. Die Antwort war diese:

About the GPU bin performance. NVDIA keep it's secret and didn't tell us. We cannot control the GPU bin from NVIDIA ship to us. It's someting like buy lottery.

Die Hersteller müssen selbst vor- und nachselektieren. Elektrische Güte geht auch mit dem unverlöteten Package allein. Der Rest nur mit der fertigen Platine. Deshalb haben manche Karten auch gleiche PCBs und meist auch gleiche Kühler. Der Rest entscheidet sich am fertigen Produkt. Die Karten bekommen erst einmal das Standard-BIOS. Die, die mit gleicher Voltage höher boosten bzw. weniger Voltage benötigen, werden noch mal umgeflasht und separiert.


Und weil es so schön zu eingen Seiten weiter vorn passt:
Noch ein gutes Beispiel für Mittelmaß (Bild 1, 292 Watt) und Jackpot-Chip (Bild 2, 252 Watt), beide Karten out of the Box und in etwa gleicher Boost-Takt:

http://i.imgur.com/fnxdkGn.png

http://i.imgur.com/wzfP2ul.png

Die beiden Bilder bitte ich auch diejenigen zur Kenntnis zu nehmen, die mich wegen der 100mV beim OC in einem anderen Forum genüsslich durch den Kakao gezogen haben, ohne die Hintergründe zu kennen oder mal zuzuhören, auch wenn ich es sogar noch explizit per PN angeboten habe, weil es zu OT wurde. Die Frage ist doch nicht, um wieviel komme ich über das Nvidia-Maximum von 1,062 Volt hinaus, sondern welchen Headroom habe ich zwischen dem Default meines Chips (Boost) und der restriktiv gesetzten Obergrenze + Software Override! Um das zu veranschaulichen, habe ich extra mal den Spannungsverlauf während des Aufwärmens protokolliert und in Grafiken gesteckt. Dazu kommt noch, dass hier die 6 Phasen bei 400 KHz Wandlertakt eine etwas bessere, weil glattere Spannung liefern als die FE (die aber auch innerhalb der Specs bleibt).

Außerdem schrieb ich ja auch, dass das Erhöhen des PT um so weniger nutzt, je durchschnittlicher der Chip ist und dass Boost letztendlich primär über die Spannungen entscheidet. Der AB erlaubt bis zu 100 mV, aber eben nur bis zum NV-Limit + ca 20 mV. Je besser der Chip, umso größer die Spanne. Meine 1080 Ti stock aus dem Review läuft unter normalen Bedingungen ohne OC und mit Wakü nämlich immer weit unter 1V. Hier sind es sogar bis zu 0.15V zwischen Default-Voltage und den ominösen 1.062V, wenn man Boost machen lässt und noch etwas per AB zugibt. Besorgt Euch einen gescheiten Chip aus der großen Nvidia-Lostrommel und ihr werdet staunen. ;)

Witcher 3
1886 MHz, 0.912 V - PT default bei 58°C
2038 MHz, 1.062 V - PT auf 150%. bei 58°C
2133 MHz, 1.050 V - PT auf 135%. Boost + 20 MHz, bei 20°C
2166 MHz, 1,062 V - PT auf 150%, Voltage +100, Boost + 70 MHz läuft ca. 3 Minuten mit dem Chiller, dann crasht das Spiel. Ich komme aber trotz Software-Override nie über die 1.062V, egal was ich auch anstelle. Shunt-Mod ist ebenfalls komplett wirklungslos.

Die Karte hier ist somit noch um Welten besser *Euro-Jackpot*, zeigt aber auch, dass mehr als 2133 MHz auch mit guten Chips unter LN2-freien Bedingungen und ohne echten PWM-Mod nicht gehen. :)

Falls jemand einen gescheiten Wasserblock für die Aorus Xtreme Edition auftauchen sieht, bitte melden!
Das getestete Konstrukt mit Raijintek GPU-und VRM-Kühler ist Mist, weil der Druck vom Chiller so groß ist, dass es am Auslass des VRM-Kühlers zu Bubbles und Pfeifgeräuschen kommt. Außerdem sehen die ganzen Schläuche plus 90°-Stücke Kacke aus. Hardtubing wird vom Chiller leider weggeblasen, hält nicht.

Nachtrag:
Ich werde im Review allerdings speziell auf den Umstand hinweisen, denn es ist wirklich die absolute Ausnahme. Heute kommt noch eine zweite Karte und ich werde speziell den OC- und Leistungsaufnahme-Part noch einmal messen. Mit so einem Golden Sample könnte man wirklich viral gut punkten. Da Boost selbst innerhalb einer Modellreihe so viel ausmacht, werde ich mich TPU anschließen und im Einzelreview nur noch gegen Referenzkarten benchmarken, sonst wäre es komplett unfair. :D

crs2601
2017-04-24, 10:20:52
Werde mir das heute Mittag nochmal genauer anschauen, aber soweit ich weiß gibt es als Voreinstellungen nur OC, Gaming und Silent. Die Lüfterkurve müsste man dann manuell einstellen. Wobei die Temps mit 74° ja noch ok sein sollten. Gestern hat dann noch das X mit den Lüftern gekuschelt, mit nem leichten Ziehen am selbigen hatte sich das dann aber erledigt und das Klackern hat aufgehört :D

Notfalls lasse ich halt die Karte im Gaming-Modus laufen, nur bei einem späteren Verkauf kommts wahrscheinlich nicht gut wenn die Karte beim OC-Mode abschmiert...

Im Post #940 hatte ich mal einen Vergleich mit meiner alten 1080 gepostet, hier aber nur den Renderer von GPU Z benutzt - deswegen nicht so hohe Temps. Aber da sind die auch 10°C höher als bei der 1080, ist das normal?

Bekomme Anfang Mai eine Gaming X von MSI nach Hause, mit der könnte ich mal gegentesten... wobei ich die eigentlich gar nicht erst auspacken wollte :D

cR@b
2017-04-24, 10:26:26
Höhere Temps können Leckströme verursachen. Das ist auch der Grund warum ne Custom Wasserkühlung am besten performed und u.a. auch neidrigere Voltage pro xy Takt zulässt etc. Die GPU fühlt sich je kühler sie ist umso wohler. ;)

TurricanM3
2017-04-24, 19:11:48
Also doch keine +100mV. Genau das hatte ich doch in Bezug auf meine mehrfach genannten 1162mV die ganze Zeit in Frage gestellt. Aber angeblich wurde das ja sogar gemessen. Dann noch solche pauschalen Aussagen wie "Shunt-Mod bringt nichts, das ist mal Fakt".
Wieso man überhaupt ein Offset von +100mV setzen sollte, das erschließt sich mir auch weiterhin nicht.

Hübie
2017-04-24, 19:28:13
NVIDIA binned nix nach Takt oder Spannung. Wieso sollten die auch die Arbeit für AIBs übernehmen? :D Dann müssten die ja so was wie Garantie weiter geben. Die finalen Taktraten sind einer der letzten Schritte bei der Entwicklung. Die gewonnen Erkenntnisse wandern dann in den Algorithmus vom RTOS und dann bleibt das so.
Erfahrungsgemäß kann Gigabyte, ASUS und Co doch aber sicher mittlerweile abschätzen wie zuverlässig ein Design ist. Kommt letztlich auch darauf an wie man ein Produkt in den Markt schickt. Bei der 1080 Ti wurden die AIBs recht spät eingebunden, schätz ich mal, weshalb die customs etwas auf sich warten ließen.
Frage doch mal direkt bei NV an. :D Warst du da eigentlich schon im neuen HQ?

Disconnected
2017-04-24, 19:48:23
Hat jemand zufällig UHD Benchmarks für folgende Titel?

Wolfenstein: The Old Blood
The Evil Within (ohne Balken)
Shadow Warrior 2

(del)
2017-04-24, 20:13:41
Also doch keine +100mV. Genau das hatte ich doch in Bezug auf meine mehrfach genannten 1162mV die ganze Zeit in Frage gestellt. Aber angeblich wurde das ja sogar gemessen. Dann noch solche pauschalen Aussagen wie "Shunt-Mod bringt nichts, das ist mal Fakt".
Wieso man überhaupt ein Offset von +100mV setzen sollte, das erschließt sich mir auch weiterhin nicht.Ich habe NIE 1.162 Volt geschrieben, nur Du hast ständig auf Absolutwerten rumgehackt. Deshalb habe ich auf den Unfug auch nicht mehr geantwortet. Wenn eine Karte nicht mit 1.062 Volt läuft, sondern mit 0.9xx, dann kann man sie mit 100mV gar nicht auf 1.162V setzen. Hättest Du aber merken können. Die genaue Erläuterung wolltest Du doch dann schon gar nicht mehr wissen (siehe PM). Sich jetzt so aufzublähen, ist nach dem ausgeschlagenen PM-Angebot schon etwas daneben. Die zwei Diagramme wie oben hättest Du für die FE auch schon eher haben können, wolltest Sie aber nachweislich gar nicht. Also lass das sinnlose Nachtreten bitte oder schreib im HWLuxx, wie fies ich wieder bin. Mich langweilt es mittlerweile. Nach einem 14-Stunden-Tag kann man eh nicht mehr geradeaus denken und sollte sich Foren samt Erbsenzählern besser schenken.

Die Antwort auf die Frage, warum man +100 setzen kann (und wann es nichts hilft), werde ich in einem Review beantworten, wenn ich endlich noch einen gescheiten Wasserblockfür die zweite Karte habe. Sonst glaubt mir wieder keiner. Wenn Du weißt, wie der Arbitrator arbeitet und der Voltage-Cut funktioniert, ist die Frage doch eh obsolet. Es ist kein absoluter Offset, sondern eine Art Gummiband. Alles, was in einer konkreten Momentaufnahme drüber liegt, wird abgeschnitten, aber man kann es auch weit dehnen, wenn man genug Luft dazu hat. mit etwas Pech sind es eben nur maximal knapp 20mV. Vielleicht lässt mir Unwinder auch ein paar Schnippsel fürs Review, ich bin in vier Wochen bei MSI im HQ und R&D.

Dann noch solche pauschalen Aussagen wie "Shunt-Mod bringt nichts, das ist mal Fakt".
Er bringt maximal eine Erhöhung des PT, wenn es der Hersteller nicht großzügig genug gesetzt hat. Voltage & Co, macht der Arbitrator, da ist das PT nur ein Faktor von vielen (siehe PM). Wie oft denn nun eigentlich noch? Klar wird es bei manchen Chips im Grenzbereich stabiler, weil der Limiter später greift und die Spannungen länger oben lässt. Aber er erhöht sie nicht über das gesetzte Limit und damit ist es auch kein Volt-Mod. Einen guten Chip ersetzt er auch nicht, denn der braucht keinen. Ab ca. 310-30 Watt ist der Mod dann eh komplett witz- und nutzlos, solange man nicht mit LN2 spielt. Darunter hängts wie gesagt extrem vom Chip ab. Roman hat sich auch schon oft genug dazu geäußert. Ich geb's jetzt hier und an dieser Stelle auf.

Frage doch mal direkt bei NV an. :D
Da kannst Du lange fragen und wirst nie eine Antwort bekommen. Eher bekommst Du das Originalrezept für Coca Cola im Google :D

TurricanM3
2017-04-24, 21:37:58
Eben nicht, ich hab dich explizit gefragt ob 100mV mehr ankommen was du eindeutig bejaht hast, ohne Einschränkungen. Zur Erinnerung:

Die Karte hält 2100 MHz stable bei 292 Watt Leistungsaufnahme und nur 0.1V mehr.


Das nur auf die Schnelle. Wo steht da was von "bis zu", einer Deckelung oder sonstigen Einschränkungen? Wieso schreibst du nicht gleich, es gäbe eine Obergrenze?
Da darf man sich dann auch nicht wundern wenn man Spott erntet. Aber verdreh jetzt ruhig alles.

Und der Shunt-Mod bringt natürlich nur eine Erhöhung des PTs, was denn um Himmels Willen bitte sonst? Das ist weltweit (auch bei den Amis im OCN) bekannt. Keine Ahnung was du da die ganze Zeit an Spannungen & Co sehen willst. Nun stellst du sogar noch klar, dass es kein Volt-Mod sei:

Klar wird es bei manchen Chips im Grenzbereich stabiler, weil der Limiter später greift und die Spannungen länger oben lässt. Aber er erhöht sie nicht über das gesetzte Limit und damit ist es auch kein Volt-Mod.


:freak:

Ich frag mich nach wie vor wozu man ein überhaupt Offset von +100mV einstellen sollte, wenn davon nichts relevantes ankommt.

(del)
2017-04-24, 22:56:34
ich hab dich explizit gefragt ob 100mV mehr ankommen was du eindeutig bejaht hastZwischen 0.9430 (stock) und 1.081 (OC + PT + voltage) sind es sogar 138 mV. Sorry, dass ich mich so extrem vertan habe. Kommt nicht wieder vor :D

Und da Du mich in der PM höflich daran erinnert hast, dass es Dich überhaupt nicht interessiert, hör bitte jetzt auf, mich hier öffentlich zu langweilen und ständig irgendetwas reinzuinterpretieren. Je nach Chip und Boost, können die +100 funktionieren - genau das wollte ich Dir schreiben. Jegliche Erklärung, auch der Hintergründe, hast Du allerdings abgelehnt. Jetzt habe ich eben mal keine Lust mehr. Ich geh schlafen und Du liest Dir bitte die Texte dieser Seite noch mal durch. Dann verstehst Du vielleicht auch, warum ich mehr Spannung drauf bekomme als Du :)

Niall
2017-04-24, 23:15:32
Ich werde nach dem Überfliegen eurer letzten Posts das Gefühl nicht los, dass Ihr beide ein bisschen aneinander vorbei redet …

Für mich klingen die Ausführungen bzgl. der Chipgüte, der daraus resultierenden »Stock-Spannung«, der wiederum daraus resultierenden maximalen, manuellen Spannungsanhebung unterhalb oder bis zur NVIDIA Spannungs-Obergrenze recht schlüssig. … dementsprechend kann man eben auch bei Karte A mehr »manuelle« Spannung durchschießen als bei Karte B. Ich weiß natürlich nicht was ihr per PM diskutiert habt. :D

Ich checke morgen erstmal meine Stock-Spannung. Good Night. ;)

TurricanM3
2017-04-24, 23:50:25
Niall, dann setzt mal die 100mV im AB und schau wie viel besser deine Karte geht. Interessieren würde mich insbesondere auch mal, wie viel Unterschied der, ich nenne ihn mal Placebo-Offset, ausmacht. Also der Bereich, bei dem dir der AB keine Steigerung mehr anzeigt. :wink:
Es gibt ja 1080 Ti Reviews, da schwören die Tester auf diese Methode. :D

Zwischen 0.9430 (stock) und 1.081 (OC + PT + voltage) sind es sogar 138 mV. Sorry, dass ich mich so extrem vertan habe. Kommt nicht wieder vor :D

Und da Du mich in der PM höflich daran erinnert hast, dass es Dich überhaupt nicht interessiert, hör bitte jetzt auf, mich hier öffentlich zu langweilen und ständig irgendetwas reinzuinterpretieren. Je nach Chip und Boost, können die +100 funktionieren - genau das wollte ich Dir schreiben. Jegliche Erklärung, auch der Hintergründe, hast Du allerdings abgelehnt. Jetzt habe ich eben mal keine Lust mehr. Ich geh schlafen und Du liest Dir bitte die Texte dieser Seite noch mal durch. Dann verstehst Du vielleicht auch, warum ich mehr Spannung drauf bekomme als Du :)


Um mich gehts gar nicht sondern deine zweifelhaften Aussagen. Ich wüsste zudem gar nicht wozu ich solche Werte überhaupt setzen sollte, beantworten kannst du mir das ja leider auch nicht. :wave2:
Selbst hast du den Anspruch investigativ vorzugehen, hakt man bei dir mal nach, schmeckt es dir nicht. :smile:

PS: Jetzt sind wir ja schon bei 138mV und 100mV Offset, das wird ja immer schlüssiger. :freak:

kruemelmonster
2017-04-25, 00:05:25
FYI weil es gern übersehen wird: der MSI AB zeigt für Pascal im Gegensatz zu z.B. Kepler keine Erhöhung der Spannung um einen absoluten mv-Betrag an, sondern die Möglichkeit die Core-Voltage vom Stock-Wert auf bis zu 100 Prozent zu erhöhen bzw fixieren (afaiu, normalerweise undervolte ich über den Curve Editor).

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59769&stc=1&d=1493071313

x-force
2017-04-25, 01:08:08
@format_c & max voltage

+100% bedeuten bei meiner 1070 msi gaming x 1,093v, mehr geht auch mit curve nicht.
wie passt das zu den 1,081?

(del)
2017-04-25, 06:50:21
FYI weil es gern übersehen wird: der MSI AB zeigt für Pascal im Gegensatz zu z.B. Kepler keine Erhöhung der Spannung um einen absoluten mv-Betrag an, sondern die Möglichkeit die Core-Voltage vom Stock-Wert auf bis zu 100 Prozent zu erhöhen...
Finde die Unterschiede (darauf habe ich aber schon vor einigen Seiten mehrmals hingewiesen) ;)

http://i.imgur.com/Rb9KmYT.jpg

Es ist ein AB von Unwinder, für den Du Dich persönlich explizit freischalten lassen musst. Name wird reinkompiliert, wegen des nicht erlaubten Sharings. Ist beim AB Extreme schon seit Jahren so und es wird nicht einfacher. Die Voltage muss nach Prüfung Deiner Person bzw. deines Anliegens für jede Version freigegegen werden. Der Code-Schnippsel fehlt beim normalen AB, sonst könnte man ihn sich ja im Bin-Editor zurechtpatchen :D

@X-Force:
Die 1.081V sind ein Ergebniswert, mehr ging mit der Karte unter den eingestellten Bedingungen nicht (siehe Bild vom Logfile ein paar Seiten vorher). Du hast die Normalversion des AB. Und doch ergibt sich auch Dein Ergebnis aus dem Kontext der letzten Posts. Curve ist lustig, bringt aber eigentlich nur was, wenn man auch weiß, welchen Boost-Step man final auch erreicht. Zu wenig crasht, zu viel macht die Sache heißer als man es haben will. Boost selbst ist hier meiner Meinung nach der beste Entscheider, dem man nur mit etwas Druck noch etwas Zubrot geben sollte. Du legst ja die Spannungen nicht obendrauf, sondern variierst nur den Spielraum, innerhalb dessen Boost agiert. Die eigentlichen Obergrenzen bekommst du nie weg, es sei denn, Du lässt den PWM-Controller absichtlich driften und haust ihn z.B. aus den Specs, so wie es MSI getan hat, die ich dabei seinerzeit erwischt habe. Damals waren die Voltages bei den Realtek-Chips sogar Pin-codiert fest voreingestellt. Das war insofern schön, weil man das mit geeigneten Lötwerkzeugen und dem Datenblatt selbst ändern konnte :)

@TurricanM3:
Hast Du denn wirklich eine Begriffsblockade? Niall hat es nämlich in nur einem einzigen Post völlig richtig erfasst. Ich kann bis zu 100 mV freigeben, die auch situationsbedingt und zusätzlich anliegen können, solange es innerhalb der Restriktionen bleibt. Wie oft denn nun noch? Boost cuttet aber trotzdem, wenn es mal zu viel werden sollte und - tada - regelt die Voltage exakt so, wie ich es auch schon seit Seiten versuche zu erklären. Nur wenn ich diese Zugabe nicht setze, rennt auch der gute Chip bei 2,1 GHz und 1.043V in den Crash, weil Boost ohne weitere Zugabe von sich aus keinen Spielraum mehr sieht. Dann brauche ich von den 100 vielleicht maximal noch 40 mV zum Erreichen der absolut zulässigen Grenze - in genau diesem einen Moment. Wenn Boost aber von sich aus schon in einem Zyklus 39 mV draufpackt, weil es Reserven sieht und ich als zuätzliches Fenster 100 voreingestellt habe, sind es zu diesem Zeitpunkt dann z.B. in der Summe sogar 139 mV über dem Defaultwert für diese Karte - immer vorausgesetzt ich komme nicht über die Kotzgrenze. Boost wechselt die Voltage übrigens bedarfsweise bis zu viele tausend Male pro Sekunde (wo wohl das "Spulenfiepen" herkommt?) und nicht im extrem langen GPU-Z Sensor-Loop Interval (siehe auch PN mit der Erwähnung eines möglichen Konfliktes mit zu langsamen DC/DC-Konvertern). Habe ich mich den wirklich so missverständlich ausgedrückt? Eine Karte, die von Haus aus schon die 1.05 bis 1.062 Volt permanent erreicht, lässt sich auch damit nicht retten. Die ist ein Griff ins Mittelmaß. Oberflächlich betrachtet, könnte man es sogar für einen Placebo-Effekt halten, wären da nicht die Chips, die damit was anfangen können.

Zitat aus meinem Review (http://www.tomshardware.de/geforce-gtx-1080-ti-aquacomputer-wasserkuhlung-ubertaktung-effizienz,testberichte-242336-2.html):
Wir haben für die Spannungsanhebung von 0,1 Volt eine Version des MSI-Afterburners verwendet, die wir uns speziell haben freischalten lassen.
Ein passendes Bild des AB Extreme findest Du dort auf der gleichen Seite. Nun sag aber bitte nicht, Du hättest das Review nicht gelesen. Du hast ja mehrmals sogar selbst darauf verwiesen. Mein Fehler mag sein, dass ich im Review nicht noch näher auf die Spannungen und Chip-Qualität eingegangen bin, aber bei der Maßgabe, 20K Zeichen nicht zu überschreiten und US-kompatibel zu bleiben, fällt auch schon mal Inhalt unter die Schere. Allerdings komme ich heute noch nicht mit Deiner Art klar, im einen Forum auf Antworten zu pochen und im anderen nonchalant Gülle auszukippen. Auf so etwas reagiere ich dann mit Nichtbeantwortung. Nur, falls Du dich wunderst, warum Du plötzlich keine Antworten mehr bekamst. Später habe ich Dir eine PM geschickt, nur hat Dich das dann gar nicht mehr interessiert. Da ich keine Lust, Zeit und Kraft habe, das alles noch einmal durchzukauen, ist jetzt auch Schluss damit. Dieser Post muss reichen.

Nachtrag:
Zweitkarte ist eingetroffen und ich war deshalb mal so frei, doch noch einmal etwas so zu testen und zu erklären, dass es jetzt auch jeder kapiert (hoffe ich zumindest).

rentex
2017-04-25, 08:16:03
https://www.techpowerup.com/reviews/Palit/GeForce_GTX_1080_Ti_GameRock_Premium/

Hm...geht so.

Angiesan
2017-04-25, 09:21:51
@Angiesan:

Aus meiner Zeit beim DFKI kann ich mich noch gut daran erinnern, dass MTBF-Angaben von Bauteilen statistische Hochrechnungen von Messwerten der künstlichen Alterung mit einer semi-Varianz sind. Darauf festnageln kann und will sich verständlicherweise kein Hersteller. Luftfeuchtigkeit ist nämlich auch ein nicht zu unterschätzender Einflussfaktor, um mal einen zu nennen und (da wir ja für Raumfahrt gebastelt haben) auch Strahlungsemissionen bzw. die Resistenz.
Wärste mal nach Kaiserslautern gekommen da hätteste auch was gelernt ;)
An was habt ihr da genau gearbeitet hört sich ja interessant an und wundert mich, dass Du in deinem Studium an so sensiblen Projekten mitwirken darfst.
Und nein es ging mir nicht um die MTBF des Systems. Das ist hier für die Beurteilung auch nicht von Bedeutung, es ging mir nur um die thermische Belastung und die damit verbundene schnellere Alterung der verbauten Teile.
Außerdem steht mein PC genau so wie der der meisten anderen User nicht im Weltraum und auch nicht in einem Feuchtbiotop. Mann kann hier also sehr wohl von Durchschnittswerten in Mitteleuropa ausgehen.
@Angiesan:

Und das Format_C längst in der Industrie sitzt ist dir offenbar auch entgangen.


In der Tat ist mir das entgangen, ich hatte ihn so verstanden, dass er dort sass und sich nun anderen Aufgaben verschrieben hat. Ab und an aber wohl als Dienstleister in Anspruch genommen wird.

@Angiesan:



Igor sagt auch keineswegs, dass die EVGA-Karten bspw. nach drei Jahren alle durchbrennen, nur das man es eben optimal in puncto Kosten- / Nutzenfaktor lösen kann, wenn man denn mal bereit ist die Vorschläge umzusetzen. Man wird ja immer gleich als anmaßend hingestellt, wenn man sagt, dass hätte Hersteller XY aber auch so und so besser lösen können. Dabei dreht es sich ja um harte Fakten. ;)



Nein das muss er auch nicht mehr der Rest geht in den Köpfen der Leute ab.
Und nein es dreht sich nicht um harte Fakten, sondern rein um Vermutungen denn wie du selbst geschrieben hast, kann und will keiner da eine Aussage treffen. Mann haut eine Info raus und lässt den Rest die uninformierten User zusammenreimen. Da ist nix mit Fakten außer den Temp-Werte die Igor vermessen hat und seine Erfahrung die mit eingeflossen ist. Außerdem geht es hier nicht nur um EVGA.

Ich bin mit dem was Igor weiter ausgeführt hat auch im Reinen. Wenn das Ganze auch für mich nur in wenigen Fragen eindeutige Aussage lieferte.z.B. die Temperatur des GDDR5X Speichers sollte 95°C nicht überschreiten( hier gibt micron, zumindest öffentlich, keine Tolleranzgrenze an).Der Rest bezieht sich viel auf Vermutungen was könnte wenn.
Es geht vieles darin unter, da Igor aufgrund seiner Erfahrung in der Industrie und seiner Außbildung gerne um das Kernthema herumschreibt. Ich unterstell ihm da keine Absicht ich neige in anderen Themen auch dazu außerdem ist das auch interessant und verschafft zumindest kleine Einblicke in die chaotische Welt der asiatischen Industrie:biggrin:.

(del)
2017-04-25, 09:30:39
Noch einmal als Extra-Post, damit es nicht im Geblubber untergeht...

SPANNUNGS-SPIELEREIEN

Um das oben Geschriebene mal optisch zu untermauern greife ich folgendes Zitat jetzt einfach einmal ganz emotionslos als Annahme auf und ich habe mir noch einmal kurz die Zeit genommen, das mit einer zweiten, immer noch recht ordentlichen 1080 Ti Xtreme Gaming gegenzutesten.
...wie viel Unterschied der, ich nenne ihn mal Placebo-Offset, ausmacht. Also der Bereich, bei dem dir der AB keine Steigerung mehr anzeigt ... Es gibt ja 1080 Ti Reviews, da schwören die Tester auf diese Methode. :D


VORBETRACHTUNG

Ich schrieb bereits, dass man NIE Voltage, Wattage und die anderen Werte voneinander lösgelöst berachten darf, weil es der Arbitrator-Loop in Boost nun mal auch nicht tut. Nehmen wir die Test-Karte nun einmal out of the Box und vergleichen Boost-Takt und Voltage. Ich habe bei allen Durchläufen gewartet, bis die 69°C im offenen Aufbau erreicht waren und auch die Lüfterdrehzahlen in etwa gleichauf lagen. Ich habe KEINE Taktanhebungen gemacht, sondern nur mit Power Target und Boost gespielt!

VIER MESSUNGEN MIT VIER VERSCHIEDENEN VORGABEVARIANTEN

Messung 1: Keine Spannungsanhebung, PT auf default (100%)
Ergebnis 1: 1835 MHz, 0,900 Volt
http://i.imgur.com/AHN7rhy.jpg

Messung 2: Maximale Spannungsanhebung, PT auf default (100%)
Ergebnis 2: 1835 MHz, 0,900 Volt
http://i.imgur.com/cDpVtM4.jpg

Sollten die Placebo-Parteigänger vielleicht ja doch Recht haben? Nun ja, der Tag ist lang, und Kaffee reichlich vorhanden. Schaun' wir mal weiter...

Messung 3: Keine Spannungsanhebung, PT auf Maximum (150%)
Ergebnis 3: 2012 MHz, 1,0430 Volt
http://i.imgur.com/jEgipvu.jpg

Fein! Ohne manuelle Taktanhebung geht die Karte Dank Boost jetzt schon brav bis 2012 MHz und setzt sich immer noch angenehme 1.0430V als Voltage. Das ist der Punkt, zu dem ich schrieb, dass der Current-Limiter dazu da ist, ein mögliches Spannungsplus auszukalkulieren. Mehr Wattage freigegeben heißt bei gleichem Stromfluss ja auch mehr Voltage. Hier kann dann auch der Shunt-Mod noch helfen - aber eben nur, wenn man noch nicht bei 1.062V oder mehr angekommen ist und wenn das PT nicht mehr reicht. Von den freigegebenen 150% Power Target nutzt die Karte aber bei mir nur ca. 135%, weil ihr schlichtweg (noch) von Boost die Mehrspannung verweigert wird. Der Shunt-Mod brächte hier nichts. Null-Komma-Nichts.

Messung 4: Spannungsanhebung auf Maximum, PT auf Maximum (150%)
Ergebnis 4: 2037 MHz, 1,0930 Volt
http://i.imgur.com/TPuDaDt.jpg
Ja, da schaun's her, Frau Stachelbeer! Das Placebo wird zum Platzebo, denn ich erhalte noch einmal mehr Takt, satte 1.093V (das absolute, fest hinterlegte und so nicht umgehbare Maximum) und ich bin auch schon bei ca. 145% des Power Targets angelangt! Aber: auch hier braucht man keinen Shunt-Mod, da das hinterlegte PT noch locker reicht!

Man betrache bei allen vier Bildern auch mal die vorletzte Spalte mit den Limits!

ZUSAMMENFASSUNG

Wohlgemerkt - alles habe ich ohne jegliche Taktspielereien per Schieberegler sondern nur mit der automatischen Spannungsanhebung im Arbitrator erreicht, basierend auf allen Vorgabewerten UND meiner angeblich so wertlosen Spannungszugabe noch oben drauf. Bei dieser zweiten Karte sind es bei 25 MHz mehr Takt ganze 0.05V mehr Spannung. Dann liegt die Karte allerdings nicht mehr bei 252,4 Watt (alles aus), sondern bei satten 345,8 Watt (alles auf Max). Ob einem der Taktgewinn von 202 MHz die mehr aufzuwendenden 90 Watt wert sind, muss man dann mit sich selbst abmachen. Aber: ich habe jetzt bei drei Karten Unterschiede messen können, es ist also kein Placebo-Offset und falls es wirklich Reviewer geben sollte, die so denken, dann sollten sie besser den Job wechseln und/oder Gummibäume testen. :)

-----------------------------------------------------------------------------------------------------------------------------------------------------

@Angiesan
Von Reviews allein kann man (in DE) leider nicht gescheit leben, wenn man Familie hat. Die paar festangestellten Redakteure schwimmen auch nicht mehr gerade im Geld (Heise mal teilweise außen vor) und eigenes Equipment ist dann einfach nicht mit drin. Auch bei den Redaktionen als solchen nicht, weil auch die Werbeeinnahmen nicht mehr so sprudeln wie früher. Man hat die DE-Redaktion von TH samt Wasserkopf sogar komplett gekillt; ich mache das quasi so nebenher, da ich Auftragswerke für die Amis, Franzosen und in Drittverwertung auch für die Italiener und Russen (Franchise) schreibe und vieles in Deutsch einfach vorhanden ist. Dazu kommen Rohdaten für den Partner-Pool von Purch, wo so einige Schwesterseiten darauf zugreifen. Der Rest hier im Labor unterliegt dem üblichen Quellenschutz ;) Das betrifft auch diverse Informationen, bei denen man in der Tiefe immer aufpassen muss, ab wann man NDA's verletzt. Das ist ein Eiertanz-Modus, glaubs mir...
Es gibt zwei Bereiche, in denen ich keine Reviews mehr schreibe (Interessenkonflikte, aus gutem Grund also), das sind PSUs und Gehäuse. Vieles, was man heute so auf der Sekundärseite findet, stammt noch von Messreihen aus 2013/14. Und auch Lian Li wird mir sicher nicht aus Jux jede Einzelanfertigung hinstellen, die ich eben mal gern so hätte. Das sind die beiden Dinge, die man auch googeln könnte. Der Rest genießt hier ab und zu auch mein Mittagessen. Schweigend, weil es keinen etwas angeht ;)

webmi
2017-04-25, 10:50:33
Selten, sehr selten hab ich so viel wirres Zeug gelesen, dann auch noch von jemandem, der Reviews schreibt.

akuji13
2017-04-25, 10:54:12
Hast du auch was sachliches dazu beizutragen (Zahlen, Daten, Fakten) oder dich nur für diesen Satz hier registriert?

Niall
2017-04-25, 10:58:53
Selten, sehr selten hab ich so viel wirres Zeug gelesen, dann auch noch von jemandem, der Reviews schreibt.

Worauf genau beziehst Du Dich? Vielleicht können wir Dir ja helfen. :D

(del)
2017-04-25, 10:59:44
Selten, sehr selten hab ich so viel wirres Zeug gelesen, dann auch noch von jemandem, der Reviews schreibt.
Nun, wie wärs mit Details? Kannst mit dem Post über Dir ja gleich mal anfangen. So zur Übung...

webmi
2017-04-25, 11:00:12
Man müsste zu jedem seiner Sätze, ZU JEDEM SATZ!, einen kleinen Aufsatz verfassen. Sorry, aber die Zeit und Mühe bringe ich nicht auf.

Ich melde mich stattdessen hier an um ihm meine Meinung zu seinem ganzen Erguss mitzuteilen.

@Format, du weist genau, dass du dich hier nur drehst und wendest. Im Prinzip müsste man wirklich mal anfangen deinen ganzen Mist klarzustellen. Aber wie gesagt, ist mir das bei der Menge an Mist die du verzapfst, einfach zu viel Arbeit.

MiamiNice
2017-04-25, 11:02:15
Ich finde den Threads durchaus sehr interessant, nur die Anfeindungen nerven.

Niall
2017-04-25, 11:05:33
Man müsste zu jedem seiner Sätze, ZU JEDEM SATZ!, einen kleinen Aufsatz verfassen. Sorry, aber die Zeit und Mühe bringe ich nicht auf.

Ich melde mich stattdessen hier an um ihm meine Meinung zu seinem ganzen Erguss mitzuteilen.


Das wurde doch vor Seiten schon ausdiskutiert, der obige Post ist lediglich die Zusammenfassung in Kurzform. ;)

Na dann herzlich willkommen. :freak:

(del)
2017-04-25, 11:09:01
...Na dann herzlich willkommen. :freak:
Falls es webmi aus dem HWLuxx-Forum ist, dann Gute Nacht Thread. :D
Wenn diese Prinzessin auf der Erbse da drüben solchen Bullcrap ins Netz stellt, lesen die Leute das und da es zunächst authentisch aussieht, stellt man diese Informationen ja noch nicht mal in Frage.


Back2Topic:
Der webmi im HWLuxx wundert sich z.B. im Thread zur Asus 1080 Ti Strix im HWLuxx, warum bei manchen Karten keine optionale Spannungzugabe möglich ist (eine Erhöhung würde ich es nicht nennen, siehe die letzten beiden Posts von mir). Dabei ist die Ursache so trivial, dass mich das als Frage schon wieder wundert, wenn ich ehrlich bin. Unterstützt der PWM-Controller OpenVReg (für die entsprechende Anzahl Phasen OVR4+ ), dann geht es - auch mit Curve. Dazu gehören die ganzen uP95xx von uPI Semi. MSI nimmt lieber einen NCP8xxx von ON Semi, der aber auch funktionell voll dabei ist. Asus setzt hingegen meist auf einen ALP1xxx, also eigentlich ein OEM-gelabeltes Realtek-Produkt. Das wiederum kann zwar einiges (I2C), aber wohl kein echtes OpenVReg, zumindest ist nichts öffentlich dokumentiert, weshalb der AB und die anderen Tools nichts machen. Dann kann man auch die Curve einigermaßen knicken. Firmware ersetzt keine native Implementation. Aber für den normalen Gebrauch geht es. Außerdem ist es ihm im Thread zum Review nicht aufgefallen, dass die Asus auch nur 5 Phasen für die GPU hat. Im Review stehen 10 Phasen, was aber totaler Quark ist. Es sind exakt 5 Phasen für die GPU, keine mehr, mit jeweils einem simplen Doubler-Chip pro Phase und dann folgen darauf nur zwei simple, parallele Wandlerzüge, die lediglich die fließenden Ströme aufzuteilen helfen (thermische Entzerrung der Hotspots). Wenn man schon so kleinlich bei mir ist, warum dann nicht auch dabei? Ok, ich bin dort kein geschütztes Foreninventar, mag sein. :D

Noch mal der Erklärbär:
Was braucht man für den PWM-Controller auf der 1080 Ti? Und vor allem: wann kann ich eine Karte überhaupt in Bezug auf die Spannung beeinflussen?

Dazu gehören beim PWM-Controller (der ja nichts anderes als ein normaler Phase-Buck-Controller ist) bis zu 8 separat regelbare Phasen, die PWM_ID Schnittstelle (oder alternativ nur I2C) für die exakt geregelte Stromvesorgung muss voll unterstützt werden und eine funktionierende Differenzspannungs-, sowie eine Phasenstromerfassung müssen integriert sein. Dazu kommt noch die adaptive Spannungspositionierung AVP. Wichtig wäre dann auch noch das PSI (integrated Power Saving
Interface) für die drei Betriebsmodi: APO (All Phases On), DPS (Dynamic Phases Shedding) oder den sogenannten Fixed Low Phase Count Mode. Tools wie der AB müssen zunächst erst einmal mit dem PWM-Controller klarkommen, sonst regelt man wirklich nur Placebos. Aber das kann man wissen, wenn man vor dem Review die Karte mal zerlegt und sich die Spannungsreglung genauer anschaut. :D

Kommen wir jetzt zur Umsetzung (Nachtrag):
Die Controller schaffen meist Schaltfrequenzen irgendwo zwischen 200 kHz bis 1.5 MHz. Je niedriger, um so instabiler wird es, wenn die Boost-Zyklen zu schnelle Änderungen vollziehen (siehe auch Jensens Erklärung zur Spannung auf der 1080 Live-Präse). Taktet man die VR zu hoch, wird es schnell extrem heiß an den VRM (Kühlungsprobleme und Hotspots). Deshalb nutzen die meisten Frequenzen zwischen 300 und 500 MHz als Kompromiss. In den Chips hat man dann noch neben der OVP, UVP und OCP eine Per Phase Over Current Protection und das Current Balancing zwischen den Phasen. Deshalb war das Frickeln im Maxwell Tweaker immer so eine kippelige Sache, wenn nicht weiß, wie die Karte überhaupt tickt (Layout). Ein Precision-Tool von EVGA wird mit EVGA-Karten wohl meist gut funktionieren, weil die wissen, welche Controller sie verwursten. der AB kann alle MSI-Karten, weil MSI meist auf NCP8xxx oder uP9xxx setzt, die kein unbekanntes Hexenwerk sind. Asus ist mit den Digi+ ALP1xxx Dingern eine Ausnahme, hier kommt Realtek zum Zuge. Tool-Support ungewiss, da kaum was ausdokumentiert ist. Dann spielt es auch noch eine Rolle, ob man das Current-/Voltage-Monitoring über einen INA3221 regelt oder nicht. Tools sind keine Alleswisser und ein Shunt-Mod mit Flüssigmetall nicht immer der Stein der Weisen.

Worauf ich hinaus will:
Es ist vermessen zu behaupten, man könnte mit einem Tool alle Karten pauschal regeln (oder auch nicht) sowie eine pauschale Generalaussage treffen, die man so oft lesen kann. Ein empfundenes "Placebo" kann so viele Ursachen haben, dass es einem schwindlig wird. Die FE kann man kritisieren wie man will, aber sie sind wenigstens keine Wundertüten, wo man auch böse Nieten ziehen kann. Bis auf die GPU vielleicht. Aber das ist wieder was anderes ;)

JaniC
2017-04-25, 13:06:29
Ich bin mir sicher, dass Format_C irgendwas schlaues schreibt, nur sind auch mir seine Posts irgendwie zu wirr. So sehr ich mich anstrenge, bin ich nach dem Lesen nicht schlauer.
Aber ich suche den Fehler da dann eher bei mir, bin halt kein Ingenieur sondern promovierender Geisteswissenschaflter und verstehe das ganze Fachchinesisch nicht. Nach der 5. Wall of Text und null Erkenntnisgewinn lass ich es dann bleiben.
Auch wenn es wieder abgestritten wird; der von einigen Usern vorgeworfene leicht arrogante Ton (alle anderen Reviewer und YouTuber können nichts; die und die Marke ist per se totaler Rotz) ist durchaus vorhanden, was auch ein bisschen abschreckt.
Aber solange einige daraus Mehrwert ziehen, sage ich nichts dazu (außer das hier jetzt) und lasse euch man machen.

Ich guck hier primär rein, um zu sehen, ob dildo oder rentex schon vor mir den neuesten Reviewlink gepostet haben oder ob es Erfahrungsberichte (in Normalsterblichenform: In welchem Einsatz wie heiss/laut, wie weit geht OC?, Buildquality, fertig) gibt.

Zurück zum Thema:

Die Palit mit ihren Vortexlüftern bringt also auch nicht mehr als der Rest. Eher weniger.

Scheint nach wie vor so, als wären die ASUS, die AORUS und die MSI die besten Karten.
Dann fallt jetzt mal bitte auf unter 800€ :D

Triniter
2017-04-25, 13:38:47
Zurück zum Thema:

Die Palit mit ihren Vortexlüftern bringt also auch nicht mehr als der Rest. Eher weniger.

Scheint nach wie vor so, als wären die ASUS, die AORUS und die MSI die besten Karten.
Dann fallt jetzt mal bitte auf unter 800€ :D

Die Aorus ist halt leider schon absolut an der oberen Grenze aller Karten... Und noch dazu immer noch nicht wirklich lieferbar. Der Verstand sagt bei mir auch: Lass es du Idiot! Aber ich hör ihn immer weniger :freak:

webmi
2017-04-25, 13:57:16
Der allwissende webmi im HWLuxx wundert sich z.B. im Thread zur Asus 1080 Ti Strix aim HWLuxx, warum bei manchen Karten keine optionale Spannungzugabe möglich ist

Auch wenn du versuchst mir über verschiedene Foren hinweg das Wort im Mund umzudrehen, wird dein geschriebenes Wirrwarr deshalb nicht wahrer.

Ich sagte, ich wundere mich, warum Asus ein derart aufgeblasenes Layout bringt aber keine Tools dazu liefert um die Spannung dann auch entsprechend dieses Layouts über den Standard hinaus zu erhöhen.

Tools sind keine Alleswisser und ein Shunt-Mod mit Flüssigmetall nicht immer der Stein der Weisen.

Alleine dieser Satz ist in so vielerlei Hinsicht und vor allem im Bezug zu dem Kontext (Current/Voltage) den du dazu vorher lieferst einfach nur beschränkt.

Dazu dann so Dinger wie deine PT Story hier und vor allem im Review... Wie kann man anhand eines Mittelwertes behaupten ein Limit wird nicht erreicht?!?! Das alleine ist schon Gummibaum Test Preis verdächtig.

Der größte Klopper ist deine Aussage: "Die Karte hält 2100 MHz stable bei 292 Watt Leistungsaufnahme und nur 0.1V mehr." Nicht nur, dass du damit weltweit der Einzige wärst, zeigst du uns dann im Post 914 (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11347436&postcount=914) eine Tabelle, bei der die 2100Mhz mit bis zu 1.081v laufen um zu beweisen, dass du mit dieser Spannungszugabe nicht nur "2.1 GHz stable" (lol, weil sie 2 Minuten laufen) hast, sondern dabei auch das PT von 120% nicht erreichst. Wenn man nur Solitär damit laufen lässt, ist mir klar warum du bei 2.1Ghz nicht gegen die 300W donnerst...

Dein Review (http://www.tomshardware.de/geforce-gtx-1080-ti-aquacomputer-wasserkuhlung-ubertaktung-effizienz,testberichte-242336-2.html) zeigt jedenfalls in beiden Messungen jeweils deutliche Ausschläge, die über die 300W Marke gehen...

Jetzt kommst du plötzlich mit 0.9v STOCK um die Ecke. Ein Wert, mit dem du wieder weltweit einzigartig bist und versuchst dann dein zuvor verwurseltes Wirrwarr irgendwie richtig zu stellen, denn 0.1v zu 0.9v Stock sind relativ betrachtet ja wieder richtig ;D

Dann haust du hier so Dinger raus wie eine TI hätte ja weniger Shader als eine TXP :rolleyes:

Nun zum Shunt Mod. Laut deiner Aussage bringt der nichts. Ja, wenn man natürlich mit dem Mittelwert einer Verbrauchsmessung argumentiert, wäre das richtig. Das wäre ebenfalls richtig, wenn man, wie du es in deiner letzten großen Wall of Nonesense getan hast, eine CUSTOM Karte mit 150% PT nutzt. Für jede FE gilt aber, das bei 300W (und ich spreche hier NICHT von einem Mittelwert) sofort der Takt und ggf. Spannung zurückgenommen wird, was umgangssprachlich als Throttling bezeichnet wird. Nun und genau da setzt der Mod an, der dann eben sehr wohl dazu führt, dass die Karte nicht mehr so schnell throttled.

Das waren jetzt nur die großen Schnitzer, die mir auf Anhieb einfallen. Viel kleineren Mist hab ich jetzt ausgelassen, weil das wirklich den Rahmen sprengen würde.

(del)
2017-04-25, 14:28:47
Ich sagte, ich wundere mich, warum Asus ein derart aufgeblasenes Layout bringt aber keine Tools dazu liefert um die Spannung dann auch entsprechend dieses Layouts über den Standard hinaus zu erhöhen.Weil es mit diesem Controller einfach nicht geht. Siehe oben. Kann man aber durchaus wissen. Das Layout ist auch nicht aufgeblasen, sondern im Gegenteil sogar extrem simpel gestrickt. Aufgeblasen ist nur die PR-Folie, von der abgeschrieben wurde.

Dein Review zeigt jedenfalls in beiden Messungen jeweils deutliche Ausschläge, die über die 300W Marke gehen...Primary, sicher. Aber Du weißt doch sicher selbst am bestern, wie die Konverter funktionieren und wie aus Wechselwirkungen auf welcher Seite der VR welche Spikes (und Valleys) entstehen können. Rest siehe weiter oben. Gab auch mal ein Review von mir darüber.

Alleine dieser Satz ist in so vielerlei Hinsicht und vor allem im Bezug zu dem Kontext (Current/Voltage) den du dazu vorher lieferst einfach nur beschränkt. So? Weißt Du, welches der Tools welche Controller vollständig oder teilweise supportet? Ja? Dann wäre auch die Asus-Frage überflüssig. Und der Flüssigmetall-Mod ist in gewisser Hinsicht schon unwägbar. Schließt Du das richtig kurz, läuft die Karte nur noch auf niedrigster Taktstufe oder lässt bei anderen Controllern das Power Good weg. Dann geht der Rechner sogar aus. Man kann nicht mal annähernd einschätzen, wie viel Milliohm man da gerade per Zufall generiert hat und was nach dem weitereren Aushärten später als Wert steht. Wenn, dann Ersetzen durch einen anderen Shunt, dem man dem hinterlegten PT der Karte anpassen kann. Zu Sinn oder Möglichkeit steht hier dazu in zig Posts etwas. Auch noch einmal explizit im Post mit den vier Tests oben.


Jetzt kommst du plötzlich mit 0.9v STOCK um die Ecke. Ein Wert, mit dem du wieder weltweit einzigartig bist und versuchst dann dein zuvor verwurseltes Wirrwarr irgendwie richtig zu stellen, denn 0.1v zu 0.9v Stock sind relativ betrachtet ja wieder richtigÜber 15 Minuten Metro LL in 4K auf Max, @stock bitte sehr:
https://filehost.net/123c09fbe6908eb1


Dann haust du hier so Dinger raus wie eine TI hätte ja weniger Shader als eine TXP
Titan X Pascal Oder Titan XP? Das ist der einzige Schuh, den ich mir bei der damaligen Uhrzeit durchaus anziehe, da ichs sicher verwechselt habe. Da ich die TXP nicht hier habe, dafür eine P6000 war der Wunsch wohl Vater des Gedankens. Man sollte wirklich nicht gleichzeitig alles machen :)

Im Übrigen drehen wir uns im Kreis, weil ich immer noch auf echte technische Argumentationen und keine Quote-Sammlung warte. So aber stiehlst Du mir (und anderen) hier Zeit und Nerven. So wie Deinen Mitbenutzern auf HWLuxx. Aber egal. ;)

Setzt Dich doch einfach mal hin und schreibe uns allen eine schöne, knackige und auch stichhaltige Erklärung und Ausführung, warum was funktioniert oder nicht. Aber bitte mit echten Fakten, Messungen und Belegen und nicht so Geschwubel wie "weltweit einzige". Nein, mache es bitte so, dass auch JaniC was davon mitnehmen kann. Dann sind sicher alle glücklich :)

Godmode
2017-04-25, 14:32:44
Auch wenn du versuchst mir über verschiedene Foren hinweg das Wort im Mund umzudrehen, wird dein geschriebenes Wirrwarr deshalb nicht wahrer.


Muss der Kindergarten wirklich sein? :mad:

rentex
2017-04-25, 14:52:17
Wirklich! Dafür ist das 3DC Forum zu schade. Wie ist den der Ersteindruck der Palit?

Troyan
2017-04-25, 15:00:07
Der Preis der Referenzkarte ist auf 719€ gefallen: https://geizhals.de/?cat=gra16_512&asuch=gtx1080ti&asd=on&bpmax=&v=l&hloc=de&plz=&dist=&mail=&sort=p&togglecountry=set

(del)
2017-04-25, 15:06:21
Wirklich! Dafür ist das 3DC Forum zu schade. Wie ist den der Ersteindruck der Palit?

Ja und Nein. Die VR ist gut gekühlt (Mehrstufen-Heatsink, bei dem man das Pad für die Caps weggelassen hat ;) ), die Lüfter sind nicht wirklich laut, aber so richtig leise ist es auch nicht. Die Lasttests stehen noch aus und ich gehe am Donnerstag mal in meine Chamber zum Audio-Messen.

Randnotiz:
Ich habe für die ganzen Gaming-Loops auf Witcher 3 umgestellt und konnte auch zwei R&D's davon überzeugen, dass Skellige schöner anzuschauen ist, als die olle Metro im Tunnel.
Technischer Hintergrund: das Creators-Update macht Stress beim Starten des Metro-Benchmarks, wenn die Bildschirmauflösung gewechslt wird. Da kommt manchmal Murks raus.

Nachtrag:
Schöner RGB-Klimbim auf der Oberseite. Fiep-Fiep (lauter als bei MSI, Asus und Aorus) aber die Lüfter sind echt lauter als die der anderen. Das braust recht ordentlich. 75°C Open Benchtable sind nicht mehr rekordverdächtig und 1886 Mhz aufgewärmt mit 1.025V bei 102% PT max. eher Durchschnitt. AB gibt maximal 116% her, aber die Karte rennt permanent ins Power-Limit.

Das wäre mal ein Fall für einen fachmännisch gemachten Shunt-Mod, wäre da nicht die Lautsärke... Mit dem Brüll & Quer Handheld auf die Schnelle mal in 50cm Abstand knapp 41 dB(A) gemessen. :(

rentex
2017-04-25, 16:31:52
Ok, dann warten wir mal ab was das Review ergibt. In mir reift langsam die Erkenntnis, das Asus als einziger die Temps im Auge hatte. Ist den WT3, so fordernd, was den Gamingbetrieb angeht?

(del)
2017-04-25, 16:40:02
Naja, 70°C Open Benchtable schaffen andere bisher auch, bis auf die Palit.

Witcher 3 ist, an den richtigen Stellen (nicht nur Skellige) wirklich fies. Es bringt konstant nette Lasten und heizt dadurch auch fein alles auf. Sogar den Speicher :)

Nachteil: ich kann es (noch) nicht komplett scripten, bin aber froh, eine GoG-Version ohne DRM zu haben. Bei Metro habe ich die Runs ja mit den Scopes synchronisieren können. Bastelstunden folgen. es ist Mist, dass man erst durchs Menü und die Ladeintro der Szene muss, das vermurkst den Aufwärmvorgang.

rentex
2017-04-25, 17:20:52
Dann kann ich mir recht sicher sein, mit 5 Std. WT3 auf MAX (ohne Hairworks), das die Karte ihren Dienst tut.

rentex
2017-04-25, 18:03:00
Ja und Nein. Die VR ist gut gekühlt (Mehrstufen-Heatsink, bei dem man das Pad für die Caps weggelassen hat ;) ), die Lüfter sind nicht wirklich laut, aber so richtig leise ist es auch nicht. Die Lasttests stehen noch aus und ich gehe am Donnerstag mal in meine Chamber zum Audio-Messen.


Nachtrag:
Schöner RGB-Klimbim auf der Oberseite. Fiep-Fiep (lauter als bei MSI, Asus und Aorus) aber die Lüfter sind echt lauter als die der anderen. Das braust recht ordentlich. 75°C Open Benchtable sind nicht mehr rekordverdächtig und 1886 Mhz aufgewärmt mit 1.025V bei 102% PT max. eher Durchschnitt. AB gibt maximal 116% her, aber die Karte rennt permanent ins Power-Limit.

Das wäre mal ein Fall für einen fachmännisch gemachten Shunt-Mod, wäre da nicht die Lautsärke... Mit dem Brüll & Quer Handheld auf die Schnelle mal in 50cm Abstand knapp 41 dB(A) gemessen. :(

😳🙄

(del)
2017-04-25, 18:07:46
Die Palit macht eigentlich einen Guten, wären da nicht die grässlichen Lüfter verbaut. Mich juckt es echt in den Fingern, mal andere Module draufzupappen. Von Palit hätte ich noch ein paar Organspender hier ;)

rentex
2017-04-25, 18:26:57
Also zum Vergleich mit dem Super Jetstream Lüfter?!

Hübie
2017-04-25, 18:36:28
Wärste mal nach Kaiserslautern gekommen da hätteste auch was gelernt ;)
An was habt ihr da genau gearbeitet hört sich ja interessant an und wundert mich, dass Du in deinem Studium an so sensiblen Projekten mitwirken darfst.
Und nein es ging mir nicht um die MTBF des Systems. Das ist hier für die Beurteilung auch nicht von Bedeutung, es ging mir nur um die thermische Belastung und die damit verbundene schnellere Alterung der verbauten Teile.
Außerdem steht mein PC genau so wie der der meisten anderen User nicht im Weltraum und auch nicht in einem Feuchtbiotop. Mann kann hier also sehr wohl von Durchschnittswerten in Mitteleuropa ausgehen.

In der Tat ist mir das entgangen, ich hatte ihn so verstanden, dass er dort sass und sich nun anderen Aufgaben verschrieben hat. Ab und an aber wohl als Dienstleister in Anspruch genommen wird.



Nein das muss er auch nicht mehr der Rest geht in den Köpfen der Leute ab.
Und nein es dreht sich nicht um harte Fakten, sondern rein um Vermutungen denn wie du selbst geschrieben hast, kann und will keiner da eine Aussage treffen. Mann haut eine Info raus und lässt den Rest die uninformierten User zusammenreimen. Da ist nix mit Fakten außer den Temp-Werte die Igor vermessen hat und seine Erfahrung die mit eingeflossen ist. Außerdem geht es hier nicht nur um EVGA.

Ich bin mit dem was Igor weiter ausgeführt hat auch im Reinen. Wenn das Ganze auch für mich nur in wenigen Fragen eindeutige Aussage lieferte.z.B. die Temperatur des GDDR5X Speichers sollte 95°C nicht überschreiten( hier gibt micron, zumindest öffentlich, keine Tolleranzgrenze an).Der Rest bezieht sich viel auf Vermutungen was könnte wenn.
Es geht vieles darin unter, da Igor aufgrund seiner Erfahrung in der Industrie und seiner Außbildung gerne um das Kernthema herumschreibt. Ich unterstell ihm da keine Absicht ich neige in anderen Themen auch dazu außerdem ist das auch interessant und verschafft zumindest kleine Einblicke in die chaotische Welt der asiatischen Industrie:biggrin:.

Du als Wirtschafter solltest wissen, dass ein tausendfach verbautes Bauteil bei einem Euro Ersparnis ne Menge ausmacht. Die Heatpipes auf dem Bild schinden Eindruck, aber aus Sicht eines Ingenieurs der sich zumindest etwas mit Wärme-Diffusion auskennt, ergeben die keinen großen Sinn.

Beim DFKI bauten wir so einiges. Zum Beispiel eine Sonde die sich durch das Eis vom Mond Europa bohren bzw. schmelzen soll um den darunter vermuteten Ozean zu untersuchen:
"Die NASA plant derzeit die Mission Europa Clipper mit dem Starttermin 2020. Geplant sind mehrere Vorüberflüge an Europa, durch die detaillierte Bilder der Mondoberfläche gesammelt werden sollen. Auch eine Schmelzsonde, die sich durch den Eismantel bohren soll, könnte Teil der Mission sein: Mehrere wissenschaftliche Einrichtungen wie das Deutsche Zentrum für Luft- und Raumfahrt (DLR) arbeiten derzeit an entsprechenden Prototypen."

Auszug von Wikipedia.
Über andere Projekte wie von BMW darf ich nicht sprechen. ;)

Niall
2017-04-25, 19:03:25
So, habe gerade mal auf die Schnelle nachgesehen.

Stock, also ohne Anpassungen rennt sie mit konstanten 1911 MHz bei ebenfalls konstanten 1,025 V (Geht ab und an eine Spannungsstufe runter, aber sehr selten).

PT Erhöhung auf 120% bringt weder eine automatische Erhöhung der Spannung, noch des Takts.

Ziehe ich den Takt um 150 MHz hoch, rennt sie mit 2050MHz und immer noch 1,025V sauber durch. Ist das jetzt ein gutes Stück GPU oder nicht? Hab gerade die Vergleichswerte nicht im Kopf) :D

Btw. bewirkt die Spannungsanhebung +100 nüscht - das liegt aber ja an der "normalen" AB Version, richtig? =)

(del)
2017-04-25, 19:15:05
Welche Karte? Schon wieder vergessen... Sorry.

Mehr Takt bekommst Du erst einmal gratis über niedrigere Temperaturen. 2050 MHz bei normalen Temps ohne Zusätze sind sicher nicht schlecht.
Kannst ja mal mit GPU-Z loggen und schaun, was beim Limit steht (Zahl)

Kodierung steht z.B. hier:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10673972&postcount=5
Achtung, das ist ggf. Bit-weise kodiert, z.B. 12 ist 8 und 4 auf einmal

Angiesan
2017-04-25, 19:23:15
Du als Wirtschafter solltest wissen, dass ein tausendfach verbautes Bauteil bei einem Euro Ersparnis ne Menge ausmacht. Die Heatpipes auf dem Bild schinden Eindruck, aber aus Sicht eines Ingenieurs der sich zumindest etwas mit Wärme-Diffusion auskennt, ergeben die keinen großen Sinn.


Aufgrund deiner Antwort verstehe ich meinen Beitrag nicht mehr ;-) Mal im ernst, was hat das damit zu tun? Oder meinst Du die kleine HP auf der Ti ? Dazu habe ich doch nur geschrieben, dass Igor die wohl noch nicht in der Hand hatte bzw. noch nicht testen konnte. Aber lass uns das doch gerne mal wieder im TS belabern sonst wird das zu ot :-)

TurricanM3
2017-04-25, 19:34:01
Jetzt wurde sogar entdeckt, dass die Karte mehr Boost anlegt, wenn man das Voltage-Offset erhöht und dahingehend laut Tools auch was ankommt. Das ist zum einen nichts neues und zum anderen genau das was ich nicht meinte. Schade, aber ich hatte sowas schon erwartet. Macht auch keinen Sinn weiter auf widersprüchliche Aussagen (um es mal diplomatisch zu sagen) einzugehen, es wird sowieso wieder bewusst überlesen oder gar nicht drauf eingegangen.

Niall
2017-04-25, 19:56:54
Welche Karte? Schon wieder vergessen... Sorry.

Mehr Takt bekommst Du erst einmal gratis über niedrigere Temperaturen. 2050 MHz bei normalen Temps ohne Zusätze sind sicher nicht schlecht.
Kannst ja mal mit GPU-Z loggen und schaun, was beim Limit steht (Zahl)

Kodierung steht z.B. hier:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10673972&postcount=5
Achtung, das ist ggf. Bit-weise kodiert, z.B. 12 ist 8 und 4 auf einmal

1080ti FE unter Wasser. ;)

24p
2017-04-25, 20:14:28
Habe jetzt die Auorus xtreme. Und naja, ich schaffe es nicht Firestrike zum Durchlaufen zu bringen. Alles@Stock, aber da kommt dann tw. schon ohne dass der Banchmark startet "Abbruch durch Nutzer".

W3 ging aber erstmal, ist aber im OC-Mode auch früh gecrashed.

scully1234
2017-04-25, 20:20:29
zurück an den Absender damit, wenn die out of the Box schon crasht

(del)
2017-04-25, 20:39:42
Habe jetzt die Auorus xtreme. Und naja, ich schaffe es nicht Firestrike zum Durchlaufen zu bringen. Alles@Stock, aber da kommt dann tw. schon ohne dass der Banchmark startet "Abbruch durch Nutzer".
W3 ging aber erstmal, ist aber im OC-Mode auch früh gecrashed.

Setze mal spaßeshalber das PT um wenigstens 10-15% hoch. Gigabyte steigt mit den Base-Clocks für meinen Geschmack viel zu hoch ein für 250W Standard-PT. Kann gut gehen, muss aber nicht. Keine Ahnung, warum man nicht bei 275 Watt eingestiegen ist. Scheinbar ist die visuelle Selektion nach der Insertion Line doch nicht perfekt umgesetzt worden.

Darkman]I[
2017-04-25, 20:42:23
Ich bin mittlerweile verunsichert was die GTX 1080 Ti angeht.

Meine Gedanken

Founders Edition:
- zu laut
- zu heiß
- zu teuer

Custom Varianten:
- auch heiß
- teilweise Stabilitätsprobleme
- groß, schwer (hab wenig Platz im Gehäuse)

Ich habe zwar die MSI GTX 1080 Ti Gaming X bei Amazon für 753 € vorbestellt, jedoch liebäugele ich mit der EVGA GTX 1080 Ti SC2.

Diese scheint eine vernünftige Kühlung zu haben, der Chip wird nicht komplett ausgequetscht, vernünftige Leistungsaufnahme (und somit Abwärme) und sie passt locker überall rein durch das Dual Slot Design.

MiamiNice
2017-04-25, 20:44:41
So, habe gerade mal auf die Schnelle nachgesehen.

Stock, also ohne Anpassungen rennt sie mit konstanten 1911 MHz bei ebenfalls konstanten 1,025 V (Geht ab und an eine Spannungsstufe runter, aber sehr selten).

PT Erhöhung auf 120% bringt weder eine automatische Erhöhung der Spannung, noch des Takts.

Ziehe ich den Takt um 150 MHz hoch, rennt sie mit 2050MHz und immer noch 1,025V sauber durch. Ist das jetzt ein gutes Stück GPU oder nicht? Hab gerade die Vergleichswerte nicht im Kopf) :D

Btw. bewirkt die Spannungsanhebung +100 nüscht - das liegt aber ja an der "normalen" AB Version, richtig? =)


Hab gerade auch bei mir nachgesehen, ebenfalls FE unter Wasser.
Default festgetackert bei 1911 Mhz und 1,062 V.
PT hoch ziehen bringt auch gar nichts.
Takt 150Mhz nach oben bringt 2050Mhz und 1,062 V.
Spannung hat ebenfalls kein Effekt bei mir.

Deine Karte ist wohl leicht besser.

€: Wenn ich das PT nicht anhebe mit 150Mhz + schwankt der Takt leicht zwischen 2037 und 2050.

(del)
2017-04-25, 20:50:06
@Darkman]I[
Nun ja, es wird immer etwas geben, was nicht passt. Muss es denn wirklich die 1080 Ti sein oder geht es eine Nummer kleiner? Mit bis 100 Watt weniger kann man schon deutlich kompakter, kühler und leiser unterwegs sein ;)

MiamiNice
2017-04-25, 20:51:34
Ups ^^

(del)
2017-04-25, 20:52:39
Hab gerade auch bei mir nachgesehen, ebenfalls FE unter Wasser.
Default festgetackert bei 1911 Mhz und 1,062 V.
PT hoch ziehen bringt auch gar nichts.
Takt 150Mhz nach oben bringt 2050Mhz und 1,062 V.
Spannung hat ebenfalls kein Effekt bei mir.

Deine Karte ist wohl leicht besser.

€: Wenn ich das PT nicht anhebe mit 150Mhz + schwankt der Takt leicht zwischen 2037 und 2050.

Wie warm/kalt ist die Karte? Kommst Du unter 40°C mit der GPU? Dann sollte es schon noch einen Tick höher gehen. Aber ein Glücksfall ist sie offensichtlich nicht.
MiamiNice hat eine bessere GPU-erwischt, oder bekommt sie signifikant kühler.

MiamiNice
2017-04-25, 20:55:08
37° max hat die Karte bei 400rpm auf den Lüftern.
Wenn ich noch 10 - 20 Mhz mehr gebe, stürzt der Treiber ab.
Ich bekomme die Karte auf 33° wenn ich die Lüfter an den Radis maxe, aber mehr Takt bekomme ich nicht raus.

(del)
2017-04-25, 20:56:16
Hmm, dann wirds sicher nicht viel mehr. 37°C sind ok. Bei 2050 siehst Du im logfile welche Limits? Power oder Voltage?
Die FE ist mit den 116% eher limitiert, wenn man nicht gerade ein Riesen-Glück hat.

MiamiNice
2017-04-25, 20:58:50
Das ist das kuriose, es wird kein Limit angezeigt. Sie könnte also noch weiter boosten, tut sie aber nicht. Schaue allerdings im Furmark, welches Logfile meinst Du?

Darkman]I[
2017-04-25, 20:59:33
@ Format_C: Ja es muss eine 1080 Ti werden :D Ich habe die 1080 Super JetStream vor einer Woche bei ebay verkauft ;D

Spiele in 4K, brauche daher jegliche Leistung.

Niall
2017-04-25, 21:13:11
MiamiNice hat eine bessere GPU-erwischt, oder bekommt sie signifikant kühler.

Huh? Meine läuft doch bei gleichem Takt mit weniger Spannung. Temperatur lag beim Test um 37°C.

(del)
2017-04-25, 21:13:26
Das ist das kuriose, es wird kein Limit angezeigt. Sie könnte also noch weiter boosten, tut sie aber nicht. Schaue allerdings im Furmark, welches Logfile meinst Du?
Lass mal nebeher das Log von GPU-Z laufen. Furmark ist nicht sonderlich geeignet. Schön Witcher 3 laufen lassen bis die Karte ein paar Minuten die volle Temperatur hat. Mit dem AB kannst Du sogar ein OSD nutzen und loggen lassen. Vorteil: die Limits werden als Begriff und nicht codiert angezeigt

Huh? Meine läuft doch bei gleichem Takt mit weniger Spannung. Temperatur lag beim Test um 37°C.

Sorry, dann habe ich Euch und die ganzen Quotes mal wieder verwechselt. Ich sitze seit heute früh 5:30 im Labor -> Banane im Kopp :(


BTW:
Palit hat die Lüfter versemmelt. So richtig. An sich ist der Kühler nämlich echt nicht schlecht. Lüfterkaskaden, wie auch immer, sind in dieser Anordnung recht planlos, vor allem mit so einem riesigen Mittelsteg, der voll im Airflow hängt. Das R&D meinte ja noch, TPU würde falsch gemessen haben - was völliger Nonsens ist, ich vertraue W1zard. Und meinen Ohren. Zu wenig Druck nach unten bei zu viel Lärm. Die ganze Rotorgeometrie ist albern.

Niall
2017-04-25, 21:20:15
Sorry, dann habe ich Euch und die ganzen Quotes mal wieder verwechselt. Ich sitze seit heute früh 5:30 im Labor -> Banane im Kopp :(


Kein Problem, hatte ich mir insgeheim gedacht. :D

MiamiNice
2017-04-25, 21:22:36
Wenn Du die Spalte "PerfCap Reason" meinst die steht bei mir konstant auf 0.

Date , GPU Core Clock [MHz] , GPU Memory Clock [MHz] , GPU Temperature [°C] , Fan Speed (%) [%] , Fan Speed (RPM) [RPM] , Memory Used [MB] , GPU Load [%] , Memory Controller Load [%] , Video Engine Load [%] , Bus Interface Load [%] , Power Consumption [% TDP] , PerfCap Reason [] , VDDC [V] ,
2017-04-25 21:17:02 , 2075.5 , 1377.0 , 37.0 , 25 , 0 , 901 , 100 , 65 , 0 , 0 , 97.2 , 0 , 1.0620 ,

(del)
2017-04-25, 21:25:19
Wenn das stabil ist, schaut es doch gut aus. Bei 97.2% PT sollte sie kaum groß über 250 Watt lutschen. PT mal auf 116% gesetzt? Für Witcher 3 wäre das recht nice. Bist doch fast schon bei 2.1 GHz ohne großes Rumgehampel.

MiamiNice
2017-04-25, 21:29:39
Ja ... :biggrin:
Aber wenn mehr ginge wäre auch nicht schlecht. Am NT springt bei der Last nicht mal der Lüfter an und die Wakü langweilt sich auch. Also es wäre noch reichlich Luft im restlichen System für ein paar Mhz, Watt und ° mehr.

(del)
2017-04-25, 21:30:20
Was hast Du im Tool eingestellt?

(ich mach mich mal vom Acker, muss in die Wohnung)

MiamiNice
2017-04-25, 21:32:38
https://abload.de/thumb/amaq9y.png (http://abload.de/image.php?img=amaq9y.png)

Glaube ohne Volt Mod geht da nicht mehr.

24p
2017-04-25, 21:35:54
Setze mal spaßeshalber das PT um wenigstens 10-15% hoch. Gigabyte steigt mit den Base-Clocks für meinen Geschmack viel zu hoch ein für 250W Standard-PT. Kann gut gehen, muss aber nicht. Keine Ahnung, warum man nicht bei 275 Watt eingestiegen ist. Scheinbar ist die visuelle Selektion nach der Insertion Line doch nicht perfekt umgesetzt worden.

Habe ich gemacht. W3 läuft dann erstmal. Firestrike Ultra immee noch nicht. Auch nicht @Stock und PT auf 125%. Erst als ich mal den Takt offset aufs Minimum gesetzt habe (ca 1340MHz basis dann) lief es durch.
Btw, mein BIOS dort hat offenbar 300W PT. Im Aurus Tool gab es dann auch nur bis 125% auszuwählen. Per nvidia-smi.exe -q -d power konnte ich das auch verifizieren, PT 300 ist da standard.

(del)
2017-04-25, 21:36:37
MiamyNice:
Nimm mal den aktuellen AB. Aber nicht das Micky-Maus-Design. Ich hatte beim Launch-Review mit dem Precision nur Stress.

Habe ich gemacht. W3 läuft dann erstmal. Firestrike Ultra immee noch nicht. Auch nicht @Stock und PT auf 125%. Erst als ich mal den Takt offset aufs Minimum gesetzt habe (ca 1340MHz basis dann) lief es durch.
Btw, mein BIOS dort hat offenbar 300W PT. Im Aurus Tool gab es dann auch nur bis 125% auszuwählen. Per nvidia-smi.exe -q -d power konnte ich das auch verifizieren, PT 300 ist da standard.
Interessant, dann habe ich ein anderes BIOS. Kannst Du bitte mal die Version schicken? bei mir geht das PT von 100% bis 150% (Afterburner).
Ich kontaktiere morgen mal den Platinen-Willi von GB, der sollte das ja wissen. Der R&D-Chef ist seit heute wieder in Dongguan. Schlecht mit Skype :D

Notfalls Karte zurück zum Verkäufer. Du hast echt wohl echt eine GPU-Niete erwischt.

24p
2017-04-25, 21:42:14
Sorry, aber ich habe die Karte leider schon ausgebaut. :(
Per googlesuche scheinen aber zwei Varianten im Umlauf zu sein.
http://www.gigabyte.us/Graphics-Card/GV-N108TAORUS-X-11GD#support-dl

Meines dürfte dann das F3 gewesen sein.

Ich könnte natürlich das F4 flaschen (da ist die Rede von erhöhter Stabilität), aber irgendwie habe ich da nichg wirklich Lust drauf. Wenn man mak ein wenig im Netz liest tauchen einige mit Stabilitätsproblemen auf. Im Thread von reddit bei der suche nach den Biosversionen ist auch einer, bei der auch Stock nicht stabil ist. Schade.


Edit:

Oha, hier: http://www.overclock.net/t/1627238/gigabyte-aorus-geforce-gtx-1080-ti-owners-thread/90 melden sich so einige mit Stabilitätsproblemen. Da scheint wohl etwas im Frgen zu liegen.

Slipknot79
2017-04-25, 22:26:29
Im Thread von reddit bei der suche nach den Biosversionen ist auch einer, bei der auch Stock nicht stabil ist. Schade.



Garantiefall und gut. :cool:

crs2601
2017-04-25, 23:00:11
Edit:

Oha, hier: http://www.overclock.net/t/1627238/gigabyte-aorus-geforce-gtx-1080-ti-owners-thread/90 melden sich so einige mit Stabilitätsproblemen. Da scheint wohl etwas im Frgen zu liegen.

Gehöre ja auch dazu, bei mir läuft die Karte zumindest Stock - nur der OC-Mode möchte nicht. Zumindest nicht über einen längeren Zeitraum.

Jetzt stelle ich mir auch die Frage, ob ich tausche... schickst du deine zurück? Wollte eigentlich unbedingt eine Aorus oder ich weiche doch auf die Asus aus. Naja und von Amazon bekomme ich noch die MSI Gaming X :D

Welche Temps hast du unter Last?

Mistersecret
2017-04-26, 01:34:05
Also mir scheint mom. am interessantesten die Zotac AMP (normal, mit 2 Lüftern) und die Inno3D X3. Letztere hat auf Luxx eine super Bewertung abbekommen. Nur zur AMP habe ich noch nichts gesichtet. Die AMP Extreme hingegen wurde ja schon ausgiebig getestet... Leider ist sie nur etwas zu lang für mein Gehäuse.... :(

(del)
2017-04-26, 06:24:44
So, ich habe heute früh mal direkt bei Gigabyte auf dem kleinen Dienstweg angefragt, weil mich das mit den unterschiedlichen Power Targets gewundert hat.

250W is our marketing strategy for concerning accoustic & temperature. We also provide 300w TGP BIOS at our website for power user. I will have our RMA to contact the user. F3 BIS means 300W PT, F4 means 250W and is more stable

Du hast ein F3 BIOS out of the box, oder selbst geflasht? Der Witz ist übrigens, dass diese BIOSe regional unterschiedlich verteilt werden. Die eher geräuschempfimdlichen Europäer bekommen F4, die Presse komplett auch. Für Asien hat man z.B. das F3 ab Werk, weil die andere Dinge präferenzieren. MSI macht übrigens das Gleiche, bei Asus weiß ichs nicht. Ich würde echt mal F4 testen, denn dieses BIOS ist deutlich neuer und bei mir rennt die Karte wie Hanne.

BIOS-Downloads
http://www.gigabyte.com/Graphics-Card/GV-N108TAORUS-X-11GD#support-dl

Ich habe zwar Null Bock, für GB hier den Support zu spielen, weil dafür andere Geld bekommen, aber falls jemand gröbere Probleme bekommt, kann ich sicher helfen. Den vier Käufern der 1080 Waterfoce konnte ich damals auch helfen. Einfach PN mit Kontakdaten, ich gebe es direkt ans HQ und den deutschen Verteiler weiter. Händler sind wie Sirup. Zäh und langsam.

24p
2017-04-26, 06:38:55
Das F3 war bei mir ab Werk.
Was die Stabilität angeht bin ich mir echt nicht sicher, ob es das hersusreist, wenn die Karte schon Stock instabil läuft. Ich

(del)
2017-04-26, 07:01:02
Das F3 ist ein Drecksbios. Flash einfach mal F4 und guck, was passiert. Da musst Du echt eine von den allerersten bekommen haben.
It's our fist shipment. and the other shipmnets are already changed to F4.
Aber beeil Dich, die Taiwanesen sind 6 Stunden voraus. Irgendwann haben die dann auch mal Feierabend (so gegen 11 Uhr) und dann pinge ich keinen mehr an :)

Typische Early Adaptor Kacke. Wie immer. :)

BT - kleine Randnotiz:
Heute früh mal länger gechattet, nicht mal die Boardpartner können die BIOSe einigermaßen frei designen. Die haben ein spezielles Tool von NV, wo sie ein paar wenige Register für eigene Vorgaben (Lüfter, PT, Takt etc) ändern können, aber auch dann gilt, sobald etwas geändert wird, muss es von NV geprooft werden. Einige Register sind frei, bei anderen muss das BIOS von NV wieder nach den Änderungen explizit freigeschaltet werden, sonst lässt es sich nicht flashen. Immer dann, wenn Änderungen mit gleicher BIOS-Versionsnummer kommen, hat NV das neue BIOS nie gesehen. Aber das geht nur bei Schnulli wie Lüfterkurven. Bei den Spannungen herrscht jedoch eisiges Schweigen. ;)

NVIDIA secured the BIOS and don't tell us which are the register to change VR4+ votls. NVIDIA strongly control everything. Once AIB partner don't follow the rurle, he will be punished by NV... It's a serious GPU RMA issue. NV wants fo lower the return rate...

Hübie
2017-04-26, 07:22:40
Also mir scheint mom. am interessantesten die Zotac AMP (normal, mit 2 Lüftern) und die Inno3D X3. Letztere hat auf Luxx eine super Bewertung abbekommen. Nur zur AMP habe ich noch nichts gesichtet. Die AMP Extreme hingegen wurde ja schon ausgiebig getestet... Leider ist sie nur etwas zu lang für mein Gehäuse.... :(

Na wenn Luxx das sagt, muss es ja stimmen... NOT! X-D Das ist Ref-Design mit anderem Kühler eines Unternehmens, welches kaum R&D betreibt und einen mittelmäßigen Support hat. Die Reserven dürften auch nicht allzu groß sein. ;) Nehm lieber etwas mehr Geld in die Hand. Ich würde dir MSI und ASUS empfehlen. Gigabyte ist in meinen Augen immer der Verwurster unter den großen und das bestätigt sich immer wieder (siehe auch deren X370 Boards... Mein Bro verzweifelte -> RMA).

Edit: Sorry du meinst die X3. Die hat natürlich mehr Reserven als die X2. Ist aber auch nicht optimal (allein wie zugeklebt die Lüfter oben sind... :rolleyes:). Hat der VRM-Kühlkörper mittlerweile Kontakt zum großen Kühlkörper???

24p
2017-04-26, 07:38:29
Gehöre ja auch dazu, bei mir läuft die Karte zumindest Stock - nur der OC-Mode möchte nicht. Zumindest nicht über einen längeren Zeitraum.

Jetzt stelle ich mir auch die Frage, ob ich tausche... schickst du deine zurück? Wollte eigentlich unbedingt eine Aorus oder ich weiche doch auf die Asus aus. Naja und von Amazon bekomme ich noch die MSI Gaming X :D

Welche Temps hast du unter Last?

Weiß ich nicht mehr so genau. Waren afaik in W3 75 Grad, aber da habe ich das PT auch testweise auf max. gestellt gehabt.
Bin mir immer noch nicht sicher, was ich nun mache. Der Punkt ist, dass das BIOS-Flashen auch nicht so ganz trivial zu sein scheint aufgrund der 2 BIOSe die man je nachdem an welchem Anschluss der Monitor steckt flashen muss (hdmi und DVI). Dummerweise nutze ich DP und hdmi (für mein Heimkino) und keiner weiß, welches von den beiden BIOSsen ich da flashen muss. Wahrscheinlich muss ich dann für beide Ausgänge jeweils das F4 flashen, damit ich überall das F4 BIOS habe. Das wird mir, je mehr ich da lese (gibt Leute bei denen die Karte auch mit dem F4 nicht stabil läuft) langsam zu nervig.
Da ich die Karte u.a. mit Hinblick aufs geplante lange WE (wo ich viel Zeit für mich habe) gekauft habe, werde ich es dann auch erst mal lassen mit dem Graka-Kauf, da dann erst mal ein wenig Zeit ins Land geht bis ich wieder ausgiebig zocken werde.

(del)
2017-04-26, 07:56:39
Der Punkt ist, dass das BIOS-Flashen auch nicht so ganz trivial zu sein scheint aufgrund der 2 BIOSe die man je nachdem an welchem Anschluss der Monitor steckt flashen muss (hdmi und DVI). Dummerweise nutze ich DP und hdmi (für mein Heimkino) und keiner weiß, welches von den beiden BIOSsen ich da flashen muss.
Nene.... Nimm bitte das VGA@BIOS Utility von der Gigabyte Seite.

Ich habe gerade mal spaßenshalber auf F3 geflasht, da steckt laut GB auch ein anderes Source-BIOS von Nvidia drin. Der Anschlus war sowas von Rille (Displayport für F3, HDMI für den Rückflash auf F4). Wenn Du Pech hast, bekommst Du somit auf einer anderen Karte das gleiche BIOS-Problem wieder.

Die Karte hat zwei 4-Line DisplayPort-/HDMI-Video-Switche von PERICOM verbaut (PI3WVR12412), weil man ja mehr Anschlüsse bietet, aber doch keine 2 BIOSe. [Doch mal geirrt, siehe unten]

Kann aber sein, dass Du beim Flashen an bestimmten Ausgängen mal kurzzeitig nichts siehst. Aber das ist normal.

Alle Hersteller, deren frühe BIOSe auf NV's 86.02.39.00.50 oder älter basieren, haben offensichtlich sehr ähnliche Probleme. Meine Karte mackt mit dem F3 auch im OC-Mode. Vergiss aber nicht, vorher das Original-BIOS wenigstens einmal zu sichern.

24p
2017-04-26, 08:08:14
OK, nur finde ich leider kein VGA@BIOS Tool, welches die 1080 Ti unterstützt. Die Versionen, die ich finde unterstützen irgendwie nur ATi-Krams.
Ich steige auch immer noch nicht so wirklich durch mit den 2 BIOSen. Leider kommt es bei mir auch mal vor, dass ich zB nur mit hmdi starte (aber iDR mit DP). Da muss ich dann evtl. 2x Flashen. Gigabyte hat sich da echt keinen Gefallen getan mit dieser Art DualBIOS und vor allem mit der Auslieferung der Karte.

(del)
2017-04-26, 08:39:22
Habs gerade im GB R&D nachgefragt... Da hast schon Recht mit den Ausgängen, denn die haben ja auch die zwei PERICOM Chips drauf. Dass es bei mir geht, liegt an der Verschaltung von HDMI und Display-Port. Der DVI ist wohl separat und der Front-HDMI auch.
We have to cover 2 sets I/O with the different TGP. It's a bit tricky

Ich schreib Dir später die Antwort, muss erst mal schnell ins andere Labor fahren. Deine Frage steht dort im Chat. Ich hab auch wegen des Tools nachgefragt.

Update:
We don't have the flash guide & flash tool on our website? Our mistake, we will fix it soon. We will give you a guide and tool first
Die haben das so konfus zusammengebaut, dass jetzt die einzelnen R&D-Leute und die PR zusammensitzen, die dann ja noch den Webdesigner instruieren müssen. :D

BIOS-TOOL und BIOS
Das F4-BIOS zusammen mit dem Tool: Download (http://download.gigabyte.eu/FileList/BIOS/vga_bios_n108taorus_x-11gd_f4.zip)
Das F3-BIOS zusammen mit dem Tool: Download (http://download.gigabyte.eu/FileList/BIOS/vga_bios_n108tax.F3.zip) (Nicht empfohlen)

http://media.bestofmicro.com/X/9/672525/original/BIOS-Flash.jpg

Der Guide ist im ZIP mit dabei.

24p
2017-04-26, 08:55:21
Schon geschehen. Ich hoffe ja immer noch, dass die Karte dann läuft (im Gaming-Mode, der OC-Mode ist mir erst mal egal) und nicht, dass ein Defekt vorliegt. ;(

edit:

Das heißt also in meiner betriebenen Kombo, dass ich per Adapter (für DVI) und dann nochmal per hdmi flashe, um für alle Ausgänge das F4 BIOS zu haben?

crs2601
2017-04-26, 09:24:48
Hatte mehrmals probiert über das Aorus-Tool ein neues BIOS zu laden, da stand jedoch es gäbe keins. Muss meine Karte mal zwecks aktuellem BIOS checken.

Das geht am Besten über die Konsole?

UdoG
2017-04-26, 09:26:20
Du kannst mit GPU-Z prüfen, welche BIOS Version Du installiert hast. Einfach dann die Version mit den Versionen bei Gigabyte vergleichen. Bei meiner 1080TI war auch das F3 "ab Werk" drauf.

Hier:

BIOS Version: 86.02.39.00.50 = F3
BIOS Version: 86.02.39.00.9E = F4

24p
2017-04-26, 09:31:39
@crs2601

Geht denn bei dir das PT auf 125% oder 150%?
Bei ersterem hast du das F3 BIOS. Wäre auf für mich mal interessant zu wissen, welches BIOS du hast.

BTW, das mit dem über längerem Zeitraum nicht laufenden OC-Modus bei dir ist ja wenigstens was. Bei mir schmiert die Karte im Spiel im OC-Mode sofort ab bei 100 PT. Erst bei 125% läuft es erst mal, aber eben noch nicht stabil im Firestrike.

crs2601
2017-04-26, 09:34:43
@crs2601

Geht denn bei dir das PT auf 125% oder 150%?
Bei ersterem hast du das F3 BIOS. Wäre auf für mich mal interessant zu wissen, welches BIOS du hast.

BTW, das mit dem über längerem Zeitraum nicht laufenden OC-Modus bei dir ist ja wenigstens was. Bei mir schmiert die Karte im Spiel im OC-Mode sofort ab bei 100 PT. Erst bei 125% läuft es erst mal, aber eben noch nicht stabil im Firestrike.

Also Firestrike oder ähnliches ist kein Problem, da geht sie ohne zu Meckern durch im OC-Mode. Ich bekomme nur Fehler wenn ich zocke, meist so nach 20-30 Min. wenn die Karte ein wenig Temperatur hat... :freak:

Von gestern: http://www.3dmark.com/fs/12446270

Ist halt auch nur ein Core-Takt von 1.987 MHz. Meine alte 1080 Xtreme hatte im OC-Mode einen Core-Takt von 2.025 MHz.

24p
2017-04-26, 09:38:23
Bei mir stürzt Firestrike so schnell ab, dass die Karte gar nicht erst warm wurde. ;)
Superposition lief hingegen mehrmals durch und hat auch gut geheizt, aber dass muss ja nichts heißen, wenn 3DMark (auch die anderen Benches dort liefen nie durch) so schnell crasht ist irgendwas im Argen. Am Sys liegt es nicht, habe gestern meine "alte" Palit SJS 980Ti eingebaut - läuft durch wie eh und je.
Sag' nochmal bis wohin bei dir das PT geht im Aorus Tool?

edit:

Ich bin mir nicht sicher, aber ich glaube, dass ich die paar Male wo der Firestrike für kurze Zeit lief der Core-Takt auch in der Region bei mir war, aber ohne OC Mode und auch sonst alles auf Stock. Klar, beim F3 BIOS läuft die Karte dann @100% PT mit 300W, aber wie gesagt ist das trotzdem nicht stabil.

crs2601
2017-04-26, 09:55:37
Sag' nochmal bis wohin bei dir das PT geht im Aorus Tool?

edit:

Ich bin mir nicht sicher, aber ich glaube, dass ich die paar Male wo der Firestrike für kurze Zeit lief der Core-Takt auch in der Region bei mir war, aber ohne OC Mode und auch sonst alles auf Stock. Klar, beim F3 BIOS läuft die Karte dann @100% PT mit 300W, aber wie gesagt ist das trotzdem nicht stabil.

Wegen dem PT muss ich heute Abend mal schauen, kann jetzt leider nicht an den PC.

Also Firestrike zeigt im OC/Stock-Mode den gleichen Wert an, immer 1.987MHz. Nur der Speichertakt zeigt eine Veränderung an.

24p
2017-04-26, 10:14:34
Ich habe mal gestern auch den Owners-Thread im Overclock.net Forum durchgeblättert. Da haben sehr viele User ein Problem zumindest im OC-Mode und einige auch im Stock. Das sind auch User, die zB von der normalen Aorus auf die Extreme gewechselt sind (wegen der Instablität) und dann feststellen musste, dass die Extreme ebenso im OC-Mode crasht.
Das sieht irgendwie schon sehr seltsam aus.

(del)
2017-04-26, 10:27:42
F3 BIOS geht von 300 bis 375 Watt
F4 BIOS geht von 250 bis 375 Watt

Superposition ist Pillepalle, da gehen im sogenannten Stresstest maximal 80-85% der Leistungsaufnahme von Witcher 3 raus. Reichlich untauglich also.

Was das Aorus-Tool betrifft:
Ich halte die Presets des OC-Mode für Nonsens. F4-BIOS drauf. Dann einfach mal das Ding auf Default lassen oder besser deinstallieren, den Afterburner schnappen, PT auf Maximum (die 375 W erreicht das Teil eh nie, die Limits kommen schon bei ca. 345 Watt) und gucken was passiert. Die Karte sollte auch ohne (!) manuelle Taktanhebung schon deutlich höher boosten. Ich kann bei meiner auch nur noch max. 20 MHz Takt mit Luftkühler dazugeben (sonst crash es), liege dann aber bei 2088 MHz im kühlen Zustand (die bei voller Erwärmung nicht mehr gehalten werden). Aber 2050 MHz sind immer drin. Bitte übertaktet mal manuell und zunächst nur über das PT und ggf. Voltage (funktioniert nur zusammen mit dem höheren PT beim F4 BIOS). Dann erst mit den Clocks spielen.

24p
2017-04-26, 10:40:39
OK, das erste Ziel ist es heute Abend erst mal, dass die Karte auf Default läuft und dann schaue ich evtl weiter. "Dank" des F3 geht es ja im W3 schon Stock und @100% PT auf 1980 hoch (geht aber dann ab und an mal auf 1900 runter). Läuft da aber "stabil". Erstaunlich ist, dass Firestrike Ultra (und der ganze Rest vom 3DM) so empfindlich ist, dass der Absturz sehr früh kommt und die Karte noch nicht richtig warm ist. Takt war dort beim Absturz afaik ca 1980MHz.
Die Tatsache, dass da im Netz ein HAufen Leute herumschwirren, bei denen die Karte nur im Silentmode (ca 1800MHz) läuft lässt mich ja hoffen, dass es ein BIOS-Problem ist. So viele Nieten können die doch gar nicht verkauf haben, vor allem da es ja bis dato recht wenig Karten sind, die im Umlauf sind.

(del)
2017-04-26, 10:46:15
Du hast zwei PNs. Im Zweifelsfall gibt's Fast-Support (also schnell und nicht ein bisschen) ;)

Du bekommst einen echten Swap, also RMA direkt über DHL und Headquarter (Details später über PN). Die hätten die Karte gern selbst im R&D zum Testen, denn nach mittlerweile über 30 Karten ist der Liu fast am Abkotzen. Es war in Dongguan nämlich bisher nichts reproduzierbar. Egal ob nun Firestrike, Witcher 3 oder Furmark. Das ist aber eine absolute Ausnahme. Die anderen müssen über Hamburg, aber da geht sicher auch was zu Beschleunigen. Ich bin ja nicht deren Sklave. :P

Wenn mehrere zehtausend Karten geshipt wurden, ist das Nadel-im-Heuhaufen-Feeling. :D

crs2601
2017-04-26, 11:32:46
Du hast zwei PNs. Im Zweifelsfall gibt's Fast-Support (also schnell und nicht ein bisschen) ;)

Du bekommst einen echten Swap, also RMA direkt über DHL und Headquarter (Details später über PN). Die hätten die Karte gern selbst im R&D zum Testen, denn nach mittlerweile über 30 Karten ist der Liu fast am Abkotzen. Es war in Dongguan nämlich bisher nichts reproduzierbar. Egal ob nun Firestrike, Witcher 3 oder Furmark. Das ist aber eine absolute Ausnahme. Die anderen müssen über Hamburg, aber da geht sicher auch was zu Beschleunigen. Ich bin ja nicht deren Sklave. :P

Wenn mehrere zehtausend Karten geshipt wurden, ist das Nadel-im-Heuhaufen-Feeling. :D

Ich hatte es bisher über die Facebook-Seite von Aorus gemacht, zwecks Fiepen of Doom und Abschmieren meiner ersten 1080 im OC-Mode. (kam nur nicht viel bei raus) Letztendlich lief der Austausch problemlos über Caseking, jedoch wurde mir über Facebook zwecks Garantie weitergeholfen.

Werde heute Abend mal alles ausprobieren, F3 BIOS und Default bzw. selbst hand anlegen. Auch wenn die mit Stock läuft nervts mich trotzdem, dass die im OC-Profil abschmiert. Wenn die wirklich net mehr als Boost 1.987MHz macht, hab ich dann nen OC-Krüppel ja?

Viel Erfolg @24p das nach dem vermeintlich anstehenden Austausch alles klappt :D

24p
2017-04-26, 11:37:15
Die Hoffnung ist ja, dass nach dem Flash auf F4 alles Paletti ist. :D

(del)
2017-04-26, 11:42:38
@crs2601
Bitte auf F4 flashen, das F3 ist Müll. Ich habe hier ein frühes MSI-BIOS der Gaming X, das hat ähnliche Issues. Die erste Karten wurden in Asien mit höheren Settings ausgeliefert und schmierten auch sporadisch ab.

Kleiner Tipp für MSI-Freunde:
Die BIOS-Varianten auf der China-Seite sind manchmal deutlich schärfer. Gleiche Versionsummer, aber meist höherer Takt und aggressivere Lüfterkurven. Anderes Klima und andere Vorlieben eben. Nur mal so am Rand. Die Beta-BIOSe findet man bei Gigabyte übrigens auch nur auf der Taiwan-Seite :)

@p24:
Gigabyte würde trotzdem gern die Karte untersuchen und den Ursachen auf die Spur kommen. Ich bin mir sicher, dass man Dir eine gründlich getestete Karte aus dem Werk schicken wird ;)

Darkman.X
2017-04-26, 12:12:22
Alle Hersteller, deren frühe BIOSe auf NV's 86.02.39.00.50 oder älter basieren, haben offensichtlich sehr ähnliche Probleme. Meine Karte mackt mit dem F3 auch im OC-Mode. Vergiss aber nicht, vorher das Original-BIOS wenigstens einmal zu sichern.

Interessante BIOS-Diskussion. Auch wenn ich aktuell keine Probleme habe, muss ich wohl mal die MSI-Seite checken. Meine 1080 Ti Gaming X hat ja noch 86.02.39.00.3C, ist also älter / niedriger.


EDIT:
86.02.39.00.3C ist wohl das aktuellste. Auf techPowerUp (https://www.techpowerup.com/vgabios/190927/msi-gtx1080ti-11264-170320) gibt's auch keine andere Version. Dann macht es MSI wohl besser als Gigabyte ;)

(del)
2017-04-26, 14:22:06
Dann macht es MSI wohl besser als Gigabyte ;)

Nicht unbedingt. Das Source-BIOS von NV ist eine Art Grundlage, die die Hersteller nutzen können, um das dann als ihre Firmware für die Grafikkarten individuell anzupassen. Zu einigen betreffenden Registern schrieb ich was auf der letzten Seite.

Never change a running system. Die Frage stellt sich nämlich immer, was hat NV wirklich geändert? Ist es die Liste supporteter Controller bzw. wurde das Zusammenspiel mit diversen Komponenten geändert, dann ist es nur relevant für Firmen, die direkt betroffen sind. Die Chips werden zudem ja immer gekoppelt mit dem RAM vertickt. Fällt NV bei einer Micron-Batch etwas auf, dann muss man auch hier nur frickeln und nicht bei anderen, die klaglos funktionieren. Jeder Wechsel kostet Zeit, denn ohne ernute Freigabe durch NV, was auch schon mal bis zu zwei Wochen dauern kann, geht gar nichts.

Oft kommen auch neue Fehler wieder hinzu, so dass man, solange ein Konstrukt einigermaßen stabil ausschaut, nichts macht. Leider gibt es keine offiziellen Listen, wo NV dokumentiert, was sie im Detail geändert haben.

007licensed
2017-04-26, 16:49:51
Habe auch eine Aorus (non Extreme)
Hab diese momentan auf 2000/5800 laufen und noch keine Probleme (seit 2 Wochen im Einsatz) damit gehabt.

Karte hat noch das F3 Bios...
Bringt das F4 denn irgendwelche Vorteile (außer Powerlimitänderung und das es eben neuer ist)?

(del)
2017-04-26, 17:59:16
Wenn es läuft, lass es so. :)

Nvidia schreibt nie im Detail, was sie so alles gebastelt haben. Power Target ist jetzt allerdings flexibler und vernünftiger @stock. Die Karte ist somit leiser und kühler @defaults.

crs2601
2017-04-26, 19:46:41
Sodele, also meine Karte hat atm das F3 BIOS. Werde jetzt mal auf das F4 flashen und schauen wie die Karte sich anschließend verhält.

@Default/Gaming-Mode = 1949MHz
@OC-Mode = 1974MHz

Habe das PT im Aorus-Tool auf Max (150%) gesetzt, da tut sich null komma nichts :D Spannung bringt auch keine Veränderung. Gebe ich auf den Default-Takt was drauf, ist schnell zappe. Unter Last ist mehr als der OC-Mode nicht drin, also 1974MHz - alles darüber erzeugt sofort einen Crash... Getestet mit GR Wildlands. Wobei der Takt aus dem OC-Mode ja keinesfalls schlecht ist, insofern die Karte den halten kann.

@Format_C Oder wie du sagtest runterballern und den AB benutzen? Oder stell ich mich nur zu dumm an?

http://gpuz.techpowerup.com/17/04/26/9m9.pnghttp://gpuz.techpowerup.com/17/04/26/59w.pnghttp://gpuz.techpowerup.com/17/04/26/kve.png

MiamiNice
2017-04-26, 19:59:36
Lohnt sich ja mit dem "OC" Mode :wink:

24p
2017-04-26, 20:00:36
Fein, da würde mich ja mal interessieren, ob sie dann wirklich stabiler läuft.

MiamiNice
2017-04-26, 20:02:23
Oder wie du sagtest runterballern und den AB benutzen?

Sagte ich zwar nicht aber unbedingt! Oder halt etwas vergleichbares.

crs2601
2017-04-26, 22:24:48
Fein, da würde mich ja mal interessieren, ob sie dann wirklich stabiler läuft.

OC-Mode schmiert weiterhin ab ;D Aber der Stock-Takt ist ja eigentlich auch ausreichend mit 1949MHz - wobei es dafür wohl keine teurere Xtreme gebraucht hätte.

Also bleibt nur manuell auf die 1974MHz oder auf Stock belassen. Ists eigentlich nötig manuell per Curve zu übertakten?

24p
2017-04-26, 22:30:09
Wundert mich aber auch irgendwie nicht. Wie Igor schon sagte, sind 250W für den Takt dort zu wenig. Das packen mit 250W wohl nur die ganz guten Chips.

(del)
2017-04-27, 06:08:37
GB setzt beim OC-Mode mittlerweile auf weit über 300 Watt PT. Das Problem ist allein die Software, weil man dachte, dass die paar Mhz mehr Vorgabe so wenig sind, dass es in jedem Fall reicht. Boostet die Karte aber per se schon sehr hoch, kann das bisschen mehr schon für einen Crash reichen. Dumm gelaufen, aber ein Software-Problem. Automatisch ist immer Grütze.

Ich setze immer noch auf den klassischen Afterburner ohne die nervige RivaTuner-Statistik im Hintergrund. Curved ist lustig, wenn man Strom sparen möchte, aber wie ich schon schrieb: an die originalen OVR 4+ Register kommt nicht mal der Boardpartner ran und ein pauschaler Override tut es genauso gut, weil Boost sowieso alles situationsbediengt noch einmal für sich selbst entscheided. Da kann man per Schnittstelle auch gleich gegen die Wand laufen. Curved ist gut zum Wegnehmen, aber eher nicht zum Dazutun. Da gibt es am Ende die gleichen Restriktionen, nur eben scheibchenweise.

Palit:
Guter Kühler, miese Lüfter. Allein der breite Montagesteg in der Mitte zwischen den zwei Rotorblättern ist sowas von gaga, denn der Airflow wird geradezu pulverisiert und die Luft geht sonstwohin. Lässt sich mit einem kleinen Nebelkerzchen leicht überprüfen. Nur weil etwas kompliziert aussieht, muss es noch lange nicht funktionieren. Schade, denn der Rest schaut recht lecker aus.

Zotac:
Out of the Box ein viel zu hohes Power Target. Witcher 3 läuft nur mit max. 94% Ausnutzung der freigegebenen Power, es limitiert allein die Voltage. Kalt boostet die Karte auch nur bis 2012 MHz, was aber am GPU-Lotto liegt. Der Boost dieser GPU ist bei den hohen Default-Vorgaben nicht ganz der Brecher. 68°C Open Benchtable sind sehr gut, die 1947 MHz nach 30 min. guter Durchschnitt, aber es ist leider auch recht laut. VRM gibts im Review als Bild, erst mal kein Kommentar. Und: fiep fiep, trotz der großen, tollen PR-Caps auf der Rückseite. ;)

Galax/KFA² HoF:
Sollte zur Computex endlich fertig sein. Vielleicht hole ich mir rückzu eine gleich selbst ab, hab ein paar Stunden Zeit in HK. Mit echten Reviews des finalen Produkts wird es wohl noch 5-6 Wochen dauern. Mindestens. :(

EVGA:
Erste Samples wohl eher gegen Goodwill verschickt. Wir werden zusehen, später eine aus dem Handel zu bekommen. Ich lasse mich auch gern positiv überraschen. :)

Asus:
Keine echten Kritikpunkte in der Summe. Hier entscheidet eher allein die GPU-Qualität über die Freude beim Erstbesitzer :D

MSI:
Gut gelungen, siehe Asus.

Gigabyte:
Für meinen Geschmack etwas zu schwer. Liegt aber auch am ganzen Kupfer. Fast 1,5 Kilo sind eine echte Hausnummer. Kann man gut finden, muss man aber nicht. Performance ist gut, hängt aber auch extrem vom Chip ab. Sehr gute Platinenkühlung, etwas wirres Design beim I/O.

rentex
2017-04-27, 07:10:14
Zurück zum Thema:

Die Palit mit ihren Vortexlüftern bringt also auch nicht mehr als der Rest. Eher weniger.

Scheint nach wie vor so, als wären die ASUS, die AORUS und die MSI die besten Karten.
Dann fallt jetzt mal bitte auf unter 800€ :D

Mal abwarten was die Super Jetstream, mit ihrem konventionellen Lüfter reißt.

24p
2017-04-27, 07:16:56
Die wird sicher gut sein. Ich habe die ja (die Aorus soll sie ersetzen) als 980Ti und die 250 bzw. 275W kühlt der Kühler ganz gut und leise weg, da wird das auch bei der 1080Ti funktionieren.

(del)
2017-04-27, 07:17:17
Mal abwarten was die Super Jetstream, mit ihrem konventionellen Lüfter reißt.Die Lüfterbefestigung der GRPE ist komplett anders, sonst hätte ich die Module mal gegen die älteren ausgetauscht. Um Platz für diesen Krempel zu schaffen, hat man etwas an der Höhe der Kühlfinnen sparen müssen. Das sehe ich eher als Nachteil. Ich glaube sogar, dass der Kühler der SuperJetstream diesmal der bessere sein wird.

Raff
2017-04-27, 09:01:37
Asus:
Keine echten Kritikpunkte in der Summe. Hier entscheidet eher allein die GPU-Qualität über die Freude beim Erstbesitzer :D

Echt? Also mir gefiel die VRM-Kühlung nicht besonders. Klar besser als bei Zotac, aber nichts gegen Gigabyte und MSI. Bei dir ist alles super? Dann sollte ich vielleicht das Pad mal checken ...

MfG,
Raff

(del)
2017-04-27, 10:00:52
Super? Nee, das nun auch nicht gerade, denn der VRM-Bereich ist nichts gegen MSI und Aorus, wie Du schon schriebst.

Aber irgendwie gerade noch so im Rahmen dessen, was man so noch akzeptieren kann. Es ginge aber sicher auch deutlich besser. Bei Asus sollte man aber wirklich zunächst mal ordentliche Drehmomentschrauber nutzen und nicht irgendwelche ausgeleierten Ratschen. Ich prüfe zunächst immer die Verschraubungen und so 0,3 bis 0,4 Nm sollten es da schon sein. Fall nicht, ziehe ich erst mal nach.

Da, wo ich die Backplate runternehme, wird sowieso alles noch einmal verschraubt und sehr oft muss ich zusätzlich noch mit meinen Ersatzschrauben/-muttern ran, um die Konstrukte auch ohne Backplate überhaupt wieder festzubekommen. :)

Den Vogel hatte mal XFX abgeschossen, da waren fünf Schrauben mit 0,2 Nm und weniger festgezogen. Das dreht mein Sohn (5) mit der Hand wieder raus. Drehmonent-Tests stehen bei mir nach dem Unboxing immer mit auf der Check-Liste ganz oben ;)

Raff
2017-04-27, 10:25:40
Kommt mir bekannt vor. :D Nachdem mir mal der halbe Kühler direkt aus dem Paket gefallen ist – war wohl ein holpriger Flug aus Asien –, prüfe ich auch immer erst die Schrauben.

MfG,
Raff

crs2601
2017-04-27, 10:41:02
Heute Abend werde ich mal jegliche Aorus-Software runterschmeißen und die Karte ohne was laufen lassen, aber ob sich da was ändert? Hatte ja im Tool den User-Mode mit Default laufen, dass ist ja mehr oder minder Stock.

Anschließend AB drauf und nochmal selbst testen, wenn da nicht mehr geht ist wohl bei 1949MHz unter Luft mehr oder minder zappe. Wobei ich auch da erstmal mit dem Speichertakt "spielen" könnte... Bezüglich der Temps scheinen meine 74°C völlig normal zu sein.

Ist bei MSI/Asus eine bessere Kühlung zu erwarten? Bei Asus wird ja immer von 68°C-69°C berichtet. Wenn die MSI besser läuft (spare ich knapp 100€), wird die Aorus verkauft und gut ist - oder es gehen beide weg und ich hol mir ne Asus. Wobei am Ende sowieso die Chip-Lotterie entscheidet.

24p
2017-04-27, 10:43:55
Dass die Gigabyte ein wenig wärmer wird kann ich mir schon vorstellen, da dort das Board und die VRMs wesentlich besser mit gekühlt werden. Das ist für mich jetzt aber kein negativer Punkt, imo ist die gute Boardkühlung ein Pluspunkt der Gigabyte, auch wenn dadurch die GPU etwas schlechter gekühlt wird.

(del)
2017-04-27, 10:59:44
Die GPU der Aorus wird nicht schlechter gekühlt, denn man hat erst bei 74°C das Temp Target gesetzt. Das kann man ja auch nach unten schrauben. Bis dahin darf sie. Die Zotac Amp! Extreme versucht hingegen, auf Gedeih und Verderb unter den 72°C zu bleiben, was man dann schon brutal hört. Nur braucht sie den Airflow für die VRM... Deren Lüfter lassen sich auch nicht so einfach per Override mit dem AB umsetzen, da hat Zotac eine eigene Lösung in Petto :D

100 Euro sind eine Menge Kohle, dafür bekommt man schon fast einen echten Waterblock :D

(alle Werte Closed Case nach 30 Minuten Witcher 3, mindestens)

crs2601
2017-04-27, 12:22:21
100 Euro sind eine Menge Kohle, dafür bekommt man schon fast einen echten Waterblock :D

Bring mich nicht auf dumme Ideen... :biggrin:

Ists eigentlich ein Grund für eine RMA, wenn der OC-Mode net läuft? Zumindest bei meiner 1080 wurde durch Caseking anstandslos getauscht. Ich könnte mich damit arrangieren, nur beim Wiederverkauf mache ich mir Gedanken...

(del)
2017-04-27, 12:36:45
Das Issue mit dem OC-Mode ist eher ein Softwareproblem. Ich würde es mal beim Support ansprechen.


Update:
@24p: schau mal in Deine Mail :)

SamLombardo
2017-04-27, 16:42:15
Meine MSI 1080ti von Amazon wurde gerade versandt. Hatte Anfang des Monats bei dem Angebot für 754€ inkl. Versand zugeschlagen. Auch wenn mittlerweile der durchschnittliche Preis etwas runter gegangen ist, ist es immer noch ein recht gutes Angebot, denke ich. Bin mal gespannt

BiG OnE
2017-04-27, 17:15:16
Tja, als Format_C die Wärmebilder der Karte inkl. des Hotspots von 100°C beim Stresstest gezeigt hat, hab ich meine beiden lieber storniert.

rentex
2017-04-27, 17:20:52
Nicht, das er noch wegen geschäftsschädigendem Verhaltens, Ärger bekommt 😂

BiG OnE
2017-04-27, 17:28:30
Wieso? Er zeigt doch nur wie die Wirklichkeit ist

SamLombardo
2017-04-27, 17:40:52
Meine MSI 1080ti von Amazon wurde gerade versandt. Hatte Anfang des Monats bei dem Angebot für 754€ inkl. Versand zugeschlagen. Auch wenn mittlerweile der durchschnittliche Preis etwas runter gegangen ist, ist es immer noch ein recht gutes Angebot, denke ich. Bin mal gespannt
Sollte man eigentlich unter win 10 immer noch den Grafiktreiber vor dem Ausbau der alten Karte deinstallieren? Oder geht einfach alte raus, neue rein? Danke.

scully1234
2017-04-27, 17:53:03
Sollte man eigentlich unter win 10 immer noch den Grafiktreiber vor dem Ausbau der alten Karte deinstallieren? Oder geht einfach alte raus, neue rein? Danke.

Sicherheitshalber würde man das immer forcieren, denn du kannst nie wissen was dir so in die Registrierung gepfuscht wird, wenn du keine clean Install vor nimmst

Ist doch mit den Treiberpaketen sowieso kein Thema, Haken rein bei erweitert ,und vollständige Neuinstallation anwählen

rentex
2017-04-27, 18:03:31
Nehme immer den Display Driver Uninstaller (DDU) von Guru3D.

rentex
2017-04-27, 18:03:55
Wieso? Er zeigt doch nur wie die Wirklichkeit ist

War doch nur ein Scherz...

SamLombardo
2017-04-27, 18:06:29
Danke euch. Dann mach ich es so.

Niall
2017-04-27, 18:08:46
Ich werd ab jetzt auch immer mit dem DDU deinstallieren, hatte seit dem Upgrade auf die 1080 ti immer wieder Blackscreens mit der Rift, nicht reproduzierbar und dachte erst an ein defektes Kabel o.Ä.. Gestern Abend dann mal nen »Clean Install« gemacht und bin danach zwei Stunden ohne Unterbrechung in Google Earth VR rumgeflogen. #isdochkakasowas :freak:

rentex
2017-04-27, 18:48:18
@format_c: Wann kommt eigentlich das Review der Asus Strix?

(del)
2017-04-27, 18:59:05
@format_c: Wann kommt eigentlich das Review der Asus Strix?
Nach der Computex, so wie Galax auch. Vorher gibt es die 1080 Ti von Aorus (Dienstag), EVGA (FTW3), Palit (GRPE) und wohl noch eine Karte der Roten. Sonst noch 1060er fürs Roundup. Ich fliege am 24.5. für reichlich zwei Wochen nach Asien - da ist Deadline ;)

BTW:
Bei der Zotac waren die 5 Federschrauben zu lasch angezogen. Wird gleich kühler - aber kaum leiser. Aber Media-Pool ist nicht Retail und ich hoffe, die Kunden bekommen Karten aus der Fabrik. Die hier hat offensichtlich noch mal wer zerlegt und getestet, bevor sie das HQ verschickt hat. Ich betreibe gerade Platinenstudium. ;)
8 Phasen für die GPU, davon 7 untereinander und eine JWD. Die sind ja alle per Chip nur gedoppelt, aber so ein zerrissenes Design habe ich noch nicht gesehen. Dem Layouter ist nach 14 Coils untereinander einfach der Platz für die Spulen ausgegangen. Power "Boost" ist ja auch wieder dabei. Dass man Notwendigkeiten extra einpackt und als Feature verkauft... Military Class und Ultra Durable sind ja als Begriff leider schon vergeben :D
Der Holtek ARM Controller wird scheinbar auch langsam zum Standard für das ArDschiehBieh-Gedöns. Musste nach hinten. Stört aber nicht, die Backplate ist ohne Pads eh nutzlos für eine Kühlung. Werde ich wohl nie verstehen.

scully1234
2017-04-27, 19:24:17
Gibts in chinesischen Raum eigentlich Bestrebungen das Coil Whine Thema mal etwas aktiver anzugehen ,oder legt man das gähnend ab unter, für den Preis der Platinen nichts besseres verwirklichen zu können?

(del)
2017-04-27, 19:58:15
Mal abgesehen davon, dass Asiaten bei Lärm absolut schmerzunempfindlich sind, ist es technisch fast nicht machbar, bei derart hohen fließenden Strömen das Ganze noch absolut vibrationsfrei hinzubekommen. Spannung und Ströme schwanken zudem wie die Hölle. Die Spulen müssten wohl dreimal so groß sein, um das einigermaßen in den Griff zu bekommen. Da rammeln stellenweise schon mal 30 Ampere und mehr durch eine diese Spulen und die entstehenden Felder sind auch nicht von schlechten Eltern. Es sind die Spulen und sogar auch Caps, die "schnarren". Es ist fast schon egal, womit man so eine Spule vergießt - irgendein Problem tritt immer auf. Ein zweckmäßges Schaltungslayout kann da schon lindernd helfen, vermeiden kann man so aber auch nicht.

Man kann allerdings auch nicht die Schaltfrequenzen endlos erhöhen (viele Converter schaffen theoretisch weit über 1 MHz), das wird thermisch ein Problem. Je niedriger so eine DC/DC-Geschichte taktet, um so mehr schnarrt es aber auch bei schnellen Lastwechseln. Im Endeffekt muss man die VRM besser kühlen, um auf 400 KHz Takt oder mehr zu kommen.

robbitop
2017-04-27, 20:20:54
Hat das nicht auch etwas mit der Anregung der Spule / des Kondensators mit seiner Eigenfrequenz (bzw deren harmonische -> n * P) zu tun? Entsprechend kann man Kondensator als Feder- Massenschwingersystem betrachten und entweder den Frequenzbereich (siehe Campbell Diagramm) aus diesen Bereichen herauszuhalten (durch entsprechende Schaltzeiten des Leistungstransistors) oder aber die Eigenfrequenz des Feder-Massesystems zu verändern?

Ich sehe ein, dass das Frequenzband aufgrund des großen Regelbereichs wahrscheinlich sehr breit ist und das entsprechend nicht so leicht / günstig ist.

scully1234
2017-04-27, 20:21:26
Es ist fast schon egal, womit man so eine Spule vergießt - irgendein Problem tritt immer auf. .

Da hatte ich gedacht das noch etwas Optimierungspotential vorhanden ist, abzüglich der anderen bekannten Störgrößen ,die nicht mehr in Herstellers Hand liegen

crs2601
2017-04-27, 20:30:48
Aorus-Tool habe ich runtergeschmissen, anschließend Default getestet - kein Unterschied zu Gaming-Mode.

Anschließend AB installiert, PT auf Max 150% und Fan Speed 100%.

http://gpuz.techpowerup.com/17/04/27/k8r.png

Der Takt im Vergleich zum OC-Mode ist gleich! Der feine Unterschied ist jedoch, dass jetzt mehr bei der Spannung draufgegeben wird.


PT-Max und Default Fan Speed = 1936MHz

http://gpuz.techpowerup.com/17/04/27/g7y.png

(del)
2017-04-27, 21:16:45
@robbitop
Ich finde es z.B. Interessant, dass sich das Verhalten schon hörbar ändert, wenn man das Current Balancing zwischen den Phasen per Schnittstelle etwas verschiebt. Oder wenn verschiedene Modi bei unterschiedlichen Lastzuständen auftreten, also der Controller (z.B. ein uP9511) je nach Last Phasen auch zu- oder wegschaltet (was auch erklärt, warum manche Bereiche der VR immer heißer sind als andere). Schön auch immer die fiependen Menüs mit 400 FPS, wenn Boost anfängt, mit sich selbst Hasche zu spielen. :D

Einfache Schwingkreisoptimierungen führen hier sicher auch zu nichts, weil das entstehende Frequenzband einfach zu groß ist und man ausgangsseitig auch gewisse Mindestandforderung an die finale Qualität (Ripple etc.) einhalten muss. Manche Bauelementeparameter kann ich nicht einfach kleiner/größer machen. Man versucht ja schon, das alles durch Spreizung / Doubler etwas humaner zu gestalten, aber wenn Du mal hinschaust, haben die Spulen alle immer identische Induktivitäten. Meist spielen die Firmen nur noch mit den Caps. Und Zotacs Power Boost ist echt ein Kracher. Ein paar SMD Polymers, offen auf der Platine verlötet sind sicher genauso gut. Aber es verkauft sich nicht so gut. :D

@crs2601:
Was passiert, wenn Du im AB jetzt mal spaßenshalber 20 oder 30 MHz mehr Takt gibst?

crs2601
2017-04-27, 21:29:04
@crs2601:
Was passiert, wenn Du im AB jetzt mal spaßenshalber 20 oder 30 MHz mehr Takt gibst?

+20MHz | + 30MHz - schmiert ab. Wille war da, aber weit gekommen bin ich nicht :D

http://gpuz.techpowerup.com/17/04/27/vga.png http://gpuz.techpowerup.com/17/04/27/hvn.png

(del)
2017-04-27, 21:31:10
Dann guck doch mal, wie weit Du kommst :)

rentex
2017-04-28, 06:00:09
Nach der Computex, so wie Galax auch. Vorher gibt es die 1080 Ti von Aorus (Dienstag), EVGA (FTW3), Palit (GRPE) und wohl noch eine Karte der Roten. Sonst noch 1060er fürs Roundup. Ich fliege am 24.5. für reichlich zwei Wochen nach Asien - da ist Deadline ;)

BTW:
Bei der Zotac waren die 5 Federschrauben zu lasch angezogen. Wird gleich kühler - aber kaum leiser. Aber Media-Pool ist nicht Retail und ich hoffe, die Kunden bekommen Karten aus der Fabrik. Die hier hat offensichtlich noch mal wer zerlegt und getestet, bevor sie das HQ verschickt hat. Ich betreibe gerade Platinenstudium. ;)
8 Phasen für die GPU, davon 7 untereinander und eine JWD. Die sind ja alle per Chip nur gedoppelt, aber so ein zerrissenes Design habe ich noch nicht gesehen. Dem Layouter ist nach 14 Coils untereinander einfach der Platz für die Spulen ausgegangen. Power "Boost" ist ja auch wieder dabei. Dass man Notwendigkeiten extra einpackt und als Feature verkauft... Military Class und Ultra Durable sind ja als Begriff leider schon vergeben :D
Der Holtek ARM Controller wird scheinbar auch langsam zum Standard für das ArDschiehBieh-Gedöns. Musste nach hinten. Stört aber nicht, die Backplate ist ohne Pads eh nutzlos für eine Kühlung. Werde ich wohl nie verstehen.

Danke,das Review interessiert mich sehr, auch wenn die Karte schon bei mir läuft.

(del)
2017-04-28, 07:17:31
+20MHz | + 30MHz - schmiert ab. Wille war da, aber weit gekommen bin ich nicht :D

GPU-Lotterie. Da hilft nur kühler ;)

crs2601
2017-04-28, 07:39:21
GPU-Lotterie. Da hilft nur kühler ;)

Da hat das GPU-Gountlet Sorting ganze Arbeit geleistet :D 100% Fan ist zumindest keine Option, tja diesmal muss ich wohl mit ner Niete leben...

RoughNeck
2017-04-28, 08:15:44
Da hat das GPU-Gountlet Sorting ganze Arbeit geleistet :D 100% Fan ist zumindest keine Option, tja diesmal muss ich wohl mit ner Niete leben...

GPU Gountlet
Marketing Bullshit von Gigabunt ;D

crs2601
2017-04-28, 08:19:47
GPU Gountlet
Marketing Bullshit von Gigabunt ;D

Ja klar, mehr ists auch nicht. Wollte es nur nochmal erwähnt haben :D

(del)
2017-04-28, 08:26:43
Ich hatte es sicher schon mal irgendwo geschrieben. Das, was viele (wie auch Gigabyte, MSI, Asus oder Inno3D/Zotac) machen (egal wie es nun bei jedem heißt) ist das Prüfen der elektrischen Güte am stromlosen Package. Man setzt da auf Erfahrungswerte von allen bisher durchgelaufenen CPUs, so dass sich das Bild mit der Zeit verfestigt. Man kann auch vieles von anderen GPUs ableiten, aber scheinbar doch nicht alles. Das sind Prognosen, die mit jeder CPU, die da durchgelaufen ist und später in der Endfertigung final samt Board getestet wurde, noch verfeinert werden. Typisches Early-Adaptor Problem. :)

Du bekommst aktuell den selben Trouble mit allen Karten aus den ersten Serien. Meine erste MSI war ein OC-Krüppel vorm Herrn, die zweite (Retail) läuft hingegen 2050 ohne Murren. Zweite Batch halt und schon bessere Selektion (wenn man das überhaupt so nennen kann).

crs2601
2017-04-28, 08:35:48
Du bekommst aktuell den selben Trouble mit allen Karten aus den ersten Serien. Meine erste MSI war ein OC-Krüppel vorm Herrn, die zweite (Retail) läuft hingegen 2050 ohne Murren. Zweite Batch halt und schon bessere Selektion (wenn man das überhaupt so nennen kann).

Jap, die Karte ist aus der ersten Auslieferung. Das ist meine Strafe, weil ich immer alles sofort haben will :freak: Auch wenn der OC-Mode nichts taugt, kommt es wohl bei den Kunden nicht so gut an wenn die Karte nicht mal den mitmacht.

Selbiges bei der 1080, erste Auslieferung = Chip war crap. Bei der zweiten Karte hat dann alles gepasst, außer das die dann gefiept hat wie bekloppt - aber mit Kopfhörern war das Problem schnell erledigt :D

=Floi=
2017-04-28, 08:55:48
GPU-Lotterie.

Und du wunderst dich, wenn zig leute dann 5 karten bestellen und 4 zurückschicken?
2Ghz reichen doch und der rest ist sowieso nonsens. Dreht man den takt bis an die grenze wird sie früher oder später mal abstürzen. Die bessere kühlleistung wird auch teuer erkauft. Die steigerung ist mehr als gering.
Das streben nach 2,1ghz oder mehr ist doch komplett daneben! Auch über ne "schlechte" chips zu schimpfen, wenn 99% der karten die 2,0ghz mitmachen ist nicht fair, weil die güte imho noch nie so gut war. (ob die eine dann mehr oder weniger watt braucht ist auch in der natur der halbleitertechnik) Selbst die billigste karte ohne sonderedition im namen schafft die 2ghz. also lasst die kirche mal im dorf.

(del)
2017-04-28, 08:58:59
Ich habe heute früh mit einem Freak aus Wuhan gechattet, der ist so ein lokale chinesische OC- und Modding-Größe, macht viel mit Galax. Laut dessen Aussage ist es diesmal besonders extrem. Da bekommt der Begriff 1 of 1000 eine ganz neue Bedeutung. NV macht sicher nicht ohne Grund so ein Bohei um die Voltage - er hat nämlich schon einige Karten gehimmelt. Die liefen für ein paar OC-Tests, dann war alles hinüber. Erst Takteinbrüche, dann Totalschäden. Im Vergleich dazu sollen die die Maxwells russiche Panzer gewesen sein :D

Und du wunderst dich, wenn zig leute dann 5 karten bestellen und 4 zurückschicken?...
Das streben nach 2,1ghz oder mehr ist doch komplett daneben! Auch über ne "schlechte" chips zu schimpfen, wenn 99% der karten die 2,0ghz mitmachen ist nicht fair, weil die güte imho noch nie so gut war...
Nein, ich wundere mich nicht. Und meine Ansichten zum OC und solch kruden Geschichten wie Shunt-Mods kennst Du doch, auch wenn manche mich hier dafür gern prügeln. Ich habe immer noch Achtung vorm Produkt, auch wegen des Kopfkinos, wenn ich an die Entwicklung/Produktion denke. :)

OC-Krüppel heißt nicht Ausschuss, sondern Normalität. Glück ist wieder was anderes. ;)

Raff
2017-04-28, 09:28:31
GPU-Lotterie. Da hilft nur kühler ;)

Da sagst du was. Ich habe gestern meine "neue" Titan X-ohne-p in Betrieb genommen und war erneut erstaunt, wie crappy der Referenzkühler ist. Ich habe das jetzt so oft gesehen und gehört, bin aber immer wieder erstaunt, was Nvidia da für ein halbes Kühler-Hemdchen auf sündteure Grafikkarten schnallt. :freak: Der Chip geht durch die Decke, wenn man die Lüfterdrehzahl auf 80 % oder mehr stellt. Nur hält das niemand aus. Dagegen ist jedes 1080-Ti-Herstellerdesign eine Wohltat, sogar die AMP! Extreme. :D

MfG,
Raff

(del)
2017-04-28, 09:38:14
Der Stockkühler ist wirklich ein Stöckchen. Und dann wundern sich die Leute immer, warum die zwei ehemaligen 1080 Referenzkarten in mainem Gaming Table mit schön kalter Flutung auch ohne Taktanhebung jedes luftige Custom-Kühler-Kärtchen mit Nonchalance auch mal einzeln verblasen. :D

Machs nie wieder ohne (Wasser) :P

akuji13
2017-04-28, 10:00:56
Ich habe heute früh mit einem Freak aus Wuhan gechattet, der ist so ein lokale chinesische OC- und Modding-Größe, macht viel mit Galax. Laut dessen Aussage ist es diesmal besonders extrem. Da bekommt der Begriff 1 of 1000 eine ganz neue Bedeutung.

Spricht also für die FE+Wasserkühler oder für "so günstig wie möglich"+Wasserkühler Variante. :)

(del)
2017-04-28, 10:05:36
Die Leute unterschätzen die FE immer (zu Unrecht), wenn man mal den Kühler außen vor lässt. Wer seine Chips nicht wegen der letzten FPS prügeln will, sondern nur einen leisen PC mag (so wie ich), der wird die Teile auch lange haben .D


BTW:
Zotac ist arschclever. Bei der 1080 gabs ja Stress wegen der Lüfter und dem semi-passiv-Mode + Hysterese (an-aus-an-aus-Loop). Einen fließenden Übergang ohne Anschubimpuls, wo einfach die Lüfter loslaufen, wenn die (elektrisch und physikalisch bedingten) Mindestdrehzahlen erreicht sind, hatte NV ja als reinen BIOS-Cheat (mit Begründung) untersagt. Und nun? Zotac schaltet die Viecher jetzt selbst zu und ab, egal was die Kurve unterhalb 50°C an Werten enthält. Ich kann noch nicht mal 100% von außen draufgeben, wenn die Karte steht. Stopp ist Stopp. Nvidia prooft ja nur das BIOS und findet so keine negativen Dinge und Zotac schaltet frisch frei fröhlich nun selbst und scheißt aufs BIOS. Auch 'ne geile Lösung :D

Dumm nur, dass der Sockel des Package 7°C heißer ist als die GPU, weil die ganze Platine glüht wie das gleichnamige Würmchen. Der Kühler zieht die Hitze vom PCB durch die GPU zum Heatsink. Deshalb gehen auch die Lüfter so hoch. Habe gerade mal eine Wärmeflussaufzeichnung gemacht. Mit gescheiter VRM-Kühlung könnten die Lüfter fast 200rpm weniger laufen.

TurricanM3
2017-04-28, 16:22:29
Bekannter hat die FE nun in Betrieb. Hatte bislang max. 7° Delta mit dem Watercool-Kühler. Ist zufrieden.

Ich könnte eine 100% originale TX für 650,- kriegen. Hmm, bloß was soll ich damit. SLI für Wildlands wäre schön, sonst brauch ichs aber nicht. ^^

TobiWahnKenobi
2017-04-28, 17:08:59
SLI mit nem 5820? lass mal lieber.. dem gehen schnell die PCIe lanes aus.


(..)

mfg
tobi

dildo4u
2017-04-28, 17:10:24
Dafür hat Nvidia die neue Brücke.

https://youtu.be/mWcsaociTjE

(del)
2017-04-28, 17:32:43
Weil wir letztens was zu den Spulen & Co. hatten.... Hier mal ein aktueller Shot aus meiner Chamber. Wir sehen die Aufwärmphase einer 1080 Ti (Custom), zumindest einen kleinen Ausschnitt, wo die Lüfter anlaufen. Es geht dann noch bis knapp über 38 dB(A)

http://i.imgur.com/Ss0dDLO.jpg

Im Oberbass beginnend, sind die Lagergeräusche deutlich messbar und in bestimmten Gehäusen sicher auch hörbar (Körperschall, Resonanzen). Die eigentlichen Lüftergeräusche sind noch recht dezent. Bei ca. 4 KHz sehen (und hören wir) diverse Spannungswandlergeräusche aus dem Speicher- und Komponentenbereich und ab ca. 8,4 KHz schlagen die GPU-Spannungswandler voll durch.

TurricanM3
2017-04-28, 17:49:11
Dafür hat Nvidia die neue Brücke.

https://youtu.be/mWcsaociTjE


Ja die hab ich auch noch hier von "damals". Nur irgendwie hat mich das SLI + 6950X nicht so aus den Socken gehauen.

soLofox
2017-04-28, 19:07:57
Meine MSI 1080ti von Amazon wurde gerade versandt. Hatte Anfang des Monats bei dem Angebot für 754€ inkl. Versand zugeschlagen. Auch wenn mittlerweile der durchschnittliche Preis etwas runter gegangen ist, ist es immer noch ein recht gutes Angebot, denke ich. Bin mal gespannt

wann hattest du bestellt? datum + uhrzeit?

Hübie
2017-04-28, 19:24:52
Weil wir letztens was zu den Spulen & Co. hatten.... Hier mal ein aktueller Shot aus meiner Chamber. Wir sehen die Aufwärmphase einer 1080 Ti (Custom), zumindest einen kleinen Ausschnitt, wo die Lüfter anlaufen. Es geht dann noch bis knapp über 38 dB(A)

http://i.imgur.com/Ss0dDLO.jpg

Im Oberbass beginnend, sind die Lagergeräusche deutlich messbar und in bestimmten Gehäusen sicher auch hörbar (Körperschall, Resonanzen). Die eigentlichen Lüftergeräusche sind noch recht dezent. Bei ca. 4 KHz sehen (und hören wir) diverse Spannungswandlergeräusche aus dem Speicher- und Komponentenbereich und ab ca. 8,4 KHz schlagen die GPU-Spannungswandler voll durch.

Ih, das sieht ja nicht sehr schön aus. :redface: Seit ich meine umgebaut habe nehme ich aber auch öfter mal das Fiepen oder eher Zirpen wahr. Vorher ging das so ein wenig verloren bzw. war auch gar nicht vorhanden. Hast du da die Erfahrung mit der Alterung? Meine Karte ist nun 20 Monate lang in Betrieb und das Fiepen hat definitiv zugenommen. Zeitstandfestigkeit des Innenguss oder wie? Was ist da eigentlich genau drin? Hab ne ASUS Strix mit diesen umgelabelten Coils...

Dafür hat Nvidia die neue Brücke.

https://youtu.be/mWcsaociTjE

Du kannst auch einfach zwei der alten jeweils verdreht drauf stöpseln und hast Geld gespart. Die flexiblen sind dagegen nicht empfehlenswert.

SamLombardo
2017-04-28, 21:19:25
wann hattest du bestellt? datum + uhrzeit?
Bestellt hatte ich am 01.04.. Uhrzeit weiß ich nicht mehr, denke es war irgendwann Vormittags.

Karte ist da und eingebaut. Erste Eindrücke sind super, deutlich leiser unter Last als meine bisherige Gigabyte G1 980TI. Takt geht nicht unter 1924mhz bei höchstens 73 Grad (eine Stunde W3 Skellige und Andromeda) Ich denke, weiteres übertakten werde ich mir vorerst schenken. Vielleicht später mal. Ein schöner Performanceboost:)

DungeonKeeper
2017-04-28, 22:07:32
Servus miteinander,

bin hier neu und wollte kurz eine Einschätzung meiner 1080Ti.

Habe die Aorus ohne Extreme.

PT ist auf 100%.

Bei WT3 schafft sie nach ca. 20min folgende Werte: (Nix übertaktet)

1949MHz @ 1,05V
Coretemp: 70°C
Fan bei 53%

Manchmal springt sie auch auf 1974MHz bei 1,062V.

Auflösung: 2560x1440 alles max ausser Schärferegler.

Danke schonmal für Eure Unterstützung!

Restl. System:

i7-5960x @ 4GHz
ASUS X99-E WS
4x8GB 2666
Win10 Pro x64

Hübie
2017-04-28, 22:10:19
Servus miteinander,

bin hier neu und wollte kurz eine Einschätzung meiner 1080Ti.

Habe die Aorus ohne Extreme.

PT ist auf 100%.

Bei WT3 schafft sie nach ca. 20min folgende Werte: (Nix übertaktet)

1949MHz @ 1,05V
Coretemp: 70°C
Fan bei 53%

Manchmal springt sie auch auf 1974MHz bei 1,062V.

Auflösung: 2560x1440 alles max ausser Schärferegler.

Danke schonmal für Eure Unterstützung!

Restl. System:

i7-5960x @ 4GHz
ASUS X99-E WS
4x8GB 2666
Win10 Pro x64

:confused::confused::confused: Was sollen wir sagen? Läuft! Geh mal ins Luxx-Forum. Da biste glaub ich besser dran. ;D
Ansonsten noch: Willkommen auf dem 3-dimensionalen orangenen Wahnsinn. :freak:

24p
2017-04-28, 22:11:08
Klingt nach dem F3 BIOS. Check mal, ib du 125 oder 150% PT einstelken kannst.
Fürs F3 sind es gute Werte, für ein F4 (mit nur 250W PT bei 100%) wäre das sogar sehr gut.