PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce GTX 1070: (P)Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11

Grendizer
2016-08-10, 09:49:00
Das die mit billgste Custom Karte nicht sonderlich leise ist find ich jetzt nich verwunderlich.
Ich hab früher den Fehler auch gemacht und mir ne billige Palit geholt,meine näste wird eher eine EVGA SC.Die ist leise und relativ kompackt.


Jein... ich hatte in der Vergangenheit gute Erfahrungen mit einer Gigabyte Windforce 2x 960 Gemacht. Die war auch billig und ähnliche Lüfter. Ich dachte mir bei den +30 Watt TDP wird das schon ok sein :biggrin:

MartinRiggs
2016-08-10, 09:52:42
Ich muss mal Diablo 3 testen, denke aber das die Karte damit nicht ausgelastet wird. :uponder:
Hast du Witcher 3?

Ich hab 2x einblasend, 1x hinten, 2x im Deckel im Fractal Design Arc.

dreas
2016-08-10, 09:53:06
warum hacken eigentlich alle so auf der palit rum? gut, die dual ist klein und eventuell damit nicht so leise und kühl aber alles ab der jetstream ist wertige und kühle hardware.

nichts rattert, zirpt oder macht komische geräusche. das mag ja früher anders gewesen sein. aktuell gibts da imo nix zu bemängeln. noch dazu geht der speicher sehr hoch und 2ghz schafft die karte auch.

@pingu
d3 ist nicht wirklich grakalastig.

Grendizer
2016-08-10, 09:56:05
Ich muss mal Diablo 3 testen, denke aber das die Karte damit nicht ausgelastet wird. :uponder:
Hast du Witcher 3?

Ich hab 2x einblasend, 1x hinten, 2x im Deckel im Fractal Design Arc.

Ich ? Ja hätte ich.

MartinRiggs
2016-08-10, 10:04:22
warum hacken eigentlich alle so auf der palit rum? gut, die dual ist klein und eventuell damit nicht so leise und kühl aber alles ab der jetstream ist wertige und kühle hardware.

nichts rattert, zirpt oder macht komische geräusche. das mag ja früher anders gewesen sein. aktuell gibts da imo nix zu bemängeln. noch dazu geht der speicher sehr hoch und 2ghz schafft die karte auch.

@pingu
d3 ist nicht wirklich grakalastig.

Früher anders?
Die 1070/1080 Jetstream ist noch fast genauso wie meine 980Ti, das ist nicht sonderlich wertig und wie schon mehrfach geschrieben sind die Lüfter Müll, mir hat es nach einigen Monaten die Lager zerlegt.
Spulenfiepen/Brutzeln/Knattern und Tröten hatte meine 980TI auch wie Sau.

Der grundsätzliche Aufbau ist i.O bei der Palit, mehr aber auch nicht.

Ich hab mit Palit jetzt schon 2x in die Scheisse gegriffen und kann die Karten nicht mehr empfehlen.

MartinRiggs
2016-08-10, 10:05:26
Ich ? Ja hätte ich.

Ne der Post war an Pingu, der soll mal Witcher 3 testen und gucken ob die damit immer noch unter 60 Grad bleibt ;)

Raff
2016-08-10, 10:06:27
Diablo 3 lastet gut aus, wenn man SGSSAA forciert. :uup:

Besser ist jedoch eine Mischung aus Crysis (1), The Witcher 3 mit Gameworks, Anno 2070 und WoW – nicht lachen, Letzteres tötet meine TX mit allen Optionen am Anschlag sofort, wenn der Speichertakt auf 4.200 MHz steht; das macht sonst kein Spiel.

MfG,
Raff

Liquaron
2016-08-10, 10:15:01
Diablo 3 lastet gut aus, wenn man SGSSAA forciert. :uup:

Besser ist jedoch eine Mischung aus Crysis (1), The Witcher 3 mit Gameworks, Anno 2070 und WoW – nicht lachen, Letzteres tötet meine TX mit allen Optionen am Anschlag sofort, wenn der Speichertakt auf 4.200 MHz steht; das macht sonst kein Spiel.

MfG,
Raff


Danke für die Info, dann werde ich heute Abend mal wieder eine Runde WoW spielen ;)

Benchmarks laufen bei mir irgendwie immer flutschig durch und im Spiel gibt's dann gerne mal einen Hänger. Die finde ich relativ wenig aussagekräftig um die OC Stabilität zu messen.

Grendizer
2016-08-10, 10:22:12
Danke für die Info, dann werde ich heute Abend mal wieder eine Runde WoW spielen ;)

Benchmarks laufen bei mir irgendwie immer flutschig durch und im Spiel gibt's dann gerne mal einen Hänger. Die finde ich relativ wenig aussagekräftig um die OC Stabilität zu messen.


Ich habs gestern mal kurz angespielt. Man bekommt bei 1920x1200 und Detailstufe 10 und AA (ich weiss nur gerade nicht mehr ob ich 4x oder 8x MSAA eingestellt hatte) die Frames auf knapp unter 50 in Städten :biggrin:. Allerdings ist mein i5 da auch nur mit 3,4 Ghz statt der 4,3 gelaufen. Das könnte auch noch limitierend gewesen sein.

Liquaron
2016-08-10, 10:23:37
Ich habs gestern mal kurz angespielt. Man bekommt bei 1920x1200 und Detailstufe 10 und AA (ich weiss nur gerade nicht mehr ob ich 4x oder 8x MSAA eingestellt hatte) die Frames auf knapp unter 50 in Städten :biggrin:

Meine Herrn......wie kann so eine alte Engine noch so anspruchsvoll sein :freak:

Naja, bin eigentlich mit WoW durch, aber zum testen sollte es noch langen =)

kuj0n
2016-08-10, 10:29:50
Die Engine wurde über die Jahre schon mehrmals geupdatet. Zuletzt für Legion. Alles auf Max bringt die Grafikkarte wirklich gut ins Schwitzen.

Raff
2016-08-10, 10:33:24
Definitiv: WoW Patch 6.1 im Test: MSAA, Downsampling plus wählbarem Resamplingfilter - "I am a PC game" (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-Spiel-42978/Specials/Test-1151946/):D

MfG,
Raff

Grendizer
2016-08-10, 10:46:45
Definitiv: WoW Patch 6.1 im Test: MSAA, Downsampling plus wählbarem Resamplingfilter - "I am a PC game" (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-Spiel-42978/Specials/Test-1151946/):D

MfG,
Raff


Danke... ein guter Artikel. Das kann ich mir heute abend passend zum Beginn der Pre-Events zum Legion start bestens gebrauchen.:biggrin:

Liquaron
2016-08-10, 11:28:47
Definitiv: WoW Patch 6.1 im Test: MSAA, Downsampling plus wählbarem Resamplingfilter - "I am a PC game" (http://www.pcgameshardware.de/World-of-Warcraft-Warlords-of-Draenor-Spiel-42978/Specials/Test-1151946/):D

MfG,
Raff


Wenn es dann wenigstens mal so aussehen würde wie Witcher3 :tongue:

Dann könnte ich auch die derbe Performance verstehen. Vor dem Legion Patch lief es auch im max Settings ganz gut. Was killt denn jetzt die Performance? Der gesteigerte Detailgrad?

Also wenn eine GTX 1070 / 1080 da schon ins schwitzen kommen ist das beachtlich.

captain_drink
2016-08-10, 13:15:20
Allerdings leichtes fiepen ab 130fps

Hatte ich anfangs auch, mittlerweile ist das aber weg.
Ein "Burn-In" mit Lastprogrammen wird ja auch des Öfteren empfohlen, um das anfängliche Spulenfiepen wegzubekommen.

kuj0n
2016-08-10, 14:13:35
Wenn ihr die Karte richtig braten wollt macht mal die Invasionen, 150 Leute auf einem Fleck und gerade die Gebäude dort nagen richtig an der GPU.

Grendizer
2016-08-10, 14:36:25
Wenn ihr die Karte richtig braten wollt macht mal die Invasionen, 150 Leute auf einem Fleck und gerade die Gebäude dort nagen richtig an der GPU.


Ja ..... will ich ja ... verdammte Arbeit :biggrin:

Palpatin
2016-08-10, 17:01:59
Ich habs gestern mal kurz angespielt. Man bekommt bei 1920x1200 und Detailstufe 10 und AA (ich weiss nur gerade nicht mehr ob ich 4x oder 8x MSAA eingestellt hatte) die Frames auf knapp unter 50 in Städten :biggrin:. Allerdings ist mein i5 da auch nur mit 3,4 Ghz statt der 4,3 gelaufen. Das könnte auch noch limitierend gewesen sein.
Kann ich mich erinnern das meine 6800 Ultra bei Release auch so 50~FPS @ Max Settings in 1680x1050 gemacht hat :D.

Merkor
2016-08-10, 19:19:45
Noch ein paar Versuche zum Undervolting meiner EVGA 1070 FTW. Ich habe eben ein paar Heaven 4.0 Runs mit folgenden Settings absolviert:

0,981v @ 2063 MHz GPU @ 4552 MHz RAM

Bei 0,975v crasht dieser GPU-Takt irgendwann. Es kann sein, dass 2050 MHz damit funktioniert. Das Powerlimit pendelte zwischen 74 und 78 %.

Dabei kam folgender Score heraus:

Unigine Heaven Benchmark 4.0
FPS: 62.1
Score: 1563
Min FPS: 25.4
Max FPS: 129.2
Mode: 2560x1440 8xAA fullscreen
Quality: Ultra
Tessellation: Extreme

Als Vergleichswert habe ich bei OverclockersClub folgende Heaven-Benchmarks einer GTX 1080 (http://www.overclockersclub.com/reviews/msi_gtx1080_gaming_x_8g_overclocking/6.htm)mit obigen Settings gefunden:

GTX 1080 FE: 63,9 FPS (OC @ ca. 2100/1383: 72,3)
GTX 1080 MSI: 67,8 FPS (OC: 73,1)

Damit kommt man mit der GTX 1070 mit ein wenig OC wirklich an eine GTX 1080 Stock heran. Wenn man es dann noch schafft, den benötigten Takt mit möglichst unter 1v zu schaffen, hat man wohl eine "Effizienzbombe" im Rechner. Also viel Spaß bei euren Undervolting-Experimenten. ;-)

Dr.Dirt
2016-08-10, 19:34:00
Konstant unter 60 grad und bei niedriger Drehzahl.
Krass, bei meinen Gehäuselüftern auf max. Drehzahl lande ich bei Witcher 3 immer noch bei 70° bei knapp 900 rpm.

Fliwatut
2016-08-10, 19:52:14
0,981v @ 2063 MHz GPU @ 4552 MHz RAM
Du scheinst da einen ziemlich guten Chip erwischt zu haben!

Merkor
2016-08-10, 20:14:36
Du scheinst da einen ziemlich guten Chip erwischt zu haben!

Das muss sich erstmal beim Gamen rausstellen, denn Spiele sind meine eigentlichen Stabilitätstests. 1 Stunde BF4 Shanghai bei 99-100% Auslastung hat zumindest eben geklappt...

Ätznatron
2016-08-10, 21:00:01
Mit 0,981V\2012 MHz\4500 MHz und einem 4790K@4600 MHz (das sind alles stabile 24/7 Settings ohne PerfCap) reichts bei mir immerhin zu 60,1 FPS:

https://abload.de/thumb/heaven_uv6uski.jpg (http://abload.de/image.php?img=heaven_uv6uski.jpg)

Dazu dann noch die geringe Lüfterdrehzahl, die niedrige Leistungsaufnahme, alles top und stabil auch in fordernden Games. Ich bin sehr zufrieden damit.

Grendizer
2016-08-10, 21:09:43
Ich behalte die Karte:

2050 Mhz@0,9620 V und 2203 Mhz Speicher. Nach 1 Stunde ROTTR bleibt sie bei 63°C bei 60% Lüfter (1800RPM)

Für mich ist das leise genug.

Edit : Ich glaube in WoW ist meine CPU i5-3570K@4,3 Ghz zu lahm. Die GPU wird bei SSAA4x nur zu 70-75% gefordert und bleibt dadurch bei 1800 Mhz. Allerdings nur 50 fps.

Liquaron
2016-08-10, 21:14:20
Irgendwie spuckt der Benchmark bei mir seltsame Ergebnisse aus. Habe ich irgendwo falsche Einstellungen?

https://abload.de/img/unbenanntnusbu.png

Die Punktzahl ist im Vergleich oben ja viel zu hoch obwohl ich niedrigeren Takt habe.

Edit: Ahh fehler gefunden....die Auflösung ist schuld :)

MartinRiggs
2016-08-10, 22:30:23
Hab jetzt auch mal Diablo 3@max@4K getestet, ohne Vsync gehts an/über 70 Grad, mit Vsync fängt sie sich an zu langweilen bei 57 Grad ;D

Oliver_M.D
2016-08-10, 22:31:56
ohne Vsync gehts an/über 70 Grad, mit Vsync fängt sie sich an zu langweilen bei 57 Grad ;DWas haste denn bitte für FPS das der unterscheid so groß ist? ;D

BlacKi
2016-08-10, 22:34:35
Edit : Ich glaube in WoW ist meine CPU i5-3570K@4,3 Ghz zu lahm. Die GPU wird bei SSAA4x nur zu 70-75% gefordert und bleibt dadurch bei 1800 Mhz. Allerdings nur 50 fps.
wohl wahr, nur was willste kaufen? ein skylake bringt dir höchstens 10 fps mehr bei max takt.

Grendizer
2016-08-10, 22:45:13
wohl wahr, nur was willste kaufen? ein skylake bringt dir höchstens 10 fps mehr bei max takt.

Gibt ja genug Spiele, die eher die GPU auslasten und nicht so von der CPU limitiert werden.

500 Euro für CPU+Board+Speicher machen da auch keinen wirklichen Sinn.
Edit: Wenn ich vsync bei WoW aktiviere (1920x1200@60hz) dann bleibt die Karte bei 8xMSAA,und aktiviertem Multisample Alpha bei 950 Mhz *g*. Mit Renderskalierung 200 bekommt man sie dann wieder auf 2 Ghz.

BlacKi
2016-08-10, 23:15:03
Gibt ja genug Spiele, die eher die GPU auslasten und nicht so von der CPU limitiert werden.

500 Euro für CPU+Board+Speicher machen da auch keinen wirklichen Sinn.
Edit: Wenn ich vsync bei WoW aktiviere (1920x1200@60hz) dann bleibt die Karte bei 8xMSAA,und aktiviertem Multisample Alpha bei 950 Mhz *g*. Mit Renderskalierung 200 bekommt man sie dann wieder auf 2 Ghz.

deshalb halten ich die benches die raff da verlinkt hat für die katz, weil letztendlich in den kritischen szenen ein cpu limit die fps einbremst.

vad4r
2016-08-11, 09:23:29
Hab mir auch die EVGA 1070ftw geholt, wie ist das eigentlich:

Registrieren oder nicht?
Wie viel Zeit hat man dafür?
Garantie verlängern?

Ich hab noch nie irgendetwas registriert, das scheint mir hier aber zusammen mit der längeren Garantie das erste Mal sinnvoll...

Downhill
2016-08-11, 10:21:02
Registrieren musst du dich bei EVGA ja schon für den Download vom Precicion Tool :freak: (Fand ich auch etwas dämlich, aber naja...)

Ansonsten Garantieverlängerung bis 30 Tage nach Kauf möglich, ich überleg grad noch ob ich 20.- oder gleich 40.- (für insgesamt dann 10 Jahre) investieren soll, eigentlich ja Peanuts und laut Murphy's geht ja immer genau zwei Wochen nach Ablauf der Garantie dann irgendwas kaputt.
http://de.evga.com/support/warranty/extended.asp
Die Rechnung ist halt die, so eine GTX1070 hat ja auch nach 5 Jahren mit Sicherheit noch einen Restwert von deutlich > 40€.

MartinRiggs
2016-08-11, 10:25:19
Was haste denn bitte für FPS das der unterscheid so groß ist? ;D

Hatte ich nur kurz getestet, aber weit jenseits 100FPS.
Jetzt weiß ich aber warum Pingu in Diablo 3@4K unter 60 Grad hab, die habe ich nämlich auch mit Vsync, die Karte taktet dann auch nur mit 1050Mhz oder so :D

Noch ein paar Versuche zum Undervolting meiner EVGA 1070 FTW. Ich habe eben ein paar Heaven 4.0 Runs mit folgenden Settings absolviert:

0,981v @ 2063 MHz GPU @ 4552 MHz RAM

Bei 0,975v crasht dieser GPU-Takt irgendwann. Es kann sein, dass 2050 MHz damit funktioniert. Das Powerlimit pendelte zwischen 74 und 78 %.

Dabei kam folgender Score heraus:

Unigine Heaven Benchmark 4.0
FPS: 62.1
Score: 1563
Min FPS: 25.4
Max FPS: 129.2
Mode: 2560x1440 8xAA fullscreen
Quality: Ultra
Tessellation: Extreme

Als Vergleichswert habe ich bei OverclockersClub folgende Heaven-Benchmarks einer GTX 1080 (http://www.overclockersclub.com/reviews/msi_gtx1080_gaming_x_8g_overclocking/6.htm)mit obigen Settings gefunden:

GTX 1080 FE: 63,9 FPS (OC @ ca. 2100/1383: 72,3)
GTX 1080 MSI: 67,8 FPS (OC: 73,1)

Damit kommt man mit der GTX 1070 mit ein wenig OC wirklich an eine GTX 1080 Stock heran. Wenn man es dann noch schafft, den benötigten Takt mit möglichst unter 1v zu schaffen, hat man wohl eine "Effizienzbombe" im Rechner. Also viel Spaß bei euren Undervolting-Experimenten. ;-)

Machst du das mit Precicion X?
Finde die Voltage-Steuerung da irgendwie ziemlich unübersichtlich.
Hast du ein paar Tipps? Würde mich da wohl auch mal ranmachen den Sweet-Spot zu finden, obwohl die Karte out-of-the-Box schon echt gut ist.

Grendizer
2016-08-11, 10:31:51
Hat man eigentlich bei einem Customdesign, wie die Gainward 1070 Dual Fan die möglichkeit später eine andere Kühlerkonstruktion zu verbauen ?

Grendizer
2016-08-11, 10:38:34
Hatte ich nur kurz getestet, aber weit jenseits 100FPS.
Jetzt weiß ich aber warum Pingu in Diablo 3@4K unter 60 Grad hab, die habe ich nämlich auch mit Vsync, die Karte taktet dann auch nur mit 1050Mhz oder so :D



Machst du das mit Precicion X?
Finde die Voltage-Steuerung da irgendwie ziemlich unübersichtlich.
Hast du ein paar Tipps? Würde mich da wohl auch mal ranmachen den Sweet-Spot zu finden, obwohl die Karte out-of-the-Box schon echt gut ist.


Afterburner beta und die Kurve mit STRG+F aufrufen. Da war ein youtube Video gelinkt, das gut erklärt wie es geht.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11127544#post11127544

Ich bekomme meine Gainward DF auf 2050@0,962 .. der Speicher ist allerdings nicht so prall und läßt nur 2240 Mhz stabil zu.

The_Invisible
2016-08-11, 10:46:41
Wann senken die Karten eigentlich die Taktstufen wenn man nicht im Powerlimit ist?

Bei meiner Gamerock anscheinend bei 65°C und 70°C jeweils eine Stufe. Wenn ich den Lüfter auf 100% stelle komme ich sogar in den niedrigen 50er Bereich bei Vollast. :D

Loeschzwerg
2016-08-11, 17:09:34
Gibt es irgendwo einen Test zur Gigabyte GeForce GTX 1070 Mini ITX OC?

http://geizhals.de/gigabyte-geforce-gtx-1070-mini-itx-oc-gv-n1070ixoc-8gd-a1469089.html?hloc=at&hloc=de

Liquaron
2016-08-11, 23:12:30
Gibt es irgendwo einen Test zur Gigabyte GeForce GTX 1070 Mini ITX OC?

http://geizhals.de/gigabyte-geforce-gtx-1070-mini-itx-oc-gv-n1070ixoc-8gd-a1469089.html?hloc=at&hloc=de

Mhh nicht das ich wüsste, aber ich besitze sie in bin bisher sehr zufrieden.

Ich habe heute mal meine Grenzen der Grafikkarte austesten wollen.

Bin bisher bei Chip +170 und Ram +370. :freak:

Das heißt meine Grafikkarte taktet gerade bis 2100 hoch....

Das ist schon übel...BF4, Witcher3, Firestrike, Heaven und WoW liefen zumindest gerade stabil. Muss mal längeren Zeitraum testen. Ram habe ich noch nicht an die Grenze gebracht.

JetStream
2016-08-12, 00:19:59
Hat man eigentlich bei einem Customdesign, wie die Gainward 1070 Dual Fan die möglichkeit später eine andere Kühlerkonstruktion zu verbauen ?


Bei den Palit Gamerock / JetStream und Gainward Phoenix varianten lohnt sich tatsächlich nur ein Lüftertausch, der Kühlkörper ist nämlich Überdurchschnittlich Gut.
Das Lüftermodul lässt sich ohne Siegelbruch entfernen, zudem hat das vordere Gewinde einen Abstand von exakt 10.5cm, passgenau für einen 120mm Lüfter.
-> http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11117621&postcount=1340

Sven77
2016-08-12, 10:55:36
Hab nur ich das Gefühl oder verkauft sich die 1070 hier im Forum überdurchschnittlich gut :)

Hab mir auch die EVGA 1070ftw geholt, wie ist das eigentlich:
Für BF4 wohl übertrieben ;)

scully1234
2016-08-12, 10:57:58
Hab nur ich das Gefühl oder verkauft sich die 1070 hier im Forum überdurchschnittlich gut :)


Für BF4 wohl übertrieben ;)

Wohl generell Pascal...

https://www.computerbase.de/2016-08/nvidia-pascal-q2-2017/

Grendizer
2016-08-12, 11:10:54
Wohl generell Pascal...

https://www.computerbase.de/2016-08/nvidia-pascal-q2-2017/

Für mich war der Mindstar mit 399 Euro vom Preis/Leistungsverhältnis im Moment unschlagbar. 50% Mehrleistung für 100 Euro im Vergleich zur 1060/480. War zwar 150 Euro mehr ursprünglich geplant, aber dafür sicher für die nächsten 2 Jahre. Das sehe ich bei einer 1060/480 momentan leider nicht.

Ätznatron
2016-08-12, 11:11:42
Überdurchschnittlich gut?

Glaube ich nicht, die hohen Verkaufspreise generieren in dem Fall den Umsatz, nicht die verkauften Stückzahlen.

Und was die GTX 1060 angeht: irgendwie kommt die vergleichsweise nicht aus dem Quark...

scully1234
2016-08-12, 11:13:22
Überdurchschnittlich gut?

Glaube ich nicht, die hohen Verkaufspreise generieren in dem Fall den Umsatz, nicht die verkauften Stückzahlen.
...


Das werden wir dann ja wohl an den Quartalszahlen von AMD verifizieren koennen,wenn da weiter abgesackt wird ,duerfte sich das schnell als Luftnummer erweisen:wink:

Aber Steam ist ja irgendwann auch ein Indikator

Ätznatron
2016-08-12, 11:14:21
Das werden wir dann ja wohl an den Quartalszahlen von AMD verifizieren koennen:wink:

Ändert ja nichts.

Sven77
2016-08-12, 11:15:31
Überdurchschnittlich gut?

Schau ich in die entsprechenden Threads kaufen sich irgendwie alle die 1070.. das war auch nur subjektiv gewertet

Raff
2016-08-12, 11:18:41
Deutschland ist, allem Gemecker zum Trotz, ein sehr reiches Land. Sowohl die GTX 1070 als auch die GTX 1080 verbreiten sich rasant, wie es zuvor die GTX 980 Ti tat: http://extreme.pcgameshardware.de/quickpolls/447331-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-sommer-16-a.html

MfG,
Raff

Loeschzwerg
2016-08-12, 11:19:19
Mhh nicht das ich wüsste, aber ich besitze sie in bin bisher sehr zufrieden.

Ich habe heute mal meine Grenzen der Grafikkarte austesten wollen.

Bin bisher bei Chip +170 und Ram +370. :freak:

Das heißt meine Grafikkarte taktet gerade bis 2100 hoch....

Das ist schon übel...BF4, Witcher3, Firestrike, Heaven und WoW liefen zumindest gerade stabil. Muss mal längeren Zeitraum testen. Ram habe ich noch nicht an die Grenze gebracht.

Nice :) Wie ist es um die Lautstärke und Temperatur bestellt?

Ätznatron
2016-08-12, 11:21:46
Schau ich in die entsprechenden Threads kaufen sich irgendwie alle die 1070.. das war auch nur subjektiv gewertet

Ja, das ist deine subjektive Einschätzung.

Wenn man vergleichen möchte, dann Karten aus dem selben Marktsegment. Momentan bietet sich bei nVidia vs AMD somit nur der Vergleich 1060 vs RX 480 an. Da habe ich wiederum den subjektiven Eindruck, dass nVidia dort weit vom üblichen 20:80 Verhältnis entfernt ist. Da scheint's mir eher 40:60 zu sein.

Sven77
2016-08-12, 11:23:48
Meine Aussage war nicht "Pascal verkauft sich besser als Polaris" sondern "Pascal verkauft sich trotz des hohen Preises sehr gut".. AMD möchte ich hier gar nicht bewerten genausowenig wie die 1060

Ätznatron
2016-08-12, 11:28:02
Meine Aussage war nicht "Pascal verkauft sich besser als Polaris" sondern "Pascal verkauft sich trotz des hohen Preises sehr gut".. AMD möchte ich hier gar nicht bewerten genausowenig wie die 1060

Ich hätte vor den zweiten Satz in meinen Beitrag noch explizit ein @scully1234 setzen sollen, damit es sich besser differenziert...;)

Thunder99
2016-08-12, 11:30:07
Deutschland ist, allem Gemecker zum Trotz, ein sehr reiches Land. Sowohl die GTX 1070 als auch die GTX 1080 verbreiten sich rasant, wie es zuvor die GTX 980 Ti tat: http://extreme.pcgameshardware.de/quickpolls/447331-welche-grafikkarte-nutzt-du-derzeit-zum-spielen-sommer-16-a.html

MfG,
Raff
Das stimmt. Umso bitterer das AMD kein Konter liefern kann :(

Trotz des massiv beschnittenen Chips scheint die 1070 ein rundes Produkt zu sein was die Leute zum kaufen bewegt, trotz dem übertriebenen Preis...

Würde maximal 450 ausgeben, eher <400€, und die 1080 eher bei +/-600€

Grendizer
2016-08-12, 11:31:40
Das stimmt. Umso bitterer das AMD kein Konter liefern kann :(

Trotz des massiv beschnittenen Chips scheint die 1070 ein rundes Produkt zu sein was die Leute zum kaufen bewegt, trotz dem übertriebenen Preis...

Würde maximal 450 ausgeben, eher <400€, und die 1080 eher bei +/-600€


wo ist das Problem ?

http://www.mindfactory.de/product_info.php/8192MB-KFA2-GeForce-GTX-1070-Reference-Edition-Aktiv-PCIe-3-0-x16--Retai_1094567.html

Sven77
2016-08-12, 11:33:30
Das stimmt. Umso bitterer das AMD kein Konter liefern kann :(


Ich behaupte mal das der Konter seitens AMD nicht viel am Preis ändern wird.. zumal es keinen geben wird denn kaum einer der sich eine 1070/180 gekauft hat wird sich ein halbes Jahr später das Konkurrenzprodukt holen. Mit jedem Tag verliert AMD möglich Marktanteile in diesem Leistungssegment

scully1234
2016-08-12, 11:34:41
Trotz des massiv beschnittenen Chips scheint die 1070 ein rundes Produkt zu sein was die Leute zum kaufen bewegt, trotz dem übertriebenen Preis...


Hier gibt's ein Beispiel aus der Vergangenheit

https://www.computerbase.de/forum/showthread.php?t=1608687&p=19127935#post19127935

Von welchen ''uebertriebenen'' Preis ist da also die Rede, wenn man allgemeine Teuerungsrate und Dragi EZB Absurditaeten mit einrechnet?

Dazu duerfte die Forschung u Fertigung in solch kleinen Strukturen ,auch nicht gerade guenstiger geworden sein

Selbst zur Titan X ,gibt es aequivalente Produkte aus der Vergangenheit , die das selbe einforderten.

Ist das Erinnerungsvermögen so schlecht, oder moechte man hier einfach was etablieren ?

Liquaron
2016-08-12, 11:37:46
Nice :) Wie ist es um die Lautstärke und Temperatur bestellt?

Also ich lasse ab 70C den Lüfter mit ca. 80% drehen. Dadurch bleibt sie bei 69-70C. Man darf nicht vergessen, dass ich die Karten in einem Mini ITX Gehäuse betreibe. Ansonsten ist die Lautstärke glaube ich ziemlicher Durchschnitt. Sie ist nicht viel lauter oder leiser als meine alte GTX 970. Jedoch zocke ich auch immer mit meinen Bose noise cancelling Kopfhörern wodurch mir die Lautstärke ziemlich egal ist....

Also ich konnte heute Morgen die Karte noch auf Max BC 2.100 Core & 4.495 Memory schieben mit 1 Stunde Heaven und 30 Minuten Witcher 3. Ich denke Core geht nicht mehr. Memory bin ich noch nicht am Limit. Da muss ich noch weiter testen....

Ätznatron
2016-08-12, 11:42:10
Also ich konnte heute Morgen die Karte noch auf Max BC 2.100 Core & 4.495 Memory schieben mit 1 Stunde Heaven und 30 Minuten Witcher 3. Ich denke Core geht nicht mehr. Memory bin ich noch nicht am Limit. Da muss ich noch weiter testen....

Womit testest du eigentlich? Nur mit Spielen oder auch mit Sachen wie OCCT, Furmark, usw...?

Iruwen
2016-08-12, 12:13:10
Ja, das ist deine subjektive Einschätzung.

Wenn man vergleichen möchte, dann Karten aus dem selben Marktsegment. Momentan bietet sich bei nVidia vs AMD somit nur der Vergleich 1060 vs RX 480 an. Da habe ich wiederum den subjektiven Eindruck, dass nVidia dort weit vom üblichen 20:80 Verhältnis entfernt ist. Da scheint's mir eher 40:60 zu sein.

Wenn die Leute die GTX 1070 kaufen wie blöde kein Wunder.

N0Thing
2016-08-12, 12:25:37
Hier gibt's ein Beispiel aus der Vergangenheit

https://www.computerbase.de/forum/showthread.php?t=1608687&p=19127935#post19127935

Da wird aber in dem CB-Beitrag eine Milchmädchenrechnung betrieben mit dem Argument, dass die schnelleren Karten der Pascal-Generation noch nicht veröffentlicht waren.
Im Prinzip sieht man an der Rechnung sehr gut, dass die Chips, die dem heutigen Äquivalent eines GP102 entsprechen, für weniger als die Hälfte des Preises verkauft wurde und dies auch nicht beschnitten (die GTX 8800 Ultra hatte nur höhere Taktraten).
Die GTX 1070 würde also am ehesten einer 8800 GT entsprechen und die war wohl zum damaligen Zeitpunkt auch nochmal günstiger als eine 8800 GTX.

Verständlicherweise steigen die Preise für die Chipentwicklung und -produktion und sowohl Angebot und Nachfrage wie auch der Währungskurs spielen eine wichtige Rolle bei der Preisgestaltung. Aber nur weil inzwischen der zweitgrößte Chip vor dem größten Chip veröffentlicht wird, sollte man für einen Preisvergleich mit der Vergangenheit die gleiche Chip-Klasse vergleichen und nicht nach dem Zeitpunkt allein. Sonst müsste man bei der Maxwell-Generation die 750 Ti als Maßstab nehmen. ;)

So oder so ist eine Diskussion über die Preise müßig. Wenn genug Leute kein Problem mit den hohen Preisen haben, dann sind sie für das Produkt marktgerecht, egal ob der Preis gerechtfertigt wirkt oder überzogen.

Ätznatron
2016-08-12, 12:25:57
@Iruwen

Hier aus dem 3DCenter:

http://www.3dcenter.org/dateien/abbildungen/Umfrage-Auswertung-In-welchem-Preisbereich-werden-Grafikkarten-gekauft.png

In der Hauptfrage gab es dagegen die zu erwartende Konzentration bei einem Zielpreis im mittleren Preisbereich, wobei der einzelne Preisbereich von bis 300 Euro mit 38,8% Stimmenanteil sehr deutlich in Front liegt.

Da verkaufen sich die Stückzahlen.

Troyan
2016-08-12, 12:31:53
Die GTX 1070 würde also am ehesten einer 8800 GT entsprechen und die war wohl zum damaligen Zeitpunkt auch nochmal günstiger als eine 8800 GTX.

G92 war ein Shrink von G80. GP104 entspricht wohl eher G71, der mit 190mm^2 auch für bis zu 500€ verkauft wurde: https://www.computerbase.de/2006-03/test-geforce-7600-gt-7900-gt-und-7900-gtx/28/

Matrix316
2016-08-12, 12:46:50
G92 war ein Shrink von G80. GP104 entspricht wohl eher G71, der mit 190mm^2 auch für bis zu 500€ verkauft wurde: https://www.computerbase.de/2006-03/test-geforce-7600-gt-7900-gt-und-7900-gtx/28/
Hmmm, ich finde man sollte nicht zu sehr auf die Chips achten sondern mehr auf die Leistung und die Positionierung im Portfolio. Ob ein Chip ein Vollausbau oder ein Shrink ist oder sonstwie, interessiert ja eigentlich keinen. Wichtig ist Leistung und das Verhältnis zur Konkurrenz im eigenen Hause.

Die 1070 würde ich z.B. mit der 7900GT gleichsetzen und die 1080 der 7900GTX und die Titan X der 7900 GX2 oder so.

Sven77
2016-08-12, 12:49:28
Die Leistungssegmentierung ist heute eine komplett andere als damals, da macht es keinen Sinn irgendwelche Modelle gegenüberzustellen und dann noch Preise zu vergleichen

scully1234
2016-08-12, 12:56:46
Im Prinzip sieht man an der Rechnung sehr gut, dass die Chips, die dem heutigen Äquivalent eines GP102 entsprechen, für weniger als die Hälfte des Preises verkauft wurde und dies auch nicht beschnitten .

Dann darf ich das Erinnerungsvermögen mal an die Geforce 2 Ultra erinnern

http://alt.3dcenter.org/artikel/geforce2-pro-ultra/technik.php

Hatten wir letztens erst


Und wie gesagt rechnest du regulaere Inflation, den kuerzlichen Boersenabsturz ,und das was Dragi hier zusaetzlich noch betreibt mit ein , wo von reden wir dann bitte schoen?

Zumal es zunehmend kosten und Zeitintensiver wird ,je kleiner die Strukturen werden, und welcher Konzern waelzt diese Kosten nicht auch ab, wenn er es kann?

Das Fazit von Leo ,koennte auch aus der Rubrik''und taeglich gruesst das Murmeltier'' stammen

Dabei hat niemand jemals behauptet, eine Ultra müsse doppelt so viel leisten wie die normale GeForce2, nur weil sie ungefähr doppelt so viel kostet - auch bei den CPUs erleben wir regelmäßig, daß uns die Hersteller für die letzten paar Megahertz überproportional zur Kasse bitten. Insofern innerhalb des vorhandenen Preisgefüges beides haltbare Preise - daß das aktuelle Preisgefüge allerdings insgesamt zu hoch angesiedelt sein dürfte, steht auf einem anderen Blatt.

Denn das kannst du 1:1 ummuenzen auf heute

Liquaron
2016-08-12, 13:05:57
Womit testest du eigentlich? Nur mit Spielen oder auch mit Sachen wie OCCT, Furmark, usw...?

Einen Mix aus verschiedenen Sachen. Unity Heaven, 3D Mark Firestrike, Witcher 3, BF4 64er MP und WoW.

dargo
2016-08-12, 13:23:32
Und wie gesagt rechnest du regulaere Inflation, den kuerzlichen Boersenabsturz ,und das was Dragi hier zusaetzlich noch betreibt mit ein , wo von reden wir dann bitte schoen?

Zumal es zunehmend kosten und Zeitintensiver wird ,je kleiner die Strukturen werden, und welcher Konzern waelzt diese Kosten nicht auch ab, wenn er es kann?

Das Fazit von Leo ,koennte auch aus der Rubrik''und taeglich gruesst das Murmeltier'' stammen

Denn das kannst du 1:1 ummuenzen auf heute
Verlangen kann man viel. Es bringt dir nur nichts wenns ein Rohrkrepierer wird. Mal ein kleines Beispiel.
http://www.mindfactory.de/product_info.php/Intel-Core-i7-4790K-4x-4-00GHz-So-1150-BOX_962955.html
http://www.mindfactory.de/product_info.php/Intel-Core-i7-5960X-8x-3-00GHz-So-2011-3-WOF_974993.html

Und das ist noch lange nicht das Ende der Fahnenstange.
http://www.mindfactory.de/product_info.php/Intel-Core-i7-6950X-10x-3-00GHz-So-2011-3-WOF_1042105.html

Thunder99
2016-08-12, 13:27:24
wo ist das Problem ?

http://www.mindfactory.de/product_info.php/8192MB-KFA2-GeForce-GTX-1070-Reference-Edition-Aktiv-PCIe-3-0-x16--Retai_1094567.html
Custom Modelle mit gescheiter Kühlung ;)

Grendizer
2016-08-12, 13:32:11
Custom Modelle mit gescheiter Kühlung ;)

Wenn die Gainward 1070 Dualfan mit undervolting auf 0,962@2050 kommt sehe ich hier nicht so den Zwang wie bei einer AMD 480.

dildo4u
2016-08-12, 13:34:30
Custom Modelle mit gescheiter Kühlung ;)
Gibt es schon bester Kühler laut PCGH:

https://geizhals.de/gainward-geforce-gtx-1070-phoenix-3699-a1456715.html?v=l&hloc=at&hloc=de

Thunder99
2016-08-12, 13:48:35
Gibt es schon bester Kühler laut PCGH:

https://geizhals.de/gainward-geforce-gtx-1070-phoenix-3699-a1456715.html?v=l&hloc=at&hloc=de
ok, dann tut sich ja was an der Front :D :) <400€ wären mir aber lieber :redface: :freak:

Palpatin
2016-08-12, 14:17:09
Hab mir jetzt auch die Gainward geordert. Hätte zwar lieber die 1080 gehabt und dafür auch bis zu 600 ausgegeben, aber muss diesesmal halt die abgespeckte reichen.

-/\-CruNcher-/\-
2016-08-12, 14:21:31
Die Leistungssegmentierung ist heute eine komplett andere als damals, da macht es keinen Sinn irgendwelche Modelle gegenüberzustellen und dann noch Preise zu vergleichen

Bei Nvidia gibt es seit Tegra keine Leistungssegmentierung mehr nur noch eine Efffizienzsegmentierung basierend auf den Verbrauch ;)

Die Leistung bleibt konstant und wird nur hin und her geschiftet,vor allem wird sie zunehmend auf Gameworks ausgerichtet.

Etwas mehr Performance kostet generel jedes mal + 100€ minimum dafür bekommt man dann ca 10 FPS mehr + andere goodies

PS: Software Advances werden auf jedenfall fruchtvoller für den Enduser in nächster Zeit als wie die Hardware Relation ;)

N0Thing
2016-08-12, 14:49:04
Dann darf ich das Erinnerungsvermögen mal an die Geforce 2 Ultra erinnern

http://alt.3dcenter.org/artikel/geforce2-pro-ultra/technik.php

Hatten wir letztens erst


Und wie gesagt rechnest du regulaere Inflation, den kuerzlichen Boersenabsturz ,und das was Dragi hier zusaetzlich noch betreibt mit ein , wo von reden wir dann bitte schoen?

Zumal es zunehmend kosten und Zeitintensiver wird ,je kleiner die Strukturen werden, und welcher Konzern waelzt diese Kosten nicht auch ab, wenn er es kann?

Das Fazit von Leo ,koennte auch aus der Rubrik''und taeglich gruesst das Murmeltier'' stammen



Denn das kannst du 1:1 ummuenzen auf heute

Das Beispiel mit der Geforce 2 Ultra ist auch schlecht, es wird nicht besser eh öfter man es bemüht. --> PM da OT

Campi31
2016-08-12, 15:22:27
An alle die die EVGA 1070 FTW bekommen ahben.War bei euch eine Treiber CD dabei und dieser Sticker??

Zu sehen in diesem Video
https://www.youtube.com/watch?v=eSWs6NuB0tI
( bei 3:25 )

PingpiN
2016-08-12, 16:32:29
Hi meine zotac AMP! Edition taktet mit 1923 boost.
http://gpuz.techpowerup.com/16/08/12/g6h.png
das ist der standart takt ich hab selber noch nicht versucht zu übertakten.bei gpuz steht aber
http://gpuz.techpowerup.com/16/08/12/ezt.png
wie kann denn das sein?

Raff
2016-08-12, 16:35:22
GPU-Z schätzt den Boost bzw. entnimmt ihn einer Datenbank, das ist nicht ausgelesen. In der Realität ist der Boost fast immer höher als das Angegebene.

MfG,
Raff

BK-Morpheus
2016-08-12, 16:38:55
Ist ganz normal. Der echte Boost ist dank Boost 3.0 eigentlich immer weit über dem, der im Datenblatt steht.

edit: Raff war etwas schneller :-)
Wer sich auch nur ein Review zur 1060/1060/1080 vor dem Kauf einer solchen Karte angesehen hat, sollte bereits darüber gestolpert sein, dass der Boost-Takt dort immer höher war, als der im Datenblatt und von der Belastungsart/-Stärke, dem Powertarget und der Temperatur abhängig schwankt.

PingpiN
2016-08-12, 16:57:25
Achso...dann bin ich ja ganz gut dabei mit denn 1923 mhz.viele wollen ja die 2000 mhz knacken die hab ich ja schon beinah.hab denn lüfter auf 100 % gestellt.wenn die karte nich wämer als 60c wird taktet sie mit 1964mhz.das reicht fürs erste...

Dr.Dirt
2016-08-12, 17:45:08
An alle die die EVGA 1070 FTW bekommen ahben.War bei euch eine Treiber CD dabei und dieser Sticker??

Zu sehen in diesem Video
https://www.youtube.com/watch?v=eSWs6NuB0tI
( bei 3:25 )
Treiber CD nicht aber der Sticker war bei mir drin.

The_Invisible
2016-08-12, 17:50:38
Achso...dann bin ich ja ganz gut dabei mit denn 1923 mhz.viele wollen ja die 2000 mhz knacken die hab ich ja schon beinah.hab denn lüfter auf 100 % gestellt.wenn die karte nich wämer als 60c wird taktet sie mit 1964mhz.das reicht fürs erste...

2ghz sollten eigentlich immer drinnen sein. Aber bei dem hohen Boost Takt zahlt sich das OC fast eh nicht mehr aus. Bei mir das selbe, 2050 sind kein Problem, bei 2,1ghz machen eigentlich alle dicht.

Ex3cut3r
2016-08-12, 18:05:18
Vram übertakten bringt je nach Game und Auflösung auch nochmal ordentlich etwas. Bei mir sind +700Mhz stabil.

Ätznatron
2016-08-12, 18:10:34
2ghz sollten eigentlich immer drinnen sein. Aber bei dem hohen Boost Takt zahlt sich das OC fast eh nicht mehr aus. Bei mir das selbe, 2050 sind kein Problem, bei 2,1ghz machen eigentlich alle dicht.

Wenn ich den Unigine Heaven Bench mal als Maßstab nehme, liegen bei meiner Karte zwischen 1440p@Stock und max. stabilem OC 6,2 FPS, also ~11% (55,9 : 62,1).

Also so ganz zu vernachlässigen ist der Effekt nicht.

Vram übertakten bringt je nach Game und Auflösung auch nochmal ordentlich etwas. Bei mir sind +700Mhz stabil.

Hast du mal mit OCCT den Speicher auf Fehler abgeklopft?

Ex3cut3r
2016-08-12, 20:23:23
Ne, aber mehere Stunden, Ingame getestet, Witcher 3, Doom, Rise of the Tomb, Mirrors Edge Catalyst, keine auffälligkeiten, aber klar den VRAM, so weit zu prügeln, ist auf dauer sicherlich nicht gesund.

Ätznatron
2016-08-12, 20:39:48
Ne, aber mehere Stunden, Ingame getestet, Witcher 3, Doom, Rise of the Tomb, Mirrors Edge Catalyst, keine auffälligkeiten, aber klar den VRAM, so weit zu prügeln, ist auf dauer sicherlich nicht gesund.

Wenn du dein Ziel erreicht hast und das alles stabil genug scheint und du zufrieden bist: Wie kann ich da meckern? ;)

Ex3cut3r
2016-08-12, 20:41:21
Mecker ich? Sry wenns so klingt, ne bin Super zufrieden selbst mit non OC. Reicht erstmal für 1-2 Jahre. ;)

Schönes WE

MfG

Ätznatron
2016-08-12, 20:44:00
Mecker ich? Sry wenns so klingt, ne bin Super zufrieden selbst mit non OC. Reicht erstmal für 1-2 Jahre.

Nein, so war es nicht gemeint.

Mich sehe ich in der Rolle des Meckerers, der OC erst dann als stabil absegnet, wenn es dem eigenen persönlichen Testparcour genügt... :biggrin:

Dr.Dirt
2016-08-13, 01:51:49
Bei meiner EVGA FTW sehen jetzt +100MHz beim Core und +600MHz beim Speicher i.O. aus.
Bei +120MHz im Core hatte ich im FureMark freezes und bei +650MHz beim Speicher sporadische Bildfehler im Witcher 3.

Campi31
2016-08-13, 04:29:18
Treiber CD nicht aber der Sticker war bei mir drin.
ne ich habe keinen sticker und keine Treiber CD

Liquaron
2016-08-13, 08:28:55
Wie lange sollte man denn OCCT und Furmark laufen lassen um von einer Stabilität auszugehen?

Fliwatut
2016-08-13, 09:06:31
Teste das lieber mit fordernden Spielen, da zeigt sich dann schnell, wenn es zuviel OC ist.

Ätznatron
2016-08-13, 09:19:00
Wie lange sollte man denn OCCT und Furmark laufen lassen um von einer Stabilität auszugehen?

Bei OCCT reichen wohl 5 Minuten. Speicherfehler tauchen bei mir entweder innerhalb dieser Zeit auf oder gar nicht (wenn gar nicht 1 Stunde bedeutet).

Länger habe ich das nie laufen lassen.

Mit Furmark teste ich das PerfCap-Verhalten. GPU-Z läuft da meistens mit.

Wenn die diversen Limits für eine längere Zeit nicht mehr überschritten werden, ist das für mich ein Indiz für ein für meinen Hausgebrauch stabiles OC.

https://abload.de/thumb/gtx1070_uvj8sae.jpg (http://abload.de/image.php?img=gtx1070_uvj8sae.jpg)

RoughNeck
2016-08-13, 10:12:25
Wie lange sollte man denn OCCT und Furmark laufen lassen um von einer Stabilität auszugehen?

Gar nicht.
Games wie Witcher 3, BF4, GTA 5 oder was du sonst noch für spiele hast.
Das bringt weit mehr als die beiden Programme.

Ätznatron
2016-08-13, 10:14:38
Gar nicht.
Games wie Witcher 3, BF4, GTA 5 oder was du sonst noch für spiele hast.
Das bringt weit mehr als die beiden Programme.

Mit Spielen testet man natürlich auch, vorwiegend sogar, aber wenn's schon bei den beiden Programmen scheitert, ist die Wahrscheinlichkeit, dass es auch in Spielen scheitert, um so höher.

Campi31
2016-08-13, 12:31:43
Treiber CD nicht aber der Sticker war bei mir drin.
Ist der aus Metall?

senator
2016-08-13, 13:29:11
Ich habe bei meiner Gainward Phönix +145 GPu und +400 Mem eingestellt.Bei GTA V hält sie den Takt dann konstant bei 2000MHz GPU.Ich bin absolut zufrieden mit der Karte.Kein Pfeiffen oder Zwitschern zu hören.

Ex3cut3r
2016-08-13, 15:43:13
Also ich hab mich heute mal ans undervolting gemacht, mit 1 Volt sind 2012mhz möglich, und die laufen anscheinend auch erst mal stabil, 1 stunde GTA V bis jetzt. Dann frisst die GPU grade mal 160-170 Watt. :O und trotzdem brachiale Leistung. Was auch gut ist, der leise MSI Kühler, bleibt praktisch unhörbar während des zockens. Die Standard Spannung ist vollkommen übertrieben, mit 1936 mhz hat der sonst schon 1.050V- 1.030V angelegt.

Oliver_M.D
2016-08-13, 21:47:57
Letzte nacht endlich mit undervolting beschäftigt und nach einer stunde in Witcher 3@4k sieht es wohl so aus das die GPU 2012MHz bei 0.975 volt schafft. :D
Hat jemand noch irgendwelche tipps zum curve editor oder ist wie ich es in moment habe gut so?
https://dl.dropboxusercontent.com/u/19213305/Witcher3at4K.pnghttps://dl.dropboxusercontent.com/u/19213305/CurveEditor.png

Ätznatron
2016-08-13, 21:52:01
Letzte nacht endlich mit undervolting beschäftigt und nach einer stunde in Witcher 3@4k sieht es wohl so aus das die GPU 2012MHz bei 0.975 volt schafft. :D
Hat jemand noch irgendwelche tipps zum curve editor oder ist wie ich es in moment habe gut so?
https://dl.dropboxusercontent.com/u/19213305/Witcher3at4K.pnghttps://dl.dropboxusercontent.com/u/19213305/CurveEditor.png

Du solltest dir mindestens diesen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11113697&postcount=23) Beitrag durchlesen und dann deine Kurve vergleichen. ;)

Oliver_M.D
2016-08-13, 23:41:33
Du solltest dir mindestens diesen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11113697&postcount=23) Beitrag durchlesen und dann deine Kurve vergleichen. ;)So besser?:D
https://dl.dropboxusercontent.com/u/19213305/CurveEditor2.png

Ätznatron
2016-08-14, 00:16:47
So besser?:D


Sieht zumindest besser aus.

Dr.Dirt
2016-08-14, 12:53:58
Ist der aus Metall?
Ist magnetisch, also ja.

Campi31
2016-08-14, 13:56:34
Schade dass der bei mir nicht dabei war.Komisch aber die Karte war original zu,hatte auch die Folie auf der Karte und die Siegel.

Finde es ja etwas blöd dass einmal ne TreiberCD mit Sticker drin ist , einmal nicht.Packen die karten bei EVGA Praktikanten ein?

Dr.Dirt
2016-08-14, 16:00:43
Bei meiner EVGA FTW sehen jetzt +100MHz beim Core und +600MHz beim Speicher i.O. aus.
Bei +120MHz im Core hatte ich im FureMark freezes und bei +650MHz beim Speicher sporadische Bildfehler im Witcher 3.
Die +100 liefen leider nicht stabil, runter auf +50.

Ex3cut3r
2016-08-15, 00:08:57
awB3VivRPAo

Gutes Video imo.

JetStream
2016-08-15, 01:23:26
Spulengeräusche meiner 1070 Super JetStream:

wYLUbq8fSGI

Tobe1701
2016-08-15, 06:14:59
http://youtu.be/awB3VivRPAo

Gutes Video imo.
Super,danke! Schade das die EVGA nicht im LineUp ist.

N0Thing
2016-08-15, 10:49:54
http://youtu.be/awB3VivRPAo

Gutes Video imo.

Leider ist das Rauschen des Mikrofons oft lauter als die Lüfter der Grafikkarten.
Aber definitiv eine Hilfe bei der Einschätzung der Lautstärke der unterschiedlichen Modelle.

Campi31
2016-08-15, 13:09:20
Habe die EVGA endlich eingebaut.Boostet bei Rise of the Tomb Raider ohne was zu machen auf 1936.Karte ist echt super verarbeitet und ich mache da auch nix.Spiele erst mal endlich ruckelfrei.

aufkrawall
2016-08-15, 13:34:24
Na ja, definiere ruckelfrei. Die 1070 mit 2Ghz ging hier auch unter 50fps in RotTR Geothermal Valley WQHD. Ohne Gsync schon recht zäh.
Hatte die 1070 MSI da, aber war mit den Lüftern unzufrieden (vielleicht Pech mit dem konkreten Modell gehabt).

Grendizer
2016-08-15, 13:51:07
Na ja, definiere ruckelfrei. Die 1070 mit 2Ghz ging hier auch unter 50fps in RotTR Geothermal Valley WQHD. Ohne Gsync schon recht zäh.
Hatte die 1070 MSI da, aber war mit den Lüftern unzufrieden (vielleicht Pech mit dem konkreten Modell gehabt).

Vermutlich in FHD... so wie beim mir auch.În 1920x1200 mit SMAA um die 80 fps.

Im Moment bin ich sau zufrieden mit meiner Gainward auf 1810 und Undervolting auf 0,95V. Selbst Project Cars bekomme ich auf 5760x1200 mit DS4X zwischen 50-60 fps zum laufen. Und das ist mal ein geiles Feeling, auch wenn die Project Cars Engine beim Triple Monitor Support ziemlich schlecht ist, was die perspektivische Darstellung angeht. Für 399 Euro ist es ok, auch wenn es in der Tat leiser sein dürfte.:biggrin:

Campi31
2016-08-15, 14:08:46
Ich spiele in 1920x1080 und SMAA.Klar wenn man das andere Anti Alaising aktiviert ( SSAA ) kackt sie ab.Nur gleube ich kaum dass das die 1080 schafft

In GTA 5 bin ich un etwas verwundert.Der Takt schwankt extrem und wirklich rund läuft das nicht auf Ultra.Ist das so CPU lastig?

Ex3cut3r
2016-08-15, 14:36:55
Schau selbst nach, Afterburner OSD und schau dir die GPU Auslastung an, alles unter 90% ist schon heftiges CPU Limit imo.

Na ja, definiere ruckelfrei. Die 1070 mit 2Ghz ging hier auch unter 50fps in RotTR Geothermal Valley WQHD. Ohne Gsync schon recht zäh.
Hatte die 1070 MSI da, aber war mit den Lüftern unzufrieden (vielleicht Pech mit dem konkreten Modell gehabt).

Jop, kann ich nur bestätigen, eigentlich wäre für mich in UWQHD eine GTX 1080 besser, aber den Preis finde ich da schon wieder zu hoch, schade, dass sich das dieses Jahr die Preise so verschoben haben.

aufkrawall
2016-08-15, 14:38:47
Bei so hohen fps, die du in 1080p mit der 1070 in dem Spiel haben dürftest, schon.
Ist halt ein Last Gen-Spiel mit Anstrich. Dazu noch Open World, in der einiges los ist.

Das Problem hast du aber teilweise selbst in WQHD. In Hitman DX12 kam ich ins CPU-Limit, bei dem die Frametimes wesentlich unsauberer sind als im GPU-Limit.
In DSR 4k lief es dann gefühlt sauberer...

Mirror's Edge Catalyst liefert mit der 1070 zwar enorm hohe fps-Raten im Vergleich zur 390 ab (mitunter doppelt so schnell, genau wie bei RotTR), aber trotzdem mikroruckelt und hakt sich das einen ab. Fühlt sich noch bei 90fps scheiße an.
Echt ärgerlich, dass man die GPU-Leistung häufig einfach nicht gut nutzen kann.
In Doom OpenGL sind die fps leider instabiler als mit der 390 Vulkan. Fühlt sich ebenfalls nicht immer besser an, und Nvidia kommt mit einem gescheiten Vulkan-Treiber offenbar nicht aus dem Quark.

Die DPC-Sache haben sie ja offenbar auch noch nicht wirklich in den Griff bekommen. Langsam verlier ich echt die Lust, mir nochmal eine 1070 zu bestellen.

Andererseits würd ich jetzt ganz gerne mal auf Gsync umsteigen.
Oder doch einfach einen FreeSync-Monitor bestellen? :freak:
Herr Jesus, ich erbitte mir ein Zeichen..

Grendizer
2016-08-15, 14:45:30
Ich spiele in 1920x1080 und SMAA.Klar wenn man das andere Anti Alaising aktiviert ( SSAA ) kackt sie ab.Nur gleube ich kaum dass das die 1080 schafft

In GTA 5 bin ich un etwas verwundert.Der Takt schwankt extrem und wirklich rund läuft das nicht auf Ultra.Ist das so CPU lastig?

Hast du einen 3570K ? Bei mir läuft der stabil auf 4,4 Ghz. Das würde auch noch ein wenig was bringen.

prinz_valium
2016-08-15, 16:59:28
http://youtu.be/awB3VivRPAo

Gutes Video imo.

unglaublich wie leise die jetstream / gamerock ist
ich werde meine wohl undervolten und ein slilent pc genießen :)

bei der MSI gaming muss aber ein fehler gemacht worden sein
die ist ja angeblich leiser bei mehr RPM :D

Ex3cut3r
2016-08-15, 17:10:26
aber trotzdem mikroruckelt und hakt sich das einen ab. Fühlt sich noch bei 90fps scheiße an.


Hmm, das kann ich nicht bestätigen, vlt. eine i5 Sache, denke schon, dass ein i5 aus der Sandy Gen + DDR3 1600, da etwas hinterher hinken kann.



Die DPC-Sache haben sie ja offenbar auch noch nicht wirklich in den Griff bekommen. Langsam verlier ich echt die Lust, mir nochmal eine 1070 zu bestellen.


Ja, die sind teilweise wirklich noch sehr ärgerlich, laut ManuelG aus dem Geforce Forum, arbeiten sie noch dran. Vlt. hat sogar schon der 369.09 da abhilfe geschaffen, muss ich noch weiter beobachten @ MadVR

aufkrawall
2016-08-15, 17:41:35
Hmm, das kann ich nicht bestätigen, vlt. eine i5 Sache, denke schon, dass ein i5 aus der Sandy Gen + DDR3 1600, da etwas hinterher hinken kann.

Das ist durchaus möglich.
Ich hatte schon damals bei Garden Warfare ein Problem mit Rucklern bei bestimmten Ereignissen, die es mit einem 4770k nicht gab. Wurd dann mit einem Patch gefixt.
Ech zum kotzen, wenn Entwickler so einen Murks bauen. Die eigentliche Leistung des 2500ks reicht hinten und vorne für Mirror's Edge, hatte mit der 1070 mit max Details die meiste Zeit um die 100fps im CPU-Limit.

The_Invisible
2016-08-15, 18:33:54
Bei mir läuft die 1070 auch sehr smooth, fast schon zu gut.

Das wäre ja vermehrt in den Reviews aufgefallen wenns da Probleme geben würde.

Ex3cut3r
2016-08-15, 18:38:48
Die ganze Reviever testen aber auch mit Skylake i7 @ 4,5 ghz dazu noch schneller DDR4 @ 3000mhz, ich komme da mit meinem 4770k @ 4,3 und DDR3 @ 2400mhz nicht ansatzweise ran, je nach Game und Settings, kann ich mir schon vorstellen, dass ein i5 aus der Sany Gen + langsamer DDR3 1600, da schon ein Bremsklotz sein kann.

DX12/Vulkan, könnte da Entlastung bringen, nur mit Nvidia scheints ja auch nicht so viel zu bringen, zumindest der aktuelle Stand. Pascal muss auch erstmal zeigen, ob er richtig was mit Async anfangen kann.

Grendizer
2016-08-15, 21:01:46
Ja das ist irgendwie blöd. Ich fühle mich mit meinem I5-3570K eigentlich bisher recht gut motorisiert. Irgendwie hatte ich nicht wirklich auf dem Schirm, das die CPU zu klein für einen 1070 sein könnte.

aufkrawall
2016-08-15, 21:06:26
Sollte mit DX12 nicht zu klein sein, wenn nicht irgendwelche anderen Gründe stören.
Nvidia ist CPU-seitig mit DX12 ja nicht langsamer als AMD.
Das Problem bei mir mit Mirror's Edge (übrigens DX11 only) sind ja nicht die fps, sondern, dass es einfach nicht ohne unentwegte üble Ruckler läuft.

Rancor
2016-08-15, 21:16:43
Also ein Sandy 3570k @ 4,4 Ghz sollte in Full HD noch ausreichen für ne GTX 1070. Habe selber einen und habe es bisher immer geschafft ins GPU Limit zu kommen ^^ xD In höhreren Auflösung ist es ehh kein Thema

Ex3cut3r
2016-08-15, 21:23:01
Dann spiel mal Watch Dogs @ Ultra, und fahre durch die Gegend, achte dabei auf die GPU Auslastung, bei mir geht die dort auf 90% runter und das in 3440x1440. System im Profil. Gut bei WD kanns aber auch das Streaming sein.

HisN
2016-08-15, 21:44:47
In BF4 und FHD hat man mit dem Ding auch keine Chance. Da wird sich die Graka die ganze Zeit langweilen.
Ich hab zwei eine 1080er als letztes getestet, aber selbst ein 4.5Ghz Haswell mit mehr als 4 Kernen langweilt die Karte. Obwohl man sich über die FPS eigentlich nicht beschweren kann.
UND DAS ist doch viel wichtiger als das (dämliche) hinter dem Limit hergerenne.
Ich hab über 100 FPS? Wen interessiert es da eigentlich noch ob die Graka oder die CPU der Hemmschuh ist? Ehrlich jetzt.

aufkrawall
2016-08-15, 21:52:36
Dann spiel mal Watch Dogs @ Ultra, und fahre durch die Gegend, achte dabei auf die GPU Auslastung, bei mir geht die dort auf 90% runter und das in 3440x1440. System im Profil. Gut bei WD kanns aber auch das Streaming sein.
Wahrscheinlich. Das Spiel ist nie zu 100% gefixt worden, neuere Ubi-Titel wie AC: Syndicate oder The Division laufen jedenfalls sauber und haben weniger ein Problem mit CPU-Limits (kommt sicher teilweise auch durch die höheren GPU-Anforderungen, aber die CPU wird auch eifnach besser genutzt).
Kaputte Spiele kann man irgendwie mit Hardware zuschmeißen, so richtig zufriedenstellend dürfte das aber auch nie laufen.

Wegen BF4: Da kann man in 1080p jede Menge Leistung verbraten für Resolution Scaling >100%, bessere HBAO per Config und MSAA/TrSSAA. Wenn man schon mit der Pixel-Auflösung leben muss.
Mesh-Details von Ultra auf High stellen spart auch eine Menge CPU-Last (ploppt eh auch auf Ultra heftig).

Grendizer
2016-08-15, 21:53:41
Jein .. 35-45 fps in WoW bei 70% GPU Auslastung ist das schlimmst was ich habe, allerdings sogar auf 4,4 Ghz.

Allerdings ist das auch so ziemlich das einzige Spiel, was da bisher auftritt. Ich lass mal GPU-Z jetzt immer mitlaufen um einfach ein Gefühl dafür zu bekommen.

Tomb Raider rennt auf 98% bei 80 fps, Witcher 3 auf 65 fps bei 99%.. ist also ok, denke ich :biggrin:

Edit: Bei WoW ist das CPU Limit extrem bei den Invasionen momentan. Wenn ich außerhalb einer Invasion im Gebiet unterwegs bin, habe ich 80 fps und 98% GPU Load mit 8xMSAA und Renderskalierung 200%. Bei vielen Spielern, gehts auf 70% GPU Load und bis auf 30 fps runter.

HisN
2016-08-15, 21:54:54
AC-U mit einem 4670er

http://abload.de/thumb/4670_stock_acu_cpu-liavugn.jpg (http://abload.de/image.php?img=4670_stock_acu_cpu-liavugn.jpg)

Erst Syndicate läuft besser?

aufkrawall
2016-08-15, 22:01:22
Sollte es eh wegen weniger NPCs. Ging mit PCSS auf der 980 OC übrigens auf 33fps in WQHD runter, man sollte also auch mit einer 1070 dem CPU-Limit gut aus dem Weg gehen können.
afair lag das bei mir bei den meisten Plätzen so bei ca. 70fps mit dem 2500k@4,8Ghz.

Dein Bild zeigt ja auch, dass das CPU-Limit sehr gering ist. Wegen 10% Verlust durchs CPU-Limit legt man doch nicht 450€ für neue Hardware auf den Tisch. Irgendwo kann mans dann auch übertreiben.

HisN
2016-08-15, 22:02:07
Das muss dann jeder selbst für sich entscheiden^^

Blase
2016-08-16, 09:26:26
Also ich habe die 420 Euro für meine GTX 1070 gerne auf den Tisch gelegt - und im Vergleich zu meiner alten 970 nun "traumhafte" Frameraten.

Gepaart ist sie mit meinem alten i7-860 (auf 4 GHz) - einer aus heutiger Sicht ziemlich alten Möhre.

Und ich spiele in WQHD. Wo ich vorher stellenweise grenzwertige Frames (Fallout 4) hatte oder gar nicht erst angefangen habe (Witcher 3), flutscht nun alles in meiner Monitorbegrenzung von 60(+) Frames.

Vielleicht spiele ich ja einfach die "falschen" Spiele diesbezüglich - aber gibt es sie wirklich, die Spiele für die zB meine CPU tatsächlich zu schwach wäre? Wo ich also selbst in 640*480 nur 30+ Frames habe und es egal wäre, welche GPU ich dazu stecke?

Ich finde, man hört viel zu oft Dinge wie "deine CPU ist zu alt/lahm" und "kann die GPU nicht auslasten". Klar, wenn man noch unterhalb von FHD spiel und mit den (Grafik-)Einstellungen geizt, langweilt sich die ("teure") GPU sicherlich ab und an. Aber wer macht denn sowas? Man (ein auch nur halbwegs "informierter" Käufer, der schon mal in den Grafikeinstellungen "rumgespielt" hat) steckt sich doch keine 400+ Euro teure GPU in den Rechner und fährt die Leistung dann nicht aus...?!

Und die Kernfrage bleibt ja - gibt es ein Spiel (oder gar schon "spürbar" mehrere), für welches eine CPU der "Klasse" meiner alten Gurke keine Frames mehr im "locker flockig ausreichenden Bereich" bereitstellen kann? Ist Assassins Creed zB so ein Spiel? Wen interessiert denn, ob die CPU "nur" 60 Frames schafft und keine 120? Bestenfalls noch einen Spieler mit einem 144Hz Monitor - das könnte ich verstehen. Aber wen noch? Wer wirklich auf sowas achtet, ist ja idR einigermaßen "informiert". So einer dreht aber ohnehin an der Auflösungs- und Einstellungsschraube, dass er seine GPU ins Schwitzen bringt. Und je nach Spiel, Auflösung und Setting ist es kein Problem, auch eine high end GPU in den Frames so "klein" zu bekommen...

Gruß
Blase

dildo4u
2016-08-16, 09:32:57
Fallout 4 ist massiv CPU limitiert wenn man die Schatten auf max hat.Hier ist die Stelle wo man das gut testen kann.

https://youtu.be/OPZXkdD1RwQ?t=3m2s

The_Invisible
2016-08-16, 09:42:19
Also ich habe die 420 Euro für meine GTX 1070 gerne auf den Tisch gelegt - und im Vergleich zu meiner alten 970 nun "traumhafte" Frameraten.

Gepaart ist sie mit meinem alten i7-860 (auf 4 GHz) - einer aus heutiger Sicht ziemlich alten Möhre.

Und ich spiele in WQHD. Wo ich vorher stellenweise grenzwertige Frames (Fallout 4) hatte oder gar nicht erst angefangen habe (Witcher 3), flutscht nun alles in meiner Monitorbegrenzung von 60(+) Frames.



W3 hatte ich in WQHD mit max Details (außer HW) auch schon mit meiner alten 970er durch und es war sehr gut spielbar. Die einzige Stelle wo es ziemlich grenzwertig wurde war im Märchenland.

Bin aber auch kein 60fps-Sync Spieler sondern noch ein Gothic-Geschädigter.

Natürlich nicht zu vergleichen mit meiner jetzigen 1070er wo es einfach nur flutscht. :D

Campi31
2016-08-16, 11:52:10
Hast du einen 3570K ? Bei mir läuft der stabil auf 4,4 Ghz. Das würde auch noch ein wenig was bringen.

läuft auf 3800

Habe gerade mal Rise of the Tomb Raider gebencht( 1920x1080).Alles auf Sehr hoch , 88 fps
aber die min fps finde ich nicht so toll.Im tal 14???

Wieso gehen die min fps so in den Keller.Selbst auf min Details habe ich im tal 33 fps als minimum .

aufkrawall
2016-08-16, 11:53:39
Vergiss die Benchmarkwerte. Stell für echte min-fps im CPU-Limit die Auflösung auf 720p und laufe mit einem fps-Counter (z.B. Geforce Experience oder Dxtory) durch die großen Hubs.

Grendizer
2016-08-16, 11:57:56
läuft auf 3800

Habe gerade mal Rise of the Tomb Raider gebencht( 1920x1080).Alles auf Sehr hoch , 88 fps
aber die min fps finde ich nicht so toll.Im tal 14???

Wieso gehen die min fps so in den Keller.Selbst auf min Details habe ich im tal 33 fps als minimum .


Das Tal hat beim Benchmark bei mir selbst mit default Werten starke Probleme, was das Laden der Objekte und Texturen angeht. Die werden erst sehr spät vollständig angezeigt. Keine Ahnung was da das Problem ist.

Campi31
2016-08-16, 12:43:16
nur wenn ich im Benchmark Thread so lese sollten das mindesten 30 fps sein aber keine 14.Und auch bei den anderen Szenen sinds bei max Details 25 ca.

Zitat*Vergiss die Benchmarkwerte. Stell für echte min-fps im CPU-Limit die Auflösung auf 720p und laufe mit einem fps-Counter (z.B. Geforce Experience oder Dxtory) durch die großen Hubs. *

Was genau??:-)

Habe gerade auch mal FarCry 4 gespielt.Da hat sie nen Takt von etwas über 1000 und das Game läuft bei aktivierter V Sync ab und zu unter 60 fps , ist am Anfang öfters auf 53 abgesackt.Die GPU Auslastung liegt bei knapp 70%.Ist das dann normal dass die nur auf etwas über 1000 läuft und wie bekommt man das hin dass die bei vollem Boost läuft?Ich bin zwar lange dabei aber so die Ahnung habe ich nicht

scully1234
2016-08-16, 13:48:28
Wer hätte das noch vor nem halben Jahr für möglich gehalten, die Leistung der Maxwell Speerspitze 980ti/Titan X seit Stand Heute in einer mobilen GTX 1070

http://www.notebookcheck.com/Nvidia-Pascal-Grafikchips-fuer-Notebooks-Geforce-GTX-1080-SLI-GTX-1070-und-GTX-1060-im-grossen-Benchmark-Vergleich.171219.0.html

Und mit der mobilen 1080er überflügelt man diese sogar

aufkrawall
2016-08-16, 15:32:37
Gibt es jetzt eigentlich Möglichkeiten, auch bei OC Customs die niedrigsten Taktraten für den tiefsten Stromspar-Modus nutzen zu können?
Am besten natürlich ohne Flashen eines modifizerten Bioses, das keine gültige Signatur mehr hat.

Campi31
2016-08-16, 22:15:24
Denkt ihr dass sich die 40 Euro Garantieverlängerung bei der EVGA beim verkauf rechnen?Gibt jemand 40 Euro mehr aus weil die Karte noch garantie hat.Denke der verkaufspreis wird in 3-4 jahren bei ca 150 Euro liegen oder?

Grendizer
2016-08-16, 22:33:44
Denkt ihr dass sich die 40 Euro Garantieverlängerung bei der EVGA beim verkauf rechnen?Gibt jemand 40 Euro mehr aus weil die Karte noch garantie hat.Denke der verkaufspreis wird in 3-4 jahren bei ca 150 Euro liegen oder?

Ich kenne die Garantiebestimmung nicht, aber normal sind die Personengebunden und beim Weiterverkauf bringt sie dem Käufer nichts.

Ex3cut3r
2016-08-16, 23:04:15
Gibt es jetzt eigentlich Möglichkeiten, auch bei OC Customs die niedrigsten Taktraten für den tiefsten Stromspar-Modus nutzen zu können?
Am besten natürlich ohne Flashen eines modifizerten Bioses, das keine gültige Signatur mehr hat.

Ja denke schon, Afterburner aufrufen und dann Strg+F, dann den niedrigsten Volt/Mhz Stage auswählen, dann L drücken, damit wird dieser State Permanent angelegt, auch in 2D. :up:

Wex
2016-08-16, 23:25:23
Hallo,

Gainward Phoenix

0,983 V
2139 Core
4300 Mem

Heaven
60,0 FPS 2560x1440
100,4 FPS 1920x1080
2500k 4ghz

Kühlung erste Sahne und ich hab einen extrem geilen Chip erwischt, nur leider leider Micron Ram, der bei mehr als 4300 Mhz Fehler produziert.

In 4K renne ich trotz undervolting ins PowerTarget, was 168Watt(=112% PT) für diese Karte ist.


Davor hatte ich eine Inno3d 1070 3x mit Samsung Ram. Der Core ging dort nur stabil bis 2025, der Mem nur bis 4350, obwohl es Samsung war. In anderen Foren liest man häufig von stabilen +4500 Memclock. Die Karte hatte relativ starkes Spulenfiepen und war einen halben cm zu lang für mein Gehäuse.

Die Gainward behalte ich jetzt, trotz leicht störendem Spulenfiepen und Micron Ram.


long time reader, first time poster :)

Wex

Ex3cut3r
2016-08-16, 23:30:03
Bei der Inno3d ist das Problem, das die Wärme Pads nicht richtig auf den VRAM liegen, sondern teilweise gar keinen Kontakt haben. Bei meiner MSi gehen 4700 stabil. Dein Undervolting ist aber ziemlich nice, mit 0.093V laufen grade mal bei mir die 2025Mhz stabil.

Dr.Dirt
2016-08-17, 10:45:42
Ich kenne die Garantiebestimmung nicht, aber normal sind die Personengebunden und beim Weiterverkauf bringt sie dem Käufer nichts.
Ja, sind Personengebunden und gehen bei Weiterverkauf nicht an den neuen Besitzer weiter.
Eine Garantieverlängerung lohnt sich nur, wenn man die Karte auch länger als 3 Jahre behalten möchte.

Campi31
2016-08-17, 23:29:02
Dann hat sich das erledigt.

Oliver_M.D
2016-08-18, 07:36:47
Sag ma hab ich iwas verpasst, im treiber verstellt, oder warum zum teufel läuft Crysis 1 bei mir so schlecht?:freak:
Ein verhalten in der art ist mir auch schon bei Ryse aufgefallen und ich glaube bei 1-2 anderen spielen wo ich erst dachte es ist die CPU die 100% limitiert.

PS: Man achte auf die CPU/GPU ausnutzung.
https://dl.dropboxusercontent.com/u/19213305/Crysis.png
https://dl.dropboxusercontent.com/u/19213305/Crysis2.png

Ex3cut3r
2016-08-18, 22:42:27
Crysis nutzt max zwei Kerne, daher nutzt ein hoher Takt/starke IPC mehr, als ein Intel Six Core Haswell, in welcher Auflösung zockst du?

Hau mal SGSSAA per Inspector rein,
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9225400

durftest dann sogar mehr FPS und eine viel bessere Quali haben, falls du in DX10 spielst, DSR benutzen.

Oliver_M.D
2016-08-19, 07:11:02
Crysis nutzt max zwei Kerne, daher nutzt ein hoher Takt/starke IPC mehr, als ein Intel Six Core Haswell, in welcher Auflösung zockst du?Das mit den kernen war mir schon bewusst.
Ich hatte allerdings gedacht das Crysis unter 1080p zu mehr als nur 50FPS in der lage ist.
durftest dann sogar mehr FPSMerk ich nur leider nix von.
Unter 1440p/4k werden die FPS einfach nur niedriger, bzw halten den 40-50FPS bereich.

Ätznatron
2016-08-19, 08:12:30
Das mit den kernen war mir schon bewusst.
Ich hatte allerdings gedacht das Crysis unter 1080p zu mehr als nur 50FPS in der lage ist.
Merk ich nur leider nix von.
Unter 1440p/4k werden die FPS einfach nur niedriger, bzw halten den 40-50FPS bereich.

Ich kann jetzt zwar nur mit dem Crysis 1 Demo-Benchmark aufwarten (das Spiel selbst besitze ich nicht), da ergibt sich dann folgendes Bild mit diesen Settings (Windows 10 wird als Vista erkannt):

19.08.2016 08:02:01 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX10 2560x1600, AA=16xQ, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 26.51s, Average FPS: 75.44
Min FPS: 81.95 at frame 1931, Max FPS: 122.59 at frame 930
Average Tri/Sec: -21224776, Tri/Frame: -281362
Recorded/Played Tris ratio: -3.26
!TimeDemo Run 1 Finished.
Play Time: 20.15s, Average FPS: 99.25
Min FPS: 69.58 at frame 1991, Max FPS: 127.72 at frame 137
Average Tri/Sec: -26450450, Tri/Frame: -266499
Recorded/Played Tris ratio: -3.44
!TimeDemo Run 2 Finished.
Play Time: 20.25s, Average FPS: 98.75
Min FPS: 67.35 at frame 1972, Max FPS: 127.72 at frame 137
Average Tri/Sec: -26133078, Tri/Frame: -264636
Recorded/Played Tris ratio: -3.46
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

19.08.2016 08:02:01 - Vista 64

Run #1- DX10 2560x1600 AA=16xQ, 64 bit test, Quality: VeryHigh ~~ Overall Average FPS: 9900

-----------------------------------------------------

CPU-Auslastung liegt bei <20%.

Keine Ahnung, ob dieses Ergebnis jetzt vergleichbar mit einen echten InGame-Resultat ist.

Ex3cut3r
2016-08-19, 15:12:50
Das mit den kernen war mir schon bewusst.
Ich hatte allerdings gedacht das Crysis unter 1080p zu mehr als nur 50FPS in der lage ist.
Merk ich nur leider nix von.
Unter 1440p/4k werden die FPS einfach nur niedriger, bzw halten den 40-50FPS bereich.

Will dir nicht zu nahe treten, aber hast du es im Inspector richtig gemacht?

http://abload.de/img/enforcezql6p.jpg

Oliver_M.D
2016-08-19, 17:32:58
Will dir nicht zu nahe treten, aber hast du es im Inspector richtig gemacht?Kein ding :). Mit 8x bekomme ich wie unter 4k DSR 30-40FPS während es unter 4x 40-50 sind, sehe bild.
Ich habe ums verrecken keine ahnung was ich idiot hier wieder falsch mache :confused:

Zumal ich wie gesagt unter Ryse auch schon solche merkwürdigen probleme hatte.
Nur im falle von Ryse handelte es sich einfach nur um FPS drops, und nicht ansich niedrige FPS.
https://dl.dropboxusercontent.com/u/19213305/Crysis3.png

aufkrawall
2016-08-19, 17:54:15
Für Ryse:
Setz mal den Eintrag 0x0013FEC2 im Ryse-Profil mit dem Inspector auf 0:
http://abload.de/thumb/rysetbu7d.png (http://abload.de/image.php?img=rysetbu7d.png)
Und stell außerdem in der system.cfg sys_highrestimer=1:
http://pcgamingwiki.com/wiki/Ryse:_Son_of_Rome

Ex3cut3r
2016-08-19, 18:01:20
Mach das erstmal was Krawall sagt, der ist ein Spezi in sowas. ;)
Und dann poste doch mal dein System?

Wie siehts in anderen Games aus? Teste doch auch mal 3DMark Firestrike, beim Grafikscore mussten 18.000-20.000 Pkt. rauskommen, wenn du die erreichst, ist imo alles ok bei dir.

Wurde mich da nicht verrückt machen, die Cryengine hatte schon früher Probleme mit der Windows-Timer-API, aber KA wie sich das jetzt unter Win 10 verhält.
http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/Fps-Boost-in-Crysis-3-einfaches-Tool-machts-moeglich-1078331/

aufkrawall
2016-08-19, 18:08:48
Ja denke schon, Afterburner aufrufen und dann Strg+F, dann den niedrigsten Volt/Mhz Stage auswählen, dann L drücken, damit wird dieser State Permanent angelegt, auch in 2D. :up:
Hätte ich denn den niedrigsten Boost-State im 2D-Modus anliegen?
Dann würde ja Energie verschwenden und nicht sparen. :)
Bin allerdings etwas überfordert mit dem Teil und müsste mich erstmal einlesen.
Ich glaube, ich belasse es aber einfach dabei, weil wohl ohnehin nicht viel rauszuholen sein wird.

Hab jetzt meine zweite MSI Gaming da:
Die Lüfter laufen definitiv viel leiser als beim vorigen Modell. Bei 500rpm nicht ganz so flüsterleise wie bei der R9 390 Gaming, ist aber defakto bei normalem Abstand und offenem Case neben dem Tisch nicht zu hören. Auch bei höheren Drehzahlen alles ok. Ich hatte zuerst wohl wirklich ein Montagsmodell, thx an format_c und Ex3cut3r für die Beratung.
Ist OC-mäßig aber eine Krücke. Es gehen gerade so 2Ghz Coretakt bei standardmäßigen 1,043V. Da 2,1 ja schon defakto das ende der Fahnenstange wären, soweit nicht schlimm.
Doof ist eher, dass mein schäbiger Micron-VRAM nicht mal +300Mhz mitmacht -> Schachbrettmuster ahoi.
Ex3cut3r, hast du Samsung VRAM verbaut (zeigt der Inspector an)?

The_Invisible
2016-08-19, 18:13:26
RAM geht bei mir auch nur 250 sonst Schachbrett.

Dafür geht der Core auf 2050 derzeit. Um die paar Prozent ist aber eigentlich auch schon egal.

Ex3cut3r
2016-08-19, 18:17:26
Hätte ich denn den niedrigsten Boost-State im 2D-Modus anliegen?
Dann würde ja Energie verschwenden und nicht sparen. :)
Bin allerdings etwas überfordert mit dem Teil und müsste mich erstmal einlesen.
Ich glaube, ich belasse es aber einfach dabei, weil wohl ohnehin nicht viel rauszuholen sein wird.

Hab jetzt meine zweite MSI Gaming da:
Die Lüfter laufen definitiv viel leiser als beim vorigen Modell. Bei 500rpm nicht ganz so flüsterleise wie bei der R9 390 Gaming, ist aber defakto bei normalem Abstand und offenem Case neben dem Tisch nicht zu hören. Auch bei höheren Drehzahlen alles ok. Ich hatte zuerst wohl wirklich ein Montagsmodell, thx an format_c und Ex3cut3r für die Beratung.
Ist OC-mäßig aber eine Krücke. Es gehen gerade so 2Ghz Coretakt bei standardmäßigen 1,043V. Da 2,1 ja schon defakto das ende der Fahnenstange wären, soweit nicht schlimm.
Doof ist eher, dass mein schäbiger Micron-VRAM nicht mal +300Mhz mitmacht -> Schachbrettmuster ahoi.
Ex3cut3r, hast du Samsung VRAM verbaut (zeigt der Inspector an)?

Schön das die zweite schon mal leiser ist, wenn es dich beruhigt, bei mir gehen die 2,1 auch nicht, egal welche Spannung, ich bekomme hässliche Rote riesen Flecke. Ja habe Samsung VRAM

https://abload.de/img/unbenannt52jq9.png

aufkrawall
2016-08-19, 18:20:30
Dann ist wohl damit klar, warum bei dir viel mehr VRAM-OC geht. War ja schon bei Maxwell so, dass der von Samsumg am besten ging.

Ex3cut3r
2016-08-19, 18:23:40
Dann ist wohl damit klar, warum bei dir viel mehr VRAM-OC geht. War ja schon bei Maxwell so, dass der von Samsumg am besten ging.

Kann natürlich sein, im Guru3D Forum erreichen auch viele sogar mehr als 700mhz beim VRAM, ist aber wieder Samsung VRAM.

Oliver_M.D
2016-08-19, 19:44:36
Für Ryse: Setz mal den Eintrag 0x0013FEC2 im Ryse-Profil mit dem Inspector auf 0
Und stell außerdem in der system.cfg sys_highrestimer=1: http://pcgamingwiki.com/wiki/Ryse:_Son_of_Rome
Werde berichten wenn ichs testen konnte.


1. Und dann poste doch mal dein System?
2. Wie siehts in anderen Games aus?
3. Teste doch auch mal 3DMark Firestrike, beim Grafikscore mussten 18.000-20.000 Pkt. rauskommen
4. Wurde mich da nicht verrückt machen, die Cryengine hatte schon früher Probleme mit der Windows-Timer-API
Was im profile steht ist so eigentlich alles richtig und up2date. Win7 wäre noch zu erwähnen schätze ich.

Eigentlich alles wie von mir erwartet. Battlefront und Overwatch laufen ohne probleme auf ultra mit 150% res scale bei 70-80fps+.
Die einzigen ernsthaften probleme hatte ich bis jetzt mit Crytek oder ARMA 3 und Company of Heroes.
Bei ARMA sollte man allerdings bemerken das ich im Editor getestet habe, nicht im MP oder der gleichen.
Und CoH2 war im bench scheinbar so krank CPU limitiert das selbst 2.25x oder 4x SSAA kaum einen unterschied gemacht haben.

18 320 in meinem falle http://www.3dmark.com/3dm/14244218?

An den artikel kann ich mich sogar noch erinnern, danke dafür!


Kann natürlich sein, im Guru3D Forum erreichen auch viele sogar mehr als 700mhz beim VRAM, ist aber wieder Samsung VRAM.Kein wunder das meine karte 4600 ohne probleme zu schaffen scheint.
http://img.techpowerup.org/160819/nvidia-20160819-192644.png

Ex3cut3r
2016-08-19, 20:16:27
Ja, Samsung VRAM geht anscheinend massiv hoher. Dein 3DMark Score passt, nur eine Frage dein i7-5820k tatket nur mit 3,3 Ghz oder? Dann wäre hier der Grund warum du, ich schätze in FHD? ein paar Probleme in manchen Games hast, zieh ihn wenigstens auf 4ghz hoch, das durfte schon was bringen.

Schönes Wochenende, ich schaue jetzt Fußball. :freak:

Oliver_M.D
2016-08-19, 20:30:45
Für Ryse: Setz mal den Eintrag 0x0013FEC2 im Ryse-Profil mit dem Inspector auf 0
Und stell außerdem in der system.cfg sys_highrestimer=1: http://pcgamingwiki.com/wiki/Ryse:_Son_of_RomeWie tag und nacht! Vorher massig FPS drops mit sichtbaren rucklern gehabt und jetz läuft alles perfekt flüssig!
1080p mit 1.5x1.5 SSAA läuft jetzt endlich ohne probleme bei 50-60FPS.;D

nur eine Frage dein i7-5820k tatket nur mit 3,3 Ghz oder? Dann wäre hier der Grund warum du, ich schätze in FHD? ein paar Probleme in manchen Games hast, zieh ihn wenigstens auf 4ghz hoch, das durfte schon was bringen.Habe ich früher nachm kauf schon des öfteren probiert, wollte aber nie 100% stabil laufen.
Und wenn ich CPU UND RAM gleichzeitig übertakte geht iwie garnichts mehr:freak:

BlacKi
2016-08-19, 21:17:37
Und wenn ich CPU UND RAM gleichzeitig übertakte geht iwie garnichts mehr:freak:
dann übertakte eben nur die cpu, vom ram übertakten halte ich nicht viel, wenn dann gleich schnellen speicher kaufen.

PingpiN
2016-08-19, 21:32:13
hi ich wollte meine zotac 1070 amp jetzt mal ein wenig übertakten.wollte davor aber mal fragen was bei gpu z bei perfcap reason Vrel bedeutet.habe gesehen das sich die anzeige bei spielen blau färbt.bedeutet das das ich der gpu mehr vcore geben muss oder das powerlimit erhöhen muss wenn ich übertakten will?meine karte hat ja 2 8 pin anschlüsse!Beim strom sollte es eigentlich keine probleme geben.:smile:

achja vcore 1.0620

die karte wird grade mal 64 c heiß unter last dabei unhörbar.also müsste da ja noch spielraum sein.

Wex
2016-08-20, 00:04:17
Wenn ich nicht falsch liege, dann ist 1.062V das Maximum was dein Bios zulässt.

An deiner Stelle würd ich einfach dem Core +100-150 Mhz geben. Dadurch sollte die Voltage automatisch fallen. Alternativ kannst du die Karte auch direkt undervolten. Beides sollte zu höheren Core-Takts führen.

Zum Thema Samsung / Micron Ram:

Mein Micron-Ram geht bis 4300 ohne Fehler. Die Palit 1070 mit Samsung Ram eines Bekannten lässt sich stabil bis 4500 übertakten. Ab 4600 gibt es ebenfalls Artefaktbildung unter 3D Last. Cryptomining läuft aber stabil bis 4800(eventuell interessant für die Ethereum Miner hier). Dafür macht sein Core bei 2062 schlapp mit 1,043V.

Wex

aufkrawall
2016-08-20, 00:20:15
Sicher, dass während des Minings das VRAM-OC anlag?
CUDA/OpenCL hat einen eigenen Power-State (P2) und man übertaktet für gewöhnlich nur P0.

Oliver_M.D
2016-08-20, 02:19:15
wenn dann gleich schnellen speicher kaufen.Hab ich ja :freak: -- 16GB Corsair Vengeance LPX DDR4-3000 Dual Kit
Nur leider spackt alles rum wenn ich die CPU OC und dazu noch den RAM auf seine 3000 mhz via dem profile knalle.

BlacKi
2016-08-20, 10:24:20
Hab ich ja :freak: -- 16GB Corsair Vengeance LPX DDR4-3000 Dual Kit
Nur leider spackt alles rum wenn ich die CPU OC und dazu noch den RAM auf seine 3000 mhz via dem profile knalle.
ist ot, aber dann lasse lieber auf 2133 laufen oder versuch mal 2666, aber 3,3 ghz ist doch verschenkte leistung^^

Achill
2016-08-20, 12:17:55
Hab ich ja :freak: -- 16GB Corsair Vengeance LPX DDR4-3000 Dual Kit
Nur leider spackt alles rum wenn ich die CPU OC und dazu noch den RAM auf seine 3000 mhz via dem profile knalle.

ist ot, aber dann lasse lieber auf 2133 laufen oder versuch mal 2666, aber 3,3 ghz ist doch verschenkte leistung^^


Mein 5820k will auch keine höheren Ram-Takte mitmachen, ist der MC auf der CPU.
Sobald du aber dein Quadchanel mit 4 Ram-Module bestückt hast, braucht man sich über Bandbreite keine Gedanken zu machen (~48GB/s bei mir). Bei meinen Tests hat die Reduzierung der Latenz in Spielen mittels scharfes Timing mehr gebracht (und ist das einzig wirklich stabile + Spannung der CPU konnte bei OC auch etwas gesenkt werden)

Wex
2016-08-20, 14:42:38
Sicher, dass während des Minings das VRAM-OC anlag?
CUDA/OpenCL hat einen eigenen Power-State (P2) und man übertaktet für gewöhnlich nur P0.

Jepp, das OC wird dann einfach nur draufaddiert:

Standardtakt beim Mining: 3800 Mhz + 1000 Mhz durch OC = 4800 Mhz

Oliver_M.D
2016-08-20, 16:42:21
OT Zeit:
aber 3,3 ghz ist doch verschenkte leistung^^und dazu noch den RAM auf seine 3000 mhz via dem profile knalle.Mehr gehts eher darum das ich nicht mal die "default" 3.0ghz schaffe wenn ich die CPU übertakte:freak:

Bei meinen Tests hat die Reduzierung der Latenz in Spielen mittels scharfes Timing mehr gebracht (und ist das einzig wirklich stabile + Spannung der CPU konnte bei OC auch etwas gesenkt werden)Hastn paar einstellungs tipps fürs bios? Voltage für CPU usw

Campi31
2016-08-20, 17:44:54
wie kann man denn die Karte undervolten?
Wenn ich mit dem Afterburner als Powertarget z.b 88% einstelle liegen nach wie vor 1,050 Volt an

Fliwatut
2016-08-20, 17:54:58
Das musst du mit dem Curve-Editor machen: STRG+F.

Oliver_M.D
2016-08-20, 18:35:54
wie kann man denn die Karte undervolten?
Wenn ich mit dem Afterburner als Powertarget z.b 88% einstelle liegen nach wie vor 1,050 Volt anWie schon des öfteren erwähnt sind das video und der post hier sehr empfehlenswert.
https://www.youtube.com/watch?v=UGeGLU8uh9M
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11113697&postcount=23

Schweinepriester
2016-09-08, 09:49:50
Meine Palit Gamerock GTX 1070 ist mir gestern abgesemmelt, nach nem guten Monat. Die Karte war nie übertaktet und die Temperatur immer im grünen Bereich. Gestern dann erst farbige Quadrate über den gesamten Bildschirm verteilt, danach gar nichts mehr.

Tja, mal sehen wie sich Mindfactory beim Austausch anstellt.

Nuon
2016-09-08, 18:52:41
Ich habe festgestellt, das RAM Übertaktung in Deus Ex kontraproduktiv ist.

Die mittleren Frames steigen zwar, aber die Anzahl und Intensität der Ruckler nimmt zu.
Dies lässt sich auch an den min. FPS Werten sehen, diese nehmen bei mir von 4200 auf 4300MHz ab.

Kann das jemand nachvollziehen, der auch unter Rucklern in Deus Ex leidet?

Ich habe es bis jetzt nur in diesem Spiel beobachtet, evtl gibt es auch andere RAM Fresser, die auch bei hohem RAMtakt zu (mikro)ruckeln anfangen.

Ist nur die 1070 betroffen?

I5 6600K@4.2GHz GTX1070 @1898MHz VRAM@4200 bzw. 4300MHz @UHD @high/veryhigh:

Tobe1701
2016-09-08, 19:19:01
Meine EVGA FTW ist heute gekommen. Man, was eine geile Karte, obwohl ja nur die inneren Werte zählen. CSGO mit Lüftern auf passiv hat schon was :) Erstmal belesen wie man sie ausreizt/testet. Natürlich kommt das Nougat-Update am gleichen Tag...oh well...

BlacKi
2016-09-15, 15:10:02
eine weitere mini karte ist erschienen : Zotac GeForce GTX 1070 Mini

Abmessungen: 210x122mm

https://geizhals.de/zotac-geforce-gtx-1070-mini-zt-p10700g-10m-a1503079.html?hloc=de

wenn ich jetzt noch wüsste ob die auf denhier passt, dann wäre sie bestellt.https://www.ekwb.com/shop/ek-fc670-gtx

dildo4u
2016-09-15, 15:13:15
Die 1060 Version davon ist recht leise bin auf Tests gespannt.

Tobe1701
2016-09-19, 19:19:56
Mir macht meine EVGA FTW gerade Sorgen. Bis heute Nachmittag alles super, dann fällt mir aufm Desktop plötzlich die ~50° Idle-Temperatur auf. Bisher lag die Karte deutlich unter 40°C Grad. Gehäuselüfter laufen unverändert, habe den Treiber zurückgesetzt, die Karte ausgebaut, Rechner auch ausgesaugt...beim 1. Hochfahren war es ok, dann kurz Valley laufen lassen bis die Lüfter angehen (tun sie) aber jetzt kühlt die Karte wieder nicht <49°C und das war bis heute früh definitiv anders. Bekommen hab ich sie am 8.9., noch sind die 14 Tage also nicht um zum zurückschicken. Oder hat noch jemand eine Idee? Last liegt laut Afterburner NICHT auf der GPU und Umgebungstemperatur hat sich auch nicht geändert (auch CPU ist so warm wie immer was für IMO für eine normalfunktionierende sonstige HW spricht)

BlacKi
2016-09-19, 20:23:33
welcher takt liegt denn an? sollten 135mhz im idle sein. was macht die karte unter last? wenn die karte unter last die temperatur hält, ist es kein kühlungsproblem. wie hoch drehen die lüfter bei 50° idle?

Tobe1701
2016-09-19, 20:30:26
welcher takt liegt denn an? sollten 135mhz im idle sein. was macht die karte unter last? wenn die karte unter last die temperatur hält, ist es kein kühlungsproblem. wie hoch drehen die lüfter bei 50° idle?
An dem Punkt bin ich auch gerade. Unter Valley gehts knapp unter 2 GHz,
aber danach fällt die Karte nicht. Precision zeigt stur 1607, der Afterburner nur ne gelbe Linie (notiert aber Min: 253 Max: 1987).

Die Lüfter drehen bei 50°C Idle ja gar nicht, gehen erst ab 65°C an.

Unter Last kann ich schlecht was zu den Vorwerten sagen da die Karte z.B. unter CSGO nie die Lüfter anlaufen ließ afaik. Hab jedenfalls gerade 20 min Wolfenstein laufen lassen und danach kam die Karte nie! wieder nahe der 40°C. Und das war vorher definitiv der Fall.

EDIT: Nach Treiberwechsel funktioniert das runtertakten schonmal wieder. Bleibe trotzdem näher den 50° als den 40° C. Werde erstmal weiter beobachten, 2 Tage habe ich ja noch. Danke schonmal für die Hilfe bzw. Sorry für das OT.

1nsider
2016-09-20, 15:19:17
Die Lüfter drehen bei 50°C Idle ja gar nicht, gehen erst ab 65°C an.

worauf du die Karte (grob) einstellen solltest, ist ~2050 MHz bei 0,95 Volt. Und das am besten bei angepasster Lüfterkurve bei der die Karte niemals über 65°C warm wird. Beides erreichst du mit dem MSI Afterburner oder mit EVGA Precision X (es lohnt sich!). Bedenke außerdem, dass die Karte im 'zero-fan' modus total von der Umgebungstemperatur abhängig ist (sprich: Zimmer-/Gehäusetemperatur) und selbst der kleinste Luftzug schon Auswirkungen auf die Temperatur hat.

x-force
2016-09-20, 15:39:15
~2050 MHz bei 0,95 Volt.

als wäre das rockstable, das wird bei der hälfte der leute nichtmal den ladebildschrim überleben.

Tobe1701
2016-09-20, 16:39:45
worauf du die Karte (grob) einstellen solltest, ist ~2050 MHz bei 0,95 Volt. Und das am besten bei angepasster Lüfterkurve bei der die Karte niemals über 65°C warm wird. Beides erreichst du mit dem MSI Afterburner oder mit EVGA Precision X (es lohnt sich!). Bedenke außerdem, dass die Karte im 'zero-fan' modus total von der Umgebungstemperatur abhängig ist (sprich: Zimmer-/Gehäusetemperatur) und selbst der kleinste Luftzug schon Auswirkungen auf die Temperatur hat.

Ich habe nur FullHD zu betreiben, warum brauche ich da die +100 MHz?!?

Der "Luftzug" ist hier aber relativ konstant,zumal es gestern kälter statt wärmer war....mal gucken wie sich sich heute gibt. Zumindest das ausbleibende Runtertakten war definitiv ein Problem, ausgelöst wodurch auch immer, und der Denkanstoß hat mir schonmal viel weitergeholfen-thx.

1nsider
2016-09-20, 17:27:58
Ich habe nur FullHD zu betreiben, warum brauche ich da die +100 MHz?!?

Du brauchst die 100 MHz mehr vielleicht nicht, aber selbst wenn du 100 Mhz weniger (bei 0,95V) einstellst (und circa 10 Watt zusätzlich sparst), wird deine Karte so insgesamt kühler (und stabiler) laufen, als mit den bescheidenen Standardwerten.

@x-force: hast du's bei deiner ausprobiert oder fährst du sie immer noch lieber am oberen Limit? Kennst du irgendwen, bei dem diese Werte nicht laufen, außer bei BK-Morpheus hier im Forum? Die EVGA FTW packt das bestimmt, außer er ist einer der unglücklichen mit Arschkarte in der Silizium-Lotterie und verhunzter Wärmeleitpaste...

x-force
2016-09-20, 17:53:18
@x-force: hast du's bei deiner ausprobiert oder fährst du sie immer noch lieber am oberen Limit? Kennst du irgendwen, bei dem diese Werte nicht laufen, außer bei BK-Morpheus hier im Forum?

hab ich. occt geht, aber instant treiber reset bei furmark.
ja, die läuft immer noch mit 1,093v@2,1ghz und maximierter videoclock.
wenn meine mit flüssigmetall und 85% lüfter das bei 50° nicht packt, werden das nicht viele schaffen ;)
~1,0v für 2050mhz klingen realistischer.

1nsider
2016-09-20, 18:32:14
~1,0v für 2050mhz klingen realistischer.

Einverstanden. Meine packt das zwar bei 0,935V (bei temps unter 50°C), aber sie ist ja auch *gut* (auch wenn sie nicht gut mit Spannung skaliert, was ja auch ein Anzeichen für hohes ASIC ist). Was ich eigentlich zum Ausdruck bringen wollte ist, sich weniger darum zu Sorgen ob die Temperatur unter idle nun eher 40° oder 50°C ist (und das als Umtauschgrund anzuführen), als das Verhalten der Karte unter Übertaktung, gerade bei einer Karte wie der EVGA FTW. Mit Übertaktung meine ich nicht +100 MHz mehr als die eh schon übertakteten (aber vorgegebenen) 19xx MHz, die sie bereits so macht (und was praktisch alle Karten schaffen, selbst die Referenzdesigns, wenn man sie entsprechend einstellt [also nicht out-of-the-box]). Wer sich eine so gute custom-design Karte wie die EVGA FTW kauft, weil er nicht selbst übertakten (und sich dazu einlesen will), verschenkt hinten und vorne Potential (für das er extra bezahlt hat), und das wäre Schade.

Zusatz: @Tobe1701, wenn du den extra-Takt eh nicht brauchst, so ließ dir mal den Thread zur 1080 Green-Edition hier im Forum durch. Ich lasse meine 1070 bspw. überwiegend auf 1835MHz bei 0,85V laufen (nutze nebenbei SVP und madVR im Medienplayer, was dem sehr zugute kommt). Selbst das langt für das meiste, was ich der Karte zumute. Und was die idle-temp angeht, die du bestimmt mit dem Treiberwechsel beseitigt hast -- eine angepasste Lüfterkurve ist super und hält die Karte (praktisch unhörbar) spielend bei 35°C am Desktop, wenn's dir darauf ankommt. Ich persönlich würde zwar lüfterlosen Betrieb vorziehen (wenn ich nicht wasserkühlen würde), aber wenn du die Lüfterkurve ab 50°C beginnst, bist du am Desktop zum größten Teil immer noch ohne Lüfter unterwegs.

x-force
2016-09-20, 18:48:02
seh ich auch so, man ist aber oft schon gezwungen die oc karten zu kaufen, wenn man ein vernünftiges tdp will.

ich lass den lüfter auch im idle mit 35%(870upm) laufen. führt zu 33° im idle, deutlich kühleren wandlern und tut der haltbarkeit sicherlich gut.
das problem ist dazu, das niedrigere temperatur grundsätzlich zu mehr takt führt.
darum macht der zero fan quatsch keinen sinn imo.

Tobe1701
2016-09-20, 18:50:18
Einverstanden. Meine packt das zwar bei 0,935V (bei temps unter 50°C), aber sie ist ja auch *gut* (auch wenn sie nicht gut mit Spannung skaliert, was ja auch ein Anzeichen für hohes ASIC ist). Was ich eigentlich zum Ausdruck bringen wollte ist, sich weniger darum zu Sorgen ob die Temperatur unter idle nun eher 40° oder 50°C ist (und das als Umtauschgrund anzuführen), als das Verhalten der Karte unter Übertaktung, gerade bei einer Karte wie der EVGA FTW. Mit Übertaktung meine ich nicht +100 MHz mehr als die eh schon übertakteten (aber vorgegebenen) 19xx MHz, die sie bereits so macht (und was praktisch alle Karten schaffen, selbst die Referenzdesigns, wenn man sie entsprecht einstellt [also nicht out-of-the-box]). Wer sich eine so gute custom-design Karte wie die EVGA FTW kauft, weil er nicht selbst übertakten (und sich dazu einlesen will), verschenkt hinten und vorne Potential (für das er extra bezahlt hat), und das wäre Schade.
1. Es ging/geht nicht darum das die Karte 40 oder 50 °C im Idle hat sondern das sie plötzlich (!) gut 10-15 °C im Idle mehr hatte. Klar stehen da auch noch die Lüfter und ich höre sie nicht, aber für mich ist das ein Zeichen für "da ist was nicht in Ordnung". Und so war es auch. Gerade sitzt sie bei 36°C und wird sich bei max. 42°C einpegeln - umgetauscht habe ich sie nicht.

2. Ich habe mir eine "so gute" Customkarte geholt weil sie für mich das beste 1070-Gesamtpaket dargestellt hat: Ähnlich leise wie die Palit/Gainwards aber ohne das Problem(?) mit der Lüftersteuerung, Dualslot, billiger als die MSI und eben mit "Potential" wenn ich doch mal maximale Leistung aus der Karte holen möchte/muss. Ich sage ja gar nicht das es mich nicht reizt zu schauen wie weit komme ich runter bzw. sie von "Hand" zu optimieren, aber in den ersten 12 Tagen habe ich halt einfach nur mal gezockt und mich daran erfreut. Sowas kann ich auch machen wenn es draußen kalt und dunkel ist :wink:

Tobe1701
2016-09-20, 19:06:25
so ließ dir mal den Thread zur 1080 Green-Edition hier im Forum durch.
Den hab ich schonmal inspiziert und für sehr interessant befunden, aber bisher wie gesagt noch nichts umgesetzt. Die Karte ist eben out-of-the-box zu gut (vgl. zu meiner Vorgängerkarte wo einem ohne angepasste Lüfterkurve z.B. die Ohren abflogen).

1nsider
2016-09-20, 19:23:53
Den hab ich schonmal inspiziert und für sehr interessant befunden, aber bisher wie gesagt noch nichts umgesetzt. Die Karte ist eben out-of-the-box zu gut

Gut! Lass' dir ruhig Zeit. Ich hab' die ersten Wochen nichts anderes gemacht als herumzuprobieren und (teilweise mit den anderen hier im Forum) herauszufinden was nach oben/unten bei den (Pascal-)Karten so geht. Jedem das Seine. Alles was man wissen muss, ist hier im Forum zu finden (in dem bereits genannten thread, jenem hier, und diesem (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574212) noch. Viel Erfolg :smile:

x-force
2016-09-21, 00:41:54
das ist ja unecht, wie pascal auf die temp reagiert.

bleibe ich bei 48°, so kann ich mit 1,0v 2101 mhz fahren.
ich werd mal ausloten wie hoch ich komme, hab erstmal nur mit der spannung gespielt.
muss jetzt erstmal verdauen, daß ich mit 52° schon 1,093v für 2101mhz brauche ;)

edit:
2114 ist dann auch schon wieder zu viel für 1,0v
erhöhe ich jetzt die spannung geht die temp wieder höher, teufelskreis...

trotzdem danke für die low voltage inspiration. ist zwar nur ein hilfsmittel um die temp zu senken, aber so läuft der lüfter mit 80% anstatt 90% :D
man muss ja erstmal ahnen, daß 10% höhere temperatur 10% höhere spannung brauchen kann.

1nsider
2016-09-21, 01:50:36
bleibe ich bei 48°, so kann ich mit 1,0v 2101 mhz fahren. [...] daß ich mit 52° schon 1,093v für 2101mhz brauche ;)

was schreibst du da? Dass 4°C unterschied bei dir zwischen 1,0 V und 1,093 V benötigt? Das nehme ich dir nicht ab! Du wirst an deiner Test-Methode schrauben müssen. Ich weiß noch dass du damals meintest, dass dein Chip die höhere Spannung benötigt (und es was bringt über die vorgegebenen 1,063 V hinaus zu gehen). Und dann warst du plötzlich längerfristig gespert. Bei meinem Chip brachte eine Spannungserhöhung nahezu nichts, und meine Temperatur liegt nur geringfügig unter der deinen. Ich kann vereinzelte Benchmarks zwar mit 2227 Mhz durchführen, aber wirklich stabil ist sie nur bis 2164 MHz (@ 1,093 V). Für 2135 MHz braucht sie dann nur noch 1,05 V und für 2076 MHz reichen dann 0,95 V. Alles knapp unter 50°C unter Höchstlast. Die 0,95 V sehe ich deshalb als den sweetspot an, bei dem die Effizienz noch gut ist, und ich nur wenige Prozent vom Performance-Limit entfernt bin aber rund 1/4 weniger Strom verbrate. Das dazu noch bei maximalem VideoClock (durch entsprechend Steil ansteigende Kurve bis zum 0,925 V 'slot' im Editor).


trotzdem danke für die low voltage inspiration. ist zwar nur ein hilfsmittel um die temp zu senken, aber so läuft der lüfter mit 80% anstatt 90% :D
man muss ja erstmal ahnen, daß 10% höhere temperatur 10% höhere spannung brauchen kann.

Da geht schon noch was. Teste mit OCCT (Fehlercheck=an) nahe am PT der Karte mithilfe des "L" (lock) im Editor, das ist m.E. die zuverlässigste Methode.

x-force
2016-09-21, 03:09:01
was schreibst du da? Dass 4°C unterschied bei dir zwischen 1,0 V und 1,093 V benötigt? Das nehme ich dir nicht ab! Du wirst an deiner Test-Methode schrauben müssen. Ich weiß noch dass du damals meintest, dass dein Chip die höhere Spannung benötigt (und es was bringt über die vorgegebenen 1,063 V hinaus zu gehen).

ich hab einfach niemals weniger als die default spannung angelegt.
mit default spannung bin ich dann aber über einer tempschwelle bei der auch der takt gesenkt wird.


Und dann warst du plötzlich längerfristig gespert.
ich bin gelegentlich anderer meinung als einige gewisse moderatoren :freak:
die scheinen zum lachen in den keller zu gehen, falls sie überhaupt mal lachen ;D

Bei meinem Chip brachte eine Spannungserhöhung nahezu nichts, und meine Temperatur liegt nur geringfügig unter der deinen. Ich kann vereinzelte Benchmarks zwar mit 2227 Mhz durchführen, aber wirklich stabil ist sie nur bis 2164 MHz (@ 1,093 V). Für 2135 MHz braucht sie dann nur noch 1,05 V und für 2076 MHz reichen dann 0,95 V. Alles knapp unter 50°C unter Höchstlast.

ich liege halt sobald ich mehr als 1,0v gebe über den magischen 50°
vielleicht kann meine ja auch noch deutlich höher mit 1,093v, wenn ich sie unter 50° bringen könnte.
wahrscheinlich brauche ich diesen großen volt schritt einfach um die instabilität, verursacht durch höhere temperatur, auszugleichen.
ich finds auch sehr eigenartig... die 1,0v@2101 sind aber noch nicht evaluiert worden. mit den alten werten lief es ja jetzt ewig. wer weiß ob da nochmal was nach ein paar stunden kommt und ich auf 2088 runter muss.

ein whitepaper von nvidia wäre mal klasse, aber vorher zerfällt wohl die katholische kirche ;)


Da geht schon noch was. Teste mit OCCT (Fehlercheck=an) nahe am PT der Karte mithilfe des "L" (lock) im Editor, das ist m.E. die zuverlässigste Methode.

mach ich auch immer zuerst. leider etwas tricky die 100%auslastung zu erreichen ohne eine drosselung auszulösen.

powertarget wird lustigerweise nie erreicht, da drosselt wohl die stromstärke oder ein anderer versteckter wert.


edit:
ich hab nochmal mit max spannung gegengetestet, da scheint jetzt auch etwas mehr zu gehen.
also entweder geht meine karte jetzt besser und ist quasi eingelaufen, oder nvidia hat im laufe der zeit den treiber verändert, so daß sich die karte anders verhält.
für die letzten 50mhz kann ich jetzt nochmal neu feintunen.

dildo4u
2016-09-22, 10:56:25
Hier gibt's ein Test der 399€ 1070 von KFA leider wird von Spulenfiepen berichtet.

http://ht4u.net/reviews/2016/kfa2_geforce_gtx_1070_exoc_im_test/index14.php


Ich werd vermutlich was drauflegen und wieder eine EVGA kaufen.

[dzp]Viper
2016-09-22, 11:27:55
Hier gibt's ein Test der 399€ 1070 von KFA leider wird von Spulenfiepen berichtet.

http://ht4u.net/reviews/2016/kfa2_geforce_gtx_1070_exoc_im_test/index14.php


Ich werd vermutlich was drauflegen und wieder eine EVGA kaufen.
Das ist die EXOC.. die für 399€ ist die EX. Wobei es der selbe Lüfter zu sein scheint.

dildo4u
2016-09-22, 11:37:29
Jo scheint die selbe Karte zu sein nur mit Werk's OC,hier im Forum hat auch jemand geschrieben das das 399€ Modell fiept.

BlacKi
2016-09-22, 12:10:25
Ich werd vermutlich was drauflegen und wieder eine EVGA kaufen.
ob sich der aufpreis zur ftw lohnt?

dildo4u
2016-09-22, 12:23:58
Laut den meisten Test's gehen fast alles 1070 gleich,die Custom Board's bringen kaum was.

BlacKi
2016-09-22, 12:28:42
ich meine in bezug auf den wiederverkauf, spulenfiepen, und kühlung? der aufpreis beträgt ja keine 20€.

Ätznatron
2016-09-22, 14:59:49
Jo scheint die selbe Karte zu sein nur mit Werk's OC,hier im Forum hat auch jemand geschrieben das das 399€ Modell fiept.

Na ja, meine EXOC fiept nicht.

Also Glückssache wie bei allen anderen Herstellern und Modellen auch.

(del)
2016-09-26, 08:12:41
Demnächst im Review:

http://i.imgur.com/hcZsEbG.jpghttp://i.imgur.com/OtsVXKO.jpg

Nette mini ITX Karte mit einer ziemlich cleveren Lösung für die Spannungswandler und Start-Stop der Lüfter im Idle. Hysterese passt auch perfekt.
Etwas leiser als die Founders Edition, dabei kühler und damit auch schneller.
Der Boost liegt immer bei 1800 MHz (100% Load) und höher, je nach Last sogar bis 1860 MHz (96% in Games). Kann man lassen :)

17,2 cm und 3,5 cm Dicke sind kein Thema für kleine Kisten, zumal der Versorgungsanschluss oben sitzt.

Lowkey
2016-09-26, 08:27:09
Die Karte soll dennoch in kleinen Gehäuse laut werden.

Mark3Dfx
2016-09-26, 08:36:56
Mein G1 Gaming fiept auch nicht, oder anderes gefragt:
Wie könnte man das provozieren?

(del)
2016-09-26, 08:47:53
Die Karte soll dennoch in kleinen Gehäuse laut werden.

Definiere kleines Gehäuse. Ohne jeglichen Airflow wird jede Karte laut (oder geht kaputt) :)

Ich habe ca. 41.8 dB(A) im Stresstest gemessen, beim Gaming bleibt sie unter 40 dB(A). Gemessen in 50 cm Abstand bei mir in der Chamber.
Davon entfallen ca. 69% allein auf die höheren Frequenzen (Windgeräusche). Dieses rauschende Klanggemisch ist deutlich besser zu ertragen, als z.B. brummige Lüfter.

Sie ist nicht leise, aber für die Größe ok, da die Spannungswandler durch einen cleveren Kniff kaum über 90°C gehen und die karte bei ca. 66°C dahindümpelt.
Da werden sogar die Spulen mitgekühlt und durch Druck von oben auch leicht gedämpft. Diese Lösung gefällt mir ausgesprochen gut.
Auch die räumliche Anordnung von Low- und High-Side einschliesslich parallel genutzter MOSFETS zur Vergrößerung der kühlbaren Fläche ist nahezu perfekt.

Mein G1 Gaming fiept auch nicht, oder anderes gefragt:
Wie könnte man das provozieren?

Da gibt es viele Programme, die hörbaren Aklustmüll provozieren. Versuche mal Unigine Heaven in Full-HD mit Ultra-Setting und Tessellation auf normal.
AA kann aus oder max. auf x2. Gerade am Beginn sollte es etwas zirpen, wenn die Karte anfällig dafür ist. :)

F5.Nuh
2016-09-27, 20:37:57
Habe dank eBay Paypal Gutschein eine Palit Gamerock GTX 1070 für 390 gekauft.

Wenn ich den Key für 30 - 40 € verkauft bekomme ein fairer Preis. Meine alte r290x hatte ich für 200 € verkauft.

So lange diese nich fiept und guten Samsung Speicher hat, wird diese behalten.

Fiepen geht gar nicht.

prinz_valium
2016-09-28, 10:21:22
Habe dank eBay Paypal Gutschein eine Palit Gamerock GTX 1070 für 390 gekauft.

Wenn ich den Key für 30 - 40 € verkauft bekomme ein fairer Preis. Meine alte r290x hatte ich für 200 € verkauft.

So lange diese nich fiept und guten Samsung Speicher hat, wird diese behalten.

Fiepen geht gar nicht.

Ich habe das selbe gemacht.
Denke aber wir bekommen vllt keinen key. Saturn ist nicht als händler gelistet, obwohl ja eine schwester firma von mediamarkt. Mal den support anschreiben und zur not beschweren.

Mark3Dfx
2016-09-28, 10:58:53
Da gibt es viele Programme, die hörbaren Aklustmüll provozieren. Versuche mal Unigine Heaven in Full-HD mit Ultra-Setting und Tessellation auf normal.
AA kann aus oder max. auf x2. Gerade am Beginn sollte es etwas zirpen, wenn die Karte anfällig dafür ist. :)

Zirpt nix :up:

F5.Nuh
2016-09-28, 11:00:42
Meine Karte ist von Cyberport die sind mit in dem Programm enthalten. Ich bin mir jetzt nur nicht sicher ob vielleicht die anderen Karten mit mehr garantie die bessere Wahl gewesen wären.

Lowkey
2016-09-28, 11:10:29
Verkauf sie in 20 Monaten. Käufer lieben die Restgarantie, auch wenn sie nur ein paar Wochen gilt. Keys per Ebay sind immer schwer durchsetzbar. Einige Händler gleichen die Ebay Konten mit deren Konto ab.



@Format_C

Sie ist also nicht leise. Gut zu wissen.

scully1234
2016-09-28, 11:59:53
@Format_C

Sie ist also nicht leise. Gut zu wissen.

In Relation zu ihren anderen Artgenossen die sich so im HTCP Sektor tummeln schon...

Man sollte halt differenzieren und keine Wunder in Richtung Full Size Karten erwarten

(del)
2016-09-28, 12:28:06
Sie agiert angemessen zur Kühlfläche. mehr kann man nicht erwarten, den die Physik ist nun mal keine Bitch. :)

-/\-CruNcher-/\-
2016-09-28, 14:34:31
Demnächst im Review:

http://i.imgur.com/hcZsEbG.jpghttp://i.imgur.com/OtsVXKO.jpg

Nette mini ITX Karte mit einer ziemlich cleveren Lösung für die Spannungswandler und Start-Stop der Lüfter im Idle. Hysterese passt auch perfekt.
Etwas leiser als die Founders Edition, dabei kühler und damit auch schneller.
Der Boost liegt immer bei 1800 MHz (100% Load) und höher, je nach Last sogar bis 1860 MHz (96% in Games). Kann man lassen :)

17,2 cm und 3,5 cm Dicke sind kein Thema für kleine Kisten, zumal der Versorgungsanschluss oben sitzt.

Definiere kleines Gehäuse. Ohne jeglichen Airflow wird jede Karte laut (oder geht kaputt) :)

Ich habe ca. 41.8 dB(A) im Stresstest gemessen, beim Gaming bleibt sie unter 40 dB(A). Gemessen in 50 cm Abstand bei mir in der Chamber.
Davon entfallen ca. 69% allein auf die höheren Frequenzen (Windgeräusche). Dieses rauschende Klanggemisch ist deutlich besser zu ertragen, als z.B. brummige Lüfter.

Sie ist nicht leise, aber für die Größe ok, da die Spannungswandler durch einen cleveren Kniff kaum über 90°C gehen und die karte bei ca. 66°C dahindümpelt.
Da werden sogar die Spulen mitgekühlt und durch Druck von oben auch leicht gedämpft. Diese Lösung gefällt mir ausgesprochen gut.
Auch die räumliche Anordnung von Low- und High-Side einschliesslich parallel genutzter MOSFETS zur Vergrößerung der kühlbaren Fläche ist nahezu perfekt.



Da gibt es viele Programme, die hörbaren Aklustmüll provozieren. Versuche mal Unigine Heaven in Full-HD mit Ultra-Setting und Tessellation auf normal.
AA kann aus oder max. auf x2. Gerade am Beginn sollte es etwas zirpen, wenn die Karte anfällig dafür ist. :)

Der echte Nano Konkurent, nicht schlecht wenn man bedenkt Full 8 K Decoding possible oder 2x 4K Simultan ;)

Wenn man schlau ist bekommt man vieleicht sogar 4x 4K Simultan Hin ;)

http://images.anandtech.com/doci/10713/1475054684520-311242784.jpg


Bei der Gigabyte da könnte ich schon echt schwach werden vor VEGA :D


@Format_C

Das sind doch eigentlich keine schlechten vorausetzungen für ein Passivierungsexperiment vor allen mit den neuen Boost 3.0 möglichkeiten ;)


Meine Letzte Passivierte Nvidia Karte allerdings waren Sparkles Ergebnisse dann doch nicht aussreichend und zu sehr an der kosten und Massenprodukt machbarkeits Kante genagelt was dickeres mit größerer Fläche und Effizienterer Ableitung musste her aussehen und massen praxistauglichkeit scheiss drauf als Geek ;)

http://www.tomshardware.de/Geforce-8800GT-G92,testberichte-239864.html

http://www.anandtech.com/show/2389/4

Weiss die kurzeitigen Peaks sind mittlerweile extrem hoch aber im AVG auch nicht wirklich höher als damals und boost 3.0 gibt ja noch eine Redundanz die genutzt werden kann um Notfalls abzufedern ;)

(del)
2016-09-28, 17:30:12
Man bekommt die Karte sinnvoll noch auf ca. 100-120 Watt runter, aber passiv geht das bei dieser Größe leider nicht mehr.

x-force
2016-09-28, 17:47:20
Man bekommt die Karte sinnvoll noch auf ca. 100-120 Watt runter, aber passiv geht das bei dieser Größe leider nicht mehr.

reicht doch.
genau da lag die 4850 passiv doch auch.

Jeff
2016-09-28, 19:39:40
reicht doch.
genau da lag die 4850 passiv doch auch.

Die passive 6850 lag sogar noch drüber :-)

x-force
2016-09-28, 20:12:20
Die passive 6850 lag sogar noch drüber :-)
die hat format_c sogar getestet und mit minimaler gehäuselüftung empfohlen.

@format_c
hast du das teil schon vergessen., oder beziehst du dich hier auf das itx format? aber wirklich groß ist die 6850 SCS3 ja auch nicht.

Schrotti
2016-09-28, 20:47:05
Demnächst im Review:

http://i.imgur.com/hcZsEbG.jpghttp://i.imgur.com/OtsVXKO.jpg

Nette mini ITX Karte mit einer ziemlich cleveren Lösung für die Spannungswandler und Start-Stop der Lüfter im Idle. Hysterese passt auch perfekt.
Etwas leiser als die Founders Edition, dabei kühler und damit auch schneller.
Der Boost liegt immer bei 1800 MHz (100% Load) und höher, je nach Last sogar bis 1860 MHz (96% in Games). Kann man lassen :)

17,2 cm und 3,5 cm Dicke sind kein Thema für kleine Kisten, zumal der Versorgungsanschluss oben sitzt.

Also ich bin absolut fasziniert wie viel Leistung auf kleinstem Raum möglich ist.

Man denke mal ein wenig zurück an Fermi :eek:.

(del)
2016-09-28, 22:30:42
Auf 17cm geht passiv nicht... Isso. :)

-/\-CruNcher-/\-
2016-09-29, 07:00:56
Auf 17cm geht passiv nicht... Isso. :)

Stimmt die Hitze würde sich ja auf das PCB mit verteilen und die Fläche wäre wohl zu gering bei der kompaktheit, die heutige last auf das PCB hab ich ganz ausser acht gelassen.

Also eher die Längste 1070 wo kriegen kann :D

Wohl auch ein Grund wieso Passiv sich als Massenprodukt einfach nicht mehr lohnt.

Die PCBs kochen ja fast heute schon selbst und von damals gibt es wenig bis keine ir aufnahmen vor dem superschnellen netzteil switching durch die immer weiter dynamisch gewordenen frequenzen ist ja auch die Last auf die PCBs durch die Last des Netzteils enorm gestiegen.

(del)
2016-09-29, 07:17:17
Ich habe lange experimentiert, auch mal mit dem ehemaligen R&D-Chef von HIS (die seinerzeit ja Zugriff auf das komplette Arctic-Regal hatten).
Bis ca. 70-80 Watt ist so etwas gefahrlos auch in Midi-Cases drin, was deren passive 7750 ja bewiesen hat. Gleiches gilt auch für CPUs.
Die Karten von Sapphire und Palit waren damals übrigens deutlich schlechter, da man die Lamellen falsch orientiert hatte.

Danach wird es kritisch, weil die Eigenkonvektion (freie Konvektion), also die Dynamik der selbst erzeugten Abwärme sich vom Objekt nach oben hin zu entfernen (Strömung), nicht mehr reicht.
Freie Konvektion vs. erzwungene Konvektion (Airflow durch Gehäuselüfter) - das lässt sich mit diversen Formeln sogar annähernd berechnen (z.B. Grashof-Zahl, Strömung bei freier Konvektion).

Sogar die 7750 setzte (Lamellenausrichting) auf ein Minimum an Airflow im Gehäuse, bei dem aber die freie Konvektion (genügend Luft, genügend Öffnungen unterhalb) bereits reichte.
Die GeForce GTX 1050 (Ti) sehe ich hingegen als echte Passivkarte, da man das Teil sicher unter 60 Watt hinbekommt, wenn man sich nur etwas Mühe gibt.

Jeff
2016-09-29, 19:42:41
aber wirklich groß ist die 6850 SCS3 ja auch nicht.

Meine 6850 SCS3 ist vor 2 Monaten gestorben:frown: Lang war sie 22,4cm, hoch 14,5cm. Aber mächtig dick, 3 Slots.

Dank Ebay ist jetzt eine Gainward 1070 Phoenix auf dem Weg. Hoffentlich passt die ins Gehäuse. 28,5cm lang ist schon eine Hausnummer:biggrin:

(del)
2016-09-29, 20:18:23
31,7 cm sind wirklich lang (KFA² GTX 1070/1080 Hall of Fame). :)

Lowkey
2016-09-30, 13:14:33
@Format_C

Wieso hast du folgenden Fehler nicht selber festgestellt?


https://www.computerbase.de/2016-09/geforce-gtx-1070-speicher-micron-oc-vbios/

Vollnoob
2016-09-30, 13:35:59
Daher kommen also bei mir die unerklärlichen, aber reproduzierbaren Bildfehler:biggrin:
Habe seit gestern eine Gainward 1070 GTX Phoenix GS mit Micron Speicher.
Wenn ich den Takt vom Speicher erhöhe, erhalte ich beim Spielen/Furmark keinerlei Bildfehler. Sobald ich aber das Spiel/Programm beende habe ich weiße Rechtecke über den gesamten Bildschirm verteilt und muss den Rechner neustarten.

[dzp]Viper
2016-09-30, 13:40:54
Ah jetzt erklärt sich einiges...
Sobald ich den Speicher ein Stück übertaktet hatte, hatte ich sogar Abstürze auf dem Desktop (schönes weißes Schachbrettmuster)...

Genau das selbe wie Vollnoob...

(del)
2016-09-30, 14:10:46
@Format_C
Wieso hast du folgenden Fehler nicht selber festgestellt?

Weil meine Karten entweder alle älter sind oder bis heute durchweg Samsung-Speicher draufhaben. Selbst die kleine Gigabyte 1070 mini ITX hat Samsung-Module. Man kann nur das herausfinden, was man auch selbst hat :)

Der Fehler sollte aber eindeutig bei Nvidia liegen, denn die lassen sich ja jeden Pups freigeben und verhindern, dass Hersteller eigenmächtig Parameter (auch am Microcode) vornehmen.
Wenn sie den Micron auf die QVL setzen und den passenden Microcode vergessen, dann ist das schlampig.

Lowkey
2016-09-30, 14:29:46
Nagut ich lese als Entschädigung den Mivoc G2 Artikel. Der war vor 3 Jahren für 80 Euro bei Conrad zu haben :/ ... und ich wollte direkt 2 kaufen :/

(del)
2016-09-30, 15:26:37
Das war vor 3 Jahren aber der Vorgänger Mivoc Hype 10 G, nicht der G2 ;) Da dürfte auch noch das andere Chassis drin gewesen sein. War aber damals schon ein Schnapper.

Nur können fast alle Subwoofer der 100-Euro-Klasse weniger, ich habe insgesamt sechs davon Probe gehört und gleich wieder aussortiert.
Besser ist natürlich ein Canton für 246 Euro, aber da sind wir fast beim Doppelten. Der hat mehr Punch, spielt aber am Ende auch kaum tiefer.
Subsonic-Filter haben die mittlerweile alle. Mein Nubert clippt wenigstens nur. Klingt bei Vollaussteuerung aber auch Kacke :D

Und:
Ich habe das 1070/1080 Roundup für nächste Woche um weitere 6(!) Karten ergänzt, so dass es dann 14 Karten sind, die einmal komplett zerlegt und analysiert wurden.
Es zeigt sich einmal mehr, dass sie nach der Erwärmung alle sehr ähnlich performen und es wirlklich auf die technischen Details und nicht die Benchmarkbalken ankommt,
wenn man einen Vor- oder Neichteil bestimmter Modelle ausmachen will (Temperaturen, Leistungsaufnahme, Betriebsgeräusch, Designfehler usw.) :)

Fünf weitere folgen...

aufkrawall
2016-09-30, 15:39:49
4500Mhz VRAM-Takt gingen hier gerade mit Micron mit gelocktem Boost-State (Mirror's Edge Catalyst mit Hyper & hoher Auflösung) 15 Minuten ohne Probleme. =)
Also möglich, dass durch die Bios-Updates ähnlich gutes VRAM-OC wie mit Samsung gehen könnte.
In ME bringts aber so gut wie gar nichts, wahrscheinlich nur bei einzelnen Bandbreiten-Fressern.

x-force
2016-09-30, 17:35:31
ich bin ja gespannt, ob sich die microns jetzt vernünftig übertakten lassen.
ansonsten wäre eine micron karte für mich ein rma argument.

(del)
2016-09-30, 17:39:26
Naja, den Übertaktungsspielraum bekommt man nicht mitverkauft und auch auf Komponenten kann man kaum pochen.
Man kann natürlich von Artefakten & Co. faseln, aber am Ende bekommst Du eine geflashte Karte zurück und nicht die Kohle.

aufkrawall
2016-09-30, 17:48:44
Ich hatte noch keinen Crash ohne OC.
Nun fahr ich mal längere Zeit testweise mit maximum performance und +550Mhz VRAM-Takt.
Damit der Boost-State immer anliegt, reicht es übrgiens nicht, nur global das Energieprofil umzuschalten. Um das Heruntertakten zu verhindern, muss man auch noch explizit für die dwm.exe maximum performance auswählen.
Das State-Festtackern mit dem Inspector will hier nicht klappen.

x-force
2016-09-30, 17:52:16
Naja, den Übertaktungsspielraum bekommt man nicht mitverkauft und auch auf Komponenten kann man kaum pochen.


sicherlich nicht, aber andersrum kann sich auch niemand beschweren wenn die testsamples etwas anderes bieten als die karte, die man mir liefert und ich diese dann nicht haben möchte.
nvidia wusste ganz genau, warum sie die micron teile nicht zum testen geschickt haben ;)

aufkrawall
2016-09-30, 18:27:35
Gilt jetzt abzuwarten, ob das Bios das Problem löst. Wird ja nicht umsonst angekündigt sein.
Mit Boost-only ist mir bisher das Schachbrettmuster jedenfalls noch nicht unter gekommen. Jetzt gibt es hier bei zu hohem VRAM-Takt (+550Mhz) ganz typische Probleme wie buntes Aufleuchten.

[dzp]Viper
2016-09-30, 19:16:12
Wie macht man das mit dem "Boost only"?

aufkrawall
2016-09-30, 19:19:29
Scroll mal etwas hoch (aber nicht zu viel).

Vollnoob
2016-09-30, 20:04:08
Habe bei meiner 1070 jetzt mal ein wenig am Core Clock herumgespielt, nachdem ich das Speichertakten erstmal verschoben habe :mad:
Läuft jetzt mit 1,031 V bei 2165 MHz.
Was mir jedoch aufgefallen ist, es gibt bestimmte Temperaturgrenzen ab welcher der Takt eine Stufe (13MHz) nach unten geht.

2165 MHz <40°
2152 MHz >40°
2139 MHz >50°
2126 MHz >55°

Das maximale was ich bisher an Temperatur erreicht habe war 63° bei 50% Fan Speed. Hierbei werden immer noch die 2126 MHz gehalten.
Habt ihr ein ähnliches temperaturabhängiges Verhalten?

(del)
2016-09-30, 20:05:43
sicherlich nicht, aber andersrum kann sich auch niemand beschweren wenn die testsamples etwas anderes bieten als die karte, die man mir liefert und ich diese dann nicht haben möchte.
nvidia wusste ganz genau, warum sie die micron teile nicht zum testen geschickt haben ;)

Falsch: Alle Karten, die jetzt mit Samsuing-RAM kamen, sind Retail. Wenn Boardpartner auf Micron ausweichen, wird es wohl eher was mit Verfügbarkeit und Preis zu tun haben.

...Habt ihr ein ähnliches temperaturabhängiges Verhalten?Das ist doch bekannt und Teil von Nvidias Boost :)

aufkrawall
2016-09-30, 20:41:06
Ja, mit Boost 3.0 ist das offenbar nochmal aggressiver. Verwechseln viele mit TT.

Lowkey
2016-09-30, 20:43:40
Da sagte jemand mal: Pascal limitiert nur durch die Temperatur.

Zumindest hat Nvidia per vBios Update reagiert und in den nächsten Wochen werden wir erleben, ob die Hersteller auch Support bieten werden.

RoughNeck
2016-09-30, 20:52:42
Der Fehler sollte aber eindeutig bei Nvidia liegen, denn die lassen sich ja jeden Pups freigeben und verhindern, dass Hersteller eigenmächtig Parameter (auch am Microcode) vornehmen.
Wenn sie den Micron auf die QVL setzen und den passenden Microcode vergessen, dann ist das schlampig.

Scheinen ja nicht alle Karten betroffen zu sein und wenn dann tritt das auch bei der 1080 auf.

(del)
2016-09-30, 20:57:28
Die 1080 hat GDDRX5, das ist was komplett Anderes. :)

x-force
2016-09-30, 22:07:46
Falsch: Alle Karten, die jetzt mit Samsuing-RAM kamen, sind Retail. Wenn Boardpartner auf Micron ausweichen, wird es wohl eher was mit Verfügbarkeit und Preis zu tun haben.


das heißt micron hatte nur ein kurzes intermezzo?

bin mir nicht sicher, ob ich dich richtig verstehe:
alle mit samsung ram sind retail, ok
aber solange nicht alle retail mit samsung sind, hat das doch jetzt nichts damit zu tun, daß ich zum release nur reviews mit samsung karten gelesen habe und dementsprechend auch gerne so eine karte kaufen möchte, oder?

whetstone
2016-09-30, 22:20:53
Meine vor 2-3 Tagen irgendwo Zitate aus Mails mit Boardpartner (support) gelesen zuhaben, wo sie sagen dass sie keinen Einfluss drauf haben welcher Speicher drauf ist, sondern Nvidia entscheidet. Kann es grade nicht mehr finden, müsste irgendwo bei overclocker.net, reddit oder im Nvidia Forum rumfliegen.

(del)
2016-09-30, 22:24:26
Ich habs doch schon zig mal geschrieben:
Nvidia liefert die Karten fast immer im Bundle mit dem Speicher.

Dass jetzt ab und an offensichtlich Micron DDR5 aufgetaucht ist, dafür kann auch der Reviewer nichts, der Samsung testen kann oder konnte. Die 1070er, die ich hier habe, haben alle noch Samsung verbaut und es sind keine Golden Samples.

Vollnoob
2016-09-30, 22:37:15
Das ist doch bekannt und Teil von Nvidias Boost :)
Komisches neumodisches Zeug...
...aber nehmen wir mal an die Karte würde 2250 MHz stabil mitmachen und ich möchte diese auch im Spiel haben. Damit dieser Takt jetzt bei 65° anliegt, müsste ich den eigentlichen Takt ja viel höher ansetzen, welcher dann evtl nicht mehr stabil ist...wo ist da der Sinn...und wieso wird dieser "Feature" unter dem Namen "Boost" vermarktet? Boost ist für mich was anderes :rolleyes:

aufkrawall
2016-09-30, 22:47:48
Es wird nicht nur der Takt reduziert, sondern auch die Spannung. Dient der Eindämmung der Leakage durch die steigenden Temps.
Wenn man beim OC darauf aus ist, dass der Takt felsenfest ist, ist das natürlich blöd. Dagegen hilft nur Mod-Bios.
Diese Reduzierung ist aber nicht spürbar, kann man sich mit abfinden.

x-force
2016-10-01, 01:22:36
Ich habs doch schon zig mal geschrieben:
Nvidia liefert die Karten fast immer im Bundle mit dem Speicher.

also wird nvidia auch wissen, daß micron schlechter performt, jedenfalls in der bisherigen revision


Dass jetzt ab und an offensichtlich Micron DDR5 aufgetaucht ist, dafür kann auch der Reviewer nichts, der Samsung testen kann oder konnte. Die 1070er, die ich hier habe, haben alle noch Samsung verbaut und es sind keine Golden Samples.

hab ja auch nicht behauptet, daß der reviewer was dafür könnte.
trotzdem würde ich nunmal gerne die karte kaufen, die beworben wird.

aufkrawall
2016-10-01, 01:30:20
Er performt ohne händisches OC ja nicht schlechter (abgesehen von den Fällen, wo es auch ohne OC Probleme geben soll).