PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Taktgrenzen aktueller GPUs


Schlammsau
2010-02-16, 14:54:31
HD 5870-GPU bei 1.404 MHz – 3DMark-Rekord (http://www.nordichardware.com/en/component/content/article/79-overclocking/250-hipro5-presents-msi-r5870-lightning-1404mhz-gpu-clock.html)

http://www.nordichardware.com/images/labenglish/newsarticles/Graphics/Hipro5%20MSI%20R5870%20Lightning/fullimages/Hipro5%20MSI%20R5870%20Lightning1.jpg

Spasstiger
2010-02-16, 15:18:22
Krankes Teil, das ist eine GPU-Überaktung von 65%. Gabs das schonmal bei einer High-End-Grafikkarte, die schon ab Werk den höchsten Takt innerhalb der Serie verwendet?

pest
2010-02-16, 15:53:25
Krankes Teil, das ist eine GPU-Überaktung von 65%. Gabs das schonmal bei einer High-End-Grafikkarte, die schon ab Werk den höchsten Takt innerhalb der Serie verwendet?


hab irgendwas rausgesucht ;)

GTX295 mit +78% auf Core und Shader

http://www.abload.de/img/3dmark01q1w5.png

Spasstiger
2010-02-16, 16:44:07
@pest: Die GTX 295 ist aber nicht das am Höchsten taktende Modell der Serie (sprich mit GT200b-GPU), sondern eher ein moderat getaktetes Modell.
Ausgehend von einer GTX 285 ist das nur eine Übertaktung von 50% (Shader) bzw. 58% (GPU).

AnarchX
2010-02-16, 16:56:28
Die Lighting-Version der GTX 275 hat es auch schon auf einen ähnlichen Takt gebracht:
http://www.madshrimps.be/?action=getarticle&number=4&artpage=4424&articID=977 (1375/2757/1435MHz)
+117% TMU/ROP und +96% Shader gegenüber einer Referenz-GTX 275, die nur knapp hinter 285 liegt.

Anders als bei den CPUs, wo die OC-Recorde stetig nach oben gingen, scheinen bei den GPUs alles oberhalb 1.5GHz nicht möglich zu sein, egal ob High-End oder kleinere GPU.

Raff
2010-02-16, 17:10:44
Hm, der HD 5770 Hawk (http://www.pcgameshardware.de/aid,704314/Test-MSI-Radeon-HD-5770-Hawk-die-beste-HD-5770-auf-dem-Markt-Update-2D-Modus-gefixt/Grafikkarte/Test/) traue ich schon 1,5 GHz zu, wenn man sie mal richtig hernimmt. Schlanke GPU gut gekühlt und versorgt, yay.

MfG,
Raff

Spasstiger
2010-02-16, 17:11:24
Stimmt, von dieser GTX 275 hatte ich mal gelesen. Schon krass, wieviel Luft nach oben bei passender Kühlung und Stromversorgung sein kann. Aber irgendwann werden halt die physikalischen Grenzen des Chips erreicht. Für Taktraten jenseits von 1,5 GHz müsste man die Packdichten deutlich verringern, was aber wirtschaftlich nicht sinnvoll wäre. Thermisch ist es auch sinnvoller, mehr Einheiten zu verbauen als die GPUs auf hohe Taktraten zu trimmen. Wobei NV ja durchaus einen Mittelweg geht mit den unterschiedlichen Taktdomänen.

Gast
2010-02-16, 18:05:06
Hm, der HD 5770 Hawk (http://www.pcgameshardware.de/aid,704314/Test-MSI-Radeon-HD-5770-Hawk-die-beste-HD-5770-auf-dem-Markt-Update-2D-Modus-gefixt/Grafikkarte/Test/) traue ich schon 1,5 GHz zu, wenn man sie mal richtig hernimmt. Schlanke GPU gut gekühlt und versorgt, yay.

MfG,
Raff

Um wieviel MHz müsste man die denn hochtakten, um umgefähr auf HD 5850-Niveau zu kommen (leistungsmäßig)?

Gast
2010-02-16, 18:19:29
Hm, der HD 5770 Hawk (http://www.pcgameshardware.de/aid,704314/Test-MSI-Radeon-HD-5770-Hawk-die-beste-HD-5770-auf-dem-Markt-Update-2D-Modus-gefixt/Grafikkarte/Test/) traue ich schon 1,5 GHz zu, wenn man sie mal richtig hernimmt. Schlanke GPU gut gekühlt und versorgt, yay.

MfG,
Raff

Mit so einer ähnlichen neuen Referenzkühlung + PCB für die HD 5870 haut AMD doch problemlos einen Refresh mit 1 GHz Chiptakt raus. Dazu noch 2 GB RAM mit etwa 1300 MHz und schon hat man etwa 20 % Leistungssteigerung gegenüber der HD 5870. Fermi wird's nicht leicht haben. :D

Spasstiger
2010-02-16, 18:20:15
Mit den Taktraten der HD 5870 aus dem Startposting (1404 MHz Shadertakt, 1377 MHz Speichertakt) wäre die HD 5770 ungefähr so schnell wie eine HD 5850.
Nach meinem Schätzmodell wären 1412 MHz Chiptakt und 1400 MHz Speichertakt für einen Gleichstand erforderlich.

davidzo
2010-02-19, 00:49:12
du vergisst die starke effizienzabnahme mit steigender einheitenzahl bei den rv8xx. eine 5770 mit ähnlichen rohleistungsdaten wie eine 5850 wäre in jedem fall besser, denn mehr takt ist besser als breite. denke eher die 5770 wird ne 5850 schon bei ca. 1,3ghz einholen...

Spasstiger
2010-02-19, 12:12:54
du vergisst die starke effizienzabnahme mit steigender einheitenzahl bei den rv8xx.
Nein, das ist berücksichtigt. Rechne doch mal die Texelfüllrate, Pixelfüllrate, Speicherbandbreite und Rechenleistung mit den von mir angegebenen Taktraten aus, die liegen allesamt unter HD-5850-Niveau.

RavenTS
2010-02-20, 23:30:22
Mit den Taktraten der HD 5870 aus dem Startposting (1404 MHz Shadertakt, 1377 MHz Speichertakt) wäre die HD 5770 ungefähr so schnell wie eine HD 5850.
Nach meinem Schätzmodell wären 1412 MHz Chiptakt und 1400 MHz Speichertakt für einen Gleichstand erforderlich.

Und wieviel würde die Karte dann an Energie mehr benötigen? :redface:

Dimon
2010-02-21, 00:50:45
Wieviel Takt würde die HD4890 benötigen um mit der HD5850 gleichzuziehen?

Oder wie wärs mit der betagten 8800GTX? Wieviel takt würde diese benötigen um mit der GTX285 gleichzuziehen?



Grüße

Raff
2010-02-21, 00:57:18
Eine HD 4890/70 bräuchte mindestens 1.300 MHz GPU-Takt, um mit einer HD 5850 konkurrieren zu können (plus entsprechenden Speichertakt). Besser 1.400 MHz. Eine 8800 GTX/Ultra könnte wohl ab 800 MHz mit einer GTX 280/285 GTX 260 mithalten. Besser mehr, um architektonische Vorteile der Nachfolger zu kompensieren.

Das ist recht simple Mathematik, da die Architekturen pro Takt in der Praxis nur geringe Unterschiede aufweisen.

Eine auf 702/1.728 MHz übertaktete 8800 Ultra kommt schon ziemlich nah an die erste GTX 260 mit 192 ALUs heran.

MfG,
Raff

HarryHirsch
2010-02-21, 01:22:19
ändern sich beim übertakten vom speicher eigentlich die timings? mir war nämlich so das eine 5870 z.b. mit übertaktetem speicher stellenweise schlechter abschneidet.

Raff
2010-02-21, 01:34:59
Da ändert sich erst was, wenn du mithilfe eines Tools etwas daran änderst. ;) Dass die HD 5870 mit übertaktetem Speicher langsamer wurde kann daran liegen, dass die HD-5000-Serie eine Fehlerkorrektur besitzt: Gibt's Rechenfehler, werden diese automatisch ausgebügelt, was natürlich etwas Zeit kostet. Ergo: Takt etwas herunter, dann ist's schneller. :)

MfG,
Raff

Dimon
2010-02-21, 01:50:35
Eine HD 4890/70 bräuchte mindestens 1.300 MHz GPU-Takt, um mit einer HD 5850 konkurrieren zu können (plus entsprechenden Speichertakt). Besser 1.400 MHz. Eine 8800 GTX/Ultra könnte wohl ab 800 MHz mit einer GTX 280/285 mithalten. Auch hier besser 900 MHz, um architektonische Vorteile der Nachfolger zu kompensieren.

Das ist recht simple Mathematik, da die Architekturen pro Takt in der Praxis nur geringe Unterschiede aufweisen.

Eine auf 702/1.728 MHz übertaktete 8800 Ultra kommt schon ziemlich nah an die erste GTX 260 mit 192 ALUs heran.

MfG,
Raff

Hört sich recht einfach für die 8800GTX an, wieso braucht man nicht soviel takt wie die HD4890? Wo liegt der Unterschied bei den Architekturen? Skaliert die G80 besser bei höheren takt als die HD4890?


Gruß

mapel110
2010-02-21, 01:58:44
Eine auf 702/1.728 MHz übertaktete 8800 Ultra kommt schon ziemlich nah an die erste GTX 260 mit 192 ALUs heran.

MfG,
Raff
Kommt aber stark aufs Spiel an. Bei neueren Games sicher nicht.

Dimon
2010-02-21, 02:03:39
Kommt aber stark aufs Spiel an. Bei neueren Games sicher nicht.

Ich hab mal irgendwo gelesen das die G80 besser skaliert als die GT200er reihe, da der G80 Chip fast perfekt ist. Wohingegen der GT200/b eher eine Vergrößerung darstellt und damit einfach schlechter skaliert :biggrin:

Frag mich bloß nicht wo ich das gelesen habe :)

Raff
2010-02-21, 02:03:56
Hört sich recht einfach für die 8800GTX an, wieso braucht man nicht soviel takt wie die HD4890? Wo liegt der Unterschied bei den Architekturen? Skaliert die G80 besser bei höheren takt als die HD4890?


Gruß

Sorry, ich habe da oben Bullshit geschrieben (Notiz an mich: nicht zwischen Tür und Angel spammen). Meinte gedanklich die GTX 260(-216).

Kommt aber stark aufs Spiel an. Bei neueren Games sicher nicht.

Sooo viel trennt die beiden nicht. Ein G80 hat theoretisch mit 650 MHz dieselbe Texturfüllrate wie eine GTX 260 und mit 1,9 GHz ALU-Takt ein ähnliches FLOP-Niveau (theoretische Missing-MUL-Späße nicht berücksichtigt). Mit 1,2 GHz Speichertakt hat eine 8800 Ultra bereits mehr Bandbreite als eine GTX 260.

Das bleiben aber alles Milchmädchenrechnungen. ;)

MfG,
Raff

Dimon
2010-02-21, 02:07:49
Sorry, ich habe da oben Bullshit geschrieben (Notiz an mich: nicht zwischen Tür und Angel spammen). Meinte gedanklich die GTX 260(-216).

MfG,
Raff

Obwohl der Takt eher moderat erscheint, ist die Leistung nicht zu verachten :)

Schade das meinen Liebling vor kurzem der tod ereilte :usad:

Grüße

Raff
2010-02-21, 02:41:03
Mein Beileid! Meine 8800 GTX liegt hier noch herum, ebenfalls mit einem fetten Accelero bestückt. =)

Nochmal zum Thema: Spasstiger errechnet dir nachher bestimmt akkurate Taktwerte abzüglich theoretischer Eigenheiten. Ich bin da mehr der Grobmotoriker mit Praxisaffinität. :D

MfG,
Raff

Daredevil
2010-02-21, 03:11:44
Irgendwie is übertakten von "abgespeckten" Modellen trotzdem scheiße, man denkt sich "Jeah! Fett Speed" aber am Ende kommt dann doch nurn furz raus. Meine HD4830 @ 830/1035 kann es mal so gerade mit ner HD4850@Stock ( 625/939 ) aufnehmen. Fehlen halt 25% Einheiten.

Wo wir hier gerade bei Taktgrenzen sind, ich wär echt mal gespannt gewesen was meine verstorbene 3850 so hätte leisten können, mit offenem Fenster habe ich der mit nem Bleistift vMod 3 Min Furmark stable enlocken können bei 999/1050 und Accelero 2x120mm Luftkühlung. Das Ding hat aber auch pervers viel Saft gezogen, die Senkung auf 200Mhz brachte schon allein 80w im Idle.

Mhz sind halt nicht alles, wie sieht es eigentlich mit den Einheiten aus, wenn z.b. eine Grafikkarte doppelt soviel MADD Einheiten hat als eine andere, lutscht sie dann theoretisch auch doppelt soviel Strom?

Dimon
2010-02-21, 13:16:56
Mein Beileid! Meine 8800 GTX liegt hier noch herum, ebenfalls mit einem fetten Accelero bestückt. =)

Naja vllt. hab ich da Glück und nur der NVIO Chip meiner GTX ist verschrottet, würde da evtl. SLI oder z.b Cuda mit PhysX mit ATI gehen?

Nochmal zum Thema: Spasstiger errechnet dir nachher bestimmt akkurate Taktwerte abzüglich theoretischer Eigenheiten. Ich bin da mehr der Grobmotoriker mit Praxisaffinität. :D

MfG,
Raff


Danke Raff :)

Hätte echt nicht gedacht das man soviel aus der alten 8800GTX rauszuholen ist, umso schlimmer das die Graka nun futsch ist :rolleyes:


Gruß

AnarchX
2010-03-28, 20:23:02
Bei GF100 ist man nun bei den ersten Versuchen bei 2,3GHz:

http://j.imagehost.org/0792/p29713.jpg
http://www.evga.com/forums/tm.aspx?m=260420

Etwa +64% gegenüber den Referenz 1,4GHz, mit wachsender Erfahrung und einer Spezialversion (Lightning, Matrix, ...) mit entsprechendem PCB ist da sicherlich noch etwas Spielraum. Bleibt die Frage ob man die 2,75GHz eines G200 erreichen wird.

AnarchX
2011-02-27, 14:32:17
3,24GHz Shadertakt auf GF110: http://www.hwbot.org/community/submission/2131648_

Spasstiger
2011-02-27, 14:48:24
Schick, genau richtig für Crysis 2. ;)
3,24 GHz sind wohl der bisherige Taktrekord bei einer NVidia-GPU, oder?

Thunder99
2011-02-27, 21:05:53
Da geht noch bissle mehr ;D

1625 Chiptakt auf der GTX580

http://www.hwbot.org/community/submission/2131912_stummerwinter_3dmark03_geforce_gtx_580_177979_marks

AnarchX
2011-07-25, 12:37:15
560 Ti auf 1678MHz/3356MHz/1300MHz: http://en.expreview.com/2011/07/25/zotac-geforce-gtx-560-ti-broke-world-record/18441.html

Raff
2011-08-13, 13:15:33
Wo sind die Kaimane? Da müsste doch auch etwas im Bereich von 1,5 GHz drinstecken. Mit einer "simplen" Wasserkühlung sind 1,05 GHz spieletauglich machbar (Cayman XT; mit ungesunden Spannungen). Einer HD 6850 traue ich noch mehr Takt zu ...

MfG,
Raff

Pirx
2011-08-13, 13:18:48
Der/Die/Das Intel HD3000 kann ja auch ziemlich hoch getaktet werden...:D

Hugo78
2011-08-13, 13:32:12
Wo sind die Kaimane? Da müsste doch auch etwas im Bereich von 1,5 GHz drinstecken. Mit einer "simplen" Wasserkühlung sind 1,05 GHz spieletauglich machbar (Cayman XT; mit ungesunden Spannungen). Einer HD 6850 traue ich noch mehr Takt zu ...

MfG,
Raff

Bei der Packdichte der AMDs wird man wohl nicht so weit kommen.

Raff
2011-08-13, 14:26:32
Im Startposting erreicht eine HD 5870 hübsche 1,4 GHz – das sollte ein Cayman auch packen.

MfG,
Raff

AnarchX
2011-08-13, 21:40:21
Der/Die/Das Intel HD3000 kann ja auch ziemlich hoch getaktet werden...:D
Diese ~60% (2,2GHz laut HW-Bot @ LN2) für eine IGP sind aber nicht so beeindruckend wie die über 100% bei einer 3 Mrd. Transitoren GPU

AnarchX
2011-12-28, 20:33:50
7970 @ 1650/1800MHz: http://www.hwbot.org/newsflash/1577_shamino_brings_hd7970_to_16501800_mhz_on_ln2

Die 375W-PCB-Karten werden wohl die 1700MHz durchbrechen.

Zergra
2011-12-28, 20:59:52
7970 @ 1650/1800MHz: http://www.hwbot.org/newsflash/1577_shamino_brings_hd7970_to_16501800_mhz_on_ln2

Die 375W-PCB-Karten werden wohl die 1700MHz durchbrechen.
Leider sieht man dort keine Spannungen .... wird warscheinlich ziemlich ungesund sein :D und die Kühlung :D :P

M4xw0lf
2011-12-28, 23:34:31
7970 @ 1650/1800MHz: http://www.hwbot.org/newsflash/1577_shamino_brings_hd7970_to_16501800_mhz_on_ln2

Die 375W-PCB-Karten werden wohl die 1700MHz durchbrechen.

Ganz kranker Stoff... der Ram-Takt ist auch ziemlich rekordverdächtig, oder?

uweskw
2011-12-29, 10:38:50
Leider sieht man dort keine Spannungen .... wird warscheinlich ziemlich ungesund sein :D und die Kühlung :D :P
Ich denke mit defaut Spannung, oder gibts schon ne Möglichkeit die Spannung zu erhöhen?

Gipsel
2011-12-29, 11:33:25
Leider sieht man dort keine Spannungen .... wird warscheinlich ziemlich ungesund sein :D und die Kühlung :D :P
Ich denke mit defaut Spannung, oder gibts schon ne Möglichkeit die Spannung zu erhöhen?
Falls das AMD GPU Clock Tool das richtig anzeigt (ist im Screenshot zu sehen), waren das nur 1,17V, also praktisch Default-Spannung. :eek:

M4xw0lf
2011-12-29, 11:43:56
Falls das AMD GPU Clock Tool das richtig anzeigt (ist im Screenshot zu sehen), waren das nur 1,17V, also praktisch Default-Spannung. :eek:

What? Kann ich nicht wirklich glauben ^^

Gipsel
2011-12-29, 11:59:56
What? Kann ich nicht wirklich glauben ^^
Na Du schaffst mit einem guten Examplar schon an Luft mit dem Referenzkühler die 1200MHz (die GPU läuft dann bei grob 80°C). Warum sollte mit LN2 (bei sagen wir mal -150°C) keine 1650MHz drin sein?

Zergra
2011-12-29, 12:02:47
Na Du schaffst mit einem guten Examplar schon an Luft mit dem Referenzkühler die 1200MHz (die GPU läuft dann bei grob 80°C). Warum sollte mit LN2 (bei sagen wir mal -150°C) keine 1650MHz drin sein?
JA aber doch net dei 1.17V :D das kann doch garnet sein...........

Gipsel
2011-12-29, 12:24:53
Warum?

fondness
2011-12-29, 12:52:26
Es gibt noch gar keine Möglichkeit die Spannung zu erhöhen, somit muss das default sein. Es sei denn er wurde irgend ein Hardmod gemacht.

Dural
2011-12-29, 12:54:37
stell dir vor, man kann die spannung auch ohne software durch einen hardware vmod ändern ;)


aber ja nettes resultat, mal schauen was meine macht :)

M4xw0lf
2011-12-29, 13:11:35
Na Du schaffst mit einem guten Examplar schon an Luft mit dem Referenzkühler die 1200MHz (die GPU läuft dann bei grob 80°C). Warum sollte mit LN2 (bei sagen wir mal -150°C) keine 1650MHz drin sein?

Aber die Temperatur ist doch nicht die einzige Limitierung, oder? Höhere Taktraten hängen doch generell immer von höheren Spannungen ab...
Einzige Möglichkeit wäre noch, dass die aktuell verwendeten Spannungen geradezu pervers hoch angesetzt sind. :wink:

AnarchX
2011-12-29, 18:26:31
Shamino hat das PCB modifiziert, sodass die Spannung 0,2V höher liegt.

Dural
2011-12-29, 19:33:04
für etwas unter 1,4 volt ist das aber immer noch OK :)

ich hatte auf einem RV670 auch schon über 1,9 volt, ok war noch 55nm ;)

Berserker
2011-12-29, 20:12:56
Geht sogar noch weiter 1700/2000....

Link (http://kingpincooling.com/forum/showpost.php?p=18951&postcount=22)

Holy shit!

Botcruscher
2011-12-29, 20:22:49
AMD muss da aber viele Reserven für die Streuungen im Prozess gelassen haben. Mal sehen wie das sich noch entwickelt. Am Ende sehen wir noch eine XTX mit 1,2GHz.

Zergra
2011-12-29, 20:26:30
Geht sogar noch weiter 1700/2000....

Link (http://kingpincooling.com/forum/showpost.php?p=18951&postcount=22)

Holy shit!
Aua .... 1.65V auf die CPU ... da geht ja jmd. hard mit seiner Hardware um :D
aber hier sieht man wieder keine Spannung...
sonst aber net schlecht.... nur die Lebensdauer wird wohl arg kurz sein :D

Berserker
2011-12-29, 20:58:30
Die CPU war zu 100% unter LN2,deswegen macht der das nix.

Dural
2011-12-29, 22:12:43
meint er mit 1,6vcore nicht die GPU :confused:

ok before someone cry i will be nice again

1.6vcore (pretty sure its needed)
1.86dram (not sure if its needed)
1.06+ vddci (not sure if its needed)
+ overmodding of a bunch of other stuff (not sure if its needed)

-120C ~ -180C ~ depending on resolution (not sure if its needed)

heat is a walk in the park, maybe 1/2 of fermi easy splashin jobs on KPC tek 9 slim

AnarchX
2011-12-29, 22:14:23
Geht sogar noch weiter 1700/2000....

Link (http://kingpincooling.com/forum/showpost.php?p=18951&postcount=22)

Holy shit!
Bei den 8Gbps Speichertakt wäre es interessant ob der IMC die Bandbreite noch umsetzt oder schon Wartetakte einschiebt. :|

Berserker
2011-12-29, 22:44:25
meint er mit 1,6vcore nicht die GPU :confused:

ok before someone cry i will be nice again

1.6vcore (pretty sure its needed)
1.86dram (not sure if its needed)
1.06+ vddci (not sure if its needed)
+ overmodding of a bunch of other stuff (not sure if its needed)

-120C ~ -180C ~ depending on resolution (not sure if its needed)

heat is a walk in the park, maybe 1/2 of fermi easy splashin jobs on KPC tek 9 slim

Denke Zergra meint die Vcore der CPU. CPU-Z zeigt ja als Vcore 1,656V.

In deinem Zitat spricht Peter,aber von der GPU. Also welche Spg. er bei der Graka verwendet hat,denke anstatt Vcore müsste es VGPU heißen.

Aber total awesome,dass er die Graka nur mit einem Slim Pot auf den Temps halten konnte.
Zeugt also von wenig Hitze der GPU. Wenn ich dran denke,welche Hitze eine 580 macht und was man da alles beachten muss beim benchen.

M4xw0lf
2011-12-30, 10:10:16
Denke Zergra meint die Vcore der CPU. CPU-Z zeigt ja als Vcore 1,656V.

In deinem Zitat spricht Peter,aber von der GPU. Also welche Spg. er bei der Graka verwendet hat,denke anstatt Vcore müsste es VGPU heißen.

Aber total awesome,dass er die Graka nur mit einem Slim Pot auf den Temps halten konnte.
Zeugt also von wenig Hitze der GPU. Wenn ich dran denke,welche Hitze eine 580 macht und was man da alles beachten muss beim benchen.

Schreibt Shamino ja auch, er schätzt die Abwärme auf die Hälfte von Fermi.

Skysnake
2011-12-30, 12:48:13
Das ist dann schon krass.

Aber gibts mit nem Pot wirklich bei der GF1x0 Probleme? Kann mir das kaum vorstellen, dass da die Größe des Pots was aus macht, außer halt das man mehr rein kippen kann und er so länger hält ohne nachfüllen

Berserker
2011-12-30, 14:07:26
Naja,die 580 erzeugt wesentlich mehr Hitze als die 7970,so dass man schon mal besser die mit einem großem Pot benchen sollte,da man somit die Tempschwankungen besser auffangen kann,als mit einem Slim Pot.
Und dann gibt es bei der 580 noch,dass Thema,welche WLP man da nehmen sollte,welche nicht so früh "cracked".
Aber mal sehen,was da noch mit 7970 an Themen kommen.

Grindcore
2011-12-30, 16:54:41
217,6 GTexel/s. Muhar.

Schlammsau
2012-01-02, 21:04:00
:eek:

Radeon HD 7970 auf 1,7 GHz GPU-Takt gebracht (http://www.computerbase.de/news/2012-01/radeon-hd-7970-auf-1.7-ghz-gpu-takt-gebracht/)
Wie MyDrivers berichtet, erreichten die in der Szene bekannten Overclocker Kingpin und Shamino mit Hilfe einer ordentlichen Spannungsanhebung per Voltage-Mod sowie extremer Kühlung (LN2) zunächst 1.650 MHz für die GPU, während der Speichertakt auf 1.700 MHz (effektiv 6.800 MHz) getrieben wurde. Nach weiteren Zwischenschritten meldete GPU-Z schließlich rekordverdächtige 1.700 MHz für die 28-nm-GPU und 2.000 MHz (effektiv 8.000 MHz) für den GDDR5-Speicher. Die von AMD vorgesehenen Standardfrequenzen einer HD 7970 liegen hingegen bei 925 MHz (GPU) und 1.375 MHz (Speicher).

Skysnake
2012-01-03, 12:51:15
Obr hat 2 Links gepostet zu Software und einem neuen Bios, mit dem nun die Spannungsanpassung bei der 7970 möglich sein soll.

Da werden die Tage sicherlich neue OC als auch UV Ergebnisse kommen. Insbesondere das Undervolting interessiert mich.

Meint ihr, da geht dann noch mehr OC, als mit den V-mods???

Und noch ne Preisfrage. Wie weit runter kann man mit der Spannung @925MHz? :D

kunibätt
2012-01-07, 23:28:50
Ist natürlich nu geschätz aber von meiner GTX570 ausgehend:
1.025V-750 stock
0.9v--- 650 undervolted

-12% Spannung= -13.33 Takt, also fast 1:1.

Leistung pro Watt ist undervolted natürlich viel besser (ich schätze die jetzt auf ca.150W).

Das wären bei der HD7970@925/1.16 dann 1.02V und ca. 800Mhz.
Verbrauch wäre dann wohl sogar etwas unter meiner GTX570.
Dazu scheint die HD7970 auch mehr Taktspielraum @ stock voltage zu haben, also vielleicht noch ein paar MHZ draufrechnen.

Ist aber eh eine Mildchmädchenrechnung von daher wird man es wohl einfach ausprobieren müssen. Und ob der Kühler das auch auf 30% @load packt ist dann nochmal eine andere Sache. Kühlertausch kommt für mich dank fehlender Backplate leider nicht (mehr) in Frage.

AnarchX
2012-03-16, 13:48:59
Tahiti @ MSI Lightning PCB:
1800/1925MHz - 1,7V (http://hwbot.org/newsflash/1659_top_solution_for_hd_7970___msi_r7970_lightning___breaking_world_records_wit h_unlocked_digital_power_)

M4xw0lf
2012-03-16, 13:52:42
Mörderisch...

AnarchX
2012-03-22, 15:24:07
The race to 2GHz...

GK104 mit 1842MHz @ VR-Zone (http://vr-zone.com/articles/evga-geforce-gtx-680-hits-1842-mhz-under-ln2/15323.html)

AnarchX
2012-03-23, 09:07:06
KingPin mit 1900MHz auf GK104 (http://kingpincooling.com/forum/showpost.php?p=20435&postcount=18)

dildo4u
2012-04-07, 14:33:04
Nvidia GeForce GTX 680 bei 1957 MHz

http://www.pcgameshardware.de/aid,876848/Nvidia-GeForce-GTX-680-bei-1957-MHz/Grafikkarte/News/

Kingpin lässt nach nicht mal nen 3960 am Start. *g*

AnarchX
2012-06-20, 15:51:26
k|ngp|n hat die 2GHz geknackt, mit einer 680 Classified: http://kingpincooling.com/forum/showpost.php?p=22178&postcount=22

dargo
2012-06-20, 16:34:49
Ich frag mich gerade was diese unsinnigen Rekordaufstellungen bei der mickrigen Bandbreite überhaupt sollen? Bei 2GHz müsste das Ding schon beinah 400GB/s Bandbreite haben. Naja... wenns schähn macht. :D

boxleitnerb
2012-06-20, 16:38:46
Tahiti erreicht bei 1800MHz eine Graphics Score von 15334. GK104 bei 2000MHz 16680. Das ist fast eine lineare Steigerung. Gut 11% mehr Takt und knapp 9% mehr Leistung. Bezogen auf Standardtakt nimmt die Effizienz natürlich ab, klar. Aber Tahiti kann sich nicht wirklich mit seiner erhöhten Bandbreite in diesem Benchmark absetzen.

dargo
2012-06-20, 16:50:31
Was soll in diesem poppeligen Benchmark bei den Settings auch Bandbreite kosten? Mir gehts um Spiele mit hoher Auflösung und reichlich AA. ;)

Edit:
Wenn ich nur an 2Ghz beim GK104 denke... was da für Spielsettings möglich sind wenn eine entsprechende Bandbreite ihm zur Seite stehen würde. :tongue:

AnarchX
2013-12-10, 18:27:44
GK110 Vollausbau @ 1.933MHz: http://www.computerbase.de/news/2013-12/evga-enthuellt-gtx-780-ti-classified-kingpin-edition/

Zergra
2013-12-10, 22:48:48
GK110 Vollausbau @ 1.933MHz: http://www.computerbase.de/news/2013-12/evga-enthuellt-gtx-780-ti-classified-kingpin-edition/
bei GPU´z stehen aber 1374 oder so ... und die 1.2V oben finde ich auch etwas wenig.

Naja der Benchmark bezeugt es aber... :D

Erdbeermayonnaise
2013-12-11, 08:52:23
GK110 Vollausbau @ 1.933MHz: http://www.computerbase.de/news/2013-12/evga-enthuellt-gtx-780-ti-classified-kingpin-edition/
Ich möchte jetzt nicht den Thread entgleisen, aber ich dachte der Base Clock Strap würde bei Xeons nicht funktionieren? Wie bekommen sie einen Bus Speed von 125Mhz bei einem Xeon E5?

AnarchX
2013-12-11, 09:16:35
Könnte daran liegen, dass die CPU ein spezielles ES ist.

AnarchX
2014-10-12, 14:46:26
Die vereinfachten SMM haben die Taktbarkeit noch einmal erhöht: 2,2GHz auf GM204 (http://hwbot.org/newsflash/2681_update_elmor_takes_first_place_1xgpu_fire_strike_extreme_from_kingpin_with_ geforce_gtx_980_at_22082098_mhz).

AnarchX
2015-03-26, 09:13:06
GM200 nimmt auch die 2GHz Marke: http://hwbot.org/submission/2803523_kingpin_3dmark___fire_strike_geforce_gtx_titan_x_24027_marks

Wobei das ausgehend von ~1,5GHz mit einer WaKü und Vmod, aber nicht ganz so ein großer Sprung mehr ist, wie noch ein GF110 mit >3GHz ALUs.

Dural
2015-03-26, 09:19:04
na da geht sicherlich noch mehr, das ist eine schöne Marketing Angabe (2GHz) :wink: Zudem bei so grossen Chips oft die Strom Versorgung ein Problem ist. Takt mässig waren die Alus bei NV noch nie ein Problem, es ist der restliche Bereich der limitiert.

Knuddelbearli
2015-03-26, 18:49:29
Wird bei LN2 OC normalerweise nicht auch gleich eine eigene Spannungsversorgung rangelötet?

Godmode
2015-03-31, 17:30:32
Wird bei LN2 OC normalerweise nicht auch gleich eine eigene Spannungsversorgung rangelötet?

Normalerweise schon, da eine Karte dann schonmal ein ganzes Netzteil auslasten können. ;D

AnarchX
2016-05-07, 11:03:11
Unter 16FF sind es nun >2GHz bei LuKü:
2,1 GHz unter Luft :eek:....puh....
351,9 GB/s mit GDDR5X OC immerhin. :)

Hier nochmal das Bild:

http://abload.de/thumb/gtx10801gjya.png (http://abload.de/image.php?img=gtx10801gjya.png)

in groß:
http://abload.de/img/gtx10801gjya.png


Bleibt die Frage ob da unter LN2 die 3GHz erreichbar sind.

=Floi=
2016-05-07, 12:47:07
stellt sich noch die frage, warum NV nicht den kleinen chip als ultra mit besserem kühler bringt und so mehr mage abschöpft?!

Zergra
2016-05-07, 20:10:35
Könnte daran liegen, dass die CPU ein spezielles ES ist.
Oder das richtige Bios Update :confused:

kdvd
2016-05-07, 21:31:29
stellt sich noch die frage, warum NV nicht den kleinen chip als ultra mit besserem kühler bringt und so mehr mage abschöpft?!

Weil man damit die eigenen AIBs vergrault.

(del)
2016-05-09, 17:40:29
Da geht noch was und nein, es war kein Golden Sample ;)

http://media.bestofmicro.com/H/9/579933/original/Epic-03.jpg

2,1 mit Luft sind nicht nur machbar, sondern eher wenig :)

Godmode
2016-05-09, 17:45:08
Da geht noch was und nein, es war kein Golden Sample ;)

http://media.bestofmicro.com/H/9/579933/original/Epic-03.jpg

2,1 mit Luft sind nicht nur machbar, sondern eher wenig :)

Ich rechne mit 2,5 GHz unter Wasser, was aber immer noch zu wenig Abstand zu GM200 Full @1,5 GHz bietet.

(del)
2016-05-09, 18:07:05
Ist doch auch nur eine Non-Ti ;)

Wertschöpfung geschieht doch seit Jahren in Wellen :)

Godmode
2016-05-09, 18:15:30
Darum möchte ich auch den GM200 Nachfolger kaufen und nicht den GM204 Nachfolger.

AnarchX
2016-05-09, 18:56:39
Da geht noch was und nein, es war kein Golden Sample ;)

http://media.bestofmicro.com/H/9/579933/original/Epic-03.jpg

2,1 mit Luft sind nicht nur machbar, sondern eher wenig :)
Scheint wohl so. 2.4GHz auf den Top-Custom-Karten? (https://forum.beyond3d.com/posts/1912810/):freak:

illidan
2016-05-09, 18:59:12
Ich sag ja, dass Polaris 10 arge Probleme gegen die 1070 Customs mit 180-200W TDP haben könnte. Sie dürften halt nicht nur etwas schneller sein...

scully1234
2016-05-09, 19:09:32
Der meint aber jetzt schon den Boosttakt oder?

12TFLOPS also nur sporadisch anliegend:freak:

Sonst wird's hier aber augenscheinlich schnell ne lange Zeit keine von den Dingern mehr geben

illidan
2016-05-09, 19:12:29
Der Boost liegt bei genügend Last immer so gut wie voll an, wenn nicht durch PT & TT gedrosselt wird, was bei den Customs nicht oder kaum der Fall sein sollte.

scully1234
2016-05-09, 19:17:41
Also jetzt hasse ich Jensen dafür das er da noch GDDR5X verbaut, spätestens dort oben kippt der ''lahme'' Speicher die Ausgewogenheit vollends

Hoffentlich hat Micron da noch etwas Luft im System mit den 10er Chips

BlacKi
2016-05-09, 19:20:48
irgendwie kann ich mir das kaum vorstellen. was soll die karte dann an strom ziehen? 280-300w? kann kann man sich den großen chip gleich ganz sparen. ein 330mm² chip soll 300w nicht nur spiken sondern dauerhaft ziehen?

Troyan
2016-05-09, 19:24:59
irgendwie kann ich mir das kaum vorstellen. was soll die karte dann an strom ziehen? 280-300w? kann kann man sich den großen chip gleich ganz sparen. ein 330mm² soll 300w nicht nur spiken sondern dauerhaft ziehen?

Wissen wir denn, was die 1080 an Strom zieht?
TitanX und GTX980TI haben eine TDP von 250W. Aber in Spielen wird die Karte auf 225W gedrosselt.

prinz_valium
2016-05-09, 19:35:06
irgendwie kann ich mir das kaum vorstellen. was soll die karte dann an strom ziehen? 280-300w? kann kann man sich den großen chip gleich ganz sparen. ein 330mm² chip soll 300w nicht nur spiken sondern dauerhaft ziehen?

finfet ist schon ein riesen sprung zu den normalen 28nm tansistoren
also da geht schon einiges, ohne dass man plötzlich von 300 watt ausgehen muss

und selbst wenn das teil 200 oder etwas mehr watt zieht?
es wurde auf den Präsentationen ja auch gezeigt, dass die Effizienz deutlich gesteigert wurde. wenn bei 200 aus der dose dann wirklich 180 beim rechnen ankommenm ist das doch wunderbar



edit: wow ich dachte ich hätte was im pascal topic geschrieben...

BlacKi
2016-05-09, 19:36:58
finfet ist schon ein riesen sprung zu den normalen 28nm tansistoren
also da geht schon einiges, ohne dass man plötzlich von 300 watt ausgehen muss

und selbst wenn das teil 200 oder etwas mehr watt zieht?
es wurde auf den Präsentationen ja auch gezeigt, dass die Effizienz deutlich gesteigert wurde. wenn bei 200 aus der dose dann wirklich 180 beim rechnen ankommenm ist das doch wunderbar
dann haben sie uns mit den 180w tdp hart getrollt! denn über 40% mehr takt resultieren in mindestens 40% mehr verbrauch, also 255w, ohne das man die effizienzverschlechterung die massiv sein kann mit reingerechnet hat.

prinz_valium
2016-05-09, 19:54:15
dann haben sie uns mit den 180w tdp hart getrollt! denn über 40% mehr takt resultieren in mindestens 40% mehr verbrauch, also 255w, ohne das man die effizienzverschlechterung die massiv sein kann mit reingerechnet hat.

tdp hat aber nie etwas mit realverbrauch zu tun
das scheinst du zu vergessen ;)

BlacKi
2016-05-09, 19:59:04
tdp hat aber nie etwas mit realverbrauch zu tun
das scheinst du zu vergessen ;)
die bei nvidia haben das relativ gut im griff +- 5-7%

(del)
2016-05-10, 08:25:38
Die "normale" Karte sollte mit Boost @1,7 GHz bei ca. 180 Watt rauskommen (sagt Nvidia). Sollte das so hinkommen, wird es dank Boost 3.0 bei 2,5 GHz kaum groß über 250 Watt landen, falls überhaupt.

Leider dürfen wir theoretisch noch nicht einmal sagen, das wir nichts sagen dürfen, aber es wird durchaus interessant, wenn wir es dann dürfen. Davon gehe ich mal aus ;)

Achill
2016-05-10, 10:11:36
Bei der NV-Präsentation zur 1080 wurde bei der Effizienz-Folie gesagt, dass die Spannung der Karte bei ~1V liegt und bis zu 300A fliesen können. Macht zumindest ein Peak von 300W.

AffenJack
2016-05-10, 10:14:45
Die "normale" Karte sollte mit Boost @1,7 GHz bei ca. 180 Watt rauskommen (sagt Nvidia). Sollte das so hinkommen, wird es dank Boost 3.0 bei 2,5 GHz kaum groß über 250 Watt landen, falls überhaupt.

Leider dürfen wir theoretisch noch nicht einmal sagen, das wir nichts sagen dürfen, aber es wird durchaus interessant, wenn wir es dann dürfen. Davon gehe ich mal aus ;)

Du bist nen dreckiger Teaser;D
Meinst du Micron gibt dem G5X Ram auch noch etwas Taktspielraum, nur so als Einschätzung da du ja keine Karte hast?;)

iuno
2016-05-10, 10:16:53
Macht zumindest ein Peak von 300W.
GM204 peaken schon auch mal so hoch: http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

@Format_C: da fehlen irgendwie die Diagramme zur Referenz-980...

(del)
2016-05-10, 12:20:52
@Format_C: da fehlen irgendwie die Diagramme zur Referenz-980...Tja, die Franzosen und ihr System Maginot. Da hat schon früher mal einer drüber gelacht und ist einfach außen herum gefahren :(

In der Datenbank sind die Bilder noch drin, aber irgend etwas stimmt mit der Länder-ID nicht mehr. Ich verstehe unsere Technik auch nicht mehr, seitdem die sogenannten Yahoo-Experten das alles "optimiert" haben. Weitergeben habe ich es erst mal, Danke. :)

@Pascal:
Wenn die Stromstärke in der Summe schon mal 300A betragen kann, heißt das noch lange nicht, dass man es eben mal so einfach mit 1V multiplizieren kann, um auf 300 Watt zu kommen. Es ist ja gerade die Aufgabe des Arbitrators, all diese Werte der Sensoren im VR-Chip bzw. des Current-Monitors zu überwachen und in dessen Folge die Spannung und den Takt so zu regeln, dass das gesetzte Power-Limit eben nicht überschritten wird. Betreffs Power-Estimation / Preemtion darf ich ja noch nicht mal erwähnen, dass es überhaupt was zu erwähnen geben könnte, weshalb ich jetzt mal gar nichts erwähne :P

Wer der übertakteten Lederjacke jedoch aufmerksam zugehört hat, wird ziemlich am Anfang ja auch was zu den Spikes mitbekommen haben. Dies wiederum lässt logisch schlussfolgern, dass sich Boost noch einmal stark geändert hat bzw. dass die Architektur nun einen größeren Spielraum bei der Vorhersage haben muss. Und außerdem: werft doch bei den besseren Pressebildern mal einen Blick auf den Spannungsversorgungsanschluss. Dann wird auch der Letzte kapieren, dass 300W gar nicht gehen (können).

Übrigens:
Die ES für die Boardpartner und die finalen Karten haben diesmal eine unterschiedliche ID. Zusätzlich ist der generische Treiber für die ES mit einem Hash gesichert, man kann also nicht mal eben so nebenbei die ID austauschen. Alles, was bisher an Benchmarks kolportiert wurde, ist sicher mit den hornalten Kompatibilitätstreibern (April 2016) und Engineering Samples erstellt worden, womit auch geleakte OC-Werte eher humoristischen Inhalt haben. Es reicht auch nicht, das finale BIOS durch das für die ES zu ersetzen.

scully1234
2016-05-10, 16:06:36
Wer der übertakteten Lederjacke jedoch aufmerksam zugehört hat, .

Gibt's eigentlich ein Event ohne das ranzige Ding? Scheint eine Art Gluecksbringer zu sein fuer Jensen:tongue:

Obwohl die Praesentation am Ende??? Vielleicht haette er mal mehr Lederfett nehmen sollen:P


Alles, was bisher an Benchmarks kolportiert wurde, ist sicher mit den hornalten Kompatibilitätstreibern (April 2016) und Engineering Samples erstellt worden, womit auch geleakte OC-Werte eher humoristischen Inhalt haben. .

Aber sicher nicht das was er hier (https://twitter.com/pellynv) auf dem Event ''versehentlich'';D ins Internet entlassen hat ,von der Referenzkarte

Mit den Werten keult er gerade die Radeon Pro Duo

VooDoo7mx
2016-05-10, 16:22:13
Wissen wir denn, was die 1080 an Strom zieht?
TitanX und GTX980TI haben eine TDP von 250W. Aber in Spielen wird die Karte auf 225W gedrosselt.

So ein Quatsch.
980Ti/Titan X haben 250W PT was sich auf 275W erhöhen lässt. Das Power Target wird nie gedrosselt, nur der Takt/Spannung wenn das Power Target erreicht wird. Meine 980Ti verbrauch bei 1,42GH 3820MHz Speicher je nach Spiel in UHD 3840x2160 auch über 300W und zieht das dauerhaft ohne Unterbrechung oder Drosselung. Ich verwette meinen Arsch, dass dies bei der 1080 auch so sein wird.

illidan
2016-05-10, 16:25:40
GM204 peaken schon auch mal so hoch: http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Aber nur mit Gigabyte-Biosen, die fast keine Grenze nach oben kennen.
"Vernünftige" GM204-Karten peaken höchstens für ein paar ms so hoch, und das spielt mit gescheiten Netzteilen ja keine Rolle.

iuno
2016-05-10, 16:32:46
Und außerdem: werft doch bei den besseren Pressebildern mal einen Blick auf den Spannungsversorgungsanschluss. Dann wird auch der Letzte kapieren, dass 300W gar nicht gehen (können).
Dachte bei den Ueberlegungen geht es um Peaks mit OC. Seit wann erkennt man denn von aussen, was da max. durch geht? Regelt das PM da so hart ab und laesst sich das PT nicht weiter erhoehen?

"Vernünftige" GM204-Karten peaken höchstens für ein paar ms so hoch, und das spielt mit gescheiten Netzteilen ja keine Rolle.
Deshalb sind es auch Peaks, die sind immer nur so kurz.
Ja, die Bilder zur Referenzkarte fehlen ja wie gesagt leider.

scully1234
2016-05-10, 16:42:05
Dachte bei den Ueberlegungen geht es um Peaks mit OC. Seit wann erkennt man denn von aussen, was da max. durch geht? Regelt das PM da so hart ab und laesst sich das PT nicht weiter erhoehen?
.

Vielleicht wird ja gepuffert in der Zeit wo wenig Last anliegt?

So ne art Kondensatorcache fuer schwere Zeiten:smile:

(del)
2016-05-10, 17:14:39
Noch einmal:
Nvidia hat bei der Quadro M6000 das Limit schon arg ausgenutzt, was mit einem 8-pin-Molex so geht. Ich bezweifle, dass da jemand mal eben so um die 300 Watt durchjagen lässt :D

http://media.bestofmicro.com/H/A/579934/original/004.jpg

Godmode
2016-05-10, 18:14:22
Verdammt, den 8-Pin Stecker habe ich völlig vergessen. Ich ging irgendwie immer von 6+6, bzw. 6+8 aus.

BiZiNiZz
2016-05-10, 18:30:15
Verdammt, den 8-Pin Stecker habe ich völlig vergessen. Ich ging irgendwie immer von 6+6, bzw. 6+8 aus.


Die Custum Design's werden garantiert die Spannungsversorung komplett umbaun und auch das ermöglichen.

Godmode
2016-05-10, 18:44:14
Die Custum Design's werden garantiert die Spannungsversorung komplett umbaun und auch das ermöglichen.

Customs meide ich normalerweise, da für diese oft keine Wasserkühler angeboten werden.

BlacKi
2016-05-10, 18:52:13
wenn der gp104 chip schon erwiesenermaßen 2,1 ghz bei 180w +6%pt erhöhung schafft, schafft er 2,4ghz+ wohl unter 225w die mit dem 8pin+pcie möglich sein sollten.

die 180w bei den angegebenen taktraten waren wohl wirklich irreführend.

Langlay
2016-05-10, 19:09:26
wenn der gp104 chip schon erwiesenermaßen 2,1 ghz bei 180w +6%pt erhöhung schafft, schafft er 2,4ghz+ wohl unter 225w die mit dem 8pin+pcie möglich sein sollten.

Das wage ich zu bezweifeln. 2.1Ghz @190W(180w+6%) selbst ohne weitere Spannungserhöhung liegt bei 2.4 Ghz(+15%ggü. 2.1GHz) der Verbrauch bei ~220W.
Sobald du da nen bischen die Spannung nach oben schraubst biste da >225W.

VooDoo7mx
2016-05-10, 19:40:06
Noch einmal:
Nvidia hat bei der Quadro M6000 das Limit schon arg ausgenutzt, was mit einem 8-pin-Molex so geht. Ich bezweifle, dass da jemand mal eben so um die 300 Watt durchjagen lässt :D

Rein elektroisch kann ein 8 PIN PCIe Connector bis zu 432W führen. ;)

Siehe hier: http://www.tomshardware.com/reviews/power-supply-specifications-atx-reference,3061-12.html ;) ;) ;) ;) ;)

illidan
2016-05-10, 19:43:46
Das wage ich zu bezweifeln. 2.1Ghz @190W(180w+6%) selbst ohne weitere Spannungserhöhung liegt bei 2.4 Ghz(+15%ggü. 2.1GHz) der Verbrauch bei ~220W.
Sobald du da nen bischen die Spannung nach oben schraubst biste da >225W.
Spannung ist kritisch, es müssen aber die 180W bei 1,7Ghz überhaupt nicht die ganze Zeit ausgeschöpft sein.

woodsdog
2016-05-10, 19:53:53
Rein elektroisch kann ein 8 PIN PCIe Connector bis zu 432W führen. ;)

Siehe hier: http://www.tomshardware.com/reviews/power-supply-specifications-atx-reference,3061-12.html ;) ;) ;) ;) ;)

Dann kannst du aber drauf wetten das jede menge Eigenheime abfackeln weil ein chinese irgendwo meinte 10 cent am Kabel sparen zu müssen.

Die werden sich schon was dabei gedacht haben nur einen Stecker zu verbauen. Sonst versaut man sich ggf den Refresh der mit 2 kommen soll und so noch mal 30% druff packt (ich rede nicht vom topdog).

Würde mich nicht wundern wenn nv das auch für die eigendesigns vorschreibt.

Langlay
2016-05-10, 20:06:43
Spannung ist kritisch, es müssen aber die 180W bei 1,7Ghz überhaupt nicht die ganze Zeit ausgeschöpft sein.

Hab ich auch nicht behauptet und ist auch für meine Aussage nebensächlich.

Wäre sogar skeptisch das GP104 2.4GHz bei <=225W schafft wenn er bei 2.1 GHz bei 180W schaffen würde.

Weil ich kann mir nicht vorstellen kann das du mit Standardspannung auf 2.4GHz kommst, selbst 2.1 GHz mit Standardspannung würde ich nicht unbedingt erwarten.

Die Spannung geht in den Verbrauch quadartisch ein, der Takt linear.

illidan
2016-05-10, 20:20:11
Die Spannungserhöhung hast ja du ins Spiel gebracht, obwohl bisher noch nirgends die Rede davon war. Erstmal abwarten, wie viel wirklich meist ohne geht.
Wenn NVs Vorstellung mit 2,1Ghz nicht gemogelt war, könnte da wirklich einiges Potenzial sein.

Troyan
2016-05-10, 20:29:17
Spannungserhöhung gibt es doch bei nVidia nicht mehr. Die Boost-Steps kommen alle mit unterschiedlichen Spannungswerten.

Langlay
2016-05-10, 20:33:12
Die Spannungserhöhung hast ja du ins Spiel gebracht, obwohl bisher noch nirgends die Rede davon war.

Naja ich glaube auch nicht an den Weihnachtsmann. 2.4GHz bei Stockspannung? Dann sollte bei 1.7 GHz Standardtakt einiges an Luft nach unten sein bei der Spannung. Was man die Verbrauchseinsparung seites Nvidia links liegen lässt kann ich mir nicht vorstellen.


Spannungserhöhung gibt es doch bei nVidia nicht mehr. Die Boost-Steps kommen alle mit unterschiedlichen Spannungswerten.


Lass mich raten je höher der Takt je höher die Spannung? Dann frage ich mich worüber wir diskutieren.

Konnte man bei Nvidia nicht auch irgendwie nen Offset setzen?

Wobei dann hab ich mich falsch ausgedrückt. Jedenfalls muss die Spannung bei 2.4GHz <= der Spannung bei 2.1GHz sein, sonst kommste am Ende >225W raus.

illidan
2016-05-10, 20:33:27
Spannungserhöhung gibt es doch bei nVidia nicht mehr. Die Boost-Steps kommen alle mit unterschiedlichen Spannungswerten.
Die Spannung für niedrigere Boost-Steps ist doch auch höher, wenn sie für den Max-Boost erhöht wird? Ggf. muss man den Takt dann leicht absenken, wenn die Spannungserhöhung sonst automatisch zu einem höheren Max-Boost führt.
Spätestens mit entsprechender Bios-Modifikation hat man eh die volle Kontrolle darüber und viele der >1,5Ghz WK-Boliden laufen mit Spannungserhöhung per Bios-Mod.