PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : spekulativ: Sind Übertakter daran schuld, dass Übertakten kaum mehr möglich ist?


DoomGuy
2018-11-20, 00:47:46
Ich habe mich gerade mal gefragt (spekuliert), ob Übertakter eine große Schuld daran haben, dass inzwischen kaum mehr Spielraum bei eben diesem Hobby existiert. Von +10% Leistungszuwachs bei guter Hardware rede ich hier nicht.


1. Jede günstige CPU von Intel hat eine Sperre beim Multi, damit ja keiner auf die Idee kommt, die Batches zu vergleichen. Den FSB gibt ja "Konstruktionsbedingt" nicht mehr.


2. AMD zeichnet seine CPU's als AAA aus, wenn sie auf dem Threadripper verlötet werden dürfen. Binning ab Werk


3. nVidia baut schon eigene "A" GPU's.


Mit viel Glück kommt mal wieder eine Karte bzw. "Fehlproduktion" raus die "durchgerutscht" ist und dann eine größere Modifikation erlaubt, welche bis zur freischaltung der Shader reicht. ---> PR-Stunt


Das Beste, was ich bisher gelesen habe war, dass wohl jemand eine non HT-CPU in eine mit HT wandeln konnte.


(https://www.computerbase.de/forum/threads/3570k-i7-3770-ht-unlocked-4c-8t.1359471/

Wo ist unser tolles Hobby hin? Geht es den Herstellern schlecht?


Ich habe bisher noch keine CPU wieder an einen Händler zurückgesendet, wenn diese nicht so gut zu übertakten war, wie ich erhoffte (wurde weiterverkauft und gut - nächster Versuch) bzw. explizit (offline) gefragt, ob eben dieses Batch vorrätig ist. Ist das Fernabsatzgesetzt vielleicht ein weiteres Problem?


Bitte verschieben, wenn es hier nicht passt.

Daredevil
2018-11-20, 01:10:22
Das Ziel eines Unternehmens ist, Produkte zu verkaufen.
Je größer die Haltbarkeit deines Produktes ist, desto weniger verkaufst du.

Overclocking erhöht die Haltbarkeit eines Produktes, deswegen nehmen Firmen für diese "Höherwertigkeit" Geld, damit sie kein Nachteil damit haben.
Andere Firmen z.B. bremsen künstlich die alten Produkte, damit sich der Nutzer bald ein neues kauft ( Grüße an Apple :D )

Ich denke, dass ist grob im ganzen der Punkt. Wir befinden uns aber Allgemein an einem Punkt, wo OC auch immer schwieriger wird. 5Ghz ist eine Wand, die man nicht mal eben locker mit einer Brechstange einreißen kann, das kostet viel Kraft und Energie ( Bulldozer *hust* ).

Mein Prozessor ist im Jahre 2011 rausgekommen für 540€ und ist mit OC schneller in Games als ein 1600x. Hätte man das früher gewusst, dass die Entwicklung so schleppend vorran geht, hätte man sich die 200€ sparen können, die manche beim Start für einen Hexacore Ryzen ausgegeben haben.

Meine CPU Historie:
3930k@4,6GHz Overclock: 43%
X5670@4,2GHz Overclock: 52%
Q6600@3,6GHz Overclock: 50%
E4300@3,25GHz Overclock: 80%

Den 8700k könnte ich dann wohl jetzt auf ~5,2GHz takten, es wären aber "nur" 21% von der Basis mehr.
Ein kleineres Modell gibt es ja aktuell auch gar nicht mehr, welches man auf das Niveau eines höheren takten kann.


Es wird halt einfach immer weniger. :(

EinName
2018-11-20, 05:02:08
Von der "Steinzeit" mit einem 386'er, den mal auch mal auf 32mhz takten konnte - WOW!

Also Ja, es gab einen klaren Verfall. Aber das ist längst schon gelaufen. Das was du gerade siehst, ist höchstens die Spitze vom Eisberg. Das man eine CPU per Bleistift-Leitung mal eben um 50% OCen konnte, die Zeiten sind längst vorbei. Ja, die Hersteller haben teils Sperren eingebaut, aber auch: AMD ist wesentlich friedvoller als Intel in dieser Beziehung. Bei den Graka sorgt Nvidia immer per festgeschriebener Spannungsversorgung auf bestimmten Pins, das auch ja nicht genug Leistung gefressen wird. Dem zugute halten muss man allerdings, dass es zugleich auch eine Art Überspannungsschutz darstellt.

Generell ist der Zug "übertakten macht wirklich Sinn" schon seit Jahren abgefahren. In Einzelfällen, in bestimmten Szenarien, kann man ja nach Hardware immer noch die nächst höhere Klasse erreichen. IdR. gilt aber: ob ich nun 30 oder 33 FPS habe ist egal, und ob es 60 oder 66 sind auch. 10-15% ändern die Leistungsklasse nicht, sind also per se höchstens nettes Beiwerk. Und da sind wir nun.

@Daredevil: Beim 8700k liegt der für Games relevante Turbo (zwei oder vier Kerne) höher als 4,3. Bei steigender Kernanzahl wäre es wohl fair das OC auch entsprechend zu bewerten - 21% erreichst du, bei deiner Sonntags-Super-Gut-Select CPU, sicher nur bei All-Core Auslastung. In Spielen wird dir der OC die typischen 10-15% bringen, da per default einzelne Kerne auch bis zu 4,7 GHZ boosten.

=Floi=
2018-11-20, 07:28:56
Alle modelle würden gleich gut gehen.
Würde man alles freigeben, könnte man mit einem weit günstigeren prozessor die topmodelle torpedieren.


https://www.tomshardware.com/reviews/dual-41-ghz-cores,1253-3.html


bei den teuren modellen kann man als hersteller mit den turbos viel leichter und weiter an die grenzen gehen. Das nimmt man als heute auch mit. Der kunde profitiert davon ebenfalls.

Tobalt
2018-11-20, 07:50:01
ein guter adaptiver dynamischer boost ist doch eh das sinnvollste. das war früh Mangels ausreichender integrierter monitoring Funktionen noch nicht so praktikabel weswegen die Hersteller viel mehr headroom planen mussten.

heute nun holen die CPUs quasi immer das Optimum aus Performance bzw Verbrauch heraus ( es lässt sich Richtung dynamisch untervolting sicher noch verbessern siehe mobile cpus)

die Abgrenzung der verschiedenen modelle nach Basistakt finde ich daher altertümlich und wird wohl verschwinden. stattdessen gibt es dann einfach nur noch den Qualitätsindex oder die Leistungsaufnahme bzw Kernzahl wird als Modellbegrenzung genutzt

Jasch
2018-11-20, 09:45:33
Das einzige was daran "Schuld" hat ist die Gewinnmaximierung der Unternehmen.

#44
2018-11-20, 09:53:50
Das einzige was daran "Schuld" hat ist die Gewinnmaximierung der Unternehmen.
Weil die jetzt ihre Produktionsprozesse so weit im Griff haben, dass sie ab Werk schon recht gut bestimmen können, wo die Limits liegen werden?

Lowkey
2018-11-20, 10:04:09
Das einzige was daran "Schuld" hat ist die Gewinnmaximierung der Unternehmen.


Mehr auch nicht. Wenn der Fortschritt ausbleibt, dann werden LEDs draufgeklebt.

HOT
2018-11-20, 10:15:21
Technische Limits und bessere technische Möglichkeiten der Maximierung der Ausbeute sind schuld daran. OC lohnt sich nicht mehr, weil die Hersteller selbst alles rausholen.
Wenn man sich Coffeelake anschaut, ist das sogar eher als Eigenübertaktung zu sehen, da sie wirklich weit über ihre TDP gehen, um besser dazustehen. Ist ja heut auch nicht mehr so, als wenn kleine CPUs einen riesen Spielraum hätten. Selbst der I3 taktet über 4GHz.

Der_Korken
2018-11-20, 10:34:47
Man könnte mal die Gegenfrage stellen, was heute anders wäre, wenn generell niemand übertakten würde. Dann hätten wir die gleichen Chips in unseren Rechnern, aber die wären vielleicht nicht weniger stark ausgereizt bzw. am Limit getaktet. Unterm Strich wären die Rechner langsamer, denn da niemand übertaktet, werden die Reserven auch durch Übertakter nicht ausgereizt. Ich habe mich zu meinen "Hardware-Anfangszeiten" so ab 2005 immer gefragt, warum Hersteller ihre Chips so konservativ takten und ob denen damit nicht eigentlich total viel Geld entgeht. Scheinbar hat man diese "Lücke" mittlerweile erkannt :D.

Leonidas
2018-11-20, 11:26:09
Gute Fragestellung @ TS.

Aber ich denke, es hängt primär damit zusammen, das die Hersteller sich in stärkerem Konkurrenzkampf befinden und daher keine OC-Reserven mehr haben bzw. jene für das eigentliche Produkt benötigten/verwerten.

Die Ausnahme ist nVidia - und dort gibt es auch noch OC-Reserven. Nur will man an denen möglichst gut mitverdienen, weil nVidia natürlich auch nicht die Wohlfahrt ist und sich zudem ausrechnen kann, das die konkurrenzlosen Zeiten auch schnell zu Ende sein können.

TobiWahnKenobi
2018-11-20, 11:28:01
wenn man die guten alten zeiten mit dos, den ersten windosen und zugehörigen rechnern mitgemacht hat, kommt einem OC heutzutage eher wie verarschung vor. aber nach-wie-vor verbringen noch immer viele leute ihre zeit damit, über unterschiede zwischen 5.1 und 5.2GHz respektive zwischen 1950 und 2040MHz zu philosophieren. kann man abnicken, denn es gibt sicher auch leute, die sich mit homöopathie beschäftigen und damit zeit ans bein binden.


(..)

mfg
tobi

Lehdro
2018-11-20, 12:28:54
Ich habe mich gerade mal gefragt (spekuliert), ob Übertakter eine große Schuld daran haben, dass inzwischen kaum mehr Spielraum bei eben diesem Hobby existiert. Von +10% Leistungszuwachs bei guter Hardware rede ich hier nicht.

Du kannst auch heute noch >10% rausholen, nur ist das dann meist nicht >10% mehr Leistung sondern eher +10% Leistung und kein gestiegener, oder gar gesenkter Stromverbrauch. Meine Titan X Pascal läuft so zb auf 2025 MHz mit 0.981V und knackt selten mal die 250W - während andere hier ihre 1080 Ti mit 350W aufwärts befeuern müssen nur um ihre 2050 MHz @ 1,1V zu halten :freak:

Die Herstellerspezifikationen sind halt immer noch sehr konserativ, gerade was Voltages angeht. Am Takt selber wird mittlerweile schon fast immer das sinnvolle Maximum ausgeschöpft.

1. Jede günstige CPU von Intel hat eine Sperre beim Multi, damit ja keiner auf die Idee kommt, die Batches zu vergleichen. Den FSB gibt ja "Konstruktionsbedingt" nicht mehr.
Liegt nur an Intel, AMD zeigt das es auch anders geht. Generell war AMD immer problemloser im Umgang mit OC, während Intel sogar Microcodeupdates brachte nur um "Turbo-OC" zu unterbinden.


2. AMD zeichnet seine CPU's als AAA aus, wenn sie auf dem Threadripper verlötet werden dürfen. Binning ab Werk
Gab es früher auch schon so. Ein XP 2500+ konnte mit 2 GHz laufen, musste aber nicht. Ein XP 3200+ musste aber mit 2 GHz takten. Das einzige was sich dort geändert hat ist strikteres Binnung um die Ausbeute zu erhöhen (mehr Produkte im absoluten Limit -> siehe TR4, 9900k etc).

3. nVidia baut schon eigene "A" GPU's.
Denk mal an Geforce 6 & 7 zurück. Damals (Geforce 6) gabs jeweils eine GTX & Ultra, wobei die Ultra im Schnitt "besser ging". Bei der Geforce 7 gab es sogar eine extra GTX, die besser lief als die meisten 7800 GTX überhaupt zu takten waren, bei wohlgemerkt selbem Chip! -> das ist wesentlich krasser als das A und non-A rumgehampel heutzutage. Ich halte es da wie Tobi:
aber nach-wie-vor verbringen noch immer viele leute ihre zeit damit, über unterschiede zwischen 5.1 und 5.2GHz respektive zwischen 1950 und 2040MHz zu philosophieren. kann man abnicken, denn es gibt sicher auch leute, die sich mit homöopathie beschäftigen und damit zeit ans bein binden.



Mit viel Glück kommt mal wieder eine Karte bzw. "Fehlproduktion" raus die "durchgerutscht" ist und dann eine größere Modifikation erlaubt, welche bis zur freischaltung der Shader reicht. ---> PR-Stunt
War aber schon immer Lotterie. Bei AMD gabs letztes Jahr auch manchmal Vollausbau bei "6" Kernern (https://www.gamestar.de/artikel/amd-ryzen-5-1600-x-manche-exemplare-haben-acht-aktive-kerne,3320578.html). Selbst in den "guten alten Zeiten" hat nicht jede Freischaltung geklappt, gab mehr als genug 6800LE bei denen die PP eben nicht unbeschädigt waren.


Das Beste, was ich bisher gelesen habe war, dass wohl jemand eine non HT-CPU in eine mit HT wandeln konnte.
Siehe oben.

Wo ist unser tolles Hobby hin? Geht es den Herstellern schlecht?
Ein Hobby dient primär der Zeitverschwendung, auch das geht heute noch: Anstatt nur simpel die MHz hochzudrehen, kannst du heute auch noch mit 2nd & 3rd Timings vom RAM deine FPS boosten, hat doch auch was :redface:


Ich habe bisher noch keine CPU wieder an einen Händler zurückgesendet, wenn diese nicht so gut zu übertakten war, wie ich erhoffte (wurde weiterverkauft und gut - nächster Versuch) bzw. explizit (offline) gefragt, ob eben dieses Batch vorrätig ist.
Nett von dir. Gibt aber mehr als genug Gegenbeispiele, gerade hier im Forum. Ich schicke generell auch nur Sachen zurück die mir nicht gefallen, aber bestimmt nicht weil sie "nicht gut genug gehen", der nächste der die Krücke dann bekommt, freut sich sicher. Hardware an sich geht eigentlich nur zurück wenn defekt oder unnutzbar: Meine Vega zb hat so dermaßen schlechte Temperaturen auf dem HBM, dass dieser sich ständig bei Last runtertaktete - selbst mit manuell aufgedrehtem Lüfter. Die ging dann aber mit genau dem Vermerk zurück an MF.

Ist das Fernabsatzgesetzt vielleicht ein weiteres Problem?

Nein, die Anspruchshaltung gewisser Personen ist das Problem: "Ich muss 5.2 GHz haben, ansonsten ist mein **** zu klein im Forum" oder sowas.

=Floi=
2018-11-20, 12:42:28
Die GF 7 GTX hat eine weit höhere TDP und imho damit höhere spannung. Da ist es klar, dass die sich besser takten lässt.

Daredevil
2018-11-20, 15:30:18
@Daredevil: Beim 8700k liegt der für Games relevante Turbo (zwei oder vier Kerne) höher als 4,3. Bei steigender Kernanzahl wäre es wohl fair das OC auch entsprechend zu bewerten - 21% erreichst du, bei deiner Sonntags-Super-Gut-Select CPU, sicher nur bei All-Core Auslastung. In Spielen wird dir der OC die typischen 10-15% bringen, da per default einzelne Kerne auch bis zu 4,7 GHZ boosten.
Generell hast du da natürlich recht, stimmt. Zumindest mit der Frostbite Engine und den Tomb Raider Spielen kann ich da mal ein paar Ausnahmen melden.
Die lasten meinen Hexacore zu 100% aus, da würde sich jeder Kern mehr freuen. ^^

Lehdro
2018-11-20, 16:17:45
Die GF 7 GTX hat eine weit höhere TDP und imho damit höhere spannung. Da ist es klar, dass die sich besser takten lässt.
Ich habe damals mehrere G70 unterschiedlichster Karten (GS, GT, GTX) gevoltmodded - deutlich über 500 MHz war nur äußerst selten drin, von den 550 MHz der GTX 512 (die ging selber bis 600 MHz bei 1,45V stock!) konnte ich nur träumen. Das ganze bei nicht mal 15% mehr Stromverbrauch für 28% mehr Takt, wovon ein Großteil des Verbrauchsunterschiedes auch vom OC VRAM kam (2,0V statt 1,8V) Es waren außerdem gerade mal 0,05V Unterschied, das machte bei den meisten G70ern den Sprung von ~480 auf ~500 MHz aus, was selbst bei einigen G70 schon 1,55V benötigte. Die 512er war einfach richtig krass gebinnt, was man vorallem an der lächerlichen Verfügbarkeit kurze Zeit nach dem Launch sah: Es gab einfach immer zu wenige Karten.

Ich bleibe dabei: Die 7800 GTX 512 ist das Paradebeispiel für richtig aggressives Binning.

BlacKi
2018-11-20, 17:13:58
ich sehe das aus zweierlei sicht. OC spielraum bei den topmodellen und oc spielraum bei den gelockten salvage produkten. das sind 2 verschiedene bereiche mit unterschiedlichen verschiebungen.

das unlocking von früher war einfach einfacher, weil das locking schlecht und mangelhaft umgesetzt wurde. heutzutage bekommst du sachen einfach deshalb nicht mehr auf, weil die umsetzung qualitativ besser umgesetzt wird. fertig.

der OC spielraum von den ohne unlocking möglichkeiten ist deshalb so begrenzt, weil die hardware viel stärker an die grenze getaktet werden kann, ohne brutale RMA prozente zu erzeugen. ein teil der performancesteigerungen gehen deshalb auch darauf zurück, das man die hardware immer näher ans limit taktet, siehe 2700x. dort wurde es IMO perfektioniert. man macht dort durch OC fast mehr kaputt als stock.

warum man das macht? weil es geld einbringt. die hersteller haben konkurenzdruck und takten daher so stark es geht um noch mehr geld verlangen zu können.
oder anders rum
mit niedrigeren taktraten könnten sie nicht dasselbe verlangen.

DoomGuy
2018-11-20, 22:54:40
Die guten Leute arbeiten wohl inzwischen für die großen Firmen. Unwinder hatten wir damals den Unlock der GF6 zu verdanken und vorher den der R9500. Wenn ihn MSI nicht unter Vertrag genommen hätte, würde er vielleicht heute noch schwarze Magie anwenden ;) Geld würde er damit aber wohl kaum verdienen. Generell scheint es weniger Geeks zu geben, die einen riesigen Aufwand betreiben um irgendwelche Schwachstellen an der Hardware zu finden, die der Endkunde nutzen kann. Wird wohl alles zu komplex geworden sein als dass man es im Keller geschwind reverse-engineeren könnte. Und so wird niemand rausfinden, ob z.B. ein 200€ Intel Core i5-8400 auch mit 4800-MHz Allcore laufen würde. Würde aber wetten, dass er es könnte :)

=Floi=
2018-11-21, 14:19:17
die hürden sind heute viel höher! Jedes IoT gerät hat schon ein OS und kein simples 100 zeilen ASM programm mehr.
Heute wird auch alles verschlüsselt und besser abgesichert. Das größte problem als kunde ist die produkt piraterie. Siehe die umgeflashten GTX 450 von NV.

Auch bei anderen geräten gibt es erheblich höhere haftungsrisiken und probleme mit versicherungen.
Es mag wohl jede 1080ti auf 2ghz laufen, aber 20% würden wohl absurd viel strom ziehen und bei den temps müsste man auch richtung 110°C gehen. :ugly:


edit
bei 4,8 ist die effizienz aber dann schon beim teufel und dank weniger cache brachte das bei den kleineren core 2 duo modellen zB auch nicht so viel. (office war gut, aber bei spielen war er doch langsamer.)
mittlerweile boostet intel auch bei den kleineren modellen ordentlich.

JVC
2018-11-21, 20:19:07
z.b.: 3570K @4,6Ghz ... hält natürlich länger, von der Leistung her, als Intel lieb ist ^^
Und da Übertakten immer einfacher wurde, machten es immer mehr.
Das mag Intel natürlich auch nicht, weil man dadurch ja weniger verkaufen kann ...
Also bei Intel ist es verständlich, das sie es nicht wollen das die breite Maße Übertaktet ;)

Ähnlich sehe ich das bei NV ... TU PA ließ sich zu gut und zu einfach takten ...
( ne Custom 1080Ti @ kommt auf ~-20% an die 2080Ti heran die ~ das doppelte kostet )

AMD lässt einem eigentlich ziemlich freie Hand, da sowieso nicht die Welt heraus zu holen ist.
8bauer trifft es ganz gut, in bezug auf das, in seinem Video.
http://www.pcgameshardware.de/Radeon-RX-590-8G-Grafikkarte-268060/News/der8auer-Extrem-Overclocking-Trockeneis-1269594/

Früher war das übertakten wesentlich "schwieriger" und weniger verbreitet, wurde aber auch wesentlich stärker belohnt !
z.b.:
386 SX16mhz @ 40mhz durch Quarz umlöten/austauschen
DX 4 133mhz @200mhz durch "fsb umstellen"
Slott Athlon 600mhz @850mhz durch smd Bausteine umlöten
Celeron 300mhz durch fsb @450mhz
Duron 750mhz @ 1000mhz durch fsb umstellen
1700+ ( JIUHB ) 1466mhz @2,4ghz
Athlon XP Mobile (IQYHA ) 2Ghz @2,8Ghz
.......
( ein Auszug aus dem was ich selbst mal besaß )

Also ich verstehe die Hersteller :wink:

m.f.g. JVC

P.s.: Ein Produkt was zu lange "hält" ist kein gutes Produkt .... wir leben in einer Weckwerf/Konsumgesellschaft :frown:
( siehe z.b. Handys mit fest verbautem Akku )

SKYNET
2018-11-21, 21:50:09
Ähnlich sehe ich das bei NV ... TU ließ sich zu gut und zu einfach takten ...
( ne Custom 1080Ti @ kommt auf ~-20% an die 2080Ti heran die ~ das doppelte kostet )

du meisnt wohl pascal und nicht turing... :wink:

Achill
2018-11-21, 22:20:22
Ich würde die These ändern wollen: Die Übertakter selbst haben einen Markt für Übertakten geschaffen.

... und mit allen was dazu gehört:
- Das OC-Produkt selber mit entsprechenden $/€ Aufschlag
- Entsprechender PR für Hersteller und Supply Produkte
- Benötigte Supply Produkte (bessere Kühler, bessere MB, bessere Netzteile, Messtechnik, Gehäuse, Lüfter, ...)
- Mediale Verwertung (Online- und Print-Medien, Video-Streams, ...)
- usw.

Das ganze gibt es auch in weiteren Ausprägungen: Effizienz, Lautstärke, Größe, Design und neu RGB-Lichtspiel, ...

Ich würde sogar soweit gehen, dass in Foren wie im 3DC und ähnlichen das OC-Potenzial (wie auch die anderen Kriterien) die entsprechende Kaufentscheidung darstellt, neben dem finanziellen. Das "Standard- aka Referenz-Produkt" von "der Stange" kaufen wir doch hier schon lange nicht mehr sondern haben alle oft ein Custom-Build rum zu stehen.

Es ist also eine Form der Individualisierung des PCs und ggf. auch ein Identifikationsfaktor der Person die dies tut (oder tun lässt wie fertige Custom-Builds). Ich würde auch erwarten, dass sich viele ein Laptop selber zusammen bauen würden, wenn es möglich wäre und entsprechend einfach.

Und dies ist m.E. auch der springende Punkt: Sobald es einfach genug geworden ist, dass jeder mit wenig Aufwand dies (OC, Custom-Build, Modding, Tuning, ...) machen kann, Gleichzeitig die Interessengruppe groß genug ist und es sich finanziell für größere Firmen rentiert, ergibt sich ein neuer Markt mit all seinen Vor- und Nachteilen. Dann gibt es i.d.R. auch keine "Unfälle" mehr sondern der Markt wird entsprechend erforscht und bepreist.

JVC
2018-11-21, 22:49:58
du meisnt wohl pascal und nicht turing... :wink:

Danke! Korrekt :D

Wird gefixt ^^

m.f.g. JVC

DoomGuy
2018-11-22, 02:04:51
Ich würde die These ändern wollen: Die Übertakter selbst haben einen Markt für Übertakten geschaffen.

... und mit allen was dazu gehört:
- Das OC-Produkt selber mit entsprechenden $/€ Aufschlag
- Entsprechender PR für Hersteller und Supply Produkte
- Benötigte Supply Produkte (bessere Kühler, bessere MB, bessere Netzteile, Messtechnik, Gehäuse, Lüfter, ...)
- Mediale Verwertung (Online- und Print-Medien, Video-Streams, ...)
- usw.

Das ganze gibt es auch in weiteren Ausprägungen: Effizienz, Lautstärke, Größe, Design und neu RGB-Lichtspiel, ...

Ich würde sogar soweit gehen, dass in Foren wie im 3DC und ähnlichen das OC-Potenzial (wie auch die anderen Kriterien) die entsprechende Kaufentscheidung darstellt, neben dem finanziellen. Das "Standard- aka Referenz-Produkt" von "der Stange" kaufen wir doch hier schon lange nicht mehr sondern haben alle oft ein Custom-Build rum zu stehen.

Es ist also eine Form der Individualisierung des PCs und ggf. auch ein Identifikationsfaktor der Person die dies tut (oder tun lässt wie fertige Custom-Builds). Ich würde auch erwarten, dass sich viele ein Laptop selber zusammen bauen würden, wenn es möglich wäre und entsprechend einfach.

Und dies ist m.E. auch der springende Punkt: Sobald es einfach genug geworden ist, dass jeder mit wenig Aufwand dies (OC, Custom-Build, Modding, Tuning, ...) machen kann, Gleichzeitig die Interessengruppe groß genug ist und es sich finanziell für größere Firmen rentiert, ergibt sich ein neuer Markt mit all seinen Vor- und Nachteilen. Dann gibt es i.d.R. auch keine "Unfälle" mehr sondern der Markt wird entsprechend erforscht und bepreist.


Interessanter Text und krass tolle Diktion.


Kurzum: Alles aus und vorbei. Stangenware kaufen. Fertig.

BlacKi
2018-11-22, 06:09:50
Kurzum: Alles aus und vorbei. Stangenware kaufen. Fertig.
wie kommst du darauf und was meinst du damit? die custom karten und bretter bieten doch erst das an was auf den einfachen brettern heute garnicht mehr möglich ist.

ich finde die performance gains sind auch heute noch beachtlich. +40% cpu performance ist nicht so einfach zu erreichen wie damals. damals waren die reserven rießig und man konnte sich noch recht einfach bedienen, fsb hoch und bäm.

heute muss man schon viel tüfteln und sich wissen im vorraus anschaffen bevor man die HW kauft. man kann mit der stangenware viel falsch machen, zumal auch auf schlechter HW der OC aufkleber klebt.

=Floi=
2018-11-22, 16:05:41
FSB oc war einfach crap.


naja, wer nur auf den preis schaut der fällt eher rein. Es gibt so viele produkte wo kanllhart über den preis verkauft wird und dem kunden wird dann auch schrott untergejubelt

G3cko
2018-11-22, 16:36:35
Fehlender Wettbewerb führte zu CPUs mit kaum Übertaktungsspielraum.

Die K-Suffixe wurden eingeführt als AMD ausgespielt war. Davor gab es mit PentiumD und C2Q riesiges OC Potenzial.

Ohne Wettbewerb muss man auch nicht viel Chipflache bieten. Der Performancezuwachs wird nur noch über Takt realisiert.

Bei AMD findest du auch CPUs mit vielen Kernen, OC und geringem Takt. So was gab es bei Intel bewusst nicht mehr. Gerade auf der großen Plattform gibt es kaum Auswahl.

Wenn eine CPU dank vieler Kerne noch OC bietet dann liegt das eben darann, dass sie trotz hoher TDP diesen Spielraum technisch überhaupt bietet. Bestes Beispiel 5960x. Der einzige 8 Core mit OC. Auch wenn die TDP bei 140W lag waren eben noch 50% OC drin. Auch wenn die verlustleistung explodierte, so war das eben beabsichtigt nur ein 8 Core anzubieten.

Ohne Wettbewerb sinkt das OC Potenzial massiv.

Das siehst du spätestens daran, dass bei Intel Xeons mit vielen Cores und extrem niedrigen Takt (perfekt für OC) für kleines Geld zu haben wären. Die werden ja nicht mit Verlust verkauft. Gerade auch die kleine Intelplattform ist ja eher eine APU. 2/3 der Chipfläche sind iGPU. Der CPU -Anteil so groß wie ein Pentium4 Celeron für damals 35€. Trotzdem wird das Ding für >500€ verkauft.

10Jahre liegen zwischen Q6600 und 7600k. Beide sind QuadCores und beide gab es für 250€. Der Wettbewerb zu diesen Zeiten war jedoch ein völlig anderer.

BlacKi
2018-11-22, 18:19:31
Das siehst du spätestens daran, dass bei Intel Xeons mit vielen Cores und extrem niedrigen Takt (perfekt für OC) für kleines Geld zu haben wären. Die werden ja nicht mit Verlust verkauft. Gerade auch die kleine Intelplattform ist ja eher eine APU. 2/3 der Chipfläche sind iGPU. Der CPU -Anteil so groß wie ein Pentium4 Celeron für damals 35€. Trotzdem wird das Ding für >500€ verkauft.
du vermischst da ziemlich viel und manches lässt du gar unter den tisch fallen.

was die günstigen cpus mit gleicher kernanzahl angeht, möchte man sein spectrum breit fächern, deshalb werden die preise so gewählt, das man in allen bereichen konkurenzfähig bleiben kann, notfalls auch mit verlusten. damit ein billiger xeon nicht den schnitt runterzieht und man verluste schreibt, lockt man die cpus. wenn dann die preise zu hoch gewählt sind, dann lässt das immer platz für die konkurenz nachzuziehen, was durchaus ein positiver effekt von gelockten cpus ist. kritisch wird das thema nur wenn es preisabsprachen gibt. letztendlich sorgen gelockte cpus so für günstigere cpus. weil die teureren schnelleren cpus die marge der kleinen mit tragen.

im highend bereich ist das portfolio generell so breit gestreut, das man garnicht mehr locken muss. siehe sky x und TR+epyc.

bei amd gibt es auch den 1300x mit 3,4ghz der teurer ist als die die apu version. wie man davon ableiten soll das die cpus dadurch zu teuer verkauft werden ist mir ein rätsel. will uns jetzt amd übers ohr hauen? oder gibts da nicht genug konkurenz? ich glaube nicht. man versucht den markt so zu besetzen um alle bereiche optimal abzudecken. daher von einer chip größe auf den preis zu schließen ist eben falsch.

Ohne Wettbewerb sinkt das OC Potenzial massiv.
eigentlich ist es doch komplett anders herum. die ersten K modelle lieferten gute übertaktungserfolge. ausgerechnet als ryzen kam sind die reserven bei intel amt coretakt massiv geschrumpft. soll das heißen ryzen sei gar keine konkurenz mehr?

FSB oc war einfach crap.


naja, wer nur auf den preis schaut der fällt eher rein. Es gibt so viele produkte wo kanllhart über den preis verkauft wird und dem kunden wird dann auch schrott untergejubelt
in den core 2 duo zeiten war fsb takten trumpf und war super easy. oder war das auf skylake mit bios mod bezogen?

JVC
2018-11-22, 19:40:11
Fehlender Wettbewerb führte zu CPUs mit kaum Übertaktungsspielraum.

Ich hätte es genau umgekehrt gesehen.

Wenn starker Wettbewerb besteht, gehen Hersteller eher an die grenzen des machbaren ...

m.f.g. JVC

p.s.: früher war Fsb übertakten der Trumpf !
Jetzt funktioniert es einfach gar nicht mehr.

DoomGuy
2018-11-23, 03:17:30
Was mich auch noch sehr aufgregt ist, dass sogar die teueresten CPU's von Intel erstmal eine Kur mit Flüssigmetall benötigen, damit die Temperaturen im normalen Bereich bleiben. Inzwischen sind wir ja laut dem 8Bauer nicht mehr weit davon entfernt, dass wir den Kern schleifen müssten, um bessere Temps bei den hochpreisigen CPU's zu erreichen.

Extreme Moneten für billig hergestelltes Material verlangen, welches als TOPMODELL in die Welt geschickt wird... WTF

btw: Finger weg von zu hohen Spannungen... der Mythos taucht auch immer wieder auf. Wieviel Volt durfte eine 32/45nm CPU nochmal ertragen und was darf man inzwischen getrost bei 14nm wieder anlegen?

BlacKi
2018-11-23, 07:02:56
als übertakter ist es doch egal mit wieviel takt sie verkauft werden, denn man schaut als OCler wieviel hinten raus kommt. nicht prozentual über stock clocks.

der 9900k 9700k ist wieder verlötet, dafür regen sich die leute auf das man ihn nicht mehr köpfen kann. also kann man es eben nicht allen recht machen. als echter OCler nimmt man was man kriegt.

manche legen bei ihren 14nm produkten 1,35-1,4v an und sie scheinen es zu vertragen.

wegen 1-3 grad schleife ich meine cpu nicht. 8bauer ist extreme overclocker, nicht alles was er zeigt ist auch für den normalo OCler praktikabel.

MusicIsMyLife
2018-11-23, 09:58:00
Ich persönlich glaube, dass die Entwicklung auch ohne Übertakter stattgefunden hätte. Vielleicht nicht in der gleichen Geschwindigkeit und ohne künstlich kastrierte Modellvarianten, der OC-Spielraum wäre meiner Meinung nach aber auch ohne Übertakter auf einem bescheidenen Niveau.

Die Hersteller nutzen den früher vorhandenen Spielraum inzwischen selber sehr gut aus. Und das meiner Meinung nach, weil sie dazu gewissermaßen gezwungen sind.

Wenn ich mir meinen gestern ausgebauten 1950X so anschaue: Der läuft zwar mit 4 GHz bei unter 1,3 Volt, verbrät unter voller Auslastung mit Asteroids@Home dann aber bis zu 425 Watt (Klick! (https://www.planet3dnow.de/cms/wp-content/gallery/asrock-x399-taichi/oc_4000_smton_2666_boinc_4_l.png))!

Hätten wir also noch immer feste Taktraten für alle Kerne, wie das früher üblich war, so würden wir heute noch immer über CPUs reden, die je nach Kernanzahl noch immer mit 3 bis 3,5 GHz takten würden. Dann hätte man auch noch ordentlich OC-Spielraum...

Wäre die Situation noch immer so, dann hätten die Hersteller aber ein Problem in Sachen Performance. Denn sie würden bei sehr vielen Workloads extrem viel Leistung verschenken, weshalb sich irgendjemand das Turbo-Feature ausgedacht hat. Da, wo es geht, können die Hersteller mit höherer Performance glänzen, ohne ihre intern gesetzten Grenzen zu überschreiten.

Wenn man so will, sind an der Situation eher all die Anwendungen Schuld, die mit wenigen Threads arbeiten, was wiederum prädestiniert für hohe Turbo-Taktraten ist. Und die haben die Hersteller mittlerweile gut im Griff, sodass sie ziemlich nah ans Limit gehen können.

Würde die Software-Welt so aussehen, dass jede Anwendung über alle Threads skaliert, so bräuchten wir uns nicht mit irgendwelchen Turbo-, XFR- und Boost-Taktraten rumschlagen. Wir hätten CPUs und GPUs, die im Vergleich zu heute deutlich niedriger takten und wo man dann durch OC prozentual deutlich mehr rausholen könnte als von 4.700 auf 5.000 MHz.

Das ist übrigens ein weiterer Punkt: Das OC-Potenzial bemisst sich ja eigentlich nicht ausgehend vom maximalen Turbo-Takt einer CPU sondern von dem Takt, den die gleiche Anwendung ohne OC rausquetschen würde. Als Beispiel kann wieder mein 1950X dienen:

Ohne OC läuft der in Asteroids@Home nur knapp über dem Basistakt (Klick! (https://www.planet3dnow.de/cms/wp-content/gallery/amd-ryzen-threadripper-2990wx/1950_boinc_hwinfo_l.jpg)). Mit manuellem OC bin ich dank 4 GHz fast 20 Prozent schneller. Geht man jedoch vom maximalen Turbo-Takt der CPU aus, so habe ich diese sogar untertaktet. Denn dank Turbo und XFR wären sogar 4,2 GHz möglich.

OC-Potenzial hängt also auch davon ab, wie man die Sache betrachtet. Schafft man gleiche Voraussetzungen, so sind auch heute noch ordentliche Zugewinne möglich. Vergleicht man aber den Turbotakt bei SuperPI 1M mit dem OC-Takt, den man mit Asteroids@Home schafft, so ist die Steigerung tatsächlich dürftig (vielleicht sogar nicht mal vorhanden).

SKYNET
2018-11-23, 10:34:18
Wenn ich mir meinen gestern ausgebauten 1950X so anschaue: Der läuft zwar mit 4 GHz bei unter 1,3 Volt, verbrät unter voller Auslastung mit Asteroids@Home dann aber bis zu 425 Watt (Klick! (https://www.planet3dnow.de/cms/wp-content/gallery/asrock-x399-taichi/oc_4000_smton_2666_boinc_4_l.png))!



ich sehe da 1.475V bei 4GHz O_o

https://www.planet3dnow.de/cms/wp-content/gallery/asrock-x399-taichi/oc_4000_smton_2666_boinc_4_l.png

unl34shed
2018-11-23, 10:38:19
Wenn ich mir meinen gestern ausgebauten 1950X so anschaue: Der läuft zwar mit 4 GHz bei unter 1,3 Volt, verbrät unter voller Auslastung mit Asteroids@Home dann aber bis zu 425 Watt (Klick! (https://www.planet3dnow.de/cms/wp-content/gallery/asrock-x399-taichi/oc_4000_smton_2666_boinc_4_l.png))!


Sorry wegen dem OffTopic, aber hast du das Mal an der Steckdose nachgemessen? Traue Software bei Verbrauchsangaben einfach nicht.

Ansonsten kann ich dir nur zustimmen.
Auch interessant, wenn manche ankommen und beim ich mit MHz statt Prozent um sich schmeißen. Der 300MHz OC bei 3GHz Base sind halt deutlich mehr als bei 4.5GHz

Lehdro
2018-11-23, 10:46:13
als übertakter ist es doch egal mit wieviel takt sie verkauft werden, denn man schaut als OCler wieviel hinten raus kommt. nicht prozentual über stock clocks.
Übertakten kommt ursprünglich aus der P/L Ecke, nicht aus der "maximum performance" Ecke. Es war immer ein Mittel um mit weniger Geldeinsatz zu den Topmodellen aufzuschließen. Die weite Verbreitung dieses "maximale Leistung" Mantras gibt es eigentlich erst seit dem die Hersteller extra CPUs für sowas abfeiern: erste FXe bei AMD und EEs bei Intel. Es ist eben etwas anderes ob ich nen A64 3700+ auf 3 GHz ziehe, oder einen FX57 auf 3,2 GHz...
Oder einen Q6600 auf 3,6 GHz und einen QX6700 auf 3,9 GHz - das kannst du gar nicht mit heute vergleichen, weil es bei Intel so etwas nicht mehr gibt. Früher ging das quasi immer, bei AMD so gar teilweise noch heute (Ryzen 5 2600 vs 2600x etc). Bei Intel? Fehlanzeige. Willst du OC für P/L betreiben, bist du bei Intel an der falschen Adresse, OC ist dort nur noch was für die Leute, die eh das schnellste Kaufen. Vorbei die Zeiten eines E4400 (quasi Low-Mid-End CPU) der mit OC eine viel teurere CPU versägt.

der 9900k 9700k ist wieder verlötet, dafür regen sich die leute auf das man ihn nicht mehr köpfen kann. also kann man es eben nicht allen recht machen. als echter OCler nimmt man was man kriegt.
Das Verlöten ist aber kein unabänderbarer positiver Fakt: Man kann es gut (AMD, Intel bis Sandy Bridge/Broadwell-E) und man kann es schlecht (Intel 9th gen) machen. Man kann sagen das es physikalisch nicht mehr geht (Intel) und dann trotzdem machen (Intel). Oder man macht es einfach (AMD).


wegen 1-3 grad schleife ich meine cpu nicht. 8bauer ist extreme overclocker, nicht alles was er zeigt ist auch für den normalo OCler praktikabel.
Köpfen war auch eine ganze Zeit lang nicht "akzeptiert" für Ottonormal OCer - nur die absolute Notwendigkeit machte es "normal".
Übrigens bringt Die+HS-Schleifen bei Intel wesentlich mehr als Köpfen bei AMD, ich glaube es waren an die 10°C bei beiden Schleifaktionen zusammen. Sagt einiges über Intels Verlötung aus :cool:
Was mich auch noch sehr aufgregt ist, dass sogar die teueresten CPU's von Intel erstmal eine Kur mit Flüssigmetall benötigen, damit die Temperaturen im normalen Bereich bleiben. Inzwischen sind wir ja laut dem 8Bauer nicht mehr weit davon entfernt, dass wir den Kern schleifen müssten, um bessere Temps bei den hochpreisigen CPU's zu erreichen.
Das ist die eigentliche Frechheit, du kaufst ne OC CPU für EXTRA Geld (k-CPU) und musst dann noch selber Hand anlegen weil du sie sonst nicht richtig nutzen kannst. Etwas es bei anderen Herstellern oder gar früheren CPUs desselben Herstellers umsonst gab, ohne die absolute Notwendigkeit die CPU im schlimmsten Falle zu schrotten.

Extreme Moneten für billig hergestelltes Material verlangen, welches als TOPMODELL in die Welt geschickt wird... WTF
Intel Bonus halt, gab es auch früher schon.

btw: Finger weg von zu hohen Spannungen... der Mythos taucht auch immer wieder auf. Wieviel Volt durfte eine 32/45nm CPU nochmal ertragen und was darf man inzwischen getrost bei 14nm wieder anlegen?
Erinnert sich noch einer an die Warnungen ja nicht zuviel RAM-Spannung anzulegen, weil ansonsten der Speichercontroller bei Intel stirbt? Hat man auch nie wieder was von gehört - stattdessen lockt Intel nun den Speicherteiler bei non-k CPUs auf non-Z Boards :freak:
Kann ja nicht sein dass die Leute die Leistung ihrer BilligCPUs steigern...
du vermischst da ziemlich viel und manches lässt du gar unter den tisch fallen.
Tut er nicht, du redest dir das nur schön.

was die günstigen cpus mit gleicher kernanzahl angeht, möchte man sein spectrum breit fächern, deshalb werden die preise so gewählt, das man in allen bereichen konkurenzfähig bleiben kann, notfalls auch mit verlusten. damit ein billiger xeon nicht den schnitt runterzieht und man verluste schreibt, lockt man die cpus.
Ich wette Intel hat die kleinen Xeons damals nicht mit Verlust verkauft. Und das tun sie auch heute nicht. Man hat nur die Marge hochgezogen indem man einfach keine Xeons mehr für die "kleine Plattform" anbietet, beziehungsweise die Leute zu einer vorallem im OC beschnittenen, teureren Plattform zwingt (C-Chipsatz). Das ist absichtliche Marktsegmentierung zur Margensteigerung.


bei amd gibt es auch den 1300x mit 3,4ghz der teurer ist als die die apu version. wie man davon ableiten soll das die cpus dadurch zu teuer verkauft werden ist mir ein rätsel. will uns jetzt amd übers ohr hauen? oder gibts da nicht genug konkurenz? ich glaube nicht. man versucht den markt so zu besetzen um alle bereiche optimal abzudecken. daher von einer chip größe auf den preis zu schließen ist eben falsch.
Der Ryzen 1300X ist ein Abfallprodukt, dessen Abdeckungsbereich mittlerweile von den APUs eingenommen wird. Eine tote CPU quasi, da zu teuer und schon von besserem Ersetzt. Anders als Intel hat AMD nur einen Chip für alles, was durchaus dazu führen kann dass dieser teurer ist als ein eher passender extra Chip - AMD will diesen gar nicht großartig verkaufen, tut es aber der Ausbeute und Marktbesetzung wegen trotzdem - kein Loch im Portfolio.

eigentlich ist es doch komplett anders herum. die ersten K modelle lieferten gute übertaktungserfolge.
Und vor den unseligen k-CPUs lieferte JEDE CPU gute Übertaktungserfolge - nur mal so als Denkanstoß.

ausgerechnet als ryzen kam sind die reserven bei intel amt coretakt massiv geschrumpft. soll das heißen ryzen sei gar keine konkurenz mehr?
Doch, da Intel seine Reserven an Takt komplett ausreizen musste - liegt aber eher daran dass sie halt kein 10nm ready haben, wie eigentlich geplant. Der derzeitig im Handel befindliche 8 Kern Coffeelake ist mit diesen Taktraten sicherlich eher eine Notlösung. Langfristig hatte Intel heuer schon längst mit 10nm CPUs geplant, damit man eben nicht auf Kosten der Ausbeute und Marge an das Limit gehen muss.

MusicIsMyLife
2018-11-23, 11:12:33
ich sehe da 1.475V bei 4GHz O_o

https://www.planet3dnow.de/cms/wp-content/gallery/asrock-x399-taichi/oc_4000_smton_2666_boinc_4_l.png

VID ist nicht gleich real anliegende Spannung. Wären das wirklich 1,475 Volt, so wäre mir alles weggeglüht...

Der Konsenz bei Ryzen ist, dass der Wert CPU Core Voltage (SVI2 TFN) die präziseste Anzeige der Spannung darstellt. Das soll auch der Wert sein, auf welchen AMD für Turbo/XFR zurückgreift.



Sorry wegen dem OffTopic, aber hast du das Mal an der Steckdose nachgemessen? Traue Software bei Verbrauchsangaben einfach nicht.

Nein, nachgemessen habe ich das nicht.

Generell teile ich deine Skepsis gegenüber Software. Allerdings ist es so, dass ich bei Ryzen mit SVI2 TFN-Angaben leben kann. Siehe oben: Die sollen der Realität am nähesten kommen, weshalb ich mich darauf "verlasse". Die Werte sind nach meinem Gefühl plausibel - zumindest so plausibel, dass ich nicht skeptisch werde und selbst nachmesse.

SKYNET
2018-11-23, 11:33:11
VID ist nicht gleich real anliegende Spannung. Wären das wirklich 1,475 Volt, so wäre mir alles weggeglüht...

Der Konsenz bei Ryzen ist, dass der Wert CPU Core Voltage (SVI2 TFN) die präziseste Anzeige der Spannung darstellt. Das soll auch der Wert sein, auf welchen AMD für Turbo/XFR zurückgreift.



mhhh, bin der meinung bei mir ist die VID identisch mit der eingestellten vcore spannung, muss das heute abend mal checken.

und 1.3V ist nen fancy wert dann für 4GHz auf nen TR1.... 4.2GHz @ 1.4V sollte dann gehen?

Lehdro
2018-11-23, 11:41:20
mhhh, bin der meinung bei mir ist die VID identisch mit der eingestellten vcore spannung, muss das heute abend mal checken.

Kann MusicIsMyLife bestätigen. Mein 2950X legt ~1,33V für 4,1 GHz allcore an, mit offset lande ich bei 1,26V. SVI2 TFN und CPU-Z zeigen das auch korrekt an. VID bleibt auch dann beim "AMD-Wert", Verbrauch sinkt aber messbar.

Über 400W finde ich aber krass für 1,3V, habe aber ehrlich gesagt keine Ahnung wie heftig das ist. Kann man das mit AVX Prime vergleichen?

gbm31
2018-11-23, 11:51:32
FSB oc war einfach crap.


...



Würd ich so nicht sagen...

Müssen nur die Teiler passen!

Mein Celeron 600 lief brav mit 900 weil FSB von 66 auf 100MHz angehoben.

Bei meinem Thunderbird war der Sprung von 100 auf 133MHz FSB auch nicht ohne.

Und meinem C2D Quad konnte man mit 400 statt 333MHz FSB ebenfalls ordenlich Beine machen.



Heute regeln das XFR und PBO so schnell und effizient dass ich mich nur noch um die Kühlung kümmern brauch...

Und FSB kennt mein Board gar nicht mehr.

MusicIsMyLife
2018-11-23, 11:59:40
mhhh, bin der meinung bei mir ist die VID identisch mit der eingestellten vcore spannung, muss das heute abend mal checken.

Das ist ein Punkt, der zur Skepsis gegenüber Software-Tools beiträgt. Denn die Anzeige der VID variiert teilweise je nach Board. Woran das liegt weiß ich jedoch nicht... :(



und 1.3V ist nen fancy wert dann für 4GHz auf nen TR1.... 4.2GHz @ 1.4V sollte dann gehen?

Ich denke, meine CPU war (guter?) Durchschnitt. Dafür, dass die besten Dies genutzt wurden und werden, empfinde ich das als normal.

Wobei ich ehrlich gesagt auch nie probiert habe, ob noch weniger geht... Mit der Spannung rauf wollte ich dagegen auf keinen Fall. Bei Auslastung mit Asteroids wäre ich bei 4,2 GHz mit 1,4 Volt rechnerisch bei knapp 520 Watt laut SVI2 TFN - da hätte ich bedenken hinsichtlich Kühlung und Spannungsversorgung... Selbst bei den angezeigten 423 Watt war mir auf Dauer nicht wohl. Da ich das aber nur für ein paar Stunden als Stabilitätstest nutze, geht das in Ordnung. Auf Dauer würde ich das meinem System nicht antun wollen.



Über 400W finde ich aber krass für 1,3V, habe aber ehrlich gesagt keine Ahnung wie heftig das ist. Kann man das mit AVX Prime vergleichen?

Asteroids@Home kann man leider nicht mit Prime vergleichen (zumindest die meisten FFTs nicht).

Dazu mal ein Diagramm, welches ich letztes Jahr zum Ryzen-Launch erstellt habe. Dort habe ich einen 1800X mit 3.950 MHz betrieben und den Verbrauch in verschiedenen Anwendungen an der Steckdose gemessen (Gesamtsystem ohne Monitor):

https://www.planet3dnow.de/cms/wp-content/gallery/ryzen/01.png

Obendrein konnte ich den 1800X damals mit gleicher Spannung noch bei 4.025 MHz primen, bei Asteroids@Home ergab das instant einen Fehler 8 (kompletter Systemabsturz mit Blackscreen, wo nur noch ein Reset hilft).

Seither verwende ich Asteroids@Home als Stabilitätstest für Ryzen (Threadripper) und als Gradmesser für den Verbrauch. Mir ist noch keine reale Anwendung untergekommen, die ähnlich stark auslastet. Selbst andere BOINC-Projekte sind deutlich harmloser.

RaumKraehe
2018-11-23, 12:40:40
Natürlich haben die Hersteller nicht wirklich Interesse daran Produkte zu verkaufen die mit ein paar Tricks die Leistung erreichen können die ein Alternatives Produkt aus gleichem Hause erreichen würde.

Oder aber, wie bei den K-CPUs lässt man sich das dann als Feature bezahlen das eh nur eine kleine User-Gruppe interessiert.

Historisch gesehen hat für mich das Übertackten schlicht an Stellenwert verloren. Selbst meine nun doch schon recht alte 4970K CPU bringe ich nur in speziellen Anwendungen an ihre Grenze. Im großen und ganzen idelt die eher vor sich hin als unter voll last zu laufen.

Das einzige wo ich ab und an man an der Schraube drehe ist meine Grafikkarte. Die bekomme ich locker, dank SS immer ausgelastet.

BlacKi
2018-11-23, 16:27:49
Das Verlöten ist aber kein unabänderbarer positiver Fakt: Man kann es gut (AMD, Intel bis Sandy Bridge/Broadwell-E) und man kann es schlecht (Intel 9th gen) machen. Man kann sagen das es physikalisch nicht mehr geht (Intel) und dann trotzdem machen (Intel). Oder man macht es einfach (AMD).
was du mit schlecht verlöten meinst ist die dicke lotschicht die erforderlich ist um die thermischen spannungen abzufedern die eine 5ghz cpu mit sich bringt.
so schlecht ist die aber eigentlich garnicht, denn die temperaturen sind verglichen mit den ryzen ähnlich wenn man beide mit der selben wattage arbeiten lässt. würde man ryzen mit 4,4ghz allcore beaufschlagen und dann mit LM und lappen gegentesten, würden sicherlich ebenso 8-10 grad unterschied raus kommen.

Doch, da Intel seine Reserven an Takt komplett ausreizen musste - liegt aber eher daran dass sie halt kein 10nm ready haben, wie eigentlich geplant. Der derzeitig im Handel befindliche 8 Kern Coffeelake ist mit diesen Taktraten sicherlich eher eine Notlösung. Langfristig hatte Intel heuer schon längst mit 10nm CPUs geplant, damit man eben nicht auf Kosten der Ausbeute und Marge an das Limit gehen muss.
seine aussage war, ohne wettbewerb, kaum OC potential. so wie ich deinen text lese stimmst du mir zu. allerdings steht der 9900k sowieso alleine und wenn der 8086k den 9900k abzieht stünde der 9900k lächerlich da. natürlich musste er daher schneller takten als der 8086k. da braucht man noch nichtmal die konkurenz ins boot holen.

Übertakten kommt ursprünglich aus der P/L Ecke, nicht aus der "maximum performance" Ecke. Es war immer ein Mittel um mit weniger Geldeinsatz zu den Topmodellen aufzuschließen. Die weite Verbreitung dieses "maximale Leistung" Mantras gibt es eigentlich erst seit dem die Hersteller extra CPUs für sowas abfeiern: erste FXe bei AMD und EEs bei Intel. Es ist eben etwas anderes ob ich nen A64 3700+ auf 3 GHz ziehe, oder einen FX57 auf 3,2 GHz...
Oder einen Q6600 auf 3,6 GHz und einen QX6700 auf 3,9 GHz - das kannst du gar nicht mit heute vergleichen, weil es bei Intel so etwas nicht mehr gibt. Früher ging das quasi immer, bei AMD so gar teilweise noch heute (Ryzen 5 2600 vs 2600x etc). Bei Intel? Fehlanzeige. Willst du OC für P/L betreiben, bist du bei Intel an der falschen Adresse, OC ist dort nur noch was für die Leute, die eh das schnellste Kaufen. Vorbei die Zeiten eines E4400 (quasi Low-Mid-End CPU) der mit OC eine viel teurere CPU versägt.
massiv kann man den takt aber ebenfalls bei amd kaum bei den günstigen steigern, der einzigste ryzen der dafür vl noch herhalten könnte war der r7 1700, dort sind noch ordentliche steigerungen möglich. das hat amd mittlerweile auch gecheckt und keine low takt cpu mehr im angebot, und der preisunterschied vernachlässigbar. also kann man auch bei amd keine cpu von der low budget zur highperformance cpu durch OCen. der wettbewerb, auch auf die eigenen alten produkte, ist stark, sodass die cpus immer stärker am limit getaktet sind. damals waren die fortschritte noch größer als heute.

das intel wohl probleme hat weiter fortschritte zu machen in takt und IPC ist mehr als deutlich. bei amd gabs zuletzt 3% ipc und 10% mehr takt, bin gespannt was zen2 bringt.

Lehdro
2018-11-23, 18:21:31
was du mit schlecht verlöten meinst ist die dicke lotschicht die erforderlich ist um die thermischen spannungen abzufedern die eine 5ghz cpu mit sich bringt.
Nee, genau andersrum. Dicke Lötschicht ist besser als "dicker" Die, denn das Silizium da obendrauf ist nicht gerade die Wucht in Tüten was Wärmeleitfähigkeit angeht, wie das lappen des Dies zeigt. Dickeres Substrat, dünneres Die und gleich dicke Verlötung wäre besser, aber teuerer. Ist nicht das erste mal das Intel an der Platine spart, siehe auch die Sockelbrände etc.

BlacKi
2018-11-23, 18:47:49
also redest du nun von der dicke des dies und nicht vom indium soviel zum thema schlechte verlötung, was ja die ausgangsthematik war. bei unter 95w hat CB, glaube ich, 55° coretemp gemessen. die temperatur unterschiede liegen in den unterschieden des verbrauchs geschuldet. drosselt man beide cpus 2700x und 9900k auf 95w sind die temperaturen praktisch identisch.

man könnte auch ryzen und i9 auf 200w bringen und dann temps vergleichen. vergleicht man nun aber ryzen 4,1ghz mit 123w gelappt und delidded und i9 auf allcore 5ghz, dann muss man sich nicht wundern das es auf ryzen deutlich weniger bringt als bei intel.

https://youtu.be/q8zpE4lByTc?t=561
https://youtu.be/Ccqid7FcjOU?t=901

Lehdro
2018-11-23, 18:57:37
also redest du nun von der dicke des dies und nicht vom indium soviel zum thema schlechte verlötung, was ja die ausgangsthematik war. bei unter 95w hat CB, glaube ich, 55° coretemp gemessen. die temperatur unterschiede liegen in den unterschieden des verbrauchs geschuldet. drosselt man beide cpus 2700x und 9900k auf 95w sind die temperaturen praktisch identisch.

man könnte auch ryzen und i9 auf 200w bringen und dann temps vergleichen. vergleicht man nun aber ryzen 4,1ghz mit 123w gelappt und delidded und i9 auf allcore 5ghz, dann muss man sich nicht wundern das es auf ryzen deutlich weniger bringt als bei intel.

https://youtu.be/q8zpE4lByTc?t=561
https://youtu.be/Ccqid7FcjOU?t=901
Du weisst was bei AMD Tctl bedeutet? +20°C auf Tdie. Der Ryzen erfriert also geradezu :freak:

BlacKi
2018-11-23, 19:10:30
worauf willst du hinaus?

Lehdro
2018-11-24, 01:06:25
worauf willst du hinaus?
Die beim der8auer angezeigte Temperatur vom Ryzen ist genau 20°C zu hoch. Google einfach mal Tctl und Tdie vom Ryzen 1800X.

Ich hatte mit keine Probleme meinen 180W 1800X in prime AVX auf 60°C zu halten. Schau mal bei gewissen 9900k Leuten dabei, die potentere Waküs nutzen, die haben da wesentlich mehr Probleme....

SKYNET
2018-11-24, 01:28:16
als übertakter ist es doch egal mit wieviel takt sie verkauft werden, denn man schaut als OCler wieviel hinten raus kommt. nicht prozentual über stock clocks.

der 9900k 9700k ist wieder verlötet, dafür regen sich die leute auf das man ihn nicht mehr köpfen kann. also kann man es eben nicht allen recht machen. als echter OCler nimmt man was man kriegt.

manche legen bei ihren 14nm produkten 1,35-1,4v an und sie scheinen es zu vertragen.

wegen 1-3 grad schleife ich meine cpu nicht. 8bauer ist extreme overclocker, nicht alles was er zeigt ist auch für den normalo OCler praktikabel.


also wenn ich mein ryzen auf auto lasse, geht der sogar selbstständig bis 1.52V hoch... somit sollte 1.45V dauerhaft bei 12nm kein problem darstellen.... wies dann bei den 7nm aussieht ist wieder nen anderes blatt. :smile:

JVC
2018-11-24, 09:33:54
Mein 2700x gönnt sich alles auf "auto" sogar bis zu 1,54v.
Ebenso ist es mir unmöglich, manuell mehr Leistung herauszuholen...
( unter der Wakü benutzt er selbst PBO stufe10 ... mehr geht nicht )

Manuell alle Kerne über 4,2Ghz anheben klappt auch nicht.
( vermutlich macht ein Kern bei ~4,2Ghz dicht,
der geht im "auto" auch nur auf max ~4,25Ghz )
Interessanterweise wird der Kern bei SC Last irgendwie umschifft/ausgelassen.

Zu mindestens bei meinem 2700X bringt "übertakten" absolut nix.
Wenn er kühl genug ist und man ihn lässt, haut er eh von alleine raus was geht ( ~180W/~125A )

m.f.g. JVC

p.s.: aber die Samsung B-Die "quälen" macht Spaß und wirklich sinn ^^

SKYNET
2018-11-24, 10:11:27
Mein 2700x gönnt sich alles auf "auto" sogar bis zu 1,54v.
Ebenso ist es mir unmöglich, manuell mehr Leistung herauszuholen...
( unter der Wakü benutzt er selbst PBO stufe10 ... mehr geht nicht )

Manuell alle Kerne über 4,2Ghz anheben klappt auch nicht.
( vermutlich macht ein Kern bei ~4,2Ghz dicht,
der geht im "auto" auch nur auf max ~4,25Ghz )
Interessanterweise wird der Kern bei SC Last irgendwie umschifft/ausgelassen.

Zu mindestens bei meinem 2700X bringt "übertakten" absolut nix.
Wenn er kühl genug ist und man ihn lässt, haut er eh von alleine raus was geht ( ~180W/~125A )

m.f.g. JVC

p.s.: aber die Samsung B-Die "quälen" macht Spaß und wirklich sinn ^^


habe mich inzwischen auch mal umgehört... die 2700X der ersten charge, laufen wohl allesamt besser als die jetzigen, da wurde nämlich noch nicht für den TR2 abgegriffen um sofort die nachfrage stillen zu können und es nicht wie bei intel jetzt, zu nem halben papiertiger werden zu lassen. :biggrin:

btw. was sagt HWinfo welcher kern nicht aufdreht bis 4.35GHz?

BlacKi
2018-11-24, 10:27:00
Mein 2700x gönnt sich alles auf "auto" sogar bis zu 1,54v.
Ebenso ist es mir unmöglich, manuell mehr Leistung herauszuholen...
( unter der Wakü benutzt er selbst PBO stufe10 ... mehr geht nicht )

Manuell alle Kerne über 4,2Ghz anheben klappt auch nicht.
( vermutlich macht ein Kern bei ~4,2Ghz dicht,
der geht im "auto" auch nur auf max ~4,25Ghz )
Interessanterweise wird der Kern bei SC Last irgendwie umschifft/ausgelassen.

Zu mindestens bei meinem 2700X bringt "übertakten" absolut nix.
Wenn er kühl genug ist und man ihn lässt, haut er eh von alleine raus was geht ( ~180W/~125A )

m.f.g. JVC

p.s.: aber die Samsung B-Die "quälen" macht Spaß und wirklich sinn ^^
welchen takt boostet er bei aida64 stress test? das sind die taktraten und die belastung die wohl irgendwann mal in spielen anliegen werden. dann könnte ein manuelles OC von vorteil sein.

=Floi=
2018-11-24, 19:29:21
in den core 2 duo zeiten war fsb takten trumpf und war super easy. oder war das auf skylake mit bios mod bezogen?

eigentlich war das noch auf die pentium 2/P3 und Athlon bezogen, wo der systemtakt auch den rest des systems übertaktete.
Wenn dann andere geräte ausstiegen oder beeinträchtigt wurden, weil der bus zu hoch getaktet war.
Du brauchtest von allem gute sachen.

Beim core 2 könnte ich auch wieder so abkotzen. Hab vor kurzem meinen Q6600 in rente geschickt und nen xeon mod eingebaut. Super sache, nur habe ich über umwege in dem system noch zwei noname ram riegel und der fsb steht bei 400mhz an. Multi steht bei 9.
Beim 775er sockel braucht es auch einen hohen multi!
In dem hinblick sind die modelle mit fsb 333 oder 400 schlechtere käufe als die fsb266 modelle. Das ist auch so eine bittere pille, wenn man einen teuren prozessor gekauft hat.

Ab den k modellen ist man frei und kann einstellen was man möchte. Locked FSB und man kann sich alleine auf die cpu konzentrierern.
Einen 9900k _kann_ ich mit billigstem ram betreiben.

Lehdro
2018-11-24, 20:59:57
eigentlich war das noch auf die pentium 2/P3 und Athlon bezogen, wo der systemtakt auch den rest des systems übertaktete.
Wenn dann andere geräte ausstiegen oder beeinträchtigt wurden, weil der bus zu hoch getaktet war.
Du brauchtest von allem gute sachen.
Du brauchst einfach nen Mainboard wo du den AGP/PCI Takt locken oder mit Teilern arbeiten kannst, was so ziemlich jedes wirklich vernünftige Mainboard mitbrachte. Auf den "08/15" boards von damals siehts aber ziemlich schnell düster aus, vorallem wenn du PCI Karten mit verbaust, während die meisten GPUs locker 80 MHz AGP Takt wegsteckten...

Einen 9900k _kann_ ich mit billigstem ram betreiben.
Einen 400 MHz FSB Q6600 kannst du auch mit DDR2 800 betreiben, was nun wirklich nichts ungewöhnlich schnelles war. DDR2 1066 war damals ja schon der go to RAM, wenn man eh übertakten wollte.

G3cko
2018-11-25, 01:12:29
Fakt ist, erst ab dem Zeitpunkt als sich AMD verabschiedete kam Intel mit der "ExtremEdition light" aka k-Suffix. Nichts anderes als ein Aufpreis für OC Modelle. Günstige Perlen gab es nicht mehr. Auch die Trennung zwischen Mainstream und HighEnd fand statt. Erreichte ein Q6600 oder Pentium D 805 Dank OC die Leistung eines 1000-1500€ Prozessors, kam ein 6700k mit ach und Krach an einen 5820k ran.

Und Intel wurde von Ryzen komplett überrascht. Mal eben einen 6-8Core im Mainstream aus dem Hut zaubern geht halt auch nicht. Dazu kommt Ryzen ohne iGPU die 2/3 der Chipfläche ausmacht. Schachmatt.

Da ist noch jede Menge Spielraum. Erst wenn es wirklich Konkurrenzkampf gibt sehen wir auch wieder OC Kracher. Aktuell kann Intel nur zusehen.

BlacKi
2018-11-25, 04:29:16
Fakt ist, erst ab dem Zeitpunkt als sich AMD verabschiedete kam Intel mit der "ExtremEdition light" aka k-Suffix. Nichts anderes als ein Aufpreis für OC Modelle. Günstige Perlen gab es nicht mehr. Auch die Trennung zwischen Mainstream und HighEnd fand statt. Erreichte ein Q6600 oder Pentium D 805 Dank OC die Leistung eines 1000-1500€ Prozessors, kam ein 6700k mit ach und Krach an einen 5820k ran.
kam der 2600k nicht vor dem bulldozer? daher frag ich mich was du meinst. jeder hätte eine steigerung der ipc angenommen vom phenom, stattdessen hat der bulli einfach mal nö gesagt, als der 2600k schon lange draussen war.

Erreichte ein Q6600 oder Pentium D 805 Dank OC die Leistung eines 1000-1500€ Prozessors, kam ein 6700k mit ach und Krach an einen 5820k ran.
was gaming angeht hätte ich mir den 6700k kaufen sollen statt den 5820k, einen preisunterschied gab es 2015 nicht, stattdessen hab ich mir den langsamen 5820k zugelegt, der ryzen performance hat. fail.



Und Intel wurde von Ryzen komplett überrascht. Mal eben einen 6-8Core im Mainstream aus dem Hut zaubern geht halt auch nicht. Dazu kommt Ryzen ohne iGPU die 2/3 der Chipfläche ausmacht. Schachmatt.
amd hatte schon 5 jahre vorher 6-8 kerner im destop segment. überrascht war intel deshalb nicht. 6-8 kerner waren im normalen desktop segment einfach nicht benötigt, sonst wäre der bulldozer besser angekommen. das hat man 2017/18 geändert wegen weil der bedarf sich geändert hat.

intel hat keine kapazitäten mehr um echten preiskampf zu bieten, intel kann einem fast leid tun wegen intels 10nm fertigung die einfach nicht in gang kommt, wären da nicht die dicken preisschilder. amd schafft auch nur 7nm dank tsmc. ohne tsmc wäre amd auch nicht zu weniger als 12nm tauglich. die 7nm kapazitäten werden wohl ebenso kaum für massenhaft günstige amd cpus ausreichen.

G3cko
2018-11-25, 09:08:51
Der 5820k ist gerade durch OC die deutlich bessere Gaming-CPU. Mach dir Mal einen Spaß und tippe bei Google nur die Begriffe der nächsten kleineren CPU ein "6600k BF1". Geringere Singlethreadleistung läst ein Spiel nur langsamer laufen. Fehlende Threads bzw CPU Leistung in der Breite/im Gesamten führt zu Hängern.

Bulldozer hatte keine 8 Kerne. Der Phänomen X6 war auch die letzte CPU mit Wettbewerb.

Natürlich hat der immer ausgefeiltere Turboboost dazu geführt, das die CPUs @ Stock bereits nah am Limit sind.

Je niedriger der Takt, desto mehr OC Potenzial in Prozent. => Damit die Hersteller den Takt freiwillig senken muss genug Wettbewerb herrschen um CPUs mit mehr Kernen anzubieten als der Kunde braucht. Denn nur mit mehr Cores bekommt man die CPU an sein TDP Limit bei gleichzeitig niedrigem Takt.

Wie gesagt 2/3 der Chipfläche der Mainstream CPUs sind die iGPU. Wie viele Nutzer eines 6700k benutzen die iGPU? Man könnte wenn man wollte, will aber nicht, weil man nicht muss.


Es gab damals schon die Situation, dass ein E8400 aufgrund weniger Kerne einen höheren Takt unter OC schafft als eine Q6600. Der Unterschied zu heute ist. Es gibt Dank der k-Suffixe von Intel nur noch für OC vorgesehene Modelle. Auf dem großen Sockel gibt es keine Auswahl. Keinen niedrigen Takt, viele Kerne mit OC Option. Bis auf das Topmodell gibt es daher auch kaum OC Spielraum. OC ist also bis auf das Topmodell eine Illusion. Warum sollte Intel auch etwas verschenken?

JVC
2018-11-25, 10:20:09
habe mich inzwischen auch mal umgehört... die 2700X der ersten charge, laufen wohl allesamt besser als die jetzigen, da wurde nämlich noch nicht für den TR2 abgegriffen um sofort die nachfrage stillen zu können und es nicht wie bei intel jetzt, zu nem halben papiertiger werden zu lassen. :biggrin:

btw. was sagt HWinfo welcher kern nicht aufdreht bis 4.35GHz?

Es ist auf jeden fall immer der selbe Kern ( welcher muss ich am Nachmittag nochmal schauen )
Einer kommt eben nur auf max 4,25-4,275 und ein anderer auf 4,325-4,35 ( trotz bis zu 1,54v)
Die restlichen Kerne kleben bei SC Last bei 4,35 fest. ( manchmal auch mehr als 2 Kerne gleichzeitig sofern die Anzeige stimmt)
Wenn ich einen kleinen -Offset einstelle, Takten die 2 noch weniger weit, der Rest bleibt bei 4,35 kleben.

welchen takt boostet er bei aida64 stress test? das sind die taktraten und die belastung die wohl irgendwann mal in spielen anliegen werden. dann könnte ein manuelles OC von vorteil sein.

~4,1Ghz Allcore ( schwankt zw. 4,05-4,175 ) bei 1,38-1,44v.( bei ~180W verbrauch, scheint er zu "bremsen", 200W / 130A ist scheinbar ne harte Grenze )
=1915 MC max , 183 SC max
( alle Einstellungen auf "auto" , manuell bekomm ich ihn (nicht ganz stabil) auf 4,2Ghz)

Die Temperatur pendelt sich meist bei 58-59° ein, Spitzen bis zu ~67°max.
( im Moment dürfen die Lüfter noch ziemlich befreit hochdrehen, Waküd, 60° Zieltemperatur )

m.f.g. JVC

=Floi=
2018-11-25, 19:42:34
Es gab damals schon die Situation, dass ein E8400 aufgrund weniger Kerne einen höheren Takt unter OC schafft als eine Q6600. Der Unterschied zu heute ist. Es gibt Dank der k-Suffixe von Intel nur noch für OC vorgesehene Modelle. Auf dem großen Sockel gibt es keine Auswahl. Keinen niedrigen Takt, viele Kerne mit OC Option. Bis auf das Topmodell gibt es daher auch kaum OC Spielraum. OC ist also bis auf das Topmodell eine Illusion. Warum sollte Intel auch etwas verschenken?

1. hat der 8400er die gleichen chips wie die 9XXX quads. Beide 45nm
2. war das ein erheblich besserer prozess! Das unterschätzt man so stark, aber vergleicht man Q6600@3ghz OC mit dem Q9650, so liegen welten zwischen den beiden prozessen. high-k und 45nm brachten hier erhebliche vorteile.

So einen sprung beim matarial bräuchte man heute wieder. Imho ist es garnicht der node, sondern die erheblich geringere elektronen migration.
Beim Q6600 kam ich nie stabil an die 3600mhz und auch bei der hitze ging dann alles durch die decke. Der Xeon macht 3,6ghz bei 1,3 volt (ohne groß probieren) und ist zig grad kühler.