PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Keine Weiterentwicklung bei der Taktfrequenz?


Gast
2008-08-25, 17:53:18
ich habe mich schon länger etwas gefragt: Seit 4 oder 5 Jahren gibt es ja praktisch keinen Fortschritt mehr bei der Taktfrequenz von Prozessoren. Wir gurken immernoch im Schnitt mit maximal 3,5 Gigahertz herum, zwar schalten wir immer mehr Kerne parallel, aber nicht jede Berechnung kann ja so toll durch Threads auf mehrere Kerne aufgeteilt werden.
Ich frage mich, woran es hängt, und warum man nicht CPUs entwickelt die 5, 6 oder gar 10 Gigahertz schaffen. Sollte sich das nicht mal jährlich verdoppeln?

Allgemein finde ich, dass die technischen Fortschritte auf diesem Sektor ziemlich zurückgegangen sind. Früher war ein PC schon alt, wenn er nur ein Jahr auf dem Buckel hatte.
Mein Dual-Code Notebook mit 2 GB RAM vom Herbst 2006 wird in den läden heut noch so angeboten. Klar, inzwischen findet man auch mal 3 oder 4 GB Arbeitsspeicher und eine etwas größere Festplatte, aber ansonsten hat sich doch kaum etwas geändert.

Also, woran liegt's?

BlackBirdSR
2008-08-25, 18:08:52
Also, woran liegt's?

Hohe Taktfrequenz erfordert viel Aufwand beim Erstellen der Schaltungen. Zudem wird sehr viel Gewicht auf die Spannungsversorgung und die Signallaufzeiten gelegt. Zusammen mit den immens gestiegenen Transistorzahlen wird eine Takterhöhung immer schwieriger. Von der Verlustleistung nicht zu sprechen...

Man könnte schon 5 Ghz oder 6 GHz erreichen (Power6/7 z.B), das kostet aber, und ist im Desktopbereich kaum zu verwirklichen. Man muss sich auch fragen, ob es sich lohnt? Beim Pentium4 musste immenser Aufwand getrieben werden, und am Ende ist man doch an der Verlustleistung gescheitert. Ein Core2 erreicht bei weit weniger Takt und Verlustleistung eine weit höhere Performance. Dieser Weg ist daher "aktuell" der bessere. Vielleicht braucht es nur 2 oder 3 Revolutionen in der Fertigung und die Taktraten schnellen munter weiter in die Höhe. Dann vielleicht mit 16 oder 32 Kernen, die aber weitaus simpler aufgebaut sind.

Gast
2008-08-25, 18:11:22
Leihenantwort:

Zum Einen sind da wohl physikalische Grenzen, zum Anderen ist da die totale Abkehr von Netburst (Speed durch Taktung).

Die Entschleunigung ist mMn dem Anspruch der User geschuldet. Mußte man vor Jahren noch aufrüsten um, .avi oder DVDs zu schauen können heute selbst "lowEnd" PCs HD wiedergeben. Auch zum Briefeschreiben oder Surfen ist kein Quad nötig. Das ist auch der Grund, warum Notebooks immer beliebter werden. Sie bieten für wenig Geld genug Leistung und sind mobil.
Bleibt der Desktop als Zockermaschine. Aber hier heizen die Konsolen ordentlich ein und gewinnen Marktanteile.

Eggcake
2008-08-25, 18:33:09
Ack...

Wofür überhaupt höhere Taktfrequenz? Wenn man sich Desktopuser anschaut, dann sind heutige PCs nurnoch Overkill.
Gamer? Games sind so gut wie nie CPU-limitiert...auch hier reichen heutige CPUs aus.

Naja...es gibt halt auch nicht wirklich Gründe um die Takte massiv zu erhöhen...momentan reichts schlichtweg aus...

Avalox
2008-08-25, 19:02:20
Also, woran liegt's?

Ganz einfach.
Die Menschheit hat bis heute keine Technologie entwickelt, die dieses ermöglicht.

Hättest du höhere Taktfrequenzen, hättest du keine Mehrkern CPU und die Welt wäre noch komplett in Ordnung. Du hättest heute sehr viel schönere Software und einen Rechner, welcher genauso schnell altern würde wie in früheren Zeiten.

Das dein altes Notebook noch so gut funktioniert liegt allein daran, dass die Software Hersteller um Jahre den Hardware Herstellern hinterher sind im Übergang von einer Single- auf einer Manycore Umgebung.

Genau in dieser Lücke befindest du Dich mit deinem Notebook und deshalb kannst du es auch heute noch vernümftig einsetzen. Gut ist diese Entwicklung aber nicht. Sie bremst alles, auch und vor allen die Innovation.

Gast
2008-08-25, 19:37:50
Ich würde nicht sagen, das es unmöglich ist, CPUs mit extrem hohen Taktraten zu bauen.

Es scheint zur zeit eher so zu sein, das der aufwand diesen weg zu gehen höher ist, als in die breite zu wachsen. Kosten sind ja immer ein entscheidender Punkt, wenn etwas zu teuer ist, so ist es für den massenmarkt nicht geeignet, da muss man sich wieder was anderes einfallen lassen.
vielleicht wird es irgendwann wieder die abkehr von multicore, so wie wir es heute kennen geben und dann alles mit spezialisierten und hochgetakteten chips vonstatten gehen. so genau weiß das keiner, im bereich der fertigung wird noch geforscht..

den pentium4 würde ich jetzt nicht umbedingt dafür als beispiel heranziehen,die ibm-konkurrenz machts ja immer noch und wie wir sehen, erreichen wir die 4 ghz auch mit einer anders ausgelegten architektur. Wenn wir dazu noch weitere fertigungsfortschritte der zukunft dazu rechnen, scheinen mir auch hier taktraten nahe der 6-10ghz möglich.

Gast
2008-08-25, 19:53:36
Gut ist diese Entwicklung aber nicht. Sie bremst alles, auch und vor allen die Innovation.

Mal ketzerisch gefrag: wieviel Rescourcen (nicht nur Strom) willst du für Briefe, Emails und Surfen denn noch verschwenden?
Was wird denn gebremst? Die Entwicklung im Forschungssektor (also wo richtig Rechenpower gefragt ist) vielleicht, aber in wie weit die von HomePcs profitieren kann ich nicht abschätzen.

Oder glaubst du, morgen will Martin Mediamarkt CAD nutzen? Ich glaube nichtmal das geschickteste Marketing wird Martin das einreden können. Zur Bearbeitung seiner Homevideos und Photos reichen nämlich wieder "LowEndPcs".

Also welche Innovationen? Zockerei? Ja! Perepherie? Wiimote (Innovation) braucht nicht viel Leistung...

Also wofür? (sry, bin phantasielos)

roidal
2008-08-25, 19:55:12
Liegt wohl daran das die Leistungsaufnahme einer CPU Linear mit der Taktung steigt...daher sind niedrigere Frequenzen einfach sparsamer (Die heutigen Stromsparmechanismen takten die CPU im Leerlauf deshalb auch runter). Zu dem kommt noch dazu das ein Transistor eine gewisse Zeit zum Schalten braucht und je nachdem wie komplex die Einheiten einer CPU sind (einfach gesagt wieviele Transistoren in den Einheiten hintereinandergeschaltet sind) ergibt sich eine mindestzeit wie lange die Einheit braucht, und schneller als die Einheiten kann man die CPU nicht takten.

http://de.wikipedia.org/wiki/Pipeline_(Prozessor)
http://de.wikipedia.org/wiki/Gatterlaufzeit

Zu dem sagt die Taktfrequenz alleine noch nicht viel über die Performance einer CPU aus:
http://de.wikipedia.org/wiki/Instructions_per_cycle

Avalox
2008-08-25, 20:02:55
Ich würde nicht sagen, das es unmöglich ist, CPUs mit extrem hohen Taktraten zu bauen.


Es ist schlicht unmöglich, sonst würde es jemand tun.
Der Markt für sehr schnelle Abarbeitung sequentiellen Codes ist definitiv da, kann aber nicht bedient werden. Nicht alle Probleme lassen sich kausal getrennt formulieren.





Es scheint zur zeit eher so zu sein, das der aufwand diesen weg zu gehen höher ist, als in die breite zu wachsen. Kosten sind ja immer ein entscheidender Punkt, wenn etwas zu teuer ist, so ist es für den massenmarkt nicht geeignet, da muss man sich wieder was anderes einfallen lassen.


Natürlich sind es Kosten. Wenn kein Geld da ist, wird auch nicht in der Richtung geforscht. Was nicht erforscht ist, wird auch nicht beherrscht, oder gar entwickelt.

Die Menschheit hat schlicht keine Technologie, die dieses ermöglicht. Sowenig wie man heute zum Mars fliegen kann.(oder auch nur zum Mond)

Banshee18
2008-08-25, 20:07:30
Gamer? Games sind so gut wie nie CPU-limitiert...auch hier reichen heutige CPUs aus.

Naja...es gibt halt auch nicht wirklich Gründe um die Takte massiv zu erhöhen...momentan reichts schlichtweg aus...
Schonmal daran gedacht, dass die Software an die Hardware angepasst wird? Wenn CPUs 10-fache Leistung hätten, hätten wir auch sicherlich technisch fortschrittlichere Spiele (bessere KI, bessere Physik...).
Spiele sind außerdem nicht alles.

Leihenantwort:...
http://de.wikipedia.org/wiki/Laie
;)

Gast
2008-08-25, 20:12:48
Schonmal daran gedacht, dass die Software an die Hardware angepasst wird? Wenn CPUs 10-fache Leistung hätten, hätten wir auch sicherlich technisch fortschrittlichere Spiele (bessere KI, bessere Physik...).
Spiele sind außerdem nicht alles.
Naja, die Rechner sind schon recht schnell, trotzdem hat man das Gefühl, viele Rescourcen liegen brach (Stichwort Konsolenumsetzungen).

Also erstmal bitte das Vorhandene nutzen, bevor man nach mehr verlangt.

Spiele sind selbstverständlich nicht alles, aber was ist da denn noch für den Heimanwender? Bitte Butter bei die Fische! :)

Ich denke, der Ausbau des Internets ist weitaus wichtiger als eine erneute Beschleunigung der HomePC-Entwicklung.

Gast
2008-08-25, 20:14:55
http://de.wikipedia.org/wiki/Laie
;)
Autsch, wieder eine Kerbe mehr auf der "ich bin froh Unreg zu sein"-Seite meines Schreibtisches!

Sowas Dummes... ARGH!

Avalox
2008-08-25, 20:15:52
Mal ketzerisch gefrag: wieviel Rescourcen (nicht nur Strom) willst du für Briefe, Emails und Surfen denn noch verschwenden?


Das stimmt doch so nicht.

Grade die heutigen Multicore CPUs verbrauchen doch eine Unmenge an Ressourcen, welche dort total verschwendet werden.

Bei DualCore bzw. gar Quadcore CPUs wird ein Grossteil an Energie und Material nie zu Lebzeiten der CPU benötigt, oder kann gar sinnvoll(im Sinne des Anwenders) genutzt werden.

Grade die vorhandene und sehr schlecht nutzbare neue Technologie des Manycores führt zur Verschwendung.

Solange mir der EMail Client vorgibt was ich zu tun habe und ich sogar meine eMail gar selber tippen muss, sehe ich nun wirklich nicht das Ende aller Zeiten.
Auch das Internet ist äußerst primitiv ..



Was wird denn gebremst? Die Entwicklung im Forschungssektor (also wo richtig Rechenpower gefragt ist) vielleicht, aber in wie weit die von HomePcs profitieren kann ich nicht abschätzen.

Also welche Innovationen? Zockerei? Ja! Perepherie? Wiimote (Innovation) braucht nicht viel Leistung...


Ja, weil die Konsolen mit mehr Leistung nicht so viel mehr Leistung umsetzen können, dass diese dem Kunden dadurch auch einen überzeugenden Mehrwert bieten könnten. Auch ein Problem der heute schlecht beherrschten Parallelisierung.

Die Wii kommt aus der gut verstandenen Welt des sequenziellen Programmierung. Man konnte sich dort mit voller Energie ganz dem neuen Konzept der Konsole selbst widmen. Das Geld, was bei den anderen Konsolen in der technischen Beherrschung der Hardware geflossen ist, konnte bei der Wii in das Konzept gesteckt werden.

Das wirklich wunderbare ist es doch, dass man gar nichts tun braucht.
Man lehnt sich zurück, beobachtet die Entwicklung und darf dabei nur das staunen nicht verlieren. Heisst ja nicht, dass es in Zukunft nicht wieder beschleunigt weiter geht. Ist halt nur eine kurze Softwarepause eingelegt worden.

Gast
2008-08-25, 20:23:19
Das stimmt doch so nicht.

Grade die heutigen Multicore CPUs verbrauchen doch eine Unmenge an Ressourcen, welche dort total verschwendet werden.

Bei DualCore bzw. gar Quadcore CPUs wird ein Grossteil an Energie und Material nie zu Lebzeiten der CPU benötigt, oder kann gar sinnvoll(im Sinne des Anwenders) genutzt werden.

Grade die vorhandene und sehr schlecht nutzbare neue Technologie des Manycores führt zur Verschwendung.

Solange mir der EMail Client vorgibt was ich zu tun habe und ich sogar meine eMail gar selber tippen muss, sehe ich nun wirklich nicht das Ende aller Zeiten.
Auch das Internet ist äußerst primitiv ..




Ja, weil die Konsolen mit mehr Leistung nicht so viel mehr Leistung haben, dass diese dem Kunden dadurch auch einen überzeugenden Mehrwert bieten könnten. Auch ein Problem der heute schlecht beherrschten Parallelisierung.

Die Wii kommt aus der gut verstandenen Welt des sequenziellen Programmierung. Man konnte sich dort mit voller Energie ganz dem neuen Konzept widmen. Das Geld, was bei den anderen Konsolen in der technischen Beherrschung geflossen ist, konnte bei der Wii in das Konzept gesteckt werden.


Das wirklich wunderbare ist es doch, dass man gar nichts tun braucht.
Man lehnt sich zurück. Beobachtet die Entwicklung und darf dabei nur das staunen nicht verlieren.
Nun bin ich verwirrt - eigentlich habe ich das genauso gemeint, da hab ich dich wohl nicht ganz verstanden. Es geht dir also weniger um Nettoleistungssteigerung, richtig? Im Übrigen lese ich da leise Kritik am Mehrkernprinzip, der ich mich ebenfalls anschließen kann. Nur fehlen halt die Alternativen, wie du selber darstellst.

Banshee18
2008-08-25, 20:30:23
Naja, die Rechner sind schon recht schnell, trotzdem hat man das Gefühl, viele Rescourcen liegen brach (Stichwort Konsolenumsetzungen).

Also erstmal bitte das Vorhandene nutzen, bevor man nach mehr verlangt.

Spiele sind selbstverständlich nicht alles, aber was ist da denn noch für den Heimanwender? Bitte Butter bei die Fische! :)
Eine Konsole ist immer gleich, weshalb man dafür viel besser optimieren kann, als fü einen PC. Es gibt nicht "den" PC, jeder PC ist anders und ein Spiel soll auf jedem halbwegs aktuellen PC möglichst gut laufen. Da muss man halt Kompromisse eingehen. Für genauere technische Details bin ich aber der falsche Ansprechpartner, da müssen unsere Gurus weiterhelfen.

Es gibt auch nicht nur Heimanwender. Im wissenschaftlichen Bereich würde man sich sicherlich hier und dort über mehr Leistung freuen.

Gast
2008-08-25, 20:50:18
Eine Konsole ist immer gleich, weshalb man dafür viel besser optimieren kann, als fü einen PC. Es gibt nicht "den" PC, jeder PC ist anders und ein Spiel soll auf jedem halbwegs aktuellen PC möglichst gut laufen. Da muss man halt Kompromisse eingehen. Für genauere technische Details bin ich aber der falsche Ansprechpartner, da müssen unsere Gurus weiterhelfen.

Es gibt auch nicht nur Heimanwender. Im wissenschaftlichen Bereich würde man sich sicherlich hier und dort über mehr Leistung freuen.

Der obere Teil gilt aber schon seit Jahren, trotzdem ist eine Entschleunigung zu beobachten. Insofern versteh ich den Einwand nicht.

Ja, die Wissenschaft - da hab ich auch was mit am Hut. Nur sind alle Rechner bei uns im Labor älter als geschätzte 98% der 3dCenter-PCs (P2 - P4). Trotzdem werden damit neue Produkte und Verfahren entwickelt. Natürlich wird es auch reichlich Anwendungen geben, die deutlich mehr Leistung zwingend erfordern, aber auch da limitiert irgendwann etwas Anderes, seien es Sensoren, der Mensch oder die Datenübertragung. Und für ein paar Nischen lohnt es sich eher, ein paar Supercomputer zu entwickeln und zu bauen, als die Entwicklung auf den Schultern des gemeinen Users zu verteilen.

Gast
2008-08-25, 20:54:46
Es ist schlicht unmöglich, sonst würde es jemand tun.

IBM tut es und verdient damit Geld, daher stimmt das schonmal nicht. ;)
Intel hat es auch getan, bis sie einen effektiveren Weg gefunden haben.
Da selbst Intel die Richtung gewechselt hat, war nicht mal bei denen klar, welcher Weg am Ende besser ist. Warum schließt du eine weitere änderung aus, obwohl es diese schon gab? Neue Ergebnisse der Forschung könnten die Lage durchaus verändern.

Es war von langer Zeit auch mal die Rede von Chips im zwei bis dreistelligen GHz Bereich auf Diamantbasis... möglich scheint es zu sein, aber wirtschaftlich? Wohl eher nicht.

Avalox
2008-08-25, 21:11:46
IBM tut es und verdient damit Geld, daher stimmt das schonmal nicht. ;)


Pah. IBM spielt doch dort in der absolut selben GHz Liga. Sind weit unterhalb des Faktor 2.

Ich denke nach Intel Prognosen sollten wir uns heute schon im guten zweistelligen GHz Bereich bewegen.

Das hat kein Hersteller gepackt.

Nicht, dass die IBM Power damit schlechte CPUs wären.
Mal sehen ob die nächsten IBM Power 16 Kerner für einen AMD Sockel erscheinen werden. Aber selbst diese werden dann mit 4GHz kommen.


Neue Ergebnisse der Forschung könnten die Lage durchaus verändern.


Ja. Schlisse ich nicht aus, wie käme ich dazu. Man muss sich nur die Situation bei verschiedenen Schnittstellen ansehen. Oftmals parallel ausgelegt, wurden diese später wieder durch die überlegene serielle Übertragungen abgelöst. Die Singlecore CPU kann alles, was auch eine Manycore CPU kann, damit wäre der Weg deutlich einfacher zurück zu gehen.


Es war von langer Zeit auch mal die Rede von Chips im zwei bis dreistelligen GHz Bereich auf Diamantbasis... möglich scheint es zu sein, aber wirtschaftlich? Wohl eher nicht.

Ich sage ja auch gar nicht, dass es keine Technologie geben kann. Der Mensch hat diese nur noch nicht entwickelt.

Gast
2008-08-25, 22:56:51
Pah. IBM spielt doch dort in der absolut selben GHz Liga. Sind weit unterhalb des Faktor 2.

Sie gehen diesen Weg und sie gehen ihn immer noch. Das war ja die Fragestellung. Einen 4 GHz Pentium gab es offiziell nie.

Die derzeitige Entwicklung von Intel ist auch alles andere als sicher. Eigentlich ist es schon ziemlich beeindruckend, wie schnell die Taktraten gesteigert werden konnten, trotz nicht darauf ausgelegter architektur. Wie es scheint, war nicht allein die Architektur das Problem, der PentiumIV hat sich ja auch weitaus höher takten lassen,nur die Kühlung und Leistungsaufnahme war immer ein Problem.
Damals haben wir uns noch über unseren E6600 mit 2,4 GHz gefreut und heute bekommste selbst 3,33 GHz cpus hinterhergeschmissen. Nehalem fängt ja auch wieder mit 2,66 bis 3,2 GHz an.

Avalox
2008-08-25, 23:17:39
Nehalem fängt ja auch wieder mit 2,66 bis 3,2 GHz an.

Nicht vergessen, er hat einen Turbo Modus. Was ja ganz bezeichnend ist.

Coda
2008-08-25, 23:50:25
IBM tut es und verdient damit Geld, daher stimmt das schonmal nicht. ;)
Meinst du Power6? Das ist ein In-Order-Design. Das kannst du nicht vergleichen.

Gast
2008-08-26, 00:23:28
Nicht vergessen, er hat einen Turbo Modus. Was ja ganz bezeichnend ist.

Was ist daran bezeichnend? Bitte um Aufklärung. :)

Da stand, das selbst kleineren Modelle 1-2 Taktstufen höher gehen können,wenn zwei Kerne schlafen gelegt wurden. Die Idee ist einfach, wie genial. Man kann auf diese Weise die Vorteile von Fertigungsprozessen gut ausnutzen (höhere Taktraten für einen kurzen Zeitraum freigeben) und gleichzeitig alte anwendungen beschleunigungen.
Die bisherigen Beschreibungen sagen aus, er wird sich höher takten können als standard, weil im gegenzug Kerne schlafen gelegt wurden. Also geht er vielleicht sogar noch über 3,2ghz hinaus. Und dann ist es ja auch nicht mehr weit bis zum 32nm prozess.

Das bemerkenswerte daran finde ich; Intel wird zum zeitpunkt des nehalem release bei der jetzigen konkurrenz sicherlich noch nicht alle taktreserven mobilisiert haben, im moment besteht ja kein bedarf. Vielleicht werden dann noch Modelle mit mehr nachkommen und dann gehts ja widerum noch weiter mit 32 nm. Bin gespannt, wo wir am Ende stehen.

Meinst du Power6? Das ist ein In-Order-Design. Das kannst du nicht vergleichen.

Einen Vergleich habe ich nicht gezogen, es ging einzig allein um den Takt.

Das jeder in eine andere Richtung entwickelt, steht damit nicht umbedingt im Zusammenhang, wenn es darum geht, was technisch machbar wäre.

Eggcake
2008-08-26, 01:13:38
Schonmal daran gedacht, dass die Software an die Hardware angepasst wird? Wenn CPUs 10-fache Leistung hätten, hätten wir auch sicherlich technisch fortschrittlichere Spiele (bessere KI, bessere Physik...).
Spiele sind außerdem nicht alles.


Stimmt, natürlich hast du Recht. Trotzdem werden heutige Prozessoren bei weitem nicht ausgelastet...zumindest bei den meisten gängigen Spielen.

Und wie gesagt: der Massenmarkt, abseits der Forschung etc. ist längst genügend bestückt, da brauchts kein Mhz mehr.
Das einzige, was übrigbleibt sind Forschungszentren oder CAD und all jene Sachen - und dort werden ja öfters einfach mehr Prozessoren verwendet.

Ich will damit nicht sagen, dass man keine höhere Taktfrequenz benötigt, aber sicherlich wäre die Notwendigkeit bedeutend geringer als noch vor 10 Jahren.

Coda
2008-08-26, 01:29:14
Einen Vergleich habe ich nicht gezogen, es ging einzig allein um den Takt.

Das jeder in eine andere Richtung entwickelt, steht damit nicht umbedingt im Zusammenhang, wenn es darum geht, was technisch machbar wäre.
In Order ist es sehr viel einfacher die Schaltung auf hohe Frequenz auszulegen. Das ist der Knackpunkt.

Was wir wirklich bräuchten ist mehr Takt pro Schaltung, aber trotzdem keine viel schlechtere IPC-Leistung. Und das ist derzeit wirklich ein Problem.

SaTaN
2008-08-26, 01:55:07
Und dann ist es ja auch nicht mehr weit bis zum 32nm prozess.
[...]
Vielleicht werden dann noch Modelle mit mehr nachkommen und dann gehts ja widerum noch weiter mit 32 nm. Bin gespannt, wo wir am Ende stehen.


32 Nanometer... das muss man sich mal vorstellen. Ich schaffe es gerade mal so, Strukturen im einstelligen Nanometerbereich herzustellen, aber die eignen sich ganz bestimmt nicht für die a) Massenproduktion, b) Chipherstellung und das c) Geldverdienen... 32 nm... krass.

Gast
2008-08-26, 02:29:28
In Order ist es sehr viel einfacher die Schaltung auf hohe Frequenz auszulegen. Das ist der Knackpunkt.

Ja, aber wir könnten auch eine sehr simple x86-64 CPU basteln,die sich hoch takten lässt. Nur hätten wir am Ende nix davon, wenn die Leistung geringer wäre als die jetzige.
Der PentiumIV war da schon recht krass...7-8 GHz haben einige erreicht und meistens setzte nicht die CPU, sondern die Kühlung das Limit, denn flüssiger Stickstoff ist ein bisschen unhandlich für zuhause. :)

reunion
2008-08-26, 08:36:58
Ein AMD-Mann hat das vor kurzem sehr schön dargelegt. Wenn ich den Artikel noch finde verlinke ich ihn nachträglich. Im Grunde ging es darum: Habe ich eine CPU die mit 2Ghz taktet und ich will die Leistung verdoppeln, kostet mich das durch eine Verdoppelung der Taktfrequenz locker 4-5x so viel Strom, schnalle ich eine zweiten Kern dazu kostet es max. das doppelte an Strom. In Zeiten immer wichtiger werdender Energieeffizienz ist es einfach nicht mehr sinnvoll die Taktraten noch weiter zu steigern. Daran ist ja letztlich auch der P4 gescheitert.

Avalox/Gast
2008-08-26, 09:30:38
Was ist daran bezeichnend? Bitte um Aufklärung.
Da stand, das selbst kleineren Modelle 1-2 Taktstufen höher gehen können,wenn zwei Kerne schlafen gelegt wurden.


Und noch höher wenn drei Kerne abgeschaltet werden.
Es ist halt so, dass das auch heute Anwendungen existieren, welche mit einem leicht höher getakteten Kern durchaus performanter sind, also mit 4 oder 2 mäßiger getakteten Kernen.
Es ist bezeichnend für die Situation der Migration in einen Manycore Umgebung, welche grade statt findet. ¾ der Chiplogik wird abgeschaltet, um den Rest höher getaktet betreiben zu können um daraus einen ganz praktischen Nutzen ziehen zu können.
Die Idee ist gut, allerdings auch ein kleines Eingeständnis, dass die Herausforderung an die Softwareerstellung nach wie vor besteht neue Multicore Plattformen adäquat zu unterstützen.

Avalox/Gast
2008-08-26, 09:42:21
In Zeiten immer wichtiger werdender Energieeffizienz ist es einfach nicht mehr sinnvoll die Taktraten noch weiter zu steigern. Daran ist ja letztlich auch der P4 gescheitert.

Dabei denkt niemand an das Strom sparen.
Man hat schlicht mit dem Anstieg der Verlustleistung nicht gerechnet. Davon war man mehr als überrascht. Man bekommt diese hohe Verlustleistung nicht gehandelt, was man noch optimistisch zuvor so betrachtet hat. Diese hohen P4 Verlustleistungen waren niemals geplant.

Strom sparend sind die aktuellen Manycores ja auch nicht. Da die umsetzbare Leistung mit dem Takt skaliert, aber eben mit den Anzahl der Kerne nicht.
Dort verbraucht ein Quadcore maximal im Extremfall 4x so viel Energie, wie ein vergleichbarer Singlecore liefert aber kein + an nutzbarer Rechenleistung.

Ectoplasma
2008-08-26, 22:49:23
Das dein altes Notebook noch so gut funktioniert liegt allein daran, dass die Software Hersteller um Jahre den Hardware Herstellern hinterher sind im Übergang von einer Single- auf einer Manycore Umgebung.

Aua! Der Satz schmerzt aber schon ein wenig, aber weißt du ja hoffentlich selbst.

Gast
2008-08-26, 22:57:26
Die Idee ist gut, allerdings auch ein kleines Eingeständnis, dass die Herausforderung an die Softwareerstellung nach wie vor besteht neue Multicore Plattformen adäquat zu unterstützen.

Ich sehe das als kein Eingeständniss, denn der Hintergrund war ein ganz anderer: Strom sparen!
Wenn du schon eh eine Stromspartfunktion integriert hast, die das abschalten von Kernen erlaubt, warum solltest du diese dann nicht zu deinem Vorteil nutzen?

Avalox
2008-08-26, 23:09:59
Wenn du schon eh eine Stromspartfunktion integriert hast, die das abschalten von Kernen erlaubt, warum solltest du diese dann nicht zu deinem Vorteil nutzen?

Eine Stromsparfunktion ist immer zum Vorteil des Benutzers.

Strom sparen ist zu deinen Vorteil. Und genau dieses tust du ja nicht, wenn du einen/zwei Kerne übertaktest. Die CPU verbraucht dadurch mehr Energie. Denn Performance ist zum Vorteil des Benutzers.

Nein, die Turbo Funktion tauscht Kern gegen Takt mit dem Ziel die Performance für den Benutzer zu erhöhen.
Deshalb heisst diese Funktion ja auch Turbo Funktion und nicht "geringere Stromspar-Funktion". Du schaltest 3/4 der CPU Logik ab übertaktest den Rest und erhälst in Anwendungsfällen die schnellere CPU, das ist die Turbo Funktion.

bloodflash
2008-08-27, 01:25:40
Einige Gründe für fehlende Frequenzsteigerungen wurden ja schon genannt, insbesondere die mangelnde Energieeffizienz oder die ersatzweise steigenden IPCs.

Bei der Energieeffizienz darf man aber nicht die nötige Wärmeabführung aus dem Auge verlieren, denn diese führt zu weiteren Kosten und Abstrichen bei der Ergonomie (Lautstärke) und Optik (klein, leicht...).

Grosse Lüfter und auch noch viele davon sind oftmals ein Grund für den Totalausfall (Mechanik, Staub) und zu hohe Lautstärke und verursachen so zusätzliche Kosten. Kühlermonster sind bei Material- und Platzverbrauch indiskutabel.
Das macht im kleinen schon viel aus, aber bei grossen Firmen läppert sich was zusammen. Man sollte auch im Hinterkopf behalten, dass grosse Gebäude in dieser Hinsicht auch auf Stromverbrauch und Dimensionierung der Klimaanlagen ausgelegt werden und da können durchscnittliche Steigerungsraten schon alte Gebäude als Büro aus dem Rennen werfen oder neue zu teuer machen. Man bedenke, dass manche Hochhäuser zehntausende Computerarbeitsplätze beherbergen können, plus Server!

Von Durchschnittstemperaturen jenseits der 40 Grad in manchen Ländern brauchen wir da gar nicht reden. Klar dort sind viele Büros klimatisiert, aber auch dort nicht überall (z.B. zuhause) und nicht unterwegs (Notebook).
CPUs und andere Chips sind nunmal ein weltweites Produkt.
BTW: Ich kann mir vorstellen, dass so manche CPU extra für den geografischen Einsatzort selektiert wird.


Ein ganz anderer Punkt sind chipinterne Latenzen.
Ich habe die genauen Zahlen nicht mehr im Kopf, aber bei einem 3GHz-P4 legt das Licht pro Taktzyklus AFAIR gerade mal 1cm zurück, also von einer Die-Seite zur anderen. Bei den verwendeten Materialien erreicht man noch nicht einmal c im Vakuum und Luftlinie ist meist auch nicht!
Das wird bei vergleichbaren Chipgrössen, aber steigender Komplexität immer mehr zum Problem.

Und das ist auch der Punkt: Die ganze Thematik wird immer komplexer - so ein Chipdesign hört ausserhalb des Packages nicht auf und man bewegt sich an den Grenzen der bekannten Physik.

Taktsteigerungen schienen mal ein einfaches Mittel zur Leistungssteigerung zu sein, jetzt sind es Parallelität und IPC. Die Chipentwickler sind gerade dabei alle 3 Grössen an ihre Grenzen zu bringen - jetzt ist es an den Softwareentwicklern, besonders den Compilerbauern und Softwarearchitekten, andere Paradigmen einzuführen.

Und Leistung wird immer mehr benötigt!
Das sieht man nicht nur bei Supercomputern, sondern auch beim Wald- und Wiesen-PC: Ob jetzt HD-Video, Games oder RAW-Fotos. Selbst die gemeine Desktopmetapher gerät langsam ins Wanken und einfache Grundfunktionen bei der Datendarbietung verlangen plötzlich ordentlich Rechenleistung, siehe so vermeintlich einfache Dinge wie Coverflow oder Multitouch.
So etwas in Verbindung mit der eigentlichen Programmlogik (die schon immer Rechner an die Grenzen brachte) und OnTheFly-Anzeige, während im Hintergrund dutzende Dienste andere Aufgaben erledigen, bringt von CPU über GPU, Speicher und HDD, Netzwerk und Peripherie alles bis zum Anschlag.

Mal sehen wie die nächsten Grenzen aussehen - bei der Fertigung ist man ja auch bald am Anschlag.

Gast
2008-08-27, 02:28:27
Strom sparen ist zu deinen Vorteil. Und genau dieses tust du ja nicht, wenn du einen/zwei Kerne übertaktest. Die CPU verbraucht dadurch mehr Energie.

Das ist ziemlich falsch was du sagst. Wenn du 1-2 Kerne mit 1-2 Taktstufen mehr laufen lässt und die anderen komplett abschaltest,so steht dir mehr Performance zur Verfügung, bei geringerer Verlustleistung. Es bringt dir nämlich gar nichts, wenn alle Kerne aktiv und nur zu 1/4 ausgelastet sind, denn herumidlen ist weitaus verschwenderischer. Außerdem sollen dies laut Intel auch die Leckströme minimieren.

Mino Osmon
2008-08-27, 02:45:59
Ein ganz anderer Punkt sind chipinterne Latenzen.
Ich habe die genauen Zahlen nicht mehr im Kopf, aber bei einem 3GHz-P4 legt das Licht pro Taktzyklus AFAIR gerade mal 1cm zurück, also von einer Die-Seite zur anderen. Bei den verwendeten Materialien erreicht man noch nicht einmal c im Vakuum und Luftlinie ist meist auch nicht!
Das wird bei vergleichbaren Chipgrössen, aber steigender Komplexität immer mehr zum Problem.


~300'000'000m/s : 3'000'000'000Hertz = ~10cm

Das Probleme dürfte weniger die Durchsatzgeschwindigkeit sein, als der Aufwand alle Datenströme chipintern zu synchronisieren.

m.sch
2008-08-27, 05:20:26
Ein AMD-Mann hat das vor kurzem sehr schön dargelegt. Wenn ich den Artikel noch finde verlinke ich ihn nachträglich.

Es könnte das gewesen sein (http://www.golem.de/0805/59793.html)

Avalox/Gast
2008-08-27, 08:47:41
so steht dir mehr Performance zur Verfügung, bei geringerer Verlustleistung.


Mehr(!) Performance du schreibst es. Die Verlustleistung is höher, als wenn du die Kerne nicht übertakten würdest und zweifelsohne niedriger, als wenn alle Kerne betrieben werden würden.

Wäre ein Kern deutlich höher getaktet, wären die andern Kerne schlicht nicht nötig. Mehr behaupte ich gar nicht. Stand heute kann keine Adäquate Leistung aus der Erhöhung der Anzahl der Cores umgesetzt werden. Erst deshalb machen solche Dinge wie die Takterhöhung überhaupt Sinn. Die Takterhöhung ist keine Maßnahme zu Strom sparen. Sie spart keinen Strom, sie verbraucht Strom. Die Maßnahme zum Stromsparen ist das abschalten der Kerne.


Es bringt dir nämlich gar nichts, wenn alle Kerne aktiv und nur zu 1/4 ausgelastet sind, denn herumidlen ist weitaus verschwenderischer.

Wen dem so wäre bräuchtest du nicht den Takt erhöhen, sondern nur die Kerne abschalten und kannst komplett Strom sparen. Aber dieses wird nicht getan. Vielmehr wird der durch die Abschaltung der Kerne genutzt Spielraum zur Takterhöhung genutzt, welche wieder mehr Strom verbraucht. Du nutzt den gesparten Strom, oder zumindest einen Teil davon nicht zum Betrieb von Kernen, sondern um die verbliebenen Kerne schneller zu betreiben.
Du wirst sehen, dass der i7 in vielen Anwendungen sogar performanter im Tubo Modus ist, als im regulären 4Kern Betrieb. Wie gesagt - “Turbo Modus“ ist der Name den Intel gewählt hat.

robbitop@work
2008-08-27, 09:20:37
Dann vielleicht mit 16 oder 32 Kernen, die aber weitaus simpler aufgebaut sind.
Aufgrund dessen, dass sich vieles nur in Grenzen bzw kaum parallelisieren lässt, ist eine reine Skalierung der Ausführungseinheiten in der CPU nicht der richtige Weg. Es müsste schon noch 4 - 8 Kerne in der CPU geben, die eine ordentliche IPC haben und auch etwas komplexer sein dürfen. Die restliche Kernfläche kann man dann mit simplen (SIMD-)Ausführungseinheiten vollpflastern, bis der Arzt kommt.

roidal
2008-08-27, 10:04:34
"Wenn ich einen Prozessor nehme, der 100 Prozent Leistung und 100 Prozent Stromverbrauch hat, und dann die Taktrate um 20 Prozent nach oben drehe, steigt der Stromverbrauch quadratisch, und zwar um 73 Prozent....
Ich dachte immer der Stromverbrauch steigt linear zur Frequenz, und quadratisch zur Spannung?

AnarchX
2008-08-27, 10:11:29
Aufgrund dessen, dass sich vieles nur in Grenzen bzw kaum parallelisieren lässt, ist eine reine Skalierung der Ausführungseinheiten in der CPU nicht der richtige Weg. Es müsste schon noch 4 - 8 Kerne in der CPU geben, die eine ordentliche IPC haben und auch etwas komplexer sein dürfen. Die restliche Kernfläche kann man dann mit simplen (SIMD-)Ausführungseinheiten vollpflastern, bis der Arzt kommt.
Dahin wird wohl auch Intels Haswell in 2012 gehen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=428087

Von den Taktraten wird man wohl bis 2010 bei Intel durchaus die 4GHz sehen, welche wenn Intel den Turbo Mode bei Sandy Bridge umsetzen kann wie geplant, für kurze zeitkritische Anfragen bei einer gut gekühlten Plattform auf über 5GHz steigern wird.

Coda
2008-08-27, 12:35:02
Ich dachte immer der Stromverbrauch steigt linear zur Frequenz, und quadratisch zur Spannung?
Ja stimmt auch. Was er meint ist dass die Leckströme zum Problem werden wenn man überall Transistoren verwendet die so hohe Performance haben.

roidal
2008-08-27, 12:52:46
Ja stimmt auch. Was er meint ist dass die Leckströme zum Problem werden wenn man überall Transistoren verwendet die so hohe Performance haben.

Daran hab ich jetzt nicht gedacht :D Thx!

mboeller
2008-08-27, 13:15:20
schmück ich mich mal mit fremden Federn:

Link:
http://www.vdi-nachrichten.com/vdi-nachrichten/aktuelle_ausgabe/akt_ausg_detail.asp?cat=2&id=39630&source=aktuelle_ausgabe


Silizium erreicht die Grenzen der Verkleinerung

Mit der 60-nm-Cmos-Generation erreichten die Chipbauer eine intrinsische Laufzeitverzögerung von 1,5 ps. Doch die Ingenieure ahnten schon, dass sie damit ausgereizt hatten, was physikalisch möglich ist. In der Tat zeigten Extrapolationen auf 40 nm und darunter für Cmos-Schaltungen keine Reduktion der Laufzeitverzögerungen mehr. Anders gesagt: Die Schaltungen können vielleicht noch kleiner werden, aber nicht mehr schneller. Und dann hätte das weitere Shrinken kaum mehr technische Vorteile.

Gast
2008-08-27, 14:09:19
~300'000'000m/s : 3'000'000'000Hertz = ~10cm

Das Probleme dürfte weniger die Durchsatzgeschwindigkeit sein, als der Aufwand alle Datenströme chipintern zu synchronisieren.

Hallo,

die elektrischen Signale sind aber "nur" 200.000.000 m/s schnell,

ergo bei 3 GHz etw 6,6 cm/s ud bei 4 GHz nur 5 cm/s und das wird langsam problematisch.

Wuge
2008-08-27, 18:04:07
@mboeller

Das wusste ich noch nicht. Aber mn verwendet ja nicht nur Silizium für die Transistoren...

Und selbst wenn die Transistoren nicht mehr schneller werden, so werden zumindest die Wege kürzer, die das Signal zurück legen muss.

BlackBirdSR
2008-08-27, 18:39:34
@mboeller

Das wusste ich noch nicht. Aber mn verwendet ja nicht nur Silizium für die Transistoren...

Und selbst wenn die Transistoren nicht mehr schneller werden, so werden zumindest die Wege kürzer, die das Signal zurück legen muss.

Gemeint ist auch nicht das Silizium selbst, sondern die Schaltung. Die besteht natürlich aus mehr als nur dem Silizium-Channel unter dem Gate.

Allerdings liegst du falsch. Die Wege werden nicht kürzer, das ist das Problem. Die Leitungen mögen zwar schrumpfen, die Anzahl an Verdrahtungen und Mettallagen nimmt allerdings stark zu. Das lässt sich nicht mit einem Prozess-Shrink kompensieren. Daher die Laufzeitproblematik.

Gast
2008-08-27, 19:03:56
Mehr(!) Performance du schreibst es.

Nein. Das schrieb weder ich, noch Intel.

Es steht dir mehr Leistung bei Singlethreaded Anwendungen zur Verfügung, jedoch weniger Leistung im ganzen. Es werden 1-2 kerne abgeschaltet, dafür laufen dann 1-2 mit leicht höheren Taktraten. Die Gesamtperformance sinkt, die Singlethreades Performance steigt und der Stromverbrauch sinkt auch, weil die überflüssigen Kerne komplett stillgelegt werden und nicht unnötig vor sich herumidlen, wie sie es bisher getan haben.

Die Verlustleistung is höher

Nein, das ist sie nicht. Wenn du deinen Quadcore um 1-2 Taktstufen im Takt erhöhst, ohne an der Vcore herumzuschrauben, dann wirst du nur geringe Steigerungen in der Verlustleistung sehen können. Denn die steigt mit dem Takt weniger als mit der Spannung. Und da ja auch zwei Kerne abgeschaltet wurden, die vorher Strom gefressen u. Leckströme verursacht haben, wird ein Verbraucher der bisher da war abgeschafft für diesen Zeitraum.

Oder um es anders auszudrücken: Ich erhöhe lieber zwei Kerne um 15% im Takt bei standardspannung, als das ich zwei weitere Kerne mit voller Taktrate von 2,66-3,2 GHz und bei voller Vcore dazu schalte.

Avalox
2008-08-27, 19:46:26
Nein. Das schrieb weder ich, noch Intel.

Es steht dir mehr Leistung bei Singlethreaded Anwendungen zur Verfügung

Nein. Dieses Plus an Leistung durch die Takterhöhung eines bzw. beider Kerne steht dir bei jeder Anwendung zur Verfügung. Völlig egal ob single- oder multithreaded.



jedoch weniger Leistung im ganzen.


weniger potentielle, aber nicht allgemein nutzbare Leistung. Takterhöhung => allgemein nutzbare Mehrleistung. Kerneranzahl Erhöhung => speziell nutzbare Mehrleistung.


Nein, das ist sie nicht. Wenn du deinen Quadcore um 1-2 Taktstufen im Takt erhöhst, ohne an der Vcore herumzuschrauben, dann wirst du nur geringe Steigerungen in der Verlustleistung sehen können. Denn die steigt mit dem Takt weniger als mit der Spannung.


Bei der verwendeten Technik wird der Energie Bedarf für den Anwendungsfall genau linear steigen. Was bei dem Takt rund 30% ausmachen wird.



Oder um es anders auszudrücken: Ich erhöhe lieber zwei Kerne um 15% im Takt bei standardspannung, als das ich zwei weitere Kerne mit voller Taktrate von 2,66-3,2 GHz und bei voller Vcore dazu schalte.



Ich erkenne den Hintergrund deiner Denke. So ist es aber nicht.

Es gibt ein minimal Prinzip. Du willst eine bestimmt Leistung erreichen und dieses mit minimalen Aufwand.
Dann gibt es ein maximal Prinzip. Mit einen bestimmen Aufwand willst du das maximale an Leistung erzielen.
Dazwischen gibt es nichts.

Du kannst nicht gleichzeitig sagen, ich möchte für weniger Geld das meiste haben. Das ist zwar eine ganz praktische und weit verbreitete Forderung, aber dieses ist immer eine Kombination der beiden erstgenannten elementaren Prinzipien.

Deshalb ist der Turbo Modus auch kein Energiesparmodus. Du verbrauchst dort mehr Energie, als im reinen Energiesparmodus ohne Takterhöhung.
Der Turbo Modus ist der praktische Ansatz der Kombination der beiden o.g. Prinzipien. Er ist damit praktisch, weil er für den tatsächlichen Anwendungsfall einen Vorteil bietet. Er spart Energie und ist schneller. Aber nur dieses weil die vorhandene Software heute die potentielle Leistung des Manycores nicht umsetzen kann.
Der Tubo Modus ist ein Philosophiewechsel. Ein Tausch Kern gegen Takt und der Belegt, dass dieser Tausch Vorteile hat bei aktueller Software immer noch Vorteile hat.

Gast
2008-08-27, 20:08:13
Nein. Dieses Plus an Leistung durch die Takterhöhung eines bzw. beider Kerne steht dir bei jeder Anwendung zur Verfügung. Völlig egal ob single- oder multithreaded.

Nein, das hast du falsch verstanden. Diese Leistung wird auf auf Kosten der abschaltung von 1-2 Kernen erreicht.
Multithreadinganwendungen können daher sogar langsamer werden, weil diese vorher auf bis zu 4 Kerne laufen konnten. Das war jedoch nie das Ziel. Es ging darum, in Zeiten, an denen nur wenig Performance gebraucht wird, diese über eine höhere Taktrate weniger Kerne zu erreichen und so gleichzeitig den Stromverbrauch niedrig zu halten.

Dein Vergleich ist daher extrem unpassend. Wenn ich zwei Kerne abschalte und so prinzipiell nur noch einen Duo mit höherer Taktrate habe, so ist dieser sparsamer und teilweise schneller bei den Anwendungen die es beschleunigen soll und genau das wollten die damit erreichen.

Vergleich doch mal den Stromverbrauch zwischen z.B. 3 GHz Duos und 2,66 GHz Quads, wenn du nur 1-2 Kerne davon brauchst.

Neben dem Stromspareffekt wird auch die Temperatur erheblich gesenkt, denn mein Quad hat selbst im Idle noch weitaus höhere Temperaturen als meine Duo`s zuvor, selbst wenn die Taktraten nicht mal gleich sind.

Avalox
2008-08-27, 20:25:10
Es ging darum, in Zeiten, an denen nur wenig Performance gebraucht wird, diese über eine höhere Taktrate weniger Kerne zu erreichen und so gleichzeitig den Stromverbrauch niedrig zu halten.


Ja, weil es ein Eingeständnis von Intel (stellvertretend) ist.

Es ist immer das bessere Prinzip die Taktrate für eine höhere Performance zu erhöhen.
Ein Manycore hat demgegenüber gar keinen Vorteil, ausser den klitzekleinen Vorteil, dass er technisch realisierbar ist, eine Takterhöhung im benötigten Umfang aber nicht.
So einfach ist das.

Der i7 wechselt seine Ausrichtung in das veraltete Konzept, um daraus für den Benutzer einen Vorteil zu erlangen. Deshalb ist er bezeichnend für die gesamte heutige Situation, in der die Software Hersteller den guten alten Zeiten nachtrauern und mit der neuen Welt noch nicht sonderlich viel anfangen können.

Gast
2008-08-27, 20:41:37
Ja, weil es ein Eingeständnis von Intel (stellvertretend) ist.

Wir wissen alle das du AMD lastig bist, was du bereits in einem anderen Thread zum besten gegeben hast. Hier gehst du aber zu weit - Trollen.

Du verstehst jedoch einfachste Zusammenhänge nicht. Mit Intel hat das gar nichts zu tun, denn das gleiche Problem gibts auch bei AMD - Bingo.
Es ist die Software und die hat mit den CPU machern' nichts zu tun.

Das Feature ist nicht dazu gedacht, bereits auf Multithreading ausgelegte Programme zu beschleunigen, denn das geht eh nicht, ein Videocodec der problemlos vier Kerne auslasten kann, wird durch das abschalten von zwei Kernen niemals schneller... :hammer:

Sondern es geht einzig und allein darum, Kerne, die brach liegen abzuschalten und diesen Spareffekt gleichzeitig in Mehrleistung für nicht darauf ausgelegte Software umzumüntzen.

Siehe: http://www.computerbase.de/news/hardware/prozessoren/intel/2008/august/idf_nehalems_stromspar-_turbo-modi/ mit Diagrammen...
Gesteuert wird das ganze von der Power Control Unit, die in Echtzeit Stromstärke, Spannung, Leistungsaufnahme und Temperatur überwacht und mit entsprechenden Algorithmen die für die aktuelle Last in Bezug auf Leistung und Energieeffizienz optimalen Betriebsbedingungen ermittelt, d. h. die Anzahl der benötigten Kerne sowie deren Takt kontrolliert.

Arbeitet eine Anwendung beispielsweise nur mit einem oder wenigen Threads, können entsprechend einige der Kerne in den C6-State versetzt und dafür die übrigen in kürzester Zeit und für die Software ersichtlich automatisch (innerhalb des TDP-Fensters) übertaktet werden. Dabei soll auch die Betriebsspannung variabler ausfallen als bisher.

Wenn dir das nun nicht gefällt, dann ist das dein Problem, sei aber nicht so ignorant und verkenne die Tatsachen, die mehr als eindeutig sind.

Avalox
2008-08-27, 20:54:40
Wir wissen alle das du AMD lastig bist, was du bereits in einem anderen Thread zum besten gegeben hast. Hier gehst du aber zu weit - Trollen.



Ich habe stellvertretend hinter Intel (sogar von dir mit ins Quote übernommen) geschrieben. Ist nun mal Intel welche die Funktion TurboMode im Marketing bewerben.
Klar ist es ein generelles Problem, dass alle Hersteller betrifft.


Sondern es geht einzig und allein darum, Kerne, die brach liegen abzuschalten und diesen Spareffekt gleichzeitig in Mehrleistung für nicht darauf ausgelegte Software umzumüntzen.


Dazu habe ich Dir schön oben erklärt, dass dieses "Arme ohne Kekse" sind.

Gute Funktion, aber ein fundamentales Eingeständnis zumindest an eine unzureichende Softwareunterstützung des aktuellen Weges des Manycores.

Ich habe immer mehr den Eindruck, dass wen hier jemand was nicht verstehst, dass du es bist der nicht versteht, dass ich hier überhaupt nichts gegen Intel schreibe. Ganz im Gegenteil; gute Lösung der Turbo Mode.

Gast
2008-08-27, 21:20:37
Klar ist es ein generelles Problem, dass alle Hersteller betrifft.

Deswegen kann`s auch kein Eingeständniss sein. Das hast du aber geschrieben.

Die meiste Software auf dieser Welt wird nunmal nicht von Intel geproggt.

Avalox
2008-08-27, 21:33:29
Deswegen kann`s auch kein Eingeständniss sein. Das hast du aber geschrieben.

Die meiste Software auf dieser Welt wird nunmal nicht von Intel geproggt.

Es ist ein Eingeständnis, dass der Weg des Manycores generell suboptimal ist und nur in der technischen Handhabung begründet liegt.
Es ist nicht die schöne einfache Zukunft, es ist eine Zukunft welche erstmal hart erarbeitet werden muss. Es ist das deutliche Eingeständnis, dass die bunte weiter Welt der Werbeversprechen nur Blasen waren.
Die Erhöhung der Anzahl von Kernen ist kein adäquater Ersatz für eine nicht mehr mögliche Erhöhung der Taktraten. Es ist ein umständlicher, extrem aufwendiger und nie die Maßnahmeneffizienz erreichender Notbehelf. Grade noch hinnehmbar in einer Situation, mal komplett unakzeptabel in anderen.

Und dieses ist das Thema des Threads.

Gast
2008-08-27, 21:43:42
Es ist ein Eingeständnis, dass der Weg des Manycores generell suboptimal ist und nur in der technischen Handhabung begründet liegt.

Das sehe ich anders. Wie kann es ein Intel-Eingeständniss sein, wenn die anderen wie AMD oder IBM diesen Weg ebenso gehen?

Ein Eingeständniss wäre es, wenn sie von den bisherigen Planungen abstand nehmen und was komplett neues entwickeln. Das tun sie aber nicht. Sie gehen immer noch weg des Multicores und haben ihn lediglich durch Zusatzfunktionen erweitert. Ist das hinzufügen von SSE4.2 z.B. auch ein Eingeständniss das die CPU schrott ist? Sicherlich nicht. ;)

Wenn mit einfachen Aufwand Leistungssteigerungen erzielt werden können, wieso sollte man sie ungenutzt lassen? Selbst wenn jegliche Software optimiert wäre, es wird immer noch Anwendungen geben, die schlechter skalieren als andere und genau da nützen solche Funktionen.

pest
2008-08-27, 22:12:22
Du kannst nicht gleichzeitig sagen, ich möchte für weniger Geld das meiste haben.

Aus Optimierungssicht schon. Auch Probleme mit mehreren "Zielfunktionen" kann man lösen wie z.b. Reinungsmittel mit maximaler Reinungswirkung bei minimaler Reizwirkung (obwohl sich das gegenseitig ausschließt)