PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Das Ende des Gigaherzwahns?


Seiten : 1 [2]

Tesseract
2010-11-08, 22:49:42
Gigaherz bedeutet nix anderes als eine Milliarde Operationen pro Sekunde, ne CPU mit 4 GHz hat 4 Milliarden Operationen, und ne CPU mit 4 Kernen mit jeweils 4 GHz macht dementsprechend 16 Milliarden Operationen, also kann man 16 GHz dazu sagen.
das ist schlicht und ergreifend falsch. Hz ist der takt der CPU und hat nur indirekt mit den operationen zutun. du kannst rechenwerke bauen, die pro takt eine operation schaffen, die pro takt mehrere operationen schaffen und es gibt operationen, die mehrere takte brauchen. und da wurden so konstrukte wie pipelines, caches usw. noch garnicht berücksichtigt.
deine vorstellung einer CPU ist einfach falsch.

Das es leider zigTausend Programmier gibt die zu dumm (oder nicht genug Zeit, oder nicht genug Geld oder oder) sind diese Speed auch auszunutzen, ändert nix daran das die CPU technisch gesehen 4* mehr Berechnungen pro Sekunde ausführen kann.
du kannst nicht jedes problem beliebig threaden. und zwar nicht nur praktisch nicht sondern theoretisch nicht. da kannst du so viel manpower und geld reinbuttern wie du willst.

eine kleine analogie um das problem zu verdeutlichen:
angenommen, du betreibst einen botendienst mit 50 lieferwagen, wobei jeder eine maximalgeschwindigkeit von 160 km/h fährt. deiner logik nach müsstest du mit allen 50 wagen zusammen ein paket in einer stunde 8000 kilometer bis nach china transportieren können wenn du sie nur gut genug einteilst. jetzt erklär mir bitte mal wie du das machen willst.

PS: selbst bei komplett nebenläufig bearbeitbaren problemen gilt die rechnung nicht weil da noch die threadverwaltung dazu kommt.
du kannst zwar code schreiben, der auf 4 kernen genau 4x so schnell läuft wie auf einem, der code läuft auf einem dann aber unoptimierter als nötig.

Headjunkie
2010-11-09, 01:27:50
@Tesseract
Warum glauben hier eigentlich immer soviele, dass nur Idioten hier rumrennen? Ich dachte nen gewisses Grundlevel kann vorausgesetzt werden in einem "Fach-"forum...

Ich weiss nicht nur genau wie CPUs funktionieren, sondern auch noch einiges mehr. Falls es dir etwas sagt, ich werde für Logic Design bezahlt, und jetzt rate mal wer CPUs designt....Ausserdem war ich bei einem Halbleiterhersteller für Fehleranalyse von ReturnChips, einem anderen Hersteller im Testengineering und zwischendurch noch an der Uni für FPGA orientiertes design bezahlt, ich glaube also ne ungefähre Vorstellung von dem Zeug zu haben, also geh und nerv bitte wen anderen mit solchen dummen Vergleichen:

Dein Beispiel ist absoluter Blödsinn, du redest schon wieder von der Anwendung. 50 Lastwagen können 50* soviele Waren transportieren wie 1 Lastwagen. Ob es möglich ist jede Ware auf 50 Pakete aufzuteilen ist eine davon völlig unabhängige Frage, die Lastwagen existieren trotzdem.

Das gleiche gilt bei MehrkernCPUs, sie können pro Zeiteinheit nunmal 2,4 oder 6 Operationen im Vergleich zu einer EinkehrnCPU desselben Types ausführen. Ob die Programmierer des OS, der Treiber, der Software und der Spiele es hinbekommen dieses mehr an gleichzeitigen Operationen zu nutzen ist davon unabhängig.

Und weil bei multithreading immer ein wenig Verlust dank Verwaltung entsteht hatte ich dies geschrieben:


4 Kerne a 4 GHz können im Idealfall nunmal knapp 400% mehr Leistung bringen als der einzelne Kern.
Wer lesen kann ist klar im Vorteil...

Hoffe des war jetzt eindeutig genug...

Tesseract
2010-11-09, 03:34:23
Warum glauben hier eigentlich immer soviele, dass nur Idioten hier rumrennen?
ganz einfach: weil du einen haarstäubenden unsinn geschrieben hast.


Und weil bei multithreading immer ein wenig Verlust dank Verwaltung entsteht
"ein wenig" kann durchaus ein vielfaches des eigentlichen rechenaufwandes sein und ein programm, dass alle 4 cores zu 100% auslastet doppelt so lange brauchen wie das äquivalente programm singletreaded, wenn man ungeschickt programmiert hat.

Dein Beispiel ist absoluter Blödsinn, du redest schon wieder von der Anwendung..
du warst es, der angefangen hat von der anwendung zu reden:
Das es leider zigTausend Programmier gibt die zu dumm (oder nicht genug Zeit, oder nicht genug Geld oder oder) sind diese Speed auch auszunutzen
dass ein quadcore theoretisch 4 mal so viele operationen ausführen kann hat nie jemand bestritten. dennoch ist dein vergleich 10GHz singlecore zu 4x2,5GHz vollkommen daneben.

CamRon
2010-11-09, 11:28:15
die kerne skalieren schon zu 100% im idealfall, weil die rechenleistung ja nicht auf 1 programm bezogen sein muß. Bei X kernen und x programmen kommt man eben auf X mal 100% im idealfall.


Leider aber nicht in der Realität. Das liegt daran, dass Rechenschritte nicht beliebig modularisierbar und parallelisierbar sind. Du hast grundsätzlich den Fall, dass eine Berechnung nicht mehr weiter in andere Schritte unterteilbar ist (beispielsweise a = b + c). Da nützen dir zusätzliche Kerne leider gar nichts.

=Floi=
2010-11-10, 00:07:54
du hast es nicht verstanden.
lass bei einem quadcore 4 programme laufen, welche 100% auslastung erzeugen und du hast 4x die leistung gegenüber eines singlecore prozessors. wenn du die anzahl der PROGRAMME erhöhst hast du theoretisch unendlich skalierungsmöglichkeiten. DAS ist doch der große vorteil, weil eine cpu merere ersetzen kann und mehrere programme gleichzeitig unabhängig voneinander laufen können.

böser Wolf
2010-11-10, 14:50:45
Das mag wohl so sein, nur ist dies ein sehr spezieller Fall - Anzahl der Programme = Anzahl der Kerne.
Dem gegenüber sind 1x 16 Ghz statt 4 x 4 Ghz in jedem Fall ca. 4x so schnell.

ROXY
2010-11-10, 16:34:19
hardwareleistung wird nur dann hochgeschraubt wenn es auch anwendungen gibt die das benötigen.

also im moment sind spielehersteller nahe dem maximum des finanziell möglich machbaren (budget-entwicklungssummen von einigen spielen sprengen alle rekorde).
denke das hier der aufwand bzgl. der grafik in den nächsten jahren eher abflachen wird und man sich wieder vermehrt dem inhalt witmen wird.

ohne neuer technologie braucht man nicht mehr leistung.

der nächste schub wird kommen wenn sich virtuelle 3D räume grossflächig verbreitet haben.
so 2020 in etwa denke ich :D


um 2000 herum war ja digitale videobearbeitung mitunter ein grosser faktor für die entwicklung von schnelleren cpus für den massenmarkt.
heutzutage reicht aber jede 20€ popel-cpu aus um "normale" digitale videobearbeitung des urlaubsvideos selbst in HD durchzuführen.

sieht man auch am trastischen preisverfall in diesem gebiet ... high end videohardware ist schnee von gestern. braucht kein mensch mehr.

selbige gilt für die audiotechnik ... du kannst 20-30-40 spuren in echtzeit aufnehmen und sie per kabelinternetleitung mit nur 50 ms latenz zwischen europa und australien synchronisieren.


unterm strich ist der derzeitige markt zwischen 2010 und 2020 eher am softwareoptimierungsgebiet zu finden und nicht so sehr am hardwaresektor.
eine schlecht programmiert/optimierte anwendung läuft auch auf der besten hardware nicht zufriedenstellend.

-tk|doc-
2010-11-10, 17:16:48
denke das hier der aufwand bzgl. der grafik in den nächsten jahren eher abflachen wird und man sich wieder vermehrt dem inhalt witmen wird.



Schön wärs. Bis ne neue Konsolengen kommt, wird sich kaum was an den Engines ändern.
Evtl. wird es sogar eher wieder schlimmer in Punkto Grafik, da für Kinect und Move eher Wii-ähnliche Casual-Daddel-Games entwickelt werden mit der die breite Masse erreicht werden soll.

Aber ich wäre auch lieber für hochwertigere Spiele die einen inhaltlich fesseln, anstatt pure Grafikleistung.

ciao Phil

CamRon
2010-11-11, 10:16:40
du hast es nicht verstanden.
lass bei einem quadcore 4 programme laufen, welche 100% auslastung erzeugen und du hast 4x die leistung gegenüber eines singlecore prozessors. wenn du die anzahl der PROGRAMME erhöhst hast du theoretisch unendlich skalierungsmöglichkeiten. DAS ist doch der große vorteil, weil eine cpu merere ersetzen kann und mehrere programme gleichzeitig unabhängig voneinander laufen können.

Okay, mein Beispiel ist falsch hierfür. Ich hätte gründlicher lesen sollen ;)

Unendliche Parallelisierbarkeit wirst Du aber dennoch nicht erreichen. Selbst in diesem Falle nicht. Erstens müsstest Du alle Bandbreiten entsprechen parallel auslegen (FSB, Mem, Caches, etc.) und zweitens müsstest Du dafür sorgen, dass die Kerne nicht mehr untereinander kommunizieren, da die Interaktion nicht linear mit den Anzahl der Kernen ansteigt. In der *Universal Scalability Theory* wird das ganze *Concurrency* genannt.

Als Beispiel wo übrigens auch applikationsseitig Abhängigkeiten sind: Die OS Kernel Tasks kann man nichtunendlich weiter modularisieren. Alle Systemaufgaben wären weiterhin ein *Block* der weiterhin mit einem viertel der Leistung abläuft (vergleich 4x3 Ghz zu 1x12 Ghz). Beispielsweise kannst Du das Usermanagement, dass Du für alle Applicationen brauchst nicht unendlich in kleine Aufgaben unterteilen.

Immer mehr parallel ablaufende Prozesse müssen vom OS verwaltet werden und je mehr es werden, desto aufwändiger wird die Verwaltung. Dieser Effekt ist ebenfalls nicht linear.

Das mag sein, dass die Effekte klein sind- es widerspricht aber der unendlichen Skalierbarkeit und mit der Erhöhung der Prozessorkerne werden diese Effekte immer größer.

Simon Moon
2010-11-11, 16:48:31
Fassen wa zusammen, die GHz Sprünge sind doch ganz beachtlich, aber halt nur sichtbar für Leute die Multiplikation beherschen (-:

Nein, auch für Leute die Multiplikation beherrschen sind die GHz Sprünge nicht beachtlich. Beachtlich ist höchstens die Leistungssteigerung. Aber GHz ist und bleibt die Anzahl Schwingungen pro Sekunde - Siehe Hertz (http://de.wikipedia.org/wiki/Hertz_%28Einheit%29), einer SI Einheit die klar definiert ist.

Das ist ein himmelweiter Unterschied: Sowohl was die Fertigung betrifft, als auch die Programmierung in Theorie und Praxis.

ROXY
2010-11-22, 03:27:41
ich finde apple hat in der letzten jahren die "sinnvolleren" erneuerungen gebracht.
was bringt dir die tolle hardware wenn das betriebssystem nicht viel bietet?

gerade der punkt usability ist auf der windows schiene samt der nicht vorhandenen "oberflächlichen" steuerung von systemhardware total unzumutbar.

ich meine z.b. so dinge wie apples time machine wären für mich schon zu 90% ein entscheidungspunkt bei office computern.
http://www.youtube.com/watch?v=u48lKpHHN-s&feature=channel

schlussendlich zählt für mich nicht mehr so sehr der hardwarefokus.

durchdachte systemanwendungen und optimierungen "verfeinerungen" sind viel viel viel wichtiger und genau da tut sich bei windows und 90% der erhältlichen windows bloatware absolut nichts.
ob man nun 3 GHz oder 10 GHz hat ändert daran auch nichts.

Nightspider
2010-11-22, 03:47:39
Dafür laufen Spiele auf Apple Produkten mies. :D

FeuerHoden
2010-11-25, 00:20:32
Was ist daran eigentlich so schwer?
Gigaherz bedeutet nix anderes als eine Milliarde Operationen pro Sekunde, ne CPU mit 4 GHz hat 4 Milliarden Operationen, und ne CPU mit 4 Kernen mit jeweils 4 GHz macht dementsprechend 16 Milliarden Operationen, also kann man 16 GHz dazu sagen.

Das ist so ein kompletter Unsinn das man gar nicht weiß wo man anfangen soll.
Noch dazu in dem Tonfall und dieser Art.

Ein x86 Prozessor braucht je nach Pipeline ~15-35 Takte um einen Befehl abzuarbeiten, im Idealfall! Dann gibt es Operationen die auf den Ergebnissen anderer Operationen aufbauen, das nennt man dann 'linear'. Da kannst du noch soviele Kerne haben. Viele Probleme lassen sich nur Linear lösen weil mehrere Rechenschritte notwendig sind die auf den vorherigen Ergebnissen aufbauen, da kannst du nichts parallelisieren.

Noch dazu wenn du zwischenergebnisse in den Speicher auslagern und wieder auslesen musst, da vergehen Ewigkeiten.


Man kann doch zumindest mal eine Wikipedia Seite aufschlagen, oder?

frankkl
2010-11-27, 16:28:04
Wenn man sich die Prozessor ankündigungen für das nächste Jahr so anschaut,
sind im Jahr 2011 nur geringe MHz steigerungen vorhanden ;D

- Pentium G820 ~ 2x 2600 MHz
- Pentium G840 ~ 2x 2800 MHz
- Pentium G850 ~ 2x 2900 MHz

- Core i3-2100 ~ 2x 3100 MHz
- Core i3-2120 ~ 2x 3300 MHz

- Core i5-2300 ~ 4x 2800 MHz
- Core i5-2400 ~ 4x 3100 MHz
- Core i5-2500 ~ 4x 3300 MHz

- Core i7-2600 ~ 4x 3400 MHz



Übigends bin ich richtig froh diesen Monat noch knapp 120 Euro in einen Core 2 Quad Q8300 investiert zuhaben !


frankkl

Nightspider
2010-11-27, 16:49:55
Dieses Jahr kommt noch ein 3,6 Ghz 6-Kerner, der wohl bis zu 3,86Ghz mit Turbo schafft.

Die ersten Sandy Bridges Anfang 2011 kommtn bis zu zu 3,8 Ghz Turbo und höhergetaktete Modelle folgen garantiert noch.

Wieso bist du froh, 120 Euro in eine alte CPU gesteckt zu haben?

Effienz ist bei den neuen CPUs um 20-50% höher (mit SMT) als bei nem alten Q8300, haben wesentlich höhere Taktraten und einen angemessen niedrigen Stromverbrauch.

frankkl
2010-11-27, 18:13:12
Mir reicht die Leistung des Q8300 für die nächsten Jahre :)

Es gibt keine Vierkern Prozessoren mehr ohne den unnützen Kram wie z.b. TurboMode , integrierte Grafik HD2000
und die Vierkern Prozessoren sind bei den Sandy Bridge-CPU nicht mehr so preiswert (ab $177 für einen Core i5-2300 ~ 4x 2800 MHz).

frankkl

rm-zocker
2010-11-27, 19:11:26
ich sehe das genauso.mein c2q 9550 @3,33 ghz wird auf jedenfall auch noch im nächsten jahr locker ausreichen :) wenn ich was wechsel dann ist es die grafikkarte.meine gute alte xfx 260gtx be wird anfang nächsten jahres gegen eine gtx 560 getauscht :).das wars dann aber auch schon mit dem aufrüsten für 2011 :)
bin froh das die zeit,in der jeden monat schnellere cpus erschienen sind,vorbei ist.das ging immer ziemlich auf den geldbeutel :).

frankkl
2010-11-27, 20:24:51
Meinen Sockel 775 Pentium E2180 mit 2x 2000 MHz vom November 2007 habe ich nach drei Jahren jetzt ersetzt
durch einen Core 2 Quad Q8300 mit 4x 2500 MHz.

Aufrüsten werde ich jetzt noch mit einer USB 3.0 PCIe Karte,einen guten leisen CPU Kühler/Lüfter
und mittelristig dann eine SSD mit rund 120 GB wenn sich die Preise normalisien.

Also könnte im Jahr 2013/2014 mein neuer Prozessor kommen,
ob es dann vielleicht 8x 3000 MHz oder oder 4x 4200 MHz werden bin ich mir noch nicht sicher :rolleyes:

frankkl

ROXY
2011-01-05, 14:09:01
Das Ende des Gigaherzwahns?


das ende der cpu

http://www.youtube.com/watch?v=MDqaYrn-m2I

frankkl
2011-01-08, 16:21:17
das ende der cpu

http://www.youtube.com/watch?v=MDqaYrn-m2I
Lese immer das ende der GPU ,
den in (fast) jeder neuen CPU (z.b. Sandy Bridges,Ivy Bridge) steckt jetzt ein Grafikkern :confused:

Habe mein Sockel 775 System mit 4x 2500 MHz ergänzt mit einer AsRock USB 3.0 Card und einen Noctua NH-U12P SE2 brauche also frühstens 2013 ein neues System,
wo geht der trend hin wird man dann eine 8x 3000 MHz oder oder 4x 4200 MHz CPU kaufen.