PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Aus 2001 "Im Jahr 2010 ist mit dem 1-TIPS-Prozessor zu rechnen mit 10-30 GHz"


harrs34
2008-09-12, 15:27:04
Hallo ich habe gerade eine C`t von 4/2001 in der Hand.

Bei Prozessorgeflüster wird der damalige Chief Technology Officer Pat Gelsinger von Intel zitiert.
Der sagt das es im Jahr 2010 Prozessoren mit 1-10 Milliarden Transistoren gibt.. Mit einer Leistung von 1-TIPS (Tera Instructions per seconds) und mit 10-30 Ghz..
Aber auch das die Prozessoren ca 600 Watt verbrauchen werden..

Wieso lag der so daneben..:confused:

Vorallem sagt der die 1-TIPS CPU ist "fest im Visier"

Wieso gabs damals den 4Ghz Pentium 4 und heute nur 3.2 Ghz.. nach 7 Jahren..

Naja nach moores Law hat der wenigstens bei einer Sache recht.. der heutige Intel Qx9700 hat ja 490 Millionen Transistoren plus 18 Monate ist ca 2010, dann hat der neuste Prozessor ja fast eine Milliarde Transistoren..
Aber der Qx9700 hat nur 59 Mips... und das nur wenn die Software alle 4 Kerne nutzt..

Das ist nur ein zwanzigstel dessen was die CPU im Jahr 2010 leisten soll..

Liegt es nur an den Hitze Problemen ??

kevsti
2008-09-12, 15:37:35
Imho ist Hitze eher ein kleineres Problem (Welcher CPU lässt sich schon nicht mehr übertakten weil er zu heiß wird? - gute Kühlung vorausgesetzt) problematischer sind die ganzen Leckströme etc... kenn mich da so genau auch nicht aus... jedenfalls hatte Intel ja damals die Netburst Architektur entwickelt, um sehr hohe Taktraten zu erreichen, aber am ende (einige Zeit NACH 2001) mussten sie einsehen das es einfach zu viele andere Probleme gibt, die sie einfach nicht zufriedenstellend lösen konnten...

Zudem steht in der Aussage ja scheinbar rein gar nix dadrüber ob es sich um Desktop CPUs handelt... ich denke mal 2010 wird es sicherlich solche Prozessoren geben... zumindestens in Intels Laborren zu Test zwecken

harrs34
2008-09-12, 15:38:07
Da ist auch eine logarithmische Kurve von Intel..

mit der 70nm Prozessor-Architektur sind dann 10000 MIPS möglich..

mit 30 nm schon 100000 MIPS..

also haben sie die Rechenpower überschätzt..

und haben damals überhaupt nicht erwartet im Jahr 2008 schon mit 45 nm produzieren zu können..

das ist schon krass.

harrs34
2008-09-12, 15:41:12
@kevsti..

nein da wird direkt von CPUs gesprochen nicht von Forschung.. die werden auch in einem Graphen mit den CPUs von 97, 99 und 2001 die es damals zu kaufen gab gegenübergestellt.

AnarchX
2008-09-12, 15:42:49
Nunja, Intel hat halt massiv die möglichen Taktraten von zukünftigen Fertigungsprozessen überschätzt, selbst bei IBMs In-Order-CPUs ist man ja noch unter 6GHz.

Aber wenn man Larrabee bzw. andere CPUs aus dem Tera-Scale Projekt heranzieht, dann wird man im Verbrauchspielraum von 600W und Transitorenspielraum von 10 Mrd. einiges mehr als die 1 TIPS liefern können, halt aber massiv parallel.

btw.
Yorkfield hat 2x410 Mio. Transitoren.

Carandur
2008-09-12, 15:43:08
Intel laberte schon immer viel. Damals war es MHz und jetzt sind es Kerne die in Superlativen verwendet werden.

Nach Intel hätte ich einen superschnellen Prozessor, den Geschwindigkeit geht ja angeblich nur über MHz. Ich hab ja ECHTE 3 GHz. :D

harrs34
2008-09-12, 16:01:52
@AnarchX

ja kannte das Project nicht.. http://techresearch.intel.com/articles/Tera-Scale/1449.htm

Aber für 1 Tera Flop.. brauch man 80 Cores a 65 Watt@3.2Ghz, das sind 5200 Watt.. bei 100 Millionen Transistoren pro Core sind das 8 Millarden Transistoren..
Da war die Prediktion von 2001 aber wesentlich effektiver..

Und für 1.81 Tera Flop sogar sagenhafte 265 Watt @ 5.7 Ghz pro Core sind das 21,2KW

harrs34
2008-09-12, 16:08:45
oh doch nicht hab das falsch verstanden..

der gesamte Chip verbraucht nur 62 Watt..
Wow dann ist das wirklich effektiv..

Gast
2008-09-12, 16:48:19
@AnarchX

ja kannte das Project nicht.. http://techresearch.intel.com/articles/Tera-Scale/1449.htm

Aber für 1 Tera Flop.. brauch man 80 Cores a 65 Watt@3.2Ghz, das sind 5200 Watt.. bei 100 Millionen Transistoren pro Core sind das 8 Millarden Transistoren..
Da war die Prediktion von 2001 aber wesentlich effektiver..

Und für 1.81 Tera Flop sogar sagenhafte 265 Watt @ 5.7 Ghz pro Core sind das 21,2KW

Für zwei Tera Flop braucht man ne HD4870X2 :)

SavageX
2008-09-12, 16:54:44
Wieso gabs damals den 4Ghz Pentium 4 und heute nur 3.2 Ghz.. nach 7 Jahren..


Ende 2001 war Intel bei 2 GHz, nicht 4.

So mir bekannt wurder der 4 GHz Pentium 4 auch fallengelassen (mitsamt Kniefall vom Chef http://tweakers.net/reviews/646/2/server-duel-xeon-woodcrest-vs-punt-opteron-socket-f-pagina-2.html )

Fragman
2008-09-12, 16:59:29
um wiveiel schneller ist dein ein heutiger 3.2 ghz chip gegenueber einem p4 mit 4 ghz?

harrs34
2008-09-12, 17:09:35
naja der P4 extreme mit 3.2 Ghz hat 9.5 MIPS

der Qx9700 59 MIPS.. also ca 6 mal ..
Aber der einzelne Core nur 1.5 mal so schnell.

Gast
2008-09-12, 17:46:31
Wieso lag der so daneben..:confused:
Weil die USA im Moment eher damit beschäftigt sind die Welt mit Klimakatastrophen, Rezessionen und Terrorkriegen zu überziehen? Da bleibt wenig Geld für Fortschritt, wenn man grad dabei ist mit Volldampf zurück in die Steinzeit zu rudern.

Gast
2008-09-12, 19:37:51
Ich darf kurz einwerfen das mit CUDA oder FLOPS auf einer GPU das alles möglich ist. Eventuell hat sich Intel damals schon auf den Larrabee bezogen XD

S940
2008-09-12, 19:41:51
http://tweakers.net/reviews/646/2/server-duel-xeon-woodcrest-vs-punt-opteron-socket-f-pagina-2.html )
Jo, das is das schön beschrieben, Hauptgrund war Überhitzung, es gab einfach zuviele Leckströme.
Hätte Intel damals Cu+SOI wie AMD gehabt, hätten sie vielleicht mit Netburst weitergemacht ... :eek:

ciao

Alex

Avalox
2008-09-12, 20:00:59
@AnarchX

Aber für 1 Tera Flop..

Nur kann man Flops und Mips nicht vergleichen.

centurio81
2008-09-12, 22:43:30
Tja.. Da sieht man sehr schön, was man von Progonsen halten kann..
Aus dem gleichen Grunde halte ich nix von Rentenversicherungen..

Avalox
2008-09-13, 10:04:28
Tja.. Da sieht man sehr schön, was man von Progonsen halten kann..



So schlecht ist doch die Prognose nicht. Entsprechende heutige Processoren erreichen weit über 70000 Mips. Also rund Faktor 10 geringer. Das ist nicht viel.
Die Prognose ist schon nicht schlecht. Der Weg ist nur ein anderer. Nun skalieren die IPS auch mit der Anzahl der Kerne perfekt.

Gast
2008-09-13, 11:19:09
Imho ist Hitze eher ein kleineres Problem (Welcher CPU lässt sich schon nicht mehr übertakten weil er zu heiß wird? - gute Kühlung vorausgesetzt) problematischer sind die ganzen Leckströme etc... kenn mich da so genau auch nicht aus... jedenfalls hatte Intel ja damals die Netburst Architektur entwickelt, um sehr hohe Taktraten zu erreichen, aber am ende (einige Zeit NACH 2001) mussten sie einsehen das es einfach zu viele andere Probleme gibt, die sie einfach nicht zufriedenstellend lösen konnten...

Zudem steht in der Aussage ja scheinbar rein gar nix dadrüber ob es sich um Desktop CPUs handelt... ich denke mal 2010 wird es sicherlich solche Prozessoren geben... zumindestens in Intels Laborren zu Test zwecken


Intel wollte beim P4 nicht hohe GHz. Sondern die haben die Pipelines zu lang gemacht, dass der Takt automatisch nach oben ging. Nur zu lange Pipelines haben sich ja nicht bewehrt und somit war der Pentium M halt schneller.

Wuge
2008-09-13, 13:03:12
Sicher wollte Intel mit Netburst den Takt steigern! Die lange Pipeline war dazu nötig.

Btw. Ein Pentium M ist im Leben nicht schneller als ein P4. Hab nen 2 GHz Dothan im Notebook, der müht sich schon gewaltig ab. Da ist der 3 GHz P4 im Server weit voraus...

aim
2008-09-13, 14:27:04
Er hat bestimmt gemeint, wenn FSB und Takt gleich sind...

Carandur
2008-09-13, 14:37:25
Intel wollte beim P4 nicht hohe GHz.
Natürlich wollten die hohe GHz. Das ganze Marketing zielte darauf ab.

Avalox
2008-09-13, 14:43:32
Natürlich wollten die hohe GHz. Das ganze Marketing zielte darauf ab.

Das wird wohl auch niemand ernsthaft anzweifeln. Natürlich hatte Intel höchste Taktfrequenzen im Sinn. Neue Fertigungstechniken liessen sich so sofort in eine allgemeinen Performancenutzen für den Kunden umsetzen.

Der Pentium M war eine abseits gefahrene Linie mit wenig Entwicklungsaufwandaus dem P3 getrieben, allein aus dem Grund existent da die mobile Steckdose noch immer nicht erfunden ist. Man sieht ja, dass die 600W CPUs durchaus in der Produktidee von Intel lag.

nomadhunter
2008-09-13, 15:25:17
Man muss auch sehen, dass die Zielsetzung sich im Vergleich zu damals geändert hat. Mit viel Leistung allein gewinnt man heute keinen Blumentopf mehr. Green IT/Energieeffizienz hat wesentlich an Bedeutung gewonnen und zwischen Energieeffizienz und maximaler Leistung besteht eben hin und wieder ein Widerspruch.

Und dass die Takt- und Leistungsprognose so stark daneben liegt, liegt meiner Meinung nach fast nur an der Leckstromproblematik, die man damals in dem Ausmaß nicht mal erahnt hat. Wäre das Problem nicht so stark aufgetreten, wäre die Prognose von damals heute wahrscheinlich Realität.

Avalox
2008-09-13, 15:31:45
Und dass die Takt- und Leistungsprognose

Die Taktprognose liegt daneben. Die Leistungsprognose nicht so stark, die passt doch so ungefähr.

BlackBirdSR
2008-09-13, 15:58:22
Intel wollte beim P4 nicht hohe GHz. Sondern die haben die Pipelines zu lang gemacht, dass der Takt automatisch nach oben ging.

Ich glaube nicht, dass dies haltbar wäre. Man muss sich nur die beiden Drive-Stages ansehen, die nur dafür erschaffen wurden um bei hohen Taktraten Signale noch rechtzeitig ankommen zu lassen.
Daher siehe Posts meiner Vorredner

nomadhunter
2008-09-13, 16:55:17
Die Taktprognose liegt daneben. Die Leistungsprognose nicht so stark, die passt doch so ungefähr.
Das ist wohl Ansichtssache. Um den Faktor 10 bei einer 9-Jahres-Prognose daneben zu liegen ist nicht soo schlecht, aber wirklich gut ist es auch nicht.

Raff
2008-09-13, 17:12:55
Btw. Ein Pentium M ist im Leben nicht schneller als ein P4. Hab nen 2 GHz Dothan im Notebook, der müht sich schon gewaltig ab. Da ist der 3 GHz P4 im Server weit voraus...

Im Notebook arbeiten die schnellsten P-M-Prozessoren mit 133 MHz FSB und weit unter ihrem Maximaltakt. Schnallst du so einen Dothan via Adapter auf bestimmte Desktop-Platinen von Asus (nur die ermöglichten das), fängt der Spaß erst an. Mit FSB200+ und passendem DDR-Speicher hat der Pentium M anno 2005 mit brachialer Rechenleistung gezeigt, wohin Intel mit der Core-Architektur gehen wird.

Laut einigen älteren Benchmarks hier im Forum ist ein P-M mit 2,5 GHz (200x12,5) so schnell wie ein Prescott @ 4,0 GHz. Grob. Siehe auch Celeron M vs. Pentium M & Athlon 64 (http://alt.3dcenter.org/artikel/2006/04-24_a.php) ... wo leider kein P4 zur Verfügung stand. Der hätte mit 2,4 GHz übelst auf die Fresse bekommen. ;)

MfG,
Raff

_DrillSarge]I[
2008-09-13, 18:10:34
wenn ein deutlich niedriger getakteter athlon xp dem p4 das wasser reichen kann, dann kann ein pentium-m das locker ;)

diese spruch im threadtitel stammt einfach aus einer der massivsten fehlkalkulationen (konstruktionen? :tongue:)von intel mit ihrer netburst architektur.

BlackBirdSR
2008-09-13, 18:19:58
I[;6781306']wenn ein deutlich niedriger getakteter athlon xp dem p4 das wasser reichen kann, dann kann ein pentium-m das locker ;)

diese spruch im threadtitel stammt einfach aus einer der massivsten fehlkalkulationen (konstruktionen? :tongue:)von intel mit ihrer netburst architektur.

Naja ich denke von der Konstruktion selbst war es schon exzellent verarbeitet ;)
Aber das Konzept an sich wirkt etwas krum. Auf der einen Seite auf Jahre hin vorgedacht, auf der anderen Seite scheinen manche Sachen nur als Notlösung für daraus entstehende Probleme zu fungieren.

Einige der Ideen sind ja eigentlich sehr interessant. Der Trace-Cache z.B und die versuchte Abkopplung vom Front-End. Oder die Sache mit den verdoppelten Taktsignalen für einige Bereiche der CPU. Da gits ne Menge Gutes, und ne Menge Schelechtes :) Aja.. und irgendwer hat sich total verrechnet was das Scaling betrifft.

Avalox
2008-09-13, 18:25:01
Das ist wohl Ansichtssache. Um den Faktor 10 bei einer 9-Jahres-Prognose daneben zu liegen ist nicht soo schlecht, aber wirklich gut ist es auch nicht.


Faktor 10 heute. Sind ja noch mehr als zwei Jahre bis Ende 2010. Das scheint sehr realistisch zu sein. Schon morgen kommt der Dunnington und wird die Messlatte weit höher hängen.
Es ist ein sehr realistisches Ziel.

Wenn man bedenkt, dass der 68000er des AMIGA nicht mal ein MIPS erreicht hatte.

EnergyEfficient
2008-09-13, 18:37:48
Die Prognose galt für 2010. Im Jahre 2010 haben wir zumindest Nehalems Nachfolger Westmere mit 6 Kernen, vielleicht sogar ein 12-Kerner für Server auf Westmere-Basis. Dieser wird vielleicht 150W TDP haben und vielleicht einen Durchsatz von 250 GIPS bei sehr gut skalierender Software erreichen. Nun erlauben wir uns 600W Leistungsaufnahme (unser Freiraum aus der Prognose), verteilen sie aber auf 4 CPU-Fassungen. Et voila, hier ist unsere TIPS-CPU im Rahmen der Prognose. Einzig wegen der Die-Größe haben wir es uns genehmigt, die TIPS-Leistung auf 4 CPU-Sockel zu verteilen ;)

haifisch1896
2008-09-13, 19:43:46
Hexacores stehen mit viel Glück zu Weihnachten unterm Tannenbaum bei einigen Usern...

Leonidas
2008-09-14, 08:10:45
Intel stand seinerzeit kurz vor dem Pentium 4 und wollte mit massiver Taktrate angreifen und diese dann auch massiv weitersteigern. Ich kann mich noch an frühere Roadmaps erinnern, welche Nehalem als P4-Verbesserung mit Taktraten von 10 GHz und mehr von glaube ich schon jetzt sahen.


Irgendwo schiebt diese alte Roadmap auch hier noch durchs Forum, finde sie nur nicht mehr.

Gast
2008-09-14, 11:20:03
eigendlich sind wir unserer zeit vorraus. wir haben über 12ghz prozessoren, können sie nur nicht auslasten... nicht die prozessortechnik hinkt, sondern die software. und da sieht mans mal wieder microsaft ist schuld

Fragman
2008-09-14, 12:16:51
wieso soll microsoft jetzt wieder schuld sein? ich kann 4 core sehr gut ausnutzen, fuer 12 core cpu's haett ich auch was zu tun, bin da zwar ne ausnahme, aber wieso microsoft wieder schuld sein soll versteh ich nicht.

_DrillSarge]I[
2008-09-14, 12:32:31
eigendlich sind wir unserer zeit vorraus. wir haben über 12ghz prozessoren, können sie nur nicht auslasten... nicht die prozessortechnik hinkt, sondern die software. und da sieht mans mal wieder microsaft ist schuld
multicore, mehr leistung pro cpu sind im serverbereich ein segen. mit vm kannst man dort die systeme nahezu perfekt ausnutzen bzw. auslasten.
mit videoencoding und dem ganzen bearbeiten kann man ebenso einen rechner locker an seine grenzen treiben. es gibt genug anwendungsgebiete für cpu-power. sogar unter windows.

Gast
2008-09-14, 21:29:34
1.) Im Desktop Bereich sind die wenigsten Anwendungen Video Encoder und selbst hier gibt es noch immer keine ordentlichen Optimierungen. Für 2 Kerne kein Problem, aber bei 4 Kernen und mehr sieht es immer noch schlecht aus, wenn man z.B. an DivX denkt. x264 ist hier eher die Ausnahme.

2.) Im Server Bereich lässt sich auch nicht einfach so alles parallelisieren. Eine virtuelle Maschine hilft hier gar nichts, wenn 90% der Anwendungen so gut wie nie die CPU benötigen. Der Mailserver, Proxy, Domänencontroller etc. brauchen die CPU so gut wie gar nicht, genauso wenig wie der Fileserver. Dasselbe gilt normalerweise für den Webserver bei Unternehmen mit 200-300 Leuten. Hier ist das Traffic-Aufkommen im Vergleich zum Firmenumsatz fast 0. Das darf man nicht mit einem nicht kommerziellen Forum wie diesem hier vergleichen. Das einzige, was etwas mehr braucht, wird der SQL Server sein und das auch nicht durchgehend, sondern nur wenn gerade ein größerer Job ausgeführt wird von einer Person. Da Server normalerweise mindestens 2 Sockel haben und meistens gleich Quads gekauft werden, ist hier wirklich kein Engpass vorhanden. So große Rechner für wissenschaftliche Berechnungen mit einer Menge CPUs sind eher ein Nischenmarkt.

3.) Das Problem ist nicht, dass die Software nicht angepasst ist, sondern dass sich diese meistens nicht bzw. nur mit erhöhtem Aufwand anpassen lässt. Hier stehen meistens Stabilität bzw. der Entwicklungsaufwand im Vordergrund.

4.) Intel ist davon ausgegangen, dass sie die momentane Entwicklungsgeschwindigkeit beibehalten können, da pro Entwicklungsschritt in der Fertigung immer mehr Takt drin war und genauso die Parallelität innerhalb des Kerns erhöht werden kann, indem mehr Transistoren verwendet werden. Hier gilt jedoch auch das Gesetz des abnehmenden Ertrags und ab einem gewissen Punkt ist eine längere Pipeline sogar kontraproduktiv. Weiters sind nicht mehr so große Sprünge im Takt möglich, was aber eher physikalische Ursachen hat. Der Energieverbrauch, die Leckströme etc. haben damit jedoch nichts zu tun.

harrs34
2008-09-15, 13:01:44
Ja aber schon krass das die sich so fehl kalkuliert haben..

Fazit ist ja
Prediktion der Transistorzahlen [richtig]
Preditktion des MIPS ... naja warten wir bis 2010 da ist noch der Faktor 10 dazwischen.. (glaube eher nicht das die es schaffen.)[vielleicht richtig]
Prediktion der Ghz Zahl... [katastrophal daneben]

Wieso sind die damals nicht auf die Idee gekommen das die längere Pipeline.. die Limitation der Licht Geschwindigkeit.. und die hohen Leckströme ein riesen Problem werden..

Das war doch alles bekannt das sind doch keine neuen entdeckten effekte..

MasterElwood
2008-09-15, 13:31:11
Ja aber schon krass das die sich so fehl kalkuliert haben..

Fazit ist ja
Prediktion der Transistorzahlen [richtig]
Preditktion des MIPS ... naja warten wir bis 2010 da ist noch der Faktor 10 dazwischen.. (glaube eher nicht das die es schaffen.)[vielleicht richtig]
Prediktion der Ghz Zahl... [katastrophal daneben]

Wieso sind die damals nicht auf die Idee gekommen das die längere Pipeline.. die Limitation der Licht Geschwindigkeit.. und die hohen Leckströme ein riesen Problem werden..

Das war doch alles bekannt das sind doch keine neuen entdeckten effekte..

Die Ghz-Zahl ist überhaupt nicht daneben!

Intel ist halt einen anderen Weg gegangen.

einen QuadCore mit 3Ghz kannst du genauso als "eine CPU mit 12 Ghz" sehen. Somit sind wir jetzt schon im 10-30 Ghz bereich und in 2 jahren locker drüber...


PS: Auslastung ist natürlich eine andere Sache...

Nakai
2008-09-15, 13:53:30
einen QuadCore mit 3Ghz kannst du genauso als "eine CPU mit 12 Ghz" sehen.

Das ist totaler Unsinn.


mfg Nakai

Simon Moon
2008-09-15, 17:21:01
einen QuadCore mit 3Ghz kannst du genauso als "eine CPU mit 12 Ghz" sehen.


Nein, ich wüsste keinen logischen Grund der das erklären könnte.
3Ghz sind 3 Mia. Takte pro Sekunde und nicht 12 Mia. ...

][immy
2008-09-15, 22:39:39
2.) Im Server Bereich lässt sich auch nicht einfach so alles parallelisieren. Eine virtuelle Maschine hilft hier gar nichts, wenn 90% der Anwendungen so gut wie nie die CPU benötigen. Der Mailserver, Proxy, Domänencontroller etc. brauchen die CPU so gut wie gar nicht, genauso wenig wie der Fileserver. Dasselbe gilt normalerweise für den Webserver bei Unternehmen mit 200-300 Leuten. Hier ist das Traffic-Aufkommen im Vergleich zum Firmenumsatz fast 0. Das darf man nicht mit einem nicht kommerziellen Forum wie diesem hier vergleichen. Das einzige, was etwas mehr braucht, wird der SQL Server sein und das auch nicht durchgehend, sondern nur wenn gerade ein größerer Job ausgeführt wird von einer Person. Da Server normalerweise mindestens 2 Sockel haben und meistens gleich Quads gekauft werden, ist hier wirklich kein Engpass vorhanden. So große Rechner für wissenschaftliche Berechnungen mit einer Menge CPUs sind eher ein Nischenmarkt.

du hast noch nicht von vmware server gehört die mit 32+ CPUs ausgestattet sind, viele viele gigabytes an arbeitsspeicher und über 100 virtuelle maschinen (und ja die brauch man) gleichzeitig laufen lassen gehört, oder?
da kann man nicht genug CPUs bekommen, obwohl, das was noch am meisten bei solchen maschienen limitiert sind die festplatten.

wenn ich arbeite kann ich auch ohne probleme ein kleines netzwerk mit arbeit auslasten. klar, auf den tag gerechnet hat ein computer nie wirklich viel zu tun, aber wenn arbeit anfällt, dann muss sie schnellstmöglich erledigt werden und da sind mehere cpu-kerne ein segen, weil gerade bei servern ein "job" den anderen nicht bremsen darf.

und da sehe ich derzeit auch wieder den trend, weg vom PC wieder zum terminal mit bildschirm, tastatur und maus. vermutlich wird das wieder so lange gehen, bis wieder eine computerrevolution daherkommt die zulässt, das der PC unterm schreibtisch nicht nur schnell genug für alles ist, sondern auch noch kostengünstiger.
neue aufgaben für die CPUs im serverbereich findet man immer.

RavenTS
2008-09-15, 22:41:00
Nein, ich wüsste keinen logischen Grund der das erklären könnte.
3Ghz sind 3 Mia. Takte pro Sekunde und nicht 12 Mia. ...

Ach ihr wisst doch das er vermutlich meinte wenn man einfach alle Cores komplett auslasten könnte, wären dann 4x3GHz fast so gut wie 1x12GHz (zumindest wenn keine Infrastrukturengpässe bestehen).
Das dies in der Realität natürlich nur sehr selten zutrifft sollte ja bekannt sein, da muss man dann nicht wieder um Worte streiten wenn es doch im Inhalte geht...

Nakai
2008-09-16, 11:41:59
Ach ihr wisst doch das er vermutlich meinte wenn man einfach alle Cores komplett auslasten könnte, wären dann 4x3GHz fast so gut wie 1x12GHz (zumindest wenn keine Infrastrukturengpässe bestehen).

Es geht um die richtigen Algorithmen und da wird es wohl niemals einen perfekten MC-Algorithmus geben.
Und selbst bei GPUs werden die Einheiten nicht gleichmäßig ausgelastet.



mfg Nakai

MasterElwood
2008-09-17, 04:50:42
Nein, ich wüsste keinen logischen Grund der das erklären könnte.
3Ghz sind 3 Mia. Takte pro Sekunde und nicht 12 Mia. ...

Klar ist es ein technischer unterschied wie tag und nacht.

die THEORETISCHE Rohleistung von einem einem "core mit 12 ghz" und "4 cores mit je 3 ghz" ist jedoch praktisch gleich.


Ich als poweruser z.b. würde beim rendern von premiere oder poser keinen unterschied merken - da hab ich bei allen cores immer 100% auslastung


ME

Coda
2008-09-17, 05:11:25
100% Auslastung heißt nicht dass auch 100% Leistung rüberkommt.

Gast
2008-09-17, 17:41:13
Hmmm die neusten Pentium E5300 mit zweimal 2600 MHz sind für das erste Q. 2009 angekündigt !

http://www.computerbase.de/news/hardware/prozessoren/intel/2008/september/intel-roadmap_q8300_e7500_e5300/



Die meisten Intel Prozessoren liege im Bereich von 2000 MHz bis gut 3000 MHz schon seid Jahren.

Ronny G.
2008-09-17, 18:47:01
Es sollte aber auch bekannt sein das die Performance pro Mhz stark zugenommen hat, somit hat Taktvergleich von damals auf heute null Sinn.

Ich finde gerade die Abwärme das heutige Problem, bzw. der damit verbunde Watt verbrauch.

Avalox
2008-09-17, 19:29:18
Es sollte aber auch bekannt sein das die Performance pro Mhz stark zugenommen hat, somit hat Taktvergleich von damals auf heute null Sinn.


Doch, nach der Prognose von Intel geht dieses. Man hat in die Zukunft gedacht.

Man hat dort eine pro MHz Leistung von ungefähr dem 10 bis 30 fachen des damaligen P4 angenommen. Da sind die heutigen CPUs doch noch weit entfernt und es müssen noch eine ganze Menge Kerne dazu kommen.

Gast
2008-09-17, 19:56:48
Viel hat sich nicht getan
zum beispiel:

- Pentium D 805 2x 2666 MHz im Jahr 2006

- Pentium E5300 2x 2666 MHz im Jahr 2009

Ronny G.
2008-09-17, 20:25:26
Viel hat sich nicht getan
zum beispiel:

- Pentium D 805 2x 2666 MHz im Jahr 2006

- Pentium E5300 2x 2666 MHz im Jahr 2009

Da haben wir es doch wieder, der Pentium E5300 ist ja eigentlich ein C2D und hat doch trotz gleicher Mhz wesentlich mehr Leistung pro Mhz als der Olle Pentium D805.
Wenn ich an die Zeit vor C2D denke war AMD mit dem A64 damals gerade für Spieler 1.Wahl, heute ist es noch umgedreht, und das haben wir der gestiegenen Performance der C2D Modelle zu verdanken.
Klar, an der Taktschraube wurde schon lange nicht mehr so gedreht wie zu P4 Zeiten, das Ziel nach mehr Rechenleistung wurde aber dennoch erreicht.

@Avalox

Schaue dir mal die Retro Rückblicke von PCGH an, da wird über Technik und Prognosen von damals geschmunzelt, das nicht nur bei Intel, der ganze Hardwaremarkt hat sich anders als erwartet entwickelt, da gibt es viele Beispiele.

Avalox
2008-09-17, 20:49:26
Schaue dir mal die Retro Rückblicke von PCGH an, da wird über Technik und Prognosen von damals geschmunzelt, das nicht nur bei Intel, der ganze Hardwaremarkt hat sich anders als erwartet entwickelt, da gibt es viele Beispiele.


Ja PCGH eben.

Taktraten sind für den Kunden völlig nebensächlich. Er kann mit einer Taktrate überhaupt nichts anfangen. Sie interessiert schlicht überhaupt nicht. Da braucht man nicht schmunzeln.

Warum hat Intel nun die Taktrate mit in der Prognose genannt? Zum einen natürlich, weil diese sehr Kunden wirksam ist, zum anderen aber auch um ein Indiz zu liefern wie die Leistung von 1 Terra IPS zu verstehen ist.

Es ist nicht zum schmunzeln, die heutige Entwicklung ist sehr traurig. Da zwar die Prognose mit dem 1 Terra IPS so hinkommen wird, aber dabei wegen der enormen Parallelisierung für den Benutzer in den meisten Fällen viel weniger nutzbare Rechenleistung rauskommt.