Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie gehts weiter mit den CPUs?
Panasonic
2004-07-13, 10:26:00
Ich habe das Gefühl, als wenn sich seit langer Zeit nichts mehr an der Mhz-Zahl der CPUs getan hat. Das tatsächlich erhältliche Maximum scheint mir schon seit langem etwas knap über 3 Ghz zu sein.
Was glaubt Ihr, wann gibt es mal wieder richtige Schübe, auf 4,5 oder 6 Ghz?
Ich hoffe, wir kommen baldmöglichst weg von diesem MHz-Wahn. Selbst Intel scheint's mittlerweile begriffen zu haben, daß sich Prozessoren oberhalb von 150W Wärmeabgabe kaum noch sinnvoll kühlen lassen.
Ich hoffe, daß in Zukunft mehr auf die "Leistung" pro Watt geachtet wird.
BlackBirdSR
2004-07-13, 11:36:53
Original geschrieben von Panasonic
Ich habe das Gefühl, als wenn sich seit langer Zeit nichts mehr an der Mhz-Zahl der CPUs getan hat. Das tatsächlich erhältliche Maximum scheint mir schon seit langem etwas knap über 3 Ghz zu sein.
Was glaubt Ihr, wann gibt es mal wieder richtige Schübe, auf 4,5 oder 6 Ghz?
Es geht weiter mit mehr MHz, so wie immer.
Nur die Beschleunigung der Taktrate wird sich etwas absenken.
Die einen CPUs werden breiter und komplexer, die anderen werden simpler, noch höher getaktet, dafür aber mit viel mehr Genossen als bei den dicken zusammen auf der CPU sitzen.
(del)
2004-07-13, 11:39:27
Hatte ich nicht neulich gelesen, das AMD Ende es Jahres auf die 4 GHz zusteuert?
Na wie dem auch sei, solange die Semprons sich am Markt halten, wird's wohl lange dauern, bis AMD nen richtigen Satz nach vorne macht. Wohl auch deshalb, um die Semprons nicht allzu alt ausehen zu lassen. Und die gehen nun mal nicht weit über 2800+ Niveau...
Intel geht schon den richtigen Weg. Der Pentium M hat gezeigt wie die Zukunft aussehen wird. Dauert aber wohl auch noch mindestens ein Jahr, bis 4 GHz sich in breiter Front durchgesetzt haben.
Mfg Mayday
Panasonic
2004-07-13, 11:42:30
Ich will einfach nur Leistung ohne Ende. Wärme / Lüftergeräusche sind mir relativ egal.
Preis auch?
Und Ökologie?
Aqualon
2004-07-13, 11:48:50
Original geschrieben von Mayday
Hatte ich nicht neulich gelesen, das AMD Ende es Jahres auf die 4 GHz zusteuert?
Auf ein Rating von 4000+ bestimmt, da es ja schon einen 3800+ gibt. Echte 4GHz Takt halte ich für ausgeschlossen, da der schnellste AMD-Prozessor bisher mit 2.4GHz taktet und eine Steigerung um 66,7% innerhalb eines halben Jahres sehr unrealistisch ist.
Ich denke mehr als 2.6GHz werden wir bei AMD nicht mehr sehen dieses Jahr. Andererseits ist es auch nicht wirklich notwendig, da die Lieferbarkeit der schnellen Intel-Prozessoren zur Zeit auch nicht gerade gut ausschaut.
Aqua
(del)
2004-07-13, 11:58:13
Echte 4GHz Takt halte ich für ausgeschlossenDas 4000+ Rating meinte ich wie du schon festgestellt hattest. Wenn man das allerdings im Vergleich zu Intels eventuellen 4 GHz CPUs setzt, werden sich performance-mäßig bestimmt keine allzu großen Unterschiede ergeben. Von daher irgendwie doch 4 GHz.
[Spekulatius off]
Corrail
2004-07-13, 12:51:29
Sowohl AMD und Intel gehen ja mittler Weile eh in Richtung Dual-Core, was IMHO heutzutage auch sinnvoller ist. Ich glaube, dass vorallem dadurch sich die "MHZ-Beschleunigung" um einiges verringern wird.
Ich gehe auch davon aus, dass wir heuer nicht viel über 4GHZ und nächstes Jahr eventuell bis ca. 4,5GHZ kommen. Das klingt meiner Meinung nach recht realistisch, da es so scheint das mittler Weile beide Hersteller weniger auf reine MHZ Leistung legen.
FeuerHoden
2004-07-13, 16:33:12
Original geschrieben von Mayday
Das 4000+ Rating meinte ich wie du schon festgestellt hattest. Wenn man das allerdings im Vergleich zu Intels eventuellen 4 GHz CPUs setzt, werden sich performance-mäßig bestimmt keine allzu großen Unterschiede ergeben. Von daher irgendwie doch 4 GHz.
[Spekulatius off]
Bitte sag nie wieder 4 Ghz wenn du das Rating meinst. BITTE!
Endorphine
2004-07-13, 18:15:44
*Orakel/Ailuros-Modus = ON*
Der Trend wird auch in Zukunft zu gesteigerter (CPU-interner) Parallelisierung und mehr Takt gehen. Große Taktsprünge von 1,5 auf 3 GHz in 2 Jahren wird es wohl so schnell nicht mehr geben.
Die gesteigerte Parallelisierung wird in absehbarer Zeit für eine größere Effizienz in SMP-on-die gipfeln. Das ist die logische Konsequenz aus SMT. Mit SMT kann SMP-on-die so effizient wie nur irgendwie denkbar umgesetzt werden. Ohne SMT bin ich mal gespannt, wie der Die-Flächenverbrauch auf einem für den Massenmarkt bezahlbarem Niveau gehalten werden soll.
Da sich (abgesehen von MRAM) in der (JEDEC-) Speicherindustrie weiterhin nichts bewegt werden auch die Caches weiter wachsen, bis die Ausführungseinheiten flächenmäßig auf dem CPU-Kern nur noch einen verschwindend geringen Anteil haben.
Es werden auch in Zukunft mehr Funktionen auf das CPU-Die wandern, die jetzt noch extern auf dem Mainboard sitzen. Integration ist unausweichlich. Integrierte Speichercontroller sind da nur eine Stufe.
Temperatur-, Spannungs- und Powermanagement allgemein werden imho demnächst eine viel höhere Bedeutung bekommen. Je höher die Wärmedichte bzw. je höher die Integration auf der CPU, desto wichtiger werden diese Funktionen.
Die Hersteller- und Produktkonzentration auf dem CPU-Markt wird sich imho auch wie bisher ausweiten. Für Transmeta sehe ich mittelfristig keine Zukunft, wenn die Fa. nicht von einem starken Partner übernommen wird. Die SPARC-Linie wird wohl mit dem Niedergang von Sun ebenfalls langsam sterben, HP PA-RISC läuft wohl auch aus und MIPS... *hust*. Längerfristig glaube ich nur an AMD, Intel und IBM/Motorola. Kleinere Hersteller müssen in Zukunft in einer Nische mit hoher Spezialisierung punkten, um noch etwas verdienen zu können (à la ARM).
*Orakel/Ailuros-Modus = OFF* ;)
Birdman
2004-07-13, 18:18:45
Ich frage mich, was diese Gehype um DualCores im Homeuser Bereich wirklich soll.
Ausser nahezu doppelter Verlustleistung schaut doch in der aktuellen Singlethreading Welt fast gar nix dabei raus.
Ausserdem glaube ich kaum, dass sich die kurz und mittelfristig ändern wird. Multithreaded zu coden ist schwierig und oftmals gar nicht von nennenswertem Vorteil. daher sehe ich auch den Langzeitnutzen in Gefahr.
In der letzten c't wurde ja mal der RAW-Microprocessor vom MIT erwähnt.
In diese Richtung könnte die Zukunft gehen.
Einfach mal googlen und die PDF's durchlesen.
][immy
2004-07-13, 19:28:32
amd sitzt wohl wirklich bei 2,3 Ghz ein wenig fest, aber das ist bei denen ja nicht ganz so schlimm, da die Leistung noch stimmt.
bei intels cpus ist das ja so eine sache. mehr mhz, größere pipeline, weniger effiziens
aber intel hatte ja auch ein einsehen, das der prescott wohl nicht das wahre ist.
ich denke in zukunft gehen CPUs immer mehr in richtung grafikchip. es wird einfach mehr aus jedem megaherz rausgepresst bzw die frequenzen werden effizienter genutzt.
immmer mehr cache bringt es auch nicht immer. denn irgendwann ist der cache so groß, das es erstmal wieder ein wenig dauert bis dieser verwaltet wurde. der cache darf also auch nicht zu groß werden.
allerdings wären cpus wohl wesentlich schneller wenn viele kleine flaschenhälse ein wenig gedehnt werden würden.
da hätten wir z.B.
die festplatten-geschwindigkeit
speicher-geschwindigkeit (obwohl diese inzwischen ja ausreichend zur verfügung steht)
aber man macht es neuen features gerade im prozessormarkt schwer sich zu behaupten, so das es überhaupt erstmal genutzt wird.
z.B. die x86-64 technologie. es ist ansich schon wieder viel zu viel zeit vergangen als das diese genutzt wird. theoretisch könnten amd-cpus damit nochmal ein ganzes stück zulegen, aber die treiberentwicklung und betriebssystem-entwicklung geht zu langsam vonstatten.
was wohl auch daran liegt, das bisher nur wenige prozessoren mit dieser technologie im umlauf sind, aber wie das nunmal auf dem markt ist, solange keine notwendigkeit zu etwas besteht, wird es eine sache nur sehr schwer haben sich durchzusetzen (obwohl man weiß das sie sich wohl später durchsetzen wird).
Grestorn
2004-07-13, 19:35:37
Original geschrieben von Birdman
Ich frage mich, was diese Gehype um DualCores im Homeuser Bereich wirklich soll.
Ausser nahezu doppelter Verlustleistung schaut doch in der aktuellen Singlethreading Welt fast gar nix dabei raus.
Ausserdem glaube ich kaum, dass sich die kurz und mittelfristig ändern wird. Multithreaded zu coden ist schwierig und oftmals gar nicht von nennenswertem Vorteil. daher sehe ich auch den Langzeitnutzen in Gefahr.
Henne / Ei Problem...
So lange sich Dual-Prozessoren nicht breit durchsetzen, gibt es kaum Software, die Mehrprozessor-Systeme ausnutzen.
Aber auf alle Fälle ein Schritt in die richtige Richtung und langfristig der einzige Weg, die Leistung weiter zu steigern.
3D-profi
2004-07-13, 20:19:26
Original geschrieben von Panasonic
Ich habe das Gefühl, als wenn sich seit langer Zeit nichts mehr an der Mhz-Zahl der CPUs getan hat. Das tatsächlich erhältliche Maximum scheint mir schon seit langem etwas knap über 3 Ghz zu sein.
Was glaubt Ihr, wann gibt es mal wieder richtige Schübe, auf 4,5 oder 6 Ghz?
Taktfrequenz ist nicht alles ein neues Design wäre da
angebrachter,ich denke innonvativ werden der Cellchip
in Sonys Ps3 und die CPU inder Xbox2 sein die werden Intel
ganz schön das fürchten lehren.
ActionNews
2004-07-13, 21:16:18
Original geschrieben von Panasonic
Ich will einfach nur Leistung ohne Ende. Wärme / Lüftergeräusche sind mir relativ egal.
Leistung bekommst du auch indem du die ProMHz-Leistung steigerst oder Dualcore/Multicore-CPUs einsetzt. MHz sind da nicht so wichtig! Das sagte AMD schon lange nur Intel setzte lange Zeit MHz mit Leistung gleich. Aber selbst Intel hat es anscheinend begriffen und den Tejas, zu gunsten des wesentlich niedriger getakteten aber mit deutlich besserer ProMHz-Leistung ausgestatteten Pentium M, eingestampft.
Kann sein dass du demnächst sogar Intel-CPUs mit deutlich weniger MHz sehen wirst als jetzt :D. Der Trend geht weniger in Richtung 5-6 Ghz, sondern eher in die andere Richtung :D. Und trotzdem werden diese Prozesoren leistungsfähiger sein.
Und Wärme/Lüftergeräusche interessieren dich spätestens dann, wenn die CPU vor Wärme selbst mit den besten und lautesten Lüftern nicht mehr gekühlt werden können und du Ohrenstöpsel zum Arbeiten brauchst ;).
CU ActionNews
ActionNews
2004-07-13, 21:22:13
Original geschrieben von ][immy
(...)aber man macht es neuen features gerade im prozessormarkt schwer sich zu behaupten, so das es überhaupt erstmal genutzt wird.
z.B. die x86-64 technologie. es ist ansich schon wieder viel zu viel zeit vergangen als das diese genutzt wird. theoretisch könnten amd-cpus damit nochmal ein ganzes stück zulegen, aber die treiberentwicklung und betriebssystem-entwicklung geht zu langsam vonstatten.
was wohl auch daran liegt, das bisher nur wenige prozessoren mit dieser technologie im umlauf sind, aber wie das nunmal auf dem markt ist, solange keine notwendigkeit zu etwas besteht, wird es eine sache nur sehr schwer haben sich durchzusetzen (obwohl man weiß das sie sich wohl später durchsetzen wird).
Finde ich auch doof .... Mit Linux gäbe es ja ein x86-64 Betriebsystem, aber statt dass die Leute es nützen würden wird auf Windows XP 64 Bit gewartet? Warum?
CU ActionNews
@ActionNews
Spiele sind so ziemlich der einzige Grund der mir spontan einfaellt.
robbitop
2004-07-14, 00:36:48
Spiele würden aber nur durch die größeren Register profitieren.
BK-Morpheus
2004-07-14, 00:59:10
Original geschrieben von q@e
Ich hoffe, wir kommen baldmöglichst weg von diesem MHz-Wahn. Selbst Intel scheint's mittlerweile begriffen zu haben, daß sich Prozessoren oberhalb von 150W Wärmeabgabe kaum noch sinnvoll kühlen lassen.
Ich hoffe, daß in Zukunft mehr auf die "Leistung" pro Watt geachtet wird.
*100% Zustimm*
Nur mhz ist mir nicht wichtig, sondern immer mehr das Verhältnis von Leistungsverbrauch/Performance.
Ich gebe mich lieber mit einem etwas langsameren Prozzi zufrieden, wenn er im Verhältnis zu seiner mittelmäßigen Performance äußerst sparsam ist.
Gerada, da immer mehr auf Silentbetrieb geachtet wird und immer mehr PC's 24Std./Tag an sind, wird auch mehr Wert auf solche Dinge wie den Stromverbrauch gelegt.
Sowas wie Cool&Quiet sehe ich schonmal als kleinen, aber guten Schritt in die richtige Richtung an.
Sphinx
2004-07-14, 04:00:23
*Orkakel hinaufbeschwört...
-
MultiCores auf einem Core - Real HT in Hardware...
-
*Orkakel ? Oooraakeel ?
BlackBirdSR
2004-07-14, 09:40:59
Original geschrieben von Sphinx
*Orkakel hinaufbeschwört...
-
MultiCores auf einem Core - Real HT in Hardware...
-
*Orkakel ? Oooraakeel ?
Mehrere Cores auf einem Core stell ich mir lustig vor :)
So wie diese beiden Spiegel die sich gegenüber stehen.
Na, weiss schon was du meinst.
Das sehen wir wohl auf jedenfall, mehrere Kerne auf einer CPU.
Was Real HT angeht. Eigentlich ist Hyperthreading schon echtes SMT in Hardware. Das sollte keine Softwarelösung sein.
Original geschrieben von 3D-profi
Taktfrequenz ist nicht alles ein neues Design wäre da
angebrachter,ich denke innonvativ werden der Cellchip
in Sonys Ps3 und die CPU inder Xbox2 sein die werden Intel
ganz schön das fürchten lehren.
Halte ich für Quatsch. Das was da abgeht nenne ich wirklich nen Hype. Es ist schon rein rechnerisch garnet möglich, dass Konsolen jemals solche Leistungsregionen erreichen werden, da man immer auch an die Kosten denken muss. Wenn eine Konsole soviel kostet wie ein HighEnd PC, dann kauft sich doch keiner mehr ne Konsole.
Zumal wohl kaum einer dazu in der Lage wäre, eine CPU zu bauen, wie AMD, Intel oder IBM.
BlackBirdSR
2004-07-14, 10:05:54
Original geschrieben von HOT
Halte ich für Quatsch. Das was da abgeht nenne ich wirklich nen Hype. Es ist schon rein rechnerisch garnet möglich, dass Konsolen jemals solche Leistungsregionen erreichen werden, da man immer auch an die Kosten denken muss. Wenn eine Konsole soviel kostet wie ein HighEnd PC, dann kauft sich doch keiner mehr ne Konsole.
Zumal wohl kaum einer dazu in der Lage wäre, eine CPU zu bauen, wie AMD, Intel oder IBM.
nicht nur das,
die x86 Basis ist so etabliert, solange keine dieser angeblichen Killer MPUs auf x86 basiert, braucht sich Intel nicht wirklich fürchten.
LOCHFRASS
2004-07-14, 15:56:24
Original geschrieben von Birdman
Ich frage mich, was diese Gehype um DualCores im Homeuser Bereich wirklich soll.
Ausser nahezu doppelter Verlustleistung schaut doch in der aktuellen Singlethreading Welt fast gar nix dabei raus.
Ausserdem glaube ich kaum, dass sich die kurz und mittelfristig ändern wird. Multithreaded zu coden ist schwierig und oftmals gar nicht von nennenswertem Vorteil. daher sehe ich auch den Langzeitnutzen in Gefahr.
So gut wie jede CPU-fressende Software unterstuetzt SMP/SMT.
Original geschrieben von LOCHFRASS
So gut wie jede CPU-fressende Software unterstuetzt SMP/SMT.
Multithreading ist die Zukunft, finde ich auch. Es sind ja eigentlich nurnoch Spiele, die selten so programmiert sind, was Spiele ja auch selten nötig haben, da die Flaschenhälse für gewöhnlich woanders liegen als bei der CPU ;)
GloomY
2004-07-14, 18:32:41
Der Trend geht klar zu mehr Parallelität bei Threads (TLP). Das hat und wird verschiedene Formen annehmen, vom SMP Systemen, SMT, über FMT (fine grained Multithreading) oder CMT (course grained Multithreading) bis hin zu mehreren CPUs auf einem Die (Chip Multiprocessor, CMP) oder mögliche Kombinationen davon.
Das ist mittlerweile schon etwas im Gange, wird sich aber definitiv in Zukunft stärker bemerkbar machen. Auch andere Formen des Multithreadings wie DMT (siehe Intel "Helperthreads" in der aktuellen C't) werden Einzug erhalten, die alle nur darauf aus sind, die interne Auslastung der CPU möglichst hoch zu halten.
Das ist zumindest mal ein sehr interessanter Ansatz :)
Der fortlaufende Trend der höheren Integration wird nebenher natürlich weiterhin langfristig für steigende Taktfrequenzen und die Integration von immer mehr Dingen in die CPU sorgen, die bisher noch außerhalb der CPU zu finden sind.
Die zunehmende Verlustleistung wird auch die Technologieentwicklung in diese Richtung beeinflussen, also der Suche nach Materialien, die die Wärmeentwicklung mindern. Man wird sich auch die Frage stellen, ob es nicht andere geeignete Technologien gibt, die eventuell CMOS ablösen könnten, ähnlich wie Mitte der 90er Jahre Bipolar durch CMOS abgelöst wurde. Die Gründe waren damals schon die gleichen: Obwohl Bipolar schneller schaltet, erzeugte es doch wesentlich mehr Hitze als CMOS.
Leider sind wir momentan nicht in der Lage, einen Nachfolger präsentieren zu können. Mal schauen, was die Forschung noch so alles entwickelt =)
Stone2001
2004-07-17, 18:12:35
Original geschrieben von GloomY
Der Trend geht klar zu mehr Parallelität bei Threads (TLP). Das hat und wird verschiedene Formen annehmen, vom SMP Systemen, SMT, über FMT (fine grained Multithreading) oder CMT (course grained Multithreading) bis hin zu mehreren CPUs auf einem Die (Chip Multiprocessor, CMP) oder mögliche Kombinationen davon.
Das ist mittlerweile schon etwas im Gange, wird sich aber definitiv in Zukunft stärker bemerkbar machen. Auch andere Formen des Multithreadings wie DMT (siehe Intel "Helperthreads" in der aktuellen C't) werden Einzug erhalten, die alle nur darauf aus sind, die interne Auslastung der CPU möglichst hoch zu halten.
Das ist zumindest mal ein sehr interessanter Ansatz :)
*Ohne zu zöger unterschreib*
Original geschrieben von GloomY
Der fortlaufende Trend der höheren Integration wird nebenher natürlich weiterhin langfristig für steigende Taktfrequenzen und die Integration von immer mehr Dingen in die CPU sorgen, die bisher noch außerhalb der CPU zu finden sind.
Die zunehmende Verlustleistung wird auch die Technologieentwicklung in diese Richtung beeinflussen, also der Suche nach Materialien, die die Wärmeentwicklung mindern. Man wird sich auch die Frage stellen, ob es nicht andere geeignete Technologien gibt, die eventuell CMOS ablösen könnten, ähnlich wie Mitte der 90er Jahre Bipolar durch CMOS abgelöst wurde. Die Gründe waren damals schon die gleichen: Obwohl Bipolar schneller schaltet, erzeugte es doch wesentlich mehr Hitze als CMOS.
Leider sind wir momentan nicht in der Lage, einen Nachfolger präsentieren zu können. Mal schauen, was die Forschung noch so alles entwickelt =)
Ahh, Höchstintegration, ein sehr interessantes Thema! ;) Hier gibt es viele Probleme, die noch nicht gelöst sind, bzw. die bei der Verkleinerung der Strukturen auftreten.
Verlustleistung, parasitäre Bauteile, Lithographie, ... . Naja, diese Diskussion sollte man lieber in einem neuen Thread halten.
3D-profi
2004-07-17, 19:36:53
Original geschrieben von HOT
Halte ich für Quatsch. Das was da abgeht nenne ich wirklich nen Hype. Es ist schon rein rechnerisch garnet möglich, dass Konsolen jemals solche Leistungsregionen erreichen werden, da man immer auch an die Kosten denken muss. Wenn eine Konsole soviel kostet wie ein HighEnd PC, dann kauft sich doch keiner mehr ne Konsole.
Zumal wohl kaum einer dazu in der Lage wäre, eine CPU zu bauen, wie AMD, Intel oder IBM.
Es geht um den Technikwettlauf nicht ob Sony jetzt seine
Technik auf dem PCmarkt bringt,den Wettlauf um die
neuste Technik hat Intel verloren,der PS3 Hauptprozessor bietet eine max. Leistungs von 1 Terraflops,ein Wert
von denen die Intel-Cpu's Jahre entfernt sind,das war
schon bei der PS2,dessen CPU ist nur mit 297MHZ getaktet
und trotzdem schneller in einigen Bereichen als eine Intel CPU mit 2GHz,das der Grafikspeicher bei der PS2 zu klein ist,ist dann noch eine andere Geschichte. Im übrigen
enstand die PS3 CPU in zusammenarbeit mit IBM und Toshiba.
Die Flops sind aber überhaupt keine Aussage für die Leistungsfähigkeit.
Parallelisierung von Software ist teilweiße extrem schwierig und genau darauf setzt Cell auf.
Soweit ich es beurteilen kann muss das Ding wohl auch noch die Grafikkarte "emulieren" und dann sind 1 TF wohl gerade so ausreichend (ne GeForce 6800 kommt auch schon auf 0,1TF)
dessen CPU ist nur mit 297MHZ getaktet
und trotzdem schneller in einigen Bereichen als eine Intel CPU mit 2GHz,
Woher hast du denn den Müll?
Wegen den beiden VUs? Dolles Ding, die müssen eh für die Geometrieberechnung herhalten, der PC hat das gleiche auf der Grafikkarte und als SSE.
Und der Rest ist nen 300Mhz MIPS und der kommt nie und nimmer an nen 2Ghz P4 ran.
Duran05
2004-07-24, 18:51:34
Bei 150W ist schluss?
Na das müssen wir erstmal abwarten. Ich wäre eher dafür, das alle Prozessorenhersteller von Luft auf Wasserkühlung umsteigen.
Das würde die Wasserkühlung sicher beliebter und noch wesentlich billiger machen.
... im moment stellt sich da wirklich die Frage: Warum sollte man 80€ oder mehr für eine Wasserkühlung ausgeben, wenn man für 40€ noch einen guten Luftkühler bekommt - der nur leicht schlechtere Kühlleistung bietet (z.B. Zalman)?
Beim übertakten hilft die auch nur dann, wenn man eine wesentlich höhere VCore nutzen möchte.
... und die 10 GHz die hier in der alten Intel-Roadmap angegeben waren (siehe 3DC-Artikel), erscheinen mir auch SEHR unrealistisch.
Wie wollten die denn so einen Prozessor kühlen? Das die Verlustleistung in so kurzer Zeit extrem abgesenkt werden kann, kann ich mir beim besten Willen nicht vorstellen.
0,2-0,4 GHz mehr Takt alle paar Monate wären sicherlich in Ordnung. Mehr muss nicht wirklich sein. Obwohl ich auch nichts gegen 100 GHz hätte ;D
Stromsparfunktionen die den Prozessor im Idle-Mode automatisch runtertakten (1 GHz sollte für`s surfen locker reichen) sollte man sofort einführen.
... ich versteh sowieso nicht, warum das so lange dauert. Bei Notebooks ist das mehr oder weniger Standard.
Neben den höheren Taktraten sind Verlustleistung & Lautstärke der Kühlung sicherlich ein wichtiger Punkt - den man jetzt erstmal lösen sollte, bevor es weiter geht.
Eventuell auch ganz "neue" Wege gehen und ein anderes "Material" verwenden für die Herstellung von Prozessoren.
(War da nicht mal die Rede von Diamanten? http://www.heise.de/newsticker/meldung/30551)
Jensk22
2004-07-24, 19:25:53
Original geschrieben von 3D-profi
Es geht um den Technikwettlauf nicht ob Sony jetzt seine
Technik auf dem PCmarkt bringt,den Wettlauf um die
neuste Technik hat Intel verloren,der PS3 Hauptprozessor bietet eine max. Leistungs von 1 Terraflops,ein Wert
von denen die Intel-Cpu's Jahre entfernt sind,das war
schon bei der PS2,dessen CPU ist nur mit 297MHZ getaktet
und trotzdem schneller in einigen Bereichen als eine Intel CPU mit 2GHz,das der Grafikspeicher bei der PS2 zu klein ist,ist dann noch eine andere Geschichte. Im übrigen
enstand die PS3 CPU in zusammenarbeit mit IBM und Toshiba.
Wer bitte schön, hat nach deiner unqualifizierten Meinung gefragt?!?
Die Hardware die bei der neuen PS3 eingesetzt wird, ist in keinster Weise, schon alleine wegen der Nutzbarkeit, mit dem PC vergleichbar. Bei einer Konsole können die Spiele besser an der Hardware angepasst werden, da sie halt einheitlich ist im gegensatz zum PC.
PS: Was soll dieses Fanhyperei um diese sch.. PS3?
Stone2001
2004-07-24, 20:06:16
Original geschrieben von theSpy
Bei 150W ist schluss?
Na das müssen wir erstmal abwarten. Ich wäre eher dafür, das alle Prozessorenhersteller von Luft auf Wasserkühlung umsteigen.
Das würde die Wasserkühlung sicher beliebter und noch wesentlich billiger machen.
Falscher Weg! Zurück zur passiven Kühlung! ;)
Wir sind jetzt mit CMOS da angelangt, wo wir mit ECL aufgehört haben, nur ist bis jetzt noch kein würdiger Nachfolger für CMOS in Sicht. Es gibt verschiedene Ansätze, um mit der Verlustleistung zu reduzieren, SOI z.B. .
Original geschrieben von theSpy
... und die 10 GHz die hier in der alten Intel-Roadmap angegeben waren (siehe 3DC-Artikel), erscheinen mir auch SEHR unrealistisch.
10 GHz sind in naher Zukunft durchaus möglich, vielleicht nicht mit 10^9 Transistoren, aber ... .
Original geschrieben von theSpy
Wie wollten die denn so einen Prozessor kühlen? Das die Verlustleistung in so kurzer Zeit extrem abgesenkt werden kann, kann ich mir beim besten Willen nicht vorstellen.
Der Theorie nach, ist der beste Weg die Verlustleistung zu verringern, die Strukturen zu verkleinern. Kein Witz! Wenn ich meine Schaltung um Faktor S (S < 1) skaliere, verringert sich meine Verlustleistung um S².
Leider werden die Leckströme immer größer, so das es immer schwerer wird die Verlustleistung zu senken.
Original geschrieben von theSpy
Stromsparfunktionen die den Prozessor im Idle-Mode automatisch runtertakten (1 GHz sollte für`s surfen locker reichen) sollte man sofort einführen.
... ich versteh sowieso nicht, warum das so lange dauert. Bei Notebooks ist das mehr oder weniger Standard.
DAS ist eine gute Frage! AMD hat ja jetzt angefangen, wollen wir hoffen, das die anderen nachziehen. (IBM hat AFAIK auch eine ähnliche Funktion im neuen PowerPC 970)
Original geschrieben von theSpy
Eventuell auch ganz "neue" Wege gehen und ein anderes "Material" verwenden für die Herstellung von Prozessoren.
(War da nicht mal die Rede von Diamanten? http://www.heise.de/newsticker/meldung/30551)
Den 'neueren' Materialien steht leider die Wirtschaft entgegen. Anstelle von Silizium könnte man Germanium nehmen. Aber vorsichtigen Schätzungen zufolge, wäre ein Germanium-Prozessor ca. 10 mal teuer als ein Silizium Transistor. Was ein Diamant-Prozessor kosten würde, möchte ich lieber nicht wissen (Diamant-Substrat :D).
Das diese Technolgien ihre Platz haben und auch durchaus eingesetzt werden, ist klar. (Aus Germanium werden z.B. HF-Schaltkreise hergestellt)
Duran05
2004-07-24, 20:15:11
Original geschrieben von Stone2001
Falscher Weg! Zurück zur passiven Kühlung! ;)
... Würde zwar gehen (weniger Takt / weniger VCore...) aber trotzdem müsste die warme Luft irgendwie aus dem Gehäuse gelangen. Ein offenes Gehäuse ist nicht so toll.
Der Theorie nach, ist der beste Weg die Verlustleistung zu verringern, die Strukturen zu verkleinern. Kein Witz! Wenn ich meine Schaltung um Faktor S (S < 1) skaliere, verringert sich meine Verlustleistung um S².
Theorie... ;)
Lässt sich leider nicht immer in der Praxis so umsetzen.
Bestes Beispiel ist sicherlich der Prescott. Helfen würde es auch nur bedingt, wenn immer neue Features/Transistoren dazu kommen.
Den 'neueren' Materialien steht leider die Wirtschaft entgegen. Anstelle von Silizium könnte man Germanium nehmen. Aber vorsichtigen Schätzungen zufolge, wäre ein Germanium-Prozessor ca. 10 mal teuer als ein Silizium Transistor. Was ein Diamant-Prozessor kosten würde, möchte ich lieber nicht wissen (Diamant-Substrat :D).
Das diese Technolgien ihre Platz haben und auch durchaus eingesetzt werden, ist klar. (Aus Germanium werden z.B. HF-Schaltkreise hergestellt)
... das stimmt schon.
Allerdings war das ja damals auch so. Da waren Prozessoren auch noch ultrateuer und mit dem Massenmarkt wurden sie billiger.
... es müsste sich halt ein Hersteller durchsetzen, damit andere nachziehen.
Darauf kann man aber sicher noch lange warten, so lange weiterhin Taktsteigerungen möglich sind.
LOCHFRASS
2004-07-24, 20:51:14
Ich wuesste nicht, wo das Problem ist, >200W abzufuehren. Nimmt man halt nen großen Alublock mit nem 120er drauf oder besser, gleich nen Fan-Duct mit 120ern.
Duran05
2004-07-24, 21:00:27
Original geschrieben von LOCHFRASS
Ich wuesste nicht, wo das Problem ist, >200W abzufuehren. Nimmt man halt nen großen Alublock mit nem 120er drauf oder besser, gleich nen Fan-Duct mit 120ern.
Das funktioniert aber nicht.
Die Auflagefläche zwischen Kühlkörper und CPU bleibt ja gleich groß bzw. wird immer kleiner.
Außerdem ist es mit einem größeren Kühlkörper nicht getan. Irgendwann ist er so groß, das er nicht mehr ins Gehäuse passt oder teurer ist, als die CPU selbst ;)
Stone2001
2004-07-24, 21:42:00
Original geschrieben von theSpy
Theorie... ;)
Lässt sich leider nicht immer in der Praxis so umsetzen.
Bestes Beispiel ist sicherlich der Prescott. Helfen würde es auch nur bedingt, wenn immer neue Features/Transistoren dazu kommen.
hmm, wäre der Prescott nur eine Verkleinerung eines Northwood hätte er wahrscheinlich auch eine kleinere Verlustleistung. Aber ein Vergleich zwischen Prescott und Northwood, was die Verlustleistung angeht, hinkt etwas. 55 Mio. Transistoren vs. 125 Mio. Transistoren ist nicht wirklich fair (dafür schlägt sich der Presott aber wirklich noch sehr gut).
Original geschrieben von theSpy
Allerdings war das ja damals auch so. Da waren Prozessoren auch noch ultrateuer und mit dem Massenmarkt wurden sie billiger.
... es müsste sich halt ein Hersteller durchsetzen, damit andere nachziehen.
Darauf kann man aber sicher noch lange warten, so lange weiterhin Taktsteigerungen möglich sind.
Dann wollen wir mal hoffen, das du recht hast. Die Experten (Elektrotechniker, wie Wirtschaftswissenschaftler) glauben das nicht! Germanium ist nunmal (wesentlich) seltener und deswegen auch teuerer als Silizium.
Original geschrieben von Stone2001
Germanium ist nunmal (wesentlich) seltener und deswegen auch teuerer als Silizium.
zumal Silizium gezüchtet wird ;)
LOCHFRASS
2004-07-25, 01:15:10
Original geschrieben von theSpy
Das funktioniert aber nicht.
Die Auflagefläche zwischen Kühlkörper und CPU bleibt ja gleich groß bzw. wird immer kleiner.
Heatpipe direkt auf die CPU. :D
BlackBirdSR
2004-07-25, 09:28:27
Original geschrieben von medi
zumal Silizium gezüchtet wird ;)
Naja, man züchtet den Siliziumkristall.
Man müsste aus Germanium auch so einen Kristall züchten.
Sonst gäbe es ja keine Wafer.
Silizium ist allerdings eines der häufigsten Elemente in der Erdkruste, von daher ist es relativ billig.
Stone2001
2004-07-25, 13:05:13
Original geschrieben von medi
zumal Silizium gezüchtet wird ;)
Naja, Silizium wird nicht gezüchtet, das gibt es massenhaft in der Erdkruste (Sand,..). Was gezüchtet wird ist der Siliziumeinkristall. Aus diesen Einkristallen werden dann die Wafer gemacht (die Einkristalle haben eine Stabform und werden einfach zersägt).
Das gleiche muß man mit Germanium auch machen, sonst bekommt man keine Wafer.
Duran05
2004-07-25, 16:54:29
Mal eine Frage an die Experten hier: Wäre es nicht möglich, eine CPU mit einer größeren Auflagefläche zu bauen für besseren Kontakt mit zwischen CPU und Kühlkörper?
Oder ist das nicht möglich?
Original geschrieben von Stone2001
Naja, Silizium wird nicht gezüchtet, das gibt es massenhaft in der Erdkruste (Sand,..). Was gezüchtet wird ist der Siliziumeinkristall. Aus diesen Einkristallen werden dann die Wafer gemacht (die Einkristalle haben eine Stabform und werden einfach zersägt).
Das gleiche muß man mit Germanium auch machen, sonst bekommt man keine Wafer.
klugscheisser :bäh:
da drückt man sich einmal undeutlich aus und wird gleich zur sau gemacht :(
BlackBirdSR
2004-07-25, 17:15:35
Original geschrieben von theSpy
Mal eine Frage an die Experten hier: Wäre es nicht möglich, eine CPU mit einer größeren Auflagefläche zu bauen für besseren Kontakt mit zwischen CPU und Kühlkörper?
Oder ist das nicht möglich?
Klar geht das.
Leider gibt es einige Probleme dabei.
Je größer die CPU, desto teurer wird sie in der Herstellung.
Die Waferscheiben aus denen sie geschnitten werden, kosten ja immer das Gleiche.
Wenn ich jetzt größere CPUs und dadurch weniger CPUs/Wafer habe, werden die CPUs teurer.
Dazu kommt, dass man die CPUs nicht einfach größer machen kann. Die Hitze entsteht ja primär an Stellen wo es richtig rund geht. Diese sogenannten Hotspots liegen meist irgendwo in der Mitte der CPU. Man müsste wichtige Funktionseinheiten oder Schaltungen gezielt an andere Orte versetzen. Das beeinflusst allerdings die Taktbarkeit auf extreme Weise.
So hat auch bei größeren CPUs die Hitzeneticklung ein lokales Maximum, an dem sie abgeführt werden muss. Die Auflagefläche vergrößern, bringt also nicht so viel wie man denken könnte.
Duran05
2004-07-25, 17:27:32
... Funktionieren würde das also schon?
... klar gibt es immer Punkte die mehr Wärme als andere Verursachen. Aber könnte man die nicht "gleichmäßiger" verteilen und die CPU stattdessen "breiter" bauen? (also z.B. statt 20x20mm, einfach 40x40mm?)
Das die Herstellung erstmal teurer wird, ist klar. Aber bekanntlich wird "Massenware" mit der Zeit wieder billiger - sofern das Material nicht begrenzt vorhanden ist.
BlackBirdSR
2004-07-25, 18:10:00
Original geschrieben von theSpy
... Funktionieren würde das also schon?
... klar gibt es immer Punkte die mehr Wärme als andere Verursachen. Aber könnte man die nicht "gleichmäßiger" verteilen und die CPU stattdessen "breiter" bauen? (also z.B. statt 20x20mm, einfach 40x40mm?)
Wie gesagt, den Inhalt der CPU gleichmäßig zu Verteilen, würde solch CPUs wie wie sie heute haben nicht erlauben.
Es würde zu lange dauern, die Signale von einer Stelle zur Anderen zu bringen.
Duran05
2004-07-25, 18:16:17
Was machen wir dann in der Zukunft? Irgendwie werden die Prozessoren immer kleiner, obwohl sie aus mehr Transistoren bestehen.
Muss man nun die Befürchtung haben, das sie demnächst nur noch 10x10mm oder gar weniger messen und per Lupe gesucht werden müssen? ;D
GloomY
2004-07-25, 18:54:04
Original geschrieben von theSpy
... klar gibt es immer Punkte die mehr Wärme als andere Verursachen. Aber könnte man die nicht "gleichmäßiger" verteilen und die CPU stattdessen "breiter" bauen? (also z.B. statt 20x20mm, einfach 40x40mm?)Ich gebe zu Bedenken, dass bei einer Ver-n-fachung der Fläche der Prozessor nicht um das n-fache teurer wird sondern um deutlich mehr als das n-fache. Das liegt daran, dass der Yield eben auch um ein ganzes Stück sinkt, wenn man die Fläche der Dies erhöht. :|
Ich glaube, es gibt keine wirtschaftlichen Alternativen zur Flächenminimierung. Extra Platz lassen bedeutet Geld zum Fenster hinaus zu werfen.
Original geschrieben von theSpy
Was machen wir dann in der Zukunft? Irgendwie werden die Prozessoren immer kleiner, obwohl sie aus mehr Transistoren bestehen.
Muss man nun die Befürchtung haben, das sie demnächst nur noch 10x10mm oder gar weniger messen und per Lupe gesucht werden müssen? ;D Die Dies selbst werden nicht sehr viel kleiner werden. Die Integrationsdichte nimmt zwar zu, aber eben auch die Anzahl der Transistoren.
Imho haben sich die Größen der Dies der gängigen Desktop-CPUs in den letzten Jahren immer in etwa zwischen 100 und 200 mm² gehalten.
Stone2001
2004-07-25, 19:04:04
Original geschrieben von theSpy
Was machen wir dann in der Zukunft? Irgendwie werden die Prozessoren immer kleiner, obwohl sie aus mehr Transistoren bestehen.
Muss man nun die Befürchtung haben, das sie demnächst nur noch 10x10mm oder gar weniger messen und per Lupe gesucht werden müssen? ;D
hmm, in den letzten paar Jahren war die Fläche der Chip recht konstant. Mit der Integrationsdichte, stieg auch die Transistorenanzahl. (Ausnahmen bestätigen die Regel)
Und wenn die Technologen ihren Job gut machen, soll es mir auch recht egal sein, wie groß der Chip ist! ;)
Thanatos
2004-07-30, 19:02:07
Also ich finde man sollte unbedingt von diesem mhz wahn runterkommen.Es wurde mal ausgerechnet das in 20 (wenn die entwicklung in mhz genauso voranschreitet wie jetzt) die Temperatur eines Prozessors Theoretisch bei denen der Sonnne läge.......................da hilft dann wahrscheinlich nicht mal mehr ne Wakü.Aber die Heizung könnte man sich sparen ;D
Ich finde man sollte den vorhandenen Takt einfach viel besser ausnutzen um so mit gleichem Takt die 3 bis 5 fache lesitung herauszuholen.
GloomY
2004-07-30, 19:29:04
Original geschrieben von Thanatos
Ich finde man sollte den vorhandenen Takt einfach viel besser ausnutzen um so mit gleichem Takt die 3 bis 5 fache lesitung herauszuholen. Tolle Idee, bloß wie stellst du dir das konkret vor?
Es gibt für höhere Leistung pro Takt nur 2 Möglichkeiten: Mehr Parallelverarbeitung oder weniger Taktzyklen pro Befehl.
Das 2. ist schon durch Pipelining weitgehend perfektioniert. Bleibt eigentlich nurnoch Parallelverarbeitung und das ist im Moment im Trend, Hyperthreading, Dual-Core, SSE, sogar 64-Bit kann man dazu zählen.
Programmierbare Spezialisten in Parallelverarbeitung sind FPGAs, da sind 1000 parallele Operationen kein Problem. Das Problem dabei ist, dass man sie komplett anders programmieren muss als CPUs und sie deshalb nicht direkt zur Beschleunigung von CPU-Machinencode benutzen kann.
BlackBirdSR
2004-07-30, 21:42:34
Original geschrieben von Thanatos
Also ich finde man sollte unbedingt von diesem mhz wahn runterkommen.Es wurde mal ausgerechnet das in 20 (wenn die entwicklung in mhz genauso voranschreitet wie jetzt) die Temperatur eines Prozessors Theoretisch bei denen der Sonnne läge.......................da hilft dann wahrscheinlich nicht mal mehr ne Wakü.Aber die Heizung könnte man sich sparen ;D
Bezogen auf das Verlustleistungs/Flächenverhältnis.
Und die Sonnenoberfläche ist mit 5000°K ja auch nicht so hoch ;)
Duran05
2004-07-30, 22:14:12
MHz-Wahn? Wo?
Im moment geht es eher langsam vorran, was die Taktrate angeht.
Da könnte durchaus mehr kommen. Jetzt sollten erstmal alle Hersteller dafür sorgen, das auch Desktop Prozessoren im Idle-Mode automatisch heruntertakten - so stufenlos wie es nur eben geht.
Das wäre eine gute Neuerung... dann könnte man sogar passiv kühlen.
Ansonsten muss auch die Verlustleistung deutlich gesenkt werden. Vorallem der Prescott bedarf einiger änderungen.
Welche das sind, das überlass ich euch ;)
anorakker
2004-07-30, 23:02:44
das runtertakten im idelmode ist zwar schön, beseitigt aber nicht das problem, das die cpu unter vollast trotzdem zu heiss wird...
die mhz-effektivität zu steigern ist auch nur noch begrenzt möglich(zumindest bei x86 systemen) und wie man mit ultralangen pipelines danebenliegen kann hat uns doch intel mit dem p4 bewiesen! theoretisch für mehrere ghz bereit, aber der stromhunger lässt im moment nicht mehr zu...
im desktopmarkt haben die cpu hersteller im moment echt kein zukunftsweisendes konzept aufzuweisen, multicore lösungen zielen eher in richtung server/workstation markt, wo multiprocesserdesign relativ effektiv in rohe leistung umgesetzt werden kann...
und noch etwas zur grösse : neben der notwendigkeit eines kleinen dies wegen der signallaufzeiten, ist der wesentliche grund der preis - fläche ist für chipproduzenten die massgebliche einheit für die spätere preisgestaltung, dabei ist die anzahl der transis relativ nebensächlich. deswegen sind die cpus mit den riesigen caches (xeons itaniums usw.) auch so extrem teuer..
Stone2001
2004-07-30, 23:06:00
Original geschrieben von theSpy
MHz-Wahn? Wo?
Im moment geht es eher langsam vorran, was die Taktrate angeht.
Naja, kommt darauf an, aus welchem Blinkwinkel man die Sache betreachtet. Wenn man nur die erschienenen Prozessoren betrachet, ist der MHz-Wahn in letzter Zeit etwas abgeflacht.
Original geschrieben von theSpy
Da könnte durchaus mehr kommen. Jetzt sollten erstmal alle Hersteller dafür sorgen, das auch Desktop Prozessoren im Idle-Mode automatisch heruntertakten - so stufenlos wie es nur eben geht.
Das wäre eine gute Neuerung... dann könnte man sogar passiv kühlen.
Nicht ganz, aber man könnte eine Lösung, wie bei Notebooks einführen, d.h. der Lüfter läuft nur noch, wenn der Prozessor zu warm wird. Eine reine Passivkühlung fällt raus, da die Przessoren unter Vollast immer noch über 100W verbrauchen können.
Original geschrieben von theSpy
Ansonsten muss auch die Verlustleistung deutlich gesenkt werden. Vorallem der Prescott bedarf einiger änderungen.
Welche das sind, das überlass ich euch ;)
hmm, der Prescott an sich benötigt keiner Änderung, was sich ändern sollte, wäre der Fertigungsprozess. Wenn Intel die Leckstöme in den Griff bekommt, dann geht es auch mit dem Prescott weiter (und mit der GHz-Manie).
BlackBirdSR
2004-07-30, 23:21:51
Original geschrieben von Stone2001
hmm, der Prescott an sich benötigt keiner Änderung, was sich ändern sollte, wäre der Fertigungsprozess. Wenn Intel die Leckstöme in den Griff bekommt, dann geht es auch mit dem Prescott weiter (und mit der GHz-Manie).
Es liegt mehr am Prescott als am Prozess -> siehe Dothan.
Stone2001
2004-07-31, 10:17:53
Original geschrieben von BlackBirdSR
Es liegt mehr am Prescott als am Prozess -> siehe Dothan.
Doppeldeutige Aussage? ;)
Im Prinzip hast du ja recht, der Prescott wurde nicht darauf hin entworfen besonders sparsam mit dem Strom umzugehen, er sollte sich möglichst hoch takten lassen. Aber wenn man jetzt mal die Stromaufnahme des Prescott mit der des Dothan vergleicht, verbraucht ein Prescott rund 4 mal soviel wie ein Dothan, bei nur 1 Ghz mehr.
So gesehen stimmt beim Prescott einiges nicht.
Duran05
2004-07-31, 15:55:13
Original geschrieben von Stone2001
Nicht ganz, aber man könnte eine Lösung, wie bei Notebooks einführen, d.h. der Lüfter läuft nur noch, wenn der Prozessor zu warm wird. Eine reine Passivkühlung fällt raus, da die Przessoren unter Vollast immer noch über 100W verbrauchen können.
Eine rein passive Kühlung ist sowieso Utopie.
Dennoch würde es jede menge bringen, wenn z.B. ein Prescott in Windows nur noch mit 800 MHz arbeiten würde bei sehr niedrigem VCore.
... Bei den meisten Homeusern wird das System wahrscheinlich in 80% der Uptime nur wenig ausgelastet. Für Winamp und Co. gehen z.B. gerade mal 1 % CPU Auslastung drauf :)
Man könnte das auch kombinieren: Bei geringer Auslastung wird automatisch die Leistung gesenkt, während bei voller Auslastung eine extrastarke Kühlung zum Einsatz kommt.
z.B. ein 150mm Lüfter :)
Wenn man jetzt ein gedämmtes Gehäuse hat, sollte sich das Geräuschniveau in Grenzen halten. So sollte man selbst 150W abführen können - zumindest nach heutigem Stand.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.