PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Das Ende des Gigaherzwahns?


Seiten : [1] 2

Gast
2010-07-07, 06:06:41
Momentan stagnieren aktuelle x86 CPUs bei Taktraten von ca. 3-4 GHz und die Entwicklung geht in Multicore CPUs, aber ist das nun wirklich das Ende bei den Taktraten?


Wie sieht es mit den technologischen Basistechnologien aus?
Für ca. 10 Jahren gab es mal ne Newsmeldung das Intel nen Transistor entwickelt hätte, der mit 10 GHz schaltet, aber was ist aus dieser Technologie geworden?

Wann geht es bei den CPUs wieder mit der Taktfrequenz weiter?


Mutlicore CPUs haben ja leider massive Probleme bezügl. einer effizienten Nutzung durch Software, Thread & Prozess Deadlocks, Race Conditions usw. nur um mal ein paar der Probleme zu nennen und lösungen sind hier kaum in Sicht, da dieses Gebiet schon früher recht gut erforscht wurde.
Denn das Grundproblem bleibt ja, nicht jede Aufgabe läßt sich in eine paralell ausgeführte Berechnung umstrukturieren.
Auf Dauer kann der einzige Weg also nur sein, wieder bei der Taktfrequennz weiterzumachen, aber was gibt hier die Grundlagentechnologie bezügl. Materialen usw. her?

Ich habe mal gehört daß CPUs auf Kohlenstoffbasis viel höhere Temperaturen und Taktfrequenzen erreichen könnten, aber diese würden dann aus einem synthetischen Diamanten anstatt reinem Silizium bestehen, aber wie soll man Diamanten bearbeiten und vor allem auch kostengünstig in einer Massenproduktion fertigen?


Wo steht hier also die aktuelle Forschung?

Ist man für die nächsten 15 Jahre auf diese 4 GHz* Grenze verdammt?
* Extremoverclocking mal ausgenommen, es geht um Standard CPUs bei von Herstellern zugelassenen Taktraten.

tombman
2010-07-07, 06:15:59
Es wird doch der umgekehrte Weg gegangen: nicht die Qualität der games muß hinauf, sondern die Ansprüche der user nach unten- offenbar sehr erfolgreich :ulol:

Für Office und Internet braucht keiner mehr Leistung, und wissenschaftliche/professionelle Anwendungen werden multicore optimiert.

Alle sind zufrieden, bis auf die core-gamer- aber die sterben eh aus :(

Gast
2010-07-07, 08:54:47
@ tombman:

Du neigst mal wieder zur Übertreibung...
Bei den Spielen ist der Trend zur Multicore Optimierung doch auch
unverkennbar. Zumindest können nahezu alle Spiele der letzten 3-5 Jahre
sehr vernüftig mit 2 Kernen umgehen (nicht zuletzt dank der sehr frühen Einführung von Intels HT). Auch bei Quadcores tut sich inzwischen einiges...

Allerdings gebe ich dir recht, dass hier schon ab den Quads mittelfristig ein Problem entstehen wird, weil die Kernanzahl (im High-End) vermutlich schneller steigen wird, als die Programmierer können und wollen. Schließlich sollen die neuen Spiele einem Massenmarkt zugeführt werden und nicht ausschließlich Leuten, die mit möglichst vielen Kernen in der CPU defizite des "Real Life" kompensieren müssen. Ergo ist es - als Gamer - heut und in Zukunft ziemlich dämlich sich einen Hexa oder Octacore zu kaufen.

@ TE:
Wie du bereits selbst konstatiert hast ist der "GHz-Wahn", der noch zu P4-Zeiten tobte, längst vorbei. Man hat (auch beim Anwender) erkannt, dass die Architektur der entscheidende Faktor ist. Man erinnere sich nur nochmal kurz zurück an die ersten C2D-Modelle als diese auf den Markt kamen. Bei niedrigsten Taktraten erreichten diese Atemberaubende Leistungen im vergleich zu ihren Vorgängern und der Konkurrenz.

Eventuell wird der GHz-Wahn aber wieder zurückkehren. Nämlich dann, wenn es architekturtechnisch ins Stocken kommt und die Grenze bei den Fertigungsstrukturen langsam erreicht ist. Dann beleibt nur noch dieser Ausweg.

Mit den aktuellen Architekturen lassen sich ja bereits spielend die 4 GHz ausfahren, die (vor allem schon Fertigungsstrukturbedingt) zu P4-Zeiten nicht möglich waren und die Schallmauer darstellten. Bei den kommenden Architekturen dieser Dekade ist bestimmt noch Spielraum für 5-7 GHz.

Fazit:
NetBurst mit seiner "langen leitung" (Pipelines) hat sich als Fehler entpuppt.
Das Gleich wird mittelfristig auch mit dem aktuellen "KERNWAHN" geschehen.
Ich sehe das ziemlich emotionslos. Was nichts bringt, bringt halt nichts.
Vernunft bei der Halbleiterinustrie oder bei den anderen "Mitkunden" zu erwarten hab ich schon längst aufgegeben. Merkt euch diese Binse:
Es wird nur auf den Markt geworfen, was dort auch verkauft werden kann.
An "GHz-Wahn" und "Kern-Wahn" ist immer auch der Kunde Schuld.

Aus dem Grunde fahre ich heute wohl noch einen C2D @ 3,8 GHz?
Wer sich jetzt schon einen Quad kauft ist einfach selber schuld...
(oder er weiß sehr genau wofür er ihn benötigt und beklagt sich nicht).

tombman
2010-07-07, 09:06:01
Wer sich jetzt schon einen Quad kauft ist einfach selber schuld...
(oder er weiß sehr genau wofür er ihn benötigt und beklagt sich nicht).
Einige games profitieren vom Quad sehr gut, und sooo teurer sind Quads ja nicht- bei AMD sind sogar die hexis günstig :)

dargo@work
2010-07-07, 09:20:30
Wer sich jetzt schon einen Quad kauft ist einfach selber schuld...
(oder er weiß sehr genau wofür er ihn benötigt und beklagt sich nicht).
Naja, so schlimm ist es nun wieder auch nicht. Es gibt durchaus Games die vom Quadcore sehr gut profitieren. Allerdings sehe ich das mit den zunehmenden Kernen genauso wie du. Im Prinzip ist es eigentlich schade, dass Intel keinen Triple-Core anbietet (die X3 von AMD bieten mir etwas zu wenig Leistung). Man stelle sich einen i7-8x0 (inkl. SMT) mit 3 Kernen und 2,66-3,xxGhz für ca. 120-xxx € vor. Der kleinste wäre die ideale CPU für einen Gamer im Durchschnitt. Games die 3 Cores sehr gut auslasten gibts schon seit ca. 2-3 Jahren sehr viele.

Lowkey
2010-07-07, 10:05:37
Der Prescott wurde mehr oder weniger nicht als Erfolg angesehen, weil die Verlustleistung bzw. die Wärmeentwicklung nicht mehr normal war. Dafür brauchte man erstmals eine Wasserkühlung, denn sonst wurde der Prescott schon ohne Übertaktung zu heiss für die meisten Gehäuse. Da kam damals Intel die Idee mit dem BTX Standard.

Der Grund für fehlenden Support für neuste Technik ist Geld. Denn Crysis hat gezeigt, dass man ein Spiel nicht verkaufen kann, dass um halbwegs flüssig zu laufen neuste Hardware braucht.

Also funktionieren neuste Spiele nach dem Prinzip der Minimalanforderungen. Die erste Tatsache ist die, dass Spiele für Konsolen entwickelt und dann lediglich auf PC portiert werden. Zweitens richtet sich ein Spiel nach der Hardware, die schon 4-5 Jahre alt ist. Denn man will ja eine Breite Masse an Käufern ansprechen. Ein Spiel sollte mit low details auf jedem Rechner laufen können.

Ein anderer Faktor ist die Konkurrenz: AMD und Intel liefern sich zwar einen Wettkampf, aber Intel ist AMD immer noch zwei Jahre in der Technik vorraus. Derzeit konzentriert man sich auf einen geringeren Stromverbrauch, was sicherlich für Serverfarmen ebenso interessant ist wie für den Endverbraucher, aber letztlich stagniert die Leistung minimal. Die 32nm Fertigung hat gegenüber der 45nm Fertigung ihre Vorteile noch nicht wirklich ausgespielt. "Dank" dem Grafikkartenkern sind keine 5 Ghz Intel I3/I5 machbar. Erst Ende des Jahres gibt es laut Roadmap erste Dual/Quadcore Prozessoren in 32nm und ohne Grafikkartenkern. Dann sind sicherlich 5 Ghz bei durchschnittlicher Kühlung möglich.

Eine andere Geschichte ist die Sache der Notwendigkeit. Noch heute kenne ich Menschen, die mit ihrem Pentium 2 400 und einer 8 Mbyte Grafikkarte auf 24" in 1920x1080 ihre Briefe schreiben. Denn 400 Mhz reichen dafür aus.
Bei 800 Mhz wurde gesagt, dass es für DVD Wiedergabe ausreicht. Ein Dualcore 2500 sei für die flüssige Wiedergabe von Full HD nötig (Ich meine keine Trailer, sondern sowas wie die Samsung Ozeanic Demo).
Heute aber spiel die Grafikkarte eine zweite Rolle indem sie den Prozessor bei der Wiedergabe von Videos entlastet, aber auch bei Spielen mit Phys-X entweder entlastet oder ohne Leistungsverlust mehr Effekte ermöglicht.

Früher musste man schon nach einem Jahr den Rechner erneuert und aufrüsten, denn es gab Spiele, die einfach zu neu waren. Heute ist es so, dass ein Dualcore System der ersten Generation nach fast 4 Jahren noch für neuste Spiele reicht. Im aktuellen Fall sehe ich das bei Battlefield BC2, wo man immer noch mitspielen kann, obwohl der Rechner eigentlich zu schwach sein müsste. Neue Spiele haben mehr Möglichkeiten effektiv auf optische Zusatzfunktionen zu verzichten als ältere Spiele, was aber von den "geldgierigen" Entwicklern so gewollt ist.

Mein 4Ghz Dualcore wird langsam 2 Jahre alt, aber ich sehe noch immer keinen Grund (außer der Neugier), auf einen Quadcore zu wechseln, da alle Spiel flüssig laufen. Dennoch war ich erstaunt, dass zB. WoW bei Raids auf einem Intel i7-9x0 System fast doppelt so gut lief wie bei mir und das sagte mir bislang kein Benchmark so eindeutig wie die praktische Erfahrung.

Bucklew
2010-07-07, 10:08:19
Grundsätzlich könnte man problemlos eine CPU mit mehr Takt bauen, das Problem ist, dass man bei den heutigen Taktfrequenz von knapp über 3GHz und den entsprechenden Die-Größen in den Bereich kommt, in denen aufgrund der elektrischen Länge nicht mehr die bisher genutzten Gesetze zur Berechnung gelten sondern die der Hochfrequenz. Es hat sich bisher nur noch keiner daran getraut, mit diesen Gesetze zu hantieren.

Frucht-Tiger
2010-07-07, 10:58:37
Ich denke das kommt und geht. Siehe aktuelle Mobiltelefone, wo gerade der "Gigaherzwahn" um sich greift. Kaum eine Werbung in der nicht mit der Taktfrequenz geworben wird. Mit der nächsten ARM-Generation könnte das aber auch schon wieder gegessen sein(mehr IPC).

Gigaherzwahn ist IMHO eine Modeerscheinung und verhält sich auch so.

dargo@work
2010-07-07, 11:01:39
Denn Crysis hat gezeigt, dass man ein Spiel nicht verkaufen kann, dass um halbwegs flüssig zu laufen neuste Hardware braucht.

Also funktionieren neuste Spiele nach dem Prinzip der Minimalanforderungen. Die erste Tatsache ist die, dass Spiele für Konsolen entwickelt und dann lediglich auf PC portiert werden. Zweitens richtet sich ein Spiel nach der Hardware, die schon 4-5 Jahre alt ist. Denn man will ja eine Breite Masse an Käufern ansprechen. Ein Spiel sollte mit low details auf jedem Rechner laufen können.

Du widersprichst dir hier gewaltig. Crysis hat eine hervorragende Skalierung sowohl nach oben als auch unten. Wenn mich nicht alles täuscht ist Crysis selbst mit einer R9800pro spielbar.


"Dank" dem Grafikkartenkern sind keine 5 Ghz Intel I3/I5 machbar. Erst Ende des Jahres gibt es laut Roadmap erste Dual/Quadcore Prozessoren in 32nm und ohne Grafikkartenkern. Dann sind sicherlich 5 Ghz bei durchschnittlicher Kühlung möglich.

Ich frage mich gerade was ihr mit euren Ghz habt? Wen interessiert das? Eine neue CPU-Generation kann von mir aus mit nur einem Ghz takten solange sie erheblich schneller als der Vorgänger ist. Die Taktrate an sich ist sowas von unwichtig.

Gast
2010-07-07, 11:20:15
...ist Crysis selbst mit einer R9800pro spielbar.


Hab ich damals versucht und nur die Hälfte vom Spiel gesehen. Unsichtbare Bäume und Häuser machten ein Spielen unmöglich. Arschlahm war`s trotz der fehlenden Effekte

Ich frage mich gerade was ihr mit euren Ghz habt?

Da sich momentan recht wenig an der IPC pro Core ändert, die Hersteller einfach nur immer mehr Kerne zusammenflanschen und gewisse Software davon nur wenig profitiert, wird der Ruf nach höherem Takt mal wieder laut, imho zu recht. Mittlerweile gibt es etliche Anwendungen, bei denen die neuen Multicores deutlich langsamer sind, als eine CPU von vor ~5 Jahren. Weniger Takt bei mehr Kernen ist heute noch nicht wirklich vertretbar, zumindest nicht für den Gamer;)

Was sind überhaupt Gigaherzen?^^

Lowkey
2010-07-07, 11:42:29
Mhz > all. Das gilt noch eine ganze Weile. Selbst wenn morgen ein 1000 Mhz Rechner kommt, der schneller ist, so ist er nicht in jedem Bereich schneller. Mal liegt er vorne, aber manchmal auch sehr weit hinten. Es kommt auf den Anwendungsbereich an.
Demnach ist ein Mehrkernprozessor für Gamer nur dann interessant, wenn die zusätzlichen Kerne nicht auf Kosten der Mhz erkauft werden.

Die aufkommende Frage ist die, ob sich irgendwo ein Trend abzeichnet ab wieviel Kernen "genug" ist. Zwar supporten die Spielehersteller die breite Masse, doch wohin geht der Trend? Wird es eine Art Multi-CPU Support geben (2-unendlich) oder stellt es sich fix auf den aktuellen Wert ein (2-4)?

Lyka
2010-07-07, 11:44:27
Wie soll der unbelesene 0815-User denn wissen, ob ein Prozessor schneller ist? Er wird nicht dutzende Testberichte im Internet lesen, ein Jahr überlegen usw.: Hertz = PS.

dargo@work
2010-07-07, 11:49:57
Wie soll der unbelesene 0815-User denn wissen, ob ein Prozessor schneller ist? Er wird nicht dutzende Testberichte im Internet lesen, ein Jahr überlegen usw.: Hertz = PS.
Dann ist das sein Problem. Unwissenheit schützt nicht vor Strafe. ;-)
Wenn er nach diesem Schema geht ist er selbst schuld. Ich hoffe nur er vergisst sein Schema nicht beim nächsten Auto-Kauf. PS = alles. ^^

Mordred
2010-07-07, 11:55:06
Mhz > all. Das gilt noch eine ganze Weile. Selbst wenn morgen ein 1000 Mhz Rechner kommt, der schneller ist, so ist er nicht in jedem Bereich schneller. Mal liegt er vorne, aber manchmal auch sehr weit hinten. Es kommt auf den Anwendungsbereich an.
Demnach ist ein Mehrkernprozessor für Gamer nur dann interessant, wenn die zusätzlichen Kerne nicht auf Kosten der Mhz erkauft werden.

Die aufkommende Frage ist die, ob sich irgendwo ein Trend abzeichnet ab wieviel Kernen "genug" ist. Zwar supporten die Spielehersteller die breite Masse, doch wohin geht der Trend? Wird es eine Art Multi-CPU Support geben (2-unendlich) oder stellt es sich fix auf den aktuellen Wert ein (2-4)?

Du, die 1000Mhz haben wir schon ein Weilchen hinter uns ;) Die hab ich damals mit nem PIII geknackt.

Lyka
2010-07-07, 11:55:33
... das bringt UNS aber nix, oder? ^^

aus diesem Grund werden doch keine Gering-Gigahertzer-Prozessoren für den Desktop-Betrieb "entwickelt"

dargo@work
2010-07-07, 11:56:02
Da sich momentan recht wenig an der IPC pro Core ändert, die Hersteller einfach nur immer mehr Kerne zusammenflanschen und gewisse Software davon nur wenig profitiert, wird der Ruf nach höherem Takt mal wieder laut, imho zu recht.
Die IPC (gerade wenn man vom Kentsfield/Yorkfield auf den Nehalem geht) als Gesamtpaket, sprich bei einem Quadcore hat sich sogar deutlich verbessert. Bei entsprechender Software 'und dazu gehören auch Games' bis zu +100% bei gleicher Taktrate.

Gast
2010-07-07, 12:07:56
@dargo

Ja so ist das. Wenn man sich aber nur alle 5+ Jahre einen neuen PC anschafft, sind 100% Leistungssteigerung aber eine pure Enttäuschung. Eine knappe Verzehnfachung war bis vor einiger Zeit immer drin, auch ohne Multicore-Tricksereien.

BlackBirdSR
2010-07-07, 12:11:10
Grundsätzlich könnte man problemlos eine CPU mit mehr Takt bauen, das Problem ist, dass man bei den heutigen Taktfrequenz von knapp über 3GHz und den entsprechenden Die-Größen in den Bereich kommt, in denen aufgrund der elektrischen Länge nicht mehr die bisher genutzten Gesetze zur Berechnung gelten sondern die der Hochfrequenz. Es hat sich bisher nur noch keiner daran getraut, mit diesen Gesetze zu hantieren.

Das ist jetzt aber schmarn.
Intel wollte mit Netburst auf 10Ghz und mehr,
Power6 wurde 2008 mit 5GHz verkauft...

dargo@work
2010-07-07, 12:19:16
Ja so ist das. Wenn man sich aber nur alle 5+ Jahre einen neuen PC anschafft, sind 100% Leistungssteigerung aber eine pure Enttäuschung. Eine knappe Verzehnfachung war bis vor einiger Zeit immer drin, auch ohne Multicore-Tricksereien.
Wie kommst du auf 5+ Jahre? Der Sprung von Netburst auf C2D lag bei ungefähr +100%. Das gleiche erlebte ich beim Umstieg vom C2Q auf Nehalem. Die Software muss natürlich mitspielen, keine Frage. Und das müssten 2x 2-3 Jahre sein wenn mich nicht alles täuscht. Bei CPUs kann man nicht die doppelte Leistung jedes Jahr erwarten wie bei Grafikkarten. Das war nie der Fall. Selbst bei Grafikkarten hat sich dieser Zyklus mittlerweile verlängert.

y33H@
2010-07-07, 12:31:29
Bei entsprechender Software 'und dazu gehören auch Games' bis zu +100% bei gleicher Taktrate. +100% von Yorkfield auf Nehalem? Ich schaffe nur ~50% :usad:

Gast
2010-07-07, 12:34:30
Mir hat mal ein E-Techniker gesagt, dass bei 10 Ghz die Signale in der CPU nur noch wenige ( < 5) cm zurücklegt. Somit sind bei 10Ghz+ Komplexität, Coreanzahl, Caches, Threats, Strukurgröße alles vom Takt als entscheidende Größe abhängig. Ausweg gibts im Lichtleiter da wohl dort selbst bei 10Ghz wesentlich mehr weg zurückgelegt werden kann.

Ich selbst besitze jetzt schon 5 Generationen an Cpus die alle per Wakü auf 4 Ghz arbeiten. Hatte P4 3,2 XE, P4 3,73 XE, Core6800, E8500 und aktuell i7 W3520 (Xeon baugleich 920). Und man will es kaum glauben, ältere Singlecorespiele liefen annähernd auf der CPU genauso wie auf der letzten. Natürlich sind moderne Spiele durchaus besser auf dem i7. Die Leistungssprünge werden eben kleiner und kleiner. Man darf aber auch nicht vergessen das der P4 3,73XE @OC ein reines Hitzekraftwerk war mit satten 230 Watt laut meiner Messung und slebst mit Wakü wren 85C nicht selten.

dargo@work
2010-07-07, 12:39:41
+100% von Yorkfield auf Nehalem? Ich schaffe nur ~50% :usad:
Und sagte ja nicht umsonst bei entsprechender Software. Schau dir meine Diagramme in RE5 an. Ich glaube auch nicht, dass RE5 ein Einzelfall ist. Leider lassen sich viele Games diesbezüglich nicht überprüfen weil die Entwickler der Meinung sind freies Speichern braucht man nicht.

Gast
2010-07-07, 13:22:54
Hier der Gast vom Post zuvor.

Was mich viel mehr ärgert, ist die Tatsache, dass im CPU Bereich selbst alte Standardroutinen auf dem i7 schneller laufen als auf einen C2D oder gar P4.

Im Grakamarkt ist dem aber nicht so wie ich finde. Ich habe genug Spiele hier die in 1920x1200 in Direktx9 durchaus noch mehr Leistung gebrauchen könnten. Meine GTX285 hat dabei meine 2 SLI 8800GTX abgelöst, aber einen Leistungsspung mit der 480GTX sehe laut den ganzen Reviews nicht. Die neue 480 mag unter Direktx11 super skalieren aber im Direktx9 ist stillstand gegenüber meiner, im Gegenteil soll sogar paar Titel geben die auf der 285er besser laufen. Meine Kriki ist daher, wenn schon neue Graka Generation dann bitte auch so, dass ältere DX Versionen ebenfalls gepusht werden und zwar spürbar >20%

Nightspider
2010-07-07, 13:28:19
Ich wette es wird noch 32nm Modelle geben, welche die 4Ghz Stock knacken.

Aktuelle DualCores, ja sogar noch in 45nm kann man ja schon auf teils 4,8 Ghz mit Luftkühlung übertakten.

4-4,4 Ghz werden wir bestimmt noch sehen im Laufe des 32nm Prozesses bei DualCores.

Fetter Fettsack
2010-07-07, 13:57:05
Was mich viel mehr ärgert, ist die Tatsache, dass im CPU Bereich selbst alte Standardroutinen auf dem i7 schneller laufen als auf einen C2D oder gar P4.

Und was ist daran ärgerlich? Kann ich irgendwie nicht ganz nachvollziehen. :)

y33H@
2010-07-07, 13:58:19
@ dargo

RE5 ist ein Sonderfall - nutzt die den "Fixed" oder Ingame? Ingame erreiche ich bei GTA4 +47% von Yorkie auf Lynnfield.

dargo
2010-07-07, 15:38:12
RE5 ist ein Sonderfall - nutzt die den "Fixed" oder Ingame? Ingame erreiche ich bei GTA4 +47% von Yorkie auf Lynnfield.
Wie meinen?

Gasti
2010-07-07, 15:42:50
Es gibt keinen Wahn.
Es wird Das gemacht, was mit vertretbarem(und bezahlbarem) Aufwand machbar ist.
Heute sind es mehr Kerne und Morgen vielleicht wieder mehr Takt (durch andere Materialien etc.)

Gast
2010-07-07, 15:49:21
Morgen vielleicht wieder mehr Takt (durch andere Materialien etc.)
Oder auch nicht. Jedenfalls nicht in Massenfertigung.

Gasti
2010-07-07, 15:57:01
Oder auch nicht. Jedenfalls nicht in Massenfertigung.

Mit solchen Festlegungen ist man schon immer schlecht gefahren;)

Don-Roland
2010-07-07, 15:59:58
@ Topic

Die Architektur ist wichtiger als die GHz. Braucht man doch nur eine alte 3Ghz CPU mit einer neuen 3GHz CPU vergleichen...

Gast
2010-07-07, 16:09:04
Der Grund für fehlenden Support für neuste Technik ist Geld. Denn Crysis hat gezeigt, dass man ein Spiel nicht verkaufen kann, dass um halbwegs flüssig zu laufen neuste Hardware braucht.

Das kann man schon, nur braucht man ein anderes Game als ein simpler 5 Stunden Egoshooter der eigentlich NICHTS neues bietet außer ner schönen Grafik.

Ich würde mal sagen, würde Mafia 2 nur auf einem Quadcore flüssig laufen, dann würden die Leute mit Erscheinen dieses Spieles auch nen Quadcore kaufen.

Tesseract
2010-07-07, 16:09:31
Allerdings gebe ich dir recht, dass hier schon ab den Quads mittelfristig ein Problem entstehen wird, weil die Kernanzahl (im High-End) vermutlich schneller steigen wird, als die Programmierer können und wollen.
das hat mit dem können und wollen der entwickler relativ wenig zutun. damit du viele kerne auslasten kannst brauchst du eine spielmechanik, die du auch sinnvoll auf so viele threads zerlegen kannst und das ist in vielen fällen einfach nicht möglich.

Fetter Fettsack
2010-07-07, 16:21:50
das hat mit dem können und wollen der entwickler relativ wenig zutun. damit du viele kerne auslasten kannst brauchst du eine spielmechanik, die du auch sinnvoll auf so viele threads zerlegen kannst und das ist in vielen fällen einfach nicht möglich.

Dafür gibt es ja Konsolenports.^^

Tesseract
2010-07-07, 16:24:08
Dafür gibt es ja Konsolenports.^^

hä?

Gast
2010-07-07, 16:24:36
Eine andere Geschichte ist die Sache der Notwendigkeit. Noch heute kenne ich Menschen, die mit ihrem Pentium 2 400 und einer 8 Mbyte Grafikkarte auf 24" in 1920x1080 ihre Briefe schreiben.


Der limitierende Faktor dürfte hier das RAM sein.
Als damals die die Pentium 2 rauskamen waren 32 bis höchstens 256 MB RAM Standard.
Geht man davon aus, daß diese Leute aufgerüstet haben und z.b. noch SDRAM oder DDR-200 nahmen dürfte deren Speicherausbau höchstens bei 512 MB RAM sein.
Zu wenig für moderne Betriebssysteme wie Windows 7 und Linux mit entsprechender Desktopumgebung und Browser.

Ich denke, diese Leute wissen nicht, wieviel Performanceschub sie erreichen könnten, wenn sie nur das RAM aufstocken würden.
Natürlich macht bei so alten Gurken das aufstocken des RAMs keinen Sinn mehr, daher kann man gleich ne neue CPU nehmen, aber ein alter Pentium 2 ist wirklich nicht mehr ideal.

Ich selbst hab damals meinen alten P2 266 MHz auf 256 MB aufgerüstet und so im Jahr 2004 wurde das surfen damit zur Tortur, einfach weil auch die Webseiten viel mehr abverlangten.
Und ich hatte immer nen Vergleich zu meinen neuen Rechnern, damals ein Atlhon 3200+.



Denn 400 Mhz reichen dafür aus.

Bloß wie.



Bei 800 Mhz wurde gesagt, dass es für DVD Wiedergabe ausreicht.

An dieser Aussage erkenne ich, daß deine Leute die du kennst Filme kopieren.

Richtig ist nämlich, daß für DVDs mit dem MPEG2 Videocodec, der Standard bei DVDs, schon ein Pentium 2 @ ca. 266 MHz genügt. Selbst auf Pentium MMX mit 200-233 MHz könnte das schon möglich sein, auch wenn man da nicht mehr die Reserven für intensive Szenen hat, wie sie der P2 @ 266 MHz bietet.


Eine normale* CPU mit ca. 800 MHz brauchst du erst, wenn du damit DivX oder XVid Videos (also MPEG-4 ASP) abspielen willst und da es so etwas nicht als Kaufdvds gibt, kannst du dir sicher sein, daß deine Bekannten die Filme als DivX/XVid illegal aus dem Internet downloaden.

* ARM CPUs mit spezieller Videodecodereinheit natürlich ausgenommen.
Hier sind Pentium 3 und Athlon CPUs gemeint, ob es Pentium 2 mit 800 MHz gab glaube ich nämlich nicht. Bei ca. 450 Mhz war AFAIK schluß mit den Pentium 2.

Gast
2010-07-07, 16:32:27
Ich selbst besitze jetzt schon 5 Generationen an Cpus die alle per Wakü auf 4 Ghz arbeiten. Hatte P4 3,2 XE, P4 3,73 XE, Core6800, E8500 und aktuell i7 W3520 (Xeon baugleich 920). Und man will es kaum glauben, ältere Singlecorespiele liefen annähernd auf der CPU genauso wie auf der letzten. Natürlich sind moderne Spiele durchaus besser auf dem i7. Die Leistungssprünge werden eben kleiner und kleiner. Man darf aber auch nicht vergessen das der P4 3,73XE @OC ein reines Hitzekraftwerk war mit satten 230 Watt laut meiner Messung und slebst mit Wakü wren 85C nicht selten.

Ich sehe schon, du hast nur Intel CPUs gekauft.

Zumindest zu Zeiten des P4 hättest du ruhig mal CPUs von AMD kaufen können.
Die waren auch nicht solche Heizkraftwerke wie der P4.

Gast
2010-07-07, 16:36:00
Die neue 480 mag unter Direktx11 super skalieren aber im Direktx9 ist stillstand gegenüber meiner, im Gegenteil soll sogar paar Titel geben die auf der 285er besser laufen. Meine Kriki ist daher, wenn schon neue Graka Generation dann bitte auch so, dass ältere DX Versionen ebenfalls gepusht werden und zwar spürbar >20%

Das kannst du knicken.

Ich habe eine Geforce 8800 GTS und ein DirectX 7 Spiel, daß auf der Geforce 7 deutlich besser läuft als meine Geforce 8800 GTS.

Das Spiel heißt Gunship! und dürfte inzwischen ca. 10 Jahre alt sein.

Gast
2010-07-07, 16:45:25
Für ca. 10 Jahren gab es mal ne Newsmeldung das Intel nen Transistor entwickelt hätte, der mit 10 GHz schaltet, aber was ist aus dieser Technologie geworden?

Ghz ist ja nicht gleich Ghz: ein Core 2 mit 2 Ghz hat pro Kern fast genau die doppelte Leistung als ein P4 mit 2 Ghz, es wird sich also, wenn Software mal nicht mehr sinnvoll parallelisierbar ist, wieder mehr darauf konzentrieren die PRO KERN und TAKTFREQUENZ Leistung zu erhöhen.
Und das mit den 10 Ghz lief etwa so ab: Intel hat angekündigt einen PROZESSOR zu bringen mit 10 ghz, ausgehend von einem Singlecore auf Netburst Architektur.
Einen TRANSISTOR mit 10 Ghz gab es damals schon längst, IBM oder so hat neulich erst mal einen Transistor mit mehreren Hundert(!) Ghz vorgestellt, einen einzelnen Transistor kann man schnell mal auf diverse höhen hochschießen, bei einem ganzen Prozessor ist das schon schwieriger ;)

Gast
2010-07-07, 17:23:58
Intel wurde damals von AMD in den GHz Wahn getrieben. Da sie im oberen Preissegment aktuell total allein dastehn gibt es keinen Grund CPUs mit mehr GHz zu verkaufen, wär ja auch irgendwie doof, die können jetzt 900€ Euro für 3,3GHz verlangen und in 3 Monten die gleiche Cpu mit 3,6 GHz für 900€ verkaufen...^^

Lowkey
2010-07-07, 17:50:34
Der limitierende Faktor dürfte hier das RAM sein.
Ich denke, diese Leute wissen nicht, wieviel Performanceschub sie erreichen könnten, wenn sie nur das RAM aufstocken würden.


Versuch mal Menschen davon abzubringen statt des neuen Notebooks nur Speicher zu kaufen oder gar Windows neu zu installieren ;-)
Zudem bekommt man hier und da SDRAM nachgeworfen, aber beim Vollausbau streiken die Mainboards. Dazu kommt die Tatsache, dass fast alles über 256 Mbyte nicht erkannt wird. Dennoch klappt es auch mit 256 Mbyte. Ich würde sogar hingehen und die nötigsten Programme wie Browser in den Autostart integrieren, damit der für heutige Verhältnisse lange Bootvorgang direkt alles in den Speicher lädt. Manche Flashseiten sind aber unabspielbar.



An dieser Aussage erkenne ich, daß deine Leute die du kennst Filme kopieren.


Die 800 Mhz Antwort stammt aus einer der ersten PCGH Ausgaben. Dort stand mal beschrieben, was ein Rechner für was braucht. Heute könnte man mittels Treiber, Codec Grafikkarte und neueren CPU Kernen wahrscheinlich sehr weit runtergehen.

Demogod
2010-07-07, 20:22:19
das hat mit dem können und wollen der entwickler relativ wenig zutun. damit du viele kerne auslasten kannst brauchst du eine spielmechanik, die du auch sinnvoll auf so viele threads zerlegen kannst und das ist in vielen fällen einfach nicht möglich.
ich auch ma: häääääää?
also grad bei ALLEN neueren Games wird es mit den modernen IDEs und technischen Spieldesigns ein EINFACHSTES sein mehr als 2 Threads zu fahren. KI, Physik, World, Sound + diverse weitere..
Mit den iwann folgenden Konsolen wird es dann doch bestimmt auch so weitergehen. PS4 evtl mit nem Hexacore und 4fach HT. Also generell sehe ich ja auch ein Ende im Ghz Wahn aber 4+ Threads schafft man locker (Race Conditions und ähnliches hat man doch bei sauber durchdachten Multithread 3D Anwendungen nicht so häufig nehm ich mal an).

Gast
2010-07-07, 20:43:31
Die 800 Mhz Antwort stammt aus einer der ersten PCGH Ausgaben. Dort stand mal beschrieben, was ein Rechner für was braucht. Heute könnte man mittels Treiber, Codec Grafikkarte und neueren CPU Kernen wahrscheinlich sehr weit runtergehen.


Das war schon damals möglich.

Wie schon gesagt, eine normale Pentium 2 @ 266 MHz CPU reicht völlig um im Softwaremodus eine DVD abzuspielen.


Das waren auch die Ziele von MPEG-2.
So wenig Anforderungen beim Dekodieren an die Hardware stellen wie möglich, wärend der Endkoder deutlich mehr Leistung von der Hardware abverlangen durfte.

Gast
2010-07-07, 21:08:48
Das war schon damals möglich.

Wie schon gesagt, eine normale Pentium 2 @ 266 MHz CPU reicht völlig um im Softwaremodus eine DVD abzuspielen.


Das waren auch die Ziele von MPEG-2.
So wenig Anforderungen beim Dekodieren an die Hardware stellen wie möglich, wärend der Endkoder deutlich mehr Leistung von der Hardware abverlangen durfte.

Hm, ich habe das mit ca. 750 -800 MHz CPU aber auch noch im Kopf. Mein damaliger Celeron 500 in Verbindung mit einer ATI Mach64 2 MB lief arschlahm beim Abspielen einer DVD. Ich glaube nicht dass das allein auf den geviertelten L2 Cache gegenüber des großen Bruders Pentium II zurück zuführen ist.
266 Mhz reichte aus wenn die Grafikkarte Instruktionen zur MPEG2 in Hardware unterstützte - war das nicht der Fall: Ruckelorgie!

Gast
2010-07-07, 21:19:08
Das war schon damals möglich.

Wie schon gesagt, eine normale Pentium 2 @ 266 MHz CPU reicht völlig um im Softwaremodus eine DVD abzuspielen.


Das waren auch die Ziele von MPEG-2.
So wenig Anforderungen beim Dekodieren an die Hardware stellen wie möglich, wärend der Endkoder deutlich mehr Leistung von der Hardware abverlangen durfte.
Hm, ich habe das mit ca. 750 -800 MHz CPU aber auch noch im Kopf. Mein damaliger Celeron 500 in Verbindung mit einer ATI Mach64 2 MB lief arschlahm beim Abspielen einer DVD. Ich glaube nicht dass das allein auf den geviertelten L2 Cache gegenüber des großen Bruders Pentium II zurück zuführen ist.
266 Mhz reichte aus wenn die Grafikkarte Instruktionen zur MPEG2 in Hardware unterstützte - war das nicht der Fall: Ruckelorgie!

EDIT:
266, 300 MHz mit Einsatz einer MPEG2 Beschleunigerkarte
~500 MHz unter Einsatz einer Grafikkarte mit MPEG2 MDCT Instruktionen in Hardware
~750, 800 MHz bei reiner Softwareberechnung

Daran denken das die MHz Zahlen für die damaligen Prozessoren standen, heutige CPUs haben eine viel höhere IPC und sind nicht vergleichbar.

Gast
2010-07-07, 21:41:28
Tja ich weiß nicht woher du deine Zahlen hast, aber ich habe damals auf meinem P2 266 MHz DVD geguckt und zwar ohne MPEG2 Beschleunigerkarte, die brauchte man nur bei P1 Systemen.


Meine Hardware war:

P2 266 MHz (in a box)
P2L97 Mainboard
Ca. 32 oder 64 MB RAM, später ausgebaut auf AFAIK 256 MB.
Voodoo 3 2000 PCI
SCSI Controller + SCSI Festplatte
DVD Laufwerk (aber ATAPI)

Gast
2010-07-08, 00:14:28
Tja ich weiß nicht woher du deine Zahlen hast, aber ich habe damals auf meinem P2 266 MHz DVD geguckt und zwar ohne MPEG2 Beschleunigerkarte, die brauchte man nur bei P1 Systemen.


Meine Hardware war:

P2 266 MHz (in a box)
P2L97 Mainboard
Ca. 32 oder 64 MB RAM, später ausgebaut auf AFAIK 256 MB.
Voodoo 3 2000 PCI
SCSI Controller + SCSI Festplatte
DVD Laufwerk (aber ATAPI)

Dann liegts wohl doch am Pentium 2 im Zusammenspiel mit der Voodoo3 (obwohl diese kein MC oder ICDT unterstützt).
Hier berichtet auch jemand auch ein Ruckeln auf einem Celeron 400: http://powerforen.de/forum/showthread.php?t=26425

ENKORE
2010-07-08, 02:35:45
Meine Erfahrung:
PowerDVD Version Irgendwas
Intel Pentium II 266 Mhz
Windows XP
96 MB RAM
ATI Mach64 Schau ich nach Matrox Millenium II
DVDs ruckelfrei

Gast
2010-07-08, 06:59:25
Dann liegts wohl doch am Pentium 2 im Zusammenspiel mit der Voodoo3 (obwohl diese kein MC oder ICDT unterstützt).
Hier berichtet auch jemand auch ein Ruckeln auf einem Celeron 400: http://powerforen.de/forum/showthread.php?t=26425

Ein Celeron 400 ist kein P2.

Gast
2010-07-08, 07:00:02
Meine Erfahrung:
PowerDVD Version Irgendwas
Intel Pentium II 266 Mhz
Windows XP
96 MB RAM
ATI Mach64 Schau ich nach Matrox Millenium II
DVDs ruckelfrei


Sag ich doch.
P2 @ 266 MHz reicht.

Gast
2010-07-08, 07:01:05
Die PCGH schreibt also Unsinn.
Aber ist ja auch kein Wunder, ne C't war die noch nie.

Gast
2010-07-08, 09:23:07
Im Grakamarkt ist dem aber nicht so wie ich finde. Ich habe genug Spiele hier die in 1920x1200 in Direktx9 durchaus noch mehr Leistung gebrauchen könnten. Meine GTX285 hat dabei meine 2 SLI 8800GTX abgelöst, aber einen Leistungsspung mit der 480GTX sehe laut den ganzen Reviews nicht. Die neue 480 mag unter Direktx11 super skalieren aber im Direktx9 ist stillstand gegenüber meiner, im Gegenteil soll sogar paar Titel geben die auf der 285er besser laufen. Meine Kriki ist daher, wenn schon neue Graka Generation dann bitte auch so, dass ältere DX Versionen ebenfalls gepusht werden und zwar spürbar >20%

Jupp. Dat is halt so. Liegt aber schlicht daran, dass die GraKa jeweils auf die Maximalleistung für die entsprechende DirectX-Version getrimmt und hochgeprügelt werden. In Bezug auf OpenGL ist es ähnlich, allerdings nicht ganz so krass. Bereits die GTX 285 hat sich nicht als sonderlich leistungsfähiger Chip entpuppt was DX 9 anbelangt. Was will man da also von einer GTX 480 erwarten, die auf DX 11 und Tesselation optimiert ist und bei DX 10 auch nicht versagen darf.

Mein Behauptung steht immernoch.
Der beste DX 9[.0c]-Beschleuniger war, ist und bleibt weiterhin die GTS 250 mit ihrem G92b. Man merkt eben deutlich dass der G80, auf dem der G92 basiert, eine Art Übergangstechnologie war. Man erinnere sich nur an die famosen Ergebnise einer 8800 GTX unter XP, gegen die alten, originären DX9-Karten...

In der Praxis erlebe ich es übrigens auch nicht anders.
Ich würde daher wirklich sehr gerne mal einen Benchmark sehen
wo GTS 250 + GTX 285 + GTX 480 (als stärkste Vertreter ihrer Generation)
in DX 9-only und Mischtiteln wie z. B. UT3 gegeneinander antreten.
Natürlich in sämtlichen AA und AF-Stufen und in den beiden gängigen Auflösungen 1280x1024 und 1680x1050. Und zwar unter Windows XP.
Na? Fühlt sich einer bemüßigt?

dargo@work
2010-07-08, 09:39:42
In der Praxis erlebe ich es übrigens auch nicht anders.
Ich würde daher wirklich sehr gerne mal einen Benchmark sehen
wo GTS 250 + GTX 285 + GTX 480 (als stärkste Vertreter ihrer Generation)
in DX 9-only und Mischtiteln wie z. B. UT3 gegeneinander antreten.
Natürlich in sämtlichen AA und AF-Stufen und in den beiden gängigen Auflösungen 1280x1024 und 1680x1050. Und zwar unter Windows XP.
Na? Fühlt sich einer bemüßigt?
Wozu sollte man sich die Arbeit machen Grafikkarten (erst recht bei der GTX480) in cpu-limitierten Settings zu testen? Da weiß ich was besseres mit meiner Freizeit anzufangen. ;-)

Mr.Magic
2010-07-08, 10:27:30
Bereits die GTX 285 hat sich nicht als sonderlich leistungsfähiger Chip entpuppt was DX 9 anbelangt. Was will man da also von einer GTX 480 erwarten, die auf DX 11 und Tesselation optimiert ist und bei DX 10 auch nicht versagen darf.

Wat? Die 285 war beim kompletten Benchparcours -DX6 bis DX10- schneller als die 8800GTX, AFAIR.
Die 480 war meistens auf dem gleichen Niveau wie die 285. Schneller waren 3D Mark 03 und Vantage, und nur AquaMark 3 war langsamer. Wobei ich bei 95FPS vs. 190FPS eher von einem Bug ausgehe, zumal die 480 beim AM3-Bench reproduzierbar runtertaktet. Fraps funktioniert während des Benches auch nicht, nur im Menü.
Bis auf Vantage wurde für alle Tests XP verwendet.

ps: Bei altem Zeugs ist man idR zu 100% im CPU-Limit.

IVN
2010-07-08, 11:03:59
Den GHz-Wahnsinn gibt es schon seit Jahren nimmer. Um das zu sehen muss man sich die offiziellen, und nicht die Hardcore-OC-Taktraten, anschauen. P4 = 3+ GHz, C2D = 2 bis 3+GHz, i3/i5/i7 = 2+ bis 3+ GHz.

Gast
2010-07-08, 13:17:03
Ich bin zufrieden mit der aktuellen Lage, wir sollten uns mehr auf die TFT konzentrieren. Hier muessen neue Standards gesetzt werden, ich will endlich flexible Monitore oder wenigstens Panorama TFT [21:9?] mit hoher Aufloesung kaufen koennen.

Gast
2010-07-08, 21:55:28
Ein Celeron 400 ist kein P2.

Das ist mir schon klar. ;)
Habe vergessen zwischen den beiden Sätzen einen Absatz einzufügen, wollte damit nur noch einmal aussagen das ein anderer Nutzer mit einem Celeron, ähnlich wie ich, Schwierigkeiten bei DVD Wiedergabe hatte.

RaumKraehe
2010-07-08, 22:09:17
Also eigentlich hat der "Gigaherzwahn" schon vor Jahren geendet. Und zwar mit dem Pentium4.

Seit dem geht es eher in Richtung von mehr pro/Mhz-Leistung und Multicore. Ich finde das gut so.

neustadt
2010-07-08, 22:23:54
Bulldozer soll sich ja in Richtung 4GHz aufmachen.

5GHz? Only if the chips were powered by magic unicorns. Expect higher clock speeds on those processors than you see today, but not 5GHz.
http://www.amdzone.com/phpbb3/viewtopic.php?p=178665#p178665

Höhere Taktfrequenzen sind an sich ja nichts schlechtes und haben den Vorteil, dass sie im Gegensatz zu mehr IPC Performance nicht mehr Komplexität und damit auch mehr Die Fläche belegen.

RaumKraehe
2010-07-08, 22:32:46
Höhere Taktraten haben, bei gleicher Strukturgröße, das Problem der steigenden Abwärme. Das war in meinen Augen auch das Problem des P4. Dort oder besser, in dem Moment, musste man umdenken.

Wenn die fingernagelgroße Siliziumfläche mehr Abwärme produziert als eine Kochplatte (auf die Größe gerechnet) dann muss man einfach einen anderen Weg gehen.

neustadt
2010-07-09, 01:18:44
Mehr Transitoren bei gleicher Strukturgröße -> ebenfalls mehr Abwärme.

Byteschlumpf
2010-07-09, 01:55:08
Also eigentlich hat der "Gigaherzwahn" schon vor Jahren geendet. Und zwar mit dem Pentium4.

Seit dem geht es eher in Richtung von mehr pro/Mhz-Leistung und Multicore. Ich finde das gut so.
Kurz und knapp steht hier schon alles Wesentliche zum Thema da!
Mir scheint, als würde der Fredstarter zu den Leuten gehören, der lieber eine 3,4Ghz CPU einer mit 2,66Ghz vorziehen würde - ungeachtet der CPU-Architektur! ;)

Daredevil
2010-07-09, 02:26:14
Und im Handymarkt gehts weiter, Motorola bewirbt schon ein tolles 2 Ghz Handy zum Ende des Jahres.... :usad:

Gast
2010-07-09, 04:33:52
Mir scheint, als würde der Fredstarter zu den Leuten gehören, der lieber eine 3,4Ghz CPU einer mit 2,66Ghz vorziehen würde - ungeachtet der CPU-Architektur! ;)
Nein!

Du hörst mir entweder nicht zu oder hast selbst keine Ahnung.

Natürlich spielt das Architekturdesign auch eine Rolle, aber ihr könnte davon ausgehen, daß dieses nun inzwischen schon recht hochoptimiert wurde und man nun wieder in die Richtung höhere Taktfrequenz gehen müßte.


Der Pentium 4 war mit seinen langen Piplines ein fehlgriff, also hat man die Architektur korrigiert und die Piplines wieder viel kürzer gemacht aber das heißt jetzt nicht, daß man im nächsten Schritt nochmal so einen großen Umbau vornehmen könnte um dann wieder mit 1GHz weniger einen CoreI7 zu übertrumpfen.
Diese Möglichkeiten sind eigentlich ausgeschöpft und Leistungsgewinne sind also lediglich noch vielleicht wenige Prozent drin, aber für mehr bleibt entweder nur der Weg der Mehrkerne mit den oben von mir angesprochenen Problemen und Enden und da ist ein Ende, da nicht jede Anwendung mit den CPUs skaliert oder eben mit der Taktratensteigerung.

Es ist nämlich gut möglich, daß die Performance nun stagniert obwohl jede CPU immer mehr Kerne hat, aber gerade weil eben nicht alle Anwendungen auf mehrere Kerne skalierbar sind können diese dann diese gesteigerte Anzahl an Kernen nicht ausnutzen.
Das Resultat ist also auf genau diese Anwendungen bezogen Stagnation und Stillstand.
Hier hilft nur noch eine Taktfrequenzsteigerung, da bei Architekturänderungen
davon auszugehen ist, daß man hier nicht mehr viel optimieren kann.

dargo@work
2010-07-09, 06:19:05
Es ist nämlich gut möglich, daß die Performance nun stagniert obwohl jede CPU immer mehr Kerne hat, aber gerade weil eben nicht alle Anwendungen auf mehrere Kerne skalierbar sind können diese dann diese gesteigerte Anzahl an Kernen nicht ausnutzen.
Das Resultat ist also auf genau diese Anwendungen bezogen Stagnation und Stillstand.
Hier hilft nur noch eine Taktfrequenzsteigerung, da bei Architekturänderungen
davon auszugehen ist, daß man hier nicht mehr viel optimieren kann.
Jein. Hier ist vorallem auch ein Umdenken bei der Softwareentwicklung nötig. Und zum Glück wird dies schon praktiziert.

Shink
2010-07-09, 08:18:05
Jein. Hier ist vorallem auch ein Umdenken bei der Softwareentwicklung nötig. Und zum Glück wird dies schon praktiziert.
Trotzdem ist natürlich nicht alles parallelisierbar. Gewisse Dinge müssen immer sequentiell abgearbeitet werden und nach Amdahls Law ist die schöne Kernvervielfachung irgendwann fürn Hugo:
http://upload.wikimedia.org/wikipedia/commons/thumb/e/ea/AmdahlsLaw.svg/648px-AmdahlsLaw.svg.png

Soll heißen: Wenn ich in einem Programm auch nur 5% der Zeit sequentiell arbeite bin ich z.B. mit 100.000 CPUs ungefähr 20x so schnell wie mit einer.
Das "Schöne" ist jetzt dass es auch noch im Allgemeinen bei sequentiellen Algorithmen höheres Optimierungspotential gibt.

Huhamamba
2010-07-09, 10:00:07
Amdahls Law ist fürn Hugo. Spiele sind hochgradig sequentiell und dennoch merkt man bei einem GTA IV oder Anno 1404 einen himmelweiten Unterschied zwischen zwei und vier Kernen. Teilweise gibt es selbst bei einem Hexacore noch einen merklichen Performancesprung, obwohl es diese CPUs zum Release jener Spiele noch gar nicht gab. Sicher skaliert längst nicht jede Anwendung so gut, aber der Software-Markt befindet sich immer noch erst im Umbruch von zwei auf vier Kernen. Und selbst wenn es darauf hinauslaufen wird, dass man im Extremfall einen ganzen Kern nur für den Sound verschwendet, bringt das schon was in der Performance und nachdem die Cores selber auch immer leistungsstärker werden, mach ich mir um die zukünftige CPU-Leistung und die Ausnutzung eben jener so gar keine Sorgen. :)

Shink
2010-07-09, 10:10:09
Amdahls Law ist fürn Hugo. Spiele sind hochgradig sequentiell und dennoch merkt man bei einem GTA IV oder Anno 1404 einen himmelweiten Unterschied zwischen zwei und vier Kernen.
Naja, das entspricht auch ungefähr dem Kurvenverlauf in dieser Grafik: Bis zu einem gewissen Punkt gibt es eine brauchbare Skalierung mit der Anzahl der Kerne.
Behauptet man nun aber dass man die "Core-Verdoppelung" als Ersatz für die "Taktfrequenz-Verdoppelung" z.B. zur Erreichung von Moores Law sieht dann haben wir irgendwann tatsächlich mehr CPU-Kerne als Pixel am Bildschirm.

Huhamamba
2010-07-09, 10:40:33
Behauptet man nun aber dass man die "Core-Verdoppelung" als Ersatz für die "Taktfrequenz-Verdoppelung"
Das natürlich nicht, von mehr Takt profitiert eben jede Anwendung - von mehr Kernen erst nach entsprechender Anpassung (und meistens weniger stark). Aber ganz so düster wie Amdahl braucht man es nun auch nicht sehen. Mein Gott, das Teil hat er '67 aufgestellt... was wusste man damals schon von den Problemen laufzeitkritischer Anwendungen?! Mehr Kerne helfen jedenfalls, die Flaschenhälse zu umschiffen.

Gast
2010-07-09, 17:18:47
Das natürlich nicht, von mehr Takt profitiert eben jede Anwendung - von mehr Kernen erst nach entsprechender Anpassung (und meistens weniger stark).

Und deswegen habe ich TS ja auch recht.

Langfristig gesehen muß der Takt wieder erhöht werden um weitere Performance erzielen zu können.



Aber ganz so düster wie Amdahl braucht man es nun auch nicht sehen.

Die mathematik lügt nicht.
Es ist also keine Frage des Gefühls, sondern des Faktums.

Mehr Kerne bringen nur zu einem bestimmten Grad etwas, langfristig muß der Takt wieder erhöht werden oder die Entwicklung wird stagnieren.




Mein Gott, das Teil hat er '67 aufgestellt... was wusste man damals schon von den Problemen laufzeitkritischer Anwendungen?! Mehr Kerne helfen jedenfalls, die Flaschenhälse zu umschiffen.

Sequentielle Probleme kann man nicht umschiffen.
Selbst wenn man mit n Kernen alle Möglichkeiten einer Berechnung berechnet um dem sequentiellen Ergebnis zuvorzukommen, dieses also vorhersagt, bringt das nicht viel, weil man ja immer noch nicht weiß, welches denn nun das richtige ist.

Tiamat
2010-07-09, 18:28:34
Mehr Takt ist nur ne Notlösung. Man sieht´s ja jetzt schon zu welchem Verbrauch dies führt. 125 W sind 125 W, das ganze kann man noch beschönigen, in dem man sagt, dass es eigentlich 125 W / 4 Kerne sind, aber das macht die Situation nicht besser.

Intel versucht ja mittlerweile durch sämtliche Maßnahmen den Stromverbrach zu hemmen. Zum Beispiel der kleinere L2 Cache, der zudem langsamer ist ( 8ns statt 6 ns ), dadurch spart man vielleicht was ein, macht das ganze aber durch höheren Takt wieder zunichte oder gleicht das entstandene Defizit wieder aus, je nachdem wie man es betrachten will.

Abgesehen davon haben die CPUs heute doch nicht nur ne brachiale Leistung, sondern auch nen sehr hohen Takt, was soll das Rumgeheule?
Es gibt nur so als Tip, auch noch Dual Cores zu kaufen, die bereits bei mehr als 3500 Mhz liegen. Aber lass mich raten, da sind´s wieder zu wenig Kerne gell ;D

Gruß
Tiamat

hq-hq
2010-07-09, 19:21:05
der Software-Markt befindet sich immer noch erst im Umbruch von zwei auf vier Kernen.

mir scheint es eher ein umbruch von einem core auf vier und mehr cores zu sein
ich schau ja selten nach wieviele cores genutzt werden, aber wenn ich mal guck
dann wird immer nur einer richtig ausgelastet...

die einzigste engine die bei mir bisher 4 cores genutzt hat war die vom mittelprächtigen final fantasy ähm ... das neueste halt.

Coda
2010-07-09, 22:58:25
Mein Gott, das Teil hat er '67 aufgestellt... was wusste man damals schon von den Problemen laufzeitkritischer Anwendungen?! Mehr Kerne helfen jedenfalls, die Flaschenhälse zu umschiffen.
Dir ist aber schon klar, dass das jeder Depp in 5 Minuten ausrechnen kann?

Es ist nicht so als wäre es seine Meinung. Das ergibt sich schlichtweg mathematisch so.

Trap
2010-07-10, 00:30:45
Wenn man Amdahl's Gesetz angreifen will, dann geht das am ehesten über die Anwendbarkeit des Gesetz auf die Skalierungsprobleme der Realität.

Sehr oft ist die Anforderung ja nicht, ein gegebenes Problem schneller zu lösen, sondern die Anforderung ist, ein größeres Problem in der gegebenen Zeit zu lösen. Größere Probleme erlauben oft mehr Parallelverarbeitung und erhöhen den Rechenzeitanteil der parallelen Teile meistens stärker.

hq-hq
2010-07-10, 00:40:28
fürchte nur ein gesetz ist nicht angreifbar :freak:

praktisch mags anders aussehen wegen smt oder weil die cpu selbst versucht
irgendwie die anderen cores auszulasten und das dann doch mal gut klappt.... :rolleyes:
naja und weils ja nie so statisch ist mit 50% parallel usw...

Spasstiger
2010-07-10, 01:15:07
Amdahls Gesetz ist ja eigentlich etwas anders/genauer definiert als es die Grafik darstellt: More technically, the law is concerned with the speedup achievable from an improvement to a computation that affects a proportion P of that computation where the improvement has a speedup of S. (For example, if an improvement can speed up 30% of the computation, P will be 0.3; if the improvement makes the portion affected twice as fast, S will be 2.) Amdahl's law states that the overall speedup of applying the improvement will be [GRAFIK]
http://en.wikipedia.org/wiki/Amdahl%27s_law#Description

D.h., wenn man die Berechnung dahingehend optimieren kann, dass ein Anteil P der Berechnung einen Speedup von S erfährt, dann ergibt sich ein Speedup für die Gesamtrechnung wie es das obige Diagramm zeigt. Wobei S dort durch die Anzahl an Prozessoren dargestellt wird und P durch den Anteil an parallelisierbarem Code. Die Beschriftung des Diagramms gibt Amdahls Gesetz nicht 100% korrekt bzw. genau wieder.

Wenn man mal das Beispiel mit dem spekulativen Rechnen aufgreift. Angenommen, das sei unser Code:
A = 1 + 2
WENN A > 2
B=3
SONST
B=2
ENDE
Man könnte ja jetzt schonmal beide möglichen Lösungen für B in zwei unterschiedliche Register (z.B. von zwei Prozessoren) schreiben und schauen, was die Berechnung von A auf einem weiteren Prozessor ergibt. Danach wählt man das Ergebniss aus dem passenden Register aus, was je nach Architektur sehr wenig Zeit in Anspruch nimmt.
Man hätte hier mit drei parallel arbeitenden "Verarbeitungseinheiten" (Berechnung von A, Speicherung von B=3, Speicherung von B=2) also einen Speedup von nahezu 2. Die Berechnung kann dahingehend optimiert werden, dass ein Teil mit Speedup ausgeführt werden kann. Der Gesamtspeedup kann mit Amdahls Gesetz berechnet werden.

Gast
2010-07-10, 01:18:58
Es kommt außerdem dazu, dass viele Cores auch viel Verwaltungsaufwand bedeuten. Könnte mir vorstellen, dass man bei 16 Cores schon 2 Cores fürs Verwalten/Managen abziehen kann sofern es sich nicht um einfachste Parallelberechnugnen handelt.
Auf Spiele bezogen, müssten sich die Engines in den nächsten Jahren sowieso hochspezialisieren wenn diese wirklich viele Cores nutzen wollen. D.h. eine Core für die UI, ein Core für jeden einzelenen Akteur auf der Bildfläche, eine Core für Physik, eine Core für KI, eine Core für Wetter, eine Core für Managen so als Anfang und später dann bei noch mehr Cores ein weiteres Aufdröseln. Aber erst mal eine Spieleengine entwckeln die überhaupt so dediziert arbeiten kann und das wird sich auch nur in paar Genre abbilden lassen

Gast
2010-07-10, 01:29:56
Amdahls Gesetz ist ja eigentlich etwas anders/genauer definiert als es die Grafik darstellt:
http://en.wikipedia.org/wiki/Amdahl%27s_law#Description

D.h., wenn man die Berechnung dahingehend optimieren kann, dass ein Anteil P der Berechnung einen Speedup von S erfährt, dann ergibt sich ein Speedup für die Gesamtrechnung wie es das obige Diagramm zeigt. Wobei S dort durch die Anzahl an Prozessoren dargestellt wird und P durch den Anteil an parallelisierbarem Code. Die Beschriftung des Diagramms gibt Amdahls Gesetz nicht 100% korrekt bzw. genau wieder.

Wenn man mal das Beispiel mit dem spekulativen Rechnen aufgreift. Angenommen, das sei unser Code:
A = 1 + 2
WENN A > 2
B=3
SONST
B=2
ENDE
Man könnte ja jetzt schonmal beide möglichen Lösungen für B in zwei unterschiedliche Register (z.B. von zwei Prozessoren) schreiben und schauen, was die Berechnung von A auf einem weiteren Prozessor ergibt. Danach wählt man das Ergebniss aus dem passenden Register aus, was je nach Architektur sehr wenig Zeit in Anspruch nimmt.
Man hätte hier mit drei parallel arbeitenden "Verarbeitungseinheiten" (Berechnung von A, Speicherung von B=3, Speicherung von B=2) also einen Speedup von nahezu 2. Die Berechnung kann dahingehend optimiert werden, dass ein Teil mit Speedup ausgeführt werden kann. Der Gesamtspeedup kann mit Amdahls Gesetz berechnet werden.


Mag alles lieb und recht sein, aber die verbräts massig CPU-Zeit, Strom und Wärme mit vielen unnötigen Berechnungen. Geh mal davon aus es gibt nicht wie in deinem Beispiel 2 Wege (mit B=3 und B=2) sondern es ist ein ganzes Matrizze mit 50 Wegen. Was machts du dann? 49 Fehlwege voll durchrechnen lassen um dann doch festzustellen das sie alle obsolet sind?

Spasstiger
2010-07-10, 01:47:52
Ich wollte eigentlich nur erklären, dass Amdahls Gesetz auch für spekulatives Rechnen gilt. Denn man optimiert die Ausführung ursprünglich sequentiellen Code dann dahin, dass Teile der Berechnung einen Speedup erfahren. Das ist die Voraussetzung für Annahmen, denen Amdahls Gesetz zugrunde liegt.

Amdahls Gesetz ist pure Mathematik und frei von Wertungen oder Interpretationen. Das Diagramm oben ist ein Versuch, Amdahls Gesetz zu interpretieren und deshalb nicht ganz immun gegenüber kritischen Äußerungen.

Ökologische Aspekte haben hier eigentlich nichts zu suchen, denn es geht mir nicht um den Sinn und Unsinn von spekulativem Rechnen, sondern um die Gültigkeit von Amdahls Gesetz.

Huhamamba
2010-07-10, 01:59:47
Sehr oft ist die Anforderung ja nicht, ein gegebenes Problem schneller zu lösen, sondern die Anforderung ist, ein größeres Problem in der gegebenen Zeit zu lösen. Größere Probleme erlauben oft mehr Parallelverarbeitung und erhöhen den Rechenzeitanteil der parallelen Teile meistens stärker.
Ack. Das Ziel der Devs sollte nicht sein, das gleiche schneller berechnen zu können, sondern mehr in derselben Zeit, ergo mit derselben Framerate. Bei gleichbleibenden FPS mehr Einheiten mit besserer KI, bessere Physik, mehr Details in der Spielwelt mit entsprechend besserem Streaming usw. usf. beim Sprung von 4 auf 8 auf 16 Cores.

Rendering-Programme wie Cinema 4D oder 3ds Max parallelisieren bereits hervorragend und für das Betriebssystem + Surfen und Musik hören ist die Soft- und Hardware schon lange überdimensioniert. Knackpunkt bleiben die Spiele. =)

Gast
2010-07-10, 03:56:21
Wenn man mal das Beispiel mit dem spekulativen Rechnen aufgreift. Angenommen, das sei unser Code:
A = 1 + 2
WENN A > 2
B=3
SONST
B=2
ENDE
Man könnte ja jetzt schonmal beide möglichen Lösungen für B in zwei unterschiedliche Register (z.B. von zwei Prozessoren) schreiben und schauen, was die Berechnung von A auf einem weiteren Prozessor ergibt. Danach wählt man das Ergebniss aus dem passenden Register aus, was je nach Architektur sehr wenig Zeit in Anspruch nimmt.
Man hätte hier mit drei parallel arbeitenden "Verarbeitungseinheiten" (Berechnung von A, Speicherung von B=3, Speicherung von B=2) also einen Speedup von nahezu 2. Die Berechnung kann dahingehend optimiert werden, dass ein Teil mit Speedup ausgeführt werden kann. Der Gesamtspeedup kann mit Amdahls Gesetz berechnet werden.

A wird aber vom compiler schon vorberechnet und ist daher immer 3.
A = 1+ 2 fällt also weg und wird ersetz durch
A = 3

Dann denke ich nicht, daß das holen aus dem Register des anderen Kerns schnell geht, da der erste Kern ja nicht direkt auf dessen Register zugreifen kann bzw. keine gemeinsamen Register verwendet werden, sondern die Daten sicher über eine Art Datebnus über den die CPUs verbunden sind geholt werden müssen.
Bestenfalls müssen die Daten also über den gemeinsamen Cache geholt werden und das ist langsamer als wenn man einfach die Zuweisung auf dem erten Kern ausführt.


Aber bevor wir hier mit nichtssagendem Pseudocode herumhantieren können wir hier auch gleich x86 mit 64 Bit Erweiterung Assembler nehmen. Das ist Aussagekräftig und die Plattform ist eh vorgegeben, da es in diesem Thread allein um die Weiterentwicklung der x86 Reihe geht.

Gast
2010-07-10, 03:59:07
Nachtrag:

Habe noch einen Fehler im Pseudocode entdeckt.

Wenn A = 3 ist, dann wird vom Compiler auch der Vergleich if A > 2
aufgelöst und am Ende bleitb nichts anderes übrig als:


A = 3
B = 2

Gast
2010-07-10, 04:04:10
Was machts du dann? 49 Fehlwege voll durchrechnen lassen um dann doch festzustellen das sie alle obsolet sind?

Es macht genau dann Sinn mehrere Fehlwege vorab durchzurechnen, wenn die Berechnung Komplex genug ist.
Also man z.b. 50 verschiedene Initialwerte für eine Variable verwendet, aber für jeden möglichen Weg 10 Rechenschritte notwendig sind.

Das Problem am Ende bleibt dann aber immer noch die Überprüfbarkeit, denn man muß ja noch auswerten, welche Wert denn nun stimmt.

Gast
2010-07-10, 04:09:26
Ack. Das Ziel der Devs sollte nicht sein, das gleiche schneller berechnen zu können, sondern mehr in derselben Zeit,

Wenn die Ergebnisse voneinander abhängen, dann muß er logischerweise schneller rechnen können, wenn man am Ende mehr Details reinpacken will. Denn so etwas sequentielles ist nicht paralellisierbar.





Rendering-Programme wie Cinema 4D oder 3ds Max parallelisieren bereits hervorragend
Weil Raytracer paralellisierbar sind.

Aber das gilt nicht für Spiele, bei denen du z.B. vorher nicht weißt ob der Spieler seinen Blickwinkel nun nach links oder rechts schwenkt.
Mit mehreren Kernen kannst du lediglich beide vorberechnen, aber das nur bis zu wenigen Schritten weil das sonst exponential ansteigt.
Daraus folgt also, daß du bei 2 Wegen gerademal deine Leistung verdoppelst.

DanMan
2010-07-10, 11:13:54
Rendering-Programme wie Cinema 4D oder 3ds Max parallelisieren bereits hervorragend und für das Betriebssystem + Surfen und Musik hören ist die Soft- und Hardware schon lange überdimensioniert. Knackpunkt bleiben die Spiele. =)
Die genannten Programme wissen auch schon vor dem Rendern, was alles abgearbeitet werden muss. Das Spiel läuft aber in Echtzeit, und weiß nicht, in welche Richtung sich der Spieler als nächstes dreht/bewegt, oder welche Aktion er als nächstes durchführt. Geht also wohl nur darüber, dass man Berechnungen für das Gesamte aufteilt (einzelne Threads für Grafik, Sound, ...). Ich glaube nicht, dass sich die Grafik selbst besonders parallelisieren lässt (von SLI alternate frame rendering usw. mal abgesehen).

Gast
2010-07-10, 12:34:31
Selbst die ganz neuen Intel Sandy Bridge Prozessoren im Jahr 2011 werden mit 2 Kernen und gut 3000 MHz anfangen,
was wie ein fortschritt ;)

Gast
2010-07-10, 18:45:54
Selbst die ganz neuen Intel Sandy Bridge Prozessoren im Jahr 2011 werden mit 2 Kernen und gut 3000 MHz anfangen,
was wie ein fortschritt ;)
Alles hat ein Ende, nur die Wurst hat zwei. ;D
Es war/ist von Angang an klar gewesen, dass es bei der Rechenkraft pro Einheit physikalische Grenzen gibt und diese nicht ewig ansteigen kann. Je näher man an die Grenze kommt, desto trippeliger wird es.

hq-hq
2010-07-11, 13:28:10
naja, für 4ghz+ würds schon mal wieder zeit werden. geht halt wirklich nix voran... kann man nur hoffen das bulldozer was reisst...
echt supi wieviel potenzial es noch zu erschliessen gibt :freak:

Gast
2010-07-11, 16:49:27
Selbst die ganz neuen Pentium E6800 ~ 2x 3333 MHz und Pentium E6900 ~ 2x 3467 MHz bleiben deutlich unter 4000 MHz !

Fast alle 'Standard' Intel Prozessoren der letzten Jahre liegen etwa im 3000 MHz bereich (+/- 500 MHz).

BlackFog
2010-07-11, 19:03:59
Ja, weil AMD nichts mit vergleichbarer Leistung liefert, sokann sich Intel auf 3,x Ghz ausruhen, schade.

Gast
2010-07-11, 19:07:46
wayne? Man kann die Prozessoren auf über 4 GHz übertakten und mehr ist auch mit "offiziell übertakteten" nicht drin.

neustadt
2010-07-11, 20:27:37
wie ist das eigenlich inzwischen: früher hat man immer auf kosten von c'n'q und speedstep übertakten müssen. heute immernoch so? cpus mit freiem multi mal außen vor.

y33H@
2010-07-11, 23:19:21
Nein, CnQ und EIST usw. sind davon unabhängig - vor allem bei AMD.

Konami
2010-07-12, 00:40:14
Nein, CnQ und EIST usw. sind davon unabhängig - vor allem bei AMD.
Im Klartext: Man kann bei aktuellen CPUs die Spannung erhöhen, und sie wird trotzdem im Idle zurückgefahren?
(Bin auf dem Stand eines C2D E6750 - wo man die Spannung ja nicht anrühren darf, wenn man die automatische Verringerung behalten will.)

Mr.Magic
2010-07-12, 05:10:20
Blahfug gelöscht.

Undertaker
2010-07-12, 10:07:06
Nein, CnQ und EIST usw. sind davon unabhängig - vor allem bei AMD.

Das hängt einzig und allein vom Board ab. Bei vielen neueren geht es - leider aber längst nicht bei jedem.

NaseWeiss
2010-07-23, 16:33:50
Möchte mal wissen, wann AMD Intel zum Gigaherz-Wahn gedrängt hat... Es war doch so, dass der P4 schon beim esrten Modell ne schlechtere ProMHz Leistung hatte, als der P3 und das trotz Rambus-Spiecher! Intel ist damals auf den Zug aufgesprungen, als man gemerkt hatte, wie sich der erste Gigaherz Prozessor auf den Markt ausgewirkt hat. Somit wollten sie diesen Hype weiter tragen und als erster nen 2GHz Prozessor anbieten, wohl wissend der schlechteren ProMhz Leistung und des höheren Verbrauchs.

Erst der Intel Centrino, der auf einer Weiterentwicklung des P3 beruhte, und dessen beliebtheit bei der Kundschaft, die sich nicht nur auf Notebooks beschränkte, sondern auch nach Desktopvarienten forderten, brachten Intel wieder zum umdenken.

Natürlich auch weil der P4 und dessen Nachfolger als stromfressende und Lärmende gesellen so langsam von der Presse verrissen wurde. Somit fand ein Umdenken bei den Usern statt, diese legten nun vermehrt Wert auf eine noch angenehme Lautstärke bei guter Leistung und dieses boten ihnen die Centrienos sowie die AthlonXP und 64`iger Ableger.

Ja, die Gigaherz-Prozessoren waren kaum schneller als ein 933 Mhz Prozessor, ließen sich aber bedeutend besser verkaufen. Wer erinnert sich nicht an die alten ALDI / Media Markt Angebote ;). Ähnlich verhielt es sich bei Intels P4 2GHz, war bestimmt der Meißtverkaufte P4 :D

Daraus resultierte auch, dass AMD seinen Prozessoren ein P-Rating verpasste, weil ein Großteil der User der Meinung war, dass ein höherer Takt eben auch mehr Leißtung bedeutet was natürlich nur Innerhalb einer Prozessorarchitektur stimmt.

Ich hatte damlas erst nen PIII700@850MHz und stieg von diesem auf ein AthlonXP 1800+ mit 1533MHz um. Leider ließ dieser sich nur Moderat auf knapp 1800 MHz übertakten (wo man noch mit Bleistift oder Silberleitlack Brücken gemalt oder per Stromanlegen oder mit Messer die Leiterbahn der L-Brücken "gesprängt hat" :D). Dnach bin ich auf ein Athlon64 System (Shuttle XPC Barbone) mit A64 3500+ umgestiegen und hab diesen später noch gegen ein X2 4400+ getauscht. < Nur mal so am Rande der Nostalgie wegen :D

Gast
2010-07-23, 16:54:15
Möchte mal wissen, wann AMD Intel zum Gigaherz-Wahn gedrängt hat... Es war doch so, dass der P4 schon beim esrten Modell ne schlechtere ProMHz Leistung hatte, als der P3 und das trotz Rambus-Spiecher! Intel ist damals auf den Zug aufgesprungen, als man gemerkt hatte, wie sich der erste Gigaherz Prozessor auf den Markt ausgewirkt hat. Somit wollten sie diesen Hype weiter tragen und als erster nen 2GHz Prozessor anbieten, wohl wissend der schlechteren ProMhz Leistung und des höheren Verbrauchs.
...
Ja, die Gigaherz-Prozessoren waren kaum schneller als ein 933 Mhz Prozessor, ließen sich aber bedeutend besser verkaufen. Wer erinnert sich nicht an die alten ALDI / Media Markt Angebote ;). Ähnlich verhielt es sich bei Intels P4 2GHz, war bestimmt der Meißtverkaufte P4 :D

Daraus resultierte auch, dass AMD seinen Prozessoren ein P-Rating verpasste, weil ein Großteil der User der Meinung war, dass ein höherer Takt eben auch mehr Leißtung bedeutet was natürlich nur Innerhalb einer Prozessorarchitektur stimmt.

Ich hatte damlas erst nen PIII700@850MHz und stieg von diesem auf ein AthlonXP 1800+ mit 1533MHz um. Leider ließ dieser sich nur Moderat auf knapp 1800 MHz übertakten (wo man noch mit Bleistift oder Silberleitlack Brücken gemalt oder per Stromanlegen oder mit Messer die Leiterbahn der L-Brücken "gesprängt hat" :D). Dnach bin ich auf ein Athlon64 System (Shuttle XPC Barbone) mit A64 3500+ umgestiegen und hab diesen später noch gegen ein X2 4400+ getauscht. < Nur mal so am Rande der Nostalgie wegen :D
Ich bin immernoch bei 2000 MHz und das seid Jahren,
hatte bisher:

- Pentium 133 MHz

- Pentium 233 MMX

- Celeron 800 MHz

- Celeron 2000 MHz

- Pentium E2180 mit 2x 2000 MHz

und bald wohl

- Core 2 Quad Q8300 mit 4x 2500 MHz

Also gibt es seid fast 8 Jahren keine Megaherzsteigerung,
bin immernoch bei 2000 MHz !

NaseWeiss
2010-07-23, 18:21:48
Mein Ausflug in die CPU Nostalgie war nur ein Ausschnitt, welcher sich auf diesen Zeitraum bezog ;) Um es zu vervollständigen:

C16, C64, AMD486-DX4-100, Celleron 266 > 450@600MHz und dann der Rest.

Mein jetziger schafft stabil 4400MHz :D

Edit:

Ahhhhhhhhh hab doch glatt den Amiga 500 vergessen, der noch zwischen C64 und AMD486 gehört :D

Neon3D
2010-08-21, 01:51:50
1.Momentan stagnieren aktuelle x86 CPUs bei Taktraten von ca. 3-4 GHz und die Entwicklung geht in Multicore CPUs, aber ist das nun wirklich das Ende bei den Taktraten?


2.Wie sieht es mit den technologischen Basistechnologien aus?
Für ca. 10 Jahren gab es mal ne Newsmeldung das Intel nen Transistor entwickelt hätte, der mit 10 GHz schaltet, aber was ist aus dieser Technologie geworden?

3.Wann geht es bei den CPUs wieder mit der Taktfrequenz weiter?


4.Mutlicore CPUs haben ja leider massive Probleme bezügl. einer effizienten Nutzung durch Software, Thread & Prozess Deadlocks, Race Conditions usw. nur um mal ein paar der Probleme zu nennen und lösungen sind hier kaum in Sicht, da dieses Gebiet schon früher recht gut erforscht wurde.
Denn das Grundproblem bleibt ja, nicht jede Aufgabe läßt sich in eine paralell ausgeführte Berechnung umstrukturieren.
Auf Dauer kann der einzige Weg also nur sein, wieder bei der Taktfrequennz weiterzumachen, aber was gibt hier die Grundlagentechnologie bezügl. Materialen usw. her?

5.Ich habe mal gehört daß CPUs auf Kohlenstoffbasis viel höhere Temperaturen und Taktfrequenzen erreichen könnten, aber diese würden dann aus einem synthetischen Diamanten anstatt reinem Silizium bestehen, aber wie soll man Diamanten bearbeiten und vor allem auch kostengünstig in einer Massenproduktion fertigen? Wo steht hier also die aktuelle Forschung?

6.Ist man für die nächsten 15 Jahre auf diese 4 GHz* Grenze verdammt?
* Extremoverclocking mal ausgenommen, es geht um Standard CPUs bei von Herstellern zugelassenen Taktraten.

1. die taktraten gehen momentan wirklich sehr langsam hoch. also an der aussage das es eine art ende des taktwahns gibt, da ist schon was dran. es liegt an intels konzentration auf 64 und mehr kerne. die steigerungsraten sind nicht sofort erkennbar, wie früher wo die taktsteigerung jede engine schneller laufen ließ. jetzt kommt es mehr auf die software an, multicores zu nutzen.

ich denke in zukunft werden die multikerne besser genutzt werden als bisher. dann werden ein paar kerne nur für die physik des games genutzt werden, 1 kern für sound und irgendwann, wenn die programmierer richtig schlau mit multithreads umgehen, wird ein kern sich jeweils um einen spezialeffekt des spiels kümmern.

2. damals ging es glaube ich um das problem, das die käufer einfach nur die taktrate als entscheidendes kaufkriterium gesehen haben. daher hat intel auf eine verbersserte architektur abgesehen und ist nur noch auf taktrate gegangen. dann kamen halt die pentium 4 mit den zu langen pipelines, aber hoher taktfrequenz.

3.
ich denke das die taktraten in der zukunft nicht mehr das entscheidende kriterium der rechenleistung sein wird.

leistungssteigerung durch

taktrate erhöhen oder verkleinerung des kerns: gering bis mittel, wegen der abwärme und da der stromverbrauch probleme bereitet.

durch neue architektur: von gering bis sehr viel, abhängig von der jeweiligen idee.

durch mehr kerne: kurzfristig viel potential, jedoch nimmt das potential sehr schnell ab. über 32 kerne wird nur noch geringe leistungssteigerungen bringen. das weis auch intel und erweitert seine geschäftbereiche (z.b. der kauf von mcaffee usw)

4. ich denke es läuft eine neue gewichtung von gpu & und cpu hinaus. wo früher beide 50%,also gleichwichtig waren wird die gpu 70% und die cpu nur noch 30% ausmachen. die gpu`s waren einst rasend schnelle spezialisten, aber sie haben dazu gelernt . wenn die gpu etwas berechnet, dann meist schneller als eine cpu. die gpu kann nun rendern/encoden und das bei hoher bildqualität.
es ist halt viel effektiver die shaderunits und taktrate einer grafikkarte zu steigern, als bei der cpu mit mehr kernen leistung herauszuholen.
daher kommt es wohl in zukunft dazu, das es reicht eine billige cpu für 50euro zu kaufen die nur noch für das betriebssystem da ist und den rest läßt man die grafikkarte arbeiten.

5. -
6. siehe 4.

CyberCSX
2010-08-21, 07:48:49
@ tombman:

Du neigst mal wieder zur Übertreibung...
Bei den Spielen ist der Trend zur Multicore Optimierung doch auch
unverkennbar. Zumindest können nahezu alle Spiele der letzten 3-5 Jahre
sehr vernüftig mit 2 Kernen umgehen (nicht zuletzt dank der sehr frühen Einführung von Intels HT). Auch bei Quadcores tut sich inzwischen einiges...

Beitrag entschärft, schau bitte mal ins Kontaktforum

Gut über 70% der user was ein normales leben nachgehen, beruf und famillie haben, können damit nichts anfangen und haben keine anwendung dafür.
Das traurige dabei das diese gezwungen sind derartige leistungen zu kaufen da der markt trend nur noch die freacks kategorie sieht was den meisten umsaz macht obwohl diese in minderzahl sind und nicht die normalen anwender.

Der gezwungene leistungskauf spiegelt sich leider nicht nur im bereich Gigaherzwahn der CPU's sondern auch im bereich Speicherplatz.
Eine 80 GB Festplatte was für ein normalen anwender ausreichend ist, findet man in den fertig PC's kaum. Alles ist zugemült mit 1 TB monsterplatten was kein normale rmesch braucht. Das gleiche gilt auc für RAM u. GraKa's.

PatkIllA
2010-08-21, 08:06:34
Wenn man scharf nachdenkt merkt man, dass man Leistung und Speicherplatz immer irgendwie ausgenutzt bekommen hat.
Mit 80 GB kommt der normale Anwender nicht aus. Da reicht schon eine Digicam und die MP3 Sammlung.

Stillstand ist Rückschritt und vielleicht ist dir ja gar nicht aufgefallen, wie die zunehmende Rechenleistung in den letzten Jahrzehnten das komplette Leben in der westlichen Welt verändert hat.

CyberCSX
2010-08-21, 12:02:48
Wenn man scharf nachdenkt merkt man, dass man Leistung und Speicherplatz immer irgendwie ausgenutzt bekommen hat.ja. weil die platte hamstermäsg zumült wird mit sinlosen quatsch. Kann jeder
Mit 80 GB kommt der normale Anwender nicht aus. Da reicht schon eine Digicam und die MP3 Sammlung.Doch. Man kommt zu recht. bilder, videos, mp3 landen so wie so auf DVD's und externe USB speicher.
Wozu dann 1000 GB und da drauf ein BS + Programme was kaum 20 GB belegen laufen lassen?
Bei eine 80 GB Platte, BS + Programme = 20 GB bleiben noch 60 GB Übrig. Da geht jede menge an bildern u. MP3 drauf wen man die da lagert, diemeistenmachend, das nur Temporär.
Man muss so wie so von den ganzen zeug BackUps machen. Verreckt dier Monsterplate, Bye, Bye music, bilder, file zusw.
Wen man so wie so BackUps anlegen muss auf externe medien, wozu dann noch monsterplatte imRechner? Wo ist die Logik?
Hauptsache kaufen weil es in Mode ist dabei irgend ein marktstrategischer fuzzy irgendwelchen blech in YouTube erzählt?

Ganz zu schweigen von Office rechner was zu 99% für büro arbeiten eingesezt werden sogar bei privat.

Mein Hausarzt (kommt auch aus rumänien) brauchte neue rechner für der praxis. Da ging er zu saturn und was fand er?
Monster zocker maschinen wo das potential in eine arztpraxis nie ausgeschöpft wird, nicht mal 2%. Trotzdem müste er kaufen und schweine geld heraus schmeisen für etwas was er nicht braucht.
Da reicht ein Rechner mit ein 3000er CPU + 512 RAM und eine 80 GB Platte alemal.
Zeige mir wo du noch so was NEU in garantie zu kaufen findest.
Niergendwo. Ausser du kaufst auslaufmodelle oder schnurst diese selbst zusammen mit auslauf hardware.

Leider nicht jeder Hausarzt oder sonstiger Bürohängst hat zeit und die kentnisse sich seine büro rechner selbst zusammen zu schnuren so das muss er blechen für was er nie im leben braucht.

PatkIllA
2010-08-21, 12:15:43
ja. weil die platte hamstermäsg zumült wird mit sinlosen quatsch.Das stimmt schonbilder, videos, mp3 landen so wie so auf DVD's und externe USB speicher.DVDs sind bei den Festplattenpreisen doch völlig uninteressant geworden und USB Sticks sind auch viel zu teuer.

Gast
2010-08-21, 15:11:00
Kann jederDoch. Man kommt zu recht. bilder, videos, mp3 landen so wie so auf DVD's und externe USB speicher.
Unpraktisch.
Langsam.
Umständlich (ach hatte ich schon)
Teuer.
Soll man den PC benutzen oder gehts um 3 Kröten sparen?

Bei eine 80 GB Platte, BS + Programme = 20 GB bleiben noch 60 GB Übrig. Da geht jede menge an bildern u. MP3 drauf wen man die da lagert, diemeistenmachend, das nur Temporär.Oh du hast es schön.
Bei mir braucht das BS alleine 40GB. Und das Volume ist randvoll. Keine großen Programme, keinerlei Spiele. Ganz normales Win7 Prof x64. Achja, XP Prof x64 ist kaum schonender.
Programme sind dann nochmal viele GB.
Spiele kommt drauf an, evtl reichen 100GB, muss man oft deeinstallieren.

Daten, nun kurz einen HD Film aufgenommen, schon sind 16GB weg. Ich persöhnlich habe dennoch ein paar GB Daten auf dem Stick, andere Daten.
Ich geb zu, ich hab locker einen TB Daten die nicht zwingend sind, sondern Luxus. Aber deine Rechnung ist dennoch vollkommen absurd. Ich fahre 2 BS parallel, 80GB sind damit ohne ein einziges umfangreiches Programm oder eine Date voll. Defragmentieren kann man vergessen, Arbeiten auch.

CyberCSX
2010-08-21, 15:55:01
Ja. DVDs sind uninteresant u. zu teuer bis dir mal eine platte krasht und deine gesammten arhiven futsch sind wegen fehlenden BackUp. Dann wirste umdenken und den sinn der DVDs wieder finden.
Ich bin damit ein.........."Gebranntes kind".
Ich bin mit den Verlass auf HDD sodermassen auf der Schnauze gefallen wie noch nie und nun bin ich zur besinnung gekommen, danach ich 1000 EURO bluten müste um meine daten im labor zu retten.

Hab dokumenten archiven ab jahr 1904, music, bilder usw. auf eine externe HDD gepackt, nach 6 monate platte defektund und ich kuckte blöd aus der wäsche wegen fgehlenden backup.

Nun wen ich so wie so zur sicherheit ein BackUp machen müste auf "Teure uninteresante DVDs", dafür geld heraus schmeisen (hätte billiger gewesen als 1000 EURO zu bluten) warum es auch noch auf der platte behalten?

@ Gast

Welches BS hast du was 40 GB braucht und wozu 2 BS?
Das ist eher eine ausnahme nach eigen bedarf und kein allgemeines handeln der ottonormal verbrauchern.

Ich habe nichts dagegen das diese Monsterkapatzitäten eigesetzt werden, von die was es brauchen.
Man vergisst jedoch die verbraucher was es nicht brauchen und das ist der punkt was mich stört.

PatkIllA
2010-08-21, 15:59:44
Was hat denn HDD mit fehlenden Backups zu tun? Genau gar nichts.
gebrannte DVDs gehören da eher zu den unverlässlichsten Datenträgern.

Wenn du Daten nur einmal hast, dann sind sie dem Untergang geweiht. Wenn einem was wichtig ist, dann gehört das mehrfach gesichert und räumlich getrennt aufgewahrt.

So ein Vista 64 mit den ganzen Updates einzeln und als Service Packs braucht schon ein bisschen, auch wenn ich denke, dass da jemand einfach die Größe der Dateien addiert hat.

CyberCSX
2010-08-21, 16:54:56
Wenn du Daten nur einmal hast, dann sind sie dem Untergang geweiht. Wenn einem was wichtig ist, dann gehört das mehrfach gesichert und räumlich getrennt aufgewahrt.
Das ist ja der punkt. Alles doppelt gemoppelt, sicherheit in den keller.
Sieht aus wie kampf gegen windmülen.
(Papier hält länger und ist billiger)

PatkIllA
2010-08-21, 16:57:26
Das ist ja der punkt. Alles doppelt gemoppelt, sicherheit in den keller.
Sieht aus wie kampf gegen windmülen.
(Papier hält länger und ist billiger)
Papier ist pro Byte ziemlich teuer ;)
Sichern kann man auch auf Festplatten. Da das deutlich einfacher in der Handhabung ist besteht auch größere Chance, dass man das auch wirklich macht.

Gast
2010-08-21, 18:01:09
Welches BS hast du was 40 GB braucht
Les doch meinen Beitrag.
Die Volumes sind wie gesagt randvoll, bei Gelegenheit werd ich sie auf mindestens 50GB erweitern, dann sollte es passen.
Und dabei ist ein Großteil der Programme und sämtliche Daten und alle Spiele ausgelagert.

und wozu 2 BS?
A) Never touch a running System.
B) Erhöht die Verfügbarkeit, ohne Backup einzuspielen bleibt das System verfügbar.
C) Vieles gefällt mir unter XP besser.


Das ist eher eine ausnahme nach eigen bedarf und kein allgemeines handeln der ottonormal verbrauchern.Gut, nur zum Briefe schreiben würden auch 80GB reichen.
Ich schreib extra nicht Office, den Programme wie CS von Adobe kann man schonmal vergessen.
Also den Otto den du meinst hat ein XP x86, kleine Programme wie Word, keinerlei Spiele, keine TV Karte, downloaded kaum, hat keine Photos, keine Musik.


Ja. DVDs sind uninteresant u. zu teuer bis dir mal eine platte krasht und deine gesammten arhiven futsch sind wegen fehlenden BackUp. Dann wirste umdenken und den sinn der DVDs wieder finden.
Ich bin damit ein.........."Gebranntes kind". Wie gesagt, mit Backup hat das nichts zu tun.
Eine HDD als Backup ist in allen Punkten besser.
1. Eine DVD kostet mehr und jedes mal wieder.
2. Mit einer DVD rettet man nicht viel, will man die Installation retten kann man schonmal um sich werfen mit den Dingern, bei größeren Datenmengen ebenfalls.
3. HDD rein, Backup und fertig.

Schwarzmetaller
2010-08-21, 19:13:11
Was zur Hölle hat das mit Rumänien zu tun? Ich kenne jemanden, der geistig ziemlich normal ist, kein Gamer, aus Rumänien kommt und trotzdem eine 1TB Platte vollkriegt.:freak:

CyberCSX
2010-08-21, 21:37:16
@ Schwarzmetaller

Nein. Das hat mit rumänien nichts zutun.
Es war nur eine einklammung was meine herkunft u. herkunft meines hausarztes betrifft was eine etwas engere freundschaft aufweist.

@ Gast

Gut, nur zum Briefe schreiben würden auch 80GB reichen.
Ich schreib extra nicht Office, den Programme wie CS von Adobe kann man schonmal vergessen.
Also den Otto den du meinst hat ein XP x86, kleine Programme wie Word, keinerlei Spiele, keine TV Karte, downloaded kaum, hat keine Photos, keine Musik.und genau deswegen, zitierte ich mein hausarzt, was rechner brauchte für seine praxis, genau solche und fand jedoch nur zockermaschinen.
Da wolte ich hinaus, da diese kundschaft in den GB Wahn nicht berücksichtigt werden.

Gast
2010-08-21, 22:51:39
und genau deswegen, zitierte ich mein hausarzt, was rechner brauchte für seine praxis, genau solche und fand jedoch nur zockermaschinen.
Da wolte ich hinaus, da diese kundschaft in den GB Wahn nicht berücksichtigt werden.Hat nichts mit zocken zu tun.
Ein Zocker wie ich kommt mit 500GB alleine für Spiele gut klar, mehr wäre nett.
Ein Anwender braucht ohne ein einziges Spiel mehr als 80GB. So wie ich, wie gesagt.

Demogod
2010-08-21, 23:52:00
Oha 500 GB nur für Games? Hatte schonmal über 200 und dachte das wäre schon ganz anständig viel.. oO

resistansen
2010-08-22, 01:06:04
Was zur Hölle hat das mit Rumänien zu tun? Ich kenne jemanden, der geistig ziemlich normal ist, kein Gamer, aus Rumänien kommt und trotzdem eine 1TB Platte vollkriegt.:freak:

;D

hach ja ^^

Binary Outlaw
2010-08-22, 01:12:37
Ein Zocker wie ich kommt mit 500GB alleine für Spiele gut klar, mehr wäre nett.

500GB für Spiele, wirklich genießen kannst du die ja dann nicht, wenn du scheinbar soviele paralllel spielst...

Eggcake
2010-08-22, 01:22:44
Wenn man den Platz hat, warum nicht installiert lassen? Natürlich ist es nicht zwingend notwendig, aber ich deinstalliere praktisch kein Spiel mehr - für was auch? Irgendwann habe ich immerwieder Lust auf eine Abwechslung, und das würde ich nicht machen, wenn ich das Zeugs erneut irgendwo suchen und installiere muss...

Gast
2010-08-22, 08:37:40
Eben, wann ist der Punkt erreicht wo man sagen kann, hey ich brauche das Spiel nicht mehr?
Ich habe jedenfalls besseres zu tun als mir darüber Gedanken zu machen und meine Zeit mit installieren und deinstallieren zu vertrödeln.

Ein neueres Spiel braucht meist mindestens 7GB. Jetzt ein paar Mods geladen, eine Sicherheitskopie von der funktionierenden Installation und es navigiert jenseits der 14GB.

Btw. ich meine eine 500GB Platte, nicht das diese randvoll ist. Wie gesagt, ich komme damit gut klar.

CyberCSX
2010-08-22, 11:07:10
Na gut:biggrin:

Ob es ein sinn macht geld aus zu geben für monster platten um darauf datenmüll zu sammeln aus reine bequemlichkeit ist auch wieder so eine sache und muss jeder selber wissen.

Zum Glück hab ich eine PS3 was das gleiche macht wen es um zocken geht und da muss ich nichts installieren und auch nicht deinstallieren. :freak:
Das sparrt nicht nur zeit sondern auch jede menge geld :wink:

(Jeder Vorteil mit sein nachteil)

puntarenas
2010-08-22, 11:20:42
Ich versuche mal die Kurve zum Thema "Das Ende des Gigaherz-Wahn" zu kriegen. Ausgangspunkt war bei den jüngsten Off-Topic-Ausflügen überspitzt wohl die These, dass ein niedergelassener Arzt keine Chance hat, eine vernünftige Praxis-IT-Ausstattung zu bekommen, weil Alienware nur hochgezüchtete Multicore-Rechner mit Gamergrafikkarte und Terrabyteplatten samt SSD im Angebot hat.

Ich würde sagen, gerade im professionellen Bereich und insbesondere wenn sensible Daten wie Patientenakten verwaltet werden, herrscht kein Mangel an entsprechenden Anbietern nebst zugehöriger Dienstleistung und die statten eine Arztpraxis dann maßgeschneidert aus, Intranet für alle Behandlungszimmer und Backupserver inklusive.

Heimanwender, die nur ein wenig Surfen und "Internet machen" wollen, finden bei allen Kistenschiebern ebenfalls günstige Angebote und über zuviel Plattenspeicher oder Rechenleistung zum winzigen Preis wird sich wohl auch keiner ernsthaft beschweren wollen. Ich denke, sowohl die Kritik an den gestiegenen Plattenkapazitäten als auch an der gestiegenen Hauptspeicherausstattung und Rechenleistung im Niedrigstpreisbereich ist einfach nur an den Haaren herbeigezogen, denn es gibt einfach nur mehr zum gleichen Preis.

Threadthema war ursprünglich, ob weitere Leistungssteigerung nur noch durch Verbreiterung der CPUs auf mehrere Kerne erfolgen, wobei es problematisch ist das Leistungspotential dann auch immer abrufen zu können, ob deutliche IPC-Steigerungen zu erwarten sind oder ob wir doch wieder auf steigende Taktraten hoffen dürfen. Eine interessante Fragestellung wie ich finde, auch wenn es wohl eher auf ein "sowohl... als auch", denn auf "entweder... oder" hinauslaufen dürfte.

CyberCSX
2010-08-22, 12:02:47
@ puntarenas

Ok. HDD Speicher, Geklärt.
Zusammen gefasst, Platz ist notwendig um datenmüll zu sammeln aus reine deinstallation bequemlichkeit = OK. Habs Kapiert.

Nun weiter zur Gigaherzwahn:
Wozu brauch ein privat anwender solche Monster CPU's ausser Zocken?

PatkIllA
2010-08-22, 12:04:48
Video und Fotobeabeitung.
Selbst wer es nicht braucht profitiert doch, weil er mehr Leistung für den gleichen Preis bekommt.

Da finde ich auch die VDSL Werbung passend.
Aus gleich wird sofort

puntarenas
2010-08-22, 12:22:21
Selbst wer es nicht braucht profitiert doch, weil er mehr Leistungspotenzial für den gleichen Preis bekommt.
Fixed by Nitpicker! :smile:

Ansonsten sehe ich das Ähnlich, wenn die Leistung nicht abgerufen wird schlummert sie halt. Ist aber immer noch ein wenig am Thema vorbei, nochmal überspitzt kann man natürlich einfach sagen, "wer keinen schnellen Rechner braucht, der braucht keinen schnellen Rechner." HighEnd-Entwicklungen verschieben natürlich auch immer wieder den LowEnd-Bereich nach oben und wer aus Prinzip Mehrleistung zum selben Preis wie letztes Jahr ablehnt, dem sei das unbenommen. :)

Ich glaube CyberCSX, du bist dem ironischen Threadtitel auf den Leim gegangen, denn der Threadstarter hat keineswegs Taktteigerungen als sinnlos bezeichnet, sondern sich vielmehr gefragt, wo sie bleiben nachdem entsprechende Grundlagenforschung jahrelang massiv vorangetrieben wurde.

Beitrag#1:
Momentan stagnieren aktuelle x86 CPUs bei Taktraten von ca. 3-4 GHz und die Entwicklung geht in Multicore CPUs, aber ist das nun wirklich das Ende bei den Taktraten?


Wie sieht es mit den technologischen Basistechnologien aus?
Für ca. 10 Jahren gab es mal ne Newsmeldung das Intel nen Transistor entwickelt hätte, der mit 10 GHz schaltet, aber was ist aus dieser Technologie geworden?

Wann geht es bei den CPUs wieder mit der Taktfrequenz weiter?

Konami
2010-08-22, 12:25:17
@CyberCSX: Kannst du dir nicht denken, dass du mit dieser Mentalität ziemlich alleine hier im Forum bist? Wenn du für eine kommunistische Zuteilung von spärlichen Mengen Rechenleistung und Speicherplatz an die Bürger bist, bitte. Der Großteil unserer Bevölkerung hingegen nimmt den immer größer werdenden Komfort gerne an, und in einem Technik-Enthusiasten-Forum wie diesem versammeln sich eh die Leute, die gar nicht genug kriegen können. :)

Und wenn man will, kann man sich sehr wohl auch Low-Budget-PCs zusammenstellen. (Abseits des Mainstream - denn wie gesagt: Die breite Masse ist natürlich froh über jeden Komfortgewinn, nicht nur die "Freacks".)
Und dass man in einem MediaMarkt/Saturn kein Geld sparen kann, sollte inzwischen auch mal durchgedrungen sein.

/Edit: Und zum Thema HDD-Speicher: Schön und gut, wenn du keine HD-Videos aufnimmst, mit keiner 12-Megapixel-Kamera fotografierst und keine große Musiksammlung hast. Und schön für dich, dass du einmal mit einem HDD-Crash auf die Nase gefallen bist, weil du keine Backups hattest. Aber das ist für andere Menschen eben anders. Und HDDs stellen eine billige und komfortable Speichermethode dar, die auch absolut sicher ist, wenn man für Backups sorgt. So weit sollte man doch denken können.

Gast
2010-08-22, 12:40:22
Die neuen normalen „Sandy Bridge“ Sockel 1155 Prozessoren für das Jahr 2011 werden nur gut 3000 MHz und 2 oder 4 Kerne haben.

- Core i3-2100 mit 2x 3100 MHz

- Core i3-2120 mit 2x 3300 MHz


- Core i5-2400 mit 4x 3100 MHz

- Core i5-2500 mit 4x 3300 MHz

PatkIllA
2010-08-22, 14:32:26
Ich glaub in Sachen Taktfrequenz werden wir so schnell keine neue Größenordnungen sehen.
Da muss jetzt halt die Software nachziehen und das wird ja auch immer einfacher. Beim neuen .NET Framework wurde da z.B. kräftig aufgebohrt.

Konami
2010-08-22, 14:53:03
Hat es eigentlich mehr als marktstrategische Gründe, dass die aktuellen CPUs alle in diesem Bereich von 2-4 GHz liegen? Man könnte doch prinzipiell auch die Taktrate senken und dafür Architekturänderungen durchführen, um die IPC zu verbessern (bzw. auch umgekehrt), oder?

Oder ist dieser Taktbereich aus irgendwelchen Gründen besonders günstig?

PatkIllA
2010-08-22, 15:07:25
höhere IPC kostet Transistoren und Entwicklungsaufwand und eine Mindestspannung braucht man eh damit die Transistoren überhaupt schalten. Zuviel Spannung ist auch nicht gut und wirkt sich quadratisch in den Verbrauch ein.
Warum dann die CPU langsamer laufen lassen? Runtertakten im idle geht ja trotzdem noch.
Die Pipeline ist so schon kompliziert.

Außerdem interessiert die IPC doch eh keinen.
Letztlich wird die Performance pro Dollar oder Watt.

Chris2CB
2010-08-22, 15:25:59
Eine x86 CPU kann man nicht mal so einfach verbessern, sonst würde man das auch machen, siehe Grafikkarten. Jeder Kern wird einzeln verwaltet, spätestens hier sollte einem ein Licht aufgehen das man nicht beliebig in die Breite bauen kann.

Gast
2010-08-22, 15:47:56
Statt unendlich vieler Kerne könnte man auch mal die Caches erweitern.
Ein i7 Quad hat gerade mal soviel L2 wie ein P4 Northwood. Gut er kann noch auf einen fetten L3 zugreifen.
Ein Yorkfield hat sogar 2x6MiB L2, für einen einzelnen Kern ist das nur ein minimaler Fortschritt, verbunden mit gleichzeitigem Performancerückschritt.

Von mir aus kann der L2 so klein bleiben, wenn er denn anständig performant ist. Dafür sollte jedoch der L3 anständig groß sein.

PatkIllA
2010-08-22, 15:53:57
Statt unendlich vieler Kerne könnte man auch mal die Caches erweitern.
Ein i7 Quad hat gerade mal soviel L2 wie ein P4 Northwood. Gut er kann noch auf einen fetten L3 zugreifen.
Ein Yorkfield hat sogar 2x6MiB L2, für einen einzelnen Kern ist das nur ein minimaler Fortschritt, verbunden mit gleichzeitigem Performancerückschritt.

Von mir aus kann der L2 so klein bleiben, wenn er denn anständig performant ist. Dafür sollte jedoch der L3 anständig groß sein.
Das mehr an Cache bringt zwischen gar nichts und 10%. Der zusätzliche Kern bringt im Worst Case ebenfalls nichts und im Optimalfall skaliert es zu 100%.

Gast
2010-08-22, 16:13:50
Mehr Kernleistung ist enorm wichtig.
Kannst du belegen, das z.B. der i7 von mehr Cache sowenig profitiert?

Immerhin ist der L2 die letzten Jahre über stets gewachsen, bei AMD wurde gerade erst der L3 vergrößert.

PatkIllA
2010-08-22, 16:19:09
Mehr Kernleistung ist enorm wichtig.
Kannst du belegen, das z.B. der i7 von mehr Cache sowenig profitiert?Wenn mehr sich lohnen würde dann hätte er mehr oder zumindest der sandybridge hätte mehr.

Gast
2010-08-22, 16:32:21
Man muss natürlich den Preis und den Zeitpunkt beachten.
Warum etwas teurer herstellen, wenn mans nicht teurer verkaufen kann.
Warum etwas früher als nötig bringen, wenn einem in Zukunft mal Ideen fehlen nimmt man das als Lückenfüller.

Ich nehme an, bei SandyBridge gabs genug andere Möglichkeiten, ja vielleicht sogar bessere.
Dumm nur, man geht Richtung Hexacore und Octacore, der Quad ist praktisch nicht mehr am Kostenlimit, genau hier würde ich mir mehr Cache und Takt wünschen. Beim Octa verstehe ich, das irgendwo mal Schluss ist.

Aber genau hier ist ein Problem, Quad wird nicht mehr als High-End angesehen, die Leute wollen dann doch mehr Kerne, egal wie sinnvoll es ist. Womit wir beim Threadtitel wären, Taktwahn ist vorbei, Kernwahn ist da. Mehr Kerne braucht das Land, ohne Rücksicht auf Verluste.

puntarenas
2010-08-22, 19:44:19
Ich habe die gesammelten Off-Topic-Beiträge zum Thema "Backups auf DVD" entsorgt, ich hatte weiter oben bereits darum gebeten zum Thema zurückzukehren. Wenn Bedarf besteht, kann das Thema gern in einem eigenen Thread diskutiert werden.

Thema hier: "Das Ende des Gigaherzwahns?" im Sinne des Eingangsbeitrags (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=486885)

Gast
2010-08-23, 04:17:43
Das mehr an Cache bringt zwischen gar nichts und 10%. Der zusätzliche Kern bringt im Worst Case ebenfalls nichts und im Optimalfall skaliert es zu 100%.Das ist eher der Idealfall =) Im Optimalfall sind es ~80%.

Undertaker
2010-08-23, 08:51:29
Optimalfall und Idealfall sind für mich der gleiche Begriff. :confused: Und ja, in einem solchen Fall skaliert die Kernzahl bei perfekt parallelisierbarer Software linear - ein Beispiel:

http://www.computerbase.de/artikel/prozessoren/2010/test_intel_core_i7-980x_extreme_edition/18/#abschnitt_truecrypt

50% zwischen i7 975 und 980X - 100%ige Skalierung.

Neon3D
2010-08-23, 11:57:30
Man muss natürlich den Preis und den Zeitpunkt beachten.
Warum etwas teurer herstellen, wenn mans nicht teurer verkaufen kann.
Warum etwas früher als nötig bringen, wenn einem in Zukunft mal Ideen fehlen nimmt man das als Lückenfüller.

Ich nehme an, bei SandyBridge gabs genug andere Möglichkeiten, ja vielleicht sogar bessere.
Dumm nur, man geht Richtung Hexacore und Octacore, der Quad ist praktisch nicht mehr am Kostenlimit, genau hier würde ich mir mehr Cache und Takt wünschen. Beim Octa verstehe ich, das irgendwo mal Schluss ist.

Aber genau hier ist ein Problem, Quad wird nicht mehr als High-End angesehen, die Leute wollen dann doch mehr Kerne, egal wie sinnvoll es ist. Womit wir beim Threadtitel wären, Taktwahn ist vorbei, Kernwahn ist da. Mehr Kerne braucht das Land, ohne Rücksicht auf Verluste.
intel geht auf 64 kerne zu !
der kernwan ist geboren, aber ohne die software die es auch nutzen kann bringt es noch nicht sonderlich viel auch 64 kerne zu haben. bei gra.karten passiert einfach viel mehr bewegung. die haben noch ein wenig luft beim takt und recht viel bei den shaderunits.

Gast
2010-08-23, 14:31:07
ein wenig luft beim takt und recht viel bei den shaderunits.
?!
Höchstens wassergekühlte Ziegelsteine mit der Leistungsaufnahme eines Toasters. Die 480 zeigt was maximal mit 40 nm möglich ist. Um mehr Luft zu bekommen, muss man verkleinern. CPUs sind zwar schon bei 32 nm angekommen, sind aber leichter in kleinen Prozessen zu fertigen.
Kurz: Viel Luft ist bei beiden nicht mehr, jedenfalls auf Siliciumbasis. Der Kuchen ist zum größten Teil schon verfrühstückt.

Gast
2010-08-23, 17:51:49
Bei Grafikkarten machen aktuell 800Mhz als Maximum Sinn, kann sich mit der nächsten Generation oder dem nächsten Prozess wieder ändern.
Der Trend geht klar nach oben, mit jeder der letzten Generation gab es mehr Takt. Immer ein kleines bisschen, völlig im Gegensatz zu CPUs, wo es auf und ab geht.
Und ganz vom Takt abgesehen, die Leistung steigt ebenfalls, ganz im Gegensatz zu CPUs, wo jetzt der Kernwahn ansteht, der im Zweifelsfrei auch mal rein gar nichts bringen kann.

Headjunkie
2010-08-23, 19:52:24
Nur mal in die Runde geschmissen:
Kernwahn mit 64+ Kernen macht Sinn, allerdings nicht mit 64 identischen Kernen.
Intel und AMD integrieren momentan die Graka in die CPU, also hat nen Quadcore dann eigentlich schon 5 Kerne, 4*CPU + 1*Graka.
Und das ist auch wohin die Reise gehen wird, GHz werden (sehr wahrscheinlich) nicht mehr viel Oberwasser erfahren. Guckt euch Handys an, die ham heute eigentlich alle schon 5-10 Kerne, nur noch nicht in einem Chip, aber das ist schon auf dem Weg. Nur halt alles spezialisierte Kerne, also 2*CPU, 1*Video, 1*Imageprocessing(speedup for camere), 1*soundchip, 1*Noisecancelationchip etc....
Selbe kommt auch auf die PCs zu, 64+ Kerne, wovon 32 vielleicht sogar nur 1-2GHz CPU Kerne darstellen, dann 4-8 Kerne die nur die anderen Kerne verwalten, 8 fuer Grafik(2 fuer 2D, 6 fuer 3D), 1-2 fuer Videocodecs, 1 fuer Sound etc etc etc

Das coole daran wird sein das alles viel effizienter laeuft, der Soundchip wird nur 1/100 der Energie verbrauchen als wenn der nicht darauf angepasste Quadcore das macht.

Und damit wird gleichzeitig auch Amdahls Law umgangen, da ja dafuer afaik von gleichen Einheiten ausgegangen wird.

So, habe fertig mit dem in die Runde schmeissen.


Edit: Doch noch nicht ganz fertig, jetzt kommen ja auch noch Probability Chips auf uns zu, dann werden von den 64+ Kernen halt nen paar Probability Chips sein um aufkommende statistische und aehnliche Aufgaben(selbststaendige Benutzerueberwachung, siehe neuesten Apple Patentantrag (-: ) zu berechnen statt den normalen CPU Chips.

PatkIllA
2010-08-23, 19:57:31
Dafür hast du dann auch jede Menge brachliegen. So extrem wird das glaube ich nicht werden auch wenn ich mir eine Differenzierun vorstellen.
Für viele einfache Streamingverarbeitung wird hoffentlich auch die Grafikkarte herhalten. Der CPU fehlt einfach die Bandbreite.

Headjunkie
2010-08-23, 19:59:29
Auch heute liegen schon 99% der CPU Leistung 50% oder mehr der Zeit bei den meisten Menschen brach, aber halt noch mit nem 20-70W Idleverbrauch statt 5mW wenn nur noch 1-3 der 64 spezialisierten Kerne aktiv bleiben.

Laptop Dualcore, 2 Kerne + Grafik + Speichercontroller(der genaugenommen ja nen eigener Kern ist da er nix mit der eigentlichen Arbeit einer CentralProcessingUnit(CPU) zu tun hat) mit ganzen 8,5W Verbrauch.
http://www.golem.de/1008/77416.html

Simon Moon
2010-08-24, 02:28:34
So, habe fertig mit dem in die Runde schmeissen.


So wirds garantiert nicht kommen ;)

Von diversen spezialisierten Chips sind wir ja gerade erst weggekommen. Früher gabs da Grafikkarte, Netzwerkkarte, MPEG2 Karte... für alles einen speziellen Chip. Mittlerweile reicht die Rechenleistung aber dafür aus, das alles in Software zu erledigen. Von diesem Paradigma wird man nun nicht so schnell wieder abkehren.

Es wird darauf hinauslaufen, dass man vll. 4 - 16 vollwertige Cores hat, welche dann noch je 8 - 16 SPUs haben, ähnlich wie der Cell. Das Fusion Projekt geht daher auch nicht in die Richtung 4 CPUs + 1 GPU auf einem Die, sondern eher 4 CPUs + x Shader & ROPs. In Zukunft werden diese beiden Bereiche dann noch wesentlich enger zusammenfallen.

Gast
2010-08-24, 12:24:41
Inmomend reicht für fast alle normalen privaten Anwendungen ein Zweikernprozessor im 3000 MHz bereich
und mittelfristig wird sich darn auch nichts ändern.

Gast
2010-08-24, 16:46:12
Hmmm...

falls es noch nicht gepostet wurde. Das hier könnte zu der Diskussion beitragen:

Der Typ hat schon an der MIT RAW CPU mitgearbeitet und hält heute (oder gestern) auf der Hotchips-Konferenz einen Beitrag [GreenDroid: A Mobile Application Processor for Silicon's Dark Future] dazu.

http://cseweb.ucsd.edu/~mbtaylor/asplos_2010_ccores.pdf

Abstract (Auszug):

Growing transistor counts, limited power budgets, and the breakdown
of voltage scaling are currently conspiring to create a utilization
wall that limits the fraction of a chip that can run at full speed
at one time. In this regime, specialized, energy-efficient processors
can increase parallelism by reducing the per-computation power requirements
and allowing more computations to execute under the
same power budget.

Gast
2010-08-29, 14:07:53
Megaherzwahn ?

Ich zum beispiel habe seid Herbst 2002 immernoch 2000 MHz und als Aufrüstmöglichkeit wären 2500 MHz eine überlegung
(der Sockel 1156 ist ja praktisch ein Auslaufmodel) !


- Celeron mit 2000 MHz (Sockel 478) für 100 Euro im Herbst 2002

- Pentium E2180 mit 2x 2000 MHz (Sockel 775) für 90 Euro im Herbst 2007

Aufrüstmöglichkeit:

- Core 2 Quad Q8300 mit 4x 2500 MHz (Sockel 775) für 130 Euro im Herbst 2010

Gast
2010-08-30, 16:54:43
Inmomend reicht für fast alle normalen privaten Anwendungen ein Zweikernprozessor im 3000 MHz bereich
und mittelfristig wird sich darn auch nichts ändern.

Zum surfen, Office & Co reicht auch schon 8 Jahre alter Single Core Athlon Palomino 2000+@ ca. AFAIK 1,6 GHz locker aus.

Nur für H.264 und moderne Games braucht man mehr Leistung.

Headjunkie
2010-08-30, 20:57:57
Na wenn ihr Hardcore werden wollt:
Ohne Flash reicht ein 200 MHz Laptop mit 256MB Ram.
Den hat mein Vadda vor Jahren mal mit bissel Arbeit aufm Board auf die 256 Ram gepruegelt, dann nen XP druff und alles (und ich mein alles) abgeschaltet.
Der braucht zwar gute 5-10 Minuten zum booten, und Firefox(portable glaub ich) brauch auch nen paar Minuten aber der liegt jetzt im Wohnzimmer als immer an PC rum so das meine Mudda halt waehrend des Fernsehens kurz Emails schreiben oder kurz was nachgucken kann.

Ist halt bissel overthetop und mir persoenlich waeren die Ladezeiten viel zu lang, aber es scheint fuer ihre Zwecke zu funktionieren. (Ausserdem haben sie fuer richtiges Arbeiten ja nochmal 4 PCs (: )

y33H@
2010-08-30, 21:26:21
Zum surfen, Office & Co reicht auch schon 8 Jahre alter Single Core Athlon Palomino 2000+@ ca. AFAIK 1,6 GHz locker aus.Sicher? Firefox samt Outlook und Virenscanner und die Mühle ist platt. Nee nee, mit nem SC werde ich wahnsinnig [auch ohne Flash].

Headjunkie
2010-08-30, 22:13:14
Dann nehm Firefox portable oder am besten direkt einen von den portable Browsern, hatte meiner Oma mal einen auf ihrem Win2000 installiert der gerademal 8 MB Ram verbraucht hat(im Taskmanager). Wenn du natuerlich Firefox+zig Addons, Outlook (das ja sowieso wie alles von MS Leistung bis zum Umfallen braucht) und noch nen aktiven Virenscanner nutzt....

Gast
2010-08-31, 16:24:35
Na wenn ihr Hardcore werden wollt
Hardcore ist meist nicht hochauflösend,
brauche ja auch nicht jede Pore an den verschieden Muskeln und Hautfalten sehen !

Aber denke für sowelche Filme in Hochauflösend wird auch ein Core 2 Quad Q8300 für 130 Euro vollkommen reichen,
mehr benötigt man mittelfristig überhaupt nicht.

Gast
2010-09-01, 02:20:23
Sicher? Firefox samt Outlook und Virenscanner und die Mühle ist platt. Nee nee, mit nem SC werde ich wahnsinnig [auch ohne Flash].

Ja, ich benutzte so einen als Zweitrechner, aber meiner ist auch auf 2 GB RAM aufgebohrt und er hat ne ca. 200 GB große Festplatte, die ist also noch verhältnismäßig schnell.


Du mußt dem Rechner also nur genug RAM geben, ab 1 GB RAM genügt,
sowie eine einigermaßen moderne Festplatte.
Wobei mein Vater, der sitzt an einem Athlon Thunderbird mit 1,5 GB RAM und da ist die Festplatte nur 20 GB groß, aber der Rechner ist dennoch flott.
Zum Surfen und Officesachen reicht das locker.

Lediglich zum Video umkodieren oder für moderne Games braucht man dann was neues.

Gast
2010-09-01, 02:25:49
Hardcore ist meist nicht hochauflösend,
brauche ja auch nicht jede Pore an den verschieden Muskeln und Hautfalten sehen !

Aber denke für sowelche Filme in Hochauflösend wird auch ein Core 2 Quad Q8300 für 130 Euro vollkommen reichen,
mehr benötigt man mittelfristig überhaupt nicht.

Ja,für Full HD TV oder BluRays reicht mein Barton bzw. Palomino (ich muß mich hier korrigieren, mein Vater hat keinen Thunderbird, sondern einen Palomino, der Thunderbird wurde durch den Palomino ausgetauscht) natürlich nicht mehr, da braucht man dann eine Core2Duo 4xxx oder eine GPU mit passender Software die das Video auf der GPU dann dekodiert.

Aber für DVD Filme oder meinetwegen auch H.264 XVID Zeugs in DVD oder PAL Auflösung reicht der Barton locker.


PS:
Der Barton ist an einem modernen TFT mit 1680*1050 Auflösung angeschlossen, das geht wunderbar.

Gast
2010-09-01, 02:27:18
J

Lediglich zum Video umkodieren oder für moderne Games braucht man dann was neues.

Nachtrag:

Zumindest gilt das, wenn man nicht all zu viel Zeit investieren will.
Wenn man den Rechner ein paar Stunden vor sich hinrechnen lassen kann, dann reicht der Rechner natürlich auch dafür.
Aber meine Videos kodiere ich heutzutage alle auf meinem Core2Duo um.

Gast
2010-09-03, 09:41:19
Die Prozessoren liegen seid Jahren gröstenteils im Bereich von 2000 bis 3000 MHz !


Meine Prozessoren:

- Pentium 133 MHz

- Pentium 233 MMX mit 233 MHz

- Celeron 800 MHz

- Celeron 2000 MHz

- Pentium E2180 mit 2x 2000 MHz

- Core 2 Quad Q8300 mit 4x 2500 MHz (...der soll diesen Monat bestellt werden)


Wie geht die endwirkling wohl weiter,
werden wir in ein paar Jahren 8x 3000 MHz kaufen oder 4x 4500 MHz ?

Gastizzle
2010-09-03, 14:04:23
Die Mega- und Gigahizzles werden schon noch steigen aber langsamer.

Headjunkie
2010-09-03, 14:26:19
Wie schon gesagt, dadurch das die Performance fuer OttoNormalverbraucher inzwischen ca 1000x mal mehr ist als er je braucht merken die das langsam, deshalb verlangsamt sich das Rennen ein bisschen und der Markt wird immer mehr aufgesplittert in extremst strom sparend fuer Handys/Pads, stromsparend fuer Netbooks, effizient fuer Notebooks und dann guenstig fuer normal DesktopSystem und dann halt teuer fuer High-End. Das bedeutet aber auch das die Hersteller viel mehr verschiedene Designs anbieten muessen und deswegen nicht mehr ganz soviel Zeit in die absoluten Highend Modelle gesteckt werden kann.

Dadurch und durch die physikalischen Probleme und generelle Effizienz macht es einfach nicht mehr soviel Sinn die Taktraten koste was wolle hochzuknallen wenn man einfach 4-8 Kerne nehmen kann die auf langsamen Tankraten laufen und dazu zB nen Turbocore schmeisst der mal eben unter Last einzelne Kerne +1-1,5GHz uebertaktet (angekuendigt fuer Sandybridge).

Und das ist mMn die Vorstufe zu einem mehr gesplitteten Kern mit vielen verschiedenen HardwareEinheiten weil man dadurch die Berechnungen/Watt einfach extremst hoch knallen kann und gleichzeitig erlaubt durch modular Bauweise 4-10 verschiedene Chips vom gleichen Design abzuleiten.

Und rein Performancemaessig wissen doch die Spielehersteller jetzt schon nicht mehr wie sie nen guten QC vernuenftig!!! auslasten sollen.

Gast
2010-09-03, 14:51:08
Wie schon gesagt, dadurch das die Performance fuer OttoNormalverbraucher inzwischen ca 1000x mal mehr ist als er je braucht merken die das langsamWelche "Performance"? Welche CPU? Für alle Fälle sehr komfortabel zu handeln ist ein System mit ~3 Ghz Penryn aufwärts. Darunter wird es mal hier und mal da noch nervig. Willst du ein System benutzen was 1000x langsamer ist als so eine Kiste? :tongue: Davon ab, daß der Otto von 4 Kernen weiterhin nur in wenigen Spezialfällen profitiert.

Willst du eine Platte haben die 1000x langsamer als die aktuell schnellste SSD ist?

Welche GPUs braucht man um bisschen von den Beschleunigungen auf der Anwendungsebene zu profitieren? GUIs, Flash usw. Willst du eine GPU benuthen haben die 1000x langsamer ist?

Meinst du die "OttoNormalverbraucher" woillen das alles in einem rechner haben? Oder meinst du die wären auch mit sowas zufrieden? Die Leistung die es in ausreichenden Mengen gibt, gibt es erst seit 2009 ab middleware. So lange ist das noch nicht, daß man von "1000x mehr als er je braucht" reden könnte. Es sind momentan nichtmal 100x und auch nicht 10x mal mehr.

Gast
2010-09-03, 14:56:47
Zum surfen, Office & Co reicht auch schon 8 Jahre alter Single Core Athlon Palomino 2000+@ ca. AFAIK 1,6 GHz locker aus.Dann hau dir auch nur XP drauf und mach das mal auf so einer Möhre. Und dann mach das gleiche auf einem i3-530 mit einer 60€ SATA Platte.

Oder laß das lieber einen Durchschnittsbenutzer machen und laß dir dann erzählen was ausreichend schnell ist.

(del)
2010-09-03, 15:04:37
Besser fände ich aber, wenn man dafür Win7 nehmen würde ;)

Headjunkie
2010-09-03, 17:16:34
Welche "Performance"? Welche CPU? Für alle Fälle sehr komfortabel zu handeln ist ein System mit ~3 Ghz Penryn aufwärts. Darunter wird es mal hier und mal da noch nervig. Willst du ein System benutzen was 1000x langsamer ist als so eine Kiste? :tongue: Davon ab, daß der Otto von 4 Kernen weiterhin nur in wenigen Spezialfällen profitiert.

Willst du eine Platte haben die 1000x langsamer als die aktuell schnellste SSD ist?

Welche GPUs braucht man um bisschen von den Beschleunigungen auf der Anwendungsebene zu profitieren? GUIs, Flash usw. Willst du eine GPU benuthen haben die 1000x langsamer ist?

Meinst du die "OttoNormalverbraucher" woillen das alles in einem rechner haben? Oder meinst du die wären auch mit sowas zufrieden? Die Leistung die es in ausreichenden Mengen gibt, gibt es erst seit 2009 ab middleware. So lange ist das noch nicht, daß man von "1000x mehr als er je braucht" reden könnte. Es sind momentan nichtmal 100x und auch nicht 10x mal mehr.
Hmm, Ottonormalnutzer hat IE/Firefox mit Flash, Microsoft Office Suit und Freecell oder Solitair am laufen. Vielleicht noch nen Emailprogramm, MSN/ICQ, Skype und guckt sich runtergeladene Filme an.
So und fuer nichts davon braucht man 4 Kerne oder ueberhaupt 3 GHz. Das viele es schaffen sich die Systeme so zu zumuellen das sie dann ploetzlich 3 GHz brauchen ist was anderes, aber selbst das funktioniert ja nicht mehr. Auf nem 2-3GHz Dualcore mit einigermassen schneller Platte (also kein Green o.ae.) koennen selbst Ottonormaluser das System nur noch verlangsamen und nicht wie vor 5-10 Jahren unbenutzbar machen.

Und ja, ne IntelGPU ist mal locker Faktor 100-1000 langsamer als ne 5870/470. Ausserdam war der Faktor 1000 net als absolute Zahl gemeint, aber reite ruhig drauf rum, selbst wenns nur Faktor 10 ist (ich habe momentan 21 GHz, 2,1 tuns aber auch! Und schnellste SSD schafft was, 200-400 MB/s? Mein Laptop schafft 35 und er ist locker schnell genug fuer jeden Ottoverbraucher) merken langsam auch nicht technikversierte Menschen das sie nicht alle 2 Jahre nen neuen PC brauchen.

Aber super am Inhalt vorbei gelesen, Respekt!

(del)
2010-09-03, 19:36:54
So wie ich das verstanden habe ging es nicht um 4 Kerne, sondern um einen 1.6 Ghz Palomino. Mal einen Selbstversuch mit anschliessenden Bericht? Aber objektiv bitte ;)

So meine ich das aber auch. Davon ab steht da nirgendwo was über "alle 2 Jahre neu", sondern, daß die Leistung mit Dualcores ab dem Jahr 2009 schön für alles in Fluffig reicht. Oder was steht da nun genau geschrieben? Und eben auch nicht (Beiträge), daß es seit etlichen etlichen Jahren 1000fach zuviel Leistung für Otto gibt. Dem stimm ich nämlich auch nicht zu.

Vielleicht kann ich aber nur nicht lesen und hab auch die Einspielung des Gastes wegen IGP und 1000x zuviel Leistung einer 5870 nur verpeilt. Um Spielergrakas 5870 ging es aber auch garnicht, meine ich.

Headjunkie
2010-09-03, 19:49:05
Das 1000x war doch nicht als wirkliche Zahl gemeint....
Aber wie in den Posts auf den letzten 2 Seiten ausgefuehrt kann man OttoNormalSachen auch locker auf 1GHz Maschinen und weniger haben wenns vernuenftig optimiert ist.
Und inzwischen haben wir ein Level der Performance erreicht wo selbst mit absolut 0 Optimierung vom Verbraucher die Systeme nicht mehr an ihre Leistungsgrenze stossen (koennen).

Und das der gemeine Verbraucher langsam aber sicher begreift das er nicht staendig aufruesten muss ist ein relativ neuer Trend der aber wichtige Umbrueche im PC Markt mit sich bringt, bis runter zum Chipdesign.

Zu Zeiten wo Aldi alle 6 Monate nen PC Angebot hatte und die ganze Republik ausgeflippt ist und sich jeder dieser Aldikaeufer alle 3-4 Aldicyclen wieder ne neue Kiste untern Tisch gestellt hat, war es wichtig das zumindest auf dem Papier die Performance ansteigt damit man ihnen verdeutlichen konnte warum der neue Aldi-PC jetzt wieder Lichtjahre vorm letzten liegt, selbst wenn sie nur Solitair druff spielen.
Und diese Masche zieht dank des erreichten Performancelevels immer weniger und reduziert gleichzeitg (von der werbetechnischen Seite) den Druck auf GHz Steigerungen. Und der erste Schritt war das man von GHz auf Corezahl umgeschwenkt ist, aber hier kommt jetzt genau das Problem. Ein User der zB eien 2-3GHz DC hat sieht weder werbetechnisch noch wirklich einen Grund auf einen QC umzusteigen da sein System auch mit totaller Vermuellung kaum spuerbar langsamer wird, waehrend bis vor kurzem (2-3Jahre?!) der DurchschnittsDAU es immer wieder geschafft hat mit seinem Muell selbst den schnellsten Rechner kleinzukriegen.

Selbst ein 1GHz SingleCore hatte genaugenommen mehr als genug Leistung fuer alles was der durchschnittliche PC User selbst heute noch macht, aber dank deren (Un)Faehigkeiten mitm PC haben sie es geschafft auch wesentlich schnellere Systeme langsam aussehen zu lassen.
Nun ist aber die Grenze erstmal durchbrochen wo die Performance soviel ueber den Anforderungen liegt das sie einfach nicht mehr relevant einbricht.
Und nur das wollte ich mit dem 1000fach schneller ausdruecken.

Gast
2010-09-03, 20:50:06
Ein User der zB eien 2-3GHz DC hat sieht weder werbetechnisch noch wirklich einen Grund auf einen QC umzusteigenDarum ging es doch. Ab wann haben wir gute "2-3GHz DC" Systeme? die kann man sich heute für alles, was Otto angeht, holen. Oder behalten. Mit einer 1Ghz Gurke braucht sich heute niemand abmühen, auch wenn Otto damit alles erledigen könnte.

Wenn alles "Fluffig" von der Hand geht und man damit paar Tage gearbeitet hat, sind demgegenüber Wartezeiten von 4s schon verdammt lästig. Man muß keine 150PS haben, um bequem von A nach B zu kommen. 80PS sind dafür aber wesentlich angenehmer als 60PS. Du behauptest, 45PS reichen doch voll. Klar, man kommt schon an.

Headjunkie
2010-09-03, 20:57:08
Die Bewertung ob 45 oder 60 PS ausreichen ist doch voellig egal wenn wir inzwischen in alle Autos nen 100PS Motor einbauen, und darauf wollte ich hinaus.
Ob jetzt nen DC ausreicht oder 1 GHz ist fuer die aktuelle Situation net so wichtig, wichtig ist das der Drang der Erneuerung der PC System extrem nachlaesst und damit auch der Druck auf GHz Steigerungen(ThreadTopic!), welche auch aus physikalischen Gruenden immer weniger Sinn machen weiter zu erhoehen da es bessere(energie-effizientere, guenstigere etc) Moeglichkeiten gibt notwendige Performance-Steigerungen zu erreichen.
Und bisher garnicht erwaehnt im Thread wurde sowieso das Konzept das wir dank Cloud-Computing wieder zurueck in die Richtung der Thin-Clients gehen, bei welchen die Performance absolut 2.rangig ist.

Und aus der Kombination dieser und anderer Gruende ist es mMn sehr unwahrscheinlich das wir nochmal einen "GHz Wettruesten" erleben werden.

Gast
2010-09-03, 22:35:23
Und rein Performancemaessig wissen doch die Spielehersteller jetzt schon nicht mehr wie sie nen guten QC vernuenftig!!! auslasten sollen.


Das wissen sie schon (Stichwort: Physik, mehr KI Gegner & Objekte), nur wollen sie das gar nicht, weil sie wegen der Marketingabteilung die Konsolen bedienen müssen und die bietet meist nur Singlecores (von Spezialrecheneinheiten der PS3 mal abgesehen).


Was wir also brauchen ist eine neue Konsolengeneration, dann wird man auf dem PC auch wieder Quadcores & Co ausreizen.
Aber solange das dumme Volk mit den aktuellen Konsolen hochzufrieden ist und sogar lieber ne Konsole als nen PC kauft, gibt es hier keine Notwendigkeit seitens der Konsolenhersteller mal in der Entwicklung weiterzumachen.

Die einzige Entwicklung die bei den Konsolen derzeit abläuft ist also eine Minimierung der Herstellungskosten sowie gegebenenfalls eine Erschließung neuer Märkte mit neuen Eingabegeräten.

Gast
2010-09-03, 22:39:57
Dann hau dir auch nur XP drauf und mach das mal auf so einer Möhre. Und dann mach das gleiche auf einem i3-530 mit einer 60€ SATA Platte.

Oder laß das lieber einen Durchschnittsbenutzer machen und laß dir dann erzählen was ausreichend schnell ist.

Wozu, ich sagte der Rechner reicht aus!
Selbst mit XP.

Gast
2010-09-03, 22:42:04
Besser fände ich aber, wenn man dafür Win7 nehmen würde ;)

Dafür gibt es keine Notwendigkeit.
Wozu auch? Etwa für schöne 3d Fenstereinblendeffekte?
Die sind etwa so wichtig, wie beim Auto Rallystreifen an der Seite.


Zum Surfen kann man problemlos Linux benutzen, da man zum Surfen praktisch keine Windowsspezifische Software benötigt.
Es gibt keinen Zwang für den IE.

Gast
2010-09-03, 22:57:55
Darum ging es doch. Ab wann haben wir gute "2-3GHz DC" Systeme? die kann man sich heute für alles, was Otto angeht, holen. Oder behalten. Mit einer 1Ghz Gurke braucht sich heute niemand abmühen, auch wenn Otto damit alles erledigen könnte.


Fakt ist doch, das eine 1,6 GHz schnelle Palomino CPU gar kein abmühen bewirkt.
Wenn man ihr großzügig RAM spendiert (also >= 2 GB) und ne halbwegs schnelle Festplatte (> 100 GB, 7600 U/min und > 60 MB/s Schreib-lesegeschwindigkeit) dann arbeitet es sich auf so einer alten CPU rein zum Surfen derart flott, daß man hier gar nicht von "abmühen" sprechen kann.


Denn die Anforderungen eine HTML Seite ausreichend schnell zu parsen und darzustellen macht selbst auf so einer alten CPU nur noch einen Bruchteil ihrer Performance aus, weswegen das auch kein Abmühen ist.



Tja und natürlich kann man sich für ca. 300-400 € ne neue CPU kaufen (CPU, Mainboard, Speicher, neue SATA Festplatte), aber wenn dafür kein Bedarf besteht, dann sind, wenn der Rechner nur selten benutzt wird, die 300-400 € eben halt doch rausgeschmissenes Geld.

Lohnen tut es sich also nur, wenn man wirklich ständig vorm Rechner hockt, aber selbst dann ist nicht das mehr an Rechenleistung das was die Investition lohnend macht, sondern der geringere Stromverbrauch der modernen CPUs.

Es lohnt sich also nur wegen dem Stromverbrauch und dazu muß der Rechner oft genug im Jahr laufen damit es sich deswegen rechnet.
So weit sind wir inzwischen schon, daß die Performance nichtmal mehr das entscheidende Kriterium ist!


Und wie schon gesagt nur damit nicht wieder so einer kommt, der alles falsch verstehen weill, wer FullHD Videos anschaut und 3d Spiele spielt, für den gelten natürlich ganz andere Regeln, von diesen Usern sprechen wir hier aber gar nicht.












Wenn alles "Fluffig" von der Hand geht und man damit paar Tage gearbeitet hat, sind demgegenüber Wartezeiten von 4s schon verdammt lästig. Man muß keine 150PS haben, um bequem von A nach B zu kommen. 80PS sind dafür aber wesentlich angenehmer als 60PS. Du behauptest, 45PS reichen doch voll. Klar, man kommt schon an.[/QUOTE]

PatkIllA
2010-09-03, 23:02:24
Also ich hab bei meinen eltern noch so einen Palomino mit 1,6 GHz und 1 GiB Speicher und das ist schon merklich zäher.
So schon gemütlich eine starre HTML Seite nach der anderen angucken geht noch ganz gut, aber bei etwas aufwändigeren Dingen ist das nicht mehr so doll.
Der Stromverbrauch ist beim nichts tun auch in den gleichen Regionen wie mein Hauptrechner.

Gast
2010-09-03, 23:13:13
Darum ging es doch. Ab wann haben wir gute "2-3GHz DC" Systeme? die kann man sich heute für alles, was Otto angeht, holen. Oder behalten. Mit einer 1Ghz Gurke braucht sich heute niemand abmühen, auch wenn Otto damit alles erledigen könnte.


Fakt ist doch, das eine 1,6 GHz schnelle Palomino CPU gar kein abmühen bewirkt.
Wenn man ihr großzügig RAM spendiert (also >= 2 GB) und ne halbwegs schnelle Festplatte (> 100 GB, 7600 U/min und > 60 MB/s Schreib-lesegeschwindigkeit) dann arbeitet es sich auf so einer alten CPU rein zum Surfen derart flott, daß man hier gar nicht von "abmühen" sprechen kann.


Denn die Anforderungen eine HTML Seite ausreichend schnell zu parsen und darzustellen macht selbst auf so einer alten CPU nur noch einen Bruchteil ihrer Performance aus, weswegen das auch kein Abmühen ist.



Tja und natürlich kann man sich für ca. 300-400 € ne neue CPU kaufen (CPU, Mainboard, Speicher, neue SATA Festplatte), aber wenn dafür kein Bedarf besteht, dann sind, wenn der Rechner nur selten benutzt wird, die 300-400 € eben halt doch rausgeschmissenes Geld.

Lohnen tut es sich also nur, wenn man wirklich ständig vorm Rechner hockt, aber selbst dann ist nicht das mehr an Rechenleistung das was die Investition lohnend macht, sondern der geringere Stromverbrauch der modernen CPUs.

Es lohnt sich also nur wegen dem Stromverbrauch und dazu muß der Rechner oft genug im Jahr laufen damit es sich deswegen rechnet.
So weit sind wir inzwischen schon, daß die Performance nichtmal mehr das entscheidende Kriterium ist!


Und wie schon gesagt nur damit nicht wieder so einer kommt, der alles falsch verstehen weill, wer FullHD Videos anschaut und 3d Spiele spielt, für den gelten natürlich ganz andere Regeln, von diesen Usern sprechen wir hier aber gar nicht.




Wenn alles "Fluffig" von der Hand geht und man damit paar Tage gearbeitet hat, sind demgegenüber Wartezeiten von 4s schon verdammt lästig. Man muß keine 150PS haben, um bequem von A nach B zu kommen. 80PS sind dafür aber wesentlich angenehmer als 60PS. Du behauptest, 45PS reichen doch voll. Klar, man kommt schon an.
Eine Wartezeit von 4 Sekunden rührt sicher nicht von einer 1,6 GHz schnellen CPU her, sondern von der miesen Internetverbindung und einem wohl recht stark ausgelastetem Webserver.

Bei einem Kabelanbieter kriegt man heutzutage eine Internetverbindung von locker 16-20 MBit/s, aber das ist nichts zum Vergleich zu dem, was eine 1,6 GHz Palomino CPU intern an Speicherbandbreite hat.
Mit altem DDR-266 PC-2100 Speicher liegt diese bei 2,1 GB/s bzw. mit Dualchannel (was mein Palomino dank NForce MB kann) bei 4,2 GB/s.

Also um den Faktor 1803,87 schneller und das ist noch nur die eigentliche langsame Anbindung an den Hauptspeicher, der Cache ist nochmal deutlich schneller:
((4.2 GByte/s * 1024 * 1024 * 1024)*8)/(20 MBit/s*1000*1000) = 1803.87

Von diesem Vorteilsfaktor geht zwar einiges an Vorteil wegen dem Parsen des HTML Codes wieder drauf, aber das ist für typische HTML Seiten mit überlichweise sehr geringer Gräßen von wenigen Kbyte und dazu ein paar JPEG Bildchen nichts, das so eine Palomino CPU überfordern würde.

Und bezogen auf die Features kann eine Palomino CPU heute selbst schon so Sachen wie SSE 1.

Gast
2010-09-03, 23:14:13
PS: Könnte ein MOD mein doppeltes Posting #170, also das erstere bitte Löschen.

Ich habe leider zu früh auf den falschen Button gedrückt und im Zweiten noch mehr geschrieben was noch dazu gehört.

Gast
2010-09-03, 23:23:00
Also ich hab bei meinen eltern noch so einen Palomino mit 1,6 GHz und 1 GiB Speicher und das ist schon merklich zäher.

Zäh ist relativ, wenn du mal in 10 Jahren an einem modernen Rechner hocken wirst, dann wird sich subjektiv der alte Core i7 auch lahm und zäh anfühlen, aber das ist eben nur subjektiv und nicht objektiv.


Ansonsten könntest du, damit man die zwei Palominos besser vergleichen kann, schon mehr Angaben machen.

Welches OS.
Welcher Speicher bei welchem Takt?
Wird Dualchannel verwendet?
Was für eine Festplatte? Zugriffszeit, Umdrehungsgeschwindigkeit und Größe. Am besten noch das Festplattenmodell, denn ich reiche meine Rechner durch, d.h. früher war das mein High End Gamerrechner und so wurde er damals beim Kauf ausgelegt.
Welche Anwendungen laufen im Hintergrund und werden so benutzt?
Und welche Grafikkarte steckt im Rechner?

Gast
2010-09-03, 23:32:30
Noch etwas.

Es gibt leute die kaufen sich einen Dual Core Atom D550 und nutzen dem zum Surfen.

Aber Fakt ist, daß der Atom nichtmal halbsoviel Leistung wie ein Athlon Palomino liefern kann, wenn die erweiterten SSE Einheiten (also SSE 2, 3 usw.) des Atoms von der Software nicht bentutzt werden bzw. werden können.

PatkIllA
2010-09-03, 23:36:08
Zäh ist relativ, wenn du mal in 10 Jahren an einem modernen Rechner hocken wirst, dann wird sich subjektiv der alte Core i7 auch lahm und zäh anfühlen, aber das ist eben nur subjektiv und nicht objektiv.Das kann man auch objektiv messen, aber die Software und die Daten ändern sich ja auch.

Ansonsten könntest du, damit man die zwei Palominos besser vergleichen kann, schon mehr Angaben machen.

Welches OS.
Welcher Speicher bei welchem Takt?
Wird Dualchannel verwendet?
Was für eine Festplatte? Zugriffszeit, Umdrehungsgeschwindigkeit und Größe. Am besten noch das Festplattenmodell, denn ich reiche meine Rechner durch, d.h. früher war das mein High End Gamerrechner und so wurde er damals beim Kauf ausgelegt.
Welche Anwendungen laufen im Hintergrund und werden so benutzt?
Und welche Grafikkarte steckt im Rechner?
XP SP3, ohne extra Hintergrundprogramme
2x512 MiB DDR400
HDD entweder eine 60 GB IBM oder eine 120 Samsung mit 7200 UPM. Weiß gerade nicht.
Radeon 9700.
War auch mal mein Hauptrechner, aber das ist schon ein bisschen her und mich hat damals schon gestört, dass man den so leicht in die Knie zwingen konnte. Ich hatte vorher einen Dual P3 500 und da war beim Multitasking halt immer noch Reserve, da da die Software noch schlechter auf Multithreading ausgelegt war. Da musste man schon froh sein, wenn die Treiber nicht buggy waren.

(del)
2010-09-04, 12:46:54
Die Bewertung ob 45 oder 60 PS ausreichen ist doch voellig egal wenn wir inzwischen in alle Autos nen 100PS Motor einbauenIch halte mal ein System mit deiner 1Ghz CPU nicht für 100PS.

@Gast
Man geht mit den Erwartungen an ein Nettop meist anders uzm als an die restlichen Systemem. Eine Freundin von uns nutzt sowas exzessiv für ihr Jurastudium. Sie pendelt damit zwischen Münster und Dortmund.
Daheim syncronisiert sie aber nur und macht alles mit dem wesentlich potenteren Notebook. Das Nettop findet sie zwar genial, aber nur solange, solange sie unterwegs ist.

Alle anderen kaufen sich ein Atom-System imho entweder nur wegen Lautstärke/Verbrauch (HTPC mit besserer GPU), dem Gewicht oder dem Preis. Sie gehen also gerne wie auch weniger gerne irgendwelche Kompromisse ein.

Eine Wartezeit von 4 Sekunden rührt sicher nicht von einer 1,6 GHz schnellen CPU her, sondern von der miesen Internetverbindung und einem wohl recht stark ausgelastetem Webserver.Einfach mal den aktuellen Office auf so einem System abfeuern.

Die Disku läuft so lala. Würde man einen Palomino oder Pentium-M rauslassen und einen Atom nehmen - der eher wegen neuerer restlichen Hardware und Schnittstellen in die heitige Zeit passt - wäre ich gespannt was die Leute die hier Ottosysteme haben darüber denken :ulol:

p.s.:
Interessanterweise komme nichtmal ich =) und mache Threads auf wie "Ende des OS-Wahns?", indem ich die Leute frage, ob es wirklich noch Sinn macht nach XP oder Tiger weiter upzugraden :freak:

Headjunkie
2010-09-04, 17:13:36
Das ist doch aber genau der Punkt,
Office 98/2003/2007 und wer weiss was gerade aktuell ist machen doch fuer den Endanwender in 90% der Faelle keinen Unterschied. Die meisten sind doch froh wenn sie wissen wie man Text in Fett schreibt oder ne Seitenzahl unten drunter packt.
Gleiche gilt fuer Excel/Powerpoint und (wieder) Freecell.
Die Programme die seit 10 Jahren von OttoN. genutzt werden haben fuer ihn eigentlich keinen Unterschied gemacht aber entweder kam ein Softwareupgrade fuer das er dann schnellere HW brauchte oder umgekehrt.

Das lustige ist aber das das neueste Office nicht unbedingt mehr HW braucht(vom RAM abgesehen) als das 2007 Paket.

Aber es ist doch voellig egal ob jetzt die PerformanceGrenze bei 1 GHz oder bei 2GHz DC durchbrochen wurde, Fakt bleibt doch das die Performancegrenze durchbrochen ist, es gibt inzwischen nix mehr was fuer OttoN. es schafft seinen 2-3 Jahre alten PC auszulasten, selbst mit totaler Vermuellung. So jetzt muesste er aber eigentlich nen neuen PC kaufen um der Branche zu folgen aber er tuts nicht mehr (zumindest nicht in dem Mase), und daher ist auch ploetzlich der Druck weg die GHz weiter hochzukloppeln.

Hoert doch auf zu diskutieren ob ein 1 GHz schnell genug ist oder ein 2GHz DC, das Threadthema ist doch ob der Gigaherzwahn zu Ende ist und nochmal wiederkommt.

Und durch das jetzt kommende Cloudcomputing und damit verbundene Rueckstufen auf Thin-Clients ist die Performance solcher sowieso egal, wer Office von Google oder Microsoft im Netz nutzt braucht naemlich nichtmal mehr den Ram, geschweige denn ne ordentliche CPU.

Im Prinzip sind Verbraucher seit 10 Jahren voll aufs Marketing reingefallen, und das ist momentan immer weniger der Fall. Daher (sehr) wahrschienlich auch kein neues Rennen fuer GHz, es sei denn wir starten ploetzlich bei 10 GHz und gehen von da aus(da koennts Marketing dann wieder funzen (: )

(del)
2010-09-04, 17:29:21
Das ist doch aber genau der Punkt,
Office 98/2003/2007 und wer weiss was gerade aktuell ist machen doch fuer den Endanwender in 90% der Faelle keinen Unterschied.D.h. nicht, daß die Leute ihre Cracks nicht auffrischen...

Die meisten sind doch froh wenn sie wissen wie man Text in Fett schreibt oder ne Seitenzahl unten drunter packt.Find ich auch. Alles Spacken außer uns hier :rolleyes: Davon aber ab ist Office sowieso schlecht um damit ins Feld zu ziehen, da die meisten m.E.n. es nichtmal 1x im Monat anwerfen. Es sei denn sie kriegen wieder "lustige" Powerpoint-Dateien per Email.

Das lustige ist aber das das neueste Office nicht unbedingt mehr HW braucht(vom RAM abgesehen) als das 2007 Paket.Startet auf einem Palomino und einer 60GB IDE schon recht lahm, im Vergleich mit dfer HW die hier sonst vorgeschlagen wurde.

Aber es ist doch voellig egal ob jetzt die PerformanceGrenze bei 1 GHz oder bei 2GHz DC durchbrochen wurde, Fakt bleibt doch das die Performancegrenze durchbrochen istJa, da wären wir mal endlich einer Meinung. Der Thread war nur eine Weile recht fadenscheinig, als die Leute für andere Wasser prädigten und Kisten für ausreichnd "verkauft" haben, an welche sie sich selbst nie wieder freiwillig setzen würden.

Und durch das jetzt kommende Cloudcomputing und damit verbundene Rueckstufen auf Thin-Clients ist die Performance solcher sowieso egal, wer Office von Google oder Microsoft im Netz nutzt braucht naemlich nichtmal mehr den Ram, geschweige denn ne ordentliche CPU.Diesen Dreck müßen wir als Markt aber nicht mtmachen. Ich arbeite sehr fleißig dagegen wo es nur geht und empfehle jedem mir da gleich zu tun.

Im Prinzip sind Verbraucher seit 10 Jahren voll aufs Marketing reingefallen, und das ist momentan immer weniger der Fall.Inwiefern? Ich kenne niemanden der sich einen neuen Rechner kauft, wenn der alte noch schnell genug ist.

Headjunkie
2010-09-04, 18:24:02
Inwiefern? Ich kenne niemanden der sich einen neuen Rechner kauft, wenn der alte noch schnell genug ist.
Na eben weil sich Leute staendig ein neues Office "beschafft" haben und dafuer wieder neue HW brauchten, selbst wenn sie an Office nix gemacht haben.
Oder halt nen neues Windows.

War alles Marketing, haette man den Leuten erklaert, guckt ihr hier, Notepad reicht fuer 99% von euch aus haetten die meisten immer noch nen Athlon1600 oder P3 unterm Tisch.
Und zum Notepad nehmt ihr noch nen vernuenftigen kleinen Browser und nicht Outlook sondern ne anderes Emailprogramm, das ganze aufgesetzt auf ein WinXP mit reduzierten Hintergrunddiensten die ihr nicht braucht, und guck die Kiste rennt 1A.

Mein Opa hat sowas in der Form auch wenn ich die HW net kenne, aber er hat ne 32GB Platte drin, der Rest duerfte also aehnlich "antik" sein, aber er hat nen IT-admin als Nachbarn der ihm alle paar Monate die Kiste aufraeuhmt und mit dem er ne Inet Verbindung via WLan teilt, und die Kiste hat der jetzt schon mindestens 6-7 Jahre und reicht fuer alles was er macht locker aus. Und als Gegenleistung macht er halt bissel was im Garten vom Nachbarn.

Aber dank Marketing haben 90% der gleichen Zielgruppe inzwischen ein DC oder QC unterm Tisch mit Office2010 statt 2003 und regen sich trotzdem drueber auf wie langsam der IE ist.

Allet Marketing, schoen kombiniert von allen Seiten, MS + Intel + AMD + NVidia + alle PC Hersteller....die haben fuer einige Jahre ne Art Perpetuum mobile gehabt.

Gast
2010-09-04, 18:51:28
Na eben weil sich Leute staendig ein neues Office "beschafft" haben und dafuer wieder neue HW brauchtenGelinde gesagt, ist das Quatsch.

War alles Marketing, haette man den Leuten erklaert, guckt ihr hier, Notepad reicht fuer 99% von euch aus haetten die meisten immer noch nen Athlon1600 oder P3 unterm Tisch.Es geht doch nicht darum was die Erstkäufer sich holen, sondern um upgrades. Bzw. sind das 2 ganz verschiedene paar Schuhe bei diesem Thema. Wie soll sich ein Erstkäufer einen für ihn ausreichenden guten Singlecore kaufen, wenn es die in keinem Geschäft gibt?
Du redest übrigens von Wordpad und nicht von Notepad ;)

Mein Opa hat sowas in der Form auchWeil Opa halt wie das meist so ist gemählich zu Werke geht und ihm das auch wirklich ausreicht. Mein Vater bzw. meine Eltern hatten auch meinen alten ausgeputzen Barton den ich für sie flott gehalten habe und das war echt genug.
Bis sie hier mal zu Besuch waren und ich ihm, an meinem 4Ghz Penryn mit 3GB und der schnellsten Blackcaviar, nebenbei etwas an Opera erklären/zeigen sollte. Dann war der Spaß zu Ende: "Jungen, warte mal. Ich glaub ich spinne. Du stellst bitte nächste Woche eine Liste mit Klamotten für meinen neuen Rechner zusammen, der dann wenigstens halbsoschnell ist wie deiner, und sagst mir den Gesamtpreis. Und die alte lahme Möhre spenden wir nach Ethiopien." Tja.

BH. eod

Headjunkie
2010-09-04, 19:01:28
Und wieviel Zeit sparen deine Eltern ein mit einem Geraet das sie nicht mal wussten das es exisitert? 1-5 Minuten am Tag? Und dafuer haben se wahrscheinlich 500-1000 Euro ausgegeben...sowas nennt man auch ne ziemlich schlechte Kostennutzenrechnung.

Und ja, mein Opa entspricht ca 30% der Bevoelkerung allein vom Alter her, deine Eltern machen nochma 40%, bleiben hoechesten 10-20% (Babys haben ja noch! keinen PC) die wirklich die Performance nutzen oder ueberhaupt wissen das sie existiert.

Aber ich kann dir garantieren(weil das im Abi mein Einkommen war) das ich auch schon unter Win98 und XPs 100% responsive Systeme gebaut habe mit Bootzeiten unter einer Minute.

Meine Systeme waren rein von der Windowsoberflaeche immer gleich schnell, egal was fuer ne HW drin war, weil ich jedes System bis zum Optimum eingestellt habe. SSDs sind so ziemlich die einzige Technology die wirklich nen Oberflaechen(Windows Startzeit, Programmstartzet u.ae.) Boost gebracht hat, aber auf meinem K6-500 hatte ich Win98 wo sich Office sogar schneller geoeffnet hat als heute auf meinem X6. CPU Leistung war dafuer schon immer egal, da gehts um Speicher(Ram,HDD)anbindung und geschwindigkeit.

Guck doch mal in den Taskmanager(auf hoch-Aktualisierung), mach dir noch nen Fenster auf mit HDD Zugriff und dann ueberleg mal wie oft am Tag wirklich die CPU ausgelastet ist und nicht einfach auf Daten wartet.

Aber es ist voellig egal, deine Eltern sind genau das was ich meine, schoen aufs Marketing reingefallen. Statt den 500-1000 Euro die sie bezahlt haben haetten sie mir auch 50-100 geben koennen und ihre Kiste waere trotzdem genauso schnell in allem was sie machen.
Das hat mir damals schon mein Abi vergoldet und da hab ich noch an P3-P4s gebastelt, und es war nie die HW die zu langsam war sondern die Software war einfach scheisse konfiguriert.

Also, schnellere Platte/SSD rein, alles andere so lassen und damit erreichst du 95% eines moeglichen Usergewinns fuer Leute wie deine Eltern. Ram ist egal, genauso wie CPU und erst recht die Graka.

Gast
2010-09-04, 20:37:07
Einfach mal den aktuellen Office auf so einem System abfeuern.


Open Office geht damit bestens.
Desweiteren wäre die Frage, ob eine Privatperson immer das neuste Office braucht, durchaus berechtigt.
Denn man kann auch durchaus mit einem MS Office 2000 seine privaten Briefe schreiben ohne das einem wirklich etwas fehlt.
Wozu also ständig alles upgraden?





Die Disku läuft so lala. Würde man einen Palomino oder Pentium-M rauslassen und einen Atom nehmen - der eher wegen neuerer restlichen Hardware und Schnittstellen in die heitige Zeit passt - wäre ich gespannt was die Leute die hier Ottosysteme haben darüber denken :ulol:

Das dumme ist nur, ein Atom ist deutlich langsamer als ein Palomino oder Pentium M.

Letztere beiden sind zum Surfen und bischen Briefe schreiben völlig ausreichend.

Wie der Zufall so will habe ich sogar beides, also nicht nur den Palomino, sondern auch einen ca. 1,6 GHz schnellen Pentium M.
Die CPU des Pentium M reicht mir völlig, auch habe ich für wenig Geld mein NB auf 2 GB RAM aufgerüstet.
Das einzigste was an dem alten Notebook stört ist lediglich der Lüfter der wegen der Geforce 6600 Go anspringen muß, sowie die recht lahme 100 GB@ 5400 U/Min Festplatte.
Eine SSD würde hier sicher mehr bringen, nur gibt's moderne SSDs nicht mehr mit IDE Anschluß.
Das wären die einzigsten Mankos an meinem NB, die CPU aber ist auf jedenfall noch klasse.

PatkIllA
2010-09-04, 20:40:25
Denn man kann auch durchaus mit einem MS Office 2000 seine privaten Briefe schreiben ohne das einem wirklich etwas fehlt.Aber auch nur, wenn man sich auf seine eigenen Dokumente beschränkt.
Eine SSD würde hier sicher mehr bringen, nur gibt's moderne SSDs nicht mehr mit IDE Anschluß.Dafür gibt es Adapter.

Gast
2010-09-04, 21:14:16
Find ich auch. Alles Spacken außer uns hier :rolleyes:


Du glaubst doch nicht ernsthaft, daß die Leute hier im Forum, die wegen der 3d Grafik und ihren 3d Spielen sich für Rechner interessieren wirklich gute Office Cracks sind, oder etwa doch?


Die Hauptbeschäftigung der Gamer mit dem Computer ist das Spielen von Computerspielen, Office ist nur uninteressanter Nebenkram.
D.h. ich wette mit dir, daß hier überwiegend auch nur Leute sind, die nur mal wissen wollen wie man in ihrem Office ne Überschrift groß und fett gedruckt macht, alle anderen erweiterten Funktionen von Office wird sie nicht die Bohne interessieren.
Du siehst es ja selbs schon an den letzten 3 Seiten in diesem Thread.
Nur die wenigstens machen beim Wort Office eine Unterscheidung, ob sie jetzt Open Office oder MS Office meinen.






Startet auf einem Palomino und einer 60GB IDE schon recht lahm, im Vergleich mit dfer HW die hier sonst vorgeschlagen wurde.

Das liegt dann aber nicht am Palomino, sondern an der Festplatte.
Mein Palomino hat ne 200 GB Festplatte und die ist recht schnell.



Ja, da wären wir mal endlich einer Meinung. Der Thread war nur eine Weile recht fadenscheinig, als die Leute für andere Wasser prädigten und Kisten für ausreichnd "verkauft" haben, an welche sie sich selbst nie wieder freiwillig setzen würden.

Ich setze mich freiwillig an meinen Palomino. Ich habe damit kein Problem.
Wie schon gesagt ist er zum Surfen und für Officeaufgaben völlig ausreichend und schnell genug.

Es kommt sogar hin und wieder mal vor, daß ich am Palomino sitze, denn der steht im Gegensatz zu meinem Rechner im Wohnzimmer.



Diesen Dreck müßen wir als Markt aber nicht mtmachen. Ich arbeite sehr fleißig dagegen wo es nur geht und empfehle jedem mir da gleich zu tun.

Hier sind wir uns mal einig.

Ich hätte für Cloud Computing auch keinen Bedarf.
Cloud Computing kommt IMO 20 Jahre zu spät.
Denn mein Palomino ist schnell genug, so daß Cloud Computing für mich eigentlich überflüssig ist.
Und wenn schon Thin Clients, dann mit eigenem Server im eigenen LAN.
Ein Quad oder 6 Core dürfte völlig ausreichend sein, um 4-8 Thin Clients im privaten LAN zu versorgen.

Also 1 Thin Client für Opa, einer für Oma, einer für mich, einer für meine zukünftige Frau, zwei für meine Eltern und dann noch 2 für meine zukünftigen Kinder, macht also 8 Thin Clients versorgt durch dann einen Quad oder 6 Kerner.



Inwiefern? Ich kenne niemanden der sich einen neuen Rechner kauft, wenn der alte noch schnell genug ist.

Wenn ich mir hier so die Behauptung, daß mein Palomino für Office und Surfsachen zu langsam wäre so anhöre, dann kann ich gut glauben, daß es in der Tat Leute gibt, die sich vom Marketing einlullen lassen und sich jedes Jahr nen neuen Rechner kaufen.

Gast
2010-09-04, 21:18:24
Aber auch nur, wenn man sich auf seine eigenen Dokumente beschränkt.

Wer macht das Privat nicht?

Und wenn ich mal Dokumente von Freunden geschickt bekomme, dann sind das immer PDFs, die sind auch recht schnell dargestellt.



Dafür gibt es Adapter.
Aber AFAIK keine die in einen 2,5" Notebookfestplattenschacht zusammen mit der SSD problemlos reinpassen.

Aber selbst wenn es gehen würde, lohnt es sich bei den Preisen von aktuellen SSD Festplatten nicht. Denn die 100 GB brauche ich in meinem NB durchaus.

Und wenn ich daran denke, daß der Akku ebenfalls erneuert werden müßte, kann ich mir anstatt einer teuren SSD auch gleich ein neues Notebook kaufen.
D.h. momentan macht es, mögen SSD auch noch so verlockend sein, finanziell gesehen einfach keinen Sinn. Es müssen erst die Preise fallen und ich werde dann ebenfalls mind. 100 GB brauchen.

(del)
2010-09-05, 12:07:56
p.s.:
Und wieviel Zeit sparen deine Eltern ein mit einem Geraet das sie nicht mal wussten das es exisitert? 1-5 Minuten am Tag?Das Gefühl, eben zu fühlen wie ein Rechner alle Kommandos fast augenblicklich befolgt (und wenig später auch erfüllt) sollte man nicht unterschätzen.

Und dafuer haben se wahrscheinlich 500-1000 Euro ausgegeben...Dicke von-bis Spanne :ulol: Eher das erste, aber jetzt ist es halt so wie du es behauptest und sämtliche Begehrlichkeiten befriedigt :) Leistung ist einfach kein Thema mehr. Das Problem dabei, für dich: Mein Vater kennt keine PR-Aktionen der IT-Branche. Er kennt überhaupt keine Werbung zu dem Thema ;)

sowas nennt man auch ne ziemlich schlechte Kostennutzenrechnung.Das kann über alle Faktoren gebrochen schon sein, aber wer will nicht mit zum Boah gehören, wenn er sich auf Youtube mal irgendwelche feinen Karren, Musikanlagen, Fernseher, whatever anschaut? Beim Rechner der nicht fürs Zocken gedacht ist, ist man dafür eben recht billig und schnell dabei.

Du kannst ja mal versuchen in Offtopic auf alle einzureden die sich ihre Couch nicht bei irgendeinem Möbeldiscounter holen. Wie ich schon sagte. Für die anderen Leitungswasser prädigen und selbst eine Kiste Selters nach der anderen leer machen...

Gast
2010-09-05, 12:56:14
Es hat sich seid Jahren bewährt einen Prozessor im Preisbereich etwa um die 100 Euro (+/- 20 Euro) zukaufen,
mehr braucht man für die meisten normalen Anwendungen nicht !

Und 500 Euro sind bei einen Komplettsystem schnell erreicht,
zum beispiel folgende Teile:

- Prozessor 100 Euro

- Mainboard 100 Euro

- Arbeitspeicher 80 - 100 Euro

...

Gast
2010-09-05, 14:45:53
Wozu braucht man bei einem System für Otto ein 100€ Board? Ich bin erstmal bei 3x 85€.

Gast
2010-09-05, 14:53:05
Ein gutes modernes hat mir meist um die 100 Euro gekostet,
da das die Basis eines Systems ist kaufe ich auch nicht das billigste man will ja auch endsprechende Ausstattung und qualität.

Und vor knapp 3 Jahren hat mein 2000 MHz Doppelkern Pentium etwa 90 Euro gekostet,
heute gibt es dafür einen Doppelkern Pentium mit 3333 MHz solangsam ist die endwirklung geworden.

.

Wuge
2010-09-05, 19:55:34
Vati nutzt seit kurzem statt nem 2 GHz C2D nen i5 750. Ram verdoppelt und ne neue HD. Selbst da merkt man bei 0815 Sachen (hochfahren incl. Outlook und gefühlten 20 Toolbars, Hintergrundtoools u.s.w.) schon nen deutlichen Unterschied. Von "Bildbearbeitung" ganz zu schweigen.

Die wenigsten Simepl-User haben ein sauberes System und surfen damit bloß.

PatkIllA
2010-09-05, 19:57:07
Nach Ansicht des Gastes gehört man mit MP3 hören und ner Digicam schon zu den Powerusern.

Gast
2010-09-05, 22:10:04
Wozu braucht man bei einem System für Otto ein 100€ Board? Ich bin erstmal bei 3x 85€.

Die Frage ist halt ob man ne Intel CPU oder AMD CPU kauft.


Bei nem Mainboard für ne Intel CPU kann man durchaus mit 100 € rechnen, wenn es etwas gescheites sein soll.
Bei nem Mainboard für ne AMD CPU kriegt man schon für 70 € was brauchbares.

Headjunkie
2010-09-05, 22:43:57
Das muss doch echt weh tun oder?
70-100 Euro fuers MB in einem OttoNormalverbrauchersystem?

Guckt doch einfach mal auf die Office und Schnaeppchen System Beratung hier im Forum:
Office: Foxconn A74ML-K 3.0, 740G 38 Euro
Schnaeppchen: ASRock M3A770DE, 770 52 Euro

Das komplette Officesystem mit allem kostet ganze 246 Euro....aber hey, nen i5-760 fuer Office.....ist doch krank sowas, kann man ja gleich nen A380 zum Kippen holen nehmen.

An Gast mit neuem System fuer die Eltern: Das naechste mal solln die mir 400 Euro (statt den von dir gesagten 500+) geben und ich bau ihnen ein System welches absolut keinen Geschwindigkeitsunterschied zu ihrem jetzigen oder auch einem i5-760 System hat fuer ihre Anwendungen. Vielleicht bau ich noch ne kleine SSD rein und dann wirds sogar schneller.....
Ich hoffe innig das alle die hier statt 246 Euro fuer OttoSysteme 500+ ausgegeben haben bzw. glauben es ist notwendig NIEMALS jemanden ueber sinnvolle Hardware beraten haben oder machen werden.

Aber hey, net reingefallen aufs Marketing.....

Edit: Die 246 Euro sind mit wirklich allem, das einzige was fehlt ist nen Monitor.... und bevor hier jetzt Leute ankommen das damit Win7 net geht oder das man mehr Performance braucht, geht in den Diskussionthread zum Officesystem, da gibts genug Leute die mit dem 250 Euro System absolut zufrieden sind.

Und damit ist hoffentlich die PerformanceDiskussion beendet und wir koennen zurueck aufs Thema kommen? Falls es wer vergessen hat:
Das Ende des Gigaherzwahns?

Gast
2010-09-05, 23:07:40
Normale Mainboards !

http://geizhals.at/deutschland/a467616.html

http://geizhals.at/deutschland/a452220.html

Gast
2010-09-05, 23:08:35
http://geizhals.at/deutschland/a454448.html

Gast
2010-09-06, 00:15:51
In diesem Thread ging es doch zu Beginn darum, woher wir uns zukünftige Leistungssteigerungen erwarten dürfen. :uponder:

Gast
2010-09-06, 01:20:34
Edit: Die 246 Euro sind mit wirklich allem, das einzige was fehlt ist nen Monitor....Setz dich doch mal selber vor so eine Möhre.

Und damit ist hoffentlich die PerformanceDiskussion beendet und wir koennen zurueck aufs Thema kommen? Falls es wer vergessen hat:
Das Ende des Gigaherzwahns?Kennst du überhaupt den Gigahertzwahn? Ein P-M 1.6 Ghz System rannte im Alltag um Welten besser als die P3 Mobilen davor und ein T2400 mit 2x 1.83Ghz läuft um Welten besser als ein P-M. Das gleiche gilt für aktuellen Mobilen und für Desktops gilt es sowieso. Benutze mal ein System mit einem PhenomII 945 und benutze eins mit AthlonII 610e.

Benutze einen E8200 und benutze dann einen auf 4Ghz übertakteten E8400. Wo ist hier der Wahn? Daß der E8600 sauschnell und wesentlich schneller ist merkt man bei jeder Mausbewegung =)

Der einzige Wahn ist der Verbrauch und die Kühlung oder die Last (lästig) die man damit haben kann. Ob es an CPU-Takten oder Speicher oder Speicherkontrollern oider sonstwas liegt, die Steigerungen mit jeder übernächsten Generation merkt man deutlich und es ist egal, ob die Leistung jetzt alleine vom Takt auf der CPU hängt.

Oder meinst du solchen Wahn bei Bürorechnern? Bei Bürorechnern die auch die hier erwähnten Ottorechner sind laufen aktuelle Renner von Dell mit Celeron E1500 und IGPs. Und Win7. Das langt und keiner regt sich auf, daß es keine Coppermines mehr gibt.
Aktzuell werden sie langsam vom E3200 verdrängt. Mit sauberen Biosen und allen sleep states Schickanen mächtig sparsam und gut schnell. Mit 2.4 Ghz. Wahn?

Schnellste Intels drehen momentan kurzzeitig per Turbo von 3.33Ghz auf 3.6Ghz. Wo ist hier der Wahn? Den Wahn gabs es beim P4 als aberwitzige Taktsteigerungen unwitzige Leistungssteigerungen brachten. Das Ende des Gigahertzwahns endete mit dem letzten verkauften 3.8 Ghz Prescott. Was danach kam waren ausgegliechene Taktsteigerungen und das ist bis heute so.

Gast
2010-09-06, 01:28:06
In diesem Thread ging es doch zu Beginn darum, woher wir uns zukünftige Leistungssteigerungen erwarten dürfen. :uponder:CPU-Takt, Takteffizienz, Mehrkerne und GPGPU. Woher denn sonst? Schonmal geguckt mit wieviel Mhz GPUs schon laufen und wieviele Cores sie haben? Es wird sich nichts verändern. Es wird nur sinnvoller ablaufen als noch zu den Zeiten des P4 und sich dahin verlagern oder ausbalanzieren (Takt vs. Kernzahl vs. GPU) wo die größten Fortschritte zu erwarten sind. Daß Win9 alleine auf GPUs läuft mag ich aber noch nicht glauben.

Gast
2010-09-06, 02:07:46
Das muss doch echt weh tun oder?
70-100 Euro fuers MB in einem OttoNormalverbrauchersystem?

Guckt doch einfach mal auf die Office und Schnaeppchen System Beratung hier im Forum:
Office: Foxconn A74ML-K 3.0, 740G 38 Euro
Schnaeppchen: ASRock M3A770DE, 770 52 Euro


Das sind Micro ATX Mainboards.

Ich sprach von normalen ATX Mainboards, die kosten mehr.

Headjunkie
2010-09-06, 02:35:34
Das sind Micro ATX Mainboards.

Ich sprach von normalen ATX Mainboards, die kosten mehr.
Und das macht genau welchen Unterschied fuer den Benutzer? Beides passt in jedes Standardgehaeuse und es gibt auch ATX Boards ab 47 Euro (AM2+) auf Geizhals nach 5 sec Suchen.
Und ich habe schon an 300 Euro Systemen gesessen, weil ich sie zusammengestellt habe und sie waren genauso responsiv wie mein X6 Win7 System an dem ich momentan schreibe. Hatte nie was mit der CPU Leistung zu tun sondern seit den P4s und Athlons war jegliche "Langsamkeit" eines Systems immer ein Problem der Festplatte und evtl. nicht genug Ram bzw langsamen Ram(was seit DDR2 auch kein Prob mehr ist).

Den groessten Performanceschub der Windowsoberflaeche in den letzten 10 Jahren haben SSDs gebracht, und nichts anderes. Und wenn ich meinen alten Athlon 1600 demnaechst wieder ausm Storage hole und es schaffe da ne SSD reinzubauen dann fuehlt der sich auch wieder so fluessig an wie mein X6. (Dank Treibern wird aber nur XP statt Win7 druff laufen, habe also keine Fenstereffekte(OMFG!!)).

Gast
2010-09-06, 03:43:00
Wer kauft sich eigentlich einen X6 und verbringt dann 3/4 des Tages in einem Forum? ;)

Das Problem mit dem alten System hast du, indem dir SATA fehlt, um die dir nach einzige Leistungsbremse zu lösen. Oder der SATA-Controller ist noch recht lahm. Davon ab verbraten die alten Systeme mehr.
Statt zu versuchen an einen Palomino eine SSD anzuflanschen ist man dann wohl doch besser mit einem flüsterleisen DC Celeron System für ungefähr 370€ beraten.

Headjunkie
2010-09-06, 04:07:58
Jemand dem sein X6 die ganze Zeit VHDL Compiled/Synthesized und Routed und deshalb viel Wartezeit hat, dank dem X6 allerdings um einiges reduziert!
20min was aendern, 30-60Min warten, 20 min Resultate angucken und dann von vorne.

Gast
2010-09-06, 07:16:40
Und das macht genau welchen Unterschied fuer den Benutzer? Beides passt in jedes Standardgehaeuse und es gibt auch ATX Boards ab 47 Euro (AM2+) auf Geizhals nach 5 sec Suchen.

Ja, AM2+.

Du willst uns jetzt nicht wirklich Technik von Vorgestern andrehen wenn es darum geht etwas "Neues" zu kaufen.
AM3 müßte hier also schon sein und das kostet mehr.

Außerdem würde ich momentan sowieso Intel nehmen, und dann ist das MB noch teurer.



Und ich habe schon an 300 Euro Systemen gesessen, weil ich sie zusammengestellt habe und sie waren genauso responsiv wie mein X6 Win7 System an dem ich momentan schreibe.

Welchen Sinn macht es die letzten Restposten zu kaufen?
Da kann man dann auch gleich beim alten Palomino bleiben.




Hatte nie was mit der CPU Leistung zu tun sondern seit den P4s und Athlons war jegliche "Langsamkeit" eines Systems immer ein Problem der Festplatte und evtl. nicht genug Ram bzw langsamen Ram(was seit DDR2 auch kein Prob mehr ist).

Das sage ich hier schon die ganze Zeit, weswegen ein Palomino für Officesachen und Internetsurfen eigentlich genügt.



Den groessten Performanceschub der Windowsoberflaeche in den letzten 10 Jahren haben SSDs gebracht, und nichts anderes.

Das weiß ich.
Deswegen würde es am meisten bringen, wenn ich meinem Palomino eine SSD verpaße, anstatt den ganzen Rechner auszutauschen.



Und wenn ich meinen alten Athlon 1600 demnaechst wieder ausm Storage hole und es schaffe da ne SSD reinzubauen dann fuehlt der sich auch wieder so fluessig an wie mein X6. (Dank Treibern wird aber nur XP statt Win7 druff laufen, habe also keine Fenstereffekte(OMFG!!)).
Sag ich doch!

Gast
2010-09-06, 07:19:08
Jemand dem sein X6 die ganze Zeit VHDL Compiled/Synthesized und Routed


Routed? Lachhaft!

Routen ist ein Job bei dem nicht mal ein Pentium 1 aus der Puste kommt.
Ich hab nen Pentium 1 als Router laufen, der versorgt 8 PCs im LAN und der Pentium 1 Router ist ständig IDLE.

der_roadrunner
2010-09-06, 07:46:01
Ja, AM2+.

Du willst uns jetzt nicht wirklich Technik von Vorgestern andrehen wenn es darum geht etwas "Neues" zu kaufen.
AM3 müßte hier also schon sein und das kostet mehr.

Außerdem würde ich momentan sowieso Intel nehmen, und dann ist das MB noch teurer.

Ist halt die Frage, ob es zum surfen, chatten, Musik hören, Briefe schreiben etc. unbedingt das Neueste vom Neuen sein muss.

der roadrunner

Henroldus
2010-09-06, 09:10:04
Normale Mainboards !

http://geizhals.at/deutschland/a467616.html

http://geizhals.at/deutschland/a452220.html

Das sind Micro ATX Mainboards.

Ich sprach von normalen ATX Mainboards, die kosten mehr.
und wer braucht in einem Officesystem ein "normales" Mainboard mit ZWEI(!) PCIe interfaces für künftige SLI Konfigurationen? :freak:

Headjunkie
2010-09-06, 09:16:54
Routed? Lachhaft!

Routen ist ein Job bei dem nicht mal ein Pentium 1 aus der Puste kommt.
Ich hab nen Pentium 1 als Router laufen, der versorgt 8 PCs im LAN und der Pentium 1 Router ist ständig IDLE.
Incompetence at work?
Wiki einfach mal VHDL oder Xilinx und dann nochmal....
Meine 6 Kerne brauchen wenn ich mein komplettes Projekt routen lasse ca 2 Tage (habs noch nicht ausprobiert, momentan mach ich nur Teilstuecke at a time). Hat nichts mit Inet zu tun sondern mit dem programmieren von FPGAs(Wiki again).
Aber hey, hauptsache mal Inkompetenz gezeigt.

Und zu dem anderen Gast mit SSDs, legt euch nen Nick zu damit man die einzelnen Gaeste unterscheiden kann! Braucht euch ja nichtmal anmelden. Ansonsten ist es so schwierig Inkompetenz mit Themenrelevanz zu unterscheiden (: Ich habe nie behauptet der Palomino waere net schnell genug sondern habe angefangen mit: "1000x mehr Performance"....

Gast
2010-09-06, 11:42:22
Incompetence at work?
Wiki einfach mal VHDL oder Xilinx und dann nochmal....


Ich sprach vom Routen, nicht von VHDL und Xilinx.



Meine 6 Kerne brauchen wenn ich mein komplettes Projekt routen lasse ca 2 Tage

Du mußt dich halt richtig ausdrücken wenn du mit routen das "routen von Schaltungen " meinst.
Denn beim Thema Computer versteht man unter Routen im Normalfall das Routen von Netzwerkverkehr.

Also dein Fehler oder Inkompetenz in der Ausdrucksweise.



Hat nichts mit Inet zu tun sondern mit dem programmieren von FPGAs(Wiki again).

Wie bereits erwähnt, dein Fehler, dein Versagen. Du mußt dich richtig ausdrücken.
Warum sollte ich hier raten?

Gast
2010-09-06, 11:51:51
und wer braucht in einem Officesystem ein "normales" Mainboard mit ZWEI(!) PCIe interfaces für künftige SLI Konfigurationen? :freak:
Was habt ihr immer mit einen Bürosystem,
ich als Privatanwender mit einen kleinen Multimedia System (einfache Bild-,Grafik,Video- Bearbeitung Büroanwendungen,Internet u.v.m.
möchte meinen Rechner auch mal Aufrüsten z.b. neue Schnittstellenkarten da ist der PCIe sehr vorteilhaft das Mainboard ist die Basis des Systems da investiere ich lieber etwas mehr.

Wofür ein zusetzlicher PCIe gut sein kann siehe zum beispiel hier:

http://geizhals.at/deutschland/a480158.html

Headjunkie
2010-09-06, 12:16:08
Du mußt dich halt richtig ausdrücken wenn du mit routen das "routen von Schaltungen " meinst.
Denn beim Thema Computer versteht man unter Routen im Normalfall das Routen von Netzwerkverkehr.

Also dein Fehler oder Inkompetenz in der Ausdrucksweise.
Wie bereits erwähnt, dein Fehler, dein Versagen. Du mußt dich richtig ausdrücken.
Warum sollte ich hier raten?
Jemand dem sein X6 die ganze Zeit VHDL Compiled/Synthesized und Routed und deshalb viel Wartezeit hat, dank dem X6 allerdings um einiges reduziert!
20min was aendern, 30-60Min warten, 20 min Resultate angucken und dann von vorne.
Hmm, deutsche Sprache schwere Sprache?
Klar gesagt das VHDL compiled und routed wird, da stand nix von normalen PCs oder sonstigem. Lesen hilft!
Dazu noch die vollkommenen idiotische Annahme das ich meinen X6 auslaste als Router..... da simma dann wieder bei: Das muss doch weh tun!
Nen 140Watt(nur CPU!) Router macht ja auch soviel Sinn das wir uns alle einen in die Ecke stellen sollten.....

Also 1. net lesen koennen (oder muss ich VHDL fett schreiben bevor es sichtbar wird?) und 2. dann noch abstruse und sinnlose Sachen in das nicht gelesene reinlesen und 3. meine Ausfuehrung ueber Zeiten (20min, 30-60min, 20min und von vorne) total ignorieren die jegliche Logik eines normalen Routers ad absurdum fuehrt... => Incompetence at work!

Gast
2010-09-06, 12:39:21
Hmm, deutsche Sprache schwere Sprache?
Klar gesagt das VHDL compiled und routed wird, da stand nix von normalen PCs oder sonstigem. Lesen hilft!


Lern schreiben!

Compiled und Routed wurde erstmal wie ein Substantiv groß geschrieben, obwohl es Verben sein sollen. Soviel zur Deutschen Sprache.
Außerdem bezieht sich das Routed nicht auf VHDL, sondern auf den X6 wie diese einfache Frage aufzeigt:

"Wessen X6 routed die ganze Zeit?"
Seiner!

Gelesen wird es nämlich folgendermaßen:
"Jemand dem sein X6 die ganze Zeit Routed."
Und routed kann für sich stehen, da im Computerjargon ganz klar definiert ist, was Router sind.


Du hättest also "und VHDL routed" schreiben müssen, aber das hast du nicht getan.





Dazu noch die vollkommenen idiotische Annahme das ich meinen X6 auslaste als Router.....


Das war eine Behauptung deinerseits und ich habe sie deswegen als lächerlich betitelt und dir gezeigt, daß schon ein Pentium 1 zum Routen des Privaten Netzwerkverkehrs genügt.



Nen 140Watt(nur CPU!) Router macht ja auch soviel Sinn das wir uns alle einen in die Ecke stellen sollten.....


Es gibt durchaus Leute, die keinen richtigen Router haben und das ganze Internet über ihren eigenen Comuter abgewickelt wird und an die anderen Rechner im Netzwerk via Switch/Hub weitergereicht werden.


Unter Windows XP gibt es dafür sogar extra eine Option bei den Netzwerkeinstellungen, damit jeder DAU ganz einfach seinen Rechner zum Internetverkehr umleitenden Rechner umstellen kann.




Also 1. net lesen koennen (oder muss ich VHDL fett schreiben bevor es sichtbar wird?)

Siehe oben.
Du mußt erstmal die Regeln der deutschen Grammatik lernen.
Dazu noch die Groß und Kleinschreibung lernen und beim nächsten mal vor dem routen VHDL noch einmal hinschreiben, wenn du dich schon so schlecht ausdrückst.



3. meine Ausfuehrung ueber Zeiten (20min, 30-60min, 20min und von vorne) total ignorieren die jegliche Logik eines normalen Routers ad absurdum fuehrt...

Es ist deine schlechte Ausdrucksweise.
Hier habe ich dann aus dem Kontext genommen, daß du dich bezüglich den Zeitangaben auf VHDL Compiled/Syntehsized beziehst, also ohne dem Routen.


Also, lerne in Zukunft dich richtig auszudrücken, dann kann man dir auch keine Inkompetenz vorwerfen.

Henroldus
2010-09-06, 13:17:54
Was habt ihr immer mit einen Bürosystem,
ich als Privatanwender mit einen kleinen Multimedia System (einfache Bild-,Grafik,Video- Bearbeitung Büroanwendungen,Internet u.v.m.
möchte meinen Rechner auch mal Aufrüsten z.b. neue Schnittstellenkarten da ist der PCIe sehr vorteilhaft das Mainboard ist die Basis des Systems da investiere ich lieber etwas mehr.

Wofür ein zusetzlicher PCIe gut sein kann siehe zum beispiel hier:

http://geizhals.at/deutschland/a480158.html
mir ging es um den 16x für Grafikkarten ;)
vielleicht falsch ausgedrückt

Headjunkie
2010-09-06, 17:16:33
Frage: Was machst du an deinem X6?
Antwort: VHDL Compilen/Synthesizen und Routen.

So, wenn du Probleme hast aus dieser einfachen Antwort und dem umgebenden Kontext rauszulesen das es logischerweise nicht um einen Router gehen kann, dann wuerde auch bestes Deutsch daran nicht viel aendern koennen.

Und ja, mein Deutsch mag nicht das beste sein da ich seid 6 Jahren ausserhalbs Deutschland lebe, aber ich bin mir ziemlich sicher "das Objekt X(VHDL) wird gerupft/geschlachtet und gekocht" ein voellig korrekter deutscher Satzbau ist, und selbst wenn nicht werden es 99% aller Leute verstehen das sich das gekocht noch immer auf Objekt X bezieht und nicht auf etwas voellig unbezogenes was auch noch keinen Sinn macht.
Aber wie gesagt, wenn jemand mit deinem "guten" Deutsch solche Probleme hat einfache Saetze zu verstehen.....kein Wunder D hat angeblich nen Bildungsproblem.

@Heroldus, natuerlich brauch man 2*16 PCIe + 11.1 Onboard Sound + 2*Gigabit Lan + 127 Layer MB in jedem Standard Office PC, ist doch selbstverstaendlich!

Edit: Um im Format des Gastes zu bleiben, schoene kurze Saetze und so...:
Jemand dem sein X6 die ganze Zeit VHDL Compiled/Synthesized und Routed
Das ist also falsch und ich muss schreiben:
VHDL Compiled/ VHDL Synthesized und VHDL Routed? Wohey, ich geh mir gleich mein Huehnchen rupfen und mein Huehnchen schlachten und mein Huehnchen kochen.
Deutsch fuer Analphabeten oder was soll das sein?


"Wessen X6 routed die ganze Zeit?"
Seiner!
Und um dir zu helfen, die richtige Frage lautet:
"Und was Routed der X6?"
VHDL! Tadda!!!


Du hättest also "und VHDL routed" schreiben müssen, aber das hast du nicht getan.
Siehe Huehnchen.....


Das war eine Behauptung deinerseits und ich habe sie deswegen als lächerlich betitelt und dir gezeigt, daß schon ein Pentium 1 zum Routen des Privaten Netzwerkverkehrs genügt.
Ich habe nie behauptet mein X6 waere durch Netzwerkrouting ausgelastet, sondern durch VHDL routing....aber hey, lesen und so....



Es gibt durchaus Leute, die keinen richtigen Router haben und das ganze Internet über ihren eigenen Comuter abgewickelt wird und an die anderen Rechner im Netzwerk via Switch/Hub weitergereicht werden.
Ach wirklich? Du musst ja IT studiert haben um so klug zu sein, aber warte mal, ich nutze meinen Schlepptop als WLAN Antenne fuer meinen X6, Mensch, und der Lappi ist sogar IDLE! WOW!


Du mußt erstmal die Regeln der deutschen Grammatik lernen.
Dazu noch die Groß und Kleinschreibung lernen und beim nächsten mal vor dem routen VHDL noch einmal hinschreiben, wenn du dich schon so schlecht ausdrückst.
Nein, du musst lernen kontext-bezogen zu lesen, das hatten wir in der 2. und 3. Klasse, also viel Spass dabei. Und dann brauchst du auch nicht Sachen die keinen Sinn ergeben in Sachen die nicht geschrieben wurden(finde den Term "Netzwerk" in meinem Post ist ein lustiges Spiel) reinzulesen!

PatkIllA
2010-09-06, 17:18:27
mir ging es um den 16x für Grafikkarten ;)
vielleicht falsch ausgedrücktMan muss in den 16x keine Grafikkarten stecken. Das was man bei den normalen Intelchipsätzen derzeit an Lanes bekommt ist verdammt wenig und auch noch auf die alte PCIe Geschwindigkeit limitiert.

Gast
2010-10-06, 03:24:57
Das rennen geht weiter, in ein paar Jahrzehnten wird es Rechner mit bis zu 100 GHz geben:
http://www.heise.de/newsticker/meldung/Nobelpreis-fuer-Graphen-Entdecker-1101879.html

Sie werden aber wohl nicht mehr auf Silizium basieren.

Iruwen
2010-10-06, 11:57:32
Sind Quantencomputer eigentlich mal für den Alltagsgebrauch geplant oder sind die auf spezielle Aufgaben festgelegt? Das tut sich ja scheinbar auch nicht viel.

Simon Moon
2010-10-07, 23:38:22
Sind Quantencomputer eigentlich mal für den Alltagsgebrauch geplant oder sind die auf spezielle Aufgaben festgelegt? Das tut sich ja scheinbar auch nicht viel.

Da tut sich mehr als man bisher erwartete: http://www.computerbase.de/news/allgemein/forschung/2010/september/kommen-quantencomputer-frueher-als-erwartet/
"Professor Jeremy O’Brien, Direktor des Centre for Quantum Photonics: It is widely believed that a quantum computer will not become a reality for at least another 25 years. However, we believe, using our new technique, a quantum computer could, in less than ten years, be performing calculations that are outside the capabilities of conventional computers."
Was man damit nun konkret lösen kann, können wohl eher Mathematiker erklären. So wie ich das verstehe, gibt man dem Quantencomputer eine komplexe Aufgabe und der spuckt dann ein potentielles Ergebnis nach, dass man dann nachprüfen kann.

Tigerchen
2010-10-08, 15:52:35
Was habt ihr immer mit einen Bürosystem,
ich als Privatanwender mit einen kleinen Multimedia System (einfache Bild-,Grafik,Video- Bearbeitung Büroanwendungen,Internet u.v.m.
möchte meinen Rechner auch mal Aufrüsten z.b. neue Schnittstellenkarten da ist der PCIe sehr vorteilhaft das Mainboard ist die Basis des Systems da investiere ich lieber etwas mehr.

Wofür ein zusetzlicher PCIe gut sein kann siehe zum beispiel hier:

http://geizhals.at/deutschland/a480158.html
Übertrage nicht deine Ansprüche auf die Ansprüche anderer. Immer mehr User kommen sehr gut mit einem Billig-PC ohne jeden Schnickschnack und auch ohne USB 3.0 klar. Der Trend geht ganz klar weg von der High-End CPU und dem entsprechenden Mainboard. Man kann das als Technik Freak bedauern. Nur verhindern kannst du das nicht. Auch nicht mit wüsten Beschimpfungen.

John.S
2010-10-08, 22:36:16
Wenn diese Technologie erstmal richtig in Gang kommt, dann geht auch der GHz-Wahn wieder los.;)

http://www.pcgameshardware.de/aid,640822/Der-weltweit-kleinste-Transistor-besteht-aus-Kohlenstoff/Retro/News/

http://www.computerbase.de/news/allgemein/forschung/2010/februar/ibm-zeigt-100-ghz-transistor-aus-kohlenstoff/

http://www.iht.e-technik.tu-darmstadt.de/forschung/cntfet.html

boxleitnerb
2010-10-08, 23:02:00
Es gibt jetzt schon einzelne Transistoren auf Silizium oder Si/Ge-Basis, die so schnell schalten können. Das ist nichts Besonderes. Eine ganze Schaltung aus Milliarden davon zu betreiben, ist wieder ein ganz anderes Thema.

Wuge
2010-10-09, 11:42:35
Zumal man auch einfach die Gatter größer machen könnte ;) Die Taktfrequenz der CPU ist nicht nur abhängig von der Schaltgeschwindigkeit einzelner Transistoren.

Gast
2010-10-10, 13:51:43
Vor 3 Jahren hatte ich für einen Pentium E2180 mit 2x 2000 MHz etwa 90 Euro bezahlt
und heute würde ich für einen Pentium E6800 mit 2x 3333 MHz etwa 90 Euro bezahlen viel hat sich in den letzten Jahren nicht getan !

Headjunkie
2010-10-11, 17:23:23
Vor 3 Jahren hatte ich für einen Pentium E2180 mit 2x 2000 MHz etwa 90 Euro bezahlt
und heute würde ich für einen Pentium E6800 mit 2x 3333 MHz etwa 90 Euro bezahlen viel hat sich in den letzten Jahren nicht getan !
Und im Mai habe ich fuer 6x2800 MHz 130 Pfund bezahlt, das ist denke ich dann schon ein ziemlicher Sprung, genaugenommen habe ich ja 17GHz und mit OC genau 21 GHz inner Maschine... (-:

Mr.Magic
2010-10-11, 17:39:28
Und im Mai habe ich fuer 6x2800 MHz 130 Pfund bezahlt, das ist denke ich dann schon ein ziemlicher Sprung, genaugenommen habe ich ja 17GHz und mit OC genau 21 GHz inner Maschine... (-:

Selbst wenn man es so rechnen könnte, wären es bereinigt statt 21 nur noch 14INTEL-GHz, sprich ungefähr ein 3,5Ghz i7. :tongue:

Headjunkie
2010-10-11, 22:45:31
Selbst wenn man es so rechnen könnte, wären es bereinigt statt 21 nur noch 14INTEL-GHz, sprich ungefähr ein 3,5Ghz i7. :tongue:
14 zu 21, das ist ja 50% mehr, du willst mir doch net erklaeren das IntelCPUs 50% schneller sind :smile:
Im Gegenteil, AMD ist ca 20% langsamer bei Spielen, also 20% von 21 sind ca 4, also 17GHz!!!
(ist es net herrlich wie man %Rechnung zur Manipulation verwenden kann?)
;D

L.ED
2010-10-12, 08:48:41
Na na, wenn wir schon dabei sind dann bleiben gleich mal bei realistisch Milchmädchen :freak:

Intel*bei angenommener 400Mhz besserer Pro Mhz Leistung pro Kern* = je 1600MHz +

AMD X4 2000 = 8000 MHz
AMD X4 2400 = 9600 MHz
AMD X4 2600 = 10400 MHz
AMD X4 2800 = 11200 MHz
AMD X4 3000 = 12000 MHz
AMD X4 3200 = 12800 MHz
AMD X4 3600 = 14400 MHz
AMD X4 4000 = 16000 MHz
AMD X4 4200 = 16800 MHz

Intel x4 2000 = 8000 + 1600 = 9600 MHz
Intel x4 2600 = 10400 + 1600 = 12000 MHz
Intel x4 3000 = 12000 + 1600 = 13600 MHz
Intel x4 3200 = 12800 + 1600 = 14400 MHz
Intel x4 3700 = 14800 + 1600 = 16400 MHz
Intel x4 4000 = 16000 + 1600 = 17600 MHz
Intel x4 4200 = 16800 + 1600 = 18400 MHz
Intel x4 4500 = 18000 + 1600 = 19600 MHz
Intel x4 4700 = 18800 + 1600 = 20400 MHz


AMD X6 2600 = 15600 MHz
AMD X6 2800 = 16800 MHz
AMD X6 3000 = 18000 MHz
AMD X6 3200 = 19200 MHz
AMD X6 3400 = 20400 MHz
AMD X6 3700 = 22200 MHz
AMD X6 4000 = 24000 MHz
AMD X6 4200 = 25200 MHz
AMD X6 4500 = 27000 MHz


PS: In Idealfällen z.b. Raytracing oder mehre in Tendenz auslastende Anwendungen auf einmal, ist es allerdings schon viel weniger Milchmädchen. Was es dann noch immer zu dem macht ist ein gewisser Overhead verschnitt (mal mehr mal minder), sowas könnte man auch herausrechnen. Würde solch Auflistungen aber unübersichtlich machen und verkomplizieren, was zudem Milchmädchen entgegen.

Sprich oder abschließend dazu, ein hypothetischer 20Ghz Single Core (egal ob AMD/Intel), wäre schneller als ein theoretischer (aus mehren Kernen sich errechnender) 20GHz Mehrkerner.

Gast
2010-10-12, 19:05:06
Aha welche Modele sind das ?

Intel x4 4200 = 16800 + 1600 = 18400 MHz
Intel x4 4500 = 18000 + 1600 = 19600 MHz
Intel x4 4700 = 18800 + 1600 = 20400 MHz

L.ED
2010-10-12, 19:26:49
Natürlich auf die aktuelle Intel Architektur (i5/i7)

Zur älteren wäre ein durchschnittliches pro MHz+ von 400MHz auch gar nicht anwendbar da nicht zutreffend, die Phenom II haben hinsichtlich dessen auch zugelegt. Sie sind mit denen in vielen nun gleich auf und ab und an auch im +.

Milchmädchen ist so ne Sache, manch Anwendungen/Programme könnte man sogar ein + von 600Mhz Intel (der Aktuellen Architektur), mit gut Willen bescheinigen (allerdings wenn denn in Tendenz eher nur noch denen mit HT). In anderen wiederum nur mehr 200 und weniger bis hin zu gar keins oder gar darunter. Wobei letzteren beiden im heimischen Wald und Wiesen weniger anzutreffend.

Undertaker
2010-10-12, 20:11:56
Also wenn überhaupt sollte man erstmal mit Prozenten und nicht absoluten MHz rechnen, du kannst nicht auf ein 2GHz wie auf ein 3Ghz die gleichen 400/600/xxxMHz draufrechnen. ;)

Mit 20-25% ohne SMT (X4 965BE ~ i5 750/760) und ~45% mit (i7 870 ~1090T) liegt man, Volllast und gute Threadskalierung vorausgesetzt, im Regelfall ganz gut.

Headjunkie
2010-10-16, 17:09:03
Fassen wa zusammen, die GHz Sprünge sind doch ganz beachtlich, aber halt nur sichtbar für Leute die Multiplikation beherschen (-:

Ansonsten gilt trotzdem das die Herausforderung auf eine aehnliche Die-Größe wie ein einzelner Chip 2-6mal den gleichen Chip draufzubekommen auch ziemlich gross ist und damit vorallem die neuen X6 (Intel und AMD) ziemlich beeindruckend sind.

Gast
2010-10-16, 21:18:47
Aber machen mittelfristig überhaupt mehr als Vierkerne für den Privatanwender grossen sinn
und müsten da nicht ehr doch deutlich mehr Gigaherz kommen ?

°

derpinguin
2010-10-16, 22:13:20
Und wie kommt man auf die dämliche Idee die Kerne zusammen zu rechnen? Das ist doch Aldi PC Käufer Niveau, ich dachte da wären wir drüber.

Trap
2010-10-16, 22:51:52
Man kann noch viel mehr Addieren: HT-Takt, Speichertakt, PCIe-Takt ;)

L.ED
2010-10-16, 23:16:57
Und weil man auch als Nerd damit konfrontiert normal sterblichen was näher zu bringen, wegen meine ab gewissen Punkt auch Erklärungsnotstand. ;)

Rein Hypothetisch wäre diese Angabe auch gar nicht so falsch, im Sinne von einer einfachen Leistungsklassen Darstellung. Und eigentlich sogar noch untertrieben da ein heutiger Kern bei z.b. 2GHz schlicht mehr pro MHz leistet als ein damaliger 2GHz. Demzufolge ein heutiger potenter 4 Kerner auch faktisch dazu im Stande mindestens das 4xfache eines damaligen High End 1 Kern Boliden an Leistungsklasse abzugeben, bei mehr oder minder weniger Verbrauch.

So eine CPU stellt z.b. im Raytracing oder vielen Encoding Geschichten im Grunde auch das dann dar. Das es gleichsam auch noch was anderes suggestiv mit in Aussicht stellt ist zwar richtig aber wurde mit einer solchen Aussage dennoch nirgendwo so getätigt.

Wald und Wiese nicht zwangsläufig x mal schneller rennt, dafür aber x mal zu selben oder leicht besseren Konditionen gleichzeitig drin. Und ganz gleich wie Sinnvoll oder gar Praktikabel das dann auf Anwendung X, ändert es nichts dran das rein in technisch Theorie und somit Leistungsklasse, CPU X es könnte.

Was im übrigen schönes Beispiel für die mit unter Kluft zwischen Papiertheorie und Praxis (Umsetzbarkeit). :biggrin:

(del)
2010-10-18, 04:48:11
L.ED das war ein Showstopper. Ich denke alle überlegen erstmal welche Substanzen #229 und #235 trennen ;)

Tesseract
2010-10-18, 16:35:50
Rein Hypothetisch wäre diese Angabe auch gar nicht so falsch, im Sinne von einer einfachen Leistungsklassen Darstellung.
selbst da ist es kompletter schwachsinn weil der fehler mehere huntert prozent ausmachen kann.

und auch wenn man im absoluten best-case damit annähernd richtig liegt ist takt immer noch kein performancerating sondern eine physikalische größe.
wenn ich auf jedem arm 2 armbanduhren trage hat der tag trotzdem keine 96 stunden.

L.ED
2010-10-18, 21:15:19
Ach was soll man da weiter lamentieren (und sich ggf. Blödheit unterstellen zu lassen), man sieht halt das bei Projekten wo damals 5 und mehr A64 4000+ Rechner Renderten das allein rein Zeitlich von einem X6 System allein abgedeckt und noch unterboten (im positiven sinne), bei weit weniger Stromverbrauch.

Schulter zuckt, wegen meine macht da draus doch was ihr wollt(?) ^^

So möge denn der Differenzierungszug anrollen, zerstückeln und zerbröckeln wir es bis zum Ende, an dem dann steht das man für jede Software, Revisionen einschließlich Betriebssystem nebst Treiber und das alles in Zusammenhang. Diese Untersuchungen dann natürlich auch nur auf die Systemkonstellationen jeweils im einzelnen abzuhalten hat/hätte, einschließlich die-assemblieren und Code Analyse.

Simon Moon
2010-10-19, 01:35:24
Eine CPU mit xGhz Takt hat xGhz Takt - egal wieviel Kerne da drauf sind.
Oder geht bei euch eine Wanduhr schneller, wenn ihr 4 Uhren daneben hängt? :|

L.ED
2010-10-19, 07:33:18
Es geht nicht um mich oder uns, :| verdammt nochmal (hier springst auch ab und an noch im Kreis) :)

Ja sie hat defakto nur GHz X ... das ist doch völlig klar und überhaupt nicht in Abrede, die Leistungsklasse ist dabei aber dennoch ne andere/höhere. Generelle Pro MHz Steigerungen aber in der Hauptsache durch in die Breite gehen, im Zweifel hat man heute halt auch nicht viel mehr als schon vor ein paar Jahren (je nach Ausgangslage), nur zu günstigeren Konditionen.

Und dort liegt die Krux, wenn man es Leuten näher bringen soll, den meisten der hier lesenden mag das völlig befremdlich sein aber wirklich sehr vielen ist noch nicht einmal klar was ein Dual, Quad etc. Core überhaupt ist. Und wenn man das erstmal näher gebracht wird das Imaginäre Fragezeichen über den Kopf noch nicht luftiger, denn nicht selten ein das erste mal am hören oder gewahr werden (wie was das gab/ging mehre CPU's in einem PC?)!

Headjunkie
2010-10-19, 23:27:22
AMD hatte doch bei den ganz alten Athlons im Prinzip diese "Klassen-Benennung" eingeführt um den einfachen Aldi Konsumenten klar zu machen das ihre CPUs mit weniger Takt die gleiche Leistung erreichen können, also wäre es auch bei mehr Kernen eigentlich ne Option.

Aber zum Glück(Achtung Ironie!) braucht man das ja nicht weil die meisten Menschen ja sowieso glauben das 4 Zylinder besser als 2 sind und das bei CPUs wohl auch nicht anders sein wird....

Simon Moon
2010-10-20, 05:18:36
Und dort liegt die Krux, wenn man es Leuten näher bringen soll, den meisten der hier lesenden mag das völlig befremdlich sein aber wirklich sehr vielen ist noch nicht einmal klar was ein Dual, Quad etc. Core überhaupt ist. Und wenn man das erstmal näher gebracht wird das Imaginäre Fragezeichen über den Kopf noch nicht luftiger, denn nicht selten ein das erste mal am hören oder gewahr werden (wie was das gab/ging mehre CPU's in einem PC?)!

Denen tust du aber keinen Gefallen mit falschen Informationen. Im Gegenteil, das verwirrt höchstens und der arme Mensch, der ihren nächsten PC zusammenbaut / verkauft darf sich mit absurden Ideen die sich aus deinem Beispiel ergeben, rumplagen.

Vor 10 Jahren oder so hat ein Supporter wohl mal gefunden, es kommt nicht nur auf die CPU an, auch der Arbeitsspeicher ist wichtig - was diese Idee angerichtet hat... Himmel, der Typ der das vom Stapel lies, hat wohl mittlerweile Suizid begangen: Win x32 Systeme mit 4GB RAM, Radeon 3100 mit 2GB shared memory... etc. pp. und von DAUs hört man immer wieder Sprüche "Ich hab nen Pentium mit 2GB" :ugly:

Nein, solche "Vereinfachungen" schaden mehr als sie nutzen, denn sie nötigen ehrliche PC Verkäufer geradezu auf den Schmu der DAUs einzugehen.

(del)
2010-10-20, 12:12:36
AMD hatte doch bei den ganz alten Athlons im Prinzip diese "Klassen-Benennung" eingeführt um den einfachen Aldi Konsumenten klar zu machen das ihre CPUs mit weniger Takt die gleiche Leistung erreichen können, also wäre es auch bei mehr Kernen eigentlich ne Option.Darüber lies sich schon in der 1-Kern-Ära nichts wirklich aussagekräftiges sagen. Bei Mehrkernen und den race conditions, soweit die Anwendungen überhaupt mehr Kerne untertstützen, kann man es noch weniger. Deswegen auch ist das noch weniger eine Option als zu den Zeiten des AthlonXP.

frankkl
2010-11-01, 14:46:22
Welcher Gigaherzwahn ;D


Meine Prozessoren der letzten Jahre.

- Pentium ....................... 133 MHz

- Pentium 233 MMX .......... 233 MHz

- Celeron ........................ 800 MHz

- Celeron ...................... 2000 MHz aus den Jahr 2002 ;D

- Pentium E2180 ........ 2x 2000 MHz aus den Jahr 2007

-Core 2 Quad Q8300 ... 4x 2500 MHz


Habe nach fast 8 Jahren 500 MHz mehr als 2000 MHz !

frankkl

Headjunkie
2010-11-07, 17:30:39
Was ist daran eigentlich so schwer?
Gigaherz bedeutet nix anderes als eine Milliarde Operationen pro Sekunde, ne CPU mit 4 GHz hat 4 Milliarden Operationen, und ne CPU mit 4 Kernen mit jeweils 4 GHz macht dementsprechend 16 Milliarden Operationen, also kann man 16 GHz dazu sagen.

Das das technich natürlich Blödsinn ist von der Namensgebung her ist jawohl jedem hier klar, trotzdem steckt ne ganze Menge Wahrheit mit drin.

4 Kerne a 4 GHz können im Idealfall nunmal knapp 400% mehr Leistung bringen als der einzelne Kern. Situationsabhängig oder nicht, nen 2*2000 ist ca halbsoschnell wie der 4*2500 MHz.

Das es leider zigTausend Programmier gibt die zu dumm (oder nicht genug Zeit, oder nicht genug Geld oder oder) sind diese Speed auch auszunutzen, ändert nix daran das die CPU technisch gesehen 4* mehr Berechnungen pro Sekunde ausführen kann.

Und dementsprechend 4 * 2500 MHz gleichsetzbar (in Umgangssprache) mit 10 GHz ist.

Den GHz Wahn gibt es noch, nur die Programmierer hängen halt nen paar Jahre hinterher mitm ausnutzen (:


Die ganze Idee der MHz und GHz Klassifizierung kam doch daher das man darstellen wollte wieviele Berechnungen pro Sekunde die CPU machen kann. Nix anders wollt ma damit darstellen, es ging nie darum unbedingt die Clockspeed dieser CPU aufs Label zu schreiben.

grobi
2010-11-07, 17:46:27
@Headjunkie

Eine Mehr-Kern CPU kann nicht zu 100prozent skalieren wenn ein weiterer Kern dazu kommt, nichtmal im Idealfall. Das ist völliger Quatsch.

=Floi=
2010-11-07, 18:03:31
die kerne skalieren schon zu 100% im idealfall, weil die rechenleistung ja nicht auf 1 programm bezogen sein muß. Bei X kernen und x programmen kommt man eben auf X mal 100% im idealfall.


ich finde der ghz-wahn hat schon wieder begonnen und ist wieder viel stärker als vor jahren geworden. gerade mit 4,5-5ghz sollte es auch wieder eine spürbare leistungssteigerung geben.

Marbleearth
2010-11-08, 00:22:16
Das Problem ist halt, dass die Kisten heutzutage schnell genug sind.
Meine Eltern haben nen Q6600. Warum sollte der aufgerüstet werden? Klar ist ein i5/i7 schneller und auch effizienter, aber selbst für Win 7 reicht der Q6600 auf jeden Fall.

Wenn ich da an früher denke, da war das ganz anders. Grad als Flash in Mode kam und immer mehr Webseiten darauf setzten (ist ja heute auch noch so), wurde es oft knapp mit CPU und RAM. In den letzten Jahren war aber soviel Hardwarepower vorhanden, dass sich ein Aufrüsten für den Casual-User gar nicht unbedingt lohnt. Damit erklärt sich für mich das Schrumpfen des Ghz-Wahns.

Dafür geht das Ganze gerade am Handymarkt so richtig los ;)

(1 Ghz CPUs)

Headjunkie
2010-11-08, 13:51:30
Dafür geht das Ganze gerade am Handymarkt so richtig los ;)

(1 Ghz CPUs)

ARM hat doch letztens die Dualcores für Handys angekündigt, dann können wir den gleichen Thread direkt nochma für Handys aufmachen ;D

Und ich warte persönlich auf den ersten Handyhersteller der aus 2*1,2GHz dann direkt 2,4GHz auffe Packung schreibt weil er net die 1*1,5GHz CPU genommen hat!

Coda
2010-11-08, 22:16:32
Den GHz Wahn gibt es noch, nur die Programmierer hängen halt nen paar Jahre hinterher mitm ausnutzen (:
Das hat nur sehr begrenzt etwas mit "den Programmieren" zu tun.