PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Sehr guter Phenom Test!


tombman
2007-12-22, 18:50:04
Jo, ich weiß, wahrscheinlich gibts wieder 10 Sammelthreads über das Thema, wollte euch aber mal diesen Review des Phenom
http://www.xbitlabs.com/articles/cpu/display/amd-phenom.html
trotzdem ans Herz legen.

Xbit Labs zeigten IMO auch früher schon, daß sie exzellente Tests machen können, deswegen die Empfehlung.

Es stellt sich klar heraus, daß selbst ein Phenom auf 3GHz übertaktet keine Chance gegen Kentsfield hat, geschweige den Yorkfield. Und das, ohne daß die Intels übertaktet waren.
Nicht mal im Stromverbrauch hat der Phenom eine Chance.

Einzig der niedrige Preis kann sinnvoll sein, wenn man günstig an 4 Kerne kommen will, und eh schon ein AM2 mobo besitzt.
Für Neukäufer ist der Phenom jedenfalls nix.

Sir Winston
2007-12-22, 18:56:12
Schade - ob AMD mit zweitklassigen Produkten wieder profitabel werden kann? So langsam hege ich doch gewisse Befürchtungen. Ein Grafikkarten und CPU-Markt ohne echten Wettbewerb wäre für den Endverbraucher ein zweifelhaftes Vergnügen - erinnert sich noch jemand an PII und GF3-Zeiten? Langsame Entwicklung und überzogene Preise...

Gast
2007-12-22, 18:59:11
Schade, das sie den QX9770 nicht mitgetestet haben, der hätte die Skala in jedem Bereich gesprengt. :D

Ist auch einer der ersten Tests, die den Mainstream Penryn mit berücksichtigt hat. Bei den Spieletests ist gut zu erkennen, das sogar der Q9450 mit seinen 2,66 GHz den anderen davon zieht, wenn CPU Leistung gefragt hat. Das hatte ich bisher überall vermisst.

Bei WoC sind immerhin satte 15% bei gleichem Takt.

Das AMD was tun muss, ist eigentlich schon länger bekannt. Geplant war ursprünglich ein schneller Umstieg auf 45 nm. Wenn das hinhaut, wären sie wieder dran nach dem Bugfixing.

Trap
2007-12-22, 19:11:11
Steht irgendwo ob der deutlich Leistung kostende BIOS Patch für den Phenom Bug aktiv war?

SavageX
2007-12-22, 19:15:40
Steht irgendwo ob der deutlich Leistung kostende BIOS Patch für den Phenom Bug aktiv war?

Nach dieser Information habe ich mich in dem Test auch wuschelig geguckt, ohne eine Angabe hierzu zu finden.

*Sollte* der TLB-"Fix" aktiv sein, sind natürlich die Ergebnisse für alles oberhalb von 9500 und 9600 für die Tonne.

robbitop
2007-12-22, 19:17:24
Für den B3 gibt's angeblich DDR2-1066 und das gefixte TLB Problem was insgesamt die Performance nochmal ein wenig steigern dürfte. Der 45 nm Shanghai hat mehr und schnelleren L3 (was ja derzeit beides blöde Flaschenhälse sind). Vieleicht kann man damit dann mit dem Yorkfield gleichziehen (IPC).

Immerhin erreicht der jetzige B2 schon 90% der IPC eines Kentsfields.

Ich denke, dass die aufgebrezelte K8 Architektur nicht das richtige Mittel ist, um gegen die Core Architektur ernsthafte Ambitionen auf einen Sieg zu legen. Allein die Anbindung der Caches kostet oftmals richtig. Die nächste Chance nach ganz oben hat man wohl erst mit Bulldozer.

Gast
2007-12-22, 19:23:36
Für den B3 gibt's angeblich DDR2-1066 und das gefixte TLB Problem was insgesamt die Performance nochmal ein wenig steigern dürfte. Der 45 nm Shanghai hat mehr und schnelleren L3 (was ja derzeit beides blöde Flaschenhälse sind). Vieleicht kann man damit dann mit dem Yorkfield gleichziehen (IPC).

Das könnte machbar sein, aber die müssen nicht nur die Pro-MHz-Leistung im Auge behalten, sondern auch Verbrauch und Takt konstant verbessern.

Der Plan: http://www.heise.de/newsticker/meldung/100574

Erster 45-nm-Prozessor von AMD dürfte der ebenfalls bereits angekündigte Quad-Core Shanghai werden, der im Vergleich zum 65-nm-Barcelona vor allem einen dreimal so großen L3-Cache (6 MByte) bringt. Vier HyperTransport-3.0-Links, DDR3-Speicher und größere L2- und L3-Caches kommen für Server erst 2009 mit Montreal, den es in 4- und 8-Kern-Varianten geben soll.

Wäre die Frage, ob sie trotz der Budgetzusammenstreichung noch alles in der vorgegebenen Zeit schaffen. Eigentlich sollte 2008 die Ablösung kommen, wenn sie das schaffen, sähe es zumindest nicht mehr so mies aus, wie jetzt.

Vielleicht erweist sich 45nm-SOI dann doch als Heilsbringer?

reunion
2007-12-22, 19:29:50
Ich habe es ja schonmal gesagt, das Hauptproblem ist IMHO, dass die Effizienz einfach mies ist im Vergleich zur Core-Architektur. Sonst könnte AMD locker über den Preis gehen, bei Intel zahlt man für vier Kerne doch noch relativ viel. Da gäbe es sicher einen relativ großen Markt. Nur wenn das Ding dann bei weniger Leistung auch noch erheblich mehr Strom zieht, dann ist der Spaß für mich vorbei. Da zahle ich dann lieber etwas mehr und hole mit die effizientere Architektur. Besserung wird es hier wohl erst mit dem 45nm Prozess geben, der allerdings mangels HighK-Dielektrikum auch keine Quantensprünge erwarten lässt.

up¦²
2007-12-22, 19:39:38
c't-Chef Andreas Stiller im neuen Heft dazu:
http://www.heise.de/ct/08/01/018/

Undertaker
2007-12-22, 21:54:23
Ich habe es ja schonmal gesagt, das Hauptproblem ist IMHO, dass die Effizienz einfach mies ist im Vergleich zur Core-Architektur. Sonst könnte AMD locker über den Preis gehen, bei Intel zahlt man für vier Kerne doch noch relativ viel. Da gäbe es sicher einen relativ großen Markt. Nur wenn das Ding dann bei weniger Leistung auch noch erheblich mehr Strom zieht, dann ist der Spaß für mich vorbei. Da zahle ich dann lieber etwas mehr und hole mit die effizientere Architektur. Besserung wird es hier wohl erst mit dem 45nm Prozess geben, der allerdings mangels HighK-Dielektrikum auch keine Quantensprünge erwarten lässt.

ob das wirklich die masse interessiert? da zählen doch in erster linie dicke zahlen und lange balken...

Gast
2007-12-22, 21:57:57
http://www.hardocp.com/news.html?news=Mjk4MjUsLCwsLCwx
=>
http://www.legitreviews.com/article/618/1/

Adam D.
2007-12-22, 22:22:02
Wie gesagt, es war von Anfang an klar, dass der TLB-Bug wohl nur unter Labor-Bedingungen wirklich auftritt und bei den Desktop-System quasi nicht vorhanden ist. Ändert aber nichts daran, dass der Phenom leider keine Chance gegen die jetztige und erst gegen die zukünftige Core2-Architektur hat. Finde ich persönlich sehr sehr schade, hatte lange AMD-Prozessoren im Rechner und wurde nie enttäuscht.

Gast
2007-12-22, 22:50:08
c't-Chef Andreas Stiller im neuen Heft dazu:
http://www.heise.de/ct/08/01/018/

Andreas Stiller ist zwar eine Prozessor-Koryphäe, aber "Chef" der c't ist er nicht. ;)

Siehe auch hier: http://www.heise.de/ct/impress.shtml

Gast
2007-12-23, 00:06:02
Xbit Labs zeigten IMO auch früher schon, daß sie exzellente Tests machen können, deswegen die Empfehlung.hmm... Auch wenn ich in dem Test nichts falsches finden kann ist Xbit eher dafür bekannte, daß sie immer sehr gute Tests der CPUs von Intel bringen. Exzellent verstehe ich anders.
Guten Ruf muß man sich erstmal erarbeiten. Den hat man in der P4-Ära verspielt und ich finde da in den Texten bis heute nichts was ihn exzellent wiederherstellt.

Trotzdem lügen diese Diagramme nicht. Keine Frage.

tombman
2007-12-23, 03:55:39
hmm... Auch wenn ich in dem Test nichts falsches finden kann ist Xbit eher dafür bekannte, daß sie immer sehr gute Tests der CPUs von Intel bringen. Exzellent verstehe ich anders.
Guten Ruf muß man sich erstmal erarbeiten. Den hat man in der P4-Ära verspielt und ich finde da in den Texten bis heute nichts was ihn exzellent wiederherstellt.

Trotzdem lügen diese Diagramme nicht. Keine Frage.
Vorallem sinds die richtigen Diagramme: Phenom auf 3GHz und einen kleinen Yorkfield :naughty:

Komisch, bis jetzt ist Stefan V hier noch gar ned aufgetaucht um zu verkünden wie geil der Phenom doch ist ;D

Gast
2007-12-23, 04:36:12
Der Phenom ist schon mehr als ok. Auch der Opteron ist mehr als ok. Der kann im "nicht-home-bereich" auf Mehrsockelsystemen den C2D öftersmal klar versägen.

Nur der Phenom ist bis jetzt ganz ok nur auf dem Papier. Sie haben sich an einigen Stellen beim Erstellen der Maske heftig verhaspelt. Da ist nicht nur der TLB.
Scheint jetzt Mode zu sein. Intel hats im FSB-Part des Penryns auch erwischt ;)

Ruiz ist sich deswegen auch so sicher, daß 2008 wesentlich besser laufen wird. Und deswegen hieß es schon 2006, AMD wird sich mehr auf das Servergeschäft konzentrieren. Sie wissen schon wo sie Intel noch im Schach halten können. Und wo nicht.

Was solls. Dank AMD haben wir mit Freude die Netburstverarsche ins Grab getretten und haben 64bit auch ohne krüppelige DesktopItaniums. Ich hoffe sie erholen sich schnellstmöglich.
Ihre Innovationen beschränken sich nicht nur auf Herstellungsprozesse und ohne sie würde ich jetzt GARANTIERT keinen E6600 mit 3.4Ghz fahren und nächstes Jahr keinen QX @3.8Ghz der mit einem Mugen kühlbar ist.

up¦²
2007-12-23, 04:59:08
Mit IBM im Rücken kann garnix mehr schief gehn :wink:

betasilie
2007-12-23, 05:11:28
Schade - ob AMD mit zweitklassigen Produkten wieder profitabel werden kann? So langsam hege ich doch gewisse Befürchtungen. Ein Grafikkarten und CPU-Markt ohne echten Wettbewerb wäre für den Endverbraucher ein zweifelhaftes Vergnügen - erinnert sich noch jemand an PII und GF3-Zeiten? Langsame Entwicklung und überzogene Preise...
Jup, davor habe ich auch Angst.

Tigerchen
2007-12-23, 07:50:00
Schade - ob AMD mit zweitklassigen Produkten wieder profitabel werden kann? So langsam hege ich doch gewisse Befürchtungen. Ein Grafikkarten und CPU-Markt ohne echten Wettbewerb wäre für den Endverbraucher ein zweifelhaftes Vergnügen - erinnert sich noch jemand an PII und GF3-Zeiten? Langsame Entwicklung und überzogene Preise...

Ich erinnere mich sogar an die Zeiten davor. Seitdem steht Intel bei mir auf der Bannliste.

Haarmann
2007-12-23, 10:15:07
tombman

32 Bit Benches... wozu die Mühe? Interessiert doch keine Sau mehr bei den RAM-Preisen.

Wieso sehe ich nie Verschlüsselungsbenches in 64 Bit?

Wieso sehe ich sowieso keine 64 Bit SW?

Man sieht immer nur das, was ich nie anwenden würde...

SavageX
2007-12-23, 10:18:30
Vorallem sinds die richtigen Diagramme: Phenom auf 3GHz und einen kleinen Yorkfield :naughty:


So hübsch die Diagramme auch sind: Ohne zu wissen, was das BIOS mit dem TLB anstellt, sind so oder so vermutlich die Hälfte der Ergebnisse falsch:

- Ist der TLB-"Fix" nicht aktiv, so kommt der 9500 und der 9600 besser weg, als der Normalokunde erwarten darf
- Ist der TLB-"Fix" aktiv, so sind die Ergebnisse für alle > 9600 für die Tonne.

Schade. So kann dieser "sehr gute" Test leider nur als "sehr schlampig" durchgehen.

GeneralHanno
2007-12-23, 10:29:00
Ich will man folgende These in den Raum werfen (und ausdiskutieren):

Es ist für AMD (quasi von Anfang an) unmöglich gewesen die IPC (Leistung pro Takt) von Intel zu erreichen, da K10 (aufgebohrter K8) nur 3 fach Superskalar ist (3-issue) und Core Microarchitekture 4 fach Superskalar (4-issue).

Kann man sagen, dass DAS das "Geheimnis" für die Überlegenheit der Core-Architektur ist ???

=Floi=
2007-12-23, 10:32:33
@haarmann

wenn du teuer gekaufte 32 bit tools und 100% kompatibilität willst, braucht man eben noch 32bit betriebssysteme

das ist wohl auch der grund, warum tombman noch nicht gewechselt hat und in der praxis kommt man auch noch mit 32 bit und 2gb ram gut aus
habe mir aber auch 4gb ram gegönnt und winxp 64 ist manchmal schon eine kleine herausforderung, wenn manche software nicht will.

robbitop
2007-12-23, 10:45:43
Ich will man folgende These in den Raum werfen (und ausdiskutieren):

Es ist für AMD (quasi von Anfang an) unmöglich gewesen die IPC (Leistung pro Takt) von Intel zu erreichen, da K10 (aufgebohrter K8) nur 3 fach Superskalar ist (3-issue) und Core Microarchitekture 4 fach Superskalar (4-issue).

Kann man sagen, dass DAS das "Geheimnis" für die Überlegenheit der Core-Architektur ist ???
Nein.
Das Geheimnis steckt eher im Detail. Das Prefeteching, die enorm schnelleren Caches, die OOO Loads und Stores (die OOO Stores im K10 sind sehr primitiv) und sicher noch vieles mehr ist im Core2 einfach raffinierter gemacht. Weitere Pluspunkte für Intel:
- weniger Logiktransistoren nötig
- SRAM Dichte ist deutlich höher
- modernerer Fertigungsprozess

Ich weiß nicht, wie AMD da jemals wieder dran vorbei kommen soll :(

GeneralHanno
2007-12-23, 11:00:00
4 fach Superskalar bedeutet doch (stark vereinfacht), dass Core 4 Befehle in den Taktzyklen abarbeitet, in denen K10/8 nur 3 abarbeiten kann. Oder ist es eher so, dass meist nur 2 oder 3 Befehle papallel durchgeschickt werden, da eine 100%-ige Auslastung ("perfekte") nie stattfindet. Der theoretscihe Durchsatz pro Clock ist ja bei Intel immerhin 33% höher.

Man könnte es auch etwas anders formulieren:
Wenn Core 3-fach-superskalar wäre (sonst alles gleich), wie groß wäre der Performenceverlust?
Wenn K10/8 4-fach-superskalar wäre (sonst alles gleich), wie groß wäre der Performencegewinn?

robbitop
2007-12-23, 11:06:56
Das kann man schwer abschätzen. In Realworld Situationen kommt es extrem selten dazu, dass 3 Operationen pro Takt überschritten werden. Eher unterschritten.

Adam D.
2007-12-23, 11:10:52
Ich weiß nicht, wie AMD da jemals wieder dran vorbei kommen soll :(
Muss AMD das überhaupt? Ich mein, du kannst ein gutes aber unterlegenes Produkt durchaus gut verkaufen, in die Richtung muss AMD arbeiten. Dem Phenom fehlen nämlich zur Zeit jegliche Argumente, das ist das Problem.

reunion
2007-12-23, 11:19:53
4 fach Superskalar bedeutet doch (stark vereinfacht), dass Core 4 Befehle in den Taktzyklen abarbeitet, in denen K10/8 nur 3 abarbeiten kann. Oder ist es eher so, dass meist nur 2 oder 3 Befehle papallel durchgeschickt werden, da eine 100%-ige Auslastung ("perfekte") nie stattfindet. Der theoretscihe Durchsatz pro Clock ist ja bei Intel immerhin 33% höher.

Man könnte es auch etwas anders formulieren:
Wenn Core 3-fach-superskalar wäre (sonst alles gleich), wie groß wäre der Performenceverlust?
Wenn K10/8 4-fach-superskalar wäre (sonst alles gleich), wie groß wäre der Performencegewinn?

Du stellst dir das viel zu einfach vor. In >95% der Fälle wäre eine 3-fach-Superskalare-Architektur wohl vollkommen ausreichend. Das ist nicht so wie bei GPUs, wo man beliebig parallelisieren kann.

Nein.
Das Geheimnis steckt eher im Detail. Das Prefeteching, die enorm schnelleren Caches, die OOO Loads und Stores (die OOO Stores im K10 sind sehr primitiv) und sicher noch vieles mehr ist im Core2 einfach raffinierter gemacht. Weitere Pluspunkte für Intel:
- weniger Logiktransistoren nötig
- SRAM Dichte ist deutlich höher
- modernerer Fertigungsprozess

Ich weiß nicht, wie AMD da jemals wieder dran vorbei kommen soll :(

Ich würde AMD auch nicht unterschätzen. Sie haben nicht nur einmal bewiesen, dass die ausreichend know-how haben, um Intel hinter sich zu lassen. Doch mit dem ursprünglich geplanten K9/K10 muss wohl einiges schief gelaufen sein. Klar werden jetzt ein paar magere Jahre kommen, aber er wird auch diesmal reichen, um nicht Pleite zu gehen. Und mit Bulldozer wird hoffentlich ähnlich gut wie der K7/K8.

GeneralHanno
2007-12-23, 11:21:37
Ok danke, dann ist es also eher eine Frage der optimalen Auslastung, denn des theoretisch (33% höheren) Durchsatzes.

robbitop
2007-12-23, 11:24:31
Aber auch nur, als der Bär noch mit lahmen Designs "schlief". Inzwischen agiert intel ganz anders und die x fache Menge an Ressourcen ist für jeden ersichtlich.

Ein unterlegenes Produkt sollte wenigstens eine kleinere Chipfläche haben, damit die Margen nicht os leiden. Den Vorteil hat Intel auch noch.

SavageX
2007-12-23, 11:27:28
Nein.
Pluspunkte für Intel:
- weniger Logiktransistoren nötig
- SRAM Dichte ist deutlich höher


Hierzu möchte ich anmerken, dass der Merom-Kern mit 31.5 mm2 doch ein ziemlicher Brummer ist, während der K10-Kern mit 25.5 mm2 doch einen Tacken kleiner bleibt (Brisbane 20.8 mm2 und Penryn 22.0 mm2). Insofern ist es relativ egal, wer wieviele Transistoren braucht - der AMD Kern ist kleiner und es bewahrheitet sich die alte Weisheit, dass man aus gleich großen Stücken Silizium in ähnlicher Fertigung auch ähnliche Performance rauskitzelt (und dass umgekehrt der kleinere Kern auch weniger Bumms hat).

Auch scheint zumindest der L3-Cache vom K10 in 65nm in ähnliche Packdichten zu kommen (11.2 - 12.1 mm2 / MB) wie der L2-Cache vom Core 2 auf 65nm (12.4 mm2 / MB) (Allerdings ist der L3-Cache von der Organisation her wohl ein anderes Stück Fisch).

Was wohl Silizium frisst ist die Northbridge und der Interconnect-Krams, der noch so dranhängt. Dieser Herausforderung wird sich Intel aber auch stellen müssen.
Daten von http://chip-architect.com/news/2007_02_19_Various_Images.html

GeneralHanno
2007-12-23, 11:31:11
Nächste These:
AMD hat keine Chance sich die Performencekrone zu holen, da Intel mit 2 großen Forschungs- und Designteams (die P4-Ammis und die Core-Israelis) technoligisch mit höherer Rate wächst und zudem bei den Fertigungstechniken ein Jahr voraus ist (zum Glück gibt es ja die Forschungsgemeinschaft IBM/Samsung/AMD). Zudem hat Intel einen gigantischen Kapitalstock.

Gast
2007-12-23, 11:36:22
Komisch, bis jetzt ist Stefan V hier noch gar ned aufgetaucht um zu verkünden wie geil der Phenom doch ist ;D

Bei 64Bit dürfte der Unterschied merklich keiner sein, da AMD deutlich mehr von 64Bit profitiert.

SavageX
2007-12-23, 11:40:40
Nächste These:
AMD hat keine Chance sich die Performencekrone zu holen, da Intel mit 2 großen Forschungs- und Designteams (die P4-Ammis und die Core-Israelis) technoligisch mit höherer Rate wächst und zudem bei den Fertigungstechniken ein Jahr voraus ist (zum Glück gibt es ja die Forschungsgemeinschaft IBM/Samsung/AMD). Zudem hat Intel einen gigantischen Kapitalstock.

Die Überlegenheit bei Manpower und Kapital ist bei Intel ja nichts Neues. Trotzdem ist der K7 und der K8 passiert. Derzeit ist Intel aber ziemlich auf der Hut, keine Fehler zu machen, während bei AMD der Produktfluss etwas ins Stocken geraten ist.

Was übrigens gerne vergessen wird: Intels Fertigungsüberlegenheit ist alles andere als billig. Man steht ziemlich allein auf weiter Flur, die Anlagen sind ständig cutting-edge und entsprechend technologisch und finanziell anspruchsvoll. Das ist auch nicht ohne Risiken. Das lohnt sich nur, weil Intel wahnsinnige Stückzahlen raushaut. Es ist deshalb gar nicht mal so klar, dass AMD mit etwas abgehangeneren Prozessen unter dem Strich ungünstiger fährt.

reunion
2007-12-23, 11:58:38
Aber auch nur, als der Bär noch mit lahmen Designs "schlief". Inzwischen agiert intel ganz anders und die x fache Menge an Ressourcen ist für jeden ersichtlich.


Wo schlief der Bär? Intel hatte schon immer die besten Fertigungsprozesse der gesamten Industrie, Intel hatte schon immer ein vielfaches an R&D-Ausgaben von AMD und Intel hatte schon immer deutlich mehr Ressourcen/Mitarbeiter als AMD. Nur ist eben auch Intel nicht davon gefeit, Fehlentscheidungen zu treffen, und Designs in die Tonne kloppen zu müssen. Heutige CPUs sind einfach derart viel Handarbeit, dass man damit fast schon rechnen muss. Diesmal ist eben bei AMD nicht alles nach Plan gelaufen, und so muss nochmal ein aufgebohrter K8 herhalten, doch das kann sich schnell wieder drehen. Bulldozer wird hier hoffentlich die Lösung sein. Auch Intel benötigte nicht weniger als drei Jahre, um gegen den K8 die passende Antwort zu finden.


Ein unterlegenes Produkt sollte wenigstens eine kleinere Chipfläche haben, damit die Margen nicht os leiden. Den Vorteil hat Intel auch noch.

284mm² vs 2 x 143mm². Und da fehlt bei Intel eine ganze Menge an Dingen, die AMD on-Die hat. Klar kann man nicht gegen die 45nm Chips in punkto Die-Größe konkurrieren, aber es wäre auch Utopie, das zu verlangen.

Haarmann
2007-12-23, 12:07:58
=Floi=

Das klingt zwar logisch, aber schon die Auswahl der Benches und die fast immer versteckten Settings erinnern mich an den gaussschen Filter in Photoshop und Intels MMX...

Tests, welche sich mit 32 Bit vs 64 Bit beschäftigten und AMD und Intel drin hatten, zeigten klar, dass der Core2 unter 32 Bit besser dasteht, denn unter 64 Bit.
Auch ists klar, dass Intels shared Cache bei Belastung von nur einem Core, stärker dasteht.

Wieso fehlen dann fast immer die Auslastungskurven der Cores zB ausm Taskman von Windows?

Wohl schlicht damit keiner sieht was für Scheissprogramme das sind und wie schlecht die Cores ausgelastet sind ...

Dann kommen die Benches mit den Scores jenseits von 120fps für jegliche CPU - who cares?

Ewige Encodertests... tut mir aber leid - ich gebe oft Videos wieder, aber encode die so gut wie nie. Und ich wette, das wird bei allen hier im Forum so sein.

Dann kommt die Renderfront mit den üblichen teuren Programmen, die auch keiner hat und vermag.

Wozu soviel Aufwand betreiben mit Dingern, die kaum wer nutzt?
Ich wette es nutzen weit mehr Leute eine Verschlüsselung, denn all diese Renderprogramme zusammen! Anzahl Benches?

P.S. Ich weiss wie lahm ein Notebook mit Core2 ist bei Bitlocker 256 Bit AES mit Diffuser... ich benutze eines.

Gast
2007-12-23, 12:11:59
Tests, welche sich mit 32 Bit vs 64 Bit beschäftigten und AMD und Intel drin hatten, zeigten klar, dass der Core2 unter 32 Bit besser dasteht, denn unter 64 Bit.

Kann mich nicht daran erinnern. Der letzte Tests besagte lediglich, das der Athlon 64 X2 0-3% besser wurde beim Umstieg auf 64 bit, aber es reichte nie, den Core2 damit zu schlagen.


Ich wette es nutzen weit mehr Leute eine Verschlüsselung, denn all diese Renderprogramme zusammen! Anzahl Benches?

Ich habe noch nie verschlüsselt, aber encode ständig. Was nützen mir diese Benches?

robbitop
2007-12-23, 12:23:36
Wo schlief der Bär?
Die Netburst Eier-Schaukel Architektur vergessen? Und den ganzen IA64 Quatsch mit dem Intel Jahrelang R&D verblasen hat? Und unzählige Designs die nie das Tageslicht erblickten. Jetzt scheint es gänzlich anders zu laufen.

Gast
2007-12-23, 12:27:03
Die Netburst Eier-Schaukel Architektur vergessen?

Hat aber doch ganz gut gereicht um den damaligen Athlon das Wasser abzugraben, bis deren Nachfolger raus kam.

Über meinen Northwood habe ich mich nie beschwert...

Und den ganzen IA64 Quatsch mit dem Intel Jahrelang R&D verblasen hat?

... und noch immer tut. Nur weils anders ist, heißt es nicht gleich, das es sich dabei um Quatsch handelt. Guck mal über deinen Tellerrand hinaus!

GeneralHanno
2007-12-23, 12:28:25
Wo hat denn der P4 einen A64 geschlagen ? in performence/watt oder IPC oder P/L sicher nicht ...

robbitop
2007-12-23, 12:31:42
Hat aber doch ganz gut gereicht um den damaligen Athlon das Wasser abzugraben, bis deren Nachfolger raus kam.

Über meinen Northwood habe ich mich nie beschwert...
Was an Intels überlegener Fertigung lag. So konnte man (abseits vom eh gut taktbaren Design) die Taktraten so pushen, dass man knapp an nem K7 vorbeikam. Spätestens das K8 Design war dann so gut, dass selbst dieser Vorteil nichtig war. Hätte AMD eine vergleichbar gute Fertigung wie Intel gehabt, wäre es schon früher zu einer Leistungskrone für AMD gekommen.



... und noch immer tut. Nur weils anders ist, heißt es nicht gleich, das es sich dabei um Quatsch handelt. Guck mal über deinen Tellerrand hinaus!
Ich meine damit, dass Intel den Mist in den Desktopbereich drängeln wollte. Das IA64 VLIW Design hat in gewissen Bereichen mit Sicherheit seine Existenzberechtigung, keine Frage.

Gast
2007-12-23, 12:39:12
Wo hat denn der P4 einen A64 geschlagen ? in performence/watt oder IPC oder P/L sicher nicht ...

Lies mal richtig! Habe ich irgendetwas von einem Athlon64 geschrieben? Nein, natürlich nicht!

Auch wäre dein Vergleich nicht ganz passend gewesen, der Pentium 4 war schon JAHRE zuvor am Markt und schlug sich mit dem AthlonXP herum, den er ganz gut im Griff hatte...

Zur Erinnerung: http://www.computerbase.de/artikel/hardware/prozessoren/2003/test_intel_pentium_4_32_ghz_hyperthreading/16/#abschnitt_games
Das letzte Gefecht..

Wenn jemand meint, Netburst sei immer schlecht gewesen, was war dann der AthlonXP:confused:

Reichlich behämmert finde ich die Leute, die nicht in der Lage sind, einfache Fakten anzuerkennen.

Mal kurz Google angeschmissen: Athlon64 = 2003, Pentium 4 = 2000. Noch Fragen?

eraser-x
2007-12-23, 12:41:12
hi

also die ganzen amd tests hin oder her
solange die cpu einen bug hat finde ich es eh zweifelhaft bzw vergleichbar
das mit anderen sachen zu prüfen und zu sagen er ist besser/langsamer wie auch immer
auch wenn der fehler nur sehr selten auftreten sollte
ich werde erst darauf warten das die guten amd cpu´s fehlerfrei sind

mfg

Nakai
2007-12-23, 12:46:26
Wenn jemand meint, Netburst sei immer schlecht gewesen, was war dann der AthlonXP

Solange der P4 unter 3,0Ghz war, war der AthlonXP meistens überlegen.
Intel war einfach dumm, den P4 solange überdauern zu lassen. Der C2D machts richtig.


mfg Nakai

Gast
2007-12-23, 12:50:13
Ich meine damit, dass Intel den Mist in den Desktopbereich drängeln wollte.

Ich kann mich nicht daran erinnern, dies jemals im Handel gesehen zu haben. Gabs jemals Produkte für den Desktop?

Was war denn daran so falsch? Ohne Forschung hätten sie nie erfahren, ob es sich lohnt in eine Richtung weiter zu entwickeln oder ob es besser wäre, nochmal neu anzufangen.

Ich frage mich genauso, ob die jetzige 64 Bit-Architektur überhaupt eine lange Lebenszeit hat und nicht doch mit Einschränkungen zu kämpfen haben wird in Zukunft. Vielleicht ist sie doch nicht so optimal über die Jahre hin gerechnet, wir werden sehen..

Gast
2007-12-23, 13:01:36
Solange der P4 unter 3,0Ghz war, war der AthlonXP meistens überlegen.

Schon, aber es gab noch Modelle mit 3,2 und 3,4 GHz (+2 MB L3 Cache) im Handel. Den 3,2er hatte ich lange Zeit im Einsatz und konnte mich nicht beklagen. Vom Northwood scheinen viele ein falsches Bild zu haben. Der erste Prescott war schlimmer... aber das kennen wir ja.

Der AthlonXP war zuletzt auch ein richtiger Hitzkopf! Damit es nicht so leicht in Vergessenheit gerät, bitte alles nachlesen. ;D
http://users.erols.com/chare/main.htm

Intel war einfach dumm, den P4 solange überdauern zu lassen.

Möglich das sie gepennt haben, aber der Phenom kommt mir nach den 4 Jahren auch nicht anders vor. Frage mich, was die die ganze Zeit gemacht haben.

reunion
2007-12-23, 13:04:27
Die Netburst Eier-Schaukel Architektur vergessen? Und den ganzen IA64 Quatsch mit dem Intel Jahrelang R&D verblasen hat? Und unzählige Designs die nie das Tageslicht erblickten. Jetzt scheint es gänzlich anders zu laufen.

Der Schein kann schnell trüben. Momentan scheint alles bestens zu laufen, da kann man sich auch kleinere Probleme mit den 45nm Chips leisten. Doch auch Intel ist nicht vor größeren Problemen gefeit, wie die Vergangenheit immer wieder gezeigt hat. Man ist immer nur so gut, wie dies die Konkurrenz erlaubt. Die Netburst-Architektur war nur deshalb schlecht, weil der K8 so gut war. Ähnlich jetzt mit der Core-Architektur. Ich sehe hier kein schlafen von Intel. Bis zum K8 hätte niemand gedacht, dass die Netburst-Architektur ein Flop wird.

Intel war einfach dumm, den P4 solange überdauern zu lassen.
mfg Nakai

Du hast leicht reden. Wenn man früher etwas schnelleres gehabt hätte, hätte der P4 sicher nicht so lange gelebt. Die Leistung einer CPU lässt sich nur mit enormen Aufwand noch weiter steigern, das ist nicht so wie bei GPUs, die man beliebig verbreitern kann.

Nakai
2007-12-23, 13:09:15
Schon, aber es gab noch Modelle mit 3,2 und 3,4 GHz (+2 MB L3 Cache) im Handel. Den 3,2er hatte ich lange Zeit im Einsatz und konnte mich nicht beklagen. Vom Northwood scheinen viele ein falsches Bild zu haben. Der erste Prescott war schlimmer... aber das kennen wir ja.

Der AthlonXP war zuletzt auch ein richtiger Hitzkopf! Damit es nicht so leicht in Vergessenheit gerät, bitte alles nachlesen. ;D
http://users.erols.com/chare/main.htm



Möglich das sie gepennt haben, aber der Phenom kommt mir nach den 4 Jahren auch nicht anders vor. Frage mich, was die die ganze Zeit gemacht haben.

In der Endphase des AthlonXPs hatte INTEL die Nase ganz klar vorne.
AMD hat versucht den XP solange wie möglich zu überdauern, was nicht so toll war, wie man sieht. Der K8 kam einfach zu spät, war aber dann wirklich ein Erfolg.

AMD hatte wohl Probleme mit dem ursprünglichen K10 und dann hat man den K8 etwas "aufgewertet".
Hat aber nicht so gut geklappt wie man sieht. AMD hängt seit 6 Jahren an der K7-Architektur fest...

mfg Nakai


€: Du hast leicht reden. Wenn man früher etwas schnelleres gehabt hätte, hätte der P4 sicher nicht so lange gelebt. Die Leistung einer CPU lässt sich nur mit enormen Aufwand noch weiter steigern, das ist nicht so wie bei GPUs, die man beliebig verbreitern kann.

Der P4 war ein totaler Rückschritt vom P3.

reunion
2007-12-23, 13:13:41
€:

Der P4 war ein totaler Rückschritt vom P3.

In welcher Hinsicht? Der P3 war am Ende. Und komme jetzt bitte nicht mit dem Pentium-M. Zwischen diesem und dem damaligen P3 liegen Welten.

_DrillSarge]I[
2007-12-23, 13:30:02
In welcher Hinsicht?
leistung pro takt
energieverbrauch

Nakai
2007-12-23, 13:30:36
In welcher Hinsicht? Der P3 war am Ende. Und komme jetzt bitte nicht mit dem Pentium-M. Zwischen diesem und dem damaligen P3 liegen Welten.

Natürlich war der P3 am Ende, aber jeder weiterentwickelte P3 wäre besser als ein P4 gewesen. Oder warum denkst du, ging man wieder zum P3 in einer gewissen Hinsicht zurück?
Der P4 hatte eine schlechte Pro-Takt-Leistung als der P3, wieso denkst du, haben sich soviele Leute am Anfang der P4-Ära wegen dem P4 beschwert?

Intel konnte seine Versprechungen über 10Ghz zu gehen nicht wahrmachen.
Man hat sich total verkalkuliert.
Der P4 war am Anfang schlecht, in der Mitte relativ gut und mit dem Prescott am Ende wieder mieserable.

mfg Nakai

reunion
2007-12-23, 13:35:42
I[;6133708']leistung pro takt


Leistung/Takt ist keine Kenngröße für die Effizienz einer Architektur. Es zählt das was hinten raus kommt. Eine hohe pro Takt Leistung nützt nicht, wenn die entsprechenden Taktraten nicht erreicht werden und umgekehrt.


energieverbrauch

Im Vergleich zu einem P3 oder K7 war die Leistung pro Watt so schlecht nicht. Erst der K8 setzte hier deutlich eins drauf.

Gast
2007-12-23, 13:36:16
Lies mal richtig! Habe ich irgendetwas von einem Athlon64 geschrieben? Nein, natürlich nicht!

Auch wäre dein Vergleich nicht ganz passend gewesen, der Pentium 4 war schon JAHRE zuvor am Markt und schlug sich mit dem AthlonXP herum, den er ganz gut im Griff hatte...

Zur Erinnerung: http://www.computerbase.de/artikel/hardware/prozessoren/2003/test_intel_pentium_4_32_ghz_hyperthreading/16/#abschnitt_games
Das letzte Gefecht..Kannst du mir mal bitte aus deinem Link den durschnittlichten Leistungsvorsprung des Northwood mit 3.2ghz gegenüber dem AthlonXP 3200+ ausrechnen. Wäre sehr verbunden. Weiß nämlich nicht was du mit "ganz gut im Griff hatte" meinst.

Mal kurz Google angeschmissen: Athlon64 = 2003, Pentium 4 = 2000. Noch Fragen?Gute Idee. AthlonXP = 2001. Athlon = 1999. Athlon 1Ghz = 2000.
Bis Core hat AMD mit neuen Kernen immer erst abgewartet bis Intel mit dem P4 aufgeschlossen hat. Bis P4 war für Intel garkein Land zu sehen.

Bis dahin war die einzige Errungenschaft von Intel mit dem Presskot indirekt die Entwicklung der WaKüs voranzutreiben. Zu der Zeit hatten sie sogar vor selbst eine zu entwickeln :D

_DrillSarge]I[
2007-12-23, 13:39:52
Leistung/Takt ist keine Kenngröße für die Effizienz einer Architektur.
eben doch leistung/takt = effizienz. hat nichts mit der endleistung insgesamt zu tun
zum energieverbrauch. diese prescott (3.2ghz und mehr)dinger schlugen alles dagewesene und teilweise auch aktuelle quad(!) cores

reunion
2007-12-23, 13:40:05
Natürlich war der P3 am Ende, aber jeder weiterentwickelte P3 wäre besser als ein P4 gewesen. Oder warum denkst du, ging man wieder zum P3 in einer gewissen Hinsicht zurück?


Wo ging man zum P3 zurück? Das ist bestenfalls ein Mythos, der von manchen Leuten gerne gestrickt wird. Intel entwickelte eine CPU, die eine möglichst hohe Leistung/Watt erreichte. Mit dem P3 hat das wenig zu tun.


Der P4 hatte eine schlechte Pro-Takt-Leistung als der P3, wieso denkst du, haben sich soviele Leute am Anfang der P4-Ära wegen dem P4 beschwert?


Weil sie bis dahin glaubten man könne die Leistung einer CPU nur am Takt festmachen. Plötzlich musste man mitdenken.


Intel konnte seine Versprechungen über 10Ghz zu gehen nicht wahrmachen.
Man hat sich total verkalkuliert.
Der P4 war am Anfang schlecht, in der Mitte relativ gut und mit dem Prescott am Ende wieder mieserable.

mfg Nakai

Natürlich hat man sich verkalkuliert. Man verkalkuliert sich öfter. Trotzdem wäre das ohne dem K8 nicht das geringste Problem gewesen.

reunion
2007-12-23, 13:43:25
I[;6133743']eben doch leistung/takt = effizienz. hat nichts mit der endleistung insgesamt zu tun


Falsch. Leistung/Watt oder Leistung/Transistor ist Effizienz. Leistung/Takt ist völlig irrelevant. Eine CPU kann gerne mit 100Ghz takten, oder nur mit einem einzigem Mhz, solange die Effizienz stimmt, ist das völlig belanglos.


zum energieverbrauch. diese prescott (3.2ghz und mehr)dinger schlugen alles dagewesene und teilweise auch aktuelle quad(!) cores

Ja, der Prescott war sicher ein Fehldesign. Langsamer als der Northwood bei gleichem Takt, stromhungriger, und kaum höher taktbar.

_DrillSarge]I[
2007-12-23, 13:49:54
Falsch. Leistung/Watt oder Leistung/Transistor ist Effizienz. Leistung/Takt ist völlig irrelevant. Eine CPU kann gerne mit 100Ghz takten, oder nur mit einem einzigem Mhz, solange die Effizienz stimmt, ist das völlig belanglos.

naja. effizienz ist bei mir geleistete arbeit pro arbeitsschritt bzw. zeit
oder auch verbrauch pro arbeitsschritt.
deshalb sagte ich ja die endleistung ist egal. gut, diese definitionssachen wayne. was gemeint ist, ist ja klar. im endeffekt wurst ob hoher takt und niedrige leistung/takt oder niedriger takt und hohe leistung/takt

Gast
2007-12-23, 13:50:28
Weiß nämlich nicht was du mit "ganz gut im Griff hatte" meinst.

... das gleiche was du jetzt meinst, wenn du daran denkst, das der Abstand DIR nicht groß genug ist.
Kleiner Tipp: Guck dir mal die anderen Bereiche an. Komprimierung, Audio, Video.

Kopfrechnen hast du hoffentlich noch drauf. ;)

Gute Idee. AthlonXP = 2001. Athlon = 1999. Athlon 1Ghz = 2000.

Damit hast du nur das bestätigt, was ich sagte. Der P4 durfte sich mehrere (3) Jahre lang sich mit keinem A64 messen, logisch das er danach unterging, sind nunmal zwei Welten! So wie zwischen heutigen CPUs und Grafikkarten und die von 3 Jahren aktuell waren immer noch Welten liegen ...

Nakai
2007-12-23, 13:52:43
Leistung/Transistor

Stimmt auch nicht so, Transistoren sind egal, sondern die Diesize und die Packdichte der Transistoren.

Wo ging man zum P3 zurück?

Mir ist es egal, wie weit der P-M mit dem P3 was zu tun hat. Es geht einfach darum, dass man wieder auf niedrigeren Taktraten und höherer Leistung pro Takt abzielt.
Das andere muss nicht schlecht sein, jedoch war der P4 bestimmt nicht das Gelbe vom Ei.

Weil sie bis dahin glaubten man könne die Leistung einer CPU nur am Takt festmachen. Plötzlich musste man mitdenken.

Das meinte ich nicht damit, sondern das Intel es einfach nicht geschafft hat, einen würdigen Nachfolger des P3 anzubieten.

Trotzdem wäre das ohne dem K8 nicht das geringste Problem gewesen.

Der P4 wäre ja nicht schlecht gewesen, wären da die nicht Probleme des Taktes am Anfang und die Hitze und Stromverbrauchs am Ende der P4-Ära gewesen.

Intel wollte einfach die Käufer durch den Gigaherzwahn zum Kauf überreden.
Hat ja super geklappt, bis vor etwa einem Jahr gab es immer noch genug DAUs die sich beschwert haben, dass ein AMD64 4000+ nur mit 2,4Ghz oder 2,6Ghz
anstatt 4000Mhz taktet...;D


mfg Nakai

GeneralHanno
2007-12-23, 13:54:25
Leistung = Arbeit / Zeit != Effizienz
Effizienz (Wirkungsgrad) = geleistete "Arbeit" / aufgebrachte "Arbeit"

Ist natürlich die Frage, was man als "Arbeit" einer CPU versteht ;)

Stimmt auch nicht so, Transistoren sind egal, sondern die Diesize und die Packdichte der Transistoren.

Wenn wir von einer architektur reden, dann stimm Leistung/Transistor schon.
Wenn man es wirtschaftlich betrachtet (von der Fertigung), dann zählt die Diesize ;)

reunion
2007-12-23, 14:04:26
I[;6133769']naja. effizienz ist bei mir geleistete arbeit pro arbeitsschritt bzw. zeit


Arbeit pro Zeit ist Leistung, nicht Effizienz.


deshalb sagte ich ja die endleistung ist egal. gut, diese definitionssachen wayne. was gemeint ist, ist ja klar. im endeffekt wurst ob hoher takt und niedrige leistung/takt oder niedriger takt und hohe leistung/takt

Nein, das ist nicht Definitionssache, das ist eine Tatsache. Wenn ich zwei unterschiedliche CPUs habe, die beide exakt gleich schnell sind, exakt den gleichen Stromverbrauch haben und exakt die gleiche Die-Fläche benötigen, so weisen beide exakt die gleiche Effizienz auf. Auch wenn einer mit einem Mhz und einer mit 100Ghz taktet.

Stimmt auch nicht so, Transistoren sind egal, sondern die Diesize und die Packdichte der Transistoren.


Natürlich. Das folgert sich ja aus der Transistorenanzahl. Aber du hast natürlich recht, wenn man es ganz genau nimmt, da ja die Packdichte unterschiedlich sein kann.

_DrillSarge]I[
2007-12-23, 14:13:11
Nein, das ist nicht Definitionssache, das ist eine Tatsache. Wenn ich zwei unterschiedliche CPUs habe, die beide exakt gleich schnell sind, exakt den gleichen Stromverbrauch haben und exakt die gleiche Die-Fläche benötigen, so weisen beide exakt die gleiche Effizienz auf. Auch wenn einer mit einem Mhz und einer mit 100Ghz taktet.

??? sie weisen die gleiche leistung bei einer unterschiedlichen effizienz ( in puncto leistung/takt; verbrauch ist ja gleich) auf. naja, egal.

reunion
2007-12-23, 14:16:08
I[;6133849']??? sie weisen die gleiche leistung bei einer unterschiedlichen effizienz ( in puncto leistung/takt; verbrauch ist ja gleich) auf. naja, egal.

Und wie macht sich diese deiner Meinung nach höhere Effizienz bemerkbar, wenn beide CPUs exakt die gleichen Eigenschaften aufweisen? Sieh es ein, die "pro-Mhz"-Leistung ist vollkommen irrelevant. Es zählt was hinten raus kommt. Effizienz ist nichts anderes als das Verhältnis von Nutzen zum Aufwand.

_DrillSarge]I[
2007-12-23, 14:17:36
Und wie macht sich diese deiner Meinung nach höhere Effizienz bemerkbar, wenn beide CPUs exakt die gleichen Eigenschaften aufweisen?
in einer höheren leistung pro takt.
= bei unterschiedlicher taktung gleiche endleistung (bei deinem beisbiel)
....wahhhhh langsam werd ich waaaaaaaaahnsinnig :biggrin:

Gast
2007-12-23, 14:18:29
... das gleiche was du jetzt meinst, wenn du daran denkst, das der Abstand DIR nicht groß genug ist.
Kleiner Tipp: Guck dir mal die anderen Bereiche an. Komprimierung, Audio, Video.

Kopfrechnen hast du hoffentlich noch drauf. ;)Ich komme mit Biegen und Würgen auf 3%. Und das reisst eigentlich nur WinRAR raus.

Damit hast du nur das bestätigt, was ich sagte. Der P4 durfte sich mehrere (3) Jahre lang sich mit keinem A64 messenDas war aus AMD-Sicht auch garnicht nötig. Mit OC und 3.4 bis 3.6ghz konnte sich der P4 erwähnenswert absetzen. Dann glühten aber wiederum die Spawas und die Steckleisten.

reunion
2007-12-23, 14:19:39
I[;6133863']in einer höheren leistung pro takt.
= bei unterschiedlicher taktung gleiche endleistung (bei deinem beisbiel)
....wahhhhh langsam werd ich waaaaaaaaahnsinnig :biggrin:

Die höhere Leistung pro Takt bringt dir aber in meinem Beispiel unterm Strich genau null. Deshalb sind beide gleich Effizient.

_DrillSarge]I[
2007-12-23, 14:24:00
Die höhere Leistung pro Takt bringt dir aber in meinem Beispiel unterm Strich genau null. Deshalb sind beide gleich Effizient.
klar bringt es im ende nix. mir ist ja auch egal, ob nun mehr takt oder mehr leistung/takt (effizienz, wie auch immer), solange es aufs gleiche raus kommt, was ja bei p4 und athlon xp des öfteren der fall war, auch wenn anfangs der p4 schlecht(er) dastand und gegen ende besser (leistung), da intel ihre architektur einfach höher takten konnte und so die mangelnde leistung pro takt überspielen/entgegenwirken konnte.

reunion
2007-12-23, 14:26:48
I[;6133882']klar bringt es im ende nix.


Wenn es nichts bringt kann es nicht effizienter sein. ;)

Gast
2007-12-23, 14:27:12
Ich komme mit Biegen und Würgen auf 3%. Und das reisst eigentlich nur WinRAR raus.

Interessant, dann fallen dir die 17 % bei WinAce, die 45 % beim Mp3 Maker oder die 15% beim MPEG4 Encoding gar nicht auf? Soso.

Seti war zuletzt auch ganz nett, da hat der P4 HT sogar doppelt so viele Workunits in weniger Zeit berechnet. :eek:

Ob der Nehalem dort anknüpfen wird?

_DrillSarge]I[
2007-12-23, 14:28:54
Wenn es nichts bringt kann es nicht effizienter sein. ;)
klar bringt eine höhere effizienz (bei gleichem takt was) ;)

GeneralHanno
2007-12-23, 14:30:49
die diskussion ist jetzt sehr abstrakt. und wir wissen alle, dass höhere taktraten meist (nicht zwangsläufig) mehr spannung brauchen. und der verbrauch steigt quadratisch zur spannung UND linear zum takt. somit ist es EHER so, dass eine gute pro-mhz-leistung auch eine gute energie effizienz beudeutet (aber es nicht MUSS).

reunion
2007-12-23, 14:34:51
I[;6133905']klar bringt eine höhere effizienz (bei gleichem takt was) ;)

Das ist kein Argument. Unterschiedliche Designs erlauben unterschiedliche Taktraten. Du wirst die 1Mhz-CPU aus meinem Beispiel nie auf 100Ghz übertakten können. Die pro Takt Leistung hat nicht das geringste mit der Effizienz zu tun, auch wenn du es nicht einsehen willst. Für mich ist hier EOD.

_DrillSarge]I[
2007-12-23, 14:45:31
Das ist kein Argument. Unterschiedliche Designs erlauben unterschiedliche Taktraten. Du wirst die 1Mhz-CPU aus meinem Beispiel nie auf 100Ghz übertakten können. Die pro Takt Leistung hat nicht das geringste mit der Effizienz zu tun, auch wenn du es nicht einsehen willst. Für mich ist hier EOD.
mir ist klar, das man bspw. die 1mhz cpu nie so hoch bekommt. irgenwie reden wir aneinander LEICHT vorbei. :biggrin:

aylano
2007-12-23, 16:03:17
Ich habe es ja schonmal gesagt, das Hauptproblem ist IMHO, dass die Effizienz einfach mies ist im Vergleich zur Core-Architektur. Sonst könnte AMD locker über den Preis gehen, bei Intel zahlt man für vier Kerne doch noch relativ viel. Da gäbe es sicher einen relativ großen Markt. Nur wenn das Ding dann bei weniger Leistung auch noch erheblich mehr Strom zieht, dann ist der Spaß für mich vorbei. Da zahle ich dann lieber etwas mehr und hole mit die effizientere Architektur. Besserung wird es hier wohl erst mit dem 45nm Prozess geben, der allerdings mangels HighK-Dielektrikum auch keine Quantensprünge erwarten lässt.
Die Effizient ist nicht nur mies, sondern fast doppelt so schlecht wie die der von K8-45Watt-CPUs.
Sogar in Idle.

Irgendwas ist da noch nicht optimal gelaufen. Aber AMD kämpft seit 9 Monaten gegen Bugs und hatte anscheinend kaum Zeit Optimierungen durchzuführen.

Es muss nicht gleich 45nm sein. Es wäre mal nett, wenn sie die K10-Effizient auf K8-G2-Stepping-Niveau optimieren können.

Und es hat auch fast ein Jahr gedauert bis es die ersten 35Watt-CPUs der K8-Serie gab.
Mal sehen, ob es diesesmal auch so ähnlich läuft.

Die Überlegenheit bei Manpower und Kapital ist bei Intel ja nichts Neues.
... Derzeit ist Intel aber ziemlich auf der Hut, keine Fehler zu machen, während bei AMD der Produktfluss etwas ins Stocken geraten ist.
Die Überlegenheit bei Mainpower ist nichts neues.
Aber was wahrscheinlich viele vergessen ist, dass dieser Meag-R&D-Entwickler-Klotz jetzt praktisch nur an einer statt 3 Architekturen arbeiten.
Kein Wunder, dass es jetzt so rund läuft.

Armaq
2007-12-23, 16:03:59
Effektivität und Effizienz muss man auch mal sauber unterscheiden.

Effektivität - wie tue ich etwas (Entscheidungsfindung)

Effiziens - wie setze ich die Entscheidung um

robbitop
2007-12-23, 17:54:13
Ich kann mich nicht daran erinnern, dies jemals im Handel gesehen zu haben. Gabs jemals Produkte für den Desktop?
Es gab -dank AMD- keine IA64 im Handel.

Haarmann
2007-12-23, 17:57:15
Gast

Und Du schaust Dir Deine Werke nie an? Wie sinnvoll...

Encoden ist sozusagen eine "Offline" Angelegenheit -> es ist unterm Strich egal, wie schnell es geht - ganz abgesehen davon, dass es sehr auf die Settings ankommt, wie "schnell" es geht. Nur Echtzeit oder nicht, kann wichtig sein - klare Sache. Aber ich glaube nicht, dass irgendwer 1h oder 2h dem zusehen will ;).
Ich wette, wenn man an den Settings "schraubt", kann man den Bench auf die Architekturen "anpassen". Deswegen finde ich die Angabe der Settings wichtig.

Das galt für den alten K8, dass er nicht viel gewinnt (allerdings doch eher 5-10% - ist natürlich auch eine Frage der Anwendung - wobei gewinnen relativ zu sehen ist - eigentlich verliert ja der Core2), aber gerade beim Phenom wurde einiges für eine bessere 64 Bit Leistung getan - das wirkt sich nebenher auch aus.

Ich wünschte mir einfach wieder mal mehr Diversität bei Benches und nen paar Multitaskingbenches aus dem täglichen Leben. 4 mal Winrar oder SuperPi ist doch dumm wie Brot.
Ganz besonders wichtig sind die Anzeigen der Kernlasten... gibts nebenher auch manchmal, dass sowas gezeigt wird. Man lernt dann auch, wo geschummelt wird ;).

Gast
2007-12-26, 16:44:18
Phenom vs Athlon: Kern gegen Kern

http://www.tomshardware.com/de/CPU-Phenom-Athlon,testberichte-239908.html

Coda
2007-12-26, 17:08:35
I[;6133971']mir ist klar, das man bspw. die 1mhz cpu nie so hoch bekommt. irgenwie reden wir aneinander LEICHT vorbei. :biggrin:
Nö tut ihr nicht. Reunion hat recht. Was zählt ist Performance/Verlustleistung. Wie dieser Faktor zustande kommt (Taktraten usw.) ist völlig schnurz.

_DrillSarge]I[
2007-12-26, 17:09:54
Nö tut ihr nicht. Reunion hat recht. Was zählt ist Performance/Verlustleistung. Wie dieser Faktor zustande kommt (Taktraten usw.) ist völlig schnurz.
von "aussen" gesehen ja.

Coda
2007-12-26, 17:12:09
Es ist auch von "innen" völlig schnurz.

_DrillSarge]I[
2007-12-26, 17:18:37
Es ist auch von "innen" völlig schnurz.
nö. ;)
bei weniger takt und mehr effizienz bspw. hat man IMMER niedrigere latenzen, IMMER weniger hitzeprobleme (relativ gesehen, zur hoch getakteten cpu).
die andre bspw. cpu reisst das meist durch höheren takt raus (nicht die wärme). wichtig ist heutzutage die leistung/takt, da man die cpu nicht höher takten kann, ohne komplett die verlustleistung/leisstungsaufnahme zu sprengen. eine hohe leistung/takt schließt automatisch eine hohe leistung pro watt ein.

Coda
2007-12-26, 17:26:32
I[;6140713']bei weniger takt und mehr effizienz bspw. hat man IMMER niedrigere latenzen, IMMER weniger hitzeprobleme (relativ gesehen, zur hoch getakteten cpu).
Falsch. Es gibt momentan im x86-Bereich nur kein Gegenbeispiel. In anderen Bereichen aber schon.

Das ist eine Beobachtung von dir, kein Faktum.

reunion
2007-12-26, 17:35:24
Es gibt momentan im x86-Bereich nur kein Gegenbeispiel. In anderen Bereichen aber schon.


Eben. Der IBM Power6 hat bei 4.7Ghz eine TDP von nur 100W. Und das bei einer Transistorenanzahl von über 790mio in 65nm. Ein Vcore von nur 0.8V sei dank.

Gast
2007-12-26, 18:04:02
Für den B3 gibt's angeblich DDR2-1066 und das gefixte TLB Problem was insgesamt die Performance nochmal ein wenig steigern dürfte.

B3 kommt erst Q2/2008

Aquaschaf
2007-12-26, 18:32:15
eine hohe leistung/takt schließt automatisch eine hohe leistung pro watt ein.

Warum sollte das so sein?

Sir Integral Wingate Hellsing
2007-12-26, 22:56:37
B3 kommt erst Q2/2008

Gerücht - nicht mehr und auch nicht weniger!

GeneralHanno
2007-12-26, 23:11:19
Power6 ist ja bei weitem nicht so komplex wie zB core, da er kein OOO design ist und zudem die meisten transistoren für 8MiB cache draufgehen. solch ein design lässt sich natürlich wesentlich höher takten und ist selbst bei geringeren spannungen stabil.

wir sollten und aber auf X86 prozessoren als argumentationsgrundlage beschränken, da blade-server als home-PC ungeeignet sind ;)

Andreas12
2007-12-28, 00:12:41
Toller Test. Danke Tombman.
Hätte nicht gedacht, dass der Phenom wirklich so schwach ist.
Wer soll diese CPU kaufen?

Von den Intel- Usern wird wohl keiner umsteigen.

laser114
2007-12-28, 00:16:47
Von den Intel- Usern wird wohl keiner umsteigen.

Aktuell dürfte das AMD auch nicht als Zielgruppe sehen.

Coda
2007-12-28, 00:28:12
Retail sind doch eh Peanuts. Was zählt ist der OEM-Markt. Und da gibt's nur "neue PCs" und keine "Umsteiger".

Gast
2007-12-28, 00:45:18
Toller Test. Danke Tombman.
Hätte nicht gedacht, dass der Phenom wirklich so schwach ist.
Wer soll diese CPU kaufen?

Von den Intel- Usern wird wohl keiner umsteigen.Kannst du bitte dem Forum, in Anbetracht des Inhalts, einen sinnvollen Grund für diesen Beitrag nennen? Auch ich selbst steige da nicht so druch.

Gast
2007-12-28, 00:52:31
Gerücht - nicht mehr und auch nicht weniger!

Ein Gerücht bei dem AMD-Partner informiert wurden?
Das glaub ich nicht.

http://www.heise.de/newsticker/meldung/101083

Scheint doch etwas dran zu sein, wenn AMD Partner die Meldung direkt von AMD zugesteckt bekommen.

Gast
2007-12-28, 01:41:49
Ein Gerücht bei dem AMD-Partner informiert wurden?
Das glaub ich nicht.

http://www.heise.de/newsticker/meldung/101083

Scheint doch etwas dran zu sein, wenn AMD Partner die Meldung direkt von AMD zugesteckt bekommen.

Nix direkt von AMD. Der Artikel bezieht sich auf DigiTimes. Das würdest du auch wissen, wenn du ihn auch nur annähernd überflogen hättest. Siehe erster Absatz ..

Gast
2007-12-28, 01:55:28
Nix direkt von AMD. Der Artikel bezieht sich auf DigiTimes. Das würdest du auch wissen, wenn du ihn auch nur annähernd überflogen hättest. Siehe erster Absatz ..Es stimmt aber und wird auch so sein. Das sage ich dir hier und jetzt. Und nu?

Ist schon schön ein Gast zu sein oder? Da braucht man sich am 30.03 keine Fragen gefallen lassen wo denn nun die CPUs bleiben.

Das vertrauliche Memo ;) soll übrigens nur informieren, daß man nicht garantieren kann die entsprechenden CPUs im ersten Quartal 100% wie gewünscht hinzubekommen bzw. auch schon zu liefern.

Was prozesstechnisch bedeutet, daß sie erst (oder auch bereits) Anfang Januar anfangen werden die schon ausgesuchten stellen zu fixen. Dann gibts mit glück die CPUs mitte April.
Bleibt nur die Hoffnung, daß die wirkliche Problemzone dabei ist.

Ronny145
2007-12-28, 01:55:58
Nix direkt von AMD. Der Artikel bezieht sich auf DigiTimes. Das würdest du auch wissen, wenn du ihn auch nur annähernd überflogen hättest. Siehe erster Absatz ..


Der bezieht sich auf digtimes und darin steht auch, dass AMD ihren Partnern die Verschiebung mitgeteilt hat. (AMD has recently notified its partners...) Die Frage ist nur, ob dies stimmt.

Gast
2007-12-28, 02:05:06
I[;6140698']von "aussen" gesehen ja.Hä? Wenn ich Innen 10Ghz fahren kann, in der Sekunde nur 3x so schnell bin wie ein 3Ghz Penryn und dabei 80W verbrauche :up: dann hab ich immernoch eine affengeile CPU hingeknallt.

Wen interessiert in dem Fall die Effizienz pro Takt oder ähnliche Scherze??

Natürlich sind wir diesbezüglich verbrannte :D Kinder. Netburst sei dank. Und natürlich fanden wir dann den K8 wundervoll.
Man darf sich da aber auch nicht so endgültig verrennen. Wie schnell ist es mit der RL-Soft, wieviel frisst es, wieveil kostet es. Das ist alles was interessiert.

sloth9
2007-12-28, 02:29:43
...

Ich meine damit, dass Intel den Mist in den Desktopbereich drängeln wollte. Das IA64 VLIW Design hat in gewissen Bereichen mit Sicherheit seine Existenzberechtigung, keine Frage.

Nope. Im HPC- und Supercomputing-Bereich werden sie von den Core-Xeons verhauen.
Man betrachte nur die jeweils verwendeten Fertigungsprozesse.
Die Itanic ist ein totes Millionengrab.

robbitop
2007-12-28, 02:47:04
Wohl eher Milliardengrab. Inzwischen scheint Intel sein F&E gezielter einzusetzen.

Gast
2007-12-28, 03:05:54
Die Itanic ist ein totes Millionengrab.Miliarden. Stimmt schon.
Das ist alleine IBM und AMD64 zu verdanken. IBMs CPU-Sparte hatte hier direkt wie indirekt "fett" ihre Finger im Spiel und hat mit dem kleinen Bub AMD dem Goliath richtig einen vor den Latz geknallt.
Die Power-Division braucht sich nach Intanic mittlerweile nicht mal mehr nach hinten umschauen. Schade, daß der PA-RISC deswegen auch dran glauben mußte :(

Sind die letzten Beiträge nicht völlig OT? ;)

Andreas12
2007-12-28, 11:32:08
Kannst du bitte dem Forum, in Anbetracht des Inhalts, einen sinnvollen Grund für diesen Beitrag nennen? Auch ich selbst steige da nicht so druch.

sorry für OT.

Bub, Du nervst mit Deinem übertriebenen Geltungsbedürfnis.

Gruß Andreas

Bin ja gerne für was Neues zu begeistern aber um den Phenom werde ich einen großen Bogen machen.

_DrillSarge]I[
2007-12-30, 11:27:58
Warum sollte das so sein?
weil weniger takte für die selbe arbeit benötigt werden

Gast
2007-12-30, 17:12:53
die sache mit dem takt ist nicht ganz korrekt, die verlustleistung einer cmos schaltung setzt sich aus den parasitären kapazitäten, der leckströme, des taktes linear und der spannung quadratisch zusammen, erhöht man eine sache muss eine andere sinken bei gleicher tdp, das gute ist ja man könnte den takt steigern dabei die schaltung aber weniger komplex bauen was weniger parasitäre kapazitäten und weniger leckströme bedeutet, meistens kann man dabei auch die spannung senken oder gleich lassen.

es kommt auf den entwickler und die zur verfügung stehende fertigungstechnologie an, man kann eine extrem hochtaktende cpu bauen die bei gleicher rechenleistung weniger verlustleistung produziert als eine komplexere niedrigtaktende cpu. bei einem einfacheren design sind auch die latenzen geringer. bzw der gesamte chip braucht weniger spannung um die transistoren durchzuschalten.

ich glaube die zeiten der extrem komplexen singlecores ist vorbei.

Gast
2007-12-31, 20:05:56
I[;6149593']weil weniger takte für die selbe arbeit benötigt werden

Und was ist, wenn einer daherkommt und die Arbeit taktlos erledigt?

_DrillSarge]I[
2007-12-31, 20:09:16
Und was ist, wenn einer daherkommt und die Arbeit taktlos erledigt?
dann hat der gewonnen.:biggrin: