PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD stellt offiziell Dual Core Athlon 64 vor


warper
2005-02-23, 09:12:03
So, endlich gehts in die nächste Runde. Nach langem mehr oder weniger Stillstand in der Entwicklung soll es jetzt einen Schritt weiter gehen.

Dass AMD genau jetzt mit der Vorstellung kommt ist sicher kein Zufall, da ja nächste Woche das IDF stattfindet und die Cebit erst in zwei Wochen.

Nun geht es wohl darum, wer auch zuerst LIEFERN kann.

Quelle: http://www.planet3dnow.de/

tombman
2005-02-23, 10:04:13
Toledo ---- *lechz*

Mark3Dfx
2005-02-23, 10:29:57
http://www.heise.de/newsticker/meldung/56702

Spasstiger
2005-02-23, 10:43:58
Gibts schon Testsamples? Oder ist das wieder nur eine Präsentation "auf dem Papier" wie schon bei der Vorstellung der Turion-Technologie?

BlackBirdSR
2005-02-23, 10:48:53
Gibts schon Testsamples? Oder ist das wieder nur eine Präsentation "auf dem Papier" wie schon bei der Vorstellung der Turion-Technologie?

sieht genau nach sowas aus.

intel
2005-02-23, 10:52:44
sieht genau nach sowas aus.

Falsch, Samples gibt es schon, nur nicht für Presse/Öffentlichkeit. Aber vielleicht zur C.

reunion
2005-02-23, 11:03:48
http://www.heise.de/bilder/56702/0/0

Ziemlich enttäuschend, keine Taktraten, kein Liefertermin, kein garnichts.
Einen reine Marketingaktion um vor Intel dran zu sein. Bis man so einen Prozessor in den Händen halten wird können werden vermutlich noch Monate vergehen, immerhin sprach die offizielle Roadmap stets vom zweiten Halbjahr 2005.

intel
2005-02-23, 11:11:07
http://www.heise.de/bilder/56702/0/0

Ziemlich enttäuschend, keine Taktraten, kein Liefertermin, kein garnichts.
Einen reine Marketingaktion um vor Intel dran zu sein. Bis man so einen Prozessor in den Händen halten wird können werden vermutlich noch Monate vergehen, immerhin sprach die offizielle Roadmap stets vom zweiten Halbjahr 2005.

Da hast sicher von der neuen Ausrichtung von AMD gehört. Erst der Opteron, dann, wenn notwendig, Desktop. Und diese Notwendigkeit wird dieses Jahr nicht bestehen.

Pirx
2005-02-23, 11:13:29
Wie siehts eigentlich mit den Kapazitäten bei AMD dann aus, es ist ja jetzt schon nicht genug, um die Nachfrage zu befriedigen?

Smiley2000
2005-02-23, 11:13:58
http://www.heise.de/bilder/56702/0/0

Ziemlich enttäuschend, keine Taktraten, kein Liefertermin, kein garnichts.
Einen reine Marketingaktion um vor Intel dran zu sein. Bis man so einen Prozessor in den Händen halten wird können werden vermutlich noch Monate vergehen, immerhin sprach die offizielle Roadmap stets vom zweiten Halbjahr 2005.

Nana, wir wollen doch mal den Teufel nicht an die Wand malen. Wenns soweit ist, dann werden wir schon ein paar benchmarks bekommen. Nur keine Eile.

Neon3D
2005-02-23, 11:25:19
http://www.heise.de/bilder/56702/0/0

Ziemlich enttäuschend, keine Taktraten, kein Liefertermin, kein garnichts.
Einen reine Marketingaktion um vor Intel dran zu sein. Bis man so einen Prozessor in den Händen halten wird können werden vermutlich noch Monate vergehen, immerhin sprach die offizielle Roadmap stets vom zweiten Halbjahr 2005.

das bild ist vom dual-opteron und nicht vom toledo.

intel
2005-02-23, 11:25:33
Wie siehts eigentlich mit den Kapazitäten bei AMD dann aus, es ist ja jetzt schon nicht genug, um die Nachfrage zu befriedigen?

Die zweite Fab in Dresden ist im Aufbau, vor 2006 wird das aber nichts. Also nur Consumer und Buisness, kaum OEM.

Endorphine
2005-02-23, 12:54:39
Realistisch betrachtet wird AMD sich natürlich zuerst auf die DualCore-Opterons konzentrieren (viel Ertrag). Dann kommen größere Stückzahlen des Sockel-939 DualCore-K8 wohl erst Anfang 2006 zu den Einzelhändlern, wenn AMD durch Intel nicht zu einer anderen Strategie gezwungen wird. Ich gehe nicht davon aus, dass der Smithfield bei den informierten Käufern der große Erfolg wird, bei der Leistungsaufnahme eines einzelnen Prescott mit E0-Kern.

Anfang 2006 kann man auch noch ein wenig warten, bis der Sockel M2 da ist, der den beiden Kernen adäquat Speicherbandbreite zur Verfügung stellt. Mit DualCore steigen nämlich auch die Anforderungen an den Speicher. Nebenbei wird DDR2-SDRAM (Sockel M2) auch dazu führen, das mehr als 2 Gigabyte ungepufferter Speicher schnell angesprochen werden können.

Dann wird es wohl auch mindestens bis 2006 dauern, bis die DualCore-CPUs von AMD für den Desktop-Markt günstig zu haben sein werden, und nicht nur als "Athlon 64-FX Extreme-Edition".

Imho also nur ein Marketing Stunt, diese Vorstellung. :smile:

Shink
2005-02-23, 13:03:39
Vielleicht haben sie ja diesmal eine andere Strategie und "preschen" nicht aus Marketinggründen mit einem für den Desktop-Bereich vorerst kaum sinnvollen Feature (Stichwort: Spiele) in selbigen vor wie bei 64Bit. Andererseits: Hat es ihnen geschadet?

Avalox
2005-02-23, 13:09:50
das bild ist vom dual-opteron und nicht vom toledo.

Da sich der DC Opteron Kerne und der Toledo wohl wieder nur im Packaging unterscheiden werden, ist doch diese Unterscheidung auf dem Bild überhaupt nicht möglich.

---
Heise spricht ja auch vom Ende des Jahres, was wohl doch auf eine Verzögerung des Toledos hindeutet.
Interessant ist die Ausrichtung auf den digital Home Bereich. Bisher war immer vom FX, als Enthusiasten Bereich die rede gewesen.

Was passt denn da nicht? Sind die Takte niedriger als gehofft (Energieumsatz zu hoch?), oder die Software noch nicht weit genug entwickelt am Markt?
Oder hängt sich AMD einfach an die Intel Plattform Kampagne?

So wie es aussieht hängt AMD im Homebereich mit den Dualcore Intel beträchtlich hinterher (zumindest zeitlich). Diese Entscheidung AMDs zu gunsten den Opteron ist verständlich aber schade. Hätte AMD diese beträchtliche Publicity Leistung im Privatbereich gegönnt.
Nun wird sich der Eindruck bei den gemeinen Käufern noch stärker festigen, dass nur Intel CPUs was für Multitasking Anwendungen sind.

GloomY
2005-02-23, 14:19:36
Gibt's irgendwo ein größeres Die-Photo als das bei Heise (http://www.heise.de/bilder/56702/0/0)?

DiGiTaL
2005-02-23, 14:31:53
Gibt's irgendwo ein größeres Die-Photo als das bei Heise (http://www.heise.de/bilder/56702/0/0)?

Hier: http://www.nasty.li/modules/xcgal/displayimage.php?pid=76&album=2&pos=89

Wie gesagt: Ist der Dualcore Opteron !

StefanV
2005-02-23, 14:50:38
Wie gesagt: Ist der Dualcore Opteron !
Wie gesagt: doesn't matter.

BodyLove
2005-02-23, 15:07:41
Zu aller Überraschung jedoch positioniert AMD den Dual-Core Athlon 64 nicht als neues Topmodell, sondern zwischen Athlon 64 und Athlon 64 FX. Letzterer wird also bis auf weiteres AMDs Topmodell bleiben.

Kann mir jemand dies erklären, bzw. zumindest eine mögliche These nennen? Imho müsste doch der A64FX schneller als der Toledo sein, wenn schon AMD freiwillig es zwischen den beiden Cores positioniert?

edit: Zumindest kann ich den Aussagen von P3d nicht viel glauben schenken. :|

BlackBirdSR
2005-02-23, 15:19:22
Kann mir jemand dies erklären, bzw. zumindest eine mögliche These nennen? Imho müsste doch der A64FX schneller als der Toledo sein, wenn schon AMD freiwillig es zwischen den beiden Cores positioniert?

edit: Zumindest kann ich den Aussagen von P3d nicht viel glauben schenken. :|

Und wenn ein FX-57 in Spielen nun schneller ist als jeder DualCore?
Für andere Anwendungen wie Encoding und Server/Workstation Angelegenheiten gilt das vielleicht nicht, aber:
- AMD scheint wie Intel die "Digital Home" Schiene zu verfolgen. Encoding, Videos etc
- Für Server und Workstations gibt es den Opteron, welcher auch noch SMP fähig ist. Der FX ist zudem zu teuer für solche Einsatzgebiete.

Der FX wird ein völlig überteuerter High End Prozessor für Image und Leute mit lockerer Geldbörse bleiben. Wer stellt 90% der Käufer? Spieler mit zu viel Geld. Für sie wird der FX auch die schnellste CPU bleiben.

Mike
2005-02-23, 15:24:19
Kann mir jemand dies erklären, bzw. zumindest eine mögliche These nennen? Imho müsste doch der A64FX schneller als der Toledo sein, wenn schon AMD freiwillig es zwischen den beiden Cores positioniert?

edit: Zumindest kann ich den Aussagen von P3d nicht viel glauben schenken. :|

hm, wieso nicht?
entweder die Taktraten sind enttäuschend, oder man machts einfach deswegen weil viele nicht SMP/SMT fähige Programme langsamer als auf einem FX laufen...
Evtl. spielt ja auch noch mit rein, das Intel seine DCs auch relativ billig anbieten will...

Überrascht hat mich jedoch, dass AMD nun doch den DC A64 vor dem DC Opteron vorstellt..

BodyLove
2005-02-23, 15:25:29
Und wenn ein FX-57 in Spielen nun schneller ist als jeder DualCore?
Für andere Anwendungen wie Encoding und Server/Workstation Angelegenheiten gilt das vielleicht nicht, aber:
- AMD scheint wie Intel die "Digital Home" Schiene zu verfolgen. Encoding, Videos etc
- Für Server und Workstations gibt es den Opteron, welcher auch noch SMP fähig ist. Der FX ist zudem zu teuer für solche Einsatzgebiete.

Der FX wird ein völlig überteuerter High End Prozessor für Image und Leute mit lockerer Geldbörse bleiben. Wer stellt 90% der Käufer? Spieler mit zu viel Geld. Für sie wird der FX auch die schnellste CPU bleiben.

Die frage ist ja, ob diese Positionierung nur kurzfristig ist. Wenn mittelfristig Programme für SMP optimiert wurden, auch für den HomeEntertainment-Bereich, dann dürfte doch der DC-AMD64 schneller sein, als ein FX mit 3Ghz.

Es sei denn diese Aussage stimmt noch immer:

AMD gab -10% max. Performanceverlust (Mitte 2004) durch den 'gleichzeitígen' Zugriff von zwei Cores über einen Memorycontroller auf Dual-Channel RAM an.


Für mich ein etwas komisches Gefühl im Bauch, da ich bis jetzt offensichtlich fälschlicherweise annahm, der DC-AMD64 gehöre dem Ultra-HighEnd-Segment an, zumindest in den Anfängen.

BlackBirdSR
2005-02-23, 15:26:34
Überrascht hat mich jedoch, dass AMD nun doch den DC A64 vor dem DC Opteron vorstellt..

Würde Sinn machen, wenn die CPUs nur eine geringe Verfügbarkeit aufweisen.
Wenn du deine DC Opterons nicht liefern kannst, gehts dir an den Kragen.
Wenn du dagegen deine Desktop DC Athlon64 nicht liefern kannst? Wen kümmerts, ausser ein paar Leuten in Foren?

ShadowXX
2005-02-23, 15:27:53
hat sich erledigt...war etwas zu langsam...

Mike
2005-02-23, 15:33:34
Würde Sinn machen, wenn die CPUs nur eine geringe Verfügbarkeit aufweisen.
Wenn du deine DC Opterons nicht liefern kannst, gehts dir an den Kragen.
Wenn du dagegen deine Desktop DC Athlon64 nicht liefern kannst? Wen kümmerts, ausser ein paar Leuten in Foren?

Stimmt - wenn man davon ausgeht, dass es ein reiner Paper-launch ist, um Intels DC zuvorzukommen, die ja auch zuerst im Desktopbereich kommen, macht es Sinn..

Savay
2005-02-23, 16:27:57
tolle luftnummer AMD... :uclap:

is ja lächerlich was die firmen in der branche mittlerweile so unter "produktlaunch" verstehen! irgendwas geht hier gründlich schief

naja bin ja mal gespannt ob man sich zuerst nen reales DualCore P4 oder A64 system zulegen kann...
hauptsache ich bekomm irgendwann ma im laufe des jahres nen dualcore für mein mobo :biggrin:

wobei es von der leistung wohl wirklich eher wayne sein dürfte zu anfang!
da find ich win64 interessanter dieses jahr :smile:

Savay
2005-02-23, 22:32:18
Für mich ein etwas komisches Gefühl im Bauch, da ich bis jetzt offensichtlich fälschlicherweise annahm, der DC-AMD64 gehöre dem Ultra-HighEnd-Segment an, zumindest in den Anfängen.

naja das ist eher so zu verstehen das je nach anwendung die einzelnen cores sich in 2 gleichzeitig (!) laufenden anwendungen wie entsprechend getaktete So754 CPUs verhalten! also im ungünstigsten fall 10% verlieren...sind ja quasi 2 Singlechannel A64 in einem package! nur das sie ihre bandbreite hin und her verteilen können, je nach bedarf. :biggrin:
in einer einzelnen fordernden anwendung dürfte das aber denke nicht auffallen! und in einer SMP anwendung ist eh das gegenteil der fall...

froi mich jetzt schon auf meinen dualcore mit Win64 :cool: brauchen werd ichs zwar net wirklich aber wat sollet :wink:

Avalox
2005-02-23, 23:10:56
naja das ist eher so zu verstehen das je nach anwendung die einzelnen cores sich in 2 gleichzeitig (!) laufenden anwendungen wie entsprechend getaktete So754 CPUs verhalten! also im ungünstigsten fall 10% verlieren...sind ja quasi 2 Singlechannel A64

Na ich weiss nicht. Die Bandbreite hat sich zwar mit Dual Channel im Gegensatz zur Single Channel Anbindung quasi verdoppelt. Allerdings ist die Speicherlatenz indentisch.
Es sind halt nicht zwei Speichercontroller mit einer Single Channel Anbindung, sondern einer mit einer Dual channel Anbindung.

Ob es Vor- oder Nachteile hat entscheidet wohl die Anwendung, bzw. die Kombinationen der Anwendungen.

Savay
2005-02-23, 23:34:08
wat?! wie?! :| nö der So754 hat einen einfachen 64bit memory controller! der So939 hat derer schlicht 2...
die sind doch unabhängig, nur in summe kommen beide auf 128bit! es ist nicht 1* 128bit controller sondern 2*64bit! geht technisch auch schlecht anders bei der aktuellen infrastruktur...davon ab das die unterteilung eh vorteile hat.
wie dem auch sein, die latenz der einzelnen controller ist bei der verdoppelung ja gleich geblieben. (vergleich mal nen So939 im single channel betrieb mit nem So754! vorsicht: dazu die gleiche revision verwenden :tongue:)

ich kann mir nur vorstellen das die hinzukommende latenz des crossbar der den L2 und die Cores mit dem gemeinsamen DualChannel Interface und dem HTT verbindet ein wenig drückt...vorrausgesetzt allerdings das dieser in den aktuellen K8 nicht vorhanden ist! was mich zu der frage bringt wie sind der speichercontroller und HTT in aktuellen CPUs verbunden? nicht zufällig über denselben crossbar? :| hmm...

diese (max) 10% angabe riecht meiner meinung nach doch stark nach dem verhältniss von So939 vs 754!
ka genau werden wir das eh erst erfahren wenn es wirklich soweit ist. ist nur eine vermutung meinerseits

BodyLove
2005-02-24, 00:22:32
wat?! wie?! :| nö der So754 hat einen einfachen 64bit memory controller! der So939 hat derer schlicht 2...
die sind doch unabhängig, nur in summe kommen beide auf 128bit! es ist nicht 1* 128bit controller sondern 2*64bit! geht technisch auch schlecht anders bei der aktuellen infrastruktur...

Sicher das dem so ist? :|

Savay
2005-02-24, 00:34:09
so ziemlich...

wie willst du nen So939 denn z.B. sonst mit einem 64bit DDR-SDRAM modul an einem ungeteilten 128bit memory controller betreiben!? das passt rein physikalisch doch schon nicht :wink:
und wat menste warum des dualchannel heist? ...man könnts sonst auch genausogut 128bit single channel nennen weil es dann ja salopp gesagt nix anderes wäre :biggrin:

FlashBFE
2005-02-24, 09:49:31
Du hast aber eins vergessen:
Es sind zwar zwei 64Bit Controller, aber die Daten werden doch über beide Controller und Speichermodule verteilt. Deswegen kannst du auch nur beide Controller zusammen ansprechen. Du kannst also nur die volle 128Bit Anbindung zwischen den zwei Cores hin- und herschalten. Wenn dem nicht so wäre, hättest du nämlich nur zwei Cores mit je der Hälfte des Arbeitsspeichers.

Leonidas
2005-02-24, 09:54:51
Nun geht es wohl darum, wer auch zuerst LIEFERN kann.



Intel. Deswegen hat AMD auch zuerst vorgestellt. Marketing rulez halt.



Wobei man dazusagen muß, daß es sich um eine Ankündigung handelt, noch nicht den eigentlichen Launch.

Pinoccio
2005-02-24, 12:16:31
Gibt's irgendwo ein größeres Die-Photo als das bei Heise (http://www.heise.de/bilder/56702/0/0)?
http://epscontest.home.comcast.net/presentations/04q4_ad/Slide117.jpg
Naja, nicht wirklich viel größer.
Eine Folie aus http://epscontest.com/presentations/04q4_analyst-day-slides3.htm, da sieht man dann auch, daß sich erwartungsgemäß ein DC-Opteron nicht von einem DC-Athlon unterscheided. Wie auch ...

mfg Sebastian

GloomY
2005-02-24, 13:58:26
Na ich weiss nicht. Die Bandbreite hat sich zwar mit Dual Channel im Gegensatz zur Single Channel Anbindung quasi verdoppelt. Allerdings ist die Speicherlatenz indentisch.
Es sind halt nicht zwei Speichercontroller mit einer Single Channel Anbindung, sondern einer mit einer Dual channel Anbindung.Es ist ein Controller, welcher zwei Punkt-zu-Punkt Verbindungen à 64 Bit verwaltet. Aber das ist im Prinzip egal, weil der Speicher eh (ähnlich RAID 0) auf beide Kanäle aufgeteilt wird und von beiden gleichzeitig gelesen/geschrieben wird.

Im Gegensatz zu zwei S754 CPUs kann es aber vorkommen, dass eine CPU gerade Daten aus dem Speicher holt, womit der Speichercontroller für kurze Zeit für die andere CPU blockiert ist. Das tritt bei zwei einzelnen CPUs mit eigenem 64 Bit Controller nicht auf, aber ich nehme nicht an, dass das große Auswirkungen haben dürfte.
http://epscontest.home.comcast.net/presentations/04q4_ad/Slide117.jpg
Naja, nicht wirklich viel größer.
Eine Folie aus http://epscontest.com/presentations/04q4_analyst-day-slides3.htm, da sieht man dann auch, daß sich erwartungsgemäß ein DC-Opteron nicht von einem DC-Athlon unterscheided. Wie auch ...

mfg SebastianDanke, aber das Bild und die Folien kannte ich leider schon... :)

Low Rider
2005-02-24, 14:53:05
Imho müsste doch der A64FX schneller als der Toledo sein, wenn schon AMD freiwillig es zwischen den beiden Cores positioniert?

Vermutlich wird ein SC Prozessor wie der FX in Spielen und vielen anderen Einzelanwendungen schneller sein als der DC Toledo. Das ist doch wie Intels Hyperthreading - beim Zocken oder so bringt es herzlich wenig. Aber ganz anders
wenn mehrere Sachen gleichzeitig laufen!
Der AMD-Fan der sich eine DC CPU kauft, wird sich wohl von Benchmarkvergleichen verabschieden müssen ;)

Endorphine
2005-02-24, 15:26:40
Vermutlich wird ein SC Prozessor wie der FX in Spielen und vielen anderen Einzelanwendungen schneller sein als der DC Toledo. Das ist doch wie Intels Hyperthreading - beim Zocken oder so bringt es herzlich wenig. Aber ganz anders
wenn mehrere Sachen gleichzeitig laufen!
Der AMD-Fan der sich eine DC CPU kauft, wird sich wohl von Benchmarkvergleichen verabschieden müssen ;) Wir brauchen nur neue Benchmarks, die statt die Leistung eines einzelnen Prozesses den Durchsatz von mehreren Prozessen messen und die Anforderungen von Multithreading, Multitasking und von mehreren Nutzern - Multiuser - abbilden.

BlackBirdSR
2005-02-24, 15:29:17
Wir brauchen nur neue Benchmarks, die statt die Leistung eines einzelnen Prozesses den Durchsatz von mehreren Prozessen messen und die Anforderungen von Multithreading, Multitasking und von mehreren Nutzern - Multiuser - abbilden.

Da springen dir die Leute gleich mit Sysmark/PCMark und Co. ins Gesicht :(
Die werden wohl die nächste Zeit dafür herhalten müssen
:uclap:

Quasar
2005-02-24, 15:45:57
Wir brauchen nur neue Benchmarks,[...]
[...] die uns verdeutlichen, daß unsere CPUs veraltet sind und wir dringend aufrüsten müssen. Ob das, ausser für die Bilanzen der jeweiligen HW-Hersteller wirklich der richtige Weg ist?

'Tschuldige, aber ich denke eher, daß wir diversifizierte Benchmarks brauchen, bei denen jeder beurteilen kann, ob dieser und jener Score für das gegebene Anwendungsprofil erstrebenswert ist.

Was soll ich zu Hause bsw. mit einem unbestritten leistungsfähigen Stream-Prozessor, wenn ich im Internet surfen will und ab und an mal ein Video schauen?

Low Rider
2005-02-24, 18:02:17
Wir brauchen nur neue Benchmarks, die statt die Leistung eines einzelnen Prozesses den Durchsatz von mehreren Prozessen messen und die Anforderungen von Multithreading, Multitasking und von mehreren Nutzern - Multiuser - abbilden.
Eben! Bisher wird aber meist nur eine Anwendung/ein Spiel auf einem frisch installierten Testsystem laufen gelassen - da konnte Intel z.B. nie seine Stärken (Hyperthreading) ausspielen. Das war beim Sockel A doch ähnlich: Die nForce2 Chips waren in Benchmarks immer Nummer 1, aber letztendlich haben sich die ach so langsamen SiS Systeme am schnellsten "angefühlt". Ich hoffe man findet eine Möglichkeit solche Umstände irgendwie in Benchmarks zu berücksichtigen...

Pinoccio
2005-02-24, 18:29:50
Wir brauchen nur neue Benchmarks, die statt die Leistung eines einzelnen Prozesses den Durchsatz von mehreren Prozessen messen und die Anforderungen von Multithreading, Multitasking und von mehreren Nutzern - Multiuser - abbilden.Super!
Solange sich mein Anforderungsprofil nicht ändert brauche ich auch keine neuen Benchmarks, vorrausgestzt die alten waren gut.
Extra neue einzuführen, nur weil wir plötzlich HTT oder DC (oder auch beides zusammen) haben, halte ich für wenig sinnvoll.

mfg Sebastian

Low Rider
2005-02-24, 21:13:48
Solange sich mein Anforderungsprofil nicht ändert brauche ich auch keine neuen Benchmarks, vorrausgestzt die alten waren gut.
Extra neue einzuführen, nur weil wir plötzlich HTT oder DC (oder auch beides zusammen) haben, halte ich für wenig sinnvoll.

Die alten waren ja nicht wirklich gut ;) Die hätte man meiner Meinung nach schon eher ändern müssen...

Endorphine
2005-02-24, 21:37:07
Super!
Solange sich mein Anforderungsprofil nicht ändert brauche ich auch keine neuen Benchmarks, vorrausgestzt die alten waren gut.
Extra neue einzuführen, nur weil wir plötzlich HTT oder DC (oder auch beides zusammen) haben, halte ich für wenig sinnvoll. Ich fordere ja nicht neue Benchmarks, damit die Dual-Core Prozessoren in diesen besser dastehen als die Single-Core Varianten.

Was sind Benchmarks überhaupt? Aus meiner Sicht sind Benchmarks Messungen, die dazu dienen, eine Norm für einen Vergleich von verschiedenen Produkten zu schaffen. Diese Messungen kann man jetzt auf vielerlei verschiedene Art durchführen. Ich sage einfach nur, dass Benchmarks weiterentwickelt werden müssen, um die verschiedenen Multi-Core CPUs fair und praxisgerecht vergleichen zu können.

Die Anforderungen an die Benchmarks ändern sich, wenn man statt Uniprozessorsystemen nun SMP-Systeme benchmarked. Ich halte es nicht für sonderlich sinnvoll, nur die Leistung der einzelnen Kerne allein zu testen, wenn die allermeisten Multi-Core Systeme dann doch mit einem modernen OS mit SMP-Kernel betrieben werden und mehrere Tasks/Threads/User parallel arbeiten. Dann kommt's nämlich beispielsweise viel mehr auf den Durchsatz an.

Deine Anforderungen mögen sich nicht ändern, die Anforderungen an die Benchmarks als Mittel zur technischen Einschätzung bzw. zum Vergleich ändern sich aber, sobald Multi-Core CPUs auch von AMD und Intel günstig zu haben sein werden.

Endorphine
2005-02-24, 21:42:14
[...] die uns verdeutlichen, daß unsere CPUs veraltet sind und wir dringend aufrüsten müssen. Ob das, ausser für die Bilanzen der jeweiligen HW-Hersteller wirklich der richtige Weg ist?

'Tschuldige, aber ich denke eher, daß wir diversifizierte Benchmarks brauchen, bei denen jeder beurteilen kann, ob dieser und jener Score für das gegebene Anwendungsprofil erstrebenswert ist.

Was soll ich zu Hause bsw. mit einem unbestritten leistungsfähigen Stream-Prozessor, wenn ich im Internet surfen will und ab und an mal ein Video schauen? Ich glaub, dass diese Anforderung zu hoch ist für die meisten Benchmarks. Die Anforderung kann wohl nur ein Benchmarkmix befriedigen, und das wird auch in Zukunft so bleiben.

Wenn man viel spielt testet man natürlich das Spielerlebnis (womit auch immer) in den bevorzugten Spielen. Wenn man arbeitet testet man das Arbeitser..., äh, die Produktivität mit geeigneten Mitteln. Wenn man surft und Videos schaut testet man eben das (für Videos rückt dann der Prozessor abgesehen von HD-Video ziemlich in den Hintergrund ggü. Software und Graka samt Treibern imho). Und so weiter.

Das ändert aber imho nichts daran, dass wir für die Multi-Core CPUs neue Benchmarks brauchen.

Pinoccio
2005-02-24, 21:48:18
Was sind Benchmarks überhaupt? Aus meiner Sicht sind Benchmarks Messungen, die dazu dienen, eine Norm für einen Vergleich von verschiedenen Produkten zu schaffen. Diese Messungen kann man jetzt auf vielerlei verschiedene Art durchführen.Deine Aussage vorhin klang eher nach "Wir schaffen Fortschritt ducrh veränderte Messmethoden". Ist ja bei Arbeitslosenzahlen nicht ganz unüblich!

Ich glaube Multi-Core-CPUs werden eine Weile brauchen, bevor sie in aktuellen Spielen mehr Leistung bringen als die derzeitigen CPUs.
Ein single-threaded Spiel nutz einen Kern voll aus und der andere langweilt sich mit ICQ und der Firewall.
Beiim P4 wurde/wird fleißig an der HTT (bzw am HT für die Verfechter dieser Bezeichnung) verbessert um Blockaden zu minimieren, das wird bei Mehr-Kern-Prozessoren (oh Gott, klingt das Scheiße!) sicher nicht anders sein.

mfg Sebastian

@Endorphine: Du studierst in Mittweida? Dann dürfte dir die ja bekannt vorkommen: Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2742741#post2742741)

Pirx
2005-02-24, 21:49:13
Naja, es gibt ja theoretische Benchmarks, um z.B. die Effizienz einer Architektur nachzuweisen und praktische Benchmarks, um zu vergleichen, wie gut verschiedene Architekturen eine bestimmte Aufgabe bewältigen. Und diese müssen sich ja nicht gleich ändern, wenn eine neue Architektur eingeführt wird. Sie werden/sollten sich aber ändern, wenn nicht alle Möglichkeiten einer Architektur ausgeschöpft werden um diese Aufgabe zu lösen. Durch diese Änderung sollten aber die "alten" Architekturen nicht benachteiligt werden.:nono:

Endorphine
2005-02-24, 22:04:19
Deine Aussage vorhin klang eher nach "Wir schaffen Fortschritt ducrh veränderte Messmethoden". Ist ja bei Arbeitslosenzahlen nicht ganz unüblich! Wenn's so rüberkam: so war es nicht gemeint. Und ich denke schon, dass Multi-Core CPUs für den Massenmarkt ein großer Fortschritt sind. Ich könnte es auch anders formulieren: nach jahrelangem Stillstand (im Vergleich zu anderen Bereichen wie z. B. Grafikkarten) kommt endlich wieder Bewegung in die Entwicklung. Single-Core Designs sind wohl langsam ausgereizt. Ich hätte es mir aber gewünscht, dass SMT dafür genutzt wird, die Parallelisierung in den CPUs einfach deutlich zu erweitern und die Ressourcen dann flexibel per SMT zu verteilen, statt einfach zwei herkömmliche Kerne zu verheiraten. Vor allem beim Cache ist da imho noch viel Entwicklungspotenzial da (Kohärenz? doppelte Vorhaltung gleicher Daten? etc.). Ich glaube Multi-Core-CPUs werden eine Weile brauchen, bevor sie in aktuellen Spielen mehr Leistung bringen als die derzeitigen CPUs.
Ein single-threaded Spiel nutz einen Kern voll aus und der andere langweilt sich mit ICQ und der Firewall. Ich glaube es gibt genug andere Anwendungen für PCs, außer Spiele, die von DC profitieren können. @Endorphine: Du studierst in Mittweida? Dann dürfte dir die ja bekannt vorkommen: Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2742741#post2742741) Fällt mir jetzt nicht ein, wo an der HTWM das sein könnte. Edit: ich kenne btw. noch jemanden, der in Potsdam studiert. :smile:

Pinoccio
2005-02-24, 22:09:19
Sorry, OT
OT: Fällt mir jetzt nicht ein, wo an der HTWM das sein könnte. Edit: ich kenne btw. noch jemanden, der in Potsdam studiert. :smile:Grunert-de-Jacome-Bau, auf der Seite vom Studio B. Herrentoilette. ;D

mfg Sebastian

Endorphine
2005-02-24, 22:18:54
<sry 4 OT>
Sorry, OT
OT:Grunert-de-Jacome-Bau, auf der Seite vom Studio B. Herrentoilette. ;D

mfg Sebastian Da war ich erst 1x, aber jetzt wo du's sagst. Ja!

Soll' ich auch ein Foto von dort machen? :ugly: </ot>

Wenn's einen Mod stört, dann können die beiden Postings ja in diesen Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2742741#post2742741

Quasar
2005-02-25, 09:02:57
Das ändert aber imho nichts daran, dass wir für die Multi-Core CPUs neue Benchmarks brauchen.
Auch wenn ich deinen vorigen Post (zugegebenermaßen bewußt) etwas falsch aufgefaßt habe: Hier möchte ich in aller Ernsthaftigkeit nochmals Einspruch einlegen.

Was wir brauchen, sind Benchmarks für verschiedene Einsatzgebiete. Wie eine gegebene CPU (im jeweiligen Marktsegment) ihre Werte erreicht, also ob durch geniale Speicheranbindung, riesige Low-Latency-Caches, SMT, SMP-on-Die, hohe Taktfrequenz oder massiv parallele Ausführungseinheiten ist doch wurscht, solange der Aufwand noch vertretbar ist, sprich, man keine Ice-Box zur Kühlung benötigt und dergleichen.
Wenn's so rüberkam: so war es nicht gemeint.
Guuut. ;D Habe mir schon Sorgen gemacht...

Ich glaube es gibt genug andere Anwendungen für PCs, außer Spiele, die von DC profitieren können.
Ganz sicher, aber diese sind entweder weitab vom aktuellen Desktop-Markt oder bereits in vielen, wenn nicht den meisten Benchmarks im A/V-Bereich integriert.

Nette Signatur, die du hast... *fg*

mapel110
2005-02-25, 09:11:58
Benchmarks sollten in erster Linie auf den Praxiseinsatz abzielen und keine hochspeziellen Situationen schaffen, auch nicht für Dual-core-CPUs.

Muh-sagt-die-Kuh
2005-02-25, 10:52:55
Benchmarks sollten in erster Linie auf den Praxiseinsatz abzielen und keine hochspeziellen Situationen schaffen, auch nicht für Dual-core-CPUs.Sollten sie das wirklich?

Ein Benchmark dient prinzipiell der Leistungsmessung in verschiedenen Situationen. Diese können sowohl theoretischer oder praktischer Natur sein. Ich persönlich möchte auf keinen dieser Bereiche mit all seinen Ausprägungen verzichten....welchen Benchmark man nun einsetzt ist eine Frage der Zielsetzung und des Anforderungsprofils.

Savay
2005-02-25, 15:11:37
grundsätzlich wäre das ideal wenn ALLE situationen durchgetestet würden, und der geneigte kunde sich dann die für seine situation relevanten zahlen/benches raus sucht, die ergebnisse interpoliert und seinen eigenen benchmark sieger kürt

nur leider sind viele leute überspitzt gesagt zu dumm zum denken (oder zu faul) und machen sich keine gedanken über ihr anforderungsprofil und lassen sich einfach eine meinung vorexerzieren... :rolleyes:

ergo: ja für DualCore CPUs braucht es gegebenenfalls auch neue benchmarks. die gewichtung der benches untereinander ist aber jedem selbst überlassen!

wer einfach nur auf irgendein fazit hört das einem jemand vorsagt, dem ist eh nicht zu helfen...

aber wir reden hier IMO eh von selbstverständlichkeiten! ein test soll möglichst objektiv nur reine zahlen unter allen möglichen vorraussetzungen präsentieren. welche dieser werte dann für einen relevant sind sollte man schon selbst entscheiden können...so sehe ich das zumindest :smile:

Endorphine
2005-02-25, 16:34:05
Auch wenn ich deinen vorigen Post (zugegebenermaßen bewußt) etwas falsch aufgefaßt habe: Hier möchte ich in aller Ernsthaftigkeit nochmals Einspruch einlegen.

Was wir brauchen, sind Benchmarks für verschiedene Einsatzgebiete. Die gibt es ja schon zur Genüge. BaPCo Sysmark, SPEC_CPU, SPEC_ViewPerf, 3DMark (äääh...), Archmark, usw.

Ich glaube, ich bleibe wieder bei einem gesunden Mix aus synthetischen Micro-Benchmarks und Applikationsbenchmarks. Vieles kann man sich ja auch aus der Theorie bzw. dem Design herleiten. Und um das Design zu untersuchen kann man sich ja wieder schöner Toolz[tm] wie CacheBurst32 bedienen, oder auch die Docs zur Optimierung von Software studieren (Stichwort Takte pro Operation, etc.).

Ich bin nur mal gespannt, welche Benchmarks die Industrie für die MP-Eigenschaften entwickeln wird. Hoffentlich nicht Linpack. :wink:

Endorphine
2005-02-25, 16:37:13
aber wir reden hier IMO eh von selbstverständlichkeiten! ein test soll möglichst objektiv nur reine zahlen unter allen möglichen vorraussetzungen präsentieren. welche dieser werte dann für einen relevant sind sollte man schon selbst entscheiden können...so sehe ich das zumindest :smile: Davon träume ich auch, dass es zur Selbstverständlichkeit wird, dem Leser von Tests nur die nackten (sinnvoll zusammengestellten) Fakten zu präsentieren, damit er sich sein eigenes Urteil bilden muss. Da die meisten Leser aber an die Hand genommen werden wollen und Gewinner/Verlierer sehen möchten wird das wohl eine Illusion bleiben. Bis auf wenige Ausnahmen à la Heise Verlag.

Pinoccio
2005-02-25, 16:38:18
Soll' ich auch ein Foto von dort machen? :ugly: </ot>

Hast du doch schon! ;-) (http://www.htwm.de/~fkoepke/about/images/Grunert-de-Jacome_Bau.jpg)

ZumThema:
Leider nix, nur Spam (sorry).


mfg Sebastian

Haarmann
2005-02-27, 11:50:20
Ich finds sehr interessant, wie diese Dinger dann mit CuBase von Steinberg skalieren werden - allerdings kein Bench mit Durchschnittsleistung, sondern einzig die Realtimepeaks sind da interessant, denn genau dort zeigt sichs dann, ob etwas noch geht oder eben nicht. Bisher sollen dort Dual Systeme ganz ordentlich Leistung zeigen. Praktisch eine echte Verdoppelung ist drinnen - mal sehen, wie das bei Dual Cores sein wird.