PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Athlon64 (Hammer) auf Cebit mit 3DMark2001 gebencht...


Eusti
2003-03-14, 18:48:54
... www.theinquirer.net (http://www.theinquirer.net/?article=8313) konnten auf der Cebit den 3DMark2001 auf einem Athlon64(Hammer)-System laufen lassen. Der Athlon64 lief auf 1,6GHZ und als Grafikkarte war eine GF4Ti4800 verbaut. Ergebnisse waren (in Klammern mein 1,6GHZ Celereon inkl. GF4Ti4200):

3DMark: 7913 (9318)
Game 1L: 146 (124)
Game 1H: 56 (41)
Game 2L: 102 (185)
Game 2H: 37 (100)
Game 3L: 147 (117)
Game 3H: 68 (52)
Nature: 37 (61)

Wohlgemerkt, mein Vergleichssystem war ein gleichgetakteter Celereon mit langsamerer Grafikkarte. Da muss noch einiges am Hammer optimiert werden, bis dieser wirklich konkurenzfähig wird.

Auch die Präsentation eines 1,6GHZ Systems auf der Cebit lässt zu wünschen übrig (es wurden 4GHZ Northwood-Modelle gezeigt).

askibo
2003-03-14, 18:54:08
Ein 1,6 Ghz Athlon erreicht mit einer Ti4600 ca. 12500 Punkte.
Das Hammer-System war wohl einfach nicht richtig konfiguriert (keine AGP Treiber installiert o.ä.)

BlackBirdSR
2003-03-14, 19:05:36
Originally posted by Eusti
... www.theinquirer.net (http://www.theinquirer.net/?article=8313) konnten auf der Cebit den 3DMark2001 auf einem Athlon64(Hammer)-System laufen lassen. Der Athlon64 lief auf 1,6GHZ und als Grafikkarte war eine GF4Ti4800 verbaut. Ergebnisse waren (in Klammern mein 1,6GHZ Celereon inkl. GF4Ti4200):

3DMark: 7913 (9318)
Game 1L: 146 (124)
Game 1H: 56 (41)
Game 2L: 102 (185)
Game 2H: 37 (100)
Game 3L: 147 (117)
Game 3H: 68 (52)
Nature: 37 (61)

Wohlgemerkt, mein Vergleichssystem war ein gleichgetakteter Celereon mit langsamerer Grafikkarte. Da muss noch einiges am Hammer optimiert werden, bis dieser wirklich konkurenzfähig wird.

Auch die Präsentation eines 1,6GHZ Systems auf der Cebit lässt zu wünschen übrig (es wurden 4GHZ Northwood-Modelle gezeigt).

sieh dir mal Nature an.
Nature ist fast gänzlich CPU unabhängig, und auch nicht unbedingt CPU SPeicherbandbreiten limitiert..

Dass es hier so absackt, lässt nur darauf deuten, dass AMD entweder dafür sorgt dass die AGP Funktionen auf den Testsystemen lächerlich sind, oder dass es einfach noch nicht funktioniert.

Bisher waren alle 5 3dmark2001 Werte die ich von K8 CPUs gesehen habe sehr schlecht.. die Leute sollten auf diesen Maschinen endlich mal nützlicheres Benchen.

Kenny1702
2003-03-14, 20:00:59
Test ein Fake????

Gagula
2003-03-14, 20:20:40
Wer bencht denn eine CPU mit 3DMark? Da gibts doch wohl bessere Möglichkeiten.

Eusti
2003-03-14, 20:44:17
Originally posted by BlackBirdSR

sieh dir mal Nature an.
Nature ist fast gänzlich CPU unabhängig, und auch nicht unbedingt CPU SPeicherbandbreiten limitiert..

Dass es hier so absackt, lässt nur darauf deuten, dass AMD entweder dafür sorgt dass die AGP Funktionen auf den Testsystemen lächerlich sind, oder dass es einfach noch nicht funktioniert.

Bisher waren alle 5 3dmark2001 Werte die ich von K8 CPUs gesehen habe sehr schlecht.. die Leute sollten auf diesen Maschinen endlich mal nützlicheres Benchen. Ich tippe drauf, das irgendwas noch immer nicht richtig funktioniert. Deswegen gibt es den Hammer ja auch noch nicht. Und deswegen wird der Hammer auch nicht für Benchmarks rausgegeben (obwohl es an Testmustern genügend geben müsste).

@gagula: 3DMark2001 ist ein recht guter CPU-Bench, da dort die CPU erheblich stärker limitiert, als die Grafikkarte. Das war damals der größte Kritikpunkt zur fehlenden Praxistauglichkeit. Aber der 2001er 3DMark behandelt CPU´s und Graka´s untereinander sehr fair. Die ermittelten Reihenfolgen entsprechen ziemlich genau der Leistung in Spielen. Gerade deswegen war der Bench damals auch so beliebt.

Für einen reinen CPU-Bench gibt es selbstverständlich bessere Programme. ABer für die Spieletauglichkeit ist die Aussage des 3DMark2001 ziemlich gut.

BlackBirdSR
2003-03-14, 21:12:12
Originally posted by Eusti
Ich tippe drauf, das irgendwas noch immer nicht richtig funktioniert. Deswegen gibt es den Hammer ja auch noch nicht. Und deswegen wird der Hammer auch nicht für Benchmarks rausgegeben (obwohl es an Testmustern genügend geben müsste).



wenn etwas nicht funktioniert dann ist es die Taktrate des Athlon64.
Alles Andere, inklusive Probleme mit dem AGP Interface wären katastrophal, die Boards sind ja schon fertig.

Trotzdem ist es schlimm genug für AMD dass sie den Athlon64 nicht früher bringen können.
Obs IBM richten wird?

robbitop
2003-03-14, 21:34:25
was macht IBM denn nun genauf für die 42MIOI USD?

damals beim K6-2 und beim K7 haben die doch auch geholfen...

BlackBirdSR
2003-03-14, 22:03:34
Originally posted by robbitop
was macht IBM denn nun genauf für die 42MIOI USD?

damals beim K6-2 und beim K7 haben die doch auch geholfen...

haben sie das?

Beim K8 zumindest könnte IBM helfen den SOI Prozess auf die Reihe zu bekommen.
Wenn AMD die Taktraten nicht so hinbekommt wie man sie braucht, dann steckt man in schweren Probleme.
IBM hat mehr Erfahrung mit SOI als AMD oder sonst jemand.

robbitop
2003-03-14, 22:10:27
ja sie haben beim K6.2 haben die IBM Ingeneure beim 3DNow in der Entwicklung geholfen und beim K7 kA was da war...

fazit: IBM ruled ;D

MegaManX4
2003-03-14, 23:12:26
Originally posted by BlackBirdSR


sieh dir mal Nature an.
Nature ist fast gänzlich CPU unabhängig, und auch nicht unbedingt CPU SPeicherbandbreiten limitiert..

Dass es hier so absackt, lässt nur darauf deuten, dass AMD entweder dafür sorgt dass die AGP Funktionen auf den Testsystemen lächerlich sind, oder dass es einfach noch nicht funktioniert.

Bisher waren alle 5 3dmark2001 Werte die ich von K8 CPUs gesehen habe sehr schlecht.. die Leute sollten auf diesen Maschinen endlich mal nützlicheres Benchen.

Seit wann ist der Nature denn CPU limitiert? Bei all den Systemen die ich mit diesem gebencht habe (und das sind berufsbedingt so viele das ich sie nicht mehr zählen kann), war bis jetzt immer(!) die Grafikkarte der limitierende Faktor. Würde man deiner Argumentation folgen, würde mal auf gleicher Systembasis so gut wie keinen Unterschied zwischen einer Geforce 3 und einer Geforce 4 erkennen. Selbst eine 9700 Pro dürfte dann keine höheren Frameraten als eine Geforce 4 schaffen, es sei denn man wechselt die CPU aus. Dem ist nunmal nicht so.

Thomas

StefanV
2003-03-14, 23:17:32
Originally posted by MegaManX4


Seit wann ist der Nature denn CPU limitiert? Bei all den Systemen die ich mit diesem gebencht habe (und das sind berufsbedingt so viele das ich sie nicht mehr zählen kann), war bis jetzt immer(!) die Grafikkarte der limitierende Faktor. Würde man deiner Argumentation folgen, würde mal auf gleicher Systembasis so gut wie keinen Unterschied zwischen einer Geforce 3 und einer Geforce 4 erkennen. Selbst eine 9700 Pro dürfte dann keine höheren Frameraten als eine Geforce 4 schaffen, es sei denn man wechselt die CPU aus. Dem ist nunmal nicht so.

Thomas

Öhm, nix anderes hat BlackbirdSR gesagt.

Er sagte nix anderes als du auch, es muss irgendwo zwischen CPU und Grafikkarte ein Problem geben...

MegaManX4
2003-03-14, 23:17:54
Originally posted by robbitop
ja sie haben beim K6.2 haben die IBM Ingeneure beim 3DNow in der Entwicklung geholfen und beim K7 kA was da war...

fazit: IBM ruled ;D

Das wüsste ich auch mal gerne was IBM da zu suchen hatte.

3DNow wurde einzig und allein von AMD entwickelt. Immerhin fanden es einige andere Hersteller gar so gut, das sie es sofort lizensierten (National Semiconductor für die Cyrix Linie z.B.). Dumm nur das die Cyrix Leute nicht das ganze Paket implentieren wollten (Das "erweiterte" 3DNow des Athlon war eigentlich die Ursprungsversion!), sondern nur den "Spielrelevanten" Teil. Microsoft wollte damals aber nicht 2 unterschiedliche 3DNow-Codes pflegen, also hat AMD einen Rückzieher gemacht, und hat die 21 Befehls-Version als offiziellen 3DNow Standard ausgerufen.

Beim K7 hat IBM soweit ich weiß auch nicht geholfen. Ich denke da eher an Motorola die mit AMD zusammen den nötigen Kupferprozess (HyperMos irgenwas...) vorantrieben.

Thomas

MegaManX4
2003-03-14, 23:24:25
Originally posted by Stefan Payne


Öhm, nix anderes hat BlackbirdSR gesagt.

Er sagte nix anderes als du auch, es muss irgendwo zwischen CPU und Grafikkarte ein Problem geben...


Ui...scheisse ;D

@Blackbird,

Sorry, das "un" in "unabhängig" hab ich leider überlesen. Recht hast du wohl mit der Annahme das irgendwas nicht mit dem AGP Tunnel stimmen kann. Vielleicht muss NVIDIA ja noch die Treiber auf diese "merkwürdige" Art des AGP-Zugriffes anpassen. Hoffentlich geschieht das schnell, nicht das sowas dann die Systemleistung auf Dauer negativ beeinflusst.

Unregistered
2003-03-15, 10:33:48
Originally posted by MegaManX4


Das wüsste ich auch mal gerne was IBM da zu suchen hatte.

3DNow wurde einzig und allein von AMD entwickelt. Immerhin fanden es einige andere Hersteller gar so gut, das sie es sofort lizensierten (National Semiconductor für die Cyrix Linie z.B.). Dumm nur das die Cyrix Leute nicht das ganze Paket implentieren wollten (Das "erweiterte" 3DNow des Athlon war eigentlich die Ursprungsversion!), sondern nur den "Spielrelevanten" Teil. Microsoft wollte damals aber nicht 2 unterschiedliche 3DNow-Codes pflegen, also hat AMD einen Rückzieher gemacht, und hat die 21 Befehls-Version als offiziellen 3DNow Standard ausgerufen.

Beim K7 hat IBM soweit ich weiß auch nicht geholfen. Ich denke da eher an Motorola die mit AMD zusammen den nötigen Kupferprozess (HyperMos irgenwas...) vorantrieben.

Thomas also die k6 2 3d now reihe würde von ibm gefertigt und grantie abwiecklung service und bei verdacht auf gefälschte cpus musste mann mit ibm schotland telefonieren sehr nette kompetente leute!

also beim k6 2 war IBM mit am start

GloomY
2003-03-15, 18:37:49
Originally posted by MegaManX4
Beim K7 hat IBM soweit ich weiß auch nicht geholfen. Ich denke da eher an Motorola die mit AMD zusammen den nötigen Kupferprozess (HyperMos irgenwas...) vorantrieben.

Thomas Naja und beim Designen hat Digital erheblichen (positiven) Einfluß gehabt. Sonst hätte der Athlon wohl nicht das EV6 Busprotokoll, nicht die ähnliche Cache Architektur (2x64 kB L1 Harvard, 2x assotiativ) uvm...

Ansonsten: Zustimmung, irgendwas KANN bei den Hammer Werten noch nicht stimmen...

MegaManX4
2003-03-15, 18:43:53
Originally posted by GloomY
Naja und beim Designen hat Digital erheblichen (positiven) Einfluß gehabt. Sonst hätte der Athlon wohl nicht das EV6 Busprotokoll, nicht die ähnliche Cache Architektur (2x64 kB L1 Harvard, 2x assotiativ) uvm...

Ansonsten: Zustimmung, irgendwas KANN bei den Hammer Werten noch nicht stimmen...

Was hat Digital mit IBM zu tun? Den EV6 Bus hat AMD ganz normal lizensiert, zudem arbeiten eine Menge ehemalige Digital Mitarbeiter bei AMD. Das da Gleichheiten aufkommen ist doch logisch. Der ganze Athlon sieht fast so aus wie ein EV6.

Thomas

BlackBirdSR
2003-03-15, 23:27:46
Originally posted by MegaManX4


Was hat Digital mit IBM zu tun? Den EV6 Bus hat AMD ganz normal lizensiert, zudem arbeiten eine Menge ehemalige Digital Mitarbeiter bei AMD. Das da Gleichheiten aufkommen ist doch logisch. Der ganze Athlon sieht fast so aus wie ein EV6.

Thomas

uff, das würde ich mir als Alpha Ingenieur dann doch nicht gefallen lassen :)

Der Vergleich K7 EV6, K8 EV7 rührt eher daher, dass sie alle einige gleiche Ideen und Ansätze nutzen.
Man könnte quasi sagen der K7 ist die EV6 des armen Mannes..

aber man darf daraus nicht schließen dass der K7 ein x86 EV6 ist.

robbitop
2003-03-15, 23:39:50
also afaik war ibm an beiden CPUs beteiligt

MegaManX4
2003-03-16, 00:02:14
Originally posted by BlackBirdSR


uff, das würde ich mir als Alpha Ingenieur dann doch nicht gefallen lassen :)

Der Vergleich K7 EV6, K8 EV7 rührt eher daher, dass sie alle einige gleiche Ideen und Ansätze nutzen.
Man könnte quasi sagen der K7 ist die EV6 des armen Mannes..

aber man darf daraus nicht schließen dass der K7 ein x86 EV6 ist.

deswegen sagte ich ja auch das sie sich fast gleichen. Hier eine Einheit weniger, dann da noch ein wenig rumgedoktort...Im Endeffekt sind es sowieso 2 verschiendene Prozessoren.

stickedy
2003-03-16, 12:30:19
Originally posted by MegaManX4


Das wüsste ich auch mal gerne was IBM da zu suchen hatte.

3DNow wurde einzig und allein von AMD entwickelt. Immerhin fanden es einige andere Hersteller gar so gut, das sie es sofort lizensierten (National Semiconductor für die Cyrix Linie z.B.). Dumm nur das die Cyrix Leute nicht das ganze Paket implentieren wollten (Das "erweiterte" 3DNow des Athlon war eigentlich die Ursprungsversion!), sondern nur den "Spielrelevanten" Teil. Microsoft wollte damals aber nicht 2 unterschiedliche 3DNow-Codes pflegen, also hat AMD einen Rückzieher gemacht, und hat die 21 Befehls-Version als offiziellen 3DNow Standard ausgerufen.

Beim K7 hat IBM soweit ich weiß auch nicht geholfen. Ich denke da eher an Motorola die mit AMD zusammen den nötigen Kupferprozess (HyperMos irgenwas...) vorantrieben.

Thomas

3DNow! wurde von AMD, Cyrix und IDT/Centaur als Standard festgelegt. AMD hat es zwar entwickelt, aber die beiden anderen hatten ähnliche Erweiterungen entwickelt und damit das alles nicht aus dem Ruder läiuft haben sich alle drei auf 3DNow! geeinigt! IBM könnte da mit dabei gewesen sein, weil sie damals noch Cyrix-CPUs gefertigt haben und unter eigenem Namen verkauft haben...

MegaManX4
2003-03-16, 13:29:06
Originally posted by stickedy


3DNow! wurde von AMD, Cyrix und IDT/Centaur als Standard festgelegt. AMD hat es zwar entwickelt, aber die beiden anderen hatten ähnliche Erweiterungen entwickelt und damit das alles nicht aus dem Ruder läiuft haben sich alle drei auf 3DNow! geeinigt! IBM könnte da mit dabei gewesen sein, weil sie damals noch Cyrix-CPUs gefertigt haben und unter eigenem Namen verkauft haben...

Das lese ich heute zum ersten Mal. Du hast doch sicher eine Quelle für deine Behauptungen? In der c't stand das damals anders. Ist aber schon einige Jahre her, kann mich also irren.

Thomas

Madkiller
2003-03-16, 14:36:15
Originally posted by GloomY
Ansonsten: Zustimmung, irgendwas KANN bei den Hammer Werten noch nicht stimmen...

ACK!
Irgendwas ist gut gesagt.
Ich bin auf 1000 3DMurks Punkte mehr, mit einem Thunderbird 1533MHz und KT133a mit selber GraKa, gekommen. :o

ice cool69
2003-03-16, 17:56:33
amd veröffentlicht doch keinen langsameren prozessor als nachfolger des athlonXP. entwerder das teil rockt oder es wird eingestampft. ich tippe auf ersteres ;)

BlackBirdSR
2003-03-16, 18:21:57
Originally posted by ice cool69
amd veröffentlicht doch keinen langsameren prozessor als nachfolger des athlonXP. entwerder das teil rockt oder es wird eingestampft. ich tippe auf ersteres ;)

das ist doch gar nicht das Problem..

ich verstehe gar nicht warum manche nicht einsehen wollen, dass es entweder ein Problem mit dem AGP Interface gibt, oder AMD absichtlich dafür sorgt dass solche Benches gar nicht erst Aussagekräftig sind.

Das hat nichts mit der Leistungsfähigkeit zu tun, und ob das Teil rockt oder nicht.

GloomY
2003-03-16, 19:08:07
Originally posted by MegaManX4
Was hat Digital mit IBM zu tun?Nicht viel. Ich wollte nur mit meiner Aussage DEC nicht unerwähnt lassen, da du von Motorolas Hilfe sprachest. Imho hat DEC sehr viel Einfluß auf die Entwicklung des Athlons gehabt.
Originally posted by MegaManX4
Den EV6 Bus hat AMD ganz normal lizensiert, zudem arbeiten eine Menge ehemalige Digital Mitarbeiter bei AMD. Das da Gleichheiten aufkommen ist doch logisch.Richtig.
Originally posted by BlackBirdSR
uff, das würde ich mir als Alpha Ingenieur dann doch nicht gefallen lassen :)Was? Ist ja hochinteressant. =)

Was hast du denn genau gemacht? *neugierig sei* ;)
Originally posted by ice cool69
amd veröffentlicht doch keinen langsameren prozessor als nachfolger des athlonXP. entwerder das teil rockt oder es wird eingestampft. ich tippe auf ersteres ;) Der Hammer hat doch an anderen Stellen schon bewiesen, wie leistungsfähig er ist. Die SPEC Werte sind schon mal ein sehr guter Anhaltspunkt (die ja übrigends einzelne Real-World Benches sind).

ice cool69
2003-03-16, 19:30:06
auf jeden fall müssen sie sich sputen den hammer flott zu bekommen sonst ist der p4 auf auf und davon.

der barton dürfte vielleicht noch mit dem northwood mithalten können, aber danach is endgültig schluss. gegen sse3, fsb800 und den anderen verbesserungen hat der barton nicht mehr allzuviel entgegenzusetzen.

ich glaube nicht dass noch so viele MHz aus dem barton rausgeholt werden können dass das kompensiert werden kann. und der fsb400 wird auch die letzte optimierung für das interface des athlonXP sein, danach is endgültig schluss...

Eusti
2003-03-16, 20:13:45
Originally posted by GloomY

Der Hammer hat doch an anderen Stellen schon bewiesen, wie leistungsfähig er ist. Die SPEC Werte sind schon mal ein sehr guter Anhaltspunkt (die ja übrigends einzelne Real-World Benches sind). Alle Benchmarks bisher waren aber auf "Anwender"-Programmen basierend. Diese Anwendungen machen alle keinen massiven Gebrauch vom AGP-Interface. Und gerade in diesem Bereich soll es beim Desogn des Athlon64 ja deutliche Änderungen geben.

Mit dem 3DMark wurde erstmals ein Spiele-orientierter-Benchmark durchlaufen. Vielleicht gibt es ja momentan tatsächlich noch erhebliche Probleme beim Zugriff auf den Speicher, oder bei dem Transfer von Daten zur Grafikkarte. AMD wird schon wissen, warum Sie keine Benchmarks von den Sstemen erlauben...

BlackBirdSR
2003-03-16, 20:55:38
Originally posted by GloomY
Was? Ist ja hochinteressant. =)

Was hast du denn genau gemacht? *neugierig sei* ;)


*g*
was habe ich damals gemacht?... hmm ich kann mich gar nichtmehr erinnern ;)

[-Leo-]
2003-03-17, 01:01:29
Jo, AMD soll sich mit dem Hammer beeilen, ich will endlich mal wieder nen neuen CPU, also los AMD

ice cool69
2003-03-17, 01:11:59
ich hol mir erstmal ein gscheites nf2-board, in verbindung mit einem barton und einer r300 oder r350 rockt das teil sowieso alles andere weg, auch den p4 mit HT...

BlackBirdSR
2003-03-17, 09:25:31
Originally posted by ice cool69
ich hol mir erstmal ein gscheites nf2-board, in verbindung mit einem barton und einer r300 oder r350 rockt das teil sowieso alles andere weg, auch den p4 mit HT...

Und dann hast du praktisch die EOL Hardware gekauft..

Barton rein, Nforce2 Board.. -> Sackgasse.

2B-Maverick
2003-03-17, 11:22:18
Originally posted by BlackBirdSR


Und dann hast du praktisch die EOL Hardware gekauft..

Barton rein, Nforce2 Board.. -> Sackgasse.

Dieses Gequatsche von wegen "Aufrüstoptionen" ist doch meistens völliger Blödsinn.
Nen Prescott läuft AUCH nicht auf heutigen P4 Boards!
Und Speicher wird auch immer besser.... ALLES wird besser....

Also soll er sich das Zeugs doch ruhig kaufen und nett übertakten :)

StefanV
2003-03-17, 11:33:12
Originally posted by 2B-Maverick


Dieses Gequatsche von wegen "Aufrüstoptionen" ist doch meistens völliger Blödsinn.
Nen Prescott läuft AUCH nicht auf heutigen P4 Boards!
Und Speicher wird auch immer besser.... ALLES wird besser....

Also soll er sich das Zeugs doch ruhig kaufen und nett übertakten :)

Hab ich schon erwähnt, daß mein MSI KT4 ULTRA FISR auch problemlos 200MHz FSB schafft ?? ;)

GloomY
2003-03-17, 14:48:46
Originally posted by Eusti
Alle Benchmarks bisher waren aber auf "Anwender"-Programmen basierend. Diese Anwendungen machen alle keinen massiven Gebrauch vom AGP-Interface. Und gerade in diesem Bereich soll es beim Desogn des Athlon64 ja deutliche Änderungen geben.

Mit dem 3DMark wurde erstmals ein Spiele-orientierter-Benchmark durchlaufen. Vielleicht gibt es ja momentan tatsächlich noch erhebliche Probleme beim Zugriff auf den Speicher, oder bei dem Transfer von Daten zur Grafikkarte. AMD wird schon wissen, warum Sie keine Benchmarks von den Sstemen erlauben... Hmm, Spekulation....

Bloß komisch, dass bei den Dual oder Quad Systemen die Performance gestimmt hat. Dort kommunizieren die Prozessoren untereinander mit Hypertransport, so wie es die eine CPU mit dem AGP auch macht. Daher ist es eher unwahrscheinlich, dass es hier ein architekturbasiertes Problem ist.
Originally posted by BlackBirdSR
*g*
was habe ich damals gemacht?... hmm ich kann mich gar nichtmehr erinnern ;) ???
So viel Alzheimer wirste doch wohl hoffentlich nicht haben... *eg*

ice cool69
2003-03-17, 17:40:45
soweit ich weiß läuft die barton-schiene als "billiglinie" neben dem hammer weiter, insofern glaube ich dass ein nf2-board welches fsb400 schafft sogar noch ne recht lange lebenszeit haben wird...

Ikon
2003-03-17, 20:47:39
Originally posted by stickedy
3DNow! wurde von AMD, Cyrix und IDT/Centaur als Standard festgelegt. AMD hat es zwar entwickelt, aber die beiden anderen hatten ähnliche Erweiterungen entwickelt und damit das alles nicht aus dem Ruder läiuft haben sich alle drei auf 3DNow! geeinigt! IBM könnte da mit dabei gewesen sein, weil sie damals noch Cyrix-CPUs gefertigt haben und unter eigenem Namen verkauft haben...

AFAIK geht die Entwicklung von 3D-Now! mehr oder weniger ausschließlich auf AMD zurück, und IBM/Cyrix und IDT/Centaur/VIA haben "nur" nachträglich Lizenzen dafür erworben, um 3D-Now! in ihre Produkte zu implementieren.

Zum Hauptthema:
Ich denke wir kennen alle mehr oder weniger die Eckdaten des K8-Designs, und wissen, dass man hier durchaus von einem (mehr oder weniger) aufgebohrten K7 sprechen kann. Dass er selbigen zu überflügeln vermag, ist der logische Schluss daraus -> da ist bei dem Bench auf der Cebit offensichtlich etwas verdammt schief gelaufen.

EDIT: Bekomm' ich jetzt den "mehr oder weniger"-Preis verliehen? =)

MegaManX4
2003-03-17, 22:20:56
Originally posted by Ikon

EDIT: Bekomm' ich jetzt den "mehr oder weniger"-Preis verliehen? =)

Mehr oder weniger, Ja ;D.