Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - AMD stellt Phenom vor


Seiten : 1 2 [3] 4

StefanV
2008-01-04, 22:06:55
Es gibt einige, die versucht haben, den Bug zu 'sehen', bisher ists aber niemanden gelungen, irgendwie....

BlackArchon
2008-01-04, 23:18:59
Hier gibts noch ein paar aktuelle Zahlen mit und ohne dem Bugfix: http://www.bjorn3d.com/read.php?cID=1210&pageID=4305

HOT
2008-01-05, 09:16:42
Der TLB Bug ist genausowenig merkbar, wie das FSB Problem beim QX9650 ;).

Cherubim
2008-01-06, 14:30:52
http://img341.imageshack.us/img341/7375/phenomsb7.jpg

so, vor 3 Tagen über meinen Schreibtisch gewandert. Hab ich für nen Freund besorgt und wird jetzt erstmal auf Herz und Nieren getestet.

Erster eindruck: schön schnell, bisher keine Fehler

Läuft auf nem Asus m2n sli deluxe (AM2)

Epizentrum
2008-01-07, 19:21:57
Ist die Verpackung größer geworden?

Das Auge
2008-01-07, 20:04:14
Läuft auf nem Asus m2n sli deluxe (AM2)

Das freut mich zu hören, ich hab das gleiche Board und plane den Phenom in einer späteren Revision auch zu holen.

Bitte alles berichten :)

btw.: Kannst du mal testen, wie hoch du den Reftakt ziehen kannst? Also mit niedrigem Multi ohne CPU-OC, mich würde nur der maximale Reftakt interessieren. StefanV ist da mit seinem MSI-irgendwas ja nur bis 230 MHz gekommen afair. Etwas mehr sollte es für ernsthaftes OC dann aber doch sein und wer weiß wie teuer eine gefixte Black Edition wird ;)

StefanV
2008-01-07, 20:06:47
Ich bin durchaus auch noch weiter gekommen, nur war das Ändern des HT Multis nicht so wirklich möglich und hatte 'seltsame konsequenzen', sprich der Takt der CPU war 'etwas' niedriger :ugly:

Also alles noch nicht soo ganz schön, mit den ersten K7 und K8 zu vergleichen, da konnt man OC auch vergessen...

Das Auge
2008-01-07, 20:45:20
Ich bin durchaus auch noch weiter gekommen, nur war das Ändern des HT Multis nicht so wirklich möglich und hatte 'seltsame konsequenzen', sprich der Takt der CPU war 'etwas' niedriger :ugly:

So genau hatte ich das nicht mehr in Erinnerung. Na jedenfalls wäre es nett, wenn du das mal austestet, Cheru ;)

R300
2008-01-07, 20:56:45
Also alles noch nicht soo ganz schön, mit den ersten K7 und K8 zu vergleichen, da konnt man OC auch vergessen...

Hehe ja...ich weiß noch, dass ich meinen ersten A64 3200+ (Single Channel, 1MB L2, 130nm) auf einem Asus K8V Deluxe nur um 180Mhz übertakten konnte und sogar dafür den VCore anheben musste!;D

Das Auge
2008-01-08, 03:13:08
Hehe ja...ich weiß noch, dass ich meinen ersten A64 3200+ (Single Channel, 1MB L2, 130nm) auf einem Asus K8V Deluxe nur um 180Mhz übertakten konnte und sogar dafür den VCore anheben musste!;D

Das lag aber daran, daß der Prozess einfach nicht mehr hergeben hat. Gut der nicht fixierbare AGP/PCI-Takt war auch fies, falls das Board den non_Pro K8T800 hatte, oder wie das Ding hieß ;)

StefanV
2008-01-08, 04:33:58
Gut der nicht fixierbare AGP/PCI-Takt war auch fies, falls das Board den non_Pro K8T800 hatte, oder wie das Ding hieß ;)
Darauf wollt ich eigentlich hinaus ;)
Oder halt der nF3, bei dem ab 230MHz Ref Takt die S-ATA Ports ausstiegen...

Die Newcastles waren eigentlich garnicht soo übel...

Ist halt das Problem bei einer neuen Plattform (und das ists hier)...

R300
2008-01-08, 19:06:12
Das Board hatte zwar auch keinen AGP/PCI Fix und es ging auch deswegen nicht weiter, aber da ich bei so wenig OC schon die Spannung erhöhen musste, hätte die CPU auch nicht viel mehr mitgemacht. ;)


Die Newcastles waren eigentlich garnicht soo übel...


Das war kein Newcastle wenn ich mich richtig erinnere..war das erste Modell vom A64. Weiß nicht mehr wie der hieß

SKYNET
2008-01-09, 01:16:29
Darauf wollt ich eigentlich hinaus ;)
Oder halt der nF3, bei dem ab 230MHz Ref Takt die S-ATA Ports ausstiegen...

Die Newcastles waren eigentlich garnicht soo übel...

Ist halt das Problem bei einer neuen Plattform (und das ists hier)...


also mein 3200+ @ shuttle (Bezeichnung entfallen), lief auf runden 2.400MHz stabil... ;D

BvB123
2008-01-09, 01:46:07
Hehe ja...ich weiß noch, dass ich meinen ersten A64 3200+ (Single Channel, 1MB L2, 130nm) auf einem Asus K8V Deluxe nur um 180Mhz übertakten konnte und sogar dafür den VCore anheben musste!;D

Jup müsste ein Clawhammer gewesen sein, da ging mein bester auf 2,5Ghz und der war schon ein sahnestück^^
bald später kam dann der Winnchester den ich auf 2,8Ghz hatte (@ default 35W verbrauch) und der Venice der nur noch 30W brauchte :) und noch etwas besser ging ;)


also mein 3200+ @ shuttle (Bezeichnung entfallen), lief auf runden 2.400MHz stabil... ;D

AN50R

Das Auge
2008-01-09, 04:23:11
Das war kein Newcastle wenn ich mich richtig erinnere..war das erste Modell vom A64. Weiß nicht mehr wie der hieß

Wird wohl ein Clawhammer mit deaktivierten halbem L2 Cache gewesen sein. Ein Abfallprodukt sozusagen ;) Der Newcastle kam erst später und sah die 2,5 GHz schon sehr oft, gute Exemplare gingen auch mal gerne bis 2,7 GHz, afair.
Die halbierten Clawhammer dagegen gingen wirklich nicht gut zu takten, für den P4 hats aber idR gut gereicht :D

Cherubim
2008-01-09, 12:04:59
zwischenbericht:

zum OCen konnte ich meinen freund noch nicht bewegen *gnn*, doch hat er, soweit es in seiner möglichkeit lag und meiner instruktion per telefon zuliesst, die CPU mal auf herz und nieren geprüft.

benchmarks will er erst machen, wenn seine 8800er da ist.

ansonsten zeigt sich das system unkompliziert und weiterhin fehlerfrei auch unter vollast.

=Floi=
2008-01-09, 12:22:37
wieder mal ein artikel von thg
http://www.tomshardware.com/de/Phenom-Upgrade,testberichte-239915.html

Das Auge
2008-01-09, 18:17:01
zwischenbericht:

zum OCen konnte ich meinen freund noch nicht bewegen *gnn*, doch hat er, soweit es in seiner möglichkeit lag und meiner instruktion per telefon zuliesst, die CPU mal auf herz und nieren geprüft.

OC ist gar nicht so wichtig, wichtiger wäre, mir zumindest (:D), ob das Board auch bei höheren Reftakten so rumspackt wie das MSI von StefanV.
Ich würde also gerne wissen, ob das ein eher allgemeines Problem mit AM2-Mobos + Phenom ist, oder Boardabhängig ;)

Wäre wirklich toll, wenn du bzw. dein Kumpel das mal testen könnten. Ihr müsst die CPU ja auch gar nicht OCen, niedriger CPU-Multi + hoher Reftakt unterhalb oder gleich des Standardtaktes würde ja zum testen des Reftakt-OC-Verhaltens schon reichen ;)

up¦²
2008-02-05, 16:36:39
Wiedermal souverän und witzig geschrieben: Andreas Stiller von der c+t im Prozessorgeflüster derneuen Ausgabe :wink:
AMD hat derweil das B3-Stepping des K10 fertig, davon konnte ich mich in der texanischen Hauptstadt Austin anhand eines ganz frisch eingetroffenen 2,2-GHz-Phenoms überzeugen. Performanceunterschiede zum B2 (ohne verlangsamenden Workaround) waren auf die Schnelle nicht auszumachen. Ob nun mit der neuen Revision der berüchtigte TLB-Bug wirklich eliminiert ist, ließ sich aber auch nicht feststellen, wie denn auch? Schließlich haben wir ihn auf dem alten B2-Stepping selbst mit bösartiger Software nicht erkennbar provozieren können. Ja, wenn man 63 000 Kerne zur Verfügung hätte, um sie unter Volllast wochenlang mit Stresssoftware zu strapazieren, dann ließe sich vielleicht mal die eine oder andere Fehlersituation herstellen, aber wer kann das schon? Doch, einer kanns: der Superrechner Ranger an der Universi-tät Texas. Wie „Oberaufseher“ Tommy Minyard vom Texas Advanced Computing Center (TACC) verriet, traten bei ihm tatsächlich im Testbetrieb einige Datenkorruptionen auf, doch seit man den in Dresden entwickelten Kernel-Patch eingespielt hat, läuft auf den 2-GHz-Barcelona-Prozessoren alles völlig rund, ohne spürbare Performanceeinbußen. Da ist AMD dank guter Softwareleute noch mal mit einem blauen Auge davongekommen und muss nicht die 15 744 Prozessoren tauschen. Und der Welt schnellster ziviler Rechner – mit 320 TFlop/s Linpack-Leistung – kann nun am 4. Februar den Vollbetrieb aufnehmen. Am 22. Februar gibt es dann die große Einweihung mit Hector Ruiz, Andy v. Bechtolsheim und anderen Prominenten.


http://www.heise.de/ct/08/04/020/

Auch zum von VIAs texanischer Prozessorschmiede Centaur entwickelten Prozessor Jesaja (Isaiah, auch CN genannt) liest man förmlich Achtung und Bewunderung zwischen den Zeilen - einfach klasse der Mann!

Exxtreme
2008-02-05, 16:52:20
Was haben die bei At*lco für Lieferzeiten? Ich warte schon seit 1,5 Wochen auf meinen Phenom-Rechner. :D Und keine Nachricht, daß was kommt oder sich was verzögert. :mad:

StefanV
2008-02-05, 16:58:31
Ruf mal an!

Normalerweise sind sie recht schnell, solangs vorrätig ist und nicht zusammengebaut wird...

Avalox
2008-02-05, 21:11:43
Was haben die bei At*lco für Lieferzeiten? Ich warte schon seit 1,5 Wochen auf meinen Phenom-Rechner. :D Und keine Nachricht, daß was kommt oder sich was verzögert. :mad:


Hatte mir am Wochenende meinen Phenom Rechner zusammen gebastelt. Habe notgedrungen das ASUS M3A Board nehmen müssen. Andere AM2+ Boards wurden von Woche zu Woche verschoben. Kann schon ein Grund für Verspätungen sein.

Ist aber auch mit dem Asus Board sehr nett.

Nach dem letzten c't Festplatten Test, musste ich mir gleich noch die TB Spinpoint dazu holen. Auch nett, schaufelt ja tatsächlich bis zu 120MBytes/s und darüber. Ja. Hat sich schon wirklich was getan.

Gast
2008-02-10, 16:23:45
http://www.gamestar.de/news/pc/hardware/cpus/amd/1477583/amd.html

Botcruscher
2008-02-10, 16:29:54
Unlogisch. Wäre der dritte Kern instabil hätte der Prozessor garnicht das Speedrating beim Test geschaft und wäre somit gleich ausgesondert wurden. Die Tri-cores kommen logischerweise um noch teildefekte verkaufen zu können.

Exxtreme
2008-02-10, 20:35:36
http://www.gamestar.de/news/pc/hardware/cpus/amd/1477583/amd.html
Mal wieder FUD hoch 3. Die Pseudo-Experten wissen anscheinend schon woran das liegt. :D

laser114
2008-02-11, 17:42:30
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1202746116

Hmm, ein Komplett-PC mit Phenom-Prozessor der in größeren Mengen vertrieben werden soll. Bin ich bisher außerhalb von Internet-Shops nicht drüber gestoßen.

Heimatloser
2008-02-11, 18:58:44
Mhh - welcher ist denn der dritte defekte Kern ?

Hinten links der ?!?

DerHeimatlose
:|

Exxtreme
2008-02-27, 08:41:34
Hier gibt es ein aktualisiertes offizielles Dokument über Fehler in den Phenom-CPUs:
http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/41322.pdf

Gast
2008-03-01, 09:03:30
AMD liefert B3-Stepping des K10 aus

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1204291777

Gast
2008-03-04, 18:30:25
AMD liefert erste 45 nm Shanghai und Deneb Chips aus (Update)

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1204648113

maximus_hertus
2008-03-12, 15:03:52
B3 soll wohl am 26.3. kommen.....

http://www.tomshardware.com/de/Phenom-B3-Stepping-AMD,testberichte-239972.html

Tommski
2008-03-12, 16:15:38
B3 soll wohl am 26.3. kommen.....

http://www.tomshardware.com/de/Phenom-B3-Stepping-AMD,testberichte-239972.html

Der Link is Tot bzw. Tom's hat es vom Server Genomen..... Fehler: 404

mfg

laser114
2008-03-12, 16:21:19
Der Link is Tot bzw. Tom's hat es vom Server Genomen..... Fehler: 404

Hmm, stand wohl doch etwas zuviel drin. :D

maximus_hertus
2008-03-12, 17:39:54
Im Prinzip stand da nur, dass das Sample mit 2,4 GHz taktet, (deutlich) weniger als 10% schneller ist (als ein 9600er B2 Phenom) und die Verlustleistung leicht gestiegen ist.



http://www.planet3dnow.de/vbulletin/showthread.php?t=331768

Hier kann man einige Bilder aus dem Preview sehen

up¦²
2008-03-13, 00:26:41
Leute, geht Ostereier suchen! :biggrin:
http://www.dailytech.com/AMD+Finally+Ships+B3+Opterons/article11056.htm
Ab 0807...... ist B3!!!

BlackBirdSR
2008-03-13, 06:18:59
kleiner Einblick in B3
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3260

Tarkin
2008-03-14, 14:30:54
B3 stepping erstmals gelistet?!.

AMD PHENOM 9750

http://www.buy.com/prod/amd-phenom-9750-125w-am2-4mb-2400/q/loc/101/207540819.html

AMD PHENOM 9850 mit 2.5Ghz .. auch eine Premiere :)

http://www.buy.com/prod/amd-phenom-9850-black-edition-125w-am2-4mb-2500/q/loc/101/207540820.html

Sorkalm
2008-03-14, 16:13:37
Aha, die nächste Version mit freiem Multi wird wohl die 9850 Black Edition.

Denniss
2008-03-15, 02:18:41
Aha, die nächste Version mit freiem Multi wird wohl die 9850 Black Edition.

Leider ebenso wie der 9750 mit 125W TDP

darkcrawler
2008-03-17, 10:07:03
amd mach hinne, ich hab das intel-gedöhns echt satt

von wegen alte "bauern"regel intel=stabil + problemlos

soviel zickereien, wie ich mit diversen intel-brettern (teilerprobleme, reboots, nicht zu vergessen, das ewige chipsatz-hickhack, fsb-walls, auch asus möchte ich mal wieder hervorheben) hatte, dagegen sind amds-boards die reinsten lämmchen :mad:

Gast
2008-03-17, 10:10:26
AMD is planning to launch B3 stepping quad-core Phenom 9050 series CPUs including 9850, 9750, 9650, 9550 and 9150 within the next 1-2 weeks, however the top-end 9850 will only reach a core frequency of 2.5GHz, instead of the original goal of 2.6Ghz. The company expects to be able to deliver higher core frequencies in the third quarter this year, according to sources at motherboard makers.

AMD will later launch triple-core Phenom 8750, 8650 and 8450 CPUs with power consumption of 65W in late April. Prior to that, the company will launch the Athlon 64 X2 5800+ to fill the gap in the mainstream market, noted the sources.

For the dual-core CPU market, AMD will launch the Athlon 64 X2 5600+ Black Edition and 4600+ by the end of March and will follow with Phenom-based Athlon 6250 and 6050 CPUs by the end of the second quarter. The company has also informed customers that final orders for Athlon 64 X2 6400+, 6000+ and 5600+ (89W versions) will be taken at the end of March, the sources added.

http://www.digitimes.com/mobos/a20080317PD209.html

Adam D.
2008-03-17, 10:55:08
Schön, dass das neue Stepping jetzt so rasch eingeführt wird. Schade, dass man trotzdem mit maximal 2,5GHz alles andere als konkurrenzfähig ist. Die Triple-Cores sind wohl auch nur als nette Idee einzustufen.

d2kx
2008-03-17, 11:25:07
Schön, dass das neue Stepping jetzt so rasch eingeführt wird. Schade, dass man trotzdem mit maximal 2,5GHz alles andere als konkurrenzfähig ist. Die Triple-Cores sind wohl auch nur als nette Idee einzustufen.

Blah!

Braucht ein normaler Office/Surf/Musik/Value-Games-Nutzer, der sich einen neuen PC kauft, wirklich die (minimal bessere Leistung bei Taktgleichheit, wenn überhaupt) des Intel Core 2 Quad?

Frage 2: Braucht ein Hardcore-Gamer, der Crysis mit AA und AF spielt, eine so schnelle CPU, obwohl sein CrossFire-System schon nicht mehr hinterher kommt?

Wieviel kosten der Phenom X3/X4 und der Intel Core 2 Quad?

Ich werde im April zum Phenom X4 mit B3-Stepping greifen.

san.salvador
2008-03-17, 11:30:24
Frage 2: Braucht ein Hardcore-Gamer, der Crysis mit AA und AF spielt, eine so schnelle CPU, obwohl sein CrossFire-System schon nicht mehr hinterher kommt?

Es gibt nicht nur Crysis. :rolleyes:
In Spielen wie Anno 1701, World in Conflict und Supreme Commander liefert AMD eine geradezu lächerliche Leistung.

Gast
2008-03-17, 12:34:34
und in allem was auf der ue3 basiert eine überragende.

Adam D.
2008-03-17, 12:48:34
Blah!

Braucht ein normaler Office/Surf/Musik/Value-Games-Nutzer, der sich einen neuen PC kauft, wirklich die (minimal bessere Leistung bei Taktgleichheit, wenn überhaupt) des Intel Core 2 Quad?
Wer zur Hölle braucht mehr als 2 Kerne, wenn er surft? :| Als ob ein 4-Kerner auf diese Zielgruppe zielt :rolleyes:

Frage 2: Braucht ein Hardcore-Gamer, der Crysis mit AA und AF spielt, eine so schnelle CPU, obwohl sein CrossFire-System schon nicht mehr hinterher kommt?
Crysis interessiert sich einen scheiß für die CPU, richtig. Also was soll dieses Beispiel?

Wieviel kosten der Phenom X3/X4 und der Intel Core 2 Quad?
Der Preisunterschied ist da, dafür fehlt ebenso die Geschwindigkeit. Könnte man immerhin einen hochgetakteten Prozessor zeigen, dann wär es vielleicht ein Kopf-an-Kopf-Duell. Aber die AMD-Prozessoren brauchen mehr Strom und sehen gegen die neue Intel-Prozessoren in keiner Hinsicht irgendein Land.

Ich werde im April zum Phenom X4 mit B3-Stepping greifen.
Tu das.

HOT
2008-03-17, 13:32:58
Sicher, beim Preis. Preis-Leistungsmässig stehen die AMDs wie immer gut da. Zudem ist da noch einiges an Leistungspotenzial, das bisher noch nicht freigesetzt wurde.
Mich ärgert bisher nur, dass es keinen richtigen, ernstzunehmenden Test zu der CPU gibt, der mal mehr als 3 Standard-Benchmarks pro Kategorie bietet. Es sind doch fast immer nur Anno, Crysis, WoC - dazu noch einige ältere Encoder oder SSE4-Werbeencoder und ICC-Cinebench (Intelbench :D) - ganz toll. Dann gibts auchnoch tolle Tests mit aktivem TLB-Fix, die kein Mensch braucht oder uralt-BIOSsen.
Dann gibts einige, die den Schwerpunkt auf Spiele legen, die kaum CPU Lastig sind und kaum von MT profitieren (WoC, Crysis...). Mich würd mal z.B. die Java Performance, Datenbankperformance, tiefgehende Spieletests (auch mal mit Framelimiter oder Frameverläufen) und auch mal mit ein paar XBox Games interessieren. z.B. wie AC mit dem Phenom performt. Dank der XBox gibts ja mittlerweile einen ganzen Stapel Games, die durchaus stärker von dem 3. Kern profitieren werden und das wird in Zukunft wohl eher die Regel sein. Ich hoffe, wir werden beim B3 endlich mal ein paar Reviews sehen, die den Namen auch verdienen.
Die einzige, aussagekräftige Review, die ich bisher gesehen habe, war lostcircuits, da man auch mal auf die Hintergründe dort einging, aber auch da waren Benches eher standard und spärlich.

Was total fehlt sind Reviews von Leuten mit echter CPU-Kompetenz, die auch mal analysieren können, was in den CPUs vorgeht bei welcher Anwendung. Aceshardware macht leider Gottes nix mehr, bei x86-secret läuft auch schon seit Jahren nichts mehr...
Aber so ist das leider nunmal. Die Leute glotzen auf die Benchmarks, hinterfragen nichts und sind mit dem Schrott zufrieden, den Hardwareseiten als "Review" verkaufen...

darkcrawler
2008-03-17, 17:26:26
Aber die AMD-Prozessoren brauchen mehr Strom und sehen gegen die neue Intel-Prozessoren in keiner Hinsicht irgendein Land.


Tu das.

clock 2 clock wäre ich mit der aussage vorsichtig

schau dir mal an, was in mittleren/hohen auflösungen davon übrig bleibt, für den 08/15 user ist das nahezu irrelevant

Adam D.
2008-03-17, 18:53:52
clock 2 clock wäre ich mit der aussage vorsichtig

schau dir mal an, was in mittleren/hohen auflösungen davon übrig bleibt, für den 08/15 user ist das nahezu irrelevant
Die Frage ist, ob das eine Rolle spielt bei der Bewertung einer CPU. Wenn es mir um die Effizienz eines Prozessors geht, interessiert es mich nicht wirklich, was bei 1680x1050 mit 4xAA rauskommt. Klar, dass da die GPU in den meisten Fällen limitiert.

Eventuell bietet das neue Stepping ja gewisse Steigerungen, das weiß ich nicht. Auch das Preis-Leistungs-Verhältnis stimmt, keine Frage. Da kann AMD immer punkten. Trotzdem führt an einem neuen 45nm-Intel nichts vorbei, wenn man einen leistungsstarken 4-Kerner sucht.

Gast
2008-03-26, 14:57:38
Heute ist Phenom B3 Launch Tag. Geizhals hat schon einige gelistet:
http://geizhals.at/eu/?fs=Phenom&x=53&y=13&in=

reunion

Gast
2008-03-26, 15:39:22
Also 9850 für 178€........wenn das wirklich so währe dann gäbe es keinen Grund auf Intels 9450 zu warten. Dumm nur das der 9850 über 300€ kosten wird.

Gast
2008-03-26, 15:42:39
http://my.ocworkbench.com/bbs/showthread.php?p=428941#post428941

Phenom 9600 (B2 Stepping) mit Luftkühlung gehen jetzt schon auf 3,25 GHz, die B3er sollen ja noch besser gehen.

- d2kx

Das Auge
2008-03-26, 15:56:38
Heute ist Phenom B3 Launch Tag. Geizhals hat schon einige gelistet:
http://geizhals.at/eu/?fs=Phenom&x=53&y=13&in=

reunion

Sehr schön, dann wirds ja hoffentlich nicht mehr allzu lange dauern, bis die Dinger kaufbar werden.

Was ist eigentlich mit einem BE-Phenom in B3? Auf HT-Overclocking möchte ich mich mit meinem AM2 nonplus Board nicht verlassen...

Gast
2008-03-26, 16:22:07
Der 9850 ist als Black Edition verfügbar. Vielleicht sind es sogar alle 9850, keine Ahnung.

maximus_hertus
2008-03-26, 16:46:20
Der 9850 ist als Black Edition verfügbar. Vielleicht sind es sogar alle 9850, keine Ahnung.

Meinst du damit, dass sie lieferbar sind? Wenn ja, wo?

Avalox
2008-03-26, 20:42:10
http://my.ocworkbench.com/bbs/showthread.php?p=428941#post428941

Phenom 9600 (B2 Stepping) mit Luftkühlung gehen jetzt schon auf 3,25 GHz, die B3er sollen ja noch besser gehen.

- d2kx


Jepp. Habe mich auch gefreut es zu lesen.

Der Produktionsprozess scheint gute Ergebnisse zu liefern. AMD scheint sich von der ATI Fusion zu erholen. Könnte noch richtig klasse werden.

Planet3DNow hat es auch geschrieben. Produktionsverbesserungen in der Fertigung als Ursache des deutlich höheren möglichen Taktes.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1206548713

Gast
2008-03-27, 08:31:50
Xbitlabs hat einen Test des Phenom 9850 Black Edition:
http://www.xbitlabs.com/articles/cpu/display/phenom-x4-9850.html

AnarchX
2008-03-27, 08:54:47
Naja, wie erwartet, die "lockeren" 3.2GHz @ OCW wohl doch nur FUD...

Da scheint sich der Q9100 wohl als passender Gegner zum 9850 herauszustellen, wobei ersterer wohl deutlich bei Verbrauch und OC-Potential punkten kann.

Techreport hat auch einen Test:
http://techreport.com/articles.x/14424/1

Aber natürlich ein kleiner Schritt vorwärts für AMD.

Gast
2008-03-27, 09:58:50
Naja, wie erwartet, die "lockeren" 3.2GHz @ OCW wohl doch nur FUD...

Da scheint sich der Q9100 wohl als passender Gegner zum 9850 herauszustellen, wobei ersterer wohl deutlich bei Verbrauch und OC-Potential punkten kann.

Techreport hat auch einen Test:
http://techreport.com/articles.x/14424/1

Aber natürlich ein kleiner Schritt vorwärts für AMD.


Hmm....die sind aber zu blöd zum testen, auf jeden Fall sind die Verbrauchsangaben absolut für die Tonne. Ein Athlon 64X 6000 kann unter Last unmöglich 126 Watt MEHR verbrauchen als ein E8500!!!!!Mann muss schon wirklich glück haben um überhaupt 110 Watt bei einem X2 6000 zu erreichen. Ein E8500 braucht so etwa 40Watt unter Last!!!!!! Also würde der A64 dort knapp 170Watt verbraten.......

Der Test ist für jeden zum Lesen gedacht und dann stehen da solche angaben drin, wahrscheinlich ist das NT absolut ineffizient beim AMD System.....


Das AMD mit dem P9850 nicht großartig aufholt ist eigentlich normalm, weil die paar mHz können kaum was bringen, aber der Listenpreis von 220 - 240$ ist schon sehr verlockend.

Gast
2008-03-27, 10:14:41
Hmm....die sind aber zu blöd zum testen, auf jeden Fall sind die Verbrauchsangaben absolut für die Tonne. Ein Athlon 64X 6000 kann unter Last unmöglich 126 Watt MEHR verbrauchen als ein E8500!!!!!Mann muss schon wirklich glück haben um überhaupt 110 Watt bei einem X2 6000 zu erreichen. Ein E8500 braucht so etwa 40Watt unter Last!!!!!! Also würde der A64 dort knapp 170Watt verbraten.......



Es ist hier der Gesamtverbrauch des Systems angegeben, und AMD Systeme sind nun einmal wahre Stromfresser.

Gast
2008-03-27, 10:18:40
AnandTech: http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3272

Gast
2008-03-27, 10:21:55
Es ist hier der Gesamtverbrauch des Systems angegeben, und AMD Systeme sind nun einmal wahre Stromfresser.

Hmm...warum hänge ich dann weit unter den Angaben??????Es ist ja nicht so das alle in meinem Freundeskreis AMD haben, gibt noch E6600 und Q6600.

schmacko
2008-03-27, 10:36:37
Naja, wie erwartet, die "lockeren" 3.2GHz @ OCW wohl doch nur FUD...
was kann man von OCW schon erwarten? wer weiß, wie viele phenome die verbraucht haben für den einen screenshot...

danke aber für die links.

wenn der 9850 auch nur ca 170€ kostet, dann könnte er doch locken... obwohl oc-ergebnisse bei 2,7-2,9ghz wahrlich ernüchternd sind. schließlich wird der phenom schon geraume zeit produziert. :(

d2kx
2008-03-27, 10:39:58
Naja im Forumdeluxx gibt es auch schon mehrere User die mit ihren B2 auf 3,0 GHz stabil kommen, einer sogar auf 3,2 GHz.

schmacko
2008-03-27, 10:42:58
Es ist hier der Gesamtverbrauch des Systems angegeben, und AMD Systeme sind nun einmal wahre Stromfresser.
vielleicht sollte man auch nicht unbedingt einen nvidia-sli-untersatz nehmen, wenn man vernünftig den stromverbrauch testen will. dass nämlich ein x2-6000 unter last ca 325w nehmen soll, ein x4-9600 250w scheint mir mehr gegen nvidia zu sprechen als gegen den x2.

schmacko
2008-03-27, 10:48:17
Naja im Forumdeluxx gibt es auch schon mehrere User die mit ihren B2 auf 3,0 GHz stabil kommen, einer sogar auf 3,2 GHz.
welcher c2q-nutzer wäre stolz, seinen q6600 unter massiven overvolten auf 3ghz zu treiben?
man darf nie die relationen vergessen. ein phenom ist pro takt langsamer als ein c2q.

mein erster phenom 9500 lief @stock nicht mal stabil! mein jetziger, den ich im tausch erhalten habe, läuft mit leichtem overvolten statt mit 2200mhz mit ca 2500mhz. das darf man einem intelianer kaum erzählen.
ich habe aber ein beschränktes budget gehabt und habe mir statt des x2 einen billigen x4 gegönnt - insofern gibts von mir keine schelte oder bitterkeit. aber seltene exemplare, die auf 3ghz gehen... *hust*

Gast
2008-03-27, 11:30:26
eine so hohe vcore brauchten die gar nicht... so um die 1.35 Volt haben die im Forumdeluxx. Und das die Phenom auf 3Ghz + so viel langsamer sind, als gleichgetaktet Core2Quads glaube ich auch nicht. Hast du dir mal Benchmarks von diesen angeschaut?

[fu]121Ah
2008-03-27, 11:57:24
die xbitlabs tests zeigen toll wie er mit dem memory controller und HT Link skaliert, wenn man die NB übertaktet... Also ein Phenom @ 3 GHz mit 2,4GHz NB würde schon verdammt abgehen...

AnarchX
2008-03-27, 12:03:01
121Ah;6385966']die xbitlabs tests zeigen toll wie er mit dem memory controller und HT Link skaliert, wenn man die NB übertaktet... Also ein Phenom @ 3 GHz mit 2,4GHz NB würde schon verdammt abgehen...

http://www.xbitlabs.com/images/cpu/phenom-x4-9850/express-test.png

:|

Gast
2008-03-27, 12:08:47
durchschnittlich immerhin nen Prozent mehr taktleistung, nicht soviel, aber besser als nix.
Hmm, anandtech und techreport hams ma wieder nicht geschafft den phenom mit ddr1066 zu testen, da verliert er daher auch noch bissl

BlackBirdSR
2008-03-27, 12:16:00
121Ah;6385966']die xbitlabs tests zeigen toll wie er mit dem memory controller und HT Link skaliert, wenn man die NB übertaktet... Also ein Phenom @ 3 GHz mit 2,4GHz NB würde schon verdammt abgehen...

die 200MHz mehr NB-Takt bringen ca. 1% bei Spielen steht in diesem Test.
Skalierung mit dem HT-Link halte ich dagegen für ein Märchen. Die Bandbreite zum Chipsatz ist keine Limitierung in Spielen.

Gast
2008-03-27, 12:20:38
die 200MHz mehr NB-Takt bringen ca. 1% bei Spielen steht in diesem Test.


Bei 11% mehr Takt und einer Mehrleistung von 1% kann man wohl nicht von guter Skalierung sprechen.

Gast
2008-03-27, 12:43:59
Es ist hier der Gesamtverbrauch des Systems angegeben, und AMD Systeme sind nun einmal wahre Stromfresser.Das ist abhängig vom gewählten AMD-Prozessor. EE-X2s sind beispielsweise recht sparsam.

Gast
2008-03-27, 13:29:47
außerdem ist ein phenom nur dann langsamer wenn es nur auf rechenleistung ankommt, sind alle 4 kerne komplett ausgelastet und besteht gleichzeitig ein bedarf an viel speicherbandbreite zieht der amd dem intel einfach davon, der mickrige fsb ist eine schöne bremse. selbst mit 400mhz fsb beim intel kann man gerade ddr2-800 rams auslasten

Avalox/Gast
2008-03-27, 14:20:46
Bei 11% mehr Takt und einer Mehrleistung von 1% kann man wohl nicht von guter Skalierung sprechen.

? Was soll den da skalieren?


Wenn es vorher schon keinen Engpass gab, bringt es natürlich nicht so sehr viel dort noch breiter zu bauen. Es ist ja nicht die CPU, welche dort übertaktet wurde, es ist die Schnittstelle zum Speicher und dem I/O.
Eine höherer Takt der CPU könnte dort die Ausnutzung der Bandbreite vielleicht anheben. Auch wäre schneller Speicher dort sicherlich nötig. Skalieren wird die Anbindung des exzellent. Der AMD CPU Unterbau ist eindeutig höherwertige und eleganter als alles was es momentan von Intel gibt, wirkliche Engpässe gibt es in der Anbindung nicht. Deshalb kann man mit solchen Tests nur feststellen, dass alles super läuft und dort kein Engpass besteht und keinesfalls schliessen, dass die Speicher- und I/O Anbindung nicht mit dem Takt skaliert.

Sorkalm
2008-03-27, 15:48:56
PCGH schafft in ihrem Test 3 GHz auf Standardspannung, dann geht aber gar nichts mehr - auch nicht unter starken Spannungserhöhungen...

Zufälligerweise genau der Takt, an dem ein Sprung beim NB-Takt stattfinden sollte. Scheint die Schwachstelle zu sein.

Gast
2008-03-27, 16:50:13
Bei nem ordentlichen board kannste den aber einstellen, siehe zb beim xbitlabs test, dass das das board von pcgh nicht kann oder keiner da dran gedacht hat ist ne andere sache

Gast
2008-03-27, 16:59:08
Ich hoff sowieso, dass die Tester CnQ ausgeschalten haben, das macht nämlich auf AM2(+)-Boards ziemlich Probleme beim übertakten.

[fu]121Ah
2008-03-27, 17:55:44
Bei 11% mehr Takt und einer Mehrleistung von 1% kann man wohl nicht von guter Skalierung sprechen.

naja, die speichertests würde ich da eher beachten als die spiele, wäre für mich persönlich wichtiger... aber eben...

Sorkalm
2008-03-27, 17:57:28
Interessant auch die Tests wo mehr Modelle im Spiel waren. Die höhere Northbridge ist doch gut feststellbar ... ist davon nicht auch der Takt des L3-Caches abhängig?

up¦²
2008-03-28, 13:44:52
Die 50er sind gelistet:
http://geizhals.at/eu/?cat=cpuamdam2p

Pirx
2008-03-28, 14:50:57
Ob die "alten" noch richtig billig werden?

reunion
2008-03-28, 20:50:40
Computerbase mit großem Test:
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_elf_prozessoren_athlon_phenom/

san.salvador
2008-03-28, 21:37:16
Computerbase mit großem Test:
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_elf_prozessoren_athlon_phenom/
Danke! :)

Aber was hat die geritten, Wolfdale nicht mitzubenchen? :|

Gast
2008-03-28, 21:49:00
Computerbase mit großem Test:
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_elf_prozessoren_athlon_phenom/


Oha, scheint ja wohl doch nicht so wild zu sein mit der höheren Leistungsaufnahme.
Auch sonst ein deutlich besseres Bild als hier meist suggeriert wird.

Sorkalm
2008-03-28, 22:14:11
Oha, scheint ja wohl doch nicht so wild zu sein mit der höheren Leistungsaufnahme.

Das ist nur B2 mit Simulation der B3s.

Zur Leistungsaufnahme gibts aber von PCGH Entwarnung, die vom Gegenteil berichten können:
http://www.pcgameshardware.de/aid,637803/News/Phenom_B3_14_Prozent_sparsamer_als_B2-Stepping/

Johnny Rico
2008-03-28, 22:15:50
Wie siehts mit Grafikbenches aus? (16x10 + AA) Wie ist da die Differenz zwischen Intel AMD?

Ich wollte mir eigentlich einen X4 Phenom bis 300€ zulegen, auch um AMD die Hand zu halten, aber wenn nen 3Ghz Intel weniger Strom verbraucht und schneller ist, als ein 2,7Ghz X4 =/

Mir geht es primär ums Spielen! Für den Rest reicht der Dienstlaptop...

Sorkalm
2008-03-28, 22:28:37
Ich wollte mir eigentlich einen X4 Phenom bis 300€ zulegen, auch um AMD die Hand zu halten, aber wenn nen 3Ghz Intel weniger Strom verbraucht und schneller ist, als ein 2,7Ghz X4 =/

@Stock ist bei CB nen X4 9850 4% langsamer als ein Q6600. Kann aber sein, dass das Rating etwas durch Graka-Limits verursacht wird (scheint aber ein geringer Anteil zu sein).

Die Leistungsaufnahme bei CB kann man nicht vergleichen, da die sowohl das B2-Stepping verwenden als auch die VCore nicht angepasst haben. ;)

Gast
2008-04-02, 15:19:02
der neue phenom schlägt sich doch wunderbar, oft etwas schneller als ein 100mhz höhergetakteter intel.

Gast
2008-04-02, 15:25:17
Welcher neue Phenom? Es gibt keinen neuen Phenom, sondern nur den alten ohne TLB Bug. Und dessen Leistung ist schwach wie eh und je.

Gast
2008-04-02, 15:42:18
schwach ist übertrieben... die paar prozentchen liegt er nur schon durch die fehlende Optimierung zurück. Ich denke wenn sich die Ausbeute und Taktfrequenz steigern lässt, alle Treiber (Mobo!!!) ausgereift sind und die CPU's sich als Stabil erweisen, werde ich auch zu einem Phenom greifen.

Gast
2008-04-02, 15:55:57
wo is seine leistung denn bitte schwach? bei spielen ok, aber sonst?

d2kx
2008-04-02, 17:25:28
So dann hätte ich jetzt mal gerne eine Liste mit Spielen, bei der der normale 3DCenter-Gamer (1280x1024, 4x AA, 16x AF) mit dem Phenom groartig Nachteile zum Intel hat (130 vs 140 FPS sind für mich kein Nachteil).

Gast
2008-04-02, 17:49:56
So dann hätte ich jetzt mal gerne eine Liste mit Spielen, bei der der normale 3DCenter-Gamer (1280x1024, 4x AA, 16x AF) mit dem Phenom groartig Nachteile zum Intel hat (130 vs 140 FPS sind für mich kein Nachteil).



9850 - 200€ bei alternate(185€ MIX Computer)
Q9450 - Nicht Lieferbar
Q6600(G0) - 174€ bei Mindfactory


Verbrauch und Leistung sind von Q6600 und X4 9850 etwa gleich, bzw ohne fps Anzeige nicht zu unterscheiden. Jetzt muss man nur schauen wann der Q6600 auf den Markt kahm und schon weiß man wie weit AMD zurück liegt bei der Fertigung....... :(

Gast
2008-04-02, 18:05:30
und? mein gott bei dem giringen budget von amd ist es schon erstaunlich das sie mithalten können bzw. in vielen punkten absolut überlegen sind. mit nem 333er fsb bei intel kann man gerade einmal ddr2-667 ram ausnutzen.

sowohl cpus als auch boards sind günstiger, die boards verbrauchen weniger strom, die integrierte grafik beim 780g chipsatz is intels lösungen massiv überlegen. bei mehr als einem prozessor kann man intel sowieso vergessen, da fragt man sich wo die ganzen forschungsgelder hingehen.

Gast
2008-04-02, 18:11:57
und? mein gott bei dem giringen budget von amd ist es schon erstaunlich das sie mithalten können bzw. in vielen punkten absolut überlegen sind. mit nem 333er fsb bei intel kann man gerade einmal ddr2-667 ram ausnutzen.

sowohl cpus als auch boards sind günstiger, die boards verbrauchen weniger strom, die integrierte grafik beim 780g chipsatz is intels lösungen massiv überlegen. bei mehr als einem prozessor kann man intel sowieso vergessen, da fragt man sich wo die ganzen forschungsgelder hingehen.


Zuerst schreibst du:......mein gott bei dem giringen budget von amd ......

und dann: ....da fragt man sich wo die ganzen forschungsgelder hingehen.....


Ich denke mal jetzt weißt du wo das Geld hin geht.

Gast
2008-04-02, 20:06:55
das zweite zitat war auf intel bezogen

saddevil
2008-04-02, 20:52:47
AMD schlägt sich doch gut ....

sicherlich sind die ein paar % langsamer ....
aber dennoch ausreichend schnell

von lahm wie eh und je kann NIE die rede sein ...
als intel nur den P4 zu bieten hatte .. war AMD auch net lahm ...
aber sowas zählt hat nicht
das AMD deutlich weniger budget hat ... zählt ja nicht

ich find das immer saulustig ...
ist intel mal schlechter dran ( P4 zeiten ) heißt es das fehler schonmal passieren können
ist AMD mal schlehcter dran ... heißt es : AMD kann nix .. die sind zu doof


naja ... ich finds gut das AMD weitermacht und ich hoffe das bleibt so
war in den letzten jahren immer zufrieden mit AMD ...


wenn der 4kern phenom mal günstiger werden sollte ... hol ich mir auch einen
ein passendes brett hab ich ja schon

BlackBirdSR
2008-04-02, 22:17:49
AMD schlägt sich doch gut ....



ach heile Welt...

Das Problem ist doch nicht, dass AMD doof ist.
Das Problem liegt tatsächlich in den Finanzen. AMD geht es momentan sehr schlecht, da ist egal wie gut das Preis/Leistungsverhältnis der HD3xxx Serie oder der Phenoms sein mag.

Ultimativ bedeutet die aktuelle Situation nur, dass AMD wichtige Leute verliert (vor die Tür setzt), Forschungsgelder streichen muss und im Technologierennen Kompromisse eingehen muss.

Somit verschlechtert sich für AMD jeden Tag die Ausgangsposition um wieder in eine weniger sorgenreiche Phase zu starten.

Gast
2008-04-02, 22:27:50
Gibts eigentlich nen bench von Phenom auf einem AM2 Board?????

saddevil
2008-04-02, 22:35:57
ach heile Welt...

Das Problem ist doch nicht, dass AMD doof ist.
Das Problem liegt tatsächlich in den Finanzen. AMD geht es momentan sehr schlecht, da ist egal wie gut das Preis/Leistungsverhältnis der HD3xxx Serie oder der Phenoms sein mag.

Ultimativ bedeutet die aktuelle Situation nur, dass AMD wichtige Leute verliert (vor die Tür setzt), Forschungsgelder streichen muss und im Technologierennen Kompromisse eingehen muss.

Somit verschlechtert sich für AMD jeden Tag die Ausgangsposition um wieder in eine weniger sorgenreiche Phase zu starten.



es hilft doch nix ....
die "intelleute" ( teils nur "gäste" ) finden das sogar noch toll ...
in der hoffnung das intel dann ja endlich ihre wahren CPUs rausholt
( also 8-16kerne und solche spielerein )

mal ehrlich .. wer sowas glaubt !!!!! versteht von marktwirtschafft NULL!!!


aber ich kann immerwieder nur hoffen das AMD durchhält
und sich doch alles zum guten wendet
damit wir weiterhin spass an günstiger leistungsfähiger hardware haben

ASrock_User
2008-04-02, 22:48:32
Gibts eigentlich nen bench von Phenom auf einem AM2 Board?????

Kannst ja mal hier (http://www.pctreiber.net/datenbank_artikel_71_lesen.html) sehen. Einen wirklichen Performanceunterschied zwischen nem Phenom auf AM2 oder AM2+ gibt es kaum... zumindestens solange bei beiden Platinen DDR2 800 zum Einsatz kommt.

up¦²
2008-04-03, 02:27:39
B2 bleibt stehn, B3 darf gehn!
http://geizhals.at/eu/?cat=cpuamdam2p

Gast
2008-04-04, 03:47:38
Nicht unbedingt aussagekräftig, aaaber ein erster Schritt in die richtige Richtung ;)

AMD BE 9850 auf 3,2 GHZ stable, und hochgefahren mit 3,5 GHZ !!!

http://www.xtremesystems.org/forums/showthread.php?t=183025

tombman
2008-04-04, 06:56:22
Gar nix war auf 3.2ghz stable- solange er ned P95 testet- und das wirst bei XS membern kaum sehen, weil dann die achsotollen ocs keine mehr sind ;)
Voltage und Stromverbrauch sind im Vgl zu Intel auch lächerlich....

Bevor die nicht auf 45nm sind wird sich da gar nix abspielen...

Gast
2008-04-04, 10:55:33
Ja, da hast du wohl recht....er meint ja immer superpi und prime würde er zur Vermeidung eines Fanboykrieges nicht veröffentlichen, aber ich kenne das Forum auch noch net solang. Was die V-core angeht....klar net Intel-like, aber wie auch ? Die 3,2 GHZ hat er laut CPU-Z mit 1,3 V hinbekommen....aber ich meine auch erwähnt zu haben ....."nicht unbedingt aussagekräftig" ;)

Heelix01
2008-04-05, 17:36:55
Da ich es hier noch nicht gelesen habe:

Mehr Leistung durch Overdrive auch ohne OC bei X4 9x50 phenom ?

http://www.computerbase.de/news/hardware/prozessoren/amd/2008/april/amd_phenom_zwang_overdrive/

Schon interessant, aber warum, wieso ? :X

anddill
2008-04-05, 20:03:41
Da ich es hier noch nicht gelesen habe:

Mehr Leistung durch Overdrive auch ohne OC bei X4 9x50 phenom ?

http://www.computerbase.de/news/hardware/prozessoren/amd/2008/april/amd_phenom_zwang_overdrive/

Schon interessant, aber warum, wieso ? :X

Vielleicht AMDs Versuch, das wieder geradezubiegen, was die BIOS-Programmierer vermurkst haben?
Hoffentlich gibt es bald neue BIOS-Versionen, die auch ohne das Overdrive-Tool die CPUs und den RAM mit richtig ausreizen.

d2kx
2008-04-05, 20:10:33
Vielleicht AMDs Versuch, das wieder geradezubiegen, was die BIOS-Programmierer vermurkst haben?
Hoffentlich gibt es bald neue BIOS-Versionen, die auch ohne das Overdrive-Tool die CPUs und den RAM mit richtig ausreizen.

Z.B. die 2. Generation AM2+ Boards... die jetzigen 790FX/SB600 Teile sind einfach schon 5 Monate alt...

_DrillSarge]I[
2008-04-06, 14:57:15
ich bin gerade echt inder versuchung mir einen x4 9850 zu kaufen, die dinger kosten ja nur noch um die 185€ und sofort lieferbar...hmmm.

wann kommen eigentlich mal die höheren taktstufen (>2,5ghz)?

Sorkalm
2008-04-06, 15:19:54
I[;6411475']wann kommen eigentlich mal die höheren taktstufen (>2,5ghz)?

Wenn du nicht kleckerweise mehr Takt meinst (100 MHz in einem Quartal), dann wohl erst in Revision C (45 nm).

darkcrawler
2008-04-13, 02:16:55
Der TLB Bug ist genausowenig merkbar, wie das FSB Problem beim QX9650 ;).

und kein schwein erwähnt, das der core2 ebenfalls n TLB hat(te) :cool:

DasToem
2008-04-13, 11:01:06
und kein schwein erwähnt, das der core2 ebenfalls n TLB hat(te) :cool:

So ziemlich jeder Mikroprozessor mit einer MMU hat einen TLB.

Gast
2008-04-13, 11:41:12
So ziemlich jeder Mikroprozessor mit einer MMU hat einen TLB.

er meinte wohl TLB-spezifische-Bug(s), davon hatte intel mit der Einführung des c2d ganze 21 und in den aktuellen specification updates für die e8xxx-Reihe immernoch 5 Stück die auch nicht mehr beseitigt werden(no fix planned)
ob einer dieser bugs ähnlich relevant war, wie der phenom-b2-tlb-bug kann ich nicht einschätzen, die Dokumentation ist bei intel aber wenigstens für Jedermann sofort einsehbar

darkcrawler
2008-04-14, 16:07:31
So ziemlich jeder Mikroprozessor mit einer MMU hat einen TLB.

natürlich mein ich den bug, war etwas schläfrig =)

Coda
2008-04-14, 16:17:19
Der Bug war aber bei weitem nicht so kritisch.

Solche Fehler passieren immer wieder, aber der TLB-Bug des Phenom war schon ein grober Patzer.

darkcrawler
2008-04-14, 16:23:36
kritisch ist ansichtssache, ich hab noch nirgendwo gelesen, dass jemand mitm phenom im home-sektor probleme dadurch hatte :confused:

Gast
2008-04-14, 16:43:58
Würdest du das auch für 5 Jahre Dauerbetrieb garantieren?

Sorkalm
2008-04-14, 16:57:44
kritisch ist ansichtssache, ich hab noch nirgendwo gelesen, dass jemand mitm phenom im home-sektor probleme dadurch hatte :confused:

Ja, im Home-Sektor wohl nicht. Aber AMD vertreibt auch Server-Prozessoren und da sind solche Fehler auf Grund außergewöhnlicher Konfigurationen schon eher anzufinden und auch kritischer.
Soweit ich gelesen hatte, trat das Problem vorallem in Verbindung mit AMD-V (Virtualisation) auf.

Botcruscher
2008-04-14, 16:59:15
Im Homebereich würde ich nichtmal 5 Monate garantieren. IdR sorgt der nette Blitzschlag in die Oberleitung eh das der Strom für längere Zeit nicht da ist.

Nebenbei ist das im Homebereich wirklich egal.:rolleyes:

up¦²
2008-04-16, 01:41:30
AMD 45nm processor does 3GHz in the lab :smile:
http://www.nordichardware.com/news,7640.html

Chrisch
2008-04-16, 07:52:14
finde ich nix besonderes...

Die B3 Phenoms (9850BE usw) machen auch die 3Ghz und das mit std. VCore. Hab selbst
Montag nen Phenom Sys hier gehabt und muss sagen von der Leistung ganz ok, aber
der Verbrauch ist katastrophal!

Ajo, max Takt den ich booten konnte waren 3.4Ghz (leider keine Valid gemacht :( ),
max HTT / FSB (?) den ich erreicht hatte...

http://valid.x86-secret.com/cache/screenshot/345880.png

http://valid.x86-secret.com/show_oc.php?id=345880

Auf den 780a Boards scheinen die dinger ganz gut zu laufen ;)

Gast
2008-04-16, 10:18:04
Chrisch du hast nen Board mit graka onboard, das die bissel mehr Saft brauchen völlig normal ;)

Nightspider
2008-04-16, 10:22:00
3 Ghz für 45nm sind uninteressant. 3,5 oder 4 Ghz schon eher.

Gast
2008-04-16, 10:24:32
Gar nix war auf 3.2ghz stable- solange er ned P95 testet- und das wirst bei XS membern kaum sehen, weil dann die achsotollen ocs keine mehr sind ;)
Voltage und Stromverbrauch sind im Vgl zu Intel auch lächerlich....

Bevor die nicht auf 45nm sind wird sich da gar nix abspielen...

das Board was die haben ist auch ne Katastrophe, das DFI Brett ist einfach Abfall da haut garnix hin die Spannungen sind zum Kotzen und verbugt bis zum gehtnichtmehr.
ich hatte selber das Board das war 2 h drin und sofort zurück gebracht den Schrott, jetzt ist nen ASUS M3A32MVP drin udn die Bude rennt auf 3.34 Ghz bei 1.33V Vcore (selbers Stepping wie Chrisch hat).

AnarchX
2008-04-16, 10:25:58
3 Ghz für 45nm sind uninteressant. 3,5 oder 4 Ghz schon eher.

Wenn es wirklich nur 3GHz sein sollen, die im Labor erreicht wurden, dann sollte man sich eher Sorgen machen, immerhin erreicht das B2-Stepping@65nm laut AMD schon mehr im Labor:
Quad ~3.2GHz
Dual ~3.4GHz
... was am Ende herauskam, ist ja jeden bekannt.

Chrisch
2008-04-16, 11:34:48
Chrisch du hast nen Board mit graka onboard, das die bissel mehr Saft brauchen völlig normal ;)
Wenn die Graka aber deaktiviert ist sollte es keinen Unterscheid machen.

HOT
2008-04-16, 15:57:11
Wenn es wirklich nur 3GHz sein sollen, die im Labor erreicht wurden, dann sollte man sich eher Sorgen machen, immerhin erreicht das B2-Stepping@65nm laut AMD schon mehr im Labor:
Quad ~3.2GHz
Dual ~3.4GHz
... was am Ende herauskam, ist ja jeden bekannt.
Jo das sieht man ja jetzt. Die jetzigen 65nm B3 packen die 3Ghz doch ziemlich oft. Ich glaube nicht, dass man da irgendwelche Vergleiche ziehen kann.
Übrigens liegt es auch extrem am BIOS. Mit F3 und F4 meine Gigabyte Bretts war keine 210MHz Ref-Takt drin bei meiner CPU, jetzt kann ich den problemlos auf 2,5GHz laufen lassen - mehr hab ich bisher net getestet. Wohlgemerkt die gleiche CPU!

Chrisch: Zum Thema Stromverbrauch gibts nen Artikel (dessen Werte zwar nie und nimmer stimmen, aber man kann daran gut die Unterschiede bei den AM2+ Mobos erkennen):
http://www.tomshardware.com/de/phenom-9850-7850-black-edition,testberichte-239994.html
Der Stromverbrauch des Phenom hat sein Problem weder bei der CPU noch beim Chipsatz, das Problem ist die Stromversorgung. Das wird bei den NV Brettern nicht viel anders sein. Meiner Meinung nach hat die Abwärtskompatibilität hier ihren Preis...

Chrisch
2008-04-16, 19:34:15
@ HOT

hab den vergleich schon gesehen, dennoch braucht nen Phenom Sys extrem viel!

Beide Systeme waren identisch, bis auf Board und CPU (X3350 + P5K-E vs. 9850 + M3N-HT Dlx).

Das Intel Sys ist / war übertaktet @ 3.2Ghz (alos alle Spannungen über def.) und das
Phenom Sys @ def. Takt (ohne C&Q) und dennoch war der Verbrauch idle ~70W höher
als der vom Intel Sys! Hab den Phenom dann auf 2Ghz & 0.95v VCore getaktet und
der Verbrauch hing immernoch ~45W übern Intel (obwohl das Sys übertaktet ist!).

Für mich war das schon Grund genug alles wieder raus zu werfen.

Gast
2008-04-16, 23:43:31
vom Strom mal abgesehen, wie war sonst dein Eindruck ?

Chrisch
2008-04-16, 23:47:38
Leistung usw war i.O., mich hat nur der Stromverbauch gestört.

Achja, es soll nochmal jemand über den "An-Aus-An" Bug bei Intel Boards meckern,
derjenige sollte sich nie nen 780a Board kaufen ;D (VIEL schlimmer!)

Gast
2008-04-16, 23:58:09
ähm jup das stimmt, ich seh es aber nicht als BUG an, wenn das Bios es so möchte der der PC erst aus geht dann ist es halt so.
Und da du sagst du hast nen 780a wird es überall so sein ich hab nen Sapphire 780 FX und nen ASUS M3A32 MVP dlx da ist das auch so also normal;)

Gast
2008-04-16, 23:58:36
sry 790FX mein ich......

Chrisch
2008-04-17, 00:05:08
Das mitm Ausgehen hat mich bei den Intel Boards auch nie gestört, man hat halt
immer nur die Threads gesehen von den Leuten die es aufgeregt hat oder die es für
nen "bug" hielten... Und es ist ja auch kein Bug, es ist so gewollt und muss auch so.

Nur beim 780a wars schon sehr extrem! Egal was im Bios geändert wurde, auch wenn
ich nur die Bootreihenfolge verändert habe ist der PC erst ausgegangen, dann wieder an
und es dauerte ca. 15-20sek bis erstmal nen Bild kam (bei den ersten paar malen dachte
ich schon der sei abgeschmiert :| ) :biggrin:

Gast
2008-04-17, 00:21:36
*g* das hab ich auch, ich brauch nichtmal was ändern, er geht aus wenn ich nix verstelle aber trotzdem Speichere :ugly:

HOT
2008-04-17, 15:43:33
ähm jup das stimmt, ich seh es aber nicht als BUG an, wenn das Bios es so möchte der der PC erst aus geht dann ist es halt so.
Und da du sagst du hast nen 780a wird es überall so sein ich hab nen Sapphire 780 FX und nen ASUS M3A32 MVP dlx da ist das auch so also normal;)
Nö, das Asus M3A und auch Gigabyte Bretter machen das nicht. Das ist nur beim 780a so und ich denke nicht, dass das ewig so sein wird. Das Brett ist wirklich superfrisch.
Zudem ist das mit dem Stromverbrauch echt kein Wunder ;). Das ist ein 65nm Chip. Da brauchen die 65nm Intels ja ähnlich viel. Nur sind die AM2+ Bretter teilweise furchtbar ineffizient, was den Verbrauch angeht... das ist echt ein Grund zu Kritik. Das liegt aber weniger an den Chipsätzen, sondern an der Stromversorgung. Irgendwie scheint auch die Auf- und Abwärtskompatibilität ihren Preis zu haben.

reunion@work
2008-05-13, 14:13:01
Relativ interessanter Blog auf AnandTech:
AMD's K10: a "dead" product or not?
http://www.anandtech.com/weblog/showpost.aspx?i=443

mrt
2008-05-13, 14:32:08
Nicht uninteressant, obwohl nichts neues im Beitrag steht. Im Grunde war ja schon der K8 auf Hinblick Server designt worden.

reunion
2008-05-13, 20:52:24
Bei Computerbase gibt es einen ausführlichen Test zum 9850 Black Edition:
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_amd_phenom_x4_9850_black_edition/

Gast
2008-05-13, 22:17:07
der ist meiner meinung nach aber ziehmlich schlecht.

es ist kaum multicore optimierte software dabei, besonders die spiele sind veraltet.
Die Crysis SP demo ist ja wohl ein witz, diese unterstützt im vergleich zur Vollversion nicht einmal Quadcores sonder nur Dualcores.
Außerdem wurden wiedereinmal die min. FPS nicht angegeben, ein absolutes NO-GO bei Prozessortests.
Weiters wurde überall mit Qualitätseinstellung low gebencht, hier werden aber auch Prozessorintensive Features ausgeschaltet wie komplizierte Schattenberechnung usw.

Der Overclocking Teil ist ein Witz, zumindest bei einer Black Edition hätte man das ausführlicher behandeln müssen, nicht einmal die Mehrperformance wurde aufgezeigt.

Dieser Test ist IMO nicht wirklich geeignet sich ein objektives Bild über Prozessoren zu machen.
Es liegt halt hauptsächlich an vielen zu alten Anwendungen.

K4mPFwUr$t
2008-05-13, 23:20:07
die crysis full unterstützt doch QC auch nicht richtig.
da hat sich nichts gegenüber der demo geändert.

Coda
2008-05-14, 00:42:53
Natürlich tut es das. Es gibt nur keine Szene die so CPU-lastig wäre.

Gast
2008-05-14, 07:27:06
Nach dieser Argumentation unstützt damit jedes Spiel QC richtig, auch wenn man es nie sieht oder spürt.

Gast
2008-05-14, 09:11:04
wenn du im editor cpu intensive sachen platzierst wirst du sehen wie der quad ausgenutzt wird.
waere auch reichlich dumm gewesen ein spiel nur fuer quadcores zu entwickeln damit 3 heulende nerds damit zufrieden sind das 100% last in der anzeige steht...

Gast
2008-05-14, 12:17:19
Bei Computerbase gibt es einen ausführlichen Test zum 9850 Black Edition:
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_amd_phenom_x4_9850_black_edition/


Genau das, was zu erwarten war, der K10 ist ein Rohrkrepierer. Man kann nur hoffen, daß AMD bald mit was neuem kommt.

Nakai
2008-05-14, 13:09:22
Genau das, was zu erwarten war, der K10 ist ein Rohrkrepierer. Man kann nur hoffen, daß AMD bald mit was neuem kommt.

Was ist daran denn ein Rohrkrepierer?


mfg Nakai

SavageX
2008-05-14, 13:19:26
Was ist daran denn ein Rohrkrepierer?


Nun, zumindest der Energiehunger ist kritikwürdig. Von der Performance liegt der Prozessor ja dort, wo er durch den Preis und den Takt auch einzuordnen war.

Nakai
2008-05-14, 13:24:17
Nun, zumindest der Energiehunger ist kritikwürdig. Von der Performance liegt der Prozessor ja dort, wo er durch den Preis und den Takt auch einzuordnen war.

Genau.;)

Spielebenches kann man eh vergessen, denn wer spielt Crysis auf 800*600?
Und bei den normalen Benches, da ist der Phenom doch nichtmal so schlecht, für seinen Preis.

Der Stromverbauch der ist in der Takt kritikwürdig, aber beim P4 hat sich doch auch niemand so beschwert.^^


mfg Nakai

Das Auge
2008-05-14, 13:39:13
Das Problem des Phenoms ist mittlerweile eher, daß es immer noch kaum ein vernünftiges Board für ihn gibt.

INDEX75
2008-05-14, 13:45:53
Der Stromverbauch der ist in der Takt kritikwürdig, aber beim P4 hat sich doch auch niemand so beschwert.^^Dem in der Tat hohen Stromverbrauch kann man ja auch entgegenwirken in dem man der CPU weniger Spannung gibt. Das müssten die meisten Phenoms eigentlich wegstecken können.
Das Problem des Phenoms ist mittlerweile eher, daß es immer noch kaum ein vernünftiges Board für ihn gibt.Ja, leider. :frown:

Und wenn, dann wird's gleich wieder teurer. :mad:

MfG
i75

Blutmaul
2008-05-14, 13:48:17
Ich kann den Energiehunger eigentlich nicht glauben, da gibt es viele, die angeben deutlich weniger zu benötigen, auch in anderen Tests.

Andererseits hatte ich mal eine bestimmte Kombination, die 200 Watt mehr gebraucht hat, bei weniger Leistung, als mein jetziges System.
Das war damals ein x2 3800 auf Asus M2R32-MVP und ATI 1950xtx, 4GB Ram, x-fi das insgesamt 420 Watt zog...

Thowe
2008-05-14, 13:50:16
Nach dieser Argumentation unstützt damit jedes Spiel QC richtig, auch wenn man es nie sieht oder spürt.

Nein. Aber die CryEngine 2 nutzt sehr wohl die Cores, der Nutzen bleibt, wie erwähnt eben aus, da die Last bei Crysis einfach nach hoch genug ist. Ändert aber nichts daran, dass die Engine es hergibt und das unterscheidet sie eben von 99,9¯% der anderen. Man sollte halt nicht vergessen, dass diese auch in anderen Bereichen genutzt wird und schon zahlreich lizensiert ist und vor allem, auch ein paar Jahre up to date sein muss.

SavageX
2008-05-14, 13:54:37
Der Stromverbauch der ist in der Takt kritikwürdig, aber beim P4 hat sich doch auch niemand so beschwert.^^


Nun, im Endeffekt hat Intel die ganze Netburst-Reihe an den Stromverbrauch "verloren". Da liegt doch schon ein gewisses Augenmerk drauf.

Vor dem 45nm Prozess erhoffe ich mir vom Phenom nicht wirklich was. Der Phenom funktioniert, er bringt so ungefähr die Leistung, die man für das Geld erwarten darf - aber bei dem Energieverbrauch bin ich nicht gerade geneigt, meinen 65 Watt 5200+ in Rente zu schicken ;-)

knallebumm
2008-05-14, 17:01:48
Mal zu dem Computerbase Test:

Wie kommt man mit einem X4 9850BE und einer 2900xt auf auf 358w Unterschied zwischen Idle und Last? Irgendwas ist doch an dem Test faul, vor allem da die ATI auch keinen vernünftigen Idle Modus hat.

AffenJack
2008-05-14, 17:20:29
20% musste aber von ihren ganzen werten runterrechnen, wenn du den verbrauch der komponenten allgemein haben willst.
Schließlich messen die anner steckdose,wodurch am netzteil etwa 20% verloren gehen.
Macht dann 286W unterschied zwischen idle und belastung und das kann doch schon sein.

Allerdings sind die 9850 werte schon extremst. Nen 9850 soll 100watt mehr verbrauchen als nen 6000+ unter last obwohl der zuerst schon ne tdp von 120W hatte?
Der 9850 den die da getestet ham wollen wäre doch nichtma inne 140tdp reingekommen und dürfte die spawas vom mainboard schon ziemlich grillen, das ja sogar kaum welche für 140W tdp gibt.

Sorkalm
2008-05-14, 17:30:29
Die Differenz unter Last zwischen X2 6000+ und 9850 beträgt am ganzen System 150 Watt. Da kann wirklich was nicht stimmen, der 6000+ ist ja nun schon kein Sparschwein.

AnarchX
2008-05-14, 17:40:47
Das 480W Tagan dürfte wohl ziemlich am Ende sein, sodass der Wirkungsgrad entsprechend schlecht ist?

Sorkalm
2008-05-14, 18:06:59
Das 480W Tagan dürfte wohl ziemlich am Ende sein, sodass der Wirkungsgrad entsprechend schlecht ist?

Vermutlich. Ist aber äußerst schlecht für einen solchen Test, da es die Ergebnisse doch extrem verzerrt. Zumal die Messungen wohl nacheinander gemacht wurden sind und das Netzteil wohl schon Schaden genommen haben könnte (kann ich mir jedenfalls vorstellen).

Gast
2008-05-14, 18:18:55
Das sollte eigentlich jedem Tester auffallen das hier gravierende Fehler vorhanden sind. ein 9850@Standard braucht lt. CB 552Watt Gesamt unter Last, wenn die Spannung auf 1,15 Volt herab gesetzt wird dann sind das auf einmal 109Watt weniger UNTER LAST, bei einer CPU mit einer TDP von 125Watt schlicht unmöglich unter Last 109 Watt zu sparen.

Avalox
2008-05-14, 18:52:44
dass diese auch in anderen Bereichen genutzt wird und schon zahlreich lizensiert ist und vor allem, auch ein paar Jahre up to date sein muss.

Wer hat den die Cry Engine 2 lizenziert?

Ausser dem OpenOutcast Projekt, welches natürlich keinen Erträge einbringt
und einem Programm mit sehr zwielichtigen Hintergrund eines Online Geldhandels
kenne ich niemanden der sich für die CR2 bisher begeistern konnte.

Thowe
2008-05-14, 19:47:08
Wer hat den die Cry Engine 2 lizenziert?

Ausser dem OpenOutcast Projekt, welches natürlich keinen Erträge einbringt
und einem Programm mit sehr zwielichtigen Hintergrund eines Online Geldhandels
kenne ich niemanden der sich für die CR2 bisher begeistern konnte.

Blieben unter anderen noch ein paar Hochschulen wie die Games Academy oder die Hamburger Hochschule, die Harrington Group (Vigilance) für militärische Zwecke, die Reloaded Studios und MindArk.

Coda
2008-05-14, 19:58:14
Random Google Hit http://www.crysis-online.com/forum/index.php/topic,6666.0.html

Avalox
2008-05-14, 20:02:29
Random Google Hit http://www.crysis-online.com/forum/index.php/topic,6666.0.html


Das ist ja genau das Programm, wo du Dir für echtes Geld virtuelle Grundstücke kaufen und für echtes Geld virtuelle Geschäfte machen kannst.

Es ist sowas, wie eine Wirtschaftssimulation, wo du mit echten Einsätzen spielst. ich glaube die Währung waren 10 $Cent.
Ein Online Geldhandel. Eine Art Glücksspiel mit Eingriffsmöglichkeiten, eben sehr zwielichtig.



Was sind den das für spezielle "Kunden" die dort Crytek auftreibt? Ich frage mich ob einer auch nur einen € bisher für die Engine bezahlt hat?

Gast
2008-05-14, 20:09:24
Nun, zumindest der Energiehunger ist kritikwürdig. Von der Performance liegt der Prozessor ja dort, wo er durch den Preis und den Takt auch einzuordnen war.


Der Preis ist eindeutig zu hoch, Intel bietet hier deutlich mehr fürs Geld. Es gibt derzeit überhaupt nichts, was für einen Phenom spricht.

deekey777
2008-05-14, 22:06:12
Bei Computerbase gibt es einen ausführlichen Test zum 9850 Black Edition:
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_amd_phenom_x4_9850_black_edition/
Irgendwie verstehe ich die Sache nicht: In den für den Heimanwender interessanten Multimedia-Anwendungen zeigt der Phenom eine einwandfreie Performance, dagegen in Spielen läuft alles durch den Anus?

Nakai
2008-05-14, 22:15:42
Was fürn Anus? Der Phenom ist kaum langsamer als ein Q6600 oder Q6700.

Auf die paar Prozent kommts auch nicht an(vorallem bei Spielen in diesen Settings).


mfg Nakai

Gast
2008-05-14, 22:31:35
Der Phenom hat eben nur wenige Stärken, die Intel CPUs sind ausgewogener in ihrer Leistung.

deekey777
2008-05-14, 22:41:41
Was fürn Anus? Der Phenom ist kaum langsamer als ein Q6600 oder Q6700.

Auf die paar Prozent kommts auch nicht an(vorallem bei Spielen in diesen Settings).


mfg Nakai
Schaue dir CoH oder Crysis ("CPU-Settings"): Wie kann es sein, dass der Phenom mit 2,5 GHz hinter einem C2 mit 2,13 GHz liegt? Das verstehe ich einfach nicht.

S940
2008-05-14, 22:55:44
Irgendwie verstehe ich die Sache nicht: In den für den Heimanwender interessanten Multimedia-Anwendungen zeigt der Phenom eine einwandfreie Performance, dagegen in Spielen läuft alles durch den Anus?Nö:
http://www.forumdeluxx.de/forum/showthread.php?t=479512

Problem ist nur, dass die Intels halt "etwas" weiter übertakten können ... und der 65nm K10 bei Taktraten jenseits der 3 Ghz über ~150W aus dem NT saugt ..

ciao

Alex

Sorkalm
2008-05-14, 22:56:28
Schaue dir CoH oder Crysis ("CPU-Settings"): Wie kann es sein, dass der Phenom mit 2,5 GHz hinter einem C2 mit 2,13 GHz liegt? Das verstehe ich einfach nicht.

Bei Crysis geht der einfache K8 geht da ja noch mehr unter. Wie man bei Intel-CPUs im Vergleich DC <-> QC sieht bringt Quad-Core praktisch nichts. Trotzdem ist der X4 9850 noch vor dem X2 6000+ mit 3 GHz.

Das Spiel skaliert auch fast nie mit dem CPU-Takt mit, sondern bleibt drunter (bei allen getesteten Prozessoren).

Nur auf einen höheren FSB-Takt reagiert es relativ gut. Der E6750 liegt vor dem X6800...

HOT
2008-05-14, 23:44:35
Das ist doch völlig logisch, was bei den Benches passiert.
Typisch für diese 2-Kern Titel ist ja, dass die Core2 dort einfach schneller sind. Bei 4-Kernen löst sich der Vorteil aber in Wohlgefallen auf, da die Effizienz der 4-Kern-Anbindung beim Phenom sehr viel höher ist. Spiele wie Dirt und Grid nehmen überhaupt keine Rücksicht mehr auf SingleCore-Systeme, das zeigen die Tests. Hier überwiegt der Multithreadingvorteil den Cache-Vorteil der Core2.
Die Core2 haben einen sehr schnellen, sehr grossen L2-Cache, mit einer sehr effektiven (aber aufwändigen) Anbindung. Das wird der Hauptgrund sein, warum er gegen den Core2 bei wenig Multi-Threading den Kürzeren zieht. Man sieht das ja ganz gut daran, was es bringt, wenn man den L3-Cache des K10 höher taktet (Takt der internen NB erhöhen).
Das Problem, das mit dieser ganzen Geschichte einhergeht, ist, dass der Core2 dennoch veraltete Technik ist, denn wenn wir in die Zukunft schauen und dabei beachten, dass die SingleCores demnächst aussterben werden (Nehalem Duo Havendale und Swift bilden schließlich das LowEnd der nächsten Generation), ist es sehr wahrscheinlich, dass viele eher CPU-Lastige Anwendungen eher massiv auf MT optimiert werden, als sich auf Takt und Cache-Steigerungen zu verlassen. Beim Nehalem geht Intel ja erstaunlicherweise sogar AMDs weg und verfolgt eben nicht weiter die Core2-Cache-Philosophie. Es gibt nurnoch mickrige schnelle L2-Caches (256kB) und einen grossen aber relativ langsamen L3-Cache.
Wenn man sich Programme wie Anno1701 anschaut, dann wage ich zu prognostizieren, dass es auf einem Penryn schneller läuft als auf einem Nehalem läuft. Aber diese Programme sterben aus...

@Sorkalm
Das Problem bei Crysis ist offensichtlich: Man hat einfach tolle Benchmarksscripts implementiert die einfach scheisse sind und die CPU so gut wie garnicht ausnutzen. Zudem sind die Ergebnisse total unstet und hängen von allem ab, aber nicht von der CPU-Leistung. Wenn man sich verschiedene Reviews anschaut, variieren die Ergebnisse, das ist nicht mehr feierlich. Crysis ist schlicht und ergreifend in der Form vollkommen untauglich um irgendeine Grafik/CPU-Leistung zu ermitteln.
Wenn man statt diesen schwachsinnigen Timedemos einen wirklichen Lasttest per Savegame fahren würde, wäre auf einmal auch der 64Bit Vorteil sehr offensichtlich, der ja bei Standardbenches überhaupt nicht zutage tritt (was bei den Datenmengen, die Crysis verwaltet doch eher sehr unwahrscheinlich ist). Ein Vorschlag wäre ein Savegamebench bei der Panzerschlacht, da gibts auch viel KI, was es bei den Timedemos genau 0 gibt und den Löwenanteil an der benötigten CPU-Leistung ausmachen dürfte.

Gast
2008-05-15, 02:46:50
@S940 Geh mir weg mit Hardwareluxx. Da tummeln sich nur ahnungslose Fanboys ala Zocker, die soviel Ahnung von Technik haben wie ne Jungfrau vom ******. Am CB Test gibts wie üblich nichts auszusetzen. MfG

Gast
2008-05-15, 07:38:05
@S940 Geh mir weg mit Hardwareluxx. Da tummeln sich nur ahnungslose Fanboys ala Zocker, die soviel Ahnung von Technik haben wie ne Jungfrau vom ******. Am CB Test gibts wie üblich nichts auszusetzen. MfG



Bin auch nur Gast, aber du hast absolut keine Beweise für deine Aussage!!! CB ist mittlerweile Armseliger denn je, mit einem 480Watt NT 550Watt Last erzeugen ist mehr als beschränkt, ein altes festgefahrenes Testsystem, wie alte Säcke die es nicht wahr haben wohl das sie nicht mehr 20 sind.....

Die Ergebnisse von Zocker28 ist nicht sooo weit weg ven den CB Ergenissen, nur das die min. fps auch bei einigen Sachen dabei stehen und hier scheint nunmal AMD wirklich gut zu sein, bzw. genau das ist ja wichtig wenns mal in einem Spiel zur Sache geht.

Lolman
2008-05-15, 08:42:45
Das 480W Tagan dürfte wohl ziemlich am Ende sein, sodass der Wirkungsgrad entsprechend schlecht ist?

Imo erhöht sich doch der Wirkungsgrad mit steigender Last, oder?

Gast
2008-05-15, 09:10:34
Wer hat den die Cry Engine 2 lizenziert?

Ausser dem OpenOutcast Projekt, welches natürlich keinen Erträge einbringt
und einem Programm mit sehr zwielichtigen Hintergrund eines Online Geldhandels
kenne ich niemanden der sich für die CR2 bisher begeistern konnte.

der neue c&c renegade shooter von ea soll die engine benutzen

reunion
2008-05-15, 09:49:30
Irgendwie verstehe ich die Sache nicht: In den für den Heimanwender interessanten Multimedia-Anwendungen zeigt der Phenom eine einwandfreie Performance, dagegen in Spielen läuft alles durch den Anus?

Die Cachearchitektur des Phenom ist wohl einfach suboptimal für Spiele. Spiele profitieren hauptsächlich von schnellen Speicherzugriffen und gutem Prefetching. In beiden Disziplinen ist der K10 wohl chancenlos. Der L2 ist mit 512KB verdammt klein im Vergleich zu den Intel-CPUs, der L3 ist mit 44-48(!) Takten verdammt langsam. Selbst Zugriffe auf den RAM benötigen kaum mehr als 100 Takte. Schade das Montreal gecancelt wurde, denn dieser hätte wenigstens eine doppelt so großen L2-Cache.

HOT
2008-05-15, 10:29:13
Tjo es ist halt einfacher auf jemandem, der sich mal die Mühe macht Fragen zu stellen und Messungen durchzuführen mit entsprechender Hardware rumzubashen als selber mal entsprechende Hardware zu testen oder wenigstens konstruktiv mit seinem eigenen Intel-System da was beizutragen... Aber nein, man muss ja dummes Zeug behaupten und User, die wirklich was machen, runtermachen. Das ist echt mal heldenhaft - ich kotz gleich in die Ecke...

@Reunion genau so sehe ich das auch.

Sorkalm
2008-05-15, 11:11:43
Die Cachearchitektur des Phenom ist wohl einfach suboptimal für Spiele. Spiele profitieren hauptsächlich von schnellen Speicherzugriffen und gutem Prefetching. In beiden Disziplinen ist der K10 wohl chancenlos. Der L2 ist mit 512KB verdammt klein im Vergleich zu den Intel-CPUs, der L3 ist mit 44-48(!) Takten verdammt langsam. Selbst Zugriffe auf den RAM benötigen kaum mehr als 100 Takte. Schade das Montreal gecancelt wurde, denn dieser hätte wenigstens eine doppelt so großen L2-Cache.

Ein schnellerer L3-Cache würde auch erstmal helfen...

S940
2008-05-15, 11:23:49
@S940 Geh mir weg mit Hardwareluxx. Da tummeln sich nur ahnungslose Fanboys ala Zocker, die soviel Ahnung von Technik haben wie ne Jungfrau vom ******. Am CB Test gibts wie üblich nichts auszusetzen. MfGHast Du andre Werte / Tests bzw. den Beweis dass der Typ dort seine Ergebnisse fälscht ? Falls nicht, dann hat Deine Aussage 0,0 Gehalt.

@Sorkalm:
Jein, die Testwerte mit höhergetakteten K10 NBs sind ja eher ernüchternd ... aber als Pessimist könnte man natürlich argumentieren, dass die NB so mieß ist, dass das eben nicht viel bringt ;-) Bin mal gespannt, wie sich die geplante K10 Version ohne L3 dafür aber mit DDR3 schlägt, so schlecht dürfte die imo in Spielen nicht sein. Aber wer weiß, ob die mittlerweile nicht gestrichen wurde.

ciao

Alex

dr.denton
2008-05-15, 11:44:45
...
hier stand Mist <anddill>

Letztendlich sind es ja nicht nur die Ergebnisse von Zocker28 sondern auch vieler anderer Leute, die belegen, dass das Leistungspotential des K10 bei stark auf Multithreading optimierter Software einfach enorm ist - etwas, was man schon lange aus dem Serverbereich weiss aber mangels ordentlicher Tests nie auf den Desktop übertragen hat.

Man kann natürlich argumentieren, dass dafür die Leistung bei Einzelthreads eher dürftig ist, logisch, mit dem relativ langsamen und kleinen Cache und einem CPU-Kern, der sich kaum vom K8 unterscheidet - aber wie Johan De Gelas chip-architec.com bei anandtech.com so schön schreibt: "Like any design, the K10 is a trade-off".
AMD hat sich im Interesse hoher Durchsatzleistung nun eben dazu entschieden, voll auf SMT zu setzen und die Einzelleistung zu vernachlässigen - eine Rechnung, die natürlich bei irgendwelchen Softwareanarchronismen von Anno Tobak nicht aufgehen kann, dafür um so mehr Bedeutung gewinnt, je stärker Programme von >2 CPU-Kernen einen Nutzen ziehen.

Ich meine, es hat ja einen Grund, wieso Intel dieses Konzept mit dem Nehalem mehr oder weniger kopieren will - wenn schon der Marktführer (und in den Augen vieler Leute "überlegene Hersteller") sich für diese Herangehensweise entscheidet, kann sie so grundfalsch nicht sein, da hilft auch das Gejammer über den "lahmen Cache" nicht; wenn dieser "lahme Cache" bei Multithreading einen Leistungsvorteil gegenüber dem schnellen Cache des Conroe bringt, soll es mir recht sein.

mfG

denton

Ectoplasma
2008-05-15, 13:41:41
Hast Du andre Werte / Tests bzw. den Beweis dass der Typ dort seine Ergebnisse fälscht ? Falls nicht, dann hat Deine Aussage 0,0 Gehalt.

(Ich war nicht der Gast)

Es geht nicht darum, ob jemand etwas fälscht oder nicht. Ich kenne die Tests von der Person nicht, über die gesprochen wird. Die Testergebnisse einer einzelnen Person aber haben solange null Gehalt, solange keine reproduzier- und verifizierbaren Testscenarien definiert werden. Welche Einzelperson treibt diesen Aufwand? Macht die Person aus dem HW-Lux soetwas? Dann gratuliere ich. Ansonsten ist es ziemlich naiv etwas zu glauben, was nicht mindestens von einer anderen unabhängigen Person bestätigt wird.

Echt traurig finde ich die Einstellung, man würde jemanden Fälschung vorwerfen, nur weil man etwas anzweifelt.

Nakai
2008-05-15, 13:45:07
Schaue dir CoH oder Crysis ("CPU-Settings"): Wie kann es sein, dass der Phenom mit 2,5 GHz hinter einem C2 mit 2,13 GHz liegt? Das verstehe ich einfach nicht.

Da liegen alle AMDs hinten.
Die konkurrierenden Produkte sind knapp 10% vorne. Bei Spielen ist die CPU weniger wichtig, vorallem bei Crysis und COH.
Der K10 ist einfach pro Takt langsammer als ein C2D und hat manchmal noch nen Cachenachteil.


mfg Nakai

S940
2008-05-15, 14:29:45
Es geht nicht darum, ob jemand etwas fälscht oder nicht. Ich kenne die Tests von der Person nicht, über die gesprochen wird. Die Testergebnisse einer einzelnen Person aber haben solange null Gehalt, solange keine reproduzier- und verifizierbaren Testscenarien definiert werden. Welche Einzelperson treibt diesen Aufwand? Macht die Person aus dem HW-Lux soetwas? Jo natürlich nicht, das ist ja auch ne Privatperson und ein Forenbeitrag, kein prof. Test.
Mein Punkt ist jetzt, dass man sowas glauben kann, da ich Leuten, naiv wie ich bin, erstmal keine Arglist unterstelle. Ich mein was hätte er davon ... klar Idioten gibts immer, aber ich geb Ihm jetzt erstmal nen "Anfangsbonus".

Ansonsten könnte man sich auch nicht mehr auf die Strasse trauen, da ja hinter jeder Ecke der böse Räuber, Drogenabhängige, besoffene Schläger, Al-Quaida Bomber, etc. pp lauern könnte, von Wasseradern und Meteoritenschauern gar nicht erst zu reden *schwitz* :biggrin:

Dein Punkt scheint zu sein, dass Du Ihm nicht glaubt .. Dein gutes Recht, bewiesen im wasserdichten, wissenschaftlichen Sinne ist ja nichts :)

Weiterdiskutiern brauchen wir in dem Fall nicht, entweder man glaubts oder nicht, oder aber jemand testen mit ziemlich genau der gleichen Config nach.

ciao

Alex

HOT
2008-05-15, 16:05:19
(Ich war nicht der Gast)

Es geht nicht darum, ob jemand etwas fälscht oder nicht. Ich kenne die Tests von der Person nicht, über die gesprochen wird. Die Testergebnisse einer einzelnen Person aber haben solange null Gehalt, solange keine reproduzier- und verifizierbaren Testscenarien definiert werden. Welche Einzelperson treibt diesen Aufwand? Macht die Person aus dem HW-Lux soetwas? Dann gratuliere ich. Ansonsten ist es ziemlich naiv etwas zu glauben, was nicht mindestens von einer anderen unabhängigen Person bestätigt wird.

Echt traurig finde ich die Einstellung, man würde jemanden Fälschung vorwerfen, nur weil man etwas anzweifelt.



:rolleyes:
Hmm... wieviel Verifikation willst du eigentlich noch? Was soll das getrolle? In dem HWLUXX Thread sind mindestens 3 Leute mit ähnlicher Sysconfig, die pausenlos alles mögliche verifizieren und mitbenchen.
Die Ergebnisse sind definitv korrekt. Dass es dir net passt, ist deine Sache. Ist ist aber schlicht und ergreifend die Wahrheit. Die Leistungsfähigkeit einer CPU kann man immer nur differenziert betrachten. Und da stehts eigentlich ziemlich gut für den K10, denn bei älterer Software ist er schnell genug, für moderne Software bringt er alles mit, was man braucht.

HOT
2008-05-15, 16:08:29
Da liegen alle AMDs hinten.
Die konkurrierenden Produkte sind knapp 10% vorne. Bei Spielen ist die CPU weniger wichtig, vorallem bei Crysis und COH.
Der K10 ist einfach pro Takt langsammer als ein C2D und hat manchmal noch nen Cachenachteil.


mfg Nakai

Er hat einen Cache Nachteil, aber die SPEC-Werte zeigen eindeutig, dass bei entsprechender Optimitung beider Seiten sich die Kerne des Core2 und K10 nicht allzuviel nehmen. Bei x87-Code scheint der K10 jedoch tatsächlich eine Schwäche ggü. dem Core2 zu haben, diese beiden Punkte wirken sich signifikant aus bei den Reviews.

Bei Crysis ist das noch ne andere Sache. Der CPU-Test testet nicht die Leistungsfähigkeit der CPU.

Ronny145
2008-05-15, 16:19:52
Imo erhöht sich doch der Wirkungsgrad mit steigender Last, oder?


Nein, ab einer bestimmten Auslastung geht der dann wieder runter. Mal als Beispiel: http://80plus.org/manu/psu/documents/Tagan_TG500-U25_500W_80PLUS_Report.pdf

Bei 50% Auslastung eine bessere als bei 80%.

Hmm... wieviel Verifikation willst du eigentlich noch? Was soll das getrolle? In dem HWLUXX Thread sind mindestens 3 Leute mit ähnlicher Sysconfig, die pausenlos alles mögliche verifizieren und mitbenchen.
Die Ergebnisse sind definitv korrekt.


Sie sind (warscheinlich) korrekt. Nur sind das alles übertaktete System, wenig repräsentativ. Unter normalen Systemen ohne übertaktete NB und ähnliche Späße siehts weit weniger gut aus für den Phenom.

S940
2008-05-15, 16:21:41
Bei x87-Code scheint der K10 jedoch tatsächlich eine Schwäche ggü. dem Core2 zu haben, diese beiden Punkte wirken sich signifikant aus bei den Reviews.Naja ... meinst Du wirklich x87 Code, oder allgemein FPU ? Die 128bit FPU greift ja nur bei SSE Befehlen, von daher ist 0 Verbesserung bei x87 Code ggü. dem K8 zu erwarten.

Hast Du spezielle Reviews im Hinterkopf oder war das nur allgemein formuliert ? Im ersteren Fall, wäre ein Link gut, dann könnte man sich das mal anschauen ;-)

ciao

Alex

Ectoplasma
2008-05-15, 16:23:10
Hmm... wieviel Verifikation willst du eigentlich noch? Was soll das getrolle? In dem HWLUXX Thread sind mindestens 3 Leute mit ähnlicher Sysconfig, die pausenlos alles mögliche verifizieren und mitbenchen.
Die Ergebnisse sind definitv korrekt. Dass es dir net passt, ist deine Sache. Ist ist aber schlicht und ergreifend die Wahrheit. Die Leistungsfähigkeit einer CPU kann man immer nur differenziert betrachten. Und da stehts eigentlich ziemlich gut für den K10, denn bei älterer Software ist er schnell genug, für moderne Software bringt er alles mit, was man braucht.

Also HOT, was du schreibst passt nicht einmal im Ansatz zu dem, was ich geschrieben habe. Wo habe ich geschrieben, dass mir etwas nicht passt? Und was soll denn das mit der Wahrheit? Ich habe das Thema nur generell angesprochen. Die Tester aus dem HWLUXX sind mir ziemlich egal.

S940, es geht nicht um Unterstellung einer Arglist. Möchte mal wissen, warum das so schwer zu vertehen ist. Wenn ich z.B. irgendein System oder ein Test erstelle, dann muss ich doch wissen, ob ich versehentlich keinen Fehler gemacht habe. Also lasse ich nach Möglichkeit mein System oder Test verifizieren und zwar von einer anderen Person. Das muss ich im Beruf auch. Das hat nichts mit Mißtrauen zu tun, sondern ist ein höchst menschliches Problem. Der Mensch ist eben nicht fehlerfrei. Bei komplexeren Dingen kann man sich nicht auf eine Person alleine verlassen. Hätte HOT mal richtig gelesen, dann wäre ihm auch aufgegangen, dass ich das bereits in meinem vohreigen Post geschrieben habe. Und wenn es im HWLUXX Leute gibt, die das Gleiche Tesscenario haben, dann ist doch alles gut. Also lieber HOT, lesen und das Gelesene auch verstehen, wäre nicht schlecht. Da brauchst du nicht mit einem Trollvorwurf zu kommen.

S940
2008-05-15, 16:26:09
S940, es geht nicht um Unterstellung einer Arglist. Möchte mal wissen, warum das so schwer zu vertehen ist. Wenn ich z.B. irgendein System oder ein Test erstelle, dann muss ich doch wissen, ob ich versehentlich keinen Fehler gemacht habe. Also lasse ich nach Möglichkeit mein System oder Test verifizieren und zwar von einer anderen Person. Was Du ansprichst entspricht dem Testvorgang eines professionellen Tests oder im Beruf, keine Frage, aber in nem privaten Forum erwarte ich das nicht .. wer kümmert sich denn da um Verifikation ... ist doch alles nur just 4 fun und kein Toternst.

Da das aber anscheined eh mehrere Leute verifiziert haben, ists dann eh egal :)

ciao

Alex

HOT
2008-05-15, 19:54:40
[...]
Sie sind (warscheinlich) korrekt. Nur sind das alles übertaktete System, wenig repräsentativ. Unter normalen Systemen ohne übertaktete NB und ähnliche Späße siehts weit weniger gut aus für den Phenom.

Der Test wurde mit erhöhtem Multi auf 2,7 GHz mit rotem OD durchgeführt. Da war nicht viel getunt, nur höher getaktet. Da greift natürlich schon die bessere Skalierung des Phenom. Der 9450 wurde auch auf 2,7 GHz getaktet.

Ronny145
2008-05-16, 01:21:36
Der Test wurde mit erhöhtem Multi auf 2,7 GHz mit rotem OD durchgeführt. Da war nicht viel getunt, nur höher getaktet. Da greift natürlich schon die bessere Skalierung des Phenom. Der 9450 wurde auch auf 2,7 GHz getaktet.


Tja, dann weiß ich's auch nicht woran das immer liegt. Grid wurde als Multithreaded schon genannt. Jetzt schaue man sich mal ein normal getaktetes System ohne tweak Spielereien an:

http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6505308&postcount=61

Da skaliert ab dem 3. Kern nicht mehr viel. Zum Vergleich ein Q6600:

http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6495820&postcount=16
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=6497060&postcount=25

Da liegt der Phenom mit dem Kentsfield Kopf an Kopf.

Denniss
2008-05-16, 03:12:15
Mal zu dem Computerbase Test:

Wie kommt man mit einem X4 9850BE und einer 2900xt auf auf 358w Unterschied zwischen Idle und Last? Irgendwas ist doch an dem Test faul, vor allem da die ATI auch keinen vernünftigen Idle Modus hat.


Liegt vielleicht am superguten 25€ Strommeßgerät von Conrad ?

Gast hitcher
2008-05-16, 09:51:28
liegt nicht am Conrad Strommessgerät, das ist zwar nicht das Allerbeste, aber für solche Messungen gut genug.
Die haben wohl die von Hand auf Liste notierten Messwerte falsch in die Tabelle eingetragen.

Gast
2008-05-16, 12:26:10
9950 mit 2,66 ghz?
http://www.computerbase.de/news/hardware/prozessoren/amd/2008/mai/neuer_amd_phenom_x4_9950_266_ghz/

HOT
2008-05-16, 12:36:07
Jo da hat Fudzilla mal wieder den Vogel abgeschossen ;). So ein Quatsch, natürlich hat der 9950 einen Ref.-Takt von 200MHz und einen CPU-Takt von 2600. Es macht überhaupt keinen Sinn den Ref.-Takt zu erhöhen, weil das außer beim Übertakten von gelockten CPUs keinerlei Vorteile entstehen.
Vllt bekommt der 9950 auch offiziell einen NB-Multi von 11 oder 12 und die haben das in den falschen Hals bekommen.

S940
2008-05-16, 13:22:30
Jo da hat Fudzilla mal wieder den Vogel abgeschossen ;). So ein Quatsch, natürlich hat der 9950 einen Ref.-Takt von 200MHz und einen CPU-Takt von 2600. Jupp, Blödsinn³. Das letzte mal als es Gerüchte über nen höheren HT Ref. Takt gab, war bei der DDR2 Einführung ... da habens die Leute auch schon nicht kapiert, dass man einen Takt, der Referenztakt heißt, nicht von heute auf morgen ändert ^^
Also ne miserable fuad news, 0 Gehalt und technisch sinnlos. Wahrscheinlich haben die nen Screenshot von nem übertakteten Exemplar gesehen ;-)

ciao

Alex

Gast hitcher
2008-05-16, 16:55:12
und wenn es doch 5% Leistungsgewinn bringt, wegen gerader und kleinerer Multiplikatoren, weniger Latenzzeit zum DDR2-1066 RAM?
Kleinvieh macht auch Mist,
vielleicht sogar soviel um bei mehreren Benchmarks wieder knapp vorne zu sein.

S940
2008-05-17, 12:52:30
vielleicht sogar soviel um bei mehreren Benchmarks wieder knapp vorne zu sein.Vergiß es, nochmal, es ist der Referenztakt, genausogut könntest Du vorschlagen die Masse das Kilograms zu ändern, weils gerade besser passt ...

P3D hat ne sinnvolle news zum Thema, scheint die einzige Seite zu sein, deren Personal selbstständig denken kann:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1211019769

ciao

Alex

Avalox
2008-05-17, 12:58:07
Ein geänderter Referenztakt würde unter Umständen im Speicherinterface bei den Taktmultiplikatoren Vorteile bedeuten.

anddill
2008-05-17, 13:04:03
Ein geänderter Referenztakt würde unter Umständen im Speicherinterface bei den Taktmultiplikatoren Vorteile bedeuten.
Ja, beim X2. Der Phenom taktet den Speicher unabhängig von den Cores.

HOT
2008-05-17, 13:06:10
Warum? Das Speicherinterface ist doch beim K10 weitgehend unabhängig gestaltet. Es gibt keine ungrade Multiplikatoren alle 200MHz NB -Takt. Und anders wird man den NB-Takt nicht gestalten.
Es macht genau 0 Sinn den Ref-Takt zu ändern. Da kann man sich sonstwas zusammenkonstruieren, es wird nicht klappen. Der Ref.-Takt ist die Konstante in der Plattform, auf die sich alle Hersteller verlassen. Das zu ändern wäre schlich bescheuert.

Gast
2008-05-17, 13:50:49
so hab mir jetz auchn phenom 9850be angeschafft, die leistung is schon nett, wie laste ich das ding jetz aus? selbst grid is bei mir absolut graka limitiert, 1 kern bei 80% die anderen 3 bei 50%.

achso, meine wassertemp ist im idle wesentlich geringer als bei meinem athlonxp@2,5ghz und bei vollast aller 4 kerne durch prime zb. ähnlich, weis garnich was alle mit dem stromverbrauch haben, mehr als 100watt vollast sinds nicht.

Avalox
2008-05-17, 14:00:55
Ja, beim X2. Der Phenom taktet den Speicher unabhängig von den Cores.

Ja. Immerhin leitet sich der Speichertakt immer noch vom Referenztakt direkt ab. Aber CPU muss dann das interne Speicherinterface anbinden. Es wird direkte Abhängigkeiten geben.
Wenn man in die alten RMs sieht, so fanden sich schon damals dort entsprechende CPUs mit höheren Ref. Takt.

S940
2008-05-17, 16:04:13
Ja. Immerhin leitet sich der Speichertakt immer noch vom Referenztakt direkt ab. Aber CPU muss dann das interne Speicherinterface anbinden. Es wird direkte Abhängigkeiten geben.
Wenn man in die alten RMs sieht, so fanden sich schon damals dort entsprechende CPUs mit höheren Ref. Takt.
Direkte Abhängigkeiten ? Vom CPU Takt ? Das ist egal, die DRAM/Speicherkontroller hängen an der Northbridge, deren Takt ist (ebnenfalls) unabhängig vom CPU Takt.

ciao

Alex

P.S: Was meinst Du mit "RM" ? Rundmails ?

Avalox
2008-05-17, 16:20:22
Direkte Abhängigkeiten ? Vom CPU Takt ? Das ist egal, die DRAM/Speicherkontroller hängen an der Northbridge, deren Takt ist (ebnenfalls) unabhängig vom CPU Takt.


Na in gänze unabhängig können diese nicht sein. Sie müssen sich ja irgendwo unterhalten, dass können sie aber nur in einem synchronisierten Zustand tun.

Alle(!) Phenom Modelle haben den NB Multi z.B. fest auf 9 eingestellt.
Direkt abhängig vom NB Takt ist z.B. der L3 Cache Takt.

Ist nicht der NB Multi sogar nur in halben Werten einstellbar? Wenn ja haben wir doch schon eine schöne Begründung für einen höheren Referenztakt. Ein schnellerer L3 Cache.

Nein. Ich könnte mir gut vorstellen, dass AMD wirklich den Referenztakt anheben könnte. Wäre schließlich billig, innerhalb der AM+ Spezifikationen und AMD braucht jeden Performance Zuwachs.

Gast
2008-05-17, 16:33:43
hmm meine nb taktet mit 2ghz wäre also ein multi von 10, hab leider kein board wo man die nb multis verändern kann, laut anderen usern bringt nb übertakten aber in etwa soviel wie die kerne zu übertakten.

Avalox
2008-05-17, 16:39:34
hmm meine nb taktet mit 2ghz wäre also ein multi von 10, hab leider kein board wo man die nb multis verändern kann, laut anderen usern bringt nb übertakten aber in etwa soviel wie die kerne zu übertakten.

Du übertaktest damit den L3 Cache. Hinzu kommt, dass der NB Takt maßgeblich den HT Takt betrifft. Der HT Takt darf selber nicht über das Niveau des NB Taktes geführt werden.
Abhängigkeiten gibt es zu genüge, als dass man kategorisch eine Referenztakt Änderung ausschließen sollte.

Sorkalm
2008-05-17, 16:49:49
Alle(!) Phenom Modelle haben den NB Multi z.B. fest auf 9 eingestellt.

Der 9850er hat einen 10er-Multi, und es gibt auch Opterons mit einem 8er. ;)

Odal
2008-05-17, 17:30:21
ich hab mich schon ne weile nicht mit cpus beschäftigt aber kann mir mal jemand erklären warum der phenom sone gurke ist? der unterliegt @2,5ghz ja sogar manchmal einem X2 6000

Gast hitcher
2008-05-17, 17:34:02
das liegt nur an der Taktfrequenz.
Ein höher gatakteter Dualcore K10 könnte einen K9 leicht überholen.

Der Kuma Dualcore soll ja bald kommen, dann ist der Vergleich K9-K10 auch fairer.

Avalox
2008-05-17, 17:43:21
ich hab mich schon ne weile nicht mit cpus beschäftigt aber kann mir mal jemand erklären warum der phenom sone gurke ist? der unterliegt @2,5ghz ja sogar manchmal einem X2 6000


Würde es einen K8 Singlecore mit 4GHz geben, wäre dieser auch in vielen Anwendungen schneller als ein X2 6000.
Als die A64 Dualcore auf den Markt kamen, waren dieses den Spitzen Singlecore K8 CPUs in spezifischen Anwendungen deutlich unterlegen. Ist hallt immer eine Sache der Anwendung.

Odal
2008-05-17, 17:58:09
Würde es einen K8 Singlecore mit 4GHz geben, wäre dieser auch in vielen Anwendungen schneller als ein X2 6000.
Als die A64 Dualcore auf den Markt kamen, waren dieses den Spitzen Singlecore K8 CPUs in spezifischen Anwendungen deutlich unterlegen. Ist hallt immer eine Sache der Anwendung.

ja das seh ich zwar ein aber intel zeigt ja wie man auch performante quadcores raushauen kann

und wenn es nur eine sache des taktes ist wieso bekommt man den phenom nicht auf minimum 3Ghz?

irgendwie stellt sich für mich ein phenom 9850 nicht wirklich deutlich besser hin als ein X2 6000+ oder gar 6400+

mal von wenigen spezialanwendungen die deutlich von mehr als 2 cores profitieren abgesehen

schmacko
2008-05-17, 18:09:31
ich hab mich schon ne weile nicht mit cpus beschäftigt aber kann mir mal jemand erklären warum der phenom sone gurke ist? der unterliegt @2,5ghz ja sogar manchmal einem X2 6000
der phenom ist keine gurke, sondern eine kleine weiterentwicklung des k8. wenn es um singlecore-anwendungen geht, hat er ca. 15-20% taktbereinigten vorteil. da ist ein 3,2ghz-k8 natürlich mindestens gleichauf, manchmal besser als ein 2,5ghz-k10. sooo schlimm ist das nicht.
der größte unterschied ist, dass er ein echter quad-core ist, was für seine hauptaufgabe, nämlich serverprozessor zu sein, gut ist, für viele spieler aber wenig bringt, weil spiele nur selten von 3 oder 4 kernen profitieren.

wie ich aber mit der grid-demo sehe, gibt es aber schon spiele, die 3 kerne gut nutzen.

anders: wenn du keine software in absehbarer zeit nutzen willst, die mehr als zwei kerne nutzt, brauchst du keinen quad-core - dann aber auch keinen intel-quad-core, da auch diese dann nicht besser sind als c2d. der einzige vorteil von intel-quads ist, dass es sie mit mehr takt gibt als die amds, das allerdings dann zu einem deutlich höheren preis.
und wenn amd seinen 65nm-prozess besser unter kontrolle hätte, würden die bestimmt liebend gerne auch höher getaktete phenoms bringen. ;)

Avalox
2008-05-18, 08:38:39
irgendwie stellt sich für mich ein phenom 9850 nicht wirklich deutlich besser hin als ein X2 6000+ oder gar 6400+

mal von wenigen spezialanwendungen die deutlich von mehr als 2 cores profitieren abgesehen


Es ist haargenau die selbe Situation, welche sich bei Markteinführung des A64 X2 ergeben hat.
Die Dualcore CPUs unterlagen in den Singlecore Anwendungen den Singlecore CPUs, denn die A64 X2 waren nicht so hoch getaktet wie die Singlecore A64.

Dann kamen Anwendungen, welche mit Dualcore so langsam was anfangen konnten, im selben Zug wurden höhergetaktete Singlecore CPUs gar nicht mehr angeboten.

Da der Schritt Software aus einer Singlecore Welt in eine Dualcore Welt zu heben viel schwieriger ist, als Software von Dualcore auf Quadcore zu heben, wird es diesmal überhaupt nicht lange dauern und Quadcores werden deutliche Vorteile haben und jede Dualcore CPU sehr alt aussehen lassen.
Ist halt noch nicht soweit, aber erste Beispiele sind ja schon vorhanden.

Sir Winston
2008-05-18, 11:29:53
Da der Schritt Software aus einer Singlecore Welt in eine Dualcore Welt zu heben viel schwieriger ist, als Software von Dualcore auf Quadcore zu heben, wird es diesmal überhaupt nicht lange dauern und Quadcores werden deutliche Vorteile haben und jede Dualcore CPU sehr alt aussehen lassen.
Ist halt noch nicht soweit, aber erste Beispiele sind ja schon vorhanden.

Ich meine hier aber auch schon des öfteren die Meinung gesehen zu haben, dass mit zunehmender Anzahl von Prozessorkernen die effiziente Nutzung eher schwieriger wird - oder tritt dies erst bei mehr als vier Kernen ein?

S940
2008-05-18, 12:03:40
Nein. Ich könnte mir gut vorstellen, dass AMD wirklich den Referenztakt anheben könnte. Wäre schließlich billig, innerhalb der AM+ Spezifikationen und AMD braucht jeden Performance Zuwachs.Und woher soll der Zuwachs kommen ? Wieso sollten sie den Referenztakt ändern, wenn sie eh schon (Viertel-)Teiler in den Multipliern eingebaut haben ... Der einzige Vorteil den ich sehen kann wäre Feintuning im 1 MHz Bereich. Das ist für den Übertakter interessant, der gerne sein CPU Exemplar bis an die Grenze übertakten will. Aber AMD interessiert das nicht, die müssen die CPUs im 100 MHz Raster verkaufen, und nicht eine Phenom 9851 mit 2,504 MHz
Abgesehen davon hängt auch der Speicherkontroller am Referenztakt, das wurde gerade erst mit dem K10 geändert. Da gibts jetzt Teiler, die auf 200 MHz RefTakt und die ganzen Speichertaktfrequenzen (667, 800, 1066) ausgelegt sind. Änderst Du den RefTakt, hast Du auf einmal z.B. DDR2-700 und ähnliche Späßchen. Für den Übertakter wieder interessant ja, aber für ne Server CPU ... *uurks*

@Phenomgeschwindigkeit:
Die ganzen K10s laufen mM noch mit angezogener Handbremse. Hauptvorteil gegenüber dem K8 sind die dickere 128bit SSE Einheit und der 256bit L2 Anschluss. Letztere wird aber auch nur mit 128 SSE Befehlen ausgenützt. Blöderweise war SSE früher bei AMD CPUs aber nicht so dolle, deswegen werden in den Programmen FPU & 3DNOW! benützt, je nach Compiler, Programmierer, Lust & Laune. So jetzt ist die SSE Einheit im K10 schneller, doppelt so schnell um genau zu sein. .. aber bringt das mal der aktuellen Software bei. Die findet ne unbekannte AMD CPU und schaltet dann wieder in den AMD / K8 Codepfad. Was über bleibt sind die besseren Prefetcher und der L3 und 2 Kerne mehr, aber naja das reicht nicht um den K8 bei single-thread zu schlagen, v.a. wenn der K10 noch 500 MHz weniger Takt hat.

Natürlich gibts auch SSE Code für AMDs, aber da gibts/gabs blöderweise ne Empfehlung seitens AMD doch 2x64bit Befehle zu benützen, anstatt 1x128. Hat den Effekt, dass die 128bit SSE Einheit im K10 wieder nicht ausgenützt werden. Aber naja, so low-level Programmierung auf Assembler Ebene ist eher selten, meist wird nur compiliert. Wobei man bei aktuellen Games ja immer das Intel & Nvidia Logo im Vorspann sieht, da die Firmen dutzende Entwickler bereitstellen. Das die sich nicht gerade um AMD & Ati kümmern, sollte auch klar sein.

Fazit: Warte auf bessere Software / Neukompilate. Ich warte v.a. auf den K10 optimierten Cinebench ...

Man kann sich auch die Situation im Supercomputerbereich anschauen, da werden eh nur handoptimierte Codes eingesetzt, da liefert sich der 2,3 GHz Opteron bei einigen Programmen ein Kopf an Kopf Rennen mit 3,0 GHz Penrys (hat teilweise aber sicherlich auch was mit der Speichergeschwindigkeit zu tun).

ciao

Alex

Avalox
2008-05-18, 12:08:38
Ich meine hier aber auch schon des öfteren die Meinung gesehen zu haben, dass mit zunehmender Anzahl von Prozessorkernen die effiziente Nutzung eher schwieriger wird - oder tritt dies erst bei mehr als vier Kernen ein?

Mit absolut guten Gewissen kann man behaupten, dass die Umstellung von Single Core auf Dualcore sehr viel mehr Umdenken in der Softwarewareentwicklung gefordert hat, als es eine Umstellung von Dualcore auf Quadcore, oder von Quad auf 6, 8 oder selbst 256 Kernen bedeutet.

Dass nun oftmals in einem Anfall von Kleingeistigkeit Konzepte entstanden sind, welche Explizit Aufgaben so fest definiert in Threads packen, dass man schon wieder überrascht davon, dass es in der Entwicklung bei 2 Kernen nicht stehen geblieben ist, nochmals überlegen muss steht ausser Frage.

Da die Leistungssteigerung der nächsten Jahre fast ausschlisslich auf einer immer weiteren Parallelisierung kommen wird, demnach immer mehr von allgemeinen und spezialisierten Kernen in den CPUs Einzug halten werden ist es eine Sache der Evolution.

Natürlich wird es schwieriger, aber wer in der Software Entwicklung diese Schwierigkeit nicht packt, wird verschwinden und Platz machen für die, welche es packen. Das ist nun nicht nur auf Personen, als auch auf Entwicklungskonzepte und Umgebungen gemünzt.

Sicherlich wird sich auch die Software als solches ändern. Natürlich haben wir heute Software welche so aussieht, wie sie aussieht, weil diese genau auf die Beschränkungen heutiger Systeme ausgelegt sind. Zukünftige Software mag dort ganz anders daherkommen.

Gast
2008-05-18, 12:15:39
ich wette bei grid tritt auch ein phenom 9750 einem 6400+ ordentlich in den arsch.

wiegesagt ich hab mal die demo angespielt auf einer 9600gt mit 1680*1050 4x aa und 16x af, dabei 1 core 80% die 3 andern bei 50%, schon bei dieser graka limitierung müsste ein 9850 mit einem 6400+ gleichziehen.

Avalox
2008-05-18, 12:17:25
Und woher soll der Zuwachs kommen ? Wieso sollten sie den Referenztakt ändern, wenn sie eh schon (Viertel-)Teiler in den Multipliern eingebaut haben ...


Die NB hat keinen 1/4 Teiler, sondern nur 1/2 Teiler.
Dabei sind diese NB Teiler nicht mal per AMD Tool zu verstellen, sondern ausschließlich im Bios.

Na wie auch immer. Fakt ist, dass es bei den Multiplikatoren Beziehungen zueinander gibt, bzw. den Takten welche man dort einstellt.
Es sind nicht beliebige Kombinationen möglich. Dort ist nicht etwa eine physikalische Taktobergrenze das Limit, es sind technische Gegebenheit die in Beziehungen zueinander stehen, welche von AMD nach aussen nicht dargestellt werden. Deshalb kann man dort nur mutmaßen und sollte eine Referenztakt Erhöhung nicht ausschliessen.

S940
2008-05-18, 12:30:43
Die NB hat keinen 1/4 Teiler, sondern nur 1/2 Teiler.
Dabei sind diese NB Teiler nicht mal per AMD Tool zu verstellen, sondern ausschließlich im Bios. Sorry, ja ich meinte natürlich den Kerntaktteiler. Der L3 braucht keine feineren Einstellungen, zumindest nicht im Moment, die Übertakter haben da ja teilweise bis zu 2,6 GHz am Laufen und die Mehrleistung ist seeehr überschaubar. Der Leistungsunterschied von 200 mehr L3 Mhz ist daher zu vernachlässigen, da bräuchte es also nichtmal halbe Teiler.


ciao

Alex

Madkiller
2008-05-18, 12:55:00
Also ich habe eben mal ein wenig rumprobiert bei Spielen.
Beim 9850 bringen 2,4GHz ggü 2,0GHz NB-Takt etwa knapp 7% mehr CPU-Leistung. Also etwa ein Verhältniss von 1 zu 3.

g0ldmund
2008-05-18, 13:23:14
Sorry, ja ich meinte natürlich den Kerntaktteiler. Der L3 braucht keine feineren Einstellungen, zumindest nicht im Moment, die Übertakter haben da ja teilweise bis zu 2,6 GHz am Laufen und die Mehrleistung ist seeehr überschaubar. Der Leistungsunterschied von 200 mehr L3 Mhz ist daher zu vernachlässigen, da bräuchte es also nichtmal halbe Teiler.


ciao

Alex
das stimmt so nicht
laut erfahrungen ausm forumdeluxx ist die mehrleistung schon relativ groß.

S940
2008-05-18, 15:02:13
das stimmt so nicht
laut erfahrungen ausm forumdeluxx ist die mehrleistung schon relativ groß.
Ah ok, dann hat sich da wohl was getan, hast Du nen Link bei der Hand ?
Ich hab da Um Silvester was bei xtremesystems gelesen, die meinten damals, dass es nichts / nicht viel brächte. Hab mich damals auch gewundert. Ist dann wohl jetzt veraltet, vielleicht auch ein Nebeneffekt von B3 ?

@Madkiller:
Mit was misst Du ? Und was sind die Einheiten ? Sind das frames, oder irgendwelche Drystones / flops von Sandra o.ä. Bench Programmen ?

Danke

Alex

Madkiller
2008-05-18, 15:17:17
Mit Fraps in Spielen. Habe nur mal schnell bei GTR2 und Anno getestet. Und klar, fps. Und darauf rückgeschlossen die CPU-Leistung.

Gast
2008-05-18, 19:21:02
Also total ungenau, da dort noch viele andere sachen mit einfließen, richtige CPU benches wären dort deutlich besser.

Gast
2008-05-18, 19:26:21
Also total ungenau, da dort noch viele andere sachen mit einfließen, richtige CPU benches wären dort deutlich besser.


Wenn Interessiert das ????

Wenn man beim Zocken 7% mehr fps hat durch erhöhen NB Takt, dann ist das egal was wie noch eingreift....Hauptsache mehr fps.

Madkiller
2008-05-18, 21:37:25
Also total ungenau, da dort noch viele andere sachen mit einfließen, richtige CPU benches wären dort deutlich besser.
Nope, nicht ungenau. Ich habe natürlich auf ne CPU-Limitierung geachtet - ich sprach ja auch von "CPU-Leistung" nicht "mehr fps".

Mit den "richtigen CPU Benches" kannste alles machen, aber nicht auf die Praxis bei den Programmen die du nützt rückschließen.

Gast
2008-05-19, 19:26:24
Hier noch ein Tip an die Phenom Ocer: Überteibt es nicht mit der Vdimm, sonst könnt Ihr dem Phenom bald Gute Nacht sagen. Dieses Problem wird der Nehalem auch bald bekommen da integrierter Speichercontroller. Das sollten die HWLuxxer auch mal bedenken. In diesem Sinne, Prost.

HOT
2008-05-19, 19:46:21
Mal wieder ne Binsenweisheit mehr...
Das VDIMM Problem ist schon lange aus der Welt. Man darf halt nicht die Spannungen zuweit auseinandergehen lassen. Will heißen, ein Phenom macht 2,1V problemlos mit, wenn die iNB mit 1,25 oder 1,3V befeuert wird und nicht mit 1,1 oder gar 1,0V. Das macht aber auch kein aktuelles BIOS mehr mit, wenn 1066er RAM zum Einsatz kommt, gibts auch die entsprechende Spannung. Es gibt etliche, die DDR1066 RAM mit 2,1 oder 2,15V laufen lassen und kein Problem damit haben. Davon, dass ein Phenom wegen zu hoher Speicherspannung abgeraucht sein soll, hab ich schon seit vor Weihnachten nichts mehr gelesen/gehört. Ich frage micht ernsthaft, ob das nicht damals an was anderem lag.

Avalox
2008-05-19, 19:53:21
Es gibt etliche die DDR1066 RAM mit 2,1 oder 2,15V laufen lassen und kein Problem damit haben. Davon, dass ein Phenom wegen zu hoher Speicherspannung abgeraucht sein soll, hab ich schon seit vor Weihnachten nichts mehr gelesen/gehört. Ich frage micht ernsthaft, ob das nicht damals an was anderem lag.


Mein Phenom läuft seit Anbeginn mit DDR2-1066 RAM und einer Standard Spannug für den Speicher von 2,1V. Ist die reguläre Hersteller Betriebsspannung für die Riegel.
Ansonsten ist der Phenom natürlich nicht übertaktet oder sonst wie ausserhalb der Standard Einstellungen, gab damals eben gar keinen anderen DDR2 Speicher welcher die hohen Taktraten vom Hersteller freigegeben hatte. Probleme hatte ich nie.

Gast
2008-05-19, 19:54:45
Nunja, seit Weihnachten ist übertrieben. Und ja, ich habe davon gelesen und gehört. Bei meinem Freund ist ein A64 abgeraucht. Ob zu hoher Vdimm sei dahingestellt, die Vcore war jedoch nur moderat erhöht. Ich würde keine zu hohe Vdimm anlegen. Ob jetzt beim Phenom oder später beim Nehalem. Die Hardware ist mir einfach zu kostbar. Warten wir mal die kommenden Monate ab ob im Netz massig abrauchende Phenoms auftauchen:-)

HOT
2008-05-19, 19:58:34
Es gibt kein Problem mit erhöhtem VDIMM, Punkt.

Gast
2008-05-19, 20:13:38
Ich verweise auch mal auf diese Seite die erklärt einiges http://www.computerbase.de/news/hardware/prozessoren/amd/2007/dezember/vdimm-erhoehung_phenom/. Und nur weil du einen Punkt setzt ist die Problematik nicht aus der Welt. Ich habs wie gesagt auch bei meinem Freund gesehen. Also nix blabla. Ich sage nur ich würde es nicht übertreiben Punkt. Und ein Forum ist zum diskutieren da. Nur weil dein Phenom noch läuft brauchst du nicht andere als Dummschwätzer titulieren. Alles klar?

S940
2008-05-19, 21:40:18
Ich verweise auch mal auf diese Seite die erklärt einiges http://www.computerbase.de/news/hardware/prozessoren/amd/2007/dezember/vdimm-erhoehung_phenom/. Und nur weil du einen Punkt setzt ist die Problematik nicht aus der Welt. Ich habs wie gesagt auch bei meinem Freund gesehen. Also nix blabla. Ich sage nur ich würde es nicht übertreiben Punkt. Und ein Forum ist zum diskutieren da. Nur weil dein Phenom noch läuft brauchst du nicht andere als Dummschwätzer titulieren. Alles klar?
Naja wieviel VDIMM hatte er denn ? 2,1V sag ich mal nach "Gefühl" ist noch ok, bei 2,3 oder 2,5 wäre ich dagegen vorsichtig, aber ich weiß wie besagt nichts, reine Vermutung :)

ciao

Alex

darkcrawler
2008-05-20, 13:06:12
Es gibt kein Problem mit erhöhtem VDIMM, Punkt.


das problem hatte der k8 IMHO schon mit CnQ

was wird denn eigentlich nun aus den K10 dualcores, warum kommt amd damit nicht in die pushen, ist das redesign vs. agena so aufwendig, sollte doch eigentlich nicht so wild sein :confused:

dr.denton
2008-05-20, 13:18:17
Ich würde mich wundern, wenn man bei AMD vor der breiten Einführung von 45nm CPUs überhaupt Dualcore-K10 liefern sollte - im Moment hat man mit dem Brisbane einen günstigen und ausgereiften Kern bis 3,1Ghz bei moderater Leistungsaufnahme; ein DC K10 kann in der Hinsicht fast nur schlechter aussehen da 1. größer, 2. vermutlich weniger max. Takt und 3. wenig Mehrleistung ggü. K8 bei Software, die nicht massiv SMT nutzt.

mfG

denton

S940
2008-05-21, 00:04:01
Könnte mir vorstellen, dass AMD den Kuma gestrichen hat, bei den billigen X3 Preisen müßte man den normalen X2 fast auf Sempron Preisniveau senken (hochgetaktete BEs mal ausgenommen)... das bringt wohl nichts. Dafür wäre ein X2 Phenom um einiges größer was die DIE Ausmaße anbelangt .. ist also ne ziemlich schlechte Rechnung für AMD.

Soviel defekte QuadCores mit gleich 2 defekten Kernen gibt es wohl auch nicht, die Yields sind angeblich ja ganz toll (wenn man AMDs Aussagen glauben schenken kann).

Aja ausserdem kommt noch der Griffin raus. Zuerst mal nur für Notebooks, aber vielleicht verbaut AMD den AM2+ K8 auch in dem entsprechenden Gehäuse. Dann gäbs noch nen AMD Dual Core mehr ...

Einen der 3 Dual Cores hat AMD wohl wegrationalisiert, und es scheint den Kuma getrofffen zu haben. Aber warten wirs ab.

ciao

Alex

Bokill
2008-05-21, 11:21:47
Könnte mir vorstellen, dass AMD den Kuma gestrichen hat, bei den billigen X3 Preisen müßte man den normalen X2 fast auf Sempron Preisniveau senken (hochgetaktete BEs mal ausgenommen)... das bringt wohl nichts. Dafür wäre ein X2 Phenom um einiges größer was die DIE Ausmaße anbelangt .. ist also ne ziemlich schlechte Rechnung für AMD. ... Mag ja für AMD eine schlechte Rechnung sein ... Aber:

1. AMD hat Fertigungskapazitäten frei (laut den letzten Conference Calls zu den Finanzergebnissen).

2. Der K10-Kern hat Features, die es lohnt schnell weiter zu verbreiten:
a. Verbesserte Virtualisierungsfeatures,
b. SSE4a (wenns nicht schnell breitflächig verbreitet wird, hätte AMD sich SSE4a schenken können),
c. schnellerer HyperTransport 3.0,
d. Ein Sockel AM2+ mit integrierter Grafik mit Direct-X-10 aber mit K8-Legacy-Prozessoren? PR für einen neuen Sockel stelle ich mir anders vor.
e. [...].

Nimmt man Punkte 1. + 2.a. bis 2.d. zusammen, dann muss AMD eigentlich sogar noch mit K10-Dualcores und K10-Semprons nachlegen.
AMD kann gar nicht noch mehr die Herstellungskosten reduzieren, wenn die eigenen Preise dahinschmelzen, ohne reale Einführung von Technischen Neuerungen in allen Preiszonen.
Das Argument mit dem riesigen K10-Die ist hinfällig, wenn die eigenen Fabs nicht mal mit dem bisherigen "kompakten" K8-Kernen ausgelastet werden.

MFG Bobo(2008 )

S940
2008-05-21, 11:58:20
Mag ja für AMD eine schlechte Rechnung sein ... Aber:

1. AMD hat Fertigungskapazitäten frei (laut den letzten Conference Calls zu den Finanzergebnissen).

2. Der K10-Kern hat Features, die es lohnt schnell weiter zu verbreiten:
a. Verbesserte Virtualisierungsfeatures,
b. SSE4a (wenns nicht schnell breitflächig verbreitet wird, hätte AMD sich SSE4a schenken können),
c. schnellerer HyperTransport 3.0,
d. Ein Sockel AM2+ mit integrierter Grafik mit Direct-X-10 aber mit K8-Legacy-Prozessoren? PR für einen neuen Sockel stelle ich mir anders vor.
e. [...].
(...)
Das Argument mit dem riesigen K10-Die ist hinfällig, wenn die eigenen Fabs nicht mal mit dem bisherigen "kompakten" K8-Kernen ausgelastet werden.

zu 1. stimmt
zu 2a) wer virtualisiert heutzutage ? Mag ja in Zukunft interessant werden, aber dann kauf ich mir v.a. dafür mehr als 2 Kerne.
zu 2b) SSE4a ist v.a. eine HPC Befehlserweiterung, interessiert leider auch keinen
zu 2c) Den gäbs auch beim Griffin
zu 2d) Siehe Griffin ;-)

Das mit der Auslastung und dem kompakten Design stimmt, aber AMD muss z.Zt. v.a. sparen, da behaupte ich mal, dass es einfach zu teuer wäre ne 3te Fertigungungslinie für relativ billige dual cores aufzubauen, Auslastung hin oder her.

Was vielleicht auch noch gegen einen dual core K10 spräche, wäre der begrenze Nutzen des L3 Caches. Mit 4 Kernen und Optimierungen mag der gerade noch bei Quad Cores Sinn machen, aber ob der mit aktuellen single thread Anwendungen soviel bringen würde ... bezweifle ich auch, das ist aber nur Spekualtion, genaues weiß man nicht und es hängt v.a. vom NB Takt ;-)

ciao

Alex

Bokill
2008-05-21, 16:38:21
... aber AMD muss z.Zt. v.a. sparen, da behaupte ich mal, dass es einfach zu teuer wäre ne 3te Fertigungungslinie für relativ billige dual cores aufzubauen, Auslastung hin oder her. ... AMD kann sich sehr wohl pro Charge, bzw. pro "Lot" verschiedene Dice produzieren ...

Die sind in Dresden flexibler, als man gemeinhin annimmt. Die Fabs dort sollte man sich nicht als Nudelfabrik vorstellen, an denen an der ersten Linie Barilla Nr1. produziert wird und an der zweiten Linie Barillas Farfalle und an der dritten Linie Spagetti herauskommen.

AMD kann es sicher noch schlechter leisten als technisch rückständig erscheinen zu lassen. Feature-Set sinnvoll hin oder her - auch daran werden neue Produkte bewertet.

In wie weit ein L3-Cache notwendig/leistungssteigernd bei einem Dual- und Einzelkernprozessor wirkt ... ist in diesem Sinne erst mal unerheblich. Wenn AMD noch Wafer-Kapazitäten frei hat ... dann können sie es auch dafür nutzen.

Was den Griffin angeht. Da wunder ich mich auch, warum der "nur" für die Mobilplattform vorgehesen ist. Womöglich will AMD die Mainboards im Desktop-Bereich nicht so stark reglementieren (was mitunter notwendig wäre).

MFG Bobo(2008 )

S940
2008-05-21, 17:30:08
Die sind in Dresden flexibler, als man gemeinhin annimmt. Die Fabs dort sollte man sich nicht als Nudelfabrik vorstellen, an denen an der ersten Linie Barilla Nr1. produziert wird und an der zweiten Linie Barillas Farfalle und an der dritten Linie Spagetti herauskommen.
Ist schon klar, ich meinte mit Linie auch weniger eine Art Fließband, sondern alleine die Fähigkeit ne Nudel Dualkern Typ 3 herstellen zu können. Da braucht man nicht nur ne Maske, sondern auch wieder extra Tests, extra Bonding ... da hängt einiges dran was gut Geld kostet.

Was den Griffin angeht. Da wunder ich mich auch, warum der "nur" für die Mobilplattform vorgehesen ist. Womöglich will AMD die Mainboards im Desktop-Bereich nicht so stark reglementieren (was mitunter notwendig wäre)Hmm was soll reglementiert werden ? Der Griffin hat halt eine Spannungsebene mehr, die könnte man halt nicht einsetzen, da bliebe es bei einem AM2+ Griffin bei 2. Ansonsten seh ich da kein Problem.

Mit Deinen tech. Neuerungen hast Du sicherlich recht, schön wärs, aber wie schon erwähnt .. AMD spart an allen Ecken und Enden ... die haben sogar athlon.de wegrationalisiert, wenn man da schon anfangen muss zu sparen ...

Kurz: "Kein Geld" ist das gewichtigere Argument als "Feature-Set".

ciao

Alex

Gast
2008-05-22, 05:08:45
Im Luxx Forum haben sich ein paar Phenoms schon pulverisiert. Überhöhte Vdimm lässt grüssen...

g0ldmund
2008-05-23, 17:00:28
ja vor nem halben jahr oder so.
HOT hat schon recht...

Avalox
2008-05-26, 20:31:48
Zwar kein Phenom, aber die identische Technik.

Endlich wieder Spec Werte für die aktuellen Opterons, welche sich gegen die aktuellen Xeon sehr gut platzieren können.

http://www.heise.de/newsticker/AMDs-2-5-GHz-Opteron-Vierkerne-messen-sich-mit-der-Konkurrenz--/meldung/108474

Sorkalm
2008-05-26, 20:34:08
Zumindest gegen den Intel Xeon MP schlägt er sich sehr gut, da merkt man halt, dass Intel da der 45-nm-Shrink fehlt.

Avalox
2008-05-26, 20:36:57
Zumindest gegen den Intel Xeon MP schlägt er sich sehr gut, da merkt man halt, dass Intel da der 45-nm-Shrink fehlt.

Ich denke nicht, dass fiktive 45nm Xeon dort wirklich anders abschneiden würden. Die Probleme der Intel CPUs sind systembedingt und werden sich auch innerhalb dieser CPU Generation mehr ändern.

gamingforce
2008-05-26, 20:47:04
Im Luxx Forum haben sich ein paar Phenoms schon pulverisiert. Überhöhte Vdimm lässt grüssen...

aha is klar, zeig mir mal einen:rolleyes:

gamingforce
2008-05-26, 20:49:22
Es gibt kein Problem mit erhöhtem VDIMM, Punkt.

Dito.

son Bullshit von wegen erhöhen von VDIMM killt die CPU:mad:

Bokill
2008-05-26, 20:51:20
Zwar kein Phenom, aber die identische Technik.

Endlich wieder Spec Werte für die aktuellen Opterons, welche sich gegen die aktuellen Xeon sehr gut platzieren können.

http://www.heise.de/newsticker/AMDs-2-5-GHz-Opteron-Vierkerne-messen-sich-mit-der-Konkurrenz--/meldung/108474 Also, wenn man die Zahl der Kerne berücksichtigt, dann schlagen sich aber auch die IBM-Systeme mit dem Power6 sehr gut ... wie auch Suns Niagaras ... und sie skalieren (Victoria Falls mit zwei Sockeln) auch sehr hübsch.

MFG Bobo(2008 )

Sorkalm
2008-05-26, 21:00:07
Ich denke nicht, dass fiktive 45nm Xeon dort wirklich anders abschneiden würden. Die Probleme der Intel CPUs sind systembedingt und werden sich auch innerhalb dieser CPU Generation mehr ändern.

Naja, der Cache und der Takt könnte etwas helfen. Viel wirds aber nicht sein

Vor Nehalem kommt doch noch Dunnington, der native Hexa-Core mit riesigen Caches für S771 / MP. Mal schauen was der bringt.
Für einen Xeon MP @ Nehalem müssen wir ja vermutlich noch etwas warten...