PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU Fragen, wieso 8 Kerne schlechter?


Gast
2013-06-03, 22:55:40
Hi, doofe Frage, wieso ist der FX-8350 mit seinen 8 Kernen oder der FX-6350 mit seinen 6 Kernen, schwächer als z.B. der Intel Core i5-3470 mit seinen 4 Kernen?
Oder sind die vom FX-8350er nur solch "virtuelle" kerne und was genau sind virtuelle Kerne?
Wäre klasse, wenn ihr mich mal schnell aufklären könntet.
Grüße
Tobi

Eisenoxid
2013-06-03, 23:01:52
Die Intels haben einfach deutlich mehr Leistung pro Kern. In Anwendungen die weniger als 8 Kerne unterstützen (wie die meisten Spiele) sind deswegen die AMD klar unterlegen.

Schwafelwächter
2013-06-03, 23:02:40
Hi, doofe Frage, wieso ist der FX-8350 mit seinen 8 Kernen oder der FX-6350 mit seinen 6 Kernen, schwächer als z.B. der Intel Core i5-3470 mit seinen 4 Kernen?
Oder sind die vom FX-8350er nur solch "virtuelle" kerne und was genau sind virtuelle Kerne?
Wäre klasse, wenn ihr mich mal schnell aufklären könntet.
Grüße
Tobi
"wer lesen kann ist klar im Vorteil"
wenn du das gelesen hast wird das andere wohl auch dort stehen :biggrin:

Gast
2013-06-03, 23:07:10
Die Intels haben einfach deutlich mehr Leistung pro Kern. In Anwendungen die weniger als 8 Kerne unterstützen (wie die meisten Spiele) sind deswegen die AMD klar unterlegen.
Das mag ja sein, aber wenn ich sehe das die neue Konsolengeneration je 8 Kerne hat, würde dann ein AMD nicht mehr leistung entfalten können?
Wird er im Moment nicht durch die schlechte Optimierung auf 3-4 Kerne gebremst?
Immerhin muss man sich zumindest bei Spiele, auf die aktuelle Konsolengeneration orientieren, da die PC Version leider oft portiert wird.

Gast
2013-06-03, 23:18:55
"Hier mal ein Update wenn eine Software die Cores richtig ausnützt z.b Crysis 3 da geben sich auch einige i7 geschlagen.Es liegt leider noch Hauptsächlich an der Software die Kerne werden nicht ausgereizt



http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578/
"

Hatte ich doch recht?
Das ist ein Geizhals kommentar.

Gast
2013-06-04, 04:24:45
Hi, doofe Frage, wieso ist der FX-8350 mit seinen 8 Kernen oder der FX-6350 mit seinen 6 Kernen, schwächer als z.B. der Intel Core i5-3470 mit seinen 4 Kernen?
Das hängt ganz vom Anwendungsfall ab. Ein großer Teil der verfügbaren Software verwendet keine wirklich parallelisierten Threads. Die CPU, welche über den schnellsten Einzelkern verfügt, liegt in diesem Fall IMMER vorne. Die intel Cores haben mit Abstand die bessere Technik und rechnen daher schneller. Dann gilt weiterhin: Je weniger Cores, desto weniger Strom, desto weniger Wärme durch Verlustleistung, desto bessere Ausgangslage für Turbo-Features, wenn zB. ein einzelner Kern besonders stark belastet wird. Das Beste zum Schluß: Die meisten Compiler sind für intel-CPUs optimiert. Imo ist es daher so, daß der Code von vorneherein immer auf die Bedürfnisse von intel-CPUs maßgeschneidert wird. Daß eine AMD-CPU vielleicht im ein oder anderen Bereich brachliegende Reserven haben könnte, interessiert den Compiler herzlich wenig.

Oder sind die vom FX-8350er nur solch "virtuelle" kerne und was genau sind virtuelle Kerne?
Nein. Von 'virtuellen Kernen' spricht man nur bei den intel-CPUs mit HT. Bei AMD-CPUs sind es Module. Was AMD als 8 Cores vermarktet, sind in Wirklichkeit nur 4 Module, welche jeweils über eine doppelte Integereinheit verfügen. Das Konzept ist der totale Reinfall, was sich mehr als deutlich in der Leistung widerspiegelt und inzwischen selbst von AMD offiziell bestätigt wurde. Besonders peinlich ist in dem Zusammenhang der FX-Hotfix von Microsoft. Die AMD-CPUs werden doch tatsächlich schneller, wenn Windows die AMD-8-Kerner so behandelt, als hätten sie nur 4 Kerne. D.h.: Möglichst nur 1 Thread pro Modul. :ulol:
http://www.tweakpc.de/hardware/tests/cpu/amd_bulldozer_fx_patch/s01.php

---------------------------------------------------------------------------------------

Der Link zum Crysis3-PCGH-Benchmark, wo afaik eine Szene mit außergewöhnlich viel Grashalmen gebencht wurde, ist -wie immer- komplett irreführend.
"möglicherweise hat Crytek die Cryengine 3 in den letzten Jahren massiv auf Multithreading getrimmt"

Allein die massive Wortwahl zeigt dir massivst, daß es hier mal wieder massiv darum ging, ein massiv fragwürdiges Ergebnis zu publizieren, um damit massivst viele Mausklicks zu generieren. Meines Wissens spielen selbst die härtesten AMD-Fanboys Crysis 3 nicht mehr in der Version 1.0. - Ob in der aktuellen Version von Crysis 3 die AMD-CPUs immernoch so weit vorne liegen? Desweiteren handelt es sich bei dem PCGH-Benchmark um einen sogenannten CPU-Test, welcher unter völlig praxisfernen Settings durchgeführt wurde: 1280x720, kein AA, kein AF und eine Stelle, die im ganzen Spiel vielleicht 5 Minuten vorkommt. Repräsentativer gehts nicht mehr. *hust* :D

Gast
2013-06-04, 08:56:26
Dank dir, jetzt bin ich schlauer ^^

Lowkey
2013-06-04, 08:57:11
Der Benchmark war für viele Neukäufer von AMD ein Stern am Nachthimmel. Man dachte, dass AMD´s Technik auf Nicht-Support beruht.

Jetzt kann man auch seitens der Aussage von AMD und dem Nachtest sagen, dass das Spiel zwar mit den Kernen etwas anfangen kann, dann aber das Ergebnis im Detail bei normaler Auflösung, aktuellen Patches und neuen Grafikkartentreibern wieder andere Ergebnisse hervorbringt.

Erst die neuen Konsolenspiele Ende 2013 werden zeigen, ob die Spiele wirklich grundsätzlich mit AMD besser laufen werden.

Schrotti
2013-06-04, 11:06:54
Desweiteren handelt es sich bei dem PCGH-Benchmark um einen sogenannten CPU-Test, welcher unter völlig praxisfernen Settings durchgeführt wurde: 1280x720, kein AA, kein AF und eine Stelle, die im ganzen Spiel vielleicht 5 Minuten vorkommt. Repräsentativer gehts nicht mehr. *hust* :D

Unsinn.

Man wählt eine kleine Auflösung und kein AA/AF um die Grafikkarte als limitierenden Faktor auszuschließen.

Es soll ja ein CPU Bench sein und kein GPU Bench.

Gast
2013-06-04, 12:14:05
nicht zu vergessen den doppelten Stromverbrauch bei den AMDs, über 200 watt anstelle der intels, ist einfach heftig.

Gast
2013-06-04, 17:51:31
Unsinn.

Man wählt eine kleine Auflösung und kein AA/AF um die Grafikkarte als limitierenden Faktor auszuschließen.

Es soll ja ein CPU Bench sein und kein GPU Bench.
Nein, daß oben Gesagte ist kein Unsinn. :rolleyes: Bitte den Zusammenhang beachten. Es ist klar, daß man für einen CPU-Test die Grafikkarte als Bremsklotz ausschließen möchte. Darum Gegenfrage: Warum macht man überhaupt einen CPU-Bench mit der Crysis 3 Engine? ....Weil man sich dagegen wehren möchte, daß jemand wie bei den üblichen synthetischen Benchmarks sagt: Das ganze hat mit der Praxis (in diesem Fall: Gamingperformance) nichts zu tun.

Was hat also so ein SpielXY-CPUbench, wo jemand mit dem Mikroskop eine Stelle gesucht hat, welche einer bestimmten CPU entgegenkommt, mit der tatsächlichen Spielerealität unter Ingame-Bedingungen zu tun? :uponder:

Und dann ausgerechnet noch die Stelle mit den vielen Gräsern, wo die Grafikkarte in jedem Fall ins Limit rennt. Aus rein technischer Sicht ist dieser Bench interessant. Aber für die Gamingpraxis (und damit für mich) hat dieser Artikel von PCGH wohl kaum auch nur die geringste Relevanz. - Oder siehst du das anders?
Genausogut kann man einen intel- und einen AMD-PC zeitgleich aus dem Fenster werfen und stoppen, welcher als erstes aufs Pflaster schlägt. Dann kann man einen Artikel schreiben: Und wieder ein echter Knaller aus dem PCGH-Labor! - AMD's FX-PC Dank Turbo und entsprechend dimensioniertem Netzteil total überraschend als erster im Ziel! (Die Titans wurden vorher ausgebaut, um sie als limitierenden Faktor ein für alle Mal auszuschließen.) :ulol:

Bitte keine Diskussion jetzt zum Thema 'Sinn und Unsinn von Pseudo-CPU-Benchmarks'. Meine Intention war es lediglich, den TS auf gewisse 'Unsitten' aufmerksam zu machen. :D

Matrix316
2013-06-04, 18:01:26
Das mag ja sein, aber wenn ich sehe das die neue Konsolengeneration je 8 Kerne hat, würde dann ein AMD nicht mehr leistung entfalten können?
Wird er im Moment nicht durch die schlechte Optimierung auf 3-4 Kerne gebremst?
Immerhin muss man sich zumindest bei Spiele, auf die aktuelle Konsolengeneration orientieren, da die PC Version leider oft portiert wird.
Die Kerne in den neuen Konsolen, haben aber pro Kern eine viel gringere Leistung als ein Core i irgendwas Kern. Deswegen werden denen die 8 Kerne auch nicht unbedingt helfen. Was die Konsolen haben ist eine schnelle Speicheranbindung wo CPU und GPU auf den gleichen Speicher zugreifen können.

Spasstiger
2013-06-04, 18:37:50
Es ist auch so, dass die Intel-CPU besser mit der Kernzahl skalieren. Die 8-Kerner von AMD skalieren eher wie 7-Kern-Prozessoren, während die 4-Kerner von Intel mit Hyperthreading eher wie ein 5-Kern-Prozessor skalieren. Die Modulbauweise bei den FX-Prozessoren erlaubt keine 100% lineare Leistungssteigerung gegenüber einem Kern, da sich immer zwei Kerne gemeinsame Resourcen teilen müssen.
Hinzu kommt, dass z.B. die neuen Core i7 mit Haswell-Architektur pro Takt und Kern je nach Anwendung bis zu doppelt so schnell sind wie die AMD-FX-Prozessoren. AMD kann diesen Nachteil nur sehr geringfügig mit höheren Taktraten ausgleichen. Die höhere Kernzahl bei den FX-8xxx (effektiv ja auch nur 40% mehr, effektiv 7 vs. effektiv 5) reicht dann lediglich, um im besten Fall auf einen Gleichstand mit Intels schnellsten Vierkernern zu kommen.

Die Entwicklung der Performance-CPUs bei AMD läuft momentan in eine Sackgasse und die Argumente pro AMD beschränken sich auf die Verfügbarkeit eines vollen Featuresets zum kleinen Preis.

Gast
2013-06-04, 20:31:09
Würdest du zum Gamen also eher eine Intel CPU als eine AMD FX CPU empfehlen?
Schade das AMD so nachlässt.

Player18
2013-06-04, 21:35:59
Intel wenn du richtig leistung willst dann kaufst dir ein I7 3930k holst dir ne Wakü und Taktest das ding auf 4,5GHZ!

aber achtung! Sand Bridge unterstütz kein PCI 3.0!

Gast
2013-06-05, 00:18:53
Würdest du zum Gamen also eher eine Intel CPU als eine AMD FX CPU empfehlen?
Momentan gibt es da wohl leider keinen Zweifel.

Allerdings sind die AMD-FX CPUs in der Praxis auch nicht so schlecht, wie sie gemacht werden. Ich glaube fest daran, daß man mit den Dingern problemlos spielen kann. Ich bin selbst noch auf einem 1090T unterwegs. Mit der richtigen Grafikkarte (GTX680) kann man damit noch so ziemlich alles spielen, was derzeit auf dem Markt ist. Man darf nur nicht in der Annahme kaufen, daß man bei AMD eine zukunftstaugliche Top-CPU bekommt. Der Preis sagt ja im Prinzip auch schon alles. Man bekommt unteres Mittelmaß, was zum Spielen -je nach Grafikkarte- immernoch OK sein kann.

Grob geschätzt hat sich in Sachen CPU-Leistungsbedarf in den letzten Jahren nur wenig bewegt. Alle Game-Engines sind imo so programmiert, daß sie auf einem AMD/intel Quadcore, welcher 3 GHz pro Kern hat, problemlos laufen. Wenn ich hier Quadcore sage, dann meine ich damit selbstverständlich 4 Module bei AMD, was also 8 'FX-Kerne' bedeuten würde.

Aber wie gesagt: Im Moment würde ich mein Geld bei Neukauf lieber in eine K-CPU von intel investieren. Was AMD mit dem Bulldozer erschaffen hat, ist für mich völlig unbegreiflich. Wenn man Deneb/Thuban konsequent weiterentwickelt hätte, hätte man heute ohne jede Mühe allein durch den Die-Shrink einen echten 6-Kerner mit 5 GHz im Programm. Auch wenn der langsamer als ein aktueller intel-Quad sein würde, wäre die Hoffnung, daß zukünftige Titel von den Kernen profitieren können weitaus größer, als dies bei den gegenwärtigen FX-CPUs der Fall ist. 4 Module können imo auf keinen Fall mit 4 oder gar 6 autonomen Kernen mithalten.
Und wenn die Parallelisierung endlich kommt, wird es doppelt bitter. Denn dann verliert die IPC-Leistung an Bedeutung. Und das ist ausgerechnet das, was so ein Bulldozer-Modul besonders gut können sollte (mit zwei Integereinheiten). Wenn echtes Multithreading irgendwann mal gefragt ist, prophezeie ich an dieser Stelle bereits ein neues Debakel für die 'siamesischen' Zwillings-Cores von AMD. An ein ordentliches Timing ist bei so einer Plattform nicht zu denken. Die doppelten Integereinheiten werden sich im Bereich der Peripherie erfolgreich gegenseitig blockieren und alles aus dem Tritt bringen. :(

Matrix316
2013-06-05, 10:30:28
Intel wenn du richtig leistung willst dann kaufst dir ein I7 3930k holst dir ne Wakü und Taktest das ding auf 4,5GHZ!

aber achtung! Sand Bridge unterstütz kein PCI 3.0!
Sockel 2011 eigentlich schon, oder? http://geizhals.at/de/asus-p9x79-quad-pc3-10667u-ddr3-90-mibhe0-g0aay00z-a699593.html

Player18
2013-06-05, 16:38:20
Sockel 2011 eigentlich schon, oder? http://geizhals.at/de/asus-p9x79-quad-pc3-10667u-ddr3-90-mibhe0-g0aay00z-a699593.html

Ja Mainboard kann PCI 3.0 aber CPU nicht. Ich habe immer noch die Hoffnung das Ivy bridge E rauskommt :)
http://ark.intel.com/de/products/63697

Matrix316
2013-06-05, 16:44:44
Ja Mainboard kann PCI 3.0 aber CPU nicht. Ich habe immer noch die Hoffnung das Ivy bridge E rauskommt :)
http://ark.intel.com/de/products/63697
Ja da war doch was... aber immerhin haste mind. zwei echte 16er Slots, was heißt, dass SLI/Crossfire genauso schnell sein müsste wie mit zwei 8er PCIe 3 Slots mit Ivy Bridge...

Wobei im Internetz steht, dass es doch geht: http://www.anandtech.com/show/5264/sandy-bridge-e-x79-pcie-30-it-works http://www.tomshardware.co.uk/forum/310170-30-pcie :uponder:

Player18
2013-06-05, 18:55:45
weis nicht bezweifel es irgendwie hab diesen Hack auch gemacht. (Gen3) beim Inspector stand dauch pci 3.0 unter last. aber das ist ja ein MB Hack. der müsste sich ja normal auf dem MB speichern ? weil ich hab neue ssd installiert und es steht schon wieder nur pci 2.0 da.

Ich hab beim spielen nix gemerkt. die FPS zahl war gleich. vll im SLI betrieb hab ich aber net.

aus dem inet kopiert :

Bei Nvidia ist man nun zum Entschluss gekommen, dass man mit den normalen Treibern keinen offiziellen Support für solche Gespanne einrichten wird. Bei mehreren Tests mit der Geforce GTX 680 und Geforce GTX 670 hätte sich herausgestellt, dass die erzwungene 8-GT/s-Verbindung Probleme beim Signal-Timing macht.

Matrix316
2013-06-05, 20:01:03
Ja, weil offiziell auch nur AMD PCIe 3 unterstützt hat, bislang.

Gast
2013-06-06, 18:21:26
Momentan gibt es da wohl leider keinen Zweifel.
Das heißt.... einen wunden Punkt gibt es noch, welcher imo nicht hinreichend gewürdigt wird:

http://www.youtube.com/watch?v=ClKF8sLRCGo

Sobald die 'Poison-Pill' geschickt wird, ist der Haswell im Eimer, der Mikrocode im Chipsatz wird gelöscht und die Daten auf einer verschlüsselten Festplatte sind endgültig verloren. Und das Beste: Per GPS-App kann jedermann ganz einfach feststellen, wo der Besitzer eines solchen, angeblich gestohlenen PCs gerade ist.

intel vermarktet das offiziell als 'Diebstahlschutz'.

Und dieses Konzept macht ja auch wirklich Sinn. Wenn jemand einen PC klaut, auf dem alle Passwörter (welche sonst nirgends gespeichert sind), alle E-Mails (welche nie ausgedruckt wurden), alle Spiele-Accounts und vor allem die Spielstände, die Facharbeit, mühevoll erstellte Bewerbungsunterlagen, Arbeitsnachweise, Kontoauszüge, die komplette Buchhaltung oder auch 'nur' ein selbstgeschriebenes Gedicht oder Foto von der eigenen Tochter gespeichert sind, dann ist es doch klar, daß dieser PC umgehend vollkommen zerstört werden muß. - Oder nicht? :uponder:

Ich mein... wie scheiße-blöd kann man sein? Wie oft werden komplette DESKTOP-PCs gestohlen (wir reden ja schließlich bei Sandy/Ivy/Haswell von Desktop-CPUs und nicht von irgendwelchen mobilen Systemen)? In über 90% wollen die Leute ihren PC / ihre Daten am liebsten wiederhaben. (Die restlichen 10% sind imo Steuerhinterzieher, Wirtschaftsverbrecher und andere Kriminelle.)
Bei intel werden garantiert keine kriminell-dummen Voll-Idioten beschäftigt. Das ganze 'Anti-Theft'-Konzept muß also einen tieferen Sinn haben.... mal überlegen....

....was, zB. wenn auf dem Rechner Daten vermutet werden, welche die Sicherheit des Internets gefährden? Z.B. weil man die deutsche Staatsangehörigkeit besitzt oder noch schlimmer: die falsche Religion (ich denke es wissen alle welche ich meine)?

Ich glaube nicht, daß man im 'digitalen Verteidigungsfall' zimperlich mit intels Poison-Pills umgehen wird. Sobald die Politiker die Poison-Pills von intel in die Finger bekommen, bräuchte man zB. keine Internet-Sperren mehr. :ulol:

Wie wäre es, wenn wir das ganze 'Anti-Theft' Konzept von intel einfach in fremdgesteuerten 'Selbstzerstörungsmechanismus' für außer Kontrolle geratene EDV-Systeme umtaufen? Ich weiß, ich weiß.... sowas wäre den Kunden mit IQ oberhalb der Grenze zum Schwachsinn nur schwer vermittelbar....

Belassen wir es daher bei dem Slogan: Sicherheit hat oberste Priorität. :ulol:
In dem Zusammenhang:

"McAfee and Intel partner up to put anti-theft tech in Ultrabooks"
http://www.engadget.com/2011/09/14/mcafee-and-intel-partner-up-to-put-anti-theft-tech-in-ultrabooks/

"John McAfee is 'person of interest' in murder (..)
The brilliant computer mastermind has been growing increasingly bizarre in recent years, according to reports, fighting over dogs, becoming estranged from other expats and associating with gangsters."
http://now.msn.com/john-mcafee-accused-of-murder-in-belize-and-is-on-the-run-from-police

Ich bin sicher, daß man bei intel auf das äußerste darauf bedacht ist, in welche Hände man die Poison-Pill gibt. Nicht das am Ende irgendwelche ungeeigneten Personen in die Lage versetzt werden Entscheidungen zu treffen, welche nicht im Sinne des Erfinders waren............. :|

Nicht nur bei AMD macht man kapitale Fehler. :D Oben haben wir gelernt, wie man einen PC deaktiviert, welcher außer Kontrolle geraten ist: Mit einer Poison-Pill. Scherzfrage: Wie deaktiviert man denn nun eine 'Poison-Pill', welche außer Kontrolle geraten ist..... :ubash2:

;)

Supern0va
2013-06-07, 02:26:16
Mir ist das ziemlich egal was Intel da verbreitet... Wenn man sich mal folgendes Bild ansieht dann gibt es keine Alternative.
http://i.imgur.com/5aJTp.png
Zu mindestens nicht für Leute die ein bestimmtes Spiel spielen.

Achja und das gilt auch für GPUs.
In meinem Fall würde die 7870 zwar höhere max. Frames erzeugen aber wenn man sich die min. Frames ansieht dann liegt die 660 deutlich höher und bricht weniger stark ein.

Schlussendlich kommt es nur darauf an was mit welcher Hardware am besten läuft inkl. Treiber & Einstellung.

Spiel A) Nvidia/Intel
Spiel B) AMD/Intel
Spiel C) AMD/AMD
Spiel D) AMD/Nvidia

Aktuell bin ich mit Intel/Nvidia sehr zufrieden und sehe keinen Grund AMD zu bevorzugen.
Man hat auf Grund fehlender Konkurrenz sowieso keine Auswahl.

Gast
2013-06-10, 04:56:31
Wenn man sich mal folgendes Bild ansieht dann gibt es keine Alternative.
http://i.imgur.com/5aJTp.png
Zu mindestens nicht für Leute die ein bestimmtes Spiel spielen.

Dein Link hat mich neugierig gemacht. Hab Planetside 2 jetzt mal installiert und ein bischen getestet. Das Spiel an sich ist klasse gemacht. Dennoch fragt man sich was die Programmierer da verbrochen haben. Wenn das die neue Free2Play-Qualität wird, dann muss man sich um den Absatz von Konsolen wohl keine Sorgen machen.

Dein Screenshot ist übrigens stark beschönigend. 1090T@GTX680 schafft avg bei mir nur 20 FPS (@Ultimate). Bei einem Bekannten mit intel Dualcore sind es stellenweise glatt 0 FPS (@low). Hinzu kommen offenbar Memoryleaks, daß sich die Balken biegen. Mit 16GB kann man ca 1- 1,5 Stunden am Stück spielen mein Bekannter hat Dank 4GB Ram nur 15-25 Minuten bis zum obligatorischen 'Planetside2.exe has stopped working.' :ulol:

Soweit ich die Core-Auslastung sehen kann, nutzt das Spiel die zusätzlichen Cores sehr schlecht. Der erste Core wird zu 90-100% belastet, während die anderen 5 Cores bei 10-25% rumgammeln.

Ist das der langersehnte Präzedenzfall für ein Upgrade auf Haswell? - Leider nein. Denn auch mit einer Super-CPU ist das Spiel auf der Schmerzgrenze, denn die FPS-Angaben auf dem Screenshot sind wohl leider arg beschönigend. Zumindest wenn mehr als 20 Gegner auftauchen. Wenn morgens kaum noch wer auf dem Server ist und man ein von allen Spielern seit Stunden verlassenes Areal aufsucht, um dort im Dunklen den Kopf an eine schwarze Wand zu drücken, dann schafft eine GTX680 rekordverdächtige 40FPS! Dafür gehen dann aber auch die Temperaturen der Grafikkarte im Spielmenü auf über 80°C hoch. :|

Die intel-CPUs aufgrund dieses Spiels als alternativlos hinzustellen, trifft den Sachverhalt imho nicht wirklich. Man kann inzwischen schon für kleines Geld Spiele wie Crysis 3 und BF3 kaufen, welche technisch in einer komplett anderen Liga spielen. Da könnten die Programmierer von Planetside 2 vermutlich lernen, wie man mit besserem Code selbst aus kleineren CPUs deutlich mehr Leistung rausholt. ;)

Ein interessantes Spiel.... aber die Engine läßt viel Wünsche offen. Wenn ich nur einen Mittelklasse-PC hier hätte und dann alles auf low hätte und trotzdem ist das Spiel stellenweise unspielbar und stürzt regelmäßig ab, würde ich rufen: Man - was für ein Schrott! ...und es im selben Atemzug deinstallieren. - Nicht eine Sekunde würde ich darüber nachdenken mir extra für dieses Spiel einen Haswell zu kaufen. - Das Geld investiert man imo besser in ein anderes Spiel. :D

Supern0va
2013-06-10, 20:15:25
Ja Planetside 2 ist sehr schlecht optimiert. Das Gameplay ist aber dennoch hervorragend.
Ich komme mit meiner UserOptions.ini Anpassung in den größten Kämpfen auf min. ~45 FPS (Indar@Biolab/TechPlant etc.!) - In den Randzonen und bei kleineren Schlachten habe ich stetig 60 FPS. Die Grafik sieht natürlich nicht mehr so toll aus wie auf "Ultra", dafür läuft es aber sehr flüssig und sieht immer noch "gut" aus.
Das Spiel läuft je nach "Patch" recht stabil. Hatte bisher nur sehr wenige Game Crashes die meist mit Ladehänger und Server Disconnects zu tun hatten.

(3570/660@1150/8GB/Win764)

http://www.bilder-upload.eu/thumb/ca6f17-1370906728.jpg (http://www.bilder-upload.eu/show.php?file=ca6f17-1370906728.jpg)

UserOptions.ini

[Rendering]
GraphicsQuality=3
TextureQuality=1
ShadowQuality=0
RenderDistance=2476.000000
Gamma=0.000000
MaximumFPS=250
UseLod0a=0
VSync=0
OverallQuality=-1
LightingQuality=3
FogShadowsEnable=0
EffectsQuality=2
TerrainQuality=2
FloraQuality=2
ModelQuality=2
ParticleLOD=1
MotionBlur=0

Crysis 3 und BF3 kaufen
BF3 hat maximal 64 Leute pro Map und der Crysis 3 Multiplayer maximal 16 glaube ich. Das sind im Gegensatz zu Planetside 2 wo man schon mal 200 am Schirm haben kann "Peanuts". Die Map, bzw. der Kontinent fasst maximal 2000 Spieler in Planetside 2.

http://youtu.be/IJYRCxhUjMQ?t=9s

Dafür gehen dann aber auch die Temperaturen der Grafikkarte im Spielmenü auf über 80°C hoch.
Wenn das die neue Free2Play-Qualität wird, dann muss man sich um den Absatz von Konsolen wohl keine Sorgen machen.

Macht nichts, bis 90 Grad ist alles in Ordnung.
DoubleBuffer & Adaptiv VSync aktivieren.

Der Playstation 4 Port von Planetside 2 wird nicht besser.
Läuft mit nur 30 FPS und außerdem werden die Kontinente verkleinert. Auch wird es weniger Spieler pro Kontinent geben laut Higby (Sony Online).