Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Zum Launch des Phenom II X4 965 BE
Leonidas
2009-08-14, 01:30:19
Link zum Artikel:
http://www.3dcenter.org/artikel/zum-launch-des-phenom-ii-x4-965-be
MadManniMan
2009-08-14, 06:08:01
Moin Leo!
Erkläre mal die Verhältnisse von 1:11 und 1:20 - ich schnall's nich! Aber is ja auch früh...
Lonesloane
2009-08-14, 10:32:10
Wann werden endlich "normale" Auflösungen zum Testen verwendet????
KEIN MENSCH SPIELT MIT 800x600!!!!
Die Aussagekraft ist gleich NULL!!
Rennen werden auf der Rennstrecke gefahren. Der Motor, der im Standgas ohne Last am höchsten dreht ist nicht notwendigerweise im Rennen unter Vollast auch der Schnellste!!
Der Schluß, daß der beste Prozessor bei 800x600 ohne AF/AA auch bei 1680x1050 mit AF/AA der beste ist, ist nicht belegbar und vollkommen unwissenschaftlich, da die Testbedingungen komplett anders sind.
Dasselbe mit den unsäglichen single-Thread Pi-Benchmarks und sonstigen künstlichen Benchmarkprogrammen.
Ich lese ausschließlich Spielbenchmarks und echte Programmtests, alles andere ist verlorene Zeit und bringt nichts.
Unter realen Bedingungen stehen die AMDs den viel teureren Core-i7 in nichts nach und sind oft sogar schneller, wo ist also der Nachteil? Wenn ich den ganzen Tag codiere, dann könnte sich der Mehrpreis evtl. bezahlt machen, aber wer macht das schon? Ausserdem kann ich beim kodieren durchaus 10s länger warten, bei den FPS in Spielen aber nicht.
1:1,1 ist das Verhältnis der Taktraten zueinander (z.B. 2,6 gegen 2,83)
RavenTS
2009-08-14, 12:28:38
...
1:1,1 ist das Verhältnis der Taktraten zueinander (z.B. 2,6 gegen 2,83)
Dann fehlen ja aber die Kommata :redface:
Klingone mit Klampfe
2009-08-14, 12:39:59
Unter realen Bedingungen stehen die AMDs den viel teureren Core-i7 in nichts nach und sind oft sogar schneller, wo ist also der Nachteil?
Das 3DCenter war schon immer Intel-freundlich. AMD gilt hier als Billigmarke, quasi CPU-ALDI.
Blacksoul
2009-08-14, 12:45:10
Das 3DCenter war schon immer Intel-freundlich. AMD gilt hier als Billigmarke, quasi CPU-ALDI.
Interessante Behauptung. Wenn es hier mal eigene Hardware-Tests geben würde und nicht nur Zusammenfassungen von ComputerBase, dann könnte man dies sicherlich widerlegen.
t.b.d
Matrix316
2009-08-14, 13:06:32
Unter realen Bedingungen stehen die AMDs den viel teureren Core-i7 in nichts nach und sind oft sogar schneller, wo ist also der Nachteil?
Was sind reale Bedingungen? Tests in 1.280 x 1.024 mit einer alten 9800GTX wo heute Breitbildmonitore und 1900x1200 fast zu standard werden?
Es geht doch in erster Linie um die CPU und nicht um die Grafikkarte. Also muss man jeden Bremsfaktor eliminieren. Und das tut man in einem CPU Test, in dem man die Auflösung ganz niedrig macht. Dieser Test sagt natürlich nicht, was passiert, wenn du Crysis mit einer 6800 GT in 1900x1200 und 8xAA und 16AF auf Very High spielst, aber da ist die CPU auch egal, weil da die Grafkkarte limitiert.
Mr.Fency Pants
2009-08-14, 14:41:43
Ach ja, das alte Lied... *aufdargogespanntseidergleichumdioeeckesprint*
Den ultimativen Test, der alle Bereiche abdeckt und alle unterschiedlichen Usern zufriedengestellt werden gibt es nicht, da ist klar. Jedoch ist eine 1280er Auflösung mit 9800GTX deutlich realitätsnaher als in 800x600.
Warum macht man nicht einfach ein paar Test in realitätsnahen Settings (an der Hardware kann man sich ja z.B. aus Umfragen orientieren) und einmal gesondert davon die unrealistischen Tests, die Auskunft über das Potential einer CPU geben können.
Klingone mit Klampfe
2009-08-14, 14:45:30
einer alten 9800GTX
Wieso wird eigentlich immer auf speziell diese Karte eingedroschen? :| Die hält sich als GTS 250 immernoch recht gut im "Midrange" Segment.
Für jemanden der >200€ in eine CPU steckt ist wohl die 9800gtx genauso realitätsfern wie ein Monitor mit 800er oder 1280er-Auflösung. Genausogut könnte man sich also die Spieletests sparen und sich auf die Multimedia/Anwendungsbereiche beschränken wenn man nicht die nötige Grafikpower in Form einer 295er oder 4970x2 bereitstellen kann um CPUs dieses Kalibers auszulasten (Leider würde sich in der CB-Zielgruppe dann wohl auch keine Schwein mehr dafür interessieren). Sicher ist es auch zu viel Aufwand die alten CPUs damit nachzubenchen.
Aber das der CB Test von 19 CPUs von 50-130€ auf die selbe GPU zurückgreift spricht doch schon Bände über die Aussagekraft der Spielebenchmarks im neuen Test.:rolleyes:
Wieso wird eigentlich immer auf speziell diese Karte eingedroschen? :| Die hält sich als GTS 250 immernoch recht gut im "Midrange" Segment.
Weil es eben keinen Sinn macht eine CPU mit einer GPU zu benchen die die hälfte kostet. Es sei denn man will eine Aussage über sicher kommende MM/Discounter Angebote vom Schlag i7/9800gt machen. Aber imho sind die bei Computerbild besser aufgehoben. Oder kauft der durchschnittliche CB-leser jetzt auch schon sowas x).
Klingone mit Klampfe
2009-08-14, 15:32:47
Weil es eben keinen Sinn macht eine CPU mit einer GPU zu benchen die die hälfte kostet.
Was hat denn der Preis mit objektiven Testberichten zu tun? Wenn überhaupt, dann die technischen Spezifikationen und Eigenschaften. Der Preis ist eine völlig arbiträre Abstraktion.
Das würde nur Sinn machen, wenn man von vornherein mit einer entsprechenden Vorgabe arbeitet ("Drei CPUs für 150€ im Vergleich").
Wo spreche ich von Objektivität? auch in Post #8 auf den ich mich bezogen hab steht nichts davon. Die Rede ist davon wie Realitätsnah das setting i7+midrange GPU/µTFT ist. Außerdem ist diese Diskussion eher unnötiger Natur, cb selbst schreibt im Fazit das ihre Testplattform ausgesorgt hat und nurnoch läuft weil auf i5 &co. gewartet wird..
Matrix316
2009-08-14, 23:13:34
Wieso wird eigentlich immer auf speziell diese Karte eingedroschen? :| Die hält sich als GTS 250 immernoch recht gut im "Midrange" Segment.
Der Phenom II 965 ist aber AMDs High End CPU. Also gehört auch eine High End Graka zum Testsystem inkl High End Auflösung. Man vergleicht einen Ferrari ja auch nicht mit anderen Autos in der 30er Zone und sagt dann: Jo, fährt genauso 30 wie ein Polo. ;)
Omega2
2009-08-14, 23:37:16
Warum diese Tests immer mit solchen weltfremden Settings gemacht werden?
Ganz einfach: Weil mit normalen, sprich den üblichen in der PC-Welt verbreiteten Konfigurationen die Unterschiede marginal sind.
Ich lach mich immer schlapp, wenn eine Mehreistung von 3% in irgendeinem Test als Vorsprung gewertet wird. Unter einem OttO Normalo System - Setup würde diese "Mehrleistung" vollkommen untergehen.
Auf der anderen Seite verstehe ich sehr wohl, dass der geneigte Leser ein Interesse hat, die Unterschiede bis ins kleinste Detail auszuloten. Insofern haben imho beide Testverfahren ihre Berechtigung. Viel wichtiger ist es, die Ergebnisse richtig zu interpretieren und da hapert es bei vielen Usern gewaltig ;).
Gruß
Omega
Lawmachine79
2009-08-14, 23:45:43
Leute, es geht doch nur darum, aufzuzeigen welche CPU tendenziell schneller ist. Ja, die Settings sind praxisfremd - aber nicht weltfremd. Aber niemand hat gefragt: "Wie läuft die CPU auf meinen Standardsettings?" - oder hat jemand die Frage gehört - nein? Gut! Die Frage ist: "Wie ist die CPU im Vergleich zu anderen CPUs?" Und da wäre die Antwort: "Keine Ahnung, die Grafikkarte ist zu langsam." eine blöde Antwort. Also. Es geht nicht um die Simulation eines Tags im Leben eines Gamers, sondern darum, welche CPU das höhere Geschwindigkeitspotential hat, wenn irgendwann NICHT mehr die Graka limitiert ODER wenn Spiele erscheinen, die so CPU-lastig sind, daß sie selbst in 800x600 auf Mindestdetails auf TripleSli@GTX295 (geht das? und wenn ja - hat Tombman das?) nur noch 30Fps liefert! Wenn die Settings so weltfremd wären, wie Ihr sagt, würde ich jetzt auf meinem 3000er Winnie der hier noch irgendwo rumfliegt Armed Assault 2 spielen. 800x600 isoliert quasi den Anteil "CPU-Last" eines Spiels und präsentiert ihn anschaulich ohne weitere Einflussfaktoren.
LovesuckZ
2009-08-15, 00:14:57
Und wen interessiert es? 800*600 ist weltfremd. Oder brauchen wir zur Klärung erst noch eine Umfrage, mit welcher Auflösung gespielt wird?
Man soll einfach keine Spiele zur Messung von Leistung heranziehen. Niemand spielt am Montag CPU limitiert, am Dienstag GPU limiert und den Rest der Woche mit irgendwelche Randomeinstellungen.
Captain Future
2009-08-15, 09:43:54
Wieso wird eigentlich immer auf speziell diese Karte eingedroschen? :| Die hält sich als GTS 250 immernoch recht gut im "Midrange" Segment.
Zum Beispiel darum:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_965_black_edition/21/#abschnitt_race_driver_grid
Mit einer GTX280/295/4890/4870X2 kann Grid auch in höheren Auflösungen noch >130 Fps schaffen - aber eben nicht auf allen CPUs.
Madkiller
2009-08-15, 11:42:49
Leute, es geht doch nur darum, aufzuzeigen welche CPU tendenziell schneller ist. Ja, die Settings sind praxisfremd - aber nicht weltfremd. Aber niemand hat gefragt: "Wie läuft die CPU auf meinen Standardsettings?" - oder hat jemand die Frage gehört - nein? Gut! Die Frage ist: "Wie ist die CPU im Vergleich zu anderen CPUs?" Und da wäre die Antwort: "Keine Ahnung, die Grafikkarte ist zu langsam." eine blöde Antwort. Also. Es geht nicht um die Simulation eines Tags im Leben eines Gamers, sondern darum, welche CPU das höhere Geschwindigkeitspotential hat, wenn irgendwann NICHT mehr die Graka limitiert ODER wenn Spiele erscheinen, die so CPU-lastig sind, daß sie selbst in 800x600 auf Mindestdetails auf TripleSli@GTX295 (geht das? und wenn ja - hat Tombman das?) nur noch 30Fps liefert! Wenn die Settings so weltfremd wären, wie Ihr sagt, würde ich jetzt auf meinem 3000er Winnie der hier noch irgendwo rumfliegt Armed Assault 2 spielen. 800x600 isoliert quasi den Anteil "CPU-Last" eines Spiels und präsentiert ihn anschaulich ohne weitere Einflussfaktoren.
:massa:
So schaut's aus.
Botcruscher
2009-08-15, 12:40:36
Und wen interessiert es? 800*600 ist weltfremd. Oder brauchen wir zur Klärung erst noch eine Umfrage, mit welcher Auflösung gespielt wird?
Man soll einfach keine Spiele zur Messung von Leistung heranziehen. Niemand spielt am Montag CPU limitiert, am Dienstag GPU limiert und den Rest der Woche mit irgendwelche Randomeinstellungen.
So schaut's aus.
Wenn man die Spiele als synthetischen Test missbraucht und keine Vergleichsergbnisse@Spieleauflösung testet, dann kann man sie auch gleich raus lassen. -> gleich Tests machen wo die GPU nicht verfäschen kann. Der Durchschnitt aus 10 CPU Benches würde da eindeutig das bessere Ergbnis liefern.
Das low Resolution rumgeeiere kann man sich damit gänzlich sparen. Die Aussage für das Spiel selber ist null.
Matrix316
2009-08-15, 13:45:46
So schaut's aus.
Wenn man die Spiele als synthetischen Test missbraucht und keine Vergleichsergbnisse@Spieleauflösung testet, dann kann man sie auch gleich raus lassen. -> gleich Tests machen wo die GPU nicht verfäschen kann. Der Durchschnitt aus 10 CPU Benches würde da eindeutig das bessere Ergbnis liefern.
Das low Resolution rumgeeiere kann man sich damit gänzlich sparen. Die Aussage für das Spiel selber ist null.
Wenn man das gleiche Spiel dann auf 1600x1050 mit GTX295SLI testet, sollten die Abstände ähnlich sein, wie in 800x600 mit einer langsamen 9800GTX.
Lawmachine79
2009-08-16, 01:32:51
Das low Resolution rumgeeiere kann man sich damit gänzlich sparen. Die Aussage für das Spiel selber ist null.
Seufz. Völlig richtig, 100%. Die Aussage für das Spiel selber ist null - und nie hat irgendjemand beabsichtigt, eine Aussage für das Spiel zu machen...
Ihr müsst einfach mal verstehen, daß ein PC ein System aus lauter Flaschenhälsen ist und nicht nur aus einer Grafikkarte besteht. CPU-Benches sagen über ein Spiel aus: "Wie hoch ist der "Grundspeed" des Spiels auf CPU "X"?" - "Wie schnell läuft das Spiel auf unabhängig von der Grafik auf meinem System?" Wenn bereits der Grundspeed unter 30Fps ist, brauche ich keine dicke Grafikkarte mehr. Und spätestens seit GTA4 sollte es doch wirklich jeder gepeilt haben.
JEDER, der ein Problem mit CPU-Benches hat, möge sich bei Geizhals mit einem A64 3200+ Venice eindecken (jupp, der ist lieferbar) und glücklich werden - No Need C2Q, No Need PHIIX4.
Zum Abschluß noch ein kleiner Tipp: wenn RAM in der Entwicklung relativ gesehen nicht deutlich vor CPUs und GPUs liegen würde, wären sogar RAM-Tests auf 800x600 interessant! No Shit!
Ein CPU-Test zeigt das Leistungspotential auf, was Spiel X auf Rechner Y hat. Wieviel man von diesem Potenzial abschöpft, hängt davon ab, wieviel Geld man für eine Graka ausgeben will.
MadManniMan
2009-08-16, 01:53:35
Diesen Post sollte man in Stein meißeln ;( Danke, warmachine!
Captain Future
2009-08-16, 09:13:57
Und was ist zum Beispiel mit den vielen Berichten, dass der i7 auf spielerelevanten Auflösungen nicht mehr so gut darsteht, teils sogar langsamer ist als der P II? Auch wenn das ein Treiberproblem oder sonstwas ist: Was bringen mit tausende von PS wenn der Wagen sie mangels Getriebe nicht auf die Straße bringt.
Für Theoriebenches reicht ein Durchlauf mit Sandra und dem Sciencemark.
Kladderadatsch
2009-08-16, 09:41:05
meine güte, warmachine hat das offensichtliche doch mehrmals wiederholt. es geht ausschließlich um eine cpu. will man deren leistung möglichst genau ermitteln, gilt es, störfaktoren, die das ergebnis verfälschen, auf ein minimum zu reduzieren. und eine grafiklimitierte szene ist nun einmal ein solcher störfaktor.
alles andere sind sonderfälle, die selbstverständlich auch interessant wären. (für viele offenbar interessanter)
Tigerchen
2009-08-16, 10:13:28
Warum diese Tests immer mit solchen weltfremden Settings gemacht werden?
Ganz einfach: Weil mit normalen, sprich den üblichen in der PC-Welt verbreiteten Konfigurationen die Unterschiede marginal sind.
Ich lach mich immer schlapp, wenn eine Mehreistung von 3% in irgendeinem Test als Vorsprung gewertet wird. Unter einem OttO Normalo System - Setup würde diese "Mehrleistung" vollkommen untergehen.
Auf der anderen Seite verstehe ich sehr wohl, dass der geneigte Leser ein Interesse hat, die Unterschiede bis ins kleinste Detail auszuloten. Insofern haben imho beide Testverfahren ihre Berechtigung. Viel wichtiger ist es, die Ergebnisse richtig zu interpretieren und da hapert es bei vielen Usern gewaltig ;).
Gruß
Omega
So ist es. Es ist schon fast wurscht welcher Hersteller da werkelt. Im Alltag ist es kaum zu bemerken. Daher auch das erheblich nachlassende Interesse in den Hardcore Hardwareforen. Der Computer ist Alltag geworden. Technische Spitzfindigkeiten interessieren immer weniger Freaks. Beim Auto guckt ja heut auch kaum einer mehr unter die Haube. 180PS? Ist okay,gekauft. Mehr braucht man nicht zu wissen.
LovesuckZ
2009-08-16, 10:39:40
Seufz. Völlig richtig, 100%. Die Aussage für das Spiel selber ist null - und nie hat irgendjemand beabsichtigt, eine Aussage für das Spiel zu machen...
Natürlich. Es werden Aussagen über die Anwendung getätigt. Wozu sonst Spiele verwenden? Es gibt genug Möglichkeiten die CPU Leistung zu messen, ohne in die Nähe von Spielen zu kommen.
Ihr müsst einfach mal verstehen, daß ein PC ein System aus lauter Flaschenhälsen ist und nicht nur aus einer Grafikkarte besteht. CPU-Benches sagen über ein Spiel aus: "Wie hoch ist der "Grundspeed" des Spiels auf CPU "X"?" - "Wie schnell läuft das Spiel auf unabhängig von der Grafik auf meinem System?" Wenn bereits der Grundspeed unter 30Fps ist, brauche ich keine dicke Grafikkarte mehr. Und spätestens seit GTA4 sollte es doch wirklich jeder gepeilt haben.
Solche krasse Limitierungen treten natürlich auch in spielerelevanten Einstellungen auf. Dazu muss man nicht 800x600 nehmen.
Ein CPU-Test zeigt das Leistungspotential auf, was Spiel X auf Rechner Y hat. Wieviel man von diesem Potenzial abschöpft, hängt davon ab, wieviel Geld man für eine Graka ausgeben will.
Nein, diese Aussage ist komplett falsch und zeigt, dass man das Problem ünerhaupt nicht versteht. Eine Limitierung in einem Spiel tretet aufgrund bestimmter Einstellungen auf. Ich kann eine CPU Limitierung auch mit einer Low-End Karte oder eine GPU limitierung mit einem Quad-SLI System erreichen. Spieler kaufen sich die Games, um damit in bestimmten Einstellungen spaß zu erleben und nicht ihre Hardware auf bestimmte Limitierungen zu testen. Wer seinen Test auf Spieler ausrichtet, muss Einstellungen nehmen, die entsprechend dieser Gruppe angepasst sind.
Die reine CPU Leistung kann man mit anderen, besseren Programmen messen.
dargo
2009-08-16, 13:48:47
Wer seinen Test auf Spieler ausrichtet, muss Einstellungen nehmen, die entsprechend dieser Gruppe angepasst sind.
Na, dann viel Spaß dabei (ich denke mal heute wird kaum jemand mehr mit 1024x768 spielen), also:
1. 1280x960
2. 1280x1024
3. 1680x1050
4. 1920x1080
5. 1920x1200
So, das nur um mal die gängingen Auflösungen zu nennen. Jetzt kombinierst du jede einzelne Auflösung in deinem Test mit 1xAA/1xAF, 2xMSAA/16xAF, 4xMSAA/16xAF, 8xMSAA/16xAF. Und zu guter letzt jagst du jeden Benchmark durch sagen wir mal eine G8800GT, G8800GTX, G9800GTX, GTX260, GTX275, GTX285, HD4850, HD4870, HD4890 (nur um mal die gängigen zu nennen ;)) und irgendwann Weihnachten 2010 bist du mit deinen Benches fertig. ;D
Botcruscher
2009-08-16, 14:23:26
Ich hätte noch gerne die Frameverläufe zu den Auflösungen.(Oder zumindest ein Boxplot) Und ja, so würde ein guter "Spieletest" aussehen.
Zur Vereinfachung reichen auch typische 800x600+1920x1200+Frameverläufe. AA und AF sind mir da erstmal relativ Wurst.
Fazit: Spiele ganz oder garnicht.
Diesen Post sollte man in Stein meißeln ;( Danke, warmachine!
Dann aber auch den von LS. Das Problem ist das beide Parteien durchaus ihre Berechtigung haben. Die Kunst ist nun einen Kompromis für Theoretiker und für Praktiker zu finden. Wenn sich die Theoretiker durchsetzen wollen, dann sollen sie bitte auch konsequent bei synthetischen Tests bleiben und nicht Spiele pseudoreal missbrauchen.
dargo
2009-08-16, 15:24:51
AA und AF sind mir da erstmal relativ Wurst.
Was dir egal ist ist völlig irrelevant. Ich dachte es soll die gesamte Spielergruppe erfasst werden. Also was denn nun?
Botcruscher
2009-08-16, 15:32:40
Was dir egal ist ist völlig irrelevant. Ich dachte es soll die gesamte Spielergruppe erfasst werden. Also was denn nun?
Mir - ich bin nicht die Spielergruppe und ich spreche auch nicht für diese. Mach eine Umfrage nach der Spieleauflösung und gut.
MadManniMan
2009-08-16, 15:41:33
Dann aber auch den von LS.
Nein, eben nicht.
Denn dann müsste man künftig auch jeden Grafikkartentest mit höchsten Einstellungen für Quatsch erklären - denn da wird die Grafikkarte ans Maximum getrieben, indem der CPU-Flaschenhals ausgeschlossen wird.
Nix anderes mach man umgekehrt mit 800*600.
LovesuckZ
2009-08-16, 15:48:50
Nein, eben nicht.
Denn dann müsste man künftig auch jeden Grafikkartentest mit höchsten Einstellungen für Quatsch erklären - denn da wird die Grafikkarte ans Maximum getrieben, indem der CPU-Flaschenhals ausgeschlossen wird.
Nix anderes mach man umgekehrt mit 800*600.
Sind sie doch auch - sie haben einen reinen theoretischen Hintergrund.
Was soll mir ein Test aussagen, indem alle Karten Frames unter 20 erreichen?
Hardocp macht es in dem Fall richtig. Sie nehmen sich eine Framesgrenze und bauen darauf ihre Test auf. Das ist realistisch.
Botcruscher
2009-08-16, 15:49:10
Nix anderes mach man umgekehrt mit 800*600.
Doch, weil die anderen Auflösungen und Einstellungen mitgetestet werden. Ich hänge mich nicht an dem 800x600 Wert auf, sondern am fehlen mindestens eines Vergleichswertes.
Das Geschrei bei Hybrid-AA-Modi only wäre aber mal lustig.
Was soll mir ein Test aussagen, indem alle Karten Frames unter 20 erreichen?
Die Karte war 3 mal so schnell. Solche Aussagen sieht man immer wieder.:freak:
Avalox
2009-08-16, 16:06:51
Ein CPU-Test zeigt das Leistungspotential auf, was Spiel X auf Rechner Y hat. Wieviel man von diesem Potenzial abschöpft, hängt davon ab, wieviel Geld man für eine Graka ausgeben will.
Das halte ich aber gewagt einen CPU Test bei geringer Auflösung/Details ableiten zu wollen.
Es dürfte ja wohl klar sein, dass die CPU bei hoher Framerate mit niedriger Auflösung/Details ein -anderes- Profil rechnet, als bei einem spieletypischen Szenario.
Dieses vor allen eben, weil die Grafikkarte kein autonomes Gebilde ist, sondern maßgeblich den Treiber und dieses eben auf der CPU rechnen lässt. Hohe Framerate bedeutet dort hohe Belastung der CPU im entsprechenden Nutzungsprofils des Treibers. Man verlagert nur die CPU Last, von einer Aufgabe auf die Nächste und dieses zudem in eine sehr monotone Belastung.
Man würde einen Benchmark Grafiktreiber ohne Logik benötigen, welcher natürlich auch keine Grafik ausgibt, aber auch nur minimal selbst CPU Last erzeugt. Aber so was gibt es nicht und nutzt keiner.
So kann man aus solchen Benchmarks eben nur erstmal eines wirklich verbindlich ablesen, nämlich wie schnell das Spiel bei geringer Auflösung/Details auf dem jeweiligen System ist. Was aber wirklich niemanden interessiert, weil so niemand so mehr spielt und die Frameraten immer weiter ins Extreme steigern.
Man sollte sich die Benchmark Ansätze in der Tat noch mal überdenken.
dargo
2009-08-16, 16:35:06
@Avalox
Niemand will hier CPUs mit verringerten Details testen. Oder etwa doch? Ich zb. teste die CPU-Leistung immer mit max. Details.
MadManniMan
2009-08-16, 16:48:17
An alle:
Es geht doch gar nicht darum, dann mit niedrigen Details zu arbeiten! Wir wollen doch einfach nur durch Verzicht auf AA, AF und höhere Auflösungen die Grafiklast minimieren, damit die CPUs zeigen können, wo sie Reserven haben.
Die Karte war 3 mal so schnell. Solche Aussagen sieht man immer wieder.:freak:
Wenn eine Karte unter 20 fps ist und die andere 3 mal so schnell ist, kann man immernoch knapp 60 fps haben ;)
Avalox
2009-08-16, 16:49:24
@Avalox
Niemand will hier CPUs mit verringerten Details testen. Oder etwa doch? Ich zb. teste die CPU-Leistung immer mit max. Details.
Habe mit Absicht ein / zwischen Auflösung und Details gesetzt, meinte ein und/oder.
Auch mit max Details und geringe Auflösung befindet man auch wieder in einem Profil, welche mit der Realität der Anwendung nichts gemein hat.
Jeglicher Extremismus in der Konfiguration führt natürlich zu einem extremem Verhalten, immer mit einer anders gearteten Ausrichtung. Dieses ist ja gewollt, man möchte ja "extreme" CPU Abhängigkeit erreichen. Die Frage ist doch nur, erreiche ich diese wirklich und wenn ja, welche CPU Abhängigkeit erreiche ich wirklich?
Das Testszenario ist interessant, aber die platte Ableitung ist grundverkehrt. Das meine ich nicht im speziellen auf einen durchgeführten Benchmark, als vielmehr auf den generellen Ansatz. Schon eine CPU Leistung in FPS anzugeben ist dort sicherlich ungeschickt.
Botcruscher
2009-08-16, 17:16:47
Es geht doch gar nicht darum, dann mit niedrigen Details zu arbeiten! Wir wollen doch einfach nur durch Verzicht auf AA, AF und höhere Auflösungen die Grafiklast minimieren, damit die CPUs zeigen können, wo sie Reserven haben.
Und einige würden sogar gerne sehen wie weit die Reserven reichen. Da schließt sich doch nichts aus. Niemand verbietet den 800x600 Wert. Es geht schlicht um eine Erweiterung.
Wenn eine Karte unter 20 fps ist und die andere 3 mal so schnell ist, kann man immernoch knapp 60 fps haben ;)
Mit einem Prozie der 3 mal so langsam ist, kann man immernoch 60 fps haben.:freak:
Seht es bitte als Dialog und nicht als Angriff.:)
RainingBlood
2009-08-16, 17:17:29
Rückschlüsse auf zukünftige SW zu ziehen, halte ich für völlig sinnfrei. Man sieht ja gut am C2D Quad, dass das nicht geht. Und das ist ja der Knackpunkt bei der 640x480 Bencherei: Theoretisch bräuchte man dann ja nur noch einen Bench.
Ganz davon abgesehen, dass hier niemand Einblick in die Treiberentwicklung hat. Da diese ja nicht auf niedrige Auflösungen optimiert wird, könnten ganz unvorhersehbare Dinge (z.b. Bugs) sich auf das Ergebnis auswirken.
Nicht zu vergessen, was AMD in den Cat 9.8 geschrieben hat: die Performancezuwäche auf der Dragon Plattform sollen höher als bei anderen ausfallen! Die Hersteller können also noch tricksen bzw. zwischen den Plattformen andere Priritäten setzen, was Rückschlüsse auf die Zukünft völlig ad adsurdum führt!
Ich würde persönlich Benches ab einer Auflösung von 1280x1024, max. Quali und aktuell best möglicher Graka sehen wollen.
Lawmachine79
2009-08-16, 17:18:04
Theoretiker und für Praktiker
Praktisch habe ich ganz schön blöd geguckt, als ich auf einem X2 6000+ GTA4 spielen wollte.
LovesuckZ
2009-08-16, 19:10:10
Praktisch habe ich ganz schön blöd geguckt, als ich auf einem X2 6000+ GTA4 spielen wollte.
So und das hast du erst in 800x600 herausgefunden? :confused:
Botcruscher
2009-08-16, 19:13:05
Praktisch habe ich ganz schön blöd geguckt, als ich auf einem X2 6000+ GTA4 spielen wollte.
V1.0 mit Konsolenoptik? Da fehlen Details... Was soll das Beispiel überhaupt aussagen? CPU-Leistung unnütz? In Spieleauflösung hätte das genau so geruckelt wie bei 800x600.
Armaq
2009-08-16, 19:18:29
Was habt ihr denn schon wieder für ein Problem? Dieses Thema wurde schon 100x durchgekaut. Wie kann man denn das immernoch nicht begriffen haben? Man übertaktet doch auch erstmal mit sehr niedrigen Multis, wenn man den höchsten Referenztakt haben möchte und schraubt nicht den maximalen Multi + hohen Referenztakt, weil dann die CPU dicht macht.
Was ist daran nicht zu verstehen?
RainingBlood
2009-08-16, 21:47:42
äh, die guten Beispiele waren alle ausverkauft?!
Praxisfremd? Ich zock noch auf 800x600!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.