PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Performancereport Gothic 3


Leonidas
2006-12-09, 18:27:01
Link:
http://www.3dcenter.org/artikel/2006/12-09_a.php

eXodia
2006-12-09, 18:31:27
OK, nur grade überflogen, aber was ihr dringend verbessern müsst ist die Übersichtlichkeit der Benches, das geht so einfach nicht ...

Regards

Undertaker
2006-12-09, 19:00:17
mich würden mal die settings der grafiktreiber interessieren, ob hab ich das nur irgendwo übersehen?

Seraf
2006-12-09, 19:03:44
Auf Seite zwei habt ihr in den Grafiken für die 8xx Auflösungen ein paar mal statt den Grafikkarten Prozessornamen eingesetzt :cool:

Crazy_Chris
2006-12-09, 19:05:41
netter Test. Aber die Farben der Benchmarkbalken sind sehr unübersichtlich. Nehmt doch lieber Farben die sich stärker unterscheiden.

Madkiller
2006-12-09, 19:08:24
mich würden mal die settings der grafiktreiber interessieren, ob hab ich das nur irgendwo übersehen?
Ist verlinkt:
Bei der Radeon X1900 XT wurde bezüglich der Filtersettings "A.I. low" (die default-Einstellung) gewählt, zusätzlich war aber das bessere, weil weitestgehend winkel-unabhängige Area-AF aktiv. Bei der GeForce 7950 GT wurde bezüglich der Filtersettings "High Quality" unter Deaktivierung aller angebotenen Filter-"Optimierungen" gewählt.

Auf Seite zwei habt ihr in den Grafiken für die 8xx Auflösungen ein paar mal statt den Grafikkarten Prozessornamen eingesetzt :cool:
Ja, die sollen deren CPU-Limit anzeigen.
Steht aber über den GraKa-Vergleichen.

netter Test. Aber die Farben der Benchmarkbalken sind sehr unübersichtlich. Nehmt doch lieber Farben die sich stärker unterscheiden.
Blau für Intel, grün für AMD.

reunion
2006-12-09, 19:44:24
OK, nur grade überflogen, aber was ihr dringend verbessern müsst ist die Übersichtlichkeit der Benches, das geht so einfach nicht ...

Regards

ACK. Der Test ist ganz nett, allerdings sind die Diagramme absolut unbrauchbar. Man muss ständig schauen, welche Farben man jetzt vergleichen kann, und welche Settings damit konkret verglichen werden. Dass man gar CPUs in die Grafikbenchs einfügt, setzt dem ganzen die Krone auf - man verliert so komplett den Überblick. Ich kann euch nur dringend raten verschiedene Auflösungen und Einstellungen zu trennen, und andere Spielszenen in ein eigenes Diagramm aufzunehmen. Speziell wenn man ein CPU-Limit testen will, hat das nichts in einem Diagramm, in dem man Graka vergleicht zu suchen. Sehr gut hat das IMHO xbitlabs gelöst:

http://www.xbitlabs.com/images/video/geforce7950gt/tesin_hdr.gif

http://www.xbitlabs.com/images/video/geforce7950gt/tesout_hdr.gif

http://www.xbitlabs.com/articles/video/display/geforce7950gt_10.html

So behält man immer den Überblick, und kann sofort ausmachen, welche Karte in welchen Einstellungen die Nase vorne hat.

Ist verlinkt:


Auch hier wäre zu empfehlen, solche wichtigen Dinge in eine Tabelle zu schreiben oder zumindest schrittweise aufzuzählen damit das Ganze nicht komplett im Text untergehen.

Gast
2006-12-09, 19:49:01
ganz guter test, die übersicht ist allerdings wie bereits erwähnt nicht besonders gut.

man sollte wirklich nur vergleichbare settings direkt nebeneinander sehen, abweichende settings sollten zumindest einen abstand aufweisen.

es wäre auch übersichtlicher, anstatt lediglich in einer legende die farbe der jeweiligen balken zu beschriften, die beschriftung in oder neben die balken zu setzen.

und dann frage ich mich noch wieso in einem extra auf cpu-limit getrimmten benchmark 16xAF zum einsatz kommt? AF kostet teilweise mehr leistung als FSAA und hat imo in einem test der das cpu-limit zeigen soll nichts verloren.

Crazy_Chris
2006-12-09, 19:56:09
Ist verlinkt:

Blau für Intel, grün für AMD.

Vielleicht bin ich ja Farbenblind aber man muß andauernd gucken was jetzt genau was für eine CPU ist da die Farben sich nur schwach voneinander unterscheiden. Nehmt doch für Intel und für AMD jeweils nur eine Farbe und schreibt den Prozessortyp in den Balken hinein. :wink:

Lawmachine79
2006-12-09, 20:44:20
Guter Test. Der Unterschied DC vs. SC wäre noch recht interessant gewesen.

AnarchX
2006-12-09, 21:00:09
Guter Test. Der Unterschied DC vs. SC wäre noch recht interessant gewesen.
Ist doch vorhanden, X2 3800+ @Singlecore-> roter Balken.;)

ZilD
2006-12-09, 21:26:48
wenn man die grafik von gothic 3 in realisation mit der benötigten hardware rechnet dann wird einem ja übel was die da für einen schrott programmiert haben.
so eine grafik möbel ich dir auch mit der UT2004 engine hin.

http://image.com.com/gamespot/images/2004/news/02/18/ut2004/ut2004_screen001.jpg

AnarchX
2006-12-09, 21:45:24
wenn man die grafik von gothic 3 in realisation mit der benötigten hardware rechnet dann wird einem ja übel was die da für einen schrott programmiert haben.
so eine grafik möbel ich dir auch mit der UT2004 engine hin.


Nur ist halt das Problem bei 3D-Grafik, was mittlerweile doch bekannt sein sollte, dass optische Verbesserungen(neue Effekte) auch wenn sie nach nicht viel aussehen in der Relation halt viel Leistung kosten.
UT2004 als Vergleich heranzuziehen nicht ganz so glücklich, da hier die Spielewelt um Welten kleiner ist, kein komplexes, resourcenfressendes System zur realistischen Simulation der Welt im Hintergrund läuft, was bei einem RPG nötig ist und wie schon gesagt die Effekt auf einem weit geringeren Techlevel sind.
Mehr ist halt nicht bei einem Projekt in solchem Ausmaß, das auch noch Gewinn bringen soll halt nicht drin.

Gast
2006-12-09, 22:43:49
UT2004 als Vergleich heranzuziehen nicht ganz so glücklich, da hier die Spielewelt um Welten kleiner ist, kein komplexes, resourcenfressendes System zur realistischen Simulation der Welt im Hintergrund läuft, was bei einem RPG nötig ist und wie schon gesagt die Effekt auf einem weit geringeren Techlevel sind.
Mehr ist halt nicht bei einem Projekt in solchem Ausmaß, das auch noch Gewinn bringen soll halt nicht drin.Jou. Simulation einer komplexen Welt im Hintergrund. Glaubst du wirklich, daß "im Hauptspeicher" Bots in einer Wüstenstadt ihrem täglichen Leben nachgehen und Crawler in den Wäldern entflohene Sklaven jagen, während du selbst in einer Höhle Gnome abmurkst? :|

Undertaker
2006-12-10, 00:01:55
Nur ist halt das Problem bei 3D-Grafik, was mittlerweile doch bekannt sein sollte, dass optische Verbesserungen(neue Effekte) auch wenn sie nach nicht viel aussehen in der Relation halt viel Leistung kosten.
UT2004 als Vergleich heranzuziehen nicht ganz so glücklich, da hier die Spielewelt um Welten kleiner ist, kein komplexes, resourcenfressendes System zur realistischen Simulation der Welt im Hintergrund läuft, was bei einem RPG nötig ist und wie schon gesagt die Effekt auf einem weit geringeren Techlevel sind.
Mehr ist halt nicht bei einem Projekt in solchem Ausmaß, das auch noch Gewinn bringen soll halt nicht drin.

gerade deshalb müssen die entwickler darauf achten, features zu implementieren deren leistungsverlust es auch optisch wert ist... das hat zb. half-life 2 perfekt hinbekommen, und das hat auch nix mit berechnungen im hintergrund zu tun, denn die gehen ja nicht auf die gpu...

dildo4u
2006-12-10, 00:04:02
Jou. Simulation einer komplexen Welt im Hintergrund. Glaubst du wirklich, daß "im Hauptspeicher" Bots in einer Wüstenstadt ihrem täglichen Leben nachgehen und Crawler in den Wäldern entflohene Sklaven jagen, während du selbst in einer Höhle Gnome abmurkst? :|Wenn man nach den Benches geht muss es einfach so sein. ;D

Gast
2006-12-10, 00:05:34
Wenn man nach den Benches geht muss es einfach so sein. ;DDas kann man auch teilweise so machen. Teilweise. Nur wenn man das wirklich so treudoof programmiert wie beschrieben, dann... Naja. Das Resultat kennen wir ;)

Alls das ist aber ziemlich OT. Daher Ende meinerseits.

Madkiller
2006-12-10, 00:06:38
Jap, ihr habt mich überzeugt, daß sich an der Präsentation was ändern muß.
Ich werde das mit Leo abklären, so daß die bei Anno 1701 nächste Woche besser ist.

Aber das hier:
Speziell wenn man ein CPU-Limit testen will, hat das nichts in einem Diagramm, in dem man Graka vergleicht zu suchen.
ist gewollt. Hier geht es eben darum zu zeigen, wo das CPU-Limit ist. Aber um das halbwegs übersichtlich unterzubringen, müßen die Werte direkt vergleichbar sein, oder?

Gast
2006-12-10, 00:29:53
Speziell wenn man ein CPU-Limit testen will, hat das nichts in einem Diagramm, in dem man Graka vergleicht zu suchenEine CPU kann mit der einen Graka schon limitieren und mit der anderen noch nicht. Wann genau welche Graka und welche CPU an ihre Limits steht finde ich interessant. Nicht jeder Test muß stinklangweilig nach dem deutschen rechtwinkligen Handwerk muffeln. sorry :(

Spasstiger
2006-12-10, 00:36:28
Mein Vorschlag für die Grafikkartendiagramme: Macht Markierungen für die CPU-Limits in Form von gestrichelten Linien durch die Grafikkartenbalken durch (und die CPU-Balken weg). So sieht man dann gleich, ob beim jeweiligen Setting die Grafikkarte oder die CPU limitiert (was man ja jetzt auch schon sieht, wenn man die Grafiken zu interpretieren weiß ;)).

EDIT: So in der Art könnte ich mir das vorstellen: http://img92.imageshack.us/img92/1439/3dcnj1.png.

StefanV
2006-12-10, 00:59:12
@Spasstiger
DU meisnt wie es in der PCGH üblich, bei Min/Avg. Werten??

ZilD
2006-12-10, 01:04:20
spul mal vor auf 12:40

http://video.google.de/videoplay?docid=1225167614363805769

StefanV
2006-12-10, 01:10:49
die engine von gothic ist ganz einfach -schrott- wenn die so viel leistung braucht müsste sie viel viel viel viel besseres bieten.
Nö, die Engine ist halt ganz anders als die Unreal Engine, mit ganz anderen Anforderungen und so weiter...

Dazu kommt, das die Arreale ganz anders aufgebaut sind, die beiden Spiele/Engines zu vergleichen ist wie mit Äpfeln und Birnen...

Gleiches auch für Engines von Strageiespielen, da gibts auch ganz andere Anforderungen, wobei das ganze bei RPGs um einiges heftiger ist!!
Da gibts auch allerhand was zwar da ist aber nicht sichtbar...

Spasstiger
2006-12-10, 01:19:30
@Spasstiger
DU meisnt wie es in der PCGH üblich, bei Min/Avg. Werten??
Ne, ich denke, das würde auch zu Unklarheiten führen. Ich meinte eigentlich so:
http://img92.imageshack.us/img92/1439/3dcnj1.png.
Siehe auch mein Edit im vorigen Posting.

Mr. Lolman
2006-12-10, 03:19:59
Ich würd auch die Farben ein bisschen anpasssen:

http://666kb.com/i/ajyhcw8hb52pm9mwm.png http://666kb.com/i/ajyhcmgtt1aqio7jq.png

Meta
2006-12-10, 09:26:18
Rechtschreibfehler: "von unseres Foren-Users Unu."

schöner Artikel, unglückliche Diagramme

Danke, euer Meta

Madkiller
2006-12-10, 09:38:51
Mein Vorschlag für die Grafikkartendiagramme: Macht Markierungen für die CPU-Limits in Form von gestrichelten Linien durch die Grafikkartenbalken durch (und die CPU-Balken weg). So sieht man dann gleich, ob beim jeweiligen Setting die Grafikkarte oder die CPU limitiert (was man ja jetzt auch schon sieht, wenn man die Grafiken zu interpretieren weiß ;)).

EDIT: So in der Art könnte ich mir das vorstellen: http://img92.imageshack.us/img92/1439/3dcnj1.png.

Gefällt mir wirklich gut. :)

Aber sry - wie geht das mit Excel?

reunion
2006-12-10, 11:02:24
Jap, ihr habt mich überzeugt, daß sich an der Präsentation was ändern muß.
Ich werde das mit Leo abklären, so daß die bei Anno 1701 nächste Woche besser ist.


Sehr gut.


Aber das hier:

ist gewollt. Hier geht es eben darum zu zeigen, wo das CPU-Limit ist. Aber um das halbwegs übersichtlich unterzubringen, müßen die Werte direkt vergleichbar sein, oder?

Natürlich müssen die Werte direkt vergleichbar sein, allerdings sollte man das IMHO in einem eigenen Diagramm machen. Man kann das ja problemlos so darstellen, dass jedem klar ersichtlich ist, dass es sich hier um dieselbe Szene handelt. Umso übersichtlicher und unkompliziertes diese Diagramme dargestellt werden, desto müheloser lässt sich das für den Leser erfassen. Und desto mehr Freude wird man auch beim lesen haben. Kaum jemand hat Lust, sich hier groß den Kopf zu zerbrechen. Wobei der Vorschlag von Spasstiger dies IMHO auch sehr elegant löst.

Eine CPU kann mit der einen Graka schon limitieren und mit der anderen noch nicht. Wann genau welche Graka und welche CPU an ihre Limits steht finde ich interessant. Nicht jeder Test muß stinklangweilig nach dem deutschen rechtwinkligen Handwerk muffeln. sorry :(

Natürlich nicht. Ich habe ja auch nirgends gefordert, solche Dinge ersatzlos zu streichen.

Piffan
2006-12-10, 12:53:17
spul mal vor auf 12:40

http://video.google.de/videoplay?docid=1225167614363805769

Was soll der Film nun genau aussagen? Wenn es das ist, was ich befürchte, dann liegst du so derbe daneben, dass jedes weitere Wort Zeitverschwendung ist. :eek:

RavenTS
2006-12-10, 15:23:45
Also die Grafiken müssen echt überarbeitet werden. Eine Verbesserung wäre es ja schon, wenn man in den Balken noch kurz die jeweilige CPU/GPU erwähnt.

Zudem sehr interessant die DualCore-Gewinne. Ist Gothic3 denn überhaupt irgendwie für DualCore optimiert oder macht da die allgemeine Systemumgebung diesen großen Unterschied aus. Eine "Kastrierung" des 5400+ wäre da vielleicht ganz interessant...

Madkiller
2006-12-10, 17:02:22
Ist Gothic3 denn überhaupt irgendwie für DualCore optimiert oder macht da die allgemeine Systemumgebung diesen großen Unterschied aus.
http://www.3dcenter.org/artikel/2006/11-20_a.php :)

Gast
2006-12-10, 17:47:56
Ist Gothic3 denn überhaupt irgendwie für DualCore optimiert oder macht da die allgemeine Systemumgebung diesen großen Unterschied ausIst zwar aus der technischen Sicht vielleicht interessant, aber es macht ja sonst nicht wirklich den Unterschied. Wichtig ist nur, ob DC dann und mal was bringt.

Gast
2006-12-10, 18:04:36
http://www.3dcenter.org/artikel/2006/11-20_a.php :)

Und wo bitte ist da G3?

Madkiller
2006-12-10, 18:28:30
Nirgends.
Das war ne Anspielung auf das: "oder macht da die allgemeine Systemumgebung diesen großen Unterschied aus."

RavenTS
2006-12-10, 22:54:10
Nirgends.
Das war ne Anspielung auf das: "oder macht da die allgemeine Systemumgebung diesen großen Unterschied aus."

OK, hättest ja aber auch gleich sagen können. Heisst das nun, daß Gothic überhaupt keine DC-Optimierungen hat und alles vom System her kommt oder daß du das mit Gothic einfach nicht weißt.?! =)

Gast
2006-12-11, 08:24:40
Nirgends.
Das war ne Anspielung auf das: "oder macht da die allgemeine Systemumgebung diesen großen Unterschied aus."

Seine Frage bezig sich abe rinsgesamt ausschließlich auf G3 also macht deine Antwort keinen Sinn.

paul.muad.dib
2006-12-11, 08:54:50
Mir gefällt die Herangehensweise des Artikels nicht. Es wird gezeigt, wie sich 2 Grafikkarten und verschiedene CPUs in Gothic 3 unterscheiden, also im Prinzip ein Benchmark mit nur einem Spiel.

Unter einem Performance-Report stelle ich mir aber etwas anderes vor, nämlich zu sehen, was mit welcher Hardware möglich ist.
Ich spiele Gothic 3 relativ flüssig mit A64 3200+, X700 pro, 2 GB Ram, nur in dicht bevölkerten Städten limitiert die CPU das Spiel auf unter 20 fps.
Dass das möglich ist, kommt in eurem Artikel leider nicht rüber. Ich hätte mir gewünscht, dass ihr die Details herunterschraubt und dann zeigt, welche Hardware man für welche BQ braucht.

Auch das Fazit, dass eine schnelle Grafikkarte wichtiger ist, kann ich so nicht teilen. Meiner Meinung nach würde sich das Spiel mit einer Kombination aus X700 pro und Core 2 Duo besser Spielen als mit einer X1900 XT und einem 3200+.

Warum? Die Last der Grafikkarte kann über die Einstellungen sehr gut und sehr weit reduziert werden, die CPU-Last nicht. Das kommt bei euch leider überhaupt nicht heraus.

Madkiller
2006-12-11, 09:05:38
OK, hättest ja aber auch gleich sagen können. Heisst das nun, daß Gothic überhaupt keine DC-Optimierungen hat und alles vom System her kommt oder daß du das mit Gothic einfach nicht weißt.?! =)

Bei dem DC-Artikel bringt DC 10-20% mehr Leistung. Da Gothic3 deutlich über diesem Wert ist, kann man davon ausgehen, das G3 DC-optimiert ist. Und damit ist es IMO auch ausgeschlossen, daß es nur an der Systemumgebung liegt.


Auch das Fazit, dass eine schnelle Grafikkarte wichtiger ist, kann ich so nicht teilen. Meiner Meinung nach würde sich das Spiel mit einer Kombination aus X700 pro und Core 2 Duo besser Spielen als mit einer X1900 XT und einem 3200+.
Es wurde ausdrücklich darauf hingewiesen, daß es mit einer CPU unter E6300/4600+ langsam eng wird.
Und das es mehr fps bei GraKa-Limitierung gibt, wenn man mit den Settings (schon allein Auflösung und AF) runter geht, sollte IMO offensichtlich sein.

paul.muad.dib
2006-12-11, 09:41:43
Es wurde ausdrücklich darauf hingewiesen, daß es mit einer CPU unter E6300/4600+ langsam eng wird.
Und das es mehr fps bei GraKa-Limitierung gibt, wenn man mit den Settings (schon allein Auflösung und AF) runter geht, sollte IMO offensichtlich sein.

Natürlich ist das offensichtlich. Aber die spannende Frage für einen Performance-Report ist doch, wie viel fps man gewinnt und wieviel BQ dafür opfern muss.

Und bei G3 kann man verdammt viel gewinnen.

PHuV
2006-12-11, 10:50:34
Frage, warum wurde keine 8800 GTX/GTS gebencht?

Vertigo
2006-12-11, 10:53:07
Frage, warum wurde keine 8800 GTX/GTS gebencht?
Antwort: Lies mal den ersten Absatz des Artikels. ;)

Spasstiger
2006-12-11, 11:04:04
Frage, warum wurde keine 8800 GTX/GTS gebencht?
Weil niemand eine 8800er bereitgestellt hat? ;)
Und weil hier eh kein High-End-Vergleich betrieben wird.
Jeder hier weiß wohl, dass eine 8800er eine Radeon X1900 XT eiskalt stehen lassen würde, das muss man nicht unbedingt testen. Man hätte wohl auch recht stark mit dem CPU-Limit zu kämpfen. ;)

aths
2006-12-11, 11:04:40
Frage, warum wurde keine 8800 GTX/GTS gebencht?Antwort: Weil wir für diese Zeit keine dahatten.

Spasstiger
2006-12-11, 11:16:07
Irgendwo ist es ja wirklich schade, dass hier in den Foren schon ein beträchtlicher Teil der Userschaft mit neuer High-End-Hardware rumprollen kann, während die Redaktion sich mit "veralteten" Testsamples begnügen muss.
Die Kompetenz von 3DC gepaart mit den Bezugsmöglichkeiten von THG, das wär mal was.

Gast
2006-12-11, 11:44:18
Frage, warum wurde keine 8800 GTX/GTS gebencht?
Chronischer Ausrüstermangel der großen Webseite 3DCenter.org

aths
2006-12-11, 11:52:23
Irgendwo ist es ja wirklich schade, dass hier in den Foren schon ein beträchtlicher Teil der Userschaft mit neuer High-End-Hardware rumprollen kann, während die Redaktion sich mit "veralteten" Testsamples begnügen muss.
Die Kompetenz von 3DC gepaart mit den Bezugsmöglichkeiten von THG, das wär mal was.Ich sehe das lockerer.

Wer alles kann sich überhaupt jetzt schon einen G80 leisten oder hätte das Netzteil im PC, um einen G80 zu nutzen?

Spasstiger
2006-12-11, 12:11:24
Wer alles kann sich überhaupt jetzt schon einen G80 leisten oder hätte das Netzteil im PC, um einen G80 zu nutzen?
Das Netzteil sollte wohl nicht das Problem sein, da eine 8800 GTX nicht viel höhere Anforderungen stellt als die Upper-Mainstream-Karte X1900 XT.
Ich persönlich bin jedenfalls immer interessiert an 8800-GTX-Benches, da solch eine Karte wohl den Weg in meinen nächsten Rechner finden wird. Ok, bis die Anschaffung getätigt wird, könnte das 3DC auch schon über ein G80-Testsample verfügen. Und ohne den Vergleich zum R600 werd ich mich eh nicht festlegen.

aths
2006-12-11, 12:13:29
Das Netzteil sollte wohl nicht das Problem sein, da eine 8800 GTX nicht viel höhere Anforderungen stellt als die Upper-Mainstream-Karte X1900 XT.
Ich persönlich bin jedenfalls immer interessiert an 8800-GTX-Benches, da solch eine Karte wohl den Weg in meinen nächsten Rechner finden wird. Ok, bis die Anschaffung getätigt wird, könnte das 3DC auch schon über ein G80-Testsample verfügen. Und ohne den Vergleich zum R600 werd ich mich eh nicht festlegen.Wer hat schon eine X1900 XT?

Beispielsweise nutze ich privat eine 7600 GT und bin (abgesehen von der AF-Qualität) voll zufrieden mit der Karte.

goldman82110
2006-12-11, 13:17:33
Hallo,

finde die Idee speziell auf einzelne Spiele einzugehen wirklich super.

Würde mir einen Artikel zu World of Warcraft wünschen. Leider gibts zu dem Spiel ja keine Benchmarks. Das Spiel ist zwar nicht neu aber die Expansion steht ja im Januar an und es spielen ja doch noch einige Leute hier.


Gruß

Gast
2006-12-11, 14:23:14
Ich sehe das lockerer.

Wer alles kann sich überhaupt jetzt schon einen G80 leisten oder hätte das Netzteil im PC, um einen G80 zu nutzen?
Erster Teil: In D vermutlich mehrere Millionen Menschen.
Zweiter Teil: In D vermutlich etliche 10.000 Menschen.

Gast
2006-12-11, 16:05:55
Würde mir einen Artikel zu World of Warcraft wünschen. Leider gibts zu dem Spiel ja keine Benchmarks.Es eignet sich nunmal nicht sonderlich gut zum Benchen von GPUs. Das Spiel läuft mit einer FX5600 mit maximalen Details in sozialverträglichen Auflösungen flüssig. Was willst du da für Einstellungen fahren, damit es zum Vergleich von Karten wie 8800GTX oder x1950xtx taugt?

Außerdem wüsste ich jetzt nicht wie man da vergleichbare Spielabläufe hinkriegen will, sodass man die ermittelten FPS-Werte ruhigen Gewissens untereinander in ein Balkendiagramm schreiben kann.

Madkiller
2006-12-13, 17:06:34
Am liebsten wäre mir etwas, was mit Excel möglich ist.
Nach rumprobieren und Hilfe von anderen, ist jetzt mal das entstanden:
http://img201.imageshack.us/img201/5488/testsp6.jpg
(sry, wegen Kompression)
Was haltet ihr davon?
Jetzt gibt es für jedes Savegame ein extra Diagramm. Und die Balken für die CPUs sind absichtlich relativ unauffällig gehalten, aber IMO dennoch - wenn man sie sehen will - gut sichtbar. Werte habe ich keine angegeben*, da es hier ja in erster Linie um GraKa-Vergleiche geht, und man den Wert der CPUs auch so recht gut schätzen können sollte.

*oops, habe die Werte für den 3800+ vergessen. Bitte ignorieren.

Gast
2006-12-13, 17:53:08
Schreib die Werte doch einfach mit ins Setting (CPU-Limit: xx,xx Fps).

Bufi
2006-12-15, 20:17:23
Nur so zur Info: der Link auf der Hautpseite zum Report verweist ins Leere.

Gast
2006-12-20, 13:59:34
Würde mir einen Artikel zu World of Warcraft wünschen. Leider gibts zu dem Spiel ja keine Benchmarks. Das Spiel ist zwar nicht neu aber die Expansion steht ja im Januar an und es spielen ja doch noch einige Leute hier.


halte ich nicht für sinnvoll, abgesehen davon dass es wohl unmöglich ist repräsentative und reproduzierbare szenen zu finden sind selbst uralte grafikkarten mehr als schnell genug.

aths
2006-12-20, 16:20:18
Hallo,

finde die Idee speziell auf einzelne Spiele einzugehen wirklich super.

Würde mir einen Artikel zu World of Warcraft wünschen. Leider gibts zu dem Spiel ja keine Benchmarks. Das Spiel ist zwar nicht neu aber die Expansion steht ja im Januar an und es spielen ja doch noch einige Leute hier.Harte Zahlen zu bringen dürfte schwierig sein. Einfach gesagt, braucht man für durchweg hohen Spiespaß mindestens 1 GiB RAM. Die CPU sollte ein Rating von 2000+ oder höher haben, als Grafikkarte ist alles ab Ti 4200 noch ok (mittlere Sichtweite, 2x AA.) Der Battleground stellt, sofern man dort brillieren will, etwas höhere Anforderungen ans System.

reunion
2006-12-21, 16:01:14
Gibt es einen Grund, warum der Artikel zurzeit offline ist?

Madkiller
2006-12-21, 16:15:43
Der ist nicht offline, der ist falsch verlinkt.
Bei Leo hatte sich in letzter Zeit mehreres überschlagen, ich hoffe aber, er fixt das bald.
btw
Der Link hier und der auf der Hauptseite unter aktuelle Artikel stimmt.

Gast
2006-12-21, 23:42:28
Ich sehe das lockerer.

Wer alles kann sich überhaupt jetzt schon einen G80 leisten oder hätte das Netzteil im PC, um einen G80 zu nutzen?

Ähem, ein 420 Watt Netzteil dürfte wohl seit Jahren Standart in der "selberbauer" Fraktion sein oder? Mehr brauch ein Allendale 6400@2,8GHz mit 4x512MB DDR2 und einer 8800GTS nicht.

Grey
2007-01-23, 22:24:23
hm ok ist zwar "3dcenter" - aber gerade bei G3 würde mich am allermeißten interessieren, ob und wie man das speichermanagement hätte besser lösen können.

Die FPS sind von mir aus ok (x2 3800+, 2gb ram, 7800gt) ... wenns mal 17 sind ist auch noch so, nur die HDD zugriffe sind ja das größte problem an der gesamten G3 performance und machen das spiel oftmals unspielbar, außer man defragmentiert alle naslang.

Gast
2007-02-26, 13:06:26
Ich - als Gelegenheitsspieler - sehe diesen Test aus einem etwas anderen Blickwinkel:
Wenn G3 auch mit neuerer Hardware nur "befriedigend" läuft, ist das eine Bestätigung dafür, dass es sich noch immer nicht lohnt mein "Uralt-System" auf zu rüsten!!
Ich spiele G3 bei einer Auflösung von 1024x768 - ohne heruntrgeschraubte Grafikdetails - absolut flüssig mit folgendem System:
ASUS NFORCE 2 Deluxe
Athlon XP Barton 3200
1GB Corsair DDR1 - 400 Speicher Dual Channel
1x160 GB Samsung IDE Platte 7200 Umdrehungen / 8MB Cache
ATI Radeon 1600 Pro /512 MB AGP

Natürlich habe ich auch gelegentlich "Nachladeruckler", aber das Laden eines gespeicherten Spielstandes dauert bei mir MAXIMAL 30 Sekunden.
In sofern erstaunt es mich, was im Test dazu geagt wurde:

"Dabei waren die Level-Ladezeiten mit bis zu einer Minute uns trotzdem noch zu lang und gab es hier und da auch noch Nachladeruckler im Spiel selber. Wir können zwar keine Aussage dazu treffen, wie sich Gothic 3 mit "nur" 1 GB RAM spielt - aber besser dürfte es sicherlich nicht sein." (Anm.: Schlechter aber offenbar auch nicht :-) )

Schade eigentlich,dass der "Testpark" nur noch aus neuen "Highend" -Rechnern besteht. Da es doch noch sehr viele Anwedern gibt (vielleicht sogar die Mehrheit?), die ähnliche Systeme Systeme benutzen, wie ich, wäre es interessant, wenn neue Spiele eben auch noch auf älteren Systemen getestet würden.

Wer weiß, vielleicht würde das für manch eine Überraschung sorgen?

Zaffi
2007-02-26, 13:46:27
Ich - als Gelegenheitsspieler - sehe diesen Test aus einem etwas anderen Blickwinkel:
Wenn G3 auch mit neuerer Hardware nur "befriedigend" läuft, ist das eine Bestätigung dafür, dass es sich noch immer nicht lohnt mein "Uralt-System" auf zu rüsten!!
Ich spiele G3 bei einer Auflösung von 1024x768 - ohne heruntrgeschraubte Grafikdetails - absolut flüssig mit folgendem System:
ASUS NFORCE 2 Deluxe
Athlon XP Barton 3200
1GB Corsair DDR1 - 400 Speicher Dual Channel
1x160 GB Samsung IDE Platte 7200 Umdrehungen / 8MB Cache
ATI Radeon 1600 Pro /512 MB AGP

Aha, ich hatte zwar nur eine R 9800 pro mit 128 MB drin (bis Kante geoced), dafür war meine CPU ca. 100 Mhz schneller als deine, ansonsten quasi gleiches System und von flüssig kann da sicherlich keine Rede sein, schon gar nicht ohne runtergeschraubte Details !

Wie jeder weiss spielt sich G3 mit nur 1 GB Speicher einfach nicht flüssig, schätze mal du hast da einen falschen Blickwinkel oder bist sehr leidensfähig, sorry aber anders kann man das nicht bezeichnen....

canada
2007-04-01, 20:39:19
hat einer von euch noch die savegames? Der Link bei PCGH ist leider Fehlerhaft :-(