PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Performancereport Command & Conquer: Tiberium Wars


Leonidas
2007-06-30, 20:30:11
Link zum Artikel:
http://www.3dcenter.org/artikel/2007/06-30_a.php

huha
2007-06-30, 20:43:56
Es ist ja recht schön, wenn Empfehlungen für hohe Auflösungen ausgesprochen werden, aber wäre es nicht sinnvoll, eine Hardware-Empfehlung für 1280x1024, 1xAA, kein AF auszusprechen, damit Leute, die bildschirmtechnisch normal ausgerüstet sind und eventuell schon einen etwas betagteren Rechner besitzen, sehen können, inwiefern das Spiel vernünftig läuft?
Natürlich wird im Fazit erwähnt, daß das Spiel auch auf Mainstreamkarten läuft, aber wäre es hier nicht besser, Zahlen sprechen zu lassen?

-huha

(P.S: Bei C&C3 ist das für mich kein Problem, ich spiele es auf einem Pentium-M 760 mit einer X600 mobility in 1024x768 und es läuft recht gut; bevor ich mir aber andere Spiele kaufen würde, würde ich abklären, inwiefern das überhaupt läuft und genau für sowas wären solche Minimal-Empfehlungen sehr, sehr sinnvoll.)

Gast
2007-06-30, 21:10:16
Es ist ja recht schön, wenn Empfehlungen für hohe Auflösungen ausgesprochen werden, aber wäre es nicht sinnvoll, eine Hardware-Empfehlung für 1280x1024, 1xAA, kein AF auszusprechen, damit Leute, die bildschirmtechnisch normal ausgerüstet sind und eventuell schon einen etwas betagteren Rechner besitzen, sehen können, inwiefern das Spiel vernünftig läuft?
Natürlich wird im Fazit erwähnt, daß das Spiel auch auf Mainstreamkarten läuft, aber wäre es hier nicht besser, Zahlen sprechen zu lassen?

-huha

(P.S: Bei C&C3 ist das für mich kein Problem, ich spiele es auf einem Pentium-M 760 mit einer X600 mobility in 1024x768 und es läuft recht gut; bevor ich mir aber andere Spiele kaufen würde, würde ich abklären, inwiefern das überhaupt läuft und genau für sowas wären solche Minimal-Empfehlungen sehr, sehr sinnvoll.)

Aber Echt!

Mein leistungsstärkster Rechner hier ist ein P4D@3,73Ghz mit ner 7600GT und ich komm mir damit vor wie einer, der damit Solitär spielen soll, weil die Kiste nix mehr taugt....

Gertz
2007-06-30, 22:19:50
Was mich verwirrt: Ihr habt nen X² 3800+ gegen einen auf 3,2ghz uebertakteten e6400 antreten lassen?

L.ED
2007-06-30, 22:23:29
mmm…

also soweit ich mich erinnere konnte ich das Spiel weitestgehend immer mit Konstanten 30FPs (Vsync ON) durchdaddeln?
(CPU: X2 3800+ @2,5Ghz / GFX: X1950XT *AGP*)

Allerdings bezieht sich das nur die regulären Missionen und einer Auflösung bei 1280x960 (max. Details). Beim Multiplayer (nur gegen den Computer), 6 bis 8 auf einer Karte, wurde es zum fortlaufendem Spielverlauf schon recht zäh (um 9FPs). In dem Sinne kommt es dann schon alles hin, nur ist die Frage in wie weit es Praxis relevant? :|


Die hier nun nur gewählten Auflösungen sind doch schon noch recht Hoch angesetzt für die heutige Zeit, was da meint, was bei den meisten wirklich realistisch zu Hause los und Rechnertechnisch steht. :redface:

Ich weiß, wenn man nur auf diesen Seiten verstärkt unterwegs, verliert man schnell mal den Blick? ;)

Wenn von meinem Umfeld ausgehe, ist das nächst Stärkste ein AMD 4000+ und alles andere siedelt Teils weit dahinter AMD 3200+ bis hin sogar noch K7 XP um 3200+ Systeme. :cool:

Und jetzt kommt’s, die Leute sind viel Zocker (im Gegensatz zu mir), wo auch C&C TW anbei, welches auch viel Online gespielt (teils sind se wohl so gut das niemand mehr mit ihnen daddeln mag?).


Und die sind anscheint absolut zufrieden, :confused: ich mein höre da nix das es extrem lahm sei usw. (vielleicht sind sie einfach auch nur härter drauf)? Aber ich Denke mal eher es liegt daran weil maximal “nur“ mit 1280x1024 Unterwegs … bzw. 1024x768 oder 1152x864, bei sicher auch verminderten Details. (hab da mal so was vernommen)


Worauf Aufmerksam machen will ist, das die Performancereports Inhaltlich nicht falsch, aber Sachlich ein wenig an der allgemein jetzigen IST Realität mehr und mehr nun Drohen vorbei zugehen?

Viele können mit diesen dann Aktuell nicht mehr wirklich was anfangen und stehen danach noch genauso schlau da wie vorher auch. Und schrecken vielleicht gänzlich unberechtigterweise dann auch vorm Kauf dieses oder jenes Titels zurück!?

Konsequenterweise, wenn schon sogar Test mit dem kleinen (X2 3800+) , gefahren, sollten dann auch Auflösungen um 1024x786 noch mit berücksichtigt werden (eben weil dort gleichsam CPU last noch wiederum geringer).

PS:
Es sei den die generelle Intention der 3D Center Performance Reports ist es nur zu zeigen in wie weit halbwegs Aktuelle und schnellst bis Maximum Hardware, es in Spiel xyz dann bringen kann und wo auch diese ihre Leistungsgrenzen dann spätestens (schon wieder) findet?

puntarenas
2007-06-30, 22:39:50
Was mich verwirrt: Ihr habt nen X² 3800+ gegen einen auf 3,2ghz uebertakteten e6400 antreten lassen?
Nein, es wurde wie immer das CPU-Limit auf einem X2 3800+ und einem e6400 ermittelt. Die Grafikkartenbenches wurden dann alle mit dem auf 3,2Ghz übertakteten C2D durchgeführt, damit kein CPU-Limit die Ergebnisse verfälscht.

Gertz
2007-06-30, 22:41:23
Nein, es wurde wie immer das CPU-Limit auf einem X2 3800+ und einem e6400 ermittelt. Die Grafikkartenbenches wurden dann alle mit dem auf 3,2Ghz übertakteten C2D durchgeführt, damit kein CPU-Limit die Ergebnisse verfälscht.
ahh.. k... Fands nur verwirrend und der text selbst gab auch nicht so die antwort die gesucht hatte.

Gast
2007-06-30, 23:53:26
Was ich nicht verstehe, ist, warum die Grafikdetail-Analyse bei möglichst hoher CPU-Belastung durchgeführt wurden... Es wäre doch wohl sinnvoller gewesen, zu testen, in wie fern verschieden hohe Grafikdetailstufen die Grafikkarte belasten?

Ansonsten kommen mir die gemessenen FPS-Zahlen alle etwas sehr niedrig vor... aber das mag auch daran liegen, dass ich im Moment nur die Demo habe, in der es keine so großen Schlachten gibt.
Auf meinem nicht so schnellen Computer (Turion 2 GHz, Radeon X700 Mobility) läuft das Spiel jedenfals bei etwa mittleren bis mittelniedrigen Details garnicht so schlecht; gemessen habe ich 15-30fps, je nach Situation, bei 1680x1050. Bei 1280x800 wird die Performance nicht viel besser, ich schätze so 17-40 fps. Ich kann also somit den Teil des Tests bestetigen, dass Tiberium Wars die Grafikkarte nicht sehr stark beansprucht.

puntarenas
2007-07-01, 01:23:32
ahh.. k... Fands nur verwirrend und der text selbst gab auch nicht so die antwort die gesucht hatte.

Jehova!
Und letztlich zum besseren Verständnis der CPU-Balken: Die weiß und schwarz umrandeten Messungen stellen bewusst CPU-limitiert angesetzte Messungen mit einem Athlon 64 X2 3800+ (weiß) und einem Core 2 Duo E6400 (schwarz) dar. Diese Messungen ergeben somit, welche Performance unter Ausschaltung des Effekts der Grafikkarten erreicht wird, was uns wiederum im Quervergleich mit den Grafikkarten-Messungen die Möglichkeit an die Hand gibt, mögliche CPU-Limitierungen mit schwächeren CPUs als dem bei den Grafikkartentests eingesetzten auf 3.2 GHz übertaketeten Core 2 Duo zu erkennen. Die fps-Skala aller Diagramme geht übrigens immer so weit, wie der fps-Wert, den der Core 2 Duo @ 3200 MHz auf 640x480 erreichen konnte.
Steinigt ihn :D

Gast
2007-07-01, 04:11:51
Also ich finde den Test bei hohen Auflösungen gut.


Jeder heute Kaufbare Standardmonitor hat eine Auflösung von 1600*xxxx oder noch größer, die Zeit von Full HDTV ist auch inzwischen in den Läden angekommen und mein 22" CRT packt die hohen Auflösungen sowieso schon seit Uhrzeiten ohne Probleme.
Von daher verstehe ich eure Einwände nicht.

Madkiller
2007-07-01, 08:43:36
Es ist ja recht schön, wenn Empfehlungen für hohe Auflösungen ausgesprochen werden, aber wäre es nicht sinnvoll, eine Hardware-Empfehlung für 1280x1024, 1xAA, kein AF auszusprechen, damit Leute, die bildschirmtechnisch normal ausgerüstet sind und eventuell schon einen etwas betagteren Rechner besitzen, sehen können, inwiefern das Spiel vernünftig läuft?
Natürlich wird im Fazit erwähnt, daß das Spiel auch auf Mainstreamkarten läuft, aber wäre es hier nicht besser, Zahlen sprechen zu lassen?
Nochmal: man kann nur testen, was man hat.

mmm…

1.also soweit ich mich erinnere konnte ich das Spiel weitestgehend immer mit Konstanten 30FPs (Vsync ON) durchdaddeln?
(CPU: X2 3800+ @2,5Ghz / GFX: X1950XT *AGP*)

2.Allerdings bezieht sich das nur die regulären Missionen und einer Auflösung bei 1280x960 (max. Details). Beim Multiplayer (nur gegen den Computer), 6 bis 8 auf einer Karte, wurde es zum fortlaufendem Spielverlauf schon recht zäh (um 9FPs). In dem Sinne kommt es dann schon alles hin, nur ist die Frage in wie weit es Praxis relevant? :|


3.Die hier nun nur gewählten Auflösungen sind doch schon noch recht Hoch angesetzt für die heutige Zeit, was da meint, was bei den meisten wirklich realistisch zu Hause los und Rechnertechnisch steht. :redface:


4.Wenn von meinem Umfeld ausgehe, ist das nächst Stärkste ein AMD 4000+ und alles andere siedelt Teils weit dahinter AMD 3200+ bis hin sogar noch K7 XP um 3200+ Systeme. :cool:

5.Und jetzt kommt’s, die Leute sind viel Zocker (im Gegensatz zu mir), wo auch C&C TW anbei, welches auch viel Online gespielt (teils sind se wohl so gut das niemand mehr mit ihnen daddeln mag?).


6.Und die sind anscheint absolut zufrieden, :confused: ich mein höre da nix das es extrem lahm sei usw. (vielleicht sind sie einfach auch nur härter drauf)? Aber ich Denke mal eher es liegt daran weil maximal “nur“ mit 1280x1024 Unterwegs … bzw. 1024x768 oder 1152x864, bei sicher auch verminderten Details. (hab da mal so was vernommen)


7.Worauf Aufmerksam machen will ist, das die Performancereports Inhaltlich nicht falsch, aber Sachlich ein wenig an der allgemein jetzigen IST Realität mehr und mehr nun Drohen vorbei zugehen?

Viele können mit diesen dann Aktuell nicht mehr wirklich was anfangen und stehen danach noch genauso schlau da wie vorher auch. Und schrecken vielleicht gänzlich unberechtigterweise dann auch vorm Kauf dieses oder jenes Titels zurück!?

8.Konsequenterweise, wenn schon sogar Test mit dem kleinen (X2 3800+) , gefahren, sollten dann auch Auflösungen um 1024x786 noch mit berücksichtigt werden (eben weil dort gleichsam CPU last noch wiederum geringer).

PS:
9.Es sei den die generelle Intention der 3D Center Performance Reports ist es nur zu zeigen in wie weit halbwegs Aktuelle und schnellst bis Maximum Hardware, es in Spiel xyz dann bringen kann und wo auch diese ihre Leistungsgrenzen dann spätestens (schon wieder) findet?

1. Da widersprach ich ja auch nicht. Ohne wirkliche Gegnermassen war das Spiel nicht so ohne weiteres unter 30fps zu bekommen

2. Warum soll das nicht praxisrelevant sein? Wenn du nicht so stressige Szenen hast, weißte genau, daß deine fps (deutlich) höher sind.

3. Also ne 7950GT ist ja wohl kein Highend mehr. Und wenn die GraKa sogar unter 16x12 mit nem E6400@3200MHz (!) fast immer in ein CPU-Limit läuft, welchen Sinn hat das niedrigere Auflösungen zu testen?
btw, ein A64 SC 3800+ ist wohl auch kein Highend.

4. Es sollte ja bekannt sein, daß ein XP3200+ etwa 25% langsamer ist, als ein gleich getakteter A64. Kann man doch einfach zurück rechnen.

5. Na genau da haste doch deine praxisrelevante Szenen, solange du nicht gerade 1on1 oder 2on2 (wobei, wenn da mal wirklich viel aufgebaut ist, hauts wieder hin) spielst.

6. Genau deswegen wurden doch so hohe Auflösungen mit den Karten getestet. Eben weil ein Absenken eben dieser nichts bringen würde. Und was abgeminderte Details bringen, wurde doch aufgezeigt. Kann man doch übertragen.

7. Kann ich nicht nachvollziehen, wenn man bereit ist die Ergebnisse des Artikels umzulegen.
Ich habe nur nen XP3200+ und spiele nur 1on1? Ach, wenn ein A64 3800+ bei nem vollgepackten Level noch auf 20fps kommt, sollte das kein Problem sein.
Ich habe nur ne 7600? Also wenn ich nen E6400 bräuchte, nur damit ich unter 1920x1440 mit 4xTSAA und 16xAF mit der 7950GT doch rigend wann mal in ein GraKa-Limit laufe, sind ja wohl mindestens 1280x1024 sicher kein Problem.
Etc...

8. CPU-Last ist unabhängig von der Auflösung.

9. Nochmal: ich kann nur testen, was ich habe. Und gerade was die GraKas angeht, sind die weder aktuell noch Highend. Und bei den CPUs wird ja wohl ne ziemliche Spanne abgedeckt.

Gast
2007-07-01, 09:32:31
Ich verstehe ehrlich gesagt die schwarzen und weißen Balken nicht!
Wenn laut diesem Balken ein C2D@3,2 GHz bei 800x600 auf etwa 21 FPS limitiert (erstes Diagramm) wie kann das System dann bei 1600x1200 plötzlich 28 FPS schaffen?

reunion
2007-07-01, 09:40:37
Kann man nicht versuchen die verwendete Grafikkarte/CPU in die Balken hineinzuschreiben, und ev. die Balken nicht nur nach Szene, sondern auch nach unterschiedlichen Settings zu trennen? Die Tabelle auf der letzten Seite ist wiedermal absolut unbrauchbar IMHO, da kann ich nicht die geringste brauchbare Information herausfiltern.

Madkiller
2007-07-01, 09:42:27
Ich verstehe ehrlich gesagt die schwarzen und weißen Balken nicht!
Wenn laut diesem Balken ein C2D@3,2 GHz bei 800x600 auf etwa 21 FPS limitiert (erstes Diagramm) wie kann das System dann bei 1600x1200 plötzlich 28 FPS schaffen?
Der weiße Balken steht für den X3800+. Der schwarze für den E6400 (E6400 hat 2133MHz). Die GraKa-Benches wurden mit dem E6400@3200MHz gemacht, deswegen die Teilweise höheren Werte.

Gast
2007-07-01, 09:51:33
Ach so, hmm.
In dem ganzen Text ist immer nur von einem E6400 und einem E6400@3200 MHz die Rede. Vielleicht sollte bei dem unübertakteten deutlicher herausgestellt werden, dass dieser mit 2,133 GHz läuft (z.B. E6400@2133 MHz) und dass das jener Prozessor ist, mit dem die CPU-Benches gemacht wurden. Ich konnte es jedenfalls nicht direkt raus lesen, aber danke für die Erklärung.

Undertaker
2007-07-01, 11:20:45
die übersichtlichkeit ist leider, trotz der an sich sehr interessanten und ausführlichen benches, leider so mies wie eh und je :(

speziell merkt man das zb bei dieser grafik:

http://3dcenter.de/images/2007/06-30_pic16.png

sry, aber wer soll da noch was erkennen könnnen? da muss man dringend etwas ändern; ich schau mal, ob ich zeit finde, ein paar alternativvorschläge zu basteln

edit: so könnte ich mir das ganze zb grundlegend vorstellen:

http://666kb.com/i/apolou8wdqpsv8pim.png

gleicher informationsgehalt (weitere messwerte könnten problemlos ergänzt werden), aber man erkennt wirklich alles auf einen blick und hat nicht 10 verschiedene farben...

p.s.: ja, ich weis, das ist alles etwas krumm und schief, aber für meine paintskillz kann ich nix ;)

StefanV
2007-07-01, 11:50:22
Warum gibts kein Inhaltsverzeichnis?! :|
Man kanns ja auch ähnlich wie bei Wikipedia machen oder bei CBase...
Auf jedern Fall sollte das Teil eins haben, da man ab und an mal einfach was sucht.

Ganz ab davon sollten die Performance Reports auch eine eigene Kategorie bekommen!!

cyjoe
2007-07-01, 11:59:26
Ich fände es interessant, wenn bei den Performance-Reports grundsätzlich um ältere CPUs wie Bartons oder Northwoods erweitert würden.

huha
2007-07-01, 12:03:39
Man kann zwar nur testen, was man hat, aber eine Minimalempfehlung auszusprechen dürfte auch mit besserer Hardware nicht unbedingt ein großes Problem sein, da man ja sieht, wie das Spiel skaliert--bei Supreme Commander hat's ja auch geklappt, Hardware zu empfehlen, die noch niemand hat, weil sie erst in einiger Zeit existieren wird ;)

Gerade bei Supreme Commander wäre eine Minimalempfehlung sinnvoll; das Spiel ist interessant, aber ich zögere noch damit, es mir zu kaufen, weil ich nicht weiß, inwiefern es auf meinen Rechnern überhaupt spielbar ist.

-huha

reunion
2007-07-01, 13:17:37
die übersichtlichkeit ist leider, trotz der an sich sehr interessanten und ausführlichen benches, leider so mies wie eh und je :(

speziell merkt man das zb bei dieser grafik:

http://3dcenter.de/images/2007/06-30_pic16.png

sry, aber wer soll da noch was erkennen könnnen? da muss man dringend etwas ändern; ich schau mal, ob ich zeit finde, ein paar alternativvorschläge zu basteln

edit: so könnte ich mir das ganze zb grundlegend vorstellen:

http://666kb.com/i/apolou8wdqpsv8pim.png

gleicher informationsgehalt (weitere messwerte könnten problemlos ergänzt werden), aber man erkennt wirklich alles auf einen blick und hat nicht 10 verschiedene farben...

p.s.: ja, ich weis, das ist alles etwas krumm und schief, aber für meine paintskillz kann ich nix ;)

Kein schlechter Vorschlag, aber optimal hat das IMHO xbitlabs gelöst:

http://www.xbitlabs.com/images/video/radeon-hd-2900-games/research_4x.gif

So sieht man auf den ersten Blick die verwendete Grafikkarte, die fps, und vergleichbare Settings sind direkt nebeneinander angeordnet und deutlich von den anderen getrennt. Daran sollte man sich ein Beispiel nehmen.

Undertaker
2007-07-01, 13:37:12
jop gefällt mir auch gut, nur eben wie es jetzt ist gehts halt gar nicht

L.ED
2007-07-01, 14:09:48
@Madkiller
Ruhig blut ;) Als ich das schrieb war es auch schon zu leicht fortgeschrittener Stunde, bin auch nicht wirklich die Zielgruppe.

Finde aber die 3DCenter Performance Reports an sich dennoch Interessant (denn ich kann abstrahieren). Auch vor dem Hintergrund das es z.Z. ziemlich einzigartig, die Arbeit dahinter anzuerkennen weiß und damit auch nicht diskreditiert haben mochte.

Mir ist eben nur aufgefallen, da man selbst das ein oder andere Spiel hat und gelegentlich auch mal Spielt, das eben diese dort (erwähnt) bewusst Konstruierten extrem Szenarios, die welche schon noch ganz andere Systeme derzeit Richtung Keller zu drücken dann vermögen. Im eigentlichem wirklichem Spiel so nicht anzutreffen oder wenn dann nur eher selten und kurz, mich teils schon ordentlich aus dem Fenster lehnen müsste (in meinem jeweiligen Spiel), um auf selbiges dann permanenter hinaus zu kommen, von daher die Frage überkam nach der Praxis Relevanz (letztendlich)?

Gleich wenn immer mal wieder eingangs und ausgangs erwähnt wird das es eben bewusst auf die (versucht) extreme hin gestellte und konstruierte Szenarios, um eben usw. usf.

So überkommt dem gemeinen geneigten als solches, während des Lesens dann doch erst einmal ein anderer Eindruck. Das Gefühl, so ähnlich wie vom @Gast weiter oben schon angeschnitten. Das diese oder jene eigentlich doch noch recht alltagsflotte Hardware, Spieltechnisch dann nur mehr noch was für die kommende Version MineSweeper (jetzt dann mit extra Handhinoptimierten schwermundigen Code, nu aba in 3d & mit Multicore support :rolleyes: ), zu sein und zu Taugen scheint und das war’s dann! ,,kannst Weckwerfen’’, den Rechner.

Dieses Gefühl natürlich von vorneherein schon trügt, spätestens nach kurzen innerlichen Resümee auch schnell wieder klar, nur stellt sich die Frage sollte es wirklich so sein (während des Lesens)?

tomylee
2007-07-01, 17:45:48
also ich will ja keine Eier ins Rollen bringen, aber ich hab das Game auf meinem Notebook athlon mobile 2600+ mit ati radeon 9600 durchgezockt und schlage jede KI auf Brutal 1on1...habs aber nie im Netzwerk probiert, habs auch erst kurz und spiele nicht oft...

;)

an mir ist der Test völlig vorbeigegangen - in meinem Desktop steckt noch ein Athlon 64 3200+ dafür mit 3gb ram, aber die graka ist sowas von no name, da ruckelt schon die grafische darstellung von plugins für Audioanwendungen, wofür der PC eigentlich gedacht ist...

naja da mir das Spiel aber gut gefällt, dachte ich an eine Grakaaufrüstung, das wichtigste dabei: Stumm und möglichst wenig verbratene Watts - denn DSPs sind schon genug im rechner...ich glaub 23 - und gekühlt wird nur mit 2 gedrosselten gehäuselüftern und einem ebenso gedrosseltem (per mainboardsteuerung, MSI) cpu kühler.

Ich schwankte zwischen ner Raedon X1950 Pro und einer Nvidia Geforce 7900 GT, die verbrauchen zwar relativ wenig, sind aber weit zu potent für meine CPU, obwohls ganz schön wäre in so vielen Details zu spielen mit all der Glättung und Filterung...nur, Strom ist mir viel wichtiger, da ich eben auch arbeite mit dem PC, also mal ganz nebenbei die Frage, was denn eine für cnc relativ gut brauchbare Karte ist, mit noch weniger Verlustleistung als die guten von Ati und Nvidia?

tom

Undertaker
2007-07-01, 18:08:03
ne nvidia 8600 / ati 2600er karte :)

tomylee
2007-07-01, 18:13:58
oh hoppla - ich such die ganze Zeit nach sowas, dabei hab ich mir den Artikel "Die neuen Desktop-Lineups von ATI und nVidia" schon lange durchgelesen - anscheinend nicht aufmerksam genug...

¡ muchas gracias !

tomylee
2007-07-01, 18:22:16
ne nvidia 8600 / ati 2600er karte :)

na die 8600er fällt schon mal weg, wirds anscheinend nicht in AGP geben...

Undertaker
2007-07-01, 19:02:41
ach so agp... hmm dann würd ich schon ne 7900/7950gt nehmen, mehr leistung pro watt wirst du kaum finden

Armaq
2007-07-01, 19:06:34
Generell soll 3DC endlich mal an den Grafiken arbeiten. Nette Artikel, aber diese komischen Balken die ihr jedes mal verwendet sind genauso sinnfrei, wie die Riesendiagramme mit 100 kleinen Fitzelbalken.

Gast
2007-07-01, 19:21:39
was ich widerum überhaupt nicht verstehe ...: der singlecore 3800+ wird durch abschalten eines cores vom 3800X2 emuliert.

???

Das ist doch totaler blödsinn - der x2core vom 3800 ist viel viel kleiner getaktet und läuft auf der Frequenz von einem 3200+!!!

Kann man also defakto überhauptnicht vergleichen.
Der ganze Test ist totaler quatsch.

puntarenas
2007-07-01, 19:42:49
Was kann man daran nicht verstehen. Der X2 3800+ hat zwei Kerne, die jeweils mit 2,0Ghz takten. Der simulierte Singlecore hat im Vergleich einen Kern, der dann auch mit 2,0Ghz läuft. Man könnte natürlich ebenso gut einen Athlon64 3200+ (1 Kern bei 2,0Ghz) nehmen, liegt halt vermutlich gerade keiner herum oder man spart sich den Umbau. Ein Athlon64 3800+ (1 Kern bei 2,4Ghz) wird zu keinem Zeitpunkt emuliert, wofür sollte das auch nützlich sein?

Warum der Athlon genommen wird ist ja auch hinreichend erläutert, beim C2D stünde nach Deaktivieren eines Kerns dem anderen Kern der volle Shared Cache zur Verfügung, was das Ergebnis verfälschen würde und beim AMD-Prozessor ist dies nicht der Fall, weil mit Deaktivieren eines Kerns auch dessen Cache deaktiviert wird.

Madkiller
2007-07-01, 19:45:26
was ich widerum überhaupt nicht verstehe ...: der singlecore 3800+ wird durch abschalten eines cores vom 3800X2 emuliert.

???

Das ist doch totaler blödsinn - der x2core vom 3800 ist viel viel kleiner getaktet und läuft auf der Frequenz von einem 3200+!!!

Kann man also defakto überhauptnicht vergleichen.
Der ganze Test ist totaler quatsch.
Ernsthaft:
Was ist an dieser Überschrift mißverständlich?
http://www.3dcenter.org/images/2007/06-30_pic14.png
Oder an der Legende?
http://www.3dcenter.org/images/2007/06-30_pic12.png

Hvoralek
2007-07-02, 00:31:18
die übersichtlichkeit ist leider, trotz der an sich sehr interessanten und ausführlichen benches, leider so mies wie eh und je :(

speziell merkt man das zb bei dieser grafik:

http://3dcenter.de/images/2007/06-30_pic16.png

sry, aber wer soll da noch was erkennen könnnen?Kurios ist ja, dass in diesem Enddiagramm nichts anderes drinsteht als in den normalen Savegamediagrammen am Anfang auch schon.

edit: so könnte ich mir das ganze zb grundlegend vorstellen:

http://666kb.com/i/apolou8wdqpsv8pim.png

gleicher informationsgehalt (weitere messwerte könnten problemlos ergänzt werden), aber man erkennt wirklich alles auf einen blick und hat nicht 10 verschiedene farben...Das ist aber nur ein Alternativvorschlag für die normalen Savegamediagramme und nicht für das Teil am Ende (Das man mMn einfach ersatzlos streichen sollte, weil es sowieso keine zusätzlichen Informationen enthält). Die Angaben zu den CPU- Limits sollten wirklich nicht in jeder Einstellung wieder eingefügt werden, die sind ja bei einem Savegame immer gleich.

Bei Deinem Vorschlag fehlt allerdings die Hälfte der Informationen der GraKatests (in 1600x1200). Und wäre es nicht sinnvoll, jeweils die Werte in den gleichen Einstellungen direkt untereinander zu schreiben? In Deinem Konzept muss man immer erst ein paar Zeilen überspringen, um den direkten Vergleichswert zu finden.

Kein schlechter Vorschlag, aber optimal hat das IMHO xbitlabs gelöst:

http://www.xbitlabs.com/images/video/radeon-hd-2900-games/research_4x.gif

So sieht man auf den ersten Blick die verwendete Grafikkarte, die fps, und vergleichbare Settings sind direkt nebeneinander angeordnet und deutlich von den anderen getrennt. Daran sollte man sich ein Beispiel nehmen.Abgesehen davon, dass die Angaben zu den CPU- Limits wirklich nicht bei jeder einzelnen Einstellung einfügt werden sollten, sollte man also umsotrieren von 6x2 Balken (6 Settings bei zwei Karten) auf 3x2x2 (Drei Qualitätseinstellungen in zwei Auflösungen mit zwei Karten)? Inwiefern soll das die Lesbarkeit verbessern?

tomylee
2007-07-02, 01:22:44
wie kann man bloß sagen der ganze Test wäre quatsch? Als ich ihn gesehen habe dachte ich "genau im richtigen Moment" - sicher, ein paar ältere prozessoren und grakas hätten ihm auch gestanden, aber man brauch sich nicht so aufregen, ist doch gratis, und jemand hat sich da die Mühe halt gemacht
danke!

Tom

Undertaker
2007-07-02, 07:47:31
Kurios ist ja, dass in diesem Enddiagramm nichts anderes drinsteht als in den normalen Savegamediagrammen am Anfang auch schon.

Das ist aber nur ein Alternativvorschlag für die normalen Savegamediagramme und nicht für das Teil am Ende (Das man mMn einfach ersatzlos streichen sollte, weil es sowieso keine zusätzlichen Informationen enthält). Die Angaben zu den CPU- Limits sollten wirklich nicht in jeder Einstellung wieder eingefügt werden, die sind ja bei einem Savegame immer gleich.

nein, das war auch als alternative für das letzte diagramm gedacht, sogar ganz im speziellen dafür

Bei Deinem Vorschlag fehlt allerdings die Hälfte der Informationen der GraKatests (in 1600x1200).

was fehlt denn? das ich die anzahl der werte reduziert habe zählt nicht dazu, das geschah rein aus zeitgründen - aber bei meinem vorschlag ist der ableseaufwand unabhängig von der anzahl der einträge :)

Und wäre es nicht sinnvoll, jeweils die Werte in den gleichen Einstellungen direkt untereinander zu schreiben? In Deinem Konzept muss man immer erst ein paar Zeilen überspringen, um den direkten Vergleichswert zu finden.

nein, imho nicht - diese bunte vermischung verschlechtert die übersichtlichkeit, auch eine tendenz lässt sich so viel schlechter erkennen

Hvoralek
2007-07-02, 13:00:39
Du möchtest also dieses Schlussdiagramm mit allen Angaben darin erhalten? Verstehe ich es richtig, dass es Dir hpts. um eine Umfärbung der Balken geht? Das würde die Lesbarkeit sicher verbessern. Man sollte aber dennoch die Ergebnisse beider Karten mit denselben Einstellungen untereinander belassen. Man vergleicht ja i.d.R. die Ergebnisse verschiedener Systeme unter den gleichen Bedingungen und da wäre das sinnvoller, als immer erst fünf Balken nach oben bzw. nach unten gehen zu müssen.

Naja, meine persönliche Meinung zu diesem Abschlussdiagramm ist ja bekannt.

Undertaker
2007-07-02, 14:53:01
Verstehe ich es richtig, dass es Dir hpts. um eine Umfärbung der Balken geht?

vergleich doch nochmal beides, ich habe wesentlich mehr als das geändert ;) desweiteren behaupte ich nicht, dass der vorschlag der weisheit letzter schluss sein, sondern eine meiner meinung noch wesentlich bessere alternative, zu der es ebenfalls unzählige weitere alternativen gibt - denn nocheinmal, so wie es jetzt ist kann man halt gar nix mit anfangen (imo)

ob das diagramm überhaupt nötig ist oder nicht steht auf einem anderen blatt, in übersichtlicher form denke ich aber stellt es durchaus eine bereicherung des artikels dar

Hvoralek
2007-07-02, 21:23:14
vergleich doch nochmal beides, ich habe wesentlich mehr als das geändert ;) Was denn noch, neben Ausgliederung der CPU- Limits, Umfärbung und Sortierung nach Karten statt nach Einstellungen?

Undertaker
2007-07-02, 21:47:54
das sind doch schonmal paar sachen mehr ;) dazu kommt zb auch noch die ablesbarkeit der einstellungen direkt am balken und nicht mehr unten in der legende

Hvoralek
2007-07-02, 22:23:14
das sind doch schonmal paar sachen mehr ;) dazu kommt zb auch noch die ablesbarkeit der einstellungen direkt am balken und nicht mehr unten in der legendeAlso so, wie das bei den Einzeldiagrammen schon jetzt ist. Sonst noch etwas?

Hübie
2007-07-10, 16:06:51
Warum wurden eigentlich so alte Treiber verwendet?
Afaik hatte der net mal CF-Support für C&C³... Ist der Report so alt?


bye Hübie

Madkiller
2007-07-10, 16:17:05
Jap, der ist so alt.
Die Benches waren 14 Tage nach der Erscheinung des Spiels fertig.

Hübie
2007-07-10, 17:04:08
Achso. Na dann sag ich mal nix ;)
Mist wieder nix zu meckern... Oder warte: Doch! Die Diagramme sind echt suboptimal. Du verstehst was ich meine :D
Ansonsten: Nice work.
Btw: Hat die Engine net eh ein framelimit von 30fps??? :|


bye Hübie

Madkiller
2007-07-10, 17:14:42
Ya, hat ein Limit von 30fps.
Deswegen auch nur stressige Szenen.

Leonidas
2007-07-26, 05:22:40
Was mich verwirrt: Ihr habt nen X² 3800+ gegen einen auf 3,2ghz uebertakteten e6400 antreten lassen?


Sicherlich nicht. Der X2 wurde auf 3800+, 4600+ und 5400+ getaktet, um CPU-Limits herauszufinden. Der C2D lief während der gfx-Tests (also was völlig anderes!) auf 3200 MHz, um keine CPU-Limitierung aufkommen zu lassen.






Es sei den die generelle Intention der 3D Center Performance Reports ist es nur zu zeigen in wie weit halbwegs Aktuelle und schnellst bis Maximum Hardware, es in Spiel xyz dann bringen kann und wo auch diese ihre Leistungsgrenzen dann spätestens (schon wieder) findet?


Korrekt. Letztlich können wir es ohne supergroßen Aufwand gar nicht zufriedendstellend für alle machen. Die einen wollen die neusten gfx im Test, andere wollen ältere HW im Test.