PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Interessantes Statement von [H]ardOCP über Matrox & Parhelia.


Exxtreme
2002-06-21, 20:26:34
So wie es aussieht, wird [H]ardOCP keine Testhardware von Matrox bekommen. Der Grund sind anscheinend ihre Testmethoden. Dieses Statement findet ihr hier (http://www.hardocp.com/article.html?art=MzE1).

Gruß
Alex

askibo
2002-06-21, 20:30:51
Und bei b3d gibts eine lange Diskussion darüber

http://64.246.22.60/~admin61/forum/viewtopic.php?t=1305

Edit: Link korrigiert, muss mal wieder zum Optiker :bonk:

jedi
2002-06-21, 20:39:07
Interesant. Matrox schliesst also kritische Tester aus. Spricht nicht gerade für grosses Vertrauen in ihre eigenes Produkt. Aber wir werden in den nächsten Monaten trotzdem festestellen, was Matrox versucht zu verbergen.

:|

mapel110
2002-06-21, 20:39:45
ich bin lesefaul !!! :(

was ist der grund ???

jedi
2002-06-21, 20:43:54
Originally posted by mapel110
ich bin lesefaul !!! :(

was ist der grund ???

Matrox hat Angst, dass die Tester von hardocp - im Gegensatz zu anderen braven Hofberichterstattern - anspruchsvoller sein könnten und möglicherweise einige Schwachpunkte aufzeigen würden, die ein Enthusiast als Schwächen sehen könnte. Sie gehen davon aus, dass die bestimmten Hardwarwesites, an die sie ihre Karten schicken, diese Schwächen unter den Tisch fallen lassen würden.

"Matrox said they would not be sending us a review unit on the same schedule as other sites and then revealed some interesting reasons. Matrox stated that due to the nature of our testing that they were not “comfortable” with sending us a Parhelia card. They seemed to think that we would be a bit too rough on the Parhelia and possibly show some issues that the “enthusiast” might identify as weaknesses. Logic would dictate that this of course means that Matrox thinks that the hardware review sites getting the first round of Parhelias would not expose those weaknesses."

mapel110
2002-06-21, 20:48:39
*spekulier*
hmm, mit weak kann vielleicht die AA oder die AF performance gemeint sein. vielleicht ist auch die bildquali unter aller sau ?!

oder was sonst ? die rohpower müsste doch okay sein. hmm *kopfkratz*

jedi
2002-06-21, 20:55:02
*mitspekulier*

Vielleicht das kaputte Anti-Aliasing, das ja sogar in den PR-Screenshots von Matrox nur in einem Bruchteil der Kanten funktioniert hat?

???

Exxtreme
2002-06-21, 20:55:20
Ob die Karte Schwächen hat, die Matrox verbergen will, wird sich noch früh genug zeigen. Aber insgesamt wirft es IMHO kein gutes Licht auf Matrox, Sites zu ignorieren, die zu kritisch sind. Dafür bekommen Hofberichtserstatter ála THG und Anandtech ein Testsample umso früher. Früher oder später kriegen auch [H]ardOCP eine Parhelia-Karte in die Finger und dessen sollte sich Matrox eigentlich bewusst sein. Deswegen verstehe ich dieses HickHack eigentlich nicht.

Gruß
Alex

jedi
2002-06-21, 20:58:45
Originally posted by Exxtreme
Früher oder später kriegen auch [H]ardOCP eine Parhelia-Karte in die Finger und dessen sollte sich Matrox eigentlich bewusst sein. Deswegen verstehe ich dieses HickHack eigentlich nicht.


Schon, aber bis die Schwächen so richtig publik werden, haben sie wahrscheinlich schon ein paar Dumme gefunden, die die Hardware zu überhöhten Preisen in ihrem Online-Shop voreilig vorbestellt haben.

Quasar
2002-06-21, 20:59:10
Link zur Werbung?

Versuch mal hier: http://64.246.22.60/~admin61/forum/viewtopic.php?t=1305

Wahrscheinlich geht's Matrox darum, daß HardOCP mit Serious Sam und Quake III testet. Zumindest SS nutzt afaik Stencil-Schatten, die inkompatibel zum FAA sind. Das würde die Parhelia zu SSAA zwingen, welches immer noch deutlich besser als die Konkurrenz sein könnte, aber weit nicht so überlegen wirkte, wie das, worauf die Karte ausgelegt ist.

Axel
2002-06-21, 21:01:21
Auf der MURC-Seite steht folgendes:


"As I posted a link to Kyles rant about Matrox it's only fair I post a their rebuttal.

I'm sure PR has their reasons why some will get their boards before others. I assume site hits, amount exposure, and if they plan on testing our card on Q3 only or on games that will expose our feature set are on the top of the list."

Der "Chef" von MURC (Ant) ergänzt:

"Edit - More importantly, I would assume that there's a trust factor in all of this since they broke their nda by 5 hours by posting the chip level specs before everyone else's nda was lifted."

Gruß Axel

Exxtreme
2002-06-21, 21:03:23
Originally posted by jedi
Schon, aber bis die Schwächen so richtig publik werden, haben sie wahrscheinlich schon ein paar Dumme gefunden, die die Hardware zu überhöhten Preisen in ihrem Online-Shop voreilig vorbestellt haben.
Warte erstmal ein Paar Tests ab. Erst dann wird sich herausstellen, ob die Preise überhöht sind oder nicht. Wenn die GraKa Phantastisches liefert, dann ist sie IMHO nicht überteuert auch wenn sie 550€ kostet.

Gruß
ALex

jedi
2002-06-21, 21:07:05
Ich glaube, ein entscheidender Punkt ist:

Einen PR-technisch äußerst wichtigen Aspekt stellen die ersten Reviews im Netz dar. Die ersten Reviews einer neuen Karte werden immer von allen regelrecht verschlungen. In den ersten Tagen macht man sich ein Bild, das später nur schwer revidiert wird. Wenn dann sechs Wochen später der Review Nummer 37 die Schwächen aufdeckt, dann liest das sowieso kaum noch jemand, weil man schon lange mit Reviews übersättigt worden ist. Also lässt Matrox am Anfang nur die folgsamen Hofberichterstatter und Hype-Magazine ran.

aths
2002-06-21, 21:08:14
Originally posted by mapel110
ich bin lesefaul !!! :(

was ist der grund ??? Der Grund ist angeblich, dass [H] nur die üblichen Q3/3DMark/SeSam-Benches durchzieht, ohne z.B. wirklich auf die Bildqualität zu achten. Der wahre Grund ist, allen Hütern der bright side of force zum Trotz, dass Matrox' Previewkarten einfach begrenzt und sehr schwer zu bekommen sind.


Quasar, bezüglich FAA und Stencil-Buffering. Soweit ich weiss ist die Ausweich-AA-Methode 2x2 MSAA (und nicht SSAA), zudem ist aller Wahrscheinlichkeit bei FAA und Stencil Shadows "nur" mit nicht geglätteten Schatten zu rechnen. Es ist jedenfalls derzeit keinen Grund erkennbar, warum Bildfehler auftreten sollten.

jedi, das "kaputte" Anti-Aliasing wird qualitätsmäßig alles was es bislang gab weit in den Schatten stellen. Diese 3DMark-Shots sind entweder auf einem extremen Frühchip oder per unzulänglicher Software-Emulation entstanden.

Schnitzl
2002-06-21, 21:10:00
Die einzigen die hier HickHack machen sind [H]
Wenn die sich nicht an die NDA halten, dann haben sie eben Pech gehabt, so einfach ist das.
Nun den schwarzen Peter Matrox zuzuschieben ist echt Kindergarten :(

aths
2002-06-21, 21:10:23
Originally posted by jedi
Also lässt Matrox am Anfang nur die folgsamen Hofberichterstatter und Hype-Magazine ran. Dieser Unsinn ist schon mit dem 3DCenter Parhelia Preview widerlegt, wo ich mir genehmtigte, das Matrox-Marketing zu durchleuchten, Falschdarstellungen anzusprechen und Schwächen des Chips darzustellen.

jedi
2002-06-21, 21:11:24
Originally posted by Quasar
Wahrscheinlich geht's Matrox darum, daß HardOCP mit Serious Sam und Quake III testet

Ah, OpenGL (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21614). Das könnte auch ein Grund sein. ;)

jedi
2002-06-21, 21:14:41
Originally posted by aths
Dieser Unsinn ist schon mit dem 3DCenter Parhelia Preview widerlegt, wo ich mir genehmtigte, das Matrox-Marketing zu durchleuchten, Falschdarstellungen anzusprechen und Schwächen des Chips darzustellen.

PR-Werbeunterlagen verschicken ist eine Sache. Karten wirklich testen zu lassen eine andere.

Oder habt Ihr etwa Eure Karte schon bekommen, so wie Anand? ;)

Exxtreme
2002-06-21, 21:17:05
Originally posted by jedi
Oder habt Ihr etwa Eure Karte schon bekommen, so wie Anand? ;)
Tja, wie du schon sagtest, die Hofberichtserstatter bekommen die Karte garantiert. Anand ist IMHO einer.

Gruß
Alex

Schnitzl
2002-06-21, 21:20:18
Originally posted by jedi

Ah, OpenGL (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21614). Das könnte auch ein Grund sein. ;)
LOL

Du scheinst erst aufzugeben, wenn du den Matrox-Chef persönlich davon überzeugt hast, das Matrox Gülle ist :biggrin:

Zufälligerweise hat Matrox in den letzten 2 Jahren mit einem eingekauften Entwicklerteam seine OpenGL-Treiber komplett neu geschrieben :p

Den wirklichen Grund haben Alex+ich weiter oben schon geschrieben, also bleib mal locker mit deinen wilden Spekulationen

Exxtreme
2002-06-21, 21:20:26
Originally posted by aths
jedi, das "kaputte" Anti-Aliasing wird qualitätsmäßig alles was es bislang gab weit in den Schatten stellen. Diese 3DMark-Shots sind entweder auf einem extremen Frühchip oder per unzulänglicher Software-Emulation entstanden.
Sehe ich auch so. Diese Shots wurden garantiert nicht mit Final-HW gemacht. Auch das Prinzip und die Ergebnisse vom FAA waren IMHO sehr interessant. Die Qualität des Edge-AA schlägt alles Dagewesene.

Gruß
Alex

Salvee
2002-06-21, 21:22:02
Matrox kann Reviewkarten schicken, an wen sie wollen. Wenn diese Karten dann auch noch knapp sein sollten, kann es schon sein, dass Hardwareseiten, die von Matrox als 'biased' angesehen oder aus sonstigen Gründen als 'unwürdig' erachtet werden als letzte oder gar nicht beliefert werden. Im Endeffekt können sie sowieso keiner Seite den Test verwehren, es geht nur um den Zeitpunkt des Tests.

Haarmann
2002-06-21, 21:35:00
Wenn ne Seite nur so lahme 0815 Benches macht und sonst nix, was hat die Matrox Karte, die mit toller SQ und Feaures en Masse bestückt ist, denn dort verloren? Das ist nunmal keine ich will mehr FPS Karte als alle anderen...

Quasar
2002-06-21, 21:39:05
Originally posted by aths
Quasar, bezüglich FAA und Stencil-Buffering. Soweit ich weiss ist die Ausweich-AA-Methode 2x2 MSAA (und nicht SSAA), zudem ist aller Wahrscheinlichkeit bei FAA und Stencil Shadows "nur" mit nicht geglätteten Schatten zu rechnen. Es ist jedenfalls derzeit keinen Grund erkennbar, warum Bildfehler auftreten sollten.


Dann lassen wir uns doch einfach mal überraschen, was?

Kriegt 3D-Center auch ein Review-Sample oder habt ihr schon eins?

Quasar
2002-06-21, 21:41:29
@FSAA-Fetischisten:

Die Wildcat-III mit 16x SuperScene-AA kennt ihr aber, oder?

aths
2002-06-21, 22:12:56
Originally posted by Schnitzl
mit deinen wilden Spekulationen Ich sag da nur: http://www.aths.net/files/pinguin.mpeg :D (Ist leider nicht von mir, liegt nur auf meiner HP.) (edit: Der Spruch gilt ja allgemein und bezieht sich nicht auf bestimmte Personen.)

StefanV
2002-06-21, 22:22:36
1. wir wissen nicht die genauen Gründe, warum MGA keine Karte an [H]ardOCP liefert.

2. wir wissen nicht, ob das Statement von Kyle der Wahrheit entspricht.

3. WIR können dazu nix sagen, da WIR keine genaueren Hintergrund Infos haben.

4. MGA ist IMMER sehr wählerisch mit Test Karten.
Oder anders gesagt:
Es gibt bei MGA meist nur sehr wenige Preview Boards.

5. wegen einer Testkarte so einen Aufstand zu machen ist 'etwas' übertrieben, meint ihr nicht??
Schließlich hat Matrox ja nur ein Testample verwehrt, nicht aber den Leuten verboten einen Test zu machen, oder??

nggalai
2002-06-21, 23:10:54
Hi there,

wie schon erwähnt, die Diskussion ist eigentlich schon ein paar Tage alt. Aber schauen wir uns Kyles Matrox-Kommentar doch mal an:

Matrox said they would not be sending us a review unit on the same schedule as other sites and then revealed some interesting reasons. Matrox stated that due to the nature of our testing that they were not “comfortable” with sending us a Parhelia card. They seemed to think that we would be a bit too rough on the Parhelia and possibly show some issues that the “enthusiast” might identify as weaknesses. Logic would dictate that this of course means that Matrox thinks that the hardware review sites getting the first round of Parhelias would not expose those weaknesses.

Das Fette sind die Sachen, die man eindeutig als Matrox' Aussage erkennen kann. Das Schräge ist Kyles journalistische Interpretation des Restes des uns unbekannten E-Mails. Man beachte bitte, wie das Schräge schön als Werbung für [H] formuliert wurde. Paraphrasiert etwa so: "wir haben die Karten nicht gekriegt, weil wir anders als andere Webseiten Hardware anständig rannehmen und wir daher schonungslos Schwächen aufdecken könnten. Wir kümmern uns halt besser um 3D-Enthusiasten als andere Leute. Wir rulen, und das passt Matrox nicht in den Kram, daher schicken sie die Testkarten lieber an befreundete Tester, welche nicht so objektiv wie wir berichten werden."

Man beachte ferner, dass Kyle das Schreiben nicht veröffentlicht hat, sondern nur einen kurzen Blurb dazu postete. Wenn man sich dann noch 2, 3 [H]-Reviews anschaut, besonders wie VGA getestet werden, und sich überlegt, wer denn genau [H] die Vollzeitangestellten bezahlt, sollte wohl klar sein, dass Matrox nicht ausgerechnet dieser Webseite eines der wenigen Review-Boards der ersten Staffel zukommen lässt.

ta,
-Sascha.rb

Nachtrag:

Matrox stated that due to the nature of our testing that they were not “comfortable” with sending us a Parhelia card.

Auffällig, nicht, wie Kyle nicht auf [H]s Test-Ansatz eingeht? Jaja, ich bin momentan ein wenig misstrauisch, wenn ich wo was PR-mässiges zu lesen kriege. Sorry wenn ich etwas gar paranoid rüberkomme.rb

nggalai
2002-06-21, 23:26:11
Zu diesem Thread:

bin ich der einzige der sich nicht wundert, dass einige Regs aus einem solch kurzen Blurb gleich rauslesen können, dass die Parhelia buggy ist oder gar fehlerhafte Features mitbringt? Manche Leute scheinen noch lieber Sachen in kurze Texte reinzuinterpretieren als ich es mit meinem Posting oben machte. ;)

Wie Stefan bereits sagte, wir kennen die genauen Gründe hinter Matrox' Entscheidung nicht. Aber Jedis Zusammenfassung auf Seite 1 ist rein argumentationstechnisch nicht haltbar (auch wenn sie möglicherweise zutrifft), da Matrox-Aussagen mit Kyles Geblubber kombiniert als "Matrox hat Angst, dass . . . " wiedergegeben werden--ohne kritisch zu hinterfragen, was denn da wirklich geschrieben steht. Finde ich schade.

ta,
-Sascha.rb

Exxtreme
2002-06-21, 23:39:06
Originally posted by nggalai
Wenn man sich dann noch 2, 3 [H]-Reviews anschaut, besonders wie VGA getestet werden, und sich überlegt, wer denn genau [H] die Vollzeitangestellten bezahlt, sollte wohl klar sein, dass Matrox nicht ausgerechnet dieser Webseite eines der wenigen Review-Boards der ersten Staffel zukommen lässt.

Err, bei Anand und Tom sind die Tests IMHO nicht besser. Und anscheinend hat Anand trotzdem schon eine Karte zum Testen bekommen. Sicherlich sind die Reviews von [H] nicht perfekt aber bei denen habe ich das Gefühl, daß die Jungs wissen, wovon sie reden - ganz im Gegensatz zu Anandtech und THG (RivaStation). Diese beiden sind IMHO "biased" ohne Ende und haben leider nicht das nötige Fachwissen um das Potenzial von 3D-HW zu beurteilen. Aber wie jedi schon schrieb: dankbare Hofberichtserstatter wie Anand und Tom sind Matrox wahrscheinlich lieber.

Gruß
Alex

wulfman
2002-06-22, 00:11:08
[H] waren aber schon diejenigen, die das NDA bei der chip-präsentation um ein paar stunden verletzten, oder?

mfg
wulfman

StefanV
2002-06-22, 00:29:28
Originally posted by wulfman
[H] waren aber schon diejenigen, die das NDA bei der chip-präsentation um ein paar stunden verletzten, oder?

mfg
wulfman

...worauf MGA natürlich generell recht 'gereizt' reagiert...

Unregistered
2002-06-22, 01:12:29
Originally posted by jedi
*mitspekulier*

Vielleicht das kaputte Anti-Aliasing, das ja sogar in den PR-Screenshots von Matrox nur in einem Bruchteil der Kanten funktioniert hat?

???

Das waren Vorserien Treiber. Wie ich schon in nem anderen thread erwähnte gibts auf forums.matroxusers.com mittlerweile massig Screens von Games wo es läuft (und echt geil aussieht). Zu Stencils --> damit läuft Faa aber die werden nicht gegläettet. Deshalb kann man da auf MSAA zurückgreifen (wenn einen die schatten nun wirklihc stören sollten....)

PS: Was ist bei dir´n Burchteil? Kenne die Screens der Präsentation, nette auslegeung des wortes Bruchteil, kannst mir ja mal nen "Bruchteil" deines Geldes geben. Is ja nicht viel nach deiner auslegung ;)

nggalai
2002-06-22, 09:16:41
In closing, I did let Matrox know that we would be publicly commenting on this situation and it garnered a “clean-up” phone call from them as I was putting the final edit on this article. Matrox committed to shipping a Parhelia card to us tomorrow that we could post a preview on next Tuesday. They also explained that their reasoning for not sending us a first-round review sample was based on incomplete information and apparently the wrong message was conveyed to us on the testing issue.

At this point I think we will just wait and test the same card, in the same retail box, that will be available for public purchase. It is odd that the Parhelia got stable enough for [H]ardOCP abuse in the time span of a couple of hours.lol

Kyle kann echt schreiben. Anstatt uns endlich zu sagen, was denn genau Matrox' wirkliche Gründe waren, ursprünglich keine Karten an [H] verschicken zu wollen, droht er jetzt, die Reviewkarte nicht zu testen sondern auf ausgelieferte Karten zu warten--und schliesst wieder mit einem lustigen [H]-Werbeslogan, wo auf einmal impliziert wird, dass mangelnde Stabilität der Parhelia der Grund gewesen sei, obwohl nur ein paar Linien weiter oben zu lesen ist, dass Matrox die Testmethodik von [H] nicht mag . . .

*kopfschüttel*

Und ich dachte, Rivastation sei schlimm. Borsti kann hier noch vieeel lernen.

ta,
-Sascha.rb

P.S. der ist auch gut:Matrox is selling a high-end card to high-end users that want high-end performance, and that heavily equates to many [H] readers that are in their target market. They don't have samples right now worthy of our testing procedures, and I thought our readers should know.

Do we like not being first? Oh hell no, but those are the breaks. It is not the first time, nor the last, that we will be excluded from a hardware launch due to the way we do things around here. I also wanted you guys to know that we were not ignoring Parhelia and what we are doing to hopefully deliver solid content that our readers can count on. We will not be first with Parhelia, but I can damn sure tell you that we will be right about it when we publish our review.Woohoo! All hail Kyle, modern-day Robin Hood! :lol: .rb

nggalai
2002-06-22, 09:26:17
Hi Exxtreme, Jedi,

weshalb sollen Anandtech und THG denn "Hofberichterstatter" sein? Ich dachte, die Leute hätten sich darauf geeinigt, dass die von Intel und nVIDIA geschmiert werden? ???

;)

ta,
-Sascha.rb

edit: P.S. gelöscht.rb

Exxtreme
2002-06-22, 10:07:26
Originally posted by nggalai
Hi Exxtreme, Jedi,
Ich dachte, die Leute hätten sich darauf geeinigt, dass die von Intel und nVIDIA geschmiert werden? ???

;)

Das auch. Deswegen verstehe ich nicht, warum Anand schon eine Testkarte hat. Vielleicht hat auch Matrox ihn geschmiert.
;)

Gruß
ALex

nocturne
2002-06-22, 11:28:08
Beispiel Tom's Hardware: Als Tom noch 3dfx-Karten gelobt hat, war er für alle 3dfx-Fans der "Hardware-Guru" und die "Referenz unter den Hardwaresites". Als Tom dann aber irgendwann anfing zu schreiben, dass nVidia 3dfx überholt hatte (was ja auch stimmte), wurde er zum Hassobjekt aller 3dfx-Fans.

Sogar die c't wurde mal von vielen 3dfx-Fans angefeindet, als sie die Schwächen der letzten Voodookarten beim Namen nannte.

Eine ähnliche Entwicklung hat Anand ebenfalls durchgemacht: er passte manchen Leuten plötzlich einfach nicht mehr in den Kram.

Bin mal gespannt, ob nun das gleiche mit [H]ardocp und manchen Matrox-Fans passiert. Es fängt ja bereits an...

Exxtreme
2002-06-22, 12:42:11
@ nocturne
Darum geht's IMHO nicht. Lies dir mal diesen Artikel (http://www.de.tomshardware.com/cpu/02q2/020610/index.html) bei THG über AMDs T-Bred ganz durch. Das ist so ein typischer THG-Artikel. Es fehlt noch ein "Sponsored by Intel"-Logo ganz am Schluss. Das Problem ist, daß THG und Anandtech schlicht und einfach null Ahnung haben. Lies dir mal was die zum Thema Antialiasing für Müll verzapfen. Laut THG macht MultiSampling Texturen unscharf usw. Lustig waren auch die ersten Reviews der R8500 bei Anandtech. Zuerst dachte Anand, daß die R8500 reines MultiSampling macht. Ihm sind aber die schärferen Texturen ggü. der GF3, bedingt durch SuperSampling welches die R8500 tatsächlich macht, aufgefallen. Deswegen hat er gedacht, daß die R8500 beim AA zusätzlich AF zuschaltet. Erst viel später hat er gemerkt was tatsächlich läuft und er versuchte einen Strick daraus zu drehen, daß das MSAA der R8500 fehlerhaft sei und ATi deswegen auf das SSAA ausgewichen sei.

Gruß
Alex

Haarmann
2002-06-22, 12:49:06
Abwarten und dann durchlesen...

Anand benutzte z.B. für die GW 4200 Ti 6 Games, keine Zwiebeln... UND vor allem nur 1280*1024. Leichte Kost eigentlich, aber immerhin ein Anfang (bescheiden zwar)... Testsystem ist eine Hi-End Kiste (wie immer und auch wie bei THG US).

Guckt man sich den Review mit der gleichen Karte auf HardOCP an, so sieht man 2 mal Irre Zwiebeln, mit Uralt Q3 usw. Mit CPU limitierten Scores natürlich - solche Reviews sind für die Bandbreiten starke Matrox wohl völlig nutzlos, weil da ihre Stärken nicht zum tragen kommen - ergo kein Interesse. Focus lag meiner Meinung nach bei OCP aufm OC und das mag Matrox ganz sicher nicht.
Testsystem ist ein Waldwiesen PC, der nicht zum Preis der Graka passt.

Für so nen Review stelle ich mir eher Tests mit Surroundgaming Frameraten und vor allem Details in AA (Ala aths) vor. Zuzüglich den normalen Tests... mal sehen ob sowas bei Anand kommt. Ich zweifle da zwar etwas *eg*

Quasar
2002-06-22, 13:04:16
Mir ist ehrlich gesagt ein "Waldwiesen-PC" oder auch Feld-Wald-&-Wiesen-PC lieber, als ein überzüchtetes High-End Monster.

Sogar ein XP1800+ ist schon nicht mehr repräsentativ für einen durchschnittlichen Gamer, imho.

Klar, mit einem 2,533GHz P4 und 1Gig RIMM4200, möglichst noch OC'ed, lassen sich höhere Werte rauskitzeln, aber kein praxisnahes Review machen. Besonders, wenn dann noch der Sound deaktiviert wird, wie es gern mal bei THG getan wurde und wird.

edit:
Ach ja, als damals nV forderte, nur noch mit 1280 aufwärts und AA zu benchen, weil die GF4 ja dafür gemacht wurde, war der Aufschrei mal wieder groß....Beeinflussung der Tester usw.

Nun wird genau dasselbe für die Matrox von den Leuten gefordert....schizophren, oder?

Schnitzl
2002-06-22, 13:11:18
Originally posted by aths
Ich sag da nur: http://www.aths.net/files/pinguin.mpeg :D (Ist leider nicht von mir, liegt nur auf meiner HP.) (edit: Der Spruch gilt ja allgemein und bezieht sich nicht auf bestimmte Personen.)
:biggrin: :biggrin: :biggrin:
Echt trockener Spruch...

@ Nocturne : Trainierst du für die Bild-Zeitung ?

nocturne
2002-06-22, 13:11:21
Sogar ein XP1800+ ist schon nicht mehr repräsentativ für einen durchschnittlichen Gamer, imho.

Der Durchschnittsgamer hat im Schnitt nur eine 800-MHz-CPU. Viel mehr hat ja übrigens die XBox ja auch nicht. ;)

Wir Forumsmitglieder dürfen nicht den Fehler machen, von uns auf die Allgemeinheit zu schliessen. Hier im Forum tummeln sich eben mehr aufrüstbereite Hardwarefreaks als in der Normalbevölkerung.

Dass diese hochgezüchteten Mega-CPUs in den Berichten nicht besonders praxisnah sind, da stimme ich Dir zu.

wulfman
2002-06-22, 13:21:22
Originally posted by nocturne


Der Durchschnittsgamer hat im Schnitt nur eine 800-MHz-CPU.

<schnippl>

Dass diese hochgezüchteten Mega-CPUs in den Berichten nicht besonders praxisnah sind, da stimme ich Dir zu.

der durchschnittsgamer wird sich aber so oder so keine parhelia kaufen, oder?

mfg
wulfman

ernesto.che
2002-06-22, 13:21:34
Originally posted by nocturne


Der Durchschnittsgamer hat im Schnitt nur eine 800-MHz-CPU. Viel mehr hat ja übrigens die XBox ja auch nicht. ;)

Wir Forumsmitglieder dürfen nicht den Fehler machen, von uns auf die Allgemeinheit zu schliessen. Hier im Forum tummeln sich eben mehr aufrüstbereite Hardwarefreaks als in der Normalbevölkerung.

Dass diese hochgezüchteten Mega-CPUs in den Berichten nicht besonders praxisnah sind, da stimme ich Dir zu.


Sicherlich nicht so praxisnah, es macht aber keinen Sinn, eine GF$, Radeon 8500, Parhelia und die anstehenden Neuerscheinungen auf nem PIII 850 zu testen: Da sind keine großen Unterschiede bei fps zu erkennen, da kann in einigen Sachen wohl dann auch eine KyroII mithalten.
Das wäre in meinen Augen auch Kundenverarsche.

nocturne
2002-06-22, 13:24:14
Originally posted by wulfman
der durchschnittsgamer wird sich aber so oder so keine parhelia kaufen, oder?


Nö. Aber nicht nur wegen des zu hohen preises, sondern auch, weil Gamer einfach nicht die Zielgruppe von Matrox sind.

ernesto.che
2002-06-22, 13:27:40
Originally posted by nocturne


Nö. Aber nicht nur wegen des zu hohen preises, sondern auch, weil Gamer einfach nicht die Zielgruppe von Matrox sind.

Sie gehören zumindest nicht offiziel ins Zentrum.

Xmas
2002-06-22, 13:43:05
Originally posted by nocturne
Nö. Aber nicht nur wegen des zu hohen preises, sondern auch, weil Gamer einfach nicht die Zielgruppe von Matrox sind.
Mit dem Parhelia sind eindeutig auch Spieler angesprochen, das ergibt sich schon aus der Featureliste.

Unregistered
2002-06-22, 13:50:29
Originally posted by ernesto.che

Sicherlich nicht so praxisnah, es macht aber keinen Sinn, eine GF$, Radeon 8500, Parhelia und die anstehenden Neuerscheinungen auf nem PIII 850 zu testen: Da sind keine großen Unterschiede bei fps zu erkennen, da kann in einigen Sachen wohl dann auch eine KyroII mithalten.
Das wäre in meinen Augen auch Kundenverarsche.

Das sehe ich aber ganz anders. Der heutige Durchschnittsgamer hat, wie Nocturne schon richtig bemerkt hat, eben eine 800 Mhz CPU und wahrscheinlich sucht er für genau DIESE auch eine neue Graka. Dann sollte er aber sehrwohl wissen, das es auf seinem Rechner kaum Unterschiede zwischen den heute zeitgemäßen Graka´s geben wird. DAS wäre nämlich sonst Kundenverarsche. Wenn er die Benches sieht, wird ihm auch schnell klar, dass es eben keine teure Ti4400/4600 oder Parhelia sein muss, sondern ne Ti200 oder Radeon 8500LE das höchste der Gefühle für sein System darstellt. Dadurch lässt sich ne Menge sparen.
Die KyroII wird auf so einem System denke ich überhaupt NICHT in Frage kommen, da die CPU ein wenig schwächlich auf den Gattern ist :)
Habe derzeit selber einen P!!!750 und habe mal allerhand Graka´s auf meinem System testen können. Meine GeForce 2 Pro hat die KyroII hier locker eingesackt.
Wo wir beim Thema benchen auf extrem schnellen CPU´s sind:
Ich halte die Kyro II allgemein für die GRÖSSTE Mogelpackung neben der GeForce 2 MX 200, die es je gegeben hat. Das die Kyro II auf 1,5+ Systemen noch richtig was hermacht, ist klar, aber das weiss der normale Käufer nicht, der seine OEM Ati-RageIIC 8MB endlich gerne aus seinem MediaMarkt PC entfernen will, nach dem er sich ein wenig im Internet schlau gemacht hat. Ihm erzählt auch keiner, dass ne Kyro II erst mit starkem Prozzi aufdreht und auf seinem älteren 800 Mhz System
gnadenlos verreckt. Das wird leider durch benches auf P4 2,4 Ghz verhindert!

nocturne
2002-06-22, 14:15:43
Originally posted by Unregistered
Die KyroII wird auf so einem System denke ich überhaupt NICHT in Frage kommen, da die CPU ein wenig schwächlich auf den Gattern ist :)
Habe derzeit selber einen P!!!750 und habe mal allerhand Graka´s auf meinem System testen können. Meine GeForce 2 Pro hat die KyroII hier locker eingesackt.
Wo wir beim Thema benchen auf extrem schnellen CPU´s sind:
Ich halte die Kyro II allgemein für die GRÖSSTE Mogelpackung neben der GeForce 2 MX 200, die es je gegeben hat. Das die Kyro II auf 1,5+ Systemen noch richtig was hermacht, ist klar, aber das weiss der normale Käufer nicht, der seine OEM Ati-RageIIC 8MB endlich gerne aus seinem MediaMarkt PC entfernen will, nach dem er sich ein wenig im Internet schlau gemacht hat. Ihm erzählt auch keiner, dass ne Kyro II erst mit starkem Prozzi aufdreht und auf seinem älteren 800 Mhz System
gnadenlos verreckt. Das wird leider durch benches auf P4 2,4 Ghz verhindert!

Yep, das war ja das Dilemma beim Kyro2:
Für langsame CPUs war er zu CPU-abhängig.
Und für High-End-Systeme war er erst recht zu schwach.

Xmas
2002-06-22, 14:22:45
Originally posted by Unregistered
Das sehe ich aber ganz anders. Der heutige Durchschnittsgamer hat, wie Nocturne schon richtig bemerkt hat, eben eine 800 Mhz CPU und wahrscheinlich sucht er für genau DIESE auch eine neue Graka. Dann sollte er aber sehrwohl wissen, das es auf seinem Rechner kaum Unterschiede zwischen den heute zeitgemäßen Graka´s geben wird. DAS wäre nämlich sonst Kundenverarsche. Wenn er die Benches sieht, wird ihm auch schnell klar, dass es eben keine teure Ti4400/4600 oder Parhelia sein muss, sondern ne Ti200 oder Radeon 8500LE das höchste der Gefühle für sein System darstellt. Dadurch lässt sich ne Menge sparen.
Sicher, es sollte im Review erwähnt werden, dass solche Karten nur mit schneller CPU Sinn machen. Aber die Tests sollten selbstverständlich auf einem System gemacht werden das die Karte auch einigermaßen ausnutzt.

Ihm erzählt auch keiner, dass ne Kyro II erst mit starkem Prozzi aufdreht und auf seinem älteren 800 Mhz System
gnadenlos verreckt. Das wird leider durch benches auf P4 2,4 Ghz verhindert!
Ich weiß ja nicht welche Tests du liest, aber die starke CPU-Abhängigkeit der Kyro II wird oft erwähnt. Und ein KyroII-Test auf einem P4 2,4 (außer zu Vergleichszwecken mit neueren Karten) ist mir auch nicht bekannt.

Gohan
2002-06-22, 14:39:08
*grml*

Gohan
2002-06-22, 14:40:18
Jetzt kanns auch gefordert werden, weil die entsprechenden Gegner da sind ;) Welche Karte hätte eine Chance gegen die GeForce4 gehabt?

Jetzt ist ein Gegner da und man kann die Meßlatte ja mal wieder etwas höher hängen :) Btw. spätestens zum R300, P10 oder NV35 würde ich sagen das 1280 als Auflösung standard seien sollte... AA sollte dann auch schon dazu gehören :)

mapel110
2002-06-22, 14:40:54
besser wäre es, wenn es tests zur cpu-skalierung geben würde. das machen einfach zuwenige sites.

p.s. es gab mal einen test mit dem utp-test. dabei hat eine radeon 8500 überhaupt nicht mit dem cpu-takt skaliert, bot immer die gleiche leistung. und eine geforce4 4200 stieg gleichmässig mit dem cpu-takt
(800-1600mhz).

wie das bei matrox aussieht interessiert mich auch, aber fakt ist, dass niemand, der sich keine gescheite cpu leisten kann (mehr als 1400mhz) keine 500 euro für eine graka ausgeben wird.

Quasar
2002-06-22, 15:27:56
@mapel110:
Und was ist mit Leuten, die das Triple-Head Feature haben wollen? Angeblich hat Matrox ja nicht nur den Gamer im Focus.


@Gohan:
Klar, jetzt wo nV nicht mehr allein herrschend sein wird, kann man die Bedingungen auch verschärfen.....seltsame Logik.

Gohan
2002-06-22, 15:55:15
Sagen wir es so: Für Nv hätten dann einfach die Vergleichwerste gefehlt und die konkurenz sähe sehr blöd aus. Jetzt gibt es (eine)(karte) Karten die Vergleichswerte liefern können.

Quasar
2002-06-22, 16:07:27
:lol:

Genau das meinte ich...

Gohan
2002-06-22, 17:15:48
Wie was wo? Ich seh das so... ( guter reim :D )

Birdman
2002-06-22, 18:51:17
Originally posted by Quasar
Klar, mit einem 2,533GHz P4 und 1Gig RIMM4200, möglichst noch OC'ed, lassen sich höhere Werte rauskitzeln, aber kein praxisnahes Review machen. Besonders, wenn dann noch der Sound deaktiviert wird, wie es gern mal bei THG getan wurde und wird.

Es gibt benches, da ist es schon fast pflicht, den Sound abzuschalten, da es MIT noch deutlich praxisfremdere resultate gibt.
Ein solches beispiel ist Quake3, welches beim bench eine vordefinierte Anzahl von frames in möglichst schneller zeit durchrechnet.
Nehmen wir mal das demo "four"
Aufgezeichnet wurde es mit 20fps, bzw. 20keyframes pro sekunden, dauern tut es 63sekunden und gespeichert sind 1260frames.
Ein rechner der dieses timedemo nun in ~63sekunden zu stande bringt, hat in etwa die reale belastung eines durchschnittlichen games, mal abgesehen von der netztwerklast, etc.
ein rechner der das ganze aber in 6 sekunden rendert (das tun heute fast alle kisten relativ locker) der hat eine 10fache belastung durch den sound, da ja nun die Akustik von einem 60sekunden game, in 6 sekunden abgespult wird.
Wie verzerrend das ist, merkt man am besten selber, wenn man mal in 640x480x16bit ohne detils bencht.
da hat man so werte von ~250fps mit sound, und 100-500fps ohne sound, also bis zu 100% langsamer nur durch zuschalten des sound.
hier sieht man schon, dass das ganze ned wirklich realistisch sein kann, und spätestens wenn man eine lahme cpu hinzunimmt, wird das ganze klar. diese gewinnt weit weniger speed durchs abschalten des sounds, z.B. zu meiner celleron466 zeit waren es etwa 10-15%.

von daher Quake3+Sound == verzerrte benchmarkresultate noch und nöcher.

Torian.cc
2002-06-22, 19:10:59
Moment mal...!!

Praxisfremde Benchmarks durch ABgeschalteten Sound???

Es ist schon klar, daß sich bei EINgeschaltetem EAX (z.B.) bei manchen Grakas (ATI - nVidia) unterschiedlich Ergebnisse "erzeugen" lassen, daß eine nVidia-Graka vielleicht 5% weniger Perfomance-Einbußen hat, aber daß Ergebniss bei EINgeschaltetem Sound praxisfremd sein sollen, halte ich für nicht richtig!

Praxisfremd wäre es dann, wenn man den Sound deaktiviert.
Denn wer zockt schon ohne Sound, um die Framerate bei Spielen zu erhöhen?!? (Ich jedenfalls nicht)

Daß die tatsächlichen Ergebnisse, die eine Graka an Frames schaffen würde, durch die EAX-Berechnung (nach unten hin) verfälscht werden ist mir klar, aber das ist wohl eher praxisnah!

Für den Fall, daß ich Dein Posting falsch gedeutet oder verstanden habe... *grmblfjx*

MfG
Tori
__________

MATROX RULEZ

Power
2002-06-22, 19:14:01
So nun sag ich hier auch mal was :D

Es wird immer davon ausgegangen das der Durchschnittspieler (laut der umfrage von Valve) eine 800 MHz CPU im Rechner hat, das mag ja sein aber Grafikkarten vom Kaliber einer G3Ti500 G4xxxx und Ati 8500 und die kommenden wie P512 P10 R300 ..... sind wohl eher was für PCs über 1 GHz wenn nicht schon eher für P4 ab 1,6GHz und bei AMD XP1500 aufwärts.

Eine Geforce4Ti4600 oder ne Matrox P512 oder die R300 von ATI kauft sich mit sicherheit keiner der nicht auch noch den entsprechend schnellen PC dazu hat.

Und wenn man nur so Set Angebote diverser Ketten (Media,Comos,Aldi(Hofer)) ansieht gibts dort seit fast einem Jahr kein Rechner mehr der weniger als 1GHz hat zu kaufen !

Wenn man die verschlossenheit von Matrox kennt würden die niemals so einen Tamtam um die Grafikkarte machen wenn sie wirklich nicht absolut gut wäre.

LovesuckZ
2002-06-22, 19:23:14
Originally posted by Power
das mag ja sein aber Grafikkarten vom Kaliber einer G3Ti500 G4xxxx und Ati 8500 und die kommenden wie P512 P10 R300 ..... sind wohl eher was für PCs über 1 GHz wenn nicht schon eher für P4 ab 1,6GHz und bei AMD XP1500 aufwärts.


Die Karten kann man locker auch in einen 800,1000 MHZ rechner einsetzten. Da man mit diesen karten AA! und AF einsetzen kann ohne auch nur den Hauch der Leistung zu verlieren.

Birdman
2002-06-22, 19:26:09
Originally posted by Torian.cc
Für den Fall, daß ich Dein Posting falsch gedeutet oder verstanden habe... *grmblfjx*

Du hast meinen Post falsch verstanden ;)
Natürlich ist es auch praxixfremd OHNE sound zu benchen, aber bei quake3 (und engine-games) ist es praxisfremder MIT sound, als OHNE sound.
Liegt in der art und weise wie diese benchmarks funktionieren....
Am besten fragst du mal Haarmann, der kann dir das sicher auch ganz gut erklären, denn mit ihm hab ich mich schon mal darüber unterhalten.

nggalai
2002-06-22, 19:28:30
Hi there,Originally posted by LovesuckZ


Die Karten kann man locker auch in einen 800,1000 MHZ rechner einsetzten. Da man mit diesen karten AA! und AF einsetzen kann ohne auch nur den Hauch der Leistung zu verlieren. Natürlich kann man das machen--die Frage ist vielmehr, wer, der €500 für eine Grafikkarte ausgibt, hat noch eine so "kleine" CPU im Rechner?

;)

ta,
-Sascha.rb

mapel110
2002-06-22, 21:46:50
Originally posted by Quasar
@mapel110:
Und was ist mit Leuten, die das Triple-Head Feature haben wollen? Angeblich hat Matrox ja nicht nur den Gamer im Focus.



glaube kaum, dass das als kaufgrund ausreicht.

Quasar
2002-06-22, 22:09:27
Für mich jedenfalls deutlich eher, als DualHead....

Grund: Meine Symmetrie-Sucht. Für Dualhead hätte ich zwei gleichwertige Monitore gebraucht (ich habs mit zwei unterschiedlichen versucht...*würg*), bei Triple-Head würde mir mein primärer plus zwei 15-Zöller wohl langen, links und rechts als Hilfs-Screens....


Klingt wahrscheinlich völlig meschugge, aber ist meine persönliche EInstellung/Auffasssung/Vorliebe.

nggalai
2002-06-22, 22:10:29
Originally posted by mapel110


glaube kaum, dass das als kaufgrund ausreicht. Ich schon--zumindest bei uns in der Firma ging bei den Flash- und Photoshop-Menschen das Gejubel los, als sie von Triplehead hörten--dann das Gestöhne, als der Preis genannt wurde. ;)

Könnte also durchaus ein Kaufgrund sein, IMO.

ta,
-Sascha.rb

nggalai
2002-06-22, 22:16:50
Hi Quasar,Originally posted by Quasar
Für mich jedenfalls deutlich eher, als DualHead....

Grund: Meine Symmetrie-Sucht. Für Dualhead hätte ich zwei gleichwertige Monitore gebraucht (ich habs mit zwei unterschiedlichen versucht...*würg*), bei Triple-Head würde mir mein primärer plus zwei 15-Zöller wohl langen, links und rechts als Hilfs-Screens....


Klingt wahrscheinlich völlig meschugge, aber ist meine persönliche EInstellung/Auffasssung/Vorliebe. Nö, kann ich nachvollziehen. Mir sind bei Dualhead zwei 19er auch lieber als ein 21er und ein 17er--Triplehead könnte ich aber mit einem 19er und zwei 17ern links und rechts davon gut leben, mal abgesehen vom Platzmangel und den Kosten. ;)

ta,
-Sascha.rb

Thowe
2002-06-22, 23:13:47
Tripplehead ...

Ich denke da an meinen L461 16" TFT daneben der Acer F51, 15" TFT und ein drittes das ich noch günstig schiessen werde. :)

Ich denke das gerade auch die Fans von Flugsimulatoren, die Unmengen von Geld für ihre Hobby ausgeben, die Parhelia sehr schnell lieben lernen werden.

Dann die üblichen Matrox-Kunden, Grafiker und Designer für die sind 500,- Euro absolut kein Geld. Die Karte ist ein Werkzeug, wenn ich damit die Effektivität eines Mitarbeiters der mich 4000,- Euro im Monat kostet um 10% steige ... dann rechnet mal schön wie lange es dauert bis die Karte sich rentiert hat. :)



Was die Tests von Grafikkarten mit Overkill-Prozessoren angeht, halte ich genau so viel von wie von zu klein gewälte Prozessoren. Ich denke das ein guter Test von 500 Mhz bis 2000 Mhz alles abdeckt, ansonsten kann man sich nie ein 100% Bild einer Grafikkarte und deren echten Leistung machen. Das gilt natürlich für die Parhelia genau so wie für die GF4TI oder aber auch die kommenden ATi Chips.

Exxtreme
2002-06-22, 23:40:33
Ohh man. Ich wanke gerade zwischen den Parhelia, obwohl er nur Edge-AA macht und der R300. Puhh, die Entscheidung wird mir wirklich schwer fallen. Die reine Kantenglättungs-Qualität des Parhelia ist wirklich unerreicht. Auch die normalerweise extrem gute SQ von Matrox ist ein echtes Argument. So wie es aussieht wird der Parhelia leider relativ wenig Rohpower haben da der Chiptakt ziemlich niedrig ist. Und da verspreche ich mir bei der R300 mehr. Genug Rohpower um schnelles SSAA und AF zu ermöglichen. Auch der voraussichtlich niedrige Preis spricht für die ATi.

Eine wirklich schwere Entscheidung.
;)

Gruß
Alex

Leonidas
2002-06-23, 09:37:17
Originally posted by Birdman

Es gibt benches, da ist es schon fast pflicht, den Sound abzuschalten, da es MIT noch deutlich praxisfremdere resultate gibt.
Ein solches beispiel ist Quake3, welches beim bench eine vordefinierte Anzahl von frames in möglichst schneller zeit durchrechnet.
Nehmen wir mal das demo "four"
Aufgezeichnet wurde es mit 20fps, bzw. 20keyframes pro sekunden, dauern tut es 63sekunden und gespeichert sind 1260frames.
Ein rechner der dieses timedemo nun in ~63sekunden zu stande bringt, hat in etwa die reale belastung eines durchschnittlichen games, mal abgesehen von der netztwerklast, etc.
ein rechner der das ganze aber in 6 sekunden rendert (das tun heute fast alle kisten relativ locker) der hat eine 10fache belastung durch den sound, da ja nun die Akustik von einem 60sekunden game, in 6 sekunden abgespult wird.
Wie verzerrend das ist, merkt man am besten selber, wenn man mal in 640x480x16bit ohne detils bencht.
da hat man so werte von ~250fps mit sound, und 100-500fps ohne sound, also bis zu 100% langsamer nur durch zuschalten des sound.
hier sieht man schon, dass das ganze ned wirklich realistisch sein kann, und spätestens wenn man eine lahme cpu hinzunimmt, wird das ganze klar. diese gewinnt weit weniger speed durchs abschalten des sounds, z.B. zu meiner celleron466 zeit waren es etwa 10-15%.

von daher Quake3+Sound == verzerrte benchmarkresultate noch und nöcher.



Exakt. Dieser Effekt kommt aber durch superhohe Frameraten. D.h. unterhalb von 100 fps ist dieser Effekt uninteressant. 5x schneller schafft jede der heutigen Soundkarten.

Leonidas
2002-06-23, 09:43:03
Originally posted by Quasar


Dann lassen wir uns doch einfach mal überraschen, was?

Kriegt 3D-Center auch ein Review-Sample oder habt ihr schon eins?



Matrox hat wohl nur eine Handvoll an Testkarten und die schickt man an diejenigen, wo man denkt, daß da was rauskommt. Machen nVidia und ATi nicht anders. Es gibt ein paar gesetzte Leute: THG und AnandTech sowie Print-Magazine.



PS: Wir für unseren Teil haben von Matrox keinerlei Auflagen bekommen bezüglich was wir testen und wie wir testen.

Unregistered
2002-06-23, 09:45:21
Bei der Rohpower des R300 wäre ich mir nicht so sicher, da er ja anscheinend doch nur in 0,15µm gefertigt werden soll.
Aus diesem Grund würde ich auch forsichtig mit irgendwelchen Preisavorstellungen des R300 sein, denn bei rund 100Mio Transistoren , was ja immerhin 20Mio mehr als beim Parhelia sind, wird der Chip sicher nicht sehr billig werden.

Birdman
2002-06-23, 11:40:28
Originally posted by Leonidas
Exakt. Dieser Effekt kommt aber durch superhohe Frameraten. D.h. unterhalb von 100 fps ist dieser Effekt uninteressant. 5x schneller schafft jede der heutigen Soundkarten.
Auf die SOundkarte kommts bei Q3 aber ned wirklich an...das ganze wird vor allem von der Soundengine in Quake3 selber ausgebremst.
Ich habe z.B. mit der Live! und der Audigy die genau gleichen Werte gemessen, und letztere soll ja eine deutlich geringere soundbelastung haben.
Mit onboard ac97 sound ist es fast gleich. die frames sind da nur leicht tiefer (1-3%) beim demo...was auch nicht de realität entspricht, und was man auch bei andern Benches die über eine definierte zeit laufen, sehr gut feststellen kann.

Quasar
2002-06-23, 11:47:03
Diese Soundgeschichte ist völlig irrelevant bei Quake3.

Ob ich in einem Standard-Timedemo 150 oder 200fps (das war bei mir etwa der Unterschied mit Onboard-Sound) in 1024 habe, ist für die Spielbarkeit vollkommen wurscht.

Bereits in 1280 hat sich der Unterschied zwischen HQ-Sound und NoSound auf 16 fps eingebremst, eine Stufe höher liegt er nur noch bei 2,2 fps Differenz auf einer Ti 4400.

Und das bei immer noch locker ausreichenden 126 Frames. Wenn man erst FSAA oder AF zuschaltet, macht der Sound keinen Unterschied mehr in Regionen unter 100fps, wo's eventuell schon auf die Spielbarkeit ankommen könnte.

Wer Q3 allein nach dem Wert in nackten 1024 beurteilt, dem ist eh nicht mehr zu helfen.

Leonidas
2002-06-23, 16:42:49
Originally posted by Leonidas

PS: Wir für unseren Teil haben von Matrox keinerlei Auflagen bekommen bezüglich was wir testen und wie wir testen.



Interessant, dass hierauf bisher kein Reply gab :-))))))).




PS: Ich hab Q3A für die aktuellen Benches gekickt. Meine aktuelle Liste wäre:

Giants, AquaNox, Max Payne, RtCW, Serious Sam 2, Ultima IX, Unreal Tournament, Z2, Dungeon Siege, Comache 4 (Demo)

wulfman
2002-06-23, 16:52:05
Originally posted by Leonidas

Interessant, dass hierauf bisher kein Reply gab :-))))))).

PS: Ich hab Q3A für die aktuellen Benches gekickt. Meine aktuelle Liste wäre:

Giants, AquaNox, Max Payne, RtCW, Serious Sam 2, Ultima IX, Unreal Tournament, Z2, Dungeon Siege, Comache 4 (Demo)

also ich habe mir schon meinen teil gedacht, aber da es vor dem 25ten sowieso keinen sinn hat...

mfg
wulfman

Major
2002-06-23, 17:04:59
Ich denke Ulitima XI könnte man rausschmeissen, das spielt nun wirklich kaumn noch jemand.
Was wäre denn an neueren Spielen noch gut zu benchmarken?

Quasar
2002-06-23, 17:07:52
Ich hab mir auch schon sowas gedacht....aber eigentlich eher, daß ihr euch das Teil leider kaufen müsst *gg*

Naja, zu den Benches: Comanche4? Eine DEMO?

StefanV
2002-06-23, 17:10:50
Originally posted by Major
Ich denke Ulitima XI könnte man rausschmeissen, das spielt nun wirklich kaumn noch jemand.
Was wäre denn an neueren Spielen noch gut zu benchmarken?

1. ob es jemand noch Spielt oder nicht, ist irrelevant, wichtig ist einzig und allein, ob es noch Sinn macht XXX zu benchen ;)

jedi
2002-06-23, 17:45:43
Originally posted by Leonidas

PS: Wir für unseren Teil haben von Matrox keinerlei Auflagen bekommen bezüglich was wir testen und wie wir testen.

Habt Ihr jetzt ein Exemplar oder habt Ihr keins? ;)

Wenn nicht, dann kann Euch Matrox natürlich auch keine Auflagen machen. ;)

jedi
2002-06-23, 17:52:43
Originally posted by Major
Ich denke Ulitima XI könnte man rausschmeissen, das spielt nun wirklich kaumn noch jemand.


Eben, erstens spielt das keiner mehr und zweitens war diese vermurkste Engine auch nicht repräsentativ für irgendein anderes Spiel.

Q3A würde ich aber noch drinlassen, trotz der ATI-Mogeleien. Erstens, weil noch viele Leute Q3A spielen und zweitens, weil man da viele Vergleichswerte hat.

Originally posted by Major
Was wäre denn an neueren Spielen noch gut zu benchmarken?

Auf jeden Fall die UT2003-Demo, sobald sie rauskommt. Daniel Vogel hat ja gesagt, dass sie auch einen Benchmarkmodus hat.

UPT2003 wäre im Hinblick auf die zukünftigen Unreal-Engine-Spiele natürlich auch extrem interessant. Aber das gibt Epic ja nur an ein paar ausgewählte renommierte Tester. ;)

nggalai
2002-06-23, 17:54:16
Hi Leo,

> Interessant, dass hierauf bisher kein Reply gab :-))))))).

och, wart' nur bis Dienstag. Dann kriegst Du schön im 5-Minuten-Abstand E-mails rein. ;)


PS: Ich hab Q3A für die aktuellen Benches gekickt. Meine aktuelle Liste wäre:

Giants, AquaNox, Max Payne, RtCW, Serious Sam 2, Ultima IX, Unreal Tournament, Z2, Dungeon Siege, Comache 4 (Demo) Hmm. AquaNox oder Aquamark? Und statt Ultima 9 würde ich eher wie von Zeckensack im anderen Thread vorgeschlagen Morrowind nehmen. Ein Lithtech-Engine-Spiel wäre auch noch schön, da lässt sich vielleicht eine NOLF-Cutscene zu vergewaltigen. Aber die Diskussion hatten wir ja schonmal. ;)

ta,
-Sascha.rb

Salvee
2002-06-23, 18:00:27
Originally posted by jedi


Q3A würde ich aber noch drinlassen, trotz der ATI-Mogeleien.




Glaubst du, dass das 3DCenter-Review mit 7 Monate alten ATi-Treibern durchgeführt wird ? ;)

Birdman
2002-06-23, 18:01:32
ich würd q3 auch drin lassen...
An diesem Game kann man schön schauen, wie schnell eine Karte sein könnte, wenn die Treiber auf ein Game optimiert sind.
Zudem gibt ein q3 bench auch aufschluss darüber ob das system an sich gut läuft, da man sehr viele vergleichwerte zu andern rechnern hat.

jedi
2002-06-23, 18:12:33
Originally posted by Salvee
Glaubst du, dass das 3DCenter-Review mit 7 Monate alten ATi-Treibern durchgeführt wird ? ;)

Glaubst Du, dass ATI plötzlich ne weisse Weste hat, nur weil gerade nichts offensichtlich auffällt? *eg*

StefanV
2002-06-23, 18:12:56
zu Quake3:

Es ist vollkommen richtig, daß das aus dem 3DC Benchparcours rausgenommen wurde, denn es spiegelt weder die aktuelle Leistung von GraKas wider, noch ist es ein guter GraKa Test!!

Q3 taugt jetzt höchstens als CPU Test, was nicht nur schlecht für einen GraKa Test ist, sondern sehr schlecht.

Oder anders gefragt:

Warum sollte man mit einem CPU Limitierten Game eine GraKa testen??

StefanV
2002-06-23, 18:13:33
Originally posted by jedi


Glaubst Du, dass ATI plötzlich ne weisse Weste hat, nur weil gerade nichts offensichtlich auffällt? *eg*

Glaubst du, daß ATI der einzige Hersteller ist, der sowas macht??

LovesuckZ
2002-06-23, 19:32:18
Originally posted by Stefan Payne
Warum sollte man mit einem CPU Limitierten Game eine GraKa testen??

Ich glaube mal weniger, dass eine CPU (z.b 2.5330 MHZ) in Q3 limitiert.
Es gibt erheblich mehr Spiele, welche staerker CPU limitiert sind als Q3. Und wenn man q3 deswegen rausnimmt, nur weil man einen PC abseits der 1.5GIG hat, dann muss man auch die meisten anderen Spiele rausnehmen.

Exxtreme
2002-06-23, 19:43:50
Also ich würde Q3A, UT & Konsorten langsam aber sicher aussortieren und neuere Games nehmen. Wobei ich Morrowind in jetzigem Zustand auch nicht nehmen würde da das Game eher als CPU-Benchmark taugt. Auch AquaNox würde ich aussen vor lassen, da das Game ziemlich buggy ist und laut den Entwicklern auf NV-HW optimiert ist. Ansonsten finde ich Leonidas' Liste ziemlich OK. Ich würde noch vielleicht DeusEx, MoH:AA, usw. nehmen.

Gruß
Alex

nggalai
2002-06-23, 19:51:05
Hi there,Originally posted by Exxtreme
Wobei ich Morrowind in jetzigem Zustand auch nicht nehmen würde da das Game eher als CPU-Benchmark taugt.Hmm, stimmt, das hat was. Bei mir liefert Morrowind in Seyda Neen, wenn man über die Brücke Richtung Dorf schaut, auf GF3 und Kyro-II fast dieselben fps (13fps/10fps), bei voller Sichtweite und keinem AF/AA. Markus hat auf seiner Ti4600 und ansonsten sehr ähnlichem System an derselben Stelle so um die 15fps . . .

Ich ziehe meine Stimme für Morrowind als Bench zurück. :) Man könnte zwar mal schaun, wie sich Karten in hohen Auflösungen und AF/AA da schlagen, aber das kann man auch mit einem anderen Benchmark machen--idealerweise eh gleich mit allen. :D

Eine Frage zu SS:SE, Leo: willst Du da OpenGL oder D3D (oder gar beides) mit testen?

ta,
-Sascha.rb

aths
2002-06-23, 20:31:45
Originally posted by jedi
Glaubst Du, dass ATI plötzlich ne weisse Weste hat, nur weil gerade nichts offensichtlich auffällt? *eg* Jede seriöse Seite muss solch elementaren Dinge wie "Unschuldsvermutung" beachten. Sagt dir GDI-Bypassing im Zusammenhang mit nVidia was? Stimmt, da war doch mal was...

Leonidas
2002-06-23, 20:34:18
Originally posted by Quasar
Ich hab mir auch schon sowas gedacht....aber eigentlich eher, daß ihr euch das Teil leider kaufen müsst *gg*

Naja, zu den Benches: Comanche4? Eine DEMO?


Ja, ich weiss: Ein Stilbruch (habe bisher Demos abgelehnt). Aber ich habe es nicht geschafft, die Vollversion benchmark-fähig zu machen - bei Incoming und Evolva ging das noch, leider nicht bei C4. Aber ich brauchte das 10. Game und es war mir lieber als Q3A (mit sein 150+ fps), denn für diese Engine hab ich ja schon RTCW.

Leonidas
2002-06-23, 20:37:31
Originally posted by Exxtreme
Ich würde noch vielleicht DeusEx, MoH:AA, usw. nehmen.

Gruß
Alex



Deus Ex: 1x UT-Engine hab ich schon.

MoH:AA: 1x Q3A-Engine hab ich auch schon. Außerdem ist RTCW auch gut für MoH:AA repräsentativ.

Leonidas
2002-06-23, 20:38:14
Originally posted by nggalai

Eine Frage zu SS:SE, Leo: willst Du da OpenGL oder D3D (oder gar beides) mit testen?

ta,
-Sascha.rb




So, wie es der Anwender macht: Das jeweils schnellere nehmen. Bei NV ist dies OpenGL.

Exxtreme
2002-06-23, 20:42:20
Wie wäre es mit NOLF oder AvP(2)? Dann hätte man was mit der Lithtech-Engine.

Gruß
Alex

Leonidas
2002-06-23, 20:44:07
Originally posted by Major
Was wäre denn an neueren Spielen noch gut zu benchmarken?


Nix. Es gibt einiges, was ich gerne benchen würde, aber keine anderen modernen Spielen besitzen überhaupt Benchmarks, Ausnahme: Q3A + UT Clones.

Leonidas
2002-06-23, 20:46:55
Originally posted by Exxtreme
Wie wäre es mit NOLF oder AvP(2)? Dann hätte man was mit der Lithtech-Engine.

Gruß
Alex



Besitzen keine default-Benchmarks. Ich müsste erst die Genauigkeit von fraps *nachweisen* Und dann mir eine passende Benchmark-Szene suchen, wozu ich in diesem Falle am besten beide Games durchgespielt haben muß und dabei möglichst viele Savegames angelegt haben muss. Kostet beides unendlich Zeit - die ich aktuell nicht habe.

Leonidas
2002-06-23, 21:20:43
Wirklich Q3A mit reinnehmen? Wenn ja, dann ist dies jetzt die letzte Gelegenheit, mich zu überzeugen.

Aber: Ich würde eh das Bloodbath-Demo nehmen und dessen Frameraten sind sehr ähnlich des Checkpoint-Demos bei RTCW, nur 10-15 fps höher.

aths
2002-06-23, 21:40:07
Originally posted by jedi
Eben, erstens spielt das keiner mehrIch habe es erst vorgestern wieder installiert (Ultima IX.)

StefanV
2002-06-23, 22:27:02
Originally posted by Leonidas
Wirklich Q3A mit reinnehmen? Wenn ja, dann ist dies jetzt die letzte Gelegenheit, mich zu überzeugen.

Aber: Ich würde eh das Bloodbath-Demo nehmen und dessen Frameraten sind sehr ähnlich des Checkpoint-Demos bei RTCW, nur 10-15 fps höher.

Ich bin absolut deiner Meinung:

Q3 taugt momentan als Bench weniger, da sind JK2, RTCW oder MOH:AA besser...

eine Bitte:

Multi API Games am besten mit beiden Schnittstellen benchen (z.B. 2x 1280x1024 anstatt 1024x768 dazuzunehmen).

Ach ja:
daß du den 16bit Modus 'aussortiert' hast, ist auch gut!
Den braucht keiner mehr...

Birdman
2002-06-23, 22:55:30
na ja, 1280x1024 find ich ein wenig zu hoch gegriffen. fast alle die ich kenne zocken mit 800x600 und 1024x768....gerade die neueren Games.
Aber FSAA+AF benches sind pflicht, imho ist 2xFSAA+4 oder 8xAF etwas das man reinnehmen müsste...egal ob die hersteller das bei den karten nun verschieden umgesetzt haben oder ned.

Exxtreme
2002-06-24, 00:13:19
Originally posted by Birdman
Aber FSAA+AF benches sind pflicht, imho ist 2xFSAA+4 oder 8xAF etwas das man reinnehmen müsste...egal ob die hersteller das bei den karten nun verschieden umgesetzt haben oder ned.
AA und AF Benches sind OK. Schlecht ist's wenn verschiedene Verfahren eingesetzt werden, welche obendrein verschiedene Ergebnisse liefern, miteinender verglichen werden. Das AA der R8500 ist nicht mit dem der GF3/4Ti vergleichbar, genauso das AF der Kontrahenten.

Gruß
Alex

Quasar
2002-06-24, 00:20:43
Originally posted by Stefan Payne
Ich bin absolut deiner Meinung:
Q3 taugt momentan als Bench weniger, da sind JK2, RTCW oder MOH:AA besser...

Originally posted by Stefan Payne
Q3 taugt jetzt höchstens als CPU Test, was nicht nur schlecht für einen GraKa Test ist, sondern sehr schlecht.
Oder anders gefragt:
Warum sollte man mit einem CPU Limitierten Game eine GraKa testen??

Bin ich der einzige, der da einen Widerspruch sieht? Was ist denn wohl eher CPU-Limitiert? Quake3 oder JK2/RtCW/MoHAA?


Gerade daß Quake3 in höheren Auflösungen und Farbtiefen eigentlich nichts mehr mit der CPU zu tun hat, prädestiniert es imho immer noch für einen Graka-Test.

Quasar
2002-06-24, 00:22:55
Originally posted by Exxtreme

AA und AF Benches sind OK. Schlecht ist's wenn verschiedene Verfahren eingesetzt werden, welche obendrein verschiedene Ergebnisse liefern, miteinender verglichen werden. Das AA der R8500 ist nicht mit dem der GF3/4Ti vergleichbar, genauso das AF der Kontrahenten.
Gruß
Alex


Das ist IMHO noch relativ einfach zu lösen. In den Games, wo mit AF&FSAA gebencht wird, einfach per Screenshot-Vergleich ein Setting mit möglichst identischen Qualitätseinstellungen finden (z.B. 2xQuality vs. 2xAF+2xFSAA) und ab durch den Benchmark damit. Ich denke, es gibt Einstellungen, wo sich die BQ genügend angenähert hat.

Leonidas
2002-06-24, 00:23:31
Es kommen

normal
8xAF (edit: gekickt)
4xAA bzw. 16xAA
8xAF + 4xAA bzw. 16xAA (edit: gekickt)


Die Sache mit den unterschiedlichen Verfahren ist zwar richtig, glücklicherweise sind die aktuellen Verfahren nicht maßlos unterschiedlich, so daß an das halbwegs vergleichen kann.

Exxtreme
2002-06-24, 00:37:32
Originally posted by Quasar
Das ist IMHO noch relativ einfach zu lösen. In den Games, wo mit AF&FSAA gebencht wird, einfach per Screenshot-Vergleich ein Setting mit möglichst identischen Qualitätseinstellungen finden (z.B. 2xQuality vs. 2xAF+2xFSAA) und ab durch den Benchmark damit. Ich denke, es gibt Einstellungen, wo sich die BQ genügend angenähert hat.
Für einige Games mag das stimmen. Nur sollte man trotzdem anmerken, daß derartige Vergleiche mit Vorsicht zu geniessen sind. Absolut gleiche BQ wird man durch sowas nie hinbekommen. Und Screenshot-Vergleiche sind bei sowas IMHO sowieso völlig ungeeignet, da man auf Screenshots z.B. kein Pixelflimmern sieht usw.

Gruß
Alex

aths
2002-06-24, 01:45:28
Originally posted by Exxtreme
AA und AF Benches sind OK. Schlecht ist's wenn verschiedene Verfahren eingesetzt werden, welche obendrein verschiedene Ergebnisse liefern, miteinender verglichen werden. Das AA der R8500 ist nicht mit dem der GF3/4Ti vergleichbar, genauso das AF der Kontrahenten.Eben. Aber ohne Anti-Aliasing und/oder AF spielt heute kein Mensch. Da die Verfahren unterschiedlich sind, kann man sie nicht direkt gegeneinander benchen. Man kann unter ausdrücklichem Vorbehalt versuchen, ähnliche Settings zu finden. Doch die müssen einen Sinn ergeben, also für den Gamer relevant sein.

Radeon-User spielen fast alles mit 16x AF, diese Einstellung gibts auf der GeForce gar nicht. Wenn man die Radeon nun deshalb mit 8x AF bencht wird sie aber ungerechterweise benachteiligt. Man könnte auch, um die Qualität anzunähern, auf der GeForce AF ohne MIP-Map-Interpolation verwenden. Aber zumindest GF4 Ti Besitzer werden wohl fast immer mit MIP-Map-Interpolation ("trilinear") spielen.

8x AF auf der GeForce3/4 kann manchmal bessere Qualität als 16x bei Radeon bringen. Was macht man nun? Bencht man 16x gegen 8x?

Mit dem Anti-Aliasing ist es noch schlimmer. Betrachten wir mal die reine Kantenglättung bei einer Beispielauflösung von 1024x768.

GeForce3/4 - 2x RG. Hat eine EER von 2048 x 1536.
Radeon8500 - D3D (RG) - hat ebenfalls eine EER von 2048 x 1536.
Radeon8500 - OGL (OG) - hat eine EER von 1024 x 1536. Man kann also nicht 2x mit 2x vergleichen. Bei 4x wird es noch schlimmer.

GeForce3/4 - 4x OG. Hat eine EER von 2048 x 1536. (Wie bei 2x RG)
Radeon8500 - D3D (RG) - hat eine EER von 4096 x 3072 (!!!)
Radeon8500 - OGL (OG) - hat eine EER von 2048 x 1536.
GeForce3/4 - 4xS. Hat eine EER von 2048 x 3072.

Es ist also totaler Unsinn, einfach nur auf die Anzahl der Subpixel zu achten. Und dabei sind die Unterschiede in Texturqualität, möglicherweise verwaschene Menüs etc. noch gar nicht drin.

Schnitzl
2002-06-24, 03:18:15
Originally posted by aths
Eben. Aber ohne Anti-Aliasing und/oder AF spielt heute kein Mensch.
...
Radeon-User spielen fast alles mit 16x AF, ...
Einspruch ! ;)
In meinem Bekanntenkreis spielt niemand mit AA oder AF.
Vielleicht mit der Parhelia 16FAA, aber bisher hat mich das bei der R8500 noch nicht überzeugt.

MfG

aths
2002-06-24, 03:48:19
Originally posted by Schnitzl
In meinem Bekanntenkreis spielt niemand mit [...] AF.Dann wohl deshalb weil sie nicht wissen wo man es einschalten (bzw nicht wissen, was anisotrope Filterung ist.)

zeckensack
2002-06-24, 04:07:40
Ich hatte dazu ja bereits eine längere Abhandlung verfasst. Ich spiele auch nichts mit AA und fast nichts mit AF (siehe unten).

Ich kann mich jetzt auch zu einem etwas gemütlicheren, älteren Spiel äußern: NOLF.

Ich habe alle AA-Settings ausprobiert, war aber nix. Entweder zu langsam, nicht schön genug, oder beides. Halbwegs nett sieht's erst ab 4xSchmuhVision in 1024x768 aus, das kann man dann aber gleich wieder eintüten, weil's viel zu langsam ist.
Ich habe außerdem den Verdacht, daß 2xQuality auch unter D3D kein RG ist, sondern 2x1 OG.

Bin jetzt wieder auf 1280x960x32 gelandet, AF ausnahmsweise auf volle Pulle, da man in diesem Spiel nirgendwo Banding sieht. Bei allen anderen Spielen (insbesondere Morrowind) mache ich das aber aus.

vogel
2002-06-24, 06:00:17
Originally posted by aths
Dann wohl deshalb weil sie nicht wissen wo man es einschalten (bzw nicht wissen, was anisotrope Filterung ist.)
Ich glaube nicht das AA und AF so weit verbreitet sind wie Du denkst :) Z.B. benutzt es hier meines Wissens niemand. Hmmm, ich koennte eine .ini Option hinzufuegen, so dass man es nicht via Treiber erzwingen muss... mal sehen.

-- Daniel, Epic Games Inc.

Leonidas
2002-06-24, 09:16:46
... Man könnte mir natürlich auch vorab mal UT2003 Demo zur Verfügung stellen für das morgige Review - wie wäre das?

Exxtreme
2002-06-24, 09:58:53
@ Leonidas
Welche GraKas werden getestet wenn ich fragen darf?

Gruß
Alex

Schnitzl
2002-06-24, 10:12:25
Originally posted by aths
Dann wohl deshalb weil sie nicht wissen wo man es einschalten (bzw nicht wissen, was anisotrope Filterung ist.)
nicht ganz :karate:
Es ist einfach zu langsam - rest siehe Daniel + Zeckensack =)

Exxtreme
2002-06-24, 10:20:56
Also anisotroper Filter ist bei mir immer auf 16x. FSAA setze ich bei CPU-lastigen Games ein und zwar 2x QSV.

Gruß
Alex

Quasar
2002-06-24, 11:50:55
Originally posted by Exxtreme
Für einige Games mag das stimmen. Nur sollte man trotzdem anmerken, daß derartige Vergleiche mit Vorsicht zu geniessen sind. Absolut gleiche BQ wird man durch sowas nie hinbekommen. Und Screenshot-Vergleiche sind bei sowas IMHO sowieso völlig ungeeignet, da man auf Screenshots z.B. kein Pixelflimmern sieht usw.

Deswegen schrieb ich auch "genügend angenäherte BQ", und die sieht man, bevor man sie per Screenshot festhält sehr wohl in Bewegung und kann sich hinsetzen und es beurteilen.

Meiner Meinung drei Settings, wenn man die Zeit dazu hat:

- Nackt (ohne AF/FSAA) für die Rohleistung
- Mittlere Qualität (ca.2xFSAA/4xAF) was in nahezu allen Games spielbar bleiben sollte
- Hohe bzw. höchste Qualität (4xFSAA plus min. 8xAF oder eben wirklich das Maximum, was die Graka hergibt, was aber kaum in brauchbaren Auflösungen mit aktuellen Grakas spielen liesse)

Ja, ich weiß, jetzt kommt aths gleich wieder mit seinem EER usw. usf....aber mich als Kunde interessiert ehrlich gesagt, wie das Bild am Ende aussieht, nachdem Spielbarkeit gesichert ist.
Für ein "perfektes" Bild bemühe ich dann lieber einen Raytracer.

Was nützte mir das 4xSSAA der GF2? Was der 4xRGAA der Voodoo5? Was nützte mir der 32Bit-Modus beim TNT? Was nützt mir 4xSmoothvision?

Wozu das alles, wenn es bei Anwendung einer Standbildshow gleicht?
Sorry, Theorie ist ja schön und gut, aber spielen kann man "theoretisch" nicht, nur praktisch.

nggalai
2002-06-24, 12:00:15
Zum Thema Screenshots und Qualitätsvergleich:

Das ist ja gerade eine der Aufgaben des Reviews--der Tester muss fähig sein, seine Eindrücke betreffend der Qualitätsunterschiede auszurdücken. Ein Satz wie "Die Leistung der Karte XYZ bei voller anisotropen Filterung ist beeindruckend, jedoch liegt die Qualität besonders bei bewegten Bildern hinter der von Karte 666 zurück."

Sonst kann man ja echt einfach die Specs kopieren . . .

ta,
-Sascha.rb

nocturne
2002-06-24, 12:18:45
Originally posted by Schnitzl

Einspruch ! ;)
In meinem Bekanntenkreis spielt niemand mit AA oder AF.


Kann ich in meinem Bekanntenkreis bestätigen. Anscheinend wird das von Spielern sehr viel weniger benutzt, als es von manchen Testern gehypt wird.

Manche Reviewer testen oft am Bedarf vorbei.

Die meisten Spieler in meinem Bekanntenkreis verfahren so: erst mal werden die Spielparameter wie z.B. Texturauflösung auf "max" gesetzt. Wenn dann ihre Grafikkarte noch genug Power übrig hat, dann setzen sie die Bildschirmauflösung höher. So hoch, dass es noch nicht ruckelt. Das war's dann.

Unregistered
2002-06-24, 12:38:27
Da schliess ich mich Nocturne an.
Erstmal Auflösung auf 1024 und ALLE Details auf Max, wenn dann noch Luft ist, was bei ner GF3 meist nicht mehr ist, dann kommt evtl FSAA und AF.

Fragman
2002-06-24, 12:39:32
was als benchmark unbedingt benutzt werden sollte ist sof2, ist cpu und graka limitiert. hatte die demo auf meinem alten 800-er laufen, war nicht so toll und selbst auf meinem 2000+ kann ich mit meiner g3ti200 kein aa benutzen (meine damit 1024*768).

Major
2002-06-24, 12:41:32
Unreg war ich

nocturne
2002-06-24, 12:42:12
Originally posted by Leonidas
Wirklich Q3A mit reinnehmen? Wenn ja, dann ist dies jetzt die letzte Gelegenheit, mich zu überzeugen.


Da manche Karten ja auf den semiprofessionellen Bereich abzielen, sollte man sie sinnigerweise auch mit Visualisierungs-Benchmarks wie z.B. ViewPerf testen.

Oder sind die Matrox-Treiber dafür zu schlecht? *eg*

Birdman
2002-06-24, 13:04:50
Ich wär auch dafür, dass man einfach ohne auf die versch. Bildqualität rücksicht zu nehmen.

beim frosch mit:
2xFSAA + 8xAF (evtl. auch 4xAF)

bei Radeon mit:
2xFSAA (quality) + 16xAF bencht.

Bildualiunterschied dann per Screenshot und Reviewerbericht festhalten.

LovesuckZ
2002-06-24, 14:09:45
Waere es vielleicht auch moeglich, mit einen Mittelklasse CPU zu testen(so um die 1000MHZ)? Das mache die Sache noch ein bisschen realitaets naeher!

Unregistered
2002-06-24, 14:23:36
Originally posted by LovesuckZ
Waere es vielleicht auch moeglich, mit einen Mittelklasse CPU zu testen(so um die 1000MHZ)? Das mache die Sache noch ein bisschen realitaets naeher!

Ja bitte, unbedingt!

Eine 1-GHz-CPU wäre ja sogar schon überdurchschnittlich, weil die Durchschnittsspieler sowieso nur 800 MHz haben. Das bedeutet dann, dass es noch sehr viele mit einer sogar noch langsameren CPU gibt.

Viele Benchmarks, die man in aktuellen Reviews liest, gehen an der Realität vorbei. Die Reviewer sind manchmal so technikverliebt, dass ihnen das Gefühl für die Bedürfnisse der Gamer abhanden gekommen ist. Das betrifft sowohl die überzogenen CPUs als auch die Überschätzung von AF und AA. So was geht völlig weltfremd an der wirklichen Spielepraxis vorbei.

Unregistered
2002-06-24, 14:26:32
bin auch der meinung.
wenn ihr nicht mit 1000 mhz benchen wollt, dann wenigstens mit 1200 mhz.
wäre realitätsnäher.

aths
2002-06-24, 14:28:44
Originally posted by zeckensack
Ich hatte dazu ja bereits eine längere Abhandlung verfasst. Ich spiele auch nichts mit AA... weil die Radeon dafür bei halbwegs modernen Games bei hoher Auflösung nicht ausreichend performt...
Originally posted by zeckensack
und fast nichts mit AF (siehe unten).... weil du gegen MIP-Banding allergisch bist. Soweit ich das mitbekommen habe, nutzen die meisten 8500-er Besitzer hier 16x AF, oder irre ich da??

BTW, OGSSAA lohnt in bereits hohen Auflösungen nicht, da die Steigerung der EER mit der gleichen Füllrate erkauft wird, dass man auch die Auflösung steigern kann. OGSSAA ist das Verfahren das am wenigsten Qualität pro Aufwand bringt, verglichen mit dem Weg der Auflösungssteigerung ist das sogar unterproportional und lohnt nur wenn man massig Leistung übrig hat und sich die Auflösung nicht mehr (bei einem ergonomischen Modus) steigern lässt.

Das ist auch der Grund, warum ich weiland so über das AA der GeForce1/2 herzog. Ein pseudozufälliges Supersampling würde aber genügend Qualität pro Füllrate bringen, so dass sich Anti-Aliasing mit Smoothvision lohnen sollte - wenn es denn so funktionieren würde, wie im PDF beschrieben.

Originally posted by zeckensack
Bin jetzt wieder auf 1280x960x32 gelandet, AF ausnahmsweise auf volle Pulle, da man in diesem Spiel nirgendwo Banding sieht. Bei allen anderen Spielen (insbesondere Morrowind) mache ich das aber aus. Hrr hrr, ich warte auf den Fix, damit AF in D3D nicht mehr so derb Leistung zieht.

aths
2002-06-24, 14:29:16
Originally posted by vogel

Ich glaube nicht das AA und AF so weit verbreitet sind wie Du denkst :) Z.B. benutzt es hier meines Wissens niemand. Hmmm, ich koennte eine .ini Option hinzufuegen, so dass man es nicht via Treiber erzwingen muss... mal sehen.

-- Daniel, Epic Games Inc. Das ist eine gute Idee.

aths
2002-06-24, 14:33:08
Originally posted by nocturne
Da manche Karten ja auf den semiprofessionellen Bereich abzielen, sollte man sie sinnigerweise auch mit Visualisierungs-Benchmarks wie z.B. ViewPerf testen.Wird bei 3DCenter bei GeForce-Karten auch nicht gemacht. Hier werden Games gebencht.

Iceman346
2002-06-24, 15:15:40
Ich nutze mit meiner Radeon grundsätzlich AF. Das FSAA ist für die meißten neuen Spiele zu lahm aber das AF bringt einerseits mehr Qualität und kostet nur unmerklich geschwindigkeit.
Das Mipbanding nehme ich je nach Spiel wahr. Bei Morrowind z.B. sehe ich es nur wenn ich wirklich genau hingucke. Bei Q3 oder Neverwinter Nights ist es deutlicher aber drin lasse ichs trotzdem.

nocturne
2002-06-24, 15:20:04
Originally posted by aths
Wird bei 3DCenter bei GeForce-Karten auch nicht gemacht. Hier werden Games gebencht.

Wenn Ihr angeblich so Game-fixiert seid, dann bräuchtet Ihr aber konsequenterweise auch nicht so einen Rummel um Parhelia und P10 zu machen, die ja - schon wegen ihrer hohen Preise - primär auf eine andere Zielgruppe ausgerichtet sind. Visualisierung-Benches wie ViewPerf wären also angemessener, und da kann man sie durchaus auch gegen ATI und nVidia antreten lassen. Oder sind die Matrox-OpenGL-Treiber wirklich sooo schlecht, dass sie nur mit der Quake3-Engine zurechtkommen? ;)

aths
2002-06-24, 15:23:05
Originally posted by nocturne
Wenn Ihr angeblich so Game-fixiert seid, dann bräuchtet Ihr aber konsequenterweise auch nicht so einen Rummel um Parhelia und P10 zu machen, die ja - schon wegen ihrer hohen Preise - primär auf eine andere Zielgruppe ausgerichtet sind.Jo und? Der Gamer wird trotzdem sehr gut bedient.
Originally posted by nocturne Visualisierung-Benches wie ViewPerf wären also angemessener, und da kann man sie durchaus auch gegen ATI und nVidia antreten lassen.Ich wiederhole mich gerne: "Hier werden Games gebencht."

nocturne
2002-06-24, 15:26:55
Originally posted by aths
Jo und? Der Gamer wird trotzdem sehr gut bedient.


Nein, wird er nicht. Was man z.B. auch daran sieht, dass die Parhelia für das Betriebssystem, das die meisten Gamer haben (Win98), gar keine Treiber anbietet.

nggalai
2002-06-24, 15:28:32
Hi nocturne,Originally posted by nocturne
Oder sind die Matrox-OpenGL-Treiber wirklich sooo schlecht, dass sie nur mit der Quake3-Engine zurechtkommen? ;) Ist das dein neues Mantra? Du hast das in den letzten Tagen sicherlich schon etwa 3-4x in der Form "gefragt".

Warte doch einfach die ersten Testberichte und User-Feedback ab, dann weisst Du's. :)

@all,

ich würde Benches mit 1-1.5GHz CPU auch begrüssen--dann kann man schon mal abschätzen, wie das Teil skalieren könnte.

ta,
-Sascha.rb

aths
2002-06-24, 15:31:36
Originally posted by nocturne
Nein, wird er nicht. Was man z.B. auch daran sieht, dass die Parhelia für das Betriebssystem, das die meisten Gamer haben (Win98), gar keine Treiber anbietet. Matrox bietet *noch* keine Treiber an. Bei späteren Versionen, die preiswerter sind und eher auf den "meisten" Gamer abzielen als der Parhelia-512, wird der 98-er Treiber erhältlich sein.

Power-Gamer nutzen schon heute ein Windows ohne DOS im Hintergrund. Kaum jemand mit modernem PC hat noch Win95/98. Wer sowas wie PIII 933 hat und Win98 fährt, für den ist der Parhelia-512 auch nicht gedacht.

Leonidas
2002-06-24, 16:06:28
Originally posted by Exxtreme
@ Leonidas
Welche GraKas werden getestet wenn ich fragen darf?

Gruß
Alex



xxx + GF4Ti4600

Leonidas
2002-06-24, 16:07:16
Originally posted by LovesuckZ
Waere es vielleicht auch moeglich, mit einen Mittelklasse CPU zu testen(so um die 1000MHZ)? Das mache die Sache noch ein bisschen realitaets naeher!



Leider nicht. Das würde den Zeitaufwand der Benchmarks effektiv verdoppeln.

jedi
2002-06-24, 16:17:54
Originally posted by Unregistered


Ja bitte, unbedingt!

Eine 1-GHz-CPU wäre ja sogar schon überdurchschnittlich, weil die Durchschnittsspieler sowieso nur 800 MHz haben. Das bedeutet dann, dass es noch sehr viele mit einer sogar noch langsameren CPU gibt.

Viele Benchmarks, die man in aktuellen Reviews liest, gehen an der Realität vorbei. Die Reviewer sind manchmal so technikverliebt, dass ihnen das Gefühl für die Bedürfnisse der Gamer abhanden gekommen ist. Das betrifft sowohl die überzogenen CPUs als auch die Überschätzung von AF und AA. So was geht völlig weltfremd an der wirklichen Spielepraxis vorbei.

FULL ACK.

Oft drängt sich sogar der Eindruck auf, dass manche Tester diesen (nicht vorhandenen) Bedarf künstlich herbeireden wollen.

Sonst müsste man ja zugeben, dass für jedes Spiel auch eine 1-GHz-CPU und eine preiswerte GeForce3-Ti200 für 130,- EUR reicht. ;)

Das Problem ist eben, dass die Entwicklung der Software/Spiele nicht mehr mit der Hardwareentwicklung schritthalten kann.

Unregistered
2002-06-24, 16:30:32
Originally posted by Leonidas
xxx + GF4Ti4600

Aha, dann gehört Ihr also zu den von Matrox ausgewählten "Hofberichterstattern" - im Gegensatz zu den kritischen Jungs von [H]ardocp? ;)

Weil Ihr keine anspruchsvolleren OpenGL-Tests wie ViewPerf wollt?

nggalai
2002-06-24, 16:39:33
Originally posted by Unregistered


Aha, dann gehört Ihr also zu den von Matrox ausgewählten "Hofberichterstattern" - im Gegensatz zu den kritischen Jungs von [H]ardocp? ;)

Weil Ihr keine anspruchsvolleren OpenGL-Tests wie ViewPerf wollt? err . . . woher willst Du wissen, dass xxx die Parhelia ist? ;)

Ausserdem hat [H] auch ihre Review-Karte erhalten, wie ein paar Seiten weiter vorne im Thread zu lesen ist.

ta,
-Sascha.rb

Leonidas
2002-06-24, 16:49:25
Originally posted by Unregistered


Aha, dann gehört Ihr also zu den von Matrox ausgewählten "Hofberichterstattern" - im Gegensatz zu den kritischen Jungs von [H]ardocp? ;)

Weil Ihr keine anspruchsvolleren OpenGL-Tests wie ViewPerf wollt?



Nö. Wir haben null darüber gesprochen, was wir testen werden. Niemand wusste das vorher, nicht einmal ich. Das hat sich erst ergeben, nachdem ich mit dem testen angefangen habe.

nocturne
2002-06-26, 01:45:26
Originally posted by jedi

Spricht nicht gerade für grosses Vertrauen in ihre eigenes Produkt. Aber wir werden in den nächsten Monaten trotzdem festestellen, was Matrox versucht zu verbergen.

:|

Jetzt wissen wir's.

Richthofen
2002-06-26, 11:30:19
hehe nocturne...

Wollt ich auch sagen.
Aber die Seiten die keine bekommen haben und sie später bekommen werden das Teil in dem jetztigen Stadium zerreissen.
Ich finde das hat sich Matrox auch verdient :)

nocturne
2002-06-26, 11:50:17
Die ersten Tester hatten ja auch extrem wenig Zeit (4 Tage) und haben trotzdem schon jede Menge Bugs, Darstellungsfehler, Abstürze, Einbrüche und sogar richtige Einschränkungen wie das absichtlich kastrierte AF gefunden. Und das nur in den 4 Tagen. Würde mich nicht wundern, wenn Matrox diesen Testzeitraum absichtlich so kurz gesetzt hätte. Kaum einer hatte sich ja die Screenshots wirklich angesehen. Bin mal gespannt, was die Tester noch alles finden, wenn sie - fernab der Standardbenches - mal richtig Zeit zum Testen haben.

StefanV
2002-06-26, 12:05:00
Originally posted by Leonidas


Leider nicht. Das würde den Zeitaufwand der Benchmarks effektiv verdoppeln.

Hm, wenn manns geschickt anstellt, dann nicht ;)

2 Rechner, 2 Karten, 2 Monitore->beide gleichzeitig ^^

aths
2002-06-26, 12:57:51
Originally posted by nocturne
Bin mal gespannt, was die Tester noch alles finden, wenn sie - fernab der Standardbenches - mal richtig Zeit zum Testen haben. Fernab der Standardbenchs finde ich auch noch beim aktuellen offiziellen Detonator von nVidia jede Menge Grafikfehler.

ow
2002-06-26, 14:20:51
Originally posted by aths
Fernab der Standardbenchs finde ich auch noch beim aktuellen offiziellen Detonator von nVidia jede Menge Grafikfehler.


Aber bei weitem nicht so viele wie bei ALLEN anderen Herstellern (PVR mal ausgenommen).

aths
2002-06-26, 14:46:26
Originally posted by ow
Aber bei weitem nicht so viele wie bei ALLEN anderen Herstellern (PVR mal ausgenommen). Es betrifft mich aber persönlich, ow. In Diablo2 habe ich z.B. den hässlichen Quincunx-Bug. Ich bin mit der nVidia-Treiberqualität nicht sehr zufrieden, neben den Bugs finde ich z.B. das umständliche Frontend lächerlich.

Auf der Pro-Seite steht natürlich die Performance. Das muss man nVidia lassen.

turboschlumpf
2002-06-26, 15:01:06
[delete]

sorry, fehler meinerseits.
ich nehme alles zurück.

Xmas
2002-06-26, 15:29:18
Originally posted by turboschlumpf
ach,
quincunx,
ich denke das ist mist.
2x rgmsaa ist doch viel schneller und schöner.
warum solltest gerade du mit quincunx zocken?
doch nicht etwa um krapfhaft das extrem schlechte abschneiden des parhelia zu rechtfertigen und nvidia schlecht darzustellen,
oder???
Da hast du was falsch verstanden.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=17637