PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Codename Panzers Benchmarks


mapel110
2004-09-20, 07:38:14
http://www.zdnet.de/enterprise/client/0,39023248,39125640-4,00.htm
hm, weiss jemand, welche Techniken dieses Game einsetzt? Jedenfalls geht die GT derbe unter. :(

MikBach
2004-09-20, 07:46:39
Alt. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=170169

Bei der Technologie kann ich dir aber auch nicht weiterhelfen.
Ich glaube einfach Nvidia muss noch den Treiber "optimieren". ;)

Gast
2004-09-20, 07:59:45
http://www.zdnet.de/enterprise/client/0,39023248,39125640-4,00.htm
hm, weiss jemand, welche Techniken dieses Game einsetzt? Jedenfalls geht die GT derbe unter. :(

Nein, die Radeons ercheaten sich ihren Vorsprung durch Filtertricks.

MikBach
2004-09-20, 08:12:51
Nein, die Radeons ercheaten sich ihren Vorsprung durch Filtertricks.
LoL?
Liefer mal Screens oder Videos, dann schauen wir mal weiter. Oder meinst du die von zdnet sind blind?

Tjell
2004-09-20, 09:18:47
LoL?
Liefer mal Screens oder Videos, dann schauen wir mal weiter. Oder meinst du die von zdnet sind blind?
Lies mal den kompletten Test von ZDnet und dann erkläre mir mal, wie entgegen bisheriger Tests die X800Pro um Längen besser als die 6800 GT performt? Steht da irgendwo etwas von den verwendeten Treiber- oder Spieleinstellungen?

Ich vermute einfach mal, daß das wieder einmal ein Testparcours à la "Benchmark anschmeißen, Kaffe trinken gehen" ist.

StefanV
2004-09-20, 09:25:16
Nein, die Radeons ercheaten sich ihren Vorsprung durch Filtertricks.
Nein, eher umgekehrt.

Bzw:
ATI optimiert nicht für einzelne Spiele, die optimieren für sehr viele gleichzeitig.
nV hingegen optimiert für spezielle Spiele, was dazu führt, daß die nV Karten schneller ausschauen als sie sind...

Das war aber eigentlich schon immer so, daß die Radeons besser sind, wenn man nicht nur Mainstream Spiele spielt...

StefanV
2004-09-20, 09:26:50
Lies mal den kompletten Test von ZDnet und dann erkläre mir mal, wie entgegen bisheriger Tests die X800Pro um Längen besser als die 6800 GT performt? Steht da irgendwo etwas von den verwendeten Treiber- oder Spieleinstellungen?

Ich vermute einfach mal, daß das wieder einmal ein Testparcours à la "Benchmark anschmeißen, Kaffe trinken gehen" ist.
Codename Panzers scheint ein recht neues Spiel zu sein, aufgrund der Ergebnisse würd ich mal vermuten, daß nV noch nicht auf dieses Spiel 'optimieren' konnte...

Das ist auch der Hauptgrund, warum ich Shaderreplacement für bestimmte Spiele so schlecht find...

Werden die Shader mal geändert oder kommen neue Spiele mit der gleichen Engine raus, dann ist die Karte nicht wirklich schnell...

MikBach
2004-09-20, 09:32:13
Lies mal den kompletten Test von ZDnet und dann erkläre mir mal, wie entgegen bisheriger Tests die X800Pro um Längen besser als die 6800 GT performt? Steht da irgendwo etwas von den verwendeten Treiber- oder Spieleinstellungen?
Klar habe ich den Test gelesen. Ist ja nicht viel zum lesen da. ;D
Ich habe ja auch schon in dem vom mir verlinkten Thread gesagt, dass ich die Jungs von zdnet im Bereich Grafikkarten nicht so toll finde.
Aber bevor wir ihnen was vorwerfen, müssen erstmal Gegenbeweise von einer anderen Site gebracht werden. Natürlich auch mit 61.77 Treiber. Mit einem neueren Treiber kann sich das wieder ändern, was ich übrigens vermute. ;)
Dann wäre ja klar, dass Nvidia erst auf Mainstreamspiele *hust* "optimiert".
Es ist dir aber aufgefallen, dass es meistens Spiele sind, welche Abseits des Mainstreams liegen? ;)

Ich vermute einfach mal, daß das wieder einmal ein Testparcours à la "Benchmark anschmeißen, Kaffe trinken gehen" ist.
;D
Na ja, ich glaube, dass ist doch übertrieben. So krass werden die wohl nicht abgehen.

Tjell
2004-09-20, 10:16:51
*Hust* F1 Challenge 99-02 *Hust*

Leistungsverdoppelung bei der X800 PRO? Da soll nicht was faul dran sein?

Gast
2004-09-20, 10:19:03
*Hust* F1 Challenge 99-02 *Hust*

Leistungsverdoppelung bei der X800 PRO? Das soll nicht was faul dran sein?

Ne, das is so. DIe alten Treiber hatten da Probleme mit (inkl. Grafikfehler teilweise) und nun nicht mehr.

predprey
2004-09-20, 13:18:39
hmm das gehört vll. nicht hier her, ber wie kommt der krasse Performance sprung durch den Cat 4.9b zustande ??

Durch optimierungen am Treiber ? ... das hätten sie doch aber auch schon früher machen können ...

Das sieht jedenfalls sehr komisch aus und verwundet mich ...


Ist denn da alles legal oder kann es mal wieder nur keiner nachweisen (atm) ???

(achja ich bin nicht pronv in diesen post! - sondern bin nur verwirrt !)

Gast
2004-09-20, 13:50:13
http://www.zdnet.de/enterprise/client/0,39023248,39125640-4,00.htm
hm, weiss jemand, welche Techniken dieses Game einsetzt? Jedenfalls geht die GT derbe unter. :(

da würd ich nix drauf geben. Wenn ich schon Zdnet lese. Die haben doch von dem Thema überhaupt keine Ahnung. Die sind wie die meissten Zeitschriften auch. Da werden Benchmarks einfach durchlaufen ohne auf Treiberversionen und unterschiede in den Default-Einstellungen einzugehen bzw. werden einfach die Schieberegler irgendwie betätigt ohne sich rückzuversichern, was das für Auswirkungen hat.

Solche Schnelltests ohne große Erläuterungen sind für die Katz.
Daher würd ich sagen, vernünftige Tests mit dem Spiel abwarten.
Die GT liegt fast überall vor der Pro. Ich sehe keinen Grund wieso sie hier so eingehen sollte. Das ist entweder ein Bug oder Unvermögen des Testers. Ich tippe auf letzteres.

MadManniMan
2004-09-20, 14:02:16
Codename Panzers scheint ein recht neues Spiel zu sein, aufgrund der Ergebnisse würd ich mal vermuten, daß nV noch nicht auf dieses Spiel 'optimieren' konnte...

Panzers ist aaalt.

Das ist auch der Hauptgrund, warum ich Shaderreplacement für bestimmte Spiele so schlecht find...

Bei Panzers wird nichts geshad0rt, das ist Multitexturing in Hochform.

Werden die Shader mal geändert oder kommen neue Spiele mit der gleichen Engine raus, dann ist die Karte nicht wirklich schnell...

Hat mit Panzers nichts zu tun und stützt sich einzig auf der Doom3 Story.

Exxtreme
2004-09-20, 14:41:46
*Hust* F1 Challenge 99-02 *Hust*

Leistungsverdoppelung bei der X800 PRO? Da soll nicht was faul dran sein?
Payne hat recht. ATi baut eher generelle Optimierungen in die Treiber ein, die sich oft bei vielen Spielen gleichzeitig auswirken.

Andererseits ist ZDnet nicht unbedingt der Bringer bezüglich GraKa-Tests. Die sind eher mit der Computerwoche vergleichbar... sprich, IT für Manager.

P.S. Hier ein Review von Driverheaven. Es bestätigt aber die Verhältnisse des ZDnet-Reviews:
http://www.driverheaven.net/reviews/PNY/

Die RX800XTPE ist in den meisten Benchmarks deutlich schneller.

InsaneDruid
2004-09-20, 15:24:00
So "aaaaalt" ist Panzers nicht. Es ist in DE (EU?) schon ne Weile raus, aber nicht in US zb.

Quasar
2004-09-20, 15:39:12
Merkwürdig, im Benchmark-Mix der PCGH (bestehend neben CN: P aus UT2004, Far Cry, Doom3) schlägt eine normale 6800 eine X800p noch um 10% - da sowohl UT2004 als auch Far Cry nicht unbedingt eine Stärke der GF sind, hätte ich die Vorteile eher auf Doom3 (bekannt) und CN: P geschoben - aber wenn CN: P nun soo viel schlechter laufen sollte, müssten die 10% Vorsprung ja allein von Doom3 herrühren, das einen Rückstand in allen anderen Games wettmacht...

Klingt fast, als hätten ZD-Net den 61.77 mit "maximaler Qualität" gestestet - dann wundert mich das CN: P Abschneiden insbesondere unter dem Aspekt, den MMM brachte, eigentlich nicht mehr. X-D

InsaneDruid
2004-09-20, 15:54:16
Ich kenn den angeführten Bench-Mix nicht.. gibts da nur ein Endergebnis und keine Einzelwerte? Warum sollte gerade der "gut" und der ZD "schlecht" sein?

VooDoo7mx
2004-09-20, 16:08:15
Wie kann ich mein Panzers benchen?

Und dieser beknackte Test wurde auch schon mal von einen "Gast" ausgegraben.
Den Cat 4.9B oder 4.9, den ich kenne produziert nicht solche Leistungssprünge. Das ist sogar in den Releasenote vermerkt. :hammer:
Irgendwas istz bei diesen Deppen mächtig schief gelaufen.

Und bevor gewisse Leute wieder anfangen von Shaderreplacement oder sonstigen Unsinn bezgl. Panzers rumzublubben, rate ich diesen sich das Spiel erst einmal zu kaufen bevor sie ihre Verschwörungstheorien aufrollen.

Ich habs mir Panzers gleich am Release geholt und es ist meiner Meinung das betse Spiel des Jahres bisher und im Strategiesektor Klassenprimus.
Damals vom 16.06 an, habe ich es sogar auf dem NV35nonU in 1280x960 2xMSAA, 8°AF gespielt und es lief wie Butter mit dem damals recht alten 56.72.
Man kann sogar noch Screenshots sich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=131453&page=108&pp=20) anschauen.

Allein schon diese Tatsache führt diese Diskussion ab absurdum.
Beim Wechsel auf den R420 konnte ich noch 6xMSAA zuschalzen, hatte jedoch derbe Grafikfehler mitd en Eigenschatten trotz aktuellsten Treiber.
ATi hat ganze 4 Monate gebraucht um diesen Bug zu beheben! Und ich hab 3 Mail an die Catalyst Crew geschrieben!
Bravo ATi! :uup:

InsaneDruid
2004-09-20, 16:37:45
3 Monate, IIRC. 4.5 war ok, 4.6 brachte Probleme, ab da kann man ja erst zählen, 4.7 und 4.8 waren auch noch buggy, 4.9 beta brachte den Fix.

Also eigentlich rund 2 Monate, denn 4.9b kam ja vor 4.8.

Birdman
2004-09-20, 18:03:26
imho ist an diesem Test etwas faul.
Dies beziehe ich nun nicht in erster Linie darauf dass die pro derart krass vor der GT rangiert, sondern dass der 4.9er beta Treiber fast immer deutlichst vor dem 4.8er ist.
Gerade bei diesem Beta hat Ati ja nix viel mehr gemacht, als ein Doom3 Speedup zu spendieren - zudem habe ich selbst eine Ati und weiss wie viel oder wenig Performance hier von Treiberupdate zu Treiberupdate etwa herausgekommen ist ;)

Mr. Lolman
2004-09-20, 18:06:34
imho ist an diesem Test etwas faul.
Dies beziehe ich nun nicht in erster Linie darauf dass die pro derart krass vor der GT rangiert, sondern dass der 4.9er beta Treiber fast immer deutlichst vor dem 4.8er ist.
Gerade bei diesem Beta hat Ati ja nix viel mehr gemacht, als ein Doom3 Speedup zu spendieren - zudem habe ich selbst eine Ati und weiss wie viel oder wenig Performance hier von Treiberupdate zu Treiberupdate etwa herausgekommen ist ;)

Ich seh den 4.9beta erst mit APE, also der "Overdrive Funktion" vorne. Sonst ist ja tw. der 4.8 sogar schneller. Von daher sollts eigentlich passen, oder?

Quasar
2004-09-20, 18:28:58
Ich kenn den angeführten Bench-Mix nicht.. gibts da nur ein Endergebnis und keine Einzelwerte? Warum sollte gerade der "gut" und der ZD "schlecht" sein?

Leider nur das Gesamtergebnis - aber da liegt wie gesagt die 6800 rund 10% vor der X800 _PRO_ - deswegen hatte ich eigentlich geschlossen, daß CN: P knapp an die nV gehen müsste, da sie sonst ihren (knappen) Vorsprung bei D3 gegen Rückstände in FC und UT2k4 allein halten müsste - was eigentlich nicht für einen Gesamtsieg reichen dürfte.

Warum der nun gut, und ZD-Net schlecht ist? Naja, meiner unmaßgeblichen Meinung nach hat die PCGH in diesen Dingen einfach etwas mehr Kompetenz.

InsaneDruid
2004-09-20, 18:42:19
Also zumindest in Bezug auf Panzers hat der 4.9 sehr viel gebracht, das war nicht nur ein 4.8 + D3 "Hotfix".

Mr. Lolman
2004-09-20, 18:49:48
Also zumindest in Bezug auf Panzers hat der 4.9 sehr viel gebracht, das war nicht nur ein 4.8 + D3 "Hotfix".

Lt. den ZDNet Benchmarks eigentlich überhaupt nicht. Colin5 und DTM2 profitieren deutlich...

Quasar
2004-09-20, 18:55:00
Lt. den ZDNet Benchmarks eigentlich überhaupt nicht. Colin5 und DTM2 profitieren deutlich...
Ups...
Codename Panzers scheint ein recht neues Spiel zu sein, aufgrund der Ergebnisse würd ich mal vermuten, daß nV noch nicht auf dieses Spiel 'optimieren' konnte[...]
Wie gut, daß inzwischen der Cat4.9 rauskam.... ;D

ATI optimiert nicht für einzelne Spiele, die optimieren für sehr viele gleichzeitig.[...]
Diesmal sind's gleich vier auf einen Schlag. :up:

InsaneDruid
2004-09-20, 18:55:08
"Gebracht" vor allem in Bezug auf Kompatibilität, 4.6/4.7/4.8=>Eigenschatten=no go

dildo4u
2004-09-20, 18:56:14
Ich persönlich finde den PCGH testmix auch besser da dort bei FC und UT2004 Custom timedemos genutzt werden.

Tjell
2004-09-20, 19:33:43
"Gebracht" vor allem in Bezug auf Kompatibilität, 4.6/4.7/4.8=>Eigenschatten=no go
Eigenschatten bei Panzers? Das ist doch normalerweise DER Performancefresser schlechthin, warum sollte dann das Spiel schneller laufen (Cat 4.9), wenn die Schatten jetzt korrekt berechnet werden?

InsaneDruid
2004-09-20, 20:34:52
4.8 hat die Eigenschatten ja nicht nicht berechnet, nur falsch, das komplette Terrain war dabei schattiert. Steht eigentlich bei dem TEst in welchen Settings Panzers lief? Wenn die MIT Eigenschatten getestet haben, das sollte das denen aufgefallen sein.

MadManniMan
2004-09-20, 22:10:38
Wie gut, daß inzwischen der Cat4.9 rauskam.... ;D

Diesmal sind's gleich vier auf einen Schlag. :up:

:uclap:

Gut gelöwt, Brülle!

Ich kann es langsam nimmer lesen, daß nur nV auf einzelne Apps ... errm ... "hinersetzen" soll und die netten garcons de rouge(laienfranzösisch) als Heilsbringer dieser Grakawelt natürlich von derlei Unflätigkeiten Abstand halten.

MikBach
2004-09-20, 22:40:29
Ich kann es langsam nimmer lesen, daß nur nV auf einzelne Apps ... errm ... "hinersetzen" soll und die netten garcons de rouge(laienfranzösisch) als Heilsbringer dieser Grakawelt natürlich von derlei Unflätigkeiten Abstand halten.
Immer vorsichtig mit solchen Aussagen. Ich meine immer noch, dass ATI allgemein optimiert, oder meinst du die optimieren auf eine Demo(Colin McRae Rally 5)?

MadManniMan
2004-09-20, 23:10:42
Immer vorsichtig mit solchen Aussagen. Ich meine immer noch, dass ATI allgemein optimiert, oder meinst du die optimieren auf eine Demo(Colin McRae Rally 5)?

Du hast Recht, daß es seltsam erscheinen mag, aber mir fehlen die stichhaltigen Beweise dafür, daß ich ruhigen Gewissens die Aussage "nV optimiert auf Apps (= pöse), ATi auf *insertAPIofyourchoicehere* allgemein (= g00t)" unterschreiben könnte.

SP ist hier IMHO viel zu unreflektiert.

MikBach
2004-09-20, 23:28:43
Du hast Recht, daß es seltsam erscheinen mag, aber mir fehlen die stichhaltigen Beweise dafür, daß ich ruhigen Gewissens die Aussage "nV optimiert auf Apps (= pöse), ATi auf *insertAPIofyourchoicehere* allgemein (= g00t)" unterschreiben könnte.
Na ja, richtige Beweise zu liefern ist sicherlich nicht einfach bzw. unmöglich.
Das wissen nur eingeweihte bei ATI und Nvidia.
Wenn ich mir mal einen Seitenhieb in Richtung Nvidia erlauben darf,
siehe 3dMark2003 zu FX-Zeiten und FarCry Patch1.1. Da wurde eindeutig gemogelt.

VooDoo7mx
2004-09-20, 23:42:54
Ja klar ATi mogelt ja auch deftig, denn die rechnen ja nur fp24 anstatt fp32. :ulol:
Und wenn du mir jetzt noch sagen willst, das ATi die Shader im 3D Mark 03 oder auch FartCry nicht einmal angefasst hat, bist du eine verdammt auslachenswerte Person. :ulol:

Und was kann NV dafür, wenn Crytek einen anderen Renderpfad für den NV3X mit Version 1.1 vorsieht?

DA hat mal wieder ein wahrer ... gesprochen.

EDIT: Das hab ich im b3d Forum gefunden:

Nvidia:
1. Nvidia is evil.
2. Nvidia "may" be doing app specific optimizations (how evil!) but we have no proof
3. Nvidia cheated in 3dMark!
4. Nvidia gives the end user the option to use brilinear filtering! (They are evil!)
5. Nvidia may be doing shader replacements that I can't notice but makes the game faster (how evil!) and no, we have no proof of this either..
6. Once again, Nvidia is evil?

ATI:
1. Nvidia is evil!
2. ATI "may be doing app specific optimization (this is good!) but we have no proof
3. Nvidia cheated in 3dMark!
4. ATI uses a brilinear filtering without the option to turn it off unlike Nvidia therefore, Nvidia is evil!
5. ATI may be doing shader replacements that I can't notice but makes the game faster (good work ATI!) and no, we have no proof of this either..
6. ATI's execs are being investigated for insider trading so....Nvidia is an immoral company!
7. ATI is being sued by its stockholders for unethical accounting practices and inaccurate financial reports (As long as it doesn't hurt us PC enthusiasts!)
8. ATI has been reducing filtering quality to enhance performance since the r200 era. (Nvidia is evil!)
9. Therefore, Nvidia is evil?

;D ;D ;D

StefanV
2004-09-21, 00:03:48
Du hast Recht, daß es seltsam erscheinen mag, aber mir fehlen die stichhaltigen Beweise dafür, daß ich ruhigen Gewissens die Aussage "nV optimiert auf Apps (= pöse), ATi auf *insertAPIofyourchoicehere* allgemein (= g00t)" unterschreiben könnte.

SP ist hier IMHO viel zu unreflektiert.
Wieso, ist doch eigentlich bekannt und nicht erst seit gestern so, daß die nVs bei 'Custom Benches' oder 'Walkthrougs' seltsamerweise langsamer sind, als die ATIs, wohingegen das bei 'Default Benches' wieder anders ausschaut.

Such dir ein beliebiges Game aus und teste es selbst oder gras mal das Netz ab...

Gast
2004-09-21, 00:07:00
*sinnfrei*

MikBach
2004-09-21, 00:08:49
Ja klar ATi mogelt ja auch deftig, denn die rechnen ja nur fp24 anstatt fp32. :ulol:
LoL?
Dir sind aber die techischen Hintergründe zu FP24/32 bekannt?
Oder findest du PP16 bei den Nvidias auch Scheisse?

Und wenn du mir jetzt noch sagen willst, das ATi die Shader im 3D Mark 03 oder auch FartCry nicht einmal angefasst hat, bist du eine verdammt auslachenswerte Person. :ulol:
Lol.
Und was kann NV dafür, wenn Crytek einen anderen Renderpfad für den NV3X mit Version 1.1 vorsieht?
Lol. Crytec hat erkannt, dass eine FX5900 in Farcry gerade mal mit der 9600 mithalten kann, und wollte den Kunden den Frust ersparen, warum die sich überhaupt so ein Scheissteil zugelegt habe. Wie wir wissen ist das nach hinten losgegangen. ;)

VooDoo7mx
2004-09-21, 00:08:54
*sinnfrei*

Und du dich registrieren? :)

LoL?
Dir sind aber die techischen Hintergründe zu FP24/32 bekannt?
Oder findest du PP16 bei den Nvidias auch Scheisse?


Nein was ist das? Kann man damit Kuchen backen?


Lol. Crytec hat erkannt, dass eine FX5900 in Farcry gerade mal mit der 9600 mithalten kann, [...]

Du sagst es doch selber, dass Crytek an den Änderungen Schuld ist, weiter oben schriebst du, dass nVidia gemogelt hat. :hammer:


[...]und wollte den Kunden den Frust ersparen, warum die sich überhaupt so ein Scheissteil zugelegt habe.

Jepp, damit hast du dich eindeutig geoutet. :up:

Desweiteren werde ich mich aus diesem Thread fernhalten. :)

aths
2004-09-21, 00:14:47
Du hast Recht, daß es seltsam erscheinen mag, aber mir fehlen die stichhaltigen Beweise dafür, daß ich ruhigen Gewissens die Aussage "nV optimiert auf Apps (= pöse), ATi auf *insertAPIofyourchoicehere* allgemein (= g00t)" unterschreiben könnte.

SP ist hier IMHO viel zu unreflektiert.Ja, das finde ich auch, man kann den Schwarzen Peter nicht einseitig NV zuschieben. Beide IHVs sind der applikationsspezifischen "Optimierung" überführt. (NV: UT2003: Zwang zu bri ehe es zwischenzeitlich generell Zwang wurde, 3DMark'03; ATI: Quack3, 3DMark'03.)

Beide IHVs versuchen natürlich, so viel wie möglich allgemein zu optimieren. Da kann man auch bisschen was machen, also z. B. Dinge umsortieren dass die Architektur damit besser klar kommt, einiges unnötige eliminieren etc., aber das hält sich in Grenzen. Beide setzten und setzen daher auch auf applikationsspezifische "Optimierung", also Dinge, die de fakto nur in Benchmarks was bringen. Auch für Timedemos kann offenbar "optimiert" werden, jedenfalls ist es doch seltsam, dass bestimmte Treiber in bestimmten Timedemos mal kurz 30% schneller sind, während das Spiel ansonsten nicht oder fast nicht profitiert. Hier halte ich meiner – sehr unvollständigen – Erfahrung nach Nvidia für schlimmer.

ATI hat im Moment weniger Ressourcen für derartige "Optimierungen". Das verkaufen sie jetzt natürlich so, dass sie lieber allgemein optimieren würden.

Ich würde mich btw freuen, wenn sich endlich die Erkenntnis durchsetze würde, dass das "Optimieren" kein Wundermittel ist. Man kann das nicht beliebig weit treiben bzw. durch "Optimierung" immer noch was rausschinden. Jede Hardware hat ihre Grenzen, und es ist nicht sinnvoll, die Treiber an Benchmarks anzupassen um somit die schnellere Grafikkarte zu emulieren. Ich hätte jedenfalls viel lieber mehr Kontrolle über die genaue Grafikqualität als mehr Scheinleistung.

MadManniMan
2004-09-21, 00:16:04
Wieso, ist doch eigentlich bekannt und nicht erst seit gestern so, daß die nVs bei 'Custom Benches' oder 'Walkthrougs' seltsamerweise langsamer sind, als die ATIs, wohingegen das bei 'Default Benches' wieder anders ausschaut.

Such dir ein beliebiges Game aus und teste es selbst oder gras mal das Netz ab...

Den Eindruck hatte ich auch mal, aber ich würde dafür gerne einen aktuellen Artikel sehen, der tatsächlich, Standardbenches gegen Customs stellt.

/...ich meine damit, daß ich hier nV "überführter als" ATi sehen will, ehe ich das wieder als Faktum sehen kann.

StefanV
2004-09-21, 00:18:10
Den Eindruck hatte ich auch mal, aber ich würde dafür gerne einen aktuellen Artikel sehen, der tatsächlich, Standardbenches gegen Customs stellt.

/...ich meine damit, daß ich hier nV "überführter als" ATi sehen will, ehe ich das wieder als Faktum sehen kann.
Das ist ja das Problem, das kannst nur zuhause fälschen...

MadManniMan
2004-09-21, 00:20:58
Und MB,

wir haben einzig ein offizielles Statement seitens nV, daß Crytek an FC 1.1 "Schuld" ist. Hat also nichts mit Benchmarkoptimierungen zu tun, da nicht vom IHV initiiert. Und beim Murks haben sich beide nie was geschenkt.

MadManniMan
2004-09-21, 00:23:25
Das ist ja das Problem, das kannst nur zuhause fälschen...

Hast schon Recht, prinzipiell könnte ich gut mit meiner FX5800 und meiner 9500Pro testen, aber ich begeistere mich in letzter Zeit immer nur kurzweilig für den Rechner, daher werde ich mich hüten, Pauschalaussagen zu tätigen.

Da ich aber nach dem Grundsatz "In dubio pro reo" leben möchte - hier im Forum -, werde ich auch nicht zulassen, ohne Beweise nV als "PÖHSER" zu sehen ;)

MikBach
2004-09-21, 00:24:16
Nein was ist das? Kann man damit Kuchen backen?
Bitte verschone uns mit deiner Unkenntniss!
Wenn du nichts zu Thema beizutragen hast, dann besser schweigen. ;)


Du sagst es doch selber, dass Crytek an den Änderungen Schuld ist, weiter oben schriebst du, dass nVidia gemogelt hat. :hammer:
Lies mein Post noch mal.
Crytec wollte einfach den 5900-Usern die Blamage ersparen, von einer ATI-Midrange-Karte versägt zu werden.

Jepp, damit hast du dich eindeutig geoutet. :up:
LoL.

Desweiteren werde ich mich aus diesem Thread fernhalten. :)
Ja, tu das bitte, damit wir uns nicht so ein Schwachsinn ansehen müssen.

MadManniMan
2004-09-21, 00:37:48
Lies mein Post noch mal.
Crytec wollte einfach den 5900-Usern die Blamage ersparen, von einer ATI-Midrange-Karte versägt zu werden.


Sicher wollte das Crytek - zumindest gehe ich davon aus. Aber das können wir nicht nV anlasten.

BTW... arbeite bitte mal an deinem Ton, ist ja unerträglich. Ich mein das jetzt nicht böse, aber bei einer deratigen ... errm ... "Konversationskultur" an einem Tisch mit nem Bierchen in der Hand würde ich dir gerne meinen Hacken auf den Spann hauen :| PLZ bleib zivilisiert.
Gilt übrigens für alle hier!

Tjell
2004-09-21, 01:01:06
LoL?
Dir sind aber die techischen Hintergründe zu FP24/32 bekannt?
Oder findest du PP16 bei den Nvidias auch Scheisse?

Lol.

Lol. Crytec hat erkannt, dass eine FX5900 in Farcry gerade mal mit der 9600 mithalten kann, und wollte den Kunden den Frust ersparen, warum die sich überhaupt so ein Scheissteil zugelegt habe. Wie wir wissen ist das nach hinten losgegangen. ;)
Abseits des Themas:
Bitte, lieber MikBach, laß denjenigen wie mich Ihre eigene Meinung über die FX5900 haben. Du magst Sie, wie gelegentlich zu lesen, als "für Spieler" ungeeignet halten, aber hebe doch bitte Deine Meinung nicht auf den Thron der Objektivität.

MikBach
2004-09-21, 01:03:32
Sicher wollte das Crytek - zumindest gehe ich davon aus. Aber das können wir nicht nV anlasten.
:|
Wieso das denn?
Hätte Nvidia eine vernünftige GPU mit dem NV30/35 herausgebracht, wäre unsere Diskussion sinnlos, ist sie aber nicht. Die FX-Serie ist einfach der letzte Schrott.

BTW... arbeite bitte mal an deinem Ton, ist ja unerträglich. Ich mein das jetzt nicht böse, aber bei einer deratigen ... errm ... "Konversationskultur" an einem Tisch mit nem Bierchen in der Hand würde ich dir gerne meinen Hacken auf den Spann hauen :|
Ne, mein Tofall ist entsprechend der Diskussion.
BTW hast Post. :)

MadManniMan
2004-09-21, 01:09:40
:|
Wieso das denn?
Hätte Nvidia eine vernünftige GPU mit dem NV30/35 herausgebracht, wäre unsere Diskussion sinnlos, ist sie aber nicht. Die FX-Serie ist einfach der letzte Schrott.

Du bist engstirnig und unreflektierend, dabei provokant und polarisierend.

<- Dieser Satz ist von der Intention her niveaulos...


Ne, mein Tofall ist entsprechend der Diskussion.
BTW hast Post. :)

...aber weniger von Krafausdrücken(zwischen den Zeilen) durchzogen, als deine letzten Posts. Wenn du nicht einsiehst/verstehst, daß deine Art zu schreiben das hier alles nur viel schlimmer machst, ist für mich hier EOD. Sieh die PM hiermit ebenfalls als beantwortet an.

Tjell
2004-09-21, 01:10:48
...Hier halte ich meiner – sehr unvollständigen – Erfahrung nach Nvidia für schlimmer...
Wo Dir, so scheint es, Recht zu geben ist.

Und woher kommt das ganze Dilemma? Weil "alle" glauben, Benchmarks lügen nicht. Das schlimmste ist jedoch, daß der Lügengeschichten neuester Streich schon an unser aller virtuellen Türen klopft: *pockpockpock* "Ui, wer mag das sein, zu so unsäglicher Zeit? Ach, der 3DMurks05 ist's!"

Anstatt wie bei der im Karneval üblichen rhetorische Frage "Wolle mer se reinlohse?!" den Gast hereinzubitten, sollten wir ihn aus unserem Haus der Objektivität aussperren.

Das schlimmste wird wohl zudem sein, daß NV-Fanboys in Kürze bei den ATIanern mit ihren achsotollen Benchmarkschwengeln protzen gehen, um zu zeigen, wer unter den Boys am ehesten zum Manne geeignet ist.

Ich bekomme schon das Würgen.


Hört auf Euch ständig privat totzubenchen! Spielt wieder echte Spiele!

InsaneDruid
2004-09-21, 01:35:25
Hört auf Euch ständig privat totzubenchen! Spielt wieder echte Spiele!

Boah, diesen Satz würd ich mir am liebsten ausdrucken, einrahmen und zu unserer nächsten Lan aufhängen :)

Da kenn ich auch ein paar (jungere Semester), benchen wie die kaputten, und fragen dann "ich hab soundsoviele FPS in Game XY, ist das gut?"

Da kann man immer nur schulterzuckend zurückfragen "Spielt es sich ordentlich oder nicht?".

Gast
2004-09-21, 02:15:17
*sinnfrei*

DanMan
2004-09-21, 02:39:24
Hätte Nvidia eine vernünftige GPU mit dem NV30/35 herausgebracht, wäre unsere Diskussion sinnlos, ist sie aber nicht. Die FX-Serie ist einfach der letzte Schrott.
Sie ist besser als die Vorgängergeneration, also hat sie auch eine Daseinsberechtigung. Und jetzt mal wieder zurück zum Topic, meinst du nicht?

ZDnet trau ich nicht. Und wenn man schon den neusten ATI Betatreiber an den Start schickt, dann sollte man auch den neusten nVidia Betatreiber nehmen, und das ist der 66.32. Von daher ist der Test für mich uninteressant.

q@w
2004-09-21, 09:42:03
Wenn ich mir mal einen Seitenhieb in Richtung Nvidia erlauben darf, siehe 3dMark2003 zu FX-Zeiten. Da wurde eindeutig gemogelt.
Ja. Die erzeugte Last, egal wie sinnlos sie ist, in einem Benchmark zu verändern, ist ein Täuschungsversuch, wenn sie nicht von vornherein offengelegt wird, à la "Schaut, wie schnell wir sein könnten, wenn der 3DMark eher optimiert wäre, wie ein Game und nicht sinnlos hohe Lasten erzeugt" und nicht anstelle, sondern neben der eigentlichen Leistung zusätzlich angegeben würde.

Wenn ich mir mal einen Seitenhieb in Richtung Nvidia erlauben darf, FarCry Patch1.1. Da wurde eindeutig gemogelt.
Nein. CryTek hat pp-Hints eingesetzt, aber leider/offenbar war man zu dämlich, mal in ein paar Levels hineinzuschauen, um zu gucken, ob das nicht häßliche Artefakte mit sich brächte.

MikBach
2004-09-21, 11:51:33
Sie ist besser als die Vorgängergeneration, also hat sie auch eine Daseinsberechtigung.
Und?
Man vergleicht doch nicht mit der Vorgängergeneration, sondern mit dem Konkurrenzprodukt. Und hier zieht die FX-Serie ganz klar den kürzeren.
Und ich spreche der FX nicht ihre Daseinsberechtigung ab. In Linux z.B. ist eine Nvidia-Karte vorzuziehen. Aber für Spieler ist die FX-Serie einfach nichts.

ZDnet trau ich nicht. Und wenn man schon den neusten ATI Betatreiber an den Start schickt, dann sollte man auch den neusten nVidia Betatreiber nehmen, und das ist der 66.32. Von daher ist der Test für mich uninteressant.
Vielleicht wussten sie nicht für welchen sie sich entscheiden sollten.
Gibt einfach zu viele. ;D

Tjell
2004-09-21, 12:12:52
...Aber für Spieler ist die FX-Serie einfach nichts.

Vielleicht wussten sie nicht für welchen sie sich entscheiden sollten.
Gibt einfach zu viele. ;D
Du kannst es nicht lassen, was?

Ich bin Spieler und ich kam bis auf ein Spiel (BFV) wunderbar (4xAA und 4xAF) mit der FX5900 klar. Und bevor Du mir mit Far Cry kommst: das (!!) war und ist ein für mich (!!) uninteressantes Spiel.

MikBach
2004-09-21, 12:22:09
Du kannst es nicht lassen, was?
Nein. :biggrin:

Ich bin Spieler und ich kam bis auf ein Spiel (BFV) wunderbar (4xAA und 4xAF) mit der FX5900 klar. Und bevor Du mir mit Far Cry kommst: das war und ist ein für mich uninteressantes Spiel.
Was dich interessiert ist hier irrelevant. Verglichen mit einer 9800 ist die FX5900 für Gamer ganz klar ein Fehlkauf. Amen.

Tjell
2004-09-21, 12:28:17
...Was dich interessiert ist hier irrelevant...
Dito.

MikBach
2004-09-21, 12:33:09
Dito.
Lol?
Ich habe doch nicht geschrieben, dass mich ein Spiel mehr oder weniger interessiert. Also was willst du mir mit diesem Kommentar sagen? :rolleyes:

Tjell
2004-09-21, 12:36:18
...Verglichen mit einer 9800 ist die FX5900 für Gamer ganz klar ein Fehlkauf. Amen.
Das hier interessiert nicht "die Allgemeinheit/alle", weil Du nur Deine persönliche Meinung reflektierst.

MikBach
2004-09-21, 12:53:11
Das hier interessiert nicht "die Allgemeinheit/alle", weil Du nur Deine persönliche Meinung reflektierst.
:lol:
Das ist jetzt aber nicht dein Ernst. Wer glaubt die FX5900 wäre verglichen mit einer 9800 eine Alternative für Gamer, der glaubt auch an den Weinachtsman und Osterhasen.
UND das ist nicht meine Meinung, sondern die Meinung der Allgemeinheit, weil man das auch mit Benchmarks belegen kann, und nein, nicht nur in FarCry. Siehe z.b. auch Thief3, MS FS2004 oder Tr6.

Tjell
2004-09-21, 12:58:15
:lol:
Das ist jetzt aber nicht dein Ernst. Wer glaubt die FX5900 wäre verglichen mit einer 9800 eine Alternative für Gamer, der glaubt auch an den Weinachtsman und Osterhasen.
UND das ist nicht meine Meinung, sondern die Meinung der Allgemeinheit, weil man das auch mit Benchmarks belegen kann, und nein, nicht nur in FarCry. Siehe z.b. auch Thief3, MS FS2004 oder Tr6.
Komisch, bei mir geben Benchmarkbalken nicht mein subjektives Spielegefühl wieder. ;)

Zu dem Rest Deiner Aussage: [ohne Worte]
:redface:

Exer
2004-09-21, 14:53:06
für Gamer ganz klar ein Fehlkauf

Nein

Die FX-Serie ist einfach der letzte Schrott.

Nein


Ich hab selber ne fx 5950u und bin mir bewusst, dass der r300 schneller ist.
Meine Karte ist kein Schrott. Ich kann damit FarCry mit 4AF und 2AA (v1.0) ohne Probleme spielen (1024) und ja, manchmal gehts innen auf 22-23 Frames runter und ja, dass ist mir egal.
Ich weiß auch, dass eine r9600xt in FarCry mithalten kann. Trotzdem ist meine Karte kein Schrott. Ich spiel nicht den ganzen Tag Shadermark oder 3dmark mit anti-cheat Treiber. Ich hab gut spielbare Framerates mit AF und AA bei NFSU,Thief3,Joint Ops oder Splinter Cell oder was weiß ich noch alles. Ich hab bis jetzt bei keinem meiner Spiele gesagt: das ist zu langsam oder gar: es ruckelt. Stell dir mal vor, es gibt ja sogar Spiele neueren Ursprungs, die auf einer FX schneller laufen.

Ich hab meine FX bestellt, da kamen gerade die ersten ps 2.0 benchmarks und alle haben durchgedreht, mir wars egal. Bis jetzt sehe ich nicht wo ich einen Fehler gemacht habe. Und meine FX wird auch nicht von einer r9600 zersägt. In einem Spiel sind sie vielleicht gleich schnell, aber insgesamt ist die FX doch weit voraus.

und eins noch: ich spiele meistens mit Fraps, es ist nicht so, dass mir Framerates egal wären. Aber deine Aussagen sind einfach falsch, man könnte meinen du redest von einer Volari. Und in einem Jahr, wenn dann nur mehr ps 2.0 spiele kommen, dann kaufe ich mir ne andere Karte. Ich hätte mir damals ebenso eine r9800 kaufen können, hat bis jetzt für mich keinen Unterschied gemacht. Ich wusste damals nix von der p2.0 Schwäche, würde ich kein Inet haben, würde ich davon nix wissen, weil man es beim Spielen nicht bzw. kaum merkt.

Hast du überhaupt schonmal mit einer fx 5900 gespielt? Oder kennst du nur die Balken?

Aber weiter diskutiere ich nicht drüber; ich bin Spieler, habe eine FX und sie ist kein Schrott. Meine Meinung, dir deine. Aus. X-D

Madkiller
2004-09-21, 15:15:53
Und wenn du mir jetzt noch sagen willst, das ATi die Shader im 3D Mark 03 oder auch FartCry nicht einmal angefasst hat, bist du eine verdammt auslachenswerte Person. :ulol:


Da solche Provokationen in letzter Zeit öfters von dir kommen, will ich dich noch ein letztes Mal dazu Ermahnen, in Zukunft auf solche Provokationen zu verzichten.

@Mikbach
Da du hier in diesem Thread gleich mit mehreren Postings die Grenzen mit Provokationen überschritten hast, bekommst du dafür einen Punkt.
Unterlaß sowas in Zukunft bitte.

Nur vorsorglich für alle:
Eine Diskussion über die Warnung ist bitte nicht in diesem Thread zu führen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch: Regeln und Richtlinien für die Moderation (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)

q@w
2004-09-21, 15:38:31
:lol:
Das ist jetzt aber nicht dein Ernst. Wer glaubt die FX5900 wäre verglichen mit einer 9800 eine Alternative für Gamer, der glaubt auch an den Weinachtsman und Osterhasen.
UND das ist nicht meine Meinung, sondern die Meinung der Allgemeinheit, weil man das auch mit Benchmarks belegen kann, und nein, nicht nur in FarCry. Siehe z.b. auch Thief3, MS FS2004 oder Tr6.

Leider falsch. Es mag deine Meinung sein, daß dies die Meinung der Allgemeinheit ist, aber meinst du nicht, daß es etwas anmaßend ist, für die Allgemeinheit sprechen zu wollen? *gg*

Es soll sogar Leute geben, die auf hohe Bildqualität stehen - und das nicht nur am Rande...

MikBach
2004-09-21, 15:45:56
Es soll sogar Leute geben, die auf hohe Bildqualität stehen - und das nicht nur am Rande...
Deswegen ist die 9800 auch besser, weil man mit ihr höhere Qualität bei den Einstellungen(Auflösung, AA, AF) wählen kann. ;)