PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Himmel und Hölle...


syronth
2003-02-21, 23:19:33
ich muss doch irgendwie mal meinen Eindruck loswerden. Zwischen DX8 und DX9-Chips scheint wirklich mal eine markante Schlucht zu klaffen, die für mich bisher eher theoretische Natur war. Statistiken/Reviews/Benchmarkzahlen sind das eine, es selbst zu sehen, was ganz anderes.
Heute trudelte endlich die 97000Pro bei mir ein... und ich traue meinen Augen nicht. Dachte ich noch beim 3DMark03 mit der GF3, daß wohl noch ein paar Jährchen ins Land ziehen, bevor man von "flüssig" sprechen kann, so lehrt mich die ATi was anderes: das einzige, was noch spürbar ruckelt, ist die "Mother Nature"-Demo in der totalen. Der Doom-Clon bewegt sich im Rahmen von 15 bis 30 Frames, was man zu der krassen Diashow vorher durchaus als flüssig bezeichnen kann. Genauso das Ork-Szenario (Name gerade entfallen). Im Demomodus trotz mehr Effekte performt es kein bißchen langsamer.
(wer's wissen will: vorher schaffte mein Sys etwa 850 3DM03-Punkte, jetzt sind es rund 3700 - allein durch den Wechsel der Graka)

Ich fasset nich.

Das die ATi nebenbei bei aktuellen Spielen, zb. UT2k3 trotz 6xAA und 8xAF bei höheren Grafik-Settings immer noch spürbar schneller ist, als vorher auf der GF3 mit reduzierten Settings(!), brauche ich wohl nicht zu erwähnen. In U2 sind die FPS fast durchgehend glatt mal doppelt so hoch (was die Engine aber nicht entschuldigen soll).

Also ich kann mich einfach nicht daran gewöhnen - jedesmal bei einer neuen Graka wundere ich mich, wie die's hinbekommen, die Performance tlw. mehr als zu verdoppeln bei mitunter besserer Darstellungsqualität. Und im Fall von 3DMurks03 zeigt es sich besonders krass, da kam ich mir vor, als hätte ich vorher ne TNT2M64 drin gehabt. Auch die Demos (vor allem die "Pipe Dream"-Demo lassen einem die Augen überquellen. Das kann man wirklich von NextGen-Grafik sprechen, daß ist in jeder Hinsicht ein deutlicher Schritt weiter.

Doom3, DX2 etc. - ich komme :-)
Aber bevor Spiele das ganze mögliche Spektrum wirklich ausnutzen werden - naja. Bis dahin bin eventuell schon wieder auf NVidia gewechselt, who knows ;-)

PS: Trotz der Erwähnung des Herstellers beziehe ich mich primär auf die Leistung von DX9-fähigen Chips.

aths
2003-02-22, 01:32:26
Originally posted by syronth
PS: Trotz der Erwähnung des Herstellers beziehe ich mich primär auf die Leistung von DX9-fähigen Chips. Bald reicht die DX9-Fähigkeit wohl nicht mehr aus, um solche Leistungen zu bringen. Wenn nV Chips wie den NV34 rausbringt, sollte es aus sein mit der Gleichung "DX9-HW = Volle Power". Da abgesehen von Mother Nature nichts von dem, was du gesehen hast, DX9-Features nutzt, würde es eine entsprechend große DX8-Karte natürlich genauso bringen. Da DX9-Features allerdings erst Sinn macht, wenn sie von einer Architektur á la R300 befeuert werden, sind solche Karten natürlich weitaus vernünftiger als DX9-fähige Billig-Chips.

Deine Begeisterung über den Speed-Up kann ich übrigens nachvollziehen - und ich freue mich mit dir mit. Als ich von Voodoo4 zu GeForce4 Ti 4600 wechselte, knackte ich kräftig FSAA und AF rein, zog die Auflösung hoch - es sah blendend aus - und war noch immer deutlich schneller...

Unregistered
2003-02-22, 09:24:57
Also wenn ich das so les, muss ich wirklich mal drüber nachdenken mir ne neue Graka zu kaufen :D


Korak@Problem mit Cookies

deBlacki
2003-02-22, 10:06:26
Guten Morgen,

Ihr habt recht. Obwohl doch mein verwöhntes Auge manchmal irgendwie nicht so recht will. Nehmen wir zum Beispiel als Beispiel ein absolut neues Game. Unreal II. Im relativistischen Vergleich zu früheren Titeln ist die Grafik einfach "monströs". Enorme Mengen an Polygonen. Texturen von enormer Größe. ja teilweise sogar richtig schöne Gebäude - aus der Sicht eines Architekten gesehen.

Und dann doch dieser fade Beigeschmack. Unscharfe und verkorkste Texturen und lieblose Stellen an manchen Leveln. Ich hab manchmal den Eidruck je komplexer und realistischer die Grafik wird, desto mehr kann man sich nicht mehr daran erfreuen. Man sieht einfach jede noch so winizge schludrige Stelle in so einem Projekt. Und sie stößt mir jedesmal sauer auf. Vieleicht bin ich - oder sind wir - einfach zu sehr fixiert Fehler zu suchen?

Auf der anderen Seite sind mittlerweile die 3D-Engines soweit fortgeschritten, das sie selbst die Detailfülle eines modernen RTS BESSER darstellen können als 2D-Engines. Age of Mythologie ist in der Richtung beinahe eine Offenbarung, so finde ich. Obwohl ich immmer noch sage nicht alles muß in die dritte Dimension gepresst werden. Viele bezeichneten die Grafik von Diablo2 damals als rückständig und "alt". Viele populäre Gamer Magazine rügten das in ihren Tests. Aber ich meine eine Atmosphere wie in Diablo 2 wurde meines Wissens in keinem der nachfolgenden Spiele geschaffen. Selbst das achso gepushte Dungeon Siege ist für mich einfach nur ein mittelmäßiger Abklatsch mit lieblosen und halbfertig umgesetzten Ideen. Ich frage mich heute noch wer das Item-System für dieses Spiel programmiert hat. Der absolute Horror. Und die Char-Entwicklung ist ein Schlag ins Gesicht eines JEDEN Action RPG Fans.

Um zurück zum eigentlichen Thema zu kommen. Aus der Masse der vielen Posts von z.B. Demirug und anderen in Foren umherschwirrenden Entwicklern ist doch immer noch aus den zeilen hervorzulesen, das selbst mit so potenter Hardware wie die aktuellen DX9 Grakas an massiven Shadereinsatz noch lange nicht zu denken ist. (?) Ich finde Programme ala 3DMark03 sind ein interessanter Ausblick ... mehr nicht. Ich erfreue mich lieber an der Entwicklung von BQ fördernden Massnahmen ala AA und AF.

So ich trink jetz erstmal nen Tee und geh das schlafende Frauchen ärgern *zwinker*

deBlacki

Mark3Dfx
2003-02-22, 10:11:04
Wenn man seine Hardware nach den 3DMark03 Modellen entwickeln würde, wäre das genauso als einen sechsspurigen Zubringer auf eine normale Autobahn zu bauen, auf dem dann nur Bulldozer fahren dürften. Verschwenderischer, ineffizienter Benchmark-Code wie 3DMark03 zwingt Entwicklungen in eine Richtung, die niemals echten Spielen zugute kommt.

Die CPU-Leistung spielt für das Endergebnis keine große Rolle. Nur die Grafikkarte ist letztendlich für den 3D Mark Score verantwortlich.

Also hat schonmal wer einen PI 100 + 9700 Pro gebencht?
;D

Quasar
2003-02-22, 10:21:04
Originally posted by Mark3Dfx
[...]Die CPU-Leistung spielt für das Endergebnis keine große Rolle. Nur die Grafikkarte ist letztendlich für den 3D Mark Score verantwortlich.[...]
...was ja einer der großen Kritikpunkte am 3DMark2001 war. Nun ist das geändert worden und es ist immer noch nicht allen recht.

Um reale Spielsituationen zu bewerten, braucht es reale Spiele, IMO. Um die Leistung einer Grafikkarte zu bewerten, muss der Einfluss von CPU und restlichem System im Vergleich zu echten Games deutlich zurückgefahren werden, oder man bekommt eine Annäherung der Werte, die eben nicht auf die Grafikkarte zurückzuführen sind.

Einige Tests sagen dann Dinge wie "Radeon9700p ist im 3DMark nur 800Punkte schneller als eine GF4.", und das obwohl sie auf einem AthlonXP 1600+ benchen, z.B.. In solchen Fällen entsteht einfach ein verzerrtes Bild.

edit:
Das niedrigste, was ich anbieten könnte, wäre ein Athlon600.

Mark3Dfx
2003-02-22, 11:36:35
Meine Freundin hat nen P133 ,32MB EDO
& ne ATI Rage Pro Turbo PCI 2 MB
(wasn geiler Name) :asshole:

Ob da 3DMüll03 flüssig läuft? :bäh:

Doomtrain
2003-02-22, 12:02:13
So 1-2 Punkte dürfte das System schon haben, wenn du den Bench überhaupt gestartet bekommst *eg**eg*

Unregistered
2003-02-22, 12:21:35
Meine Mutter hatte das gleiche System, ich habe dem Rechner aber jetzt einen Turbo verpasst! Pentium 233MMX, 64MB EDO RAM zusätzlich, jetzt also 96MB insgesammt, Brenner eingebaut. Alles preiswert bei eBay ersteigert. Und da in dem Rechner noch ein Asus p55t2p4 Motherboard steckt, werde ich wahrscheinlich demnächst noch auf AMD K-6 400MHz (http://www.de.tomshardware.com/praxis/20000714/) aufrüsten!
Den 3dmark 2003 kennt meine Mutter nicht, auch nicht den 2001 und den 2000, die sind ihr aber auch sowas von sch****egal!

Unregistered
2003-02-22, 13:27:24
Originally posted by Quasar

...was ja einer der großen Kritikpunkte am 3DMark2001 war. Nun ist das geändert worden und es ist immer noch nicht allen recht.

Um reale Spielsituationen zu bewerten, braucht es reale Spiele, IMO. Um die Leistung einer Grafikkarte zu bewerten, muss der Einfluss von CPU und restlichem System im Vergleich zu echten Games deutlich zurückgefahren werden, oder man bekommt eine Annäherung der Werte, die eben nicht auf die Grafikkarte zurückzuführen sind.
2k3 ist noch mehr daneben gegangen als 2k1. Darüber wird ja schon an vielen Stellen schon eifrigst diskutiert.
Als es noch 2D-Tests gab, wurden auch Benchmarksuiten erstellt, bei denen echte Programme (Corel Draw, Excel u.s.w.) getestet wurden.
Da ist die GameGauge-Idee besser als 3DM200x.

ice cool69
2003-02-22, 16:00:21
ein ähnlich intensives erlebnis hatte ich als ich zum ersten mal ut2003 auf ner r9700pro erleben durfte. im vergleich zur gf4mx war der unterschied echt wie tag und nacht!!!

seit dem überlege ich mir ne r9500 zu kaufen und auf ne r9700 zu modden, das risiko eine kaputte zu erwischen war mir aber im endeffekt doch zu hoch.

Crushinator
2003-02-22, 19:05:33
So ähnlich wie syronth ging's mir, als ich von der Radeon1 64 MB auf die R9700Pro umstieg. Ich mußte feststellen, daß ich z.B. RtCW noch einmal durchspielen muß, um alle Effekte mitzubekommen. Als ich das dann anfing brachten mich aths-Ausführungen zu AA/AF dazu das Spiel mit 4xAA/8xAF (1152x864) bei 70-90 FPs zu Ende zu spielen. Seitdem bin ich ziemlich süchtig nach 4xAA. :D