PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die BESTE Grafikkarte für UNREAL 2003 !!!


Seiten : [1] 2 3 4 5

pervert
2002-06-05, 13:33:08
Hier ein Schnipsel aus der aktuellen PCGH. Erbärmlich wie Radeon, Kyro und die DX7-Fraktion hier abschneiden. Erstaunlich was eine Geforce4 mit nur 64MB erreicht (trotz extrem-Texturen)!

Achtung! Dies soll kein Flamewar Radeon vs sonstwas werden. Bitte sachliche Diskussionen und am besten noch weitere Links & Shots mit vergleichbaren Unreal 2003/2-Benchmarks, welche vielleicht auch gegenteiliges aufzeigen können.




kummulierte Anmerkung von Daniel Vogel von Epic Games siehe hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=278773#post278773

Sir Integral Wingate Hellsing
2002-06-05, 13:44:33
krass...

so viel zu einem "DX7"-Spiel... frisst gut Performance...

Ist nur die Frage:

1. Stimmen die Benches so?
2. Wie siehts dann beim Release aus?
3. PixelShader 1.4? Dat wäre ja goil!

StefanV
2002-06-05, 13:51:15
lt. einigen Mitarbeitern von Epic Megagames hat der 'Unreal Performance Test' nicht viel mit dem Spiel gemein...

Gohan
2002-06-05, 13:53:48
Bei einem XP 1700+ wird eine Ti4600 ja arg ausgebremst.... nur 6 fps mehr als eine Ti500 bei 1024? Naja, ein Hammer muss her :D

Aber der Benchmark ist genau so ne mogelpackung wie 3DMark2k1....

Erstaunlich wiederum finde ich, das sich die 7500 schneller als die MX460 ist... so müsste in der Theorie, die 8500 auch schneller als die Ti500 sein. Scheinbar hat die 7500 jedoch die besseren Treiber :)

pervert
2002-06-05, 13:59:20
Originally posted by Gohan
Bei einem XP 1700+ wird eine Ti4600 ja arg ausgebremst....
Ich sehe keine übermäßigeCPU-Limitierung bei 1280x1024. Es sind auch bei 1024er Auflösung deutliche Unterschiede unter den Karten auszumachen.


Originally posted by Stefan Payne
lt. einigen Mitarbeitern von Epic Megagames hat der 'Unreal Performance Test' nicht viel mit dem Spiel gemein...

Es steht ja auch da, dass der Test noch anspruchsvoller ist. "nicht viel gemein" ist wohl eine bodenlose Übertreibung und unglaubwürdig. Aber der Test zeigt eine Richtung auf, die mir nicht schmecken würde, hätte ich eine Radeon, Kyro oder DX7-Karte. Es ist auf jeden Fall ein Vorgeschmack auf viele zukünftige Spiele, die diese Engine lizenziert verwenden werden oder ähnlich anspruchsvolle Projekte.

Demirug
2002-06-05, 14:20:49
Ach das wird bei den ATi Karten bestimmt noch besser. Gebt den Entwicklern dort auch eine Chance ihrer Treiber für die neue UT Enginen zu optimieren.

Das der Pixelshader 1.4 auf dem R200 keinen Performancevorteil gegenüber der 2 Pass ps1.1 Lösung bei GF3/4 bringt ist doch wohl inzwischen bekannt. Ist aber trotzdem gut das er benutzt wird sonst wäre der Test für ATi wahrscheinlich noch schlechter ausgefallen. Eine optischen Vorteil wird es wohl nicht bringen da angeblich alle Effekte auch mit reinem Multitexturing ohne PS möglich sind.

nocturne
2002-06-05, 14:49:21
Originally posted by pervert
Es steht ja auch da, dass der Test noch anspruchsvoller ist. "nicht viel gemein" ist wohl eine bodenlose Übertreibung und unglaubwürdig. Aber der Test zeigt eine Richtung auf, die mir nicht schmecken würde, hätte ich eine Radeon, Kyro oder DX7-Karte.

Der Test soll ja nicht nur ein benchmark für Unreal II selber sein, sondern prinzipiell auch für die anderen vielen Spiele, die auf Basis dieser Engine noch herauskommen sollen (z.B. Deus Ex 2).

Unreal-Engine-Spiele wie z.B. Undying sind ja auch anspruchsvoller als Unreal1, obwohl es dessen Engine benutzt.

Das gleiche war ja auch bei der Quake3-Engine. Q3-Engine-Spiele wie Jedi Knight II, MoHAA, RtCW oder SoF2 sind ja auch anspruchsvoller als Q3A.

Insofern fände ich es nicht schlimm, wenn der Unreal Performance Test 2003 etwas anspruchsvoller wäre als UT2003. Eigentlich ist das sogar sehr gut. Und Epic weist ja extra darauf hin.

nggalai
2002-06-05, 15:38:24
*nocturne-zustimm*

Nur als Korrektur: Deus Ex 2 verwendet eine heftig angepasste Version der neuen Unreal Engine. Speziell für dieses Game ist der Unreal Performance Test wohl komplett nichtssagend.

Aber trotzdem ein kleiner Gedankenanstoss: es lässt sich vom Performance Test NICHT DIREKT auf UT2003-Performance folgern. Vielleicht haben die genannten Karten ja mit UT2003 oder Unreal2 deutlich weniger Probleme als mitm Test, resp. beim Test limitiert zwar die Grafikkarte, bei den beiden genannten Applikationen aber vielleicht ganz und gar nicht in der Form wie hier gezeigt. u.U. werden im Test auch Features benötigt, welche in den Spielen gar nicht verwendet werden oder wenn, dann in sehr viel kleineren Ausmassen--so dass die extremen Unterschiede, welche der Test aufzeigt, vielleicht gar nicht mehr zählen.

Schlüsse sind mit Vorsicht zu geniessen; wer wirklich wissen will, wie die Karten bei UT2003 arbeiten, muss auf den UT2003-Test warten.

ta,
-Sascha.rb

raibera
2002-06-05, 16:05:27
Originally posted by pervert
Achtung! Dies soll kein Flamewar Radeon vs sonstwas werden. Bitte sachliche Diskussionen

edles motiv

wahrscheinlicher ist allerdings, daß dir heute noch ein einhorn über´n weg läuft

nocturne
2002-06-05, 16:15:36
Originally posted by nggalai
*nocturne-zustimm*

Nur als Korrektur: Deus Ex 2 verwendet eine heftig angepasste Version der neuen Unreal Engine.

Interessant. Weisst Du da mehr drüber? Inwiefern ist die Engine von Deus Ex 2 gegenüber der neuen Unreal-Engine modifiziert?

nggalai
2002-06-05, 16:19:18
Hi Nocturne,

da: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21395

ta,
-Sascha.rb

FormatC
2002-06-05, 17:41:25
Zitat: "Die BESTE Grafikkarte für UNREAL 2003 !!! "

Ist, laut diesem Benchmark, die Gf4 Ti4600 - das hab ich mir jetzt fast schon gedacht, dass die schnellste derzeit erhältliche Karte wohl wahrscheinlich auch die schnellste in diesem Benchmark sein würde ;)

Micron
2002-06-05, 17:52:55
Ich glaube eher das er die 4200 meint.Weil Leistungsmässig kein großer Unterschied ist. Ausserdem kann man die 4200 auf 4600 Nivau takten

MaxSPL
2002-06-05, 17:56:52
Mal sehen, wie es dann in Wirklichkeit aussieht...

Ich muss etwas erst teste, um dann eine Kritik abzugeben !!

Aber ich schätze ATi wird sich noch schön ins Zeug legen müssen, um denn Vorsprung von nVidia einholen zu wollen ;)

jedi
2002-06-05, 18:14:43
Originally posted by Blackmagic
Ich glaube eher das er die 4200 meint.Weil Leistungsmässig kein großer Unterschied ist. Ausserdem kann man die 4200 auf 4600 Nivau takten

Die Benchmarkergebnisse sind eigentlich wirklich nicht überraschend. Klar, dass die GF4-Ti4600 die beste Karte für UT2003 ist. Und die Ti4200 ist eben die Karte mit dem besten Preis/Leistungsverhältnis.

Jetzt wo die Ti4200 da ist, kann UT2003 kommen! :jump1:

:plasma:

Micron
2002-06-05, 18:17:55
Originally posted by jedi


Die Benchmarkergebnisse sind eigentlich wirklich nicht überraschend. Klar, dass die GF4-Ti4600 die beste Karte für UT2003 ist. Und die Ti4200 ist eben die Karte mit dem besten Preis/Leistungsverhältnis.

Jetzt wo die Ti4200 da ist, kann UT2003 kommen! :jump1:

:plasma:
So sehe ich das auch. Endlich habe ich mal eine High-tech Karte :)

AlfredENeumann
2002-06-05, 18:27:01
Sorry, aber das einzige was ich daraus lese ist, das heutige systeme selbst mit einer GF4 TI4600 das ding zuviel performance frist. wenn da aufm screen ricvhtig was los ist, dann ist DIAshow angesagt.

nggalai
2002-06-05, 18:31:03
Hi Alfred,

wie liest Du das da raus? Das ist der Unreal Performance Test, nicht UT2003, der da gebencht wurde. Und 30-45fps @ 1024x768 bei einem extremen Stress-Test klingt eigenlich nicht nach Dia-Show für mich . . .

ta,
-Sascha.rb

Gohan
2002-06-05, 18:38:28
Originally posted by Blackmagic
Ich glaube eher das er die 4200 meint.Weil Leistungsmässig kein großer Unterschied ist. Ausserdem kann man die 4200 auf 4600 Nivau takten

Das kannst du nicht auf alle Ti4200 verallgemeinern. Und wenn, das schafft KAUM eine Karte. Ti4400 ist gut möglich drin.

jedi
2002-06-05, 19:07:04
Von welchen zukünftigen Spielen ist eigentlich schon bekannt, dass sie auf der neuen Unreal-Engine basieren? Mir fallen spontan folgende ein:

Unreal Tournament 2003 (kommt wohl im nächsten Monat)
Unreal II (kommt wohl im Herbst)
Deus Ex 2
Thief - Dark Project 3

Kennt Ihr schon weitere?

AlfredENeumann
2002-06-05, 19:18:58
Originally posted by nggalai
Hi Alfred,

wie liest Du das da raus? Das ist der Unreal Performance Test, nicht UT2003, der da gebencht wurde. Und 30-45fps @ 1024x768 bei einem extremen Stress-Test klingt eigenlich nicht nach Dia-Show für mich . . .

ta,
-Sascha.rb


Das sind aber werte ohne AA und ohne Af. Desweiteren trotzdem hart an der grenze.

Piffan
2002-06-05, 19:39:27
Ich würde erst mal abwarten. Denn ich habe den Verdacht, dass Epic auf NV optimiert hat, wäre nach deren Heirat nun wirklich keine Überraschung.... Wenn Ati nun auch etwas Zeit für Treiberoptimierungen bekommt, kann man den Vorsprung sicher wieder wettmachen. Denn die Radeon 8500 ist von der Hardware der Ti 500 nun mal überlegen, da beißt die Maus keinen Faden ab. Sagt ja auch J.C....

Wer jetzt allerdings aufgrund dieses Tests eine Gf4 kauft, handelt übereilt... Die Radeon- und G3- Eigner haben keinen Grund, in Panik zu verfallen.... Erst das Spiel, dann evtl. ne neue Graka....

Unregistered
2002-06-05, 20:10:40
Hab auch die PCGH(abonniert , kann ich nur empfehlen!!! NEIN KEINE WERBUNG :)
Hab diesen Test auch gerade aufgeschlagen und was ich vorallem sehr überascht, dass die Radeon 7500 so gut abschneidet !!!!
Ist schon heftig wie sie z.B die Geforce2 Ti oder auch die G4MX 460 stehen lässt !! Ich denke da lässt sich aus der Radeon 8500 schon noch was rausholen !

Außerdem erscheint UT 2003 voraussichtlich erst Anfang August
wahrscheinlich zusamen mit der ATI R300 !!!!!

Tja da wird sich Nvidia aller Wahrscheinlichkeit nach sich erst mal in den Ars.. beißen !! Denn deren Karte wir wenn überhaupt erst
ENDE DIESES JAHRES RAUSKOMMEN !!!!

Also freuen wir uns auf einen spannenden Graka-Herbst!!

In diesem Sinne

CU Blade

Richthofen
2002-06-05, 20:43:52
siehst du da ein Problem?

Also ich ehrlich gesagt nicht. Was sind schon 2 Monate. Kassiert man eben 5% Umsatzverlust bei Desktop Grakas.
nForce und X-Box haben ja und sorgen immer noch für ein deutliche größeres Umsatzplus als man mit Desktop Grakas in den 2 Monaten verlieren kann.
Wegen einer R300 schmeisst noch lange kein OEM seine ganze NV Palette raus.
Die wollen da mehr sehen als nur mal 2 Monate vorher am Markt sein.
Und da viele von denen mittlerweile nForce einsetzen wirds auch weiterhin naheliegend sein, das zur Basisausstattung eine NV Graka gehört. Wird dann wahrscheinlich eine GF4 Ti4200 sein oder MX460.
Und ob Epic auf NV optimiert oder nicht... who cares.
Das gehört zum Geschäft. Der Marktführer gibt an wos lang geht und nicht der Underdog. Da muss der Underdog erstmal am Marktführer vorbei.
Das wird wohl mit dem R300 ganz sicher nicht passieren.

Übrigens Pfiffan ich sehe eine GF3Ti500 der Radeon8500 überlegen.
Und zwar wegen dem CBMC den ATI nicht hat und der besser abgestimmten bzw optimierten Architektur.
Wieviele Texturen pro Pass aufgetragen werden können ist momentan von 0 Bedeutung und vor allem erst Recht von 0 Bedeutung wenn der Rest der Hardware nicht mitzieht.
Ich bleib dabei nach massig neuen Treibern wird nach wie vor in deutlich mehr als 50% der Fälle eine Ti500 vor der Radeon8500 liegen.
Im Endeffekt ist das jetzt eh hinfällig denn der neue Gegner heisst Ti4200 und der ist deutlich vor der 8500 bei ähnlichem Preisniveau.
Bitte jetzt nicht wieder auf den Euro genau rumrechnen +- paar Euro macht nix aus und ne LE ist schon gar kein Vergleich.

jedi
2002-06-05, 20:57:20
Originally posted by Richthofen
Übrigens Pfiffan ich sehe eine GF3Ti500 der Radeon8500 überlegen.


Das zeigt ja auch der benchmark-Scan im Ausgangsposting. Sogar die alte GeForce3 (ohne Ti500) ist dabei der Radeon8500 überlegen.

Aber - wie Du schon sagst - die GeForce4 ist sowieso deutlich ungeschlagen, und zwar in allen Modellen, auch in der preiswerten Ti4200.

nagus
2002-06-05, 21:32:39
Originally posted by Gohan
Bei einem XP 1700+ wird eine Ti4600 ja arg ausgebremst.... nur 6 fps mehr als eine Ti500 bei 1024? Naja, ein Hammer muss her :D

Aber der Benchmark ist genau so ne mogelpackung wie 3DMark2k1....

Erstaunlich wiederum finde ich, das sich die 7500 schneller als die MX460 ist... so müsste in der Theorie, die 8500 auch schneller als die Ti500 sein. Scheinbar hat die 7500 jedoch die besseren Treiber :)


so was schwachsinniges hab ich ja schon lange nicht mehr gelesen....

Quasar
2002-06-05, 22:07:38
Originally posted by Unregistered
Hab diesen Test auch gerade aufgeschlagen und was ich vorallem sehr überascht, dass die Radeon 7500 so gut abschneidet !!!!
Ist schon heftig wie sie z.B die Geforce2 Ti oder auch die G4MX 460 stehen lässt !! Ich denke da lässt sich aus der Radeon 8500 schon noch was rausholen !

Das wär' auch angemessen Blade, besonders wenn ich mir das hier angucke:

Anárion
2002-06-05, 22:29:19
Originally posted by jedi
Von welchen zukünftigen Spielen ist eigentlich schon bekannt, dass sie auf der neuen Unreal-Engine basieren? Mir fallen spontan folgende ein:

Unreal Tournament 2003 (kommt wohl im nächsten Monat)
Unreal II (kommt wohl im Herbst)
Deus Ex 2
Thief - Dark Project 3

Kennt Ihr schon weitere?

Rainbow6-III

Iceman346
2002-06-05, 23:10:39
Originally posted by Quasar


Das wär' auch angemessen Blade, besonders wenn ich mir das hier angucke:

Bei Dungeon Siege scheint es sowohl im R8500 als auch im R7500 Treiber noch einige Bugs zu geben, zumindestens ist das Spiel sehr schlecht spielbar (bei mir auf einer R8500 LE selten über 30 fps bei vollen Details).

Quasar
2002-06-05, 23:13:40
Im Spiel oder im Benchmark?

Lightning
2002-06-05, 23:27:02
Ich denke mal im Spiel ;)

Unregistered
2002-06-05, 23:45:18
nV ist und bleibt eine Microsoft-Schlamxx
Die zwei tummeln sich im selben Bettchen (X-Box), daher ist folgendes Szenario Imho nicht völlig abwegig: nV vercheckt die X-GPU für'n Cent billiger (oder so), dafür zeigt sich MS erkenntlich in Form von garantierter nV-Überlegenheit in MS-Games, also if Graka<>nV then fps/2 ...

RadioactiveMan
2002-06-05, 23:56:27
Originally posted by jedi
Von welchen zukünftigen Spielen ist eigentlich schon bekannt, dass sie auf der neuen Unreal-Engine basieren? Mir fallen spontan folgende ein:

Unreal Tournament 2003 (kommt wohl im nächsten Monat)
Unreal II (kommt wohl im Herbst)
Deus Ex 2
Thief - Dark Project 3

Kennt Ihr schon weitere?

Unreal Championship (Xbox) von DE
XIII von UBI SOFT
The Y-Project von Weska

und nicht zu vergessen America´s Army : Operations, das von der US-Army entwickelt wurde und kostenlos verteilt wird, der Überraschungstitel auf der E3 schlechthin.
10 Mio. $ sollen ungefähr in die Entwicklung geflossen sein, wird wohl das erste Spiel werden mit der neuen Unreal Engine(UT 2003 verzögert sich), die Vorstellung, ein Werbespiel der US Army zu spielen, wird aber sicher vielen nicht schmecken, technisch interessant ist es allemal.

nocturne
2002-06-06, 00:24:13
Originally posted by RadioactiveMan

die Vorstellung, ein Werbespiel der US Army zu spielen, wird aber sicher vielen nicht schmecken, technisch interessant ist es allemal.

Yepp, das wird ja auch in der neuen c't 12/02 auf S. 18 beschrieben.

Schon paradox:

Hierzulande möchten Stoiber und Beckstein jedes Ballerspiel verbieten.
Und in USA verteilt die Regierung auf Staatskosten ein Gratis-Ballerspiel als Egoshooter gegen Terroristen, um den Nachwuchs für die US-Army zu rekrutieren. Eigentlich müsste Stoiber jetzt konsequenterweise im Wahlkampf fordern, per Internet-Zensur die Webseiten der US-Army sperren zu lassen.

:grenade:

Birdman
2002-06-06, 00:26:57
Originally posted by Piffan
Ich würde erst mal abwarten. Denn ich habe den Verdacht, dass Epic auf NV optimiert hat, wäre nach deren Heirat nun wirklich keine Überraschung.... Wenn Ati nun auch etwas Zeit für Treiberoptimierungen bekommt, kann man den Vorsprung sicher wieder wettmachen. Denn die Radeon 8500 ist von der Hardware der Ti 500 nun mal überlegen, da beißt die Maus keinen Faden ab. Sagt ja auch J.C....


Dass Epic eng mit Nv zusammenarbeitet kann ich mir gut vorstellen....das habens schon bei Unreal und UT bewiesen, wo man ebenfalls mit dem damaligen 3d-platzhirsch 3dfx grosses aus der engine rausholte.
und wenn ich mir dieses szenario auf die UT2003 grafix hochrechne, würd ich mal sagen, dass das ding ausser auf geforce karten nirgends "vernünftig" läuft. ;)

nocturne
2002-06-06, 00:32:53
Originally posted by Birdman

Dass Epic eng mit Nv zusammenarbeitet kann ich mir gut vorstellen....das habens schon bei Unreal und UT bewiesen, wo man ebenfalls mit dem damaligen 3d-platzhirsch 3dfx grosses aus der engine rausholte.
und wenn ich mir dieses szenario auf die UT2003 grafix hochrechne, würd ich mal sagen, dass das ding ausser auf geforce karten nirgends "vernünftig" läuft. ;)

Ist ja nicht schlecht, wenn sie dabei viel aus den Karten herausholen. Für Unreal habe ich mir damals eine teure Voodoo2 gekauft. Für Unreal II kaufe ich mir eben eine preiswerte GeForce4-Ti4200.

;)

Thowe
2002-06-06, 00:36:14
Originally posted by Iceman346


Bei Dungeon Siege scheint es sowohl im R8500 als auch im R7500 Treiber noch einige Bugs zu geben, zumindestens ist das Spiel sehr schlecht spielbar (bei mir auf einer R8500 LE selten über 30 fps bei vollen Details).

Irgendwie habe ich das Gefühl das die R8500 zuviel Nebel macht :D

Exxtreme
2002-06-06, 00:40:59
Originally posted by Birdman

und wenn ich mir dieses szenario auf die UT2003 grafix hochrechne, würd ich mal sagen, dass das ding ausser auf geforce karten nirgends "vernünftig" läuft. ;)
Sollte tatsächlich dieser Fall eintreten, dann hat Epic bei UT2003 einen Käufer weniger. Wenn das Game nicht vernünftig bei mir läuft, dann ist Ende mit Gelände.

Gruß
Alex

nocturne
2002-06-06, 00:46:25
Exxtreme,

Ein richtiger Gamer kauft sich die Hardware für die Software und nicht umgekehrt.

;)

Exxtreme
2002-06-06, 00:55:54
Originally posted by nocturne
Exxtreme,

Ein richtiger Gamer kauft sich die Hardware für die Software und nicht umgekehrt.

;)
Ich bin auch kein richtiger Gamer, sondern ein falscher... ;)

Gruß
Alex

[DH]Avenger
2002-06-06, 03:27:06
Sorry aber Benches mit dem UT Performance Test sind einfach fürn Popo....die ersten paar Versionen dieses Tests gewann die 8500er immer klar vor der GF3Ti500 (und dass mit den damals im Vergleich zu heute arschlangsamen ATI-Treibern), seit kurzem liegt plötzlich die 8500er hinter besagter Karte...mal abwarten wies in der nächsten Version des UT Perf Tests aussieht..

Kai
2002-06-06, 04:19:49
Originally posted by nagus



so was schwachsinniges hab ich ja schon lange nicht mehr gelesen....

Das sagt mal wieder genau der richtige.

Kai
2002-06-06, 04:22:14
Originally posted by [DH]Avenger
die ersten paar Versionen dieses Tests gewann die 8500er immer klar vor der GF3Ti500 (und dass mit den damals im Vergleich zu heute arschlangsamen ATI-Treibern), seit kurzem liegt plötzlich die 8500er hinter besagter Karte...

Ach ... und deswegen ist der Bench gleich "für'n Popo"? Komisch, als der R200 gewonnen hat, hat sich keiner der ATI-Fraktion drüber aufgeregt ;)

ShiShingu
2002-06-06, 09:07:28
Originally posted by Gohan
Bei einem XP 1700+ wird eine Ti4600 ja arg ausgebremst.... nur 6 fps mehr als eine Ti500 bei 1024? Naja, ein Hammer muss her :D

Scheinbar hat die 7500 jedoch die besseren Treiber :)

Die Radeon 7500 hat total beschissene Treiber-bei mir lief unter keinem OS irgendein Spiel ohne FREEZES!
Hab mir jetzt ne GF4Ti4200 bestellt!

BenB
2002-06-06, 09:19:25
Wenn du unfähig bist einen stabilen PC zu bauen ,solltest du lieber aufhören die Ati- Karten und Treiber als den "größten Mist" zu bezeichnen.

raibera
2002-06-06, 09:24:16
@benb

du sagt es

AvaTor
2002-06-06, 09:29:05
@benb

jo ,da hst du recht.
oder der sollte sich glein ne WiXBOX kaufen.

vogel
2002-06-06, 09:32:26
Originally posted by Birdman
und wenn ich mir dieses szenario auf die UT2003 grafix hochrechne, würd ich mal sagen, dass das ding ausser auf geforce karten nirgends "vernünftig" läuft. ;)
Unreal und Unreal Tournament liefen anfaenglich nur vernuenftig auf 3dfx Karten, da gebe ich Dir vollkommen recht - jedoch sollte Unreal Tournament 2003 auf einer Vielzahl von Grafikkarten vernuenftig laufen.

-- Daniel, Epic Games Inc.

Andre
2002-06-06, 09:41:56
Originally posted by BenB
Wenn du unfähig bist einen stabilen PC zu bauen ,solltest du lieber aufhören die Ati- Karten und Treiber als den "größten Mist" zu bezeichnen.

Nana.
Probleme mit ATI = Problem sitzt vorm Monitor.
Probleme mit NV = NV ist Schuld, machen eh scheiß Treiber.

Habe ich das richtig auf den Punkt gebracht, BenB?

BenB
2002-06-06, 09:49:06
Nö ,ob Ati oder Nvidia, Kyro usw. ist mir egal.

ShiShingu hat seinen PC mit einem 230W Netzteil betrieben. Das kann funktionieren ,muss aber nicht. Bei ihm hats scheinbar nicht funktioniert. Sein Post "Nie wieder Ati" hast du ja sicher gelesen.

Andre
2002-06-06, 09:55:59
Originally posted by BenB
Nö ,ob Ati oder Nvidia, Kyro usw. ist mir egal.

ShiShingu hat seinen PC mit einem 230W Netzteil betrieben. Das kann funktionieren ,muss aber nicht. Bei ihm hats scheinbar nicht funktioniert. Sein Post "Nie wieder Ati" hast du ja sicher gelesen.

Ahh, ok.
Sicher, dass mit dem 230W-Netzteil war nicht grade eine Glanzleistung elektronischer Baukunst :)
Das Posting habe ich auch gelesen, mich hat da sehr gewundert, wie schnell man doch umschwenken kann.
Vorher bitterer ATI-Anhänger und am nächsten Tag, ich traute meinen Augen kaum, dieser "nie wieder ATI"-Thread.

nggalai
2002-06-06, 10:00:08
Hi Daniel,

danke fürs Feedback. "vernünftig laufen" ist doch schonmal was. ;)

Eine Frage wäre da noch, die Du ein- für allemal klären könntest: in wieweit lassen sich Ergebnisse des Perfomance Tests mit den beiden ersten Spielen UT2003 und U2 vergleichen? Kannst Du da was zu sagen, oder reisst dir Legend dann den Kopf ab? ;)

Meine Meinung zum Thema habe ich oben ja schon geschildert--IMO testet ein Benchmark genau eine Sache: wie gut ein System mit dem Benchmark klar kommt, nichts weiter. Rückschlüsse auf "richtige" Spiele erachte ich als nicht sehr sinnvoll . . .

ta,
-Sascha.rb

vogel
2002-06-06, 10:06:37
Originally posted by Stefan Payne
lt. einigen Mitarbeitern von Epic Megagames hat der 'Unreal Performance Test' nicht viel mit dem Spiel gemein...
Das liegt daran, dass UPT 918 mittlerweile zwei Monate alt ist. Praktisch eine Ewigkeit wenn fleissige Haende in der Zwischenzeit an der Engine werkeln ;)

Seit Anfang April haben wir sehr viel Zeit mit Optimierungen verbracht und die Engine ist mittlerweile weitaus weniger CPU limitiert und laeuft sehr viel runder auf exotischen Grafikkarten. Wenn ich an 918 denke schuettelts mich ;) Und kurz vor Release werde ich wohl das gleich ueber die Version sagen die im Augenblick aktuell ist.

Wir haben auch sehr viel Zeit damit verbracht, sicherzustellen, dass Unreal Tournament 2003 so gut wie moeglich auf so vielen wie moeglich Grafikkarten laeuft. Das Demo wird zeigen ob wir erfolgreich waren oder nicht :)

Dazu haben wir sehr viel mehr Skalierbarkeit eingebaut die UPT 918 nicht zeigt. Wenn man das Spiel das erste mal startet werden die Default- Einstellungen der Karte entsprechend ausgewaehlt und mittlerweile kann ich ein Botmatch gegen ein paar Bots fluessig auf 'ner TNT2 Spielen. Jedoch ist meine Definition von fluessig sicherlich nicht deckungsgleich mit der von hardcore FPS Zockern ;)

Ich bin zwar kein grosser Fan von Kyro Karten, aber der Fairniss halber sollte ich erwaehnen, dass eine Kyro II verhaeltnismaessig sehr viel besser abschneidet als in UPT 918. Also wenn Ihr 'ne Kyro II habt ist nicht gleich alle Hoffnung verloren... jedoch ist fuer den optimalen Spielspass 'ne Radeon 8500 oder 'ne GeForce 4 Ti zu empfehlen. Aber am besten wartet Ihr das Demo ab um zu sehen was denn nun die beste Grafikkarte fuer UT 2003 ist. Nach erscheinen der Demo wird sich wohl nicht mehr viel am "Renderer" aendern also sollte die Demo aussagekraeftig fuer das fertige Spiel sein.

Die UT2003 Demo wird (mindestens) einen Standard GPU Benchmark enthalten und obendrein die Faehigkeit eigene Benchmarks zu "kreiren" indem man Botmatches als Zuschauer anschaut. Im Benchmarkmodus sind diese deterministisch, also kann man Zahlen vergleichen. Als Zuschauer folgt die Kamera automatisch einem Bot also ist es, im Gegensatz zu "Timedemos", in etwa vergleichbar mit der CPU und GPU Auslastung des Spieles. Ich nehme an, dass kurz nach erscheinen HW Seiten ein wenig benchen werden und man sich dann ein besseres Bild davon machen kann, was denn nun die beste Grafikkarte fuer UT 2003 ist.

-- Daniel, Epic Games Inc.

PS: Mittlerweile bin ich auch mit so unnuetzem Wissen wie, dass 'ne TNT2 kein z- bias mit D3D unterstuetzt, vollgepumpt ;)

vogel
2002-06-06, 10:14:12
Originally posted by nggalai
Hi Daniel,

danke fürs Feedback. "vernünftig laufen" ist doch schonmal was. ;)

Eine Frage wäre da noch, die Du ein- für allemal klären könntest: in wieweit lassen sich Ergebnisse des Perfomance Tests mit den beiden ersten Spielen UT2003 und U2 vergleichen? Kannst Du da was zu sagen, oder reisst dir Legend dann den Kopf ab? ;)

Meine Meinung zum Thema habe ich oben ja schon geschildert--IMO testet ein Benchmark genau eine Sache: wie gut ein System mit dem Benchmark klar kommt, nichts weiter. Rückschlüsse auf "richtige" Spiele erachte ich als nicht sehr sinnvoll . . .

ta,
-Sascha.rb
UPT 918 war zum Zeitpunkt des Erscheinens aussagekraeftig fuer UT 2003. Aber nur verhaeltnismaessig, da UT 2003 keine 200,000 Polygone/ Frame "pusht". Aber nach zwei Monaten hat sich die Sache natuerlich ein wenig geandert da sehr viele Optimierungen in UT 2003 eingeflossen sind und die Engine weitaus besser "ausbalanciert" ist.

Ich sags mal so, wenn UPT 918 auf 'ner Karte gut lief gibts fuer UT 2003 nichts zu befuerchten. Wenn's schlecht lief, muss das noch nichts heissen :)

-- Daniel, Epic Games Inc.

PS: Unglaublich wie frueh Du morgens schon wach bist - vor 14 Uhr aufstehen koennt ich nicht ;)

Exxtreme
2002-06-06, 10:17:10
Originally posted by vogel

Unreal und Unreal Tournament liefen anfaenglich nur vernuenftig auf 3dfx Karten,
-- Daniel, Epic Games Inc.
Und das ist bis heute immer noch so. So gut wie auf einer Voodoox, läuft das Game IMHO nirgendwo. Ich hoffe blos, daß ihr bei UT2003 keinen GraKa-Hersteller bevorzugt habt.

Gruß
Alex

vogel
2002-06-06, 10:30:32
Originally posted by Piffan
Ich würde erst mal abwarten. Denn ich habe den Verdacht, dass Epic auf NV optimiert hat, wäre nach deren Heirat nun wirklich keine Überraschung.... Wenn Ati nun auch etwas Zeit für Treiberoptimierungen bekommt, kann man den Vorsprung sicher wieder wettmachen.
Natuerlich haben wir fuer NVIDIA Karten optimiert - wir waeren ja auch verrueckt das Spiel nicht so gut wie moeglich auf NVIDIA Karten zum laufen zu bringen. Aber das heisst noch lange nicht, dass wir ATI vernachlaessigen wuerden! Im grossen und ganzen laeuft es ziemlich aufs gleiche raus ob man fuer NVIDIA oder ATI optimiert.

Wir sind sehr offen fuer Aenderungsvorschlaege egal von welchen IHVs (ziemlich viel if( IsKyro ) in unserer Codebase ;)) und kommunzieren mit den meisten beinahe taeglich. Ich wuerde sagen, dass wir ein sehr gutes Verhaeltnis zu den meisten IHVs haben und ich bin sehr dankbar fuer das andauernde Feedback und Verbesserungsvorschlaege.

ATI und NVIDIA (sowie andere IHVs) haben seit laengerem Zugriff auf sowohl vollstaendigen Sourcecode, wie auch Daten, also kann ich ruhigen Gewissens bei Treiberproblemen mit dem Finger auf den entsprechenden IHV zeigen ;)

-- Daniel, Epic Games Inc.

Exxtreme
2002-06-06, 10:37:16
Originally posted by Andre


Ahh, ok.
Sicher, dass mit dem 230W-Netzteil war nicht grade eine Glanzleistung elektronischer Baukunst :)
Das Posting habe ich auch gelesen, mich hat da sehr gewundert, wie schnell man doch umschwenken kann.
Vorher bitterer ATI-Anhänger und am nächsten Tag, ich traute meinen Augen kaum, dieser "nie wieder ATI"-Thread.
Ja, 230 W und ein AMD TB1400 sind tatsächlich nicht der Hit.

Gruß
Alex

HOT
2002-06-06, 10:49:41
Scheint aus der PCGH zu stammen... warten wir lieber mal unabhängige Tests ab und entscheiden dann. Ich verlasse mich nur sehr ungern auf einen Tester, was Bewertungen angeht. Vor allem wenn der einzige Test aus einer Spieleredaktion stammt...

Salvee
2002-06-06, 10:57:24
Danke Daniel,
deine Statements sind ja im Vergleich zu den JohnC-Kommentaren glasklar und ziemlich unmissverständlich. Kompliment !!

pervert
2002-06-06, 11:00:11
Originally posted by HOT
Ich verlasse mich nur sehr ungern auf einen Tester, was Bewertungen angeht.

Deswegen soll ja auch jeder, der weitere Benchmarks zum Thema findet, diese hier verlinken o. Ä.!

Originally posted by vogel
ATI und NVIDIA (sowie andere IHVs) haben seit laengerem Zugriff auf sowohl vollstaendigen Sourcecode, wie auch Daten, also kann ich ruhigen Gewissens bei Treiberproblemen mit dem Finger auf den entsprechenden IHV zeigen ;)
-- Daniel, Epic Games Inc.

Ich frage mich angesichts des zweiten Scans von Quasar allerdings, welcher Dämon die Treiberprogrammierer bei ATI geritten hat, wenn eine 7500 hier schneller als die 8500 ist. Unterstützt der Benchmark/das Spiel irgendwelche Effekte, die auf der 7500 nicht zu sehen sind und auf der 8500 ordentlich Power fressen??? Laut Text sieht es ja eigentlich eher andersherum aus. Die NV DX8-Karten lassen sich jedenfalls von ihren DX7-Vorgängern nicht die Schau stehlen.

Ich hoffe mal für ATI, dass man mit solchen "Qualitätstreibern" nicht auch den R300 präsentieren will. Das könnte peinlich werden.

nggalai
2002-06-06, 11:16:17
Hi Daniel,

vielen Dank für deine Ausführungen. Tut gut, die Entwicklersicht als "reality check" zu erhalten . . . und sollte wohl auch einige Leute beruhigen, was die effektive Performance der Endprodukte angeht.

thanks,
-Sascha.rb

P.S.PS: Unglaublich wie frueh Du morgens schon wach bist - vor 14 Uhr aufstehen koennt ich nicht ;)Hehe . . . aber ICH sitze ja auch nicht in den Staaten. Oder bist Du wieder im Lande? Und sowieso--wer braucht schon Schlaf? ;) cu.rb

AlfredENeumann
2002-06-06, 12:58:38
Originally posted by BenB
Nö ,ob Ati oder Nvidia, Kyro usw. ist mir egal.

ShiShingu hat seinen PC mit einem 230W Netzteil betrieben. Das kann funktionieren ,muss aber nicht. Bei ihm hats scheinbar nicht funktioniert. Sein Post "Nie wieder Ati" hast du ja sicher gelesen.

außderdem hat er im bios von anfang an alles auf speed anstatt auf kompatibilität eingestellt und die kiste übertaktet wie hund. das dann die fehlersuche fürn arsch ist wird sich jeder laie denken können.

nocturne
2002-06-06, 13:11:49
Originally posted by vogel
Das Demo wird zeigen ob wir erfolgreich waren oder nicht :)

Hi Daniel,

danke für die interessanten Infos. Gibt es inzwischen eigentlich schon einen genaueren Termin für die Demo?

... denn ich muss ja wissen, bis wann ich spätestens meine GeFore4-Ti4200 bestellen muss...

;)

Exxtreme
2002-06-06, 13:22:49
Originally posted by pervert

Ich frage mich angesichts des zweiten Scans von Quasar allerdings, welcher Dämon die Treiberprogrammierer bei ATI geritten hat, wenn eine 7500 hier schneller als die 8500 ist.
Schau dir mal das Bild genau an. Es handelt sich nicht um Unreal sondern um Dungeon Siege. ;)
Ausserdem nimmt es PCGH IMHO nicht so genau mit der Objektivität. Da soll es einen Test gegeben haben, bei dem _alle_ getesteten NV-Karten (auch GF2mx)so um die 60 fps gehabt haben und _alle_ getesteten ATi-GraKas (auch R8500)so um die 30 fps. Die haben von mir wegen sowas auch eine Mail bekommen, ist aber eine andere Geschichte...

Gruß
Alex

ow
2002-06-06, 13:26:01
@Exxtreme:

Koenntest du mir mal verraten, wen du ueberhaupt noch als objektiv ansiehst?

nocturne
2002-06-06, 13:28:37
ATI-Fanseiten? *eg*

StefanV
2002-06-06, 13:30:55
Originally posted by Unregistered
nV ist und bleibt eine Microsoft-Schlamxx
Die zwei tummeln sich im selben Bettchen (X-Box), daher ist folgendes Szenario Imho nicht völlig abwegig: nV vercheckt die X-GPU für'n Cent billiger (oder so), dafür zeigt sich MS erkenntlich in Form von garantierter nV-Überlegenheit in MS-Games, also if Graka<>nV then fps/2 ...

Nur 'seltsam', daß M$ anscheinend NV verklagen will, weil sie mit den Preisen für den XBox Chip nicht runtergehen wollen...

M$ war auch so 'schlau' einen Vertrag zu schließen, der in der Konsolenwelt unüblich ist...

Exxtreme
2002-06-06, 13:34:46
Originally posted by ow
@Exxtreme:

Koenntest du mir mal verraten, wen du ueberhaupt noch als objektiv ansiehst?
Also da wären:
c't, [H]ardOCP, 3DCenter, SharkyExtreme, DigitLife, Beyond3D... diese fallen mir auf die Schnelle ein.
Was ich als schwer "biased" einstufe sind:
RivaStation, THG, Anandtech, PCGH und alle sog. Fan-Sites (Rage3D, nVNews usw.)

Hoffe das hilft.

Gruß
Alex

StefanV
2002-06-06, 13:35:43
Originally posted by ShiShingu
Die Radeon 7500 hat total beschissene Treiber-bei mir lief unter keinem OS irgendein Spiel ohne FREEZES!
Hab mir jetzt ne GF4Ti4200 bestellt!

War wieder Klar...

Weil am Netzteil Gespart wurde, ist ATI schuld, warum nicht AMD/VIA??

Wenn mir eins tierisch aufn Sack geht, dann sind das Leute, die unfähig sind die richtigen Komponenten (=RAM, Netzteil, Board) auszusuchen und dann gegen AMD/VIA/ATI Flamen, wenn die Kiste nicht läuft!!

Aber ein Codegen Netzteil macht ein AMD System stabil, nicht wahr??

Originally posted by ShiShingu
Ja, 230 W und ein AMD TB1400 sind tatsächlich nicht der Hit.

Es geht aber wenn das Netzteil eine extrem gute Qualität hat (siehe Black Cow).

Nur sollte man sich nicht beschweren, wenn der Rechner mit einem 230W NoName Netzteil nicht vernünftig läuft...

Sind für mich immer die Größten Helden, die schreien 'scheiß ATI/AMD/VIA' und ein 300W Codegen samt 3x256MB Spectek RAM haben und Windows 95 nutzen...

Und wer dann noch Unfähig ist mal die Timings, die er im BIOS eingestellt hat, mal runter zu setzen, dem ist echt nicht mehr zu Helfen...

ow
2002-06-06, 13:37:58
Originally posted by Exxtreme

Also da wären:
c't, [H]ardOCP, 3DCenter, SharkyExtreme, DigitLife, Beyond3D... diese fallen mir auf die Schnelle ein.
Was ich als schwer "biased" einstufe sind:
RivaStation, THG, Anandtech, PCGH und alle sog. Fan-Sites (Rage3D, nVNews usw.)

Hoffe das hilft.

Gruß
Alex

Ist zumindest mal ein Anhaltspunkt, thx.
Werde mich demnaechst mal intensiver mit diesen Sites befassen....

Richthofen
2002-06-06, 15:19:49
"
Nur 'seltsam', daß M$ anscheinend NV verklagen will, weil sie mit den Preisen für den XBox Chip nicht runtergehen wollen...
"

Informierst du dich eigentlich auch mal?
Nach Aussagen des Nvidia VP Investor Relations auf der Prudential Securities Konferenz handelt es sich hierbei um die Southbridge.
Wenn ich das richtig verstanden habe, wurde diese im Vertrag nicht extra erwähnt womit ein genauer Preis nicht festgeschrieben wurde, sondern man sich nur auf einen Gesamtpreis irgdnwie einigte.

Um dieses zu klären haben beide einvernehmlich einen Dritten damit beauftragt die Preisfindung zu betreiben.
So etwas nennt man Schiedsgericht.
Verklagen ist eine ganz andere Ecke und Stufe.

Es dreht sich hier nicht um den NV2A sondern um die MCP Southbridge.

Und das er seine Radeon7500 rausgehaun hat ist doch ok.
Die Ti4200 ist eh besser.
Merks dir einfach Payne ATI suxx Ass.

Exxtreme
2002-06-06, 15:23:57
Originally posted by Richthofen

Merks dir einfach Payne ATI suxx Ass.
Auch wenn man diese NV-Parolen 1000 mal wiederholt, werden diese nicht wahrer. Schau dir mal sein System an. 230 W NT mit einem 1400'er TBird ;) *eg* und das ganze übertaktet ohne Ende. Der soll froh sein, daß die GF4Ti4200 damit überhaupt anläuft.

Gruß
Alex

nocturne
2002-06-06, 15:27:51
Originally posted by Exxtreme

Auch wenn man diese NV-Parolen 1000 mal wiederholt, werden diese nicht wahrer

Genau so wenig wie die Vaporware-Fanparole in Deiner Signatur. *eg*

Exxtreme
2002-06-06, 15:30:25
Originally posted by nocturne

Genau so wenig wie die Vaporware-Fanparole in Deiner Signatur. *eg*
Wieso Vaporware? Der Chip ist ja nichtmal angekündigt. Ausserdem soll diese Signatur leicht provozieren, was manchmal auch wirkt. ;)

Gruß
Alex

aths
2002-06-06, 15:34:54
Exxtreme, nocturne hat "Vaporware" vermutlich auf eine Taste gelegt. Würde sich jedenfalls lohnen, so inflationär wie er es für kommende nicht-NV-Produkte verwendet.

Exxtreme
2002-06-06, 15:38:56
Oder er ist ein Bot, der bei bestimmten "Reizwörtern" (ATi, PVR usw.) reagiert und da "Vaporware" das Lieblingwort des Programmierers war... den Rest könnt ihr euch denken. ;)

Gruß
Alex

TBird
2002-06-06, 15:45:44
Originally posted by Exxtreme

Also da wären:
c't, [H]ardOCP, 3DCenter, SharkyExtreme, DigitLife, Beyond3D... diese fallen mir auf die Schnelle ein.
Was ich als schwer "biased" einstufe sind:
RivaStation, THG, Anandtech, PCGH und alle sog. Fan-Sites (Rage3D, nVNews usw.)

Hoffe das hilft.

Gruß
Alex

Jeder ließt und glaubt halt das, was er am liebsten lesen und glauben will, stimmts Exxtreme ?

Andre
2002-06-06, 15:47:15
Alex und aths,

lasst uns doch einmal über eure Tastenbelegungen und Bots sprechen - ich meine da auch tendentiell immer dieselben ermüdenden Argumente zu hören.

Exxtreme
2002-06-06, 15:59:35
Originally posted by TBird

Jeder ließt und glaubt halt das, was er am liebsten lesen und glauben will, stimmts Exxtreme ?
Ich kann dir gerade nicht ganz folgen. ;)
Ich habe schon viele HW-Sites regelmässig gelesen und begutachtet. Irgendwannmal kristalisiert sich es heraus und man merkt welche Sites für Einem persönlich was taugen und welche nicht. Und daß ich nur die Sites lese, in denen das steht, was ich sehen will ist schon eine pikante Unterstellung. Wenn es so wäre, dann dürfte zumindest HardOCP nicht mehr auf der Liste erscheinen, denn die haben den Quack/Quake Cheat entdeckt. ;)

Gruß
Alex

Exxtreme
2002-06-06, 16:02:51
Originally posted by Andre
Alex und aths,

lasst uns doch einmal über eure Tastenbelegungen und Bots sprechen - ich meine da auch tendentiell immer dieselben ermüdenden Argumente zu hören.
OK, ich gebe es zu. Mein Bot reagiert auf Sätze wie:
"ATi-Treiber sind Dreck";
"nVidia-Karten haben gute SQ";
"Die GF4Ti4x00 ist der R8500 technisch überlegen";

Nix für Ungut. ;)

Gruß
Alex

nggalai
2002-06-06, 16:06:10
Bitte, Mädels, beruhigt euch doch wieder.

Ist sowas wirklich nötig?

ta,
.rb

aths
2002-06-06, 16:11:14
nggalai,

das ist nötig. Ich bin nämlich kein Bo

Ã▒¢÷█
ACCESS VIOLATION IN MODULE BRAIN.EXE
(R)etry (I)gnore (A)bort

Andre
2002-06-06, 16:16:31
Originally posted by nggalai
Bitte, Mädels, beruhigt euch doch wieder.

Ist sowas wirklich nötig?

ta,
.rb

Ich habe mich doch gar nicht aufgeregt.

ram
2002-06-06, 19:54:02
Originally posted by vogel
Das liegt daran, dass UPT 918 mittlerweile zwei Monate alt ist. Praktisch eine Ewigkeit wenn fleissige Haende in der Zwischenzeit an der Engine werkeln

Seit Anfang April haben wir sehr viel Zeit mit Optimierungen verbracht und die Engine ist mittlerweile weitaus weniger CPU limitiert und laeuft sehr viel runder auf exotischen Grafikkarten. Wenn ich an 918 denke schuettelts mich Und kurz vor Release werde ich wohl das gleich ueber die Version sagen die im Augenblick aktuell ist.

Womit der ganze Sinn der UPT-Übung in Frage gestellt werden kann. Ein interner Benchmarks für IHVs hätte für eure Zwecke wohl gereicht, verteilt man sowas an die Medien stiftet man nur Verwirrung.

nur verhaeltnismaessig, da UT 2003 keine 200,000 Polygone/ Frame "pusht".

Damit werden die UPT-Ergebnisse unverhältmässig zugunsten von Karten mit HW-Geometrieverarbeitung verzerrt. Wozu?

Thowe
2002-06-06, 20:12:59
Originally posted by nggalai
Bitte, Mädels, beruhigt euch doch wieder.

Ist sowas wirklich nötig?

ta,
.rb

*unterschreibt*


Vielleicht sollte sich jeder ein "meine Meinung" in die Signatur schreiben, die auf ein Link verweisst wo diese aufgelistet ist. Würde eine Menge Tipparbeit sparen, die gewonnene Zeit liese sich wunderbar für etwas nutzen, dessen Nährwert höher ist und somit auch sinnvoller.

Thowe
2002-06-06, 20:15:31
BTW: wie sehen denn meine Chancen aus, das das besagte Unreal auf meinem Höllenrechner läuft? :D ;)

*scnr*

vogel
2002-06-06, 20:37:00
Originally posted by ram

Damit werden die UPT-Ergebnisse unverhältmässig zugunsten von Karten mit HW-Geometrieverarbeitung verzerrt. Wozu?
Weil Spiele die Ende des Jahres und naechstes Jahr erscheinen weitaus mehr Polygone "pushen" werden als Unreal Tournament 2003.

-- Daniel, Epic Games Inc.

ram
2002-06-06, 20:46:45
Originally posted by vogel
Weil Spiele die Ende des Jahres und naechstes Jahr erscheinen weitaus mehr Polygone "pushen" werden als Unreal Tournament 2003.

Schon möglich, nur du sagst ja selbst dass sich die Effizienz der Engine ständig verbessert. Ich geh dann davon aus, dass ein Spiel, das erst 2003 kommen wird, auch nicht den Build vom Juni 2002 nutzen wird.

Und auch falls das so wäre, 2003 werden die CPUs rund doppelt so viel FPU Leistung bieten, entsprechend bliebe die Verzerrung, bis der Benchmark mit den CPUs getestet wird, die 2003 beim Erscheinen des Spiels verfügbar sind.

mapel110
2002-06-06, 21:11:42
moment mal

das game kommt am 2.8.02 !!!

non T&L-karten wird es 2003 nicht mehr geben. die kyro2 bzw die voodoo5 5500 sind die schnellsten nonT&L-karten. danach kommt ja wohl nix mehr (kyro2se ;) okay eine noch ). und diese karten haben noch andere flaschenhälse, die das daddlen von games anno 2003 unmöglich machen wird !!!

Piffan
2002-06-06, 21:27:59
Originally posted by ram



Damit werden die UPT-Ergebnisse unverhältmässig zugunsten von Karten mit HW-Geometrieverarbeitung verzerrt. Wozu?


Wozu wohl :stareup: , vielleicht um die Qualität von NVs Karten zu herauszustellen? :D

Aber eines ist auch klar: So wie die Anforderungen von UT im Laufe der Lebensdauer des Spieles gestiegen sind, man beachte mal einige gigantische Maps, die im Netz kursieren, so werden sicher auch die späteren Maps immer anspruchsvoller....Und da ist es doch schön, wenn man von vornherein die passende Graka besitzt....

MadManniMan
2002-06-06, 21:33:09
*mal ganz pauschal ram unterschreib*

ihr entwickelt nen perfomance test mit der ausdrücklichen kennzeichnung "unreal". nun ist durchaus davon auszugehen, daß ihr damit evtl UT2003 meinen könntet.

dann bastelt ihr den aber so, daß er einen indikator für zukünftigen krams darstellen soll *ganz dezent zu 3dmurks hinünerschiel*

is euch denn schon mal in den sinn gekommen, daß sich jetzt evtl einige leutz wegen eurem hirnrissigen pt von ihrer non-tnl hardware trennen werden, weils ja UT2003 sein muß?

@ram:
kannst du nicht mal ein gescheites wörtchen bei den kollegen von der PCGH(auch abonnent, aber evtl auch nicht mehr lang) einlegen, so nen scheiß(pardon) ins heft zu nehmen?

btw:
schon mal bernd holtmanns ausführungen zum parhelia in der PCG gelesen?

@vogel:
frag mich nicht, warum, aber irgendwie scheint ihr da gewisse hersteller pushen zu wollen.... warum wohl?

jedi
2002-06-06, 21:38:02
Originally posted by mapel110
non T&L-karten wird es 2003 nicht mehr geben

Eben. Es jammert ja auch keiner, dass Doom3 nicht mehr mit 16-bit-Karten läuft. ;)

jedi
2002-06-06, 21:42:15
Originally posted by vogel

Weil Spiele die Ende des Jahres und naechstes Jahr erscheinen weitaus mehr Polygone "pushen" werden als Unreal Tournament 2003.

-- Daniel, Epic Games Inc.

Richtig so. Und genau deshalb finde ich Euren UPT auch gut. Es ist doch lächerlich, neue Karten immer nur wieder sinnlos mit dem 3 Jahre alten Quake3 bei 150 fps zu benchen. Erstens braucht keiner solche Frameraten und zweitens kauft sich keiner eine neue High-End-Karte für die Spiele von gestern. Sondern für die Spiele von morgen.

MadManniMan
2002-06-06, 21:46:24
Originally posted by jedi

kauft sich keiner eine neue High-End-Karte für die Spiele von gestern. Sondern für die Spiele von morgen.

GOOT SEI DANK gibt es solche leute... die ermöglichen uns kleinen doch erst, auch vernünftige preise für die leistung blechen zu müssen.

gell, aths? :D

MadManniMan
2002-06-06, 21:51:39
Originally posted by vogel

Weil Spiele die Ende des Jahres und naechstes Jahr erscheinen weitaus mehr Polygone "pushen" werden als Unreal Tournament 2003.

-- Daniel, Epic Games Inc.

ach nee. und wenns regnet, dann wirds nass.

toll. und um das zu zeigen, werft ihr nen dusseligen bench unter die zugehypte szene.

weil sich ja auch keine sau ausrechnen kann, daß detailliertere spiele(was nicht heißen hübschere als UT2003! ...obwohl :D ) mehr ressourcen fressen.

sehr aufdringlich ... äh, weise von euch.



darauf trink ich einen .... :bier:

jedi
2002-06-06, 22:00:06
Originally posted by MadManniMan

GOOT SEI DANK gibt es solche leute... die ermöglichen uns kleinen doch erst, auch vernünftige preise für die leistung blechen zu müssen.


Ich weiss ja nicht, was andere machen, aber ich kaufe mir meine GeForce4 erst kurz bevor UT2003 raus kommt. ;)

Trotzdem ist es natürlich interessant zu erfahren, wie die Spiele vom nächten Jahr damit laufen werden. Denn dann habe ich die GF4 garantiert immer noch.

vogel
2002-06-06, 23:04:31
Originally posted by MadManniMan

is euch denn schon mal in den sinn gekommen, daß sich jetzt evtl einige leutz wegen eurem hirnrissigen pt von ihrer non-tnl hardware trennen werden, weils ja UT2003 sein muß?

Und was ist daran jetzt schlecht? Du wirst mir doch jetzt nicht weismachen wollen, dass unser Spiel auf 'ner Kyro II besser laeuft als auf 'ner Radeon 8500 oder GeForce 4 Ti :)

-- Daniel, Epic Games Inc.

MadManniMan
2002-06-06, 23:27:56
Originally posted by vogel

Und was ist daran jetzt schlecht? Du wirst mir doch jetzt nicht weismachen wollen, dass unser Spiel auf 'ner Kyro II besser laeuft als auf 'ner Radeon 8500 oder GeForce 4 Ti :)

-- Daniel, Epic Games Inc.

hehe, das nun wirklich nicht. aber es wird in jedem fall funktionieren.

davon kann im upt ja nun wirklich nicht die rede sein.

vogel
2002-06-06, 23:35:55
Originally posted by MadManniMan


hehe, das nun wirklich nicht. aber es wird in jedem fall funktionieren.

davon kann im upt ja nun wirklich nicht die rede sein.
UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele. Der Level ist kein synthetischer Benchmarklevel und fuer diesen tut es software TnL nunmal nicht.

Mittlerweile wurde an allen Ecken und Enden optimiert aber ich wage zu Zweifeln, dass eine software TnL Karte mit dem naechsten UPT gut abschneidet. 200,000 Polygone sind halt nun mal 200,000 Polygone - der Grossteil der Zeit wird bei software TnL Karten in DrawIndexedPrimitive mit "software vertex processing" verbracht, also ist es etwas auf das wir keinen direkten Einfluss haben.

Wenn Du Dir heute eine Grafikkarte kaufst solltest Du darauf achten, dass Du auch in der Zukunft Spiele fluessig spielen kannst. Und UPT 918 zeigt, dass software TnL Karten keine gute Wahl fuer die Zukunft sind.

-- Daniel, Epic Games Inc.

Piffan
2002-06-07, 00:06:16
Ich verstehe das nicht: Erst heißt es aus einer gewissen Ecke, dass Hardware- TnL nix tauge, weil es bisher noch kein einziges Game gebe, welches fühlbar davon profitiert. Es gibt hier auf diesen Seiten einen schönen Artikel " Hardware- TL, das nicht eingelöste Versprechen". Nun kommt bald mal ein Spiel, dass vielleicht mal Ernst macht mit "Schön und schnell dank TNL", da wird von den selben Leuten wieder rumgemault... ???

Also ich habe es dicke, dass ich schon meine dritte TNL- Karte habe (Geforce Mx, Geforce Ultra und nun G3Ti200 (220/500)), aber immer noch keine richtig detailreichen Games da sind, die zwingend von einer Hardware- TL Gebrauch machen müssen.... Sicher, Max Payne und die letzten Q3- Kracher (MoHAA, RTCW, Jk2) profitieren wohl auch schon von Hardware-TL, aber der Durchbruch ist das immer noch nicht..

Aber selbst wenn die Versprechen wieder nur halb eingelöst werden, habe ich immer noch das brauchbare FSAA und AF der Geforce, da macht ihr keiner was vor - bis jetzt ;)

MadManniMan
2002-06-07, 00:18:46
UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele. Der Level ist kein synthetischer Benchmarklevel und fuer diesen tut es software TnL nunmal nicht.

stimmt ja. alle mir bekannten für das nächste jahr angekündigten apps nutzen ja die UW engine! wär mir fast entfallen!

dass eine software TnL Karte mit dem naechsten UPT (nicht) gut abschneidet.

stimmt ja schon wieder. hätte fast vergessen, daß es nicht auf die spiele, sondern auf die schon vorher ... äh ... weise vorrausgesehen über... nein... hochdetailliert klingenden synthetischen benches ankommt! ach halt... ist ja nicht synthetisch, denn ein bald erscheinendes spiel verwendet die engine ja. beim von mir hochgeschätzten 3dmurks war ja auch gleich max payne als beweis der aussagekraft hinterhergejagt.

Wenn Du Dir heute eine Grafikkarte kaufst solltest Du darauf achten, dass Du auch in der Zukunft Spiele fluessig spielen kannst. Und UPT 918 zeigt, dass software TnL Karten keine gute Wahl fuer die Zukunft sind.

auweia! ich brauch ja jetzt wirklich sofort ne neue karte....

hätte beinahe vergessen, daß ja alles auf eurer engine basiert

-- Daniel, Epic Games Inc.

:jump2:

HOT
2002-06-07, 00:41:51
Originally posted by vogel

UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele. Der Level ist kein synthetischer Benchmarklevel und fuer diesen tut es software TnL nunmal nicht.

Mittlerweile wurde an allen Ecken und Enden optimiert aber ich wage zu Zweifeln, dass eine software TnL Karte mit dem naechsten UPT gut abschneidet. 200,000 Polygone sind halt nun mal 200,000 Polygone - der Grossteil der Zeit wird bei software TnL Karten in DrawIndexedPrimitive mit "software vertex processing" verbracht, also ist es etwas auf das wir keinen direkten Einfluss haben.

Wenn Du Dir heute eine Grafikkarte kaufst solltest Du darauf achten, dass Du auch in der Zukunft Spiele fluessig spielen kannst. Und UPT 918 zeigt, dass software TnL Karten keine gute Wahl fuer die Zukunft sind.

-- Daniel, Epic Games Inc.

Darum geht es nicht.
Wenn ihr unbedingt ne Benchmark bauen müsst, dann nehmt einen Level, der der Engine in dem relevanten Stadium für die Engine geeignet ist und realitätsnahe Were bringt. Der UTP Test ist genauso nichtssagend wie die Aquamark oder Villagemark :D

vogel
2002-06-07, 01:21:28
Originally posted by HOT

Wenn ihr unbedingt ne Benchmark bauen müsst, dann nehmt einen Level, der der Engine in dem relevanten Stadium für die Engine geeignet ist und realitätsnahe Were bringt. Der UTP Test ist genauso nichtssagend wie die Aquamark oder Villagemark :D
Der Level war/ist fuer die Engine geeignet und realitaetsnah. Schau Dir doch die Werte die eine GF4 Ti 4600 liefert an. Fluessig :)

Einerseits meckern, dass Quake 3 kein guter Benchmark ist, aber wenn einer mal die Grafikkarte fordert wird gleich gepienst, dass die Uraltschinken so schlecht abschneiden.

-- Daniel, Epic Games Inc.

zeckensack
2002-06-07, 01:33:09
Ich glaube, was die Leute wirklich haben wollen, ist ein Benchmark mit ähnlicher Last wie UT2003. Weder wesentlich mehr, noch wesentlich weniger ;)

Die meisten können einfach nicht bis zur Demo warten. Ich auch nicht :D

Kai
2002-06-07, 01:53:37
Originally posted by vogel

Der Level war/ist fuer die Engine geeignet und realitaetsnah. Schau Dir doch die Werte die eine GF4 Ti 4600 liefert an. Fluessig :)

Das nennst Du flüssig? Ich habe mich schon immer mal gefragt nach welchen Masstäben ihr Leute eigentlich Spiele designet?

Ab wievielen FPS gilt beispielsweise eine bestimmte Map denn bei euch als "Spieltauglich" und wird ins finale Projekt integriert? 40 average? Das würde mir als Spieler aber sehr sehr weh tun, ehrlich.

Ich habe so langsam wirklich das Gefühl das die Spieledesigner im allgemeinen gesehen sich mit "Playstation-Flüssigkeitsniveau" abgeben. Schonmal GTA3 auf der PS2 gespielt? *Schauder* ... Genau so entstehen dann diese urkomischen Minimalanforderungen ;)

vogel
2002-06-07, 02:44:28
Ich glaube die meisten Missverstaendnisse basieren darauf, dass UPT 918 immer auf hoechster Detailstufe laeuft, waehrend natuerlich ein Spiel wie UT2003 die Detailstufe der Grafikkarte anpasst. Vielleicht sollte man das ein wenig besser hervorheben :)

-- Daniel, Epic Games Inc.

Dr.Doom
2002-06-07, 02:59:16
Originally posted by vogel
Ich glaube die meisten Missverstaendnisse basieren darauf, dass UPT 918 immer auf hoechster Detailstufe laeuft, waehrend natuerlich ein Spiel wie UT2003 die Detailstufe der Grafikkarte anpasst. Vielleicht sollte man das ein wenig besser hervorheben :)

Das wird natürlich die Geforce4 Besitzer freuen, dass sie schon Details runterschalten müssen, um einen wirklich flüssigen Spielablauf geboten zu bekommen (30 bis 40 FPS average sind nicht wirklich flüssig...) ;) .

nocturne
2002-06-07, 03:12:49
Originally posted by vogel
Einerseits meckern, dass Quake 3 kein guter Benchmark ist, aber wenn einer mal die Grafikkarte fordert wird gleich gepienst, dass die Uraltschinken so schlecht abschneiden.

-- Daniel, Epic Games Inc.

Treffend beobachtet. Aber das ist hier immer so. Hier wird immer grundsätzlich von Leuten über Benchmarks hergezogen, deren Karte nicht so gut bei diesen Benchmarks abschneidet. Das hat natürlich viel mit Neid zu tun. Lass Dich also nicht von Kleingeistern provozieren, die Dir sowieso nicht das Wasser reichen können, und sich hier auch manchmal im Ton vergreifen. Macht weiter so gute Arbeit, gute Engines und gute Spiele!

Weiter so! :)

nggalai
2002-06-07, 08:35:28
Hmm, ich sehe ehrlich gesagt kein Problem mitm Unreal Performance Test, sofern man das Ding auch so verwendet, wie's gedacht ist--als weiteren Benchmark. Nochmal, ein Benchmark prüft genau eine Sache: wie gut ein System mit dem Benchmark klar kommt. Für direkte Rückschlüsse auf Spiele-Performance sind sie nicht geeignet. Das sollte sich auch langsam rumgesprochen haben, wenn ich die Postings hier anschaue (besonders Mannis). MaxFX (3DMark) -> Max Payne spricht da eigentlich Bände.

Um die Systemperformance spezifisch für UT2003 zu prüfen, wird's die UT2003-Demo geben. Und laut Daniel hat das Spiel auch eine Benchmark-Funktion. Also was soll die Aufregung mit "nicht praxisnah?" Wenn Du heute wissen willst, wie sich dein System in Extremsituationen schlägt, dann ist der UPT geeignet für. Wenn Du heute wissen willst, wie dein System UT2003 spielen wird: dann musst Du halt warten, oder annehmen, dass--wenn ein System den Extremtest UPT schafft, es wohl auch bei UT2003 nicht schlapp machen wird. Der Umkehrschluss zählt einfach nicht: nur weil eine Karte im UPT schlecht abschneided muss noch lange nicht heissen, dass die Karte auch für UT2003 Mist sein wird. Nur, dass die schnelleren UPT-Karten wohl auch in UT2003 besser laufen werden, wenn auch nicht so dramatisch.

Ich schliesse mich jedoch meinen Vorrednern an: um abzuschätzen, wie das System in Zukunft klarkommt, ist der Benchmark wohl weniger geeignet. Generell denke ich aber, dass es eh nicht sinnvoll ist, solche Abschätzungen anzustreben. In einem halben Jahr passiert viel im Computer Business. Egal wie supigeil dein Benchmark ist, in 6 Monaten wird er veraltet sein, und nicht mehr praxisrelevant, da eine neue Version der Engine draussen ist und Leute billiger schnellere Hardware kriegen.

Aber eben, ich sehe dies als generelles Problem von Benchmarks, an und für sich: Ergebnisse werden häufig falsch gelesen und fast immer falsch interpretiert--leider besonders von Testzeitschriften, sei's aufm Netz oder im Print. Das kann aber nicht der Fehler des Benchmark-Autoren sein, sondern des Benutzers.

ta,
-Sascha.rb

Edit: Erster Absatz geändert, Tippfehle.rb

vogel
2002-06-07, 09:14:33
Originally posted by zeckensack
Ich glaube, was die Leute wirklich haben wollen, ist ein Benchmark mit ähnlicher Last wie UT2003. Weder wesentlich mehr, noch wesentlich weniger ;)

Dafuer ist die Demo da. Die gibts sobald wir glauben, dass wir mit dem Spiel fertig sind - danach kommt die Ernuechterungsphase fuer uns in Form von Feedback und dann wird weitergetweakt bis alles rund laeuft ;)

-- Daniel, Epic Games Inc.

ram
2002-06-07, 10:08:23
Originally posted by vogel
Einerseits meckern, dass Quake 3 kein guter Benchmark ist, aber wenn einer mal die Grafikkarte fordert wird gleich gepienst, dass die Uraltschinken so schlecht abschneiden.

Darum geht es nicht. Der Kritikpunkt am UPT ist der, dass gewisse Hardware-Features künstlich höher gewichtet werden als dies in der Realität der Fall sein wird. Ganz nebenbei lässt man damit "alte Schinken" übermässig alt aussehen.

Aquamark leidet am gleichen Problem, einfach noch extremer fokussiert auf die Bevorteilung von Vertex Shader-Hardware.

Exxtreme
2002-06-07, 11:13:48
Leider funktionieren auf 3dconcept viele Links zu den Artikeln und ins Forum nicht. Diese nimmt man doch gerne als Referenz.

Gruß
Alex

vogel
2002-06-07, 11:20:07
Originally posted by ram

Darum geht es nicht. Der Kritikpunkt am UPT ist der, dass gewisse Hardware-Features künstlich höher gewichtet werden als dies in der Realität der Fall sein wird.
UPT ist kein synthetischer Benchmarklevel, da wird nix kuenstlich hoeher gewichtet. Wie schon erwaehnt, UPT ist nicht vollkommen representativ fuer UT2003 denn dafuer erscheint letzteres zu frueh.

UPT benutzt etwa den Grad an Detail den man fuer Spiele die naechstes Jahr erscheinen werden (und unsere Engine benutzen) erwarten kann. Non- TnL Karten bleiben bei dieser Detailstufe aussen vor.

Und bevor wir uns jetzt im Kreis drehen. Ich will Fakten, Fakten, Fakten die belegen, dass UPT gewisse Hardware- Features kuenstlich hoeher gewichtet ;)

-- Daniel, Epic Games Inc.

MadManniMan
2002-06-07, 12:10:59
hm, nggalai, ich hab mich im grunde nur über folgende aussage aufgeregt.... UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele.

könnte man zum einen als selbstüberschätzung, zum anderen aber auch als marketinggelaber(was ich persönlich überhaupt nicht gern sehe) interpretieren.

beides schmeckt mir ganz und gar nicht, da in folgenden diskussionen wohl desöfteren autoritätsargumente angewandt werden werden.

und für üblich sind solche arg objektiv... was man von einem epic-menschen eigentlich erwarten sollte...

Iceman346
2002-06-07, 12:12:03
Originally posted by vogel

Und bevor wir uns jetzt im Kreis drehen. Ich will Fakten, Fakten, Fakten die belegen, dass UPT gewisse Hardware- Features kuenstlich hoeher gewichtet ;)

-- Daniel, Epic Games Inc.

Dann gib mal den UTP öffentlich zum Download frei, vorher ist da nicht viel zu testen ;)

MadManniMan
2002-06-07, 12:15:14
Für direkte Rückschlüsse auf Spiele-Performance sind sie nicht geeignet. Das sollte sich auch langsam rumgesprochen haben, wenn ich die Postings hier anschaue (besonders Mannis).

hm, ich weiß jetzt nicht direkt, wie ich den satz auslegen soll ???

wieauchimmer, es geht mir mehr oder minder um die PCGH-only-kiddies, die einfach nicht einschätzen können, daß der UPT relativ synthetischer natur ist und sich anhand dieser benches von der relevanz eines k2(oder äquivalentes)rausschmisses überzeugen lassen...

nggalai
2002-06-07, 12:27:35
Hi Manni,

was ich damit meinte, war, dass dein Posting auf Seite 6 ganz oben in seiner sarkastischen Art eben genau das aussagt--zwischen solchen Benchmarks und echten Spielen besteht kaum ein Zusammenhang, und es kann nicht mit grosser Sicherheit auf die effektive Spielperformance geschlossen werden.wieauchimmer, es geht mir mehr oder minder um die PCGH-only-kiddies, die einfach nicht einschätzen können, daß der UPT relativ synthetischer natur ist und sich anhand dieser benches von der relevanz eines k2(oder äquivalentes)rausschmisses überzeugen lassen...Ja, natürlich--aber wie schon gesagt: das ist Problem der Reviewer und Enduser, i.e. Reviewer müssen klar machen, was der Benchmark wirklich ist, und niemand sollte Benchmarks in Artikeln oder Postings mit Titeln wie z.B. "Die BESTE Grafikkarte für UNREAL 2003 !!!" als UT2003-relevant anpreisen. ;)

Dass das nur wenige machen ist leider Fakt. Aber das kannst Du nicht dem Benchmark selbst ankreiden. Weshalb wohl wurde der UPT nicht umgehend freigegeben, sondern nur an IHV und Reviewer weitergereicht? Ist es Epics Schuld, dass manche Reviewer da zu wenig klar ihre Leserschaft über die Sachlage informieren?

ta,
-Sascha.rb

Labberlippe
2002-06-07, 12:33:20
Originally posted by nggalai
Hi Alfred,

wie liest Du das da raus? Das ist der Unreal Performance Test, nicht UT2003, der da gebencht wurde. Und 30-45fps @ 1024x768 bei einem extremen Stress-Test klingt eigenlich nicht nach Dia-Show für mich . . .

ta,
-Sascha.rb

Ne aber laut div. Memberaussagen hier bruacht man ja mittlerweile über 100 fps damit es flüssig ist, gerade im Onlinegaming.

Gruss Labberlippe

Exxtreme
2002-06-07, 12:39:00
@ Laberlippe
So sieht's aus.
Wären die 40 fps ein minimaler Wert gewesen, dann wäre alles eigentlich in Butter. Aber 40 fps Durchschnitt bei einem Multiplayer-Game ist viel zuwenig. Da müssen es IMHO mindestens 60 fps sein.

Gruß
Alex

nocturne
2002-06-07, 12:48:44
Originally posted by vogel
UPT benutzt etwa den Grad an Detail den man fuer Spiele die naechstes Jahr erscheinen werden (und unsere Engine benutzen) erwarten kann.

"Und das ist auch gut so".

Dass dann manche Leute jammern, weil es ihnen die Grenzen ihrer Hardware für nächstes Jahr aufzeigt, ist eigentlich nicht erstaunlich.

Labberlippe
2002-06-07, 12:53:19
Hmm wenn ich mich Recht errinnere sollt die Kyro2 ja in der Lage sein 180.000 Polygone bei 60fps bringen.
Sind zwar 20.000 zuwenig aber.... :D

Im Ernst ich glaube schon das es auch auf diesen Karten läuft nur muss man sich halt im klaren sein das man die Detailsstufen und Auflösung nicht bis zum Anschlag schalten kann.
im grossen und ganzen wird die Kyro aber meiner Meinung nach locker über eine MX 400 lieen.
Ein bischen höherer Overdraw Faktor wird bei UT2003 sicher vorhanden sien und genau da wird sich die Kyro2 wieder absetzten.
Inwieweit diese es dann mit einer GeForce2Ti aufnehmen wird kann ich noch nicht beurteilen.
Realistischs gesehen glaube ich es allerdings nicht.

Also zwischen MX400 und GeForce 4 MX 440.

Gruss Labberlippe

ram
2002-06-07, 12:55:04
@Daniel
Originally posted by vogel
UPT ist kein synthetischer Benchmarklevel, da wird nix kuenstlich hoeher gewichtet. Wie schon erwaehnt, UPT ist nicht vollkommen representativ fuer UT2003 denn dafuer erscheint letzteres zu frueh. UPT benutzt etwa den Grad an Detail den man fuer Spiele die naechstes Jahr erscheinen werden (und unsere Engine benutzen) erwarten kann. Non- TnL Karten bleiben bei dieser Detailstufe aussen vor. Und bevor wir uns jetzt im Kreis drehen. Ich will Fakten, Fakten, Fakten die belegen, dass UPT gewisse Hardware- Features kuenstlich hoeher gewichtet ;)

Wird dieses zukünftige Spiel von dem der Level stammt nun den aktuellen Build verwenden oder einen zukünftigen?



@Extreme: Werd mich bei Gelegenheit mal drum kümmern.
@MadManniMan: Nein, hab ihn nicht gelesen. Wieso?

MadManniMan
2002-06-07, 12:57:17
Originally posted by nggalai
Hi Manni,

was ich damit meinte, war, dass dein Posting auf Seite 6 ganz oben in seiner sarkastischen Art eben genau das aussagt

oh, sorry, ich habs nur überflogen und bin im allgemeinen momentan relativ leicht unsicher zu machen...

bin zur zeit leider noch sehr depressiv veranlagt(stichwort "arnold zweig")


btw: anti-depri-musi-tipp meinerseits ist system of a down mit "atwa"

Kai
2002-06-07, 13:06:51
@ Nocturne: Ist doch klar das einige meckern ;) Bei der Undurchsichtigkeit was die FPS gerade bei Benchmarks angeht, ist das IMO auch kein Wunder.

Dennoch, ich finde es gut das das Genre endlich mal frischen Wind abbekommt. Diese aufgemotzten Q3A-Engines rülpsen mich mittlerweile auch nur noch an. Hätte nie gedacht das ich das mal sagen werde.

@ Vogel: Bin mal auf euer Ergebnis gespannt. Oha, dabei fällt mir doch glatt eine Frage ein - und ich kann mich definitiv nicht beherrschen sie zurückzuhalten :D

Wie ist denn das mit dem Leveleditor? Wird eine Map in Echtzeit verändert, ähnlich wie in Serious Sam? Oder müssen wir tatsächlich wieder tagelang kompilieren? Ich frage ja nicht nach Details, aber auf dem Video mit Mark Rein sah es so aus. Zuerst habe ich ja gedacht, das für den Mapeditor eine Art eigene Mini-Engine geschrieben wurde, aber das hört sich irgendwie zu aufwändig an ...

ow
2002-06-07, 13:09:11
Originally posted by Labberlippe
Hmm wenn ich mich Recht errinnere sollt die Kyro2 ja in der Lage sein 180.000 Polygone bei 60fps bringen.
Sind zwar 20.000 zuwenig aber.... :D

Gruss Labberlippe


Die Zahl kannst du vergessen.
Ist genauso wertvoll wie die zig Mio Triangles die NV/ATi angeben.

60fps * 180KTri/frame = 10,8Mio Polygone/s

Wenn ich von meiner K1 mal hochrechne, dann sind mehr als etwa 7-8 Mio Dreiecke in 'reinen' Polygontests (3DMarks, GL_extreme, GL_clock,...) fuer den K2 nicht drin. Und wenn der Rasterizer dazu noch arbeiten muss werdens nicht mehr sondern weniger.

Labberlippe
2002-06-07, 13:11:54
Originally posted by ow



Die Zahl kannst du vergessen.
Ist genauso wertvoll wie die zig Mio Triangles die NV/ATi angeben.

60fps * 180KTri/frame = 10,8Mio Polygone/s

Wenn ich von meiner K1 mal hochrechne, dann sind mehr als etwa 7-8 Mio Dreiecke in 'reinen' Polygontests (3DMarks, GL_extreme, GL_clock,...) fuer den K2 nicht drin. Und wenn der Rasterizer dazu noch arbeiten muss werdens nicht mehr sondern weniger.

Man lese.

:D
und dann

Im Ernst...

Gruss Labberlippe

ow
2002-06-07, 13:24:58
Wassn los LL?

Labberlippe
2002-06-07, 13:32:20
Originally posted by ow
Wassn los LL?

Das mir klar ist das die Zahlen nicht 1005übernmmen werden können, mich wurmt das die Ironie nicht erkannt wurde.

Gruss Labberlippe

nocturne
2002-06-07, 14:44:56
Originally posted by Kai
@ Nocturne: Ist doch klar das einige meckern ;) Bei der Undurchsichtigkeit was die FPS gerade bei Benchmarks angeht, ist das IMO auch kein Wunder.

Dennoch, ich finde es gut das das Genre endlich mal frischen Wind abbekommt. Diese aufgemotzten Q3A-Engines rülpsen mich mittlerweile auch nur noch an. Hätte nie gedacht das ich das mal sagen werde.


Schon klar, dass einige neuen Spiele-Benchmarks manche Leute verunsichern. Manche protzen eben lieber mit den sinnlos hohen fps drei Jahre alter Spiele als sich von kommenden Spielen die Grenzen ihrer Hardware aufzeigen zu lassen. Mit so was kann ich aber leben.

Aber es gibt eben auch viele andere, die sich schon dafür interessieren, wie weit sie mit bestimmter Hardware bei den Unreal-Engine-Spielen im nächsten Jahr noch kommen. Und deshalb finde ich den Unreal Performance Test hochinteressant und in dieser Hinsicht auch sehr nützlich. Zum Protzen eignet sich so was dann natürlich nicht mehr, aber das ist ja auch nicht der Sinn der Sache. ;)

RAL
2002-06-07, 15:01:28
Nach dem benchmark kräht in ca. einem Monat, wenn die Demo da sein wird, kein Hahn mehr. Der benchmark kam, wie Mr. Vogel anmerkte, vor der Fertigstellung der render engine heraus. Die engine war zu dem Zeitpunkt noch recht stark cpu-limitiert und hatte wahrscheinlich auch noch den ein oder anderen bug, der sich negativ auf die Performance auswirkte. Ich bin mir nun nicht _ganz_ sicher, aber wieso sollte ein benchmark mit einer so unfertigen render engine nun etwas über die Spielbarkeit der Spiele des nächsten Jahres aussagen?
Wenn die engine soweit fertig ist, kann man diesen bench ja nochmal aktualisieren und dann auch etwas mehr Aussagekraft erwarten.

Legolas
2002-06-07, 15:02:19
Originally posted by Kai

Wie ist denn das mit dem Leveleditor? Wird eine Map in Echtzeit verändert, ähnlich wie in Serious Sam? Oder müssen wir tatsächlich wieder tagelang kompilieren? Ich frage ja nicht nach Details, aber auf dem Video mit Mark Rein sah es so aus. Zuerst habe ich ja gedacht, das für den Mapeditor eine Art eigene Mini-Engine geschrieben wurde, aber das hört sich irgendwie zu aufwändig an ...

Das war doch schon bei der originalen Unreal Engine so, daß man Veränderungen im Leveleditor sofort angezeigt bekommt. Das stundenlange kompillieren gibts doch nur bei Quake-Engines =).

aths
2002-06-07, 15:27:10
Originally posted by MadManniMan
hm, nggalai, ich hab mich im grunde nur über folgende aussage aufgeregt.... UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele.

könnte man zum einen als selbstüberschätzung, zum anderen aber auch als marketinggelaber(was ich persönlich überhaupt nicht gern sehe) interpretieren.

beides schmeckt mir ganz und gar nicht, da in folgenden diskussionen wohl desöfteren autoritätsargumente angewandt werden werden.

[...]


MMM, ich denke schon, dass Entwickler die Zukunft genauer abschätzen können als wir.

Daniels Beteuerungen, 2003 ginge es nicht mehr ohne T&L, bezieht sich ja nur auf die Unreal-Engine. Es ist natürlich möglich, eine Engine derart auf HW T&L auszurichten, dass man es im Prinzip zwingend braucht. Nachteilhaft für die, die kein HW T&L haben. Vorteilhaft für die, die HW T&L haben und endlich mal Grafik sehen wollen die HW T&L auch wirklich braucht.

MadManniMan
2002-06-07, 15:30:31
hm, glaub mir, bis dahin hab auch ich hw TnL(MEINER 2.generation allerdings erst mit DOOM3 :D )...

jedi
2002-06-07, 16:53:02
Originally posted by aths
MMM, ich denke schon, dass Entwickler die Zukunft genauer abschätzen können als wir.

Daniels Beteuerungen, 2003 ginge es nicht mehr ohne T&L, bezieht sich ja nur auf die Unreal-Engine. Es ist natürlich möglich, eine Engine derart auf HW T&L auszurichten, dass man es im Prinzip zwingend braucht. Nachteilhaft für die, die kein HW T&L haben. Vorteilhaft für die, die HW T&L haben und endlich mal Grafik sehen wollen die HW T&L auch wirklich braucht.

Ja. Und wir wollen doch bei unserem gemeinsamen Hobby alle, dass die Spiele immer besser aussehen. Und dazu gehören eben auch immer mehr Polygone.

Aber es wird immer Leute geben, die jammern werden. Zuerst haben sie gejammert, dass es keine T&L-Spiele gibt. Jetzt jammern sie, weil es T&L-Spiele gibt. Dabei sollten wir uns doch alle freuen, dass die Spiele immer polygonreicher und schöner werden. Danke, Epic! :)

Richthofen
2002-06-07, 16:58:44
ja find ich auch prima.
Ich hab nun schließlich schon meine 3. T&L Karte im Rechner :)
Was die die kein T&L machen interessiert mich nicht.
Die schmeissen dann hoffentlich ihren alten Schrott raus und kaufen neu und sorgen bissl für Konjunkturbelebung ist doch auch mal ein netter Zug :)

zeckensack
2002-06-07, 17:05:21
Ich helfe gerne mit. :)

Erst heute habe ich meinen Polygondurchsatz mehr als verdreifacht :jump2:

ow
2002-06-07, 18:09:42
Hi zeckensack:)

Die R8k5 endlich da?
Lass mal hören.

zeckensack
2002-06-07, 18:34:26
Originally posted by ow
Hi zeckensack

Die R8k5 endlich da?
Lass mal hören.
Jaaaaa =)
Nachdem dieser Saftladen mich über drei Wochen (!!!) mit dummen Ausreden hingehalten hat, habe ich sie mir heute morgen (.... äh, nein. Mittag. Die Penner machen erst um 12 auf) dann doch noch abholen können.

Alles wie erwartet. 50% mehr Bandbreite, dreifache Pixelfüllrate, pervers schnell für meine Verhältnisse. Ich schätze mal, daß ich mich über's WE daran gewöhnen werde und sie mir dann wieder zu langsam vorkommt ?-)

Hab' jedenfalls schon zu spüren bekommen, daß zB trilineares Filtern nicht immer so wie auf der alten Radeon einfach nur funktioniert. Da passieren Dinge, sag ich dir ... ('SoF2-Patch' -> Schrott auf R200, spitze auf R100).

Die Kinnlade ist erstmal runtergeklappt beim Nature-Demo, hat sich aber recht schnell wieder erholt.

Morrowind ist nicht schneller geworden, dafür schöner (PS-Wasser, FSAA *eg*). *neuenprozessorbrauch*
Ansonsten noch nix richtig gespielt und auch noch keinen Benchmark zu Ende laufen lassen :o
Techdemos bisher auch nur wenige (muß mir mal die Island Demo reinziehen ...).

Ich nehme mir morgen mal etwas mehr Zeit =)

ow
2002-06-07, 18:49:00
Fein:)

vogel
2002-06-07, 23:23:09
Originally posted by Iceman346


Dann gib mal den UTP öffentlich zum Download frei, vorher ist da nicht viel zu testen ;)
Ebend, also kann auch keiner behaupten der nicht Zugang zum Benchmark hat, das dieser kuenstlich spezielle HW Features pusht. Genau meine Argumentation ;)

-- Daniel, Epic Games Inc.

vogel
2002-06-07, 23:25:09
Originally posted by ram
@Daniel


Wird dieses zukünftige Spiel von dem der Level stammt nun den aktuellen Build verwenden oder einen zukünftigen?

Spielt keine Rolle da der Grossteil der Zeit auf non TnL Karten in D3D's DrawIndexedPrimitive verbracht wird.

-- Daniel, Epic Games Inc.

vogel
2002-06-07, 23:30:55
Originally posted by Kai
[BWie ist denn das mit dem Leveleditor? Wird eine Map in Echtzeit verändert, ähnlich wie in Serious Sam? Oder müssen wir tatsächlich wieder tagelang kompilieren? Ich frage ja nicht nach Details, aber auf dem Video mit Mark Rein sah es so aus. Zuerst habe ich ja gedacht, das für den Mapeditor eine Art eigene Mini-Engine geschrieben wurde, aber das hört sich irgendwie zu aufwändig an ... [/B]
Lighting erfordert rebuilds. Man kann aber "rebuild changed lighting" benutzen. Ist relativ flott - aber ein kompletter rebuild kann schon an die 5-15 Minuten dauern bei groesseren Levels.

Editor == Engine ohne UnrealScript. WYSIWYG ;)

Der Editor benutzt die Grafikkarte um lighting rebuilds zu beschleunigen - also je schneller deine Grafikkarte ist, desto schneller geht ein level rebuild vonstatten :)

-- Daniel, Epic Games Inc.

vogel
2002-06-07, 23:34:43
Originally posted by aths


MMM, ich denke schon, dass Entwickler die Zukunft genauer abschätzen können als wir.

Daniels Beteuerungen, 2003 ginge es nicht mehr ohne T&L, bezieht sich ja nur auf die Unreal-Engine. Es ist natürlich möglich, eine Engine derart auf HW T&L auszurichten, dass man es im Prinzip zwingend braucht. Nachteilhaft für die, die kein HW T&L haben. Vorteilhaft für die, die HW T&L haben und endlich mal Grafik sehen wollen die HW T&L auch wirklich braucht.
Ich habe nie behauptet, dass ohne HW TnL UT2003 unspielbar waere :) UT2003 ist auf 'ner TNT2 spielbar wenn man die Detailstufe so weit wie moeglich herunterschraubt :)

-- Daniel, Epic Games Inc.

vogel
2002-06-07, 23:39:32
Originally posted by MadManniMan

UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele. Der Level ist kein synthetischer Benchmarklevel und fuer diesen tut es software TnL nunmal nicht.

stimmt ja. alle mir bekannten für das nächste jahr angekündigten apps nutzen ja die UW engine! wär mir fast entfallen!

Schoen waers ;)

s/fuer zukuenftige/fuer unsere zukuenftigen/

Ich hab gedacht, dass man herauslesen koennte wie ich es meinte, aber dem ist wohl nicht so :)

-- Daniel, Epic Games Inc.

nocturne
2002-06-07, 23:52:42
Originally posted by vogel

Ich habe nie behauptet, dass ohne HW TnL UT2003 unspielbar waere :) UT2003 ist auf 'ner TNT2 spielbar wenn man die Detailstufe so weit wie moeglich herunterschraubt :)

-- Daniel, Epic Games Inc.

... aber wer will schon die Details so weit herunterschrauben müssen, dass es wieder so eckig und detailarm aussieht wie das alte UT?

Wir wollen einen Grafikkracher, denn sonst könnten wir ja auch das alte UT weiterspielen. ;)

Kai
2002-06-08, 00:00:59
Originally posted by Legolas


Das war doch schon bei der originalen Unreal Engine so, daß man Veränderungen im Leveleditor sofort angezeigt bekommt. Das stundenlange kompillieren gibts doch nur bei Quake-Engines =).

Keine Ahnung, ich arbeite bis jetzt nicht mit der Unreal-Engine ;)

Kai
2002-06-08, 00:02:42
Originally posted by vogel

Lighting erfordert rebuilds. Man kann aber "rebuild changed lighting" benutzen. Ist relativ flott - aber ein kompletter rebuild kann schon an die 5-15 Minuten dauern bei groesseren Levels.

Editor == Engine ohne UnrealScript. WYSIWYG ;)

Der Editor benutzt die Grafikkarte um lighting rebuilds zu beschleunigen - also je schneller deine Grafikkarte ist, desto schneller geht ein level rebuild vonstatten :)

-- Daniel, Epic Games Inc.

Cool, thx! Ich schätze, ich werde mich sowieso dran versuchen. Freue mich schon wie'n Kleinkind. Bisher gab's noch keine Engine die es mir auf einfache Art und Weise ermöglichte unseren Garten nachzubilden, thehe. Diese Terrain-Storys der Quake-Engines sind einfach viel zu umständlich.

ram
2002-06-08, 00:07:11
Originally posted by vogel
Spielt keine Rolle da der Grossteil der Zeit auf non TnL Karten in D3D's DrawIndexedPrimitive verbracht wird.

Offenbar spielt es eben doch eine Rolle. Wie du sagst, hab ihr in nur zwei Monaten die CPU-Last der Engine stark gesenkt und mit anderen handelsüblichen Grafikkarten flotter gemacht. Ein ähnlicher Schritt erwartest du offenbar vom aktuellen Build bis zum Erscheinen von UT2003. Da ihr so gut im Optimiren seid, wird die Engine, welches dieses zukünftige Spiel von dem der UPT-Level stammt nutzen wird, wohl noch ein ganzes Stück effizienter sein. Damit impliziere ich im übrigen nicht, dass das Spiel auf einer Karte ohne HW-Geometrieverarbeitung flüssig laufen wird (darum geht es nämlich gar nicht). Eine effizienter werdende Engine, d.h. freiwerdende CPU-Zeit, kommt Karten ohne HW-Geometrieverarbeitung einfach mehr zu Gute als Karten mit HW-Geometrieverarbeitung. Entsprechend sind die Ergebnisse verzerrt, wenn man einen Level eines künftigen Spiels in eine bis dahin 6-12 Monate alte Engine pappt, die zum heutigen Zeitpunkt wegen Ineffizenz, fehlender Verbreitung von schnellen HW-T&L-Karten und tieferem CPU-Level nicht massenmarktfähig ist für Spiele mit 200K Polygone pro Frame.

-X-
2002-06-08, 00:51:49
echt interessanter thread;-)

Salvee
2002-06-08, 00:59:23
Originally posted by ram


... die zum heutigen Zeitpunkt wegen Ineffizenz, fehlender Verbreitung von schnellen HW-T&L-Karten und tieferem CPU-Level nicht massenmarktfähig ist für Spiele mit 200K Polygone pro Frame.

Klingt logisch. Ist vielleicht der Grund, warum der Benchmark nicht der Öffentlichkeit bereitgestellt wurde/wird.

vogel
2002-06-08, 01:00:35
Originally posted by ram

Offenbar spielt es eben doch eine Rolle. Wie du sagst, hab ihr in nur zwei Monaten die CPU-Last der Engine stark gesenkt und mit anderen
Die Zeit die in D3D's DrawIndexedPrimitive verbracht wird, wird eben nicht weniger - und wenn dies mit non TnL Karten 70-100ms sind koennen wir so viel optimieren wie wir wollen und dennoch wird es mit der Anzahl der Polygone dann nicht schneller gehen als 10-15 fps.

-- Daniel, Epic Games Inc.

Power
2002-06-08, 03:26:02
hi

meiner Meinung nach könnte die Matrox Karte bei UT2003 einen der Top Karten was Darstellungsqualität betrift werden, und von der performance wirds sicher auch Top.

ram
2002-06-08, 12:00:43

ram
2002-06-08, 12:27:55
Originally posted by vogel
Die Zeit die in D3D's DrawIndexedPrimitive verbracht wird, wird eben nicht weniger - und wenn dies mit non TnL Karten 70-100ms sind koennen wir so viel optimieren wie wir wollen und dennoch wird es mit der Anzahl der Polygone dann nicht schneller gehen als 10-15 fps.

Aha, d.h. alle anderen Berechnungen eurer Engine müssen darauf warten, bis diese Calls abgearbeitet sind, d.h. die während der Zeit macht das System sowieso nichts anderes. Also keine parallel laufenden Threads die man optimieren kann?

nocturne
2002-06-08, 12:40:42
Originally posted by Power
meiner Meinung nach könnte die Matrox Karte bei UT2003 einen der Top Karten was Darstellungsqualität betrift werden, und von der performance wirds sicher auch Top.

Von der Matrox sind doch noch nicht mal Taktfrequenzen geschweige denn Karten angekündigt. Und selbst dann wird es - wie immer bei Matrox - noch eine lange Weile dauern. Solange ist es eben Vaporware. Wenn UT2003 demnächst rauskommt, wird sicher die GeForce4 Ti die beste Karte für UT2003 sein, die man kaufen kann. Die GF4-Ti4600 als leistungsfähigste Karte und die GF4-Ti4200 als die Karte mit dem besten Preis/Leistungsverhältnis.
So wie eben in der Übersicht im ersten Posting dieses Threads.

Maximus
2002-06-08, 12:52:37
Ich denk mit ner 4200-4600 Karte kann man im moment nichts falsch machen. Meiner Meinung nach wird UT 2003 auf jeden Fall gut mit diesen Karten laufen. Und wenn der Unterschied von den 4200 zu den 4400 wirklich so gering ist wie bei den Benchmarks von PCGH zu sehen ist, dann Überlege ich mir schon 2mal ob ich zur 4400 greifen soll.

MadManniMan
2002-06-08, 13:26:17
-Doppelpost-

MadManniMan
2002-06-08, 13:26:36
@ram:

mir schien BHs artikel irgendwie wie ein schnellschuß. ich möchte, wie schon einst bei der sache mit borstis aa-verständnis(wer sich erinnert), seine arbeit nicht allgemein schlecht machen, nur konnte ich mir hier das breite grinsen nicht verkneifen...

"Ebenfalls viel Arbeit hat man in die Kantenglättung des Parhelia gesteckt. Statt wie Ati oder Nvidia jedes Vollbild weich zu zeichnen(also auch oftmals Menüs oder Schriften), nutzt der Parhelia seine Rechenpower dort, wo sie gebraucht wird. Bei der so genannten 16fachen Fragment Kantenglättung werden nämlich nur die Pixel neu berechnet, die am Rand verdeckt sind."

liest sich arg dämlich, vor allem bekommt man den eindruck, hier vermische sich technisches unverständnis mit der intention, auch laien den sachverhalt klar zu machen...

/edit: rechtsshrihveng

zeckensack
2002-06-08, 14:13:27
Originally posted by ram


Aha, d.h. alle anderen Berechnungen eurer Engine müssen darauf warten, bis diese Calls abgearbeitet sind, d.h. die während der Zeit macht das System sowieso nichts anderes. Also keine parallel laufenden Threads die man optimieren kann? Wohl kaum. Parallele Threads sparen auf einem 1-CPU-System keine Rechenleistung. Es sei denn die U-Engine wird speziell für MP-Systeme angepaßt. Da lehne ich mich jetzt einfach mal aus dem Fenster und sage "Das kannst du vergessen!". Außerdem, wer hat schon ein Dual-System? Lohnt sich doch nicht wirklich, sowas zu unterstützen ...

zeckensack
2002-06-08, 14:15:14
Originally posted by nocturne
Vaporware:rofl:
*sektglaszumhundertstenvaporwarereich*

aths
2002-06-08, 14:19:19
MMM,

ich gebe dir in einem Punkt uneingeschränkt (und ich wiederhole: uneingeschränkt) recht.

Wer Anti-Aliasing mit Unschärfe gleichsetzt, hat überhaupt nichts verstanden und sollte die Berechtigung verlieren, über sowas schreiben zu dürfen.


zeckensack,

Viele Threads auf einer Single CPU sparen nicht unbedingt Rechenzeit, können m.E. aber wohl die Latenzzeit senken. Wenn die CPU auf die Graka warten muss könnte durch effiziente Thread-Programmierung die Zeit sinnvoll genutzt werden. Effektiv steigt damit die zur Verfügung stehende Rechenzeit.

Fullover
2002-06-08, 14:20:40
Mich wprd mal interessieren, ob UT 2003 auf der 128 MByte oder auf der 64 MByte Version der GeForce 4 Ti/4200 besser läuft!

Xmas
2002-06-08, 14:27:24
Originally posted by aths
Viele Threads auf einer Single CPU sparen nicht unbedingt Rechenzeit, können m.E. aber wohl die Latenzzeit senken. Wenn die CPU auf die Graka warten muss könnte durch effiziente Thread-Programmierung die Zeit sinnvoll genutzt werden. Effektiv steigt damit die zur Verfügung stehende Rechenzeit.
Hilft aber nix wenn laut Profiler z.B. 50ms pro Frame in DrawIndexedPrimitive verbracht werden. Dann sind trotz aller Optimierungen nie 20 fps drin.

Da kann dann evtl. EnT&L zeigen was es bringt... ;)

zeckensack
2002-06-08, 14:32:35
Originally posted by aths
zeckensack,

Viele Threads auf einer Single CPU sparen nicht unbedingt Rechenzeit, können m.E. aber wohl die Latenzzeit senken. Wenn die CPU auf die Graka warten muss könnte durch effiziente Thread-Programmierung die Zeit sinnvoll genutzt werden. Effektiv steigt damit die zur Verfügung stehende Rechenzeit. Der Fall, daß die CPU auf die Graka warten muß, ist sehr sehr selten. CPU/GPU ist eigentlich das perfekte Beispiel für Parallelarbeit, es sei denn man dreht den Bus um, sprich, die CPU muß sich Ergebnisse/Daten von der GPU zurückholen (Lesezugriffe auf den Framebuffer, Occlusion Queries ...). Die Karte holt sich ihre 'Arbeitsanleitung' mittels DMA irgendwann ab und arbeitet dann selbständig.

Und um nochmal auf unseren Thread hier zurückzukommen:
Wenn Daniel sagt, daß eine Karte ohne TnL-HW 70-100ms pro Frame CPU-Zeit braucht, nur um die Geometrietransformation zu erledigen, dann sind weitere Optimierungen an der Engine tatsächlich für diese Klasse Grakas überflüssig. Während die CPU transformiert, ist sie logischerweise für andere Aufgaben nicht frei. Und da diese Arbeit in den D3D-DLLs passiert, läßt sich das auch nicht weiter beschleunigen.

Es ist eher davon auszugehen, daß die Engine auf Karten mit HW-TnL noch schneller werden kann.

Demirug
2002-06-08, 14:59:23
Originally posted by zeckensack
Der Fall, daß die CPU auf die Graka warten muß, ist sehr sehr selten. CPU/GPU ist eigentlich das perfekte Beispiel für Parallelarbeit, es sei denn man dreht den Bus um, sprich, die CPU muß sich Ergebnisse/Daten von der GPU zurückholen (Lesezugriffe auf den Framebuffer, Occlusion Queries ...). Die Karte holt sich ihre 'Arbeitsanleitung' mittels DMA irgendwann ab und arbeitet dann selbständig.


Ich habe da leider ein paar andere Erfahrungen gemacht. Das einzige was scheinbar in eine Pipe geschreiben wird sind die Draw..Primitive anweisungen für den gleichen Satz Renderstates. Wenn man nun die Renderstates ändert führt das Zwangsläufig zu einem blockieren der CPU bis die die Pipe leer ist. NVidia bezeichnet diesen Wechsel zwischen Renderstate Anweisungen und Draw Befehlen als transitions und ist das der Meinung das man diese auf unter 200 pro frame reduzieren sollte.

Trotzdem ist die verwendung von mehrern Threads nicht immer von großen Erfolg gekrönt da DX oder die Treiber (hab ich noch nicht genau untersucht) bei diesen Transitionslooks dummerweise die CPU nicht freigeben. Es wird einfach solange mit maximaler CPU-Last gewartet bis die transition abgeschlossen ist. Das ist eine Sache die ich nach wie vor unmöglich finde. Wenn das nicht so wäre würde man zum Beispiel an der CPU-Auslatung auch den Vorteil von HT&L erkennen können.

Bei Softwarerendering ist das natürlich ganz anders. Dort entstehen weniger Transitionslooks weil sich dort nicht soviel in der Drawpipeline ansammelet.

Power
2002-06-08, 15:07:00
Originally posted by nocturne


Von der Matrox sind doch noch nicht mal Taktfrequenzen geschweige denn Karten angekündigt. Und selbst dann wird es - wie immer bei Matrox - noch eine lange Weile dauern. Solange ist es eben Vaporware. Wenn UT2003 demnächst rauskommt, wird sicher die GeForce4 Ti die beste Karte für UT2003 sein, die man kaufen kann. Die GF4-Ti4600 als leistungsfähigste Karte und die GF4-Ti4200 als die Karte mit dem besten Preis/Leistungsverhältnis.
So wie eben in der Übersicht im ersten Posting dieses Threads.

das du ein absoluter matrox gegner bist ist unschwer zu erkennen nur ein Grafikchip als Vapoware zu bezeichnen der bei E3 als vorführchip mit ut2003 lief finde ich schon etws zu pesimistisch, und wenn du etwas mehr bei matroxs eigner HP vorbeischauen würdest wären dir die 220 MHz coretakt für die 128MB Version auch bekannt.
Und der Moderator (Haig - technik support manager) hat sogar in einem Post über die möglichkeit mit einem größeren als dem orginalkühler die Pareliha auch mit 250 MHz zu betreiben wäre.
Und voher wilst du den wissen das die Ti4600 die beste Karte für UT2003 ist? ist eine reine vermutung von dir weil die Karte momentann die schnellst erhältliche ist aber bis August gibt es rechtzeitig zu UT2003 auch Matrox Karten!

zeckensack
2002-06-08, 15:21:00
@Demirug:

Genau untersucht habe ich das nicht - schon garnicht auf NV-Karten unter D3D - aber es gibt auch 'billige' und 'teure' Renderstates. Nicht alles führt zwangsläufig zum Blockieren.

An blending, stencil und combinern/PS rumzuspielen ist erwartungsgemäß am schlimmsten, weil es 'ganz hinten' in der Pipe passiert.
Texturwechsel gehen - entgegen verbreiteter Weisheit - eigentlich noch recht flott (allerdings sollten Filter/Clamp-Modi identisch sein).
Rumfummeln am Z-Buffer ist auf den neueren ATi-Karten auch recht 'günstig zu haben'.

Interessant wird es ja eigentlich erst dann, wenn man den DMA-Puffer vollbekommt, ohne zwischendurch Render-States umzuschalten. Mit detaillierten Szenen schafft man das natürlich viel eher, als mit 2 Dreiecken *eg*
Kandidat für verlustfreies Polygonschleudern wäre zB eine Terrain-Engine.

Demirug
2002-06-08, 15:22:54
Gehen wir mal davon aus das UT2003 auf HT&L Karten fillrate limitiert ist was sehr wahrscheinlich ist da keine VS zum Einsatz kommen stellt sich die Frage welche Karte dort überlegen ist?

Auf dem Papier erst mal Matrox. Das hat zwei Gründe die gesamt füllrate ist höher und bei Matrox bricht die PS Leistung nicht so schnell ein wie bei einer GF.

Um aber das genauer durchleuchten zu können bräuchte man mindestens zwei Kenngrößen von Epic.

Durchschnittliche Anzahl der Texturen pro Renderpass.
Durchschnittliche Anzahl der Pixelshader ops.

Werden diese beiden Zahlen größer kan Matrox seine Vorteile besser ausspielen.

Diese Betrachtung ist natürlich theoretisch da man nicht sagen kann ob es in dem Chip nicht irgendwo noch einen flaschenhals gibt oder die verfügbaren DX Treiber den Chip nicht voll ausnutzen können.

Demirug
2002-06-08, 15:36:50
@zeckensack:

Beim testen hab ich festgestellt das die Renderstates fast alle gleich teuer erkauft werden. Allerdings sind wechsel die anscheined das übertragen von größeren Datenblöcken zur bzw. viele umKofigurationen (VS,PS) der Karte erforderlich machen teurer. Das mit den Texturen kommt noch aus der Zeit als die Karten zuwenig RAM hatten um alle Texturen zu halten da konnten Texturwechsel noch echt teuer werden. Was weiterhin wichtig ist das der wechsel eines einfachen Renderstates nicht viel billiger zu haben ist wie wenn man gleich 5 States ändert.

Mit Terrain-Engine läst sich viel machen. Es wird allerdings heute erwartet das man die unterschiedlichen Abschnitte schön überblendet und dann hat man wieder Statechanges am hals.

IMO wäre es am besten wenn auch alle Statechanges (Inklusive änderrungen an Texturen, VB, IB) mit in die Pipeline geschrieben würden. In diesem Fall hätte man nur noch dann Problem wenn man Daten zurücklessen will und das sollte man sowieso vermeiden.

Piffan
2002-06-08, 16:42:43
Das Zwiegespräch von Zeckensack und Demirug hört sich ja recht interessant an, auch wenn ich nix davon verstehe ;)

Aber was für mich dabei "abfällt": Das ganze Gesabbel über die beste Karte ist für die Katz, wenn Epic bei der Programmierung die Eigenheiten gewisser Karten knallhart ausnutzt; die Folge wäre ein herber Einbruch der Leistung bei anderen Chips, wenn diese gerade dort einen Flaschenhals aufweisen....

Beispiel: Wenn die Engine bei der Zahl der Texturschichten voll zur Sache geht, wird es für die bisherigen Geforces eng (nur zwei Schichten auf einen Schlag), während sich die Radeons in Scene setzen könnten.. Bei der Geometrie dagegen macht der Gf4 wohl kein anderer Chip was vor (von den aktuellen Chips)...

Oder Bildqualität: Wenn das AF und FSAA zuviel Speicherplatz abzwackt, dann müssen die Texturen rumgeschichtet werden, was selbst über 8xAGP wohl Zeit verbraucht......Also könnte das Verfahren der Bildqualität letztlich den Ausschlag geben, welcher Chip das Rennen macht..

Auf alle Fälle ist es klug, erstmal keine neue Karte zu kaufen... Erst das Spiel, dann die neue Karte.... Bisher macht mir UT immer noch Spaß, aufgrund des Spielprinzips ist die Grafik ja auch nicht sooo wichtig. Eher schon eine tolle Physik. Hoffentlich ist das neue Produkt da gleichwertig!

KiBa
2002-06-08, 17:20:54
Originally posted by Piffan
Beispiel: Wenn die Engine bei der Zahl der Texturschichten voll zur Sache geht, wird es für die bisherigen Geforces eng (nur zwei Schichten auf einen Schlag), während sich die Radeons in Scene setzen könnten.. Bei der Geometrie dagegen macht der Gf4 wohl kein anderer Chip was vor (von den aktuellen Chips)...


Ich will zwar hier nich NVidia hochjubeln, aber dein erstes Argument stegt auf wackeligen Beinen. Doom3 soll ja auf einer R8500 theoretisch schneller laufen, als eine GF4, da die GF4 2 passes braucht und die R8500 meist nur einen. Trotzdem ist die GF4 _immer_ schneller, das würde mir zu denken geben, wenn ich bei ATI arbeiten würde... ;)

Demirug
2002-06-08, 18:15:44
Originally posted by KiBa


Ich will zwar hier nich NVidia hochjubeln, aber dein erstes Argument stegt auf wackeligen Beinen. Doom3 soll ja auf einer R8500 theoretisch schneller laufen, als eine GF4, da die GF4 2 passes braucht und die R8500 meist nur einen. Trotzdem ist die GF4 _immer_ schneller, das würde mir zu denken geben, wenn ich bei ATI arbeiten würde... ;)

Ich kann mir schon denken warum die GF4 bei DOOM III schneller ist als die R8500:

Im Prinzip gibt es bei DOOM III diese Renderphase

1. Geometrie mit Ambient light Rendern
für jedes Licht
2. Schatten vorbereiten
3. mit diesem licht beleutete Polys rendern

Bei jeder Phase werden nun die 3 Bereiche der Graka belastet
(V)ertex
(F)ragment
(S)peicher

Machen wir uns dazu eine kleine Tabelle



GF4 zu R8500

V F S
1 1/2 1/1 1/1
2 1/2 1/1 1/1
3 1/1 1/1 1.3/1

Kleiner zahlen sind besser.



Erklärung:

1. Bei Rendern mit dem Ambient Light reichen 4 Texturen völlig aus also können beide Karten die Aktion in einem Pass ausführen. Da die GF4 aber zwei VS hat gewinnt sie hier im vergleich zur R8500

2. Das Schatten vorbereiten ist eine Aktion ohne Texturen also wird auch hier wieder bei beiden Karten ein Pass benötigt. Wieder ein Voteil für die GF4 aufgrund des zweiten VS. Dieser kann aber aufgrund der normalerweise eher großen Dreiecke nicht so gut zur Geltung kommen wie die Tabelle aussagt.

3. Das eingentliche Lightrendern mit 7 Texturzugriffen:
Die GF4 braucht zwei Passes da sie aber zwei VS hat haben wir im Vertexbereich ein unentschieden. Im Fragmentbereich kann sich die Radeon aber auch nicht absetzten da sie ebenfalls nur 2 TMUs pro pipeline und deshalb genausoviele takte braucht wie die GF4.

Spekulation ON
Die Radeon könnte hier sogar einen kleinen Nachteil haben falls die allgemeinen Schaderstuffen für die berechnung der Texturkoordinaten länger brauchen als die spezialisierten TMUs der GF4

Haben beide Karten den gleichen Texturcache ist die GF4 im Vorteil da bei 4 Texturen die Trefferwarscheinlichkeit höher ist ale bei 6 Texturen
Spekulation OFF

Beim Speicherinterface ist hier aber die Radeon im Vorteil da dort ein Z/Stencil Buffer Read, Framebuffer Read sowie ein Framebuffer Write entfällt.

In Summe ergibt sich daraus das die GF4 beim Vertexteil gewinnt und beim Speicherteil verliert. Beim Fragmentteil haben wir ein unentschieden mit einer spekulativen Tendenz für die GF4.

Die Radeon kann also nur dann gewinnen wenn DOOM III Speicherbandbreiten limitiert ist. Es ist aber aufgrund der Stencilschatte eher davon auszugehen das die limitierung im Fragment bereich liegt.

Durch den höheren Takt wird die GF4 damit zum Sieger.

Piffan
2002-06-08, 18:15:47
Originally posted by KiBa


Ich will zwar hier nich NVidia hochjubeln, aber dein erstes Argument stegt auf wackeligen Beinen. Doom3 soll ja auf einer R8500 theoretisch schneller laufen, als eine GF4, da die GF4 2 passes braucht und die R8500 meist nur einen. Trotzdem ist die GF4 _immer_ schneller, das würde mir zu denken geben, wenn ich bei ATI arbeiten würde... ;)

Ich würde denken, dass die zuwenig Augenmerk auf die Treiber legen; wie sonst sollte man es logisch erklären?

edit: eine technische Erklärung hat demirug ja nun genannt... Vielleicht doch nicht die Treiber ???

War heute im Mediamarkt und habe den Gamecube in Action gesehen: Die bisher beste Grafik, die ich je gesehen habe! Was also die Technologie betrifft, steht Ati inzwischen blendent da....Wenn das Programmiererteam besser wird, dann wird es wahrhaftig eng für den Platzhirschen NV! Das Imperium schlägt zurück :D

Wenn die Radeon durch die Bank schlechter performt, warum hat man Doom III dann nicht auf NV- Hardware laufen lassen?

Vielleicht gibts bald eine Spaltung der Grafikszene: Auf der einen Seite die Pixelmonster (Ati), die bei Doom III- Derivaten auftrumpfen, auf der anderen Seite die Geometriemonster (NV), die bei UT 2003- Derivaten Punkte sammeln... Ist aber letztlich abwegig, weil die beiden Engines ja nicht zur selben Zeit rauskommen....

Wenn man nicht noch zwei Chipgenerationen ins Land ziehen, ehe Doom III praxistauglich ist...Die schönen Bilder von der E3 haben ja nur Indoorscenen gezeigt, auch die Zahl der Akteure war ja wohl mickrig. Vom neuen UT hingegen liegen schon mehr Bilder vor, es gibt schon genug Videos von echten Ingame- Szenen mit Outdoormaps....

Welche Karte mit UT am besten kann, ist mir eh nicht soooo wichtig. Ich freue mich am meisten auf Gothic 2 :D

cyjoe
2002-06-08, 18:31:22
hmm... hab mich verschaut

ZilD
2002-06-08, 20:22:13
mal abwarten bis das game auf dem markt ist.

bis dahin hats irgendwie keinen sinn zu benchen . o O(irgendwie?)

vogel
2002-06-08, 21:52:40
Originally posted by ram
Aha, d.h. alle anderen Berechnungen eurer Engine müssen darauf warten, bis diese Calls abgearbeitet sind, d.h. die während der Zeit macht das System sowieso nichts anderes. Also keine parallel laufenden Threads die man optimieren kann?
D3D's DrawIndexedPrimitive "blockt" auf non TnL Karten und kehrt nicht zurueck bevor die Vertices transformiert sind. Bei HW TnL Karten wird alles einfach nur in den push buffer/ command buffer gesteckt und DrawIndexedPrimitive kehrt sofort zurueck. Das erhoeht die Paralellitaet zwischen GPU und CPU.

-- Daniel, Epic Games Inc.

vogel
2002-06-08, 22:00:02
Originally posted by Fullover
Mich wprd mal interessieren, ob UT 2003 auf der 128 MByte oder auf der 64 MByte Version der GeForce 4 Ti/4200 besser läuft!
Fuer die allerhoechste Detailstufe brauchst Du bei 1600x1200 sehr wahrscheinlich 'ne 256 MByte Karte um alle Texturen und Vertexbuffer auf die Karte zu bekommen. Realistisch laeuft es aber auf hoechster Texturedetailstufe auch auf 'ner 128 MByte Karte. Ein paar Texturen sind dann u.U. in ein paar Levels im AGP Speicher, aber das bremst die Performance nur unmerklich.

Im grossen und ganzen wirst Du keinen grossen Unterschied in der Texturequalitaet mit 'ner 64 MByte Karte und 'ner 128 MByte Karte sehen - dafuer ist das Spiel zu "schnellebig" (multiplayer FPS), aber UT2003 wird die Moeglichkeit bieten die 128 MByte einer Karte auch auszunuetzen :)

-- Daniel, Epic Games Inc.

vogel
2002-06-08, 22:15:41
Originally posted by Piffan
abzwackt, dann müssen die Texturen rumgeschichtet werden, was selbst über 8xAGP wohl Zeit verbraucht......Also könnte das Verfahren der Bildqualität letztlich den Ausschlag geben, welcher Chip das Rennen

Kein mir bekannter D3D Treiber schichtet die Texturen zwischen AGP und local (video) memory um. Alle fangen einfach an Texturen anstatt im video memory ins AGP memory zu legen. Wenn beides voll ist, dann wird im AGP memory rumgeschichtet. Alles in allem war ich relativ ueberrascht wie schnell "texturing from AGP" doch ist. Nur die meisten Anwender haben Ihre AGP Aperture Size auf 64 MByte was heisst, dass selbts mit 'ner 128 MByte Karte Du sinnvoll nur 192 MByte - mulitple Frame/Z- Buffer zur Verfuegung hast. Ist eigentlich ja egal, da Du einfach die Detailstufe eins runterschrauben kannst und Texturen mit Mipmaps (praktisch alle ausser Fonts und Zeugs) auf ein viertel der Groesse schrumpfen.

Ich Stimme Dir vollkommen zu - erst die Demo/ das Spiel abwarten, dann die Grafikkarte kaufen :)

-- Daniel, Epic Games Inc.

nocturne
2002-06-09, 00:39:24
Originally posted by vogel
Fuer die allerhoechste Detailstufe brauchst Du bei 1600x1200 sehr wahrscheinlich 'ne 256 MByte Karte um alle Texturen und Vertexbuffer auf die Karte zu bekommen. Realistisch laeuft es aber auf hoechster Texturedetailstufe auch auf 'ner 128 MByte Karte. Ein paar Texturen sind dann u.U. in ein paar Levels im AGP Speicher, aber das bremst die Performance nur unmerklich.

Im grossen und ganzen wirst Du keinen grossen Unterschied in der Texturequalitaet mit 'ner 64 MByte Karte und 'ner 128 MByte Karte sehen - dafuer ist das Spiel zu "schnellebig" (multiplayer FPS), aber UT2003 wird die Moeglichkeit bieten die 128 MByte einer Karte auch auszunuetzen :)

-- Daniel, Epic Games Inc.

Hey, dieser Thread ist echt Gold wert! :)

Danke Daniel, dass Du hier mitmachst, und dass wir hier so wertvolle Infos direkt aus erster Hand bekommen können! Wann hat man so was schon mal in einem deutschen Forum. :stareup:

Ich hatte mich schon lange gefragt, ob für UT2003 eine GF4Ti4200 mit schnellen 64 MB oder doch mit geringfügig langsameren 128 MB besser wäre, und tendiere nun doch zur 128MB-Version.

Kannst Du schon abschätzen, ob Deine Empfehlung für 128 MB auch für Unreal II im Herbst gelten wird? Unreal II wird sicher nicht ganz so "schnellebig" werden wie UT2003 und da würde ich doch schon gerne die Texturen in ihrer ganzen Pracht sehen können.

Fin
2002-06-09, 12:19:31
Bisserl OT vielleicht,
wie würde wohl UT laufen, wenn man es in die neue Engine steckt, im Vergleich zur 436er ?

Piffan
2002-06-09, 12:35:05
Originally posted by Fin
Bisserl OT vielleicht,
wie würde wohl UT laufen, wenn man es in die neue Engine steckt, im Vergleich zur 436er ?

Nette Frage, da kann man bestimmt auf Teufel komm raus spekulieren!

Vielleicht würde UT mehr Bots vertragen.......Falls die neue Engine Prozessorkapazität durch die Verwendung von Hardware-TL freisetzt...

MadManniMan
2002-06-09, 13:34:57
morgen nächtle! nichts für ungut, aber es macht doch einen heidenspaß, wenn man endlich mal ner "autoritätsperson" nach dem mund reden kann, nich? :D

Silent Hunter
2002-06-09, 13:35:15
UT 2003 unterstützt ja den Pixelshader 1.4 der Radeon Karten, wieso ist dann die Radeon langsamer obwohl sie nur einen durchgang rendern muss und alle anderen Karten GF3 GF4, zwei dazu brauchen? Ist doch etwas unlogisch...
Oder hängt es an den treibern?

eine GF4MX rendet in UT ja noch besser :(

ram
2002-06-09, 14:30:52
Originally posted by vogel
D3D's DrawIndexedPrimitive "blockt" auf non TnL Karten und kehrt nicht zurueck bevor die Vertices transformiert sind. Bei HW TnL Karten wird alles einfach nur in den push buffer/ command buffer gesteckt und DrawIndexedPrimitive kehrt sofort zurueck. Das erhoeht die Paralellitaet zwischen GPU und CPU.

Verstehe. Damit bleibt nur noch die Sache mit dem höheren CPU-Standard in einem Jahr ;)

nocturne
2002-06-09, 14:31:26
Originally posted by MadManniMan
morgen nächtle! nichts für ungut, aber es macht doch einen heidenspaß, wenn man endlich mal ner "autoritätsperson" nach dem mund reden kann, nich? :D
Hier gibt es keine Autoritätspersonen. Hier gibt es aber gottseidank Leute wie Daniel, die hier wertvolle neue Insider-Infos beitragen, was man von Dir hier nicht unbedingt behaupten kann. Auf der anderen Seite gibt es dann kleine ahnungslose Sch**sser [zensiert] wie Dich, die sich im Schutz des Netzes dabei "stark" fühlen, Spieleentwickler anonym dumm anzumachen. Dabei solltest Du froh sein, dass es solche Leute wie Daniel gibt, denn ohne die Spieleentwickler wäre Deine Grafikkarte nur ein Stück wertloser Silikonschrott, es gäbe auch dieses Forum nicht und wir müssten uns alle ein neues Hobby suchen.

Spieleentwickler sind keine Autoritätspersonen, aber sie verdienen unsere Anerkennung. Und wenn Du mal aus dem spätpubertären Flegelalter rausgewachsen bist, wirst auch Du das kapieren. ;)

Exxtreme
2002-06-09, 14:38:18
@ nocturne
Am besten du änderst schleunigst deinen Tonfall! Wenn du ein Problem mit MMM hast dann teilst du ihm es am besten per PM mit. Das Forum ist nicht dazu da um persönliche Streitereien auszutragen.

Gruß
Alex

MadManniMan
2002-06-09, 14:45:03
schade nocturne, ich dachte, wir hätten uns auf eine humoristische konversationsbasis geeinigt. damit ist das theme für mich gegessen, auf so etwas werde ich nicht antworten. ist mir zu blöde.

nur eines: ich mache vogel nicht dumm, ich sage nur meine meinung.

Exxtreme
2002-06-09, 14:51:45
@ MMM
Du hast PM.

Gruß
Alex

Thowe
2002-06-09, 14:52:09
Originally posted by nocturne
... Und wenn Du mal aus dem spätpubertären Flegelalter rausgewachsen bist, wirst auch Du das kapieren. ;)

Ahja und wann ist es bei dir/euch soweit? *scnr*

Ganz ab davon, das ich den MadManniMan als Person sehr schätze und sehr gut mit seiner echten Meinung leben kann.

MadManniMan
2002-06-09, 15:00:46
@exxtreme:

hast antwort

einzelfallkritik akzeptiert :bier:

nocturne
2002-06-09, 15:42:49
Originally posted by MadManniMan
schade nocturne, ich dachte, wir hätten uns auf eine humoristische konversationsbasis geeinigt.

Manni, ganz so todernst war mein Statement auch nicht gemeint (siehe Smiley), aber wahrscheinlich hatte ich es etwas zu hart formuliert, sorry. Nimm's nicht persönlich.
:wink:

Aber wer wie Du austeilt, muss auch mal mal was einstecken können. ;)

RAL
2002-06-09, 15:51:16
Ich fänds sehr schade wenn Vogel keine Lust mehr hätte, hier über die neue Unreal engine zu plaudern, weil er dumm von der Seite angemacht wird. Kritik ist okay, aber nicht in dem zynischen Tonfall wie bei dem einen posting von MMM.

nocturne
2002-06-09, 16:03:07
Yepp, darauf wollte ich eigentlich hinaus. ;)

Thowe
2002-06-09, 16:05:24
Originally posted by RAL
Ich fänds sehr schade wenn Vogel keine Lust mehr hätte, hier über die neue Unreal engine zu plaudern, weil er dumm von der Seite angemacht wird. Kritik ist okay, aber nicht in dem zynischen Tonfall wie bei dem einen posting von MMM.

Ich würde es auch sehr schade finden, jedoch denke ich, das vogel durchaus in der Lage ist den Kern der Aussage ohne den Tonfall zu sehen und den Rest zu überlesen.

MadManniMan
2002-06-09, 16:32:51
nun, ganz auf zynismus möchte ich nicht verzichten, aber ich muß schon zugeben, daß ich an dem abend etwas mies gelaunt war. man darf nur nicht vergessen, daß man mich nicht halb so ernst nehmen darf, wie es manche hier für sich beanspruchen(nein, nächtle, damit warst nicht du gemeint :zunge: würde es auch vorziehen, wenn wir weiter so diskutieren könnten, wie in anderen threads und uns nicht gegenseitig auf die ignoreliste schieben). sicherlich hätte ich meine kritik an vogels bzw. epics selbstüberschätzung anders formulieren können, aber - man möge mir verzeihen - auf diese weise konnte ich das in diesem moment am besten ausdrücken und ich stehe auch dazu.

Quasar
2002-06-09, 16:33:54
*Thowe zustimm*

Darüberhinaus schätze auch ich natürlich die Anwesenheit von Daniel hier im Forum, nicht nur, weil er eine First-Hand Source ist, sondern auch weil er ruhig und sachlich sich mit solchen "Angriffen" auseinandersetzt.

Jedoch sollte er imho, nur weil er bei Epic arbeitet, nicht immer mit Samthandschuhen angefaßt werden, so wie es aus den letzten paar Postings rausklang.

Er scheint alt und vernünftig genug, auch mal in einer etwas schärferen Diskussion nicht gleich überzureagieren und uns den RÜcken zu kehren.

In diesem Sinne, auf eine fröhliche Fortsetzung der Diskussion!

skampi
2002-06-09, 16:40:34
Originally posted by MadManniMan
... sicherlich hätte ich meine kritik an vogels bzw. epics selbstüberschätzung anders formulieren können, aber - man möge mir verzeihen - auf diese weise konnte ich das in diesem moment am besten ausdrücken und ich stehe auch dazu.

Recht so. Jemand wie DV von E-G. sollte wohl gefestigt genug sein, nicht zu schmollen;).

Piffan
2002-06-09, 18:28:15
Originally posted by skampi


Recht so. Jemand wie DV von E-G. sollte wohl gefestigt genug sein, nicht zu schmollen;).

Eben! Was kümmerts die Eiche, wenn sich eine Wildsau an ihr reibt :D

Hihi, jetzt wollte ich im Schutze des Netzes auch mal den Schweinehund rauslassen....;)

Manni hat schon recht, wenn er darauf hinweist, dass es neben epic noch andere "gute" gibt. Zum Glück, nur so haben die Jungs von Epic, id, Monolyth und vor allem Pyranha Bytes genug Feuer unter dem Hintern, um stets ihr bestes zu geben....:D Mal so am Rande: Findet ihr nicht auch, dass Valve viel zu "faul" ist? Man hat fast den Eindruck, dass die absolut nix Neues mehr bringen....

Wenn einige der Fexxe in den Spieleschmieden ein gesteigertes Selbstbewußtsein haben, dann wohl auch zu recht, die können ja auch schließlich mehr als nur große Töne zu spucken! (Krasses Negativbeispiel ist für mich John Romero) Was nur schade ist: Im Rummel um gewisse Kultspiele oder auch Personen gehen Firmen wie Appeal (die das geniale Outcast erschaffen haben) oder Pyranha- Bytes leicht unter.

In einem Punkt finde ich Mannis Moserei aber daneben: Wenn eine Firma ihren Weg geht und es richtig findet, speziell für eine Grafikkartentechnik zu optimieren, dann ist das ganz alleine ihre Sache. Dies hat nix mit Überheblichkeit zu tun, keine Softwarefirma ist verpflichtet, immer möglichst kompatibel zu programmieren! Wer die unpassende Hardware hat, kauft eben nicht diese Software und Punkt! Wo kämen wir denn da hin, wenn man sich stets am größten gemeinsamen Nenner orientieren wollte. Dann würden heute noch alle Spiele im Softwaremodus laufen....

Leonidas
2002-06-09, 21:48:23
Nachfolgend die (relevanten) kummulierten Postings von Daniel Vogel, Epic Games, zum Thema:





http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=273396#post273396
Unreal und Unreal Tournament liefen anfaenglich nur vernuenftig auf 3dfx Karten, da gebe ich Dir vollkommen recht - jedoch sollte Unreal Tournament 2003 auf einer Vielzahl von Grafikkarten vernuenftig laufen.





http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=273425#post273425
Das liegt daran, dass UPT 918 mittlerweile zwei Monate alt ist. Praktisch eine Ewigkeit wenn fleissige Haende in der Zwischenzeit an der Engine werkeln

Seit Anfang April haben wir sehr viel Zeit mit Optimierungen verbracht und die Engine ist mittlerweile weitaus weniger CPU limitiert und laeuft sehr viel runder auf exotischen Grafikkarten. Wenn ich an 918 denke schuettelts mich Und kurz vor Release werde ich wohl das gleich ueber die Version sagen die im Augenblick aktuell ist.

Wir haben auch sehr viel Zeit damit verbracht, sicherzustellen, dass Unreal Tournament 2003 so gut wie moeglich auf so vielen wie moeglich Grafikkarten laeuft. Das Demo wird zeigen ob wir erfolgreich waren oder nicht

Dazu haben wir sehr viel mehr Skalierbarkeit eingebaut die UPT 918 nicht zeigt. Wenn man das Spiel das erste mal startet werden die Default- Einstellungen der Karte entsprechend ausgewaehlt und mittlerweile kann ich ein Botmatch gegen ein paar Bots fluessig auf 'ner TNT2 Spielen. Jedoch ist meine Definition von fluessig sicherlich nicht deckungsgleich mit der von hardcore FPS Zockern

Ich bin zwar kein grosser Fan von Kyro Karten, aber der Fairniss halber sollte ich erwaehnen, dass eine Kyro II verhaeltnismaessig sehr viel besser abschneidet als in UPT 918. Also wenn Ihr 'ne Kyro II habt ist nicht gleich alle Hoffnung verloren... jedoch ist fuer den optimalen Spielspass 'ne Radeon 8500 oder 'ne GeForce 4 Ti zu empfehlen. Aber am besten wartet Ihr das Demo ab um zu sehen was denn nun die beste Grafikkarte fuer UT 2003 ist. Nach erscheinen der Demo wird sich wohl nicht mehr viel am "Renderer" aendern also sollte die Demo aussagekraeftig fuer das fertige Spiel sein.

Die UT2003 Demo wird (mindestens) einen Standard GPU Benchmark enthalten und obendrein die Faehigkeit eigene Benchmarks zu "kreiren" indem man Botmatches als Zuschauer anschaut. Im Benchmarkmodus sind diese deterministisch, also kann man Zahlen vergleichen. Als Zuschauer folgt die Kamera automatisch einem Bot also ist es, im Gegensatz zu "Timedemos", in etwa vergleichbar mit der CPU und GPU Auslastung des Spieles. Ich nehme an, dass kurz nach erscheinen HW Seiten ein wenig benchen werden und man sich dann ein besseres Bild davon machen kann, was denn nun die beste Grafikkarte fuer UT 2003 ist.

PS: Mittlerweile bin ich auch mit so unnuetzem Wissen wie, dass 'ne TNT2 kein z- bias mit D3D unterstuetzt, vollgepumpt




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=273431#post273431
UPT 918 war zum Zeitpunkt des Erscheinens aussagekraeftig fuer UT 2003. Aber nur verhaeltnismaessig, da UT 2003 keine 200,000 Polygone/ Frame "pusht". Aber nach zwei Monaten hat sich die Sache natuerlich ein wenig geandert da sehr viele Optimierungen in UT 2003 eingeflossen sind und die Engine weitaus besser "ausbalanciert" ist.

Ich sags mal so, wenn UPT 918 auf 'ner Karte gut lief gibts fuer UT 2003 nichts zu befuerchten. Wenn's schlecht lief, muss das noch nichts heissen




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=273444#post273444
Natuerlich haben wir fuer NVIDIA Karten optimiert - wir waeren ja auch verrueckt das Spiel nicht so gut wie moeglich auf NVIDIA Karten zum laufen zu bringen. Aber das heisst noch lange nicht, dass wir ATI vernachlaessigen wuerden! Im grossen und ganzen laeuft es ziemlich aufs gleiche raus ob man fuer NVIDIA oder ATI optimiert.

Wir sind sehr offen fuer Aenderungsvorschlaege egal von welchen IHVs (ziemlich viel if( IsKyro ) in unserer Codebase ) und kommunzieren mit den meisten beinahe taeglich. Ich wuerde sagen, dass wir ein sehr gutes Verhaeltnis zu den meisten IHVs haben und ich bin sehr dankbar fuer das andauernde Feedback und Verbesserungsvorschlaege.

ATI und NVIDIA (sowie andere IHVs) haben seit laengerem Zugriff auf sowohl vollstaendigen Sourcecode, wie auch Daten, also kann ich ruhigen Gewissens bei Treiberproblemen mit dem Finger auf den entsprechenden IHV zeigen




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=274255#post274255
(Frage war: Damit werden die UPT-Ergebnisse unverhältmässig zugunsten von Karten mit HW-Geometrieverarbeitung verzerrt. Wozu?)
Weil Spiele die Ende des Jahres und naechstes Jahr erscheinen weitaus mehr Polygone "pushen" werden als Unreal Tournament 2003.




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=274564#post274564
UPT 918 war zum Zeitpunkt des releases representativ fuer zukuenftige Spiele. Der Level ist kein synthetischer Benchmarklevel und fuer diesen tut es software TnL nunmal nicht.

Mittlerweile wurde an allen Ecken und Enden optimiert aber ich wage zu Zweifeln, dass eine software TnL Karte mit dem naechsten UPT gut abschneidet. 200,000 Polygone sind halt nun mal 200,000 Polygone - der Grossteil der Zeit wird bei software TnL Karten in DrawIndexedPrimitive mit "software vertex processing" verbracht, also ist es etwas auf das wir keinen direkten Einfluss haben.

Wenn Du Dir heute eine Grafikkarte kaufst solltest Du darauf achten, dass Du auch in der Zukunft Spiele fluessig spielen kannst. Und UPT 918 zeigt, dass software TnL Karten keine gute Wahl fuer die Zukunft sind.




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=274667#post274667
Der Level war/ist fuer die Engine geeignet und realitaetsnah. Schau Dir doch die Werte die eine GF4 Ti 4600 liefert an. Fluessig

Einerseits meckern, dass Quake 3 kein guter Benchmark ist, aber wenn einer mal die Grafikkarte fordert wird gleich gepienst, dass die Uraltschinken so schlecht abschneiden.




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=274707#post274707
Ich glaube die meisten Missverstaendnisse basieren darauf, dass UPT 918 immer auf hoechster Detailstufe laeuft, waehrend natuerlich ein Spiel wie UT2003 die Detailstufe der Grafikkarte anpasst. Vielleicht sollte man das ein wenig besser hervorheben




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=274896#post274896
UPT ist kein synthetischer Benchmarklevel, da wird nix kuenstlich hoeher gewichtet. Wie schon erwaehnt, UPT ist nicht vollkommen representativ fuer UT2003 denn dafuer erscheint letzteres zu frueh.

UPT benutzt etwa den Grad an Detail den man fuer Spiele die naechstes Jahr erscheinen werden (und unsere Engine benutzen) erwarten kann. Non- TnL Karten bleiben bei dieser Detailstufe aussen vor.




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=275909#post275909
Ich habe nie behauptet, dass ohne HW TnL UT2003 unspielbar waere UT2003 ist auf 'ner TNT2 spielbar wenn man die Detailstufe so weit wie moeglich herunterschraubt




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=277259#post277259
Fuer die allerhoechste Detailstufe brauchst Du bei 1600x1200 sehr wahrscheinlich 'ne 256 MByte Karte um alle Texturen und Vertexbuffer auf die Karte zu bekommen. Realistisch laeuft es aber auf hoechster Texturedetailstufe auch auf 'ner 128 MByte Karte. Ein paar Texturen sind dann u.U. in ein paar Levels im AGP Speicher, aber das bremst die Performance nur unmerklich.

Im grossen und ganzen wirst Du keinen grossen Unterschied in der Texturequalitaet mit 'ner 64 MByte Karte und 'ner 128 MByte Karte sehen - dafuer ist das Spiel zu "schnellebig" (multiplayer FPS), aber UT2003 wird die Moeglichkeit bieten die 128 MByte einer Karte auch auszunuetzen




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=277281#post277281
Kein mir bekannter D3D Treiber schichtet die Texturen zwischen AGP und local (video) memory um. Alle fangen einfach an Texturen anstatt im video memory ins AGP memory zu legen. Wenn beides voll ist, dann wird im AGP memory rumgeschichtet. Alles in allem war ich relativ ueberrascht wie schnell "texturing from AGP" doch ist. Nur die meisten Anwender haben Ihre AGP Aperture Size auf 64 MByte was heisst, dass selbts mit 'ner 128 MByte Karte Du sinnvoll nur 192 MByte - mulitple Frame/Z- Buffer zur Verfuegung hast. Ist eigentlich ja egal, da Du einfach die Detailstufe eins runterschrauben kannst und Texturen mit Mipmaps (praktisch alle ausser Fonts und Zeugs) auf ein viertel der Groesse schrumpfen.

Ich Stimme Dir vollkommen zu - erst die Demo/ das Spiel abwarten, dann die Grafikkarte kaufen




http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=278825#post278825
GF1-3, G4MX, Radeon 7500: 1 Layer pro pass
Kyro II/ GF4 Ti & Radeon 8500 : 3 Layer pro pass

Unser Terrain hat so an die 1-5 Layer pro Sektor mit im Schnitt glaube ich an die 2 Layer.

Theoretisch koennte eine Radeon 8500 bis zu fuenf Layer pro pass rendern aber das ist nicht schneller da das Terrain anderst trianguliert werden muss und man somit kleinere batches bekommt. Es hat sich herausgestellt, dass maximal 3 der "sweet spot" ist, 4 weitaus langsamer ist und 1-2 nur unmerklich langsamer sind.

Natuerlich bringt es bei software TnL was und deshalb haben wir auch Code der (mit Muehe und Not) 3 Layer pro pass auf 'ner Kyro II schafft. Letzterer wurde uebrigens von PowerVR geschrieben

Alles in allem ist terrain rendering ziemlich schnell und der limitierende Faktor ist weder "fillrate" noch "state changes" noch "triangle counts" alleine. Alles in allem balanciert sich alles irgendwie aus und deshalb ist es ziemlich egal ob wir eine oder drei Layer pro pass rendern. Schwer zu erklaeren.

vogel
2002-06-09, 22:08:11
Originally posted by Fin
Bisserl OT vielleicht,
wie würde wohl UT laufen, wenn man es in die neue Engine steckt, im Vergleich zur 436er ?
Sehr viel schneller. Andrew (Scheidecker) hat den Renderer komplett ausgetauscht und wir benutzen u.A. kein "span buffering" mehr um festzustellen was sichtbar ist ;) Ausserdem ist BSP rendering weitaus schneller geworden da lightmaps in 512x512 Texturen gepackt werden und somit BSP Geometry in grossen batches gerendert werden kann. Dazu kommt noch eine Vielzahl an anderen Optimierungen.

Wenn das Spiel draussen ist kannst Du ja einfach mit 436 einen Level als T3D exportieren und dann in UT 2003 importieren. Muss zwar neu texturiert werden und all der Kram aber die BSP Geometry uebertraegt sich also kannst Du es selber ausprobieren wie sich UT2003 im Vergleich zu UT 436 schlaegt ;)

-- Daniel, Epic Games Inc.

vogel
2002-06-09, 22:17:56
Originally posted by Silent Hunter
UT 2003 unterstützt ja den Pixelshader 1.4 der Radeon Karten, wieso ist dann die Radeon langsamer obwohl sie nur einen durchgang rendern muss und alle anderen Karten GF3 GF4, zwei dazu brauchen? Ist doch etwas unlogisch...
Oder hängt es an den treibern?

eine GF4MX rendet in UT ja noch besser :(
GF1-3, G4MX, Radeon 7500: 1 Layer pro pass
Kyro II/ GF4 Ti & Radeon 8500 : 3 Layer pro pass

Unser Terrain hat so an die 1-5 Layer pro Sektor mit im Schnitt glaube ich an die 2 Layer.

Theoretisch koennte eine Radeon 8500 bis zu fuenf Layer pro pass rendern aber das ist nicht schneller da das Terrain anderst trianguliert werden muss und man somit kleinere batches bekommt. Es hat sich herausgestellt, dass maximal 3 der "sweet spot" ist, 4 weitaus langsamer ist und 1-2 nur unmerklich langsamer sind.

Natuerlich bringt es bei software TnL was und deshalb haben wir auch Code der (mit Muehe und Not) 3 Layer pro pass auf 'ner Kyro II schafft. Letzterer wurde uebrigens von PowerVR geschrieben :)

Alles in allem ist terrain rendering ziemlich schnell und der limitierende Faktor ist weder "fillrate" noch "state changes" noch "triangle counts" alleine. Alles in allem balanciert sich alles irgendwie aus und deshalb ist es ziemlich egal ob wir eine oder drei Layer pro pass rendern. Schwer zu erklaeren.

-- Daniel, Epic Games Inc.

Fin
2002-06-09, 22:40:14
Danke für die Antwort.

Demo demo demo demo demo demo demo demo demo demo demo ;)

MadManniMan
2002-06-09, 22:45:47
DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 :jump2:

...sorry, ich konnte nicht anders...

liegt wohl daran, daß ich UT nicht mochte und ich so lange auf keinen anderen MP shooter mehr umsteigen werde, wie q3s spielgefühl übertroffen wird. wie siehts eigentlich aus? wurde das ut-feeling beibehalten, oder hat man was von der id-konkurrenz miteinfließen lassen? (<- ernstgemeinte frage, kein gebashe!)

da warte ich lieber auf richtig knackige sp fps. sowas wie unreal ep2.

wann kommt das eigentlich?

Piffan
2002-06-09, 22:59:35
Originally posted by MadManniMan
DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 DOOM3 :jump2:

...sorry, ich konnte nicht anders...

liegt wohl daran, daß ich UT nicht mochte und ich so lange auf keinen anderen MP shooter mehr umsteigen werde, wie q3s spielgefühl übertroffen wird. wie siehts eigentlich aus? wurde das ut-feeling beibehalten, oder hat man was von der id-konkurrenz miteinfließen lassen? (<- ernstgemeinte frage, kein gebashe!)

da warte ich lieber auf richtig knackige sp fps. sowas wie unreal ep2.

wann kommt das eigentlich?

Was hat das eigentlich mit dem Thema zu tun? Eigentlich gehts um die Technik. Aber wenn man schon dabei ist: Nicht gerade wenige Spieler schätzen das UT- Feeling. Warum sollte man was anderes einfließen lassen, wenn so viele zufrieden sind?! Allen wird man es nie recht machen, wenn man es versucht, macht man es am Ende niemandem recht....

Exxtreme
2002-06-09, 23:02:55
@ Piffan
Full Ack.
Das UT-Feeling find ich spitze. Und das möchte ich nicht missen.

Gruß
Alex

Lightning
2002-06-09, 23:05:06
Ich find UT auch auf jeden Fall besser als Q3, obwohl ich letzteres besser kann..

Exxtreme
2002-06-09, 23:11:02
@ vogel
Wird es auch OpenGL-Unterstützung in UT2003/U2 geben? Wäre sicherlich nicht schlecht.

Gruß
Alex

Quasar
2002-06-09, 23:17:44
Ich mag UT auch lieber, allerdings mag im sowieso nur den Morpheus-Level, weil der so schön gemächlich ist. Alles andere inkl. Q3 ist viel zu schnell für mich, da versag' ich jedesmal gnadenlos ;)

MadManniMan
2002-06-09, 23:30:59
Originally posted by Exxtreme

Wird es auch OpenGL-Unterstützung in UT2003/U2 geben? Wäre sicherlich nicht schlecht.



*unterschreib*

wie sieht es eigentlich mit linux aus? dafür wär doch mit oGL zumindest der grundtein gelegt?

Iceman346
2002-06-09, 23:37:29
Originally posted by [tec]Lightning
Ich find UT auch auf jeden Fall besser als Q3, obwohl ich letzteres besser kann..

Geht mir genauso

Außerdem habe ich gelesen, daß bei Doom 3 der Hauptaugenmerk auf dem Single Player liegen soll, also glaube ich nicht das Doom ne Gefahr für UT 2003 ist.

MadManniMan
2002-06-09, 23:43:14
UT 2003 ist weder durch DOOM3 gefährdet, noch umgekehrt

beide werden meilensteine. der eine titel durch konsequente weiterführung des e-sport konzepts gepaart mit ordentlicher technik, der andere durch den nächsten schritt in richtung realismus im fps bereich.

hierbei sei zu vernachlässigen, daß ich als leidenschaftlicher, aber relativ unbegabter quaker UT 2003 wohl genausowenig abgewinnen können werde, wie dem vorgänger... ;)

nocturne
2002-06-10, 00:11:53
Beide Engines (Unreal und Doom) werden auf jeden Fall wieder Basis für haufenweise anderer Spiele werden, sowohl im Multiplayer- als auch im Singleplayer-Bereich. Wobei die Stärke der Unreal-Engine sicher auch in Aussenarealen schön zum Tragen kommt. Ausserdem kommt die Doom-Engine ja auch erst viel später.

Piffan
2002-06-10, 00:29:30
Originally posted by MadManniMan
UT 2003 ist weder durch DOOM3 gefährdet, noch umgekehrt

beide werden meilensteine. der eine titel durch konsequente weiterführung des e-sport konzepts gepaart mit ordentlicher technik, der andere durch den nächsten schritt in richtung realismus im fps bereich.

hierbei sei zu vernachlässigen, daß ich als leidenschaftlicher, aber relativ unbegabter quaker UT 2003 wohl genausowenig abgewinnen können werde, wie dem vorgänger... ;)

"E-Sport" - Der Ausdruck ist gut :D

Von der Physik ganz abgesehen gefällt mir das Lichtmodell bei UT sehr gut, bei keinem anderen Spiel sind die dynamsichen Lichter so schön.... Im Moment spiele ich den Umod "Operation Na Pali"... Bin wieder hin und weg von der Atmosphäre und frage mich angesichts der Lichterpracht, warum bei den Q3- Spielen (zuletzt Jedi 2) die dynamischen Lichter so verdammt schwach ausfallen.. In Previews von RTCW war zu sehen, dass der Flammenwerfer die Umgebung wunderschön ausleuchtet, im fertigen Spiel dann wieder komplette Fehlanzeige :( Im alten Jedi Knight konnte ich dunkle Ecken mit dem Lichtschwert prima ausleuchten, bei Jk2 gar nicht!

Wenn bei UT 2003 ähnliches zu befürchten ist (habe da ein wirklich ungutes Gefühl), dann wäre ich nicht wenig enttäuscht! Auch wenn die Lightmaps keine "echte" Beleuchtung sind, isses mir egal, Hauptsache hübsch und der Atmosphäre dienlich! Die Option "volumetrische Schatten" aktiviert bei Jk2 ja echte Hardwarebeleuchtung, dumm nur, daß man heutzutage noch jedes Polygon zählen kann und der Schatten auf den Akteuren selbst dadurch nicht gerade weich gezeichnet wird (Eigenschatten unter Kinn oder Brust).... Darum: echtes Hardwarelighting ist heutzutage aufgrund der geringen Polygonzahl einfach zu hässlich, darum lieber gute Lightmaps!

Leonidas
2002-06-10, 01:22:09
Originally posted by Piffan
In Previews von RTCW war zu sehen, dass der Flammenwerfer die Umgebung wunderschön ausleuchtet, im fertigen Spiel dann wieder komplette Fehlanzeige :(



Reines Leistungsproblem. Dynamische Lichter schlagen bei id total auf die CPU und lassen bei massiver Nutzung das Spiel unspielbar werden. Deswegen wurde der Flammenwerfer in RtCW bewußt abgeschwächt, sogar nach der ersten Testversion noch einmal. Vorher brauchte man da nur mal kurz loszugokeln und schon gingen die fps in den 15er Bereich. Heute bleibt es bei RtCW über 30.

aths
2002-06-10, 12:13:36
Originally posted by Piffan Die Option "volumetrische Schatten" aktiviert bei Jk2 ja echte Hardwarebeleuchtung, dumm nur, daß man heutzutage noch jedes Polygon zählen kann und der Schatten auf den Akteuren selbst dadurch nicht gerade weich gezeichnet wird (Eigenschatten unter Kinn oder Brust).... Darum: echtes Hardwarelighting ist heutzutage aufgrund der geringen Polygonzahl einfach zu hässlich, darum lieber gute Lightmaps! Die volumetrischen Schatten haben nichts mit "echter Hardwarebeleuchtung" zu tun.

Birdman
2002-06-10, 13:09:17
Originally posted by Leonidas
Reines Leistungsproblem. Dynamische Lichter schlagen bei id total auf die CPU und lassen bei massiver Nutzung das Spiel unspielbar werden. Deswegen wurde der Flammenwerfer in RtCW bewußt abgeschwächt, sogar nach der ersten Testversion noch einmal. Vorher brauchte man da nur mal kurz loszugokeln und schon gingen die fps in den 15er Bereich. Heute bleibt es bei RtCW über 30.
Das selbe galt auf anno dazumals für quake3....
Wer mal eine der ersten öffentlichen q3test Versionen spielt, wird auch mit wunderschönem dynamic lighting beglückt welches auch auf items etc. wirkt, wovon in der Verkaufsversion aber so gut wie nix übriggeblieben ist.

jedi
2002-06-10, 18:49:45
Originally posted by Exxtreme
@ vogel
Wird es auch OpenGL-Unterstützung in UT2003/U2 geben? Wäre sicherlich nicht schlecht.


Sicher wäre es kein Nachteil, aber welchen Vorteil hätte es (ausser der besseren Portierbarkeit auf non-Windows-Systeme) in Relation zum Implemetierungsaufwand?

Anscheinend portiert Epic die Engine ja ausserdem auf die XBox. Das lässt hoffen, dass die CPU-Anforderungen nicht allzu groß werden sollten. ;)

jedi
2002-06-10, 18:50:27
(gelöscht)

nocturne
2002-06-10, 23:45:24
Originally posted by jedi
Anscheinend portiert Epic die Engine ja ausserdem auf die XBox. Das lässt hoffen, dass die CPU-Anforderungen nicht allzu groß werden sollten. ;)

Gibt es da eigentlich schon Aussagen bezüglich der CPU-Anforderungen von UT 2003 und Unreal II?

???

AvaTor
2002-06-10, 23:54:07
saug dir mal das demo und dan siehst du ob es bei dir läuft.

nocturne
2002-06-10, 23:57:59
Du meinst doch nicht das bei
http://wargasm.homepage.dk/UT2003-DEMO.html

Unregistered
2002-06-11, 00:18:09
Originally posted by aths
Die volumetrischen Schatten haben nichts mit "echter Hardwarebeleuchtung" zu tun.

Nee, ist mir schon klar. Aber die Schatten auf den Akteuren werden so verdammt komisch, so als ob pro Polygon nur ein Lichtwert gilt, poppt auch so komisch....Kann es sein, dass das Shading außer Kraft gesetzt wird, wenn man auf volumetrische Schatten umschaltet? Vorher ist die Belichtung der Akteure so weich, danach so "kantig"....

Piffan
2002-06-11, 00:20:36
Mist, beim Aufräumen die Cookies mal wieder verlegt...

Iceman346
2002-06-11, 10:20:34
Originally posted by nocturne
Du meinst doch nicht das bei
http://wargasm.homepage.dk/UT2003-DEMO.html

Nein nicht die ;)

Es ist mittlerweile eine Presse Demo geleakt. Soll im Esel recht gut zu finden sein.

nggalai
2002-06-11, 10:29:16
ja, hab's auch gesehen. Screenshots, aber ohne Link o.ä. gibt's z.B. hier: http://www.beyond3d.com/forum/viewtopic.php?t=1230

scheint aber noch gut zu laufen.

ich bin aber ehrlich gesagt enttäuscht, dass schonwieder sowas leakte. mangelnder Respekt ist mir zu wider.

ta,
-Sascha.rb

Exxtreme
2002-06-11, 11:15:56
Originally posted by nggalai
ich bin aber ehrlich gesagt enttäuscht, dass schonwieder sowas leakte. mangelnder Respekt ist mir zu wider.

ta,
-Sascha.rb
Jupp, sehe ich auch so. Auch wenn ich jetzt die Möglichkeit habe mir das Teil mit dem Esel zu saugen, warte ich lieber ab und kaufe es mir wenn das Game erscheint.

Gruß
Alex

mat
2002-06-11, 17:20:37
...

thanq
2002-06-11, 17:47:04
No Label

OS: Windows 98 4.10 (Build: 67766446)
CPU: AuthenticAMD PentiumPro-class processor @ 798 MHz with 191MB RAM
Video: No Video

GetDeviceCaps failed(D3DERR_NOTAVAILABLE) on adapter 0.

History: GetDeviceCaps <- UD3DRenderDevice::Init <- UGameEngine::Init <- InitEngine

weiss ned obs schon stand aber bitte um hilfe! hab neuste detonator drauf (29 42) und dx 8.1 und openAl.

hab ne geforce 1 32 ddr und nen athlon 800 mhz. mir is egal wieviel frames ich haben werden fakt ist: ich wills erstmal zum laufen bekommen. thx for help

Fr3aKa$oiD
2002-06-11, 18:02:23
Originally posted by thanq
No Label

OS: Windows 98 4.10 (Build: 67766446)
CPU: AuthenticAMD PentiumPro-class processor @ 798 MHz with 191MB RAM
Video: No Video

GetDeviceCaps failed(D3DERR_NOTAVAILABLE) on adapter 0.

History: GetDeviceCaps <- UD3DRenderDevice::Init <- UGameEngine::Init <- InitEngine

weiss ned obs schon stand aber bitte um hilfe! hab neuste detonator drauf (29 42) und dx 8.1 und openAl.

hab ne geforce 1 32 ddr und nen athlon 800 mhz. mir is egal wieviel frames ich haben werden fakt ist: ich wills erstmal zum laufen bekommen. thx for help

ich weiss nicht was man dazu sagen soll?? anscheinend hast du die thread überschrift nicht ganz verstanden ?? zu so einer aussage kann ich nur den kopfschüttel. was erwartest du ??? das dir der epic mitarbeiter bei deiner geleakten demo hilft?? die anderen es tun ?? naja du kannst nicht den kopf benutzt haben als du das gepostet hast........

aths
2002-06-11, 18:12:24
Originally posted by PiffanNee, ist mir schon klar. Aber die Schatten auf den Akteuren werden so verdammt komisch, so als ob pro Polygon nur ein Lichtwert gilt, poppt auch so komisch....Kann es sein, dass das Shading außer Kraft gesetzt wird, wenn man auf volumetrische Schatten umschaltet? Vorher ist die Belichtung der Akteure so weich, danach so "kantig".... Vorher wird einfach eine Textur genommen, die einen weichen Fleck enthält. Bei volumetrischen Schatten findet eine Projektion von der Lichtquelle und den Polygonen auf die Zielfläche statt. Um mit dieser Methode vernünftige weiche Schatten zu bekommen müsste man das mehrfach machen und dabei die Lichtquelle jeweils ein klein wenig versetzen. Das ist viel zu rechenaufwändig.

Damokles
2002-06-11, 19:14:19
GeForce 1 DDR ruled in UT2003 !!!

Ich habe mit dieser im Bench sage und schreibe 77 FPS !!!

Habe im 2. Rechner ne GF2 Mx, die ist so erbärmlich langsam.

Naja wie dem auch sei... meine Ti 4200 ist schon auf dem Weg zu mir ;)

zeckensack
2002-06-11, 19:30:04
Könnten die Warezkiddies bitte verschwinden :jedifire:

MadManniMan
2002-06-11, 19:32:19
nun, zeckensack, sooo wild ist es imho nicht, sich ne geleakte demo zu ziehen. hier wird schließlich nichts finanziell verschroben.

Com1
2002-06-11, 19:53:56
Demo???? das ist doch keine Demo... seit wann hat ne "Demo" über 400 MB?

geleakte beta ist das.

Silent Hunter
2002-06-11, 20:00:57
das ist keine Demo, sondern eine beta Version vom Spiel

MadManniMan
2002-06-11, 20:07:07
ooooooooooookey... kritik akzeptiert und berücksichtigt...

-> *böseaufdoofewarezkiddiesstier*

Haarberggeist
2002-06-11, 20:31:04
wer weiß :)

Thowe
2002-06-11, 20:42:40
Originally posted by MadManniMan
ooooooooooookey... kritik akzeptiert und berücksichtigt...

-> *böseaufdoofewarezkiddiesstier*

*mit Madmanniman stier*

BigBen
2002-06-11, 20:54:20
Finde ich wirklich gut, das Epic sich da noch zu überwunden hat (Druck von PowerVR und seiner Gemeinde? ;-) und somit der Kyro eine kleine Chance gegeben hat :). Bin wirklich gespannt, wie die Demo wohl auf meinem System laufen wird, aber ne neue Grafikkarte werde ich mir trotzdem Demnächst kaufen. Ich hoffe, das ich nicht auf nVidia zurückgreifen muss :b

mfG
BigBen

ps: ich liebe meinen Esel ;-)

MadManniMan
2002-06-11, 21:02:14
@vogel:

mit welche sanktionen habt ihr eigentlich onkel sweeney dazu getrieben, kyro-optimierungen in seiner engine zuzulassen? ;)

Leonidas
2002-06-11, 21:23:28
just my 2 cents:


Ich finde es nicht gut, wie einige hier leicht von oben herab Epic und Daniel Vogel anreden. Wenn wir schon mal die Gelegenheit haben, mit einem Entwickler zu reden und somit eventuell sogar Einfluß auf die weitere Entwicklung zu nehmen, dann sollte das ein wenig höflicher vonstatten gehen.

Ansonsten vertreiben wir Daniel hier wieder ganz schnell aus dem Forum, womit niemanden gedient wäre. Und wo gibt es schon mal einen deutschen Entwickler bei einem Spitzen-Entwicklerteam wie Epic oder id?

Thowe
2002-06-11, 21:26:35
Originally posted by Leonidas
just my 2 cents:


Ich finde es nicht gut, wie einige hier leicht von oben herab Epic und Daniel Vogel anreden. Wenn wir schon mal die Gelegenheit haben, mit einem Entwickler zu reden und somit eventuell sogar Einfluß auf die weitere Entwicklung zu nehmen, dann sollte das ein wenig höflicher vonstatten gehen.

Ansonsten vertreiben wir Daniel hier wieder ganz schnell aus dem Forum, womit niemanden gedient wäre. Und wo gibt es schon mal einen deutschen Entwickler bei einem Spitzen-Entwicklerteam wie Epic oder id?

*unterschreibt*

Etwas Freundlichkeit wäre wirklich vom Vorteil.

Exxtreme
2002-06-11, 21:34:39
*auchmitunterschreib*
Daniel hat uns anscheinend einen neuen Besucherrekord beschert. :)
Näheres im "3DCenter&3DCenterforum"-Forum.

Gruß
Alex

uatdark
2002-06-11, 22:17:52
also ich kann nur so viel zum thema ut 2003 sagen!
also eine g4 ist nicht notwendig wer von euch giga.de gesehen hat dort wurde vor kurzen ut 2003 vorgestellt live on stage und die haben einen p4 2.2 ghz und g4 ti 4600 gehabt (ach ja und 512 mbram) und die haben die ALPHA!!! Version mit satte 60 fps gespielt das war wahnsinn eine alpha version so gut!!!

und da hat sogar der entwickler gesagt das der rechner übertrieben sei eine g3 ti 500 und 1.6ghz und 256-512 mbram reichen um das spiel auf maximaler detailstufe und mit einer super auflösung zu spielen!

ich selber habe eine g3 ti 500 amd athlon 2100+ und 512 mbram und ich werd das spiel sicher super spielen!

ach ja übrigens das game wurde ganz kurz auch auf einen 800mhz gespielt mit geforce 2 und sogar da hat man 23fps geschafft bei 800*600 mittlere detailstufe und das bei einer alpha version also keine angst alles über 1ghz wird reichen!

Tori
2002-06-11, 23:18:59
Originally posted by Silent Hunter
das ist keine Demo, sondern eine beta Version vom Spiel

Kleiner Tip .. es ist die Demo .. 3 Levels sind Spielbar .. die meisten sachen muss man über die *.ini einstellen ..

Um die Grafik zu bestaunen ist die Demo ok .. aber ansonsten isse Schrott ..
Ich bin eigentlich auch gegen warez .. aber ne Demo is ok ;)

vogel
2002-06-11, 23:49:48
Originally posted by MadManniMan
nun, zeckensack, sooo wild ist es imho nicht, sich ne geleakte demo zu ziehen. hier wird schließlich nichts finanziell verschroben.
You never get a second chance to make a first impression.

Stell Dir vor Du hasst ein erstes Date, sie erscheint zu frueh, Dein Mitbewohner laesst sie frueher rein und das erste was sie sieht bist Du im Pyjama, unrasiert und zerzauste Haare.

Die Demo ist nicht grundlos noch nicht releast.

-- Daniel, Epic Games Inc.

vogel
2002-06-11, 23:54:37
Originally posted by Tori
Kleiner Tip .. es ist die Demo .. 3 Levels sind Spielbar .. die meisten sachen muss man über die *.ini einstellen ..

Kleiner Tip .. es ist nicht die Demo .. es ist ein uralt Build .. und keinesfalls mit der bevorstehenden Demo zu vergleichen :)

-- Daniel, Epic Games Inc.

vogel
2002-06-11, 23:56:52
Originally posted by vogel
Kleiner Tip .. es ist nicht die Demo .. es ist ein uralt Build .. und keinesfalls mit der bevorstehenden Demo zu vergleichen :)

Es ist aber auch nicht ein beta build der Spieles wie behauptet wurde. Es ist ein (sehr) alter build mit ein paar Levels.

-- Daniel, Epic Games Inc.

zeckensack
2002-06-11, 23:59:49
MMM und andere:

Mir gehen jedenfalls diese ganzen 'Esel'-Andeutungen, die man hier in jedem zweiten Thread lesen muß tierisch auf den Sack!!

Und was ich für inakzeptabel halte und was nicht, das entscheide immer noch ich selbst. Wollte nur meinen Standpunkt klären.

Seid lieber froh, daß Daniel trotz dieser Rumprollerei immer noch bereit ist, hier zu schreiben. Ich weiß nicht, ob ich an seiner Stelle noch Zeit in eine Forenbevölkerung investieren würde, die sich damit brüstet, mein Produkt schonmal kostenlos und unerlaubt 'probezufahren' ...

MadManniMan
2002-06-12, 00:15:18
hm, ich persönlich bin kein fan von eselkrams, allerdings denke ich, daß sich die leute schon bewußt sind, daß sie da unfertiges saugen. wer euch und euer produkt schlecht machen will, macht das anderweitig.

achja: wieviele texturelayer nutzt ihr nun eigentlich?