PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die BESTE Grafikkarte für UNREAL 2003 !!!


Seiten : 1 2 [3] 4 5

Piffan
2002-06-29, 13:19:08
Originally posted by zeckensack

Wenn's immer noch nicht hilft, frag doch mal die Polizei, deinen Freund und Helfer, ob sie nicht vorbeikommen und helfen :P

Echt? Ich wusste gar nicht, dass einem die Polizei auch bei solchen Probs helfen würde. ???

Garfield
2002-06-29, 13:29:19
@ zeckensack

na klar, und du hast dir ja auch alle orginale die du zu hause hast gleich gekauft ohne sie zu testen

MadManniMan
2002-06-29, 13:33:07
warum eigentlich nicht? hör mal, nur weil ich mir keinen bmw kaufen kann und ich das bescheuert finde, daß andere das können, klaue ich mir doch keinen...

junge, DU hast peilung von der welt...

achja: warum höre ich eigentlich immer "ich zieh mir das nur ums zu testen blabla"

aths
2002-06-29, 13:34:32
Originally posted by Stefan Payne
Jetzt auf NV zu optimieren ist einmal dämlich, weil dadurch die Radeon/Kyro/Xabre Besitzer übergangen werden und zum anderen kurzsichtig, weil es nicht gesagt ist, daß NV immer Marktführer bleibt... Stimmt. Allerdings muss man auch sehen, dass die Marktmacht seit Jahren so gewaltig ist, dass es sich Entwickler eben 'leisten können', vorrangig auf GeForce zu setzen.

Szenario: ATI gewinnt Marktführerschaft. Wer das zu spät merkt, wird dann auch vom Markt "bestraft". Für Entwickler ist ein Quasi-Monopol jedenfalls sehr bequem, die freuen sich doch über eine einheitliche Hardware-Basis. (Ausbaden darf es natürlich der Kunde...)

Dass ausgerechnet GeForce4 Ti in Unreal2003 "vorne" liegt, wird angesichts der (hauptsächlich) DX7-Engine wohl in erster Linie der guten Leistung dieser Karten geschuldet sein, und keiner fehlenden Optimierung auf andere Karten. Daniel V. erwähnte ja, dass sogar Kyro-Karten speziell berücksichtigt werden, was in meinen Augen ein feiner Zug ist.

MadManniMan
2002-06-29, 13:38:07
schade, daß es inzwischen selbstverständlich wird, daß die entwickler bei ihren optimierungen nv vorziehen. ob mir das mit meiner gf3 hilft ist mir da mehr oder minder egal, laufen tuts auch so. wenn schon optimierungen, dann bitte für alle!

nocturne
2002-06-29, 13:38:23
Originally posted by Piffan

Also für mich sind die Spiele selbst immer noch die Hauptsache, die Graka ist und bleibt Mittel zum Zweck! Sicher habe ich eine gewisse "Zuneigung" zu meiner Hardware, aber die resultiert einzig und allein aus der Unkompliziertheit/Kompatibilität, der guten Bildqualität durch AF und FSAA und nicht zuletzt tadellosen Performance bei allen meinen Games.
Ich müsste doch komplett plemplem sein, wenn ich eine Graka ihrer selbst willen kaufen würde, um dann danach bei der Auswahl der Spiele Einschränkungen hinnehmen zu müssen. Aus genau diesem Grunde habe ich mit einer Voodoo1/Voodoo2 begonnen (später noch per SLI für ein Appel und ein Ei aufgemotzt) und bin nun schon einige Jahre mit NV- Karten recht zufrieden. (derzeit G3Ti200)


Eben. Nur ein FanATIker wie Exxtreme kauft sich die Hardware als Selbstzweck und anschließend die Software für seine ATI.

Als Gamer macht man es eben genau anders rum:

Man kauft sich die optimale Hardware für seine Software - und nicht umgekehrt.

zeckensack
2002-06-29, 13:39:35
Originally posted by Garfield
@ zeckensack

na klar, und du hast dir ja auch alle orginale die du zu hause hast gleich gekauft ohne sie zu testen Jein. Für sowas gibt's Demos. Weste weiß, habe gewonnen :P

Garfield
2002-06-29, 13:40:57
dein vergleich zu den autos hinkt !!!
du fährst den bmw ja auch zur probe und nimmst ihn dann erst mit oder ?

StefanV
2002-06-29, 13:42:07
Originally posted by Garfield
@ zeckensack

na klar, und du hast dir ja auch alle orginale die du zu hause hast gleich gekauft ohne sie zu testen

Ich darf dir DIESEN (http://www.3dcenter.de/vbulletin/eigenes/regeln.php) Link mal nahelegen.

Zur Info:

UT2003->Warez, Warez->illegal, Illegal->in diesem Forum nicht erwünscht.

Exxtreme
2002-06-29, 13:42:48
Originally posted by nocturne
Eben. Nur ein FanATIker wie Exxtreme kauft sich die Hardware als Selbstzweck und anschließend die Software für seine ATI.

Nicht wirklich. NV-HW genügt meinen Ansprüchen nicht aber das hatten wir schon.
Originally posted by nocturne
Als Gamer macht man es eben genau anders rum:

Man kauft sich die optimale Hardware für seine Software - und nicht umgekehrt.
Genau. Nur ist's halt blöd wenn man mehr machen will als nur Gamen.

Gruß
Alex

Garfield
2002-06-29, 13:44:23
seit wann haben demos auch was mit dem orginal zu tun, wäre mir ja ganz was neues und 2. wer sagt das ich es nicht wieder lösche ? gute spiele kaufe ich mir immer !!! als orginal

MadManniMan
2002-06-29, 13:45:58
uh? cookies aktiv? naja, egal...

äm, könntest du mal bitte das pauschalisieren lassen? ich hab mir zweimal n neues sys fürn spiel geholt, und das auch nur im zuge dessen, daß sowieso nix anderes mehr lief(creatures und outcast waren schuld).

nocturne
2002-06-29, 13:46:22
Originally posted by Exxtreme

Nicht wirklich. NV-HW genügt meinen Ansprüchen nicht aber das hatten wir schon.


Stimmt. Dein persönlicher Hauptanspruch ist eben, dass "ATI" draufstehen muss - und alles andere hat sich dem unterzuordnen. ;)

... aber dann jammern, wenn Spiele auf GeForce4 optimiert sind. *eg*

Exxtreme
2002-06-29, 13:48:42
Originally posted by nocturne
Stimmt. Dein persönlicher Hauptanspruch ist eben, dass "ATI" draufstehen muss - und alles andere hat sich danach zu richten. ;)

Wieder nicht wirklich. Wenn das so wäre, hätte ich mir 'ne GeForce holen können und das NV-Logo mit dem ATi-Logo überkleben können.
;)

Gruß
Alex

MadManniMan
2002-06-29, 13:48:52
@exx

hm, nocturne hat recht, ich kaufe mir die hardware, die ich zum spielen benötige. aber ob das nun ati oder nv oder pvr oder sis ist, das sollte doch soweit keine rolle spielen...

@garfield

hätte ich jetzt auch gesagt. falls es wirklich so sein sollte - sorry, aber warezler sind nunmal nicht gern gesehen hier

@nocturne

vergessen, dich vorm flamen auszuloggen?

StefanV
2002-06-29, 13:49:46
Originally posted by Garfield
seit wann haben demos auch was mit dem orginal zu tun, wäre mir ja ganz was neues und 2. wer sagt das ich es nicht wieder lösche ? gute spiele kaufe ich mir immer !!! als orginal

Nochmal:

Das Game wurde von Epic nicht offizell releast, alles, was du nicht von Epox laden kannst, ist illegal und KEINE DEMO, sondern Warez!!

Denn es gibt auch Demo Versionen zu Vorführzwecken (z.B. E3), wenn du die besitzt, dann ist das auch illegal.

Halten wir fest:

Es ist eine Demo, wenn auf den Seiten von EPIC ein Link dazu existiert, wo du es dir runterladen kannst, wenn es das nicht ist, dann ist es Warez, verstanden??

Und in diesem Forum sind Warez nicht erwünscht.

MadManniMan
2002-06-29, 13:52:11
Originally posted by nocturne
... aber dann jammern, wenn Spiele auf GeForce4 optimiert sind. *eg*

natürlich, oder ist es verboten sich ne im gleichen preis/leistungssegment liegende r8500 wie ne ti200 zu kaufen, nur weil irgendwelche hirnis bei ihrem ganzen rumgeprogge vergessen, daß monopole scheiße und geschichte sind?

nocturne
2002-06-29, 13:52:17
Originally posted by Exxtreme

Wieder nicht wirklich. Wenn das so wäre, hätte ich mir 'ne GeForce holen können und das NV-Logo mit dem ATi-Logo überkleben können.
;)


... so wie der Manta-Fan, der auf seinen neuen Ferrari ein Opel-Logo geklebt hat? *eg*

Exxtreme
2002-06-29, 13:55:12
Originally posted by nocturne


... so wie der Manta-Fan, der auf seinen neuen Ferrari ein Opel-Logo geklebt hat? *eg*
Der Vergleich hinkt (wie alle Autovergleiche übrigens). Ferrari hat nicht den Marktanteil von Opel und ist auch nicht Marktführer.

Gruß
Alex

Garfield
2002-06-29, 13:56:39
da frage ich mich, warum ich vorhins was über ut2003 beta bei euch im vorum gelesen hab (die gibts auch nicht zum runterladen), da habt ihr nicht so ein palermo daraus gemacht !
ist aber auch egal, lassen wir das jetzt, ok ? wollte euch nur ein paar benchmarwerte liefern, aber wenn ihr es euch lieber erst kaufen wollt, ok

MadManniMan
2002-06-29, 13:58:52
nein, wir wollen einfach nur das entgültige spiel abwarten und nicht, daß irgendne abgewrackte beta nen schlechten ruf über noch in der entwicklung befindliches pusht

Garfield
2002-06-29, 14:11:30
was meintest du vorhins mit "uh? cookies aktiv?", ich sitze hier in einem i-café

StefanV
2002-06-29, 14:18:12
Originally posted by Garfield
was meintest du vorhins mit "uh? cookies aktiv?", ich sitze hier in einem i-café

Er meinte nocturne (oder MMM??)....

MadManniMan
2002-06-29, 17:07:54
richtig, die antwort galt nocturnes post 6 min vorher

vogel
2002-06-29, 18:00:49
Originally posted by Exxtreme

Nicht wirklich. Finde ich aber irgendwo unfair.

Gruß
Alex
Ist Dir vielleicht mal in den Sinn gekommen, dass 'ne GeForce 4 Ti 4600 einfach schneller ist als 'ne Radeon 8500? Was soll der ganze Quatsch, dass wir speziell fuer NVIDIA Karten auf Kosten von ATI optimiert haetten.

-- Daniel, Epic Games Inc.

Exxtreme
2002-06-29, 18:08:33
Originally posted by vogel

Ist Dir vielleicht mal in den Sinn gekommen, dass 'ne GeForce 4 Ti 4600 einfach schneller ist als 'ne Radeon 8500?

Ja, schon. Nur wenn ich mir die Benches anschaue, da wird es mir schon etwas mulmig.
;)
Originally posted by vogel
Was soll der ganze Quatsch, dass wir speziell fuer NVIDIA Karten auf Kosten von ATI optimiert haetten.

-- Daniel, Epic Games Inc.
Err, ich glaube du solltest etwas weiter lesen. Ich quote mich mal selbst.

Da hast du sicherlich recht. Die Frage ist, liegt's am Treiber oder an der Engine selber? Wenn ein Game massiv auf die HW eines Marktführers optimiert ist (was ich Epic im Moment noch nicht unterstellen will), läuten bei mir ganz laut die Alarmglocken. In solchen Fällen warte ich nämlich die ersten 2 bis 3 Patches ab, bevor ich mir so ein Game hole.
Alles klar? Ich meinte eigentlich, daß ich es eigentlich generell unfair finde, wenn ein Hersteller bevorzugt wird. Ich meinte nicht, daß die U2-Engine schon auf NV-HW optimiert sei.
;)

Gruß
Alex

Edit: rEchtzScraipung

MadManniMan
2002-06-29, 18:11:18
wir hatten hier gerade die kleine grundsatzdiskussion, ob man optimieren soll, wenn mans nur für einen hersteller macht, insbesondere den marktführer. das war ne reine if then sache, was sein wird, werden wir sehen

Birdman
2002-06-29, 18:27:57
Heutzutage optimiert wohl keiner mehr speziell auf eine Hardware, denn was dabei rauskommt wissen wir alle...und schaden tut dies auch dem image der forma, sowie den längerfristigen verkaufszahlen.
Aber da die heutzutage erscheinenden games fast allesammt auf "geforce-systemen" entwickelt wurden, ist es ganz klar, dass es mit diesen Astrein läuft.
Von extra optimierung kann man in diesem falle aber nicht sprechen, dass es gut läuft ergibt sich aus diesen Umständen einfach von selbst.

vogel
2002-06-29, 18:33:15
Ja, schon. Nur wenn ich mir die Benches anschaue, da wird es mir schon etwas mulmig.
;)
Warte einfach auf einen Vergleich mit mehr GPUs. Radeon 8500 ist ein wenig schneller als 'ne GeForce 3 Ti 500 aber kann der GeForce 4 Ti Serie nicht das Wasser reichen (in UT2003 auf meinem Testrechner).


Err, ich glaube du solltest etwas weiter lesen. Ich quote mich mal selbst.

Da hatte ich schon geantwortet gehabt :)



Alles klar? Ich meinte eigentlich, daß ich es eigentlich generell unfair finde, wenn ein Hersteller bevorzugt wird. Ich meinte nicht, daß die U2-Engine schon auf NV-HW optimiert sei.
;)
Ich verstehe nicht ganz wie man "auf NVIDIA" optimieren kann ohne gleichzeitig "auf ATI" zu optimieren... auf jeden Fall mit D3D. Es ist ja jetzt nicht so als ob die Karten grob unterschiedliche Features haetten oder Performancecharakteristiken. ATI, NVIDIA, ... haben immer die neuesten builds und source code.

Feedback von IHVs wird beruecksichtigt wo es geht und deshalb geht mir immer der Hut hoch wenn jemand uns unterstellt, dass wir speziell fuer einen Hersteller optimieren. Wenn 'ne Radeon 8500 schneller gewesen waere haette ich mir bestimmt anhoeren muessen, dass wir auf ATI optimieren und bla bla bla :)

-- Daniel, Epic Games Inc.

Exxtreme
2002-06-29, 18:44:24
Originally posted by vogel
Feedback von IHVs wird beruecksichtigt wo es geht und deshalb geht mir immer der Hut hoch wenn jemand uns unterstellt, dass wir speziell fuer einen Hersteller optimieren.

Habe ich nicht gemacht ohne Smileys einzusetzen.
;)
Originally posted by vogel
Wenn 'ne Radeon 8500 schneller gewesen waere haette ich mir bestimmt anhoeren muessen, dass wir auf ATI optimieren und bla bla bla :)

-- Daniel, Epic Games Inc.
Jupp, da haste sicherlich recht. Was mich wirklich stutzig gemacht hat, ist daß der Geschwindigkeitsvorteil der GF4Ti so hoch ist.

Gruß
Alex

vogel
2002-06-29, 18:52:04
Originally posted by Exxtreme
Jupp, da haste sicherlich recht. Was mich wirklich stutzig gemacht hat, ist daß der Geschwindigkeitsvorteil der GF4Ti so hoch ist.

Ich frag mal ATI woran das liegen koennte.

-- Daniel, Epic Games Inc.

Demirug
2002-06-29, 18:59:11
Originally posted by vogel

Ich frag mal ATI woran das liegen koennte.

-- Daniel, Epic Games Inc.

LOL :D Der war gut. Wenn die wissen woran das liegt hätten sie bestimmt schon was dagegen unternommen wenn sie könnten.

ATi hat es einfach nicht geschafft die Leistung beim Multitexturing ans theoretische maximum zu bringen. Bei ca 85% ist im Moment schluss.

NVidia kommt da fast auf 97%.

jedi
2002-06-29, 19:21:48
Originally posted by vogel

Ich frag mal ATI woran das liegen koennte.

-- Daniel, Epic Games Inc.

:lol: :rofl: :lol:

vogel
2002-06-29, 19:30:03
LOL :D Der war gut. Wenn die wissen woran das liegt hätten sie bestimmt schon was dagegen unternommen wenn sie könnten.

Heh, war eigentlich Ernst gemeint :)


ATi hat es einfach nicht geschafft die Leistung beim Multitexturing ans theoretische maximum zu bringen. Bei ca 85% ist im Moment schluss.
NVidia kommt da fast auf 97%.
Koenntest Du das naeher erlaeutern?

-- Daniel, Epic Games Inc.

Unregistered
2002-06-29, 19:33:50
Originally posted by MadManniMan
@exx

hm, nocturne hat recht, ich kaufe mir die hardware, die ich zum spielen benötige. aber ob das nun ati oder nv oder pvr oder sis ist, das sollte doch soweit keine rolle spielen...


... und deshalb heisst dieser Thread auch
"Die BESTE Grafikkarte für UNREAL 2003"
und nicht
"Läuft dieses Spiel auch auf meiner lahmen ATI?"

;)

Demirug
2002-06-29, 19:42:10
Originally posted by vogel
Koenntest Du das naeher erlaeutern?

-- Daniel, Epic Games Inc.

Das ist jetzt nicht dein ernst??? Ich kleiner nebenberuf Engine programierer soll jemanden von Epic etwas erläuterern?

Man nimmt einfach die Ergebnisse des Multi-Texturing Test aus dem 3dmark und vergleicht die Fillrate mit der Theoretischen aus den Herstellerangaben

Ati R8500 128MB = 1866 von 2200 ca 85%
GF4 Ti 4600 = 2321 von 2400 ca 97%

Ok der Test belastet die Karte natürlich sehr einseitig. Deutet aber auf ein erhebeliches Problem beim Umsetzten der Fillrateleistung hin.

Unter Umständen ist es bei ATi ein Problem das sich bei diesem Test 6 Texturen den Cache teilen müssen. Leider habe ich keine Zahlen für eine R8500 wenn man den Test auf 4 Texturen zwingen würde was ja aber auch nicht geht.

AlfredENeumann
2002-06-29, 19:42:52
Originally posted by nocturne


Eben. Nur ein FanATIker wie Exxtreme kauft sich die Hardware als Selbstzweck und anschließend die Software für seine ATI.

Als Gamer macht man es eben genau anders rum:

Man kauft sich die optimale Hardware für seine Software - und nicht umgekehrt.


Wenn ich mir ne Grafikkarte kaufen würde um ausschließlich damit zu Zocken, dann kann ich mir gleich ne Konsole Kaufen. Es soll nämlich tatsächlich noch Leute geben die mit Ihrem Computer nicht nur Spielen.

Exxtreme
2002-06-29, 19:44:38
Originally posted by Unregistered


... und deshalb heisst dieser Thread auch
"Die BESTE Grafikkarte für UNREAL 2003"
und nicht
"Läuft dieses Spiel auch auf meiner lahmen ATI?"

;)
Bis dahin hat Alex schon seine R300 und wird garantiert glücklich mit ihr sein.

Gruß
Alex

AlfredENeumann
2002-06-29, 19:45:26
Originally posted by Garfield
dein vergleich zu den autos hinkt !!!
du fährst den bmw ja auch zur probe und nimmst ihn dann erst mit oder ?

Aber man klaut den BMW dafür nicht, sondern leiht ihn beim Händler. Für Spiele gibt es DEMOVERSIONEN mein Freund.

InsaneDruid
2002-06-29, 19:49:54
Originally posted by AlfredENeumann



Wenn ich mir ne Grafikkarte kaufen würde um ausschließlich damit zu Zocken, dann kann ich mir gleich ne Konsole Kaufen. Es soll nämlich tatsächlich noch Leute geben die mit Ihrem Computer nicht nur Spielen.

Wobei GFs ja nun wirklicbn nicht wie die Voodoos reine Addon Karten sind, nichtwahr? :)

Ihr tut ja geradezu als ob auf NV nichtmal ne Textverarbeitung läuft.


Hm ich sag mal das nächste Argument wird der bessere TV Out sein, oder? Also ich schau TV auf meinem Monitor, nicht andersrum :)

jedi
2002-06-29, 19:51:15
Wow, schon über 20.000 Hits in diesem Thread. :o
Was ist eigentlich der Rekord hier im Forum?

aths
2002-06-29, 20:10:44
Originally posted by InsaneDruid
Hm ich sag mal das nächste Argument wird der bessere TV Out sein, oder? Also ich schau TV auf meinem Monitor, nicht andersrum :) Radeon bietet adaptives Deinterlacing, GeForce nicht. Also TV auf dem Monitor sieht bei einer Radeon besser aus... *

* Ich weiss allerdings nicht, ob das nur für AIW oder generell gilt. Diese Aussage oben ist bitte mit Vorsicht zu genießen.

StefanV
2002-06-29, 20:13:41
Originally posted by InsaneDruid

Hm ich sag mal das nächste Argument wird der bessere TV Out sein, oder? Also ich schau TV auf meinem Monitor, nicht andersrum :)

Schonmal was von DVD-ROMs gehört??

Oder auch WinDVD/PowerDVD bzw DIVX??

Dafür könnte man ja z.B. einen TV Out nutzen, meinst nicht?

Ach stimmt, dafür hat man ja seinen Standalone DVD Player...

vogel
2002-06-29, 20:17:14
Originally posted by Demirug
Das ist jetzt nicht dein ernst??? Ich kleiner nebenberuf Engine programierer soll jemanden von Epic etwas erläuterern?

Wieso nicht?


Man nimmt einfach die Ergebnisse des Multi-Texturing Test aus dem 3dmark und vergleicht die Fillrate mit der Theoretischen aus den Herstellerangaben

Ati R8500 128MB = 1866 von 2200 ca 85%
GF4 Ti 4600 = 2321 von 2400 ca 97%

Ok der Test belastet die Karte natürlich sehr einseitig. Deutet aber auf ein erhebeliches Problem beim Umsetzten der Fillrateleistung hin.

Unter Umständen ist es bei ATi ein Problem das sich bei diesem Test 6 Texturen den Cache teilen müssen. Leider habe ich keine Zahlen für eine R8500 wenn man den Test auf 4 Texturen zwingen würde was ja aber auch nicht geht.
Es waere interessant mal ein kleines Program zu schreiben, dass dies genau testet.

-- Daniel, Epic Games Inc.

Demirug
2002-06-29, 20:21:51
Originally posted by vogel
Es waere interessant mal ein kleines Program zu schreiben, dass dies genau testet.

-- Daniel, Epic Games Inc.

Hab leider noch keine R8500 und dann ist mir zu allem unglück auch noch mein Entwicklungsrechner gestorben.:...( Das reist wieder ein böses Loch in Buget.

Exxtreme
2002-06-29, 20:24:14
Originally posted by Demirug


Hab leider noch keine R8500 und dann ist mir zu allem unglück auch noch mein Entwicklungsrechner gestorben.:...( Das reist wieder ein böses Loch in Buget.
Wenn du's Proggi fertig hast, schiggst du es mir zu und ich sage dir dann die Ergebnisse.
=)

Gruß
Alex

Com1
2002-06-29, 20:36:18
Wenn die R8500 in UT2003 mit der Ti500 gleichauf liegt, ist das doch voll in Ordnung. Wenns speziell NV "optimiert" wäre, könnten/müssten auch die GF3 Karten der R8500 davonrennen. Die R8500 ist mit Ti500 zu vergleichen und nicht mit den GF4 Ti Karten.

Exxtreme
2002-06-29, 20:36:22
Originally posted by Demirug
Ati R8500 128MB = 1866 von 2200 ca 85%

Das stimmt zumindest bei mir so nicht. Ich komme mit dem 6102'er Catalyst-Treiber auf 2053 MegaTexels/s. Das wären dann ca. 93%.

Gruß
Alex

Demirug
2002-06-29, 20:42:24
Originally posted by Exxtreme

Das stimmt zumindest bei mir so nicht. Ich komme mit dem 6102'er Catalyst-Treiber auf 2053 MegaTexels/s. Das wären dann ca. 93%.

Gruß
Alex

Dann scheinen die neuen Treiber ja was zu bringen. Meine Zahlen waren noch mit einem v6.13.10.6094 aufgenommen.

Com1
2002-06-29, 20:43:50
Mit meiner R8500 komme ich auf:

(Single-Texturing) 800.3 MTexels/s
(Multi-Texturing) 2035.4 MTexels/s

bei *fast Retail* Takt (273/273)

Treiber war 6058, seither hab ich 3DMark nicht mehr gebencht...

Birdman
2002-06-29, 21:02:17
Originally posted by Stefan Payne
Schonmal was von DVD-ROMs gehört??
Oder auch WinDVD/PowerDVD bzw DIVX??
Dafür könnte man ja z.B. einen TV Out nutzen, meinst nicht?
Ach stimmt, dafür hat man ja seinen Standalone DVD Player...
DivX?
Da kann eine Karte noch so viel adaptives deinterlacing bringen, es nützt nix. Entweder man lasst den interlace filter beim rippen laufen (wird alles von der CPU berechnet) oder aber man "geniesst" einen interlaced film, denn Mpeg4 in hardware kann noch kein chip, und schon gar ned das angesprochene deinterlacing....und ein softplayer der dies könnte gibts auch (noch) ned...nedmal für olles Bob oder Weave.

btw. DivX Movies sahen bei mir noch nie so schlecht aus wie damals auf der ati8500, weiss aber ned genau ob das am damals ebenfalls vermurksten win2k OS war, oder an den treibern lag.
jedenfalls sehen die filme seit ich die gf4 habe (und dabei auch win2k neu aufgesetzt habe) wieder sichlich besser aus.

Com1
2002-06-29, 21:08:02
Also den ATI Treibern kann man ja viel in die Schuhe schieben, aber dafür, dass du deine Codecs nicht richtig installiert bringst, können sie wirklich nichts.

vogel
2002-06-29, 21:11:21
@Demirug: Du darfst Fillrate nicht mit Speicherbandbreite verwechseln. Hab mir den 3DBench angeschaut und der gibt MTexel/ sec an. Radeon 8500 hat 8800 MByte/ sec also ist der theoretische Maximalwert mit RGBA8 Texturen bei 3DBench 2200 MTexels/ sec. Interessant waere da DXT1, da es 8:1 Kompression ist. Radeon 8500 maximale Fillrate ist 1100 MPixel/sec.

-- Daniel, Epic Games Inc.

MadManniMan
2002-06-29, 21:13:01
Originally posted by Unregistered


... und deshalb heisst dieser Thread auch
"Die BESTE Grafikkarte für UNREAL 2003"
und nicht
"Läuft dieses Spiel auch auf meiner lahmen ATI?"

;)

uh, cookies nicht aktiv?

übrigens, AEN, sehr schön erläutert!

Demirug
2002-06-29, 21:28:20
Originally posted by vogel
@Demirug: Du darfst Fillrate nicht mit Speicherbandbreite verwechseln. Hab mir den 3DBench angeschaut und der gibt MTexel/ sec an. Radeon 8500 hat 8800 MByte/ sec also ist der theoretische Maximalwert mit RGBA8 Texturen bei 3DBench 2200 MTexels/ sec. Interessant waere da DXT1, da es 8:1 Kompression ist. Radeon 8500 maximale Fillrate ist 1100 MPixel/sec.

-- Daniel, Epic Games Inc.

Das ist mir schon klar. Die Prozentangaben bezogen sich ja auch auf die Texelfillrate bei besagten RGBA8 Texturen.

Eine angabe von MPixel/sec bei diesem Bench wäre ja auch sinnloss da man ja dann keine Vergleichsmöglichkeit mehr hätte.

Alles in allem ist der Test aber sowieso unvollständig.

Der Test sollte eine Matrix erzeugen die folgendes Berücksichtigt.

Unterschiedliche Anzahl Texturen pro Pass
Unterschiedliche Größe der Texturen
Unterschiedliche Textureformate.

Birdman
2002-06-29, 22:42:15
Originally posted by Com1
Also den ATI Treibern kann man ja viel in die Schuhe schieben, aber dafür, dass du deine Codecs nicht richtig installiert bringst, können sie wirklich nichts.
Bitte? so ne unterstellung find ich schon fast beleidigend. ich habe genug viele rips selber gemacht, mit divx3.11 (vbr) divx4 und nun divx5pro, um zu wissen was wo wie wann bei divX abgehen muss.
Vom ankukken der divX movies ganz zu schweigen....
Zudem hat sich die ti500 auch nicht darüber beshwert, wie ich meine codecs installiert habe.
Btw. hast du schon mal versucht, divx codecs falsch zu installieren? also unter windows ist sowas brutal schwer, und verlangt gröbere mutwilligkeit.

StefanV
2002-06-29, 23:00:00
Originally posted by Birdman

Bitte? so ne unterstellung find ich schon fast beleidigend. ich habe genug viele rips selber gemacht, mit divx3.11 (vbr) divx4 und nun divx5pro, um zu wissen was wo wie wann bei divX abgehen muss.
Vom ankukken der divX movies ganz zu schweigen....
Zudem hat sich die ti500 auch nicht darüber beshwert, wie ich meine codecs installiert habe.
Btw. hast du schon mal versucht, divx codecs falsch zu installieren? also unter windows ist sowas brutal schwer, und verlangt gröbere mutwilligkeit.

Naja, irgendwann ist eine Windows 2k/XP Installation am Ende, da hift dann nur noch entsorgen.

Auch das Installieren einiger Programme schlägt dan fehl, usw...

Hab ich selbst mit den AVM Treibern erlebt, die W2k Installation, die auf diesem Rechner ist, mit der kann ich nicht mit AVM ISDN Karten ins Netz...

Schnitzl
2002-06-29, 23:12:20
Originally posted by Stefan Payne
Naja, irgendwann ist eine Windows 2k/XP Installation am Ende, da hift dann nur noch entsorgen.

Auch das Installieren einiger Programme schlägt dan fehl, usw...
Nicht doch Windows2000. Win98 vielleicht, aber 2000 kann echt fast ewig halten :)

Hab ich selbst mit den AVM Treibern erlebt, die W2k Installation, die auf diesem Rechner ist, mit der kann ich nicht mit AVM ISDN Karten ins Netz...
Was hat das nun mit divx zu tun ?

StefanV
2002-06-29, 23:34:33
Originally posted by Schnitzl

Nicht doch Windows2000. Win98 vielleicht, aber 2000 kann echt fast ewig halten :)

Was hat das nun mit divx zu tun ?

1. ja, wenn man nicht alle 5min 'nen Treiber und andere Systemnahen Programme installiert...

2. weil das ein Codec ist, der AFAIK auch recht Systemnah ist.
Möglicherweise wurde aber auch was anderes nicht richtig eingebunden, Windows ist halt vom Aufbau her nicht schön...

AlfredENeumann
2002-06-30, 00:02:48
Originally posted by Birdman

... denn Mpeg4 in hardware kann noch kein chip...


noch nicht

Schnitzl
2002-06-30, 00:17:37
Originally posted by Stefan Payne
1. ja, wenn man nicht alle 5min 'nen Treiber und andere Systemnahen Programme installiert...

2. weil das ein Codec ist, der AFAIK auch recht Systemnah ist.
Möglicherweise wurde aber auch was anderes nicht richtig eingebunden, Windows ist halt vom Aufbau her nicht schön...
1. kommt immer drauf an. Ich kenn Leute, die schaffen es mit einem Treiber/Programm Windows zu killen :D

2. Mit AVM hatte ich noch nie Probleme, alles rocksolid was die machen
Aber ich hab nun gerafft worauf du hinaus wolltest :)

vogel
2002-06-30, 02:08:38
Originally posted by Demirug
Das ist mir schon klar. Die Prozentangaben bezogen sich ja auch auf die Texelfillrate bei besagten RGBA8 Texturen.

Du hattest in Deinen ersten posting Fillrate gesagt, was mich ein wenig verwirrt hatte :)

[B]
Der Test sollte eine Matrix erzeugen die folgendes Berücksichtigt.

Unterschiedliche Anzahl Texturen pro Pass
Unterschiedliche Größe der Texturen
Unterschiedliche Textureformate.
In der Regel ist RGBA ist am langsamsten, DXT1 am schnellsten und je nach Chipsatz gibt es Einbrueche bei entweder mehr als 2 Texturen oder 3 Texture stages oder... Ein Programm das dies schoen testet waere extrem nett :)

-- Daniel, Epic Games Inc.

nocturne
2002-06-30, 22:55:40
Daniel,

am 4. Juli 2002, also in ein paar Tagen, soll ja America's Army (http://americasarmy.com/), das kostenlose Werbespiel der US-Army, zum Download (hier (https://get.thearmygame.com/) oder hier (http://americasarmy.com/ops/files/files.php)) bereitstehen.
Die Screenshots (http://americasarmy.com/ops/sshots/) sehen ja schon nicht schlecht aus.

Das Spiel soll ja als erstes Spiel auf Eurer neuen Unreal-Engine basieren, und kommt nun sogar noch vor UT2003. Könntest Du als Programmierer ein paar Kommentare dazu abgeben, wie sehr das Spiel die Möglichkeiten Eurer Engine und aktueller DX8-Karten nutzt?

http://americasarmy.com/ops/sshots/images/11.jpg

SubZero
2002-06-30, 23:19:25
naja, das erste spiel mit der neuen unreal engine war ja mobile forces, auch wenn mit einer älteren build ;)



mich würde es aber interessieren(ka, ob es schon gefragt wurde), ob truform unterstützt wird

thop
2002-07-01, 00:42:02
@vogel:

kannst du ungefähr abschätzen ob das spiel mit einem Duron 1Ghz sowie einer Radeon7500 (ca. GF2Ti speed) auf 1024x768x32 mit normalen details gut laufen wird (~45FPS average)?

stehe im moment kurz davor meine betagte G400 upzugraden, soll nur eine günstige übergangslösung (max 100€) sein bis D3/U2 rauskommen.

eine private frage noch wenn du erlaubst: wie alt bist du und wie lange arbeitest du schon für epic? wie ist deine genaue berufsbezeichnung?
reine neugierde :)

Birdman
2002-07-01, 00:50:09
45fps? Average ist dies evtl. möglich, ich glaub aber da ned wirklich dran.
celli 1.45 + ti500 schafft es jedenfalls, bei einigen levels weniger als 20fps zu produzieren, wenn fullquality angestellt ist, zumindest bei der version die mir vorliegt. Und dass da der speed in der final noch viel höher iss glaub ich ned, die grafik ist einfach zu schön und gut, um auf solchen system noch mit 50fps zu laufen ;)

Mr Lolman
2002-07-01, 01:12:34
@ Daniel:

Kann es sein das eine ATI in D3D, nicht ein bisschen schlechter performed als ein OpenGL ?
Denn warum hat sonst John Carmack die Doom 3 Demo mit einer Radeon laufen lassen, wenn die wirklich sooo viel langsamer als eine Geforce4 wäre? Oder wäre dann eine Radeon bei Jedi Knight 2 teilweise schneller als die kleine Geforce4 ? Oder liegt es vielleicht doch ein bisschen an euch, denn mit der ersten Build die Anandtech hatte wurde eine Geforce4 doch auch tw. in den Schatten gestellt.

Kai
2002-07-01, 01:27:04
Hey Daniel, könntest Du Dich nicht zu einem Avatar überreden lassen? Ich scrolle eigentlich immer mal wieder über diesen Thread drüber und würde deine (sehr informativen) Beiträge sicher flotter finden wenn mir was eingängiges ins Auge stechen würde ;)

Ich würde mal ganz konkret das hier vorschlagen:

dslfreak
2002-07-01, 01:29:51
Wenn ihr UT2003 richtig zocken wollt also 1600x1200 16A+was weiß ich noch alles dann braucht ihr Kohle. Holt euch

1.Geforce 4Ti4600 mit dem besten RAM@400/700 powered by N-Kühlung
2. (Dual P4) 2,53 GHZ@3154 (166x19) powered by N-Kühlung
3. 512MB Rambus mit 533 FSB (133Quad)

(N=Stickstoff)

Ich weiß es ist übertrieben und Commander Keen wird hier noch ruckeln aber UT2003 wird hier mit vollen Details Aufgrund von mehr als 11GB/s Speicherbandbreite net ruckeln.

Edit: Achso das is der heutige Stand der Technik, bis die Final rausgeht dauert es noch ein bissel und da gibts sicherlich noch Überraschungen ind der Hardware Szene.

Kai
2002-07-01, 01:30:01
Originally posted by Mr Lolman
Denn warum hat sonst John Carmack die Doom 3 Demo mit einer Radeon laufen lassen ...

Kleiner Tipp: Es war keine Radeon. Jedenfalls keine die es zu kaufen gibt.

vogel
2002-07-01, 03:15:43
Originally posted by nocturne
basieren, und kommt nun sogar noch vor UT2003. Könntest Du als Programmierer ein paar Kommentare dazu abgeben, wie sehr das Spiel die Möglichkeiten Eurer Engine und aktueller DX8-Karten nutzt?

Da musst Du einen derer Programmierer Fragen :)

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 03:16:45
Originally posted by SubZero
naja, das erste spiel mit der neuen unreal engine war ja mobile forces, auch wenn mit einer älteren build ;)

mich würde es aber interessieren(ka, ob es schon gefragt wurde), ob truform unterstützt wird
Mobile Forces basiert nicht auf der neuen Engine.

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 03:19:50
Originally posted by SubZero
mich würde es aber interessieren(ka, ob es schon gefragt wurde), ob truform unterstützt wird
Jup, habs vor ein paar Wochen mal ausprobiert und fuer Playermodelle sah es besser aus als ohne also ist es jetzt 'ne Option zum einschalten.

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 03:21:15
Originally posted by thop
stehe im moment kurz davor meine betagte G400 upzugraden, soll nur eine günstige übergangslösung (max 100€) sein bis D3/U2 rauskommen.

eine private frage noch wenn du erlaubst: wie alt bist du und wie lange arbeitest du schon für epic? wie ist deine genaue berufsbezeichnung?
Warte die Demo ab, 25, seit Januar 2001, Programmierer.

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 03:22:35
Originally posted by Mr Lolman
@ Daniel:
Denn warum hat sonst John Carmack die Doom 3 Demo mit einer Radeon laufen lassen, wenn die wirklich sooo viel langsamer als eine
DOOM 3 lief auf ATI's next gen Karte und nicht auf 'ner Radeon 8500.

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 03:23:54
Originally posted by Kai
Hey Daniel, könntest Du Dich nicht zu einem Avatar überreden lassen?
Mal sehen, wenn ich 'nen gescheiten finde.

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 03:25:50
Originally posted by Birdman
45fps? Average ist dies evtl. möglich, ich glaub aber da ned wirklich dran.
celli 1.45 + ti500 schafft es jedenfalls, bei einigen levels weniger als 20fps zu produzieren, wenn fullquality angestellt ist, zumindest bei der version die mir vorliegt. Und dass da der speed in der final noch viel höher iss glaub ich ned, die grafik ist einfach zu schön und gut, um auf solchen system noch mit 50fps zu laufen ;)
Mit den kartenabhaengigen default settings ist das Spiel auf beinahe jeder Karte spielbar. Mehr oder weniger huebsch halt.

-- Daniel, Epic Games Inc.

StefanV
2002-07-01, 10:11:46
Originally posted by vogel

Jup, habs vor ein paar Wochen mal ausprobiert und fuer Playermodelle sah es besser aus als ohne also ist es jetzt 'ne Option zum einschalten.

-- Daniel, Epic Games Inc.

Ist es eine 'richtige' Truformanpassung (also nur für Playermodelle) oder eine '5min Anpassung' wie bei CS z.B.??

Vermutlich ersteres, oder??

Exxtreme
2002-07-01, 10:41:54
Originally posted by Stefan Payne


Ist es eine 'richtige' Truformanpassung (also nur für Playermodelle) oder eine '5min Anpassung' wie bei CS z.B.??

Also DAS würde mich jetzt auch interessieren.

Gruß
Alex

Unregistered
2002-07-01, 11:04:58
Hallo,

was mich noch interessieren würde, ob SMP unterstützt wird.
(ich hoffe mal das hat noch keiner gefragt...)

nocturne
2002-07-01, 11:59:26
Originally posted by ryde or die
@vogel:ich gehör auch zu denen,die gerne wissen würden wie sich die gf3-fraktion schlägt(vor allem die ti500)???kannst du da bitte was zu sagen!THX;)

Guckst Du hier (http://www.anandtech.com/video/showdoc.html?i=1647&p=1). Anscheinend hat Daniel bei diesem neuen Artikel auch mitgeholfen.

StefanV
2002-07-01, 12:02:08
Originally posted by nocturne


Guckst Du hier (http://www.anandtech.com/video/showdoc.html?i=1647&p=1). Anscheinend hat Daniel bei diesem neuen Artikel auch mitgeholfen.

Ah, interessant, wie schnell die 7500 ist *eg*

Mr Lolman
2002-07-01, 12:11:13
@ Daniel:
O.K. mit der Radeon und Doom3 hast du allerdings recht (du natürlich auch Kai) - bin einer Falschinformation einer bekannten deutschen Spielezeitschrift :) aufgessen. Aber:

Warum war bei der ersten Build die Anandtech hatte die Radeon wirklich so viel schneller als bei der jetzigen? (vgl. zu Geforce 4)

Und warum ist eine 7500 fast gar nicht langsamer als deren Nachfolger?


(P.S.: bei Serious Sam: SE ist eine 8500 auch im Bereich einer Ti4400)
(P.S.S: bitte lieber die erste Frage beantworten, oder am Besten beide - auch wenn ich glaube das für die 2. Frage ATI eher eine Antwort parat haben könnte)

Demirug
2002-07-01, 12:22:21
Bin zwar nicht Daniel aber wenn ich mich recht erinnere hat er mal erwähnt da bei UT viel mit 3 Texturelayer gemacht wird.

Die 7500 schaft das in einem Pass die 8500 muss dafür in den Loopback wodurch sie die Pixelfüllrate natürlich halbiert. Dadurch liegt die 8500 bei der Pixelfüllrate etwa im gleichen Bereich (etwas höher) wie die 7500.

Quasar
2002-07-01, 12:26:09
Aber eine Ti4400 muss auch in den Loopback und hat damit dieselbe effektive Füllrate, wie eine Radeon8500 (beide 275MHz) und trotzdem liegt sie mit 66% Vorsprung deutlich vor ihr. Die Bremse muss also woanders liegen, imho.

Demirug
2002-07-01, 12:48:44
@Quasar:

Das ist jetzt aber eine andere Frage:

Warum ist die GF soviel schneller als die R8500 ?

LMA II ???

Quasar
2002-07-01, 12:53:30
Denke nicht, da zumindest in Asbestos lt. dem Bildchen oben auch die GF3 schneller als alle Radeons sind, welche btw ja auch noch Hyper-Z II haben.

Auch der zweite VS kann es also nicht unbedingt sein, zumal Daniel ja sagte, daß UT2003 keine Vertex- sondern nur Pixelshader unterstützt.

Meine erste Vermutung wäre ja, daß der berüchtigte Hi-Poly Bug der Radeon nicht global gefixt wurde, sondern nur für die Anwendungen, bei denen er damals auftrat (MoHAA & GL-Exzess).

edit:
Als "andere" Frage würde ich das nicht sehen.
290MHz-Radeon => 580MPix/1,74GTex
275MHz-R200 => 550MPix/1,1GTex
275MHz-nV25 => 550MPix/1,1GTex

(alles inkl. einfachen Loopback, wo nötig)

ow
2002-07-01, 12:57:44
Originally posted by Quasar .

Meine erste Vermutung wäre ja, daß der berüchtigte Hi-Poly Bug der Radeon nicht global gefixt wurde, sondern nur für die Anwendungen, bei denen er damals auftrat (MoHAA & GL-Exzess).

Bei dem Flickwerk, das der ATi Treiber darstellt, halte ich alles fuer moeglich.
S.a. Kommentar der c't zum 7.70 Treiber.

Exxtreme
2002-07-01, 12:58:16
Originally posted by Quasar

Meine erste Vermutung wäre ja, daß der berüchtigte Hi-Poly Bug der Radeon nicht global gefixt wurde, sondern nur für die Anwendungen, bei denen er damals auftrat (MoHAA & GL-Exzess).

Err, dieser High-Poy-Bug ist ausschliesslich unter OpenGL aufgetreten und das Problem hatte eigentlich nichts mit der Polygonmenge zu tun sondern mit dem Laden der Texturen.

Gruß
Alex

Quasar
2002-07-01, 12:58:38
*arg*

Muss dringend mal die c't kaufen gehen

*rennt_los*

Demirug
2002-07-01, 12:58:58
Der zweite VS kann schon etwas bringen da er bei der GF4 auch für das fixed HT&L benutzt wird. Unter Umständen kommt die GF aber auch besser mit den Multistream Vertexdaten klar als die Radeon.

Quasar
2002-07-01, 13:00:18
Originally posted by Exxtreme

Err, dieser High-Poy-Bug ist ausschliesslich unter OpenGL aufgetreten und das Problem hatte eigentlich nichts mit der Polygonmenge zu tun sondern mit dem Laden der Texturen.

Gruß
Alex

Stimmt, OpenGL. Vielleicht ein ganz neuer Bug ;)

Aber das mit dem Laden der Texturen......bei hohen Polygonmengen konnten die Texturen nicht mehr schnell genug geladen werden, oder wie hab ich das zu verstehen?

Exxtreme
2002-07-01, 13:00:24
Ich glaube, daß es am Treiber liegt. Aber die Jungs bei ATi werden es fixen, wenn UT2003 erscheint.

Gruß
Alex

Quasar
2002-07-01, 13:01:52
Originally posted by Demirug
Der zweite VS kann schon etwas bringen da er bei der GF4 auch für das fixed HT&L benutzt wird. Unter Umständen kommt die GF aber auch besser mit den Multistream Vertexdaten klar als die Radeon.

Hm...dann müsste man mal wissen, worin sich Asbestos (miese Radeon Performance) und Antalos (brauchbare Leistung) unterscheiden.....*hinthint*

ow
2002-07-01, 13:02:51
@Exxtreme

Ich hoffe, das ATi die Treiber mal "generalueberholt".
Immer nur fuer speziell Anwendungen zu fixen ist keine Loesung, um ueber laengere Zeit gute Treiber zu liefern.

Exxtreme
2002-07-01, 13:08:40
Originally posted by Quasar
Stimmt, OpenGL. Vielleicht ein ganz neuer Bug ;)

Könnte sein. ;)
Originally posted by Quasar
Aber das mit dem Laden der Texturen......bei hohen Polygonmengen konnten die Texturen nicht mehr schnell genug geladen werden, oder wie hab ich das zu verstehen?
Nee, der High-Poly-Bug hat nix mit der Poly-Menge zu tun. Er ist auch bei MoH:AA, SS:SE und RtCW aufgetreten und diese Games verwenden IMHO nicht so viele Polygone. Der Bug hat seinem Namen aus dem GLExcess-Test bekommen, in der Szene, wo 2 glänzende Raumschiffe vorbeifliegen. In der Beschreibung der Szene stand halt "High Polygon Count" oder so ähnlich drin und die Leute dachten dann tatsächlich es läge an der Polygonmenge. AFAIK lag es an der Texturladeroutine des Treibers, welcher unter bestimmten Konstellationen Stalls im Renderer der R8500 verursacht hat.

Gruß
Alex

Exxtreme
2002-07-01, 13:13:11
Originally posted by ow
@Exxtreme
Ich hoffe, das ATi die Treiber mal "generalueberholt".
Immer nur fuer speziell Anwendungen zu fixen ist keine Loesung, um ueber laengere Zeit gute Treiber zu liefern.
AFAIK ist der Catalyst-Treiber eine General-Überholung. Laut den Kommentaren der Gurus aus dem R3D-Forum unterscheidet sich dieser Treiber erheblich von den pre-Catalyst-Treibern. Und Anand hat mit dem geleakten 6102'er (7.73) getestet. Dieser ist jetzt schon erheblich schneller als der 6071'er.

Gruß
Alex

ow
2002-07-01, 13:19:07
Laut meinen Erfahrungen aendert sich mit dem Catalyst auf der Radeon1 absolut gar nichts. Nicht ein einziger Bug gefixt. Ob das auf der R8k5 so viel anders ist, bezweifele ich daher mal.

Exxtreme
2002-07-01, 13:26:26
Originally posted by ow
Laut meinen Erfahrungen aendert sich mit dem Catalyst auf der Radeon1 absolut gar nichts. Nicht ein einziger Bug gefixt. Ob das auf der R8k5 so viel anders ist, bezweifele ich daher mal.
Morrowind läuft deutlich schneller. Die Frage stellt sich auch ob der R8500-Part des Treibers tatsächlich so buggy ist/war wie der R100-Teil des Treibers.

Gruß
Alex

ow
2002-07-01, 13:32:20
Es stellt sich auch die Frage, wie die Architektur des Treibers bei ATi denn aussieht.
Von einem unified modell wie bei NV ist man wohl noch weit entfernt. Deren Treiberfehler kann man naemlich auf TNT, ueber GF2&3 bis zur GF4 nachvollziehen. Heisst: Entweder zeigen alle Karten den/die Fehler oder keine (natuerlich nur bei Fktn. die alle NV Chips gemeinsam unterstuetzen)

Fin
2002-07-01, 13:32:55
Ich hab mir jetzt auch mal den Anandtech Artikel angeschaut. Wie ich das so sehe, wird 800*600 mit der Radeon 8500 meine Standardauflösung bleiben. :\

Exxtreme
2002-07-01, 13:36:37
Originally posted by Fin
Ich hab mir jetzt auch mal den Anandtech Artikel angeschaut. Wie ich das so sehe, wird 800*600 mit der Radeon 8500 meine Standardauflösung bleiben. :\
Bleib auf'm Teppich. Eigentlich sagen die Benchmarks nicht viel aus. Es wurde lediglich eine nicht verfügbare Beta-Version von UT2003 mit einem geleakten Betatreiber von ATi getestet. Ob man jetzt diese Ergebnisse auf das fertige Spiel übertragen kann?

Gruß
Alex

nggalai
2002-07-01, 13:41:46
Originally posted by Demirug
Bin zwar nicht Daniel aber wenn ich mich recht erinnere hat er mal erwähnt da bei UT viel mit 3 Texturelayer gemacht wird.

Die 7500 schaft das in einem Pass die 8500 muss dafür in den Loopback wodurch sie die Pixelfüllrate natürlich halbiert. Dadurch liegt die 8500 bei der Pixelfüllrate etwa im gleichen Bereich (etwas höher) wie die 7500. Könnte auch der Grund sein, weshalb die Kyro-II vor der GF2 Ultra liegt--die braucht mehr passes fürs Rendern, bei "High Detail". Und oh wunder--wenn man auf mittlere Details runterschaltet (wohl auch die Detail-Texturen abschaltet), dann zieht sie davon.

ta,
-Sascha.rb

P.S. Bin ich der einzige hier, der die 100fps der Parhelia bei 1024x768 toll findet? .rb

Schnitzl
2002-07-01, 13:42:14
Originally posted by Exxtreme

AFAIK ist der Catalyst-Treiber eine General-Überholung. Laut den Kommentaren der Gurus aus dem R3D-Forum unterscheidet sich dieser Treiber erheblich von den pre-Catalyst-Treibern. Und Anand hat mit dem geleakten 6102'er (7.73) getestet. Dieser ist jetzt schon erheblich schneller als der 6071'er.

Gruß
Alex
Ich denke mal nicht das der Catalyst-Treiber was großartig neues ist, immerhin heisst die Datei noch genau gleich wie vorher (natürlich mit geringfügig höherer Versionsnummer)
Alles Marketing, wie vor kurzem mit den DetonatorXP-Treibern.

Nichtdestotrotz sind die 6041(w98-Catalyst/leaked) einen tick schneller als die 6031 (w98-PRE-Catalyst/offiziell)

Ich mach grad ein paar Treiber-tests, was wie wo wann um wieviel schneller oder langsamer geworden ist, ist ganz interessant :)

P.S.: interessant ist auch, das die Paella mit den 226-Treibern auch etwas schneller ist seit dem letzten Test.
(wenns mal nicht ein Messfehler ist)

/Edit : @ nggalai: nö, ich finds auch geil. Komisch nur dass es bei der anderen ut-Karte viel weniger sind, hm.

Fin
2002-07-01, 13:42:22
Ich denke, ja.

oha, das galt für "Ob man jetzt diese Ergebnisse auf das fertige Spiel übertragen kann?"

Exxtreme
2002-07-01, 13:43:14
Originally posted by ow
Es stellt sich auch die Frage, wie die Architektur des Treibers bei ATi denn aussieht.
Von einem unified modell wie bei NV ist man wohl noch weit entfernt. Deren Treiberfehler kann man naemlich auf TNT, ueber GF2&3 bis zur GF4 nachvollziehen. Heisst: Entweder zeigen alle Karten den/die Fehler oder keine (natuerlich nur bei Fktn. die alle NV Chips gemeinsam unterstuetzen)
Da stellt sich wieder die Frage ob sich so ein Treibermodell, wie es NV handhabt, sich so ohne Weiteres auf die Radeon-Serie übertragen lässt. Bei NV weiss man, daß sie viele Komponenten aus der Vorgängergeneration recyclen, was erstmal nichts schlechtes bedeutet aber die Treiber-Entwicklung beeinflussen kann. Beim R100 könnte es nämlich sein, daß dieser Bugs in der HW hat, welche sich _nicht_ per Treiber fixen lassen und die der R200 nicht mehr hat. Und deswegen gibt es einen Extra-Teil für die R100 und R200.

Gruß
Alex

ow
2002-07-01, 13:49:39
@Exxtreme:

Was das 'Recycling' der HW betrifft, stehen sich die Hersteller in nichts nach. Auch der R200 ist nur ein ueberarbeiteter R100.

Und fuer HW Bugs packt man nen kurzen Workaround in den Treiberteil der betroffenen HW.

Exxtreme
2002-07-01, 13:53:51
Originally posted by ow
@Exxtreme:
Und fuer HW Bugs packt man nen kurzen Workaround in den Treiberteil der betroffenen HW.
Wenn es nicht zuviel Leistung kostet, ja. Es könnte sich aber um Bugs handeln, die sich nicht per Workaround fixen lassen.

Gruß
Alex

Silent Hunter
2002-07-01, 14:34:09
kann es sein, dass es einen Fehler in unserer Tabell ist???

Denn bei Anantech schauen die erneut anders aus:
http://www.anandtech.com/video/showdoc.html?i=1647&p=9

Quasar
2002-07-01, 14:42:22
Antalus != Asbestos

ow
2002-07-01, 14:42:28
???

Ich kann da keinen Fehler sehen.


:nono:

nicht vordraengeln, Quasar ;);)

Unregistered
2002-07-01, 14:54:23
Originally posted by Mr Lolman

Und warum ist eine 7500 fast gar nicht langsamer als deren Nachfolger?


Weil sie die schönen Pixelshader-Effekte gar nicht erst ausführt und deshalb im Vergleich zu den DX8-Karten scheisse aussieht?

Da die Bildqualität der Radeon 7500 dann schlechter wäre, kann man sie auch in Benchmarks nicht direkt vergleichen. Äpfel mit Birnen. Nur weil man "max settings" einstellt, bedeutet ja nicht, dass auf der Radeon 7500 auch das maximale rauskommt. ;)

SubZero
2002-07-01, 15:01:40
ut2003 enthält keine dx8-features, wurde in diesem thread auch schon klar gestellt ;)

nggalai
2002-07-01, 15:01:51
Originally posted by Unregistered


Weil sie die schönen Pixelshader-Effekte gar nicht erst ausführt und deshalb im Vergleich zu den DX8-Karten scheisse aussieht?

Da die Bildqualität der Radeon 7500 dann schlechter wäre, kann man sie auch in Benchmarks nicht direkt vergleichen. Äpfel mit Birnen. Nur weil man "max settings" einstellt, bedeutet ja nicht, dass auf der Radeon 7500 auch das maximale rauskommt. ;) UT2003 verwendet keine Pixel Shader Effekte-- weiter vorn im Thread kannst Du von Daniel Vogel lesen, dass das Spiel (Cube Maps vorausgesetzt--und das hat die 7500er) auf DX7- und DX8-Hardware identisch aussehen wird.

ta,
-Sascha.rb

HOT
2002-07-01, 15:10:15
Der K2 schlägt sich unter HD wirklich gut :)

Quasar
2002-07-01, 15:28:37
Originally posted by nggalai
[...] von Daniel Vogel lesen, dass das Spiel (Cube Maps vorausgesetzt--und das hat die 7500er) auf DX7- und DX8-Hardware identisch aussehen wird.

Da steht aber auch, daß es Performance-Unterschiede geben sollte, was ja zwischen R7500 und R8500 nun nicht immer der Fall ist (zumindest nicht in dem Maß, in dem man es erwarten sollte).

egdusp
2002-07-01, 15:49:24
Sorry, aber kann mir einer sagen auf welchem System/welcher CPU Anand gebencht hat. Ich finde die Angabe nicht. ???

Quasar
2002-07-01, 15:59:45
http://www.anandtech.com/video/showdoc.html?i=1647&p=4

StefanV
2002-07-01, 16:00:52
Originally posted by ow
Es stellt sich auch die Frage, wie die Architektur des Treibers bei ATi denn aussieht.
Von einem unified modell wie bei NV ist man wohl noch weit entfernt. Deren Treiberfehler kann man naemlich auf TNT, ueber GF2&3 bis zur GF4 nachvollziehen. Heisst: Entweder zeigen alle Karten den/die Fehler oder keine (natuerlich nur bei Fktn. die alle NV Chips gemeinsam unterstuetzen)

Ähm, wenn ich mich nicht irre, dann hat aths mit seiner GF4 noch ein paar 'Fehlerchen', die du mit deiner 'vortschrittlichen' MX nicht hast...

HOT
2002-07-01, 16:02:55
Kann es sein, dass der R200 nicht von HyperZ II profitiert in dieser Bench? Hab den leider noch nicht gesehen. Ist dort viel Blending vertreten?

ow
2002-07-01, 16:16:02
Originally posted by HOT
Der K2 schlägt sich unter HD wirklich gut :)

Und unter MD leider vergleichsweise schlecht.

ow
2002-07-01, 16:17:48
Originally posted by Stefan Payne


Ähm, wenn ich mich nicht irre, dann hat aths mit seiner GF4 noch ein paar 'Fehlerchen', die du mit deiner 'vortschrittlichen' MX nicht hast...

SO?? Welche denn?

thop
2002-07-01, 16:25:05
na das sieht doch sehr schön aus für die 7500 :) 1024x768 MEDIUM sehr gut spielbar.

@nggalai: hier gibs ja fast mehr P freunde als auf MURC :)

Quasar
2002-07-01, 16:28:03
"Fehlerchen", die auf einer MX nicht reproduzierbar sind. Entweder auf Multisampling oder auf Shader-Effekte bezogen, afair.

SP hat dein Posting nicht so gründlich gelesen, schätze ich.

jedi
2002-07-01, 16:33:22
Originally posted by thop

1024x768 MEDIUM sehr gut spielbar.



Wer will denn schon den neuesten Grafik-Kracher auf MEDIUM spielen müssen? Dann kann man ja gleich beim alten UT bleiben. ;)

ow
2002-07-01, 16:38:55
Originally posted by Quasar
"Fehlerchen", die auf einer MX nicht reproduzierbar sind. Entweder auf Multisampling oder auf Shader-Effekte bezogen, afair.

SP hat dein Posting nicht so gründlich gelesen, schätze ich.


Ja, das schaetze ich auch.

zeckensack
2002-07-01, 16:40:55
Originally posted by jedi
Wer will denn schon den neuesten Grafik-Kracher auf MEDIUM spielen müssen?Ich :PDann kann man ja gleich beim alten UT bleiben. ;) Nein :P

Unregistered
2002-07-01, 16:44:21
Originally posted by jedi

Wer will denn schon den neuesten Grafik-Kracher auf MEDIUM spielen müssen? Dann kann man ja gleich beim alten UT bleiben. ;)
Nachdem was man auf GIGA gesehen hat dann sieht ut2003 auf 640*480 ohne Details schon besser aus als es UT1 jemals aussehen kann.
:D

nggalai
2002-07-01, 16:48:30
Originally posted by ow


Und unter MD leider vergleichsweise schlecht. Jein. Ich würde eher sagen, dass die Kyro im Vergleich mit der GF2-Reihe nicht so extrem einbricht, wenn Detailtexturen ins Spiel kommen.

Allerdings ist sie dafür wohl extrem CPU-gebunden. Auf einer 1GHz-Kiste würde ich mit Kyro-II auch nicht UT2003 spielen wollen . . .

ta,
-Sascha.rb

ow
2002-07-01, 16:52:40
Jein. :D Das sind ja nur 2 unterschiedliche Ansichtsweisen.


HD duerfte weder auf GF2 noch K2 spielbar sein (komplett durchspielbar!), also muessen die Details runter. Und da liegt der Vorteil auf Seite der Gf2.

Aber davon mal abgesehen ist die Leistung der K2 in HD schon beeindruckend.



btw. UT nutzt also keine VS und PS zur schoeneren Darstellung, aber was ist mit Cubemaps? Der K2 ist der einzige im Testfeld, der diese nicht kann. Vielleicht auch daher die hohe Leistung bei high quality?

jedi
2002-07-01, 16:56:19
Originally posted by nggalai

Allerdings ist sie dafür wohl extrem CPU-gebunden. Auf einer 1GHz-Kiste würde ich mit Kyro-II auch nicht UT2003 spielen wollen . . .


Stimmt, die Tests sind ja auf einer XP2100+ CPU gemacht, was dem CPU-abhängigen Kyro2 durch das fehlende T&L natürlich zugute kommt. Aber wer so eine Turbo-CPU hat, der bremst sie auch nicht durch eine lahme Kyro2 aus.

askibo
2002-07-01, 17:13:19
We also chose a medium detail setting, which turned off detailed textures, turned on 16-bit color, lowered the texture detail and turned off deco layers.

16-bit color bringt der Kyro halt nix.
Da ist es kein Wunder wenn die GF2 davon zieht.

Pirx
2002-07-01, 17:17:56
Originally posted by jedi
Stimmt, die Tests sind ja auf einer XP2100+ CPU gemacht, was dem CPU-abhängigen Kyro2 durch das fehlende T&L natürlich zugute kommt. Aber wer so eine Turbo-CPU hat, der bremst sie auch nicht durch eine lahme Kyro2 aus.

...sondern durch die "pfeilschnelle" GF2Ultra?;)

Die K2 gewinnt zwar in medium nicht so viel aber bestimmt genug, um gut spielen zu können.
Ich hätte nicht damit gerechnet, daß eine K2 jemals in einem Spiel mit der Ultra mithalten kann
(da wäre natürlich noch die Sache mit den Cube-Maps)

aths
2002-07-01, 17:21:37
Originally posted by jedi
Wer will denn schon den neuesten Grafik-Kracher auf MEDIUM spielen müssen? Dann kann man ja gleich beim alten UT bleiben. ;) Kommt drauf an, was du unter medium verstehst. Volle Details, hohe Auflösung, Kantenglättung, und anisotrope Filterung, und dabei noch flüssig mit 60+ fps? Da wirst du mit Ti4200 nicht sehr weit kommen. Ich will dir ja deine Vorfreude nicht nehmen, aber natürlich kann man mit UT2003 auch eine Ti4600 problemlos in die Knie zwingen.

jedi
2002-07-01, 17:32:59
Originally posted by aths
Kommt drauf an, was du unter medium verstehst. Volle Details, hohe Auflösung, Kantenglättung, und anisotrope Filterung, und dabei noch flüssig mit 60+ fps? Da wirst du mit Ti4200 nicht sehr weit kommen. Ich will dir ja deine Vorfreude nicht nehmen, aber natürlich kann man mit UT2003 auch eine Ti4600 problemlos in die Knie zwingen.

Irgendwo hatten wir diese Diskussion doch schon mal. Man kann sich immer die abgefahrensten Einstellungen ausdenken, um jede beliebige Hardware in die Knie zu zwingen. Nur macht man das in der Praxis eben anders.

Die meisten Leute gehen beim Einstellen ihrer optimalen Spieloptionen doch folgendermassen vor:

- zuerst stellt man auf 1024x768 und alle Details auf maximal.
- wenn das nicht ruckelt, dann geht man schrittweise mit der Auflösung höher.
- man spielt also mit der höchstmöglichen ruckelfreien Auflösung.
- AA und AF werden von den wenigsten Spielern überhaupt aktivert.

zeckensack
2002-07-01, 18:19:05
Originally quoted by askibo [/B]
turned on 16-bit colorDadurch sind alle Werte von Anand, die in der Medium-Einstellung gemessen wurden sowieso für die Tonne.

Niemand spielt in 16 bit. Was hat er sich da wieder nur gedacht :bonk:

thop
2002-07-01, 18:24:11
Originally posted by zeckensack
Niemand spielt in 16 bit.

Voodoo3 Besitzer schon :D

zeckensack
2002-07-01, 18:41:00
Originally posted by thop


Voodoo3 Besitzer schon :D Ich denke, ein kluger Voodoo3-Besitzer sollte die Zeichen der Zeit erkennen und zumindest auf eine Kyro II oder sowas umsteigen ...

Wenn schon die MX400 in 16 bit so dermaßen abkackt, dann will ich Werte der Voodoo 3 garnicht mehr wissen *eg*

LovesuckZ
2002-07-01, 18:57:06
Originally posted by nggalai
P.S. Bin ich der einzige hier, der die 100fps der Parhelia bei 1024x768 toll findet? .rb

Kommt drauf an wie man es sieht. Man koennte auch enttaeuscht sein, dass die Karte nur! 8FPS vor einer GF3TI200 liegt.

Thowe
2002-07-01, 20:00:42
Originally posted by zeckensack

Niemand spielt in 16 bit. Was hat er sich da wieder nur gedacht :bonk:

Das frage ich mich bei Anand auch immer wieder, seine Mainboard-Tests waren ja früher für mich immer ein Grund seine Site regelmässig zu besuchen. Seit er allerdings immer wieder seine Seltsamkeinten an den Tag legt, sind für mich seine Grafikkartentests gestorben. Gebe ich genau so viel drauf, wie auf Athlon Tests von dem Herrn Völkel.



@nggalai, ich :)

vogel
2002-07-01, 20:06:51
Originally posted by Stefan Payne
Ist es eine 'richtige' Truformanpassung (also nur für Playermodelle) oder eine '5min Anpassung' wie bei CS z.B.??

Vermutlich ersteres, oder??
Existierende Modelle wurden nicht veraendert. Nur Playermodelle bei denen es gut aussieht benutzen es. Hat aber trotzdem nur 5 Minuten gedauert ;)

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 20:18:42
Originally posted by nggalai
UT2003 verwendet keine Pixel Shader Effekte-- weiter vorn im Thread kannst Du von Daniel Vogel lesen, dass das Spiel (Cube Maps vorausgesetzt--und das hat die 7500er) auf DX7- und DX8-Hardware identisch aussehen wird.

Pixel shader werden fuer's terrain rendering benutzt aber das Result ist identisch mit dem DX7 fallback.

-- Daniel, Epic Game Inc.

vogel
2002-07-01, 20:20:49
Originally posted by nggalai
Allerdings ist sie dafür wohl extrem CPU-gebunden. Auf einer 1GHz-Kiste würde ich mit Kyro-II auch nicht UT2003 spielen wollen . . .

Hehe, mein Haupt- Testrechner ist ein Athlon 1GHz :)

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 20:22:02
Originally posted by ow
HD duerfte weder auf GF2 noch K2 spielbar sein (komplett durchspielbar!), also muessen die Details runter. Und da liegt der Vorteil auf Seite der Gf2.

Man kann detail textures unabhaengig von anderen Optionen einschalten :)

-- Daniel, Epic Games Inc.

Demirug
2002-07-01, 20:23:01
Originally posted by vogel

Pixel shader werden fuer's terrain rendering benutzt aber das Result ist identisch mit dem DX7 fallback.

-- Daniel, Epic Game Inc.

Deswegen hat nggalai effekte ja kursiv geschrieben. Es gab hier deswegen schon öffters diskussionen und seit dem benutzen wir hier den begriff pixel shader effekt nur noch für Grafikeffekte die sich ohne pixelshader nicht in einem Pass erledigen lassen

vogel
2002-07-01, 20:24:49
Originally posted by zeckensack
Dadurch sind alle Werte von Anand, die in der Medium-Einstellung gemessen wurden sowieso für die Tonne.

Niemand spielt in 16 bit. Was hat er sich da wieder nur gedacht :bonk:
Ich schaetze 70% unserer Kunden werden per default Einstellungen in den Genuss von 16 bit kommen :) Ab 1024x768 ist es sehr sehr schwer einen Unterschied zu 32 bit zu sehen. Manche Level haben kleine Probleme mit der Z buffer Praezision aber ansonsten sieht es ziemlich gut aus auf 16 bit.

-- Daniel, Epic Games Inc.

vogel
2002-07-01, 20:25:52
Originally posted by Demirug
Deswegen hat nggalai effekte ja kursiv geschrieben. Es gab hier deswegen schon öffters diskussionen und seit dem benutzen wir hier den begriff pixel shader effekt nur noch für Grafikeffekte die sich ohne pixelshader nicht in einem Pass erledigen lassen
Aaaaah :)

-- Daniel, Epic Games Inc.

nggalai
2002-07-01, 20:30:38
Originally posted by vogel

Hehe, mein Haupt- Testrechner ist ein Athlon 1GHz :)
Auch mit Kyro-II drin? ;) Und ja, das Kursive war Absicht meinerseits und Demiurg hat mich richtig interpretiert.

nochmals, Danke für deine Ausführungen in diesem (und anderen) Threads. *verneig*

ta,
-Sascha.rb

P.S. netter Avatar. :D .rb

Exxtreme
2002-07-01, 20:37:13
Originally posted by nggalai
P.S. netter Avatar. Zack rules.rb
Naja. Ich hätte einen besseren. *eg*
;)

*duckundvornvidiotswegrenn*

Gruß
Alex

Edit:
Wird's Zeit bei mir für einen neuen Avatar. =)

StefanV
2002-07-01, 21:50:13
Originally posted by vogel

Existierende Modelle wurden nicht veraendert. Nur Playermodelle bei denen es gut aussieht benutzen es. Hat aber trotzdem nur 5 Minuten gedauert ;)

-- Daniel, Epic Games Inc.

Hehe, gutes Argument ;)

Solange nicht die Modelle 'getruformt' werden, ist das auch herzlich egal ;)

Negativ Beispiele sind halt UT (der gehackte Renderer, inoffiziell, Epic hats ja nicht verbrochen ;)) und halt HL/CS...

AlfredENeumann
2002-07-01, 22:45:43
Originally posted by Stefan Payne


Hehe, gutes Argument ;)

Solange nicht die Modelle 'getruformt' werden, ist das auch herzlich egal ;)

Negativ Beispiele sind halt UT (der gehackte Renderer, inoffiziell, Epic hats ja nicht verbrochen ;)) und halt HL/CS...

Es gibt wirklich ne ganze Menge Anwendungsgebiete für TruForm, nicht nur in UT. z.B. ein RUNDER Streckenverlaufen oder RUNDE reifen bei Rennspielen. Kleiner Aufwand, große wirkung.

nocturne
2002-07-02, 00:24:51
Originally posted by Exxtreme

Wird's Zeit bei mir für einen neuen Avatar. =)

Dein neuer sieht irgendwie schwul aus. *duck*

*eg*

zeckensack
2002-07-02, 00:59:36
Originally posted by AlfredENeumann
Es gibt wirklich ne ganze Menge Anwendungsgebiete für TruForm, nicht nur in UT. z.B. ein RUNDER Streckenverlaufen oder RUNDE reifen bei Rennspielen. Kleiner Aufwand, große wirkung. Gerade diese beiden Beispiele würden mit TruForm nicht funktionieren. Runde Fläche mit harter Kante an nicht-runde Fläche = ungut ;)

vogel
2002-07-02, 02:55:47
Originally posted by zeckensack
Gerade diese beiden Beispiele würden mit TruForm nicht funktionieren. Runde Fläche mit harter Kante an nicht-runde Fläche = ungut ;)
Und fuer "smoothing groups" gilt das selbe weshalb es mich ziemlich ueberrascht hat, dass Truform okay mit unseren Spielermodellen aussieht. Bin zu faul zu untersuchen wieso :)

-- Daniel, Epic Games Inc.

Demirug
2002-07-02, 07:51:23
Originally posted by zeckensack
Gerade diese beiden Beispiele würden mit TruForm nicht funktionieren. Runde Fläche mit harter Kante an nicht-runde Fläche = ungut ;)

Hat meine Überzeugungsarbeit also doch was genutzt.

Exxtreme
2002-07-02, 08:35:32
Originally posted by nocturne
Dein neuer sieht irgendwie schwul aus. *duck*

*eg*
Ach was. Spike r00lez.

Gruß
Alex

InsaneDruid
2002-07-02, 10:54:49
Originally posted by Exxtreme

Ach was. Spike r00lez.


Nicht so doll wie Willow :D

aths
2002-07-02, 12:51:42
Originally posted by jedi
- AA und AF werden von den wenigsten Spielern überhaupt aktivert.Ich gehe davon aus, dass du klüger als Otto-NormalAldiPC-Käufer bist, und diese beiden Optionen nutzt.

nocturne
2002-07-02, 13:51:33
aths, was maßt Du Dir eigentlich schon wieder an? :nono:
Möchtest Du mal wieder den Leuten vorschreiben, was klug zu sein hat, und was dumm zu sein hat? Viele legen eben mehr Wert auf eine höhere Auflösung.

zeckensack
2002-07-02, 14:30:20
Originally posted by Demirug
Hat meine Überzeugungsarbeit also doch was genutzt. Aber klar doch. Ich bin immer froh, wenn ich was dazulernen kann ;)

Kai
2002-07-02, 14:47:27
Originally posted by aths
Ich gehe davon aus, dass du klüger als Otto-NormalAldiPC-Käufer bist, und diese beiden Optionen nutzt.

Fasse ich fast schon als persönliche Beleidigung auf aths. Manchmal weiß ich gar nicht was mit Dir los ist ? Als Du noch Voodoo-User warst, hat man derartige Sprüche von Dir nie gehört - eher das Gegenteil.

Exxtreme
2002-07-02, 14:52:46
Originally posted by Kai
Fasse ich fast schon als persönliche Beleidigung auf aths. Manchmal weiß ich gar nicht was mit Dir los ist ? Als Du noch Voodoo-User warst, hat man derartige Sprüche von Dir nie gehört - eher das Gegenteil.
Eine NV-Karte kann einen schlechten Einfluss auf den Charakter eines Menschen haben. DAS ist der Beweis. Das habe ich schon immer gewusst.

;D :D ;)

Gruß
Alex

StefanV
2002-07-02, 14:55:42
Originally posted by Exxtreme

Eine NV-Karte kann einen schlechten Einfluss auf den Charakter eines Menschen haben. DAS ist der Beweis. Das habe ich schon immer gewusst.


Gruß
Alex

Ja, das glaube ich auch solangsam ;)

Eine NV Karte hat einen negativen Einfluss auf den Charakter, ich habs schon immer gewußt :rofl:

BTW: wie wäre es mal mit 'nem Poll:

Soll aths seine GF4 TI4600 gegen eine ATI Radeon 8500 tauschen, ja/nein :naughty:

Exxtreme
2002-07-02, 15:06:37
Originally posted by Stefan Payne
BTW: wie wäre es mal mit 'nem Poll:

Soll aths seine GF4 TI4600 gegen eine ATI Radeon 8500 tauschen, ja/nein :naughty:
Hihi, hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=309723&t=8976#post309723) ist dein Poll.
;D

Gruß
Alex

InsaneDruid
2002-07-02, 18:57:54
Vielleicht meinte er mit "klug sein" ja nur das viele Leute garnicht wissen das und WIE man AF/FSAA aktivieren kann, und es bezog sich nicht, wie offenbar angenommen auf "klug sein ist AF+FSAA zu nutzen" ?

verdirbt evtl ATI den Charakter das man gleich immer so böses unterstellt? :lol:

Thowe
2002-07-02, 19:41:59
So in der Art sehe ich das auch. Ich denke schon das hier jeder im Forum in der Lage ist die Funktionen zu aktivieren und sofern er nicht den letzten Schrott als Monitor hat, auch einen sichtbaren Unterschied wahrnimmt. Wobei die Darstellungsqualität bei Spielen erst durch die Kombination von sauberer Filterung, Auflösung und Kantenglättung maximiert wird.

nocturne
2002-07-03, 00:11:48
Originally posted by Kai

Fasse ich fast schon als persönliche Beleidigung auf aths. Manchmal weiß ich gar nicht was mit Dir los ist

aths ist eben Voodoo-geschädigt. Als alter Voodoo2-Besitzer erinnere ich mich daran, dass ich mit meiner V2 keine hohen Auflösungen fahren konnte, aber eine Art Kantenglättung war schon damals eingebaut: das Durchschleifkabel machte sowieso alle Kanten automatisch unscharf. ;)

Bei aths' dreimonatigem Propagandapraktikum in der 3dfx-Marketingabteilung, für das er dann später seine Voodoo5 bekam, trichterte ihm Scott Sellers ein: "FSAA gut, hohe Auflösungen böse". Diese Hype-Hirnwäsche wirkt noch heute nach, so dass er lieber in 640x480 mit FSAA spielen würde als in 1280x960 ohne FSAA.

Dort gelangte er auch zu der Ansicht, dass alle, die seinen Geschmack nicht teilen, dumm oder zumindest Aldi-PC-Käufer sein müssen, denn schliesslich hat er die Wahrheit und Weisheit für sich gepachtet. Dass alle Andersdenkenden Idioten sind, ergibt sich somit zwangsläufig.

SCNR
*eg*

Legolas
2002-07-03, 00:25:58
Originally posted by nocturne


aths ist eben Voodoo-geschädigt. Als alter Voodoo2-Besitzer erinnere ich mich daran, dass ich mit meiner V2 keine hohen Auflösungen fahren konnte, aber eine Art Kantenglättung war schon damals eingebaut: das Durchschleifkabel machte sowieso alle Kanten automatisch unscharf. ;)


Tja, auch damals schon gabs den Unterschied Marken-/Nonamehersteller. An welchen der beiden du geraten bist, dann man aus obigem Absatz ziemlich gut erkennen =).

StefanV
2002-07-03, 00:34:48
Originally posted by Legolas


Tja, auch damals schon gabs den Unterschied Marken-/Nonamehersteller. An welchen der beiden du geraten bist, dann man aus obigem Absatz ziemlich gut erkennen =).

:rofl:

Naja, ich bin Matrox geschädigt ;)

Legolas
2002-07-03, 00:39:52
Originally posted by Stefan Payne


:rofl:

Naja, ich bin Matrox geschädigt ;)
Naja, so 'rum kann man es auch sehen ;).

aths
2002-07-03, 01:32:44
Ach nocci,

übrigens hatte ich nie 'ne Voodoo5.

Danke übrigens, dass du ein leuchtendes Beispiel bist: Objektiv, aufgeschlossen, versiert.

aths
2002-07-03, 01:33:40
Originally posted by Kai
Fasse ich fast schon als persönliche Beleidigung auf aths. Manchmal weiß ich gar nicht was mit Dir los ist ? Als Du noch Voodoo-User warst, hat man derartige Sprüche von Dir nie gehört - eher das Gegenteil. Schon als ich Voodoo-User war, predigte ich die Vorteile von FSAA, inkl. dem AF-Effekt durch Supersampling.

zeckensack
2002-07-03, 01:45:01
Originally posted by nocturne

SCNRNa, nocturne, erkenne ich da erste Anzeichen von Reue? :nono:

nocturne
2002-07-03, 02:43:39
Originally posted by vogel

Ich schaetze 70% unserer Kunden werden per default Einstellungen in den Genuss von 16 bit kommen :) Ab 1024x768 ist es sehr sehr schwer einen Unterschied zu 32 bit zu sehen. Manche Level haben kleine Probleme mit der Z buffer Praezision aber ansonsten sieht es ziemlich gut aus auf 16 bit.

-- Daniel, Epic Games Inc.

Du meinst, ab 1024x768 fällt das Dithering nicht mehr so extrem auf? :|

Aber was ist mit Colorbanding? Wenn ich mich an das 16bit-Colorbanding meiner Voodoo2 in manchen nebligen Ecken von Unreal erinnere, dann bn ich froh, dass ich nie wieder 16bit fahren muss.

vogel
2002-07-03, 04:43:05
Originally posted by nocturne
Du meinst, ab 1024x768 fällt das Dithering nicht mehr so extrem auf? :|

Dir wird es sehr sehr schwer fallen bei 1024x768 zwischen 16 und 32 bit zu unterscheiden.

Aber was ist mit Colorbanding? Wenn ich mich an das 16bit-Colorbanding meiner Voodoo2 in manchen nebligen Ecken von Unreal erinnere, dann bn ich froh, dass ich nie wieder 16bit fahren muss.
UT 2003 hat sehr wenige Regenboegen und sanfte Farbverlaeufe ;)

-- Daniel, Epic Games Inc

HOT
2002-07-03, 08:27:03
Hmm.. ich wage es doch eher zu bezeifeln, dass so viele in 16Bit spielen. Eher stellen viele die Auflösung auf 800x600 runter, ich hab das zumindest immer so gemacht.

ow
2002-07-03, 09:12:15
Originally posted by HOT
Hmm.. ich wage es doch eher zu bezeifeln, dass so viele in 16Bit spielen.


IMO kommt das sehr drauf an, wie gut es denn in 16Bit noch aussieht.

Nur soviel dazu:
RTCW kann man in 16Bit auf NVidia und ATi vergessen.
Da zeigt schon das Spielmenue extrem starke Dithering Artefakte durch mehrfaches Blending. Im Spiel ist's auch nicht besser.

Bei Q3 hingegen haette ich kein Problem, das auch in 16Bit zu spielen.

Haarmann
2002-07-03, 11:02:49
Viele hier drinnen reden ewig von 16 Bit und blabla... Wem von euch ist eigentlich aufgefallen, dass fast 80% aller TFTs nur ca 16 Bit Farben darstellen? Das Problem an 16 Bit ist nicht die Farbzahl selber, sondern das, was die Chips berechnen hat nichtmals 16 Bit. Schönstes BSP ist das Ditheringmuster von NV - da ist klar wieso niemand mehr 16 Bit spielt. Guckt man das gleiche Bild mal auf ner Kyro an, so sieht 16 Bit plötzlich ganz nett aus.

Fazit 16 Bit sind eben nicht immer 16 Bit

ow
2002-07-03, 11:12:40
Haarmann

Das Dithering-Muster der ATIs sieht auch nicht besser aus. Wie ich oben schon schrieb ist es Game-abhaengig, ob 16Bit brauchbar sind oder nicht.

Pirx
2002-07-03, 11:17:17
Also ich fand 1024x768x16 in RtCW auf meiner MX gar nicht schlecht...

jedi
2002-07-03, 15:59:32
Originally posted by vogel

Dir wird es sehr sehr schwer fallen bei 1024x768 zwischen 16 und 32 bit zu unterscheiden.

UT 2003 hat sehr wenige Regenboegen und sanfte Farbverlaeufe ;)

-- Daniel, Epic Games Inc

Daniel, Du sitzt doch an der Quelle. Poste doch mal ein paar vergleichende Ausschnitte mit 16 und 32 bit. Aber bitte aus kritischen Szenen und nicht bei blauem Himmel. ;)

Gibt's in UT2003 keinen Nebel in dunklen Ecken mehr? Ein paar sanfte Farbverläufe muss es doch wohl noch geben. ;)

nocturne
2002-07-03, 23:43:45
am 4. Juli 2002, also in ein paar Tagen, soll ja America's Army (http://americasarmy.com/), das kostenlose Werbespiel der US-Army, zum Download bereitstehen.
Die Screenshots (http://americasarmy.com/ops/sshots/) sehen ja schon nicht schlecht aus.

Nachtrag: Der kostenlose Download (http://biz.yahoo.com/prnews/020702/sftu026_1.html) bei www.nvidia.com startet angeblich um 0:01 PST. Mit 9 Stunden Zeitunterschied müsste das bei uns also morgen (Donnerstag) vormittag um 9:01 sein. Bin mal gespannt, ob der Server den Ansturm aushält. Aber sicher gibt's schnell danach ein paar Mirrors.

Cool, dass man damit schon mal die neue Unreal-Engine testen kann, und das völlig für lau. :jump1:

Daniel, wie macht die Engine eigentlich genau die Schatten?

nocturne
2002-07-04, 00:13:17
P.S.: Oder sind's doch 10 Stunden Zeitverschiebung? ???

StefanV
2002-07-04, 00:15:00
Originally posted by nocturne
P.S.: Oder sind's doch 10 Stunden Zeitverschiebung? ???

Eher 12-13...

zeckensack
2002-07-04, 00:15:36
Originally posted by nocturne
P.S.: Oder sind's doch 10 Stunden Zeitverschiebung? ??? PST sind -9. Ich weiß aber nicht genau, ob drüben in den Staaten Sommerzeit genutzt wird ???

vogel
2002-07-04, 01:01:16
Originally posted by jedi
Daniel, Du sitzt doch an der Quelle. Poste doch mal ein paar vergleichende Ausschnitte mit 16 und 32 bit. Aber bitte aus kritischen Szenen und nicht bei blauem Himmel. ;)

Warte die Demo ab :)

PST sind -9 Stunden zu Deutschland

Schatten sind render to texture -> blur -> projected textures

-- Daniel, Epic Games Inc.

Garfield
2002-07-04, 08:07:48
der download hat begonnen :) bei nvidia

Demirug
2002-07-04, 08:27:38
Originally posted by vogel

Schatten sind render to texture -> blur -> projected textures

-- Daniel, Epic Games Inc.

Hab ihr dabei etwas gegen die üblichen Probleme von projected textures Shadows unternomen? Ich meine den allseits beliebten "etwas steht vor dem Gebäude aber der Schatten ist im Gebäude auf dem Boden zu sehen" Effekt. Oder hält sich das aufgrund des Leveldesigns in Grenzen?

Unregistered
2002-07-04, 08:55:26
daniel welches unreal engine build verwendet denn americas army?

Salvee
2002-07-04, 10:38:39
Da der Schatten in Nocturnes Screenshot so schön an der Wand abknickt, dürfte er im Nebenraum nicht zu sehen sein (ist 'ne DAU-Erklärung von mir :D)

Demirug
2002-07-04, 10:53:19
Originally posted by Salvee
Da der Schatten in Nocturnes Screenshot so schön an der Wand abknickt, dürfte er im Nebenraum nicht zu sehen sein (ist 'ne DAU-Erklärung von mir :D)

Als DAU Erklärung würde ich das nicht bezeichnen aber der abgeknickte Schatten sagt nichts darüber aus ob im Nebenraum ein Schatten zu sehen ist oder nicht.

Das mit die projected textures Shadows funktioniert ja nach folgendem Prinzip.

Der in einer Texture hinterlegte Schatten wird auf die Polygone projeziert die in zeigen sollen.
Bei der ganz einfachen Variante wird dabei nur auf den Bode abgebildet.
Bei dem optisch besseren System wird auf jedes Polygone das in der Schattenzone liegt die Projketion vorgenommen.

Bei den Screenshot wird der Schatten also einmal auf den Boden und dann auch noch auf die Wand abgebildet. Ob er nun aber auch auf den Boden hinter der Wand zu sehen ist läst sich aufgrund der shots nicht sagen. Darum auch meine Frage.

jedi
2002-07-04, 14:46:09
Originally posted by nocturne

Der kostenlose Download (http://biz.yahoo.com/prnews/020702/sftu026_1.html) bei www.nvidia.com startet angeblich um 0:01 PST. Mit 9 Stunden Zeitunterschied müsste das bei uns also morgen (Donnerstag) vormittag um 9:01 sein. Bin mal gespannt, ob der Server den Ansturm aushält. Aber sicher gibt's schnell danach ein paar Mirrors.


Im Moment ist die Bandbreite bei 3dgamers.com grösser als bei nvidia.com. Ich saug's mir gerade mit 85 k/sec. =)

:sniper:

nocturne
2002-07-05, 01:17:48
Cool, dass man damit schon mal die neue Unreal-Engine testen kann, und das völlig für lau. :jump1:


Witzig: in der .ini datei von America's Army sind ja schon Einträge zu finden wie "[XboxDrv.XboxClient]".

Anscheindend ist der XBox-Support schon in der Engine mit eingebaut. Naja, kein Wunder bei der Ähnlichkeit zum GeForce4.

The Invisible
2002-07-05, 10:50:10
Hat das Game schon wer gespielt?

Wie läuft es denn so ?

mfg

Silent Hunter
2002-07-05, 11:02:36
ich hab schon etwas gezockt, nur leider ist es Geforce KArten optimiert :( dadurch bekomm ich nicht berauschende fps...


Für die erste Version ist es ziemlich gelungen :)

Unregistered
2002-07-05, 16:07:04
Es läuft lahm wien Arsch, ist kompatibel zu gar nix ausserhalb NV Karten und sieht imho auch ned wirklich besser aus denn UT...
Zu Deutsch - Viel Hype um nix, aber man sollte ja mal abwarten, wie sich das noch bis zum Release entwickelt.

P.S. Die beste Karte für UT2003 gibts bisher nicht - schlichtweg, weils kein UT2003 gibt

b0wle`
2002-07-05, 17:11:26
Originally posted by Unregistered
Es läuft lahm wien Arsch, ist kompatibel zu gar nix ausserhalb NV Karten und sieht imho auch ned wirklich besser aus denn UT...
Zu Deutsch - Viel Hype um nix, aber man sollte ja mal abwarten, wie sich das noch bis zum Release entwickelt.

P.S. Die beste Karte für UT2003 gibts bisher nicht - schlichtweg, weils kein UT2003 gibt
Mach mal deine Klupscher auf oder hol dir ne bessre Grafikkarte.

Ich seh da schon gewaltige Unterschiede zu UT, besonders in den Außenarealen.

jedi
2002-07-05, 17:13:00
Originally posted by Unregistered

Es läuft lahm wien Arsch, ist kompatibel zu gar nix ausserhalb NV

Shit, sind die Treiber aller anderen Hersteller mal wieder so schlecht, dass sie mal wieder geflickt und auf die neue Unreal-Engine angepasst werden müssen? ;)

Haarmann
2002-07-05, 18:24:24
jedi

Versuchs mal mit denken... ev hilfts ;)
Beta Versionen werden kaum Beta genannt, weil alles geht

InsaneDruid
2002-07-05, 18:53:19
Beta? Bei Americas Army entdecke ich keinen Beta hinweis.

AlfredENeumann
2002-07-05, 19:22:28
Originally posted by InsaneDruid
Beta? Bei Americas Army entdecke ich keinen Beta hinweis.

Es ist aber definitiv nicht die Final Version.
Ich habe auch irgendwo gelesen das das GAme auf Nvidia-Karten hin optimiert sein soll. Aber das schaue ich lieber nochmal nach.

Xmas
2002-07-05, 19:45:48
Originally posted by AlfredENeumann
Es ist aber definitiv nicht die Final Version.
Ich habe auch irgendwo gelesen das das GAme auf Nvidia-Karten hin optimiert sein soll. Aber das schaue ich lieber nochmal nach.

Das Ding ist IMHO momentan nur eine Feiertagsdemo.

Das mit der NVidia-Optimierung hast du wahrscheinlich in der Pressemitteilung von NVidia gelesen ;)
Ich finds jedenfalls witzig dass beim Start erst mal ein riesiges "NVidia - the way it's meant to be played™"-Logo erscheint ;)

Unregistered
2002-07-05, 20:38:25
auf radeon 8500 läufts problemlos bei mir. auflösung 800*600. ABer so wirklcih vom hocker gerissen hat mich die grafik ganz und gar ned.
bei meinem nachbar hats auf der gf3 ti200 ned gefunzt immer komplettabstürze des rechners sobald man eine mission laden will...

StefanV
2002-07-05, 20:48:43
Originally posted by Unregistered
auf radeon 8500 läufts problemlos bei mir. auflösung 800*600. ABer so wirklcih vom hocker gerissen hat mich die grafik ganz und gar ned.
bei meinem nachbar hats auf der gf3 ti200 ned gefunzt immer komplettabstürze des rechners sobald man eine mission laden will...

NVidia ist halt Qualität *eg*

The Invisible
2002-07-05, 22:34:37
also ich habs mir jetzt mit meinem lahmen 56k modem auch gesaugt (ja >200MB) bei mir läufts sehr gut in 1024*768 mit allen Details.

auf jeden Fall besser wie die grafik bei UT.

mfg

Argo Zero
2002-07-05, 23:20:43
Ich spiel flüssig mit Radeon in 1024 und High Detail :)

AlfredENeumann
2002-07-05, 23:22:20
Originally posted by Xmas

Das Ding ist IMHO momentan nur eine Feiertagsdemo.

Das mit der NVidia-Optimierung hast du wahrscheinlich in der Pressemitteilung von NVidia gelesen ;)
Ich finds jedenfalls witzig dass beim Start erst mal ein riesiges "NVidia - the way it's meant to be played™"-Logo erscheint ;)

Yo. Da (http://www.nvidia.com/view.asp?IO=IO_20020701_7632) hab ichs auch wiedergefunden.

monstar-x
2002-07-06, 14:34:40
sehr schöner thread danke für die vielen infos @ all...
special thx to Dani.

hmhm hat ja nur 1,5 std gedauert den ganzen thread zu lesen.

greetz

bambo
2002-07-06, 22:37:12
Originally posted by monstar-x
sehr schöner thread danke für die vielen infos @ all...
special thx to Dani.

hmhm hat ja nur 1,5 std gedauert den ganzen thread zu lesen.


Puhh, bin auch gerade durch. Ist ja ein Riesenthread.

Schön, dass auch Dark Project 3 die neue Unreal-Engine bekommen soll, da freu ich mich schon drauf. Thief 1 und 2 fand ich klasse, aber die Grafik war zum davonlaufen. So polygonarm und so viele Farbartefakte, dass man den Eindruck hatte, alles wäre nur in 8 bit gerendert. Welche Engine hatten eigentlich Thief 1 und 2?

nggalai
2002-07-06, 22:43:17
Originally posted by bambo
Welche Engine hatten eigentlich Thief 1 und 2? Das war die "Dark" Engine, eine Eigenentwicklung des Studios.

Und sooo schlecht fand ich die gar nicht. Etwas langsam, aber nicht super-übel. ;)

ta,
-Sascha.rb

Exxtreme
2002-07-07, 09:14:55
@ Daniel
Zwei Fragen hätte ich noch.
1. Wo liegen die Unterschiede zw. den Engines von Unreal1 und Unreal Tournament?

2. Wo bekommt man deinen OpenGL-Renderer? Leider ist die Seite von Loki geschlossen. Ich will mir mal UT mit komprimierten Texturen ansehen.

Gruß
Alex

mirp
2002-07-07, 10:20:10
Originally posted by Exxtreme
2. Wo bekommt man deinen OpenGL-Renderer? Leider ist die Seite von Loki geschlossen. Ich will mir mal UT mit komprimierten Texturen ansehen.

http://www.3dcenter.org/downloads/unreal-tournament-s3tc.php

Exxtreme
2002-07-07, 10:38:06
Thanks.

Gruß
Alex

StefanV
2002-07-07, 11:08:32
Originally posted by Exxtreme
2. Wo bekommt man deinen OpenGL-Renderer? Leider ist die Seite von Loki geschlossen. Ich will mir mal UT mit komprimierten Texturen ansehen.


Eigentlich gehörst du für diese Frage geschlagen :naughty:

Schaust dir auf 3DCenter nur die News an?? ;)

Aber du bist anscheinend nicht der einzige...

vogel
2002-07-07, 21:25:37
Originally posted by Exxtreme
1. Wo liegen die Unterschiede zw. den Engines von Unreal1 und Unreal Tournament?

2. Wo bekommt man deinen OpenGL-Renderer? Leider ist die Seite von Loki geschlossen. Ich will mir mal UT mit komprimierten Texturen ansehen.

1. Ich schaetze hauptsaechlich Skript, Net und UI code.

2. http://unreal.epicgames.com

-- Daniel, Epic Games Inc.

bambo
2002-07-08, 00:41:43
Originally posted by vogel

-- Daniel, Epic Games Inc.

Daniel, was ist eigentlich genau Dein Aufgabengebiet bei Epic, also für welche Teile der Engine bist Du zuständig? Würde mich interessieren, wie viele Leute eigentlich parallel an der Engine arbeiten und wie das aufgeteilt wird.

mictasm
2002-07-08, 03:02:03
Was für ein Thread! Es war wirklich eine Freude diese 36 Seiten zu lesen! Bis auf kleine Ausnahmen war er super!

[leicht OT]
Leider ist aber eine Frage offen geblieben: Wird mehr als ein Prozessor unterstützt? Ich frag nur, damit ich weiss in welchen Rechner die neue Grafikkarte kommt :D

MIC

vogel
2002-07-08, 05:13:20
Originally posted by bambo
Daniel, was ist eigentlich genau Dein Aufgabengebiet bei Epic, also für welche Teile der Engine bist Du zuständig? Würde mich interessieren, wie viele Leute eigentlich parallel an der Engine arbeiten und wie das aufgeteilt wird.
Wir sind so an die neun Programmierer bei Epic.

Grob ist die Sache so aufgeteilt:

Andrew : renderer and anything renderer related, collision
Erik : skeletal meshes
Jack : terrain, material system, master server
James : karma, collision
Joe : gameplay
Steve : AI, gameplay, physics
Tim : R&D
Warren : Editor, Matinee

Wobei Steve Polge am meisten zu tun hat :)

Da ich persoenlich genau weis womit ich meine Zeit verbringe ist meine Liste ein wenig laenger... also nicht weil ich irgendwie fleissiger waere oder mehr zu tun haette ;)

Ungeordnet: compatibility & scaleability, ihv contact, xbox, l00nix, sound, particles und alles moegliche low level Zeugs wie input, "windowing" und Teile des D3D renderers.

-- Daniel, Epic Games Inc.

PS: vergiss Digital Extremes nicht :)

vogel
2002-07-08, 05:14:05
Originally posted by mictasm
Wird mehr als ein Prozessor unterstützt?
Nicht wirklich.

-- Daniel, Epic Games Inc.

Torian.cc
2002-07-08, 06:40:11
Originally posted by Gohan


Das kannst du nicht auf alle Ti4200 verallgemeinern. Und wenn, das schafft KAUM eine Karte. Ti4400 ist gut möglich drin.


Hola,

ich habe eine ASUS V8440 mit TI4400 Chip!
Kann ich die schon mit dem Hauseigenen Lüfter gut übertakten (wenn ja, wieviel (ohne Hitze- und sonstige Probleme!!!)?), oder muss da erst so´n Hammer-Graka-Kühler drauf, wie z.B. Christal-Orb???

Danke und MfG
Tori
__________

MATROX RULEZ

nggalai
2002-07-08, 08:40:50
Ola Tori,

Du hast eine PM erhalten (da V8440 hier OT wäre . . .) ;)

ta,
-Sascha.rb

bambo
2002-07-08, 14:47:22
Originally posted by vogel

Tim : R&D


Research & Development klingt sehr abstrakt. Macht also Tim Sweeney also gar nicht mehr so viel Programmierarbeit an der Engine wie früher?

BigBen
2002-07-08, 18:29:04
Hi Leute,

ich habe den Thread eine Weile nicht mehr soo mitverfolgt, weil es hier auch ab und zu arg ins Off-Topic übergeht. Vorgestern habe ich mir dann mal die letzten 20 Seiten fast ganz durchgelesen und wolle jetzt auch mal wieder etwas mitreden :)

Kann man nach dem letzte GPU-Vergleich von Anandtech, bei dem die relativ aktuelle UT 2003 Build benutzt worden ist, überhaupt schon sagen, wie es mit der endgültigen Performence bis zur Final aussehen wird? bleibt das etwa so, das die GeForce4 Ti Karten gegenüber den Radeon 8500er Karten so stark die Nase vorn haben (kann ich mir nur schwer vorstellen)?

Natürlich kann man das jetzt nicht genau beantworten, aber wenn ich dann so krasse Unterschiede bei den Radeon 8500 Karten zwischen "high detail" und "medium" sehe, oder ich in einem anderen Forum lese, das die Leute in anderen Maps, die nicht bei Anandtech getestet worden sind, selbst mit einr GeForce 4 Ti und einer schnellen CPU, eine ganz üble Framerate haben, bezweifle ich irgendwie, das man jetzt überhaupt schon ein relativ endgültiges Urteil über die Performence in UT 2003 abgeben kann...

MfG
BigBen

bambo
2002-07-08, 19:50:59
Originally posted by BigBen

Kann man nach dem letzte GPU-Vergleich von Anandtech, bei dem die relativ aktuelle UT 2003 Build benutzt worden ist, überhaupt schon sagen, wie es mit der endgültigen Performence bis zur Final aussehen wird? bleibt das etwa so, das die GeForce4 Ti Karten gegenüber den Radeon 8500er Karten so stark die Nase vorn haben (kann ich mir nur schwer vorstellen)?


Das ist doch nicht Unreal-spezifisch. Die GeForce4 Ti Karten haben doch auch bei fast allen anderen Spielen die Nase vorne. Die GF4 sind eben zur Zeit die schnellsten und die Radeon8500 spielt eben "nur" in der GF3-Klasse.

Unregistered
2002-07-08, 19:54:32
Es gibt aber Leute die das nicht begreifen wollen...

BigBen
2002-07-08, 20:25:06
@bambo & Unreg.:
Ich weiss, das die GeForce 4 Ti Karten nicht nur in UT 2003 schneller als die Radeon 8500 Karten sind, aber einen so krassen Unterschied finde ich schon etwas seltsam, da mir im Moment auch kein Spiel oder Benchmark bekannt ist, welche auch so krasse Unterschiede aufweisen.
Dann kam halt noch hinzu, das hier und auch in anderen Foren, viele leute von Performencegewinnen durch bessere Treiber gesprochen haben usw... aber nach dem Test bein Anandtech und ein paar Threads in anderen Foren (zur geleakten Beta), scheinen ja selbst die GeForce 4 Karten noch ihre Probleme mit UT 2003 zu haben (Performenceeinbrüche usw..) und deswegen bin ich halt davon ausgegangen, das sich da noch Einiges tun könnte und vielleicht auch die besseren Radeon Karten (8500), davon profitieren können.

Bin sehr gespannt, wir das Spiel in der Demoversion laufen wird und dann werde ich mir wohl eine GeForce 4 Karte kaufen müssen :-D

MfG
BigBen

Exxtreme
2002-07-08, 20:27:59
Originally posted by BigBen
Bin sehr gespannt, wir das Spiel in der Demoversion laufen wird und dann werde ich mir wohl eine GeForce 4 Karte kaufen müssen :-D

MfG
BigBen
Warte lieber auf die R300. Sie wird ca. 350 US-$ kosten und Anand hat durchblicken lassen, daß die R300 ein richtiger Gegner für die GF4Ti4600 sein wird - speziel unter UT2003.

Gruß
Alex

BigBen
2002-07-08, 20:47:52
Hi Extreeme,

das mit der R300 habe ich mir auch schonmal durch den Kopf gehen lassen, aber bis die Karte kommt, dürfte UT 2003 schon eine kleine Ewigkeit zu kaufen sein :( und dann müsste ich erstmal mit meiner Kyro II auskommen *arrgh*
Man hätte dann aber die Vorteile, das man wesentlich mehr Speed zur Verfügung hat, die Thrueform-Models in UT 2003 nutzen kann :), optimiertere und resourcenfreundlichere Filtermethoden hat usw... aber Wer wartet schon gerne :-)


MfG
BigBen

Exxtreme
2002-07-08, 20:51:59
Klar, ich warte auch nicht gerne. Nur stell dir vor, wie es dich ankotzen wird wenn die R300 sich tatsächlich so gut schlägt wie von Anand angedeutet. Ausserdem sagen mehrere Quellen, daß die R300 in 9 Tagen vorgestellt wird und der ATi CEO auch gesagt hat, daß ATi erst dann einen Chip ankündigt wenn sie bereit sind zum Liefern.

Gruß
Alex

Unregistered
2002-07-08, 20:58:27
Naja wenn man sieht wie ATI mit der Radeon8500 Treibern umging da ahnt mir schlimmes für die R300.

Zudem hält Nvidia noch den Detonator5 zurück der wird wie letztes Jahr den Launch von ATI kräftig versalzen.
Ich hatte monatelang ne Radeon8500 Retail im Rechner aber die Bildqualität und die seltsamen Slowdowns in einigen Games nervten doch über die Zeit hinweg. Ein Kumpel von mir verkaufte seine nun auch und holte sich ne günstige Geforce4 Ti4200 und ist restlos zufrieden alles funzt prima keine Harakiri Treiber mehr usw.
Wird Zeit das der Geforce5 erscheint kanns kaum noch erwarten :D

vogel
2002-07-08, 21:06:00
Originally posted by BigBen
Kann man nach dem letzte GPU-Vergleich von Anandtech, bei dem die relativ aktuelle UT 2003 Build benutzt worden ist, überhaupt schon sagen, wie es mit der endgültigen Performence bis zur Final aussehen wird? bleibt das etwa so, das die GeForce4 Ti Karten gegenüber den Radeon 8500er Karten so stark die Nase vorn haben (kann ich mir nur schwer vorstellen)?

Performance duerfte relativ gleich bleiben aber durchweg ein paar fps weniger sein da die Level mittlerweile mehr Detail haben. Der Vorsprung der GF4 Ti koennte u.U. ein wenig groesser werden und es ist sehr unwahrscheinlich, dass er weitaus kleiner wird.

Anand hat 'nen flyby gebencht - die gameplay Performance ist geringer. Die leaked Version hat sehr starke Performanceprobleme mit gameplay und ist schon alleine deshalb nicht representativ.

-- Daniel, Epic Games Inc.

BigBen
2002-07-08, 21:13:52
Originally posted by vogel
Performance duerfte relativ gleich bleiben aber durchweg ein paar fps weniger sein da die Level mittlerweile mehr Detail haben. Der Vorsprung der GF4 Ti koennte u.U. ein wenig groesser werden und es ist sehr unwahrscheinlich, dass er weitaus kleiner wird.

Anand hat 'nen flyby gebencht - die gameplay Performance ist geringer. Die leaked Version hat sehr starke Performanceprobleme mit gameplay und ist schon alleine deshalb nicht representativ.

-- Daniel, Epic Games Inc.

Vielen Dank für die Antwort, ich glaube jetzt kann ich wieder ruhiger schlafen =)

[Edit]: Jetzt müssten wir nur noch wissen, wann UT 2003 kommt ;-)

MfG
BigBen

Birdman
2002-07-08, 21:15:31
wenn ATi den 17. Juli wirklich als vorstellungsdatum bringt, kann man mit den ersten lieferbaren karten wohl etwa im september rechnen...knapp nach dem UT2003 launch.
Wenn dazu noch alle wichtige hardwarebugs des r200 gefixt sind (AF, Mipmap, slowdowns/stalls und schneller+schönes FSAA) die Treiber besser sind als die r200 beim erscheinen, dann wird das sicher ne nette karte, die ich mir reinziehen werde....
Wenn die GF5 kommt wird die radeon allerhöchstwarscheinlich wieder weichen müssen, aber 3-4 Monate die gleiche karte iss eh schon fast zuviel für mich ;)

Exxtreme
2002-07-08, 21:17:58
Originally posted by Birdman
aber 3-4 Monate die gleiche karte iss eh schon fast zuviel für mich ;)
Zu viel Geld oder was? Wenn ja, dann kannst du mir vielleicht einen netten Betrag überweisen.
;) ;)

Gruß
Alex

wowbagger
2002-07-08, 21:20:36
mal noch ne frage an daniel zur physik:

mekrt man es wenn ein toter gegner gegen einen fliegt, der von den kugeln die ihn treffen zurückgeworfen wird??? dann könnte man davon reden das die physik engine was drauf hat! das karma-engine movie hab ich gesehen! sieht schon sehr realistisch aus was die karma engine da liefert...

bambo
2002-07-08, 21:28:34
Originally posted by Unregistered
Naja wenn man sieht wie ATI mit der Radeon8500 Treibern umging da ahnt mir schlimmes für die R300.


Hey, wenn man das extrapoliert, dann wird ATI immerhin im nächsten Frühling 2003 zumindest die schlimmsten Bugs aus den Treibern raus haben. *eg*

bambo
2002-07-08, 21:32:09
Originally posted by vogel

Der Vorsprung der GF4 Ti koennte u.U. ein wenig groesser werden und es ist sehr unwahrscheinlich, dass er weitaus kleiner wird.

-- Daniel, Epic Games Inc.

Danke für die klare Aussage, Daniel.

nocturne
2002-07-09, 01:15:06
Originally posted by vogel

Performance duerfte relativ gleich bleiben aber durchweg ein paar fps weniger sein da die Level mittlerweile mehr Detail haben. Der Vorsprung der GF4 Ti koennte u.U. ein wenig groesser werden und es ist sehr unwahrscheinlich, dass er weitaus kleiner wird.

-- Daniel, Epic Games Inc.

Du meinst damit:

"Je mehr Details dazukommen, desto mehr brechen die Nicht-GF4-karten weg" ?

P.S.: Dass die GF4-Karten wieder mal (wie auch bei anderen Spielen) an der Spitze liegen, verwundert (bis auf ein paar Fanatiker) wirklich niemanden... ;)

MadManniMan
2002-07-09, 02:03:28
und das gerade du das so derbe unterstreichst, ist wohl auch keine überraschung ;)

aber wo ich gerade dabei bin - du erwähntest vor ner weile, daß der durchschnittsuser lieber die res hochschraubt als an aa una af hand anzulegen... sicherlich würde ich auch gern in 16*12 spielen, allerdings bin ich wohl nicht der einzige mit nem fuck-17" der gerade mal in 1024 85hz spuckt.

btw sieht 1024 mit 2*rg besser aus als 1280 pur...

vogel
2002-07-09, 03:09:59
Originally posted by nocturne
"Je mehr Details dazukommen, desto mehr brechen die Nicht-GF4-karten weg" ?

Kommt auf die Details an. Z.b. ist eine GF4 Ti bei detail textures vergleichsweise schneller, d.h. desto mehr wir unsere Level mit densolchen Pflastern, desto groesser wird der Geschwindigkeitsunterschied bei maximalen detail settings. Mit Gameplay sieht die Sache wieder anderst aus - da sind solche kleinen Unterschiede kaum auszumachen. Gameplay ist aber sehr schwer zu benchen.

-- Daniel, Epic Games Inc.

BigBen
2002-07-09, 03:28:35
@Daniel Vogel:
Ich glaube Nocturne meine mit "Details" nicht nur Texturen.

Oder bedeuten die gemeinten Detail-Settings etwa, das lediglich die Texturen von UT 2003 verändert werden und sich das so auf die Performence auswirkt, wie Du (Daniel V.) es eben beschrieben hast?

MfG
BigBen

vogel
2002-07-09, 04:47:40
Originally posted by BigBen
@Daniel Vogel:
Ich glaube Nocturne meine mit "Details" nicht nur Texturen.

Bei den anderen Details die hinzugefuegt werden wird sich das Bild relativ nicht viel aendern. Detail Textures hingegen helfen der GF4 Ti Ihren Vorsprung auszubauen... sollte mal genau nachbenchen.

-- Daniel, Epic Games Inc.

mictasm
2002-07-09, 05:10:04
Also jetzt muss ich doch noch die Überschrift dieses Themas wiederholen.

@Daniel: Welche Grafikkarte würdest du für UT2003 anschaffen, wenn du jetzt eine neue Karte brauchst?

MIC

vogel
2002-07-09, 07:06:12
Originally posted by mictasm
@Daniel: Welche Grafikkarte würdest du für UT2003 anschaffen, wenn du jetzt eine neue Karte brauchst?

Die schnellste im Handel erhaeltliche Karte fuer UT 2003 ist im Augenblick eine GeForce 4 Ti 4600. Welche Karte fuer Dich am besten ist haengt von Deinem Budget ab.

http://www.anandtech.com/video/showdoc.html?i=1647

http://www.anandtech.com/guides/showdoc.html?i=1646&p=4

-- Daniel, Epic Games Inc.

vogel
2002-07-09, 07:08:48
Originally posted by vogel
Die schnellste im Handel erhaeltliche Karte fuer UT 2003 ist im Augenblick eine GeForce 4 Ti 4600. Welche Karte fuer Dich am besten ist haengt von Deinem Budget ab.

Ich wuerde aber mit der Anschaffung einer neuen Grafikkarte (fuer UT2003) warten bis die Demo oder das Spiel draussen ist denn Preise fallen staendig :)

-- Daniel, Epic Games Inc.

mictasm
2002-07-09, 07:51:38
Danke und danke :D

MIC

The Invisible
2002-07-09, 10:14:40
Ich hätte auch noch eine Frage. Sorry wenn sie schon gestellt wurde ;)

Welche Rolle wird die CPU bei UT2003 spielen? Bei UT war die Engine ja stark CPU limitiert und man hatte mit guten Grafikkarten bei 1600x1200 annähernd gleich viele fps wie bei 640x480.

Was ich aber bei UT2003 gesehen habe wird diesmal die Grafikkarte wichtiger, oder liege ich da falsch?

mfg

LovesuckZ
2002-07-09, 12:00:53
@ Daniel Vogel,

Sie erwehnen immer, wie sollen doch auf die Demo warten. Da die Demo fruehsten in 2 Wochen veroeffentlicht, kann man dadraus schliesen, dass Ut2003 sich nicht am 2.8.2002 bei uns in den Laeden befinden wird? Ich denke, die Vermutung liegt nahe, da sie es wahrscheinlich nicht schaffen, innerhalb von einer/ anderthalb Woche[n], dass Feedback auszuwerten und entstandene Probleme zu enfernen...

Das sind meine Gedanken die ich schon laenger im Kopf hatte. Sie wurden nur Heute gestaerkt, durch eine Newsmeldung von gamestar.de (http://www.gamestar.de/news/pc-spiele/action/9282/) , welche logisch klingt.

nocturne
2002-07-09, 12:08:24
Originally posted by The Invisible

Welche Rolle wird die CPU bei UT2003 spielen? Bei UT war die Engine ja stark CPU limitiert und man hatte mit guten Grafikkarten bei 1600x1200 annähernd gleich viele fps wie bei 640x480.

Was ich aber bei UT2003 gesehen habe wird diesmal die Grafikkarte wichtiger, oder liege ich da falsch?


Yepp, ein paar Benchmarks auf Mittelklasse-CPUs im 1-GHz-Bereich wären mal sehr interessant. Aber immerhin ist die neue Unreal-Engine ja auch für die XBox optimiert, und die hat im Prinzip eine Art GeForce4 und eine Art PIII/Celeron mit 800 MHz.

SubZero
2002-07-09, 17:41:59
etwas utopisch, aber überlegt ihr für zukünftige builds der unreal-engine vielleicht eine x86-64 unterstützung mit einzubauen? oder wäre das zu aufwendig oder gar ohne zugewinn an geschwindigkeit?