PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon8500 oder Ti200


Joe
2001-10-29, 15:14:21
Das is die Frage die sich einige (ich auch) wohl sicher im Moment stellen.
Nun wenn ATI auch nur halbwegs anständige Treiber programmiert hätte wäre meine Entscheidung schon lang gefallen aber wie es halt so is im leben... :)
Ich spiele seit gestern erstmals mit dem gedanken einer Ti200 aus folgenden Gründen:
1) Bessere Treiber
2) Ist praktisch eine ausgelesene Ti500
3) X-Box Ich meine damit alle Spiele der selbigen auch automatisch NV optimiert sind
4) Sehr gut übertacktbar (wenn man ein bischen glück hat)
5) NV hat einfach den besten entwicklersupport und alle Hammergames werden irgentwie NV ausgerichtet sein (DOOM3, HALO, Unreal2 usw)
6) Sehr gutes Preis-Leistungverhältnis (meiner Meinung nach wesentlich besser als die GF2MX)

Nun mal ein paar fragen ich hab da so ein paar Karten ins Auge gefasst.....
Die Prophet III Ti200 die Elsa Gladiac 721
Drängt sich irgenteine Garte besonders auf?! Die Prophet überzeugt durch schnellen Speicher
Was ist mit den Gainward golden Sampels was sagt die genaue Typenbezeichnung ich wies nur das verschiedener Speicher verbaut wird
Sind die Golden Sampels nochmal Speziell ausgelsene Ti200 die Man höher tackten kann?!

Das is alles gruß Patrick

Andre
2001-10-29, 15:20:56
Mal ne blöde Frage:

Wieviele Radeon 8500 vs. NV TI und "Welche Ti soll ich nehmen?"-Threads werden denn noch aufgemacht ?
Kann man das nicht ein bischen komprimieren ?
Da verliert man echt den Überblick, sorry.

Korak
2001-10-29, 15:25:03
@ Andre

Immer dran denken nur der Kleingeist hält Ordnung, das Genie beherrscht das Chaos :D.

Aber du hast recht, das Thema wurde wirklich breit getreten.

Zur Frage:

Me würde ne R8500 nehmen.

Pengo
2001-10-29, 15:41:02
Meine Gainward Ti200 Golden Sample heißt offiziell Gainward Geforce 3 Ti 450 (DM 549,-). Keine Ahnung was für Speicher drauf ist, kann man es softwaretechnisch auslesen? (hab keinen Bock den Kühler runterzutun).

Joe
2001-10-29, 15:51:25
Originally posted by Pengo
Meine Gainward Ti200 Golden Sample heißt offiziell Gainward Geforce 3 Ti 450 (DM 549,-). Keine Ahnung was für Speicher drauf ist, kann man es softwaretechnisch auslesen? (hab keinen Bock den Kühler runterzutun).
Wo hast du die HEr ich denk die Gainward gibts noch nirgents zu kaufen

Pengo
2001-10-29, 15:53:41
Freitag mittag bei Avitos bestellt (laut Webseite war auf Lager), Samstag 10:00 war sie bei mir.

Joe
2001-10-29, 15:55:07
Thx

Kosh
2001-10-29, 16:05:49
Ich würde mir auf jedenfall die Radeon 8500 kaufen.

Joe
2001-10-29, 16:26:59
@ Pengo
Stimmt das das da ein Wärmeleitpad verbaut wurde?!
Und wenn hast es Rausgenommen oder dringelassen und wie Heiss wird sie?!

Pengo
2001-10-29, 17:10:52
Ich hab mir die Karte nicht genau angeschaut, schnell rein und Gehäuse zu, die Karte wird aber nicht so warm wie meine alte GF2, laut Motherboard Monitor ist Gehäusetemp um 5C gesunken.

Joe
2001-10-29, 17:24:32
Hab mir den Burschen auch ma Geordert :)

Pengo
2001-10-29, 17:40:41
Dann drücke ich dir die Daumen, ein Kumpel hat seine heute bekommen (auch Freitags bestellt, allerdings nachmittags) und seine schafft "nur" 220/470 (meine 240/500) :)

Joe
2001-10-29, 17:44:30
Thx
Ich denke meine wird morgen abend oder mitwoch kommen jenachdme wo das lager von denen ist
Ich Übertackte meine Erstmal nicht (wozu auch) oder nur auf 200/450
ich glaub bei 900MHz macht sich das auch nich so deutlich bemerkbar oder doch?!

Unregistered
2001-10-29, 17:55:41
naja,
ich trau ja ati nicht, es wär ihnen und dem grafikkartenmarkt zu gönnen mal gute konkurenz zu nvidia zu bieten, allein wegen der preise, aber ati hat immer im bezug auf treiber support immer mist gebaut, ich persönlich hab keinen bock auf experimente, und da meine Karte langsam den geist aufgibt, hab ich mir ne Herkules GF3 Ti200 bestellt (559,-DM), hat jemand Daten über das Ram Timing der Karte? hab neulich gelesen die würden schnelleres DDR Ram verbauen..

biss denn
heiko

Joe
2001-10-29, 18:23:03
Originally posted by Unregistered
naja,
ich trau ja ati nicht, es wär ihnen und dem grafikkartenmarkt zu gönnen mal gute konkurenz zu nvidia zu bieten, allein wegen der preise, aber ati hat immer im bezug auf treiber support immer mist gebaut, ich persönlich hab keinen bock auf experimente, und da meine Karte langsam den geist aufgibt, hab ich mir ne Herkules GF3 Ti200 bestellt (559,-DM), hat jemand Daten über das Ram Timing der Karte? hab neulich gelesen die würden schnelleres DDR Ram verbauen..

biss denn
heiko

Ws haste denn bestellt is von kare zu karte verschieden

Tarkin
2001-10-29, 18:50:17
Originally posted by Unregistered
naja,
ich trau ja ati nicht, es wär ihnen und dem grafikkartenmarkt zu gönnen mal gute konkurenz zu nvidia zu bieten, allein wegen der preise, aber ati hat immer im bezug auf treiber support immer mist gebaut, ich persönlich hab keinen bock auf experimente, und da meine Karte langsam den geist aufgibt, hab ich mir ne Herkules GF3 Ti200 bestellt (559,-DM), hat jemand Daten über das Ram Timing der Karte? hab neulich gelesen die würden schnelleres DDR Ram verbauen..

biss denn
heiko

Für 589,-- bekomme ich eine Radeon 8500 mit Hydravision, Smoothvision (ab Mitte Nov.), Truform, DX 8.1 Kompatibilität, 400MHz RamDAC, etc, etc...

Ich kann nur sagen, ich verstehe es nicht, wie man sich eine TI200 kaufen kann. Ist doch unlogisch bis zu Geht-nicht-mehr! Das Argument mit den schlechten Treibern ist nur ein temporäres (seht euch mal im Rage3d -Forum um, da gibts genügend 8500 Besitzer, die hochzufrieden damit sind)

btw gibts sicher bald Radeon 8500LE um ca. (unter) 400 DM (185USD @ Newegg.com)

Ich würde mir das mit der TI 200 an eurer Stelle noch mal gut überlegen. Möglicherweise bereut Ihr es in 2-3 Wochen!

syronth
2001-10-29, 18:56:37
Hehe, ich bereue schon meinen GF3 Kauf. Aber nur ein wenig, da sie eine Ti500-Taktung gelassen mitmacht. War trotzdem scheißteuer ;-)

Die Radeon8500 scheint eine absolut solide Sache zu sein, bis auf dieses ärgerliche Treibergeficke jüngst, das sich aber wohl wieder eingerenkt hat.
Hätte ich nicht schon die GF3, würde ich kurzerhand zur Radeon greifen.

ow
2001-10-29, 18:59:42
Originally posted by Pengo
Dann drücke ich dir die Daumen, ein Kumpel hat seine heute bekommen (auch Freitags bestellt, allerdings nachmittags) und seine schafft "nur" 220/470 (meine 240/500) :)


Am besten erst mal vorsichtig (bei Standardtakt) 'einfahren', die Chips.
Denn im Neuzustand laufen die noch nicht so richtig rund;).

Denn dann

a) halten sie länger

b) laufen sie später auf noch höheren Takten....

c)... was aber natürlich die Lebensdauer wieder reduziert;)

ow
2001-10-29, 19:04:57
Originally posted by syronth
Hehe, ich bereue schon meinen GF3 Kauf. Aber nur ein wenig, da sie eine Ti500-Taktung gelassen mitmacht. War trotzdem scheißteuer ;-)

Die Radeon8500 scheint eine absolut solide Sache zu sein, bis auf dieses ärgerliche Treibergeficke jüngst, das sich aber wohl wieder eingerenkt hat.
Hätte ich nicht schon die GF3, würde ich kurzerhand zur Radeon greifen.


Die GF ist derzeit klar die bessere Wahl, da ausgereifte, stabile und schnelle Treiber.

Bei ATi muss sich erst noch zeigen, ob sie Treiber in NV-Qualität hinbekommen, dann ist die R8500 sicher eine hervorragende Karte.

Pengo
2001-10-29, 19:11:03
Originally posted by Tarkin


Für 589,-- bekomme ich eine Radeon 8500 mit Hydravision, Smoothvision (ab Mitte Nov.), Truform, DX 8.1 Kompatibilität, 400MHz RamDAC, etc, etc...

Ich kann nur sagen, ich verstehe es nicht, wie man sich eine TI200 kaufen kann. Ist doch unlogisch bis zu Geht-nicht-mehr! Das Argument mit den schlechten Treibern ist nur ein temporäres (seht euch mal im Rage3d -Forum um, da gibts genügend 8500 Besitzer, die hochzufrieden damit sind)


Hydravision: brauchen 99.7% nicht
Trueform: für neue Spiele sinnlos, wer alte Spielen will ist es vielleicht nützlich (wenn man genug Patches bekommt)
DX8: braucht niemand, egal ob bei R8500 oder GF3
400MHz Ramdac: und trotzdem nur befriedigende SQ

Ich habe mir eine Ti200 gekauft weil ich etwas solides will und Realist bin, denke nicht daß es ATI jemals mit den Treibern hinbekommen wird, dazu müssten sie fast neu anfangen, zusammenflicken reicht nicht.

Tarkin
2001-10-29, 19:19:31
Originally posted by Pengo


Hydravision: brauchen 99.7% nicht
Trueform: für neue Spiele sinnlos, wer alte Spielen will ist es vielleicht nützlich (wenn man genug Patches bekommt)
DX8: braucht niemand, egal ob bei R8500 oder GF3
400MHz Ramdac: und trotzdem nur befriedigende SQ

Ich habe mir eine Ti200 gekauft weil ich etwas solides will und Realist bin, denke nicht daß es ATI jemals mit den Treibern hinbekommen wird, dazu müssten sie fast neu anfangen, zusammenflicken reicht nicht.

Du hast wiklich tolle Argumente!

... und welche unsinnigen Features hat die GeForce 3??

- Quincunx
- T&L
- blah blah blah

Also bitte! Nur weil du Hydravision nicht brauchts, kannst du noch lange nicht von einem unsinnigen Feature sprechen!

Von der Austattung, Features, Preis, gebe ich der ATI den Vorzug. Nur schnell sein, reicht nicht!

Unregistered
2001-10-29, 19:50:44
->denke nicht daß es ATI jemals mit den Treibern hinbekommen wird, dazu müssten sie fast neu anfangen, zusammenflicken reicht nicht.<-
genau meine meinung, die sollen mal geld für gute programmierer ausgeben, sacht ja auch keiner das das teil schlecht ist, im halben jahr kann man über solche dinge nochmal reden, rein idiologisch hät ich mir auch ne ati geholt, aber noch nicht!

offtopic: kann man den angaben vom motherboard monitor trauen, hatte gerade kurzzeitig 97° auf meinen Duron800@886

heiko

Joe
2001-10-29, 20:13:58
Originally posted by Unregistered
kann man den angaben vom motherboard monitor trauen, hatte gerade kurzzeitig 97° auf meinen Duron800@886

heiko
Denke nicht soweit ich weis mögen silicium Halbleiter keine temperaturen oberhalb von 70°C

ow
2001-10-29, 20:37:17
Originally posted by NixWisser

Denke nicht soweit ich weis mögen silicium Halbleiter keine temperaturen oberhalb von 70°C


Da liegst du falsch. Selbst einige der AMD CPUs sind für DIE Temp. bis 90° ausgelegt.

Weniger komplexe Halbleiter-Bauelement (Leistungstransistoren,...) funktionieren bis über 100°C.

Razor
2001-10-29, 20:44:38
Zur Radeon8500:

ATI hätte wirklich noch so 1-2 Monate warten sollen, um dann eine Hardware mit vernünftigen Treibern hinzulegen. Aber dieser Frühstart ist in jeder Konsequenz nach hinten los gegangen. Kein Smoothvision und ein 'Cheat' um wenigstens in einem Real-World-Bench der Ti500 paroli zu bieten. Hmmm...

Warum haben sie das nicht so gemacht, wie mit der Radeon7500 ? Wenn man sich diesen Start anschaut, dann gibt's nichts daran auszusetzen: solide Hardware und dazu passende Treiber und ein paar nette Features, die auch funktionieren...

Jetzt hat ihr Image einen Knacks abbekommen (sicherlich nichts, was sich nicht wieder beheben lassen wird). Aber nun muß sich ATI auch sagen lassen, daß sie Tricks benutzen, was man vorher eigentlich nur nVidia nachgesagt hatte...

Auch glaub' ich kaum, daß die Radeon8500LE für 400 Märker zu haben sein wird, schließlich kommt auf die US-Preise ja noch 'nen bischen was drauf. Also wird sich diese wohl so bei 500 Märkern bewegen, schon um nicht der Radeon7500 den Rang abzulaufen... Und da die Radeon8500 ja gerade mal auf Ti200-Nivau kommt, würden mich wirklich mal Benches interessieren, wie dann eine Radeon8500LE abschneidet... GF2Ti-Nivau ?

Zur Ti200:

Sauberer Start, grundsolide (und erprobte) Technik für einen annehmbaren Preis (so ca. 500-550 DM). Guter Treiber-Support und hohe Kompatibilität und vor allem auch vernünftige W32-Treiber...

Mich wundert es nicht, daß all diejenigen, die ja nun schon soooo lange auf 'ne neue GraKa warten, nun zur Ti200 greifen, da diese einfach gf3-Leistung bringt und lange nicht soviel kostet.

-

Mich freut's in jedem Fall, ganz egal, ob nun Radeon's oder Ti's verkauft werden. Denn die Verbreitung von DX8-Hardware kommt nun ins rollen und damit werden uns demnächst nette DX8-Dinge in Haus stehen. Zuerst mal Techdemo's, später dann mehr...
;-)

Ich will endlich richtige DX8-TechDemo's !
Der Nature-Test bei 3dMurks war ja erst der Anfang !

In diesem Sinne

Razor

Pengo
2001-10-29, 21:02:32
Ohne Gehäuselüfter erreicht mein Athlon 1.4 manchmal 90C und läuft noch, es ist aber die Grenze, mehr sollten es nicht sein. Mit dem Gehäuselüfter ist die Temp zwichen 65 und 80, je nach Last.

Pengo
2001-10-29, 21:10:56
Originally posted by Razor

Mich freut's in jedem Fall, ganz egal, ob nun Radeon's oder Ti's verkauft werden. Denn die Verbreitung von DX8-Hardware kommt nun ins rollen und damit werden uns demnächst nette DX8-Dinge in Haus stehen. Zuerst mal Techdemo's, später dann mehr...
;-)

Ich will endlich richtige DX8-TechDemo's !
Der Nature-Test bei 3dMurks war ja erst der Anfang !

In diesem Sinne

Razor

Razor, du bist wirklich ein Träumer, wir werden nichts zu sehen bekommen was auf der GF3/R8500 deutlich besser ausschaut als auf einer GF2, zumindestens nicht im Jahre 2002. Wie lange warten wir jetzt schon auf besser aussehene HW T&L Spiele? 2 Jahre? Und obwohl DX8 Karten in paar Monaten 10 mal weniger verbreitet sein werden als DX7 Karten von einem Jahr soll sich plötzlich was ändern? Keiner wird sich die Mühe machen und für 10% der potentiellen Kunden entwicklen (vielleicht mit der Ausnahme von John Carmack). Erst wenn GF3/R8500-Klasse in jedem OEM Rechner drin stecks kannst du mit richtigen DX8 Titeln rechnen, und das wird nicht im nächsten Jahr sein. Mit Aquanox und Dronez werden wir schon jetzt verarscht, es läuft auf einer GF1 genauso gut wie auf einer GF3. Als nächstens kommt Unreal 2, daß als DX7 HW T&L Spiel auf DX6 Karten genauso gut oder schlecht aussehen wird. Ich kaufte mir die Ti200 nicht wegen DX8, sondern um aktuelle Spiele ohne Kompromisse spielen zu können.

Razor
2001-10-29, 21:20:35
@Pengo

Schon mal das Comanche 4 - Demo angeschaut ?
Und das ist jetzt !

Nee... ich denke, da wird sehr bald so einiges auf uns zukommen !

Auch haben wir doch gerade erfahren, daß DX7 HW T&L ein einfaches Vertex-Programm auf der gf3 ist. So ist es für die Entwickler doch recht einfach, ein Spiel zu alter hardware kompatibel zu halten. Aber eben Benutzern mit DX8-Unterstützung ein bischen mehr an Optik zu gönnen. Glaube nicht, daß Comanche 4 jetzt wesentlich aufwendiger zu programmieren war, nur weil da noch einige DX8-Effekte dazu kamen...

In einem gebe ich Dir allerdings recht, denn bis wir Games sehen, die von den DX8-Features intensiven Gebrauch machen, wird wohl noch ein wenig Zeit ins Land gehen. Auch wenn wir mit umgesetzten XBox-Titeln schon wesentlich früher rechnen dürften...
;-)

In diesem Sinne

Razor

AlfredENeumann
2001-10-29, 21:30:05
Originally posted by Pengo


Trueform: für neue Spiele sinnlos, wer alte Spielen will ist es vielleicht nützlich (wenn man genug Patches bekommt)


also ich könnte mir gut vorstellen, das es für einen geschickten Programmierer sehr nützlich wäre für neue Spiele. Mann bräuchte nicht soviele Objektinformationen zur Karte schicken (Bandbreite !!!) da man ja einen großteil der benötigten Polygone über Teselation bekommen kann.

Also könnten spiele doch Quasi nochmal einen deutlichlech Performanceschub bekommen. Oder hab ich hier einen denkfehler ?

aths
2001-10-29, 21:35:43
Ich denke, "DX8"-Titel werden erst dann wirklich kommen, wenn DX9 längst raus ist. Man spielt ja nicht die ganze Zeit die Handvoll Referenz-Spiele. Wenn Civ3 rauskommt, würde das sogar noch auf einer Rage mit 4 MB gut laufen... und massig Spass machen. Zum Thema:

Max Payne ist technisch ein lupenreiner DX7-Titel und erfüllt doch meine Anforderungen an einen NexGen-Shooter. DX7 gibts nun wirklich schon ziemlich lange. Ich glaube nicht, dass die DX8-"Features" einer Geforce3 innerhalb ihrer normalen Lebenszeit zum Einsatz kommen.

Wer sich weiland eine GF3 kaufte, wird vermutlich auch zum nächsten "Über-Chip" greifen, sobald er raus ist. Ich hoffe, dass mit der Ti200 und der Radeon8500LE DX8-Karten endlich Mittelklasse (knapp 400 DM) werden - damit man endlich DX7-Titel adäquat geniessen kann.

aths
2001-10-29, 21:50:57
Zur Radeon:

Wenn die Herren Spieleprogrammierer mal von ihrer GeForce-Vernarrtheit lassen würden und spezieller auf den Radeon optimieren, könnte man mit diesem Chip wohl deutlich bessere Ergebnisse bringen.

Es erinnert ein wenig an die seelige Voodoo-Zeit. Deren technisches Alter bekam man auch nicht so mit, da die Spiele sich in der Regel mit dem begnügten, was eine Voodoo konnte.

Nun begnügen sie sich damit, was eine GeForce1, bestensfalls GTS kann. Das finde ich schade.

Andre
2001-10-29, 22:02:23
"Wenn die Herren Spieleprogrammierer mal von ihrer GeForce-Vernarrtheit lassen würden und spezieller auf den Radeon optimieren, könnte man mit diesem Chip wohl deutlich bessere Ergebnisse bringen."

Hmm, dann würde irgendwann NV oder ImgTec das Nachsehen haben - auch irgendwie wenig wünschenswert.
Mir wäre lieber, wenn gar nicht auf irgendeinen Hersteller optimiert werden würde.

"Nun begnügen sie sich damit, was eine GeForce1, bestensfalls GTS kann. Das finde ich schade."

Dann gib den Leuten der Welt genug Kohle, damit sie Deinen Ansprüchen an zeitgemässe Gameentwicklung durch entsprechende Kaufkraft gerecht werden können.
Da das leider so nicht ist, wird man mit einer gewissen Verzögerung bei der Einführung von Features immer rechnen müssen.
Im Übrigen dauert die Entwicklung eines Spiels mind. 1 Jahr - und vor einem Jahr haben wenige die heutige Entwicklung voraussehen können.
Oder sollen sie die ganze Engine wegschmeissen, nur weil es jetzt ne TI 500 oder Radeon 8500 gibt ?
So was nenn ich Teufelskreis.

Unregistered
2001-10-29, 22:57:24
sorry,
ich hab heute zum ersten mal den motherboard monitor installiert und es war natürlich die CPU Auslastung in Prozent(peinlich), temperatur ist konstannt bei 42° C
wie gesagt ich hab seit 1999 ne TNT2 Ultra
drin, und hatte nie Probleme :), nur das das Teil seit einiger Zeit mächtige macken hat, schöne flimmernde Streifen wennse kalt ist, die gehen nach ner 1/4 Stunde weg, aber nerven halt,
ms soll die ganzen Karten Features(Truform, usw.) in ihr DirektX einbauen, und das nicht die Spieleprogrammierer machen lassen, das gibt eh nur wieder Schrott, wie zb. Ultima 9, kann man das heute eigentlich
gescheit zocken?
ich bin ja eher OpenGl Freund, MS und so halt
heiko

Pengo
2001-10-30, 00:21:16
Originally posted by Razor
@Pengo

Schon mal das Comanche 4 - Demo angeschaut ?
Und das ist jetzt !


Ich hab Screenshots gesehen - und dort schaut es einfach nur schlecht aus.

Pengo
2001-10-30, 00:29:31
Originally posted by aths
Zur Radeon:

Wenn die Herren Spieleprogrammierer mal von ihrer GeForce-Vernarrtheit lassen würden und spezieller auf den Radeon optimieren, könnte man mit diesem Chip wohl deutlich bessere Ergebnisse bringen.

Es erinnert ein wenig an die seelige Voodoo-Zeit. Deren technisches Alter bekam man auch nicht so mit, da die Spiele sich in der Regel mit dem begnügten, was eine Voodoo konnte.

Nun begnügen sie sich damit, was eine GeForce1, bestensfalls GTS kann. Das finde ich schade.

Sie begnügen sind damit was Voodoo 3, bestenfalls TNT kann.

Razor
2001-10-30, 01:15:02
@Pengo

Schau Dir Comanche 4 mal 'live' an...
It's worth it !
;-)

Wer das nicht mit eigenen Augen gesehen hat, glaubt's net.
-wenn die Wellen sich je nach Neigung des Heli's bewegen...

Ansonsten ist's halt nur 'ne Demo, also nicht zuviel Anspruch haben, aber die DX8-Effekte sind wirklich schon gelungen (obwohl noch sehr dezent eingesetzt ;-).

Einfach mal rein' schaun' !

In diesem Sinne

Razor

Xmas
2001-10-30, 01:19:51
Originally posted by aths
Zur Radeon:

Wenn die Herren Spieleprogrammierer mal von ihrer GeForce-Vernarrtheit lassen würden und spezieller auf den Radeon optimieren, könnte man mit diesem Chip wohl deutlich bessere Ergebnisse bringen.

Es erinnert ein wenig an die seelige Voodoo-Zeit. Deren technisches Alter bekam man auch nicht so mit, da die Spiele sich in der Regel mit dem begnügten, was eine Voodoo konnte.

Nun begnügen sie sich damit, was eine GeForce1, bestensfalls GTS kann. Das finde ich schade.
Irgendwie widersprichst du dir hier selbst. Dass sich Spiele mit dem begnügten, was eine Voodoo konnte findest du in Ordnung, bei ner GTS ist es das nicht?
Hast du dir schon mal überlegt, warum die Programmierer eher auf GeForce-Karten optimieren? Die Marktverbreitung spielt eine entscheidende Rolle, aber es kommt noch etwas sehr wichtiges hinzu: Der deutlich bessere Support von NVidia.

aths
2001-10-30, 01:21:18
"wie zb. Ultima 9, kann man das heute eigentlich
gescheit zocken?"

Auf einer 900-MHz-CPU und 384 MB und Voodoo5 kann man U9 ganz wunderbar spielen!

Ebenfalls relativ gute Ergebnisse lassen sich mit Kyro (1 oder 2) und Radeon (ausser VE) erzielen.

aths
2001-10-30, 01:35:04
"Dass sich Spiele mit dem begnügten, was eine Voodoo konnte findest du in Ordnung, bei ner GTS ist es das nicht?"

Meine Ansprüche steigen, hehe.

Übrigens sagte ich höchstens, dass eine Voodoo den Spielen genügte. Ich sagte nicht, dass die Spiele auf dem Niveau stehen bleiben sollen, damit eine Voodoo (3) den Spielen auch Zukunft genügt.

"Hast du dir schon mal überlegt, warum die Programmierer eher auf GeForce-Karten optimieren? Die Marktverbreitung spielt eine entscheidende Rolle,"

Ja. Das ist marktwirtschaftlich vernünftig. Doch im Moment wäre man wohl mit einer GF3 besser bedient als mit einer R8500, obwohl letzteres das bessere Stück Hardware ist. (Daran können selbst die mäßigen ATI-Treiber nichts ändern.)

"aber es kommt noch etwas sehr wichtiges hinzu: Der deutlich bessere Support von NVidia."

Warum nicht für U9?
Inwiefern supportet nVidia die Spiele-Hersteller, von nVidia-eigenen OpenGL-Extensionen mal abgesehen?

nggalai
2001-10-30, 08:34:15
Hi there,

uiuiui, schonwieder Ultima9. Nicht totzukriegen. :)

> Warum nicht für U9?

Das Problem bei U9 und GF liegt im Texturmanagement und gewissen ... Textur-Tricks, welche Origin in der verhunzten D3D-Variante verwendete (und welche direkt auf die Glide Implementierung zurückzuführen sind). Ich hab' die Details hier schonmal gepostet (muss wohl nochmals zusammensuchen), hier also nur soviel: U9 "generiert" Texturen mit nach DX6 D3D SDK zu vermeidenden Techniken und bringt Karten mit wirklich sauberen, D3D-konformen Treibern dazu, bei jeder "neuen" Textur den Textur-Cache komplett zu spühlen. Das kostet bei GF problemlos 30-50% an Leistung.

Ob ATi und PVR einfach nur unsaubere Treiber haben oder diese Exception speziell für U9 freischalten kann ich nicht beantworten. Dass die Voodoo-Karten auch unter D3D kein Problem mit dem Textur-management haben liegt ganz einfach daran, dass halt eben diesselben "Tricks" wie unter Glide verwendet werden ... ;)

Für Quellen schlage ich vor, im usenet mal nach +D3D +ascension +texture +cache oder so zu suchen. Da ich leider meine Quellen entweder nicht dokumentiert habe (die ausm usenet und den dev-lists) oder nicht Preis geben kann (EA, wir lieben dich), muss ich das wohl eh mal wieder selbst machen. :(

> Inwiefern supportet nVidia die Spiele-Hersteller, von nVidia-eigenen OpenGL-Extensionen mal abgesehen?

NVIDIA hat einen excellenten Entwicklersupport, BESONDERS für D3D. Zwei der NVIDIA Entwickler (ein Treiberentwickler, ein Technical Engineer) sind z.B. als regulars auf der Microsoft DIRECTX Dev List und beantworten sehr offen Fragen zu D3D und GF Karten. Das SDK gilt als eine der besten im 3D-Grafikkarten Business. Als eingetragener Entwickler hast Du 24/7 Support OHNE speziellen Supportvertrag und ohne zusätzliche Kosten. E-mail Anfragen werden in der Regel innerhalb von 36 Stunden beantwortet, meist sehr ausführlich. Ausgesuchte Entwickler erhalten neue Boards in allen Entwicklungsstadien zum "rumspielen" INCL. Support, also nicht "hier, ist neu, probier mal aus, wenn's nicht läuft, dein Problem--" sondern, wenn mal was ned tut, hast Du umgehend einen Techniker am Telefon. Dasselbe gilt für Treiber, welche an Entwickler verschickt werden. etc. etc. pp.

ta,
.rb

Razor
2001-10-30, 10:44:44
Danke, nggalai !
Als Käufer dieser 'Software', i.e. U9, wär ich glatt zum Amokläufer geworden...
Es ist ja nicht so, daß die D3D-Probleme die einzigen waren/sind.
(hoffe inständig, daß U9 ebenso von der Bildfläche verschwindet, wie das gebundelte 3dfx)
;-)

Razor

Joe
2001-10-30, 10:54:19
Originally posted by Razor
@Pengo

Schau Dir Comanche 4 mal 'live' an...
It's worth it !
;-)

Wer das nicht mit eigenen Augen gesehen hat, glaubt's net.
-wenn die Wellen sich je nach Neigung des Heli's bewegen...

Razor

Oder die Wunderschönen Reflexionen des Helis wenn man kurz über der Wasseroberfläche ist (ruckelt auf meiner GF2 wie bock)
Oder die wunderschöne weche flugbahn von Raketen (sollte sich Massive maln Bsp nehmen)

Razor
2001-10-30, 17:04:58
Das Endprodukt wird wohl auch auf Deiner gf2 gut laufen...
;-)

Zur Not kannst Du ja sicher auch die Reflexionen auschalten !
(bei mir lüft's suuuper flüssig ;-)

Und ansonsten ist's halt 'ne Beta, also abwarten...

In diesem Sinne

Razor

Joe
2001-10-30, 17:07:34
Hab mir gestern ne Ti200 geordert... :p

Pengo
2001-10-30, 18:02:34
Originally posted by Razor
Das Endprodukt wird wohl auch auf Deiner gf2 gut laufen...
;-)

Zur Not kannst Du ja sicher auch die Reflexionen auschalten !
(bei mir lüft's suuuper flüssig ;-)

Und ansonsten ist's halt 'ne Beta, also abwarten...

In diesem Sinne

Razor

Habe Commanche 4 kurz draufgetan - das Wasser schaut schön aus, das wars aber dann, die Landschaft ist einfach nur langweilig und 3 Jahre hinter sowas wie 3DMark 2001 Nature zurück.

Joe
2001-10-30, 18:06:14
Originally posted by Pengo


Habe Commanche 4 kurz draufgetan - das Wasser schaut schön aus, das wars aber dann, die Landschaft ist einfach nur langweilig und 3 Jahre hinter sowas wie 3DMark 2001 Nature zurück.

Is dir eigentlich bewusst das Comnche 4 eine der ersten Polygonbasierenden Flugsimus ist in Welchem anderen Flugsimmulator hast du bitte danke so schönes wasser so schöne Hügel und Bodentruppen die sogar aus Einzelen soldaten bestehen die Wunderschön annimiert sid?!
Comanche ist ein großer Schritt! =)
Und bis Spiele die Nature Quali erreichen isses eh 2003 VERSPROCHEN

syronth
2001-10-30, 18:52:05
lol, Nature als Maßstab zu nehmen, ist ja wohl a bissel daneben. Schon mal darauf geachtet, wie groß das 3D-Areal überhaupt ist? Da ist man zu Fuß mit zwei, drei Schritten bereits durch. Spielbare Größe wird das nicht vor 2005 erreichen. Allein die Gestaltung eines größeren Areals mit derart vielen Details benötigt Jahre, von der notwendigen Hardware, die das verpackt, mal ganz zu schweigen.

Comanche4 ist scho' nett, die winzigen Soldaten sind so detalliert wie die im Ur-Halflife, und das in einer Flugsim. Die Radkappen der Jeeps zeigen echte Reflektionen (achtet mal darauf, das ist schon wieder witzig). Die Soldaten ducken sich, wenn man ihnen zu nahe kommt oder halten sich die Augen bedeckt, wenn man Staub aufwirbelt.
Hatte schon Lust, mal aus dem Hubi zu steigen und mir ne M16 zu schnappen - ging aber nicht :( ;).

Allerdings bricht bei mir die Performance ein (GF3), wenn ich das Schiff versenke, hmm.

Razor
2001-10-30, 19:02:08
@Pengo

Noch kommt NICHTS an die Nature-Scene von 3DMurks heran...
(was auch noch 'ne ganze Weile so bleiben wird...)

Und Comanche 4 zeigt eindrucksvoll, wie man bisherige Games durch richtige DX8-Effekte auferten kann...

Ansonsten ist's noch 'ne Beta !
Den Rest also einfach abwarten...

@NixWisser

100%'ige Zustimmung !
;-)

@syroth

2003 für Nature-Like Games ist sehr viel realistischer ...
Abwarten !
;-)

Was Comance 4 angeht 100%'ig dacor !
Aber wieso bricht bei Dir die Performance ein ?
Bei mir ruckelt's nur ein wenig, wenn ich selber abgeschossen werde und das bei standard-mäßig aktiviertem 2xQFSAA/32-tapAniso...
(sieht zudem auch noch äuserst häßlich aus, aber ist halt noch 'ne Beta ;-)

In diesem Sinne

Razor

syronth
2001-10-30, 19:22:08
@Razor

Jo, die Hardware wird's 2003 geben, die Spiele 2004/05 ;)

Das Ruckeln in C4 erinnert mich mächtig an die alten Fillrate-Probs der MX, genau in dem Moment, wo das Schiff hochgeht, nur etwa 5 FPS (geschätzt), kurz danach läuft's wieder flüssig. Ich kann mir auch nur schwer vorstellen, daß mein momentaner 850er TB schlapp macht, wieso auch genau in diesem Augenblick? Und der DDR der GF3 läuft mit '500' MHz.
Vielleicht gibt sich das in der Vollversion :-/

Joe
2001-10-30, 19:27:50
Bei mir läuft die Demo absolut flüssig nur wenn ich ganz knapp überm wasser fliege rckelts wegen der DX8 Reflexion

aths
2001-10-30, 19:28:16
- Das Problem bei U9: Ich sehe halt, dass es auf Radeon- und Kyro-Karten ganz gut löpt. nVidia wäre sicher imstande, das ebenfalls für GF zu ermöglichen.

"Dass die Voodoo-Karten auch unter D3D kein Problem mit dem Textur-management haben liegt ganz einfach daran, dass halt eben diesselben "Tricks" wie unter Glide verwendet werden"

Aber D3D wird doch nicht auf Glide abgebildet?

- nVidia-Support: Das klingt nich uninteressant. Offenbar hat aus dem U9 Team (hehe) keiner bei diesem Support angerufen.

Razor
2001-10-30, 20:00:29
@syronth

Vieleicht doch das System ?
Nutzt Du noch PC100-Speicher und CL3 Timing ?

Könnte der Grund sein...
Mein System (obwohl eigentlich schon ziemlich alt ;-) ist halt auf Performance getrimmt, so nutz ich PC133@129-Speicher bei 2-2-2 Timing mit'n PIII700@900 (bringt um einiges mehr, als den Prozzi höher zu takten und dann auf 3-3-3 zurück gehen zu müssen)...

Daß die gf3 das Problem ist, kann ich mir nicht vorstellen.
Also vielleicht einfach an dem System schrauben, denn schnelles RAM kostet ja fast nichts mehr...
;-)

@aths

Klar könnte nVidia das, aber wozu den ganzen Treiber umstricken ?
Nur um ein auslaufendes Game besser zu unterstützen ?
Da gibt's wichtigeres...
;-)

Und natürlich wird D3D auf Gliede abgebildet !
App -> D3D -> Treiber -> GLIDE -> Hardware...

Deswegen sind GLIDE-APP's auch so schnell, da diese nicht einmal den Umweg über den Treiber gehen müssen !
Wenn man schon 'ne eigene API hat, die optimiert ist, warum diese nicht auch nutzen ?

In diesem Sinne

Razor

P.S.: Und die U9-Programmierer hätten vorher vielleicht etwas Programmier-Unterricht nehmen sollen !
;-)

nggalai
2001-10-30, 20:22:24
hi aths,"Dass die Voodoo-Karten auch unter D3D kein Problem mit dem Textur-management haben liegt ganz einfach daran, dass halt eben diesselben "Tricks" wie unter Glide verwendet werden"

Aber D3D wird doch nicht auf Glide abgebildet?Das ist richtig (IIRC läuft der D3D Treiber nicht wie von Razor beschrieben DIREKT über Glide, aber beide verwenden nahe an der Hardware gleiche Routinen / Core-code), allerdings ist wohl sehr einfach einzusehen, dass a) ein Hack, welcher Aufgrund von Glide-Eigenschaften und Hardware-Voraussetzungen bei Voodoo-Karten in die Engine "rutschte," auch in der D3D-Engine erhalten bleibt (sonst darfst Du die Engine bei sowas Fundamentalem wie Textur-Management nämlich gleich komplett neu coden), und dass b) der 3dfx D3D-Treiber (resp. die Implementation einiger Sachen darin) wohl einen grossen Teil der Glide-Implementationen eben dieser "Features" und "Eigenheiten" geerbt hat--ganz einfach, weil halt die Voodoo Karten damit gut funktionieren. Ein Treiber soll ja auch immer zu einem gewissen Masse nahe an der Hardware bleiben. Weshalb also das Rad neu erfinden, wenn man mit der Entwicklung von Glide schonmal die Schnittstelle Treiber/HW im Griff hat, resp. weiss, wie die HW am effektivsten anzusprechen ist?- nVidia-Support: Das klingt nich uninteressant. Offenbar hat aus dem U9 Team (hehe) keiner bei diesem Support angerufen.*lacht* NVIDIA war ja auch ned immer da, wo sie jetzt mitm Support stehen. Der gute Support kam mit der GeForce auf. Zum Thema U9 und D3D gibt's ebenfals einige ganz lustige Anekdoten, und die Verhandlungen mit NVIDIA (welche tatsächlich stattfanden) werden wohl in etwa so ausgesehen haben:

Origin: könnt ihr das nicht bitte im Treiber anpassen?
NVIDIA: nö. wegen eines Spiels treten wir sicherlich nicht die DX Spezifikationen mit Füssen. Ausserdem ist uns der Aufwand zu gross.
Origin: ja, ok, was können wir denn machen, um das Spiel besser zum Laufen zu bringen?
NVIDIA: programmiert das Texture Management sauberer.
Origin: könnt ihr das nicht bitte doch im Treiber anpassen?

You get the idea. Origin hat allerdings viel bei Microsoft nachgefragt, und so wurden einige der krasseren D3D-Vergehen im Laufe der U9-Patches behoben (z.B. wurde bilineares Texture Filtering auf sehr ineffiziente Art und Weise hardcoded; MIP-map Levels wurden einzeln geladen anstelle die Ganze Textur mit allen MIP-maps zu cachen, etc.), und viele Hersteller so wie z.B. ATi haben auch bei den Treibern eingelenkt. NVIDIA blieb stur. *schulterzuck* Dafür hab' ich ja auch noch eine Voodoo3 behalten. :)

ta,
.rb

Pengo
2001-10-30, 21:25:24
Originally posted by nggalai
You get the idea. Origin hat allerdings viel bei Microsoft nachgefragt, und so wurden einige der krasseren D3D-Vergehen im Laufe der U9-Patches behoben (z.B. wurde bilineares Texture Filtering auf sehr ineffiziente Art und Weise hardcoded; MIP-map Levels wurden einzeln geladen anstelle die Ganze Textur mit allen MIP-maps zu cachen, etc.), und viele Hersteller so wie z.B. ATi haben auch bei den Treibern eingelenkt. NVIDIA blieb stur. *schulterzuck* Dafür hab' ich ja auch noch eine Voodoo3 behalten. :)


Ich finde sie blieben zu recht stur:

http://www.3dcenter.de/artikel/voodoo5-5500/7.php

1024x768x16

voodoo 5: 23,2
gf2: 19,1

1024x768x32

voodoo 5: 21,8
gf2: 18,5

Wegen der paar Frames den Treiber zu vergewaltigen (und damit Probleme mit anderen Spielen schaffen) - sehe ich nicht ein. Ultima 9 wurde jahrelang nur für Glide entwickelt, der Direct3D Port wurde in Tagen zusammengefummelt, der erste Patch hat über 100 fixes gehabt. Zum Glück gibt es nur noch DirectX und OpenGL und die scheiße bleibt und erspart. Falls Ultima 10 jemals kommt dann zum Glück von anderen Entwicklern, die von 9 wurden fast ausnahmslos nach dem Release gefeuert. Es gab wohl kein Spiel daß so unfertig beim Release war wie U9 - schon versucht von Britain nach Yew sofort zu gehen - Die Story gerät aus den fugen. Die Welt von U9 ist auch absolut tot - wie viele Leute leben auf dem ganzen Kontinent - 30? Und was heißt leben - in der Gegend rumstehen. Es gibt tauchende Hunde und fliegende Ziegen (nein, keine Magie, Bugs). Es ist wohl auch das einzige Spiel mit einem Speicherverbrauch / Stunde (300MB beim laden + 50-100 / h).

aths
2001-10-31, 01:00:01
"Nur um ein auslaufendes Game besser zu unterstützen ?"

Wir wissen inzwischen, dass du von U9 nicht viel hälst. Offenbar hast du es nie richtig gespielt. Du redest also über Dinge, die du gar nicht kennst.

"Und natürlich wird D3D auf Gliede abgebildet !"

Auf die Voodoo-Hardware. Aber kaum auf Glide. Denn D3D kann inzwischen bissel mehr, als Glide.

"P.S.: Und die U9-Programmierer hätten vorher vielleicht etwas Programmier-Unterricht nehmen sollen !"

Auf Voodoos läufts gut. Auf Radeons läufts gut. Auf Kyros läufts gut. (Auf einer Kyro1 schneller als auf einer GeForce3. Aber das nur nebenbei...)

Pengo: http://www.3dconcepts.de/reviews/3dprophet4500/16.htm

Voodoo5: 32 fps
GTS: 23 fps

Die Unterschiede kommen durch die CPU, die beim 3dcenter-Bench noch deutlicher limitiert hat.

Pengo
2001-10-31, 01:23:02
32 fps nennst du gut? Der Bench ist ohne Charaktere da und Avator läuft gerade aus, wobei vor allem bei Drehungen wird U9 besonders lahm. Der Bench zeigt übrigens auch die größten Pausen an die entstehen, natürlich postet es kein schwein. (Diese größte Pause die ich gesehen hab waren 200 ms - und das auf ner v3). Nehmen wir an im realen Spiel sind es 22 fps Mitte , d.h. Framerate schwankt zwichen 10 und 50 - ganz toll. Ich habe Ultima auf 5 verschiedenen Kisten gesehen - und es lief sehr mies oder mies.

Razor
2001-10-31, 01:24:28
@nggalai

Na, dann war's ja zumindest 'fast' richtig...
(oder völlig daneben...)
;-)

Aber interessieren würde mich dennoch, warum meine Voodoo2 dann funzt, wenn ich nur die glide.DLL bzw. die glide2.dll auf der Plate hab'...
(nicht unter D3D oder OpenGl, selbstverständlich ;-)

Aber Deiner Darstellung nach sieht's dann so aus ?
App -> D3D -> Treiber -> Hardware
App -> MiniICD(OGL) -> GLIDE -> Treiber -> Hardware
App -> GLIDE -> Treiber -> Hardware

Oder eher so:
App -> D3D -> Treiber -> Hardware
App -> MiniICD(OGL) -> GLIDE -> Hardware
App -> GLIDE -> Hardware

Wobei dann die Treiber und auch GLIDE ähnlich Routinen verwenden ?

Oder wie ?
Hmmm...

I would thank you for an answer !

@aths

Sag mal, hast Du nggalai's Post nicht gelesen ?
Er hat sich doch nun wirklich Mühe gegeben...
;-)

Bei den 3dfx-Treibern bin ich mir nicht mehr so sicher...
Meine mal etwas darüber gelesen zu haben, aber meine Hand würde ich dafür nicht ins Feuer legen.

Und vergiß U9 !

Ja, ich hab's gespielt (bei nem Bekannten, der sich dummer Weise das Ding geholt hat). Und auch ich stand in einem Raum, in dem die Tür über die Ganze Wand verteilt war, es aber die einzige Möglichkeit gewesen wäre, das Haus zu verlassen... schade eigentlich... Aber da die Festplatte sowieso schon wieder wie wild am Rödeln war, ham' wir halt neu gestartet und haben die Regel mitgenommen: "Bloß kein Haus betreten, denn es könnte sein, daß man nicht wieder raus' kommt !"

Na ja, als der Rechner wieder hochgefahren und wir uns wieder eingeloogt haben, konnte man wieder durch die Tür... Puh... Noch mal Glück gehabt !

Und: Nein Danke ! Das ist absolter Schrott !

-

Und WOW, satte 32fps (bei 16-Bit !) auf 'ner V5 bei 1024x768 ?
Das ist ja der absolute Speed-Hammer !
-> Nein Danke !

In diesem Sinne

Razor

nggalai
2001-10-31, 08:40:51
Hi Razor,

ich habe mich offenbar unklar ausgedrückt. :) Ich sprach von ROUTINEN respektive IMPLEMENTATIONEN, welche von Glide "geerbt" werden, und nicht davon, dass eine Treiber-DATEI als "Kern" vorhanden ist.

Also eher so wie [hardware diktiert] -> [hw-nahe Teile der Treiber]. Und diese Algorithmen/Implementationen, der hardwarenahe "Kern" der Treiber, wird von Glide zu D3D gewandert sein--aufgrund des Hardware-Diktats. So Dinge wie "wie mache ich der Karte klar, dass jetzt eine neue MIP-map Stufe verwendet werden soll?" und "was kann die Hardware wie in Sachen Texturen Cashen?"

hope this helps,

ta,
.rb

P.S. Ich glaube mich allerdings erinnern zu können, dass der allererste 3dfx D3D-Treiber ein D3D Wrapper für Glide war, dies aber später behoben wurde. Einfacher test: die glide-dlls umbenennen und ein D3D-Spiel starten. Könnte das wer mit einer "modernen" Voodoo-Installation machen? Mein V3-Rechner steht bei einem Freund (ist am U9 spielen, kein Scherz).rb

Labberlippe
2001-10-31, 08:44:51
Originally posted by nggalai
Hi Razor,

ich habe mich offenbar unklar ausgedrückt. :) Ich sprach von ROUTINEN respektive IMPLEMENTATIONEN, welche von Glide "geerbt" werden, und nicht davon, dass eine Treiber-DATEI als "Kern" vorhanden ist.

Also eher so wie [hardware diktiert] -> [hw-nahe Teile der Treiber]. Und diese Algorithmen/Implementationen, der hardwarenahe "Kern" der Treiber, wird von Glide zu D3D gewandert sein--aufgrund des Hardware-Diktats. So Dinge wie "wie mache ich der Karte klar, dass jetzt eine neue MIP-map Stufe verwendet werden soll?" und "was kann die Hardware wie in Sachen Texturen Cashen?"

hope this helps,

ta,
.rb

P.S. Ich glaube mich allerdings erinnern zu können, dass der allererste 3dfx D3D-Treiber ein D3D Wrapper für Glide war, dies aber später behoben wurde. Einfacher test: die glide-dlls umbenennen und ein D3D-Spiel starten. Könnte das wer mit einer "modernen" Voodoo-Installation machen? Mein V3-Rechner steht bei einem Freund (ist am U9 spielen, kein Scherz).rb

Ein Teufelskreis. *rofl*
Kann ich heute versuchen ;-)

Gruss Labberlippe

nggalai
2001-10-31, 08:57:55
Hi Labberlippe,

Teufelskreis? U9? ;)

> Kann ich heute versuchen ;-)

gerne! das interessiert mich nämlich schon länger ... ich meine nur, wie aths schon bemerkte kann D3D deutlich mehr als Glide ... das dann da drüber laufen zu lassen wäre heutzutage nicht sehr sinnvoll ...

ta,
.rb

Razor
2001-10-31, 14:03:09
Herzlichen Dank für die ausführliche Info, nggalai !
;-)

Also mit dem MiniICD's ist auf jeden Fall noch so !

Aus meiner Sicht stellt sich das Ganze folgender maßen dar:
App -> MiniICD -> GLIDE -> Hardware
App -> GLIDE -> Hardware
App -> D3D -> ???

Übrigens war mir das mit dem D3D-Wrapper damals durchaus bekannt, deswegen ja auch meine vorhergeannte Vermutung...

Aber was mich viel mehr interessieren würde: Ist es denn so, daß die GLIDE-API denn überhaupt noch weitere Treiber braucht ?

Ich hab's damals ausprobiert (weil ich mir die TNT-GraKa-Treiber nicht zerscheißen wolle und es ist noch immer so ;-), einfach nur die GLIDE-Dateien auf den Rechner zu kopieren, OHNE die Treiber zu Installieren. Mir ist auch klar, daß D3D dann natürlich net mehr funzt, aber die GLIDE-Games liefen auch so...

Hmmm...

Wäre wirklich interessant, wenn Laberlippe das mal ausprobieren würde...
Hab' halt keine Lust, den Rechner wieder zu Backuppen, wenn's mit den Treibern daneben geht.
;-)

Und nochmals herzlichen Dank für die Info !

In diesem Sinne

Razor

Labberlippe
2001-10-31, 17:55:52
Hi

Ich bin unter Datein suchen gegangen und habe alle Glidexx.dll Dateien in Testxx.dll umbenannt.
Dann habe ich ein Game gestartet und dieses hat normal funktioniert.

Wenn ich noch was Testen soll oder ich etwas jetzt falsch ausgeführt hab, sagt mir Bescheid.
Kein Prob für mich heute zu Testen.

Gruss Labberlippe

nggalai
2001-10-31, 18:12:41
Oy Labberlippe,

danke fürs Feed-back. Scheint also so zu sein, wie ich mir das ausrechnete--nix mit D3D-Wrapper in den neuen Treibern.

dank dir nochmals,

ta,
-Sascha.rb