PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kann mal wer Doom 3 auf der DeltaChrome ...


zeckensack
2004-10-12, 18:26:12
durchbenchen? Ich kann's leider nicht, weil ich Win2k benutze *hust*

:)

Igzorn
2004-10-12, 20:25:42
Dumm frag.

Geht das nicht unter w2k ? Ich könnte es zwar testen aber auf blue screen habe ich irgendwie kein bock :(

zeckensack
2004-10-12, 20:32:24
Dumm frag.

Geht das nicht unter w2k? Ich könnte es zwar testen aber auf blue screen habe ich irgendwie kein bock :(Eben eben. Geht nicht. Gibt einen BSOD :usad:

Radeonator
2004-10-12, 20:32:48
Meinst du mit der beigelegten Demo ???

Die ist doch 0 Aussage kräftig IMO

Aber wenn ja, dann sag bescheid und ich machs dann...

Maestrox
2004-10-12, 20:54:06
800x600
Ultra
timedemo1 ~ 14 fps

zeckensack
2004-10-12, 21:19:39
Meinst du mit der beigelegten Demo ???

Die ist doch 0 Aussage kräftig IMOHrm, finde ich eigentlich nicht :|
Im Spiel hatte ich immer etwas höhere fps als im Timedemo. Zum Abschätzen reicht's IMO gut genug.
Aber wenn ja, dann sag bescheid und ich machs dann...Oia, bitte, das wär schön! :ugly:
800x600
Ultra
timedemo1 ~ 14 fpsThx. Aber was für 'ne CPU war das noch gleich? =)

Maestrox
2004-10-12, 22:56:28
Amd Athlon 64 3200+ und nen gig ram :)

zeckensack
2004-10-13, 11:42:38
Hmmm ... kommt mir etwas langsam vor. Wird's schneller, wenn du auf Medium Q oder Low Q runtergehst?

Maestrox
2004-10-13, 13:42:25
Hi, ich mache mir jetzt mal die mühe und schaffe eine kleine Übersicht mit verschiedenen Einstellungen.

System:
- Athlon 64 3200+ @2200mhz
- Shuttle An51r
- 1 gig mdt Ram @ 220 2,5-3-3-8
- s3 Deltachrome - Treiberversion -> 6.14.10.1753-15.11.06.g1

------------------------------------------------------------
>>640x480<<

Ultra

-14,9 fps

High

-18,5 fps

Medium

-23,4 fps

Low

-23,9

------------------------------------------------------------
>>800x600<<

Ultra

-11,6 fps (Muss mich oben vertan haben :P)

High

-17,2 fps

Medium

-17,4 fps

Low

-17,9 fps

------------------------------------------------------------
>>1024x768<<

Ultra

-9,0 fps

High

-12,1 fps

Medium

-12,6 fps

Low

-12,7 fps
____________________________________________________
>>1600x1200<< HQ

Ultra

-4,8 fps

>>640x480<< Performance

Low und HQ special effects, specular, bump maps, shadows = off

-39,7 fps
____________________________________________________

Wenn noch Fragen sind, ich höre ? :D

zeckensack
2004-10-13, 13:45:02
Hi, ich mache mir jetzt mal die mühe und schaffe eine kleine Übersicht mit verschiedenen einstellungen*applaudier*
:ulove3:

Maestrox
2004-10-13, 15:20:59
So bin fertig habe auch noch ein paar Farben mit reingebracht, damit es übersichtlicher ist. :)

zeckensack
2004-10-13, 21:17:35
*nochmalknuddel*
Thx =)

Maestrox
2004-10-13, 21:24:26
Kein Problem :)

Radeonator
2004-10-13, 22:03:31
Kann die Ergebnisse nur bestätigen!

Was mir auffällt sind das ab 800x600 die fps in den Keller gehen und sich innerhalb einer Messtoleranz auf High/Med/Low eigentlich absolut nichts tut.

Ist die DC bereits am Ende mit der Leistung oder deutet das wirklich noch auf akute Treiber Schwäche hin :confused:

Könnte es sein das doch ein Z-Bug existiert und die Karte darum nicht aus der Hüfte kommt? Theoretisch müsste die Leistung einer 9500Pro erreicht werden, bei größerem Feature set :|

ingo_pu
2004-10-13, 22:42:13
Dann sind die Karten für Spieler wohl ungeeignet, schade eigentlich.

Radeonator
2004-10-14, 08:56:12
Dann sind die Karten für Spieler wohl ungeeignet, schade eigentlich.

:uconf2: Ne is klar...Alle unreal basierten Games die ich besitze laufen auf HighDetails in 1024x768x32 mit 8xAF absolut flüssig. WC3,Generals,ET,BR,BF,DeathToRights,MP1/2 etc. laufen ohne Probs...wie also kommst du bzw worauf basiert bitte zu deine Aussage :uconf2:

Im I-Net werden normalerweise Probleme besprochen, da eine große Community und einiges an know how vorhanden ist. Ergo siehst du hier eher Probleme, denn "alles Supi hier" Aussagen. Wenn was geht, dann braucht ich nichts zu fragen...

Ansonsten geh einfach mal auf die s3graphics Seite und klick00r auf ChromeZone...

zeckensack
2004-10-14, 12:56:25
Kann die Ergebnisse nur bestätigen!

Was mir auffällt sind das ab 800x600 die fps in den Keller gehen und sich innerhalb einer Messtoleranz auf High/Med/Low eigentlich absolut nichts tut.

Ist die DC bereits am Ende mit der Leistung oder deutet das wirklich noch auf akute Treiber Schwäche hin :confused:

Könnte es sein das doch ein Z-Bug existiert und die Karte darum nicht aus der Hüfte kommt? Theoretisch müsste die Leistung einer 9500Pro erreicht werden, bei größerem Feature set :|Ich würde die Zahlen eher so interpretieren, dass es beim Thema "Doom 3 vs DeltaChrome" nicht so sehr an Textur-Speicher und -Bandbreite mangelt, sondern an irgendetwas anderem. Naheliegend wäre die effektive Umsetzung der theoretischen Füllrate in praktische Füllrate ;)

Dass der Karte mit "Ultra"-Details die Puste ausgeht, ist ja nicht ungewöhnlich, aber davon abgesehen sollte sie wirklich in 800x600 MQ die 30fps-Marke knacken können. Meine allseits bekannten Konkurrenzkarten können das auch -- mit 2xAA und 4xAF.

CPU-Last/Treiberineffizienz, oder gar Geometrieleistung möchte ich als Erklärungsmöglichkeiten ausschließen. Denn dann wären die Ergebnisse nicht so stark auflösungsabhängig.

Gast
2004-10-14, 13:03:26
Wie wärs mit brauchbarer Architektur, aber zu niedrigem Takt?
Das Phänomen dass die Roh-Power zwar nicht enorm ist aber dafür der Leistungseinbruch bei steigenden Anforderungen eher gering kenn ich von meiner Parhelia...

Coda
2004-10-14, 19:54:43
Hmm Parhelia hatte ne miese Architektur UND nen miesen Takt ;)

Radeonator
2004-10-14, 21:47:56
Ne, OCing bringt da net so viel...beides um 50MHz bringt so um die 2- max 5 fps.

@Zeckensack : Du verneinst einen Treiberdug aber sagst das die Umsetzung von Theorie in Praxis nicht funzt. Das klingt aber doch nach definitiven Treiber prob ?

Maestrox
2004-10-15, 17:22:49
Ich denke nicht das es nur Treiberprobleme sind, aber durchaus noch was über die Treiber zu machen ist.

Cooli
2004-10-15, 23:34:17
Also mein Bruder hat auch die Graka drinnen (DC), zusammen mit nem Duron @2Ghz und 512 MB Ram. Also er hat sich ausser bei Doom3 und Sims 2 noch nie bei mir beschwert. Von daher denke ich dass die meisten Games die er spielt auch drauf laufen. Und wenn ich mir anschaue was bei dem an Spielen (meist relativ aktuelle) im Zimmer rumliegt, dann laufen doch eine ganze Menge Games auf der Grafikkarte, jetzt müsste man nur noch das Problem mit Sims2 und Doom3 in den Griff bekommen, dann wäre er zufrieden

BlackArchon
2004-10-16, 02:20:44
1. Welches Problem mit Doom 3 und Sims 2?
2. Schon einen Bericht an S3 geschickt? (http://www.s3graphics.com/, rechts unten 'Bug Report')

Shink
2004-10-16, 11:34:20
1. Das Problem bei Sims 2: Es läuft hardwarebeschleunigt (im Gegensatz zu früheren Meldungen seitens EA) NUR auf Geforces, Radeons und Intel (!!!!) Graphikchips. D.h. Das Spiel startet direkt (und ohne dass man da was machen könnte) im Softwaremodus, wenn man eine Volari oder DC hat. Natürlich sehr nett von EA...

Crazy_Borg
2004-10-16, 14:04:12
1. Das Problem bei Sims 2: Es läuft hardwarebeschleunigt (im Gegensatz zu früheren Meldungen seitens EA) NUR auf Geforces, Radeons und Intel (!!!!) Graphikchips. D.h. Das Spiel startet direkt (und ohne dass man da was machen könnte) im Softwaremodus, wenn man eine Volari oder DC hat. Natürlich sehr nett von EA...

Das es heute sowas noch gibt, tztz.
Schützt die Software vor dem Kunden, der sie mit falscher Hardware "schädigen" könnte...
Den Ärger gabs doch auch schon mit NFS3 und NFS4, oder?
Wenn der eigene Grafikchip nicht in der Liste stand gings AFAIK auch nur mit Softwarerenderer.
Was meint ihr, wieviel haben nVidia und ATI denen von EA wohl bezahlt???

Und ich dachte Direct3D wäre einheitlich, wusste gar nicht das nVidia, ATI und Intel ihre eigene API benutzen...
Die Frage ist natürlich wie das Spiel erkennt das da eine DC/Volari im Rechner steckt und keine GF oder Radeon?
Direkter hardwareabgriff oder über die registry?
Da muss doch irgendwas zu machen sein.

Radeonator
2004-10-16, 16:00:42
Tja, denke das wird unter Longhorn genau so aussehen...wenn es nicht BillyBoy konform ist, läufts nicht bzw nicht richtig...

stickedy
2004-10-19, 11:39:09
Die Aktion von EA ist eine Frechheit!!!
Eine Radeon 7000/VE ohne T&L etc. wird problemlos mit Direct3D unterstützt,aber eine Kyro, DeltaChrome und Volari, die alle lässig die Fähigkeiten und Geschwindigkeit dieser ATI-Karte erreichen werden in den Software-Modus gezwungen! Wenns mans denn wenigstens umstellen könnte...

Maestrox
2004-10-22, 10:18:23
Mit dem neuen Treiber:

>>640x480<<

High

-25,1 fps

>>800x600<<

High

-18,2 fps

Aber ich hatte komischerweise krasse grafikfehler.
Die sahen so aus wie eine grakar die zu hoch getaktet ist :P
Ich denke aber nicht das die grafikkarte hochgetaktet wird, weil ich sie selber entweder völlig am laufen hatte beim oc oder nen bluescreen kahm.

Die Bugs liegen wohl an einem Fehler im Treiber habe jetzt leider keine Zeit mehr sonst würde ich ihn nochmal sauber installieren evt am Sonntag mehr :)

Habe 2 mal versucht screens zu machen aber darauf war nix zu sehen :P.

Gast
2004-10-22, 18:05:22
1. Das Problem bei Sims 2: Es läuft hardwarebeschleunigt (im Gegensatz zu früheren Meldungen seitens EA) NUR auf Geforces, Radeons und Intel (!!!!) Graphikchips. D.h. Das Spiel startet direkt (und ohne dass man da was machen könnte) im Softwaremodus, wenn man eine Volari oder DC hat. Natürlich sehr nett von EA...

schonmal probiert mit 3da ne vendor und device id von ner radeon anzugeben?

Mokuskamer
2004-10-22, 21:15:44
HI !!!

Die Grafikfehler habe ich auch, komisch!! Fifa2005 stürzt bei mir auch ab. Das ist alles sehr traurig.

ciao


Moki

Radeonator
2004-10-27, 15:38:02
Mit dem neuen Treiber:

>>640x480<<

High

-25,1 fps

>>800x600<<

High

-18,2 fps

Aber ich hatte komischerweise krasse grafikfehler.
Die sahen so aus wie eine grakar die zu hoch getaktet ist :P
Ich denke aber nicht das die grafikkarte hochgetaktet wird, weil ich sie selber entweder völlig am laufen hatte beim oc oder nen bluescreen kahm.

Die Bugs liegen wohl an einem Fehler im Treiber habe jetzt leider keine Zeit mehr sonst würde ich ihn nochmal sauber installieren evt am Sonntag mehr :)

Habe 2 mal versucht screens zu machen aber darauf war nix zu sehen :P.


Das war auch mit den alten D3 treibern so. Generell verhält sich die Karte unter OGL so, als ob Sie überhitzen würde.

Äusserst merkwürdig.Da kristallisiert sich doch ein kleiner Skandal heraus, der so offensichtlich ist, das jeder ihn übersieht...

-Was wenn S3 die OGL Performance derzeit einfach nicht auf ein vernünftiges Mass bringt und derzeit auch den Fehler nicht lokalisieren kann :confused:
-Was wenn S3 aus diesem Grund die Karte unter OGL Softwareseitig OCed :|

Benennt mal bitte einfach die D3.exe um (hab meine Karte ja verkauft und kann deshalb nicht mehr testen) und testet nochmals durch.

Maestrox
2004-10-27, 15:48:49
Der fehler liegt an der vsync einstellung, man muss beim neuen treiber die vsync an haben, dann ist es perfekt :D

stickedy
2004-10-27, 17:57:56
-Was wenn S3 die OGL Performance derzeit einfach nicht auf ein vernünftiges Mass bringt und derzeit auch den Fehler nicht lokalisieren kann :confused:
-Was wenn S3 aus diesem Grund die Karte unter OGL Softwareseitig OCed :|

Das ist schon deswegen schmarrn, weil sich der DC kaum übertakten läßt und die "Mehrperformance" verschwindend klein ist. Es macht keinen Sinn, zu übertakten um statt 15,5 fps dann 17,2 zu erreichen (nur ein Bsp).
Außerdem würde S3 wohl erstmal an der Texturfilterung etc. drehen, wenn sie derart verzweifelt wären...

Radeonator
2004-10-27, 19:36:46
Das ist schon deswegen schmarrn, weil sich der DC kaum übertakten läßt und die "Mehrperformance" verschwindend klein ist. Es macht keinen Sinn, zu übertakten um statt 15,5 fps dann 17,2 zu erreichen (nur ein Bsp).
Außerdem würde S3 wohl erstmal an der Texturfilterung etc. drehen, wenn sie derart verzweifelt wären...

Ich konnte unter D3D ohne Probleme Core/Mem +75MHz geben...pauschalisierte Aussagen beim OCing zu machen ist Unsinn. Mal hat man Glück , mal Pech! Bei der Mehrperformance stimmt es allerdings auch nicht so ganz, teilweise >10fps in andere Situationen dann trotz OCing klar <10fps.

Ist ja nur Spekulation und es sieht definitiv genauso aus, wie zu hoch getakteter mem/core. Bei mir musste ich nach ca 1stunden auch kurz D3 ausmachen, da Plötzlich solche Bildstörungen auftraten :

http://img72.exs.cx/img72/9003/Error1.th.jpg (http://img72.exs.cx/my.php?loc=img72&image=Error1.jpg)

http://img72.exs.cx/img72/2451/Error2.th.jpg (http://img72.exs.cx/my.php?loc=img72&image=Error2.jpg)

http://img72.exs.cx/img72/1922/Error3.th.jpg (http://img72.exs.cx/my.php?loc=img72&image=Error3.jpg)


Diese Fehldarstellung hab ich sonst in keinem anderem Spiel, auch nach Stundenlangen UT2004 Daddeln, gehabt. Das Demo von xpandRally hatte auch solche Streifen, dort allerdings nur, wenn man in einem bestimmten Winkel an bestimmten stellen fuhr. Deshalb muss der treiber ja irgendetwas machen, was der Karte definitiv zu schaffen macht.Nur was :|

stickedy
2004-10-27, 20:02:39
Ich konnte unter D3D ohne Probleme Core/Mem +75MHz geben...pauschalisierte Aussagen beim OCing zu machen ist Unsinn. Mal hat man Glück , mal Pech!
Eben! Und genau deswegen könnte S3 nicht einfach pauschal z.B. 75 MHz mehr einstellen! Die eine karte läuft damit und die nächste springt übern Jordan! So was läßt sich nicht machen, OC wäre also nur in einem minimalen Bereich möglich (ähnlich ATIs Overdrive). Und das jeder die Probleme bei Doom3 mit dem neuen Treiber hat, spricht auch gegen deine Theorie!

Bei der Mehrperformance stimmt es allerdings auch nicht so ganz, teilweise >10fps in andere Situationen dann trotz OCing klar <10fps.
Nun ja, es wisdt wohl immer prozentual und dann bei 75 MHz mehr eben max. ca. 20%. Und das variiert dann auch noch, je nachdem, was limitiert. Nei 23 fps steigert sichs dann eben max. auf 27 fps. das ist zu lächerlich als das es Sinn machen würde (und das wäre ja auch nur bei den 75 MHz möglich, die realisctiheren 20 MHz mehr drücken das Ergebnis ja wesentlich weiter!).

Ist ja nur Spekulation und es sieht definitiv genauso aus, wie zu hoch getakteter mem/core. Bei mir musste ich nach ca 1stunden auch kurz D3 ausmachen, da Plötzlich solche Bildstörungen auftraten :

http://img72.exs.cx/img72/9003/Error1.th.jpg (http://img72.exs.cx/my.php?loc=img72&image=Error1.jpg)

http://img72.exs.cx/img72/2451/Error2.th.jpg (http://img72.exs.cx/my.php?loc=img72&image=Error2.jpg)

http://img72.exs.cx/img72/1922/Error3.th.jpg (http://img72.exs.cx/my.php?loc=img72&image=Error3.jpg)


Diese Fehldarstellung hab ich sonst in keinem anderem Spiel, auch nach Stundenlangen UT2004 Daddeln, gehabt. Das Demo von xpandRally hatte auch solche Streifen, dort allerdings nur, wenn man in einem bestimmten Winkel an bestimmten stellen fuhr. Deshalb muss der treiber ja irgendetwas machen, was der Karte definitiv zu schaffen macht.Nur was :|
Nun, vielleicht hast du ja ein thermisches Problem! Aber deswegen drauf zu schließen, dass S3 da was am Takt drehen würde, halte ich für sehr, sehr weit hergeholt!

Radeonator
2004-10-27, 20:27:20
*schnipp*
Nun, vielleicht hast du ja ein thermisches Problem! Aber deswegen drauf zu schließen, dass S3 da was am Takt drehen würde, halte ich für sehr, sehr weit hergeholt!


Kann nicht sein, ALLE anderen Games die ich habe verursachten das Problem nicht, was ganz klar gegen Thermik Probs spricht. Vor allem deshalb, da in meinem Rechner selbst die Soundkarte wassergekühlt läuft ;)

Die einzigen "offenen" Wärmequellen sind die HDDs und beide Brenner. Die Warmluft davon wird allerdings direkt mit 2 80ern und einem 120er abgeführt.

Was ich komisch finde : Kurz raus aus D3 und direkt wieder rein -> Problem für min 1h daddeln erledigt.

misterh
2004-10-27, 20:53:51
da in meinem Rechner selbst die Soundkarte wassergekühlt läuft ;)

:ulol3:

Huhn
2004-10-27, 20:58:17
Vor allem deshalb, da in meinem Rechner selbst die Soundkarte wassergekühlt läuft ;)



:ulol4:

Shink
2004-10-28, 12:48:25
Moechte ja keine Geruechte aufbringen, aber teilweise erinnern mich die Screenshots an meine Savage 2000 mit eingeschaltetem T&L in OpenGL...

RyoHazuki
2004-10-31, 14:52:25
meiner meinung nach,

kommen die die Treiber Programmierer einfach mit dem "von grund auf neuem" silizium nicht zurecht. (Anfangs)

Aber irgendwie sollte das bis jetzt schon der Vergangenheit angehören.

Irgendwas stimmt nicht....
Ich will nur gerne wissen was!

Ich glaube fest daran, das im Deltachrome noch eine menge Power steckt.

r00t
2004-10-31, 15:49:57
tauscht jemand seine deltacrome gegen meine geforce 2 GTS?!

die is nämlich in doom3 schneller als die delta^^

;D

Radeonator
2004-10-31, 16:38:52
tauscht jemand seine deltacrome gegen meine geforce 2 GTS?!

die is nämlich in doom3 schneller als die delta^^

;D

Toll du, vor allem wird dann bestimmt auch ein ganzes drittel der möglichen FX dargestellt, aber sonst ganz toll du, ne ehrlich!Wenn man alles so reduziert um es wie auf einer GF2 aussehen zu lassen, wird wohl selbst ne DC bedeutend schneller sein...btw was hast du eigentlich von solchen saudummen Posts? Irgendeine Form von Selbstbestätigung ? :crazy:

r00t
2004-10-31, 19:38:35
^^


ich weis nich wenn ich mir ne neue graka kaufe... habe ich meistens die absicht .. spiele besser spielen zu können..

diese grafikkarte kostet doch zwischen 100-150€... (laut geizhals) , für das geld bekommt man vielleicht keine high end karte aber dennoch eine bessere ^^


was bewegt euch diese relativ schlechte karte zu kaufen? liegts an den DUAL GPU? erhofft ihr euch in paar jahren ne wertsteigerung?

bei den Voodoo karten lags wohl nur daran das die karte damals wirklich saugut waren und auch eine sehr gute bildquali hatten!

ich weis nich wie die bildquali der deltacrome ist aber dennoch gibt es genug karten die schneller sind.

ich glaube nicht das die karte noch einmal seinen wert steigert..

so :D ihr seid dran!

BlackArchon
2004-10-31, 22:43:45
...
was bewegt euch diese relativ schlechte karte zu kaufen? liegts an den DUAL GPU?
...Äh? Zu viel getrunken letzte Nacht?

r00t
2004-10-31, 22:45:39
Äh? Zu viel getrunken letzte Nacht?



ähm..ja ^^

ne aber mal ernsthaft...warum??!

Cooli
2004-10-31, 22:46:26
Ich denke er meint weil der DC nur einen COre (Chip) hat

BlackArchon
2004-11-01, 00:07:18
Richtig. Zwei GPUs hat die XGI Volari Duo V8 Ultra.

Popeljoe
2004-11-01, 08:38:34
ähm..ja ^^

ne aber mal ernsthaft...warum??!
Interesse an etwas exotischem?!
Mal was Anderes als das Übliche testen?!
Nen kleineren GraKa Hersteller unterstützen?!
Hoffen, dass der Treiber den Chip mal wirklich ausreizt?! ;)
Wären für mich genug Argumente.
Außerdem: ist Doom3 wichtig?! ;D
Popeljoe

saddevil
2004-11-01, 10:44:03
hmm... dann wäre die FX5200 genau richtig..als konkurenz

meine Ti4200 ist in allen belangen schneller...zumindest in DIII
UT2003 kann ich auch locker in 1024x768 mit 4xAA zocken...


OK einmal nicht ATI oder NV...
hatte davor auch eine KYRO II .. hatte sich wacker geschlagen.
irgendwann kamen aber extreme inkompatiblitäten!!
treibertechnisch konnte nix gelöst werden

so bin ich zu NV gewechselt


eine Volari oder Deltachrome hat was für sich ...
nur schneller müssten sie sein...

kalleDLX
2004-11-01, 20:32:05
sry, dass ich das sage, aber welcher halbwegs normale mensch kauft sich schon bitte eine S3 deltachrome? man muss entweder blöd sein oder zu viel geld haben!?
die kannste ja full weghauen, ebenso wie ne XGI volari V8, oder wie die shice heißt! die haben einfach GAR NIX drauf...... die wird bei doom3 abkacken wie sau! obwohl ich noch nie benches von doom3 mit dieser karte gesehn habe, aber die anderen benches haben mir gereicht!

Maestrox
2004-11-01, 20:55:40
laba laba

stickedy
2004-11-01, 23:29:02
sry, dass ich das sage, aber welcher halbwegs normale mensch kauft sich schon bitte eine S3 deltachrome? man muss entweder blöd sein oder zu viel geld haben!?
die kannste ja full weghauen, ebenso wie ne XGI volari V8, oder wie die shice heißt! die haben einfach GAR NIX drauf...... die wird bei doom3 abkacken wie sau! obwohl ich noch nie benches von doom3 mit dieser karte gesehn habe, aber die anderen benches haben mir gereicht!
Öhm, das sagt ausgrechnet jemand, der in seiner Signatur "MY PUSSYWAGON:" stehen hat? :rolleyes: :ulol3:

Im übrigen: DeltaChrome ist in Doom3 nicht gravierend langsamer bzw. schneller als die vergleichbaren Karten von ATI und NVidia, also Niveau der Radeon 9600 bis 9600 Pro! So what?
Gibt z.Z. halt einige Treiberprobleme, aber die lassen sich vermutlich in absehbarer Zeit lösen! Im übrigen konnte ich bis jetzt alles spielen was ich wollte außer Colin McRae Rally (das allererste) und Sims 2 (und dafür kann S3 nix, das ist Schwachsinn³ von EA)...

Mokuskamer
2004-11-02, 06:47:36
@muck

möglicherweise bist du blöd !!????!!!

Crazy_Borg
2004-11-02, 13:51:15
Colin McRae Rally 1 habe ich auch auf meiner GF4 unter XP nicht zum laufen bekommen. Glaube nicht dass das ein S3 Problem ist.

Derzeit kämpfe ich noch mit meiner neu erworbenen DC.
Mag meinen Mainboard-Chipsatz nicht (SIS 648).
Also wird jetzt erstmal ein neues Mainboard zugelegt.
Ich lass mir doch vom Mainboard nicht vorschreiben welche GraKa ich benutzen darf und welche nicht!

Gast
2004-11-02, 13:53:27
@muck

möglicherweise bist du blöd !!????!!!
Bleib mal sinnig...
Gleiches gilt für manch Andere. Ich denke man kann sich auch auf nem Niveau unterhalten, dass über das von Grundschülern hinausgeht.

@stickedy
Ob die Treiberprobs wirklich mal behoeben werden sehe ich äußerst skeptisch. Seitdem ich mit dem Savage2000 mich mehr geärgert hab als alles andere, habe ich etwas das Vertrauen in S3 verloren.

Mfg Nasenbaer

HOT
2004-11-02, 14:30:25
sry, dass ich das sage, aber welcher halbwegs normale mensch kauft sich schon bitte eine S3 deltachrome? man muss entweder blöd sein oder zu viel geld haben!?
die kannste ja full weghauen, ebenso wie ne XGI volari V8, oder wie die shice heißt! die haben einfach GAR NIX drauf...... die wird bei doom3 abkacken wie sau! obwohl ich noch nie benches von doom3 mit dieser karte gesehn habe, aber die anderen benches haben mir gereicht!

Sorry, aber dieser Quatsch ist vollkommen unverständlich und ich kann die Motivation dieses Postings nicht nachvollziehen.
Wenn sich jemand ne Underdogkarte kauft, macht er das, weil er interessiert daran ist, mal über den Tellerrand zu gucken. Natürlich sind da Treiberprobleme vorprogrammiert, aber wer sich die Karte kauft, wird auch damit rechnen, dass nicht alles 100%ig läuft. Ich hab mir damals auch ne Savage2k gekauft, weil ich das eher amüsant als schrecklich fand, damit zu experimentieren. Und schnell war das Teil auch. Der DC hat auch noch nicht seine volle Leistungsfähigkeit erreicht.

@saddevil

Wer die kostbare Leistung einer TI4200 mit 4x MSAA verplempert hat entweder keine Ahnung, was die Ti fürn AA macht oder nicht mehr alle aufm Baum für mich :D
Führe dir mal aths AA Artikel zu Gemüte, dort steht drin wie sinnlos 4x OGAA ist wenn man 2x RGAA haben kann.

stickedy
2004-11-02, 18:44:37
@stickedy
Ob die Treiberprobs wirklich mal behoeben werden sehe ich äußerst skeptisch. Seitdem ich mit dem Savage2000 mich mehr geärgert hab als alles andere, habe ich etwas das Vertrauen in S3 verloren.
Naja, das muss man ja anders betrachten: S2 hat ja relativ kurz nach der Vorstellung des Savage 2000 hat S3 den Grafikchipmarkt ja erstmal verlassen und damit natürlich auch jegliche Treiberentwicklung eingestellt (bis auf das eine oder andere sporadische Upate). Von den vielen Bugs in der Hardware mal ganz zu schweigen! Imho is es eher bewundenswert, dass S3 die Treiber so hinbekommen hat, dass der Grafikchip überhaupt benutzbar war!
Beim DeltaChrome schaut das doch ganz anders aus: Der Chip läutet für S3 Graphics das Comeback auf dem Grafikchipmarkt ein, der mehr oder weniger identische Nachfolger GammaChrome (soll noch dieses Jahr kommen) wird den gleichen Treiber nutzen! Da wird also noch lange entwickelt werden. Nicht zu vergessen, dass VIA den DeltaChrome Grafikkern demnächst in den integrierten P4 und K8-Chipsätzen anbieten wird, dafür braucht man auch Treiber...
Also beim DeltaChrome sind wir relativ weit am Anfang der Treiberentwicklung (falls sich S3 für Destination Films zu unified Treibern durchringen kann, sogar ganz weit am Anfang), während beim S2K die Treiberentwicklung dieses Stadium nie verlassen hat...

@Crazy_Borg
Das hab ich auch schon vermutet, aber ich meine mich erinnern zu können, dass ich es mit meiner Kyro II unter XP gespielt habe... Aber als wirklichen "Bug" würde ich das sowieso net bezeichen! Bevor die CMR 1 zum laufen bringen, sollen sie sich mal um die wirklich wichtigen Sachen kümmern...

Radeonator
2004-11-02, 20:32:40
*sigh* Das man sich hier immer wieder mit pubertären Zwerghirnen rumschlagen muss...naja auch irgendwie niedlich die kleinen, keine Ahnung von nichts aber immerhin ne große Klappe...auch schön ;D

@Robbitop : Es ist November...wo ist das Review ;) ;) *wart* :D

RyoHazuki
2004-11-02, 22:14:14
So,

zuersteinmal zum Savage 2000.

1. Dafür das die T&L Einheit defekt war, lief die Karte beachtlich gut in den meisten Games (vorallem in den wichtigsten) ! Der Treiber war anfangs schrott (keine Frage) aber die T&L einheit wurde zum laufen gebracht, auch wenn sie nicht einmal so stark war wie eine Pentium 3 500 CPU. (Ja sie läuft)

2. Der Deltachrome ist eine völlige neu-entwicklung, nicht einmal die Pipeline struktur basiert auf was davor dagewesenes. Ergo, die entwickler müssen sich erstmal mit der Hardware GRÜNDLICHST auseinandersetzten. Zum Beispiel einen Compiler auf die beine stellen.

Das hat damals bei Nvidia auch nicht auf anhieb geklappt (erinnern wir uns an die "Wunder" treiber der Geforce 3. Der Deltachrome wird auf jedenfall "sehr viel" Kompatibler als sichs manche hier denken.

Wenn ich schonmal versuche wieder im Markt fuß zu fassen, dann setzt ich alles dran das das auch gelingt, siehe XGI. Der Treiber wird (meines erstaunens) immer und immer besser, wobei hier die architektur schon auf dem Xabre Basiert. Also kleiner vorteil für XGI.

kmf
2004-11-03, 09:04:28
* *peitscheauspack* Ich möchte, daß sofort diese sinnlose Spammerei/Anmacherei aufhört. Ich bin kein Freund der Bepunktung, aber der nächste Spam-/Flamepost wird bepunktet.

Ich werde diesen Thread auch nicht bereinigen, da der Zusammenhang dann nicht mehr gegeben ist. So und jetzt schickt euch. :smile: *

kalleDLX
2004-11-07, 01:26:33
sry das mit dem blöd, ist natürlich gar nicht bös gemeint, aber das musste doch mal raus, weil: shice kompatibilität, AA und AF zum inne tonne hauen, leistung pfui.

außerdem: das teil hat am anfang über 400€ gekostet!!!! um gottes willen...
ich würde sie mir erst holen (also eine graka von XGI, zB volari v8 ultra), wenn sie kompatibilitäts-, leistungs-, AA- und AF- technisch mit ati und nvidia gleichziehn würde.

stickedy
2004-11-07, 01:33:15
Ähm, der Thread handelt hier vom S3 Graphics DeltaChrome S8!! Der Chip hat nichts, aber auch gar nichts mit XGI oder SiS zu tun!!

Und im Gegensatz zu Volari-Serie, ATI und NVidia bietet der DeltaChrome einwandfreies AF ohne Winkelabhängigkeit und volle Trilineare Filterung auf allen Texturstufen!


Edit: Mit XGI geb ich dir recht!

kalleDLX
2004-11-07, 12:25:14
o, verdammt! bin ja tatsächlich blöd, hab ja völlig verpeilt, dass es um diesen S3-chip geht.... however, in absehbarer werden wohl auch S3 und XGI halbwegs konkurrenzfähige chipsätze anbieten können (naja, XGI ???), aber imo sind die halt noch nicht so stand der dinge... aber wie gesagt: NOCH nicht.

stickedy
2004-11-07, 12:41:33
Naja, der S8 tritt/tratt als Konkurrent zur ATI Radeon 9600 & 9600 Pro an und ich würde sagen, anhand der bisherigen Ergebnisse ordnet sich der Chip recht gut ein. Man muss halt immer berücksichtigen, für welches Marktsegment der Chip gedacht ist - das DeltaChrome nicht mit einer Radeon 9800 oder gar der X800-Serie mithalten kann, ist da natürlich klar...

Das es Probleme mit dem Treiber gibt ist ne andere Sache, aber das ist an sich kein Problem des Chips selber. Der Chip hat allerdings auch einige Schwachstellen, das läßt sich nicht leugnen, v.a. wohl der Speichercontroller! Der soll allerdings im "Nachfolger" GammaChrome (PCI-Express) verbessert worden sein. Nun ja, wir werden sehen...

alice5000
2004-11-16, 19:55:31
Ähm, der Thread handelt hier vom S3 Graphics DeltaChrome S8!! Der Chip hat nichts, aber auch gar nichts mit XGI oder SiS zu tun!!

Und im Gegensatz zu Volari-Serie, ATI und NVidia bietet der DeltaChrome einwandfreies AF ohne Winkelabhängigkeit und volle Trilineare Filterung auf allen Texturstufen!

Edit: Mit XGI geb ich dir recht!

Du hast kein Volari.