PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mal ehrlich! Geforce 3 ti 500 vs R8500 Preis egal!


Seiten : [1] 2

Unregistered
2001-11-26, 19:45:33
Naja, ich weiß, dass es verdammt viele Threads über das Thema gibt, aber nirgendwo wurde der 'Preis ist egal' Aspekt eingebracht.

Was würdet ihr nun nehmen, wenn der Preis mal keine Rolle spielt?

Unregistered
2001-11-26, 19:51:40
???
genau immer noch das,worauf jeder Lust und Laune hat...


Fendris

Kosh
2001-11-26, 19:59:08
Ich würde mir einfach die beste Direct X 8 karte kaufen.

Kauft sich wer eine Direct X 8 Karte für Direct X 7 games??

Die Radeon 8500 ist einfach die beste und schnellste Direct X 8 Karte.
Sie hat deutlich mehr Feauters als die TI500.

Den 300 DM Vorteil wollen wir ja hier weglassen. :D

Kai
2001-11-26, 20:06:40
Dann kommt mein Statement ebenso dahingewischt rüber ;) :

Ich würde ne TI500 nehmen ... ganz einfach weil ich mich nicht mit unnötigem Firlefanz rumquälen will bis ich mal ein Game unter gewissen exotischen Umständen zum laufen bringen kann.

Quasar
2001-11-26, 21:24:26
Wenn der Preis egal ist, würd ich die Karte nehmen, die mir am wenigsten Ärger bereitet, und momentan wäre das die GF3....wenn sich hier schon wieder einige darüber wundern, ob die DX8-Features überhaupt genutzt werden, bevor DX9 rauskommt, wie soll es dann erst DX8.1-Features ergehen, die nur eine einzige Karte beherrscht?

Oder gleich auf die NV25 warten, die im Januar kommt
(absichtlich so geschrieben, da mit dem R200 ebenso geschehen...)
Wer will denn noch ne Karte, die nur einen PS/VS bietet...ich NICHT!
;)

Pengo
2001-11-26, 21:39:37
Ich würde auch die Ti500 nehmen, die 8500 ist unbestritten unter DX8 schneller, es ist aber vollkommen egal, bis es DX8 Games gibt die davon einen nutzen ziehen sind 8500 und Ti500 altes eisen, wie die GF1 SDR altes eisen für Max Payne ist. 3DMark 2001 spiele ich nicht.

aths
2001-11-28, 12:32:07
Pengo: Und das ist ein Grund, die langsamere Karte zu kaufen? Dann hätte man auch so argumentieren können: "Für T&L-Spiele würde ich eine Voodoo nehmen, denn ehe sie richtig weit verbreitet sind, sind die CPUs eh schnell genug."

b0wle`
2001-11-28, 12:47:27
T&L Spiele sind aber schon relativ verbreitet während DX8 Spiele (größtenteils) noch auf sich warten lassen. (von DX8.1 ganz zu schweigen) Jetzt über den Sinn und Unsinn von T&L bei schnellen CPUs zu streiten ist Schwachsinn. Ich finde der Vergleich hinkt an der Stelle an bisschen @Aths. Und es ist de facto so das die Gf3 Ti500 weniger Probleme macht als die Radeon8500 und viel langsamer ist sie auch nicht. Dies kann (und wird;)) im Laufe der Treiberentwicklung für die Radeon wohl immer besser werdn aber im Moment würde ich mir die Gf3 Ti500 holen wenn beide gleich teuer wären.

aths
2001-11-28, 13:01:00
Es ist ein Unterschied, ob ein Spiel T&L nutzt, oder ob es einen wirklichen Gewinn aus T&L ziehen kann.

StefanV
2001-11-28, 13:04:56
Originally posted by Pengo
Ich würde auch die Ti500 nehmen, die 8500 ist unbestritten unter DX8 schneller, es ist aber vollkommen egal, bis es DX8 Games gibt die davon einen nutzen ziehen sind 8500 und Ti500 altes eisen, wie die GF1 SDR altes eisen für Max Payne ist. 3DMark 2001 spiele ich nicht.

LOL...

Wie war es bei der GF3??

Die wurde damals von der GF2U geschlagen es hieß damals, man müsse den Umstand berücksichtigen, daß die Karte eine DX8 Karte sein, daher sei die DX7 Leistung nicht so wichtig.

Und jetzt ist es aufeinmal umgekehrt??

Sagt mal, legt jeder es immer so aus, daß NV immer vorne ist??

Kellwolf
2001-11-28, 13:08:24
Die mit den stabieleren Treibern...Also geforce Ti...
ATI´s Treiber sind der knackpunkt......


Kellwolf

Unregistered
2001-11-28, 13:38:05
Also ich war auch lange am überlegen welche ich mir holen soll, habe mich trotz Monopolisten Haß für die GForce 3 entschieden.

1. Hatte ich auch keine Lust mich den "normalen" Windows Problemen mich noch mit dem Grafiktreiber Problem bei Ati rumzuschlagen.

2. Wenn ATI dann nur 8500 Retail, welche im Moment gar nicht bis Sau schwer zu bekommen ist und sehr übertaktungfreudig ist die Karte garantiert nicht mehr.

Also, kam für mich nur ne GForce 3 in Frage, diese wird ein bisschen oc und dann läuft die mindestens genauso schnell wie ne Ati 8500, bei (meiner Ansicht nach weniger Problemen).
Die ganze Ati Treibersache kann sich natürlich und wird sich sehr wahrscheinlich im laufe der Zeit noch ändern, aber ich brauche jetzt ein stabiles System, nicht in 3 Monaten.

Das alles ist natürlich meine persöhnliche Meinung, und ich kann natürlich verstehen das andere ganz anders denken. In meinem Fall kam halt nur ne GForce in frage.

Cu
MJKira

b0wle`
2001-11-28, 13:45:10
Originally posted by aths
Es ist ein Unterschied, ob ein Spiel T&L nutzt, oder ob es einen wirklichen Gewinn aus T&L ziehen kann.
Bei schwächeren Rechnern kann T&L schon Vorteile bringen auch wenn sich das bei schnellen Rechnern relativiert (siehe KyroII;)). Aber darum geht es hier nicht. Ich weiß nicht warum du den Voodoo-T&L Vergleich hier mit eingebracht hast...

StefanV
2001-11-28, 13:47:45
@Kira

Stabil sind die ATI Treiber immer gewesen!!

Es kann höchstens vorkommen, daß ein Spiel nicht läuft.

Und das wird garantiert gefixt werden!!

BTW: Die Treiber für die Radeon 8500 sind neu, die neue hat auch kaum was mit der Radeon 1 zu tun...

aths
2001-11-28, 13:55:43
Wo sollen die ATI-Treiber denn Probleme machen, Kellwolf?

Spider: Es ging darum, dass einige die Geschwindigkeits-Vorteile der Radeon bei DX8 klein zu reden versuchen. Ich machte nun das gleiche und redete den Geschwindigkeitsvorteil der GF bei T&L-Titeln klein.

Com1
2001-11-28, 14:39:00
Mal ehrlich. Wir sind doch alle Millionäre, also wo ist das Problem :p

Für mich ist dieser Aspekt nichtig, Geld spielt immer eine Rolle. Selbst wenn man verhältnissmäßig viel Geld hat sind über DM 1000,- für eine Grafikkarte immer noch viel zu viel. Steht in keinem Verhältniss zu dem, was man bekommt. Das ist wie als hätte man anfang letzten Jahres Telekom Aktien gekauft, nur mit dem Unterschied, das man bei der GF 100% sicher sein kann das der Wert mit der Zeit ins bodenlose fällt ;)

ActionNews
2001-11-28, 15:34:50
Originally posted by Stefan Payne




LOL...



Wie war es bei der GF3??



Die wurde damals von der GF2U geschlagen es hieß damals, man müsse den Umstand berücksichtigen, daß die Karte eine DX8 Karte sein, daher sei die DX7 Leistung nicht so wichtig.



Und jetzt ist es aufeinmal umgekehrt??



Sagt mal, legt jeder es immer so aus, daß NV immer vorne ist??

Pengo schon....http://62.96.227.94/ubb6/devil.gif

Bakunin3
2001-11-28, 15:44:37
Ich würde - wenn ich überhaupt Geld hätte, aber das soll hier ja keine Rolle spielen - jederzeit die R8500 nehmen.
Warum?
Weil sie mir zukunkftsträchtiger erscheint und weil sie einfach mehr features hat.
Ach ja, und weil ich mit Nvidia gemichte Erfahrungen habe (meine alte Elsa Erazor2 - TNT1 - fand ich ziemlich gut, die Gf2MX daraufhin richtig sch..., so daß ich sie zurückgab).
Die Sache mit den Treibern kann ATI ja immer in den Griff kriegen und es ist ja nichts neues, wenn ein neuer Chip in dieser Hinsicht Nacharbeiten erforderlich macht.

PS: Ist immer interessant, wie Nvidia-Freunde (wertungsfrei, nicht ärgern) damals als die V3 kein 32Bit rendern konnte, das Argument, daß es ja auch kaum Spiele gäbe, die das anböten, wegwischten: Das sei trotzdem nicht mehr zeitgemäß.
Als es zum Release der Gf1 noch keine Spiele gab, die T&L unterstützten, hieß es, das feature sei dennoch notwendig, weil zukunftsträchtig.
Heute, wo die Radeon 8500 die bessere DX8 Implementierung zu haben scheint, heißt es hingegen: Na und? Bis es DX8 Spiele gibt, ist ja noch lange hin und dann ist die Karte eh Alteisen...
Das erscheint mir irgendwie "wendehalsig", aber vielleicht begreif ich die feinsinnige Logik auch einfach nicht.

B3

Unregistered
2001-11-28, 16:43:20
Ich würde mir eher die Radeon8500 holen. Die Zeit spielt füt die Radeon. Zum einen, weil sie unter etwas schneller ist und zum anderen, weil die Treiber sich noch sehr weiterentwickeln werden, besonders unter Opengl, wo Hyperz2 immer noch nicht unterstützt wird. Beim Villagemark sieht man, wie gut das Hidden Surfacal Removal der Radeon8500 arbeiten kann, jetzt müssen nur noch die Treiber nachziehen.

Tomp60311

ow
2001-11-28, 17:09:39
Originally posted by Unregistered
In meinem Fall kam halt nur ne GForce in frage.

Cu
MJKira


Da stehst du nicht alleine da.

Solange ATi keine anstaendigen Treiber programmiert kommt mir deren Mist nicht in den Rechner.

ow
2001-11-28, 17:15:43
Originally posted by Stefan Payne
@Kira

Stabil sind die ATI Treiber immer gewesen!!



Dann wirf mal deine RagePro in den Rechner und schau mal, was da unter OpenGL alles laeuft.
Und dann nimmst du dein Riva 128 und vergleichst mal.


Es kann höchstens vorkommen, daß ein Spiel nicht läuft.

Und das wird garantiert gefixt werden!!


Klar, so dass am Ende statt eines brauchbaren Treibers ein Sammelsurium an Bugfixes rauskommt, das den Namen Treiber nicht verdient.


BTW: Die Treiber für die Radeon 8500 sind neu, die neue hat auch kaum was mit der Radeon 1 zu tun...


Ach ja?
AFAIK ist (wie der Name schon sagt) der Radeon2 (R200) einen Weiterentwicklung des Radeon1, auch die Treiber stellen nur eine weitere Entwicklungsstufe dar.


(btw) es ist eine Unverschaemtheit von ATi, Win95 nicht mehr zu unterstuetzen, alle Radeon Karten laufen auschliesslich ab Win98.

Alle anderen Hersteller bieten noch Win95 Treiber an.

aths
2001-11-28, 17:23:15
"Solange ATi keine anstaendigen Treiber programmiert"

Der neue Treiber erscheint doch recht brauchbar, ich weiss nicht, was du hast. Abgesehen vom akuten nVidiotismus. (Zitat zur ATI-Produkten: "kommt mir deren Mist nicht in den Rechner.")

Boomslang
2001-11-28, 17:29:36
also mein Senf (mit Wurst :D)
ich würde immer wieder ne Radeon nehmen.
Ich fummel gerne rum :D
das ist einer meiner gründe. ich liebe es wenn ein plan funktioniert.
da ich bis jetzt nie eine Geforce besessen habe, aber alle anderen der leute mit denen ich oft im Lan zocke oder auch so quatsche, kann ich sagen, das die Radeon die ich bis morgen :D noch besitze (ViVo 64MBDDRRam)eine saugeile karte ist. vielleicht nicht so schnell wie ne Geforce 2 ultra, aber von der Bildqualität, mal abgesehen von 16bit, einsame spitze. und wenn man sich nur ein bißchen mit der karte beschäftigt, erziehlt man geniale ergebnisse.

ich hoffe ich werde mit meiner Radeon 8500 genausoviel spaß und fummelsarbeit haben wie mit meiner jetzigen, oder wie damals mit der G400 maxx von matrox.
ich liebe exoten :D

und wenn ich mir jetzt so die karten anschaue, GeForce3 und 7500-8500, dann glaube ich kaum, daß games die in nächster zeit kommen, wieder solche anfangsprobleme mit der Radeon haben, wie es damals der fall war. denn Radeon ist jetzt ein name unter den highend karten, genauso wie Geforce.

nur mal so mein senf...... :D

Labberlippe
2001-11-28, 17:31:14
Originally posted by ow



Da stehst du nicht alleine da.

Solange ATi keine anstaendigen Treiber programmiert kommt mir deren Mist nicht in den Rechner.

Du diskutierst über Sachen die Du sowieso nicht verstehst.
Wie schon öfter gesagt, auch nv hatte Problme mit den Treibern.

Auch wenn ein paar kleine Bugs im Treiber sind ist das nicht schlimm.
Das kann man immer nachbesseren.

Solange das System selbst nicht instabil wird ist alles gut.
Kurz der Radeon Treiber ist stabil.
(Ausser man haut sich ständig die Beta- Treiber rein aber da heisst SSKM - Kann bei jeder Hardware sein.)

Gruss Labberlippe

Labberlippe
2001-11-28, 17:38:59
"OW: Dann wirf mal deine RagePro in den Rechner und schau mal, was da unter OpenGL alles laeuft.
Und dann nimmst du dein Riva 128 und vergleichst mal."

=>
Wenn man objetiv bleibt müsste man ein bsichen was erwähnen.
1. War damals OpenGL auch noch am Anfang und auch andere Hersteller mussten erstmal OpenGL Treiber schreiben.
2. War die Mega Schnittstelle Glide
3. Hat der Riva 128 Probleme unter D3D gehabt, da waren die anderen Hersteller um einiges besser.

--------------------------------------------------------

"OW:Klar, so dass am Ende statt eines brauchbaren Treibers ein Sammelsurium an Bugfixes rauskommt, das den Namen Treiber nicht verdient."

=>
Wieso hast dann eine nv Karte?
Meinst Du die haben nicht gefixt was das Zeug hielt?
Der Weg ist das Ziel, mehr nicht.
Für den Endkunden ist es egal, ob das Game oder der Treiber gefixt wird.
----------------------------------------------------------
"OWAch ja?
AFAIK ist (wie der Name schon sagt) der Radeon2 (R200) einen Weiterentwicklung des Radeon1, auch die Treiber stellen nur eine weitere Entwicklungsstufe dar."

=>
Ebenso die komplette GeForce Serie inkl. der GeForce3, denn auch hier wird an die TNT Serie angelehnt.

-----------------------------------------------------------


OW:(btw) es ist eine Unverschaemtheit von ATi, Win95 nicht mehr zu unterstuetzen, alle Radeon Karten laufen auschliesslich ab Win98.

Alle anderen Hersteller bieten noch Win95 Treiber an.

=>
Irrtum lieber OW einige Hersteller supporten Win 95 nicht mehr.
MSI hatte eine zeitlang beim K7TPro auch kein Win9x Unterstützt.
Eine andere Frage?
Versuche mal mit einer Topaktuellen Hardware ein Win95 vernünftig zu betreiben.
Noch nie probiert was? :)

Gruss Labberlippe

Doc
2001-11-28, 17:49:27
Originally posted by ow

(btw) es ist eine Unverschaemtheit von ATi, Win95 nicht mehr zu unterstuetzen, alle Radeon Karten laufen auschliesslich ab Win98.

Alle anderen Hersteller bieten noch Win95 Treiber an.
Tja ... da gibts einen einfachen Grund ... MS bringt kein DX8.1 mehr für Win95 raus, und der R200 ist ein DX8.1 Chip ... ;)

StefanV
2001-11-28, 18:19:32
ow, hast du die anfangszeit von NV mitbekommen??

Ich meine als der Deto 2.08 der aktuellste war??

Kann mich dran erinnern, daß meine TNT damals :kotz: lief!

Über die NV3 meines Onkels reden wir nicht (hatte wohl 'etwas' Probleme mit größeren Texturen)...

StefanV
2001-11-28, 18:21:57
Nochwas:

Als die NV3 rauskam, da gab es fast jede Woche einen neuen Treiber.

Das spricht nicht gerade für Qualität...

StefanV
2001-11-28, 18:24:21
Originally posted by ow
Da stehst du nicht alleine da.

Solange ATi keine anstaendigen Treiber programmiert kommt mir deren Mist nicht in den Rechner.

LOL...

Als ich meine TNT hatte, damals waren die NV Treiber alles andere als Anständig!!
Das sind sie heute auch nicht sonderlich!!

Die Treiber von ATI sind anständig!!

Laufen zwar nicht unbedingt mit jedem Spiel, beeinflussen die Stabilität des ges. Systems auch nicht!

Labberlippe
2001-11-28, 18:25:41
Produkt : MSI Mainboards mit VIA Chipsatz
Frage/Symptom :
Der AGP-4x-Modus funktioniert nicht, oder wird erst gar nicht eingeschaltet.
Antwort/Lösung :
Der Detonnator Version 6.xx schaltet den AGP-4x Modus aus angeblichen Kompatiblitätsproblemen bei VIA 649X / 694DP / KX133 / KT133 / KT133A Chipsatz basierten Mainboards ab.

VIA empfiehlt hierzu, den Detonnator Version 3.xx zu verwenden (http://www.viatech.com/support/faq.htm). Der Originaltext auf der Seite lautet:

3) Why doesn’t my GeForce2 GTS based video card run in AGP4X on my Apollo Pro133A based motherboard?

A - nVidia has disabled AGP4X on Apollo Pro133A platforms because of compatibility problems with Apollo Pro133A and newer nVidia drivers. Older nVidia drivers with version numbers of 3.xx solve this problem.

Leider führen die 3.xx Treiber zu schlechterer Perofomance bzw. unterstützn die aktuellen NVIDIA Grafikchipsätze nicht oder nur unzureichend. Daher haben wir diese Sache von einer anderen Seite aufgezogen. Unsere eigenen Tests haben mittlerweile ergeben, dass die Detonnator Version 7.xx und 10.xx (für Geforce 3 angepasst) wieder zuverlässig mit den genannten VIA-Chipsätzen im AGP-4x Modus funktionieren. Solange bei NVIDIA selbst diese Treiberversionen nicht erhältlich sind, kann man sie als Betaversion von www.reactorcritical.com herunterladen.
----------------------------------------------------------------
Ein Auszug aus der FAQ von MSI
Kurz auch euer heisgeliebter nVIDIA muss fixen und helfen.

Wie gesagt, es ist egal der Weg ist das Ziel

'Gruss Labberlippe

ow
2001-11-28, 19:23:31
Originally posted by Doc

Tja ... da gibts einen einfachen Grund ... MS bringt kein DX8.1 mehr für Win95 raus, und der R200 ist ein DX8.1 Chip ... ;)


Es ging hierbei um eine Radeon 32MB SDR PCI unter Win95 DX8.
Ich wollte nur Q3 starten-->Bluescreen.
DX hab ich gar nicht getestet.

Also Radeon raus, onboard Grafik ein (i815)-> Läuft einwandfrei.


Es ist mir rätselhaft, wie ATi das hingekriegt hat, denn der Unterschied Win95-98 ist zu vernachlässigen.

ow
2001-11-28, 19:36:34
Originally posted by Stefan Payne
ow, hast du die anfangszeit von NV mitbekommen??

Ich meine als der Deto 2.08 der aktuellste war??



Ja, ab 1.88 hab ich das mitbekommen (nicht persönlich, PC vom Kumpel einrichten:D).
Da gab´s noch ein Paar Probs.

Aber mit dem 2.08 hatte ich da schon keine Probs mehr.

Ich hab übrigens eine Menge Dets. auch auf meiner TNT (die ich halt später bekam) nachgetestet.

Von 0.48 bis z. Zt. 21.83 (insgesamt wohl 30 Stück;)). Erstaunlich wenige Probs.

ow
2001-11-28, 19:40:28
Originally posted by Stefan Payne


LOL...

Als ich meine TNT hatte, damals waren die NV Treiber alles andere als Anständig!!
Das sind sie heute auch nicht sonderlich!!

Die Treiber von ATI sind anständig!!

Laufen zwar nicht unbedingt mit jedem Spiel, beeinflussen die Stabilität des ges. Systems auch nicht!


Nee nee Stefan. Um die Qualität der Treiber von NV zu erreichen hat ATi noch ein hartes Stück Arbeit vor sich.

Für die geplagten ATi User will ich mal hoffen, das sie das schaffen und es nicht allzu lange dauert.

Labberlippe
2001-11-28, 19:42:12
Originally posted by ow


Ja, ab 1.88 hab ich das mitbekommen (nicht persönlich, PC vom Kumpel einrichten:D).
Da gab´s noch ein Paar Probs.

Aber mit dem 2.08 hatte ich da schon keine Probs mehr.

Ich hab übrigens eine Menge Dets. auch auf meiner TNT (die ich halt später bekam) nachgetestet.

Von 0.48 bis z. Zt. 21.83 (insgesamt wohl 30 Stück;)). Erstaunlich wenige Probs.

Erschreckend was?
Wenn die nVIDIA Treiber immer die volle Kompatibiliät haben, wieso wurden dann ständig neue online gestellt?
Wobei 30 Heavy ist, allerdings sind das wirklich alle?

Rate mal wie oft andere Hersteller Treiber rausgebracht haben?
3dfx hatte so gut wie nie neue Treiber gebracht. OK da liefen die Karten wie am Schnürchen.

Gruss Labberlippe

Haarmann
2001-11-28, 19:48:49
Jaja OW... also bei mir gehen die Rage Pro Treiber hervorragend...
Zumindest Q1-Q3 lief drauf und das reicht eigentlich. Viel mehr kannste ja ned erwarten von ner Karte, die so alt ist...Was hatte denn NVidia zu dem Zeitpunkt an Grakas zu bieten?
Ah warte mal... gar keine glaubs... Ausser dem NV1 gabs da ja gar nichts von NV - haste mal so nen Teil getestet unter OpenGL? Wohl kaum - die Karte hatte nämlich gar kein OGL - also lieber ATI mit nicht perfektem, denn gar keinem OGL.

Und der Unterschied W95 zu W98 ist riesig... W95 kennt kein FAT32, kein USB, kein AGP usw...
W95 ist nicht W95 OSR 2.5...

P.S. Ich habe wie immer kein Probleme mit ATIs Treibern... Mit NVidias hatte ich nur ärger... ich hab ja kein überteuertes Intel System.

Doc
2001-11-28, 22:06:12
@ow:
Vielleicht liegts daran, daß ATI den Support für die OS's gleichzeitig mit MS einstellt? Keine Ahnung ... jedenfalls ist ein Win95 heutzutage wirklich nicht mehr interessant, und ob es jetzt aktuelle Treiber für Win95 gibt oder nicht gibt kann dem Durchschnittsuser doch absolut egal sein, da er sowieso immer das OS einsetzt, daß beim PC dabei war ... und ein Win95 gibts schon ewig nicht mehr ;)

@Haarmann:
*zustimm*
Hab absolut keine Probleme mit ATI ... damals bei der Rage Pro hatte ich mal teilweise Probleme mit Halflife, aber die wurden in einem Treiberupdate gefixed ;)
Seit dem nie mehr Probleme mit ner ATI ... und wenn ich mir da so die nVidia's meiner Bekanntschaft ansehe kommt mir oft das Grausen ...

Kai
2001-11-28, 22:13:06
Originally posted by Stefan Payne


LOL...

Als ich meine TNT hatte, damals waren die NV Treiber alles andere als Anständig!!
Das sind sie heute auch nicht sonderlich!!

Die Treiber von ATI sind anständig!!

Laufen zwar nicht unbedingt mit jedem Spiel, beeinflussen die Stabilität des ges. Systems auch nicht!

Stefan, es geht um heutige Produkte ... ATI hat bei deren Anfang IMO noch grössere Kacke gebaut, also bleib mal ein bisschen objektiv.

Kosh
2001-11-28, 22:27:53
Originally posted by ow



Da stehst du nicht alleine da.

Solange ATi keine anstaendigen Treiber programmiert kommt mir deren Mist nicht in den Rechner.

Die neuen treiber von ATI sind hervorragend.
Die von NVIDIA seit den 21.xx nicht mehr 100%tig.

Wenn ich Hardware will,die nicht die kleinsten Probs machen kann,dann kaufe ich mir eine Konsole.

Meine Kyro2 soll angeblich auch viele Probs machen,allerdings scheint meine eine Macke zu haben.
Es funktioniert ALLES!!!!

Kosh
2001-11-28, 22:29:37
Und noch was,für die Direct X 7 Games langt meine 200 DM Kyro2 voll und ganz!
Eine Direct X 8 Karzte für Direct X 7 Games zu kaufen scheint mir etwas unlogisch zu sein.

Unregistered
2001-11-28, 22:40:49
Sollten wir die Kirche nicht im Dorf lassen? Irgendwie artet das in Behauptungen aus und jedesmal hat irgendein nicht definierter Kumpel Probleme mit einer Karte die vom "Gegner" kommt. Komisch, oder?

Vielleicht hatte ich ja nur Glück, aber größere Probleme mit den NVIDIA-Treibern kenne ich nicht. (Übrigens: Gibt es überhaupt Detos niedriger als 1.09? Wenn ich mich recht entsinne, wurde dieser Treiber erstmals Deto genannt). Jedenfalls lief mit meiner TNT jedes Spiel auf Anhieb. Man muss sich ja nicht jeden Beta-Treiber antun, wenn das System läuft. Meist wird nur viel kaputt gemacht in der abstrusen Hoffnung, irgendwo noch ein halbes nicht spürbares Frame herauszukitzeln.

Genauso widersinnig sind die Diskussionen um die Radeon 8500. Das Ding zeigt doch spitzenmäßige Leistung. Anstatt dies zu würdigen, wird mit Behauptungen über miese Treiber argumentiert, die den Berichten von glücklichen Besitzern zufolge so nicht ganz stimmen können, denn dann wären die Leute unzufriedener. Am meisten aber höre ich das Argument der miesen Treibern von Leuten, die die Karte gar nicht haben. Was soll der Unsinn? Nur weil das in einem Test unter best. Voraussetzungen so war oder scheinbar so war? Laut Test lief auch Unreal auf meiner Creative TNT nicht. Ich habe sie mir damals trotzdem gekauft und war absolut happy mit dem Ding (und hatte seither nie wieder solchen Spass mit einem Spiel wie eben mit Unreal, das super lief!!).

Liest man die Threads durch (wobei es scheinbar kaum eine Handvoll Besitzer gibt) könnte man den Eindruck gewinnen, die 8500 hätte kaum genügend Saft für Forsaken (immerhin fehlen zwei gigantisch Frames auf die teurere Ti 500 bei über 200; einfach lachhaft)

Also immer den Ball flach halten, die Ati ist - laut der wenigen besitzer, die sich zu Wort melden - eine sehr gelungene Karte.

Gruss P.

P.S. Ach ja, ich habe eine Geforce pro von HIS und absolut keine Probleme mit irgendwelchen Spielen oder Treibern (12.90 -> never changing a running System)

AlfredENeumann
2001-11-28, 23:05:52
Originally posted by ow


Dann wirf mal deine RagePro in den Rechner und schau mal, was da unter OpenGL alles laeuft.
Und dann nimmst du dein Riva 128 und vergleichst mal.



bei mir lief alles was ich meiner alten Rage Pro so vor die füsse geschmissen habe. Arbeite in der Firma auch an einem Rechner mit ner Rage Pro. Alles stabil. Alles läuft. Ich verstehe dein Problem nicht. Leigt wohl eher am Instabilen Win95.

Birdman
2001-11-28, 23:20:13
ich hör immer dass die ATI schneller ist, aber das stimmt evtl. mal knapp im dem Maase wie ein P4 schneller als ein AlthonXP iss.

Zudem zeigt mir die 8500er die man jetzt kaufen kann und schneller als ne ti500 ist. Kriegt ja keiner ne Retail, alles nur OEM, und diese kommt wenns gut läuft knapp an eine alte geforce3 hin.

und kommt ned von wegen Reatil BIOS flashen, das iss das selbe woe overlcocking bei nem frosch...der kann ich auch um 25Mhz chip und memory höher takten, dann zieht er wieder jeder Retail r200 davon.
zumal ja bei weitem ned alle OEM's auf Retail takten laufen.

Also der einzige momentan Vorteil der ATI ist der Preis, aber wenn man diesen weglässt ist die karte einer ti500 masslos unterlegen. (ausser bei den syntethischen benchmarks die ihr ja sonst immer vertauefelt....nur jetzt bei der 8500 ned....schon komisch sowas)

StefanV
2001-11-28, 23:28:15
@p

Absolut richtig!!

Ich verstehe nicht, wo das Problem bei 'nicht NV Karten' sein soll...

StefanV
2001-11-29, 00:06:37
Originally posted by Birdman Zudem zeigt mir die 8500er die man jetzt kaufen kann und schneller als ne ti500 ist. Kriegt ja keiner ne Retail, alles nur OEM, und diese kommt wenns gut läuft knapp an eine alte geforce3 hin.

Also der einzige momentan Vorteil der ATI ist der Preis, aber wenn man diesen weglässt ist die karte einer ti500 masslos unterlegen. (ausser bei den syntethischen benchmarks die ihr ja sonst immer vertauefelt....nur jetzt bei der 8500 ned....schon komisch sowas)

Du vergisst dabei die Funktionen, die eine GF3 nicht hat!!

Auch hat die Radeon das bessere FSAA!!

Wenn jemand also mit FSAA spielen will, dann ist die GF3 die falsche wahl...

Pengo
2001-11-29, 01:34:09
Radeon hat besseres FSAA - wo hast du das denn her? 4x ist unbrauchbar langsam, 2x Quality schaut schlechter aus als 2x Ti500 + aniso, ist dabei langsamer!

Razor
2001-11-29, 08:00:50
Das das FSAA der Radeon besser sein soll, muß erst einmal bewiesen werden...
(bitte Leo, bring doch endlich mal DEN Test !)

Hydravision brauchen die wenigsten...
Der Sinn oder unsinn von Trueform muß sich auch erst noch heraus stellen...

Und das Ding mit den Treibern...

Wenn also nicht der Preis der Entscheidungsgrund ist, was dann ?
???

Razor

Haarmann
2001-11-29, 09:57:05
Wie unregged schon sagte... Probleme mit ATIs Treibern haben in diesem Forum vor allem oder sollte ich sagen nur Leute, die gar keine ATI haben...
Alle, die ne ATI haben, klagen nicht drüber, wenn es zu klagen gibt, dann, dass Spiel XY ned läuft...
OK das ist ein Problem, welches dann behoben wird, oder ev auch nen vermurkstes Win hindeutet...
Ich finde es hingegen amüsierender, wenn NV bei den neueren Treibern mal einfach AGP*4 auf gewissen Chipsetz ausschaltet. Ich als Kunde gäbe meine Karte gleich zurück, wenn nicht alles, was auf der Packung steht auch funktioniert.

Für mich kommt eben erst mal das System muss laufen, wenns geht schnell und noch besser mit allen Games... Aber erst muss mein System laufen, so wies sollte. Ev sehen das viele ATI Besitzer auch so...

Noch zum Thema 64MB GFurz - ich musste ziemlich lachen, als mein Kollege genau die gleichen Probleme hatte im RtCW mit 32 Bit, Fix und 1024... es ruckelte grauenvoll... Ohne TC Fix würds ev noch ned ruckeln... mit der V5 bleibts sogar spielbar an den gleichen Stellen... es wird nur sehr schwer, weil die fps unter 20 abfallen. Ev würden ein paar Treibersettings das sogar kompensieren, aber ich hatte keine Zeit für etwaige Experimente... mitm V5 Treiber für XP komme ich nämlich ned retour ins WinXP mehr ausm RtCW... und mitm internen gehts ned weiter als 800*600 ;-).

Andre
2001-11-29, 10:06:38
Originally posted by Haarmann
Ich finde es hingegen amüsierender, wenn NV bei den neueren Treibern mal einfach AGP*4 auf gewissen Chipsetz ausschaltet. Ich als Kunde gäbe meine Karte gleich zurück, wenn nicht alles, was auf der Packung steht auch funktioniert.

Ich als ATI-Kunde hätte meine Karte zurückgegeben, weil Smoothvision erst im letzten Treiberrelease anständig funktioniert bzw. aktiviert wurde - oder steht das nicht auf der Packung drauf ?
Also im Endeffekt dasselbe - wahrscheinlich wurde es auch nicht implementiert, weil es nicht vernünftig lief - und teilweise immer noch nicht tut.

Haarmann, dass ist insgesamt ne Milchmädchen-Rechnung, die Fehler des einen, mit den Fehlern des anderen aufzuwiegen ist lächerlich.

Haarmann
2001-11-29, 11:04:43
Andre, also ich sah hier keine Retail ATIs rumstehen in den Läden, bevor der neue Treiber rauskam... Sonst hätte ich mir eh eine gekrallt ;-).

Aber ich mache hier keine Milchmädchenrechnung, sondern definiere einfach ne Priorität. Mir isses eh Wurst, wenn ein Game, welches ich ev gar nicht spiele (und diese Wahrscheindlichkeit ist gross), mit nem Treiber ned geht. Was mich aber nervt, ist, wenn meine Graka ned alle Features meiner HW ausnutzt, aber behauptet es wäre dem so. Da war doch Hercules ehrlicher mit ihrer Kyro2 und liessen den nicht sauberen AGP*4 Modus gleich weg...
AGP Slot is AGP Slot und Via hat by the way grad den Fast-Writes Prozess gegen Intel gewonnen...
Fast-Writes is nämlich auch keine NV Erfindung...

P.S. Mitm WickedGL klappts dann auch mit Wolfenstein und 1024*768 32bpp Details auf max... Ruckelfrei natürlich, ned wie ne 64 MB GTS mit Fix. Ev kann ja mal jemand nachsehen, ob das am Kumpel oder an der Karte liegt ;-). Das Problem tritt allerdings nur bei forrest auf soweit ich orientiert bin.

Unregistered
2001-11-29, 11:15:14
Originally posted by Haarmann
[B]Andre, also ich sah hier keine Retail ATIs rumstehen in den Läden, bevor der neue Treiber rauskam... Sonst hätte ich mir eh eine gekrallt ;-).

Aber ich mache hier keine Milchmädchenrechnung, sondern definiere einfach ne Priorität. Mir isses eh Wurst, wenn ein Game, welches ich ev gar nicht spiele (und diese Wahrscheindlichkeit ist gross), mit nem Treiber ned geht.



MIt anderen Worten: du sch... was auf den Rest der User, die diese Spiele spielen, hauptsache deine Sachen laufen. Nette Einstellung.
So verstehst du also die Qualitaet der ATi Treiber.

Dafuer sch... ich auf den ATi Dreck, weil meine Prioritaet ist, das auf einer 3D Karter JEDE 3D Anwendung zu laufen hat. Und das gibt's nur bei NV derzeit.

-ow-

Razor
2001-11-29, 11:21:50
@Haarmann

Also, erst einmal hab' ich 'eh nur 'nen AGP2x-System (BX rulez ;-) und auf allen anderen Systemen hab' ich die NV's (bei Bekannten !) mit AGP4x zum laufen bekommen. Hier im Forum wird oft vorgeschlagen, den einfachsten Weg zu gehen, oder wie willst Du jemanden, der gerade mal die GraKa rein' stecken kann und dann auf Setup klickt erklären, wie er seine Registery aufräumen und die Treiber für alle Komponenten richtig installieren soll ?

Bei RTCW hab' ich weder 'nen Fix gebraucht, noch hab' ich irgendwelche Performance-Probleme (ausser, dass's bei Nouncunx geruckelt hat ;-). So spiel ich wie immer mit 1024x768x32 MAX Details, 32-tap aniso und Quincunx... suuuper flüssig. Oder meintest Du was anderes mit GFurz ?
;-)

Und Deine V5 würd' ich gern mal sehn', wenn Du die Details auf MaxQuality schraubst !
;-)

In diesem Sinne

Razor

P.S.: RTCW is escht geniös, gell ?

Razor
2001-11-29, 11:31:43
Einen hab' ich noch:

Forum: Abstürze Radeon 8500 ret. (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=7622)
(von Wegen nur Nicht-ATI-Nutzer berichten über Probleme)

Auch Stefan wollte einen FSAA-Test zeigen und ihm ist offensichtlich nicht aufgefallen, daß der gar net vernünftig funktioniert. Ich vermute mal, daß die Leute die hier so für die ATI flamen, einfach mit den Prob's, die auch auf Referenz-Systemen (nur für Tests eingerichtet !) auftreten und in wohl JEDEM Test erwähnt wurden, vor'm Berg halten um ihr liebes Kärtchen nicht noch mehr zu verunglimpfen, als es ohnehin schon der Fall ist.

Mich, als möglicher Käufer einer solchen Karte würde das extram nervös machen !

In diesem Sinne

Razor

Haarmann
2001-11-29, 11:53:10
Sieht ned perfekt aus Razor...

http://www.haarmann.ch/3d/wolf1.jpg

aber man kann mit leben. Denke allzuviel besser kriegt das Deine GF3 ned hin. Sind einfach normale Settings, die ich zum Teil von Hand eingeben musste... weiss auch ned wieso.

Der Mensch hat wohl ein Hitzeproblem in seinem Rechner... dafür kann die ATI wohl auch nix ;-).

Andre
2001-11-29, 12:23:21
Originally posted by Haarmann
Andre, also ich sah hier keine Retail ATIs rumstehen in den Läden, bevor der neue Treiber rauskam... Sonst hätte ich mir eh eine gekrallt ;-).

Es geht nicht darum, ob sie in Europa verfügbar waren, Fakt ist sie waren generell auf dem Markt erhältlich und trotzdem sind/waren Funktionen im Treiber aufgrund technischer Probleme deaktiviert.
Tu mir einfach den Gefallen und komm mir nicht mit Spitzfindigkeiten in der Formulierung, die Karte war verfügbar - Ende.

Aber ich mache hier keine Milchmädchenrechnung, sondern definiere einfach ne Priorität. Mir isses eh Wurst, wenn ein Game, welches ich ev gar nicht spiele (und diese Wahrscheindlichkeit ist gross), mit nem Treiber ned geht.

So eine Einstellung führt genau dazu, dass Treiber immer wieder nur auf Mainstream-Games und Benchmarks getrimmt werden - schade, aber hinterher beschweren, dass ja nur mit Q3 und 3DMark 2001 gebencht wird.

Was mich aber nervt, ist, wenn meine Graka ned alle Features meiner HW ausnutzt, aber behauptet es wäre dem so. Da war doch Hercules ehrlicher mit ihrer Kyro2 und liessen den nicht sauberen AGP*4 Modus gleich weg...

Ich glaube, Du hast das Kernproblem des Via-Chipsatzes in Verbindung einer NV-Karte nicht ganz verstanden.
4xAGP läuft auf 80-90 % aller Systeme einwandfrei, aber leider gibt es da noch einen Rest, welcher eben diese Probleme hat.
Die Problematik tauchte hauptsächlich NACH Einführung der AGP 4x-Karten auf.
Was macht man nun ?
Soll man etwa alle Karte einziehen und mal schnell auf 2xAGP um"polen", oder was stellst Du Dir vor ?
Also blieb nur eine treibermäßige Limitierung und die ist auch gut gelöst.
STM hatte den Vorteil, dass das Problem bekannt war und entsprechend vorbeugen konnte - als vergiss bitte hier die zeitlichen Abläufe nicht, Haarmann.

AGP Slot is AGP Slot und Via hat by the way grad den Fast-Writes Prozess gegen Intel gewonnen...
Fast-Writes is nämlich auch keine NV Erfindung...

Was hier auch niemand behauptet hat.
Und Deiner Aussage nach, kann man auch NV keine Vorwürfe über Probleme mit FW machen, da es ja nun offiziell Via´s Sache ist.

StefanV
2001-11-29, 12:34:41
@Andre

SV ist ein HARDWARE Feature!!!

Und anscheinend hat ATI das doch noch hinbekommen...

BTW: Damals war auch DX8.1 noch nicht draußen...

Andre
2001-11-29, 12:41:28
Originally posted by Stefan Payne
@Andre

SV ist ein HARDWARE Feature!!!

Und anscheinend hat ATI das doch noch hinbekommen...

BTW: Damals war auch DX8.1 noch nicht draußen...

Höh ?
4xAGP ist auch ein HW-Feature, kann aber trotzdem durch Treibereinstellung deaktiviert werden - ebenso bei SV.
Ach ja, jetzt ist wieder das fehlende, böse DX 8.1 Schuld :lol:
Das muss ich als Hersteller einplanen, sorry, aber dann hat ATI SW-technisch unfertige Produkte verteilt.

Haarmann
2001-11-29, 12:44:16
Tja... GTS2 geht auch ned im Mac AGP Slot... ergo, der NV Chip is schuld und nicht der Via Chipset.
Der GF Chip lief auch ned im AMD Irongate... andere Karten liefen auch dort -> NV Chip is schuld.
NV wusste sicherlich, dass dies nicht geht mitm Via Chipset. Ein anderes BIOS für die Grakas hätte das Problem sicher gefixt.
Beim MX solls bekanntlich gehen... nur is dort wohl auch ein AGP*4 überflüssig ;-).
Auch beim GF3 solls nun gehen... da hat wohl jemand was gelernt... Und das is auch gut so :-).
Wie gesagt, ich hab mich auch genervt, dass die ATI Rage Fury Maxx ned ging mit AGP*4 im BIOS aktiviert. Da hatteste Black Screen und sowas geht aufn Sack.
Laut reactorcritical werden E+S ne Profikarte auf Basis einer Dual R200 machen... klingt das ned interessant? Bisher sah ich die Hinweise für die Karte erst in den INF der ATI Treiber... aber offenbar gibts das bald mal auch live zu sehen.

P.S. Andre, es gibt viele Games. wenn von 1000, 10 ned gehen auf Anhieb, so is mir das echt egal. Es bleiben ja noch 990 zum benchen ;-).

ow
2001-11-29, 13:04:34
Originally posted by Stefan Payne
@Andre

SV ist ein HARDWARE Feature!!!

Und anscheinend hat ATI das doch noch hinbekommen...

BTW: Damals war auch DX8.1 noch nicht draußen...



??? Zusammenhang???

Was hat SV denn mit DX8.1 zu tun?

Razor
2001-11-29, 13:09:09
@Haarmann

Kannst mir mal 'nen Hint geben, wie ich zu der Scene komme, die Du für den Shot genommen hast ?
(bin erst nocht am Anfang und hab' monetan keine Zeit mich da hin zu daddeln ;-)

Ist wohl beim archäologischem Feld...
Gibt's da schon irgendwelche map-Names, die man anspringen kann ?

Bisher konnte ich keine Prob's dieser Art auf angespielten Scenen entdecken...
(würd' mich ja gern mal wieder 'nem Selbsttest unterziehn ;-)

Bis denne

Razer

P.S.: AGP4x ist mir sowas von wurscht, oder gibt's mittlerer Weile irgendetwas, was dies zu nutzen weis ?
(deswegen sollte es nätürlich trotzdem funzen ;-)

ow
2001-11-29, 13:09:53
Originally posted by Haarmann

Laut reactorcritical werden E+S ne Profikarte auf Basis einer Dual R200 machen... klingt das ned interessant? Bisher sah ich die Hinweise für die Karte erst in den INF der ATI Treiber... aber offenbar gibts das bald mal auch live zu sehen.

[/B]


Doch, das ist sehr interressant.
E+S duerfte einige sehr faehige Leute in den Reihen haben, die sollen ATi mal zeigen, wie man (OGL-) Treiber proggt (falls die FireGL Leute das nicht schon getan haben:D).

Quadro DCC vs. FireGL8800 vs. E+S 'R200 irgendwas'

Verspricht Spannung pur:) (auch wenn's den Gamern am A... vorbeigeht, MICH interessiert sowas).

Unregistered
2001-11-29, 13:17:45
um mal auf die Ausgangsfrage des Threads zurückzukommen: Mich reizt die ATI-Karte ein bissl mehr, und zwar aus einem ganz einfachen Grund: Hatte noch nie ne ATI und würd mich echt interessieren, ob die Treiber wirklich soooo mistig sind. Hatte bisher Voodoo 1 + 2, Nvidia TNT1, Geforce 1 DDR und mit keiner Karte irgendwelche Probs (egal ob auf Irongate-Boards oder anderen "Problemkomponenten"). Hab mir vor nem halben Jahr eine Kyro 2 zugelegt, einfach mal, weil mich das Preis/Leistungsverhältniss sehr gereizt hat. Das Ding ist klasse, grad die Möglichkeit der Rumbastlerei in den Treibereinstellungen macht mir massig Spaß, das würd ich mir von der ATI auch erhoffen, so ein bissl Nervenkitzel muß sein. Mit den Nvidias und Voodoos war ich immer sehr zufrieden, aber ein bissl Abwechslung muß sein. Die 600.- für meine 6800 Deluxe haben mich auch ziemlich Überwindung gekostet.
Warum allerdings keine von den 2 Karten für mich in Frage kommt, ist ganz einfach: Seit der Kyro2 liegt mein Limit halt bei 300.-, Features hin oder her ... Auch wenn ich Geld wie Heu hätte, käm mir so ne Karte nicht mehr in den Rechner. Da lob ich mir die Einstellung von Imtec bzw. PowerVR!

@Kosh
Dein "Prob" mit der Kyro kann ich nachvollziehen, das Ding rennt und rennt :-) ... nur das Overclocking hat mit der Geforce mehr Spaß gemacht ...

Gruß, Diddl666

Haarmann
2001-11-29, 13:35:06
Wusste ichs doch OW ;-)

Micht interessierts eben auch, wie dieses Duel ausgeht.. im Endeffekt sinds nun 4 Karten. Die NV25GL nenn ich se mal... die NV20GL und die 1 Chip R200 und ne 2 Chip R200.
Und soweit ATI und NV zu glauben ist, sind alle Karten auch D3D fähig. Finde ich persönlich interessant...

Razor,

ähm... also das wäre dann Dein Endgegner Heinrich der erste... haste den im Intro ned gesehen?
Du hast also noch nen weiten Weg vor Dir - wenn ich das mal so sagen darf... sonst poste doch mal nen Screen von Dir und ich versuche mich per Saves dort einzuklicken... das is wohl einfacher - meinste nicht? Ich verwende allerdings nicht die RtCW Screenshot Funktion, weil die bei mir ned geht resp kein Bild bringt sondern irgendetwas... dafür geht die vom Treiber selber gut ;-) - sogar in TGA statt JPG. Auf Wunsch sogar in nen eigenes Verzeichnis - dann muss ich ned suchen.

Unregistered
2001-11-29, 13:53:17
Originally posted by Unregistered
um mal auf die Ausgangsfrage des Threads zurückzukommen: Mich reizt die ATI-Karte ein bissl mehr, und zwar aus einem ganz einfachen Grund: Hatte noch nie ne ATI und würd mich echt interessieren, ob die Treiber wirklich soooo mistig sind. Hatte bisher Voodoo 1 + 2, Nvidia TNT1, Geforce 1 DDR und mit keiner Karte irgendwelche Probs (egal ob auf Irongate-Boards oder anderen "Problemkomponenten"). Hab mir vor nem halben Jahr eine Kyro 2 zugelegt, einfach mal, weil mich das Preis/Leistungsverhältniss sehr gereizt hat. Das Ding ist klasse, grad die Möglichkeit der Rumbastlerei in den Treibereinstellungen macht mir massig Spaß, das würd ich mir von der ATI auch erhoffen, so ein bissl Nervenkitzel muß sein. Mit den Nvidias und Voodoos war ich immer sehr zufrieden, aber ein bissl Abwechslung muß sein. Die 600.- für meine 6800 Deluxe haben mich auch ziemlich Überwindung gekostet.
Warum allerdings keine von den 2 Karten für mich in Frage kommt, ist ganz einfach: Seit der Kyro2 liegt mein Limit halt bei 300.-, Features hin oder her ... Auch wenn ich Geld wie Heu hätte, käm mir so ne Karte nicht mehr in den Rechner. Da lob ich mir die Einstellung von Imtec bzw. PowerVR!

@Kosh
Dein "Prob" mit der Kyro kann ich nachvollziehen, das Ding rennt und rennt :-) ... nur das Overclocking hat mit der Geforce mehr Spaß gemacht ...

Gruß, Diddl666


Wenn du so ein Bastler bist, kannst du bitte mal deine Registry Einstellungen Posten? Ich hab nämlich auch ne Kyro2 und bin auch sehr zufrieden.

Tomp60311

Razor
2001-11-29, 13:55:44
Det hab' ich schon vermutet, Haarmann !
(klar hab' ich ihn im Intro schon gesehen)
;-)

Was für'n Screen hättest Du denn gern ?
(hab ja schon gesagt, daß mir bisher keine Prob's aufgefallen sind)

Noch schlag ich mich im ersten Level herum (wenn man das so sagen kann ;-), werde dieses am Wochenende aber dann mal richtig angehen (hab's erst diese Woche bekommen ;-).

Mit '/spdevmap escape1' läd man den ersten Level.
Sag mir doch einfach wie der Name des Endlevels ist, dann kann ich's gleich noch posten !
;-)

Bis denne

Razor

P.S.: By the way, das Profi-GraKa-Rennen würd' ich auch net verpassen wollen !

Haarmann
2001-11-29, 14:30:39
Razor, "end" heisst die map ;-)

Und mit nem läppischen give all gibts wohl auch die Teslawumme, die ich im Bild hab... nette FX mit der ;-)

Bin ja mal gespannt...

P.S. in der Darstellungsqualität kann ich sogar SP spielen... ned nur Screens machen. Denke das sollte gesagt sein.

Razor
2001-11-29, 14:35:02
Witzig...
;-)

Werd's gleich mal austesten !

Razor

Razor
2001-11-29, 16:28:10
So, nun hab' ich's...
;-)

Konnte mich nicht entscheiden, also gibt's 2 Shots...
(bin man gespannt, was Du dazu sagst ;-)

Bis bald

Razor

Razor
2001-11-29, 16:30:08
Und det Zweite...

Razor
2001-11-29, 16:33:02
Igendwie kommt mir Dein Shot 'nen bissel verwaschen vor.
Der Himmel sieht sehr merkwürdig aus und das lightning scheint gänzlich am Model vorbei zu gehen...

Hmmm...

Wie gesagt, ist die Orginalinstallation ohne Fix !
Was soll denn genau mit diesem Fix gefixt worden sein ?

Razor

Razor
2001-11-29, 16:37:04
Damit alle das nochmal direkt vergleichen können, hier noch mal der Shot von haarmann...
(auf jeden Fall ist der Gamma-Wert viel zu hoch ;-)

Quasar
2001-11-29, 16:50:31
Das sind doch nicht etwa dieselben Probs wie beim "Q3-optimierten" Treiber, oder?

Beim Adler auf Heinrichs Brustpanzer fehlen eindeutig einige Texturdetails, würde ich sagen....

Haarmann
2001-11-29, 17:23:42
Ich versuch dann noch aufm richtigen GL Treiber nen Screen zu kriegen ;-) Das hier is wickedGL mit 4xFSAA LODBias -5 auf nem Omega 1.08.04 Treiber für XP...
Allerdings nur bilinear gefiltert... Dafür eben keine Kanten mehr.

Ich weiss ned, obs am Wicked liegt ;-) Aber es könnte ja sein...

Nachtrag... es lag an mir... hab nur den pinmip verändert und nicht den picmip2 :-)

http://www.haarmann.ch/3d/wolf1.jpg
http://www.haarmann.ch/3d/wolf2.jpg

So is glaubs besser. Wie gesagt, man kanns spielen ;-)

Razor
2001-11-29, 20:01:35
@Haarmann

Sieht schon etwas besser aus...
;-)

Aber trotzdem ist der Himmel immer noch net so dolle, oder hast Du das JPEG zu stark komprimiert ?

Mich würde aber noch immer interessieren, von was für einem Fix Du geredet hat und was der bewirken soll. Auch interessiert mich brennend, welche Shot's denn nun Deiner Meinung nach besser aussehen...

Vor dem Rüstungs-Lightning ist auf Deinen Shots ja nicht allzuviel zu erkennen. Auch hätte mich das Feuerchen interessiert. Und erkennst Du auf meinen Shot's irgendwelche Kanten ?

Sach doch einfach mal, was Dir auffällt, oder ob Dir was auffällt !

Bis denne

Razor

Exxtreme
2001-11-29, 20:29:37
Originally posted by ow


Dann wirf mal deine RagePro in den Rechner und schau mal, was da unter OpenGL alles laeuft.
Und dann nimmst du dein Riva 128 und vergleichst mal.
Riva128... ;D :bounce: :lol: :rofl: ;D
Ist nicht dein Ernst, oder ? So ziemlich jedes Spiel (auch ein älteres), wenn es überhaupt läuft, produziert auf der Riva128 in meinen alten Rechner massive Texturfehler. Also mir hat es keinen Spass gemacht mit der Riva128 zu zocken. Da war die etwas später dazugekaufte Voodoo2 wirklich eine Wohltat.
Originally posted by ow

Klar, so dass am Ende statt eines brauchbaren Treibers ein Sammelsurium an Bugfixes rauskommt, das den Namen Treiber nicht verdient.
Von welchen "Sammelsurium an Bugfixes" sprichst du gerade ? Es gibt KEINEN perfekten Treiber. Weder von 3dfx, nVidia, ATI oder sonst wem.
Originally posted by ow

Ach ja?
AFAIK ist (wie der Name schon sagt) der Radeon2 (R200) einen Weiterentwicklung des Radeon1, auch die Treiber stellen nur eine weitere Entwicklungsstufe dar.
Zeige mir bitte eine *wirkliche* Neuentwicklung auf dem GraKa-Markt. AFAIK sind alle z.Zt. auf den Markt befindliche Grafikkarten Weiterentwicklungen.
Originally posted by ow

(btw) es ist eine Unverschaemtheit von ATi, Win95 nicht mehr zu unterstuetzen, alle Radeon Karten laufen auschliesslich ab Win98.
Ich bitte dich. Win95 ist sowas von veraltet. Ausserdem hat Microsoft auch den Support für Win95 eingestellt. Es bringt nichts Win95 auf einen modernen Rechner laufen zu lassen. Da wird die Hälfte nicht unterstützt.

Originally posted by ow

Alle anderen Hersteller bieten noch Win95 Treiber an.
s. o.
Also ich sehe keinen Nachteil darin.


Gruß
Alex

Haarmann
2001-11-29, 20:48:02
Naja mein jpg is 60kb und Deines 140 ;-) ... da isses wohl klar wieso das etwas weniger gut aussieht...

Naja musste ne fremde Version wieder auf die HD schmeissen.. daher Vieles vergessen einzuschalten ;-).

Dein Boden ist ziemlich Detailarm... irgendwie verschmiert... Dazu das Schwert... is auch ned gleich finde ich... Aber es sind beides JPG... ev isses in Real ned so schlimm. Aber die 2 Sache fallen mir auf...

HQ GL Texturkompression is bekannt als S3TC Fix ;-).

Das Ornament am Boden fehlt bei Dir... aber idealer wäre ev mal ne Helle map ;-) forest heisst die wohl.

Labberlippe
2001-11-29, 21:47:49
Originally posted by ow




??? Zusammenhang???

Was hat SV denn mit DX8.1 zu tun?

SV wird erst ab DX 8.1 Unterstützt.
Das SDK ist auch erst später auf den Markt gekommen, da war die R8500 schon ausgeliefert.

Mal im Ernst wenn es das Entwicklerkit noch nicht richtig gibt, wie sollte ATi SV perfekt implementieren.?
T&L hat auch nicht von Anfang an Unterstützung gehabt.

Gruss Labberllippe

nggalai
2001-11-29, 22:02:34
Labberlippe,

> SV wird erst ab DX 8.1 Unterstützt.

Das habe ich jetzt schon ein paarmal in den verschiedensten Foren gelesen, wurde aber immer von ATi-nahen (oder näheren) Postern wie z.B. Dave Baumann und Joe DeFuria als Unsinn abgetan (SV ist ein HW-Feature, nur die freie Programmierbarkeit--i.e. die Programmierschnittstelle für Applikationsprogrammierer--wird erst ab DX8.1 unterstützt). Woher hast Du deine Information?

ta,
-Sascha.rb

syronth
2001-11-30, 01:06:20
Leute, das hier ist kein RTCW-Thread... bissel OT, okay, aber fette Bilder zu posten ist schon eine Frechheit, weil der Thread von den meisten aus ganz anderen Gründen gelesen wird und bei denen dann die Leitung heißläuft. Nutzt PMs!

Zum Thema: Ich würde eine Retail-R8500 nehmen. Die GF3 hab ich letztlich nur aus Trägheit (TNT2 -> GF2MX -> ergo GF3) und schlichter Unwissenheit von ATIs neuem Renner gekauft. Warum? ATI macht die schöneren Demos ;) Rationell fällt mir eigentlich nichts ein, d.h. ich mach mir keine großen Gedanken darum, es ist nur so ein Gefühl und weil meine allererste PC-Graka eine ATI gewesen war - glaube ich.

Unregistered
2001-11-30, 10:09:49
@Tomp60311

Klar, für welche Spiele willst Du die Einstellungen denn haben?
Schreib einfach, kann Dir aber erst heut abend bzw. morgen früh posten, bin im Geschäft.

Gruß, Diddl666

Razor
2001-11-30, 10:44:54
@Haarmann

Tja, für Screen-Vegleiche, solltes schon 'ne vernünftige Quali sein, gell ?
;-)

Im übrigen sehen die Scenen nicht ganz so dunkel aus (aber fast ;-), wie's auf den Bildern aussieht.
(muß wohl an der Snap-Funktion der Q3-Engine liegen ;-)

Aber da ich die Bilder net verändern möchte laß ich es so, wie ich es spiele (häßliches Gamma 3 *brrr* ;-).
(übringens sieht der Himmel noch wesentlich besser aus, wenn nicht mit JPEG90 komprimiert wurde)

Also, die Texturen fehlen nicht, hab' wohl nur 'ne Stelle erwischt, bei der nur die normalen (nicht gefriesten) Texturen zu sehen waren. Bei dem Schwert kann ich beim besten Willen keinen Unterschied erkennen, wohl auch, weil's auf meinen Shot's nicht von der Breitseite zu sehen ist. Aber aufgefallen ist mir, daß die FSAA-Quali bei Dir schlechter ist (und das bei dem sagenumwobenen 4xFSAA der V5 ?)...

Ach ja, die Texturkompression ist übrigens eingeschaltet und S3TC-Quality (Treiber-Reg) ist NICHT aktiviert !
Allerdings ist der 'LowQuality Sky' ebenfalls deaktiviert...
(also nix Patch)
;-)

Wie dem auch sei, hab' an diese Mail noch mal 'nen Forest-Shot gehängt, damit Du Dir 'nen Bild machen kannst.

Much fun with it !

@nggalai

Das hab' ich auch nie verstanden...
Habe immer gedacht, daß es so aussieht:
Engine -> D3D -> Treiber -> Hardware

Wenn SV (im Treiber !) von DX8.1 abhängig sein soll...
Hmmm...
;-)

@syronth

Ich hoffe Du verzeihst mir noch mal, aber einer muß noch sein !
;-)

Und wenn wir schon bei gefühlsmäßigen Empfehlungen sind: die gf3 (egal, welche) !

***

In diesem Sinne

Razor

Hier dann mal der Forest-Shot...
(und damit auch das letzte OT-Bild ;-)

Haarmann
2001-11-30, 11:54:53
Musst fast, denn ich hab nur 1.56 gamma statt 1.3 default... das macht ned viel aus ;-).

Das Quality TC einschalten müsste eigentlich zum Ruckeln führen ;-) Laut Kollege wie gesagt und auf ner 64MB GF2. Falls dem so wäre, hättest immerhin bewiesen, dass 1:6 einen Unterschies ausmacht zu 1:4 ;-).

Kannst Dir nun aussuchen, welcher Dir mehr gefällt ;-)

http://www.haarmann.ch/3d/wolf3.jpg
http://www.haarmann.ch/3d/wolf4.jpg

Wicked GL is definitiv schlechter als echter GL... leider geht der Echte noch ned perfekt unter WinXP. Und ich hab nur XP ;-).

Razor
2001-11-30, 13:29:25
Na gut, also noch einen letzten Shot...
(leider stehst Du näher, als ich ;-)

Gamma ist bei mir immer noch auf 1.0 default, aber damit's vergleichbar wird, stelle ich ihn auch höher ein.

Und wie schon gesagt:
- TC ist an (Engine)
- LowQualitySky ist aus (Engine)
- S3TCQuality ist aus (Treiber)
Warum sollte ich Deiner Meinung nach den S3TCQuality einschalten ?
???

Das mit dem WickedGL-treiber sieht echt merkwürdig aus. Drück Dir die Daumen, daß man da noch was anderes bekommt, für Deine V5. Habe mal zu dem Shot (weil's der letzte sein sollte ;-) auch mal Direkt-Bildausschnittsvergleiche dazu getan, damit der Unterschied deutlich wird. Irgendwas ist mit dem 'echten GL' auch net ganz korrekt...

Und mein Shot gefällt mir natürlich besser...
(obwohl Dein Unteres natürlich auch gut aussieht)
;-)

In diesem Sinne

Razor

P.S.: Bin gespannt auf Deine Sicht dazu !
(Quali mußte wg. der Größe auf 80 zurück geschraubt werden ;-)

aths
2001-11-30, 15:13:25
Razor,

die verwaschenen Screenshots wurden mit Quincunx geschossen, oder? Früher kreidete man der Voodoo3 die verwaschenen Texturen an. (Der Treiber bot noch keinen LOD-Regler.)

Unregistered
2001-11-30, 15:33:57
Originally posted by Unregistered
@Tomp60311

Klar, für welche Spiele willst Du die Einstellungen denn haben?
Schreib einfach, kann Dir aber erst heut abend bzw. morgen früh posten, bin im Geschäft.

Gruß, Diddl666


Ich wusste nicht, dass du für jedes Spiel andere Einstellungen verwendest. Hast du vielleicht eine, die bei allen halbwegs schnell ist? Oder für Serious Sam wär nicht schlecht, da soll ja ne extreme Steigerung drin sein. Dann vielleicht noch für die Unreal- und Quake3-Engine, ich weiß nicht, ob es da von Spiel zu Spiel unterschiede gibt.

Danke im Vorraus,
Tomp60311

Haarmann
2001-11-30, 15:35:09
Tja Razor...

Ich mag meine Screens 10 mal mehr... Aber der Grund is wohl weit subjektiver als Du denkst...
Farben sag ich nur... Bei Dir isses ja nedmals grün am Boden ... Ansonsten mag ich sowohl das mit LODBIAS, als auch das 4*FSAA von der Voodoo - nur die Kombo geht im Wicked überhaupt nicht :-(.

Razor
2001-11-30, 17:55:24
Da sieht man, wie der Geschmack auseinander geht, Haarmann...
;-)

Mein Shot ist (entgegen aths Einschätzung ;-) mit 4xMSAA aufgenommen (nicht Quin-/Nouncunx) und 32-tap anisoFilter.

Die Detail-Ausschnitte sind wie folgt zu deuten:
1 -> A / 2 -> B
3 -> A / 4 -> B

A = Detailausschnitt gf3 oben links
B = Detailausschnitt gf3 unten mitte
1 = Detailausschnitt V5 OGL1 oben links
2 = Detailausschnitt V5 OGL1 unten mitte
3 = Detailausschnitt V5 OGL2 oben links
4 = Detailausschnitt V5 OGL2 unten mitte

Zu klären wäre noch, welches Bild mit dem WickedGL-Treiber und welches mit dem Orginal OpenGL-Treiber der V5 aufgenommen wurde...

***

Aber mein Eindruck:

Bild 1 der V5 (OGL1)
Sieht total übersteuert aus. Ein viel zu hoher Kontrast sorgt dafür, daß das Bild insgesamt unnatürlich und kantig ausieht. Wenn man sich die Licht-Birne anschaut (1), erkennt man sehr gut, was ich meine und die FSAA Qualität ist richtig schlecht und sieht eher wie 2xFSAA aus wenn man sich den Ausschnitt unten in der Mitte anschaut (2).

Bild 2 der V5 (OGL2)
Sieht sehr smooth aus, ist aber total verwaschen (was man ja eigentlich immer vom MSAA der gf3 behauptet ;-). Wenn man sich die Umgebung der Birne anschaut, sieht man, daß das FSAA hier voll zum Tragen kommt, dafür gehen aber fast sämtliche Details verloren (3). Der Auschnitt unten bestätigt diesen Eindruck, denn nicht einmal mehr Kanten sind konkret auszumachen, die FSAA-Qualität ist aber absolut Top (4).

Bild der gf3
Finde ich persönlich am besten (man möge Kritik daran üben, wenn man anderer Meinung sein sollte ;-). Wenn man den ersten Ausschnitt ansieht, kann man die Birne klar als solche erkennen, auch ist der Lichtschein gut wahrzunemen. Nichts ist verwischt, die Leiter ist klar und deutlich in Ihrer Struktur zu erkennen, aber die FSAA-Qualität an den Treppen-Stufen könnte besser sein (A). Der untere Bildauschnitt ist dagegen nicht sonderlich gelungen. Insbesondere der Bildteil vorne links siht ziemlich blaß aus und bei den Zahlen fehlt in der Mitte die zweite Struktur. Das FSAA hingegen tut exakt was es soll, so ist hier sehr gut zu erkennen, wie es arbeitet und die Kanten sind klar und deutlich und alle Details sind klar auszumachen (B).

***

Tha, Haarmann, Geschmäcker gehen oft sehr weit auseinander, aber ich fand es hochinteressant, mal im Detail zu untersuchen, was es mit der FSAA-Qualität der V5 auf sich hat.

Herzlichen Dank, daß Du Dich darauf eingelassen hast, denn nun kann ich sehr viel besser einschätzen, was damit gemeint war.

Und es steht jeden frei, dies alles hier zu kommentieren !
(wäre sogar sehr erwünscht ;-)

In diesem Sinne und weil Wochenende ist ein fröhliches
:bier:

Bis denne

Razor

aths
2001-11-30, 21:19:47
Razor,

kannst du mir die Bedeutung des Wortes "Nouncunx" erklären? Soweit ich weiß, wird auch 4x MSAA mit Quincunx eben Quincunx genannt, obwohl das bekannte Würfel-Muster nicht mehr zu sehen ist.

Quasar
2001-11-30, 21:28:25
Irgendwer (wohl Alexey...) hat im RivaTuner der entsprechenden FSAA-Einstellung den Namen "4x 9-tap" gegeben...daher wohl das von Razor oft verwandte "nouncunx" auch wenn es, technisch gesehen, vielleicht nicht 100&ig korrekt ist, schreibt es sich doch einfacher als 4x 9-tap FSAA...oder?

aths
2001-11-30, 22:12:22
"4x 9-tap FSAA" ist falsch, da tap ein gefiltertes Texel ist. nVidia sieht das anders, doch nVidias Umdeutungen interessieren nicht.

Wenn ich das richtig verstehe, benennt nVidia ihren Unschärfe-Filter wie das Würfel-Muster, weil die häufige der beiden verwendeten Methoden eben so aussieht.

Demnach hieße beides Quincunx.

Exxtreme
2001-11-30, 22:16:26
Originally posted by aths
"4x 9-tap FSAA" ist falsch, da tap ein gefiltertes Texel ist. nVidia sieht das anders, doch nVidias Umdeutungen interessieren nicht.

Wenn ich das richtig verstehe, benennt nVidia ihren Unschärfe-Filter wie das Würfel-Muster, weil die häufige der beiden verwendeten Methoden eben so aussieht.

Demnach hieße beides Quincunx.
Hi aths
Ich denke das Wort "Nouncunx" ist so eine Art "Spitzname" für "4x 9-tab"-AA weil es eben einfacher zu schreiben ist. Ich denke dieses Wort hat keinen technischen Hintergrund.

Gruß
Alex

Xmas
2001-11-30, 22:54:43
Originally posted by aths
"4x 9-tap FSAA" ist falsch, da tap ein gefiltertes Texel ist. nVidia sieht das anders, doch nVidias Umdeutungen interessieren nicht.
"4x 9-tap" ist durchaus eine treffende Bezeichnung. "Tap" ist zunächst mal gar nicht an Texel gebunden, sondern bezeichnet nur einen Wert, der bei einem Filter verwendet wird.

Quasar
2001-11-30, 22:59:29
Originally posted by aths
"4x 9-tap FSAA" ist falsch, da tap ein gefiltertes Texel ist. nVidia sieht das anders, doch nVidias Umdeutungen interessieren nicht.


ARGH!
Von nVidia gibt's dazu gar nix. Das 4x 9-tap hat sich irgendwer anders ausgedacht. Ich hab's halt zum ersten mal beim Rivatuner entdeckt, also nix hier mit "nVidia's Umdeutungen".

Laut Wörterbuch bedeutet "tap" u.a.:
tap \Tap\, v. t. 1. To pierce so as to let out, or draw off, a fluid; as, to tap a cask, a tree, a tumor, etc.

2. Hence, to draw from (anything) in any analogous way; as, to tap telegraph wires for the purpose of intercepting information; to tap the treasury.


Source: Webster's Revised Unabridged Dictionary, © 1996, 1998 MICRA, Inc.


So, und wenn man nun von 9 verschiedenen Stellen etwas "anzapft" dann sind das wohl am ehesten umliegende Pixel in unserem Fall, oder?

Razor
2001-11-30, 23:34:02
Yep !

Mit 'Nouncunx' meine ich tatsächlich '4x 9-tap'...
(einen technischen Hintergrund hat dies sicher nicht - Gruß an Exxtreme ;-)

Ich weiß gar nicht mehr, wer es als erstes diesen Begriff in diesem Zusammenhang benutzt hat, aber ich fand ihn sehr gut und er paßte auch irgendwie zu seiner Schwester 'Quincunx' !
;-)

Aber nur damit hier keine Verwirrungen aufkommen...
Die gf3 macht grundsätzlich multi-sampling Anti-Aliasing (MSAA).
(hab' ich von Xmas gelernt ;-)

Lediglich 'Quincunx' geht hier einen speziellen weg. Das, was ich 'Nouncunx' nenne (ich glaub', ich weiß wieder wer es zuerst war ;-) ist die verdeckte Möglickeit des gf3-FSAA (eben '4x 9-tap', statt Quincunx mit '2x 5-tap').

So ergeben sich folgende Möglichkeiten der Kantenglättung mit der gf3:

2xMSAA
2xQuincunx
4xMSAA
4xNouncunx (nicht über Treiber einzustellen)

Und mein Shot von oben ist 4xMSAA und hat somit nichts mit dem Quin- oder Nouncunx von nVidia zu tun und ist die höchste, in der Oberfläche für die Treiber, verfügbare FSAA-Stufe.

Was sagt Ihr eigentlich zu den obigen Shot's ?
???

In diesem Sinne

Razor

P.S.: 'Quincunx' könnte an das lateinische Wort für die Zahl 5 (quinque) angelehnt sein. So ist 'Nouncunx' eine Abwandlung davon für die Zahl 9 (novem)...
;-)

Haarmann
2001-12-01, 13:11:04
Morgähn Razor,

also lustigerweise sind ja beide Shots mitm Wicked ;-), aber nur einer mit FSAA, weil das FSAA in dem Treiber gleich den LODBIAS auffrisst.

Ich selber mag die übertriebene Schärfe der Texturen, auch wenns flimmert ;-) - schön wäre jedoch Beides zusammen - leider gibts das nicht.

Einen lustigen Effekt hab ich noch beobachtet - schau mal die "Tarnnetze" an... Wie auch immer 3dfx das mitm FSAA macht ... das Netz sieht wien Tarnnetz aus. Ohne FSAA oder bei Deinem Screen isses einfach ein schwarzes Netz. Nun stellt sich die Frage, ob das ein Tarnetz sein soll oder nicht ;-).

Sushi1976
2001-12-01, 15:16:10
Also ich war auch lange am überlegen zwecks
Geforce3 und Ati 8500 nun hab ich mich für
ne Geforce 3 von Gainward bestellt und
muß sagen die ist nur noch GEIL!!!!!!!!

Die Geforce 3 Karten wirken auch nicht so
billig wie die ATI 8500 meine Meinung!!

Dann noch der Vorteil in Sachen Treiberpolitik
da hab ich mehr als genung Auswahl!!!


Geforce 3 rulez!!!!!!!!


Gruß Sushi

Kai
2001-12-01, 15:30:33
Originally posted by Sushi1976

Die Geforce 3 Karten wirken auch nicht so
billig wie die ATI 8500 meine Meinung!!


Naja, das ist ein eher fadenscheiniges Argument, aber es gibt ne Menge Leute die sich von Markennamen beeindrucken lassen.

Dennoch, wenn ich alle Vor und Nachteile abwäge stehe ich ebenfalls zu meiner GF3. Wie das ganze in RTCW aussieht erfahre ich ja auch bald ...

Razor
2001-12-01, 16:56:00
@Haarmann

Gerade den Bereich um das Tarnnetz fand' ich mehr, als nur Merkwürdig. Irgendwie sieht der ganze Bereich wie 'zerstäubt' aus und gleicht irgendwie einem Pixelbrei... ist aber sicherlich Ansichtssache und soll auf keinen Fall eine allgemeine Wertung sein, ist halt nur meine persönliche Meinung. Allerdings sieht das Tarnnetz auf der gf3 oder dem anderen Shot auch net so dolle aus...

Hast Du Dir schon mal das DMZG-Demo angeschaut ?

DAS ist Transparenz !
Leider funzt dat net mehr...
*schnüff*

@Kai

RTCW wird Dich begeistern !
;-)

Bis denne

Razor

Kai
2001-12-01, 17:26:47
Originally posted by Razor



@Kai

RTCW wird Dich begeistern !
;-)

Bis denne

Razor

Ich hoff's ! Ich hab ja schon Albträume ! :-( Ihr findet das vielleicht zum lachen, aber ich habe letzte Nacht geträumt, ich würde auf nem KettCar und ner MP versuchen ein paar Nazi's zu entkommen ...

Das letzte mal hab ich sowas kurz vor'm Quake2-Release geträumt ... :|

Razor
2001-12-01, 17:29:28
Na dann isses vielleicht nichts für Dich !
Aber wenn Du Dich zurück erinnerst, weißt Du sicherlich auch noch, wieviel Spaß das Ganze dann gemacht hat...
;-)

Also nicht verzagen.

Razor

Haarmann
2001-12-01, 17:39:43
*lol* Kai - den Traum muss ich mir merken ;-)

Q2 fand ich Anfangs beschissen... Erst als ich echt gut im Multiplayer wurde, beganns Spass zu machen...
Und erst all die tollen Packs die man da reichschmeissen konnte, damit der Sound besser wurde :-).
Aber egal.. RTCW ownt derb im Teamplay... wirst Deinen Spass mit haben.

Pengo
2001-12-01, 17:53:54
Originally posted by Kai


Naja, das ist ein eher fadenscheiniges Argument, aber es gibt ne Menge Leute die sich von Markennamen beeindrucken lassen.

Dennoch, wenn ich alle Vor und Nachteile abwäge stehe ich ebenfalls zu meiner GF3. Wie das ganze in RTCW aussieht erfahre ich ja auch bald ...

RCTW Singleplayer - Nachts die Level in den Katakomben mit Kopfhörern spielen - so was hast du noch nicht gesehen - Q2 single Player ist Dreck dagegen.

ow
2001-12-01, 23:15:36
Originally posted by Razor


Hast Du Dir schon mal das DMZG-Demo angeschaut ?

DAS ist Transparenz !
Leider funzt dat net mehr...
*schnüff*




Also bei mit läuft DMZG:).
Sowohl auf Riva TNT wie GF2MX, DX8.1, Det.12.90, Win98.

aths
2001-12-02, 03:10:32
Exxtreme,

ein Wort muß zumindest eine Erklärung haben. Sonst könnte man es auch "Arrrgl" nennen, was sich übrigens noch leichter schreibt.

aths
2001-12-02, 03:14:58
Xmas,

"4x 9 tap" finde ich verwirrend, "4:9 Subpixel" fände ich einsichtiger.

Razor
2001-12-02, 11:06:43
@ow

Wie ?
???

DMZG läuft ?
Kannst Du mir mal sagen, wie Du das angestellt hast ?

Ich habe schon versucht heraus zu finden und die weiten der Internets danach abgesucht. Aber der einzig mögliche Weg schaint zu sein, einen 6.x oder 7.x Treiber zu nehmen (wozu ich eigentlich keine Lust hab' ;-).

Sach' doch mal !
Büdde...

Razor

ow
2001-12-02, 12:12:24
Originally posted by Razor
[B]@ow

Wie ?
???

DMZG läuft ?
Kannst Du mir mal sagen, wie Du das angestellt hast ?



Leider nicht, ich weiss es nicht, denn zwischendurch lief es auch bei mir nicht.

Was es definitiv nicht verträgt ist die Debug Version von DirectX8 (Bestandteil des DX8SDK). Damit gibt es nur einen einfarbig orangenen Schirm (laufen tut es aber).

Ach ja, der Beweis:D

Boomslang
2001-12-05, 17:06:38
Ich hab sie... Ich habe sie wirklich. Mein Händler hat´s geschafft AHHHHHHHHH ...... tschuldigung :D

Aber habe meine Radeon 8500 Retail bekommen. Weiß nicht wo mein Händler die her hat, aber egal.
Größere aber flachere Verpackung mit "Build by ATI" drauf (die mit dem Totenkopf, oder was immer das sein soll :D).
275/275 MHz
Und rennt wie die Sau... :D
2 Kabel mehr als bei der HIS/Enmic, die ich eine Woche hatte.
Was ist das genial....
Ach ja der Preis... 650 DM :D finde ich OK ! kann man nichts gegen sagen

btw.
Was ist denn DMZG ???????

Haarmann
2001-12-05, 17:43:50
Hey Razor, bei mir is nun auch ne ATI Radeon2 8500 Retail eingetrudelt ;-).

Da hab ich mir gedacht...

http://www.haarmann.ch/3d/wolf5.jpg

Damit auch mal siehst, wie der ala Radeon2 aussieht ...

Sieht doch nett aus oder?

Razor
2001-12-05, 18:44:48
Hey Cool, Haarmann !

Herzlichen Glückwunsch zur Neuen !
;-)

Trueform is aber net enabled, oda ?
Und ich hab' mir solche Mühe gegeben, meinen Shot auf Dein Helligkeits-Nivau zu bringen und nun kommst Du mit 'nem dunklen Shot...

Sieht aber schon echt cool aus, der Shot !
Auch ist mir aufgefallen, daß er nun auf gf3-Ebene einzuordnen ist (meine, daß er nun besser is, als mit 'ner Voodoo ;-). Das AA ist nun vergleichbar, aber Dein Shot ist ein bissel schärfer. Nur der Himmel sieht net so dolle aus (ist wohl aber noch 'n Prob bei den Treibern ;-).

Hast Du Deine V5 nun in die Ecke gelegt ?
Willkommen im Club der DX8'er !
;-)

Bis denne

Und darauf ein fröhliches
:bier:

Razor

Haarmann
2001-12-05, 19:09:53
Tja Razor,

Kam doch noch an det Teil ;-) - ne echte nette Retail ATI wie ichs wollte.
Laut Wolfenstein is Trueform Akitv auf Tesselation 4... laut Wolfenstein eben ;-) - viel sehen tust leider ned davon... ev sind die Köpfe rund aber sonst ned sooo viel.

Also die V5 arbeitet nurn wieder unter W2K in einem der diversen "langsamen" 1.4 GHz TBs... Hat dort ne Kyro mit 32MB verdrängt, die nun nen Server ziert ;-).
Mir gefiel deren Bild - auch wenn man nun mehr Leistung hat denn vorher ;-)... Geht Alles ganz gut mit 2* Smooth oder 4* Smooth je nach Game und Aniso.

3dmurks 2001 is etwa so schnell wie auf nem P4 2GHz und Win ME ... also ganz ordentlich.

Also mal witer nen paar Knilchen Online die Helme von der Birne knallen ;-)

HF

Labberlippe
2001-12-05, 22:03:10
Originally posted by Haarmann
Tja Razor,

Kam doch noch an det Teil ;-) - ne echte nette Retail ATI wie ichs wollte.
Laut Wolfenstein is Trueform Akitv auf Tesselation 4... laut Wolfenstein eben ;-) - viel sehen tust leider ned davon... ev sind die Köpfe rund aber sonst ned sooo viel.

Also die V5 arbeitet nurn wieder unter W2K in einem der diversen "langsamen" 1.4 GHz TBs... Hat dort ne Kyro mit 32MB verdrängt, die nun nen Server ziert ;-).
Mir gefiel deren Bild - auch wenn man nun mehr Leistung hat denn vorher ;-)... Geht Alles ganz gut mit 2* Smooth oder 4* Smooth je nach Game und Aniso.

3dmurks 2001 is etwa so schnell wie auf nem P4 2GHz und Win ME ... also ganz ordentlich.

Also mal witer nen paar Knilchen Online die Helme von der Birne knallen ;-)

HF

Wie lautet der Konsolen Befehl für Truform?
Thx Dir

Gruss Labberlippe

Haarmann
2001-12-05, 23:49:55
Trueform geht nur unter Singleplayer...
Falls also nur die Test2 hast oder im Multiplayer versuchst... No way - versuchte ich auch schon ;-)

r_ext_ATI_pntriangles "1"

Hoffe das hilft...

By the way... kennt einer ne Lösung fürs Obligate Excel druckt ned gleich in 9x wie NT Problem?
(Nein das hat nix mitm Druckertreiber zu tun... eher wohl was mit den lpi oder sowas)
Auf gut DE Breite IO, Höhe is völlig im Arsch.

Razor
2001-12-06, 01:56:51
Hi Haarmann,

na dann nochmals herzichen Glückwunsch zur Neuanschaffung !
;-)

Die arme Kyro...
Hab' ich Dich richtig verstanden ?
Det Bild (SQ ?) war bei der Kyro besser ?
???

Aber 'nen Server ist ein würdiges Ende...
Und die Leistung der Radeon dürfte die bisherigen Karten um einiges schlagen und das mit allen 'bells and whistles'.

Dann mal viel Spaß beim 'Helmchen von der Birne knallen' !
;-)

Bis denne

Razor

P.S.: Dein Excel-Prob' hatten wir auch mal...
Bin allerdings der Meinung, daß es doch am Drucker-Treiber lag, da's auf 'nem HP LJ5000 unter beiden Systemen korrekt ausgesehen hat, der Lexmark (irgend 'nen LJ) aber det partout net mochte. Auch die Titen-Dinger (HP/Epson/Lexmark) wollten net richtig... Schain wohl irgendwas mit dem PCL5(M?) zu tun zu haben. Schon mal 'nen PS-Treiber probiert ?

Xmas
2001-12-06, 07:21:12
Originally posted by Razor
die Titen-Dinger ... Schain wohl irgendwas mit dem PCL5(M?) zu tun zu haben.
Hm, Razor, was hast du eigentlich die Nacht gemacht?
:bier:

Andre
2001-12-06, 09:16:23
Originally posted by Razor
Auch die Titen-Dinger (HP/Epson/Lexmark) wollten net richtig...

Hmm, wird das nicht mit Doppel-T geschrieben ?
Gibts die schon von HP ? :D

Haarmann
2001-12-06, 09:41:59
Morgähn Razor,

Nee, also die SQ is bei der Radeon so gut wie bei der V5... und die war schon sehr gut. Da ich allerdings fürs TFT ned viel KHz brauche... isses ev ned sooo verwunderlich. Warten wirs mal ab, bis ich DVI hab ;-).
Sieht jedenfalls alles nett aus mit Radeon2 und der Treiber liess mich auch noch ned im Stich.
Vermisse aber die Q2 Farben der V5...

Mein Untergang ;-)
Alle W2K sehen gleich aus... Egal ob PCL Treiber für nen Kocica 7033 (das isn 33 Seiten Gerät mit allerlei Funktionen) oder dem PS. Win9x sieht anders aus als W2K - ich selber hab aufm IBM Netprinter 17 PS absolut identischen Output... Adobe PS Treiber hilft auch ned... Expel 97Viewer auch ned... sieht alles immer gleich aus ... Das isn Bug ...

Unregistered
2001-12-06, 12:51:53
@tomp60311

ich test halt aus, wo ich was aktivieren kann und die Performance noch stimmt. Das gute ist ja, daß man für jedes Spiel die Konfiguration ganz einfach abspeichern kann. Eine generelle Durchschnittskonfig gibt´s eigentlich nicht, wobei die werkseitige dem noch am nächsten kommt.
Bei Homeworld z.B. 4x4 Antialiasing, Trillineare Filterung, Texturkompression, alles ein
Bei Quake 3 logischerweise kein AA, Trillinear aus, nur billinear, ansonten alles high.
Vorgabe ist immer bestmögliche Qualität, je nach Performance wird halt je nachdem was ausgeschalten.
UT kann ich auch in 1280x960x32 mit 4fach AA alles auf high noch im Schnitt mit ca. 45 fps min. spielen, Avg ca. 60-70
Bei älteren Sachen muß man ein bissl rumtesten, weil div. Einstellungen zu Bildfehlern führen können. Bisher hab ich aber noch alles zum Laufen gebracht.
Allerdings ist die Kyro2 meiner Meinung nach auch mit meinem Athlon 1400c so langsam am Limit. Alien vs. Predator 2 hab ich in 1280x960x32, billinear, ansonsten alles high, durchgespielt. Waren gefühlsmäßig wohl so ca. 30-35 Fps. Für einen Egoshooter absolut ausreichend, aber Multiplayer geh ich dann schon auf 800x600x32 runter ... .
Bis zur Kyro3 muß sie halt noch durchhalten, aber dann ist wohl wirklich fini. Aber ansonsten wirklich eine tolle Karte für das Geld.
Für folgende Sachen kannst die Einstellungen haben:
AvP1
AvP2
Quake3
UT
Giants
Homeworld
Moon Project
an Forsaken wurschtl ich grad rum, das macht ein bissl Probs
Demnächst noch Diablo 2
Gruß, Diddl666
Poste einfach mal Deine ICQ-Nummer, dann schick ich Dir die Files, ist am einfachsten.

silverhawk
2001-12-06, 13:05:10
Hat Nvidia nicht auch son Feature etwickelt welches der Trueform ähnelt?

Haarmann
2001-12-06, 13:07:01
Silverhawk - hasts mal in nem Game gesehen?
Ergo isses auch scheissegal ;-)

Pengo kleiner Tip für Dich...
s_separation 0 und snd_restart... und der Sound klingt besser ;-).

Pengo
2001-12-06, 13:54:23
Originally posted by Haarmann
Hey Razor, bei mir is nun auch ne ATI Radeon2 8500 Retail eingetrudelt ;-).

Da hab ich mir gedacht...

http://www.haarmann.ch/3d/wolf5.jpg

Damit auch mal siehst, wie der ala Radeon2 aussieht ...

Sieht doch nett aus oder?

Sind es im Himmel JPG-Artefakte oder ist das der gleiche Bug wie bei Q3? Ansonsten schaut es sehr gut aus.

StefanV
2001-12-06, 14:23:56
Originally posted by silverhawk
Hat Nvidia nicht auch son Feature etwickelt welches der Trueform ähnelt?

In DX8 sind 2 Arten von Curved Surfaces drin (Truform gehört zu Curved Surfaces):

N-Patches (darauf basiert Truform)
Polinominal Surfaces.
Der Größte Vorteil von Truform ist, daß (wenn das spiel entsprechend angepasst ist) es sozusagen 'for free' ist.
Also kaum Performanceeinbußen, insbesondere auf langsameren Rechnern!!

Truform belastet weder die CPU, noch den AGP, sondern nur den Grafik Chip.

Andre
2001-12-06, 14:50:02
Originally posted by Stefan Payne
Polinominal Surfaces.


Nur zur Korrektur:

Es heisst polynomial Surfaces.

Haarmann
2001-12-06, 15:05:03
Pengo, ich kann Dich beruhigen - es sieht im Game ned so Klötzchenhaft aus.... aber bei der hohen Kompression und meinem Uralt Painshop Pro 4.1 siehts dann halt so aus...
Zeigt immerhin, dass Dir das gut angesehen hast. Ich schaus ja im Game an und ned aufm Screen... drum fällts mir wohl nicht auf wie schlechts nach 1:40 is.

Razor
2001-12-06, 15:44:56
@Xmas
"die Titen-Dinger ... Schain wohl irgendwas mit dem PCL5(M?) zu tun zu haben."

Hm, Razor, was hast du eigentlich die Nacht gemacht?
:bier:
Ähm....
Tja...

Gott-sei-dank hab' ich kein Doppel-T benutzt !
Oh mann...
;-)

@Andre

Was soll ich dazu sagen ?
;-)

@Haarmann

Morgähn ?
Um fast 10Uhr ?
;-)

Na dann drück ich Dir mal jetzt die Daumen für Dein DVI...
(hilft vielleicht auch ;-)

Und das mit'n Excel gehört wohl wieder mal in die Kategorie 'unbekannte Phänomene' !
(ev isses ja auch wieder 'nen VIA Prob' - nicht ganz ernst gemeint- ;-)

Schafft Euch doch einfach HP an... scheiße teuer (Anschaffung UND Betrieb) aber gut !
;-)

@silverhawk

Jep !
Sogar die 'richtige' Form mit dem Namen: 'polynominale Flächen' !
(dagegen is Trueform 'nen Witz ;-)

Ist aber lange nicht so einfach zu implementieren, da Engines, die das nutzen (und die gibbet noch net ;-), nicht mehr auf Karten laufen, die das nicht unterstützen. So braucht's dann 2 Objekt-Modelle (eines für herkömmlich Poly-Schleudern und eines für welche, die dann eben polyFlächen unterstützen). ATI will die dann im R300 auch unterstützen (nebst bisherigem Trueform ;-). Aber bis wir Demos oder gar Games auf dieser Basis zu sehen bekommen, wird's wohl noch'n bischen dauern, da hat Haarmann schon recht...
(implementiert isses aber schon in DX8, neben den nPatches von ATI)

Und diesem Trueform (bezogen auf bisherige 'Implementierungen' ;-) kann ich absolut nichts abgewinnen...
(ist aber 'nen subjektive Empfinden ;-)

@Pengo

Haarmann hat wahrscheinlich die 'LowRes-SkyTextures' aktiviert gehabt, was dann bei aktiviertem TC bei den jetzigen Radeon-Treibern net so dolle aussieht... und ja, aussehen tut's wie der sog. 'DXT1-Bug' bei Q3 !
;-)

@Stefan

Hast Du denn nicht mal endlich ein paar Info's bezüglich des Performance-Verlustes bei aktiviertem Trueform ?
Ich kann dieses Marketing-SingSang net mehr hören !
;-)

In diesem Sinne

Razor

Kai
2001-12-06, 15:59:38
Originally posted by Razor
@XmasHaarmann hat wahrscheinlich die 'LowRes-SkyTextures' aktiviert gehabt, was dann bei aktiviertem TC bei den jetzigen Radeon-Treibern net so dolle aussieht... und ja, aussehen tut's wie der sog. 'DXT1-Bug' bei Q3 !

Autsch! ;)

Xmas
2001-12-07, 16:04:01
Originally posted by Stefan Payne
N-Patches (darauf basiert Truform)
Polinominal Surfaces.
Der Größte Vorteil von Truform ist, daß (wenn das spiel entsprechend angepasst ist) es sozusagen 'for free' ist.
Also kaum Performanceeinbußen, insbesondere auf langsameren Rechnern!!

Truform belastet weder die CPU, noch den AGP, sondern nur den Grafik Chip.
Hm, das hört sich so an als ob es bei Polynomial Surfaces nicht so wäre...

ow
2001-12-07, 18:35:08
Originally posted by Xmas

Hm, das hört sich so an als ob es bei Polynomial Surfaces nicht so wäre...


Wenn Stefan keine Argumente mehr hat, dann macht er sich halt welche :D:D

Andre
2001-12-07, 18:35:40
Originally posted by ow



Wenn Stefan keine Argumente mehr hat, dann macht er sich halt welche :D:D

:lol:

Quasar
2001-12-07, 18:38:31
Originally posted by Stefan Payne
In DX8 sind 2 Arten von Curved Surfaces drin (Truform gehört zu Curved Surfaces):
N-Patches (darauf basiert Truform)
Polinominal Surfaces.
Der Größte Vorteil von Truform ist, daß (wenn das spiel entsprechend angepasst ist) es sozusagen 'for free' ist.
Also kaum Performanceeinbußen, insbesondere auf langsameren Rechnern!!
Truform belastet weder die CPU, noch den AGP, sondern nur den Grafik Chip.

Oha!
Und könntest du mir dann mal erklären, wie Polynomiale Flächen funktionieren? Etwa nicht mittels mathematischer Gleichungen, die anhand von Kontrollpunkten den Verlauf und die Krümmung einer Fläche beschreiben?.....

ts....

Razor
2001-12-07, 18:58:53
AFAIK ist der einzige Unterschied zwischen Trueform und dem eigentlichen Standard 'polynominale Flächen', daß bei den polyFlächen die Kontrollpunkte allesamt von der Engine vorgegeben werden, Trueform aber den Großteil dieser selbst berechnet...
(korrigiert mich bitte, wenn ich da falsch liege !)

Warum die polyFlächen jetzt so viel langsamer sein sollen, versteh ich auch net...
Hmmm...

Aber Stefan wird uns das schon erklären !
;-)

In diesem Sinne

Razor

Thowe
2001-12-08, 00:06:57
Originally posted by Razor
AFAIK ist der einzige Unterschied zwischen Trueform und dem eigentlichen Standard 'polynominale Flächen', daß bei den polyFlächen die Kontrollpunkte allesamt von der Engine vorgegeben werden, Trueform aber den Großteil dieser selbst berechnet...
(korrigiert mich bitte, wenn ich da falsch liege !)

Truform = Dreiecke werden sozusagen in kleinere Dreiecke zerlegt und die (Punkt-)Normalenvektoren für die so entstandenen Dreieckspunkte mit Hilfe von Polynomen höheren Grades interpoliert.

Der Unterschied zu anderen HOS ist das bei Trueform noch Dreicke verwendet werden und keine Meshes. Da in vorhandenen Spielen die Modelle schon aus Dreiecken bestehen ist es relativ einfach Truform nachträglich zu implementieren.

Warum die polyFlächen jetzt so viel langsamer sein sollen, versteh ich auch net...
Hmmm...

ist auch noch nicht bewiesen, dafür müssten sie erst mal genutzt werden (und aktiviert im Treiber).

Grundsätzliches s.a. hier (http://www.langbein.org/research/diploma/HTML/node6.html)

Razor
2001-12-08, 11:25:22
Thank's Thowe !
(auch für den Link)
;-)

Trotzdem würde mich interessieren, wo Stefan seine Info's her hat...

AFAIK sind übrigens die PolyFlächen bereits in den Deto's integriert (gewesen ;-) und auch über DX8 nutzbar.
(wenn es auch leider noch keine Beispiele dafür gab)

Lustiger weise wurde HOS in den neuen Deto23.11 deaktivert, da nVidia wohl vorher ebenfalls die nPatches in Software unterstützte und nun bei Trueform gepatchten Games zu erheblichen Performance-Einbrüchen führte...

Razor

Razor
2001-12-08, 12:20:43
Dank Thowe (aus 'nem anderen Thread ;-) habe ich auch mal Performance-Angaben zu den nPatches gefunden:
ATI RADEON 8500: Part II (http://www.digit-life.com/articles/r8500.new/index2.html)

http://www.digit-life.com/articles/r8500.new/n-patches.png

Demnach sind die nPatches (Trueform) keinesfalls 'for free'...
Ganz im Gegenteil gehen diese sogar heftig auf die Performance !

In diesem Sinne

Razor

Haarmann
2001-12-08, 12:33:15
Warum muss for free immer auf die Graka bezogen sein?

Trueform in die Engine zu integrieren is quasi for free. Aufwand is sehr gering - daher tuts auch wer... Und man schreibt trotzdem nur eine Engine für alle Karten.

Findet ihr das nicht auch for free?

Razor
2001-12-08, 12:35:38
Das 'for free' war auf die Aussage von Stefan bezogen, Haarmann...
;-)

Sicher kann man das 'einfache' (wenn auch stümperhafte) Implementieren von Trueform als 'for free' bezeichnen... (wenn man unbedingt will ;-)

Hinsichtlich der Performance ist es das allerdings nicht und wiederlegt somit Stefans Kommentar.

In diesem Sinne

Razor

P.S.: Sag mal, Haarmann, kannst Du nicht mal 'nen Performance-Test mit 'nem Treuform-Game machen, welches dann mehr als 1 Segment benutzt ? Wäre echt mal interessant !

nggalai
2001-12-08, 15:09:33
Lustiger weise wurde HOS in den neuen Deto23.11 deaktivert, da nVidia wohl vorher ebenfalls die nPatches in Software unterstützte und nun bei Trueform gepatchten Games zu erheblichen Performance-Einbrüchen führte... Und da hammer schonwieder eines dieser Inquirer-Gerüchte, welche ihren Weg in die verschiedensten Foren finden ... ;)

ta,
.rb

P.S. http://www.theinquirer.org/05120104.htm.rb

Razor
2001-12-08, 15:25:27
Okay, naggaai...

Ich hätt's anders formulieren sollen:

"Lustiger weise soll HOS in den neuen Deto23.11 deaktivert worden sein, ..."

Besser ?
;-)

Razor

Haarmann
2001-12-08, 16:03:23
Klaro Razor, werde ich mal versuchen mit Wolf wenns recht is... verwende dort eh nen höheren Tess Level denn 1 ;-).

Ich hab diesen Inq Artikel schnell mal durchgelesen. Dort steht nur ned das Gleiche, was dann auf Deutsch steht ;-).
Ergo kann Beides durchaus stimmen - ich selber weiss es nicht. Aber sicher bin ich, dass der Urheber der Deutschen Version mal nen Englischkurs braucht ;-). In diesem Sinne.

Xmas
2001-12-08, 18:06:09
Klar fällt in einem rein Geometrie-limitierten Test die Performance mit steigenden Subdivisions stark ab. Das trifft für Spiele aber nicht zu. In Spielen mit moderatem TruForm-Einsatz sollte die Performance ziemlich auf gleichem Niveau bleiben.
Ich finds aber schon interessant, dass die bei Digit-Life den Wert für 12 "Segments" (??? wieso eigentlich 12 Segmente? Entweder n Subdivisions oder 2^n Segmente) einfach kommentarlos hinschreiben, obwohl offensichtlich mehr als 8 überhaupt nichts bewirkt.

Razor
2001-12-08, 18:11:11
@Xmas

Deswegen würde mich ja auch mal endlich ein Test in einer Real-World-Umgebung interessieren...
Verwunderlich eigentlich, daß kein einziger Test darauf eingeht.
(außer bei Digit-Life, aber eben nicht in Games)

Wäre gut, wenn Haarmann das hinbekommt, denn Stefan fühlt sich dazu wohl nicht in der Lage...

Schaun' wir mal, denn es würde mich (und sicher auch andere) brennend interessieren !

Bis denne

Razor

Pengo
2001-12-08, 18:23:41
Originally posted by Haarmann
Klaro Razor, werde ich mal versuchen mit Wolf wenns recht is... verwende dort eh nen höheren Tess Level denn 1 ;-).


Wie hast du Trueform in RCTW zum laufen bekommen? Kannst du mal bitte paar screens posten, in denen die ich bis jetzt gesehen habe gabs keine Unterschiede zwichen mit und ohne Trueform.

StefanV
2001-12-08, 18:26:16
@Razor

Truform belastet NUR DIE TnL EINHEIT des Grafik Prozessors!!!

Wie bitteschön soll da ein Game langsamer werden??

Spiele sind IMMMER Speicher/Füllraten limitiert...

Thowe
2001-12-08, 18:40:07
Originally posted by Stefan Payne
@Razor

Truform belastet NUR DIE TnL EINHEIT des Grafik Prozessors!!!

Wie bitteschön soll da ein Game langsamer werden??

Spiele sind IMMMER Speicher/Füllraten limitiert...

?-)

Razor
2001-12-08, 18:45:48
Oh mann, Stefan...
;-)

Razor

aths
2001-12-08, 19:12:10
Razor,

mich interessiert die Frage von Stefan Payne allerings auch. Mal abgesehen davon, dass mit TruForm auch die Füllraten-Erfordernisse leicht (also wirklich nicht allzu stark) ansteigen, und die T&L-Unit bei heutigen Spielen mehr als genug Luft hat.

Quasar
2001-12-08, 20:10:34
Gegenbeispiel Aquamark bzw. Aquanox...

Bei massivem Gebrauch von PS/VS hat auch schnell die GPU mal ein paar Probleme.
Außerdem noch zu bewundern im Nature-Bench des allseits hochgeschätzten 3DMark 2001.

Bei "normalen" Spielen allerdings könnte TruForm allerdings wirklich "for free" sein, in beiden Auslegungen....
;-)

Thowe
2001-12-08, 20:50:18
Ich empfehle mal diesen (http://www.innermac.com/features/articles/truform/index.html) Artikel zu lesen.

Sollte einige grundsätzliche Antworten geben.

StefanV
2001-12-08, 22:26:57
Originally posted by Quasar
Gegenbeispiel Aquamark bzw. Aquanox...

Bei massivem Gebrauch von PS/VS hat auch schnell die GPU mal ein paar Probleme.
Außerdem noch zu bewundern im Nature-Bench des allseits hochgeschätzten 3DMark 2001.

Bei "normalen" Spielen allerdings könnte TruForm allerdings wirklich "for free" sein, in beiden Auslegungen....
;-)

Genau so sehe ich das auch ;)
Zumal meistens die CPU limitieren sollte ;)
Allerdings ist die ATI TnL Einheit auch 'etwas' schneller.

Interessant ist auch, daß ATI gerade mal 3MIO Transistoren mehr braucht als NV...

Haarmann
2001-12-08, 22:34:07
Stefan, die braucht ATI für die 32Bit Variante von S3TC ;-)

Quasar
2001-12-08, 22:41:39
Das könnte auch daran liegen, das ATI den Memory-Controller mittels größerer Cachés effizienter zu gestalten versucht, während nVidia ihre sog. X-Bar Controller nutzt....

StefanV
2001-12-08, 23:16:42
Ihr habt es also nicht verstanden, was ich meinte...

Also:

Die GF3 hat 57MIO Transistoren und die RAdeon 8500 60MIO...

Hm, merkwürdig, wie schafft es ATI soviel mehr Features mit nur +3MIO Transistoren zu realisieren???

Wenn ich richtig geschätzt hab, dann war ATI aber recht sparsam mit Transistoren...
Oder NV eben nicht...

PS: Ich hätte die R200 auf 65MIO Transistoren geschätzt ;)

aths
2001-12-08, 23:22:15
Quasar, ich habe den Sinn bzw. die Überlegung hinter deiner Aussage nicht ganz verstanden. Wärst du so nett und würdest das noch einmal ausführlicher bzw. mit anderen Worten ausdrücken?

Quasar
2001-12-08, 23:38:16
Im Nachhinein ist mein voriger Post auch wirklich nicht gut verständlich ausgedrückt.
Meine Überlegung war, daß nVidia durch ihre LMA, u.a. den sogenannten Cross-Bar Memory-Controller versucht hat, die Effizienz ihres Memory-Subsystems zu verbessern. ATi hat dieses auf anderem Wege zu erreichen versucht, indem sie einfach größere Cachés auf ihrem Chip verbaut haben.

Die Logik dahinter mag zunächst etwas widersinnig erscheinen, aber ich bin in diesem Fall der Meinung, daß "größere" Cachés, die sich hier in Größenordnungen von ein paar kByte bewegen dürften, wesentlich transistorensparender zu implementieren sind, als vier separate Memory-Controller, auch wenn diese nur einen 32Bit breiten Bus bedienen müssen.

Hier ergäbe sich imho durchaus ein Transistor-Einsparungspotential, was ATi genutzt haben könnte, um mit nur "wenig" mehr Transistoren andere Funktionen zu realisieren.

Aber das ist, wie durch den Konjunktiv angedeutet, reine Spekulation, da ich leider keine näheren Details zu beiden Chips kenne.

Desweiteren könnte es sein, daß nVidias HOS-Variante mit polynomialen Flächen auch wesentlich aufwendiger zu implementieren ist, als ATis praxisnähere n-Patches.

nggalai
2001-12-08, 23:59:11
... Quasar, weshalb schreibst Du Caché? Wenn's schon französisch ausschaun soll, dann würde Càche deutlich mehr Sinn machen (phonetisch zumindest, ortographisch ist's auch nicht korrekter). ;)

Caché = /,ka'Se:/ -> zwei Silben

Càche = /'ka:S/ -> eine Silbe

ta,
.rb

P.S. Oder ist das ein Wortspiel, Café -> Caché? ???

Thowe
2001-12-09, 00:17:37
IMHO Caché = concealed = verbergen

Quasar
2001-12-09, 01:31:27
Sorry, daß ich so dumm bin, aber irgendwie war ich der Meinung, es würde so geschrieben.

Merke:
Auch am späten Abend kann man noch dazulernen... :)

Andre
2001-12-09, 01:56:58
Originally posted by nggalai
... Quasar, weshalb schreibst Du Caché? Wenn's schon französisch ausschaun soll, dann würde Càche deutlich mehr Sinn machen (phonetisch zumindest, ortographisch ist's auch nicht korrekter). ;)

Caché = /,ka'Se:/ -> zwei Silben

Càche = /'ka:S/ -> eine Silbe

ta,
.rb

P.S. Oder ist das ein Wortspiel, Café -> Caché? ???

Oh, Caché Olé ?
Hmm, lecker.

Kai
2001-12-09, 02:10:46
Originally posted by Andre


Oh, Caché Olé ?
Hmm, lecker.

Spamwurst! ;)

aths
2001-12-09, 02:36:09
Quasar,

du schreibst: "Meine Überlegung war, daß nVidia durch ihre LMA, u.a. den sogenannten Cross-Bar Memory-Controller versucht hat, die Effizienz ihres Memory-Subsystems zu verbessern."

Genau, in meinen Augen einer der größten Fortschritte im GF3.

"ATi hat dieses auf anderem Wege zu erreichen versucht, indem sie einfach größere Cachés auf ihrem Chip verbaut haben."

Der GF3 enthält ebenfalls viel Cache, ich glaube ca. 10%. ATIs Radeon, zumindest der neue, hat etwas ähnliches wie den CBMC. Im GF3 werden 4x64 Bit angesprochen, im Radeon 2x128.

"als vier separate Memory-Controller, auch wenn diese nur einen 32Bit breiten Bus bedienen müssen."

64 Bit. (Pro Takt überträgt DDR 2 mal, bei 128 Bit Breite macht das 256 Bit. Das durch 4 geteilt sind 64 Bit.)

Cache lässt sich aufgrund gleichmäßiger Silizium-Strukturen in der Regel einfacher implementieren, als Logik. (Zumal Logik-Schaltkreise erst entwickelt werden müssen.) Ein gutes RAM-Konzept muss beide Ansätze ausgewogen bedenken, was sowohl im GF3 als auch R8500 so ist. (Ich hatte mal mit Xmas eine Diskussion, was darauf hinaus lief, dass mein Vorschlag von viel größeren Caches nicht der beste Weg ist.)

So weit ich informiert bin, sind High Order Surfaces mathematisch aufwändiger als N-Patches, bieten dafür aber auch gleich Möglichkeiten eines Geometrie-LOD.

Quasar
2001-12-09, 03:14:18
aths,
"Im GF3 werden 4x64 Bit angesprochen, im Radeon 2x128."
und
"64 Bit. (Pro Takt überträgt DDR 2 mal, bei 128 Bit Breite macht das 256 Bit. Das durch 4 geteilt sind 64 Bit.)"

Ganz korrekt ist das so nicht, da beide Chips ja per DDR mit ihrem jeweiligen Speicher kommunizieren. Die Busbreite ist beim GF3 also 4x32Bit, wobei bei jedem Takt natürlich zweimal Daten übertragen werden, was dann letzten Endes auf 64Bit hinausläuft.
Ähnlich verhält es sich bei der Radeon, die "nur" über einen 128Bit Memory-Controller verfügt, der aber auch zweimal pro Takt Daten überträgt und so pro Takt eben auf 256Bit kommt und aufgeteilt ist in jeweils einen 64Bit breiten Lese- und Schreibkanal.

Deinen Punkt zum Cache (diesmal ohne accent ?aigu?) verstehe ich nicht ganz. Was glaubst du, verbraucht mehr Transistoren? Über den höheren Aufwand von Logik scheinen wir ja einig zu sein.

Was die HOS angeht, war meine Absicht nicht, einen qualitativen Vergleich anzustreben, auch wenn wir nach deinem Posting zu urteilen, hier schon wieder gleicher Meinung sind, sondern auch hier, im Hinblick auf einen eventuellen Mehrvebrauch an Transistoren, auf die benötigte Schaltungslogik einzugehen.

Gute Nacht für Heute

P.S.: "ATIs Radeon, zumindest der neue, hat etwas ähnliches wie den CBMC."
Ich glaube, hier irrst du. Eine Quelle werde ich noch nachliefern, aber für's erste möchte ich mal behaupten, der Memory-Controller hat sich nur unwesentlich gegenüber dem R6-Core geändert.

Quellen:
"Again, contrary to popular belief the R200 does not implement a drastically different memory controller from the original Radeon. The chip still implements a single channel 128-bit DDR memory bus (some of ATI's leaked presentations were misleading in their listing of a dual channel 128-bit memory bus). This is virtually identical to the 128-bit memory controller in the original Radeon in that it does not make use of any crossbar-like features like the GeForce3. The only real difference is that the fetch size has been increased from 128 bits to 256 bits. Since the controller interfaces with DDR SDRAM, 256 bits of data are transferred every clock."
http://www.anandtech.com/showdoc.html?i=1517&p=2

Weiter heißt es dort:
"After much internal testing, ATI realized that they had overestimated the need for granularity in memory accesses on the original Radeon. Only fetching 128 bits of data at a time actually offered lower performance than a single 256-bit request. ATI attributes this to the nature of their pixel cache; unfortunately, we could not find out much information about it. This is the exact opposite of NVIDIA's GeForce3, which benefits from smaller memory accesses (32-bit accesses across each of the four independent memory controllers). The only likely conclusion here is that the GeForce3 has a smaller pixel cache or one that is better suited for smaller data fetches."

Bei THG gibt es noch folgendes dazu:
"Radeon 8500 does not come with a solution quite as sophisticated, but its memory controller is also dividing the 128-bit memory interface. While GeForce3's crossbar controller splits the 128 data lines in 4 blocks with 32-bits each, Radeon's memory controller is using a two-channel design with two blocks of 64 bit to make data transfers more efficient"
Link:http://www4.tomshardware.com/graphic/01q3/010814/radeon8500-03.html

Und zum Abschluß noch Sharky (ja, ich weiß, aber beim hochgelobten Review von Tommti (warum?) gab's dazu nix):
"For a quick example, the RADEON 8500 features only a single-channel 128-bit memory controller, which is not as advanced as the pseudo-quad channel, Crossbar memory controller found on the GeForce3 cards."
Link: http://www.sharkyextreme.com/hardware/videocards/article.php/3211_932821__2

StefanV
2001-12-09, 03:33:23
Originally posted by aths
Der GF3 enthält ebenfalls viel Cache, ich glaube ca. 10%. ATIs Radeon, zumindest der neue, hat etwas ähnliches wie den CBMC. Im GF3 werden 4x64 Bit angesprochen, im Radeon 2x128.

Um es mal ganz korrekt auszudrücken:
Die GF3 hat 4 DDR Memcontroller mit je 32bit breite.
Also:
4x32x2(DDR)

Wie's bei der Radeon aussieht ist wohl ATI's geheimnis...

aths
2001-12-09, 15:38:24
Quasar,

beim MC des GF3 bist du von physikalischen Leitungen ausgegangen, während ich von logischischen sprach. Ich schrieb ja: "Im GF3 werden 4x64 Bit angesprochen, im Radeon 2x128." Ich meinte ein logisches Ansprechen, da GF3 keinen einzelnen 32-Bit-Wert übertragen kann.

"Die Busbreite ist beim GF3 also 4x32Bit, wobei bei jedem Takt natürlich zweimal Daten übertragen werden, was dann letzten Endes auf 64Bit hinausläuft."

Jipp.

"Was glaubst du, verbraucht mehr Transistoren? Über den höheren Aufwand von Logik scheinen wir ja einig zu sein."

Es kommt nicht nur auf die Anzahl der Transistoren an. Der Kyro2-Chip enthält mehr Transistoren als sein Vorgänger, und bietet exakt die gleiche Logik. Trotzdem lässt er sich höher takten. Du kannst nicht fragen, was "mehr" Transistoren verbraucht. Abgesehen davon, dass ich keine Zahlen kenne, müsste man fragen: "Wieviel Transistoren braucht eine Logik, die das und das bewirkt, und wieviel brauchen so und so viel KB Cache inklusive Controller?" Wir kennen die Cache-Größen vom NV20 bzw. R200 nicht. Da die Effizienz beider Verfahren je nach Situation unterschiedlich ist, kann man m. E. kein eindeutiges Urteil fällen.

Die HSR-Techniken des Radeon sind sehr fortschrittlich, jedenfalls deutlich besser als beim GF3. Zumal letzterer wohl mehr Z-Bandbreite benötigt, spart vor allem der Radeon kräftig Bandbreite. Da nützt es dem GF3 offenbar wenig, dass er seine Bandbreite effektiver verwaltet. (Man könnte nun argumentieren, dass für ein optimales Ergebnis beide Vorzüge kombiniert werden müssten. Doch warum nicht gleich die Überlegenheit eines defered TBR nutzen? Ich fürchte, dass auch NV25 weiterhin ein Brute Force Chip ist.) Meine Meinung: "Der Z-Buffer gehört auf den Chip" (der zudem 8x Multitexturing beherrschen sollte.)

"Ähnlich verhält es sich bei der Radeon, die "nur" über einen 128Bit Memory-Controller verfügt, der aber auch zweimal pro Takt Daten überträgt und so pro Takt eben auf 256Bit kommt und aufgeteilt ist in jeweils einen 64Bit breiten Lese- und Schreibkanal."

Wie du merkst, widersprechen sich anand und thg. Bei thg steht etwas von 2 64-Bit-Kanälen, was nach der DDR-Übertragung auf 2x128 hinaus läuft. Man kann pro Takt entweder lesen, oder schreiben. Das in einem Zyklus gleichzeitig zu machen, wäre eine Technik die mir neu ist (und mit SDRAM wohl kaum zu realisieren.) Bei einer Aufteilung in Kanäle kommt er auf 2x128 Bit. Das ist (siehe Voodoo5-SLI vs. herkömmlichen DDR-Controller) ein Unterschied gegenüber 256 Bit. Lange Rede, kurzer Sinn: Ich vermute, dass der R8500 der Effizienz wegen über einen Speicherkontroller mit 2 Kanälen verfügt.

Ich nehme doch an, dass sich TruForm relativ einfach in den Chip integrieren liess. Die Mathematik hinter TruForm ist mit einfacher Vektorrechnung zu beschreiben. Ein Indiz dafür wäre die SW-Implementation für den alten Radeon-Chip, welche offenbar ohne extreme Performance-Verluste möglich war.

Quasar
2001-12-09, 18:50:58
Originally posted by aths
Es kommt nicht nur auf die Anzahl der Transistoren an.
Doch, denn genau darauf basierte mein Posting, das diese Diskussion ausgelöst hat.
Der Kyro2-Chip enthält mehr Transistoren als sein Vorgänger, und bietet exakt die gleiche Logik. Trotzdem lässt er sich höher takten.
OT:
Soweit ich weiß, sind die Transistoren wahrscheinlich für größere Tile-Caches benötigt worden, da ja die Tile-List bei höherer Frequenz teilw. deutlich schneller abgearbeitet werden kann. Da der Kyro ein sehr effizientes Design darstellt, würde es mich nicht wundern, wenn die Cache-Größen beim KyroI sehr genau an die Tile-Größen angepasst wurden, so daß beim KyroII, der imho auch eine etwas andere Tile-Größe verwendet, eben auch analog der Taktsteigerung etwa 50% größere Caches gebraucht wurden.

Die HSR-Techniken des Radeon sind sehr fortschrittlich, jedenfalls deutlich besser als beim GF3. Zumal letzterer wohl mehr Z-Bandbreite benötigt, spart vor allem der Radeon kräftig Bandbreite. Da nützt es dem GF3 offenbar wenig, dass er seine Bandbreite effektiver verwaltet.

Die höhere Effizienz des HSR beim R200-Core basiert imho bislang lediglich auf Beobachtungen, die aufgrund des Villagemark entstanden, einem extrem praxisfernen Test. Im Gegenteil bin ich in der aktuellen Situation der Meinung, daß das HSR der GF3 für die momentan erhältlichen Spiele die bessere Lösung darstellt, da GF3-Karten bei teilw. deutlich niedrigerem Kern- und Speichertakt noch sehr gut mit den moderneren R8500-Karten mithalten und diese teilw. sogar abhängen.


Doch warum nicht gleich die Überlegenheit eines defered TBR nutzen? Ich fürchte, dass auch NV25 weiterhin ein Brute Force Chip ist.)
Das ist durchaus möglich, aber wenn, was ich annehme, der R300 ebenfalls ein BF-Renderer ist, dann spricht imho einiges dafür, daß TBR und TnL auf einem Chip deutliche Probleme beim Design mit sich bringen, da auch PowerVRs Kyro3 noch auf sich warten läßt. -> Spekulationsforum


Meine Meinung: "Der Z-Buffer gehört auf den Chip" (der zudem 8x Multitexturing beherrschen sollte.)

Ich nehme an, du meinst 8-fach Multitexturin mittels Loop-Back, und nicht 8TMUs pro Pipeline.
Was den Z-Buffer angeht, wäre der Flipper im Gamecube ein schönes Beispiel: Von seinen 51Millionen Transistoren sollen angeblich über die Hälfte für 1MB Texturcache und 2MB on-Chip ZBuffer verbraucht werden. Und das bei einer Auflösungsbeschränkung von 640x480.
Im Prinzip stimme ich dir zu, nur wird diese Lösung sehr, sehr teuer werden.


Wie du merkst, widersprechen sich anand und thg. Bei thg steht etwas von 2 64-Bit-Kanälen, was nach der DDR-Übertragung auf 2x128 hinaus läuft. Man kann pro Takt entweder lesen, oder schreiben. Das in einem Zyklus gleichzeitig zu machen, wäre eine Technik die mir neu ist (und mit SDRAM wohl kaum zu realisieren.)

Die Matrox G400 hat dies offenbar aber hinbekommen, da dort auch ein Dual-Channel Controller mit 256Bit arbeitet. Wahrscheinlich sind es dort zwei semi-autonome Read/Write-Kanäle mit jeweils echten 128Bit.


Lange Rede, kurzer Sinn: Ich vermute, dass der R8500 der Effizienz wegen über einen Speicherkontroller mit 2 Kanälen verfügt.

Genau. Dieser Weg scheint beim R200 sicher effizienter zu sein, oder man hat es in der Kürze der Zeit seit Erscheinen der Radeon nicht geschafft, einen CBMC zu integrieren und "rettet" sich nun bis zur nächsten Generation einfach mit größeren Caches, die nach deinen Worten auch einfacher zu integrieren sind, als Logik.


Ich nehme doch an, dass sich TruForm relativ einfach in den Chip integrieren liess. Die Mathematik hinter TruForm ist mit einfacher Vektorrechnung zu beschreiben. Ein Indiz dafür wäre die SW-Implementation für den alten Radeon-Chip, welche offenbar ohne extreme Performance-Verluste möglich war.

Von Mathematik habe ich so gut wie gar keine Ahnung, aber die Berechnungen für polynomiale Flächen hören sich komplizierter an, also steht zu vermuten, daß auch die Logik hierfür um einiges komplexer sein dürfte, oder?

nggalai
2001-12-09, 19:59:54
hi Quasar, aths, alle anderen Beteiligten, ;)Die höhere Effizienz des HSR beim R200-Core basiert imho bislang lediglich auf Beobachtungen, die aufgrund des Villagemark entstanden, einem extrem praxisfernen Test. Im Gegenteil bin ich in der aktuellen Situation der Meinung, daß das HSR der GF3 für die momentan erhältlichen Spiele die bessere Lösung darstellt, da GF3-Karten bei teilw. deutlich niedrigerem Kern- und Speichertakt noch sehr gut mit den moderneren R8500-Karten mithalten und diese teilw. sogar abhängen.Der R200 kann pro Takt bis zu viermal mehr Pixel abweisen als der NV20, welcher 4 Pixel pro Takt und Pipeline loswerden kann (maximal also 16). Die Radeon8500 ist mit ihren 64 Pixeln pro Takt also auch rein theoretisch der GF3 klar überlegen. Dazu kommt noch, dass bei der GF3 "dank" des Multisampling FSAA der early Z reject nicht zusammen mit FSAA zu laufen scheint (bei aktiviertem MSAA werden die Z-check Teile der Pipeline fürs Multisampling verwendet). Solche Probleme kennt der R200 nicht. Ich würde also schon aths recht geben wenn er sagt, dass das HSR der Radeon8500 dem der GF3 überlegen ist.

Zum Thema TRUFORM sollte man vielleicht bei Gelegenheit einen neuen Thread im Technologie-Forum aufmachen; jedenfalls danke ich Thowe für den interessanten Link. Die Schlussfolgerungen sind zwar nich 100% schlüssig, was aber wohl auf die Natur der Information zurückzuführen ist: ein frühes pre-release ATi-Whitepaper.

ta,
.rb

Quasar
2001-12-09, 21:24:02
So betrachtet mag das durchaus stimmen. Dann formuliere ich eben anders: In der momentanen Marktsituation, erhältliche Spiele, Treiber und Hardware betreffend, kann ATis R200-Core die theoretische Überlegenheit seines HSR aufgrund ungeklärter Defizite nicht umsetzen. :)

Aber was anderes...Im Review der R8500 von Tech-Report (http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=2) steht was interessantes:

The Radeon 8500 also includes an entire fixed-function T&L unit (PIXEL TAPESTRY II), which can operate in parallel with the 8500's vertex shader. The GeForce3, by contrast, implements its backward-compatible fixed-function T&L capability as a vertex shader program.

Keine Ahnung, ob da was dran ist, aber es bringt einen neuen Aspekt in unsere Transistor-Count (TC) Diskussion....

Soweit ich es bisher gelesen habe, scheint es eines der wirklich guten Reviews zu sein, und nicht wie manch andere, von denen viele behaupten, sie wären gut, weil die favorisierte Karte "gewinnt"....nein, bisher kenne ich die Benchmarks noch nicht ;)

Razor
2001-12-09, 21:39:17
Der Artikel ist richtig gut !
(und nicht, weil die Ti500 gewinnt, dann dies tut sie 'nur' in Sachen Leistung und Kompatibilität ;-)

Hier werden sehr klar Vor- und Nachteile beider Kontrahenten heraus gestellt...

Vor allem wird auch auf die unterscheidliche Implementierung der verschiedenen Features hingewiesen etc.pp.

Wirklich sehenswert !
(habe ihn selber als Verweis auf 3DChipset gefunden ;-)

In diesem Sinne

Razor

P.S.: Das mit der parallelen Nutzung von Vertex-Shader und HW T&L habe ich auch schon woanders gelesen, auch, daß die gf3 das HW T&L als Vertex-Programm umgesetzt hat und es damit auch logisch ist, daß Vertex-Shader und (DX7) HW T&L nicht gleichzeitig genutzt werden können (stammte von einem gf3-Hardware-Entwickler ;-)...

Quasar
2001-12-09, 21:40:52
Well, that pretty much settles that! The Radeon 8500's ability to run its vertex shader in parallel with its fixed-function T&L unit may help explain its astounding performance here. Whatever the case, the Radeon 8500 nearly triples the Ti 500's performance on the 8-light test.

Na wenn das mal stimmt. Aber das würde schon einiges erklären....besonders in Verbindung mit dem obigen Zitat aus demselben Review.

@Razor:
Genau meine Meinung. Die ersten Seiten sind ausnahmsweise mal nicht mit PR-Diagrammen usw. von nV/ATi vollgestopft. Bis zum Anfang der Benchmarks ist dem absolut nichts hinzuzufügen!

Allerdings kommen mir die für die R8500 verwendeten Treiber etwas "niedrig" in der Versionsnummer vor....

Andi G.
2001-12-09, 22:28:05
Sehr interessante Diskussion. Kommt mir irgendwie vor, als philosophiere man über zwei Oberklasse PKW (sagen wir Mercedes und BMW) und haut sich die Köpfe ein wegen 10 PS mehr oder weniger, 10 KM/H Topspeed mehr oder weniger, diskutiert über die Form der oberliegenden Nockenwellen, die Krümmung des Krümmers, die Temperatur im Vergaser, der Durchzug zwischen 20 und 30 in Wohngebieten.

Ich als Konsument habe mich vor ner Woche für die Radeon 8500 entschieden, weil die Performanceunterschiede zu Nvidias Flagschiff nur marginal sind, weil die 8500 hervorragenden Dualmonitor Betrieb ermöglicht, weil die Darstellungsqualität mindestens ebenbürtig zur TI500 und last but not least, wobei ich hier zum ersten mal ein mir heiliges Gesetz gebrochen habe, weil das Teil "nur" 530 Märker gekostet hat (immerhin gut 300,- weniger als das Konkurenzprodukt). Eigentlich wollte ich niemals mehr als 500,- für ne Graka ausgeben, welche schon in einem Jahr nicht mal mehr die Hälfte wert ist. Aber na gut...dieses eine mal.

Nun, den Preis mal wirklich außen vor gelassen...

ich würde ne SGI Workstation nehmen!!! ;-)

Pengo
2001-12-09, 22:48:04
Originally posted by Razor
Der Artikel ist richtig gut !
(und nicht, weil die Ti500 gewinnt, dann dies tut sie 'nur' in Sachen Leistung und Kompatibilität ;-)

Hier werden sehr klar Vor- und Nachteile beider Kontrahenten heraus gestellt...

Vor allem wird auch auf die unterscheidliche Implementierung der verschiedenen Features hingewiesen etc.pp.

Wirklich sehenswert !

Ich finde es ist der erste R8500 Review bei dem sich jemand richtig Mühe gemacht hat.

StefanV
2001-12-09, 23:03:51
Originally posted by Andi G.
Sehr interessante Diskussion. Kommt mir irgendwie vor, als philosophiere man über zwei Oberklasse PKW (sagen wir Mercedes und BMW) und haut sich die Köpfe ein wegen 10 PS mehr oder weniger, 10 KM/H Topspeed mehr oder weniger, diskutiert über die Form der oberliegenden Nockenwellen, die Krümmung des Krümmers, die Temperatur im Vergaser, der Durchzug zwischen 20 und 30 in Wohngebieten.

Agree


Ich als Konsument habe mich vor ner Woche für die Radeon 8500 entschieden, weil die Performanceunterschiede zu Nvidias Flagschiff nur marginal sind, weil die 8500 hervorragenden Dualmonitor Betrieb ermöglicht, weil die Darstellungsqualität mindestens ebenbürtig zur TI500 und last but not least, wobei ich hier zum ersten mal ein mir heiliges Gesetz gebrochen habe, weil das Teil "nur" 530 Märker gekostet hat (immerhin gut 300,- weniger als das Konkurenzprodukt). Eigentlich wollte ich niemals mehr als 500,- für ne Graka ausgeben, welche schon in einem Jahr nicht mal mehr die Hälfte wert ist. Aber na gut...dieses eine mal.

AFAIK ist die Radeon 8500 nunmal die beste Karte auf dem Markt!!

Performance in der nähe der GF3, Dual Monitoing, Beste DVD Eigenschaften.

Und kommt hier nicht mit den Treibern!!
Das ist ein temporärer Zustand, der jederzeit geändert werden kann!!

Pengo
2001-12-09, 23:17:21
Originally posted by Stefan Payne
AFAIK ist die Radeon 8500 nunmal die beste Karte auf dem Markt!!

Ich hoffe du meinst IMHO und nicht AFAIK.

Viele die sich den Review bei http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=4 anschauen kommen sicherlich zu einer anderen Meinung.

Wenn man 2 Monis hat und gleichzeitig 3D Games spielen will ist R8500 die einzige Wahl, aber sonst (also zu 99%) ist Ti200 und Ti500 sehr starke Konkurrenz.

StefanV
2001-12-09, 23:41:17
1. ja, ich meinte IMHO

2.TV-Out, der unabhängig vom VGA Ausgang ist
Hardware Deinterlacing


Die Radeon 8500 bietet nunmal das meiste für's Geld!!!

Der Hamburger !
2001-12-10, 00:31:26
Geeeeeeeeeeeenau ! :)

Werni58
2001-12-10, 00:45:50
Und genau aus diesen Gründen hab ich mir auch eine bestellt"!

Razor
2001-12-10, 01:55:47
@Quasar

"niedrige" Versionsnummer beim 'Tech-Report' ?
???

Da wurden für die Radeon8500 die 6.13.3286 (WinXP) verwendet...
Gibt's da schon neue ?

Auch die Benches haben mir gut gefallen.
(vor allem sehr detailiert und im Vergleich mit allen möglichen GraKa-Klassen)

Ebenso der 3D-Bildqualitätsvergeleich etc.ppp

Rundum gut, das Ganze !
;-)

@Pengo

Jep !
Da hat sich jemand sehr viel Mühe gemacht, ohne wenn und aber...
;-)

@Stefan

Das dürfte Ansichtssache sein...

Ich z.Bsp. brauche kein Hydravision (i.e. Dual-Monitor) und benutze den TV-Ausgang auch nur dann, wenn ich im Wohnzimmer mit meiner Freundin 'nen DivX schaun will (DVD besser über den DVD-Player ;-) und da brauch ich also auch keine Unabhängigkeit vom VGA...

So bleiben also 'nur' noch die Features, wie Pixel-Shader 1.4 und Trueform/Smoothvision (und da spielen die Treiber eine ganz erhebliche Rolle !).

Und ich muß ganz ehrlich sagen, daß mir hier Stabilität und Kompatibilität vorgeht (völlig unabhängig von der Leistung). So würd' ich mir heute zwar keine Ti500 holen, aber ev die Ti200 von eVGA (wenn die SQ-Quali stimmt ;-), die mit 3.3ns Speicher für 650 Märker recht 'gut' ausgestattet ist und mir alles bietet, was ich brauch...

Wie gesagt, das gilt für mich, denn jeder andere mag da andere Prämissen setzen...

Zu behaupten, daß die Radeon die beste Karte am Markt ist, ist zur Zeit sicher noch nicht einmal inhaltlich korrekt (dazu müssten die Treiber besser werden, was bei ATI schon mal gute 6 Monate dauern kann ;-). Du sagst auch, sie würde das meiste für's Geld bieten, was in der Summe sicher richtig ist, aber trotzdem falsch, wenn man Dinge wie DVD/Hydravision/TV-Out(unabhängig) nicht braucht, denn dann zahlt man schlicht zuviel.

***

Die Frage R8500/gf3 kann sicher nur subjektiv beantwortet werden, also sollten wir es dabei auch belassen. Wer ein dickes Feature-Paket will, greift sich die R8500. Wer Leistung pur, bei maximal möglicher Kompatibilität und Stabilität will, der holt sich halt 'ne gf3...

"Jedem das seine !"
;-)

In diesem Sinne

Razor

Arschloch
2001-12-10, 03:02:38
@Razor

Du willst doch nicht im ernst behaupten, daß die NV Treiber im Moment gut sind, oder??

Gibt genug berichte über instabilitäten der Treiber.

Also Freezes in Windows usw

Razor
2001-12-10, 04:07:07
Ich selber hab' keine Prob's damit !
(habe ein System auf BX-Basis ;-)

Und die Probleme, die zur Zeit mit AMD-Systemen auftreten sind noch nicht eindeutig geklärt...
Da schiebt momentan jeder zum anderen.

Bei der R8500 scheint das aber wenig mit der Plattform, denn mit dem OS zu tun zu haben. Klar kann auch M$ schuld daran sein, was ich persönlich aber nicht so ganz glauben würde, den die W32-Treiber waren von ATI noch nie so sonderlich dolle.

Hast Du irgendwelche Zahlen, die tatsächlich aussagen können, wie es mit den NV-Treibern bestellt ist ?

Man möge sich die Mengen an GraKa's vorstellen, die zur Zeit auf NV-Basis eingesetzt werden (angefangen beim TNT, über TNT2, gfsdr/ddr, gf2mx/gts/pro/ultra/ti, gf3/ti200/ti500). Und diese sollten in Relation zu den aufgetretenen Problemen gesetzt werden.

Wäre echt mal interessiert, was dabei heraus kommen würde...
Sicher ist jeder Fehler tragisch, aber trotzdem nicht unbedingt gewichtig !
;-)

In diesem Sinne

Razor

Quasar
2001-12-10, 08:24:49
Originally posted by Razor
[b]@Quasar

"niedrige" Versionsnummer beim 'Tech-Report' ?
???

Da wurden für die Radeon8500 die 6.13.3286 (WinXP) verwendet...
Gibt's da schon neue ?

Auch die Benches haben mir gut gefallen.
(vor allem sehr detailiert und im Vergleich mit allen möglichen GraKa-Klassen)

Ebenso der 3D-Bildqualitätsvergeleich etc.ppp

Rundum gut, das Ganze !


Tommti-Systems....."(6.13.10.6003)"
Ist zwar noch nicht frei erhältlich, aber:
Wunder geschehen immer wieder *hört auf zu singen*

ow
2001-12-10, 12:40:15
Originally posted by Stefan Payne

Agree



AFAIK ist die Radeon 8500 nunmal die beste Karte auf dem Markt!!



Eine Karte, die kein Aniso+trilinear kann ist ja heutzutage der Witz schlechthin.
Einfach unfassbar, welchen Mist ATi da seinen Kunden andreht.



Performance in der nähe der GF3, Dual Monitoing, Beste DVD Eigenschaften.

Und kommt hier nicht mit den Treibern!!
Das ist ein temporärer Zustand, der jederzeit geändert werden kann!!

AHA, ATi liefert nur so zum Spass die bekackten Treiber aus, weil man das ja jederzeit aendern kann??

Ne Stefan, ATi hast es immer noch nocht drauf mit der Programmierung anstaendiger Treiber.
Deshalb koennen die das nicht aendern, schon gar nicht jederzeit.


.

nggalai
2001-12-10, 12:59:59
Hi ow,Eine Karte, die kein Aniso+trilinear kann ist ja heutzutage der Witz schlechthin.
Einfach unfassbar, welchen Mist ATi da seinen Kunden andreht. Das muss man relativieren. ATi verwendet fürs anisotrope Filtering eine grundsätzlich andere Technik als NVIDIA, welche sich halt einfach nicht mit trilinearem Filtering kombinieren lässt. Das ist zwar schade (und mit unter einer der Gründe, weshalb mich die R8500 auch nicht komplett vom Hocker haut--nebem dem "rechtwinkligen" MIP-mapping aber echt zu vernachlässigen ;) ), allerdings ist der Unterschied zwischen voll aufgerissenem AF + bilinear oder trilinear recht gering einzustufen. Auf meiner GF3 z.B. spiele ich praktisch ausschliesslich mit 4- oder 8fach AF und bilinearem Filtering, und Unterschiede zum trilinearen Filtering sind zwar zu sehen, aber bei den meisten Spielen nur, wenn Du explizit danach suchst. Bei der R8500 scheint besonders in Kombination mit SMOOTHVISION der Unterschied noch deutlich geringer auszufallen.

Schlussendlich ist das einzige, was für den Endverbraucher zählt, was am Ende rauskommt. WIE denn nun das Resultat erreicht wird sollte eigentlich nur Entwickler und Techno-Geeks interessieren, aber für Spieler sicherlich nicht ein Kauf-Argument sein.

ta,
-Sascha.rb

Unregistered
2001-12-10, 13:16:20
Hi!

Jetz mal ne saubloede Frage: Wie nutz ihr das wenn man 2 Monitore gleichzeitig anschliessen kan????
Mag sein das mein Phantasie etwas zu wünschen übrig lässt ,aber ich komm mit einem Monitor ganzgut klar ;))

Gruss,

Flo

Pengo
2001-12-10, 13:24:53
Es gibt schon Sinn für 2 Monis, z.B. wenn man viel mit Photoshop arbeitet, die meisten die Features wie Hydravision hypen, haben jedoch einfach nur zu viel bezahlt (es bleibt unbenutzt).

nggalai
2001-12-10, 13:26:02
Uiii, da gibt's viele Einsatzmöglichkeiten ...

- Auf einem Screen arbeiten, aufm anderen den Mail/News-Client offen halten ...

- Screen 1: Authoring, Screen2: Preview

- Screen 1: HTML-Editor, Screen2: 800x600 Preview

- Screen 1: Game, Screen 2: ICQ / MSM

- Applikationen mit vielen separaten Fenstern (bsp Cinema4D, Macromedia Dreamweaver, aber auch FS2001 etc.) auf 2 Screens verteilen ...

ta,
.rb

Razor
2001-12-10, 13:35:26
Die meisten haben nicht einmal Platz für'n 2. Moni auf dem Tisch...
;-)

Sicher, für professionelle Anwendungen mag das ja noch Sinn machen, auch ev für Leute die extensiv den M$ FlugSimulator zocken (ein Screen für Außenansicht, der andere für die Instrumente ;-), aber für den Standard-Gamer (dessen Zielgruppe so eine Karte ja ist) macht das herzlich wenig Sinn.

@nggalai

Wer schon mal versucht hat, Deinen 3. Lösungsansatz (Game/Desktop) in die Tat umzusetzen, weiß, daß das in vielen Fällen nicht hinhaut und wenn, auch ganz schön auf die Performance haut.

Ist ein nettes Feature, mehr aber auch nicht.

Dei meisten Leute, die 2 Moni's brauchen, haben i.d.R. mit Spielen nicht viel im Sinn und bei denen Tut's auch 'ne wesentlich günstigere Karte von ATI oder Matrox...

In diesem Sinne

Razor

Unregistered
2001-12-10, 13:38:07
Hm!

Also das klingt ja ganz nett, vor allem wenn mans von der Arbeit bezahlt bekommt, aber für Privatpersonen? Überzeugt mich nicht wirklich ;) Wahrscheinlich auch da ich derzeit gar keinen Platz für nen 2.Monitor hätte und ich mir dann(da diese features für mich wohl eher überflüssig) lieber das Geld spare für einen vernünftigen Monitor:)
Aber mal ehrlich gibt hier so viele die du zu Hause (privat nicht für die Arbeit!) 2 Monitore nutzen? Den für professionelle Arbeit gibts ja eigentlich wieder spezielle Grafikarten (?!)

Gruss,

Flo

Razor
2001-12-10, 13:54:57
In der Firma macht das durchaus Sinn (hab' dort 'ne Matrox ;-), denn be den vielen geöffneten Fenstern kann man schon mal die Übersicht verlieren, wenn man das ganze dann nicht auf 2 Screens (extended Desktop) verteilt.
(da würd' ich das auch nicht missen wollen ;-)

Da stehen dann allerdings auch gleich 2 PC's und 4 Moni's !
;-)

Zu hause hab' dafür keine Verwendung, aber 'nen 2. PC, der sowieso immer an ist und Dinge tut, die meinen Haupt-PC nicht belasten sollen (wie Instant-Messenger/eMail/Compilieren etc.pp)...

In diesem Sinne

Razor

Haarmann
2001-12-10, 14:42:29
Also ich selber nutze hier Zuhause auch mehr als einen Rechner ;-)

1 Webserver per Terminal Services ab und an für MS Office Dukus (weil ich die Scheisse ned auf meinem PC dulde).

1 DNS für sagen wir mal E Esel dazu... auch per Terminal Services

1 PC brennt CDs

1 PC steht im Zimmer für DVD und MP3 per 5.1

2 Versuchkarnickel PCs stehen hinter mir... Können aber auch z.B. Sachen Kodieren

Trotz all der Vielfalt, ist nun Doppelmoni angesagt bei mir...
A Film gucken und doch "Arbeiten"
B Delphi... Da hab ich nie genug Platz gehabt - bisher...
C Aufgaben für die Uni - Wordpro auf einem Schirm und die quasi Source PDF aufm 2en
expermental werde ich wohl mal ICQ und Q3/Wolf zusammen austesten... Falls das vernünftig realisiert wurde wäre das dann D

Ich finde also durchaus gefallen an der Möglichkeit von 2 Schirmen und guter 3d Leistung...
Sicher nicht Lebensnotwendig, aber nice to have isses alleweil

Razor
2001-12-10, 14:57:24
@Haarmann

"E Esel" ist gut...
;-)

Ansonsten sagte ich ja schon:
"Ist ein nettes Feature, mehr aber auch nicht."

Und was mir sonst noch einfällt:
Wie steht's mit Deiner Gesundheit (vor allem Deinem Gehör ;-) ?
4 PC's permanent am Laufen und noch 2 Testies ?
Und alles dann im Arbeitszimmer ?
Oh ha...

Da beneide ich Dich wahrlich nicht !
;-)

In diesem Sinne

Razor

P.S.: Was Delphi angeht, hast Du schon recht, denn einzig und allein dafür wär 'nen 2. Moni tatsächlich net schlecht (ab und zu macht man ja doch mal was zuhause ;-)...

Haarmann
2001-12-10, 15:10:38
Sage ich auch...
z.B. in CH isses ne Grauzone, ob ich in den USA aufgezeichnete Enterprise Folgen sehen darf oder nicht...

Es laufen nie alle PCs... brenne z.B. ned immer was ;-)
Auch die 2 Testies laufen ja nicht immer...

Was denkste, wieso ich soviel Wert auf leise Lüfter lege? ;-)
Mehrere dieser Kisten hört man nur, wenn man mitm Ohr am Gehäuse klebt...

Tja eben Delphi - das war die Hauptidee hinter dem 2en Moni ;-)

StefanV
2001-12-10, 15:36:23
Originally posted by ow
AHA, ATi liefert nur so zum Spass die bekackten Treiber aus, weil man das ja jederzeit aendern kann??

Ne Stefan, ATi hast es immer noch nocht drauf mit der Programmierung anstaendiger Treiber.
Deshalb koennen die das nicht aendern, schon gar nicht jederzeit.

ow, besorg dir bitte mal eine Radeon 1!!

DANN kannst DU weiterflamen!!
ABER ERST DANN!!

Und von einer Rage Karte auf die Radeon zu schließen ist, als wenn man von der Riva128 auf die GF3 schließt!!

Anscheinend hat die Radeon 8500 wohl doch nicht so viel mit der R1 zu tun, sonst hätte ATI wohl früher 'anständige' Treiber rausgebracht!

BTW: Schon die Readme von Kasparov gelesen??

Razor
2001-12-10, 15:46:33
@Haarmann

Na dann geht das mit den Geräten ja noch...
(silent cooling ist dann ein MUSS, hatte mir schon sorgen um Dich gemacht ;-)

In D isses keine Grauzone und solage man mit so etwas keinen Handel treibt ist's dann auch (fast) legal...
(Filme und MP3's sind OK, von dem Rest halte ich nichts ;-)

Und das mit Delphi kann ich gut verstehen, wenn auch dieser Umstand bei mir dazu geführt hat, das Ganze mehr in die Firma zu verlegen, was der Beziehung mit meiner Freundin ganz gut tut...
;-)

@Stefan

Bei der Treiberentwicklung schließe ich aber sehr wohl von der Radeon1 auf die R8500...
Schließlich hat's da fast die gleichen Probleme gegeben und auch entsprechend lange gedauert, bis sie dann halbwegs behoben wurden. Ich denke, daß die Treiber-Kritik durchaus berechtigt ist (speziell unter W32 ;-)...

In diesem Sinne

Razor

Andre
2001-12-10, 15:48:01
Originally posted by Stefan Payne
Und von einer Rage Karte auf die Radeon zu schließen ist, als wenn man von der Riva128 auf die GF3 schließt!!


Ist es nicht das, was hier bestimmte, nicht näher zu benennende Personen (Hallo Stefan), GENAUSO machen ?
Du kommst IMMER mit Deiner Riva128 aus der Ecke, wenn keine anderen Argumente mehr da sind.
Also gestatte dies auch anderen.

Haarmann
2001-12-10, 16:26:00
Andre,

ich sage auch nicht, dass Heute alle NV Treiber abstürzen... Als ich ne solche Karte im Gerät hatte, hatte ich Probleme... Nun hab ich aber seit den 12er Treibern keine NV Karte mehr, also kann ich mir auch kein Bild mehr über deren Qualität machen. Klar haben zig Kollegen noch ne GF irgendwas drin, aber da kann man nie wissen was sonst noch alles schuld sein könnte.
OW hat keine Radeon oder Radeon2, also kann er deren Treiber genausowenig beurteilen, wie ich den Deto XP.
Ich bin zufrieden mit den Treibern der R2, auch wenn Comanche 4 noch ned läuft. Ev liegt das nur an den DX8 Features des Games, aber ich war zu faul zum austesten. Ich spiele solche Games eher selten... wollte es mir einfach ansehen, weil mir Comache Maximum Overkill seinerzeit gefallen hat.

Andre
2001-12-10, 16:57:23
Originally posted by Haarmann
Andre,

ich sage auch nicht, dass Heute alle NV Treiber abstürzen... Als ich ne solche Karte im Gerät hatte, hatte ich Probleme... Nun hab ich aber seit den 12er Treibern keine NV Karte mehr, also kann ich mir auch kein Bild mehr über deren Qualität machen. Klar haben zig Kollegen noch ne GF irgendwas drin, aber da kann man nie wissen was sonst noch alles schuld sein könnte.
OW hat keine Radeon oder Radeon2, also kann er deren Treiber genausowenig beurteilen, wie ich den Deto XP.
Ich bin zufrieden mit den Treibern der R2, auch wenn Comanche 4 noch ned läuft. Ev liegt das nur an den DX8 Features des Games, aber ich war zu faul zum austesten. Ich spiele solche Games eher selten... wollte es mir einfach ansehen, weil mir Comache Maximum Overkill seinerzeit gefallen hat.

Deine Einstellung find ich gut, doch leider sind hier andere Personen, die sich demnach verhalten.
Ich bin weder Pro-NV, noch Anti-ATI, aber ich nehme es mir einfach mal raus, die Aussagen mancher (explizit Stefans) auf ihren inhaltlichen Wert zu überprüfen.
Mir ist klar, dass persönliche Präferenzen gerade im Grafikkartenbereicht extremen Einfluß haben.
Wenn Argumente vernünftig vorgebracht werden, bin ich der letzte, der diese zerreist - aber diese Schwarz/Weiß-Postings mancher Personen gehen mir manchmal eben zu weit, denn es wird eine vernünftige Diskussion einfach zerschlagen, indem diegleichen (oder falsche) Argumente nur des Postens wegen geschrieben werden.
Und das beziehe auf ALLE Anhänger jeglicher Hersteller hier.

ow
2001-12-10, 18:57:31
Originally posted by Haarmann


OW hat keine Radeon oder Radeon2, also kann er deren Treiber genausowenig beurteilen, wie ich den Deto XP.


Ich gebe nur wieder, was ich aus zahlreichen Reviews/Foren weiss.
Und dass die NV Treiber sehr gut sind, weiss ich auch aus eigener Erfahrung.
Da muss ATi sich noch anstrengen, um deren Qualität zu erreichen.

StefanV
2001-12-10, 19:21:00
Originally posted by ow
Ich gebe nur wieder, was ich aus zahlreichen Reviews/Foren weiss.
Und dass die NV Treiber sehr gut sind, weiss ich auch aus eigener Erfahrung.
Da muss ATi sich noch anstrengen, um deren Qualität zu erreichen.

Bei ATI Karten bekommt man aber mit 3rd Party Programmen fast alles zum Lanfen (z.B. RAID ON TWEAKER)
Oder man schafft sich halt Probleme!!
ALSO:
Du MUSST zwischen den Problemen, die welche sind und denen, die gemacht sind (Tweaker) unterscheiden!!
Besorg dir dennoch mal eine Radeon und teste sie mal selbst!!!
Dann kannst DU nämlich SELBST sagen, was wo nicht geht!!
Und verlässt dich nicht auf andere!

wie war das noch, wer sich auch andere verlässt... ;)

Haarmann
2001-12-10, 20:36:21
OW,

sind wir mal alle ehrlich... in den Foren haben NV User auch Probleme, die Du selber ned hast ;-).
Ergo der Fehler sitzt 30cm vor dem Schirm...

Diese Erkenntnis, sollte Dir sagen, dass Du ohne Karte nicht zwischen Fehlern der Treiber und Fehler der User unterscheiden kannst...
Ergo versuchs gar ned...

Wenn ich z.B. an ne LAN gehe, haben nur die NV User Probleme...
Das liegt wohl eher daran, dass NV Karten IRQ sharing hassen, denn an den Treibern (oder hassen die das sharing?), aber eben - es fällt schon auf... Einer kaufte sich nen Mac als er keine NV mehr haben konnte...
Die Probleme kommen allerdings oft daher, dass die Leute erst dort ne LAN Karte einbauen... Lustig isses alleweil.

aths
2001-12-10, 20:49:03
Das ist lächerlich, wie einige die Vorteile von Dualscreen-Karten anzweifeln, *nur weil ihre Karte das nicht bietet*.

Zumal dieses Feature die Karte offenbar nicht teuer macht, da die Radeon günstiger als die Ti500 ist, ist Hydravision ein Feature "nice to have" - und allemal sinnvoller als Quincunx.

Bei mir persönlich könnte der Fakt, dass es keine Ti200 mit Dualscreen gibt zum Grund werden, mir doch eine Radeon zu leisten.

Quasar
2001-12-10, 21:11:15
Nice-to-have Feature ja, aber wirklich nur für Leute mit zwei gleichwertigen Monitoren, imho.

Ich hab's mal mit 2 Monitoren versucht, meinem 19"er und dem alten 15er...das ewige hin- und hergucken, der Größenunterschied, die Differenzen in Kontrast, Farbe und Schärfe usw. haben mich ehrlich gesagt, gestört.

Und meinem 19"er 1024 mit 85Hz antun, nur weil der zweite Monitor nicht mehr hinbekommt, möchte ich auch nicht.

Wenn man dagegen zwei identische, oder zumindest gleichwertige Monitore hat, dann ist es schon ein ganz anderer Schnack, wie man hier so sagt. Dann wird's mit doppelter Bildschirmfläche auch angenehmer beim Arbeiten, etc.

StefanV
2001-12-10, 22:18:54
Ich hab momentan auch keine 2 gleichwertigen Monitore.

Arbeiten ist dennoch ganz angenehm.

ALLERDINGS:

Multimonitoring ist unter Windows 2k NUR mit Matrox oder 2 Karten möglich.

Bei Matrox auch nur, weil die das durch die Treiber 'passend gemacht' haben!!

Und selbst, wenn man das nicht braucht, dann hat man einen unabhängigen TV OUT!!

Razor
2001-12-10, 22:24:22
Und wofür 'braucht' man dann einen 'unabhängigen TV-Out' ?
???

Razor

Haarmann
2001-12-10, 22:32:24
Damit ich keine 50HZ FLimmerkiste hab, wenn ich aufn TV übertrage ;-)
Oder damit meine Video aufzeichnet und ich arbeite ;-)

Und wichtiger... damit ich meine Icons ned immer neu aufstellen muss aufm Desktop weil ich wegem TV Out die Auflösung ändern muss ;-)

Razor
2001-12-10, 22:44:04
Also bei mir befinden sich satte 11 Icons oben links auf dem Desktop (kein Hintergrundbild, nur 'Präriewind' -unter Win98SE !- als Muster ;-). Da ändert sich gar nichts, wenn ich die Auflösung auf 800x600 herunter schraube, um dann mit meiner Freundin 'nen DivX im Wohnzimmer zu schaun'...
;-)

Wenn ich Video aufzeichne (was selten vorkommt ;-), dann ist bei mir das zugehörige BIld oben-rechts auf dem Desktop, genauso wie VIVA, wenn ich normal arbeite oder wie jetzt im Internet surfe...

Somit bliebe festzustellen: Du hast ev dafür Verwendung, ich habe es nicht !

Im übrigen kann man mit NV-Karten das Umschalten auf TV-Out mit 'ner Applikation im Vollbild-Modus koppeln. Dann ist der Moni zwar schwarz, aber der Desktop bleibt, wie er ist (TV-Tool, NICHT von nVidia ;-). Der Simultan-Betrieb ist per Treiber 'eh nicht möglich, denn auch dafür muß das 3rd-Parity-Tool herhalten.

"Jedem das seine !"
Gell ?
;-)

Bis denne und ein fröhliches
:bier:
(hab's mir redlich verdient ;-)

Razor

P.S.: Oben gesagtes gilt für Nicht-TwinView-Karten mit BT869 ala gf3 !

Arschloch
2001-12-10, 22:49:00
Originally posted by Razor
Und wofür 'braucht' man dann einen 'unabhängigen TV-Out' ?
???

Razor

war klar, daß sowas kommt.

Schon mal dran gedacht, daß man dannn 'nebenbei' weiterarbeiten kann/will/muss??

Aber da du ja sowas noch nie in Aktion gesehen hast.

Razor
2001-12-10, 23:02:04
Nur mal zur Info, Arschloch !
(keine Beleidigung ;-)

In der Firma nutze ich Matrox- und ATI-Karten...
(letztere -Radeon- hatte ich sogar 'ne ganze Zeit zu Hause und 'ne Millenium hab' ich immer noch ;-)

Komm mir also nicht damit, so etwas noch nicht gesehen zu haben.
(ganz im Gegenteil ;-)

Ich brauch's schlicht nicht, oder warum sollte ich nebenher weiter arbeiten, wenn ich gemütlich mit meiner Freundin in die Röhre schau' ?

Also meine Frage an Dich, Arschloch:
(keine Beleidigung ;-)

Was machst Du denn genau in einem solchen Fall, wenn zwingend ein 'unabhängiger TV-Out' gebraucht wird ?
???

In diesem Sinne

Razor

Werni58
2001-12-10, 23:02:18
Ich brauchs damit meine >Frau auf dem Fernseher DVD oder MPEG 4 Filme sehen kann und ich fleißig ins Forum posten kann.

Wenn das kein Grund ist!!!!!!

Razor
2001-12-10, 23:07:05
Wie, Werni ?
Du läßt Deine Frau im Wohnzimmer, wenn man sich 'ankuscheln' könnte ?
;-)

Zumal man DVD's, VCD's etc.pp auch sehr viel besser mit 'nem DVD-Player (in DD5.1) auf den Fernseher/in die Anlage bekommt. Und wenn's mal tatsächlich notwendig sein sollte, dann springt mein 2. Rechner ein, der sowieso immer läuft und stört mich dann wenigstens nicht beim 'Arbeiten'... ähm... spielen etc...

In diesem Sinne

Razor

silverhawk
2001-12-13, 07:59:44
Nochmal zu Trueform, hat NVDIA nicht jetzt auch sowas entwickelt welches dem Trueform Feature gleich?

Quasar
2001-12-13, 08:34:19
Das haben die sogar schon länger als ATi, bloß eben nach nem anderen Ansatz, den man so aber momentan noch gar net gebrauchen kann, technisch aber wohl überlegen ist.

Ist seit der GF3 an Board, nur wurde es nie groß beworben, weil es eben so bei der GF-3 nix nützt.

Schimpft sich High Order Surfaces im allgemeinen und n-patches (ATi) oder polynomiale Flächen (=RT-Patches?) bei nVidia.

silverhawk
2001-12-13, 19:55:23
Ja aber kann dann die GF3 genau son Bild wie das durch Trueform von ATI abgeben?

Haarmann
2001-12-13, 20:16:28
Technisch gesehen ist ATIs Trueform überlegen... Ned weils technisch besser is, sondern weil die Progger nur ein Model und eine Engine für alle Karten schreiben müssen.
Doppelte Arbeit ergibt nunmal doppelte Kosten - womit die Technologie erst wohl in 2 Jahren benutzt werden kann, weil erst dann die Basis der installierten Karte dies Feature unterstützt... ergo Technisch gesehen unterlegen - Technologisch wohl ned... Aber wen interessierts?

Pengo
2001-12-13, 20:18:39
Originally posted by silverhawk
Ja aber kann dann die GF3 genau son Bild wie das durch Trueform von ATI abgeben?

Ich hoffe nicht, siehe SS Screenshots!

Razor
2001-12-13, 21:40:47
@Silverhawk

Bei den polynominalen Flächen nVidia's müssen zu jedem Polygon (neben den Verticles und der Normalen) sog. Kontrollpunkte mitgegeben werden (der Chip sucht dann passende Funktionen, um die Krümmung der Oberfläche dann zu berechnen). Das verhindert im Vornherein, daß soche Darstellungsfehler wie bei Truform passieren, denn dort werden (bei derzeitigen Implementierungen) immer ganze Objektgruppen mit Standard-Kontrollpunkten versehen und es kommt zu den besagten Rundungen, wo keine hingehören.

Ansonsten, ja !
Die gf3 beherrscht 'echtes' HOS (High Order Surfaces) und kann somt ebenfalls 'Curved Surfaces' darstellen, wenn es unterstützt wird (i.e. die Modelle entsprechend ausgelegt sind). Leider ist dieses Prinzip nicht abwärtskompatibel und so können solche Modelle nicht auf GraKa's dargestellt werden, die keine polyFlächen darstellen können.

@Haarmann

Also wenn die Implementierungen weiterhin so schlampig ausfallen, wie bisher, dann kann ich (meine persönliche Meinung !) gut darauf verzichten...

Ein Vorteil in der Abwärtskompatibilität sehe ich allerdings auch !

@Pengo

Ich denke, daß die Frage so nicht gemeint war...
Denn die Antwort lautet: JA, aber besser !
;-)

In diesem Sinne

Razor

silverhawk
2001-12-13, 22:57:57
Also das versteh ich jetzt nicht so ganz- Also dieses Feature ist in der GF3 schon mit drin aber was meint dann Harrmann mit "der Basis der installierten Karte".

Also warum kanns jetzt noch nich dargestellt werden?

Haarmann
2001-12-13, 23:25:15
Silverhawk,

Die NV Version funktioniert im Prinzip nur auf wenigen Karten, erfordert aber quasi ne neue Engine resp ne adaptierte und neue Models resp adaptierte - also sehr viel Aufwand, für sehr wenig Marktanteil (es gibt mehr Kyro2 wohl denn GF3 zZ).
Bei Trueform is der Marktanteil noch kleiner, aber die Arbeit, die bisher inverstiert wurde ist gelinde gesagt 0. Die Ergebnisse sind dementsprechend auch nicht immer berauschend ;-).
Wer solche Flächen bastelt, wird das wohl erst für die XBox tun, denn dort is die HW ja vorhanden.
Das 2te Problem, könnte auch noch die geringe VS Leistung der GF3 sein... Ev ist die Leistung eigentlich gar nicht ausreichen für exzessiven Gebrauch, den man auch sähe - und ohne Sichtbare verbesserungen wird niemand soviel Arbeit investieren.
Falls dem so ist (ich bin ned Entwickler von Games...), würde das erst mit der "GF4" überhaupt Sinn ergeben - also installierte Basis = 0.
Vergesst einfach nicht, dass die Charisma2 wohl ca doppelt so schnell ist, wie die GF3 VS Unit. Also mal abwarten, wann wir mal Games auf deren Basis sehen... und ob man nen Unterschied sieht... Bei Trueform sieht man ja bestimmt was ... vor allem bei Serious Sam ;-) - ev allerdings ned das Gewünschte...

Quasar
2001-12-13, 23:55:25
Originally posted by Haarmann
Falls dem so ist (ich bin ned Entwickler von Games...), würde das erst mit der "GF4" überhaupt Sinn ergeben - also installierte Basis = 0.

Falls dem so ist (ich mach auch keine Games) dann wird die installierte Basis bis zur Auslieferung der GF4 wohl mehrere Millionen Xboxes betragen. Die XBox Games auf den PC zu portieren, fiele im Falle genutzter HOS à la nVidia wesentlich leichter, da ja nicht extra die ganzen Modelle neu gemacht werden müßten...


Lassen wir uns überraschen, ich hätte schon Bock auf DOA3 aufm PC in HiRes und mit AF...


BTW, war heute im Kaufhaus DVDs kaufen, und hab da so eine einsame XBox-Demo-Console gesehen und gleich mal ne Runde Projekt Gotham Racing oder wie auch immer das heißt gezockt....WÜRG!!!

Wenn alle Games so werden, dann kauf ich mir auch ne ATi, damit ich den Schieß net spielen muss *GG*

Pengo
2001-12-14, 00:41:19
Originally posted by Haarmann
es gibt mehr Kyro2 wohl denn GF3 zZ.

Das glaubst du selbst nicht, bei der Valve Umfrage hatte schon damals GF3 knapp 2%, Kyro war nicht mal in der Statistik aufgetaucht, und die kleinste Position war 0.9%, da GF3 Ti200 raus ist dürfte GF3 (Classic, 200,500) um die 5% haben (unter Spielern of course, in OEM Rechnern gibt es die GF3's eher selten), kann mir nicht vorstellen daß Kyros die 1% Marke geknackt haben.

StefanV
2001-12-14, 02:53:36
Originally posted by Pengo
Das glaubst du selbst nicht, bei der Valve Umfrage hatte schon damals GF3 knapp 2%, Kyro war nicht mal in der Statistik aufgetaucht, und die kleinste Position war 0.9%, da GF3 Ti200 raus ist dürfte GF3 (Classic, 200,500) um die 5% haben (unter Spielern of course, in OEM Rechnern gibt es die GF3's eher selten), kann mir nicht vorstellen daß Kyros die 1% Marke geknackt haben.

WARUM berufst du dich auf die Umfrage von Valve??

Die ist gelinde gesagt nicht zu gebrauchen, da HL/CS nunmal nicht so sehr anspruchsvoll ist.

Abgesehen davon sind es nur HL/CS Spieler (hauptsächlich CS)!

WENN du dich schon auf Umfragen berufen mußt, warum nimmst du dann nicht welche von 3DSeiten??

Die sind zwar auch nicht brauchbar, aber besser als die von Valve allemal!!

Pengo
2001-12-14, 05:43:00
WARUM berufst du dich auf die Umfrage von Valve??

Die ist gelinde gesagt nicht zu gebrauchen, da HL/CS nunmal nicht so sehr anspruchsvoll ist.

Da gebe ich dir Recht, bei anspruchsvollen Spielern sollte der GF3 Anteil deutlich größer sein!

WENN du dich schon auf Umfragen berufen mußt, warum nimmst du dann nicht welche von 3DSeiten??

Wenn du mir eine einzige zeigst an der mehr als 100.000 teilgenommen haben, nehme ich diese sofort!

Pengo
2001-12-14, 05:45:54
Wobei ich noch sagen muß das 3DSeiten nur von Freaks besucht werden und die Grakas dieser Zielgruppe sich deutlich vom Otto-Normal-Verbraucher unterscheiden dürften, in den meisten Stangenrechnern stecken intergrierte Grafiklösungen, TNT2, GF2MX oder Radeons drin.

Unregistered
2001-12-14, 05:48:29
Originally posted by ow


Ich gebe nur wieder, was ich aus zahlreichen Reviews/Foren weiss.
Und dass die NV Treiber sehr gut sind, weiss ich auch aus eigener Erfahrung.
Da muss ATi sich noch anstrengen, um deren Qualität zu erreichen.

Mit den einzigen Unterschied ow, das Du so redest als ob die ATi Treiber eine Gefahr werden.

Kannst ja mal den Thread von Nasenbaer lessen, dann siehst Du das massig geht mit der Radeon8500.

Und man kommt wieder auf den Treiber weil das der einzige Strohhalm für die nv Fraktion ist.


Gruss Labberlippe

silverhawk
2001-12-14, 07:33:06
So, jetzt hab ich´s aber verstanden.

Haarmann
2001-12-14, 09:34:07
Ich kenne wenig Half Life oder CS Spieler, die ne Kyro haben...
Fast alle spielen querbeet oder Quake Schiene.
In meinem Clan haben von den aktiv spielenden gesehen z.B. folgende Karten...
2 Kyro2, 1 Savage 2000, 1 TnT2 Ultra und meine Radeon 8500.
Orga der LAN am WE hat Kyro2 und GTS2 (Freundin kommt ja mit).
Es kommen 50 Leute, von 6 weiss ich, dass es ne Kyro2 is. Kennen tue ich aber nedmals die Hälfte aller PCs.
Keiner von denen Spielt CS, weil die Killerkiddies mit ihren Cheats allen gleich auf den Sack gehen...
Es gibt auch nirgends soviele ASUS Karten wie bei CS...

CS Spieler sind im Schnitt auch nicht grad die Leuchten der EDV Welt... Sieht man ja im Forum... ich hab nur *gähn* FPS und hab doch ne GF3... *gähn*
Wenn ich sowas höre, dann weiss ich, die ideale Grafikkarte is für den ne MX200 mit 256MB RAM ;-).

Razor
2001-12-14, 10:02:40
@Haarmann

Na, Haarmann, da liegen wir mit unserer Meinung ja gar net sooo weit auseinander...
;-)

Das mit den Martanteilen freß ich aber noch net so ganz. Hast Du 'ne Statistik (die Du nicht selber gefälscht hast ;-), die das belegt ? Hmmm...

Die VS-Leistung ist im Vergleich zur ATI tatsächlich net so dolle. Sollte es NV aber gelingen ein Loadblancing mit VS und CPU zu integrieren (was Du ja wohl ohnehin schon vermutest) dann könnte die Sache schon ganz anders aussehen. In Sachen PS (net das von den Auto's ;-) ist NV's Implementierung durchaus mit der R8500 verlgleichbar (wenn nicht schneller). Und AFAIK wird des auch im NV25 nicht 'verbessert'.

Die Verbreitung von ATI's Technologie steht allerdings noch in den Sternen und wird den Entwicklern, bis da was zu erkennen ist, auch erst mal dazu bringen, davon Abstand zu nehmen (und wenn nicht, eben net allzuviel Aufwand einbringen ;-)

Schaun' wir ma' und lassen uns überraschen ob und was sich da noch tut...
;-)

Ach ja, kenne wenig leute, die überhaupt HL/CS spielen (meine Person eingeschlossen)... ist wohl hauptsächlich was für Kiddies, die die etwas antiquare Grafik net stört... das dort dann allerdings 2% gf3's vorhanden sein sollen, nimmt mich dann schon wunder...

@Quasar

Jep, hab' da auch schon so einiges auf XBox gesehen und war, gelinde gesagt, recht enttäuscht. Wieder 'nen Hype der keiner war (wie auch bei der PS2). Trotzdem verkauft sich das Ding in J und im Amiland wie hulle (sollen schon 1,1mio weg gegangen sein ?)... na ja, bin allerdings auch kein Konsolen-Spieler...

@Pengo

Schade, daß es keine vernünftigen Statistiken, die da ein klares Bild liefern. Und irgendwie wird dieses Thema zur Zeit totgeschwiegen...

Mich würde mal 'ne offizielle Absatzstatistik der Hersteller interessieren !

@Stefan

Hast Du denn mal bessere Statistiken ?
Die von Valve mag ja nicht repräsentativ sein, aber ist wenigstens eine...

@Laberlippe

Schade nur, daß es nur auf dem schon etwas altem Win9x funzt (was ich privat immer noch hauptsächlich nutze !)... ist aber sicher schon etwas. Hoffen wir mal, daß sich die W32-Treiber noch entwickeln und nicht in einem ähnlichem Fiasko enden, wie damals bei der Ur-Radeon. Würde es mir wünschen, damit NC's Konkurrenz bestehen bleibt, was letztendlich zu unser allem Vorteil sein dürfte. Eine 'Gefahr' sehe ich in den ATI-Treibern sichern net, aber man wird das doch wohl mit einem Fragezeichen versehen dürfen, oder ?

In diesem Sinne

Razor

RAL
2001-12-14, 10:04:21
Übrigens von wegen der Marktanteile:
http://www.mercuryresearch.com/
Mit $10 seid ihr dabei :)

Haarmann
2001-12-14, 10:34:49
Razor,

diese Kiddies bezahlen ihre HW wohl kaum selber...
Am ersten Tag, als mein Kollege die GF 3 im Laden hatte, rannten ihm 3 solcher Kiddies gleich die Bude ein und kauften sich ne ASUS GF3 Deluxe... den Preis für det Teil kannste Dir denken ;-).

Daher sind Statistiken mit Leuten drin (Sag ja ned alle), die nix selber berappen müssen auch ziemlich fürn Arsch.

Aber eben... mal abwarten...

Und was det Loadbalancing betrifft ;-) Wohl kaum gross möglich - ausser für Benches... die CPU is ja meist andersweitig busy...

Razor
2001-12-14, 10:52:35
@Haarmann

Was dann aber für Nicht'T&L'er ala V5/Kyro dann aber sehr schlecht aussieht...
;-)

Razor

Haarmann
2001-12-14, 11:05:08
Die brauchen ja eh ne eigene Version der Engine und Models ;-) - da interessiert det keinen mehr...

Wie gesagt.. ich finde Trueform sinnvoller, solange die Basis nun einfach mal aus viele alten Karten ohne VS etc besteht.
Schade, dass NV das ned einfach adaptieren kann - wäre sicherlich möglich, aber wohl kaum Marketingmässig tauglich ;-).

Ich geniesse derweil mein Trueform... und meine 2 TFTs vor der Nase...

In diesem Sinne

Unregistered
2001-12-14, 13:49:43
Mein Gott da regen sich aber n paar auf!
Dieser zwist N-vida vs ATI!
Mann sehr euch doch einfach mal das leistungsverhältnis an.
Immer diese nörgler mit: bähh die ATI treiber sind scheisse!
Hat ein N-vidia mensch der so rumprotzt denn ne ATI Radeon werkeln gesehn?

Na?
Immer dieses gelaber...
man mann mann...
und ann spielt der Preis ja doch irgendwo ja doch noch ne rolle!

Pengo
2001-12-14, 16:45:36
Originally posted by Haarmann
Ich geniesse derweil mein Trueform... und meine 2 TFTs vor der Nase...

Kannst du mal bitte endlich Screenshots posten, das höre ich von mehreren Leuten, aber keiner traut sich was zu zeigen!

Haarmann
2001-12-14, 16:52:00
Tja Pengo... ich würde gerne... aber wenn ich screenshot drücke in meinem Wolfenstein, is das bild schwarz mit unten am Rand nen paar Pixeln in Farbe...
OK, das is auch ein Bild, aber irgendwie siehts aufm Monitor anders aus...
Gleiches Problem hatte meine Voodoo auch, aber dort konnte ich per Treiber Screenshots machen, welche dann auch liefen.
Daher weiss ich zZ nicht, wie ich Q3 resp Wolf zur Kooperation überreden kann - wenn Du da Abhilfe weisst - nur zu.

Quasar
2001-12-14, 17:10:39
Hm, Haarmann, da scheinst du aber einen seltsamen Rechner zu haben...
Auf meinem Keyboard gibt es oben rechts ne Taste wo draufsteht: "Druck"....ich schätze mal, daß diese Methode bei dir nicht geht, oder?

Tja, hast du mal Tools wie Snag-it, oder HyperSnap versucht?

Wie gesagt, bei mir hats auf anhieb gefunzt...hab aber nur ne GF3

Versuchs doch mal mit:"seta cg_drawSnapshot "1""

Haarmann
2001-12-14, 17:23:20
Quasar,

Q3 resp Wolfenstein hätten dafür ne eigene Funktion...

Bind B ScreenshotJPEG müsste also nen Screen erstellen... nur will es das nicht tun

Razor
2001-12-14, 17:54:54
Du hast doch aber schon mal 'nen Wolfenstein-Shot gepostet, oder Haarmann ?
Oder funzt dat net, wenn Trueform an is ?
Hmmm...

Schon merkwürdig, gelle ?
;-)

Razor

Quasar
2001-12-14, 19:10:31
Ist es wirklich so schlimm, mal die "druck"-Taste zu benutzen?

Und Paint ist doch auch bei jedem Windows umsonst dabei...

*kopfschüttel*

Razor
2001-12-14, 19:14:10
Geht das mit der 'Druck'-Taste ?
War der irrigen Meinung, daß man dazu so etwas wie Hypersnap braucht...
(was dann aber net für OpenGL funzt, sondern nur für GLIDE und D3D ;-)

Aber wie gesagt, hat's doch schon mal gefunzt, oder ?
Komisch...

Razor

Haarmann
2001-12-14, 19:58:35
Quasar - DANKE - es geht (womit er sich auf die Socken Richtung Netgame macht)

Razor - Jo - aber nur mit einem Bildschirm dran... aber 2 sehen geiler aus ;-)

Zu DE Wolfenstein gamen und gleichzeitig Forum lesen ownt ;-)

Razor
2001-12-14, 20:05:54
Kannst Du denn nicht mal uns zuliebe den einen Moni abklemmen und mal kurz 'nen Shot machen ?
Büdde...
;-)

Und habe ich Dich richtig verstanden ?
Hydravision benutzt und kein Screenshot mehr möglich ?
Hmmm...

Razor

Und wie jetzt... RTCW gamen und GLEICHZEITIG Forum lesen ? Na, ich bitte Dich !
;-)

StefanV
2001-12-14, 20:24:02
Originally posted by Razor
Kannst Du denn nicht mal uns zuliebe den einen Moni abklemmen und mal kurz 'nen Shot machen ?
Büdde...
;-)

Und habe ich Dich richtig verstanden ?
Hydravision benutzt und kein Screenshot mehr möglich ?
Hmmm...

Razor

1. Muß er garnicht!

2. Ja, das hast du falsch verstanden!!

Wenn 2 Monitore dran hängen, dann wird das Bild von BEIDEN monitoren genommen.

Ergebnis ist ein 16:9 'strech' Screenie

Razor
2001-12-14, 20:25:49
Besser 'nen Stretch-Screenie, als gar kein Screenie...
(hört sich langsam alles echt nach Ausreden an !)

Razor

Quasar
2001-12-14, 21:13:28
@Razor:
Ich hab ehrlich gesagt, noch nie anders Screenies gemacht, als mit der Druck-Taste und Paint

@Stefan, Razor, Haarmann:
Mit Paint kann man auch hinterher den zweiten Monitor abschneiden...

Ein ganz normaler Screenie mit Truform is also im Bereich des möglichen...

StefanV
2001-12-14, 21:34:27
Originally posted by Quasar
@Stefan, Razor, Haarmann:
Mit Paint kann man auch hinterher den zweiten Monitor abschneiden...

Ein ganz normaler Screenie mit Truform is also im Bereich des möglichen...

1. Hab ich was anderes behauptet ;)
Hab ja gesagt, daß es geht, und was kommt ;)

2. MS Paint?? :kotz:
Da nehme ich lieber andere Programme wie Photoshop oder Paintshop Pro.

Quasar
2001-12-14, 21:42:31
Wenn man eh Windows benutzt, hat MS Paint einen Riesenvorteil: Es kostet nix....

StefanV
2001-12-14, 21:46:48
PSP gab es in V5 auf div. Heft CDs...

Haarmann
2001-12-15, 12:43:08
Wenn die Kiste nach dem WE wieder hier is, werde ich das nachholen...

Muss nämlich noch Screenies für nen RtCW Rev machen ;-) Daher stand ich mal wieder vor nem Problem...

Paint brauche ich by the way, damit ich die Shots ins PSP4 reinkrieg...

Warum ich PSP4 benutze? Weils so einfach zu bedienen is und nur genau das kann, was ich auch brauch. PSP5 hat alles umgeordnet und ich müsste mich einarbeiten - keine Lust auf sowas...

Razor
2001-12-15, 16:07:49
@Quasar

Das mit der 'Druck'-Taste ist gar net mal schlecht...
Hab's irgendwann mal ausprobiert und da funzte dat net, kann aber auch gut sein, daß es an was anderem lag.
;-)

Ach ja, wer Windows drauf hat, benutzt auch meist Office...
(ja, Haarmann, Du nicht, aber die meisten anderen tun das ;-)

Da gibt's 'nen hübsches Proggi mit dem Namen 'Microsoft Photo Editor', was durchaus für die meisten Fälle reicht (wenn man keine professionelle Bildbearbeitung im Sinn hat ;-) und kann auch so zeimlich alles zu allem konvertieren...

Nur 'malen' kann man damit nicht !
;-)

@Haarmann

OK, Du hast 'ne Ausrede !
;-)

@Stefan

Du nicht !
Wie wär's mit 'nem RTCW Truform Shot ?
???

In diesem Sinne

Razor

P.S.: Für seichtes Photo-Gematsche empfiehlt sich 'Kai's Photo Soap' (also für 'Neulinge' gedacht ;-) oder eben PSP (für 'Fortgeschrittene' eben)...

StefanV
2001-12-15, 17:03:57
Originally posted by Razor
@Stefan

Du nicht !
Wie wär's mit 'nem RTCW Truform Shot ?
???


Klar, wenn du mir RtCW schickst.

Momentan bin ich noch nicht nach DK gekommen, um es mir zu besorgen...

Razor
2001-12-15, 17:05:07
Ok, Stefan, auch Du hast 'ne Ausrede...
*schnüff*

Na dann warten wir halt noch 'ne Weil' !
:-(

Razor

Pengo
2001-12-15, 19:10:37
Originally posted by Stefan Payne


Klar, wenn du mir RtCW schickst.

Momentan bin ich noch nicht nach DK gekommen, um es mir zu besorgen...

Es gibt doch eine Single-Player Demo oder nicht?

Andre
2001-12-15, 20:22:44
Originally posted by Pengo


Es gibt doch eine Single-Player Demo oder nicht?

Ja, gibt es oder war das eine rhetorische Frage ? :)