PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 9500pro oder Ti4400


Seiten : [1] 2

Mega-Zord
2003-01-06, 01:06:20
Ich wollte mir demnächst eine neue Graka kaufen, meine alte ASUS V7700Deluxe steht übrigens zum Verkauf frei, aber ich kann mich nicht 100% festlegen, da unabhängige BMarks von der 9500pro noch nicht existieren, halt nur umgelötete 9700er.

Bei NV kann man sich ja voll auf die Treiber verlassen, aber wie issas bei ATI? Und ich hab von Leuten Gehört, das ATI nur Ärger bezüglich der Kompatibilität zu spielen macht, allerdings kann sie DX9, was meines Wissens nach von Doom 3 verwendet wird.

Hier die Games, die ich zoggen will:

Quake 3
UT 2003
Battlefield
Doom 3
GTA 3



Thx im voraus für eure Hilfe

StefanV
2003-01-06, 01:12:39
9500 PRO, insbesondere wenn du mehr machst als gamen...

Und auch zum gamen ist die 9500 PRO besser, zumal FSAA und AF weniger Leistung kosten...

Unregistered
2003-01-06, 01:40:02
Radeon 9500pro oder Ti4400


meinst du das ernst?

Argo Zero
2003-01-06, 01:57:52
Außerdem kann man die 9500Pro zur 9700 umbauen ;)

Anárion
2003-01-06, 01:59:27
Originally posted by Argo Zero
Außerdem kann man die 9500Pro zur 9700 umbauen ;)

Nein, kann man nicht, die hat ein ganz anderes PCB-Design ;)

Man kann eine Radeon9500 128MB (ohne Pro) umbauen ;)

Argo Zero
2003-01-06, 02:08:13
Stimmt hast recht :)

Iceman346
2003-01-06, 08:15:16
Sicher existieren Benchmarks von nicht umgelöteten 9700ern...

http://www.anandtech.com/video/showdoc.html?i=1756
http://www.hothardware.com/hh_files/S&V/radeon_9500pro.shtml

ow
2003-01-06, 08:43:22
Originally posted by Mega-Zord
Ich wollte mir demnächst eine neue Graka kaufen, meine alte ASUS V7700Deluxe steht übrigens zum Verkauf frei, aber ich kann mich nicht 100% festlegen, da unabhängige BMarks von der 9500pro noch nicht existieren, halt nur umgelötete 9700er.

Bei NV kann man sich ja voll auf die Treiber verlassen, aber wie issas bei ATI? Und ich hab von Leuten Gehört, das ATI nur Ärger bezüglich der Kompatibilität zu spielen macht, allerdings kann sie DX9, was meines Wissens nach von Doom 3 verwendet wird.

Hier die Games, die ich zoggen will:

Quake 3
UT 2003
Battlefield
Doom 3
GTA 3



Thx im voraus für eure Hilfe


a) Doom3 ist OpenGL und verwendet kein DX.
b) Die NV Treiber sind besser als die ATi Treiber. wenn du also keine Lust auf ewiges Treiberinstallieren hast, bist du mit NV besser bedient.

-=DILA=-
2003-01-06, 09:59:26
Originally posted by ow
b) Die NV Treiber sind besser als die ATi Treiber. wenn du also keine Lust auf ewiges Treiberinstallieren hast, bist du mit NV besser bedient.

:|

Man kann es ja auch übertreiben, oder?

@Mega-Zord
Auf jeden fall die Radeon 9500 Pro.
Ist schneller und zukunftssicherer.

MfG
DILA

ow
2003-01-06, 10:04:47
Originally posted by -=DILA=-


:|

???

Endorphine
2003-01-06, 10:13:30
Originally posted by -=DILA=-
Auf jeden fall die Radeon 9500 Pro.
Ist schneller [...]


Ja, bei AA/AF, welches du nur jetzt nutzen kannst, da die Karte bei jetzigen Spielen einen Leistungsüberschuss hat. In einem halben Jahr wird sie dann wieder wie gehabt ohne die Qualitätsfeatures betrieben und dann sind GF4Ti mit der geringeren CPU-Last und teilweise höheren Geschwindigkeit überlegen.

Originally posted by -=DILA=-
Auf jeden fall die Radeon 9500 Pro.
Ist [...] zukunftssicherer.

Wodurch? DX9-Spiele (zum Jahreswechsel 2004/2005) auf ner 9500 Pro? Also spielst du auch UT2003 auf ner GF1-SDR? :lol: :stareup:

ow
2003-01-06, 10:20:04
Originally posted by -=DILA=-


:|

Man kann es ja auch übertreiben, oder?


MfG
DILA

Was soll das heissen?
Dass die Kompatibilität der Nvidia Treiber besser ist als die der Ati Treiber ist ja wohl unumstritten. Auf NV laufen die meisten Games sofort, bei ATi ist das nicht immer der Fall. Da muss man auch mal auf neue Treiber oder Patches warten.

Unregistered
2003-01-06, 10:26:30
Originally posted by ow


Was soll das heissen?
Dass die Kompatibilität der Nvidia Treiber besser ist als die der Ati Treiber ist ja wohl unumstritten. Auf NV laufen die meisten Games sofort, bei ATi ist das nicht immer der Fall. Da muss man auch mal auf neue Treiber oder Patches warten.


und genau deswegen ti 4200 :-)

von dem ati umbauten würde ich die finger lassen... es ist nicht sicher ob die chips wirklich 100 prozent funktionieren

betasilie
2003-01-06, 10:30:52
Originally posted by ow


Was soll das heissen?
Dass die Kompatibilität der Nvidia Treiber besser ist als die der Ati Treiber ist ja wohl unumstritten. Auf NV laufen die meisten Games sofort, bei ATi ist das nicht immer der Fall. Da muss man auch mal auf neue Treiber oder Patches warten.
Das ist bei den aktuellen Treibern nicht mehr die Regel, auch wenn es bei NV-Karten etwas besser ist. Die Prognose, was die Kompatiblität angeht, ist sowieso sehr gut, da ATI enorm Marktanteile zurückgewinnt und Softwareschmieden auch intensiver auf ATI-Karten testen werden.

@ Mega-Zord
Ich empfehle dir auch auf jeden Fall die 9500Pro, insbesondere da die 9500Pro auch ohne AF und AA schneller wie eine GF4-4400 ist. 16x AF kannst Du so oder so immer fahren, da es so gut wie umsonst ist oder aber die Kombination 2xAA mit 4xAF (evtl.16xAF) die sehr wenig Performance kostet. ... und auch für zukünftige Spiele.

ow
2003-01-06, 10:35:54
Originally posted by betareverse

Das ist bei den aktuellen Treibern nicht mehr die Regel, auch wenn es bei NV-Karten etwas besser ist. Die Prognose, was die Kompatiblität angeht, ist sowieso sehr gut, da ATI enorm Marktanteile zurückgewinnt und Softwareschmieden auch intensiver auf ATI-Karten testen werden.



Das seh ich allenfalls als hoffnungsvollen Ausblick in die Zukunft.
Es kann besser werden, aber auch ATi muss seinen Teil dazu beitragen mit entsprechendem Developer-/Treiber-Support.

-=DILA=-
2003-01-06, 10:40:56
Originally posted by Endorphine
Wodurch? DX9-Spiele (zum Jahreswechsel 2004/2005) auf ner 9500 Pro? Also spielst du auch UT2003 auf ner GF1-SDR? :lol: :stareup:

Naja, das habe ich jetzt eher auf die Performance bezogen, nicht auf Features.
Gut, "richtige" DirectX 9 Spiele wird man darauf bestimmt nicht mehr flüssig spielen können, aber man fühlt sich doch irgendwie besser wenn man DX9 unter der Haube hat anstatt "nur" DX8. :D
Und es werden bestimmt einige Spiele kommen die die DX9-Features teilweise nutzen und auf einer 9500 PRO immernoch einigermaßen brauchbar laufen. Wenn z.B. nur Displacement Mapping genutzt wird kann die Radeon bestimmt noch was reissen.

ow
2003-01-06, 10:45:42
Originally posted by -=DILA=-

Wenn z.B. nur Displacement Mapping genutzt wird kann die Radeon bestimmt noch was reissen.


Ich glaube nicht, dass DM in den nächsten 2 Jahren genutzt werden wird. Der einzige Chip der die (universell) brauchbare DM-Technik unterstützt ist der Matrox Parhelia. R300 kann nur pre-sampled DM, beim GFFX ist noch ungewiss, was (und ob) der überhaupt an DM kann.

betasilie
2003-01-06, 10:55:29
Originally posted by ow Es kann besser werden, aber auch ATi muss seinen Teil dazu beitragen mit entsprechendem Developer-/Treiber-Support.
Ja, da hat ATI einiges aufzuholen, aber trotzdem laufen ja fast alle Games ohne große Probleme.

-=DILA=-
2003-01-06, 10:57:53
Ok, ok, ich geb auf... :bawling:
Trotzdem würde ich die Radeon nehmen.

ow
2003-01-06, 11:00:14
Originally posted by betareverse

Ja, da hat ATI einiges aufzuholen, aber trotzdem laufen ja fast alle Games ohne große Probleme.

Jep. Und ich bin mir sicher, dass ein grosser Teil der restlichen Games durch irgendwelches Tweaken zur fehlerfreien Mitarbeit mit ATi-Karten zu bewegen sind.

btw. irgendjemand eine Idee hierzu bzw. kan das reproduzieren:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=47760

Meine Radeon8500 lässt wohl noch 1-2 Wo auf sich warten, so dass mir derzeit die Hände gebunden sind, da selbst Tests anzustellen.

Rampage 2
2003-01-06, 12:10:34
Originally posted by ow


Jep. Und ich bin mir sicher, dass ein grosser Teil der restlichen Games durch irgendwelches Tweaken zur fehlerfreien Mitarbeit mit ATi-Karten zu bewegen sind.

btw. irgendjemand eine Idee hierzu bzw. kan das reproduzieren:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=47760

Meine Radeon8500 lässt wohl noch 1-2 Wo auf sich warten, so dass mir derzeit die Hände gebunden sind, da selbst Tests anzustellen.

Du kaufst dir 'ne 8500:O

Was willst du denn damit anfangen?? - bei 4xAA ist das Teil für jede
erdenkliche Anwendung zu lahm.

Eusti
2003-01-06, 12:29:18
Originally posted by Mega-Zord
Radeon 9500pro oder Ti4400 In so einenm Fall ist auf jeden Fall die Radeon vorzuziehn. Die ist billiger und gleichzeitig schneller. Die einzigste GF4 mit guter Preis-/Leistung ist die 4200. Die bekommst du für € 140, mit den entsprechenden Vorteilen einer NV-Karte aber ebend einer deutlich geringeren Leistung einer Radeon.

Ich würde folgenden groben Tip bezüglich der Preis-/Leistung abgeben (Leistung immer unter Berücksichtigung von AA/AF):

Ti4200: € 140,- / 100% Leistung
Ti4400: € 215,- / 120% Leistung
9500Pro: € 210,- / 160% Leistung

Meine persönliche Wahl würde da auf die 64MB Ti4200 fallen. Aber wenn du schon in die Leistungsklasse der über € 200,- Karten willst (denk an den Preisverfall dort!), dann auf jeden Fall die Radeon 9500Pro. NVidia-Karten sind dort leistungsmäßig so schlecht, das man lieber die Treiberprobleme in Kauf nehmen kann.

edgar
2003-01-06, 12:41:57
Originally posted by Endorphine


Ja, bei AA/AF, welches du nur jetzt nutzen kannst, da die Karte bei jetzigen Spielen einen Leistungsüberschuss hat. In einem halben Jahr wird sie dann wieder wie gehabt ohne die Qualitätsfeatures betrieben und dann sind GF4Ti mit der geringeren CPU-Last und teilweise höheren Geschwindigkeit überlegen.


Was soll denn der Quatsch?! Hast eigentlich schon oft genug bewiesen, dass du nicht so dumm bist, wie du jetzt tust.

In einem halben Jahr nützen einem die paar Prozent geringere CPU-Last wenig. Auch schön zu beobachten bei UT2003. Da rennt die Graka schon gut am Limit.

Und die Treiber-Leier kann man inzwischen getrost stecken lassen. Bei neueren Games, die nach den 40'er Detos verlangen hast Du genau soviele/-wenige Probleme wie mit den Catalyst-Treibern von ATI, eher mehr. Sprich, der hier so viel zitierte Treiber-Vorteil von Nvidia ist gerade dabei, sich in Luft aufzulösen.

Ich mache diese Erfahrungen jeden Tag, ich habe hier 2 Rechner stehen, einen mit einer ATI9700 und einen mit einer Geforce4. Die GF4 ist von MSI und hat auch eine gute Signalqualität, nicht so gut wie die ATi, aber es ist kein Argument (zumindest am VisionMaster 450Pro).

Aber sobald es um Multimedia-Kram wie Multi-Schirmbetrieb oder den TVin/out der Geforce geht machst du dich total verrückt. Die Sachen sind nur dabei, damit sie mit auf der Feature-Liste stehen. Da funzt die ATi einfach problemloser.

Mein Fazit: GF4Ti4400/4600 nur noch für überzeugte Fanboys, die Angst davor haben, über den Tellerrand zu schauen. Lieber die ATI9500pro oder auf günstige GfFX warten.

Mega-Zord
2003-01-06, 13:02:25
So weit so gut thx Leute, aber hier noch ein Einwurf meinerseits:

Zur Zeit habe ich einen TBird 1333 mit 512MB SDRAM, eventuell hol ich mir im Sommer neues Board, Speicher und CPU.

Meine Frage, welche der beiden Karten ist CPU unabhängiger?

ow
2003-01-06, 13:07:52
Originally posted by Mega-Zord

Meine Frage, welche der beiden Karten ist CPU unabhängiger?


Die Radeons brauchen immer etwas mehr CPU-Leistung als NVidia Karten. Bei CPU-Limitierung sind die NVs also etwas schneller, viel macht das aber nicht aus (max. ~10%).

StefanV
2003-01-06, 13:15:23
Originally posted by ow
b) Die NV Treiber sind besser als die ATi Treiber. wenn du also keine Lust auf ewiges Treiberinstallieren hast, bist du mit NV besser bedient.

Ach, wo denn ??

Dungeon Siege mit MSAA -> geht nicht
NWN ist etwas instabil, Midtown Madness geht immer noch nicht.

Gibt auch noch ein paar andere probleme mit GF4 Karten.

BTW: Warum bringt NV eigentlich immer neue Treiber, wenn die aktuellen deiner Meinung nach so gut sind ??

ow
2003-01-06, 13:17:35
Originally posted by Stefan Payne



BTW: Warum bringt NV eigentlich immer neue Treiber, wenn die aktuellen deiner Meinung nach so gut sind ??

Tut NV das? Und schonmal was von der Unterstützung neuer Chips gehört? Oder willst die GFFX mit nem 3er Deto zum Laufen bringen?

StefanV
2003-01-06, 13:22:21
Originally posted by Unregistered
von dem ati umbauten würde ich die finger lassen... es ist nicht sicher ob die chips wirklich 100 prozent funktionieren
LOL, was is denn das fürn SChwachsinn??

So einen Müll hab ich noch nie gehört...

BTW: hattest du schonmal 'ne ATI Karte oder hast du mal 'ne aktuelle gesehen ??

StefanV
2003-01-06, 13:24:07
Originally posted by ow
Tut NV das? Und schonmal was von der Unterstützung neuer Chips gehört? Oder willst die GFFX mit nem 3er Deto zum Laufen bringen?

1. ja, das tun sie...
Sie geben die Treiber ja auch an Hersteller weiter, die sie dann releasen z.B.

2. ach, und dafür braucht man so viele Treiber??
Nur um die Unterstützung von neuen Produkten hinzuzufügen ??

[edit]

Achja, wie erklärst du dir denn die Probleme mit Dungeon Siege??
Mit MSAA läuft da nicht viel!

Salvee
2003-01-06, 13:35:33
Originally posted by Stefan Payne

LOL, was is denn das fürn SChwachsinn??

So einen Müll hab ich noch nie gehört...

BTW: hattest du schonmal 'ne ATI Karte oder hast du mal 'ne aktuelle gesehen ??

Gemach Stefan, er meint den Umbau/Umlöten 9500->9700 ;)

StefanV
2003-01-06, 13:37:36
Originally posted by Salvee
Gemach Stefan, er meint den Umbau/Umlöten 9500->9700 ;)

achso, dann hätte er es aber auch gleich sagen sollen, ändert aber nix an meiner Meinung...

War wohl nur jemand, der mal flamen wollte...

seahawk
2003-01-06, 13:41:18
Originally posted by Stefan Payne


[edit]

Achja, wie erklärst du dir denn die Probleme mit Dungeon Siege??
Mit MSAA läuft da nicht viel!

Klar und der Standarduser geht natürlich sofort hin und probiert genau das aus.

Du scheinst nicht zu verstehen, dass solche Probleme vorkommen, aber nicht mit den Problemen von ATI (BF 1942) zu vergleichen sind.

Der Standarduser kommt mit einer NV Karte momentan einfach baeeser zu recht, der weis ja gar nicht was MSAA ist und schon gar nicht wie er das aktiviert.

ATI ist ja schon wesentlich besser geworden, aber für den Standarduser ist NV immer noch die bessere Lösung.

ow
2003-01-06, 13:42:21
Originally posted by Stefan Payne


achso, dann hätte er es aber auch gleich sagen sollen, ändert aber nix an meiner Meinung...

War wohl nur jemand, der mal flamen wollte...

Erst lesen, dann denken und DANN schreiben, SP.

ow
2003-01-06, 13:43:01
Originally posted by seahawk

ATI ist ja schon wesentlich besser geworden, aber für den Standarduser ist NV immer noch die bessere Lösung.

Exakt.

nagus
2003-01-06, 13:50:16
Originally posted by ow

b) Die NV Treiber sind besser als die ATi Treiber. wenn du also keine Lust auf ewiges Treiberinstallieren hast, bist du mit NV besser bedient.


mit den nvidia treibern gibts überhaupt keine probleme, gelle?

:lol:


btw, ich finde die Nvidia treiber-politik lächerlich. es tauchen in abständen von wenigen tagen ständig irgendwelche dubiosen treiber auf und für jedes spiel sollten man am besten 15 verschiedene partitionen haben und 15 verschiedene detonator-treiber installieren damit jedes spiel optimal läuft...

nagus
2003-01-06, 13:53:23
Originally posted by seahawk


Klar und der Standarduser geht natürlich sofort hin und probiert genau das aus.

Du scheinst nicht zu verstehen, dass solche Probleme vorkommen, aber nicht mit den Problemen von ATI (BF 1942) zu vergleichen sind.

Der Standarduser kommt mit einer NV Karte momentan einfach baeeser zu recht, der weis ja gar nicht was MSAA ist und schon gar nicht wie er das aktiviert.

ATI ist ja schon wesentlich besser geworden, aber für den Standarduser ist NV immer noch die bessere Lösung.

standarduser? ein guter freund von mir ist vorgestern von einer GF2PRO auf eine Radeon 9700 umgestiegen und ist absolut begeistert. .... der typ versteht von grafikkarten ungefähr soviel wie ich vom kühemelken.

seahawk
2003-01-06, 13:53:58
So ein Quatsch. Ich hatte bis gestern den 30.82 drauf und jedes Spiel und Demo lief auf Anhieb und ohne Probleme. (Splinter Cell, Balckhawk Down, Gothic 2, UT2003, BF1942, HoI, AoM, etc.)

Habe jetzt den 41.09 mal zum Testen drauf gemacht.

Wer natürlich jeden Beta Treiber installiert muß sich nicht wundern.

-> Natürlich ist der von der 9700 pro begeistert. Wäre ja auch komisch wenn nicht. Aber eher weil er jetzt alles ruckelfrei und mit max. Details zocken kann, als weil das 4 x AA von Ati besser ist als das von NV.

Wie begeistert wäre er allerdings am Anfang der 9700 pro gewesen, wenn plötzlich manche Games nicht mehr laufen.

ow
2003-01-06, 13:55:06
Originally posted by nagus



mit den nvidia treibern gibts überhaupt keine probleme, gelle?

:lol:





Genau so ist es. Vergleichen mit den Ati Treibern sind die Probleme bei NV nicht nennenswert.

ow
2003-01-06, 13:56:35
Originally posted by seahawk
So ein Quatsch. Ich hatte bis gestern den 30.82 drauf und jedes Spiel und Demo lief auf Anhieb und ohne Probleme. (Splinter Cell, Balckhawk Down, Gothic 2, UT2003, BF1942, HoI, AoM, etc.)



Eben das ist der Unterschied. Bei NV laufen praktisch alle Spiel auf Anhieb, bei ATi eben nicht.

Salvee
2003-01-06, 14:00:34
Bliebe die Frage, ob der Threadstarter zu den Standardusern zu zählen ist. Da er schonmal den Weg ins Forum gefunden hat, können ihm bei
eventuellen Problemchen auch viele User hilfreich zur Seite stehen. ATi-Karten sind halt 'Kommunikations-Booster', nV ist einfach nur langweilig ;)
Deshalb gilt meine Empfehlung ganz klar der 9500Pro, da sie ohne Zweifel die bessere Hardware darstellt.

PS: Der 30.82 bringt bei einem Bekannten auf einem Epox KT400 einen fetten InfiniteLoop Error, die Kiste bootet dann überhaupt nicht mehr.
Könnte dem Standarduser auch graue Haare bereiten...

Edit: RS

seahawk
2003-01-06, 14:02:49
Wenn es sich ein Bißchen auskennt sollte er die ATI nehmen.

(30.82 - ich glaube nicht das der Deto schuld war)

Exxtreme
2003-01-06, 14:03:13
Jaja ow, jetzt kannst du's ATi wieder mal heimzahlen, gelle?
;)

Salvee
2003-01-06, 14:04:58
Originally posted by seahawk
Wenn es sich ein Bißchen auskennt sollte er die ATI nehmen.

(30.82 - ich glaube nicht das der Deto schuld war)

Haben meine nV-Kollegen auch gesagt, da der 30er normalerweise rocksolid läuft. Er muss es aber gewesen sein, weil System ganz neu aufgesetzt und mit dem 41.09 (oder wie der heisst) gabs keine Probs mehr.

seahawk
2003-01-06, 14:06:01
Siehst Du, Ihr habt das ganze System neu aufgesetzt. Wahr entweder die Installation des 30.82 defekt oder ein anderer Treiber hat Probleme gemacht.

Unregistered
2003-01-06, 14:16:56
Originally posted by ow

Genau so ist es. Vergleichen mit den Ati Treibern sind die Probleme bei NV nicht nennenswert.

Stimmt nicht (mehr). Und deine zeitweilige Ignoranz find ich eh bemerkenswert.

@mega-zord

frag lieber ma jemanden der sich ein bisschen auskennt (sich auf eigene (aktuelle) Erfahrungen stuetzen kann) und nicht immer das Geschwätz von anderen nachkaut.

StefanV
2003-01-06, 14:23:36
Originally posted by seahawk
Siehst Du, Ihr habt das ganze System neu aufgesetzt. Wahr entweder die Installation des 30.82 defekt oder ein anderer Treiber hat Probleme gemacht.

Aber klar doch...

Bei NV ist der User Schuld, die Anwendung oder der Download ist hin, bei ATI ist immer die Grafikkarte oder der Treiber schuld.

Irgendwie hab ich das Gefühl, daß hier mit 2erlei maß gemessen wird und hier die NV User, die Probleme mit ihren Karten haben das absichtlich machen...

Ersteinmal gibts auch ein paar Spiele, die mit NV Karten/Treibern probleme haben, es liegt nicht immer nur an den Usern selbst.

NV hat da doch erhebliche Mängel, z.B. daß die Karten/Treiber anscheinend noch voll auf Windows 9x optimiert werden, wohingegen ATI sich anscheinend mehr auf Windows 2k/XP konzentriert...

Salvee
2003-01-06, 14:33:44
Originally posted by seahawk
Siehst Du, Ihr habt das ganze System neu aufgesetzt. Wahr entweder die Installation des 30.82 defekt oder ein anderer Treiber hat Probleme gemacht.

Habe mich wohl missverständlich ausgedrückt.

System neu->Boardtreiber etc. pp. installiert->30.82->Bluescreen

danach

booten im Safemode->30er gekickt->41.09 installiert->zoggn ;)

StefanV
2003-01-06, 14:36:02
Originally posted by ow
Eben das ist der Unterschied. Bei NV laufen praktisch alle Spiel auf Anhieb, bei ATi eben nicht.

NWN mit FSAA freezt sporadisch bzw stürzt ab, Dungeon Siege funzt mit MSAA gleich garnicht.

Also DAS ist bei mir weit von Problemlos entfernt.

PS: der Text wird auch bei MSAA zerstückelt (Imperium Galactica 2), je nach Game...

Also das NV unproblematisch ist, davon kann absolut keine Rede sein.

Zumal man bei einem Treiberwechsel (wenn man die alten nicht vorher entfernt) unter W98 einen Astreinen Freeze on Deskt haben kann, ist mir bisher nur bei NV passiert...

Iceman346
2003-01-06, 14:38:04
Originally posted by ow


Eben das ist der Unterschied. Bei NV laufen praktisch alle Spiel auf Anhieb, bei ATi eben nicht.

ohweh ohweh...

Bitte sei einfach ruhig solange du nur deine alte Radeon 1 hast. Ich habe die 9700Pro seit September letzten Jahres und das einzigste ernsthafte Problem das ich hatte war stuttering (welches seit dem 3er Catalyst auch weg ist und vorher mit dem 3DAnalyzer zu beheben war). Jedes Spiel was ich getestet hab lief sofort ohne Probleme. Lediglich mit dem ersten Treiber gab es ein paar Grafikfehler in Virtua Tennis, DN: Manhattan Project und CS die aber alle behoben sind. Geweigert zu laufen hat sich nur die Gun Metal Demo aus bekannten Gründen :P

DrFreaK666
2003-01-06, 14:43:25
Immerhin werden die Zukünftigen ATI-Treiber auch 16bit-AA unterstützen.
Wieder ein Punkt weniger für NV-User die ATI-treiber schlechtzureden.

Xmas
2003-01-06, 15:00:06
Originally posted by Stefan Payne
Achja, wie erklärst du dir denn die Probleme mit Dungeon Siege??
Mit MSAA läuft da nicht viel!
System, Treiber? Kann (konnte, habs schon lange nicht mehr gespielt) ich nicht nachvollziehen.

Andre
2003-01-06, 15:10:17
Originally posted by Stefan Payne


achso, dann hätte er es aber auch gleich sagen sollen, ändert aber nix an meiner Meinung...

War wohl nur jemand, der mal flamen wollte...

...damit kennste dich aus, nicht wahr?

StefanV
2003-01-06, 15:10:53
Originally posted by Xmas

System, Treiber? Kann (konnte, habs schon lange nicht mehr gespielt) ich nicht nachvollziehen.
Duron 600 auf ASUS A7V, Windows XP mit 41.09 Treiber auf GF4 TI4200

Andre
2003-01-06, 15:11:55
Originally posted by Stefan Payne
Dungeon Siege mit MSAA -> geht nicht
NWN ist etwas instabil

Ach ja?
Und warum habe ich dann NWN 8 Stunden lang mit 2 x FSAA + 2 x Aniso OHNE Absturz gezockt?
Und DS lief bei mir immer problemlos.

Andre
2003-01-06, 15:14:43
Originally posted by Stefan Payne
Also DAS ist bei mir weit von Problemlos entfernt.


Gut, die von dir genannten Probs kenne ich nicht, aber die Schriftverzerrungen bei AOM bei aktiviertem FSAA gehen mir auf den Zeiger (...ist aber auch wohl bei ATI so).

Und ehrlich gesagt ist die Treiberdiskussion oder "Generalabrechnung mit dem Feind" irgendwie langweilig geworden.
Werdet ihr nichtmal müde, immer darüber zu diskutieren, wo es nix zu diskutieren gibt?

Andre
2003-01-06, 15:16:49
Originally posted by nagus
btw, ich finde die Nvidia treiber-politik lächerlich. es tauchen in abständen von wenigen tagen ständig irgendwelche dubiosen treiber auf und für jedes spiel sollten man am besten 15 verschiedene partitionen haben und 15 verschiedene detonator-treiber installieren damit jedes spiel optimal läuft...

Aha.
Seit wann released NV alle paar Tage OFFIZIELLE Treiber?
Setzen, sechs =)

DrFreaK666
2003-01-06, 15:25:18
Originally posted by Andre


Gut, die von dir genannten Probs kenne ich nicht, aber die Schriftverzerrungen bei AOM bei aktiviertem FSAA gehen mir auf den Zeiger (...ist aber auch wohl bei ATI so).

Und ehrlich gesagt ist die Treiberdiskussion oder "Generalabrechnung mit dem Feind" irgendwie langweilig geworden.
Werdet ihr nichtmal müde, immer darüber zu diskutieren, wo es nix zu diskutieren gibt?

Originally posted by Andre
Aha.
Seit wann released NV alle paar Tage OFFIZIELLE Treiber?
Setzen, sechs

Warum machst du dann weiter??
Setzen, sechs :D

Labberlippe
2003-01-06, 15:43:52
Originally posted by seahawk


Klar und der Standarduser geht natürlich sofort hin und probiert genau das aus.

Du scheinst nicht zu verstehen, dass solche Probleme vorkommen, aber nicht mit den Problemen von ATI (BF 1942) zu vergleichen sind.

Der Standarduser kommt mit einer NV Karte momentan einfach baeeser zu recht, der weis ja gar nicht was MSAA ist und schon gar nicht wie er das aktiviert.

ATI ist ja schon wesentlich besser geworden, aber für den Standarduser ist NV immer noch die bessere Lösung.

Echt komischerweise sind es aber gerade die Standartuser die mit ATi Karten Top zufrieden sind.
Also ich weiss noch immer nicht wo das Märchen mit den Treibern herkommt.
Meinereiner hatte immer seit der Radeon die ATi Karten verbaut und kann über Probleme nicht meckern.

Gruss Labberlippe

Andre
2003-01-06, 15:46:33
Originally posted by DrFreaK666




Warum machst du dann weiter??
Setzen, sechs :D

Hehe =)

DrFreaK666
2003-01-06, 15:50:01
Originally posted by Labberlippe


Echt komischerweise sind es aber gerade die Standartuser die mit ATi Karten Top zufrieden sind.
Also ich weiss noch immer nicht wo das Märchen mit den Treibern herkommt.
Meinereiner hatte immer seit der Radeon die ATi Karten verbaut und kann über Probleme nicht meckern.

Gruss Labberlippe

Nur weil du keine Probleme hast, heisst das noch lange nicht, dass es keine Probleme gibt.
Treiber (egal von welchem Hersteller) werden nie perfekt sein.
Ausserdem hängts ja auich noch von den anderen Komponenten ab, ob ein System Fehlerfrei läuft. Und es gibt nunmal Graka-Mobo-kombinationen, die sich nicht vertragen.

aths
2003-01-06, 16:19:17
Originally posted by Labberlippe
Meinereiner hatte immer seit der Radeon die ATi Karten verbaut und kann über Probleme nicht meckern.... während ich mit den 20-ern Detos ziemlich zu kämpfen hatte, und die 40-er wieder neue Probleme bringen (und zwar soundmäßig :bonk:) Das ist eben von System zu System unterschiedlich.

Als ich kurz die Radeon 9000 drin hatte, gabs bei mir keine besonderen Fehler, jedenfalls war von "schlechten" ATI-Treibern nichts zu spüren.

Was man den nV-Treibern m.E. zugute halten könnte, wäre, dass sie wohl die Hardware ein wenig besser ausnutzen als ATI-Treiber das im Moment tun. (Was ATI allerdings durch leistungsfähigere Grakas zum günstigeren Preis mehr als ausgleicht.)

BTW, Standard schreibt man mit d hinten :)

Labberlippe
2003-01-06, 16:19:54
Originally posted by DrFreaK666


Nur weil du keine Probleme hast, heisst das noch lange nicht, dass es keine Probleme gibt.
Treiber (egal von welchem Hersteller) werden nie perfekt sein.
Ausserdem hängts ja auich noch von den anderen Komponenten ab, ob ein System Fehlerfrei läuft. Und es gibt nunmal Graka-Mobo-kombinationen, die sich nicht vertragen.

Jo alles schön und Recht aber hier wird wieder der Eindruck erwäckt das der Rechner explodiert und zocken mit R9700 Deinen unmöglich ist.
Deinen Satz kann ich auch auf ow ummünzen, nur weil er keine Probleme hat heist das noch nicht das es Probleme gibt.

Freilich hängt es immer von meheren Komponenten ab.
Die meisten knallen sich eine CÜU und die teuerste Graka rein, beim RAM und Netztei oder Mobos wird gespart.
Wenn dann ein Hänger ist dann kann ja nur der Graka Treiber Schuld sein, auf die Idee das man den Fehler sucht kommen die meisten ja nicht.

SP hat gesagt das er Probleme mit der NV Karte hat, dargestellt wird er als Flamer nur weil die anderen diese Probs nicht haben.
Wobei SP das sich allerdings selbst zuzuschreiben weil er beim Argumentieren auch mit der Holzhammer Methode vorgeht.

Gruss Labberlippe

StefanV
2003-01-06, 16:38:36
Originally posted by Andre


Gut, die von dir genannten Probs kenne ich nicht, aber die Schriftverzerrungen bei AOM bei aktiviertem FSAA gehen mir auf den Zeiger (...ist aber auch wohl bei ATI so).

Und ehrlich gesagt ist die Treiberdiskussion oder "Generalabrechnung mit dem Feind" irgendwie langweilig geworden.
Werdet ihr nichtmal müde, immer darüber zu diskutieren, wo es nix zu diskutieren gibt?

1. Seit WANN nutzt DU Windows XP ??

2. mir auch, dürfte eigentlich bekannt sein, daß JEDER bessere (2D) Treiber hinbekommt als NV...

3. dürfte auch klar sein, daß es nicht 'den guten Treiber' gibt, alle Treiber sind scheiße, wobei die Treiber der Parhelia allerdings schon einigermaßen sind, dennoch gibts noch genug möglichkeiten für Verbesserungen...

Andre
2003-01-06, 16:41:51
Originally posted by Stefan Payne


1. Seit WANN nutzt DU Windows XP ??

2. mir auch, dürfte eigentlich bekannt sein, daß JEDER bessere (2D) Treiber hinbekommt als NV...

3. dürfte auch klar sein, daß es nicht 'den guten Treiber' gibt, alle Treiber sind scheiße, wobei die Treiber der Parhelia allerdings schon einigermaßen sind, dennoch gibts noch genug möglichkeiten für Verbesserungen...

1. Ich? Gar nicht. Aber du willst mir doch net erzählen, dass dein Problem des MSAA mit XP zu tun hat, oder?

2. Ist mir nicht bekannt.

3. Jaja, du und deine Matrox, ihr seid schon ein schnuckeliges Pärchen.

ice cool69
2003-01-06, 16:44:12
@ ow

es ist echt erbärmlich, jetzt hängst du dich schon an den dünnen treiberfaden weil die nvidia-karten in allen anderen bereichen NACHWEISLICH deutlich unterlegen sind.

sowas ist einfach nur erbärmlich...

ATI rulet nvidia momentan weg, egal obs um leistung, preis/leistung, high, mid oder low end geht (einzige ausnahme gf4ti4200, aber die bestätigt die regel :D)

eine gf4mx kackt ab gegen ne r9000pro (in allen bereichen)
eine gf4ti ist der r300-reihe auch in jeder hinsicht unterlegen.
die r9500pro bietet das beste P/L-verhältnis (gefolgt von gf4ti4200)

und jetzt sinds wieder mal die treiber. gähn. irgendwie erinnert ihr nvidioten mich an die 3dfxler bis kurz vor dem untergang der firma :D

Quasar
2003-01-06, 16:54:00
Irgendwie versteh' ich nicht, was du eigentlich willst, ice cool 69.

Das nV momentan leistungsmäßig nichts gegen ATi in der Vorhand hat, bestreitet doch keiner.
Treiber sind schon seit Jahren ein Argument GEGEN ATi, auch wenn das in letzter Zeit besser geworden ist, obwohl noch kein Gleichstand besteht.
Der zweite Punkt ist die AF-Qualität, die bei ATi teils noch immer zu wünschen übrig lässt.

Aber du scheinst nur noch weiter provozieren zu wollen, gelle?

DrFreaK666
2003-01-06, 16:55:15
Originally posted by ice cool69
irgendwie erinnert ihr nvidioten mich an die 3dfxler bis kurz vor dem untergang der firma :D

Naja, jetzt übertreibst du auch wieder ein bißchen.
Aber über OW würd ich mich nicht mehr aufregen.
Sei doch froh das Richthofen (oder wie der heisst) nix dazu sagt...

StefanV
2003-01-06, 16:55:17
Originally posted by DrFreaK666


Nur weil du keine Probleme hast, heisst das noch lange nicht, dass es keine Probleme gibt.
Treiber (egal von welchem Hersteller) werden nie perfekt sein.
Ausserdem hängts ja auich noch von den anderen Komponenten ab, ob ein System Fehlerfrei läuft. Und es gibt nunmal Graka-Mobo-kombinationen, die sich nicht vertragen.
1. Probleme gibts immer mal, kommt vor.
Was mich bei NV allerdings stört sind dann solche Kommentare wie 'ich hab das aber nicht', 'da muß aber irgendein anderer Treiber dran schuld sein' oder 'du bist zu blöd dazu'.
Nur seltsam, daß das nur bei NV der Fall zu sein scheint.

BTW: ich hatte bisher auch immer mehr Probleme mit NV als mit ATI oder Matrox...

2. Das stimmt, es gibt immer etwas, das man am Treiber ändern kann.
Und sei es nur die Usability des Control Panels.
Wobei ATIs Control Panel ist schon recht gut aufgebaut, sehr logisch und durchdacht, auch sind die Optionen reichahltig.
Dazu noch getrennte Einstellungen für OGL und D3D.
Allerdings sollte ATI mal die Profile für Spiele von Matrox übernehmen.
Alles in allem merkt man, daß ATI sich sehr viel Mühe mit den Treibern gegeben hat.
Das einzige, was nervt ist dieses 'Kiddie Style' der ATI Treiber, auch wenns bei den neuen D3D/OGL Panels geändert wurde...

Das gleiche gilt allerdings auch für Matrox, auch wenn die 3D Optionen nicht so reichhaltig sind, dafür glänzt der Treiber der Parhelia mit den 2D Einstellungen, insbesondere für Multimonitor Betrieb.
Ist zwar teilweise eine ziehmliche klickerei beim Parhelia Treiber, dafür ist er aber auch recht logisch aufgebaut und sehr komfortabel.
Das Design, das leider das .NET Framework erfordert ist sehr gut!!

Bei NV ists einfach nur ein heiden Durcheinander.
Kaum Optionen, ein heiden Durcheinander und für D3D/OGL und FSAA/AF muß man in anderen Panels einstellen, FSAA/AF kann man im gegensatz zu ATI nicht getrennt für OGL/D3D einstellen und im Gegensatz zu MGA gibts auch keine Spieleprofile...
Alles in allem ein sehr schlechtes Panel, auch der TV Out wird nur Stiefmütterlich behandelt, die 3D Optionen sind auch alles andere als Reichhaltig.
Unter Windows XP wird beim booten mit nur einem ANzeigegerät auch der 2. Display Controller dekativiert, den man auch ohne reboot nicht aktivieren kann...
Für einen 'nicht Gamer' gibts keine schlechtere Lösung als von NV...


Fazit:

Für jemanden, der nicht spielt dürfte wohl ATI und Matrox die beste Lösung sein.
Was man nun will kann die Entscheidung beinflussen, will man möglichst komfortable Treiber haben und einen Fernseher 'mal eben' im Betreib anschließen -> ATI.
Legt man hingegen viel Wert auf Multi Monitoring Features -> Matrox.

StefanV
2003-01-06, 16:58:42
Originally posted by Andre
1. Ich? Gar nicht. Aber du willst mir doch net erzählen, dass dein Problem des MSAA mit XP zu tun hat, oder?

2. Ist mir nicht bekannt.

3. Jaja, du und deine Matrox, ihr seid schon ein schnuckeliges Pärchen.

1. eben, die Probleme hatte ich auch nur unter Windows XP.
Es macht den Anschein, daß sich NV immer noch auf das veraltete W9x/ME konzentriert...

2. dann kauf dir doch mal 'ne ATI und schau sie dir mal an, zum Video gucken oder surfen gibts (außer Matrox) nix besseres *eg*...

3. tja, eine Parhelia ist schon was feines *eg*
Solltest dir auch mal eine kaufen, dann weißt du, wie ein richtiges Panel aussehen kann :naughty:

Quasar
2003-01-06, 17:11:32
Originally posted by Stefan Payne
2. dann kauf dir doch mal 'ne ATI und schau sie dir mal an, zum Video gucken oder surfen gibts (außer Matrox) nix besseres *eg*...
Oha, und wieso konnte dann meine gute alte G400 das Overlay meiner TV-Karte nicht ohne fiese Artefakte hreunterskalieren? Oooops.
Ach, und wie kommt's dass ich trotz Adaptive De-Interlacing auf meiner R900pro hübsche Kamm-Artefakte bei DVDs habe, deren Inhalt interlaced aufgezeichnet wurde? (mit WinDVD 4.0)
Der ATi-Player kam leider gar nicht erst mit meiner LotR-Special Edition zurecht.



Originally posted by Stefan Payne
3. tja, eine Parhelia ist schon was feines *eg*
Solltest dir auch mal eine kaufen, dann weißt du, wie ein richtiges Panel aussehen kann :naughty:
Ja, solange sie im Standard-Betrieb nicht einfach abraucht, was?

Ein schönes Feature, was ich mir auch für andere Karten wünschen würde, wäre das duale Overlay. Das vermisse ich in der Tat bei anderen Karten (noch).

Argo Zero
2003-01-06, 17:13:33
Kann es sein das hier viele Argumente für/gegen ATi erfunden werden?
Hab mal lange Nvidia im Rechner gehabt und hab im momment ne ATi drinnen und bisher gabs eigentlich kein Spiel das überhaupt net lief oder fast gar net mit den jeweilig neusten Treibern.
Support ist von beiden Seiten auch genuch da.
Also ich weiß net was manche so für Probs ham .....

ice cool69
2003-01-06, 17:21:13
ok übertrieben hab ich, aber mir kommts manchmal echt hoch wenn ow/quasar (richthofen will ich gar nicht erwähnen mit sowas kann und will ich mich nicht beschäftigen), es sind doch immer die selben, mit dem blöden ati-treiberkäse anfangen weil ihnen nun wirklich gar nichts anderes mehr einfällt um gegen ati zu stänkern und nvidia schönzureden.

mir kann doch keiner erzählen dass diese herren furchtbar neutral sind. soll ich mal zusammenzählen wie oft ow über ati meckert und wie oft über nvidia? um die 1000:1 dürfte das verhältnis sein.

hat ow einmal erwähnt dass es ihm am arsch geht dass nvidia keine konkurrenzfähigen produkte mehr liefern kann? wäre die sache umgekehrt würden wir wohl seitenweise ow-posts lesen wie unfähig und scheiße doch ati ist.

ow hat sich auch noch nie über die schlechtere bildqualität von nvidia beklagt. aber hauptsache das AF von ati (welches immerhin NUTZBAR ist in der praxis im gegensatz zum nvidia-af) filtert nicht jeden winkel mit 16xAF. dass nvidias lösung erst einmal die framerate halbiert scheint ihn nicht sonderlich zu stören.

auch dass die texturen nur maximal 8x gegen atis 16x gefiltert werden können und die spiele in diesem modus absolute diashows sind darüber sieht man ja auch gerne hinweg.

ati hat noch in manchen spielen fehler und die treiber nutzen die hardware vielleicht nicht so gut aus wie die von nvidia, das sind aber probleme die absolut nebensächlich und per software behebbar sind (ich will das spiel sehen das man mit hilfe eines forums und neuen ati treibern oder updates nicht zum laufen bekommt), wärend die karten die nvidia momentan verkauft IMMER die performance vorweisen wie sie es jetzt tun.

ich hab auch überhaupt keine probleme die gf4ti4200 also absoluten P/L-knaller darzustellen und diese karte weiterzuempfehlen (bis 150€), aber hat einer der nvidioten sich schonmal positiv/empfehlend über eine atikarte geäußert?


ich weiß einiges mag übertrieben sein in diesem text nur mich regt dieser scheuklappenblick einiger nvidioten doch extremst auf.
so ich versuch mich jetzt erstmal wieder zu beruhigen...wo sind meine zigaretten...

LovesuckZ
2003-01-06, 17:25:35
Originally posted by ice cool69
ow hat sich auch noch nie über die schlechtere bildqualität von nvidia beklagt. aber hauptsache das AF von ati (welches immerhin NUTZBAR ist in der praxis im gegensatz zum nvidia-af) filtert nicht jeden winkel mit 16xAF. dass nvidias lösung erst einmal die framerate halbiert scheint ihn nicht sonderlich zu stören.


Und wie nutzbar. Wenn die Karte auch mal alles wichtige filtern wuerde, waere sie genauso langsam. Oder wie erklaerst dir, dass ne TI4600 beim Ansio manchmal sogar besser darsteht als ne 9500pro?

ice cool69
2003-01-06, 17:32:48
wann?

LovesuckZ
2003-01-06, 17:48:00
Originally posted by ice cool69
wann?

Hier (http://www.digit-life.com/articles2/radeon/r9500pro.html) . Vorallen SeSam2, RTCW, Q3, Nature und Commanche. Entweder die treiber kommen mit den Spielen nicht klar, oder aber hier wird viel gefiltert.

seahawk
2003-01-06, 17:53:43
Originally posted by Salvee


Habe mich wohl missverständlich ausgedrückt.

System neu->Boardtreiber etc. pp. installiert->30.82->Bluescreen

danach

booten im Safemode->30er gekickt->41.09 installiert->zoggn ;)

Ok dann wars wohl der Deto ...

StefanV
2003-01-06, 17:57:50
Originally posted by Quasar
Ja, solange sie im Standard-Betrieb nicht einfach abraucht, was?

Ein schönes Feature, was ich mir auch für andere Karten wünschen würde, wäre das duale Overlay. Das vermisse ich in der Tat bei anderen Karten (noch).

1. meine Parhelia war übertaktet.

2. anscheinend is außer bei mir noch bei keinem im Forum 'ne Parhelia abgeraucht...

Quasar
2003-01-06, 18:03:54
Originally posted by ice cool69
ok übertrieben hab ich, aber mir kommts manchmal echt hoch wenn ow/quasar (richthofen will ich gar nicht erwähnen mit sowas kann und will ich mich nicht beschäftigen), es sind doch immer die selben, mit dem blöden ati-treiberkäse anfangen weil ihnen nun wirklich gar nichts anderes mehr einfällt um gegen ati zu stänkern und nvidia schönzureden.
Was soll denn bitte heissen, "gegen ATi zu stänkern?"

Ist es so weit mit dir gekommen, dass du berechtigte Kritik nicht vertragen kannst?
Wo bitte rede ich nVidia schön? Hab ich irgendwo gesagt, dass nVidia schneller ist?

Wenn DU keine Probleme mit deinen ATi-Treibern hast, dann freut mich das. Ein Blick auf meinen Rechner und ins ATi-Forum belehrt mich jedoch eines besseren, dass das offensichtlich nicht der Normalzustand ist.

Jaja, jetzt kommt wieder "guck mal ins nV-Forum". Der Unterschied ist aber, dass dort zu 95% individuelle Probleme geschildert werden, während bei ATi und einigen Games noch Arbeit seitens der Treiberabteilung vonnöten ist.

Was sollen diese beständigen persönlichen Angriffe, lieber Ice Cool 69? Habe ich dir etwas getan? Dann sag', was es ist und wir können drüber sprechen.
Oder habe ich dich beleidigt? Dann tut's mir leid und ich bitte um Vergebung.

Wenn es aber nur ein Problem deinerseits ist, einfach nicht akzeptieren oder tolerieren zu können, wenn jemand einfach eine andere Meinung oder andere Präferenzen als du hast, dann empfehle ich dir, mich auf deine Ignore-List zu setzen. Das wird sich sehr positiv auf deinen Herzrhytmus und deinen Nikotinkonsum auswirken.

Quasar
2003-01-06, 18:06:12
Originally posted by Stefan Payne


1. meine Parhelia war übertaktet.

2. anscheinend is außer bei mir noch bei keinem im Forum 'ne Parhelia abgeraucht...

Ach so. Na dann tut's mir leid (für dich). Und ich nehme meine Aussage diesbezgl. zurück.

nggalai
2003-01-06, 18:08:49
Hi Stefan,
Originally posted by Stefan Payne
NWN mit FSAA freezt sporadisch bzw stürzt ab, Dungeon Siege funzt mit MSAA gleich garnicht.

Also DAS ist bei mir weit von Problemlos entfernt.

PS: der Text wird auch bei MSAA zerstückelt (Imperium Galactica 2), je nach Game...NWN ist mir nie abgeschmiert, nie gefreezt. Und ich hab's 2x durchgespielt (30.82er, Win98)

Dungeon Siege lief hier wunderbar mit MSAA (40.72er, WinXP). Scheissspiel, aber keine Probleme mit Anti-Aliasing.

"zerstückelten" Text hab' ich noch nie gesehen. Wovon sprichst Du?

Sind Andre, XMas und ich jetzt Ausnahmefälle? ???

Ich verwende übrigens nur selten Beta-Treiber, und wenn, dann nur weil ich mal wieder rumspielen möchte. Ich geh einfach im 2Monats-Rhythmus auf nvidia.com und lade den aktuellsten Treiber runter. Bis jetzt ist bei mir noch jedes Spiel, ohne Ausnahme, ungepatcht und mitm Treiber, den ich gerade drauf hatte, problemlos gelaufen.

Ich finde diese dauernden ATI vs/ NV Flamewars langsam etwas müssig. Hier werden gerne auf beiden Seiten Einzelfälle zu grundsätzlichen Problemen hochdiskutiert, sei's jetzt Signalqualität, Treiberqualität oder Spiele-"optimierungen". Habt ihr nicht langsam genug davon? ???

ta,
-Sascha.rb

seahawk
2003-01-06, 18:09:02
Ihr habt ja jetzt, heute ist der Unterschied zwischen NV und ATI nicht mehr groß, wenn überhaupt noch existent. Trotzdem kann ich aus Erfahrungen mit meinen Arbeitskollegen sagen, dass die mit einer NV Karte grundsätzlich besser zurechtkommen. Der Zwang den Treiber zu updaten ist halt geringer als bei ATI. Ich meine der 30.82 läuft heute bei vielen Systemen noch problemlos. Ein ATI Treiber aus der gleichen Zeit wird da mehr Probleme machen.

Natürlich gibt es immer Hardwarekombinationen die mit bestimmten Treibern nicht laufen. Das kommt bei NV und ATI vor und ist imo auch normal.

Jeder der sich heute ein Bißchen mit der Materie auskennt ist auf Grund der Hardwaresituation mit einer ATI Karte besser bedient. Für Leute die nicht wissen was AF, AA oder MSAA ist für den ist eine NV Karte imo immer noch die sichere Wahl.

Das mit dem NV Kontrollplanel werde ich nie verstehen, ist Gewöhnung oder Geschmackssache.

-> Allerdings kann ich mir gut vorstellen, dass in wenigen Monaten ATI sowohl von der Treiber- als auch von der Hardwareseite deutlich übertroffen hat. Wenn man die aktuelle Entwicklung sieht ist dies eigentlich zu erwarten, da ATI die inovativere Firma ist.

Quasar
2003-01-06, 18:21:38
Originally posted by nggalai
Dungeon Siege lief hier wunderbar mit MSAA (40.72er, WinXP). Scheissspiel, aber keine Probleme mit Anti-Aliasing.


Dungeon Siege hat MSAA-Probleme mit dem 30.82er (bei den 40ern AFAIK gefixt) in Auflösungen oberhalb von 1024 und AA-Settings von weniger als 4xFSAA (QC und 2x). Da ist ein verwischter, ca 4cm breiter Streifen am rechten Bildschirmrand.

Das tritt aufgrund der Dungeon Siege Limitierung auf 1024 aber nur im Benchmark-Modus auf. AFAIK.

Eusti
2003-01-06, 18:30:15
Originally posted by nagus
btw, ich finde die Nvidia treiber-politik lächerlich. es tauchen in abständen von wenigen tagen ständig irgendwelche dubiosen treiber auf und für jedes spiel sollten man am besten 15 verschiedene partitionen haben und 15 verschiedene detonator-treiber installieren damit jedes spiel optimal läuft... Neue WHQL-Treiber von NVidia tauchen etwa alle 6 Monate auf. Es ist vollkommen ausreichend, sich ausschliesslich mit diesen Treiber zu befassen. Alle 6 Monate einen neuen und ausgereiften Treiber zu installieren, halte ich für absolut ok.

Das alle 2 Tage ein neuer BETA-Treiber kommt, ist nur positiv zu sehen. Die Freaks testen somit für NVidia mit. NVidia kann somit jeweils sehr schnell sehr stabile WHQL-Treiber bringen. Wer einen NICHT WHQL-Treiber installiert, darf sich auch nicht über Probleme beschwehren. Vergleiche bezüglich der Treiberstabilität sollte man ebenfalls immer nur zwischen WHQL-Treibern beider Firmen machen.

NVidia vorzuwerfen, das BETA-Treiber Bildfehler (keine Abstürze!) produzieren ist doch lächerlich. BETA-Treiber sind doch dazu da, um neue Sachen zu testen.

Fazit: Wer sich bei NVidia an die WHQL hält, hat deutlich weniger Probleme als ATI.

StefanV
2003-01-06, 18:34:15
Originally posted by Quasar


Dungeon Siege hat MSAA-Probleme mit dem 30.82er (bei den 40ern AFAIK gefixt) in Auflösungen oberhalb von 1024 und AA-Settings von weniger als 4xFSAA (QC und 2x). Da ist ein verwischter, ca 4cm breiter Streifen am rechten Bildschirmrand.

Das tritt aufgrund der Dungeon Siege Limitierung auf 1024 aber nur im Benchmark-Modus auf. AFAIK.

gibt nur ein paar Probleme...

1. an dem Rechner hängte in 15" TFT
2. ich nutzte den 41.03 Deto...
3. sowohl 2x und Quincunx als auch 4x MSAA funzen nicht, nur 4xS geht...
4. wenn ich überhaupt einen Startbildschirm sehen würde, wäre das schon ein riesiger Schritt...

ice cool69
2003-01-06, 18:38:23
sorry aber sogar im vergleich zur viel teureren gf4ti4600 sieht die r9500pro SEHR GUT aus.

außerdem ist es ja bekannt dass je mehr 90°winkel verwendet werden desto mehr wird 16x gefiltert.
die gf4ti4600 filtert aber dummerweise nur maximal 8x also KANN man das nicht wirklich gut vergleichen findest du nicht?

in älteren spielen (alles unter UT2003) ist die performance sowieso hoch genug für viel 16xAF, in neueren spielen wird nicht mehr so viel 16x gefiltert wegen unebenem boden etc. (zb UT2003). so gesehn eine recht geniale AF-lösung :D

bitte versteht mich nicht falsch, die AF-lösung von ati sehe ich keinesfalls als ideal an, aber trotzdem immernoch meist besser zu gebrauchen als die nvidia-lösung (2x AF ist hier wohl das einzige sinnvolle bei halbwegs aktuellen spielen und das hebelt die radeon9500pro locker aus).

@ quasar

fällt dir nicht auf dass wenn es um ati-karten geht immer wieder von den selben leuten die gleichen alten geschichten aufgewärmt werden? wären atis treiber so mies würden sich wohl kaum dermaßen viele leute positiv über diese äußern.

auch dass ow hier bei seinen äußerungen über die r300 serie nur auf seine erfahrung mit der uralt radeon1 zurückgreifen kann sollte hier den einen oder anderen stutzig machen.

und was die foren betrifft: och bei nvidia sind es nur einzelfälle und bei ati immer ne serie oder wie? na sorry aber mir isses 3mal lieber wenn ich ein prob habe das mehrere leute haben (die chance auf verbesserung und hilfe ist hier extrem groß) als ein einzelfall zu sein (chance auf update und hilfe wohl deutlich geringer). und probleme mit den treibern sind ja wohl beides.

dieses argument finde ich an den haaren herbeigezogen.

wärend der gf4ti-glanzzeit wurde sehr gerne darüber hergezogen dass ati immer noch mit der vergleichsweise lächerlichen r8500-serie alleine stand.
und genau die selben personen hat es nie gestört dass nvidia nicht in der lage sind ein gescheites konkurrenzprodukt zu liefern.

erkennt die leistung von ati an und hört auf in der momentanen situation jemandem eine gf4ti4400 zu empfehlen wenn es ne radeon9500pro sein kann.
die spiele die der eröffner dieses threats zocken möchte laufen ohne probs mit ner r9500pro und zwar deutlich besser als mit einer gf4ti4400 und dazu bekommt er noch ein besseres bild/tvausgang etc.
also hört auf jetzt treiber- und af-käse aufzuwärmen und sagt mal klipp und klar dass die r9500pro die bessere und günstigere karte ist.
sagt doch dass die gf4ti4200 auch ne gute überlegung wert ist, deutlich günstiger als ne gf4ti4400 und fast gleich gut, sowas ist objektiv, das was hier teilweise aufgeführt wird, besonders von ow, ist einfach nur nvidiotismus!!!

Quasar
2003-01-06, 18:41:58
Originally posted by Stefan Payne


gibt nur ein paar Probleme...

1. an dem Rechner hängte in 15" TFT
2. ich nutzte den 41.03 Deto...
3. sowohl 2x und Quincunx als auch 4x MSAA funzen nicht, nur 4xS geht...
4. wenn ich überhaupt einen Startbildschirm sehen würde, wäre das schon ein riesiger Schritt...

Ist der 41.03 ein offizieller Treiber?

zeckensack
2003-01-06, 18:46:05
Originally posted by Quasar


Ist der 41.03 ein offizieller Treiber? AFAIK: nein.

Ist Stefan Payne ein Glücksritter? :D

Eusti
2003-01-06, 18:57:06
Originally posted by Quasar
Ist der 41.03 ein offizieller Treiber? Nein, der letzte offizielle WHQL-Treiber ist der 40.72 -> NVidia-Treiber-Info (http://www.nvidia.de/view.asp?PAGE=windows_driver_downloads).

DrFreaK666
2003-01-06, 18:57:45
Hm,

ich frage mich sowieso warum soviele Leutz in Foren fragen welche Graka sie kaufen sollten.
Gibts es denn nicht genügend Graka-test im Net??

Eusti
2003-01-06, 19:04:46
Originally posted by ice cool69
erkennt die leistung von ati an und hört auf in der momentanen situation jemandem eine gf4ti4400 zu empfehlen wenn es ne radeon9500pro sein kann. die spiele die der eröffner dieses threats zocken möchte laufen ohne probs mit ner r9500pro und zwar deutlich besser als mit einer gf4ti4400 und dazu bekommt er noch ein besseres bild/tvausgang etc. also hört auf jetzt treiber- und af-käse aufzuwärmen und sagt mal klipp und klar dass die r9500pro die bessere und günstigere karte ist. sagt doch dass die gf4ti4200 auch ne gute überlegung wert ist, deutlich günstiger als ne gf4ti4400 und fast gleich gut, sowas ist objektiv, das was hier teilweise aufgeführt wird, besonders von ow, ist einfach nur nvidiotismus!!! Dann muss ich mich wohl nochmal selber quoten:

Originally posted by Eusti
In so einenm Fall ist auf jeden Fall die Radeon vorzuziehn. Die ist billiger und gleichzeitig schneller. Die einzigste GF4 mit guter Preis-/Leistung ist die 4200. Die bekommst du für € 140, mit den entsprechenden Vorteilen einer NV-Karte aber ebend einer deutlich geringeren Leistung einer Radeon.

Ich würde folgenden groben Tip bezüglich der Preis-/Leistung abgeben (Leistung immer unter Berücksichtigung von AA/AF):

Ti4200: € 140,- / 100% Leistung
Ti4400: € 215,- / 120% Leistung
9500Pro: € 210,- / 160% Leistung

Meine persönliche Wahl würde da auf die 64MB Ti4200 fallen. Aber wenn du schon in die Leistungsklasse der über € 200,- Karten willst (denk an den Preisverfall dort!), dann auf jeden Fall die Radeon 9500Pro. NVidia-Karten sind dort leistungsmäßig so schlecht, das man lieber die Treiberprobleme in Kauf nehmen kann.

Quasar
2003-01-06, 19:07:05
Originally posted by ice cool69
außerdem ist es ja bekannt dass je mehr 90°winkel verwendet werden desto mehr wird 16x gefiltert.
die gf4ti4600 filtert aber dummerweise nur maximal 8x also KANN man das nicht wirklich gut vergleichen findest du nicht?

Jein, wenn's danach geht, kannst du das Default-Bild vergleichen und 2xFSAA/2xAF. Dort wird noch zu 99% dieselbe Qualität mit quasi demselben Aufwand geboten.

Originally posted by ice cool69
bitte versteht mich nicht falsch, die AF-lösung von ati sehe ich keinesfalls als ideal an, aber trotzdem immernoch meist besser zu gebrauchen als die nvidia-lösung (2x AF ist hier wohl das einzige sinnvolle bei halbwegs aktuellen spielen und das hebelt die radeon9500pro locker aus).
Mit ein paar kleinen Optimierungen kriegt man auch 4x oder gar 8xAF locker in den spielbaren Bereich. Per Default sind die bei ATi eingebauten Optimierungen spielbarer.

Originally posted by ice cool69
@ quasar
fällt dir nicht auf dass wenn es um ati-karten geht immer wieder von den selben leuten die gleichen alten geschichten aufgewärmt werden? wären atis treiber so mies würden sich wohl kaum dermaßen viele leute positiv über diese äußern.
Auch hier: Jein & Gegenfrage: Fällt es dir auch auf, dass es immer wieder dieselben sind, die alles, was von "nicht_nV" kommt, bedinungslos schönreden?
Die meisten sind es schlicht leid, immer wieder dasselbe zu posten.
ATis Treiber sind mitnichten "mies", aber sie sind eben auch noch nicht so gut (im Sinne von Spielekompatibel) wie die von nVidia. Ob das nun an besseren Proggern bei nV oder an mangelnder Unterstützung durch die Spielehersteller liegt, darüber mag man streiten, Fakt ist jedoch, dass beides nur durch ATi selber korrigierbar ist (Stichwort Dev-Support).

Originally posted by ice cool69
auch dass ow hier bei seinen äußerungen über die r300 serie nur auf seine erfahrung mit der uralt radeon1 zurückgreifen kann sollte hier den einen oder anderen stutzig machen.
ow traue ich zu, dass auch er lesen und somit das Internet nutzen kann (genauer gesagt: ich weiss sogar, dass er lesen kann!).
Und worauf können all diejenigen zurückgreifen, die am Ende GAR keine ATi-Karte besitzen? Richtig, sie beten das nach, was sie in Testberichten lesen (ja, auch solche wie bei Chip oder THG).

Originally posted by ice cool69
und was die foren betrifft: och bei nvidia sind es nur einzelfälle und bei ati immer ne serie oder wie? na sorry aber mir isses 3mal lieber wenn ich ein prob habe das mehrere leute haben (die chance auf verbesserung und hilfe ist hier extrem groß) als ein einzelfall zu sein (chance auf update und hilfe wohl deutlich geringer). und probleme mit den treibern sind ja wohl beides.
Och, fängste schon wieder an, unterschwellig zu provozieren?

Zum Thema:
Einzelfallprobleme sind jedenfalls in den seltensten Fällen der Grafikkarte direkt und ausschließlich zuzurechnen, während bekannte und massiv auftretende Probleme ziemlich sicher der Karte/dem Treiber zuzurechnen sind, egal wie sehr du das an den Haaren herbeigezogen finden magst.

Originally posted by ice cool69
wärend der gf4ti-glanzzeit wurde sehr gerne darüber hergezogen dass ati immer noch mit der vergleichsweise lächerlichen r8500-serie alleine stand.
und genau die selben personen hat es nie gestört dass nvidia nicht in der lage sind ein gescheites konkurrenzprodukt zu liefern.
??
Ich fürchte, ich verstehe nicht so ganz, worauf du hinauswillst. Wenn es die Verspätung der GFFX ist, dann hast du recht. Ich finde es schade, dass sich die Radeon9700pro bisher noch nicht mit einem anderen DX9-Chip messen durfte und ihr die Chance verwehrt wurde, ihre Klasse unter Beweis zu stellen.

Originally posted by ice cool69
erkennt die leistung von ati an und hört auf in der momentanen situation jemandem eine gf4ti4400 zu empfehlen wenn es ne radeon9500pro sein kann.
die spiele die der eröffner dieses threats zocken möchte laufen ohne probs mit ner r9500pro und zwar deutlich besser als mit einer gf4ti4400 und dazu bekommt er noch ein besseres bild/tvausgang etc.
also hört auf jetzt treiber- und af-käse aufzuwärmen und sagt mal klipp und klar dass die r9500pro die bessere und günstigere karte ist.
FYI, ich habe bereits sehr öffentlich bekannt, wie überlegen ATi's R9700pro allem ist, was nVidia zur Zeit zu bieten hat.

Für alle anderen sei hier nocheinmal deutlich gesagt, dass die Leistung, sowohl mit FSAA oder AF oder beidem oder ohne jegliche BQ-verbessernde Maßnahme, der Radeon9700pro wirklich hervorragend ist. Dort, wo beide Kontrahenten in den Default-Einstellungen noch möglicherweise eng beieinanderliegen, kann sich die Radeon spätestens mit gesteigerter Bildqualität, des öfteren auch einfach nur bei Anhebung der Auflösung, mehr als nur deutlich absetzen.
Was günstiger und besser ist, liegt immer im Auge des Betrachters. (249EUR < 189EUR, mehr als 100DM)
Einerseits forderst du, "treiber- und af-käse" nicht länger aufzuwärmen, im gleichen Atemzug jedoch wärmst du deinerseits alte Vorurteile in Bezug auf Bildqualität/TV-out auf.
Sehr konsequent.

Originally posted by ice cool69
sagt doch dass die gf4ti4200 auch ne gute überlegung wert ist, deutlich günstiger als ne gf4ti4400 und fast gleich gut, sowas ist objektiv, das was hier teilweise aufgeführt wird, besonders von ow, ist einfach nur nvidiotismus!!!
Deine Postings würden in meinen Augen erheblich an Diskussionswert gewinnen, wenn du deine Position nicht beständig durch den Versuch, Gegenargumente als "nvidiotisch" darzustellen, selbst eines großteils ihres Anspruches berauben würdest.

LovesuckZ
2003-01-06, 19:08:50
Originally posted by ice cool69
sorry aber sogar im vergleich zur viel teureren gf4ti4600 sieht die r9500pro SEHR GUT aus.

Stimmt. 239€ zu 270€ sind ja viel...


außerdem ist es ja bekannt dass je mehr 90°winkel verwendet werden desto mehr wird 16x gefiltert.
die gf4ti4600 filtert aber dummerweise nur maximal 8x also KANN man das nicht wirklich gut vergleichen findest du nicht?

Warum sollte man das nicht vergleichen? Das verstehe ich nicht...Also doch, wenn die r300 viel filtern muss, dann ist das Verfahren von ATI nicht mehr so supi.

in neueren spielen wird nicht mehr so viel 16x gefiltert wegen unebenem boden etc. (zb UT2003). so gesehn eine recht geniale AF-lösung :D

Was ist dadran besser, wenn ich 16X einstelle und doch nur 4/8 Fach bekomme? Eher nen betrug am kaeufer...

Oli_Immerschoen
2003-01-06, 19:33:11
Ich schreib jetzt auch mal meine Meinung...

Stefan Paynes Erfahrungen daß die NVidia Treiber mehr Streß machen als die von ATI decken sich mit meinen in keiner Weise. Sowohl meine Gainward GF 2TI500 als auch meine MSI GF 4 TI4200 haben in allen Anwendungen und Spielen absolut einwandfrei funktioniert; ich kann mich nicht erinnern irgendwann einmal ein Spiel gespielt zu habe welches nicht ordnungsgemäß lief. Lediglich die Detos der 40er Reihe haben dazu geführt daß ein Virenscan = Absturz bedeutete. Hat aber der Hersteller des Virenscanners gefixt, das Problem.

Nun habe ich mir die 9700er gekauft und habe hier 2 Tage (und Nächte) gesessen bis das alles hingehauen hat; aber das ERGEBNIS ist absolut überzeugend; alles games laufen mit AA/AF erstklassig, selbst mein Opa-Lieblingsspiel Counterstrike hat optisch zulegen können...meine TI4200 kam auf Servern mit vielen Spielern da schon mal ins Schwitzen, flog noch mal eine Rauchgranate ging die Slideshow los. Dazu muß ich noch sagen daß ich auf AA und AF inzwischen großen Wert lege, grade AF ist in Shootern eine wahre Wohltat.

Zusammengefasst: die NVidia-Treiber sind nach meinen Erfahrungen von hause aus ein ganzes Stück kompatibler...ATI hat hier noch Nachholbedarf. Wer aber bereit ist sich ein bischen in die Materie einzufuchsen ist IMHO mit der R9500 Pro besser beraten; und man muß dazu kein Informatik-Freak sein, ich mache das ganze auch mit "learning by doing", alle was man braucht kann man hier lesen und downloaden.

Spätestens wenn man auch mal DVD´s auf seinem PC anschauen möchte hat sich die Sache mit der GeForce erledigt...was NVidia hier anbietet ist schlicht und ergreifend mangelhaft, wenn man einen halbwegs ordentlichen Monitor erkennt man die Unterschiede sofort und die sind gravierend!

Willste einfach Karte reinstecken und spielen? Dann nimm die TI4400...willste Top-Ergebnisse in Spielen und DVD und bist bereit da etwas Mühe zu investieren kann die Antwort nur 9500Pro heißen; sie ist IMHO einfach das bessere Gesamtpaket.

MfG Olli

Quasar
2003-01-06, 19:58:52
Originally posted by zeckensack
AFAIK: nein.

Ist Stefan Payne ein Glücksritter? :D
AFAIK: ja.

Ist er dann in der Position, Verallgemeinerungen anzustellen? :D

edgar
2003-01-06, 20:17:57
Originally posted by Oli_Immerschoen
Ich schreib jetzt auch mal meine Meinung...

Stefan Paynes Erfahrungen daß die NVidia Treiber mehr Streß machen als die von ATI decken sich mit meinen in keiner Weise. Sowohl meine Gainward GF 2TI500 als auch meine MSI GF 4 TI4200 haben in allen Anwendungen und Spielen absolut einwandfrei funktioniert; ich kann mich nicht erinnern irgendwann einmal ein Spiel gespielt zu habe welches nicht ordnungsgemäß lief. Lediglich die Detos der 40er Reihe haben dazu geführt daß ein Virenscan = Absturz bedeutete. Hat aber der Hersteller des Virenscanners gefixt, das Problem.

Nun habe ich mir die 9700er gekauft und habe hier 2 Tage (und Nächte) gesessen bis das alles hingehauen hat; aber das ERGEBNIS ist absolut überzeugend; alles games laufen mit AA/AF erstklassig, selbst mein Opa-Lieblingsspiel Counterstrike hat optisch zulegen können...meine TI4200 kam auf Servern mit vielen Spielern da schon mal ins Schwitzen, flog noch mal eine Rauchgranate ging die Slideshow los. Dazu muß ich noch sagen daß ich auf AA und AF inzwischen großen Wert lege, grade AF ist in Shootern eine wahre Wohltat.

Zusammengefasst: die NVidia-Treiber sind nach meinen Erfahrungen von hause aus ein ganzes Stück kompatibler...ATI hat hier noch Nachholbedarf. Wer aber bereit ist sich ein bischen in die Materie einzufuchsen ist IMHO mit der R9500 Pro besser beraten; und man muß dazu kein Informatik-Freak sein, ich mache das ganze auch mit "learning by doing", alle was man braucht kann man hier lesen und downloaden.

Spätestens wenn man auch mal DVD´s auf seinem PC anschauen möchte hat sich die Sache mit der GeForce erledigt...was NVidia hier anbietet ist schlicht und ergreifend mangelhaft, wenn man einen halbwegs ordentlichen Monitor erkennt man die Unterschiede sofort und die sind gravierend!

Willste einfach Karte reinstecken und spielen? Dann nimm die TI440...willste Top-Ergebnisse in Spielen und DVD und bist bereit da etwas Mühe zu investieren kann die Antwort nur 9500Pro heißen; sie ist IMHO einfach das bessere Gesamtpaket.

MfG Olli

Meine Worte...

Ich war auch positiv überrascht.

zeckensack
2003-01-06, 20:19:59
Originally posted by Quasar

AFAIK: ja.

Ist er dann in der Position, Verallgemeinerungen anzustellen? :D IMO: nö

War das eine rhetorische Frage? :naughty:

[dzp]Viper
2003-01-06, 20:27:00
Originally posted by Oli_Immerschoen
Ich schreib jetzt auch mal meine Meinung...

Stefan Paynes Erfahrungen daß die NVidia Treiber mehr Streß machen als die von ATI decken sich mit meinen in keiner Weise. Sowohl meine Gainward GF 2TI500 als auch meine MSI GF 4 TI4200 haben in allen Anwendungen und Spielen absolut einwandfrei funktioniert; ich kann mich nicht erinnern irgendwann einmal ein Spiel gespielt zu habe welches nicht ordnungsgemäß lief. Lediglich die Detos der 40er Reihe haben dazu geführt daß ein Virenscan = Absturz bedeutete. Hat aber der Hersteller des Virenscanners gefixt, das Problem.

Nun habe ich mir die 9700er gekauft und habe hier 2 Tage (und Nächte) gesessen bis das alles hingehauen hat; aber das ERGEBNIS ist absolut überzeugend; alles games laufen mit AA/AF erstklassig, selbst mein Opa-Lieblingsspiel Counterstrike hat optisch zulegen können...meine TI4200 kam auf Servern mit vielen Spielern da schon mal ins Schwitzen, flog noch mal eine Rauchgranate ging die Slideshow los. Dazu muß ich noch sagen daß ich auf AA und AF inzwischen großen Wert lege, grade AF ist in Shootern eine wahre Wohltat.

Zusammengefasst: die NVidia-Treiber sind nach meinen Erfahrungen von hause aus ein ganzes Stück kompatibler...ATI hat hier noch Nachholbedarf. Wer aber bereit ist sich ein bischen in die Materie einzufuchsen ist IMHO mit der R9500 Pro besser beraten; und man muß dazu kein Informatik-Freak sein, ich mache das ganze auch mit "learning by doing", alle was man braucht kann man hier lesen und downloaden.

Spätestens wenn man auch mal DVD´s auf seinem PC anschauen möchte hat sich die Sache mit der GeForce erledigt...was NVidia hier anbietet ist schlicht und ergreifend mangelhaft, wenn man einen halbwegs ordentlichen Monitor erkennt man die Unterschiede sofort und die sind gravierend!

Willste einfach Karte reinstecken und spielen? Dann nimm die TI440...willste Top-Ergebnisse in Spielen und DVD und bist bereit da etwas Mühe zu investieren kann die Antwort nur 9500Pro heißen; sie ist IMHO einfach das bessere Gesamtpaket.

MfG Olli

der erste ordentlich post hier in diesem ganzen threat ... ich habe mir wirklich die mühe gemacht und ALLES gelesen ...

Es gibt wirklich ein paar leute die sollten sich mal ins bett legen und ne runte länger schlafen ...

Piffan
2003-01-06, 20:31:49
Originally posted by Mega-Zord
Ich wollte mir demnächst eine neue Graka kaufen, meine alte ASUS V7700Deluxe steht übrigens zum Verkauf frei, aber ich kann mich nicht 100% festlegen, da unabhängige BMarks von der 9500pro noch nicht existieren, halt nur umgelötete 9700er.

Bei NV kann man sich ja voll auf die Treiber verlassen, aber wie issas bei ATI? Und ich hab von Leuten Gehört, das ATI nur Ärger bezüglich der Kompatibilität zu spielen macht, allerdings kann sie DX9, was meines Wissens nach von Doom 3 verwendet wird.

Hier die Games, die ich zoggen will:

Quake 3
UT 2003
Battlefield
Doom 3
GTA 3



Thx im voraus für eure Hilfe

Wer heute noch ne Ti4400 oder gar ne 4600 kauft, gehört erschlagen! Sorry, aber wenn dann bitte ne 4200 mit etwas OC- Potential. Alles andere ist verschenktes Geld!

Wenn die Power im Vordergrund steht, ist die G4 grundsätzlich der R9500Pro unterlegen.....

Was die Treiber betrifft: Ich bin mißtrauisch bei ATI, bei NV bin ich noch nie reingefallen...

Mal was anderes: Bist Du auch ein Outcast Fan? Aber warum nennst Du dich ausgerechnet Mega- Zord??? Pfui Teufel....;)

Quasar
2003-01-06, 20:39:05
Originally posted by zeckensack
IMO: nö

War das eine rhetorische Frage? :naughty:

ACK.

Eigentlich schon. *eg*

Oli_Immerschoen
2003-01-06, 20:51:27
Originally posted by Piffan
Wer heute noch ne Ti4400 oder gar ne 4600 kauft, gehört erschlagen! Sorry, aber wenn dann bitte ne 4200 mit etwas OC- Potential. Alles andere ist verschenktes Geld!


Aha...als die 4200er rauskam kostete sie IMHO so gute € 200.-...die 4600 so ca. € 450.-...also eine Differenz von ca. € 250.-

Heute kostet eine brauchbare TI 4200 ca. € 150.- ...eine TI 4600 so ca. € 280.-...Differenz von ca. € 130.-

Die Preisdifferenz hat sich also UNGEFÄHR halbiert, der Leistungsunterschied ist gleich geblieben; warum es HEUTE dann unklug sein soll sich eine 4600er statt einer 4200 zu kaufen ist mir absolut schleierhaft...die Logik mußt Du mir mal erklären Piffan.

MfG Olli

StefanV
2003-01-06, 21:11:04
Originally posted by edgar


Meine Worte...

Ich war auch positiv überrascht.

Ich nicht...

Ich war 'mal wieder' negativ überrascht...

Piffan
2003-01-06, 21:14:53
Originally posted by Oli_Immerschoen


Aha...als die 4200er rauskam kostete sie IMHO so gute € 200.-...die 4600 so ca. € 450.-...also eine Differenz von ca. € 250.-

Heute kostet eine brauchbare TI 4200 ca. € 150.- ...eine TI 4600 so ca. € 280.-...Differenz von ca. € 130.-

Die Preisdifferenz hat sich also UNGEFÄHR halbiert, der Leistungsunterschied ist gleich geblieben; warum es HEUTE dann unklug sein soll sich eine 4600er statt einer 4200 zu kaufen ist mir absolut schleierhaft...die Logik mußt Du mir mal erklären Piffan.

MfG Olli

Die Preisstaffelung bei Highend ist doch exponentiell, dh. bei den Highendprodukten zahlt man stets mehrfaches dessen, was man für kaum langsamere Produkte löhnt. Ist bei Grakas und vor allem Prozis so üblich.... Die schnellsten Produkte haben das schlechteste Preisleistungsverhältnis. Dies ist der "Exklusiv- Zuschlag", man hebt sich mit dem Produkt ja vom Popel ab......

Nun ist dieser "Zuschlag" überhaupt nicht mehr angemessen, die 4600 ist nicht so wesentlich schneller als eine gut getaktete 4200, dass man dafür den doppelten Preis auf den Tisch legen sollte....Der Flair des Highends ist auch dahin, nun ist die G 4600 auf den dritten Platz abgerutscht......

Darum meine provokante Aussage oben....


edit: Der Trille von Gamestar hat mal in einem Editorial die Spielchen von Ati mit der R300 blosgestellt: Erst die sündhaft teure R9700, dann die nur unwesentlich langsamere R9500Pro. Nur um sich nicht gleich die Preise zu verderben. Die frühen Einsteiger werden meist deftig abgekocht....

aths
2003-01-06, 22:31:44
Originally posted by Quasar
Jein, wenn's danach geht, kannst du das Default-Bild vergleichen und 2xFSAA/2xAF. Dort wird noch zu 99% dieselbe Qualität mit quasi demselben Aufwand geboten. Aus "GeForce-Sicht" stimme ich dir zu, da 2x/2x hier ein durchaus übliches Setting ist. Für Leute die sich über die Radeon informieren möchten aber imo ein nicht so aussagekräftiger Bench, da er wahrscheinlich mit 16x AF spielen wird.

Man könnte vielleicht noch 2x/8x "optimiert" und 2x/16x gegeneinander benchen. Die IQ kann sich durchaus unterscheiden, so dass wieder Screenshots beigelegt werden müssen, aber imo ein Setting was beiden Seiten halbwegs gerecht wird und wo sich die IQ letztlich nicht drastisch unterscheiden sollte.

aths
2003-01-06, 22:34:30
Originally posted by Piffan
Nun ist dieser "Zuschlag" überhaupt nicht mehr angemessen, die 4600 ist nicht so wesentlich schneller als eine gut getaktete 4200, dass man dafür den doppelten Preis auf den Tisch legen sollte....Der Flair des Highends ist auch dahin, nun ist die G 4600 auf den dritten Platz abgerutscht......Immerhin ist es die momentan schnellste GeForce, und für manche ist Graka = GeForce.

Originally posted by Piffan
edit: Der Trille von Gamestar hat mal in einem Editorial die Spielchen von Ati mit der R300 blosgestellt: Erst die sündhaft teure R9700, dann die nur unwesentlich langsamere R9500Pro. Nur um sich nicht gleich die Preise zu verderben. Die frühen Einsteiger werden meist deftig abgekocht.... So wie ein gewisser aths mit seiner Ti 4600.

Mega-Zord
2003-01-06, 22:40:57
Hmmm, da hab ich ja was ausgelöst. Bin überrascht wieviele Leutz hier unterwegs sind bei www.iq-hardware.de kann man Tage lang auf Antworten warten, auch wenn hier vieles drin steht was mich nicht so ganz interessiert hat (*spamm*), das Forum hier ist okay.

1.

Werde wohl noch'n paar Tests im Net abwarten

2.

Warte wohl auch bis einer aus eigenen Erfahrungen über der Pro sprechen kann.

3.

Ein "Standartuser" bin ich nicht, aber eine Graka umlöten um zu takten? Ich finde Grakas zu takten ist eh fürn Arsch, ich hab meine GTS auf 260/366 getaktet (200/333 Standart für "Standartuser" ^_^) gebracht hats mir im 3DMark 2001 SE 4000pts anstatt 3400pts, aber in Games hab ich nix gemerkt, vielleicht ein bissle bei BField. Eine Karte würde ich für 3DMarks net zerlöten. Außerdem ist das mit 9500 auf 9700 eh schwachsinn, weil die 9700 und 9700pro 256Bit Speicherbus ham und die 9500 und 9500pro nur 128Bit. Mit dem umlöten kann man bei einer 9500 nur die ungenutzten Renderpipelines inner GPU freischalten, was bei der 9500pro schon von Haus aus der Fall ist. Da ATI aber bei der 9500, nach Außsage von ATI minderwertige Chips, wo beispielsweise ein paar Renderpipelines net funzen, werden nur 4 genutzt anstatt 8. Man kann also pech haben und einen Chip erwischen, der umgelötet net mehr funzt, weil eine der 4 ungenutzten Pipelines wirklich gefickt ist, dann hat man 180€ zum Fenster rausgeworfen ^_^

Mega-Zord
2003-01-06, 22:43:17
VERDAMMT!!!

Rechtschreib- und Gramatikfehler waren gewollt und dienen eurer Belustigung.

aths
2003-01-06, 22:43:32
Originally posted by Mega-Zord
Ein "Standartuser" bin ich nicht, aber eine Graka umlöten um zu takten? Ich finde Grakas zu takten ist eh fürn Arsch, ich hab meine GTS auf 260/366 getaktet (200/333 Standart für "Standartuser" ^_^)Das grassiert ja richtig...

Standard schreibt sich mit d :)

Piffan
2003-01-06, 22:58:13
Originally posted by aths
Das grassiert ja richtig...

Standard schreibt sich mit d :)

Jau. Schlimm, wie viele das nicht wissen :D

Edit: aths hat mir das endlich beigebracht. Vorher hatte ich das standartmäßig falsch geschrieben! :D

StefanV
2003-01-07, 01:25:37
Originally posted by Quasar


Ist der 41.03 ein offizieller Treiber?

Keine Ahnung aber der 41.04 ist es!

Duran
2003-01-07, 08:24:59
Originally posted by Stefan Payne


NWN mit FSAA freezt sporadisch bzw stürzt ab, Dungeon Siege funzt mit MSAA gleich garnicht.

Also DAS ist bei mir weit von Problemlos entfernt.

PS: der Text wird auch bei MSAA zerstückelt (Imperium Galactica 2), je nach Game...

Also das NV unproblematisch ist, davon kann absolut keine Rede sein.

Zumal man bei einem Treiberwechsel (wenn man die alten nicht vorher entfernt) unter W98 einen Astreinen Freeze on Deskt haben kann, ist mir bisher nur bei NV passiert...

Das NWN Probleme mit FSAA hat ist nicht so (jedenfalls bei mir nicht)
nur das die Leistung extrem runterfällt wenn man nahe an die Charaktere ranzoomt

seahawk
2003-01-07, 08:31:26
Originally posted by Stefan Payne


Keine Ahnung aber der 41.04 ist es!

Ne, der 41.09

StefanV2
2003-01-07, 11:16:33
Originally posted by seahawk
Ne, der 41.09

Doch!!

Schau mal bei Gainward!!

Unregistered
2003-01-07, 11:31:11
"
edit: Der Trille von Gamestar hat mal in einem Editorial die Spielchen von Ati mit der R300 blosgestellt: Erst die sündhaft teure R9700, dann die nur unwesentlich langsamere R9500Pro. Nur um sich nicht gleich die Preise zu verderben. Die frühen Einsteiger werden meist deftig abgekocht....
"

In Anbetracht der Tatsache, das ATI an den Radeon9500pro Teilen so gut wie nix verdienen wird und wahrscheinlich in wenigen Wochen eher draufzahlen wird, sehe ich nicht, dass Kunden mit der 9700 abgekocht werden.
Solange Firma XY minus macht sind die Preise zu niedrig.
Irgendwo nicht einzusehen das super teure Hardware für Lau vergeben werden soll.

Piffan
2003-01-07, 12:28:16
Originally posted by Unregistered
"
edit: Der Trille von Gamestar hat mal in einem Editorial die Spielchen von Ati mit der R300 blosgestellt: Erst die sündhaft teure R9700, dann die nur unwesentlich langsamere R9500Pro. Nur um sich nicht gleich die Preise zu verderben. Die frühen Einsteiger werden meist deftig abgekocht....
"

In Anbetracht der Tatsache, das ATI an den Radeon9500pro Teilen so gut wie nix verdienen wird und wahrscheinlich in wenigen Wochen eher draufzahlen wird, sehe ich nicht, dass Kunden mit der 9700 abgekocht werden.
Solange Firma XY minus macht sind die Preise zu niedrig.
Irgendwo nicht einzusehen das super teure Hardware für Lau vergeben werden soll.

Für "lau" wird die r9500Pro sicher nicht verschenkt. Weil sie nicht beschnitten ist wie die R9500 ohne "Pro", sie also kein Auffangbecken darstellt für fehlerhafte 9700er, ist der Gewinn selbstredend geringer...aber ich glaube kaum, dass Ati so doof ist, die unter Wert anzubieten, um damit Miese zu machen... Doof oder in Unkenntnis sind die Käufer der R9500 ohne Pro....

seahawk
2003-01-07, 12:56:45
Originally posted by Payne@School


Doch!!

Schau mal bei Gainward!!


Dann ist das aber kein Treiber direkt von NVidia, sondern von Gainward geändert.

StefanV
2003-01-07, 13:55:16
Originally posted by seahawk
Dann ist das aber kein Treiber direkt von NVidia, sondern von Gainward geändert.
Aber es ist ein offizieller Treiber...

Werd mir den 41.04 mal bei gelegenheit 'saugen'...

seahawk
2003-01-07, 14:18:45
PC-Extreme.de schrieb :

Detonator 41.04 WHQL für Windows 2000/XP
Sonntag, 1. Dezember 2002 - 11:00 - Daniel

Wie die Seite Mister.de berichtet, ist auf einer italienischen Seite der Detonator 41.04 mit WHQL-Zertifikat aufgetaucht. Der Treiber ist schon etwas älter, da er auf den 25. Oktober datiert ist (Vergleich: Detonator 41.09 ist auf den 18. November datiert). Außerdem fehlt eine Setup-Routine. Der Treiber muss also manuell per Hand installiert werden. Wer den Treiber trotzdem downloaden möchte, kann das hier tun.

Alle anderen greifen lieber zum Detonator 41.09, der nicht nur für Windows 2000/XP, sondern auch für Windows 9x/ME verfügbar ist.

Tec-station.de schrieb :

Detonator 41.04
Software/Treiber | 30.11.2002 - 18:52 | Quelle: Warp2Search

Wieder einmal ist im Netz eine inoffizielle nVIDIA Detonator Version aufgetaucht. Dieses mal handelt es sich um Version 41.04 für Windows 2000 und XP.

Trotz der WHQL Zertifizierung erfolgt die Benutzung auf eigene Gefahr



-> das ist für mich kein offizieller Treiber

2B-Maverick
2003-01-07, 14:19:11
Originally posted by Piffan
Doof oder in Unkenntnis sind die Käufer der R9500 ohne Pro....

hehe.. nicht wenn sie nen Lötkolben und ne 128MB Version haben :)

StefanV
2003-01-07, 14:27:29
Originally posted by seahawk
PC-Extreme.de schrieb :

Detonator 41.04 WHQL für Windows 2000/XP
Sonntag, 1. Dezember 2002 - 11:00 - Daniel

Wie die Seite Mister.de berichtet, ist auf einer italienischen Seite der Detonator 41.04 mit WHQL-Zertifikat aufgetaucht. Der Treiber ist schon etwas älter, da er auf den 25. Oktober datiert ist (Vergleich: Detonator 41.09 ist auf den 18. November datiert). Außerdem fehlt eine Setup-Routine. Der Treiber muss also manuell per Hand installiert werden. Wer den Treiber trotzdem downloaden möchte, kann das hier tun.

Alle anderen greifen lieber zum Detonator 41.09, der nicht nur für Windows 2000/XP, sondern auch für Windows 9x/ME verfügbar ist.

Tec-station.de schrieb :

Detonator 41.04
Software/Treiber | 30.11.2002 - 18:52 | Quelle: Warp2Search

Wieder einmal ist im Netz eine inoffizielle nVIDIA Detonator Version aufgetaucht. Dieses mal handelt es sich um Version 41.04 für Windows 2000 und XP.

Trotz der WHQL Zertifizierung erfolgt die Benutzung auf eigene Gefahr



-> das ist für mich kein offizieller Treiber

1.
http://www.gainward.com/f-2-2.asp?nSemiProduct=111&nModel=6

2. 'mein' 41.04 hat sehr wohl eine Setup Routine!!

3. man kann diesen Treiber von einem Offiziellen Server eines offiziellen NV Herstellers herunterladen, WAS ist daran bitte inoffiziell ??
ow selbst betont ja immer wieder, daß ein Treiber offiziell ist, wenn ihn NVidia ODER ein Kartenhersteller anbietet...

Iceman346
2003-01-07, 14:42:55
Originally posted by Unregistered
"
edit: Der Trille von Gamestar hat mal in einem Editorial die Spielchen von Ati mit der R300 blosgestellt: Erst die sündhaft teure R9700, dann die nur unwesentlich langsamere R9500Pro. Nur um sich nicht gleich die Preise zu verderben. Die frühen Einsteiger werden meist deftig abgekocht....
"

In Anbetracht der Tatsache, das ATI an den Radeon9500pro Teilen so gut wie nix verdienen wird und wahrscheinlich in wenigen Wochen eher draufzahlen wird, sehe ich nicht, dass Kunden mit der 9700 abgekocht werden.
Solange Firma XY minus macht sind die Preise zu niedrig.
Irgendwo nicht einzusehen das super teure Hardware für Lau vergeben werden soll.

Arbeitest du bei ATI oder woher nimmst du dieses Wissen?

Du redest so einen Quatsch, ich weiß garnicht warum ich das hier tippe...

Oli_Immerschoen
2003-01-07, 15:19:23
Originally posted by Iceman346


Arbeitest du bei ATI oder woher nimmst du dieses Wissen?

Du redest so einen Quatsch, ich weiß garnicht warum ich das hier tippe...

Thx dafür, so spare ich es mir wenigstens einen Kommentar über Richthofens Post abzulassen...

Unregistered
2003-01-07, 15:51:43
Originally posted by 2B-Maverick


hehe.. nicht wenn sie nen Lötkolben und ne 128MB Version haben :)

Ja wenn du es gemacht hast und es geklappt hat ist das ja eine gute Sache, nur leider verbaut ATI zum Teil, wie von mir auf Seite 6 beschrieben, "fehlerhafte" GPUs mit der 9500er ohne "pro". Und wenn dann eine Pipeline im Arsch ist die du soeben rangelötet hast... ka was dann passiert und ich möchte keine 180€ auf den Tisch legen nur um das zu sehen :)

Unregistered
2003-01-07, 16:39:42
Mal was neues zu ATi:

http://www.bjorn3d.com/#newsitem2078

3D Software Company stops support for all ATI products.

3D Nature recommends against all ATI Graphics cards. They currently (December 2002) have unreliable drivers for advanced 3D Graphics use and have shown no intention of solving the issues even though it has been brought to their attention by many organizations."


Ich kann nur hoffen , dass sich noch viele Firmen der Vorgehensweise der 3D SW Company anschliessen, damit ATi endlich mal aufwacht und gescheite Treiber bringt.

nggalai
2003-01-07, 17:02:27
Hi Unreg,
Originally posted by Unregistered
Mal was neues zu ATi:

http://www.bjorn3d.com/#newsitem2078

3D Software Company stops support for all ATI products.

3D Nature recommends against all ATI Graphics cards. They currently (December 2002) have unreliable drivers for advanced 3D Graphics use and have shown no intention of solving the issues even though it has been brought to their attention by many organizations."
Ist nicht so wild, 3DNature machen das noch ab und an. Jetzt steht auf der Website auch "überraschend" das hier:

"3D Nature has been contacted (Jan 2003) by ATI regarding problems our customers have experienced with their Graphics cards. We are working with them to identify and resolve these problems. "

ta,
-Sascha.rb

Demirug
2003-01-07, 17:09:31
Dann hat 3DNature wohl erreicht was sie wollten.

Exxtreme
2003-01-07, 17:10:42
Wer ist 3DNature btw. was haben die bisher geproggt? Ich kenne diese Firma gar nicht.

Xmas
2003-01-07, 17:17:16
Originally posted by Stefan Payne

1.
http://www.gainward.com/f-2-2.asp?nSemiProduct=111&nModel=6

2. 'mein' 41.04 hat sehr wohl eine Setup Routine!!

3. man kann diesen Treiber von einem Offiziellen Server eines offiziellen NV Herstellers herunterladen, WAS ist daran bitte inoffiziell ??
ow selbst betont ja immer wieder, daß ein Treiber offiziell ist, wenn ihn NVidia ODER ein Kartenhersteller anbietet...
Ja, das ist ein offizieller Treiber von Gainward für Gainward-Grafikkarten. Wieso nutzt du bei deiner Prolink PixelView Ti4200 einen Gainward-Treiber?

Demirug
2003-01-07, 17:24:27
Originally posted by Exxtreme
Wer ist 3DNature btw. was haben die bisher geproggt? Ich kenne diese Firma gar nicht.

http://www.3dnature.com/

Spezialsoftware für die 3d Visualisierung z.B. im Planungsbereich.

Exxtreme
2003-01-07, 17:25:33
Originally posted by Demirug


http://www.3dnature.com/

Spezialsoftware für die 3d Visualisierung z.B. im Planungsbereich.
Danke.

nggalai
2003-01-07, 17:32:44
Originally posted by Exxtreme
Wer ist 3DNature btw. was haben die bisher geproggt? Ich kenne diese Firma gar nicht. World Construction Set--neben Worldbuilder eines der "wichtigsten" Landscape-Modeling Tools, welches es gibt. Wird bevorzugt für Film und Fernsehen sowie Visualisierungen (prerendered Sequenzen) verwendet. Machen auch das Visual Nature Studio.

Edit: Mist, Demiurg war schneller. :P

ta,
-Sascha.rb

ow
2003-01-07, 17:48:50
Originally posted by Demirug
Dann hat 3DNature wohl erreicht was sie wollten.


Scheint als würden solche Drohungen evtl. was bewirken auch wenn es nicht die feine Art ist.:D
Aber ich kann mir vorstellen, dass es schon einige Entwickler gibt, die mit den ATi Treibern nicht ganz glücklich werden.

mapel110
2003-01-07, 18:09:39
Originally posted by ow



Scheint als würden solche Drohungen evtl. was bewirken auch wenn es nicht die feine Art ist.:D
Aber ich kann mir vorstellen, dass es schon einige Entwickler gibt, die mit den ATi Treibern nicht ganz glücklich werden.

und ich wette, dass so manche entwickler, die auf nvidia-grakas in der vergangenheit zurückgegriffen haben, auch das eine oder andere graue haar mehr haben :P

ow
2003-01-07, 18:25:38
Originally posted by mapel110


und ich wette, dass so manche entwickler, die auf nvidia-grakas in der vergangenheit zurückgegriffen haben, auch das eine oder andere graue haar mehr haben :P

Da wett ich dagegen.
Ich habe noch nichts negatives über NV von Entwicklern gehört. Frag mal JC, wer die besseren Treiber hat.:P

ice cool69
2003-01-07, 19:21:23
@ ow

blablabla again and again

ich hab verdammt viel probleme mit der geforce256 gehabt, leute mit einer voodoo hatten da deutlich weniger probleme als ich.

nvidia hat sich wohl gebessert und bei ati sehe ich auch keinen triftigen grund mehr auf eine radeon zu verzichten.

ich hätte viel lieber damals auf die geforce verzichten sollen (das war ne katastrophe mit dem slotA-mainboard).

ati hat momentan das selbe problem wie nvidia damals. spiele waren für die anderen grafikkarten angepasst und man muss die entwickler erstmal davon überzeugen auch mehr rücksicht auf ati-grakas zu nehmen.

ps: da ich gerade die news von 3dc gelesen habe werde ich definitiv auf die pvr series5 warten. die word rocken :)

Piffan
2003-01-07, 19:28:22
Ich bin der Meinung, dass sich gefälligst Ati nach NV zu richten hat, schließlich haben DIE vorgelegt und nicht Ati. Ati hat die Spieler jahrelang verarscht und lässt Entwickler gern allein die Suppe auslöffeln. Dass die NVs so gut funzen, liegt ja auch an der guten Unterstützung der Entwickler seitens NV.

Demirug
2003-01-07, 19:30:57
ice cool69,

es ging darum ob sich Entwickler öffentlich über den Dev-Support von NVIDIA beschwert haben und nicht ob der Endanwender Probleme mit einer Karte hat.

Die Situation damals ist mit der heutigen nicht zu vergleichen. Damals benutzte 3dfx eine eigene API und NVIDIA (und alle ausser 3dfx)musste die Entwickler überzeugen OpenGL oder D3D zu unterstützen. Heute benutzen alle OpenGL oder D3D und properitäre APIs sind endlich tot.

btw: Bei mir lief die GF 256 ohne Probleme in einem Slot A Board.

seahawk
2003-01-07, 19:38:42
Originally posted by Xmas

Ja, das ist ein offizieller Treiber von Gainward für Gainward-Grafikkarten. Wieso nutzt du bei deiner Prolink PixelView Ti4200 einen Gainward-Treiber?

Gute Frage ....

Anonym_001
2003-01-07, 19:40:44
Originally posted by Piffan
Ich bin der Meinung, dass sich gefälligst Ati nach NV zu richten hat, schließlich haben DIE vorgelegt und nicht Ati.

Was soll das denn?

CU

Piffan
2003-01-07, 19:46:43
Originally posted by Anonym_001


Was soll das denn?

CU

Dies war meine Antwort auf die Forderung von Icecool, dass die Entwickler nun mehr Ati zu berücksichtigen hätten.....

Es hat NV nun mal sehr viel investiert in die Kontakte zu den Entwicklern, man geizt gewiß nicht mit praktischen Hilfestellungen, damit die Spieleentwickler klarkommen und ein Spiel lüppt...Dieser Support zahlt sich nun für NV aus.

Wenn Ati sich auch mehr um die "Abnehmer" kümmert, dann kann man fordern, dass Ati stärker berücksichtigt werden muß...So sollten sie besser sehen, dass ihre Lösungen keine Sonderbehandlungen im Vergleich zu NV brauchen...

Anonym_001
2003-01-07, 20:09:50
Originally posted by Piffan


Dies war meine Antwort auf die Forderung von Icecool, dass die Entwickler nun mehr Ati zu berücksichtigen hätten.....

Es hat NV nun mal sehr viel investiert in die Kontakte zu den Entwicklern, man geizt gewiß nicht mit praktischen Hilfestellungen, damit die Spieleentwickler klarkommen und ein Spiel lüppt...Dieser Support zahlt sich nun für NV aus.

Wenn Ati sich auch mehr um die "Abnehmer" kümmert, dann kann man fordern, dass Ati stärker berücksichtigt werden muß...So sollten sie besser sehen, dass ihre Lösungen keine Sonderbehandlungen im Vergleich zu NV brauchen...

Hättest du es gleich so geschrieben wäre die Frage nicht gekommen.
Aber nur der Satz ohne Bezug auf den Beitrag von Icecool ist schon sehr seltsam.

CU

Piffan
2003-01-07, 20:14:46
Originally posted by Anonym_001


Hättest du es gleich so geschrieben wäre die Frage nicht gekommen.
Aber nur der Satz ohne Bezug auf den Beitrag von Icecool ist schon sehr seltsam.

CU

Ja, Papi! ;) Ist scho recht.....

ice cool69
2003-01-08, 15:57:04
sorry aber davon dass ati sich so schlecht bei dem support anstellt bin ich noch nicht überzeugt.
hat jemand quellen? am besten aktuelle denn bei ati verändert sich ja immerhin dauernd was...

edit: jetzt schreibt mal was ich lasse mich gerne eines besseren belehren.

ow
2003-01-08, 18:13:08
Originally posted by ice cool69

edit: jetzt schreibt mal was ich lasse mich gerne eines besseren belehren.


Du hast dich schon vielfach als unbelehrbar erwiesen, also such dir doch deine Quellen selbst. Die Arbeit werde ICH mir nicht für dich machen.

btw. bei ATi hat sich NIX getan und das seit langer Zeit.

LovesuckZ
2003-01-08, 18:36:10
Originally posted by ow
Du hast dich schon vielfach als unbelehrbar erwiesen, also such dir doch deine Quellen selbst.

Da stimmt ich ow zu. da du selbst auf Argumente von anderen antwortest, dass diese dir nicht viel bedeuten wuerden, kannst du ja wohl nicht verlangen, dass man mit dir auch irgendwie noch mal argumentatieren wird.

Rampage 2
2003-01-08, 20:46:20
Originally posted by ow



Du hast dich schon vielfach als unbelehrbar erwiesen, also such dir doch deine Quellen selbst. Die Arbeit werde ICH mir nicht für dich machen.

btw. bei ATi hat sich NIX getan und das seit langer Zeit.

Aach?? Und der Leistungszuwachs von 20-60% der R9500Pro durch einen
besseren Treiber heisst bei dir also NIX???

ow
2003-01-08, 20:51:29
Originally posted by Rampage 2


Aach?? Und der Leistungszuwachs von 20-60% der R9500Pro durch einen
besseren Treiber heisst bei dir also NIX???


Es geht hier um Developer-Support. Frag mal unsere 3D SW-Entwickler im Board hier.

Oder guck selbst mal bei ATi oder NV im Developerbereich.

Rampage 2
2003-01-08, 21:09:28
Originally posted by ow



Es geht hier um Developer-Support. Frag mal unsere 3D SW-Entwickler im Board hier.

Oder guck selbst mal bei ATi oder NV im Developerbereich.

Ok, das mag stimmen, aber ATI ist eben erst seit kurzer Zeit erfolg-
reich im Graphics chip Markt - wenn sie ein paar Jahre länger so
erfolgreich sind, wird sich bei denen bestimmt was tun;)

Quasar
2003-01-08, 21:21:06
Originally posted by Stefan Payne
Keine Ahnung aber der 41.04 ist es!

Der 6166 auch. Du hast jedoch selber angegeben, den 41.03er genutzt zu haben, Payne

Richthofen
2003-01-08, 21:50:39
"
Scheint als würden solche Drohungen evtl. was bewirken auch wenn es nicht die feine Art ist.
Aber ich kann mir vorstellen, dass es schon einige Entwickler gibt, die mit den ATi Treibern nicht ganz glücklich werden.
"

hehe ja frag mal Derek Smart. Der kann davon ein Liedchen Singen.
J.C. eigentlich auch. Für den sind ATI Treiber nach wie vor minderwertig im Vergleich zu NV Treibern aber einen gewissen Developer Support bekommt er wenigstens von ATI.
Er ist halt entsprechend populär aber die ganzen kleinen Buden die mit ihrem Spiel sofort Kohle machen müssen fahren mit Entwicklung auf NV und kaum Berücksichtigung von ATI am Besten.
Ich würd ATI auch nicht hinterherrennen. Wenn die Games bei denen nicht so flutschen oder Probleme machen, dann bekommt es ja zum Glück ATI zu spüren und nicht der Entwickler :)
EA Games passen vortrefflich in diesen Bereich.

Endorphine
2003-01-08, 22:02:01
Originally posted by Richthofen
hehe ja frag mal Derek Smart. Der kann davon ein Liedchen Singen.
J.C. eigentlich auch. Für den sind ATI Treiber nach wie vor minderwertig im Vergleich zu NV Treibern aber einen gewissen Developer Support bekommt er wenigstens von ATI.
Er ist halt entsprechend populär aber die ganzen kleinen Buden die mit ihrem Spiel sofort Kohle machen müssen fahren mit Entwicklung auf NV und kaum Berücksichtigung von ATI am Besten.
Ich würd ATI auch nicht hinterherrennen. Wenn die Games bei denen nicht so flutschen oder Probleme machen, dann bekommt es ja zum Glück ATI zu spüren und nicht der Entwickler :)
EA Games passen vortrefflich in diesen Bereich.

Deine "Markentreue" grenzt schon an bedingungslose Hingabe/Vergötterung. Nur mal so am Rande: Wenn dich JETZT (Achtung, der NV30 ist nicht käuflich zu erwerben!) jemand fragen würde, er bräuchte heute noch eine neue Spielergrafikkarte für seinen PC und hätte 300 € in der Tasche parat, was würdest du ihm empfehlen`?

Eine GF4Ti? :D

Piffan
2003-01-08, 22:22:32
Originally posted by Endorphine


Deine "Markentreue" grenzt schon an bedingungslose Hingabe/Vergötterung. Nur mal so am Rande: Wenn dich JETZT (Achtung, der NV30 ist nicht käuflich zu erwerben!) jemand fragen würde, er bräuchte heute noch eine neue Spielergrafikkarte für seinen PC und hätte 300 € in der Tasche parat, was würdest du ihm empfehlen`?

Eine GF4Ti? :D

Ich weiß nicht was Richti empfiehlt, aber ich würde für 150 Euro ne Ti4200 nehmen und vom Rest des Geldes mir drei tolle Spiele gönnen!

edit: aber nicht den Schrott, der bei Bundles oftmals dabei ist....

StefanV
2003-01-08, 22:29:57
Originally posted by Endorphine


Deine "Markentreue" grenzt schon an bedingungslose Hingabe/Vergötterung. Nur mal so am Rande: Wenn dich JETZT (Achtung, der NV30 ist nicht käuflich zu erwerben!) jemand fragen würde, er bräuchte heute noch eine neue Spielergrafikkarte für seinen PC und hätte 300 € in der Tasche parat, was würdest du ihm empfehlen`?

Eine GF4Ti? :D

Natürlich!

Am besten noch eine Ti4600/4800, damit NV auch was dran verdient *eg*

Piffan
2003-01-08, 22:50:40
Originally posted by Stefan Payne


Natürlich!

Am besten noch eine Ti4600/4800, damit NV auch was dran verdient *eg*

Ganz genau wird er das machen! Er ist schließlich pro NV, weil diese Firma ein sehr erfolgreiches Marketing betreibt. Wenn die Bratkartoffeln als Gold verkaufen könnten, hätten die seine volle Unterstützung... Solange die Geschäfte gut laufen, macht NV alles goldrichtig.

Andre
2003-01-09, 09:56:18
Originally posted by Piffan
Er ist schließlich pro NV, weil diese Firma ein sehr erfolgreiches Marketing betreibt.

...ein Vorsprung, den ATI kaum einholen kann (zumindest kurzfristig).

Labberlippe
2003-01-09, 10:05:14
Originally posted by Piffan


Ganz genau wird er das machen! Er ist schließlich pro NV, weil diese Firma ein sehr erfolgreiches Marketing betreibt. Wenn die Bratkartoffeln als Gold verkaufen könnten, hätten die seine volle Unterstützung... Solange die Geschäfte gut laufen, macht NV alles goldrichtig.

Naja Marketing...
Ich nenne es eher Lemminge fangen.


Gruss Labberlippe

Andre
2003-01-09, 10:06:58
Originally posted by Labberlippe


Naja Marketing...
Ich nenne es eher Lemminge fangen.


Gruss Labberlippe

Wenn ich damit Kohle mache?
Who cares?

Labberlippe
2003-01-09, 10:12:45
Originally posted by Andre


Wenn ich damit Kohle mache?
Who cares?

Ja stimmt allerdings.
Mich wundert es immer noch wie nV es mit den lausigen TNT und TNT2 Chips geschaft hat die Führung zu übernehmen.

Gruss Labberlippe

Andre
2003-01-09, 10:18:02
Originally posted by Labberlippe


Ja stimmt allerdings.
Mich wundert es immer noch wie nV es mit den lausigen TNT und TNT2 Chips geschaft hat die Führung zu übernehmen.

Gruss Labberlippe

Tjoa, dass war wohl eher die Schwäche der anderen, als die Stärke von NV. Wenn NV eins kann, dann ists verkaufen. Da hat kein Konkurrent auch nur das kleinste Schnittchen gegen.

Labberlippe
2003-01-09, 10:24:46
Originally posted by Andre


Tjoa, dass war wohl eher die Schwäche der anderen, als die Stärke von NV. Wenn NV eins kann, dann ists verkaufen. Da hat kein Konkurrent auch nur das kleinste Schnittchen gegen.
Naja das möchte ich nicht gerade sagen.
Der Matrox Chip war schneller, die V3/Banshee Serie war besser.
ok die 3dfx hatten kein 32Bit Rendering, dafür war aber die Bildqualitä um längen besser.
32Bit war in der Tat so gut wie nicht nutzbar.

Das einzige was damals die NV Jünger Argumentieren konnten war 32Bit.
Wehe dem der Kritik übte.
Die 3dfx Fans die ich kannte hatten meisten mit Technik Argumentiert.
Die Argumente der andern waren legitlich 32 Bit oder später T&L.
Heute ist es teilweise ja noch immer so, das wenn jemand über nv zettert, dieser als unwissender hingestellt wird.
Genauer gesagt wenn einer einen Fehler bei nv endeckt, dann ist es kein Fehler sonder der User ist zu doof.
Rennen die Kyro Karten auf nForce2 Boards, dann sind die Kyro Karten schuld.
Würden die Kyro Karten auf ATi Boards nicht funzen dann wären sich alle einig. Klar ATi Boards sind schuld.
Funzt ein Game nicht, ist es definitv der Treiber von ATI Schuld.
Bei nv ist definitv das Game Schuld.
Wenn sich das ganze OS aufhängt, dann ist MS Schuld.
Das Linux durch nV Treiber hänger ist, ist eine wahre Meisterleistung von NV.
Schuld ist dann Linux. LOL

Wenn ich mir die Argumente ansehe, frage ich mich wirklich ob einige noch nicht realisiert haben das es noch was anders ausser Grakas gibt.



Gruss Labberlippe

Andre
2003-01-09, 10:29:46
Originally posted by Labberlippe

Naja das möchte ich nicht gerade sagen.
Der Matrox Chip war schneller, die V3/Banshee Serie war besser.
ok die 3dfx hatten kein 32Bit Rendering, dafür war aber die Bildqualitä um längen besser.
32Bit war in der Tat so gut wie nicht nutzbar.

Das einzige was damals die NV Jünger Argumentieren konnten war 32Bit.
Wehe dem der Kritik übte.
Die 3dfx Fans die ich kannte hatten meisten mit Technik Argumentiert.
Die Argumente der andern waren legitlich 32 Bit oder später T&L.

Gruss Labberlippe

Na also, dass meinte ich doch.
Ich sag nur Marketing =)

Labberlippe
2003-01-09, 10:30:16
upps Doppelpost

Andre
2003-01-09, 10:32:41
Originally posted by Labberlippe
Heute ist es teilweise ja noch immer so, das wenn jemand über nv zettert, dieser als unwissender hingestellt wird.
Genauer gesagt wenn einer einen Fehler bei nv endeckt, dann ist es kein Fehler sonder der User ist zu doof.
Rennen die Kyro Karten auf nForce2 Boards, dann sind die Kyro Karten schuld.
Würden die Kyro Karten auf ATi Boards nicht funzen dann wären sich alle einig. Klar ATi Boards sind schuld.
Funzt ein Game nicht, ist es definitv der Treiber von ATI Schuld.
Bei nv ist definitv das Game Schuld.
Wenn sich das ganze OS aufhängt, dann ist MS Schuld.
Das Linux durch nV Treiber hänger ist, ist eine wahre Meisterleistung von NV.
Schuld ist dann Linux. LOL

Naja, LL, wenn wir ehrlich sind, gibts diese Leute doch auf beiden Seiten. Auch bei ATI werden die Jünger immer fanatischer, dass nimmt sich mit machen NVlern nicht mehr viel.
Ich seh´s mittlerweile recht gelöst. Jede Firma hat ihr Schicksal in der Hand und jeder soll das kaufen, was ihm am besten zusagt.

Exxtreme
2003-01-09, 10:39:16
Originally posted by Andre
Naja, LL, wenn wir ehrlich sind, gibts diese Leute doch auf beiden Seiten. Auch bei ATI werden die Jünger immer fanatischer, dass nimmt sich mit machen NVlern nicht mehr viel.
Ich seh´s mittlerweile recht gelöst. Jede Firma hat ihr Schicksal in der Hand und jeder soll das kaufen, was ihm am besten zusagt.
Sehe ich auch so. Früher bin ich jedesmal in einem Flamewar eingestiegen wo ATi eins auf'm Deckel kriegt. Heutzutage juckt mich das nicht mehr. Ich stelle zwar mal einige falsche Vorurteile wieder gerade aber sonst. Während sich die Fanboys an die Gurgel gehen, gehe ich lieber zocken. Es bringt echt nichts sich darüber aufzuregen wenn jemand den Lieblingshersteller schlecht machen will.

aths
2003-01-09, 11:31:11
Originally posted by Andre
Wenn ich damit Kohle mache?
Who cares? Wir "caren". Die meistverkauften Produkte sind sicher nicht ganz schlecht, aber natürlich nicht automatisch die beste Wahl. Darauf darf man doch aufmerksam machen, oder? Eine Firma wird produkttechnisch imo dadurch nicht besser, dass sie gut verkauft. Wobei natürlich die TNT2-Serie schon ihre Vorteile hatte und nicht ganz umsonst so ein Erfolg geworden ist.

Andre
2003-01-09, 11:46:41
Originally posted by aths
Wir "caren". Die meistverkauften Produkte sind sicher nicht ganz schlecht, aber natürlich nicht automatisch die beste Wahl. Darauf darf man doch aufmerksam machen, oder? Eine Firma wird produkttechnisch imo dadurch nicht besser, dass sie gut verkauft. Wobei natürlich die TNT2-Serie schon ihre Vorteile hatte und nicht ganz umsonst so ein Erfolg geworden ist.

aths,

nur weil ich die Realität beschreibe, heiße ich sie nicht automatisch gut. Du darfst auf alles aufmerksam machen, aths, die Realität ist nunmal eine andere.
Und es interessiert keinen, ob die Firma durch gute Produke, nackte Mädels, Nacktphotos von Cap oder Lackschuhe von Kai viel Absatz macht. Das Ergebnis zählt.

aths
2003-01-09, 12:16:48
Originally posted by Andre
Und es interessiert keinen, ob die Firma durch gute Produke, nackte Mädels, Nacktphotos von Cap oder Lackschuhe von Kai viel Absatz macht. Das Ergebnis zählt. Für mich als Käufer zählt das Produkt, nicht der sonstige Erfolg der Firma.

Andre
2003-01-09, 12:26:49
Originally posted by aths
Für mich als Käufer zählt das Produkt, nicht der sonstige Erfolg der Firma.

Wir haben uns aber grade über die Außenwirkung und entsprechende Positionierung durch Marketing unterhalten.
Da zählt deine Meinung, sorry, recht wenig.
Es geht um das Image, was NV durch Marketing an den Otto-Normaluser vermittelt hat.

aths
2003-01-09, 12:51:40
Originally posted by Andre
Es geht um das Image, was NV durch Marketing an den Otto-Normaluser vermittelt hat. Und hierüber kann man doch unterschiedlicher Auffassung sein?!

Andre
2003-01-09, 13:32:56
Originally posted by aths
Und hierüber kann man doch unterschiedlicher Auffassung sein?!

Natürlich.

aths
2003-01-09, 13:58:03
Originally posted by Andre
Natürlich. Gut. Dann zweifle ich einfach mal an, dass nV wirklich alles richtig macht, wie einige (nicht primär du) behaupten.

Andre
2003-01-09, 14:28:58
Originally posted by aths
Gut. Dann zweifle ich einfach mal an, dass nV wirklich alles richtig macht, wie einige (nicht primär du) behaupten.

Stimmt, sehe ich auch so.
Dennoch ist es nunmal so, dass NV es schafft/geschafft hat Features unters Volk zu streuen und diese als Innovation/existentiell zu verkaufen - und die Leute sind dem gefolgt und tun dies immer noch.
Du weisst ich bin kein Techniker, ich sehe nur das Resultat - und die Maschinerie von NV funktioniert im Hinblick auf Marketing/Außenwirkung _nahezu_ perfekt.

ice cool69
2003-01-09, 14:32:01
abwarten, ati hat zum ersten mal eine richtig erfolgreiche generation ins leben gerufen, die r9x00er.
wenn sich die nicht gut verkauft fress ich nen besen (tut sie so weit ich weiß schon).
wenn ati noch 2-3 generationen so mithalten/vorlegen kann wie jetzt dann haben sie eine rosige zukunft.

wie ihr schon festgestellt habt, die ati-fanboygemeinde wächst und wächst wie ihre firma und deren produkte.

im endeffekt kann mir das aber nur recht sein, 2 gleichstarke konkurrenten sind das beste was einem endkunden passieren kann :)

@ ow

du bist dir doch sonst nicht zu schade irgendwelche argumente gegen ati zusammenzuschreiben. das ist doch dein lieblingshobby...

Exxtreme
2003-01-09, 14:36:03
Originally posted by Andre


Stimmt, sehe ich auch so.
Dennoch ist es nunmal so, dass NV es schafft/geschafft hat Features unters Volk zu streuen und diese als Innovation/existentiell zu verkaufen - und die Leute sind dem gefolgt und tun dies immer noch.
Du weisst ich bin kein Techniker, ich sehe nur das Resultat - und die Maschinerie von NV funktioniert im Hinblick auf Marketing/Außenwirkung _nahezu_ perfekt.
Naja, ich würde es weniger auf die Marketingabteilung von NV schieben sondern eher auf das Unwissen und falsche Einschätzung der Technologie der sogenannten Reviewer. Ich sage nur T&L-Hype, 32-Bit-Farbtiefe usw. Diese Reviewer sind eher auf die Marketingabteilung reingefallen und haben einfach die Inhalte der Whitepapers nachgeplappert ohne sich selbst Gedanken zu machen.

Xmas
2003-01-09, 14:49:38
Originally posted by Exxtreme
Naja, ich würde es weniger auf die Marketingabteilung von NV schieben sondern eher auf das Unwissen und falsche Einschätzung der Technologie der sogenannten Reviewer. Ich sage nur T&L-Hype, 32-Bit-Farbtiefe usw. Diese Reviewer sind eher auf die Marketingabteilung reingefallen und haben einfach die Inhalte der Whitepapers nachgeplappert ohne sich selbst Gedanken zu machen.
Oder haben sich Gedanken gemacht und einfach eine andere Meinung.

ice cool69
2003-01-09, 14:52:13
@ ow

ich halte mich keineswegs für unbelehrbar, aber ich tue mich schwer von so eindeutig subjektiv eingestellten leuten zu belehren.

es hat daher einfach ein ganz anderes gewicht wenn du den selben anti-ati spam loslässt als wenn zb aths ein argument einwirft.

das gleiche gilt auch auf der anderen seite, so manche ati-posts nehme ich genausowenig ernst.

ich will dich nicht kritisieren dass du nvidia aus bestimmten gründen noch favorisierst, aber bei dir hab ich nunmal das gefühl dass eh immer die selbe leier kommt.

ich will mich da nicht ausschließen, ich bin momentan sicher eher pro-ati als pro-nvidia, aber ich versuche mich in letzter zeit etwas zusammenzureißen, den 16x AF-filter von ati lobe ich schon lange nicht mehr in den himmel...

Exxtreme
2003-01-09, 15:07:37
Originally posted by Xmas

Oder haben sich Gedanken gemacht und einfach eine andere Meinung.
Aber so ziemlich alle auf einmal? Ich kann mich noch ganz genau an die Aussagen bezüglich T&L erinnern, von wegen Spiele, welche DAMALS "bald" kommen sollten und Karten ohne T&L würden dann alt aussehen. Und auch ich bin damals dem Hype verfallen da mein Wissen damals nicht ausgereicht hat um die Situation richtig einzuschätzen.

seahawk
2003-01-09, 15:17:09
Aber war das mit Truform nicht ähnlich ??

Ich kann mich auch an Artikle erinnern die diesem Prinzip eine große Zukunft voraussagten.

Wobei Du natürlcih recht hast, das ein großer Teil der Medien NV hörig ist - anders ist der Hype um die FX auch nicht zu erklären.

aths
2003-01-09, 15:17:21
Originally posted by ice cool69
im endeffekt kann mir das aber nur recht sein, 2 gleichstarke konkurrenten sind das beste was einem endkunden passieren kann :)3 wären besser.

aths
2003-01-09, 15:19:52
Originally posted by Exxtreme
Aber so ziemlich alle auf einmal? Ich kann mich noch ganz genau an die Aussagen bezüglich T&L erinnern, von wegen Spiele, welche DAMALS "bald" kommen sollten und Karten ohne T&L würden dann alt aussehen. Und auch ich bin damals dem Hype verfallen da mein Wissen damals nicht ausgereicht hat um die Situation richtig einzuschätzen. Imo kann man schon sagen, dass der T&L-Hype umsich griff, und nVidias "White Papers" so manchen beeindruckten. In die Zukunft sehen kann man nicht, und wenn eine bedeutende Firma T&L als die totale Errungenschaft anpreist, muss schon was dran sein, denkt man dann.

Das hat imo nicht mal unbedingt was mit Wissen zu tun. Es kam aus mehreren Gründen eben nicht so, dass GF1 und 2 (von Quake3 mal abgesehen) wirklich durch T&L profitieren konnten.

Exxtreme
2003-01-09, 15:26:56
Originally posted by seahawk
Aber war das mit Truform nicht ähnlich ??

Hmm, also ich kann mich nicht an solche Artikel erinnern. Es gab mal eine Präsentation von ATi, in der einige Spiele aufgelistet waren, die angeblich Truform unterstützen sollten.
Originally posted by seahawk
Ich kann mich auch an Artikle erinnern die diesem Prinzip eine große Zukunft voraussagten.

Wobei Du natürlcih recht hast, das ein großer Teil der Medien NV hörig ist - anders ist der Hype um die FX auch nicht zu erklären.
Nicht unbedingt NV-hörig. Aber IMHO zu unkritisch und viel zu leichtgläubig für das, was in den Whitepapers der Hersteller steht. Also 3DC und 3dconcept waren die einzigen, mir bekannten Sites, die kein Marketinggeblubber nachgeplappert haben. Als 3dconcept dicht gemacht wurde (das habe ich ram bis heute nicht verziehen ;)), bin ich hier gelandet.

StefanV
2003-01-09, 15:26:56
Originally posted by aths
Gut. Dann zweifle ich einfach mal an, dass nV wirklich alles richtig macht, wie einige (nicht primär du) behaupten.

Richtig...

NV sollte mal endlich anfangen und das Panel neu coden...

Das Panel war vielleicht vor 5 Jahren zeitgemäß, jetzt ists einfach nur shit, insbesondere da Matrox mit der Parhelia ordentlich vorgelegt hat.

Auch ATI hat am Panel gearbeitet, auch wenn das 'Typische ATI Design' 'leider' geblieben ist...

Andre
2003-01-09, 15:31:31
Originally posted by Exxtreme
von wegen Spiele, welche DAMALS "bald" kommen sollten und Karten ohne T&L würden dann alt aussehen.

Auch Reviewer haben eben keine Glaskugel.
Das konnte niemand einschätzen, man hätte nur vorsichtiger sein können.

Andre
2003-01-09, 15:32:59
Originally posted by Stefan Payne


Richtig...

NV sollte mal endlich anfangen und das Panel neu coden...

Das Panel war vielleicht vor 5 Jahren zeitgemäß, jetzt ists einfach nur shit, insbesondere da Matrox mit der Parhelia ordentlich vorgelegt hat.

Auch ATI hat am Panel gearbeitet, auch wenn das 'Typische ATI Design' 'leider' geblieben ist...

Darf ich mal sagen, dass du mir mit deinem Panel-Scheiß derbst auf den Sack gehst, weil du NIX, aber auch NIX Sachliches zu der Diskussion beizutragen hast.
(Und jetzt kommt wieder blabla Nvidiot, bla bla, keine Kritik vertragen können bla bla).

seahawk
2003-01-09, 15:34:04
@ exxtreme : Ich meinte auch eher gängige Magazine die eine Wirkung auf den Massenmarkt haben.

Aber von Truform kann ich mich noch erinnern in einer Zeitung einen Artikel über den Durchbruch bei Rundungen gelesen zu haben ....

Exxtreme
2003-01-09, 15:36:48
Originally posted by Andre


Auch Reviewer haben eben keine Glaskugel.
Das konnte niemand einschätzen, man hätte nur vorsichtiger sein können.
Trotzdem finde ich so ein Schuss ins Blaue richtig peinlich. Die Reviewer hätten die Entwickler der Spiele fragen können wie sie über diese Features denken und wann diese Features richtig zum Einsatz kommen, wenn überhaupt.

Die Reviewer haben einfach Aussagen getroffen auf der Grundlage der Marketingpapiere und ohne das nötige Hintergrundwissen zu haben, wie es wirklich aussieht.

seahawk
2003-01-09, 15:39:27
Wobei das für die Entwickler der Spiele schwer einzuschätzen ist. In das Spiel an dem die gerade arbeiten kriegen sie es sowieso nicht. Und welchen Vorteil das Feature für die nächste Engine bringt kann man nicht sofort entscheiden. Die Umsetzung ist ja das Problem ...

Exxtreme
2003-01-09, 15:42:55
Originally posted by seahawk
Wobei das für die Entwickler der Spiele schwer einzuschätzen ist. In das Spiel an dem die gerade arbeiten kriegen sie es sowieso nicht. Und welchen Vorteil das Feature für die nächste Engine bringt kann man nicht sofort entscheiden. Die Umsetzung ist ja das Problem ...
Naja, aber ich denke, daß die Developer immer noch am Besten wissen was in die Nex-Gen-Spiele reinkommt und nicht irgendwelche Marketingfuzzies.

Andre
2003-01-09, 15:47:03
Originally posted by Exxtreme

Trotzdem finde ich so ein Schuss ins Blaue richtig peinlich. Die Reviewer hätten die Entwickler der Spiele fragen können wie sie über diese Features denken und wann diese Features richtig zum Einsatz kommen, wenn überhaupt.

Ich gebe Dir Recht, aber haben wir es nicht oft gesehen, dass ein Game mit T&L angekündigt wurde, es dann aber nicht enthielt?

Frag mal einen Entwickler:

"Du sag mal, implementiert ihr auch die neuen Graka-Features?"

Wie groß glaubst du ist die Chance, dass er die Wahrheit sagt?

Exxtreme
2003-01-09, 15:56:56
Originally posted by Andre


Ich gebe Dir Recht, aber haben wir es nicht oft gesehen, dass ein Game mit T&L angekündigt wurde, es dann aber nicht enthielt?
Naja, zwischen "enthalten sein" und "das Feature auch nutzen" ist ein Unterschied. ;)
Also T&L ist in so ziemlich allen OpenGL-Spielen "enthalten" aber wieviele Spiele profitieren davon wirklich? Ähnlich war's unter D3D ab Version 7... AFAIK hatte DX6 schon gesonderte Unterstützung dafür.

Klar konnten die Reviewer es nicht wissen aber wenn ich schon nicht hellsehen kann dann sollte ich nicht so tun als ob. Ein vorsichtiger Ausblick in die Zukunft ist IMHO OK aber wenn man Karten verteufelt, die ein Feature nicht haben, dann ist es IMHO schon übertrieben.

Originally posted by Andre
Frag mal einen Entwickler:

"Du sag mal, implementiert ihr auch die neuen Graka-Features?"

Wie groß glaubst du ist die Chance, dass er die Wahrheit sagt?
Hmm, warum nicht? Frag Demirug und wird dir schon erzählen, was er gut findet und was nicht. :)

Demirug
2003-01-09, 17:07:22
Originally posted by Exxtreme

Naja, zwischen "enthalten sein" und "das Feature auch nutzen" ist ein Unterschied. ;)
Also T&L ist in so ziemlich allen OpenGL-Spielen "enthalten" aber wieviele Spiele profitieren davon wirklich? Ähnlich war's unter D3D ab Version 7... AFAIK hatte DX6 schon gesonderte Unterstützung dafür.

Ja mit DX9 lassen sich ja immer noch spiele für DX6 Karten programmieren und ich vermute mal ganz starkt das wir noch einige spiele sehen werden die zwar DX9 brauchen aber nur eine Karte auf DX7-Level voraussetzen. Hardware T&L ging aber wirklich erst mit DX7.

Klar konnten die Reviewer es nicht wissen aber wenn ich schon nicht hellsehen kann dann sollte ich nicht so tun als ob. Ein vorsichtiger Ausblick in die Zukunft ist IMHO OK aber wenn man Karten verteufelt, die ein Feature nicht haben, dann ist es IMHO schon übertrieben.

Ja vorallem wenn man die Lebensdauer heutiger Karten berücksichtigt ist es sehr gewagt zu weit in die Zukunft zu schauen.

Hmm, warum nicht? Frag Demirug und wird dir schon erzählen, was er gut findet und was nicht. :)

Man muss hier aber schwer unterschieden zwischen aussagen die direkt von den Entwicklern kommen und die aussagen die durch das marketing und möglicherweise noch den Publischer gefiltert wurde.

Sobald da von einem die Aussage das ein bestimmtes neues Feature unterstützt wird im Raum ist wollen die anderen da natürlich nicht nachstehen und schon wird das zum selbstläufer. Den ersten dafür zu finden ist meistens gar nicht so schwer weil irgendjemand im marketing sieht bei sowas immer mal die Möglichkeit wieder mal etwas Werbung umsonst zu bekommen. Das ganze ist ein Teufelskreis.

aths
2003-01-09, 17:07:46
Originally posted by Andre
Auch Reviewer haben eben keine Glaskugel.
Das konnte niemand einschätzen, man hätte nur vorsichtiger sein können. Japp. Ich hatte es mit dem T&L-Verriss leicht, da er die Retroperspektive hatte.

Ich meine aber, man hätte nicht nur vorsichtiger sein können, sondern vorsichtiger sein müssen. Also nicht einfach nVs Behauptungen schlucken, sondern z.B. selbst hinterfragen, was T&L konkret bringen *kann* und was es in absehbarer Zukunft bringen wird. Stattdessen faselten viele von der Zukunft usw. Ich denke, dass die meisten, die bewusst eine T&L-Karte kauften, hofften, dass diese nun "lange halten" würde. Ehe es vernünftige T&L-Anwendungen in relevanter Zahl gab, war diese Hardware natürlich schon längst wieder out. Das hätten kompetente Reviewer imo erkennen müssen.

aths
2003-01-09, 17:08:25
Originally posted by Andre
Darf ich mal sagen, dass du mir mit deinem Panel-Scheiß derbst auf den Sack gehst, weil du NIX, aber auch NIX Sachliches zu der Diskussion beizutragen hast.
(Und jetzt kommt wieder blabla Nvidiot, bla bla, keine Kritik vertragen können bla bla). Naja, ich denke auch, dass das Deto-Panel sehr schlecht ist.

aths
2003-01-09, 17:12:46
Originally posted by Exxtreme
Die Reviewer haben einfach Aussagen getroffen auf der Grundlage der Marketingpapiere und ohne das nötige Hintergrundwissen zu haben, wie es wirklich aussieht. Es war die Zeit der vorgekauten Argumente. 3dfx versuchte aus durchsichtigen Gründen, T&L herunterzuspielen und FSAA zu pushen, während nVidia FSAA herunterspielte und suchte, die Wichtigkeit von HW T&L nachzuweisen.

"Seeing is believing" meine ich, und während man lange von T&L praktisch gar nichts sehen könnte, war FSAA ja sofort verfügbar - und bei Voodoo5 auch sinnvoll einsetzbar. Diese Blindheit auf dem "anderen" Auge konnte ich nie so richtig nachvollziehen.

Die gleichen Medien, die zuvor 32 Bit empfahlen, weil 24 fps ja völlig ausreichend seien, hielten der Voodoo5 nun die Langsamkeit vor. Dabei war selbst die GF2 Ultra bei vergleichbarer FSAA-Bildqualität noch sehr viel langsamer.

PCGH_Thilo
2003-01-09, 17:44:03
Originally posted by aths
Es war die Zeit der vorgekauten Argumente. 3dfx versuchte aus durchsichtigen Gründen, T&L herunterzuspielen und FSAA zu pushen, während nVidia FSAA herunterspielte und suchte, die Wichtigkeit von HW T&L nachzuweisen.

"Seeing is believing" meine ich, und während man lange von T&L praktisch gar nichts sehen könnte, war FSAA ja sofort verfügbar - und bei Voodoo5 auch sinnvoll einsetzbar. Diese Blindheit auf dem "anderen" Auge konnte ich nie so richtig nachvollziehen.

Die gleichen Medien, die zuvor 32 Bit empfahlen, weil 24 fps ja völlig ausreichend seien, hielten der Voodoo5 nun die Langsamkeit vor. Dabei war selbst die GF2 Ultra bei vergleichbarer FSAA-Bildqualität noch sehr viel langsamer.

aths, du machst es dir da etwas einfach. 3dfx ist nicht den bach runtergegangen, weil sie zu schlechte tests bekommen oder weil die reviewer den falschen schwerpunkt bei ihrer bewertung gesetzt haben.

PCGH_Thilo
2003-01-09, 17:47:07
Originally posted by Exxtreme

Naja, zwischen "enthalten sein" und "das Feature auch nutzen" ist ein Unterschied. ;)
Also T&L ist in so ziemlich allen OpenGL-Spielen "enthalten" aber wieviele Spiele profitieren davon wirklich? Ähnlich war's unter D3D ab Version 7... AFAIK hatte DX6 schon gesonderte Unterstützung dafür.

Klar konnten die Reviewer es nicht wissen aber wenn ich schon nicht hellsehen kann dann sollte ich nicht so tun als ob. Ein vorsichtiger Ausblick in die Zukunft ist IMHO OK aber wenn man Karten verteufelt, die ein Feature nicht haben, dann ist es IMHO schon übertrieben.


Hmm, warum nicht? Frag Demirug und wird dir schon erzählen, was er gut findet und was nicht. :)

demirug in ehren... aber er kann auch nicht alle entwicklerfragen der welt beantworten ;-)

es ist selbst für PCGH SEHR schwer, direkt an entwickler heranzukommen. das läuft fast ohne ausnahme IMMER über die deutschen publisher, niemand von denen will, dass man direkt mit entwicklerteams spricht. und bei carmack & sweeney ist für deutsche journalisten praktisch ende gelände. da ist kaum ranzukommen an die leute.

Razor
2003-01-09, 17:57:39
Originally posted by aths
Japp. Ich hatte es mit dem T&L-Verriss leicht, da er die Retroperspektive hatte.

Ich meine aber, man hätte nicht nur vorsichtiger sein können, sondern vorsichtiger sein müssen. Also nicht einfach nVs Behauptungen schlucken, sondern z.B. selbst hinterfragen, was T&L konkret bringen *kann* und was es in absehbarer Zukunft bringen wird. Stattdessen faselten viele von der Zukunft usw. Ich denke, dass die meisten, die bewusst eine T&L-Karte kauften, hofften, dass diese nun "lange halten" würde. Ehe es vernünftige T&L-Anwendungen in relevanter Zahl gab, war diese Hardware natürlich schon längst wieder out. Das hätten kompetente Reviewer imo erkennen müssen.
Versteh' ich nicht...
Wer die Karte nur wegen eines (gehypten) Features kauft, hat 'eh verloren.

Ansonsten: Meine gfddr hat damals locker 2 Jahre 'gehalten' und meine gute alte gf3 hat nun auch schon fast 2 Jahre auf dem Buckel. Was ist daran jetzt nicht zukunftssicher gewesen ?

Wie gesagt, ich verstehe Dich nicht...

Und 3dfx ist sicher nicht an 'schlechten' oder 'ungerechten' Reviews zugrunde gangen... sie waren einfach nur zu dumm und zu gierig (wobei ersteres aus zweitem folgt ;-).

Razor

Demirug
2003-01-09, 18:03:02
Originally posted by PCGH_Thilo


demirug in ehren... aber er kann auch nicht alle entwicklerfragen der welt beantworten ;-)

Das will ich auch gar nicht. Und meine Meinung ist ja auch nicht unbedingt representativ für alle Entwickler.

es ist selbst für PCGH SEHR schwer, direkt an entwickler heranzukommen. das läuft fast ohne ausnahme IMMER über die deutschen publisher, niemand von denen will, dass man direkt mit entwicklerteams spricht. und bei carmack & sweeney ist für deutsche journalisten praktisch ende gelände. da ist kaum ranzukommen an die leute.

Ja das Problem habe ich ja schon oben angesprochen das der Publischer da gerne mal etwas ausschmückt un den Eindruck zu erreichen das man nur an Highend Produkten arbeitet welche dem letzten Schrei entsprechen. Gleichzeitig wird aber auch gerne gesagt das die Hardwareanforderungen nicht so hoch sind um die Kunden nicht zu erschrecken. Viel reden aber wenig sagen ist da immer sehr angebracht.

Exxtreme
2003-01-09, 18:17:04
Originally posted by PCGH_Thilo


aths, du machst es dir da etwas einfach. 3dfx ist nicht den bach runtergegangen, weil sie zu schlechte tests bekommen oder weil die reviewer den falschen schwerpunkt bei ihrer bewertung gesetzt haben.
Nene, aths hat in dem Punkt recht, IMHO.

Lustig war es als man 32-Bit-Farbtiefe plötzlich für wichtig hielt. Auf der damaligen TNT1 gerade noch so spielbar war es plötzlich Mode zu sagen, daß 24 fps vollkommen ausreichen, da das Auge eh' nicht mehr erkennt. Dann wurde versucht nachzuweisen, daß 32-Bit-Farbtiefe dem 3dfx'schen Postfilter weit überlegen ist. Dazu wurden Screenshots angefertigt und mit 400%'iger Vergrösserung präsentiert. Man hat dann zwar tatsächlich leichte Artefakte erkennen können aber, daß niemand mit 400%'iger Vergrösserung spielt, das wurde unterschlagen.

Naja, hoffentlich sind die Zeiten derartig plumper Propaganda vorbei... wobei wenn ich an den PCD-Artikel denke... :...(

StefanV
2003-01-09, 18:17:36
Originally posted by Andre

Darf ich mal sagen, dass du mir mit deinem Panel-Scheiß derbst auf den Sack gehst, weil du NIX, aber auch NIX Sachliches zu der Diskussion beizutragen hast.
(Und jetzt kommt wieder blabla Nvidiot, bla bla, keine Kritik vertragen können bla bla).

Andre, es wird hier im Forum immer davon gesprochen, daß die NV Karten das beste überhaupt sind und allen anderen Überlegen sind.

Ich sehe nur, daß dem nicht so ist, daß bei den einfachsten Dingen bei NV erhebliche Defizite gibt.

Sei es nun nView, den ein 'Theatre/DVD MAX mode' fehlt, den beschränkten TV Out Optionen oder dem bescheidenen Panel.

Ich sehe nur folgendes:

NV bei 3D -> brauchbar
NV bei rest -> bescheiden

seahawk
2003-01-09, 18:19:20
Originally posted by Exxtreme

Naja, aber ich denke, daß die Developer immer noch am Besten wissen was in die Nex-Gen-Spiele reinkommt und nicht irgendwelche Marketingfuzzies.

Da würde ich nicht adarauf wetten. Auch wenn ich nur zu einem Mod Team gehöre möchte ich einen kleinen Einblick in die Welt der Spieleentwickllung geben: Das ist jetzt etwas überspitzt aber das Prinzip ist so.

Entwickler : Geil die haben T&L in der hardware gebracht. Das können wir super nutzen um die Grafik schneller zu machen.

Marketing: Welche Grafikkarten haben den T&L ??

Entwickler : Die neue NV

Marketing : Und wieviele Leute haben schon diese Karte ??

Entwickler : Keine Ahnung ..

Marketing : Weniger als 10% wenn das Spile auf den Markt kommt. Das Spiel muß ohne Nachteile auch ohne dieses Feature laufen, also last es weg, sonst verlieren wir zu viele Potentielle Kunden. Da muss es doch auch einen Weg geben das zu ersetzen.

Entwickler : Naja, vielleicht aber ....

Marketing : Kein ABER..

Deswegen wurde H&L eigentlich zu spät genutzt, erst als es eigentlich schon nicht mehr interessant war.

So ging es auch Truform und ich schätze CG wird das gleiche Schicksal haben.

PCGH_Thilo
2003-01-09, 18:21:03
Originally posted by Demirug


Das will ich auch gar nicht. Und meine Meinung ist ja auch nicht unbedingt representativ für alle Entwickler.


schon klar ;-)
bin ja froh, dass es hier überhaupt leute gibt, die den developer-standpunkt vertreten.

ow
2003-01-09, 18:27:31
Originally posted by Exxtreme

Nene, aths hat in dem Punkt recht, IMHO.

Lustig war es als man 32-Bit-Farbtiefe plötzlich für wichtig hielt. Auf der damaligen TNT1 gerade noch so spielbar war es plötzlich Mode zu sagen, daß 24 fps vollkommen ausreichen, da das Auge eh' nicht mehr erkennt. Dann wurde versucht nachzuweisen, daß 32-Bit-Farbtiefe dem 3dfx'schen Postfilter weit überlegen ist. Dazu wurden Screenshots angefertigt und mit 400%'iger Vergrösserung präsentiert. Man hat dann zwar tatsächlich leichte Artefakte erkennen können aber, daß niemand mit 400%'iger Vergrösserung spielt, das wurde unterschlagen.

Naja, hoffentlich sind die Zeiten derartig plumper Propaganda vorbei... wobei wenn ich an den PCD-Artikel denke... :...(


Ich sag dazu nur soviel:
Wer behauptet, dass 16Bit mit Postfilter von der Quali an echte 32 Bit rankommt, der hat einen an der Waffel.

Sorry @all sie sich evtl. angesprochen fühlen.;)

ow
2003-01-09, 18:29:57
Originally posted by Stefan Payne


Andre, es wird hier im Forum immer davon gesprochen, daß die NV Karten das beste überhaupt sind und allen anderen Überlegen sind.

Ich sehe nur, daß dem nicht so ist, daß bei den einfachsten Dingen bei NV erhebliche Defizite gibt.

Sei es nun nView, den ein 'Theatre/DVD MAX mode' fehlt, den beschränkten TV Out Optionen oder dem bescheidenen Panel.

Ich sehe nur folgendes:

NV bei 3D -> brauchbar
NV bei rest -> bescheiden


Was verbreitset du denn hier wieder für Unsinn?

Was fehlt denn Nview? Und das ganze bitte beweisen!

Ich seh nur folgendes:

SP -> Oberspammer und Verbreiter von Unwahrheiten.

Exxtreme
2003-01-09, 18:41:24
Originally posted by ow
Ich sag dazu nur soviel:
Wer behauptet, dass 16Bit mit Postfilter von der Quali an echte 32 Bit rankommt, der hat einen an der Waffel.

Sorry @all sie sich evtl. angesprochen fühlen.;)
Hat ja auch niemand behauptet. Nur mit 400%'iger Vergrösserung auf Biegen und Brechen irgendwas beweisen zu wollen, klingt für mich sehr unseriös.

StefanV
2003-01-09, 18:49:11
Originally posted by ow



Was verbreitset du denn hier wieder für Unsinn?

Was fehlt denn Nview? Und das ganze bitte beweisen!

Ich seh nur folgendes:

SP -> Oberspammer und Verbreiter von Unwahrheiten.

ow, daß du NV bevorzugst, dürfte jedem im Forum bekannt sein.

1. bevor du anderen beschuldigst, daß er unsinn verbreitet, frag lieber nach, was er überhaupt meint.
BTW: bin wohl nicht allein mit der Meinung, daß NV nicht so gut ist, wie Propagiert, schau dir mal den Poll im NV Forum an.

2. allerhand...
Der bemängelte 'Theatre/DVD MAX' Mode, DAS (http://home.t-online.de/home/Tora-Janar/Fotos/Anzeige.JPG) hier, keine Möglichkeiten den 2. COntroller ohne neustart unter XP zu aktivieren und noch viele andere Dinge.

3. DAS sehe ich anders, NV ist nicht so gut, wie du propagierst...
Insbesondere, wenn man eine Karte mit Philips Encoder hat, ist der TV Out recht bescheiden und das man ein externes Tool benutzen muss, um den TV Out vernünftig zu benutzen, ist einfach eine Frechheit, bei anderen (Matrox, ATI) braucht man solche Tools nicht.

StefanV
2003-01-09, 18:49:53
Originally posted by ow
Ich sag dazu nur soviel:
Wer behauptet, dass 16Bit mit Postfilter von der Quali an echte 32 Bit rankommt, der hat einen an der Waffel.

Sorry @all sie sich evtl. angesprochen fühlen.;)

Hast du schonmal eine Voodoo3/4/5 in Aktion gesehen ??

PCGH_Thilo
2003-01-09, 19:08:40
Originally posted by Exxtreme

Hat ja auch niemand behauptet. Nur mit 400%'iger Vergrösserung auf Biegen und Brechen irgendwas beweisen zu wollen, klingt für mich sehr unseriös.

erzähl nix über 400% vergrößerung. das hab ich damals auch gemacht, um die unterschiede zwischen 22 Bit und 16 Bit zu finden ;-)

Andre
2003-01-09, 19:29:05
Originally posted by Stefan Payne


Andre, es wird hier im Forum immer davon gesprochen, daß die NV Karten das beste überhaupt sind und allen anderen Überlegen sind.

Ich sehe nur, daß dem nicht so ist, daß bei den einfachsten Dingen bei NV erhebliche Defizite gibt.

Sei es nun nView, den ein 'Theatre/DVD MAX mode' fehlt, den beschränkten TV Out Optionen oder dem bescheidenen Panel.

Ich sehe nur folgendes:

NV bei 3D -> brauchbar
NV bei rest -> bescheiden

Wir haben aber grade über Marketing etc. gesprochen, da musst du wieder mit deinem Kleinstfehlern ankommen.
Lass dochmal eine - bitte nur eine - Diskussion mal sachlich von statten gehen.
Diese Bugvergleiche tun grade nichts zur Sache.

Andre
2003-01-09, 19:31:16
Originally posted by Exxtreme

Nene, aths hat in dem Punkt recht, IMHO.

Lustig war es als man 32-Bit-Farbtiefe plötzlich für wichtig hielt. Auf der damaligen TNT1 gerade noch so spielbar war es plötzlich Mode zu sagen, daß 24 fps vollkommen ausreichen, da das Auge eh' nicht mehr erkennt. Dann wurde versucht nachzuweisen, daß 32-Bit-Farbtiefe dem 3dfx'schen Postfilter weit überlegen ist. Dazu wurden Screenshots angefertigt und mit 400%'iger Vergrösserung präsentiert. Man hat dann zwar tatsächlich leichte Artefakte erkennen können aber, daß niemand mit 400%'iger Vergrösserung spielt, das wurde unterschlagen.

Naja, hoffentlich sind die Zeiten derartig plumper Propaganda vorbei... wobei wenn ich an den PCD-Artikel denke... :...(

Das sage ich doch die ganze Zeit.
Ihr könnt noch 100 Argumente und technische Finessen nennen, darauf kommst aber nicht - oder nur teilweise - an.
An deinem Fall sieht man doch, was man mit Marketing und geschickten Schachzügen alles machen kann - egal, was man davon hält.

Andre
2003-01-09, 19:34:52
Payne,

"Insbesondere, wenn man eine Karte mit Philips Encoder hat, ist der TV Out recht bescheiden"

Damit hat aber immer noch NV nichts zu tun. Das ist Herstellersache, was da draufkommt. Man kann sich bequem informieren und eine Karte mit einem anderen Encoder kaufen.

"und das man ein externes Tool benutzen muss, um den TV Out vernünftig zu benutzen, ist einfach eine Frechheit, bei anderen (Matrox, ATI) braucht man solche Tools nicht."

Dafür braucht man bei den anderen andere Tools.
Das isn Nullsummenspiel, was du da machst.
Aber was solls, vor ne Wand reden ist da effektiver.

Piffan
2003-01-09, 19:44:51
Die Redakteure und Reviewer haben es aber auch nicht leicht gehabt angesichts des wahnsinnigen Entwicklungstempos.....Da gabs je nach den technischen Möglichkeiten und dem, was der Redakteur rausarbeiten wollte, auch immer andere Doktrin im Laufe der Zeit...

Als es mal anfing mit der 3d- Beschleunigung war man doch froh, wenn man 12- 15 Bilder pro Sekunde schaffte... da galt eine Matrox Mystique als fetter "Beschleuniger", da wurde die Virge gepriesen, weil sie Texturen filtern konnte, Blending und Fogging beherrschte.... Der Voodoo Grapics wurde in der c't anfangs hoch gelobt, es gab schlicht keine Alternative. In dieser Zeit hatten die Tester einen echt leichten Job; 3dFX und sons nix hieß es überall...

Was dann für ein brutaler Konkurrenzkampf auf dem 3d- Markt für Konsumenten entbrannt ist, haben wohl die meisten hier verfolgt. Dieser Konkurrenzkampf war für die Entwicklung gut, schließlich muß man die Enthusiasten ja alle paar Monate davon überzeugen, dass ihre aktuelle Graka eigentlich schon wieder Schnee von gestern ist und die ultimative Graka mit der nächsten Entwicklungsstufe vor der Tür steht...Ob da immer der Wahrheit entsprechend argumentiert wird, zählt für den Erfolg am Markt doch gar nicht, es kommt nur darauf an, den Kunden die Karten madig zu machen, die sich aktuell in ihren Rechnern befinden...

Angesichts der schnellen Entwicklung waren ja wohl auch viele Redakteure überfordert.... Ich weiß noch, wie der c't Redakteur Manfred Bertuch über den Unsinn der großen Speicher auf den Grakas wetterte, unter anderem stellte er den Sinn von Auflösungen höher als 640x480 in Frage... die Argumentation war, dass die Grafik eines Spieles für diese Auflösung optmimiert ist und niemand einen Vorteil im Spiel durch hohe Auflösungen hätte, alle Schalter und Modelle seien schließlich bewußt grob gezeichnet..die Auflösung der Texturen würde ja auch nicht besser werden und überhaupt bestünde der Sinn nur in kleineren Zacken an den Polygonen...

Rückblickend kann man über solche Ansichten nur noch schmunzeln.... Wenn ich die Saurierdemo betrachte, die damals für HardwareTL entwickelt wurde, kann man die kritiklose Begeisterung der Redakteure für TL sehr gut nachvollziehen....Die einzige mir bekannte kritische Stimme kam damals von ram auf 3dconcept.ch.. Auch wenn ich nur halb so viel von seinen stringenten Ausführugen verstehen konnte wie ich gerne wollte, habe ich den Eindruck gehabt, dass er die Entwicklung grundsätzlich gutheißt, aber einige Flaschenhälse im System noch den vollen Einsatz vorerst einschränken würden...

Aber was solls, schließlich raucht der Schlot und allmählich kommt die Hardware doch immer weiter voran... für mich als begeisterten Zocker war keine einzige Nv- Graka eine Fehlinvestition, ich besitze sie alle vom TNT bis hin zur Gf4 fast alle, nur den Geforce 256 habe ich ausgelassen. Sie haben mich allesamt begeistert. Der beste Wurf ist für mich die G3 gewesen. Wenn der nächste wieder so einen Quantensprung brächte, dann haben ich will das Teil !!!

Uups, jetzt habe ich wieder einen ellenlange Monolog geführt....

aths
2003-01-09, 20:57:05
Originally posted by PCGH_Thilo
aths, du machst es dir da etwas einfach. 3dfx ist nicht den bach runtergegangen, weil sie zu schlechte tests bekommen oder weil die reviewer den falschen schwerpunkt bei ihrer bewertung gesetzt haben. Das habe ich ja auch nicht geschrieben.

aths
2003-01-09, 20:59:12
Originally posted by Razor
Versteh' ich nicht...
Wer die Karte nur wegen eines (gehypten) Features kauft, hat 'eh verloren.

Ansonsten: Meine gfddr hat damals locker 2 Jahre 'gehalten' und meine gute alte gf3 hat nun auch schon fast 2 Jahre auf dem Buckel. Was ist daran jetzt nicht zukunftssicher gewesen ?

Wie gesagt, ich verstehe Dich nicht...Was brachte die T&L bei deiner GeForce DDR? Was bringt die nFinite FX Engine der GeForce3? Innerhalb der "Lebenszeit" der Karte - nicht nichts, aber recht wenig.

aths
2003-01-09, 21:00:16
Originally posted by Exxtreme
Lustig war es als man 32-Bit-Farbtiefe plötzlich für wichtig hielt. Auf der damaligen TNT1 gerade noch so spielbar war es plötzlich Mode zu sagen, daß 24 fps vollkommen ausreichen, da das Auge eh' nicht mehr erkennt. Dann wurde versucht nachzuweisen, daß 32-Bit-Farbtiefe dem 3dfx'schen Postfilter weit überlegen ist. Dazu wurden Screenshots angefertigt und mit 400%'iger Vergrösserung präsentiert.Nee. Die Vergrößerungen wurden mit Screenshots gemacht, so dass der Postfilter ja gar nicht zum Zuge kam.

aths
2003-01-09, 21:01:17
Originally posted by ow
Ih sag dazu nur soviel:
Wer behauptet, dass 16Bit mit Postfilter von der Quali an echte 32 Bit rankommt, der hat einen an der Waffel.

Sorry @all sie sich evtl. angesprochen fühlen.;) Solange nur 16-Bit-Texturen und nur 1-2 Texturschichten angewendet wurden (und zu Voodoo3-Zeiten war das Stand der Technik) bot der 32-Bit-Modus tatsächlich nur geringe Vorteile.

aths
2003-01-09, 21:02:22
Originally posted by ow
Was verbreitset du denn hier wieder für Unsinn?

Was fehlt denn Nview? Und das ganze bitte beweisen!

Ich seh nur folgendes:

SP -> Oberspammer und Verbreiter von Unwahrheiten. Offenbar verbreitet er seine Meinung, die er auch haben darf.

Wenn dir nichts bei nView fehlt, so kann es für SP doch trotzdem durchaus Kritikpunkte geben?

Was wahr und was unwahr ist, liegt gerade bei Bewertungen von Dingen im Auge des Betrachters.

Dunkeltier
2003-01-09, 21:17:05
Originally posted by aths
Was brachte die T&L bei deiner GeForce DDR? Was bringt die nFinite FX Engine der GeForce3? Innerhalb der "Lebenszeit" der Karte - nicht nichts, aber recht wenig.

Aber irgendwer muß das "Tor" aufstoßen und der Wegbereiter sein. NVidia hat egal ob sinnvoll oder nicht, dies einfach in Form der Geforce 256 (und später Geforce 2) auf dem Markt gewürfelt. Irgendwann ist eine Menge X von Rechnern damit ausgestattet, und Zack dann kommt der Durchbruch. Weil Entwickler auf eine bestimme Hardwarebasis hin entwickeln können, die es vorher nicht gab. Das dies der Geforce 256 nicht viel half, ist klar. Aber immerhin konnte man dies mitvermarkten.

nggalai
2003-01-09, 21:28:10
Hi aths,
Originally posted by aths
Offenbar verbreitet er seine Meinung, die er auch haben darf.

Wenn dir nichts bei nView fehlt, so kann es für SP doch trotzdem durchaus Kritikpunkte geben?

Was wahr und was unwahr ist, liegt gerade bei Bewertungen von Dingen im Auge des Betrachters. Ja, da gebe ich dir voll recht--aber ich muss auch eingestehen, dass ich in Stefans Postings häufig nur "Allgemeinschlüsse" finde ("TFT-Benutzer würden sich heute keine NVIDIA-Karte mehr kaufen"), oder Aussagen, welche sich eigentlich auf die Kartenhersteller beziehen müssten, auf NV umwälzt (die TV-Chip Sache). Ausserdem präsentiert Stefan diese Aussagen gerne als Fakt, und nicht als Meinung (Die Signalqualität von ATi ist NV bei weitem überlegen und so). In einer Diskussion macht das nicht sehr viel Sinn, IMO.

ta,
-Sascha.rb

StefanV
2003-01-09, 21:40:36
Originally posted by nggalai
(...)
oder Aussagen, welche sich eigentlich auf die Kartenhersteller beziehen müssten, auf NV umwälzt (die TV-Chip Sache). Ausserdem präsentiert Stefan diese Aussagen gerne als Fakt, und nicht als Meinung (Die Signalqualität von ATi ist NV bei weitem überlegen und so). In einer Diskussion macht das nicht sehr viel Sinn, IMO.

ta,
-Sascha.rb

1. für den verwendeten TV Out kann NV nicht wirklich was, das stimmt.
Für das Panel, in dem ich den TV Out einstellen kann, schon.
Und bei mir kann ich den TV höchstens an und abschalten, das wars, für mehr brauch ich das TV-Tool...

2. Das ich meine 'Meinung' als Fakt präsentiere, damit dürfte ich wohl nicht allein sein :eyes:...
Dafür sag ich (meistens), welche Karte/welchen Chip ich meine...

[edit]

Bei bedarf kann ich ja mal ein paar Screens zum TV Panel zu meinem Philips SAA7104 posten, die Einstellungen vom Savage 2000 sind dagegen reichhaltig...
BTW: NV kann auch was dafür, daß sie keinen Theatre/DVDmax Mode haben...

StefanV
2003-01-09, 22:23:16
achso:

mein 'nView Panel' schaut atm so aus:
http://home.t-online.de/home/Tora-Janar/Fotos/TWinview2.JPG

'nette' Sache, vorallendingen weil TV Tool auch nicht funzt...

Treiber hab ich mehrmals deinstalliert und installiert, immer das gleiche.

Und ja, hab die Datein manuell im Windoof Verzeichnis gelöscht.

Ficus
2003-01-09, 23:37:23
Originally posted by Stefan Payne
mein 'nView Panel' schaut atm so aus:
http://home.t-online.de/home/Tora-Janar/Fotos/TWinview2.JPG.hmmm... sach mal Stefan, wie alt ist der ScreenShot?
Mir ist so als wenn ich den schon vor 3 - 4 Monaten von dir gesehen hab.

BTW: Was heisst 'atm'?

StefanV
2003-01-09, 23:46:31
Originally posted by Ficus
hmmm... sach mal Stefan, wie alt ist der ScreenShot?
Mir ist so als wenn ich den schon vor 3 - 4 Monaten von dir gesehen hab.

BTW: Was heisst 'atm'?

1. keine Ahnung, ist schon etwas älter, ist aber immer noch so, hab keine Lust noch mehr 'rumzuinstallieren'...

2. atm -> At The Moment, IIRC (if i remember correctly)

Ficus
2003-01-09, 23:54:24
Originally posted by Stefan Payne 2. atm -> At The Moment, IIRC (if i remember correctly) Google sagt: ATM
Akademie für Tiernaturheilkunde
Amateur Telescope Making
Asynchronous Transfer Mode
ALUAH-TRANCE MASSAGE
...ich mochte das Teil noch nie :D

Rampage 2
2003-01-09, 23:56:22
Originally posted by Exxtreme

Nene, aths hat in dem Punkt recht, IMHO.

Lustig war es als man 32-Bit-Farbtiefe plötzlich für wichtig hielt. Auf der damaligen TNT1 gerade noch so spielbar war es plötzlich Mode zu sagen, daß 24 fps vollkommen ausreichen, da das Auge eh' nicht mehr erkennt. Dann wurde versucht nachzuweisen, daß 32-Bit-Farbtiefe dem 3dfx'schen Postfilter weit überlegen ist. Dazu wurden Screenshots angefertigt und mit 400%'iger Vergrösserung präsentiert. Man hat dann zwar tatsächlich leichte Artefakte erkennen können aber, daß niemand mit 400%'iger Vergrösserung spielt, das wurde unterschlagen.

Naja, hoffentlich sind die Zeiten derartig plumper Propaganda vorbei... wobei wenn ich an den PCD-Artikel denke... :...(

Tja, an 3dfx' Untergang ist nicht nur 3dfx selbst und Nvidia's
Marketinggelaber schuld, sondern deutlich auch die Medien und
die Zeitschriften. Mit solchen Scheiß-Argumenten haben sie
Bevölkerung dazu gebracht, sich Nvidia-Karten zu kaufen.
Aber der Preis, den NV noch zahlen muss, wird sehr hoch sein*eg*

Aaah, scheiß Presse :sniper: - euch sollte ich am Arsch reiben!!!

*M16bereithält*:D

aths
2003-01-09, 23:59:46
Originally posted by nggalai
Hi aths,
Ja, da gebe ich dir voll recht--aber ich muss auch eingestehen, dass ich in Stefans Postings häufig nur "Allgemeinschlüsse" finde ("TFT-Benutzer würden sich heute keine NVIDIA-Karte mehr kaufen"), oder Aussagen, welche sich eigentlich auf die Kartenhersteller beziehen müssten, auf NV umwälzt (die TV-Chip Sache). Ausserdem präsentiert Stefan diese Aussagen gerne als Fakt, und nicht als Meinung (Die Signalqualität von ATi ist NV bei weitem überlegen und so). In einer Diskussion macht das nicht sehr viel Sinn, IMO.Diskussionen um SP sind in diesem Forum eigentlich OT :)

Was den Diskussionsstil angeht, so ist Stefans, meiner, auch ows noch verbesserbar. Mich nervt nicht nur die Penetranz von einigen SP-Postings :) Bin selbst natürlich auch nicht gerade als Vorbild brauchbar.

StefanV
2003-01-10, 00:01:09
Originally posted by Ficus
Google sagt: ATM
Akademie für Tiernaturheilkunde
Amateur Telescope Making
Asynchronous Transfer Mode
ALUAH-TRANCE MASSAGE
...ich mochte das Teil noch nie :D

Versuchs nochmal mit 'Akronyme' ;)

aths
2003-01-10, 00:06:18
Originally posted by Rampage 2
Tja, an 3dfx' Untergang ist nicht nur 3dfx selbst und Nvidia's
Marketinggelaber schuld, sondern deutlich auch die Medien und
die Zeitschriften. Mit solchen Scheiß-Argumenten haben sie
Bevölkerung dazu gebracht, sich Nvidia-Karten zu kaufen. Die Gedankenrichtung, dass die Medien Mitschuld am nVidia-Erfolg haben, wollte ich natürlich auch andeuten. Aber halt nur andeuten, und keine Schuldzuweisung treffen.

3dfx' Untergang ist ihren eigenen Fehlern zuzurechnen. Dazu gehört (hier unterscheidet sich meine Meinung von vielen anderen) gar nicht mal unbedingt der Kauf von STB, aber auf jeden Fall die Entscheidung, Voodoo3 und Voodoo5 nur auf eigenen Boards herauszubringen. Dazu gehören aber noch mehr die Schlampereien, die die Verzögerung der Voodoo5 gebracht haben. 3dfx versenkte zuviel Geld, verprellte die OEMs und brachte Voodoo5 zu spät. Die Presse hängt ihr Fähnchen ohnehin in den Wind, sie wäre später genauso gut wieder zu 3dfx umgeschwenkt. Natürlich haben sie zeitweilig für ein imo ungerechtfertigt schlechtes 3dfx-Image gesorgt. In diesem Punkte kann man aber völlig unterschiedlicher Meinung sein, wenn jemand meint, das 3dfx sei noch viel schlechter gewesen als das Image, dann soll er diese Meinung haben.

ice cool69
2003-01-10, 01:25:17
naja aber irgendwie muss man nvidia auch großen respekt zollen.

vielleicht war t&l nicht das feature für das man es verkauft hat, aber man hat es geschafft einen absoluten hype zu erzeugen und die massen zu begeistern.

ich hab damals auch bei der geforce256ddr zugeschlagen (satte 600 DM für eine graka von der ich absolut enttäuscht war, probs mit dem mainboard und von t&l hab ich halt viel mehr erwartet).

ich war aber schon zur zeit der voodoo3 der überzeugung dass nvidia 3dfx den rang abläuft (dass es so schnell gehen würde hab ich aber nicht erwartet). es war einfach viel mehr hype und gerede um die geforce und t&l und AA wurde von 3dfx einfach nicht so gut rübergebracht.

außerdem kann ich mich erinnern dass nvidia auch ein AA eingeführt hat für die geforce und vom großen qualitäts/geschwindigkeitsunterschied hatte ich damals keinen schimmer und ich hatte halt angst dass ich bald ohne t&l nix mehr zocken kann.

da ich aber zb damals die voodoo3 als total scheiße fand (das gleiche wie 2 v2s im slibetrieb auf ner 2D-karte) und innovationslos hab ich damals auch eher zu ner TNT2 geraten.

ich bin grundsätzlich jemand der besonders starke positive veränderung am meisten schätzt. deshalb war ich damals von 3dfx und der v1 und v2 begeistert, später von nvidia und der tnt2 und geforce1 und heute bin ich am meisten von ati und der r300 begeistert weil sich diese firma am schnellsten hochentwickelt hat.

alteingesessene marktführer faszinieren mich nicht wirklich da sie meistens innovationslos und teuer sind (nvidia, intel).

PS: schon gehört dass amd und ibm jetzt zusammenarbeiten um mit intels MHz-wahn mithalten zu können? find ich genial 8)

Crushinator
2003-01-10, 02:44:12
Originally posted by ice cool69
...
PS: schon gehört dass amd und ibm jetzt zusammenarbeiten um mit intels MHz-wahn mithalten zu können? find ich genial 8) Sorry für OT, aber sie arbeiten nicht zusammen um mit dem Taktwahn mithalten zu können, sondern weil IBM (nach eigenen Angaben) schon weiter oder genau so weit im 0,9 µ Prozeß ist als Intel. Außerdem glaubt AMD, daß deren und oder Motorolas Ressourcen für diesen schwierigen Prozeß nicht ausreichen würden.

Der Link hat es irgndwie in sich:
http://www.heise.de/newsticker/data/ciw-09.01.03-000/

Am Endefekt geht's wohl darum schneller als Intel den Prozeß zu beherschen. Selbst dann würde aber ein Hammer mit den Taktraten vom P4 nicht mithalten können, nur mit dem Vorteil, daß ein auf 3 GHz laufender Hammer AFAIR jeden P4 (bis ~4,5 GHz) bei der Pro MHz-Leistung in Grund und Boden stampfen müßte. *eg*

Ich persönlich finde diese Kooperation toll und erwarte Ende des Jahres einen 3 GHz Hammer kaufen zu können, FREUUUUU!!!!11
(Ob der wohl für DooM III reicht? :D)

P.S.: Jetzt fehlt nur noch eine Kooperation gegen ATi und nVidia.

Razor
2003-01-10, 04:35:56
Originally posted by aths
Was brachte die T&L bei deiner GeForce DDR? Was bringt die nFinite FX Engine der GeForce3? Innerhalb der "Lebenszeit" der Karte - nicht nichts, aber recht wenig.
Falsche Fragestellung...

Ich würde so fragen:
- was brachte mir 32-Bit bei der gfddr ?
- was brachte mir T&L bei der gf3 ?
Und um noch eines drauf zu setzen:
- was würde mir DX8 bei einer gffx bringen ?

Verstehst Du, worauf ich hinaus will ?

Und noch etwas:
- Wo wäre 32-Bit, wenn nicht mit TNT eingeführt ?
- Wo wäre T&L, wenn nicht mit gfddr eingeführt ?
- Wo wäre DX8, wenn nicht mit gf3 eingeführt ?

Ich weiss schon, worauf Du hinaus willst, aber versuch auch meinen Standpunkt zu verstehen.
Und eines ist auch klar: DX9 wird erst mit einer DX10-Karte etwas u.s.w. - alles schön und gut...
... und vor allem: richtig !

Auch ist es eine Binsenweisheit, dass Software für eine neue Technologie ebenfalls so ca. 2 Jahre braucht. Aber 2 Jahre von was ? Klar, 2 Jahre nach Einführung einer Technologie. Aber was, wenn die Software zur Zeit der Technologie-Einführung da sein soll ? Wie soll das gehen ? - Wie war das noch mit dem Ei und der Henne ?

Wer auf das Marketing-Singsang hinein fällt und meint mit einer DX8-Karte auch wirklich DX8 zu bekommen, tut mir einfach nur leid. Er bekommt dafür aber DX7 par excelènce, mit Ausblick auf DX8. Aber jeder (!) Käufer einer DX8-Karte bereitet DX8 den Weg, welches dann mit DX9 seinen 'richtigen' Einstand geben wird. So war es immer und so wird es immer sein...

Bis denne

Razor

P.S.: Und wer beispielsweise kurz vor Einführung von DX9 eine DX8-Karte kauft, hat eben Pech...
Lieber ein paar Euro mehr aus dem Fenster werfen und ein bischen Geduld haben, als immer noch viel zu viel für eine veraltete Technologie hinaus zu schleudern.
Meine Meinung...

Razor
2003-01-10, 04:51:49
Originally posted by Stefan Payne

1. für den verwendeten TV Out kann NV nicht wirklich was, das stimmt.
Für das Panel, in dem ich den TV Out einstellen kann, schon.
Und bei mir kann ich den TV höchstens an und abschalten, das wars, für mehr brauch ich das TV-Tool...

2. Das ich meine 'Meinung' als Fakt präsentiere, damit dürfte ich wohl nicht allein sein :eyes:...
Dafür sag ich (meistens), welche Karte/welchen Chip ich meine...

[edit]

Bei bedarf kann ich ja mal ein paar Screens zum TV Panel zu meinem Philips SAA7104 posten, die Einstellungen vom Savage 2000 sind dagegen reichhaltig...
BTW: NV kann auch was dafür, daß sie keinen Theatre/DVDmax Mode haben...
Stefan,

Du willst es einfach nicht raffen, oder ?
nVidia bietet für 'ihre' Treiber nicht einmal Support !
DAS ist doch wohl ein Hammer, oder ?
Oder eher nicht ?

Um es Dir noch einmal klipp und klar zu sagen: nVidia hat nicht eine einzige Karte für den Verkauf hergestellt !
*Bumm*

Fällt Dir jetzt was auf ?

Matrox stellt die Karten selber her...
ATI tat dies bis vor kurzem auch noch...
nVidia tat dies nie !

Der Hersteller einer Karte ist für die Software verantwortlich, nicht der Chip-Hersteller !
Der Chip-Hersteller kann nur ein Grundgerüst bieten, was der Hersteller nach belieben ausbauen kann...
Erinnerst Du Dich noch an ELSA damals ?

Das die Hersteller dies heute nicht mehr tun und die Käuferschaft mittlererweile dazu über gegangen ist, unsupportete Referenztreiber einzetzen und auf das Herstellerzeugs zu verzichten, darf nicht nVidia, sondern muss den Herstellern angelastet werden !

Aber bei Dir hat man wirklich das Gefühl, gegen eine Wand zu reden, Stefan.

In diesem Sinne

Razor

seahawk
2003-01-10, 09:02:53
Und lieber SP wer einen Gainward Treiber auf einer Prolink´karte fährt braucht sich nicht wundern.

Grundsätzlich hat Razor recht. Die nicht richtige Ausnutzung von neuen Features ist nicht der Fehler der Karthenhersteller. Die Softwarehersteller werden ihre Programme so schreiben, dass sie auf einem möglichst großen Teil der Hardware ohne Einschränkung läuft.

Wenn T&L kam hatte es aber kaum jemand. Erst als die ersten T&L Karten eigentlich schon wieder veraltet waren ist die Feature weiter verbreitet gewesen.

Die GeForce 3 (habe ich übrignens auch und bei weiterhin sehr zufrieden, da sie seit fast 19 Monaten fast alles gut spielen läst) hat DX 8 eingeführt. Bis DX 8 allerdings verbreitet war (so jetzt) ist die Karte schon wieder alt.

Dies wird mit der R300 der FX und evtl. sogar der nächsten Generation DX 9 Karten gneauso sein. Bis die DX 9 Features ausgereizt werden sind die Karten veraltet.

Der "Fehler" liegt aber nicht bei den Hardwareherstellern sondern bei den Softwarefirmen, da diese langsam sind neue Features der Hardware auch auszunutzen. Dies geschieht meistens erst wenn mehr als 60% aller genutzten Karten dieses Feature haben.

Es wäre bestimmt möglich eine DX 9 Version von UT2k3 zu machen, die wahrscheinlich auf R300 und NV30 wahnsinning gut aussehe, leider lohnt sich der Aufwand nicht, da die Hardware noch zu selten ist.

Man muss doch mal sehen, dass die Inovationen bei den 3D Anwendungen von den Hardwareherstellern ausgingen und nicht von den Spieleherstellern. Die Spielehersteller könnten noch heute Spiele für die Voodoo 2 machen und wären wahrscheinlich nicht mal unglücklich damit.

Exxtreme
2003-01-10, 09:35:57
[B]Originally posted by
Ich würde so fragen:
- was brachte mir 32-Bit bei der gfddr ?
- was brachte mir T&L bei der gf3 ?
Und um noch eines drauf zu setzen:
- was würde mir DX8 bei einer gffx bringen ?

Verstehst Du, worauf ich hinaus will ?


Razor,

also mir ging's eher darum, daß z.B. die TNT1 Features beinhaltete und mit ihnen geworben wurde, für die der Chip viel zu langsam war. 32-Bit-Farbtiefe war mit Ach und Krach spielbar bei älteren Games, nur bei diesen Games brachte es null komma nix. 2048x2048-Texturen kann man in der Praxis auch knicken da die Speichergrösse und Speicherdurchsatz völlig unterdimensioniert sind. Bei der GF1 war die T&L-Unit auch ziemlich überflüssig. Erstens fressen die T&L-Daten auch Bandbreite, von der die GF1 nie richtig genug hatte und zwotens waren die CPUs ab 800 MHz schneller als die T&L-Engine der GF1. Die erste Generation, mit der man in 32-Bit ohne Reue spielen konnte, war die R100/NV15-Generation, da genügend Bandbreite vorhanden war. Auch T&L wurde da brauchbar.

Aber wie gesagt, diese Features wurden gehypt, obwohl sie nie in der Praxis brauchbar gewesen wären sondern immer eine bis zwei Generationen später.

Und genau das war bei 3dfx anders. Die Voodoos hatten im Vergleich zur Konkurrenz meist weniger Features aber das was sie konnten, das war in der Praxis auch nutzbar.

Demirug
2003-01-10, 10:11:49
Originally posted by Exxtreme
Bei der GF1 war die T&L-Unit auch ziemlich überflüssig. Erstens fressen die T&L-Daten auch Bandbreite, von der die GF1 nie richtig genug hatte und zwotens waren die CPUs ab 800 MHz schneller als die T&L-Engine der GF1. Die erste Generation, mit der man in 32-Bit ohne Reue spielen konnte, war die R100/NV15-Generation, da genügend Bandbreite vorhanden war. Auch T&L wurde da brauchbar.

Aber wie gesagt, diese Features wurden gehypt, obwohl sie nie in der Praxis brauchbar gewesen wären sondern immer eine bis zwei Generationen später.

Da muss ich dir aber ein bischen wiedersprechen. Überleg dir mal was für CPUs zu dem Zeitpunkt als die GF1 Highend war ebenfalls HighEnd waren. Bei einer solchen Kombination bringt das T&L durchaus noch was. Die T&L Daten können auch über den AGP laufen so das man sich nichts von der wertvollen Speicherbandbreite wegnimmt.

Andre
2003-01-10, 10:27:03
Originally posted by Exxtreme
Aber wie gesagt, diese Features wurden gehypt, obwohl sie nie in der Praxis brauchbar gewesen wären sondern immer eine bis zwei Generationen später.

Die Frage ist doch, wie man das anders lösen kann.
Es wird immer so sein, dass wenn Menschen auf wirklich geile Demos und Prototypen schauen und sehen was die alles können, erstmal total fasziniert sind.
Dafür gibts z.B. im Automobilbereich Concept Cars - die Dinger kommen auch erst nach 5 Jahren, wennn überhaupt, aber sie zeigen, was in Zukunft möglich sein wird.

So sehe ich das bei Grakas auch.
Es muss einfach so sein, dass die Features in Hardware verfügbar sind, bevor sie in Software umgesetzt werden. Nur so ist die notwendige Marktdurchdringung und Konsistenz gewährleistet.
Ich denke nicht, dass es anders funktionieren würde.

Und deswegen sehe ich es als gerechtfertigt an, ein Feature zu werben, was vielleicht erst später zum Einsatz kommt, denn jeder Chiphersteller will doch seine Features an den Mann bringen.

seahawk
2003-01-10, 10:27:31
Originally posted by Exxtreme

Erstens fressen die T&L-Daten auch Bandbreite, von der die GF1 nie richtig genug hatte und zwotens waren die CPUs ab 800 MHz schneller als die T&L-Engine der GF1. Die erste Generation, mit der man in 32-Bit ohne Reue spielen konnte, war die R100/NV15-Generation, da genügend Bandbreite vorhanden war. Auch T&L wurde da brauchbar.


Also 800 Mhz CPUs waren doch noch selten als die erste GeForce kam.

Exxtreme
2003-01-10, 10:38:12
Originally posted by Andre

Und deswegen sehe ich es als gerechtfertigt an, ein Feature zu werben, was vielleicht erst später zum Einsatz kommt, denn jeder Chiphersteller will doch seine Features an den Mann bringen.
Tja, das Problem ist aber, daß wenn das Feature zum Einsatz kommt, die GraKa wiederum viel zu langsam dafür ist. Der Käufer hat im Endeffekt nichts davon obwohl er das Feature gekauft hat. Wäre die TNT1 für 32-Bit-Farbtiefe schnell genug gewesen, hätte ich nichts gesagt.

nggalai
2003-01-10, 10:41:05
Hi there,
Originally posted by Andre
Es muss einfach so sein, dass die Features in Hardware verfügbar sind, bevor sie in Software umgesetzt werden. Nur so ist die notwendige Marktdurchdringung und Konsistenz gewährleistet.
Ich denke nicht, dass es anders funktionieren würde.

Und deswegen sehe ich es als gerechtfertigt an, ein Feature zu werben, was vielleicht erst später zum Einsatz kommt, denn jeder Chiphersteller will doch seine Features an den Mann bringen. Full ack. Ohne Marktdurchdringung wird ein Feature höchstens als Add-on oder Freak-Beigabe unterstützt werden (und dann auch nur von Studios, die sich solche Experimente leisten können oder vom Grafikkartenhersteller einen netten "incentive" erhalten). Je mehr coole Features in einer Grafikkarte integriert sind, desto besser die Chance, dass die Features mit der nächsten Generation auch unterstützt werden.

ta,
-Sascha.rb

Andre
2003-01-10, 10:48:42
Originally posted by Exxtreme

Tja, das Problem ist aber, daß wenn das Feature zum Einsatz kommt, die GraKa wiederum viel zu langsam dafür ist. Der Käufer hat im Endeffekt nichts davon obwohl er das Feature gekauft hat. Wäre die TNT1 für 32-Bit-Farbtiefe schnell genug gewesen, hätte ich nichts gesagt.

Aber irgendwann muss man dochmal anfangen.

Hast du eine andere Lösung parat?

Xmas
2003-01-10, 11:11:21
Originally posted by Exxtreme
Tja, das Problem ist aber, daß wenn das Feature zum Einsatz kommt, die GraKa wiederum viel zu langsam dafür ist. Der Käufer hat im Endeffekt nichts davon obwohl er das Feature gekauft hat. Wäre die TNT1 für 32-Bit-Farbtiefe schnell genug gewesen, hätte ich nichts gesagt.
Ob 32 Bit schnell genug war beruhte auf rein subjektiven Einschätzungen. Aus deiner Sicht mag es damals unnötig gewesen sein. Aber das ist vergleichbar mit den langen Shadern der GeForceFX. Shader mit 500 Instruktionen laufen in der Tat vergleichsweise langsam, aber ob das zu langsam ist hängt immer von den persönlichen Anforderungen ab.

Wenn man ein Feature erst dann in die Hardware einbaut, wenn es "schnell genug" ist, tja, dann hat der Käufer noch weniger davon, weil es dann zu diesem Zeitpunkt nicht unterstützt wird. Schließlich gab es ja keine Hardware, auf der die Entwickler arbeiten konnten.

betasilie
2003-01-10, 11:16:22
Originally posted by Xmas

Ob 32 Bit schnell genug war beruhte auf rein subjektiven Einschätzungen. Aus deiner Sicht mag es damals unnötig gewesen sein. Aber das ist vergleichbar mit den langen Shadern der GeForceFX. Shader mit 500 Instruktionen laufen in der Tat vergleichsweise langsam, aber ob das zu langsam ist hängt immer von den persönlichen Anforderungen ab.

Wenn man ein Feature erst dann in die Hardware einbaut, wenn es "schnell genug" ist, tja, dann hat der Käufer noch weniger davon, weil es dann zu diesem Zeitpunkt nicht unterstützt wird. Schließlich gab es ja keine Hardware, auf der die Entwickler arbeiten konnten.
Genau so sehe ich das auch. Zum anderen sind neue Features bei GPUs ja auch eine Art Feldtest. Besser kann man praktische Implementierungen von neuen Features in Hardware halt nicht testen und Nadelöhre sind auf diesem Wege auch hervorragend auszumachen.

Eusti
2003-01-10, 12:26:10
Originally posted by Andre

Es muss einfach so sein, dass die Features in Hardware verfügbar sind, bevor sie in Software umgesetzt werden. Nur so ist die notwendige Marktdurchdringung und Konsistenz gewährleistet.
Ich denke nicht, dass es anders funktionieren würde.Es würde der Marktdurchdringung ernorm helfen, wenn man einen klar dominaten Marktführer hätte (mit 80%+ Marktanteil). In diesem Fall würden neue Features sofort bei allen verfügbaren Produkten intregiert. Gäb es z.B. fast nur NVidia, dann wäre bei einem kompletten Line-Up der NV3x Serie sofort jeder Chip in der Lage komplexe Shaderprogramme zu nutzen.

Heute wird man sich erst auf die Leistung der Radeon in diesem Bereich beschränken und die Möglichkeiten der Geforce ausser Acht lassen.

Exxtreme
2003-01-10, 12:33:50
Originally posted by Eusti
Heute wird man sich erst auf die Leistung der Radeon in diesem Bereich beschränken und die Möglichkeiten der Geforce ausser Acht lassen.
Tja, das nennt sich Pech. Dieser Umstand hat aber auch andere Firmen erwischt und nicht nur Nvidia.

Eusti
2003-01-10, 12:43:27
Originally posted by Exxtreme

Tja, das nennt sich Pech. Dieser Umstand hat aber auch andere Firmen erwischt und nicht nur Nvidia. Ja, z.B. ATI mit Ihrem TrueForm und Matrox mit ihrem Displacement-Mapping.

Der Vorteil von Wettbewerb ist das rasante Steigern der Rohleistung und das schnelle Sinken von Preisen und das entwickeln von immer neuen Techniken und Features.

Der Nachteil liegt aber in der Dauer zur Akzepierung und Anwendung von neuen Features.

StefanV
2003-01-10, 12:48:27
Originally posted by crushinator
Sorry für OT, aber sie arbeiten nicht zusammen um mit dem Taktwahn mithalten zu können, sondern weil IBM (nach eigenen Angaben) schon weiter oder genau so weit im 0,9 µ Prozeß ist als Intel. Außerdem glaubt AMD, daß deren und oder Motorolas Ressourcen für diesen schwierigen Prozeß nicht ausreichen würden.

Der Link hat es irgndwie in sich:
http://www.heise.de/newsticker/data/ciw-09.01.03-000/

öhm, crushinator, warum zur Hölle sollte AMD einen 0,9µ Prozess wollen ??

Vorallendingen:
Was können sie damit überhaupt noch produzieren ??
Außer alte 486 für die NASA *eg*

BTW: ein 0,9µ Prozess ist alles andere als schwer in den Griff zu bekommen mit heutiger Technologie, außerdem müsste ein Athlon ohne Cache eine DIE Size von *lüg* ~10 cm² haben, vom Takt ganz zu schweigen ;)


So, genug gespammt, ich denke, du meinst 90nm bzw 0,09µ...

Unregistered
2003-01-10, 12:48:38
Originally posted by Eusti
Es würde der Marktdurchdringung ernorm helfen, wenn man einen klar dominaten Marktführer hätte (mit 80%+ Marktanteil). In diesem Fall würden neue Features sofort bei allen verfügbaren Produkten intregiert. Gäb es z.B. fast nur NVidia, dann wäre bei einem kompletten Line-Up der NV3x Serie sofort jeder Chip in der Lage komplexe Shaderprogramme zu nutzen.

Heute wird man sich erst auf die Leistung der Radeon in diesem Bereich beschränken und die Möglichkeiten der Geforce ausser Acht lassen.

Milchmädchenrechnung.

Der Hersteller würde sich neue Features auch besser bezahlen lassen.

Siehe GeForce4Ti und GF4MX.

seahawk
2003-01-10, 13:13:04
Oder viel später bringen ....

Selbst wenn NV ab einem Tag X nur noch Grafikkarten mit den grundsätzlichen Fähigkeiten der FX bauen würde und Marktführer wäre (Ist jetzt nur ein Beispiel auf Wunsch Radeon und ATI einfügen),
würde diese Feature erst genutzt wenn bei den wirklichinstallierten Grafikkarten die deutliche Mehrheit auch dieses Feature hat. Also erst wenn die Mehrheit der Benutzer auf neue Grafikkarten gesetzt hat. Der Zeitraum dürfte da nicht kürzer sein als heute. (Eher länger)

Stefan : Danke für den tollen Beitrag. :asmd:

Unregistered
2003-01-10, 13:13:06
Originally posted by Eusti
Es würde der Marktdurchdringung ernorm helfen, wenn man einen klar dominaten Marktführer hätte (mit 80%+ Marktanteil). In diesem Fall würden neue Features sofort bei allen verfügbaren Produkten intregiert. Gäb es z.B. fast nur NVidia, dann wäre bei einem kompletten Line-Up der NV3x Serie sofort jeder Chip in der Lage komplexe Shaderprogramme zu nutzen.

Heute wird man sich erst auf die Leistung der Radeon in diesem Bereich beschränken und die Möglichkeiten der Geforce ausser Acht lassen.

ATI hällt sich an den Standard von DirectX 9. Wenn nVidia hier sein eigenes Süppchen kocht ist das ihr Problem. Sie müssen damit klarkommen das von Programmen nur das unterstützt wird was alle beherchen und der Rest ungenutzt bleibt.

StefanV
2003-01-10, 13:15:46
Originally posted by Razor

Stefan,

Du willst es einfach nicht raffen, oder ?
nVidia bietet für 'ihre' Treiber nicht einmal Support !
DAS ist doch wohl ein Hammer, oder ?
Oder eher nicht ?

Um es Dir noch einmal klipp und klar zu sagen: nVidia hat nicht eine einzige Karte für den Verkauf hergestellt !
*Bumm*

Fällt Dir jetzt was auf ?

Matrox stellt die Karten selber her...
ATI tat dies bis vor kurzem auch noch...
nVidia tat dies nie !

Der Hersteller einer Karte ist für die Software verantwortlich, nicht der Chip-Hersteller !
Der Chip-Hersteller kann nur ein Grundgerüst bieten, was der Hersteller nach belieben ausbauen kann...
Erinnerst Du Dich noch an ELSA damals ?

Das die Hersteller dies heute nicht mehr tun und die Käuferschaft mittlererweile dazu über gegangen ist, unsupportete Referenztreiber einzetzen und auf das Herstellerzeugs zu verzichten, darf nicht nVidia, sondern muss den Herstellern angelastet werden !

Aber bei Dir hat man wirklich das Gefühl, gegen eine Wand zu reden, Stefan.

In diesem Sinne

Razor

1. Razor, willst du nicht raffen, daß NV sehr wohl dafür verantwortlich ist!!
Beim BT869 gehts ja (teilweise) besser als bei den Philips!!

Außerdem:

Die Zeiten ändern sich!!
Früher konnten die Kartenhersteller noch an den Treibern 'rumpfuschen', damals gabs auch meist nicht so oft neue Treiber, HEUTE sieht es GANZ anders aus!!
Kaum ein Kartenhersteller passt noch die Treiber ein, weil das zum einen zu teuer ist und zum anderen sich die Treiber zu schnell ändern.

NV steht also sehr wohl in der Pflicht die TV Out Chips zu unterstützen!!

BTW: wofür sind denn diese WDM Treiber ??
Sind die etwa für Karten mit ViVo?
Huch, hier schreibt NV auf einmal einen Treiber, für den eigentlich der Kartenhersteller verantwortlich wäre...

2. Support erwarte ich auch nicht von NV, die erwarte ich vom Kartenhersteller, von ATI erwarte ich ja auch keinen Support, wenn ich 'ne Gigabyte Karte hab...

3. fällt dir was auf??
Früher gab es nur referenz Treiber, die nix weiter als 2D Treiber mit einem recht beschränkten Panel waren, in den man meist nix sinnvolles einstellen kann, eventuell noch die Widerholrate.
Früher haben alle Hersteller die Treiber bedingungslos auf ihre Bedürfnisse angepasst, es kam also vor, daß Karte A von Hersteller A schneller war als Karte B von Hersteller B.

4. Razor, die Zeiten ändern sich!
Der Kartenhersteller ist nur für die eigene Software verantlich, nicht mehr!
Für die Funktionen des Chips und des TV Outs ist der Chiphersteller verantwortlich!!

5. ja, ich erinner mich an ELSA, die damals aber mindestens eine ganze Version zurücklagen!!
z.B. war ELSA bei Version 3, als es schon die 5er gab, wofür ELSA jedesmal kritisiert wurde...
Die ELSA Treiber, die ich von der Gladiac 721 kenn, die hatten 'nur noch' das NV Panel drin...

6. Razor, denk einfach nach, bevor du etwas schreibst.
Warum hat man früher die Software angepasst ??
Unter Anderem lag damals ein Teil des Quellcodes der Grafiktreiber bei den Herstellern der GraKas und die Hersteller des Chips hatten keinerlei interesse daran, die Treiber selbst anzubieten.
Auch waren die Treiber damals auch 'etwas' kleiner als heute.
Ich hab gestern mir erst einen Windows 95 Referenztreiber für eine Cirrus Logic GD5440 PCI runtergeladen und installiert.
Der Treiber passtte lockerst auf eine Diskette, war ~200kb groß...

Heute sind die Treiber mehrere Megabyte groß und du glaubst doch nicht wirklich, daß nVidia große teile des Quellcode rausrückt, so daß jeder Hersteller 'mal eben' ihre eigenen Panels proggt ??

Außerdem kann man sich solche Aktionen 'dank' des enormen Preiskampfes nicht mehr leisten, die Treiberentwicklung ist ja so schon teuer genug!!


7. mit gleichem Dank zurück...

PS: S3 hat es auch geschafft, ein brauchbares TV Out Panel zu schreiben, ist zwar nicht sonderlich gut, aber immerhin...

StefanV
2003-01-10, 13:18:45
Originally posted by seahawk
Und lieber SP wer einen Gainward Treiber auf einer Prolink´karte fährt braucht sich nicht wundern.

Und, lieber Seahawk, was für Probleme soll mann denn bekommen, wenn man einen anderen Treiber als vom eigenen oder von NV nimmt ??

Lieber Seahawk, auf einer Creative Labs Geforce 1 DDR hab ich diverse BIOSe von diversen Herstellern geflasht und hab da unter anderem einen Leadtek Treiber benutzt, wo sollen bitteschön die Probleme sein ??

Der einzige Unterschied von den 'Herstellertreibern' zu den NV Referenz Treibern sind diverse Tolls, die im Treiber integriert sind, das Panel ist bei JEDEM Hersteller gleich !!!

Und der Treiber ja auch, siehe Oben...

[edit]

Gainward verbaut auf ihren Karten auch nicht selten einen Philips Encoder, allerdings meist den SAA7108