PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Das wird ein heisser Marketing-Herbst


Seiten : 1 [2]

Dunkeltier
2002-05-11, 22:24:33
Originally posted by zeckensack
Der Mr Arglll war ich.


Labern die sich wirklich die ganze Zeit so an? Sollte wohl mal den Bus abhorchen... :lol:

TBird
2002-05-11, 22:28:02
Originally posted by Richthofen
kann mir mal einer erklären worüber man sich hier aufregt?


Nein.


Des sind doch alles olle Kamellen. 3dfx hat das bekommen was sie verdient haben und Punkt. Die sind schneller untergegangen als die Titanik. Der Markt hat sie für ihre Stümperei vor allem was 2D / 3D anging bestraft wie es sich gehört.

Punkt aus Ende im Gelände. Sie haben geloost und Nv gesiegt und darauf sauf ich nun einen beim Fussball :)

Das scheinen einige immer noch nicht ganz verkraftet zu haben.
3dfx ist TOT und damit ist auch Glide TOT.
Diese kindischen Diskussionen sind demnach überflüssig wie ein Kropf.

Ikon
2002-05-11, 22:28:17
Originally posted by Unregistered
Arrglll.
Software-Emulation wäre zum Beispiel das:
Graka rendert Bild in 1600x1200.
Treiber holt sich das Bild von der Graka, filtert (auf der CPU/im System-RAM) auf 800x600 runter und schickt's zurück an die Graka.
So macht das aber kein Chip.

Was ist bitte Software-Emulation daran, wenn der Treiber der Graka mitteilt, sie möchte doch bitte jetzt in FSAA rendern?
Das ist doch nix anderes, als der Graka mitzuteilen, sie soll einen Framebuffer klarmachen.
Das sieht dann so aus:
Applikation sagt "Hallo, 800x600x32 bitte!"
Treiber sagt "Psst, 1600x1200x32, zur Ausgabe runterfiltern, aber nicht weitersagen!"
Graka sagt "Hnkey"

Tatsache ist, daß für deine sogenannte Software-Emu kein einziges gerendertes Pixel über den PCI-Bus wandern muß. Es geschieht alles auf der Graka, also in Hardware.


@ Zeckensack
Emulation bedeutet aber doch nicht, dass ein Bild über den PCI-Bus geschickt werden muss! Wie definierst du dann die T&L-Fähigkeit der GF3-Chips? Die emulieren DX7-Tnl über ein Vertex-Shader-Programm. Ich denke das beschreibt "Emulation" besser: Ein nicht-vorhandenes Stück Hardware wird über vorhandene Hardware simuliert, so dass ein Programm, dass für ersteres Stück Hardware geschrieben wurde nun plötzlich auch auf dem zweiten, normalerweise zum Programm inkompatiblen, Hardware-Teil laufen kann. Das klingt zwar blöde, ist aber so (Zitat Peter Lustig). Ein gutes Beispiel für Emulation wäre dein eigener Glide-Wrapper für die Radeon.

Ikon

Quasar
2002-05-11, 22:30:23
@Zeckensack, Xmas:

Meinetwegen, dann macht es die GF2 eben in "Hardware", aber doch auf eine deutlich andere Weise in Hardware, als es die Voodoo5 in Hardware macht, als es die GF3/4 in Hardware macht und als es die Radeon8k5 in Hardware macht.

Auf nichts anderes wollte ich hinaus.

Btw, meine Riva128 hat auch "dedizierte" FSAA-Hardware ;)

Ikon
2002-05-11, 22:33:28
Originally posted by Quasar
@Zeckensack, Xmas:

Meinetwegen, dann macht es die GF2 eben in "Hardware", aber doch auf eine deutlich andere Weise in Hardware, als es die Voodoo5 in Hardware macht, als es die GF3/4 in Hardware macht und als es die Radeon in Hardware macht.

Auf nichts anderes wollte ich hinaus.

Btw, meine Riva128 hat auch "dedizierte" FSAA-Hardware ;)

*zustimm* aber seit wann hat die Radeon "mehr" FSAA-Hardware als GF1/2? Selbst die Radeon8500 unterstützt "nur" SuperSampling, wofür ebenfalls nicht mehr Hardware-Support nötig wäre, wenn es nicht auf irgendeine superspezielle Weise beschleunigt würde.

Ikon

Quasar
2002-05-11, 22:35:17
Originally posted by ernesto.che

*lol* ich fühle mich mit dir auch so. Seis drum.

Klar, das musste jetzt auch kommen...


@Ikon:

Ich meinte auch die Radeon8500...

ow
2002-05-11, 22:36:12
Originally posted by ernesto.che

Er wird sich über diese Entscheidung schon noch ärgern.


Könnte sein, abwarten.:D

Exxtreme
2002-05-11, 22:38:23
Originally posted by Ikon



@ Zeckensack
Emulation bedeutet aber doch nicht, dass ein Bild über den PCI-Bus geschickt werden muss! Wie definierst du dann die T&L-Fähigkeit der GF3-Chips? Die emulieren DX7-Tnl über ein Vertex-Shader-Programm. Ich denke das beschreibt "Emulation" besser: Ein nicht-vorhandenes Stück Hardware wird über vorhandene Hardware simuliert, so dass ein Programm, dass für ersteres Stück Hardware geschrieben wurde nun plötzlich auch auf dem zweiten, normalerweise zum Programm inkompatiblen, Hardware-Teil laufen kann. Das klingt zwar blöde, ist aber so (Zitat Peter Lustig). Ein gutes Beispiel für Emulation wäre dein eigener Glide-Wrapper für die Radeon.

Ikon
Err, der Vertex Shader bekommt durch ein VertexShader-Programm DX7-Funktionalität. Emulation würde bedeuten, daß die DX7-Funktionalität per CPU gemacht werden müsste und das wird bei DX8-GraKas eben nicht gemacht. Der Glide-Emulator ist wiederum ein Emulator da die Glide-Aufrufe von der CPU in OGL/D3D-Aufrufe umgesetzt werden und dann an den Treiber der GraKa geschickt werden.

Gruß
Alex

Exxtreme
2002-05-11, 22:40:17
Originally posted by Quasar

Btw, meine Riva128 hat auch "dedizierte" FSAA-Hardware ;)
Theoretisch wäre AA auch auf der Riva128 :kotz: möglich. Vielleicht baut es nVidia in die nächsten Treiber ein. ;)

Gruß
Alex

Exxtreme
2002-05-11, 22:42:18
Originally posted by Ikon


*zustimm* aber seit wann hat die Radeon "mehr" FSAA-Hardware als GF1/2? Selbst die Radeon8500 unterstützt "nur" SuperSampling, wofür ebenfalls nicht mehr Hardware-Support nötig wäre, wenn es nicht auf irgendeine superspezielle Weise beschleunigt würde.

Ikon
Die R8500 macht SuperSampling mittels eines MultiSamplebuffers (solange kein Nebel im Spiel ist - gilt aber nur für die R8500) - genauso wie die Voodoo5.

Gruß
Alex

ow
2002-05-11, 22:43:47
Originally posted by ernesto.che
Niemand hat Nvidia oder Ati daran gehindert, auch eine properitäre API zu schreiben.


Ist es das was du willst? Zurück in die 3D Steinzeit?
Jeder Chip sein eigenes API? Was glaubst du wo wir denn heute mit 3D Grafik wären, wenn es keine standardisierten APIs gäbe?


Ein Leistungsvergleich von Chips ist nur unter gleichen APis bei gleichen grafischen Einstellungen möglich.

Quasar
2002-05-11, 22:45:45
Originally posted by Exxtreme

Theoretisch wäre AA auch auf der Riva128 :kotz: möglich. Vielleicht baut es nVidia in die nächsten Treiber ein. ;)

Gruß
Alex

Es ist im neuesten Treiber integriert...sogar mit Auswahl von Edge- oder Full Scene-AA!

zeckensack
2002-05-11, 22:56:19
Originally posted by Ikon
@ Zeckensack
Emulation bedeutet aber doch nicht, dass ein Bild über den PCI-Bus geschickt werden muss! Wie definierst du dann die T&L-Fähigkeit der GF3-Chips? Die emulieren DX7-Tnl über ein Vertex-Shader-Programm. Ich denke das beschreibt "Emulation" besser: Ein nicht-vorhandenes Stück Hardware wird über vorhandene Hardware simuliert, so dass ein Programm, dass für ersteres Stück Hardware geschrieben wurde nun plötzlich auch auf dem zweiten, normalerweise zum Programm inkompatiblen, Hardware-Teil laufen kann. Das klingt zwar blöde, ist aber so (Zitat Peter Lustig).
In dem Fall läuft eine primitive Operation auf einer durchaus zu mehr Fähigen Einheit. Nach gleicher Logik wäre es Emulation, wenn man den Z-Buffer nicht benutzt. Dadurch, daß Ressourcen ungenutzt bleiben, wird es noch nicht zur Emulation. Außerdem war hier die Rede von "nicht in Hardware", ich glaube daß mein Statement dabei sogar noch besser passen sollte als bei 'Emulation'.
Ein gutes Beispiel für Emulation wäre dein eigener Glide-Wrapper für die Radeon.

Ikon [/B]Da sachste watt ;)
Gilt übrigens auch für ...

@Alex
Wrapper sprechen nicht die Hardware an, sondern eine andere Abstraktionsschicht (zeckensack-Deutsch für 'Treiber'), in meinem Fall OpenGL. Was die Programmierer echter Treiber, die ja direkten Zugriff auf die Hardware haben, da so alles anstellen können, das geht über Emulation weit hinaus ...

zeckensack
2002-05-11, 22:57:48
Originally posted by Quasar


Es ist im neuesten Treiber integriert...sogar mit Auswahl von Edge- oder Full Scene-AA! Ich will Screenshots!
Scheiße nur, daß ich meine Riva 128 (genauso wie meine TNT ein paar Jahrhunderte später) schon zu frühester Kindheit verkauft habe!

ow
2002-05-11, 22:59:27
Originally posted by Exxtreme

Theoretisch wäre AA auch auf der Riva128 :kotz: möglich. Vielleicht baut es nVidia in die nächsten Treiber ein. ;)

Gruß
Alex


Ich betone hier nochmals, dass mein Permedia2 mit DX5 Treiber 4fach Supersampling FSAA beherrscht.
Das können alle Chips.

zeckensack
2002-05-11, 23:05:59
Scherzfrage:

Warum kann eigentlich kein Chip anti-FSAA?
Zur Erklärung (Denglisch-Warnung!!!):
ZB 2x2 Untersampling! Die Graka rendert intern in 512x384, der RAMDAC filtert auf 1024x768 rauf - wie beim Texturfilter!
Auf einmal sähen alle Spiele so 'gut' aus, wie Comanche 1!!!!

Es ist davon auszugehen, daß ein Mensch, der mehr als zwei Ausrufungszeichen verwendet, einer geistigen Störung anheim gefallen ist.

Quasar
2002-05-11, 23:12:39
Bitte sehr, Herr Zeckesack ;)

zeckensack
2002-05-11, 23:17:31
Originally posted by Quasar
Bitte sehr, Herr Zeckesack ;) Cool :)
Und jetzt noch bitte Quake3 in 400x300x16 bit mit 4xFSAA =)

ow
2002-05-11, 23:24:26
Originally posted by zeckensack
Cool :)
Und jetzt noch bitte Quake3 in 400x300x16 bit mit 4xFSAA =)


Geht doch nicht.

Funzt doch nur unter D3D und muss durch die Applikation eingeschaltet werden.

Haarmann
2002-05-11, 23:32:30
Ich lach mir noch den Arsch weg...

Sorry, aber unsere NVidioten schlagen wieder zu. Wollen zwar 1mio Polygone, aber 1mio mal 1mio Pixel Texturen...
Wenn ich ein grosses 3-eck habe mit 512 Seitenlänge, dann mach ich halt kleine 3-Ecke draus, bis ich nur noch 256 Seitenlänge hab... Ist das zu schwierig in euer NV Hirn zu kriegen?!? Kann man so gotteverdammt bekloppt sein?

ow
2002-05-11, 23:37:06
Besteht irgendein Zusammenhang zwischen deinem Posting und diesem Thread Haarmann?

Exxtreme
2002-05-11, 23:40:11
@ Haarmann
Bitte unterlasse in Zukunft solche Sprüche wie "nVidiot" un bezeichne die NV-Fans nicht als "bekloppt". Ich dachte, daß man hier halbwegs wie Erwachsene diskutieren kann.

Gruß
Alex

Dunkeltier
2002-05-11, 23:47:05
Genau. :lol:

Thowe
2002-05-12, 00:23:01
Ach nööö, der Thread wird ja schon wieder "typisch".

AlfredENeumann
2002-05-12, 01:09:07
Originally posted by Razor
@Blackhand



"Aber die Radeon8500 hatte sich trotzdem gut verkauft, obwohl ATi nen schlechten Ruf hatte."

Falsch ! Weil sie schlicht einfach 'billig' waren...



HAHAHA. Die KArte hat sich für 650DM auch schon sehr gut verkauft, und das nennst du Billig ????

Quasar
2002-05-12, 01:21:35
Ach....das war bestimmt noch ganz am Anfang, oder?

Wo's die "LE" und "powdered by ATi" für knapp über 500DM gab, richtig? Die waren ziemlich günstig....und die "Built" hat sich so gut verkauft, das alle 20 Exemplare, die so pro Woche in unser 80 Millionen Land kamen auch Abnehmer fanden ;)

Exxtreme
2002-05-12, 01:22:14
Originally posted by AlfredENeumann



HAHAHA. Die KArte hat sich für 650DM auch schon sehr gut verkauft, und das nennst du Billig ????
Ich denke nicht, daß sich die R8500 so gut verkauft hat weil sie so billig war sondern weil die GF3Tixxx so teuer war. Die User haben zu der GraKa mit dem deutlich besseren P/L-Verhältnis gegriffen.

Gruß
Alex

Xmas
2002-05-12, 02:47:37
Originally posted by Quasar
Meinetwegen, dann macht es die GF2 eben in "Hardware", aber doch auf eine deutlich andere Weise in Hardware, als es die Voodoo5 in Hardware macht, als es die GF3/4 in Hardware macht und als es die Radeon8k5 in Hardware macht.
Genau. Jeder Chip macht es auf eine andere Weise in Hardware als jeweils die drei anderen (bzw. die vier anderen, beim Kyro läufts wieder etwas anders) Software-FSAA macht keiner.


Originally posted by Haarmann
Ich lach mir noch den Arsch weg...

Sorry, aber unsere NVidioten schlagen wieder zu. Wollen zwar 1mio Polygone, aber 1mio mal 1mio Pixel Texturen...
Wenn ich ein grosses 3-eck habe mit 512 Seitenlänge, dann mach ich halt kleine 3-Ecke draus, bis ich nur noch 256 Seitenlänge hab... Ist das zu schwierig in euer NV Hirn zu kriegen?!? Kann man so gotteverdammt bekloppt sein?
Schon klar, Haarmann... dass das vielleicht ein winzig kleines bisschen Aufwand für die Programmierer, eine natürlich nur marginal gesteigerte Polygonmenge und ein - selbstverständlich völlig unerheblicher - Performanceverlust bedeutet, nehmen wir ja mit Freude in Kauf!

aths
2002-05-12, 02:59:16
Haarmann,

auch wenn Exxtreme es schon gesagt hat, möchte auch ich dich mit Nachdruck bitten, Äußerungen dieser Art zu unterlassen.


Xmas,

solange die Karte bei Texturwechsel immer die ganze Textur laden muss, bieten kleinere Texturen nicht nur Vorteile. Da die Texturen im Regelfall eh schon lokal vorliegen, sollte das wohl nicht *das* Problem sein. Doch sobald mehrere 2048²-Textuen genutzt werden, könnte eine Unterteilung wegen stückweisem Nachladen durchaus Vorteile bringen, was die Konstanz der Frameraten angeht.

Haarmann
2002-05-12, 08:21:09
ow

Blätter mal retour auf Page 11 (20 posts/page) glaubs...

aths und exxtreme

OK, ich hab mich im Ton vergriffen, aber zur eigentlichen Aussage stehe ich. CL hat per mini-GL Q3 inkl 512er Texturen auf V2 Karten lauffähig gemacht. Wie das wohl gemacht wird ist ned schwer einzusehen. Und ja, es lief mitsamt dem wenigen Texturram flüssig ohne AGP Texturing. Mich nervt dieses 256er Texturen sind absolut unbrauchbar Geflenne irgendwie. 256 = 1Byte alles andere ist ein Blödsinn fürs Alignement resp Registerbreite. Nächste Grenze wäre logischerweise 65536 und ned 2048 oder 4096.


Xmas

Wieviele Polygone mit ner Kantenlänge von mehr denn 256 kriegste wohl überhaupt auf nen Moni? Ich denke nicht, dass es mehr denn ev 30 sind. Halbierst diese hast schon 60... auch das finde ich durchaus berechenbar ;). Der Aufwand ist by the way auch gering, da es automatisch gemacht werden kann (siehe CL Mini-GL Q3 V2). Durch das verbesserte Texturmanagement liesen sich so sogar noch FPS gewinnen. Aber ich weiss, diese Spieleprogger sind nur faul und wollen schnell Geld verdienen.

Razor
2002-05-12, 08:52:09
Originally posted by AlfredENeumann

HAHAHA. Die KArte hat sich für 650DM auch schon sehr gut verkauft, und das nennst du Billig ????
Und die Leute hätten zu dieser Zeit noch sehr viel mehr ausgegben, nur, um überhaut eine R8500 zu bekommen. Solche Leute gab's schon immer... Wenn man allerdings selbst heute mal in die Verbreitung schaut, dann haben gf4ti und R8500 noch nicht einmal die 2%-Hürde Geschafft... aber sei's drum.

Originally posted by Exxtreme

Ich denke nicht, daß sich die R8500 so gut verkauft hat weil sie so billig war sondern weil die GF3Tixxx so teuer war. Die User haben zu der GraKa mit dem deutlich besseren P/L-Verhältnis gegriffen.
Ähm...
Du hast es nur anders formuliert...
Man kann Preisgünstigkeit nur in ein Verhälnis zu vergleichbaren Produkten feststellen. So ist es absolut unerheblich, ob ein Produkt nun 'billiger' oder ein anderes eben 'teurer' ist.

Sorry, aber wenn die Preise vergleichbar gewesen wären, hätte ATI so gut wir nichts verkauft !

In diesem Sinne

Razor

Haarmann
2002-05-12, 09:09:31
Tja... Mein Kumpel (Kyro2) hatte Gestern die Wahl zwischen einer Sapphire ATI R8500 mit 3.6 ns RAM, oder ner ASUS GF Ti500 Deluxe - beide je 310 CHF ... und doch hat er die ATI genommen.
Ob wirklich alle Kunden ATI nur wegem Preis kaufen? Aja.. der Kumpel arbeitet in nem PC Laden und studiert nebenher noch Info ;) Er ist also ned wirklich Neuling auf dem Gebiet.

Ikon
2002-05-12, 09:13:39
Originally posted by Haarmann
Tja... Mein Kumpel (Kyro2) hatte Gestern die Wahl zwischen einer Sapphire ATI R8500 mit 3.6 ns RAM, oder ner ASUS GF Ti500 Deluxe - beide je 310 CHF ... und doch hat er die ATI genommen.
Ob wirklich alle Kunden ATI nur wegem Preis kaufen? Aja.. der Kumpel arbeitet in nem PC Laden und studiert nebenher noch Info ;) Er ist also ned wirklich Neuling auf dem Gebiet.


Damit entkräftest du dein eigenes Argument: der Typ kennt sich offensichtlich aus und hatte vorher schon K2. Würde der Standard-DAU auch so wählen?

Ikon

Haarmann
2002-05-12, 09:27:04
Ikon

Es gibt viele DAUs im Media Markt... aber gibts denn nich auch Leute, die keine DAUs sind? Kunden für Hi-End Grakas sind eh dünn gesäht, wie eine Verbreitungskarte dieser leicht aufzeigen könnte... Ich denke Du verstehst, was ich damit sagen will. Ich glaube einfach nicht, dass ATI nur wegem Preis verkauft. Sonst würden die ATI Preise in Europa schon lange das extrem tiefere US Niveau erreicht haben.

Razor
2002-05-12, 10:06:08
@Haamann

Tja... Mein Kumpel (Kyro2) hatte Gestern die Wahl zwischen einer Sapphire ATI R8500 mit 3.6 ns RAM, oder ner ASUS GF Ti500 Deluxe - beide je 310 CHF ... und doch hat er die ATI genommen.

Schön doof !
:D

"Ob wirklich alle Kunden ATI nur wegem Preis kaufen?"

Nö, einfach nur etwas 'verdreht', der Herr...
Und vermutlich nicht richtig informiert !

"Aja.. der Kumpel arbeitet in nem PC Laden und studiert nebenher noch Info Er ist also ned wirklich Neuling auf dem Gebiet."

Tja, ich habe schon immer in größeren EDV-Abteilungen von ebenso größeren Firmen gearbeitet. Während meinem Studium hab' ich auch in diversen läden gejobbt und würde mir trotzdem niemals eine R8500 kaufen, wenn's ti-500 zum gleichen Prois geben würde...

Na ja, vielleicht bin ich ja auch kein Maßstab, gelle ?
;-)

Bis denne

Razor

ow
2002-05-12, 11:26:02
Originally posted by aths


Xmas,

solange die Karte bei Texturwechsel immer die ganze Textur laden muss, bieten kleinere Texturen nicht nur Vorteile. Da die Texturen im Regelfall eh schon lokal vorliegen, sollte das wohl nicht *das* Problem sein. Doch sobald mehrere 2048²-Textuen genutzt werden, könnte eine Unterteilung wegen stückweisem Nachladen durchaus Vorteile bringen, was die Konstanz der Frameraten angeht.


Insofern ist es dann wohl auch nicht als 'schlimm' anzusehen, dass auf meiner Banshee die 'partial texture loads' (3DWinbench2k) nicht einwandfrei laufen aber auf meiner TNT, GF2mX und Kyro fehlerfrei funzen?

ow
2002-05-12, 11:29:46
@Haarmann


Ich nehme mal an, dass du alles mit Q3 Engine mit min. picmip 1 spielst, da du ja grosse Texturen offensichtlich für unnötig erachtest.

Sag mir doch mal, welchen Nachteil grosse Texturen haben, wenn du ja schon den Vorteil nicht erkennen willst.

Und was die Dreiecksgrösse mit der Texturauflösung zu tun hat müsstest du mir auch mal erklären.

ow
2002-05-12, 11:32:08
Originally posted by Haarmann
Ikon

Ich glaube einfach nicht, dass ATI nur wegem Preis verkauft.


Ich glaube das schon. Hätte ATi die Preise nicht erheblich gesenkt würden die Karten wie Blei in den Regalen liegen.

StefanV
2002-05-12, 11:36:06
@razor

Seh endlich ein, daß die Radeon 8500 mehr kann als die GF3!!

Und damit mein ich die Dinge, die man NICHT zum Spielen braucht!!

Da wären dann:

Bessere SQ
Besserer TV Out
Dual Head
besserer TV Out

Ich denke mal, daß Haarmanns Kumpel mit dem Rechner nicht nur gamt!!

Und der TV Out/die SQ meiner ELSA ist fürn Arsch...

Erstaunlich, wie bescheiden der eigentlich gute Conexant TV Encoder angesteuert wird (schafft ein TV Signal, daß mit dem der G400 vergleichbar ist, wenn man ihn richtig nutzt)...

Ich sag:

Haarmanns Kumpel hatte den druchblick und war schlau!!
Denn wenn ers nicht hätte, dann dürfte er sich mit einer GF3 rumplagen...

skampi
2002-05-12, 11:46:45
Originally posted by ow



Ich glaube das schon. Hätte ATi die Preise nicht erheblich gesenkt würden die Karten wie Blei in den Regalen liegen.

Das denke ich nicht. Die Radeon hatte schon damals (Ende Nov 2001) ein (für mich) besseres Preis/Leistungsverhältnis. Man hat halt Ansprüche;).

Exxtreme
2002-05-12, 11:48:04
Originally posted by ow

Ich glaube das schon. Hätte ATi die Preise nicht erheblich gesenkt würden die Karten wie Blei in den Regalen liegen.
Tja, gutes P/L-Verhältnis ist halt ein Kaufgrund mehr. Soetwas hat nVidia damals nicht zu bieten gehabt - zumindest nicht bei der GF3Ti-Serie.

Gruß
Alex

Birdman
2002-05-12, 11:52:36
also ich denke auch, dass Ati Ihre karten nicht nur wegen dem Preises relativ gut an den Mann bringen kann, jedenfalls hier in Europa.
Sonst könnte es sich Ati ned leisten, die Preise hier derart hoch zu halten, wo man doch die Karten in USA/Asien zum halben Preis kriegt.

Haarmann
2002-05-12, 12:04:12
ow

Im Gegenteil, ich hab Q3 auch schon mit 1024er Texturen gespielt... Du allerdings wohl nicht ;).
Statt einer Textur 512 mal 512 kann ich ja auch 4 Texturen 256 mal 256 benutzen. Vereinfacht auch gleich noch das Management wenns im Grakaspeicher eng wird, ist aber sicher komplizierter in der Verwaltung (naja 1 is weniger denn 4). Die Auflösung der Textur wird durch dieses Zerschneiden aber nicht verkleinert. Auf dem Monitor ists noch gleich detailiert wie vorher, wenn man auch die drunter liegenden 3-ecke mitschneidet. Nun hats aber z.B. bei Q3 3-ecke, welche ne 512 Textur benutzen (eben die ohne mip stufe vor der Nase quasi). Wenn ich nun diese grossen 3-ecke teile, werden die 3-ecke wieder so klein, dass meine 256er Teiltexturen der ehemals 512er Textur passen und es gleich aussieht wie vorher. Da ich ja nicht viele dieser grossen 3-ecke aufm haben kann (Platzmangel) fällt dies auch nicht besonders ins Gewicht. Die konnte man by the way in eben diesem CL Treiber beobachten, welcher die 512er Texturen in Q3 enablen kann auf ner V2, welche definitiv keine 512 Texturen verarbeiten kann.
Damit das mit der 3-ecks grösse mal anschaulich... Gleichschenkliges 45 Grad 3-eck an der Wand (2 davon geben die üblichen Quadrate der mapeditoren) mit 300 Pixel Hypotenuse. 512er Textur (resp Teile von drüber). Teile nun die Textur in 4 256er Texturen auf. Teile das 3-eck mit ner Mittelsenkrechten auf die Hypotenuse. Die neuen 3-ecke haben nun nur ~210 Pixel Hypotenusenlänge - wäre das noch immer über 256, wirds nochmals geteilt.
Nachteil ich muss 2 oder 4 Dreicke rechnen - Vorteil ich brauch unter Umständen nur noch die halbe 512er Textur lokal im Grakaram geladen zu haben.

Ich hoffe ich habs genug ausgedeutscht und es wird verstanden... ansonsten Fragen kostet nie was. Nur etwas Tipaufwand.

Razor

Der Kumpel kauft ned ein System und stellt danach ne Graka rein, welche weder seine Ansprüche erfüllt (TV-Out is wichtig und DVD) und auf seinem System nicht unbedingt ideal laufen wird (A7V133) - Würde alle Kunden mal erst nachdenken, was se denn genau wollen, würden wohl viele andere Karten kaufen als im Rechner drin sind (Für Office is auch ne GF MX 200 mit 64MB echt überflüssig). Auch isses immer klug vorher etwaige Probleme zu kennen, denn nachher.

ow
2002-05-12, 12:11:59
Originally posted by Exxtreme

Tja, gutes P/L-Verhältnis ist halt ein Kaufgrund mehr. Soetwas hat nVidia damals nicht zu bieten gehabt - zumindest nicht bei der GF3Ti-Serie.

Gruß
Alex

Das P/L-Verhältnis bei NV ist genausogut wie bei ATi.
Keine dieser Firman ist die Wohlfahrt und hat irgendwas zu verschenken.
Wenn ATi keine höheren Preise für ihre HW verlangen kann, dann hat das schon seinen Grund.

ow
2002-05-12, 12:14:48
Hasrmann


Deine Ausführen tun nichts zur Sache, dass die 3dfx HW bis V3 auf max. 256^2 beschränkt ist.
Ob da irgendwelche Hacks existieren interessiert nicht.
3dfx hat dem Kunden keine Treiber angeboten, die höher auflösende Texturen unterstützen.

Exxtreme
2002-05-12, 12:23:57
Originally posted by ow


Das P/L-Verhältnis bei NV ist genausogut wie bei ATi.

Nö.

Gruß
Alex

Unregistered
2002-05-12, 12:28:13
Originally posted by ow
Hasrmann


Deine Ausführen tun nichts zur Sache, dass die 3dfx HW bis V3 auf max. 256^2 beschränkt ist.
Ob da irgendwelche Hacks existieren interessiert nicht.
3dfx hat dem Kunden keine Treiber angeboten, die höher auflösende Texturen unterstützen.

Komisch dann müsste aber rein theoretisch Deine Meinung über nVIDIA noch besch.. sein.
Lange Zeit konnte man Standartmässig so gut wie gar nichts bei den Detos einstellen.
Da waren Tools und sonstige Hacks nur an der Tagesordung.

Genau solche Schlussvolgerungen verstehe ich nicht von Dir.
Bei den anderen juckt es Dich nicht, bei nVIDIA legitim, Warum ???

Gruss Labberlippe

Unregistered
2002-05-12, 12:31:10
Originally posted by Birdman
also ich denke auch, dass Ati Ihre karten nicht nur wegen dem Preises relativ gut an den Mann bringen kann, jedenfalls hier in Europa.
Sonst könnte es sich Ati ned leisten, die Preise hier derart hoch zu halten, wo man doch die Karten in USA/Asien zum halben Preis kriegt.

ATi hält die Preise gar nicht hoch.
Wir in Deutschland haben eine andere Struktur dahinter.
Damit die Händler b.z.w. Grakaerzeuger "Leben" muss in Europa mehr Marge gemacht werden als 5-7%.
Bei uns sind die Kosten um einiges höher als in ASIEN oder USA.
Auch der Support und die Werbung im Deutschen Raum muss finanziert werden.
Werbung kostet Kohle.
Angstellte für Support kosten Kohle.
Angstellte für Werbung kosten Kohle.
Importkosten kosten Kohle. u.s.w.....

Gruss Labberlippe

ernesto.che
2002-05-12, 12:37:10
Originally posted by ow
Hasrmann


Deine Ausführen tun nichts zur Sache, dass die 3dfx HW bis V3 auf max. 256^2 beschränkt ist.
Ob da irgendwelche Hacks existieren interessiert nicht.
3dfx hat dem Kunden keine Treiber angeboten, die höher auflösende Texturen unterstützen.
Toller Diskussionspartner, wirklich! Super!

Unregistered
2002-05-12, 12:37:32
Hinzu kommt noch der Weg wie die Graka den Weg ins Regal finden.

Eine Graka wird z.B. in Asien erzeugt.
Die geht dann zum Lager vom Grakaerzeuger in Deutschland.
Vom Kartenerzeuger zum Grosshändler und vom Grosshändler zum Einzelhandel.

Vielleicht können ein paar Einzelhändler direkt beim Grakaerzeuger kaufen das ist aber selten meistens bestellt ein Grosshändler die Ware und verkauft diese an div. Einzelhändler.

Gruss Labberlippe

Razor
2002-05-12, 12:43:48
@Stefan

"Und damit mein ich die Dinge, die man NICHT zum Spielen braucht!!"

Oder Dinge, die man generell nicht brauch...
;-)

"Bessere SQ"
-> halt ich für'n Gerücht (habe ELSA Gladiac 920)

"Besserer TV Out"
-> brauch's nur für 'nen AVI ab und zu (so 2x im Monat) ist also eher nebensächlich und mit dem TV-Tool durchaus brauchbar.

"Dual Head"
-> Unwichtig und für Firmenumgebungen ist Matrox besser.

"besserer TV Out"
-> Hä ?
???

"Haarmanns Kumpel hatte den druchblick und war schlau!!
Denn wenn ers nicht hätte, dann dürfte er sich mit einer GF3 rumplagen..."

Ich sag: Schön doof !
:D

@Haarmann

"Der Kumpel kauft ned ein System und stellt danach ne Graka rein, welche weder seine Ansprüche erfüllt (TV-Out is wichtig und DVD) und auf seinem System nicht unbedingt ideal laufen wird (A7V133)"

Dein Kumpel hat sich ein neues System mit A7V133 gekauft ?
Wird ja immer 'doofer'...
;-)

Das TV-Out meiner gf3 (BT868) ist absolut brauchbar und beim DVD gibt's IMHO keinen Unterschied. Erst recht nicht, wenn dies kombiniert wird, denn da schein die R8500 noch ein wenig Nachholbedarf zu haben...

"Auch isses immer klug vorher etwaige Probleme zu kennen, denn nachher."

Und die wären ?
(bei gf3/ti etc.pp)

@ow

"Das P/L-Verhältnis bei NV ist genausogut wie bei ATi."

Seh ich auch so...
Denn letzlich kommt es darauf an, wie es der Kunde bewertet.

Will er eine unkomplizierte Gamer-Karte, dann nützen ihm auch diese überflüssigen Features ala PS1.4, volle DVD-Unterstützung, besseres Dual-Head und ein vermeintlich besserer TV-Out nichts.

Vor allem, wenn er sich dann mit diesen zusammen gefummelten 'Plutonium'-Treibern herum schlagen muß, weil diese nach Aussage der Distributoren dann eben eine 'bessere Komaptibilität' bringen sollen, obwohl doch die ATI-Treiber so 'kompatibel' sein sollen...

Wenn er dann auch noch auf Qualität verzichten muß (siehe AF), dann schlägt's dem Faß den Boden aus.

Wenn also eine gf3ti200 und R8500 zum gleichen Preis zur Wahl stünden, könnte man schwanken. Bei gf3ti500 und R8500 wäre die Wahl eindeutig (somit könnte Haarmanns Kumpel gut ins Klo gegriffen haben ;-).

Bis denne

Razor

Frank
2002-05-12, 12:57:41
Du darfst evtl nicht immer von dir ausgehen Razor. Manche haben zum Beispiel eben ein Fernseher neben den Rechner stehen oder wie auch immer...

und zu den PreisLeistungsverhältnis.
"Mit globalen Aussagen sollte man da vorsichtig sein, da es sonst eines Beweises bedarf." (mathelike)

Exxtreme
2002-05-12, 13:02:05
Originally posted by Razor


Dein Kumpel hat sich ein neues System mit A7V133 gekauft ?
Wird ja immer 'doofer'...
;-)
Nix gegen das A7V133. ;) Ich habe es selber und es läuft mit Vollbestückung schnell und stabil - zumindest bei mir. Liegt es vielleicht doch an den GF-GraKas, wenn es Probleme gibt?
Originally posted by Razor

Das TV-Out meiner gf3 (BT868) ist absolut brauchbar und beim DVD gibt's IMHO keinen Unterschied. Erst recht nicht, wenn dies kombiniert wird, denn da schein die R8500 noch ein wenig Nachholbedarf zu haben...
Razor, ich habe das Gefühl, daß du hier Irgendetwas sagst, was du von irgendwo gehört hast, ohne es selbst ausprobiert zu haben. Ich habe selbst schon mehrere DVDs über die R8500 mit perfekter Wiedergabequalität auf dem Fernseher wiedergegeben und manche so auch auf Video überspielt.

Originally posted by Razor


"Das P/L-Verhältnis bei NV ist genausogut wie bei ATi."

Seh ich auch so...
Denn letzlich kommt es darauf an, wie es der Kunde bewertet.
Richtig. Den einen interessiert wieviel fps er pro Euro bekommt, andere Leute interessiert wiederum das Gesamtpaket.
Originally posted by Razor

Will er eine unkomplizierte Gamer-Karte, dann nützen ihm auch diese überflüssigen Features ala PS1.4, volle DVD-Unterstützung, besseres Dual-Head und ein vermeintlich besserer TV-Out nichts.
Will er eine schnelle Allround-Karte, interessieren ihn solche Dinge sehr wohl.
Originally posted by Razor

Vor allem, wenn er sich dann mit diesen zusammen gefummelten 'Plutonium'-Treibern herum schlagen muß, weil diese nach Aussage der Distributoren dann eben eine 'bessere Komaptibilität' bringen sollen, obwohl doch die ATI-Treiber so 'kompatibel' sein sollen...
Hast du mal die R8500-Treiber von ATi ausgetestet und bewertet? Nein? Dann plapperst du auch nur irgendwelche Sachen nach, sorry.
Originally posted by Razor

Wenn er dann auch noch auf Qualität verzichten muß (siehe AF), dann schlägt's dem Faß den Boden aus.
Du hast sicherlich wieder die Qualität von AF der R8500 selbst begutachten können, oder? Wenn nicht, dann plapperst du schon wieder irgendetwas nach.
Originally posted by Razor

Wenn also eine gf3ti200 und R8500 zum gleichen Preis zur Wahl stünden, könnte man schwanken. Bei gf3ti500 und R8500 wäre die Wahl eindeutig (somit könnte Haarmanns Kumpel gut ins Klo gegriffen haben ;-).
Siehst du, ich hätte mich trotzdem für die R8500 entschieden. ;)

Gruß
Alex

Blackhand
2002-05-12, 13:09:38
Schön doof wärs wohl eher, wenn er sich ne GF3Ti500 geholt hätte. Denn die GeForce3 steht nach den neusten ATi Treibern eigentlich in gar keiner Konkurrenz mehr zur R8500. Das AF ist bei der GF3 viel zu langsam, es ist uneinsetzbar. DIe Performance ist oft schlechter bei der Gf3Ti500 und das wird sich in zukunft bei den Games, die mehr auf DX8 und viele Texturschichten setzen weiter differenzieren, siehe den Test der neusten Unreal-Engine bei Annand, da hatte die Radeon auch noch schlechtere Treiber, wenn ich mich recht erinnere. In heutigen Games ist die Radeon auch noch durch hochwertiges AF(Das wird schlechter gemacht als es ist) besser dran. Die GF3 hat keine Chance. Dann kommen noch die besseren Multimedia-Eigenschaften der ATi dazu. Schön doof, wenn man sich da noch ne GF3 holt. Die Radeon könnte eigentlich einen höheren Preis haben als die Ti500. Aber der Preis ist eher so angesiedelt, dass die Grakka nicht unbedingt zur längeren Investition gehört und trotzdem bietet sie mehr Zukunftsorientiertheit als ne Ti500. Kann man mir eigentlich mal einen einzigen wirklich guten grund für die Ti500 nennen?

Die Radeon8500 ist klar über der Gf3Ti500, aber wiederum unter der GF4Ti angesiedelt, so siehts aus. Die Ti4200 wird möglicherweise harte Konkurrenz.

AlfredENeumann
2002-05-12, 13:12:59
Originally posted by ow



Ich glaube das schon. Hätte ATi die Preise nicht erheblich gesenkt würden die Karten wie Blei in den Regalen liegen.


Das glaubst du doch selber nicht! Als die Karten noch in der hohen Preisregion waren, waren die Händler ständig ausverkauft, auch wenns anfangs noch nicht viele Karten gab.

Birdman
2002-05-12, 13:33:18
Originally posted by Blackhand
Das AF ist bei der GF3 viel zu langsam, es ist uneinsetzbar. DIe
wieder einer der keine Ahnung hat, bzw. nicht das gesammtbild betrachtet....
btw. wenn das AF auf der GF3 zu langsam wäre, und daher nicht eingesetzt werden kann, dann kann Ati auch gleich den smoothvision regler aus den treibern entfernen, denn die 8500er ist bei FSAA auch viel zu langsam und daher ned brauchbar ;)

Und das ganze gerede über die Preise der Grafikkarten...darüber kann man echt nur lachen. Denkst du etwa Ati, Nvidia oder sonst ein grakahersteller wäre eine wohltätige Organisation?
Die preise der karten spiegeln eigentlich ziemlich genau den markwert wieder, wären sie höher würde keiner (ausser freaks) die karten kaufen, wären sie tiefer, würde man zwar mehr Umsatz machen, aber der Gewinn wäre gleichbleibend --> schlecht für Börse.
Daher ROFL @ "Die Radeon könnte eigentlich einen höheren Preis haben als die Ti500."

Quasar
2002-05-12, 13:47:16
@ernesto.che:

Deine einzige Äußerung, die ich hier im Rückblick des Antwortfensters finde ist "Toller Diskussionspartner, wirklich! Super!". Insofern trägst du auch hier nicht gerade zu einer sinnvollen Diskussion bei.

@Exxtreme:
Ich hatte auch das A7V133 mit "Vollbestückung" inkl. GF3. Das bedeutet keinerlei Probleme...ich frage mich, ob du hier nicht das tust (auch wenn du's als Frage formuliertest) was du Razor vorwirfst.

Einen Fernseher, der DVDs perferkt wiedergeben kann, möchte ich auch mal haben! Was kosten die so bei euch in der Ecke? Bei denen, die ich bislang gesehen habe, war's immer flimmrig und/oder schlecht aufgelöst im Vergleich zu vernünftigen Computermonitoren.

Ich hätte mich, auch wenn du's sicher kaum glauben magst, auch für die Radeon entschieden: Ich habe meine GF3 jetzt seit knapp einem Jahr und mittlerweile ist sie mir langweilig geworden, es gibt nichts neues zum ausprobieren, alles läuft auf Anhieb und ohne jegliche Probleme. Außerdem würde ich gern mal das eine oder andere ausprobieren mit der Radeon und ihren (angeblich! ich plappere nur nach!) so stabilen und fehlerfreien Treibern.

aths
2002-05-12, 14:23:15
Blackhand, du schreibst: "Das AF ist bei der GF3 viel zu langsam, es ist uneinsetzbar."

Das sehe ich anders. 2x und 4x sind sehr wohl einsetzbar - natürlich zusammen mit Anti-Aliasing.

Exxtreme
2002-05-12, 14:28:32
Originally posted by Quasar

@Exxtreme:
Ich hatte auch das A7V133 mit "Vollbestückung" inkl. GF3. Das bedeutet keinerlei Probleme...ich frage mich, ob du hier nicht das tust (auch wenn du's als Frage formuliertest) was du Razor vorwirfst.
Die Formulierung als Frage habe ich bewusst gewählt. Da ich keine GFx habe, kann ich auch nichts Genaues sagen.
Originally posted by Quasar

Einen Fernseher, der DVDs perferkt wiedergeben kann, möchte ich auch mal haben! Was kosten die so bei euch in der Ecke? Bei denen, die ich bislang gesehen habe, war's immer flimmrig und/oder schlecht aufgelöst im Vergleich zu vernünftigen Computermonitoren.
Eigentlich war es gemeint: so gut, wie es die Glotze wiedergeben kann. Es war auf jeden Fall nicht schlechter als das normale Fernsehprogramm - sogar einen Tick besser.

Gruß
Alex

Blackhand
2002-05-12, 14:33:24
Ich füge hinzu: Das AF der GF3 ist "im vergleich zur R8500", viel zu langsam und eher uneinsetzbar, wenn man nach Radeonmaßstäben geht. Quake3 kann man auf der Radeon8500(LE) bei 1024x768x32 in den höchsten einstellbaren Details mit 2xqual SV und 16x AF butterweich spielen. Jedenfalls die meisten Level, bei großen CTF-Matches gibts da Grenzen, die sich aber eher im wenigen Grafikspeicher auswirkt, weil er merklich Mem swappen muss. Mit ner 128er Retail und ner ordentlichen CPU mit ausreichend Ram dürfte man hier vielleicht sogar noch gut zu potte kommen.

Hier ging es schließlich um den verglich Radeon8500 vs. GeForce3 und da finde ich hat die GF3 verloren. Vor allem im AF Bereich.

Blackhand
2002-05-12, 14:43:01
Siehe auch das Posting weiter oben von mir.

Nur was das Verhältnis des Preises zum Markt betrifft. Das finde ich eher unwichtig. Ich spreche davon, wieviel Geld dem Kunden welche Grakka wert ist/sein könnte und nicht wie der Marktwert aus Sicht von irgendwem ist. Hier wird mir zu viel von Standpunkt Firma und Börse und nicht vom Standpunkt Kunde, was hier die meisten sein dürften, gesprochen. Das ist doch totaler Mist.

ow
2002-05-12, 14:54:55
Originally posted by Exxtreme

Nö.

Gruß
Alex


Das ist nur deine Meinung.
Die Verkaufszahlen sprechen für sich.

ow
2002-05-12, 14:57:18
Originally posted by Unregistered


Komisch dann müsste aber rein theoretisch Deine Meinung über nVIDIA noch besch.. sein.
Lange Zeit konnte man Standartmässig so gut wie gar nichts bei den Detos einstellen.
Da waren Tools und sonstige Hacks nur an der Tagesordung.

Genau solche Schlussvolgerungen verstehe ich nicht von Dir.
Bei den anderen juckt es Dich nicht, bei nVIDIA legitim, Warum ???

Gruss Labberlippe


Ich habe noch nie irgendwas im Deto einzustellen gebraucht. Die Einstellungen werden in den Spielen vorgenommen.
Aber was haben Reg-Einträge denn überhaupt mit 'Hacks' zu tun???

ow
2002-05-12, 14:58:16
Originally posted by ernesto.che

Toller Diskussionspartner, wirklich! Super!


Kommt von dir noch was sinnvolles oder ist das alles???

StefanV
2002-05-12, 14:58:21
Originally posted by ow
Das P/L-Verhältnis bei NV ist genausogut wie bei ATi.
Keine dieser Firman ist die Wohlfahrt und hat irgendwas zu verschenken.
Wenn ATi keine höheren Preise für ihre HW verlangen kann, dann hat das schon seinen Grund.

LOOOOL

Seit WANN haben NV Karten ein gutes P/L Verhältnis??

Bei ATI gibts für den gleichen Preis einer Leadtek TI500:

Besseren TV Out, Multimonitoring und mehr Leistung.

Wo bitteschön hat NV ein gutes P/L Verhältnis??

Das war zu TNT2 Zeiten sogar bei der G400 besser...

StefanV
2002-05-12, 14:59:24
Originally posted by ow
Hasrmann


Deine Ausführen tun nichts zur Sache, dass die 3dfx HW bis V3 auf max. 256^2 beschränkt ist.
Ob da irgendwelche Hacks existieren interessiert nicht.
3dfx hat dem Kunden keine Treiber angeboten, die höher auflösende Texturen unterstützen.

Nach der Aussage von Haarmann können 3DFX Chips sehrwohl 512² Texturen verarbeiten.

WIE das intern gemacht wird ist scheißegal, hauptsache das Resultat ist das gleiche...

Was es ja in diesem Fall wäre...

aths
2002-05-12, 15:03:37
Blackhand,

dafür ist die Qualität bei GF3 besser. Einseitig das AF zu betrachten halte ich für fragwürdig. Man will ja schließlich noch FSAA nutzen.

StefanV
2002-05-12, 15:04:25
Originally posted by Razor
[b]@Stefan

"Und damit mein ich die Dinge, die man NICHT zum Spielen braucht!!"

Oder Dinge, die man generell nicht brauch...
;-)

"Bessere SQ"
-> halt ich für'n Gerücht (habe ELSA Gladiac 920)

"Besserer TV Out"
-> brauch's nur für 'nen AVI ab und zu (so 2x im Monat) ist also eher nebensächlich und mit dem TV-Tool durchaus brauchbar.

"Dual Head"
-> Unwichtig und für Firmenumgebungen ist Matrox besser.

"besserer TV Out"
-> Hä ?
???

"Haarmanns Kumpel hatte den druchblick und war schlau!!
Denn wenn ers nicht hätte, dann dürfte er sich mit einer GF3 rumplagen..."

Ich sag: Schön doof !
:D

1. Das ist nicht deine Entscheidung!
DIE muß jeder für sich Treffen!!
Was für DICH uninteressant ist, kann für jemand anderen ein Kaufgrund sein.

2. DAS halte ICH für ein Gerücht!!
Die Gladiac 721 ist in sachen SQ sehr mies!!
Schärfe geht noch, aber Helligkeit/Kontrast ist absolut indiskutabel!! (wohl ein Spannungspegel von 300mV)

3. Den TV Out bezahl ich mit!
Und bei einer 200€ Karte (MSI G3Ti200-VT) kann ich wohl erwarten, daß er zu gebrauchen ist, oder??
Und nicht, daß er alle paar Sekunden flackert, zu dunkel ist, keinen Kontrast hat, usw, oder??
Außerdem hat es 3DFX mit dem gleichen Chip um WELTEN besser gemacht!!

4. siehe TV Out.
Monitor bei max 800x600 bei 50Hz rult...

5. mußt nicht immer von dir auf andere schließen...


Das TV-Out meiner gf3 (BT868) ist absolut brauchbar und beim DVD gibt's IMHO keinen Unterschied. Erst recht nicht, wenn dies kombiniert wird, denn da schein die R8500 noch ein wenig Nachholbedarf zu haben...


Der TV Out meiner V3 (BT868) ist um Welten besser!!

StefanV
2002-05-12, 15:08:23
Originally posted by Frank
Du darfst evtl nicht immer von dir ausgehen Razor. Manche haben zum Beispiel eben ein Fernseher neben den Rechner stehen oder wie auch immer...

1. eben

2. bei mir 2-3m neben Rechner...

StefanV
2002-05-12, 15:12:08
Originally posted by Blackhand
Die Radeon8500 ist klar über der Gf3Ti500, aber wiederum unter der GF4Ti angesiedelt, so siehts aus. Die Ti4200 wird möglicherweise harte Konkurrenz.

die meisten GF3 Karten sehen besser aus als die ATI, auch sind die Kühler meist hübscher und größer *eg*

Haarmann
2002-05-12, 15:15:34
Razor

Sagte wer, dass sein PC neu ist? Ich denke ich hab deutlich geschrieben, dass er nen PC hat, mit ner Kyro2 drinnen... 1400er TB auf A7V133 - ATI hat die besseren AMD Treiber, Via und NV mögen sich eh ned riechen, DVD ist aufm TV - Out der ASUS fürn Arsch, den Video In braucht er ned... Die 3D Brille is auch fürn Arsch ;).
Ab Sommer hat er dann wohl auch 2 Monitore... Nen Flat und nen CRT - ergo ATI is sinnvoller.
Wie gesagt, es gibt sicher PCs, wo dies nicht zutrifft. Aber eben...

ow

Diese Treiber gibts doch... Oder ist Creative Labs kein Hersteller einer Voodoo 2 Karte ??? Deren Glide wrapper darf man zwar als NV Mensch benutzen, aber deren miniGL wohl mal wieder ned... Typisch. Tools für NV ja - für alle anderen NEIN.

P.S. Mir ist ein OpenGL ICD für meine Games sowas von Scheissegal - Games müssen laufen auf meinem PC - Punkt Aus Amen - und das tun se halt.

StefanV
2002-05-12, 15:16:59
Originally posted by ow

Das ist nur deine Meinung.
Die Verkaufszahlen sprechen für sich.

Hm, wars nicht mal so, daß mal mehr Radeons als GF3 verkauft wurden??

Ich meine mal gehört zu haben, daß die R200 sich ganz gut verkaufen ließe...

Blackhand
2002-05-12, 15:26:30
aths,

Auf deiner Ti4600 kannst du ja problemlos FSAA mit AF nutzen, aber auf einer GF3 ist das ein ganz anderes Kapitel. Die AF Qualität der GeForces ist bestimmt nicht zu 100% besser. ATi hat immerhin 16x. und das was bei der ATi nicht mitgefiltert wird und eh kaum auffällt, fehlt der GF3 in der höheren AF Stufe. Das trilineare schlägt hier wirklich nicht so doll zu buche wie du immer meinst. Vor allem nicht in Verbindung mit FSAA.

ow
2002-05-12, 15:32:16
Originally posted by Stefan Payne

LOOOOL

Seit WANN haben NV Karten ein gutes P/L Verhältnis??



Schon immer hatten sie das.


Bei ATI gibts für den gleichen Preis einer Leadtek TI500:

Besseren TV Out, Multimonitoring und mehr Leistung.



Und verkrüpppelte Treiber. Hab gerade den 9031 getestet. Alle Bugs noch drin.

ow
2002-05-12, 15:34:05
Originally posted by Stefan Payne


Nach der Aussage von Haarmann können 3DFX Chips sehrwohl 512² Texturen verarbeiten.



Nach Haarmanns Aussage können ALLE Chips beliebige Texturgrössen verarbeiten.

Nein, die 3dfx Chips bis V3 können keine 512^2 Texturen verarbeiten!

ow
2002-05-12, 15:36:24
Originally posted by Haarmann


ow

Diese Treiber gibts doch...


Wo???
Hab keinen gefunden.

Mal davon abgesehen, dass die Creative Treiber nicht auf anderen Voodoo Karten laufen ohne am BIOS zu fummeln.

Exxtreme
2002-05-12, 15:37:10
Originally posted by ow


Nach Haarmanns Aussage können ALLE Chips beliebige Texturgrössen verarbeiten.

Nein, die 3dfx Chips bis V3 können keine 512^2 Texturen verarbeiten!
Es gab aber AFAIK einen Treiber, mit dem die V2 tatsächlich 512'er Texturen richtig darstellen konnte. Ich glaube der war von Creative. Die bedienten sich irgenwie eines Tricks.

Gruß
Alex

StefanV
2002-05-12, 15:46:20
Originally posted by ow



Wo???
Hab keinen gefunden.

Mal davon abgesehen, dass die Creative Treiber nicht auf anderen Voodoo Karten laufen ohne am BIOS zu fummeln.

???

WIE willst bei einer Voodoo2 am BIOS fummeln???

aths
2002-05-12, 15:55:37
Originally posted by Blackhand
aths,

Auf deiner Ti4600 kannst du ja problemlos FSAA mit AF nutzen, aber auf einer GF3 ist das ein ganz anderes Kapitel. Die AF Qualität der GeForces ist bestimmt nicht zu 100% besser. ATi hat immerhin 16x. und das was bei der ATi nicht mitgefiltert wird und eh kaum auffällt, fehlt der GF3 in der höheren AF Stufe. Das trilineare schlägt hier wirklich nicht so doll zu buche wie du immer meinst. Vor allem nicht in Verbindung mit FSAA.

Blackhand, ich stimme dir zu, dass das AF der Radeon brauchbar ist und außerdem in üblichen (nicht allen) Situationen etwas schärfere Bilder liefert als GF3/4. "Wieviel" das GF-AF nun besser ist, kann man kaum objektiv beurteilen. Es sollte sich jeder eine eigene Meinung bilden und danach handeln. Ich persönlich nehme den Leistungsverlust inkauf, um sehr gutes und trilineares AF zu haben. Andere mögen das als übertrieben ansehen.

In meinen Augen wird immer wieder der Grundfehler gemacht, ein Feature herauszugreifen, wenn doch zwei Features hier zählen: AF und FSAA. Beim FSAA ist es anders herum: Radeon2 schöner, GF3 schneller.

ow
2002-05-12, 15:56:37
Originally posted by Exxtreme

Es gab aber AFAIK einen Treiber, mit dem die V2 tatsächlich 512'er Texturen richtig darstellen konnte. Ich glaube der war von Creative. Die bedienten sich irgenwie eines Tricks.

Gruß
Alex


Ich weiss das.

Und dennoch verarbeitet kein 3dfx Chips bis zur V3 512^2 Texturen in Hardware. Und von 3dfx gibt´s auch keinen Treiber, der das über Umwege ermöglicht.

ow
2002-05-12, 15:59:07
Originally posted by Stefan Payne


???

WIE willst bei einer Voodoo2 am BIOS fummeln???

Wieso V2? der Treiber sollte dann ja wohl auch für Banshee Karten verfügbar sein.

AlfredENeumann
2002-05-12, 17:54:20
quote:
--------------------------------------------------------------------------------
Originally posted by ow

Das ist nur deine Meinung.
Die Verkaufszahlen sprechen für sich.
--------------------------------------------------------------------------------


link bitte !!!

Unregistered
2002-05-12, 18:03:23
Wie wäre es als Benchmarktest die Technologie Demo des Spiels Divine Divinity?
Unterstützt Software, Direct Draw, Direct 3D und Glide.
Als Ergebnis werden die FPS ausgegeben.Allerdings sollte man den Test ca. 10mal machen, da sich die einzelnen Werte ein wenig unterschieden.

Mit nvidia Karten gibt es allerdings noch ein paar kleinere Probleme, vor allem mit Geforce Karten.

StefanV
2002-05-12, 18:09:16
Originally posted by Unregistered
Mit nvidia Karten gibt es allerdings noch ein paar kleinere Probleme, vor allem mit Geforce Karten.

:rofl:

Die wirds in Jahren noch geben, da sich NV kaum um die Lauffähigkeit von älteren Games bemüht...

Wenn man mal die Kiste mit den alten Dual API Games auskramt, dann findet man garantiert auch das eine oder andere Game, das garnicht/bescheiden auf NV Karten läuft...
Brauchen nichtmal Dual API Games sein, aber bis DX6 (das erste DX, das was getaugt hat...) dürften sich einige Games finden lassen...

Haarmann
2002-05-12, 18:40:40
ow

Seit wann stellte denn 3dfx Voodoo 2 Karten her?!? Ich dachte immer die wären nur Chip Lieferant... Kartenhersteller Creative Labs machte eben noch Treiber - sprich Support für seine Produkte. Is aber offenbar inzwischen ein Verbrechen, wenn ein Hersteller einer Grafikkarte es wagt, für sein Produkt gar Treiber anzubieten. Welch Zumutung für die Kunden das wohl darstellt :eg:
Es ist nicht 3dfxs Aufgabe dedizierte Treiber für alle Abnehmer ihrer Chips zu machen. Darauf plädiert ihr doch imer wieder, wenn man vom absolut hundemieserablen Treibersupport seitens NVidia redet. Kein AF in D3D und kein TV-Out Overscan.
Wenn offizielle Creative Labs Treiber seit neustem von 3dfx kommen müssen, so verwundert mich das irgendwie schon...
Ergo ist das ein Treiber und zwar ein offizieller Treiber. Da gibts nix zu gackern und nix dran zu flattern. Für Creative Labs Voodoo 2 Karten gabs nen 512er Texturen verarbeitenden Treiber vom Hersteller. Wie diese Texturen verarbeitet werden, interessiert eigentlich niemanden - das se verarbeitet wurden, ist Fakt und relevant. Und das Beste dran ist, dass die Karten nedmals stotterten in Q3DM9 ;). Das konnten 16MB TnT Karten nicht von sich behaupten.

Aja... ich hatte 2 12MB Creative Labs Voodoo 2 Karten ;) und diese 2 hatten das beste Preis Leistungverhältnis aller je gekauften Karten.

Unregistered
2002-05-12, 19:33:32
@Stefan Payne: Divine Divinity ist kein Uralt Game. ;)
Das ist ja noch nicht mal released. Die Bugs wegen den nvidia Karten sollen aber noch behoben werden.

Razor
2002-05-12, 20:12:44
@Frank

"Du darfst evtl nicht immer von dir ausgehen Razor. Manche haben zum Beispiel eben ein Fernseher neben den Rechner stehen oder wie auch immer... "

Einen Fernseher neben dem Moni ?
Na dann hätte derjenige noch ganz andere Probleme...
Einen 2. Moni würd' ich noch gelten lassen.

@Exxtreme

"Nix gegen das A7V133."

Hab' selber mal eines in den Fittichen gehabt und wenn ich mich recht erinnere hatte es noch ganz andere Probleme... VIA halt... bei einem läuft's, beim anderen nicht.
(und es war keine GF im Spiel ;-)

Sind halt meine persönlichen Erfahrungen...

"Razor, ich habe das Gefühl, daß du hier Irgendetwas sagst, was du von irgendwo gehört hast, ohne es selbst ausprobiert zu haben. Ich habe selbst schon mehrere DVDs über die R8500 mit perfekter Wiedergabequalität auf dem Fernseher wiedergegeben und manche so auch auf Video überspielt."

Falsch, durfte ich selber vor ein paar Monaten in Augenschein nehmen. Kann natürlich auch sein, daß dies mittlerer Weile gefixt worden ist, aber das Bild war in etwa mit dem Fernsehbild vergleichbar, nicht aber mit der Wiedergabe-Qualität vom DVD-Player oder vom Premiere-Decoder. Nicht, daß das Bild der gf3 nun sehr viel besser gewesen ist, aber das normale TV-Out bei Spielen sah besser aus, nur bei DVD... vermutete damals ein Overlay-Prob bei der ATI...

Und das mit der 'perfekten' Wiedergabe von DVD's auf dem (normalen) Fernseher ist doch wohl hoffentlich ein Witz !
Schon mal HDTV in Kombo mit einem guten DVD-Player oder 'nem Compi (auch gf3 ;-) gesehen ?
Würd' ich mir an Deiner Stelle mal anschauen und das dann wiederholen...

Und auch Dir würde ich dringenst raten, Dir das mal auf 'ner vernünftigen gf3 anzuschauen, wenn noch nicht geschehen...

"Hast du mal die R8500-Treiber von ATi ausgetestet und bewertet? Nein?"

Ich habe einen direkten Vergleich beider Kontrahenten mit jeweils aktuellen (Beta-)Treibern in Augenschein nehmen dürfen... Also lautet die Antwort: Ja !

"Du hast sicherlich wieder die Qualität von AF der R8500 selbst begutachten können, oder?"

Korrekt !

@Blackhand

"Die Radeon8500 ist klar über der Gf3Ti500, aber wiederum unter der GF4Ti angesiedelt, so siehts aus."

Sehe ich und auch viele andere sicherlich anders...

"Die Ti4200 wird möglicherweise harte Konkurrenz."

"Möglicherweise" ist wirklich gut...
;-)

"Hier wird mir zu viel von Standpunkt Firma und Börse und nicht vom Standpunkt Kunde, was hier die meisten sein dürften, gesprochen. Das ist doch totaler Mist."

Na dann scheinst Du aber wenig von userer Wirtschaft zu wissen, vor allen Dingen, wie sie funktioniert. Ich empfehle Dir da dringend entsprechende Lektüren, denn dann würdest auch Du erkennen, was für einen blödsinn Du hier postest. Nicht, daß ich Dich nicht verstehen könnte, aber so funktioniert das hier eben nicht...

"Auf deiner Ti4600 kannst du ja problemlos FSAA mit AF nutzen, aber auf einer GF3 ist das ein ganz anderes Kapitel."

Wieso ?
2xAA mit 4xAF (trilinear) funzt bei mir ÜBERALL !

"ATi hat immerhin 16x."

Und kann dies nicht einmal trilinear filtern und auch ist diese Aussage nur zum Teil richtig, wie Du wissen solltest...

"Das trilineare schlägt hier wirklich nicht so doll zu buche wie du immer meinst. Vor allem nicht in Verbindung mit FSAA."

Ich vermute mal, daß Du was an den Augen hast, oder aber die o.g. Kombo (2xAA/4xAF/trilinear) nich nie in Augenschein genommen hast...


@AEN

"Das glaubst du doch selber nicht! Als die Karten noch in der hohen Preisregion waren, waren die Händler ständig ausverkauft, auch wenns anfangs noch nicht viele Karten gab."

Mittlerer weile sind sie Ladenhüter...
(zumindest bei den mir bekannten Händlern)

Merkwürdiger weise erfreuen sich die gf4mx'er größter Beliebtheit (warum auch immer, kann ich nicht nachvollziehen) und viele fragen nach der gf4ti4200 und warten darauf...

@Stefan

"1. Das ist nicht deine Entscheidung!
DIE muß jeder für sich Treffen!!
Was für DICH uninteressant ist, kann für jemand anderen ein Kaufgrund sein."

Genau darauf wollte ich hinaus, insofern scheinst Du mich nicht richtig verstanden zu haben...

"2. DAS halte ICH für ein Gerücht!!
Die Gladiac 721 ist in sachen SQ sehr mies!!
Schärfe geht noch, aber Helligkeit/Kontrast ist absolut indiskutabel!! (wohl ein Spannungspegel von 300mV)"

Na, dann hättest Du Dich VOR dem Kauf besser informieren sollen...
(ich selber mache das Grundsätzlich und habe mit die gf3 von ELSA zugelegt... mit dem entsprechenden Ergebnis)

"3. Den TV Out bezahl ich mit!
Und bei einer 200€ Karte (MSI G3Ti200-VT) kann ich wohl erwarten, daß er zu gebrauchen ist, oder??
Und nicht, daß er alle paar Sekunden flackert, zu dunkel ist, keinen Kontrast hat, usw, oder??
Außerdem hat es 3DFX mit dem gleichen Chip um WELTEN besser gemacht!!"

Du hast tatsächlich noch nie das TV-Tool benutzt ?
Ich würde dich damit tatsächlich als NV-Inkompatibel bezeichnen...

Wo ich Dir recht gebe, ist, daß die Referenz-Treiber-Unterstützung des TV-Out arg zu wünschen übrif läßt. Aber noch etwas, was Du immer wieder zu vergessen scheinst: Für die TV-Chip's ist nicht NV, sondern der Kartenhersteller zuständig und damit sind etwaige Qualitätsansprüche auch dort zu adressieren. Ich hatte mit meiner BT868-Implementierung von ELSA nie derartige Probleme...

"4. siehe TV Out.
Monitor bei max 800x600 bei 50Hz rult..."

Da mein Fernseher im Wohnzimmer steht (und nur dort macht er Sinn), ist's mir völlig Schnuppe, was der Moni macht, wenn ich das Bild des Compi's auf dem TV betrachte, was im übrigen absolut brauchbar ist (soweit man dies von Fernsehbildern generell sagen kann).

"5. mußt nicht immer von dir auf andere schließen..."

Tu ich gar nicht...
Wie kommt Ihr bloß immer darauf ?
???

"Der TV Out meiner V3 (BT868) ist um Welten besser!!"

Auf den Beleg dieser Aussage bin ich wirklich gespannt !

"Hm, wars nicht mal so, daß mal mehr Radeons als GF3 verkauft wurden??

Ich meine mal gehört zu haben, daß die R200 sich ganz gut verkaufen ließe..."

Quelle ?
Die Verkaufszahlen der mir bekannten Höker sprechen eindeutig dagegen, im übrigen auch die des MediaMarktes (zumindest nach den Verkäufern). Allerdings kann ich sowieso nicht verstehen, wie sich jeamnd beim MM tatsächlich GraKa's kaufen kann...

"da sich NV kaum um die Lauffähigkeit von älteren Games bemüht..."

Du scheinst echt überhaupt keine Ahnung zu haben, Stefan...
Letztens hab' ich gemerkt, als ich das gute alte FAKK2 wieder ausgrub, daß das Texturen-Flackern in hohen Auflösungen nun wieder weg war... offenbar werden die NV-Treiber immer kompatibler.

Ganz im Gegensatz zu den ATI-Treibern. Wollte in der Firma vor kurzem einen PII350 (Compaq) mti WinNT4 neu aufsetzen und nahm die mitgelieferten ATI-Treiber (RagePro-GraKa). Wollte offensichtlich nicht mit SP6 zusammen arbeiten (nur 800x600x4). Nun gut, dachte ich, sind ja auch schon uralt, als dann mal den neuesten (offiziellen) von der ATI-Page genommen -> BSOD... hat mich dann einen ganzen Tag gekostet, einen funktionsfähigen Treiber zu finden (war einer vom Jahre 2000) und der kam nicht von ATI...

Heißt das jetzt, daß ATI nicht einmal bemüht, die Lauffähigkeit unter allen am Markt befindlichen OS zu bemühen ?

@Haarmann

"Sagte wer, dass sein PC neu ist?"

Sorry, hab' ich dan wohlö falsch verstanden...
Vielleicht hättst das gleich so deutlich schreiben sollen !
;-)

"Via und NV mögen sich eh ned riechen"

Halt ich für'n Gerücht...

Da gibt's so einiges, was VIA 'nicht riechen' kann.

"DVD ist aufm TV - Out der ASUS fürn Arsch"

Was hat die ASUS gleich noch für'n TV-Chip ?

"Die 3D Brille is auch fürn Arsch"

Stimmt, die Revelator ist um Welten besser...
;-)

"Ab Sommer hat er dann wohl auch 2 Monitore..."

Na dann hätt er vielleicht auch bis dann warten sollen...

"Wie gesagt, es gibt sicher PCs, wo dies nicht zutrifft. Aber eben... "

Dem stimm ich jetzt einfach mal zu !
;-)

@Unreg.

"Divine Divinity" ?
Was ist das ?
Würde das gerne mal nachstellen...
Vielleicht einen Link parat ?

Bis denne

Razor

Amarok
2002-05-12, 20:22:20
Originally posted by Razor

"Divine Divinity" ?
Was ist das ?
Würde das gerne mal nachstellen...
Vielleicht einen Link parat ?

Bis denne

Razor
http://www.divinedivinity.de

StefanV
2002-05-12, 20:32:16
Originally posted by Razor
@Stefan

"1. Das ist nicht deine Entscheidung!
DIE muß jeder für sich Treffen!!
Was für DICH uninteressant ist, kann für jemand anderen ein Kaufgrund sein."

Genau darauf wollte ich hinaus, insofern scheinst Du mich nicht richtig verstanden zu haben...

Schön, dann akzeptiere mal, daß nicht für jeden NV die bessere ALternative ist!!
NV ist teilweise nicht zu gebrauchen!!

"2. DAS halte ICH für ein Gerücht!!
Die Gladiac 721 ist in sachen SQ sehr mies!!
Schärfe geht noch, aber Helligkeit/Kontrast ist absolut indiskutabel!! (wohl ein Spannungspegel von 300mV)"

Na, dann hättest Du Dich VOR dem Kauf besser informieren sollen...
(ich selber mache das Grundsätzlich und habe mit die gf3 von ELSA zugelegt... mit dem entsprechenden Ergebnis)

Willst du mich veräppeln oder beleidigen??

WO bitte schön soll man sich vor dem Kauf informieren, wie die SQ ist??
Die alljährlichen Tests der c't??
Glaubst du etwa, daß ich mir diese Ausgaben gut weglege, für den Fall, daß ich mir eine GraKa kaufen will??
DU sagst ja auch immer, daß die SQ von ELSA Karten gut ist.
Ich sag daher, daß sie scheiße ist, weil ich selbst eine hab und das anhand einiger Karten ohne RF Filter beurteilen kann!!

Hast du auch eine Karte ohne RF Filter??


"3. Den TV Out bezahl ich mit!
Und bei einer 200€ Karte (MSI G3Ti200-VT) kann ich wohl erwarten, daß er zu gebrauchen ist, oder??
Und nicht, daß er alle paar Sekunden flackert, zu dunkel ist, keinen Kontrast hat, usw, oder??
Außerdem hat es 3DFX mit dem gleichen Chip um WELTEN besser gemacht!!"

Du hast tatsächlich noch nie das TV-Tool benutzt ?
Ich würde dich damit tatsächlich als NV-Inkompatibel bezeichnen...

3. siehe 2.
Willst du mich veräppeln oder beleidigen??
Dann mach beides bitte direkter und nicht 'hintenrum'!!

Und ja, ich hab das TV Tool schonmal benutzt (bei meiner MSI G3Ti200-VT), allerdings hab ich nicht unbedingt lust da stundenlang dran rumzufummel, bis das Bild dem entspricht, was ich von der G400 her kenne.
Meist geht das auch nicht so ganz...


Wo ich Dir recht gebe, ist, daß die Referenz-Treiber-Unterstützung des TV-Out arg zu wünschen übrif läßt. Aber noch etwas, was Du immer wieder zu vergessen scheinst: Für die TV-Chip's ist nicht NV, sondern der Kartenhersteller zuständig und damit sind etwaige Qualitätsansprüche auch dort zu adressieren. Ich hatte mit meiner BT868-Implementierung von ELSA nie derartige Probleme...

Daß NVidia nicht für die implementierung des TV Outs zuständig ist, ist wohl blanker Hohn von dir, oder??

Seit dem die Hersteller die Treiber nicht mehr anpassen ('dank' NVidia, weil sie jede Woche 'nen neuen Treiber releasen müssen) ist NV dafür verantwortlich!
Bei Power VR klappt das doch auch!!

ELSA hat an der beschissenen Implementierung des BT868 keine Schuld!!
Die geht an NV für die bescheidenen Treiber!!


"4. siehe TV Out.
Monitor bei max 800x600 bei 50Hz rult..."

Da mein Fernseher im Wohnzimmer steht (und nur dort macht er Sinn), ist's mir völlig Schnuppe, was der Moni macht, wenn ich das Bild des Compi's auf dem TV betrachte, was im übrigen absolut brauchbar ist (soweit man dies von Fernsehbildern generell sagen kann).

Und mein PC steht im Wohnzimmer neben dem TV!

Außerdem:

Meinst du nicht, daß man die EInstellungen 'überprüfen' möchte, wenn man auf TV Out umschaltet??

Auch scheinst du zu vergessen, daß das Umschalten der Auflösung uU die Anordnung der Desktop Symbole durcheinander bringt...

Aber nVidia ist ja vollkommen Unschuldig daran, daß der TV Out scheiße ist...


"5. mußt nicht immer von dir auf andere schließen..."

Tu ich gar nicht...
Wie kommt Ihr bloß immer darauf ?
???

Anhand deiner Postings könnte man möglicherweise darauf schließen...

"Der TV Out meiner V3 (BT868) ist um Welten besser!!"

Auf den Beleg dieser Aussage bin ich wirklich gespannt !

Mein 70cm Nordmende TV.

Hab Voodoo3 mit G400 verglichen und war erstaunt, wie gut das Bild der Voodoo3 auf dem TV war!!

War beidesmal recht gleich, kaum ein Unterschied.

Auch hat 3DFX im Treiber alle Regler, die man fürn TV Out braucht, da sollten sich einige mal 'ne SCheibe dran abschneiden.

Respekt, 3dfx!!
SO muß ein TV Out sein!!

Übrigens:

Der von meiner ViVid!XS hat mir auch nicht gefallen.

Schaut genauso, wie bei NV Karten aus, nur mit Overscan.

Dafür gibts aber alle Optionen, die man braucht...


"da sich NV kaum um die Lauffähigkeit von älteren Games bemüht..."

Du scheinst echt überhaupt keine Ahnung zu haben, Stefan...
Letztens hab' ich gemerkt, als ich das gute alte FAKK2 wieder ausgrub, daß das Texturen-Flackern in hohen Auflösungen nun wieder weg war... offenbar werden die NV-Treiber immer kompatibler.

Anscheinend hast du die entsprechenden Games nicht...


Ganz im Gegensatz zu den ATI-Treibern. Wollte in der Firma vor kurzem einen PII350 (Compaq) mti WinNT4 neu aufsetzen und nahm die mitgelieferten ATI-Treiber (RagePro-GraKa). Wollte offensichtlich nicht mit SP6 zusammen arbeiten (nur 800x600x4). Nun gut, dachte ich, sind ja auch schon uralt, als dann mal den neuesten (offiziellen) von der ATI-Page genommen -> BSOD... hat mich dann einen ganzen Tag gekostet, einen funktionsfähigen Treiber zu finden (war einer vom Jahre 2000) und der kam nicht von ATI...

Mangels entsprechnder HW kannst DU das wohl kaum beurteilen!!!

Anscheinend bist DU mit ATI inkompatibel, denn bei mir lief NT4 mit der Rage Pro ganz gut!!


Heißt das jetzt, daß ATI nicht einmal bemüht, die Lauffähigkeit unter allen am Markt befindlichen OS zu bemühen ?


Tja, hast wohl was falsch gemacht...

aths
2002-05-12, 20:43:12
Razor,

Divine Divinity ist das Spiel, was mich einen Großteil in den Semesterferien beschäftigen wird :) Es kommt vermutlich im nächsten Monat raus - und unterstützt unter anderem Glide.

ow
2002-05-12, 21:42:59
Originally posted by Haarmann
ow

Seit wann stellte denn 3dfx Voodoo 2 Karten her?!? Ich dachte immer die wären nur Chip Lieferant... Kartenhersteller Creative Labs machte eben noch Treiber - sprich Support für seine Produkte. Is aber offenbar inzwischen ein Verbrechen, wenn ein Hersteller einer Grafikkarte es wagt, für sein Produkt gar Treiber anzubieten. Welch Zumutung für die Kunden das wohl darstellt :eg:



Wo hab ich denn sowas behauptet?
Es ist lediglich eine Zumutung, das die 3dfx HW keine grosse Texturen verarbeiten kann und es auch keine Treiber gibt, die das per SW-Hack erledigen.


Es ist nicht 3dfxs Aufgabe dedizierte Treiber für alle Abnehmer ihrer Chips zu machen. Darauf plädiert ihr doch imer wieder, wenn man vom absolut hundemieserablen Treibersupport seitens NVidia redet. Kein AF in D3D und kein TV-Out Overscan.


Richtig.
Entspricht inhaltlich der Antwort, die ich vom 3dfx Support bekam als ich wegen der miesen Banshee Treiber mal nachfragte.
Am witzigsten finde ich aber die, die NV vorwerfen keine 3dfx Treiber mehr zu releasen. Denn die haben ja noch nicht einmal die Chips, geschwiege denn die Karten gemacht.


Wenn offizielle Creative Labs Treiber seit neustem von 3dfx kommen müssen, so verwundert mich das irgendwie schon...
Ergo ist das ein Treiber und zwar ein offizieller Treiber.


Wo ist eigentlich der Bezug von Creative und der Tatsache dass die 3dfx HW keine grossen Texturen verarbeiten kann?


Da gibts nix zu gackern und nix dran zu flattern. Für Creative Labs Voodoo 2 Karten gabs nen 512er Texturen verarbeitenden Treiber vom Hersteller. Wie diese Texturen verarbeitet werden, interessiert eigentlich niemanden - das se verarbeitet wurden, ist Fakt und relevant. Und das Beste dran ist, dass die Karten nedmals stotterten in Q3DM9 ;). Das konnten 16MB TnT Karten nicht von sich behaupten.


Ich habe fast alle Q3 Level auf meiner TNT gespielt und das läuft problemlos. Hab sogar einen Teil von RTCW auf der TNT gezockt. Ebenso problemlos.

Haarmann
2002-05-12, 21:43:38
Razor

Wir übten mal ne ganze Woche für ne S3 964 based Miro in nem Compaq zum laufen zu kriegen... diverse Flash updates später (Das gabs damals auch schon) wurde dann halt ne andere Karte eingebaut ;). Compaq is Compaq und kein PC...
Gleiches gilt für HP, IBM und all den Krempel ;). Mein Favorit is immer noch der HP Vectra, des sich beim installen des W95 Treibers einer Realtek 8029 abschaltet ;).

ernesto.che
2002-05-12, 22:27:50
Originally posted by ow



Am witzigsten finde ich aber die, die NV vorwerfen keine 3dfx Treiber mehr zu releasen. Denn die haben ja noch nicht einmal die Chips, geschwiege denn die Karten gemacht.



"Kurz nach dem Release der Banshee kündigte 3dfx am 17.11.1998 in den Alpen den bis dato nur unter dem Codenamen Avenger bekannten Voodoo 3 an. Wenige Wochen später, am 14.12.1998 gibt 3dfx den Kauf des amerikanischen Kartenherstellers STB bekannt. Von nun an wollte 3dfx unter dem Label3dfx/STB ausschließlich selber Karten mit Voodoo Chips verbauen und Fremdanbieter nicht mehr beliefern. "


Nur mal so als Gedankenstütze.

Legolas
2002-05-12, 23:25:49
Originally posted by ernesto.che


"Kurz nach dem Release der Banshee kündigte 3dfx am 17.11.1998 in den Alpen den bis dato nur unter dem Codenamen Avenger bekannten Voodoo 3 an. Wenige Wochen später, am 14.12.1998 gibt 3dfx den Kauf des amerikanischen Kartenherstellers STB bekannt. Von nun an wollte 3dfx unter dem Label3dfx/STB ausschließlich selber Karten mit Voodoo Chips verbauen und Fremdanbieter nicht mehr beliefern. "


Nur mal so als Gedankenstütze.

Hängen das Quote und der eigentlich Postingtext irgendwie miteinander zusammen??? Ich kann da keinen offensichtlichen Zusammenhang erkennen...

AlfredENeumann
2002-05-12, 23:43:54
Originally posted by Razor

Ganz im Gegensatz zu den ATI-Treibern. Wollte in der Firma vor kurzem einen PII350 (Compaq) mti WinNT4 neu aufsetzen und nahm die mitgelieferten ATI-Treiber (RagePro-GraKa). Wollte offensichtlich nicht mit SP6 zusammen arbeiten (nur 800x600x4). Nun gut, dachte ich, sind ja auch schon uralt, als dann mal den neuesten (offiziellen) von der ATI-Page genommen -> BSOD... hat mich dann einen ganzen Tag gekostet, einen funktionsfähigen Treiber zu finden (war einer vom Jahre 2000) und der kam nicht von ATI...

Heißt das jetzt, daß ATI nicht einmal bemüht, die Lauffähigkeit unter allen am Markt befindlichen OS zu bemühen ?




Komisch, läuft bei uns auf PII400 (Dell) ebenfalls mit NT4 perfekt. Da muß das Problem wohl irgendwoanders liegen.

Quasar
2002-05-12, 23:47:53
Haarman, dir fällt aber auch immer wieder einen neue Ausrede ein.

ernesto.che, ich glaube er meinte, daß nV nicht die 3dfx-Chips hergestellt hat, und nun sollen sie auch noch Treiber zur Verfügung stellen, wofür normalerweise der Kartenhersteller zu sorgen hat.

ernesto.che
2002-05-12, 23:56:48
Originally posted by Quasar
Haarman, dir fällt aber auch immer wieder einen neue Ausrede ein.

ernesto.che, ich glaube er meinte, daß nV nicht die 3dfx-Chips hergestellt hat, und nun sollen sie auch noch Treiber zur Verfügung stellen, wofür normalerweise der Kartenhersteller zu sorgen hat.
Nvidia gehört jetzt aber 3dfx und 3dfx hat die Karten hergestellt, teils im eigenen Werk, grötenteils bei tsmc, wo auch Nvidia fertigen lässt.

Quasar
2002-05-13, 00:05:46
Wie wird noch immer so schön zitiert?

nV hat das geistig Eigentum von 3dfx und Personaloptionen erworben, nicht aber die komplette Firma...

BTW, müßte STB jetzt die Treiber zur Verfügung stellen.

ernesto.che
2002-05-13, 00:17:05
Originally posted by Quasar
Wie wird noch immer so schön zitiert?

nV hat das geistig Eigentum von 3dfx und Personaloptionen erworben, nicht aber die komplette Firma...

BTW, müßte STB jetzt die Treiber zur Verfügung stellen. Nope, STB war keine Tochter sondern voll eingeglidert.

Nach meiner Auffassung wäre Nvidia für Treibersupport zuständig gewesen.
Sie haben sich da rausgeschlichen. Auch ein Grund, warum ich in meinen Rechner nie eine Nvidia einbauen werde.
Und ich baue hobbymäßig auch viele Rechner für andere Leute zusammen. Bis auf ein einziges Mal habe ich keine Nvidia verbaut. Das wird auch so lange so bleiben, wie es Alternative gibt.

ernesto.che
2002-05-13, 00:20:38
sorry.

Nr. 5
2002-05-13, 00:30:40
Originally posted by Quasar
Wie wird noch immer so schön zitiert?

nV hat das geistig Eigentum von 3dfx und Personaloptionen erworben, nicht aber die komplette Firma...

BTW, müßte STB jetzt die Treiber zur Verfügung stellen. afaik hat NV damit auch die rechte an den treibercodes...
also könnte STB gar keine bringen ohne das sie erstmal an NV vorbeimüssten.
na, wer verhindert hier neue 3dfx-treiber? ;)


cu

ernesto.che
2002-05-13, 00:42:21
Originally posted by Nr. 5
afaik hat NV damit auch die rechte an den treibercodes...
also könnte STB gar keine bringen ohne das sie erstmal an NV vorbeimüssten.
na, wer verhindert hier neue 3dfx-treiber? ;)


cu

Eindeutig Nvidia, sie wurden ja mehrfach um Herausgabe der Treibercodes gebeten. Nichts ist passiert.

Quasar
2002-05-13, 00:46:49
Ich kenne leider nicht die kompletten Kaufveträge, noch das exakte Rechtsverhältnis, in dem 3dfx und STB standen, deswegen kann ich mich hierzu leider nicht weiter qualifiziert äußern.

Doch scheint ja einhellig unstrittig zu sein, daß nV die Rechte an den Sourcecodes der Treiber hat. Bleibt nur die Frage inwieweit dies STB von ihren Verpflichtungen entbindet, oder ob nV hier die Rechtsnachfolge angetreten hat.

Wenn dem so wäre, hätten Leute wie ihr in den USA sicher schon eine Menge Gerichtsprozesse gegen nV angestrengt, um sie zur herausgabe ihres geistigen Eigentums zu zwingen. ;)

StefanV
2002-05-13, 01:44:28
Originally posted by ernesto.che

Eindeutig Nvidia, sie wurden ja mehrfach um Herausgabe der Treibercodes gebeten. Nichts ist passiert.

NOCH SCHLIMMER!!

Wenn jemand einen Treiber geschrieben hat, dann wurde er von NV 'gebeten' den nicht weiterzuentwickeln...

StefanV
2002-05-13, 01:48:03
Originally posted by ernesto.che
Nope, STB war keine Tochter sondern voll eingeglidert.

Nach meiner Auffassung wäre Nvidia für Treibersupport zuständig gewesen.
Sie haben sich da rausgeschlichen. Auch ein Grund, warum ich in meinen Rechner nie eine Nvidia einbauen werde.
Und ich baue hobbymäßig auch viele Rechner für andere Leute zusammen. Bis auf ein einziges Mal habe ich keine Nvidia verbaut. Das wird auch so lange so bleiben, wie es Alternative gibt.

Durch diese 'Taktik' hat sich NiVida massig potentielle Kunden vergrault, die sich jetzt bei anderen Firmen umschauen (vorzugsweise kanadischen)...

Hätte NV in der Zeit 1 oder 2 Treiber veröffentlich (schön mit NV Logo drin), dann hätten sicher mehr 3DFX'ler eine NV Karte in erwägung gezogen...

Aber so hat sich NV verkalkuliert...

Xmas
2002-05-13, 04:39:21
Originally posted by Haarmann
Mich nervt dieses 256er Texturen sind absolut unbrauchbar Geflenne irgendwie. 256 = 1Byte alles andere ist ein Blödsinn fürs Alignement resp Registerbreite. Nächste Grenze wäre logischerweise 65536 und ned 2048 oder 4096.

Was ist denn das für ein Argument? Nur weil 8 Bit "üblich" sind verzichtet man auch nicht auf 10 Bit Renderpräzision. Und das aus gutem Grund. 4096² Texturen kann man mit noch TC gut verwenden, 65536² nicht.

Wieviele Polygone mit ner Kantenlänge von mehr denn 256 kriegste wohl überhaupt auf nen Moni? Ich denke nicht, dass es mehr denn ev 30 sind. Halbierst diese hast schon 60... auch das finde ich durchaus berechenbar ;). Der Aufwand ist by the way auch gering, da es automatisch gemacht werden kann (siehe CL Mini-GL Q3 V2). Durch das verbesserte Texturmanagement liesen sich so sogar noch FPS gewinnen. Aber ich weiss, diese Spieleprogger sind nur faul und wollen schnell Geld verdienen.
Haarmann, ich hab mir schon vor längerer Zeit darüber Gedanken gemacht, und bin relativ schnell zu dem Schluss gekommen dass größere Texturen unungänglich sind. Spätestens bei Cube Mapping und EMBM (bzw. allgemein Dependent Texture Reads) gibt es dann auch keinen "Trick" mehr, der helfen würde. Da funktioniert das "Aufteilen" nämlich nicht mehr.

Zu deiner ersten Frage: einige. Stell dir mal eine große Ebene vor, mit einer wiederholenden 1024x1024-Textur bedeckt. Das was für die eine Karte ein einziges Polygon ist, musst du dann nämlich in hunderte Polygone aufteilen, nur damit deine 256x256-Flicken draufpassen. Oh, und nicht zu vergessen dass du eine 1024x1024-Textur nicht in 4x4, sondern 5x5 kleinere aufteilen musst, da du sonst Probleme beim Filtern an den Rändern bekommst.
Der Aufwand des Polygon-Aufsplittens ist keinesfalls so gering wie du vielleicht annimmst.

Jeder Texturwechsel zehrt an der Performance. Nicht umsonst wird bei vielen Spielen nach Texturen sortiert bzw. "Player-Skins" in eine einzige Textur gepackt.

Haarmann
2002-05-13, 08:53:23
Quasar

In meiner Schulzeit arbeitete ich a bei nem Compaq Verteiler und B in 2 Läden als Techniker. Beide Läden nahmen alle PCs zu reperaturen an... nur keine Compaq. Das hatte wohl so sein Gründe ;). Eigenes Gehäuse, eigenes Boardformat, eigenes Netzteil und kein BIOS Setup um nur die Wichtigsten zu nennen. Da passte zum Teil nedmals jede Festplatte rein, weil die statt Autodetection nur 80 verschiedene Typen kannten, oder SCSI Adapter, die ausser mit HDs bis 1GB gar nichts erkannten...

NV muss sicher keine Treiber bereitstellen für 3dfx Produkte. Aber es ist schwer Treiber herzustellen, wenn NV den Source zurückhält und aufs Copyright pocht...
Nr 5 sieht das schon richtig.
Noch nichtmals die bereits fertigen neuen resp Beta 3dfx Teile wurden freigegeben.

Xmas

Wenn schon breitere Register, dann macht man doch gleich 16 Bit... das ist ne bekannte Grösse und reicht für ne Weile.

Ja spätestens dann wirds eng... dummerweise können Voodoo 1,2 und 3 sowas eh nicht. Daher sind die grösseren Texturen vollkommen sinnlos. Heute jedoch wären 65k Texturgrössen logischer denn irgendwie jeder etwas mehr denn 1024.

Wenn ich den Boden wirklich 1024 mal 1024 säge, wär der Monitor relativ voll ;) selbst wenn ich da 1000 Polygone für braucht isses ned so viel. Ansonsten werden die hinteren Teile des Bodens wohl bereits in mip stufe 1-2 sein.

Xmas und ow

Wenn Du noch ne alte Voodoo hast, dann spiel mal Q3 per WickedGL. Der beherrscht dies ebenfalls wie Stefan Payne und ich Gestern schnell mal nachgesehen haben. WickedGL ist auch ein Herstellertreiber, da diese auch mal V2 und Banshee Karten vertrieben haben für ihre Brillen. Ergo zulässig.

zeckensack
2002-05-13, 09:42:47
Originally posted by Haarmann
NV muss sicher keine Treiber bereitstellen für 3dfx Produkte. Aber es ist schwer Treiber herzustellen, wenn NV den Source zurückhält und aufs Copyright pocht...
Nr 5 sieht das schon richtig.
Noch nichtmals die bereits fertigen neuen resp Beta 3dfx Teile wurden freigegeben. ???
*hust* (http://http.us.debian.org/debian/dists/potato/main/source/libs/)
Ups ... ist da auf der Seite evtl was ... ???

Haarmann
2002-05-13, 10:06:04
zeckensack

Ich rede von Windows Treibern... die Linux,BSD und XFree waren immer Open Source genau wie Glide am Ende. Daher kann man die ned blocken ;). NV kann ja ned Copyrights kaufen, welche es nie gab...

Aber mich interessiert ehrlich gesagt der ganze Shit nen feuchten Furz, wenn ich mit der Karte gamen will... denn dafür taugen diese Treiber allesamt sehr wenig ;).

zeckensack
2002-05-13, 10:45:18
Originally posted by Haarmann
zeckensack

Ich rede von Windows Treibern... die Linux,BSD und XFree waren immer Open Source genau wie Glide am Ende. Daher kann man die ned blocken ;). NV kann ja ned Copyrights kaufen, welche es nie gab...Dann möchte ich dich freundlich darauf hinweisen, daß in der Datei "glide2-vg_2.46-2.tar.gz" in einem Unterverzeichnis eine weitere tar.gz enthalten ist, die *staun* den Ur-Quellcode für die glide2x-Treiber enthält, so wie 3dfx ihn der Linux-Gemeinde hinterlassen hat. Und den kann man dann auch für Win32 kompilieren ...

Andre
2002-05-13, 12:32:59
Originally posted by zeckensack
Sobald irgendeine Firma was geileres als NV rausbringt, was meint ihr, wie schnell alle Entwickler umsteigen?
Was meint ihr, was dir Kunden beim nächsten Upgrade machen?
Richtig, sie machen das, was sie immer gemacht haben, sie lassen sich von den High-End-Produkten blenden und kaufen dann Low-End, Hauptsache vom 'besten' Hersteller.

Und was bietet Matrox Deiner Meinung nach im Low- und Mid-Range Segment?
Die G400 und 550?
Sollte sich Matrox nur auf den High-End Bereich verlassen, stehen sie dumm da - selbst wenn jetzt alle Kunden Mid-Range kaufen wollen, hat Matrox da eben nix.
Und das ist eben der Vorteil seitens ATI/NV:
Sie haben die dicke Produktpalette, um alle zu bedienen - Matrox wie auch PowerVR nicht. Und den ausgebliebenen durchschlagenden Erfolg der Kyros konnte man genau daher ableiten.

nocturne
2002-05-13, 12:41:14
Originally posted by Andre

Und was bietet Matrox Deiner Meinung nach im Low- und Mid-Range Segment?
Die G400 und 550?
Sollte sich Matrox nur auf den High-End Bereich verlassen, stehen sie dumm da - selbst wenn jetzt alle Kunden Mid-Range kaufen wollen, hat Matrox da eben nix.
Und das ist eben der Vorteil seitens ATI/NV:
Sie haben die dicke Produktpalette, um alle zu bedienen - Matrox wie auch PowerVR nicht. Und den ausgebliebenen durchschlagenden Erfolg der Kyros konnte man genau daher ableiten.

Sehe ich auch so. Auch 3dfx ging es ähnlich: nur von der Ankündigung eines überteuerten Prestigeobjekts allein (Voodoo5-6000) geht es einer Firma auch nicht besser. das einzige, was dann passiert, ist, dass mehr Hype produziert wird und man wieder im Gespräch ist. Genau das hat die PR-Abteilung von Matrox hier offensichtlich auch erreicht. ;)

zeckensack
2002-05-13, 12:43:35
Originally posted by Andre


Und was bietet Matrox Deiner Meinung nach im Low- und Mid-Range Segment?
Die G400 und 550?
Sollte sich Matrox nur auf den High-End Bereich verlassen, stehen sie dumm da - selbst wenn jetzt alle Kunden Mid-Range kaufen wollen, hat Matrox da eben nix.
Und das ist eben der Vorteil seitens ATI/NV:
Sie haben die dicke Produktpalette, um alle zu bedienen - Matrox wie auch PowerVR nicht. Und den ausgebliebenen durchschlagenden Erfolg der Kyros konnte man genau daher ableiten. Daß man ohne Low-/Midrange-Produkte keinen Umsatz machen kann, das hatte ich doch auch schon selbst eingeräumt ... ???
Das sollte ja auch nicht unbedingt pro Matrox sein (geht mir momentan sowieso wahnsinnig auf den Sack...), sondern eher eine Antwort auf "NVidia ist als Marktführer unkaputtbar". ;)

Quasar
2002-05-13, 12:45:40
Ich glaube, das hat im Prinzip bisher auch keiner bestritten, nur bezweifeln viele, das sich dies mit nur einem, evtl. nur kurzfristig überlegenen Produkt erreichen ließe.

Unregistered
2002-05-13, 12:47:12
Originally posted by ow



Ich habe noch nie irgendwas im Deto einzustellen gebraucht. Die Einstellungen werden in den Spielen vorgenommen.
Aber was haben Reg-Einträge denn überhaupt mit 'Hacks' zu tun???

Wenn die Funktion nicht offiziel im Panel angeboten wird sehe ich es als Hack.

Gruss Labberlippe

Quasar
2002-05-13, 12:51:19
IMHO gibt's schon noch einen qualitativen Unterschied zwischen einer Funktion, die im Treiber angeboten wird und nur per Registry-Key freigeschaltet werden muss und einem Driver-Hack, bei dem am Code der Dateien herumgepfuscht wird, was evtl. sogar illegal ist. ;)

BTW stimme ich zu, daß WickedGL legitim ist, da sie Kartenproduzent waren/sind(??).

Unregistered
2002-05-13, 12:55:46
Originally posted by Quasar
Wie wird noch immer so schön zitiert?

nV hat das geistig Eigentum von 3dfx und Personaloptionen erworben, nicht aber die komplette Firma...

BTW, müßte STB jetzt die Treiber zur Verfügung stellen.
Richtig und weil alles geistig ist, hat nVIDIA den Source für den XP Treiber nicht rausgerückt damit die Fangemeinde einen Treiber basteln konnte.

Top

Gruss Labberlippe

Quasar
2002-05-13, 13:03:21
Anstatt nV zu verteidigen, mal die Gegenfrage:

Warum sollten sie??

Unregistered
2002-05-13, 13:08:02
Hi

Also wenn ich diese pseudo Argumente durchlese bekomme ich einen Lachkrampf.

Keine Frage die R8500 ist besser als die GeForce3 da gibt es nix zu rütteln.
Hier wird schon unterstellt das Leute DAU sind wenn Sie eine Radeon kaufen.

Die Radeon hat einfach mehr Vorteile.

Bei euch ist aber anscheinend von ATI alles Mist.

TruForm ist Mist
PixelShader 1.4 ist Mist.
DVD ist Mist.
Multimonitorfähigkeiten sind Mist.
TV-Out ist Mist.
Smoothvisoin ist Mist.
Aniso ist Mist

und es besteht Explosionsgefahr mit den Radeon Treiber. Kurz auch Mist.

Sauber.
Nene seht der Wahrheit ins Auge, die Radeon ist definitv besser, allerdings liegen die Schwerpunkte bei der Karte nicht nur beim zocken.
Die Radeon ist und bleibt eine Top Allrounder Karte mit der sich einiges machen lässt, da kann die GeForce3 nicht mithalten.
Dafür ist die GeForce3 eine Zocker Karte die im Spielebereiche natürlich durch die Detos einen Vorsprung hat.
Man kann natürlich nicht sagen das die GeForce3 schlecht ist, im gegenteil für reine Zocker ist sie eine Hammerkarte.
Für die anderen gibt es nur eine, Richtig die R8500.

Ich finde es schade das nVIDIA erst mit der GeForce4 in die Richtung von Multmedialerfähigkeiten geht.
Der Rest davor war einfach nur eine schlendrianische Implentation.

Die Radeon liegt Technisch über der GeForce3 (Auch wenn Razor es nicht wahrhaben will und um die Haut zum retten postet. *eg* )und die Radeon liegt dafür technisch teilweise unter der GeForce4.

Warum teilweise.
TruForm und PS 1.4 Ob es was bringt das lassen wir mal aussen vor.

Im grossen und ganzen dürft die GeForce4200 auf alle Fälle der Preis/Leistungssieger sein.
Das sehen wir aber noch genau was die Markenkarten kosten und nicht die No-Names.

Gruss Labberlippe

Unregistered
2002-05-13, 13:09:40
Originally posted by Quasar
Anstatt nV zu verteidigen, mal die Gegenfrage:

Warum sollten sie??

Seien wir ehrlich. :)

Ich würde es als Unternehmen auch nicht machen.
Warum auch, die aufgekauften Konkurrenz Produkte länger leben lassen ??? Ne einstellen und ein paar % mehr Kunden einheimsen.

Gruss Labbberlippe

Andre
2002-05-13, 13:45:56
zeckensack,

"Daß man ohne Low-/Midrange-Produkte keinen Umsatz machen kann, das hatte ich doch auch schon selbst eingeräumt ... ???"

Oh sorry, bin grade erst in der Mitte des Threads angelangt.
Da kommt man gar nicht mehr hinterher.

"Das sollte ja auch nicht unbedingt pro Matrox sein (geht mir momentan sowieso wahnsinnig auf den Sack...), sondern eher eine Antwort auf "NVidia ist als Marktführer unkaputtbar". ;)"

Da hast Du Recht.
Nur scheinen manche sich durch die matroxsche Ankündigung so blenden zu lassen, dass sie den Unterscheid zwischen Realität und Wahnvorstellung nicht mehr ganz auf die Reihe bekommen.

Blackhand
2002-05-13, 13:49:23
LL,

Dass die nV Fraktion hier gegen alles Argumente bringt ist wirklich lustig, da muss ich dir zustimmen.

Vielleicht sollte man hier ein paar andere Leute zu ForumClowns ernennen. Die haben wirklich die Begabung dazu.

Haarmann
2002-05-13, 13:58:58
Matrox bringt offenbar 3 Karten...

LowEnd wohl kaum, aber Midrange, GamerHiEnd und Entusiast (mal NV kopieren) könnten da drin liegen. Auch liegen die Taktfrequenzen wohl noch nicht so hoch, als dass man ned noch bei Zeiten ne "Ultra" Version namens MAX hinterherschieben kann.

Matrox braucht aber auch kein LoEnd Produkt. Das war noch nie Matrox' Zielgruppe und wirds auch nie sein.

Unregistered
2002-05-13, 14:06:07
Originally posted by Andre
zeckensack,

"Daß man ohne Low-/Midrange-Produkte keinen Umsatz machen kann, das hatte ich doch auch schon selbst eingeräumt ... ???"

Oh sorry, bin grade erst in der Mitte des Threads angelangt.
Da kommt man gar nicht mehr hinterher.

"Das sollte ja auch nicht unbedingt pro Matrox sein (geht mir momentan sowieso wahnsinnig auf den Sack...), sondern eher eine Antwort auf "NVidia ist als Marktführer unkaputtbar". ;)"

Da hast Du Recht.
Nur scheinen manche sich durch die matroxsche Ankündigung so blenden zu lassen, dass sie den Unterscheid zwischen Realität und Wahnvorstellung nicht mehr ganz auf die Reihe bekommen.

Also meine Meinung über Matrox habe ich schon kundgetan.
Die Karte wird sicher ein Hammer, allerdings werden die kaum Marktanteile bekommen wenn Matrox den Low und Midrange Sektor "vergisst".
Einige hier reden ja jetzt schon das nVIDIA quasi fallen wird.
Das wird nicht sein wenn im Low und Midrange Segment nichts vorhanden ist.


Abwarten was Matrox an Karten ankündigt heist die devise.

Gruss Labberlippe

Andre
2002-05-13, 15:43:33
Originally posted by Unregistered
Abwarten was Matrox an Karten ankündigt heist die devise.

Gruss Labberlippe

Danke, LL =)

Xmas
2002-05-13, 16:10:49
Originally posted by Haarmann
Wenn schon breitere Register, dann macht man doch gleich 16 Bit... das ist ne bekannte Grösse und reicht für ne Weile.
Jedes Bit mehr macht das ganze aber schon ein Stück komplexer. 3dxf ist ja nicht ohne Grund erst mal bei 8 Bit geblieben. Trotzdem haben sie es ja dann eingesehen dass es mehr Probleme schafft als es an Komplexität einspart.

Ja spätestens dann wirds eng... dummerweise können Voodoo 1,2 und 3 sowas eh nicht. Daher sind die grösseren Texturen vollkommen sinnlos. Heute jedoch wären 65k Texturgrössen logischer denn irgendwie jeder etwas mehr denn 1024.
4 GB Texturen? Und das mit Kompression? Da wirds wirklich eng... 8192² ist bei der heutigen Speicherausstattung absolutes Maximum - und ist schon deswegen nicht mehr sinnvoll, weil es sich nicht mehr übersichtlich bearbeiten lässt.

Größere Texturen als 256² sind auch ohne EMBM und CM nicht sinnlos, sie sind einfach nur logisch und verkomplizieren die Sache nicht unnötigerweise.

Wenn ich den Boden wirklich 1024 mal 1024 säge, wär der Monitor relativ voll ;) selbst wenn ich da 1000 Polygone für braucht isses ned so viel. Ansonsten werden die hinteren Teile des Bodens wohl bereits in mip stufe 1-2 sein.
Problem: Der LOD wird eigentlich erst per Pixel berechnet. Also muss ich erst mal für jedes Dreieck komplizierte Berechnungen anstellen, ab wo ich die größere Textur nicht mehr brauche. Und dann beim Rendern ständig die Textur wechseln, was schön Performance kostet.

ow
2002-05-13, 18:44:20
Originally posted by Legolas


Hängen das Quote und der eigentlich Postingtext irgendwie miteinander zusammen??? Ich kann da keinen offensichtlichen Zusammenhang erkennen...

Macht nix, ich auch nicht.

ow
2002-05-13, 18:45:46
Originally posted by ernesto.che
Nope, STB war keine Tochter sondern voll eingeglidert.

Nach meiner Auffassung wäre Nvidia für Treibersupport zuständig gewesen.



Das ist schlichtweg Unsinn.

ow
2002-05-13, 18:47:49
Originally posted by ernesto.che


Eindeutig Nvidia, sie wurden ja mehrfach um Herausgabe der Treibercodes gebeten. Nichts ist passiert.



Herausgabe von Treibercode? *LOL* Nenn mir nur eine Firma, die das tut. Btw, warum hat 3dfx die Codes nicht VOR dem Verkauf veröffentlicht?

ow
2002-05-13, 18:51:19
Originally posted by Haarmann
Quasar

NV muss sicher keine Treiber bereitstellen für 3dfx Produkte. Aber es ist schwer Treiber herzustellen, wenn NV den Source zurückhält und aufs Copyright pocht...



Nein. die Register-level Chipspezifikationen der 3dfx Chips liegen offen. Also kann jeder der Bock und die Kenntnisse hat, einen komplett neuen Treiber coden.

Richthofen
2002-05-13, 18:58:13
"
NV muss sicher keine Treiber bereitstellen für 3dfx Produkte. Aber es ist schwer Treiber herzustellen, wenn NV den Source zurückhält und aufs Copyright pocht...
"

Ja und? Die Leute sollen den 3dfx Schrott in die Tonne werfen und was neues kaufen basta.
Wo kommen wir hin wenn jeder seine alte Krücke ewig behält. Dann verdient ja keiner mehr was.
3dfx ist pleite nur sie allein sind der Übeltäter. Sie sind der Verlierer und sie sind verantwortlich für das was ehemalige 3dfx Kunden erleben. Ich habe einigen damals gesagt sie sollen keine V5 oder 4 kaufen weil die Firma nicht mehr lange lebt. Viele wollten nicht hören. Es ist nur fair das die das jetzt voll und ganz zu spüren bekommen. Wer nicht hören will muss fühlen. Dann merkt er es sich beim nächsten mal besser.
Sowas kann nicht schaden.

StefanV
2002-05-13, 19:00:41
@ow

Das ganze hätte man auch in ein Posting bringen können *eg*

Haarmann
2002-05-13, 20:02:00
Richthofen


Naja ne V5 ist dank WickedGL noch zu gebrauchen für MoHAA und Wolf3D - ne GTS mit ihrem lahmen RAM ist unter 1024 32bpp absolut untauglich für diese beiden Games. Egal ob mit 32 oder 64MB...

Aja... ich hab beide Karten und beide Games ... ich kanns gut vergleichen ;)

Haarmann
2002-05-13, 20:05:23
Xmas

Ich wundere mich schon lange wieso Texturen Quadrate sein müssen... Rechtecke sind doch auch ganz nett ;). Dann klappts auch mit den 65k

ow
2002-05-13, 20:28:22
Originally posted by Haarmann
Richthofen


Naja ne V5 ist dank WickedGL noch zu gebrauchen für MoHAA und Wolf3D - ne GTS mit ihrem lahmen RAM ist unter 1024 32bpp absolut untauglich für diese beiden Games. Egal ob mit 32 oder 64MB...

Aja... ich hab beide Karten und beide Games ... ich kanns gut vergleichen ;)


Dem widerspreche ich.

Hab RTCW auf einer GF2MX gespielt in 1024x32Bit. Ist hart an der Grenze. Aber die GTS schafft das. Meine Kyro1 übrigens auch.:D Die Radeon saugt total, ist langsamer als die MX.

Xmas
2002-05-13, 20:37:54
Originally posted by Haarmann
Xmas

Ich wundere mich schon lange wieso Texturen Quadrate sein müssen... Rechtecke sind doch auch ganz nett ;). Dann klappts auch mit den 65k
Müssen sie nicht, noch nicht mal müssen es generell Zweierpotenzen sein. Aber API-bedingt ist das Limit in beiden Richtungen gleich. D.h. wenn die Karte 64k als Limit angibt muss sie auch 64k² unterstützen...
Allerdings fällt mir gerade auch kein Verwendungszweck für eine solche ultralange Textur ein ;) Wie gesagt, vernünftig bearbeiten könnte man sie nicht mehr.

Haarmann
2002-05-13, 21:18:31
ow

Sagte ich was von Single Player? Wirf mal Rauch und zähl die GTS Frames... die kannste sogar zählen *gg* mehr denn 10 sind nämlich nimmer zu sehen bei VSync on (was ich dummerweise habe, wenn man ned fps cheaten kann).