PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die neue Gf (4) ?


monstar-x
2001-11-22, 09:32:05
Hallo jungs und mäddelz ;)

ich hab da mal so ne frage, hab mal irgend wo gelesen das nvidia
im Feb die neue GF reihe raus bringen will, leicht Modifiziert mit 2 Pixel Shadern, ist das alles was die neue karte haben wird? oder gibts da auch noch andere verbesserungen.

Und die 2. frage wieviel würde den so eine 2. Pixel Shader bringen in Geschwindigkeit?

3.Würde es dich da lohnen umzusteigen oder eher nicht und wartena uf die Gf5/6 reihe ?


danke.

Greetings
monstar-x

syronth
2001-11-22, 10:17:31
2. Pixelshader? Oder eher Vertexshader?
Ein früher Umstieg lohnt sich so gut wie NIE, das solltest aber inzwischen jeder wissen. Die GF3 ist bereits seit über einem Jahr draußen und die neuen, tollen Spiele lassen immer noch auf sich warten. Auf die GF4 ist geschissen, ehrlich gesagt. Die GF3 war die letzte Graka, die ich mir vor Erscheinen etwaiiger Spiele gekauft habe. Das nächste Mal rüste ich erst auf, wenn die Software bereits vorhanden ist, im Falle der GF4 wird das wohl locker ein Jahr und mehr dauern, bis eine Spieleschmiede auch nur daran denkt, sie zu nutzen. Und dann dauert es noch eine Weile, bis ein Titel erscheint.
3DMurks2002 ausgenommen ;).

Mein Rat: Ignorieren. Selbst wenn man von der GF2 o.a. umsteigen will, in dem Fall würde ich immer noch zur (dann günstigeren) GF3 greifen. Das amotisiert sich noch locker.

Unregistered
2001-11-22, 12:15:25
Originally posted by syronth
Die GF3 ist bereits seit über einem Jahr draußen


Hab ich da was verpasst?

IMHO gibt's die GF3 knapp ein halbes Jahr (Vorstellung Ende Februar, Verfuegbarkeit Mai)

monstar-x
2001-11-22, 13:11:46
apropro 3Dscheiß2002 wann soll es den kommen ;) wir haben ja bald 2002 .. die werden auch immer langsammer bei MadOnion, wobei 3Ddreck2002 eh für 2004 ausgelegt ist ;)

greetings
monstar-x

aths
2001-11-22, 23:59:02
monstar-x: "3Dscheiß2002", "3Ddreck2002"

... könntest du besser programmieren?

Doc
2001-11-23, 09:53:30
Originally posted by syronth
2. Pixelshader? Oder eher Vertexshader?
Ein früher Umstieg lohnt sich so gut wie NIE, das solltest aber inzwischen jeder wissen. Die GF3 ist bereits seit über einem Jahr draußen und die neuen, tollen Spiele lassen immer noch auf sich warten. Auf die GF4 ist geschissen, ehrlich gesagt. Die GF3 war die letzte Graka, die ich mir vor Erscheinen etwaiiger Spiele gekauft habe. Das nächste Mal rüste ich erst auf, wenn die Software bereits vorhanden ist, im Falle der GF4 wird das wohl locker ein Jahr und mehr dauern, bis eine Spieleschmiede auch nur daran denkt, sie zu nutzen. Und dann dauert es noch eine Weile, bis ein Titel erscheint.
3DMurks2002 ausgenommen ;).

Mein Rat: Ignorieren. Selbst wenn man von der GF2 o.a. umsteigen will, in dem Fall würde ich immer noch zur (dann günstigeren) GF3 greifen. Das amotisiert sich noch locker.
*unterschreib*
So seh ich das auch ...

monstar-x
2001-11-23, 10:25:34
@aths mit ein paar guten programieren sicher ;)

greetings
monstar-x

Unregistered
2001-11-23, 13:19:59
hmm...also GF4...leicht modifiziert und 2 pixelshader...
hört sich nach einer FG3 ultra an...

syronth geb ich auch recht, weil es gibt sowieso noch keine spiele die das wirklich unterstützen - abgesehn von ein paar wenigen -

und wenn die GF4 durch 2 pixelshader statt einem und und nur etwas mehr leistung die antwort auf die R8500 sein soll, dann ist nvidia wirklich zu bedauern, weil was nützen 200fp/s wenn die bildqulität nicht hinkommt...

also meiner meinung nach wäre diese karte wirklich unnütz..

ow
2001-11-23, 14:22:24
Originally posted by Unregistered
l, dann ist nvidia wirklich zu bedauern, weil was nützen 200fp/s wenn die bildqulität nicht hinkommt...




Die BQ kommt aber hin, NVidia Chips haben immer noch mit die beste Bildqualitaet.
Ansonsten wuerde aus dem Profi-OGL-Lager auch keiner 3000 DM fuer eine Quadro-Karte hinblaettern, oder?

monstar-x
2001-11-23, 14:50:38
Also die Gf3 hat ja wohl eine bessere Bild Qualität als ne R8500
das haben nun unzählige siten bewiesen.

Und alle Hardcore gamer würden sich über 200/fps freuen.

den was bringt mir ein ultra geiles bild (was die ATI nicht hat)
wenn es ruckelt ?

greetings
monstar-x

StefanV
2001-11-23, 15:07:31
Originally posted by ow
Die BQ kommt aber hin, NVidia Chips haben immer noch mit die beste Bildqualitaet.
Ansonsten wuerde aus dem Profi-OGL-Lager auch keiner 3000 DM fuer eine Quadro-Karte hinblaettern, oder?

Aber nicht bei 16bit!
Übrigens hat ATI dafür einen kleinen Regler im Treiber eingebaut (Dithering Method when alpha Blending).

Und beim FSAA hat ATI nunmal die Nase forn *eg*.

Doc
2001-11-23, 15:18:39
Originally posted by monstar-x
Also die Gf3 hat ja wohl eine bessere Bild Qualität als ne R8500
das haben nun unzählige siten bewiesen.

Und alle Hardcore gamer würden sich über 200/fps freuen.

den was bringt mir ein ultra geiles bild (was die ATI nicht hat)
wenn es ruckelt ?
Ich hab anderes gehört ;)
RTCW mit HQ++ auf 1024er und Smoothvision flüssig ...

Vor allem kann keine andere Grafikkarte (und auch die GF-Reihe) kein Antialiasing von der Qualität von SV vorzeigen ...

Bildqualität ist immer eine rein subjektive Sache. Und mir gefällt SV weit besser als andere Lösungen am Markt, woraus folgt daß die R8500 für mich persönlich die bessere IQ hat. Die ganzen Tests bezügl. IQ und deren Fazit kann man doch getrost vergessen, da es die rein subjektiven Meinungen der Autoren sind ...

BTW, Q3A bringst du mit ner Radeon 8500 auch in die Richtung von 200fps ... und ob du 160, 180 oder 200 fps hast, ist auch schon zu vernachlässigen. Bekannterweise kommt es nicht auf den Durchschnitt oder die höchste Framerate an, sondern die niedrigste ... und wenn die über 60fps liegt, wird wohl jeder Hardcore-Gamer zufrieden sein.

kanickl
2001-11-23, 22:36:43
soviel ich weiss, gibt es ja nicht mal offizielle >>ATI<<R8500-treiber, oder irr ich mich da?? auf der atisite sind auf jeden fall keine zu sehn...sind alle nur mit der R200 kompertible treiber der R100 - bitte bessert mich aus, falls ich mich irre!!

für mich ergibt das dann auf jeden fall wenig sinn mit inoffiziellen treiber zu benchen und und daraus schlussfolgerungen zu ziehn...

@ ow....GF-karten haben mit sicherheit nicht die beste bildqualität - man nehme nur mal die demos die auf der atisite zu finden sind ;)

bei der GF3 hats ja diesen magier gegeben...bei ati ist da so ne frau und im gegensatz zum magier sieht diese frau wie ein echtes menschliches wesen aus (naja, sagen wir der kopf - mehr is ja nicht zu sehn*gg*)

und wegen dem profi-ogl-lager...soll die GF4 also eine "professnionell angewendete" graka werden oder wie??

kanickl
2001-11-23, 22:58:04
soviel ich weiss, gibt es ja nicht mal offizielle >>ATI<<R8500-treiber, oder irr ich mich da?? auf der atisite sind auf jeden fall keine zu sehn...sind alle nur mit der R200 kompertible treiber der R100 - bitte bessert mich aus, falls ich mich irre!!

für mich ergibt das dann auf jeden fall wenig sinn mit inoffiziellen treiber zu benchen und und daraus schlussfolgerungen zu ziehn...

@ ow....GF-karten haben mit sicherheit nicht die beste bildqualität - man nehme nur mal die demos die auf der atisite zu finden sind ;)

bei der GF3 hats ja diesen magier gegeben...bei ati ist da so ne frau und im gegensatz zum magier sieht diese frau wie ein echtes menschliches wesen aus (naja, sagen wir der kopf - mehr is ja nicht zu sehn*gg*)

und wegen dem profi-ogl-lager...soll die GF4 also eine "professnionell angewendete" graka werden oder wie??

StefanV
2001-11-23, 23:47:07
@kanickl

Du irrst dich!

Wenn du richtig suchst, dann findest du auch 'richtige' R200 Treiber...

Wuzel
2001-11-24, 05:44:19
Naja,
An den shader's ( ich kürz es mal so ab ;) wird noch einiges gebastelt werden müssen -> biss die wirklich so richtig Nutzbar sind.
Die jetzigen, sies NV3 oder 8,5'er Ati _> sind viel zu lahm, um wirklich noch nie dagewesene Effekte abzuliefern ...
zur Zeit kann man damit nur kleinere Objekte hier und da, damit beglücken. So richtig die Dinger auch mal auf Gegner Models anzuwenden etc. -> da braucht es mehr Saft.
Daher denke ich auch -> die nächste gerneration wird minimum 2 shadis drinhaben.
Sehr gut gefiel mir die Aussage -> egal ob 200 oder sonstwie fps -> die niedrigsten fps sind wichtig -> Bingo 100 Points.
Wenn das bloss jeder verstehen würde.

AlfredENeumann
2001-12-06, 12:49:42
Originally posted by ow



Die BQ kommt aber hin, NVidia Chips haben immer noch mit die beste Bildqualitaet.
Ansonsten wuerde aus dem Profi-OGL-Lager auch keiner 3000 DM fuer eine Quadro-Karte hinblaettern, oder?

bestimmt ncht wegen der bildqualität.

Gohan
2001-12-06, 16:12:38
Originally posted by monstar-x

Und alle Hardcore gamer würden sich über 200/fps freuen.

Wozu brauche ich 200 Fps wenn man ab 50 schon keinen Unterschied mer feststellen kann weil das Menschliche Auge eh nur 13 Bilder die Sekunde verarbeitet? Also ich finds Quatsch...erstmal sollen Spiele kommen die die Karte überhaupt ausreizen!

b0wle`
2001-12-06, 21:08:04
...dann müssten ja auch 13fps ausreichen oder was???

wo haste das denn her dass das menschl. Auge nur 13fps verarbeiten kann, ich hab mal was von 25-30 gelesen. (was ich aber auch bezweifle, ich seh den Unterschied 30fps -> 50fps)

StefanV
2001-12-06, 21:23:33
Bis 60fps sollten kein Problem für's Auge sein.

Bei der Widerholrate kann ich noch den Unterschied zwischen 85 und 100Hz erkennen ;)

Aber das liegt sicher an meinem 19" Monitor ;)

BTW: Alles über 100fps ist schwachsinn!!

WER braucht denn 200fps??
Doch nur die Quake Cheater!!

syronth
2001-12-07, 13:30:59
Man muß da ein klein wenig differenzieren.
Ab 25 Bilder/s nimmt man die Einzelbilder eines Spielfilmes als durchgehende Bewegung wahr. Im Hirn verschmelzen bei diesem Tempo die Momentaufnahmen zu einem "Bewegtbild". Das ist das untere Limit, das Hirn kann durchaus ein paar Bilder mehr verarbeiten (bis ~50), aber für den Film erwiesen sich 25 Bilder/s als ausreichend, zumal die Bewegungsunschärfe ihren Teil dazu beiträgt, größere "Bildsprünge" durch heftige, rapide Kamerabewegungen zu verwischen.

Die Augen registrieren bis zu 75 Mal in der Sekunde einen Bildwechsel, vor allem einen Hell-Dunkel-Wechsel. 50Hz ist hierbei die Grenze, wo man ein Flimmern bewußt wahrnimmt, die Augen werden aber weiterhin gestreßt und ermüden dabei. Erst ab 75Hz übersteigt die Bidlfrequenz die Aufnahmefähigkeit der Augen.

Im Kino werden daher die Filme aus ergonomischen Gründen mit 50, bzw. 75 Bilder/s gezeigt, wobei jedes Einzelbild zwei-, bzw. dreimal hintereinander gezeigt wird.

In Computerspielen fehlt aber die Bewegungsunschärfe, wodurch man die "Bildsprünge" durchaus wahrnimmt - die Objekte "springen" durch's Bild. Gerade wenn sich die Kamera um die eigene Achse dreht, was in Spielfilmen aus gutem Grund selten, aber gerade in Ballerspielen ausschließlich vorkommt.
Abhilfe schafft hier eben nur mehr FPS, um mehr Bewegung pro Sekunde zu zeigen. Oder eben künstlich eingefügte Bewegungsunschärfe, was bei gerenderten Objekten im Film eingesetzt wird, aber in (Online-)Spielen wohl eher unerwünscht ist.

Da ich aber mit Onlineballereien nur noch wenig am Hut habe, ist mir's schnurz und ich begnüge mich schon mit 30-40 FPS im Durchschnitt, dafür mit allen Details und Effekten.

Labberlippe
2001-12-07, 14:12:39
Originally posted by ow



Die BQ kommt aber hin, NVidia Chips haben immer noch mit die beste Bildqualitaet.
Ansonsten wuerde aus dem Profi-OGL-Lager auch keiner 3000 DM fuer eine Quadro-Karte hinblaettern, oder?
Träum weiter.
Die blättern deshalb die Kohle hin weil das Preis/Leistungsverhältnis der Karte passt.
Bei einer Wildcat hat das Teil nichts zu suchen, allerdings kostet diese auch einiges mehr.

Gruss Labberlippe

tm131
2001-12-19, 13:53:15
Richtig. Denn wenn der Monitor "nur" 120 Hz hat (oder noch weniger), dann kann er ja auch nur 120 Bilder ausgeben. Wozu dann 200 FPS?

Unregistered
2001-12-19, 14:49:30
Originally posted by tm131
Richtig. Denn wenn der Monitor "nur" 120 Hz hat (oder noch weniger), dann kann er ja auch nur 120 Bilder ausgeben. Wozu dann 200 FPS?

Die 200FPS brauche auch nur Quake3 Spieler, die eh nur in einer sehr niedrigen Auflösung zocken. Da schafft auch der Monitor eine bessere Refreshrate. Außerdem schwankt die Framerate sehr stark, wenn man durchschnittlich 200FPS, dann kann die Framerate schonmal kurzzeitig auf 100 runtergehen.

Tomp60311

Matrix316
2001-12-19, 19:23:56
Originally posted by tm131
Richtig. Denn wenn der Monitor "nur" 120 Hz hat (oder noch weniger), dann kann er ja auch nur 120 Bilder ausgeben. Wozu dann 200 FPS?

Quatsch. Oder wie kann ich dann mit 75 Hz bei Quake 3 95 FPS haben? Das eine hat mit dem anderen nur bedingt was zu tun Stichwort: "Vertical Sync"

syronth
2001-12-19, 19:58:52
Hm, aber an sich sieht man doch effektiv nur 75Hz, egal ob die Graka mehr Bilder malt - der Schirm zeigt immer nur 75 pro Sekunde, dazwischen nix.

Xmas
2001-12-19, 20:27:47
Originally posted by syronth
Hm, aber an sich sieht man doch effektiv nur 75Hz, egal ob die Graka mehr Bilder malt - der Schirm zeigt immer nur 75 pro Sekunde, dazwischen nix.
Doch, eigentlich zeigt er schon dazwischen was. Wieviel man damit anfangen kann, hängt aber vom Auge des Betrachters ab.
Wenn der Bildschirm mit 75 Hz läuft und die Graka konstant 150 fps liefert, dann sind immer abwechselnd oberer und unterer Teil des Bildschirms "aktuell", wenn der Bufferswap genau in der Mitte der Bildwiedergabe erfolgt. Es kann so tatsächlich passieren, dass man einen Gegner minimal früher "wahrnimmt" (das Zielen ist sowieso erstmal eine Reflexhandlung). Ob das was ausmacht, muss jeder für sich entscheiden.

Unregistered
2001-12-20, 00:33:46
Originally posted by Xmas

Doch, eigentlich zeigt er schon dazwischen was. Wieviel man damit anfangen kann, hängt aber vom Auge des Betrachters ab.
Wenn der Bildschirm mit 75 Hz läuft und die Graka konstant 150 fps liefert, dann sind immer abwechselnd oberer und unterer Teil des Bildschirms "aktuell", wenn der Bufferswap genau in der Mitte der Bildwiedergabe erfolgt. Es kann so tatsächlich passieren, dass man einen Gegner minimal früher "wahrnimmt" (das Zielen ist sowieso erstmal eine Reflexhandlung). Ob das was ausmacht, muss jeder für sich entscheiden.

Ja, wenn man immer noch single buffering benutzt (was eigentlich keiner mehr macht). Bei double buffering werden immer zwei Bilder im Hauptspeicher der Grafikkarte abgelegt, einmal das letzte fertig gerenderte und außerdem das, was gerade gerendert wird. Das letzte Fertig gerenderte Bild wird dann 75 mal in der Sekunde an den Monitor geschickt (wenn er mit 75Hz läuft.

Triple buffering funktioniert so ähnlich, bloss werden da 3 Bilder gleichzeitig abgelegt (wer hätte das gedacht) ;).

Tomp60311

Unregistered
2001-12-20, 00:40:31
Region based renderers rendern unter Bedingungen besser mit single buffering. Was heisst da "keiner"? :D

Unregistered
2001-12-20, 01:30:30
Originally posted by Unregistered
Region based renderers rendern unter Bedingungen besser mit single buffering. Was heisst da "keiner"? :D

Äh, was ist das? Hat das was mit tile based rendering zu tun? Wenn ja, dann sollte ich das vielleicht mal bei mir ausprobieren. Dann gibt es wenigstens einen, der single buffering noch benutzt.
Tomp60311

Xmas
2001-12-20, 02:14:33
Originally posted by Unregistered


Ja, wenn man immer noch single buffering benutzt (was eigentlich keiner mehr macht). Bei double buffering werden immer zwei Bilder im Hauptspeicher der Grafikkarte abgelegt, einmal das letzte fertig gerenderte und außerdem das, was gerade gerendert wird. Das letzte Fertig gerenderte Bild wird dann 75 mal in der Sekunde an den Monitor geschickt (wenn er mit 75Hz läuft.

Triple buffering funktioniert so ähnlich, bloss werden da 3 Bilder gleichzeitig abgelegt (wer hätte das gedacht) ;).

Tomp60311
Wenn VSync an ist, dann ist das so wie du geschrieben hast. Wenn nicht, dann aber auch nicht ;)
Folgendes passiert nämlich, wenn die Graka ohne VSync 150 fps liefert:
Das letzte fertige Bild wird vom RAMDAC Pixel für Pixel an den Monitor geliefert. Während die Grafikkarte ein weiteres Bild fertiggerendert hat, ist der Elektronenstrahl gerade in der Mitte des Bildes angekommen. Da VSync nicht an ist, erfolgt der Buffer Swap sofort. Damit wird nun plötzlich der untere Teil des neuen Bildes an den Monitor gesendet. Das Resultat ist Tearing, das sichtbare Bild auf den Monitor ist nicht einheitlich.

Unregistered
2001-12-20, 06:55:07
Originally posted by Unregistered


Äh, was ist das? Hat das was mit tile based rendering zu tun? Wenn ja, dann sollte ich das vielleicht mal bei mir ausprobieren. Dann gibt es wenigstens einen, der single buffering noch benutzt.
Tomp60311

TBR kann auch region based rendering, display list rendering oder deferred rendering genannt werden. Es hat eigentlich mehr mit openGL Spielen/Anwendungen zu tun und Tiler profitieren dadurch nur wegen ihrer verschiedenen Architektur.

Wenn es jedoch zur Wahl zwischen double und triple buffering kommt, ist das Letztere die bessere Wahl.

Tiler profitieren unter Bedingungen (woimmer moeglich) noch mehr mit "Exclusive Mode". Serious Sam ist ein gutes Beispiel wo "ogl_bExclusive=1" eingestellt ist fuer KYRO's.

....is it allows flipping buffers instead of blitting buffers. Flipping means a pointer change (no bandwidth use), while blitting means "copying" the data from one buffer to the other.

SS benutzt double buffering mit KYRO's und die Anwendungen von exclusive mode fuert zu einem bis zu 60% performance Aufschwung, mehr in hoeheren Aufloesungen. Wie gesagt es hat mehr mit den Architektur Verschiedenheiten zu tun.