PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R X800SE_300$_witz_oder_unverschämte_Tatsache?


Gortha
2004-05-05, 20:49:15
Hi zusammen,

da die X800SE ja nur 8 Pipelines und !nur! ein
128 Bit Speicherinterface hat, muss sie langsamer als eine
9800(Pro) sein.
Letzere bekommt man schon fuer 180-200 €, die X800Se soll jedoch 299$ US-Preis sein, also wiederrum mehr bei uns.

Für mich ist das Wucher gegenüber dem Kunden.
Eigentlich müßte jeder vor dem Produkt gewarnt werden.

Bei der 6800 ist es ja noch okay, da 256 Bit Speicherinterface.

ATi :bad3:

Grüsse
Gortha

Fadl
2004-05-05, 20:52:53
Der Markt wird das regeln.

dildo4u
2004-05-05, 20:52:58
X600 kommt ja auch noch vielicht ham die ein besseres P/L verhältniss

LovesuckZ
2004-05-05, 20:56:03
Nunja, ATi kann nur über den Speed gewinnen. Umso schwerer wird es den Kunden für die karten um 299€ und 399€ zu gewinnen, da diese entweder langsamer oder gleichschnell zur Nvidiakonkurenz sind, jedoch weniger Features unterstuetzen.
Bei der X800SS sieht es noch schlechter aus, da sie gleichzeitig zur 6800 kommt, jedoch gegenüber der vorigen gegenration bis auf 3dc keine Neuerung bietet und sogar nur ein 128Bit Speicherinterface hat.

Gortha
2004-05-05, 21:05:22
Sry Love,

aber das 399$-Pendant von Ati ist schneller.
Und Shader3 bringt ja nun nicht viel.

Mir geht es hier ganz alleine um die X800SE, welche
schlechtere Specs als ne 9800 hat und !!wesentlich!!
teurer laut 3DC-Liste ist.
Das finde ich einfach unverschämt.

Ich selber interessiere mich für die X800Pro oder 6800GT.
Mal sehen welche von beiden mit und ohne Übertakten das bessere Preis/Leistungsverhältnis bietet.

Grüsse
Gortha

Godmode
2004-05-05, 21:12:35
Original geschrieben von Gortha
Sry Love,

aber das 399$-Pendant von Ati ist schneller.
Und Shader3 bringt ja nun nicht viel.

Mir geht es hier ganz alleine um die X800SE, welche
schlechter Specs als ne 9800 hat und !!wesentlich!!
teurer laut 3DC-Liste ist.
Das finde ich einfach unverschämt.

Ich selber interessiere mich für die X800Pro oder 6800GT.
Mal sehen welche von beiden mit und ohne Übertakten das bessere Preis/Leistungsverhältnis bietet.

Grüsse
Gortha

Woher weiß man dass SM3.0 nix bringt? Schreiben viele hier aber niemand kanns mir erklären!!

Ich würd sagen lieber auf SM3.0 warten, kommt eh bald im Sommer und dann urteilen!!

LovesuckZ
2004-05-05, 21:14:01
Original geschrieben von Gortha
Sry Love,
aber das 399$-Pendant von Ati ist schneller.
Und Shader3 bringt ja nun nicht viel.

Gleichschnell. :)

Mir geht es hier ganz alleine um die X800SE, welche
schlechtere Specs als ne 9800 hat und !!wesentlich!!
teurer laut 3DC-Liste ist.
Das finde ich einfach unverschämt.


Ja, die SE variante ist nicht besonders. Einzig der geringere Stromverbrauch koennte die Karte interessant machen, da sie wahrscheinlichen keinen Stromanschluss benoetigt.

Gortha
2004-05-05, 21:16:44
Nagut gleich schnell....grrrr ;D

Hat schon jemand irgendwo einen gelisteten Preis entdeckt!?
(egal für welche der neuen Karten)

Grüsse
Gortha

Fadl
2004-05-05, 21:18:07
FÜr 299€ wird sich die SE schlecht verkaufen.
Die einzigen Kunden werden wie immer uninformierte Gelegenheitsspieler sein die durch den Namen x800 geblendet werden und glauben eine performante Karte zu kaufen.
Ich denke aber kaum das sich dieser Preis lange halten wird da es wohl noch etliche 9800Pro in den Lagern gibt.

dildo4u
2004-05-05, 21:18:12
Original geschrieben von Gortha
Nagut gleich schnell....grrrr ;D

Hat schon jemand irgendwo einen gelisteten Preis entdeckt!?
(egal für welche der neuen Karten)

Grüsse
Gortha

http://www.komplett.de/k/ki.asp?sku=300413&cks=ASS&assoc=D638B7A3-6CF3-4E1E-A03B-F4038397D834Sapphire Radeon X800PRO Atlantis 256MB
Verfügbarkeit: Heute nicht auf Lager. 149 Stk 2004-05-26 (Unbestätigt)

http://www.geizhals.at/deutschland/a97704.html
6800U

http://www.geizhals.at/deutschland/a97703.html
6800U
http://www.geizhals.at/deutschland/a97714.html
6800U mit Wakü

http://www.geizhals.at/deutschland/a97712.html
6800U

Von 6800GT und 6800 noch nix zu shen leider

Doomi
2004-05-05, 21:51:47
Finde die 6800 GT am interessantesten denn sie hat die gleichen Specs wie die 6800 ultra, auch 16 pipes und ansonsten nur einen etwas geringeren Takt..
wenn sie 399 kostet und der X800pro mit nur 12 pipes gegenübersteht welche auch 399 kostet wirds wol die GT werden da sie die pro eigendlich leicht schlagen müsste von der Performance her..

dildo4u
2004-05-05, 21:56:08
Original geschrieben von Doomi
Finde die 6800 GT am interessantesten denn sie hat die gleichen Specs wie die 6800 ultra, auch 16 pipes und ansonsten nur einen etwas geringeren Takt..
wenn sie 399 kostet und der X800pro mit nur 12 pipes gegenübersteht welche auch 399 kostet wirds wol die GT werden da sie die pro eigendlich leicht schlagen müsste von der Performance her.. karten sind sher ram limitiert kommt auch drauf an ob die X800pro oder die 6800GT den besseren speicher hat

Majestic
2004-05-05, 22:04:14
Man die Leadtek mit ihrem Monsterkühler ist ja wohl selten häßlich.:O Hoffentlich lassen die sich noch ne bessere und hübschere Kühl-Lösung einfallen.

deekey777
2004-05-05, 22:06:20
Was hat denn eigentlich die 9500 Pro gekostet, als sie erschien?

MikBach
2004-05-05, 22:10:55
Original geschrieben von LovesuckZ
Nunja, ATi kann nur über den Speed gewinnen. Umso schwerer wird es den Kunden für die karten um 299€ und 399€ zu gewinnen, da diese entweder langsamer oder gleichschnell zur Nvidiakonkurenz sind, jedoch weniger Features unterstuetzen.


LoL.
;D ;D ;D

Wenn die Karten von ATI schneller sind, gibt es keine Erklärungsnot.

edit: Tippfehler,

BK-Morpheus
2004-05-05, 22:12:15
Original geschrieben von deekey777
Was hat denn eigentlich die 9500 Pro gekostet, als sie erschien?
Bin mir nicht sicher, aber ich habe 230€ für meine Sapphire bezahlt, aber zu dem Zeitpunkt war die schon etwas aufm Markt.

fizzo
2004-05-05, 22:17:11
Original geschrieben von Gortha

da die X800SE ja nur 8 Pipelines und !nur! ein
128 Bit Speicherinterface hat, muss sie langsamer als eine
9800(Pro) sein.
Letzere bekommt man schon fuer 180-200 €, die X800Se soll jedoch 299$ US-Preis sein, also wiederrum mehr bei uns.



laut artikel ist das von ati bis dato nicht bestaetigt worden! ein 128 bit speicherinterface halte ich fuer unwahrscheinlich - 8 pixel-pipelines (wenn ueberhaubt) muessen ja "gefuettert" werden...

eins
2004-05-05, 22:59:21
Original geschrieben von deekey777
Was hat denn eigentlich die 9500 Pro gekostet, als sie erschien?

EK war 200, man bekam sie aber schon günstiger.

AlfredENeumann
2004-05-05, 23:13:53
Original geschrieben von bans3i
Woher weiß man dass SM3.0 nix bringt? Schreiben viele hier aber niemand kanns mir erklären!!

Ich würd sagen lieber auf SM3.0 warten, kommt eh bald im Sommer und dann urteilen!!


Eben. Und daher muß man auch andersrum sagen das man nicht weis wieviel SM3 brngt und nicht so tun als wenn es das Überfeature wäre.

Godmode
2004-05-05, 23:14:08
Original geschrieben von Majestic
Man die Leadtek mit ihrem Monsterkühler ist ja wohl selten häßlich.:O Hoffentlich lassen die sich noch ne bessere und hübschere Kühl-Lösung einfallen.

Das selbe hab ich mir auch gleich gedacht, als ich sie das erste mal gesehen hab. Frag mich wozu diese hässliche durchsichte Abdeckung gut ist?? Aber egal, wenn es effektiv ist, dann finde ich es gut!!

BesenWesen
2004-05-06, 02:53:10
Original geschrieben von AlfredENeumann
Eben. Und daher muß man auch andersrum sagen das man nicht weis wieviel SM3 brngt und nicht so tun als wenn es das Überfeature wäre.

Ein Überfeature sind PS3.0 sicherlich nicht, allerdings würde ich diese auch nicht als so unnütz abtun wollen, wie das oft dargestellt wird.
Die Spieleprogrammierer scheinen ja ganz angetan zu sein davon, es soll auch nicht allzu aufwendig sein, PS3.0 in eine vorhandene Engine zu integrieren.
Wir werden sehen, ob dieser technologische Vorsprung NVIDIA Pluspunkte bringen wird, ein Fehler war dieser Schritt sicher nicht... Innovationen sind immer zu begrüßen.

Gustavdergroße
2004-05-06, 07:21:03
Original geschrieben von bans3i
Das selbe hab ich mir auch gleich gedacht, als ich sie das erste mal gesehen hab. Frag mich wozu diese hässliche durchsichte Abdeckung gut ist?? Aber egal, wenn es effektiv ist, dann finde ich es gut!!

So wie der Kühler aussieht würd ich glatt sagen, das die Karte zusätzlich 2 PCI Slots belegt.

aths
2004-05-06, 09:18:40
Original geschrieben von AlfredENeumann
Eben. Und daher muß man auch andersrum sagen das man nicht weis wieviel SM3 brngt und nicht so tun als wenn es das Überfeature wäre. Noch mal zum mitmeißeln:

Für den NV40-Käufer bringt das, solange er den NV40 einsetzt, wenig bis gar nichts.

Da 3.0 auf dem Weg zu 4.0 liegt, gehen 3.0-Features in 4.0 mit ein. 3.0 als überflüssig wegdiskutieren zu wollen ist so ähnlich, wie den 1.4-er für unsinnig zu halten, nur weil er so selten eingesetzt wurde.

Soweit ich weiß, will XGI auch 3.0-compliant Karten bringen. Ehe es (eine relevante Zahl) 4.0-Spiele gibt, werden wohl noch viele Jahre ins Land ziehen. Aber auch wenn es schon 4.0-HW gibt, wird der Entwickler ja nicht daran gehindert, seine HLSL-Shader u. a. auch mit dem 3_0-Profil übersetzen zu lassen.

Grobi
2004-05-06, 09:48:14
Die 8-Pipe Variante der X800 dient eben dazu nicht-funktionsfähige-12-Pipe oder nicht-funktionsfähige-16 Pipe R420 zu nutzen. Der Preis ist aber trotz des Chip-/Speichertakts einfach zu hoch.

Wie möchte NVidia die vielen 16-Pipe Varianten eigentlich realisieren. Der Ausschuß an defekten Pipes beim NV40 wird vermutlich ähnlich dem von ATI sein, wenn nicht sogar größer wegen mehr Chipfläche und wegen IBM-Fishkill funzt nicht richtig. Bei TMSC als Rückkehrer werden sie sicher keine kostengünstigeren Bedingungen als ATI bekommen. Wird NVidia wie zuvor ATI seine Boardhersteller wegen zu weniger Chips verärgern?

Grobi

Godmode
2004-05-06, 09:54:31
Original geschrieben von Grobi
Die 8-Pipe Variante der X800 dient eben dazu nicht-funktionsfähige-12-Pipe oder nicht-funktionsfähige-16 Pipe R420 zu nutzen. Der Preis ist aber trotz des Chip-/Speichertakts einfach zu hoch.

Wie möchte NVidia die vielen 16-Pipe Varianten eigentlich realisieren. Der Ausschuß an defekten Pipes beim NV40 wird vermutlich ähnlich dem von ATI sein, wenn nicht sogar größer wegen mehr Chipfläche und wegen IBM-Fishkill funzt nicht richtig. Bei TMSC als Rückkehrer werden sie sicher keine kostengünstigeren Bedingungen als ATI bekommen. Wird NVidia wie zuvor ATI seine Boardhersteller wegen zu weniger Chips verärgern?

Grobi

Ich denke mal das IBM mit der Zeit die Ausbeute schon verbessern wird. Ich denke das die Chips mit 16 funktionsfähigen Pipes gar nicht so selten sind, nur erreichen sie halt keine 400 MHz deshalb haben sie die GT nachgereicht.

Wäre natürlich interessant gewesen zu sehen wie hoch sich der NV40 takten ließe, wenn man ihn bei TSMC fertigen lassen hätte inkl. Low-K.

Mancko
2004-05-06, 10:14:59
Original geschrieben von Grobi
Bei TMSC als Rückkehrer werden sie sicher keine kostengünstigeren Bedingungen als ATI bekommen. Wird NVidia wie zuvor ATI seine Boardhersteller wegen zu weniger Chips verärgern?
Grobi

Aur Grund der Masse die Nvidia nach wie vor bei TSMC fertigt und das trotz IBM, werden sie immer gute Konditionen bekommen. ATI lässt große Teile an Low Cost Produkten bei dem direkten Konkurenten von TSMC -> UMC fertigen. Nvidia dagegen nicht.
Sie haben nur den NV36 Test Run und den NV40 bei IBM in der Fertigung.
NV41 und viele andere NV4x Derivate werden bei TSMC gefertigt bzw. gefertigt werden.
Deswegen kannst du sie kaum als Rückkeherer bezeichnen. Defakto haben sie TSMC nie verlassen sondern lediglich das einzig richtige gemacht und sich ein 2tes Standbein aufgestellt.

Gaestle
2004-05-06, 11:27:33
Original geschrieben von aths
Noch mal zum mitmeißeln:

Für den NV40-Käufer bringt das, solange er den NV40 einsetzt, wenig bis gar nichts.

Da 3.0 auf dem Weg zu 4.0 liegt, gehen 3.0-Features in 4.0 mit ein. 3.0 als überflüssig wegdiskutieren zu wollen ist so ähnlich, wie den 1.4-er für unsinnig zu halten, nur weil er so selten eingesetzt wurde.

Soweit ich weiß, will XGI auch 3.0-compliant Karten bringen. Ehe es (eine relevante Zahl) 4.0-Spiele gibt, werden wohl noch viele Jahre ins Land ziehen. Aber auch wenn es schon 4.0-HW gibt, wird der Entwickler ja nicht daran gehindert, seine HLSL-Shader u. a. auch mit dem 3_0-Profil übersetzen zu lassen.

Naja, ich habe sicher weniger Plan von der Materie als Du, aber so wie ich das verstanden habe, ist vor allem die Branching-Funktion beim SM3 von Vorteil, da somit auch SM2-Shader schneller ausgeführt werden können...

Letztlich wäre es mir lieber, wenn ein Mitbewerber mit ordentlichem AF und AA kommen würde, vor allem wenn ich mir Shots aus dem InGame-Thread anschaue.... Allerdings erwarte ich dies nicht von XGI, sondern von einer anderen Seite, von der ich aber bisher noch nicht wirklich glaube, dass da tatsächlich demnächst PC-Silizium kommt.

Grüße

fizzo
2004-05-06, 12:08:18
Original geschrieben von Grobi

Wie möchte NVidia die vielen 16-Pipe Varianten eigentlich realisieren. Der Ausschuß an defekten Pipes beim NV40 wird vermutlich ähnlich dem von ATI sein, wenn nicht sogar größer wegen mehr Chipfläche und wegen IBM-Fishkill funzt nicht richtig. Bei TMSC als Rückkehrer werden sie sicher keine kostengünstigeren Bedingungen als ATI bekommen. Wird NVidia wie zuvor ATI seine Boardhersteller wegen zu weniger Chips verärgern?

Grobi

genau diesen gedankengang hatte ich auch schon. ich kann mir beim besten willen nicht vorstellen, dass ibm "genung" funktionstuechtige 16-pip varianten herstellen kann. ist der pipe-aufbau der nv40 mit den des r420 ueberhaubt vergleichbar?

LovesuckZ
2004-05-06, 12:12:09
Der NV40 ist ebenfalls in Lage, bestimmte Bereiche abzustellen. Imo wird es von den 6800NU Karten sehr viele geben, die sich sehr gut übertakten lassen.

fizzo
2004-05-06, 12:30:38
Original geschrieben von LovesuckZ
Imo wird es von den 6800NU Karten sehr viele geben, die sich sehr gut übertakten lassen.

wenn dem so ist, dann ist die 6800nu sich sehr interessant. dann kann man nur hoffen, dass auch habwegs guter speicher verbaut wird nicht das die pips "verhungern" bzw. das dieser auch gut uebertaktbar ist!

AlfredENeumann
2004-05-06, 12:59:12
Original geschrieben von aths
Noch mal zum mitmeißeln:

Für den NV40-Käufer bringt das, solange er den NV40 einsetzt, wenig bis gar nichts.

Da 3.0 auf dem Weg zu 4.0 liegt, gehen 3.0-Features in 4.0 mit ein. 3.0 als überflüssig wegdiskutieren zu wollen ist so ähnlich, wie den 1.4-er für unsinnig zu halten, nur weil er so selten eingesetzt wurde.

Soweit ich weiß, will XGI auch 3.0-compliant Karten bringen. Ehe es (eine relevante Zahl) 4.0-Spiele gibt, werden wohl noch viele Jahre ins Land ziehen. Aber auch wenn es schon 4.0-HW gibt, wird der Entwickler ja nicht daran gehindert, seine HLSL-Shader u. a. auch mit dem 3_0-Profil übersetzen zu lassen.


Das ist ja was ich meine und viele andere hier auch. Nur reiten hier doch einige auf SM3 rum als wenn es das Feature ist was man JETZT haben muß.

ow
2004-05-06, 13:30:02
.

fizzo
2004-05-06, 13:52:59
was man jetzt haben muss ist oft nicht gleich das was man wirklich braucht - dem marketing sei dank;)

jeder muss fuer sich selber entscheiden was fuer einen wichtig/richtig ist! zumeist ist es ja ein kompromiss....

Sphinx
2004-05-06, 14:56:38
Original geschrieben von fizzo
was man jetzt haben muss ist oft nicht gleich das was man wirklich braucht - dem marketing sei dank;)

jeder muss fuer sich selber entscheiden was fuer einen wichtig/richtig ist! zumeist ist es ja ein kompromiss....

Speed + PCI-E Native + "Edit" (MAX AA ~ Neue Modis(TempAA) ,AF)

AlfredENeumann
2004-05-06, 16:58:16
Original geschrieben von ow
Was muss man denn deiner Meinung nach JETZT haben?

Features die man jetzt haben muß sind schon da.
Was man jetzt für die kommenden DX9 Games braucht ist Speed, und zwar genung davon.

Und solange derzeit niemand genaue Daten von Geschwindigkeitssteigerungen beim SM3 vorlegen kann, ist es ein Feature was man JETZT nicht braucht.

seahawk
2004-05-06, 18:15:20
Wobei genung Speed + SM3.0 auch nicht schlecht ist.

Denn schnell genug sind beide Next-Gen Karten.

r@h
2004-05-06, 18:43:09
Also ich weiß nicht, was hier wieder für ein Stuß gelabert wird.

Ich bin einzig und allein an Technologie interessiert.
Speed nehme ich am Rande mit und es interessiert nicht die Bohne, ob nun etwas mit 50fps oder 100fps läuft.
Mehr als 25 seh' ich davon 'eh nicht...

Ich will ALLES sehen, was da an Tech- und Scene-Demos heraus kommt. Ich will JEDEN Entwicklungsschritt von Engines mitbekommen (auch wenn sie vielleicht erst 2005/2006 auf den Markt kommen). Ich will mit 'nem neuen Kärtchen schlicht herum experimentieren und ich werde mich ganz sicher nicht durch diversen Hardware-Limitierungen davon abhalten lassen.

---

Und um wieder auf's Thema zurück zu kommen:
"Die X800SE wird wohl NICHT genug 'Speed' haben !"
:D

Razor

seahawk
2004-05-06, 19:21:41
Die SE erscheint mir auch komisch. 299$ und 128 Bit-Interface. Die wäre langsamer als ne 9800pro. Außer die nehmen auch für diese Karte 550Mhz DDR Speicher. Dann könnte es reichen.

fizzo
2004-05-06, 19:24:03
Original geschrieben von r@h

Ich bin einzig und allein an Technologie interessiert.
Speed nehme ich am Rande mit und es interessiert nicht die Bohne, ob nun etwas mit 50fps oder 100fps läuft.
Mehr als 25 seh' ich davon 'eh nicht...



ok - deine ansicht!

mich persoenlich interessiert speed jedoch sehr. wenn eine kart x zb "nur" 50fps liefert gegenueber einer y mit 100fps stoert mich das jetzt noch recht wenig jedoch wie sieht es dann in einem jahr aus?

du kannst ja dann die details runterregeln um fluessig zu spielen was nuetzen einem dann aber die technologische vorreiterrolle?

JuNkEE
2004-05-06, 21:33:52
Original geschrieben von Majestic
Man die Leadtek mit ihrem Monsterkühler ist ja wohl selten häßlich.:O Hoffentlich lassen die sich noch ne bessere und hübschere Kühl-Lösung einfallen.
Die Karte wird doch eh kopfüber eingebaut. Wen stört da noch ein hässlicher Kühler, wenn ihn keiner sieht?

Majestic
2004-05-06, 21:39:24
Na gut hast schon recht. Aber häßlich ist sie meiner Meinung nach trotzdem.:D

Tigerchen
2004-05-07, 15:04:42
Original geschrieben von seahawk
Die SE erscheint mir auch komisch. 299$ und 128 Bit-Interface. Die wäre langsamer als ne 9800pro. Außer die nehmen auch für diese Karte 550Mhz DDR Speicher. Dann könnte es reichen.

Woher kommt eigentlich die Sache mit den 128 Bit. Ich habe 256 Bit gelesen.

ow
2004-05-07, 15:12:10
.

Tigerchen
2004-05-07, 15:43:17
Original geschrieben von ow
Wo hast du 256Bit gelesen?

Sorry. Hab mich verlesen.:)

AlfredENeumann
2004-05-07, 15:52:44
Wieso macht ihr denn hier so eien Herrman wegen einer Grafikkarte/Chip der noch nichtmal angekündigt ist?
Und vor allem wegen einem Preis der sowieso ein UVP, wenn überhaupt ist.

Meine Kristallkugel sagt mir z.b. das die Radeon X800Pro keine 4 Wochen nach Kaufbarkeit für unter 370€ über den Ladentisch geht.
Wie war nochmal der Empf VK von ATI? Richtig US-Listenpreis 399$ (ohne Steuer !!!!)

dildo4u
2004-05-07, 23:44:54
Original geschrieben von ow
Wo hast du 256Bit gelesen?


http://www.3dcenter.de/artikel/2004/05-05.php

"Zuerst einmal müssen wir die Angabe in der Tabelle korrigieren, die Radeon X800SE hätte nur ein 128 Bit Speicherinterface - dies ist so nicht zutreffend. Der Standard bei dieser Karte wird ebenfalls bei 256 Bit liegen, so wird diese auch anfänglich ausgeliefert werden."

dann is sie doch nicht so schlecht denk mal die karte wird sich so um 270-280€ einordnen und drüfte sie sich mit 450chip und 400speicher noch deutlich genug von der 9800pro für 200€ absetzen

jagger
2004-05-08, 00:47:42
Original geschrieben von AlfredENeumann
Das ist ja was ich meine und viele andere hier auch. Nur reiten hier doch einige auf SM3 rum als wenn es das Feature ist was man JETZT haben muß.

Ja, aber wenn ich mit heute eine GraKa Karte kaufe, sollte die schon ne Halbwertszeit von über 1 Jahr haben. Und ich denke schon, daß wir spätestens zu Weihnachten hin, einige Games mit 3.0er Features sehen werden. Ausserdem darf man den Marktanteil und ihr "The way it's..." Programm von Nvidia mal nicht unterschätzen. Ist ja immer so ne Sache mit was war zuerst da... Kann man eigentlich im nachhinein Spiel mit Shader ausrüsten?!?

Ich wüsste nach den ersten Reviews nicht, welche Graka ich mir holen würde, den immensen Speedvorprung sehe ich jetzt nicht bei der Radeon. Ausserdem denke ich, daß man das Potenzial der Treiberentwicklung nicht unterschätzen darf. Technisch wartet Nvidia immerhin mit der besseren Aussattung auf und da lässt sich per Software bestimmt nochwas rausholen.

PS: bin kein Nvidida Fanboy, habe ne Rad 9700 Pro

EcHo
2004-05-08, 00:47:50
Original geschrieben von r@h
Also ich weiß nicht, was hier wieder für ein Stuß gelabert wird.

Ich bin einzig und allein an Technologie interessiert.
Speed nehme ich am Rande mit und es interessiert nicht die Bohne, ob nun etwas mit 50fps oder 100fps läuft.
Mehr als 25 seh' ich davon 'eh nicht...

Razor

Tz, Technik-Freak aber nicht mal die "Specs" deiner Augen kenn. Du siehst MEHR Bilder, als bloß 25/s.

35 Bilder reichen in der Regel um eine "Bewegung" vorzutäuchen. Das du allein an der Technologie interessiert bist, ist schön für dich, bringt die Diskussion aber nicht weiter.
Die meisten werden wohl ihre Karten für Anwendungen benutzen, und wollen sicher leiber ein bischen mehr POWER, als ein Feature was vieleicht in seinem gesamten leben vieleicht nur 2 Tech-Demos sehen wird.

FALLS es sich durchsetzen wird, dann kann man auch auf dieses Feature upgraden. Bis dahin lasse ich es links liegen und sehe die Preise der SM3-Karten purzeln.

Wieviele Features haben uns den die Labertaschen vom Marketing den schon versuch unterzujubeln? Mein Geld habe ich mir hart erarbeitet und dafür will ich etwas anderes als (im Moment) so eine Luftblase.

smockdogx
2004-05-08, 00:56:37
du bruahcst schon mehr als 25fps sonst kommt es zu schlieren ab40 solte es reichen :bäh:
auch wenn du nicht mehr als 25 sehen kannst
weiss net mehr wie das fenomen heisst

oops sorry hab das theared über mir nicht gelsen sorry

MarcWessels
2004-05-08, 06:03:05
Original geschrieben von r@h
Mehr als 25 seh' ich davon 'eh nicht...

*seufz* Falsch...

EDIT:Auch kommt es nicht zu Schlieren, sondern es kommt um Verwischen von Texturen und Objekten wenn die Aufnahme- nicht mit der Wiedergabegeschwindigkeit übereinstimmt. Der kleinste gemeinsame Nenner wäre da 60hz/60fps.

60fps ist auch gleichzeitig eine Art Breakevenpoint für den Menschen. Zwar ist er in der Lage, beispielsweise einen Animationsablauf mit 180fps als flüssiger gegenüber 60fps zu unterscheiden, doch ist der Unterschied für ihn DEUTLICH kleiner als der zwischen 55fps und 60fps!

Für einen komplett flüssigen Spielablauf sollte also eine minimale worst case Framerate von 60fps bei einer Bildwiederholfrequenz von 60hz sein.

Siehe auch die drei enthaltenen Fachartikel-Links in folgendem Thread-> http://www.forumdeluxx.de/forum/showthread.php?t=39297

r@h
2004-05-08, 10:09:27
Nun hackt mal nicht so auf den 25fps herum...

Das menschliche Auge ist in der Lage, 100-200 Einzelbilder in der Sekunde wahr zu nehmen. Aber um 'flüssige' Bewegungen zu 'schauen', reichen bekannter maßen ja die 25 vom fernsehen (in Deutschland, denn das Ami-TV ist mir zu 'schleierhaft' ;-), oder erkennt hier irgend jemand ein 'Ruckeln' beim "in die Röhre schaun' " ?

Das einzige, was mich interessiert, sind die Minimum-FPS, die NIEMALS unter 25 fallen sollten, um eben kein Stottern wahr zu nehmen. So um die 40 wären gut, um auch in Stereo noch mit 25 schaun' zu können.

Mehr gibt's dazu einfach nicht zusagen.

Razor

r@h
2004-05-08, 10:13:52
Original geschrieben von fizzo
mich persoenlich interessiert speed jedoch sehr. wenn eine kart x zb "nur" 50fps liefert gegenueber einer y mit 100fps stoert mich das jetzt noch recht wenig jedoch wie sieht es dann in einem jahr aus?Hat Du eine Kristallkugel ?
Oder was soll 'nen bissel mehr Speed in einem Jahr für eine 'Sicherheit' geben ?
Sorry, aber hier befindest Du Dich Diskussionsseitig auf einem sehr dünnen Brett.
Original geschrieben von fizzo
du kannst ja dann die details runterregeln um fluessig zu spielen was nuetzen einem dann aber die technologische vorreiterrolle? Das eine hat doch mit anderen nichts zu tun !
Oder meinst Du, dass man mit einer jetzt 10-20% schnelleren Karte in einem Jahr nicht an den Details schrauben muss ? Du wirst dann aber noch immer alles in voller (dann möglicher) quali schaun' können, was mir persönlich sehr viel wichtiger wäre, als veraltete Technologie mit ein paar fps mehr.

Nur so ein Gedankengang.

Razor

r@h
2004-05-08, 10:16:11
Original geschrieben von AlfredENeumann
Meine Kristallkugel sagt mir z.b. das die Radeon X800Pro keine 4 Wochen nach Kaufbarkeit für unter 370€ über den Ladentisch geht.
Wie war nochmal der Empf VK von ATI? Richtig US-Listenpreis 399$ (ohne Steuer !!!!) Jo, dann rechne mal den Euro-Kurs dagegen und die Mehrwertsteuer drauf und schon kommst Du fast auf Deine 370... und das wird selbstredend auch für alle anderen Karten gelten.

Und merke: für einige hier gibt's noch immer einen großen Unterschied zwischen 370 und 260, oder ?

Razor

r@h
2004-05-08, 10:22:37
Original geschrieben von EcHo
Die meisten werden wohl ihre Karten für Anwendungen benutzen, und wollen sicher leiber ein bischen mehr POWER, als ein Feature was vieleicht in seinem gesamten leben vieleicht nur 2 Tech-Demos sehen wird.Tjo...
Ich habe den 'Vorteil' schon ein wenig älter zu sein und damit schon so einiges in dieser Richtung erlebt. Auch bei der gf3 haben damals die Leute gejault: "Wozu DX8 ? Und auch noch langsamer als 'ne gf2u !" und wie hat sich das entwickelt ?

Richtig, fast 2 Jahre hat das Kärtchen 'gehalten' (zum Schluß war sie schon recht 'langsam' ;-), bis ich die Notwendigkeit sah' hier einzugreifen.

Und da sind sehr viel mehr als "nur 2 Tech-Demos" erschienen, die mich fast umgeworfen haben. Du bist offenbar kein Freund von Scene-/Tech-Demo's, oder ?
:D

Razor

P.S.: Klar, wenn Du NUR spielen willst, wirst Du vermutlich noch ca. 6 Monate ohne Quali-Verlust gamen können, wenn SM3.0 nicht zum Feature-Set Deiner GraKa gehört... ;)

r@h
2004-05-08, 10:30:52
Original geschrieben von MarcWessels
Für einen komplett flüssigen Spielablauf sollte also eine minimale worst case Framerate von 60fps bei einer Bildwiederholfrequenz von 60hz sein.Falsch.
(siehe oben)

Und klar, die Vertikal-Frequenz des Moni's sollte schon ein Vielfaches der dargestellten Bildchen sein.
(im Idealfall selbstredend ;-)

Deswegen macht auch z.Bsp. ein Frame-Limiter in Games sinn, wenn dieser bei 120Hz eben auf 30fps gestellt wird. Wenn zudem noch CPU und GPU in der Lage sind, das Bild bei 30fps im WorstCase-Scenario zu halten, wäre das schlicht der absolute Idelafall. Bei 100Hz wären dies eben 25fps und vice versa...

Und auch für Dich eine kleine Gedankenstütze:
Was bitte sollen Dir 60fps bei 100Hz nützen ?

Richtig, 25fps wären bei 100Hz ideal, 60fps hingegen nicht (bei 120Hz hingegen schon, allerdings wage ich zu bezeweifeln, dass CPU und GPU in der Lage sind die 60fps auch im Worst-Case zu halten ;-).

Razor

DasToem
2004-05-08, 10:32:28
Original geschrieben von r@h
Nun hackt mal nicht so auf den 25fps herum...

Das menschliche Auge ist in der Lage, 100-200 Einzelbilder in der Sekunde wahr zu nehmen. Aber um 'flüssige' Bewegungen zu 'schauen', reichen bekannter maßen ja die 25 vom fernsehen (in Deutschland, denn das Ami-TV ist mir zu 'schleierhaft' ;-), oder erkennt hier irgend jemand ein 'Ruckeln' beim "in die Röhre schaun' " ?



Schon mal etwas von Motion Blur gehört.

Nunja, die Diskussion läuft irgendwie in die falsche Richtung.

r@h
2004-05-08, 10:41:39
Original geschrieben von DasToem
Schon mal etwas von Motion Blur gehört.Klar !
Und ?
:???:
Original geschrieben von DasToem
Nunja, die Diskussion läuft irgendwie in die falsche Richtung. Wohl wahr...

Razor

DasToem
2004-05-08, 10:49:36
Original geschrieben von r@h
Klar !
Und ?
:???:


Fernsehen/Kino: ja

Spiele: nein (mit sehr wenigen Ausnahmen)

Blacksoul
2004-05-08, 13:01:31
http://www.geizhals.at/deutschland/a98884.html

Bei Geizhals ist die X800Pro schon für unter 400€ gelistet.
Die Karte könnte durchaus interessant werden.

Wishnu
2004-05-08, 13:37:32
[SIZE=1]Original geschrieben von r@h

Richtig, 25fps wären bei 100Hz ideal, 60fps hingegen nicht (bei 120Hz hingegen schon, allerdings wage ich zu bezeweifeln, dass CPU und GPU in der Lage sind die 60fps auch im Worst-Case zu halten ;-).


Versuche mal in einem RTS mit 25fps gescheit zu zielen...bei 60fps kannst Du das wesentlich genauer bewerkstelligen, da hier auch die Maus effetkiv mit 60Hz abgetastet wird, im anderen Fall nur mit 25Hz, was einfach zu wenig ist.

Korak
2004-05-08, 15:39:33
Original geschrieben von r@h
Also ich weiß nicht, was hier wieder für ein Stuß gelabert wird.

Ich bin einzig und allein an Technologie interessiert.
Speed nehme ich am Rande mit und es interessiert nicht die Bohne, ob nun etwas mit 50fps oder 100fps läuft.
Mehr als 25 seh' ich davon 'eh nicht...

Ich will ALLES sehen, was da an Tech- und Scene-Demos heraus kommt. Ich will JEDEN Entwicklungsschritt von Engines mitbekommen (auch wenn sie vielleicht erst 2005/2006 auf den Markt kommen). Ich will mit 'nem neuen Kärtchen schlicht herum experimentieren und ich werde mich ganz sicher nicht durch diversen Hardware-Limitierungen davon abhalten lassen.


Razor

Ach? Das ist ja mal ganz was neues.

r@h
2004-05-08, 17:20:32
Original geschrieben von Wishnu
Versuche mal in einem RTS mit 25fps gescheit zu zielen...bei 60fps kannst Du das wesentlich genauer bewerkstelligen, da hier auch die Maus effetkiv mit 60Hz abgetastet wird, im anderen Fall nur mit 25Hz, was einfach zu wenig ist. So einen Blödsinn hab' ich ja noch nie gehört... sorry.
Meine Maus wird mit glatten 800Hz abgetastet und das IMMER.

Was Du meinst, ist schlicht eine Sache der Engine. Und in GPU-limitierten Scenen, hat die CPU ja noch genügend Zeit, das Fadenkreuz nachzuziehen. Ich habe fast das Gefühl, dass wir aneinander vorbei reden...

Bitte keinesfalls CPU- mit GPU-Limitierung verwechseln !

Razor

r@h
2004-05-08, 17:22:06
Original geschrieben von Korak
Ach? Das ist ja mal ganz was neues. Du erinnerst Dich ?
:D

Ja, das habe ich schon bei gf1 und gf3 gesagt und wiederhole dies jetzt wieder.
(zumal ich bei den vorherigen Kärtchen recht behalten habe ;-)

Razor

Korak
2004-05-08, 18:27:53
Original geschrieben von r@h
Du erinnerst Dich ?
:D

Ja, das habe ich schon bei gf1 und gf3 gesagt und wiederhole dies jetzt wieder.
(zumal ich bei den vorherigen Kärtchen recht behalten habe ;-)

Razor

Falls du denkst, dass das ironisch gemeint war irrst du.

Ich erinnere mich an eine gewisse PS 1.4 Diskussion :| :eyes: :D

Aber das war einmal...und wäre hier sehr OT

druggedApE
2004-05-08, 18:28:10
wenn ich ma meinen stuss dazu geben darf:
die features vom nv40 gefallen mir persönlich auch sehr gut ich würd mir das ding sofort holen, wenn nich die sache mit dem stromverbrauch wär... ich bezahl doch net 109eur für strom nur um n paar demos zu guggen oder in nem spiel das wasser noch n bissel goiler aussieht...
ich weis das die karten im 2d betrieb weniger verbrauchen, aber ich zogg nu ma sehr viel und da braucht der nv40 doch n bissel mehr als der rv420 :-/

features ja, aber net um jeden preis :)

ApE

Gas3t
2004-05-08, 18:43:32
Original geschrieben von r@h
Also ich weiß nicht, was hier wieder für ein Stuß gelabert wird.

Ich bin einzig und allein an Technologie interessiert.
Speed nehme ich am Rande mit und es interessiert nicht die Bohne, ob nun etwas mit 50fps oder 100fps läuft.
Mehr als 25 seh' ich davon 'eh nicht...

Ich will ALLES sehen, was da an Tech- und Scene-Demos heraus kommt. Ich will JEDEN Entwicklungsschritt von Engines mitbekommen (auch wenn sie vielleicht erst 2005/2006 auf den Markt kommen). Ich will mit 'nem neuen Kärtchen schlicht herum experimentieren und ich werde mich ganz sicher nicht durch diversen Hardware-Limitierungen davon abhalten lassen.

---

Und um wieder auf's Thema zurück zu kommen:
"Die X800SE wird wohl NICHT genug 'Speed' haben !"
:D

Razor

Also hast du auch eine Radeon, Radeon8500 und eine Radeon9700Pro gehabt. Diese hatten beim jeweiligen Erscheinungstermin mehr Features als die Geforce-Pendants, auch wenn die Speed nicht immer gepasst hat (natürlich mit Außnahme der 9700Pro:)).

tokugawa
2004-05-08, 19:37:51
Original geschrieben von AlfredENeumann
Eben. Und daher muß man auch andersrum sagen das man nicht weis wieviel SM3 brngt und nicht so tun als wenn es das Überfeature wäre.

Dass es was bringt, ist klar.


Die Frage sollte eher sein, wann es was bringt.

Und da SM 3.0 einfacher in eine Engine einzubauen ist, die bereits Shader unterstützt, wäre der Aufwand des Einsatzes geringer als etwa ATI's 3Dc (nicht ganz vergleichbar, aber es werden immer diese zwei "Features" gegeneinander auf's Podest gestellt).

Ich glaube dass SM 3.0 viel schneller kommt als jede andere vorige Shader Modell Generation.

Warum?

A) Es gibt mittlerweile einen ganzen Haufen Shader-Entwicklungstools sowohl für Programmierer als auch Visual Artists (ATI Rendermonkey, NVIDIA FX Composer, und viele mehr).

B1) Die Entwicklerstudios haben bereits Shader gehortet, da mit diesen Tools möglich ist, einfach einen "Effekt" zu speichern, und einfach dann einzusetzen, wenn man sie braucht. Wenn die Engine bereits früher auf frühere ShaderModel Versionen ausgelegt ist, hat das Hinzufügen anderer Shader in Etwa den Aufwand des Änderns eines Dateinamens irgendwo (config-file, im Code, im Art-Asset-Editor oder wo auch immer). Dies selbst hat noch nichts mit SM 3.0 zu tun, aber:

B2) dadurch dass all diese Tools bereits lange existieren, sind Entwickler damit vertraut. Mit SM 3.0 haben sie jetzt einfach weniger Restriktionen und können bereits entwickelte Shader endlich in der Praxis einsetzen (und vor allem, endlich auch sehen anstatt nur auf Papier in Formel/Pseudocode-Form).

C) Restriktionen früherer Shader Modelle waren ja ziemlich einschränkend. Ich glaube mit SM 3.0 haben Entwickler jetzt die Freiheit, nicht jede Instruktion zweimal umzudrehen bevor sie sich entscheiden, sie einzusetzen. Das Leben wird bequemer (zumindest solange bis sie einen ähnlichen Shader in ein älteres Shader-Model reinpressen müssen...).

tokugawa
2004-05-08, 19:43:08
Original geschrieben von r@h
Also ich weiß nicht, was hier wieder für ein Stuß gelabert wird.

Ich bin einzig und allein an Technologie interessiert.
Speed nehme ich am Rande mit und es interessiert nicht die Bohne, ob nun etwas mit 50fps oder 100fps läuft.
Mehr als 25 seh' ich davon 'eh nicht...

Ich will ALLES sehen, was da an Tech- und Scene-Demos heraus kommt. Ich will JEDEN Entwicklungsschritt von Engines mitbekommen (auch wenn sie vielleicht erst 2005/2006 auf den Markt kommen). Ich will mit 'nem neuen Kärtchen schlicht herum experimentieren und ich werde mich ganz sicher nicht durch diversen Hardware-Limitierungen davon abhalten lassen.

---

Und um wieder auf's Thema zurück zu kommen:
"Die X800SE wird wohl NICHT genug 'Speed' haben !"
:D

Razor

25 fps mag die maximale "temporale Auflösung" des Menschen sein, aber genau wie sonst wo muß man wieder das Shannon'sche Abtasttheorem beachten. Du brauchst also mindestens das Doppelte, um Motion Aliasing zu verhindern.

Ich empfehle bezüglich der 25/50 fps (bzw 30/60 fps) Diskussion das Buch "Realtime Rendering, 2nd Edition" von Tomas Akenine-Möller und Eric Haines, da steht's besser erklärt drin als ich das je erklären könnte :)

tokugawa
2004-05-08, 19:45:18
Original geschrieben von druggedApE
wenn ich ma meinen stuss dazu geben darf:
die features vom nv40 gefallen mir persönlich auch sehr gut ich würd mir das ding sofort holen, wenn nich die sache mit dem stromverbrauch wär... ich bezahl doch net 109eur für strom nur um n paar demos zu guggen oder in nem spiel das wasser noch n bissel goiler aussieht...
ich weis das die karten im 2d betrieb weniger verbrauchen, aber ich zogg nu ma sehr viel und da braucht der nv40 doch n bissel mehr als der rv420 :-/

features ja, aber net um jeden preis :)

ApE

Meine Stromrechnung liegt bei 152 Euro pro 2 Monate... was mich sehr ärgert, vor allem da mit dem neuen österreichischen Uni-Gesetz (blabla "Reform" balbla) die Assistenten- und Tutorengehälter auf (nicht nur um, leider) bis ein Viertel reduziert worden sind...

Ich hab eine Radeon 9500 Pro :D

r@h
2004-05-09, 00:05:29
Original geschrieben von Gas3t
Also hast du auch eine Radeon, Radeon8500 und eine Radeon9700Pro gehabt. Diese hatten beim jeweiligen Erscheinungstermin mehr Features als die Geforce-Pendants, auch wenn die Speed nicht immer gepasst hat (natürlich mit Außnahme der 9700Pro:)). Ich habe sie ausprobiert, bzw. 'validiert', ja.
Die R9500 habe ich 'leider' gekauft... aber sei's drum.

Und NIEMALS hat mir eine ATI-Karte irgendwelche Vorteile gebracht. Sehr viel öfter war es der Fall, dass Scene-Demos z.Bsp. eher unter OGL geproggt waren und da hat ATI bekanntlich ja nun nicht gerade eine ihrer Stärken.

Meinen 'Spieltrieb' konnte bis dato nur 3dfx und später dann nVidia 'befriedigen'...
Geschwindigkeit ist bei weiten nicht alles... wenn sogar (fast) nebensächlich.

-

Und um Koraks Anmerkung gleich mit aufzunehmen: Ja, die PS1.4-Diskussion habe ich sehr energisch geführt und die Gegenwart scheint mir dann ja wohl recht zu geben (auch wenn es hier OT ist).

Razor

r@h
2004-05-09, 00:09:03
Original geschrieben von tokugawa
<sanp> da steht's besser erklärt drin als ich das je erklären könnte :) Versuch es doch bitte...
(würde mir nur ungern deswegen extra ein Buch kaufen ;-)

Sag mir, warum beim Fernsehen 25fps reicht, was selbstredend auch auf die ganzen Konsolen zutrifft. Beim Computer aber nicht.

Razor

tokugawa
2004-05-09, 00:13:36
Original geschrieben von r@h
Versuch es doch bitte...
(würde mir nur ungern deswegen extra ein Buch kaufen ;-)

Sag mir, warum beim Fernsehen 25fps reicht, was selbstredend auch auf die ganzen Konsolen zutrifft. Beim Computer aber nicht.

Razor

Weil's 50 half-frames pro Sekunde sind?

Wegen dem Buch, werd das wohl zitieren müssen (und am besten das Diagramm drin scannen), aber das hab ich in meiner WG liegengelassen, also erst wieder Montag wenn ich wieder in Wien bin :D


EDIT: naja, hab eine Alternative gefunden:

http://www.cg.tuwien.ac.at/courses/Realtime/slides/02perception_rtr2003.pdf (ab Seite 12 geht's um Motion)

Auf der Seite zu dieser Vorlesung gibt es auch weitere Links zu Motion und 30 vs 60 Hz Issue (sh. 2. Vorlesungsstunde):
http://www.cg.tuwien.ac.at/courses/Realtime/slides.html

PS: aber das Motion Aliasing Diagramm aus dem Buch werd ich trotzdem einscannen am Montag :D hat mir nämlich irgendwie gefallen (da war auch ein Beispiel mit der Rotation eines Rades - Motion Aliasing kann bewirken dass es aussieht als ob sich das Rad "rückwärts" bewegt - sieht man manchmal auch bei Autowerbungen oder bei Hubschrauber-Rotoren).

PPS: das Buch ist übrigens generell ziemlich empfehlenswert :D *schleichwerbungmach*

r@h
2004-05-09, 00:39:22
Original geschrieben von tokugawa
Weil's 50 half-frames pro Sekunde sind?Beim Fernsehen ?
Da ergeben 2 (aufeinanderfolgende) Halbbilder eben genau ein Bild.
Und im Kino gibt es keine Halbbilder und derer eben exakt (mehr oder weniger ;-) 25 Stück.

Bei den Konsolen mag das anders sein... da kenn ich mich nicht so aus.
Original geschrieben von tokugawa
Wegen dem Buch, werd das wohl zitieren müssen (und am besten das Diagramm drin scannen), aber das hab ich in meiner WG liegengelassen, also erst wieder Montag wenn ich wieder in Wien bin :DJa mach mal... tät mich wirklich interessieren !
(und sicher auch noch einige andere hier ;-)
Original geschrieben von tokugawa
http://www.cg.tuwien.ac.at/courses/Realtime/slides/02perception_rtr2003.pdf (ab Seite 12 geht's um Motion)

Auf der Seite zu dieser Vorlesung gibt es auch weitere Links zu Motion und 30 vs 60 Hz Issue (sh. 2. Vorlesungsstunde):
http://www.cg.tuwien.ac.at/courses/Realtime/slides.htmlThx for the links !
:up:

Hoffentlich find' ich mal die Zeit, mich da einzulesen...
Original geschrieben von tokugawa
PS: aber das Motion Aliasing Diagramm aus dem Buch werd ich trotzdem einscannen am Montag :D hat mir nämlich irgendwie gefallen (da war auch ein Beispiel mit der Rotation eines Rades - Motion Aliasing kann bewirken dass es aussieht als ob sich das Rad "rückwärts" bewegt - sieht man manchmal auch bei Autowerbungen oder bei Hubschrauber-Rotoren).

PPS: das Buch ist übrigens generell ziemlich empfehlenswert :D *schleichwerbungmach* Ich glaub' Dir wirklich, dass Du von dem Buch begeistert bist und auf das Diagramm bin ich auch schon sehr gespannt... ;)

Razor

tokugawa
2004-05-09, 00:45:17
Original geschrieben von r@h
Beim Fernsehen ?
Da ergeben 2 (aufeinanderfolgende) Halbbilder eben genau ein Bild.
Und im Kino gibt es keine Halbbilder und derer eben exakt (mehr oder weniger ;-) 25 Stück.

Bei den Konsolen mag das anders sein... da kenn ich mich nicht so aus.


So wie ich das verstanden hab beim Fernsehen, ergeben die 50 Halbbilder trotzdem eine Illusion höherer Framerate als 25 Vollbilder (dürft wohl die Inspiration für ATI's Temporal AA gewesen sein :D ). Das in Kombination mit der Distanz, in der man normal zum Fernseher sitzt. Konsolen müssen normal auch mit dieser Restriktion leben, soweit ich weiß.

Im Kino wiederum gibt es Motion Blur bzw. Nachleuchten, außerdem sitzt man in einem dunklen Raum. Aber bei einem Kameraschwenk über eine Szene kann man normal schon ein gewisses Ruckeln sehen.

Original geschrieben von r@h
Ja mach mal... tät mich wirklich interessieren !
(und sicher auch noch einige andere hier ;-)
Thx for the links !
:up:

Hoffentlich find' ich mal die Zeit, mich da einzulesen...
Ich glaub' Dir wirklich, dass Du von dem Buch begeistert bist und auf das Diagramm bin ich auch schon sehr gespannt... ;)

Razor

r@h
2004-05-09, 01:09:13
Original geschrieben von tokugawa
So wie ich das verstanden hab beim Fernsehen, ergeben die 50 Halbbilder trotzdem eine Illusion höherer Framerate als 25 Vollbilder (dürft wohl die Inspiration für ATI's Temporal AA gewesen sein :D ). Das in Kombination mit der Distanz, in der man normal zum Fernseher sitzt. Konsolen müssen normal auch mit dieser Restriktion leben, soweit ich weiß.Hmmm...
Original geschrieben von tokugawa
Im Kino wiederum gibt es Motion Blur bzw. Nachleuchten, außerdem sitzt man in einem dunklen Raum. Aber bei einem Kameraschwenk über eine Szene kann man normal schon ein gewisses Ruckeln sehen. Was aber daran liegen dürfte, dass es eben keine 25 Bilder / Sekunde sind und eher von der amerikanischen Norm kommen, welche nur 18 Bilder 'kennt' (wenn ich jetzt nicht völlig auf dem Holzweg bin ;-).

Na ja... vielleicht wissen wir ja Monatg mehr, gell ?
;-)

Razor

tokugawa
2004-05-09, 01:17:42
Original geschrieben von r@h
Hmmm...
Was aber daran liegen dürfte, dass es eben keine 25 Bilder / Sekunde sind und eher von der amerikanischen Norm kommen, welche nur 18 Bilder 'kennt' (wenn ich jetzt nicht völlig auf dem Holzweg bin ;-).

Na ja... vielleicht wissen wir ja Monatg mehr, gell ?
;-)

Razor

Ich dachte es wären 24 oder so bei der amerikanischen Norm?

Aber schau wirklich mal ins PDF das ich gepostet hab (ab Folie 12 auf Seite 3 glaub ich), da ist es relativ gut beschrieben.

r@h
2004-05-09, 02:25:50
Original geschrieben von tokugawa
Ich dachte es wären 24 oder so bei der amerikanischen Norm?Wie ich schon vermutete... "völlig auf dem Holzweg" !
:D

Hab' mal ein bissel gegoogelt:
- cinema = 25fps
- PAL = 24fps (also 4% schneller)
- NTSC = 30fps (ebenfalls 4% schneller, da 6 frames verdoppelt)
Original geschrieben von tokugawa
Aber schau wirklich mal ins PDF das ich gepostet hab (ab Folie 12 auf Seite 3 glaub ich), da ist es relativ gut beschrieben. Werd' ich machen !

Razor

MarcWessels
2004-05-09, 02:50:28
Original geschrieben von r@h
Aber um 'flüssige' Bewegungen zu 'schauen', reichen bekannter maßen ja die 25 vom fernsehen (in Deutschland, denn das Ami-TV ist mir zu 'schleierhaft' ;-), oder erkennt hier irgend jemand ein 'Ruckeln' beim "in die Röhre schaun' " ?

Die Unterschiede wurden oben schon erklärt-> Zwischen Filmen und in Echtzeit berechneter Grafik bestehen Riesenunterschiede, was die nötige Framerate angeht.

MarcWessels
2004-05-09, 02:51:47
Original geschrieben von DasToem
Spiele: nein (mit sehr wenigen Ausnahmen)

Zudem ist's in Spielen allerhöchstens als Stilmittel zu gebrauchen. Richtiges und für das Gehirn kompatible Motionblur kann nicht in Echtzeit berechnet werden.

MarcWessels
2004-05-09, 02:54:49
Original geschrieben von r@h
Deswegen macht auch z.Bsp. ein Frame-Limiter in Games sinn, wenn dieser bei 120Hz eben auf 30fps gestellt wird. Wenn zudem noch CPU und GPU in der Lage sind, das Bild bei 30fps im WorstCase-Scenario zu halten, wäre das schlicht der absolute Idelafall. Bei 100Hz wären dies eben 25fps und vice versa...

Und auch für Dich eine kleine Gedankenstütze:
Was bitte sollen Dir 60fps bei 100Hz nützen ?

Eine Framelimiter wäre der falsche Weg - der richtige Weg wäre VSync mit Teiler.

Da es socle festen teiler nicht gibt, habe ich die 60fps zu 60hz angegeben - und die kann man mit geeigneter Hardware auf jeden Fall EHER halten als beispielsweise 100fps.

MarcWessels
2004-05-09, 03:00:42
Original geschrieben von r@h
Versuch es doch bitte...
(würde mir nur ungern deswegen extra ein Buch kaufen ;-)

Sag mir, warum beim Fernsehen 25fps reicht, was selbstredend auch auf die ganzen Konsolen zutrifft. Beim Computer aber nicht.

Razor


Konsolenspiele laufen mit GANZEN Bildern, sprich 50fps (PAL) oder 60fps(NTSC)!

Und wenn Du bei Filmen genau hinguckst, siehst Du selbt dort ein Ruckeln (trotz der Bewungungsunschärfe, die durch die Kameralinse erzwugt wurde). Setz Dich mal ins Kino und achte auf lange Kamerafahrten an Brückenpfeilern entlang-> Richtig, die Pfeiler ruckeln an der Kamra vorbei!!

Als der 24fps-Standard geboren wurde, handelte es sich um einen Kompromiß aus technischer Sciht denn den Entwicklern war durchaus klar, daß 24fps nicht wirklich das Optimum für das menshcliche Auge darstellen.

Tigerchen
2004-05-09, 05:10:02
Original geschrieben von r@h
Tjo...
Ich habe den 'Vorteil' schon ein wenig älter zu sein und damit schon so einiges in dieser Richtung erlebt. Auch bei der gf3 haben damals die Leute gejault: "Wozu DX8 ? Und auch noch langsamer als 'ne gf2u !" und wie hat sich das entwickelt ?

Richtig, fast 2 Jahre hat das Kärtchen 'gehalten' (zum Schluß war sie schon recht 'langsam' ;-), bis ich die Notwendigkeit sah' hier einzugreifen.

Und da sind sehr viel mehr als "nur 2 Tech-Demos" erschienen, die mich fast umgeworfen haben. Du bist offenbar kein Freund von Scene-/Tech-Demo's, oder ?
:D

Razor

P.S.: Klar, wenn Du NUR spielen willst, wirst Du vermutlich noch ca. 6 Monate ohne Quali-Verlust gamen können, wenn SM3.0 nicht zum Feature-Set Deiner GraKa gehört... ;)

Bei mir hat die nur 9 Monate gehalten weil AF mit der Karte quälend langsam war. An zusätzliches AA war gar nicht zu denken. Was nutzen mir die Features wenn die GF3 zu langsam war um die überhaupt schnell genug darzustellen.

Tigerchen
2004-05-09, 05:13:27
Original geschrieben von r@h
Falsch.
(siehe oben)

Und klar, die Vertikal-Frequenz des Moni's sollte schon ein Vielfaches der dargestellten Bildchen sein.
(im Idealfall selbstredend ;-)

Deswegen macht auch z.Bsp. ein Frame-Limiter in Games sinn, wenn dieser bei 120Hz eben auf 30fps gestellt wird. Wenn zudem noch CPU und GPU in der Lage sind, das Bild bei 30fps im WorstCase-Scenario zu halten, wäre das schlicht der absolute Idelafall. Bei 100Hz wären dies eben 25fps und vice versa...

Und auch für Dich eine kleine Gedankenstütze:
Was bitte sollen Dir 60fps bei 100Hz nützen ?

Richtig, 25fps wären bei 100Hz ideal, 60fps hingegen nicht (bei 120Hz hingegen schon, allerdings wage ich zu bezeweifeln, dass CPU und GPU in der Lage sind die 60fps auch im Worst-Case zu halten ;-).

Razor

Falsch. Spiele bzw. Treiber sollten immer einen Tripplebuffer unterstützen und viele tun das auch. Man bemerkt nämlich sehr wohl die Sprünge zwischen 25, 50 und 100 fps.

Tigerchen
2004-05-09, 05:24:49
Original geschrieben von dildo4u
http://www.3dcenter.de/artikel/2004/05-05.php

"Zuerst einmal müssen wir die Angabe in der Tabelle korrigieren, die Radeon X800SE hätte nur ein 128 Bit Speicherinterface - dies ist so nicht zutreffend. Der Standard bei dieser Karte wird ebenfalls bei 256 Bit liegen, so wird diese auch anfänglich ausgeliefert werden."

dann is sie doch nicht so schlecht denk mal die karte wird sich so um 270-280€ einordnen und drüfte sie sich mit 450chip und 400speicher noch deutlich genug von der 9800pro für 200€ absetzen

Ah ja. Jetzt weiß ich wenigstens wie mir das passieren konnte.:)

r@h
2004-05-09, 10:11:46
Original geschrieben von MarcWessels
Die Unterschiede wurden oben schon erklärt-> Zwischen Filmen und in Echtzeit berechneter Grafik bestehen Riesenunterschiede, was die nötige Framerate angeht. Ist mir noch nicht schlüssig.
Warum also ?
:???:

Eklär mir doch einfach mal den Unterschied zwischen Konsolen und PC-Games.

Razor

r@h
2004-05-09, 10:17:00
Original geschrieben von MarcWessels
Eine Framelimiter wäre der falsche Weg - der richtige Weg wäre VSync mit Teiler.

Da es socle festen teiler nicht gibt, habe ich die 60fps zu 60hz angegeben - und die kann man mit geeigneter Hardware auf jeden Fall EHER halten als beispielsweise 100fps. Also schlägst Du ernsthaft vor, die Moni-Frequenz auf 60Hz zu stellen ?
Also irgendwie versth' ich Dich nicht...
Original geschrieben von MarcWessels
Konsolenspiele laufen mit GANZEN Bildern, sprich 50fps (PAL) oder 60fps(NTSC)!Wie sollen sie das denn machen ?
:???:
Original geschrieben von MarcWessels
Und wenn Du bei Filmen genau hinguckst, siehst Du selbt dort ein Ruckeln (trotz der Bewungungsunschärfe, die durch die Kameralinse erzwugt wurde). Setz Dich mal ins Kino und achte auf lange Kamerafahrten an Brückenpfeilern entlang-> Richtig, die Pfeiler ruckeln an der Kamra vorbei!!Jo, ein bissel...
Und ?

Glaube eher nicht, dass man locker die doppelte Anzahl der Bilder braucht, nur um das kaum merkbare Ruckeln wegzubekommen...
Original geschrieben von MarcWessels
Als der 24fps-Standard geboren wurde, handelte es sich um einen Kompromiß aus technischer Sciht denn den Entwicklern war durchaus klar, daß 24fps nicht wirklich das Optimum für das menshcliche Auge darstellen. Ah ja... und Milliarden Menschen geben sich micht diesem "nicht-Optimum" tagtäglich zufrieden. Nur die PC-Spieler nicht ?

Also man kann es auch wirklich übertreiben !
Langsam habe ich das Gefühl, dass es sich um "nice-to-have" und nicht um ein zwingendes "muss" handelt.

Razor

r@h
2004-05-09, 10:24:42
Original geschrieben von Tigerchen

Bei mir hat die nur 9 Monate gehalten weil AF mit der Karte quälend langsam war. An zusätzliches AA war gar nicht zu denken. Was nutzen mir die Features wenn die GF3 zu langsam war um die überhaupt schnell genug darzustellen. Tjo, dem wage ich doch einfach mal zu wiedersprechen.

Als sie "zu langsam" war, ist von mir ausgetauscht worden... und das war nach locker 2 Jahren. Man sollte allerdings auch erwähnen, dass ich mir diese ca. 1 Monat nach Regal-Release geholt habe (vielleicht war das bei Dir ja ein bissel später ?) und so von Anfang an mit dem Kärtchen 'spaß' hatte... was ich im übrigen immer so mache, wenn ich wirklich überzeugt bin.

Die gf4ti war ja wohl ein Witz, oder ?
Angebliche Technologie-Erweiterungen und einen kräftigen Bug im AF, der das Teil dort kräftig ausbremste.

Sorry, aber so etwas muss ich mir wirklich nicht antun... wie auch den R8500 von ATI (*würg*). Nee... Und mit R95+, FX58+ hab' ich es mir so schwer gemacht, wie noch nie zuvor, weil mich einfach NICHTS so richtig überzeugen wollte... bis ich in den sauren Apfel biss und mir das "geringste übel" zugelegt hab', die FX5900 (für günstige 316€ - so wenig hab' ich noch nie für 'ne GraKa bezahlt - dafür wird sie auch bald wieder raus fliegen ;-).

In diesem Sinne

Razor

r@h
2004-05-09, 10:26:26
Original geschrieben von Tigerchen
Falsch. Spiele bzw. Treiber sollten immer einen Tripplebuffer unterstützen und viele tun das auch. Man bemerkt nämlich sehr wohl die Sprünge zwischen 25, 50 und 100 fps.Und was war jetzt "falsch" an meiner/meinen Aussage/n ?
:???:

Razor

Tigerchen
2004-05-09, 10:44:00
Original geschrieben von r@h
Tjo, dem wage ich doch einfach mal zu wiedersprechen.

Als sie "zu langsam" war, ist von mir ausgetauscht worden... und das war nach locker 2 Jahren. Man sollte allerdings auch erwähnen, dass ich mir diese ca. 1 Monat nach Regal-Release geholt habe (vielleicht war das bei Dir ja ein bissel später ?) und so von Anfang an mit dem Kärtchen 'spaß' hatte... was ich im übrigen immer so mache, wenn ich wirklich überzeugt bin.

Die gf4ti war ja wohl ein Witz, oder ?
Angebliche Technologie-Erweiterungen und einen kräftigen Bug im AF, der das Teil dort kräftig ausbremste.

Sorry, aber so etwas muss ich mir wirklich nicht antun... wie auch den R8500 von ATI (*würg*). Nee... Und mit R95+, FX58+ hab' ich es mir so schwer gemacht, wie noch nie zuvor, weil mich einfach NICHTS so richtig überzeugen wollte... bis ich in den sauren Apfel biss und mir das "geringste übel" zugelegt hab', die FX5900 (für günstige 316€ - so wenig hab' ich noch nie für 'ne GraKa bezahlt - dafür wird sie auch bald wieder raus fliegen ;-).

In diesem Sinne

Razor

Hab mir im Dezember ne GF3 Ti200 gekauft und sofort auf 210/500 Mhz übertaktet. Schon im Sommer kam SoF 2 und die GF3 ruckelte wie verrückt sobald ich es wagte AF zu aktivieren. Sorry, da lieber winkelabhängiges aber immer nutzbares AF. Also hab ich mir im September 2002 dann die R9700 Pro geholt und die läuft immer noch sehr gut. Das war das erste mal daß ich so viel Geld für ne Grafikkarte ausgegeben hab und es nicht bereut. Bezweifel aber daß ich nochmal so viel Geld ausgebe. Dafür bietet mir die die neue ATI nicht genug. Am nV40 stört mich nichts außer den 2 Stromsteckern und dem ebenfalls hohen Preis.

Also wie gesagt. Ich war sehr enttäuscht von der GF3. Eine Grafikkarte für 500,-DM sollte nicht nach 6 Monaten veraltet sein.

Tigerchen
2004-05-09, 10:47:39
Original geschrieben von r@h
Und was war jetzt "falsch" an meiner/meinen Aussage/n ?
:???:

Razor

Die Sache mit dem Framelimiter. Den kann man sich nämlich schenken beim Tripplebuffer. Ist zumindest mein subjektiver Eindruck wenn ich den letzten Indiana-Jones mit z.B. Jedi Knight 2 vergleiche.

Aquaschaf
2004-05-09, 10:53:05
Original geschrieben von r@h
Ist mir noch nicht schlüssig.


In Filmen gibts Motion-Blur, in Spielen nicht. Auch gibts in Filmen in der Regel nicht so schnelle Kamerabewegungen wie z.B. bei einem Shooter; wo man sich in einer Sekunde mal eben um 360° drehen kann.

r@h
2004-05-09, 10:59:58
Original geschrieben von Tigerchen
Also wie gesagt. Ich war sehr enttäuscht von der GF3. Eine Grafikkarte für 500,-DM sollte nicht nach 6 Monaten veraltet sein. Tjo, ich hab' 870 Märker dafür raus getan (für die ur-gf3 wohlgemerkt) und bei mir war sie erst nach fast 2 Jahren 'veraltet'. Mit SoF2 hatte ich überhaupt keine Probleme...

Razor

r@h
2004-05-09, 11:01:46
Original geschrieben von Tigerchen

Die Sache mit dem Framelimiter. Den kann man sich nämlich schenken beim Tripplebuffer. Ist zumindest mein subjektiver Eindruck wenn ich den letzten Indiana-Jones mit z.B. Jedi Knight 2 vergleiche.
Wieso kann man sich das schenken, wenn man maximum uns minimum auf dem gleichen Level hält ?
:???:

Triple-Buffer dämpft diesen Asynchronisationseffekt von fps zu Moni-Frequenz nur ein bissel ab.

Razor

r@h
2004-05-09, 11:05:22
Original geschrieben von Aquaschaf
In Filmen gibts Motion-Blur, in Spielen nicht. Auch gibts in Filmen in der Regel nicht so schnelle Kamerabewegungen wie z.B. bei einem Shooter; wo man sich in einer Sekunde mal eben um 360° drehen kann. OK, in dieser Situation (sehr schnelle 360°-Bewegung) mögen mehr fps sinn machen... ob man da allerdings 60fps 'braucht' mag aber immer noch im Raume stehen... 30 vielleicht 35 sollten absolut ausreichend sein (im Idealfall ein Teiler der Moni-Frequenz und darauf fixiert und nie langsamer ;-).

Razor

r@h
2004-05-09, 11:06:45
Sorry... hab' ich jetzt vergessen...

Warum sollte es bei PC-Spielen kein MotionBlurr geben ?
DoF-Effekte gibt es ja auch, also sollte dies doch eigentlich kein Problem sein.

Razor

Korak
2004-05-09, 12:18:03
Original geschrieben von r@h
Sorry... hab' ich jetzt vergessen...

Warum sollte es bei PC-Spielen kein MotionBlurr geben ?
DoF-Effekte gibt es ja auch, also sollte dies doch eigentlich kein Problem sein.

Razor

Wieso sollte? Es gibt kein passendes MotionBlur.
Was in Filmen durch die Aufnahmetechnik automatisch entsteht ist in Echtzeit nicht nachzubilden.

tokugawa
2004-05-09, 12:18:39
Original geschrieben von Aquaschaf
In Filmen gibts Motion-Blur, in Spielen nicht. Auch gibts in Filmen in der Regel nicht so schnelle Kamerabewegungen wie z.B. bei einem Shooter; wo man sich in einer Sekunde mal eben um 360° drehen kann.


Und man sitzt im Kino auch in einem dunklen Saal, was das "Nachleuchten" verstärkt. Bei manchen Kameraschwenks sieht man, wenn man genau hinsieht "Double Images".

MarcWessels
2004-05-09, 13:37:45
Original geschrieben von r@h
(im Idealfall ein Teiler der Moni-Frequenz und darauf fixiert und nie langsamer ;-).
Razor

Das wär ideal (60fps bei 120hz).

Tigerchen
2004-05-09, 15:52:00
Original geschrieben von r@h
Wieso kann man sich das schenken, wenn man maximum uns minimum auf dem gleichen Level hält ?
:???:

Triple-Buffer dämpft diesen Asynchronisationseffekt von fps zu Moni-Frequenz nur ein bissel ab.

Razor

Ein bisserl ist stark untertrieben. Und bei schnellen Drehungen sind höhere Frameraten klar "smoother" als zwar gleichbleibende aber eben vergleichsweise niedrige 30 fps.

r@w
2004-05-10, 13:01:21
Original geschrieben von MarcWessels
Das wär ideal (60fps bei 120hz). Was aufgrund der CPU-Limitierung der meisten Games als nahezu unmöglich sein dürfte.

Razor

r@w
2004-05-10, 13:05:25
Original geschrieben von Tigerchen
Ein bisserl ist stark untertrieben.Es dämpft das Ruckeln bei aktiviertem vSync ein wenig, eleminiert es aber nicht. Auch steigt dadurch der Speicherbedarf an lokalem Video-Speicher, was sicher auch nicht immer erwünscht ist...
Original geschrieben von Tigerchen
Und bei schnellen Drehungen sind höhere Frameraten klar "smoother" als zwar gleichbleibende aber eben vergleichsweise niedrige 30 fps.Jo, hatte ich aber bereits schon geschrieben...

Razor

seahawk
2004-05-10, 13:11:37
Original geschrieben von r@h
Tjo, ich hab' 870 Märker dafür raus getan (für die ur-gf3 wohlgemerkt) und bei mir war sie erst nach fast 2 Jahren 'veraltet'. Mit SoF2 hatte ich überhaupt keine Probleme...

Razor

Kann ich bestätigen meine wurde erst im Früjhr 2003 von einer 9700pro abgelöst.

Tigerchen
2004-05-10, 15:47:30
Original geschrieben von r@w
Es dämpft das Ruckeln bei aktiviertem vSync ein wenig, eleminiert es aber nicht. Auch steigt dadurch der Speicherbedarf an lokalem Video-Speicher, was sicher auch nicht immer erwünscht ist...
Jo, hatte ich aber bereits schon geschrieben...

Razor

Tripplebuffer erhöht die Framerate bei aktiviertem VSync teilweise dramatisch. Der zusätzliche Speicherbedarf hat sich bei mir erst einmal bemerkbar gemacht. Bei "Call of Duty". Ich weiß wirklich nicht warum du den Tripplebuffer schlecht reden willst.

MarcWessels
2004-05-10, 19:01:11
Original geschrieben von r@w
Was aufgrund der CPU-Limitierung der meisten Games als nahezu unmöglich sein dürfte.

Razor

60fps min ist bei mehr Spielen möglich als Du denkst. Da ein fester Teiler aber leider nicht angeboten wird, spiel ich freiwillig in 60hz.

tokugawa
2004-05-10, 20:50:00
Original geschrieben von r@h
Beim Fernsehen ?
Da ergeben 2 (aufeinanderfolgende) Halbbilder eben genau ein Bild.
Und im Kino gibt es keine Halbbilder und derer eben exakt (mehr oder weniger ;-) 25 Stück.

Bei den Konsolen mag das anders sein... da kenn ich mich nicht so aus.
Ja mach mal... tät mich wirklich interessieren !
(und sicher auch noch einige andere hier ;-)
Thx for the links !
:up:

Hoffentlich find' ich mal die Zeit, mich da einzulesen...
Ich glaub' Dir wirklich, dass Du von dem Buch begeistert bist und auf das Diagramm bin ich auch schon sehr gespannt... ;)

Razor

Mann, hab ich lang gebraucht bis ich endlich den Thread wiedergefunden hab, wo ich das mit dem Buch erwähnt hab.

OK, hier ist jedenfalls mal ein Scan von der Seite mit dem netten Motion Aliasing Diagramm, das ich meinte: http://www.cg.tuwien.ac.at/~chiu/rr_aliasing.jpg

Aber für die 30 vs 60 Hz Diskussion sind doch die anderen angegebenen Links (unter anderem das PDF von der Echtzeitgrafikvorlesung meiner Uni) besser.

Gortha
2004-05-14, 12:08:17
<flame>
Leute Ra@ gehört eingfach zu einer Minderheit, welcher
langsame Grafikkarten reichen, da sie keine TOP-FPS(chooter)
und dergleichen spielen.
Wenn er lieber Techdemos abspielt soll er das tun so viel
er will... nur haben wir den Qualli unterschied zwischen
Sahder2.0 und 3.0 bei FC ja bewundern können - er war
nicht vorhanden. Man kann mit Shader2 das selbe machen wie
mit Shader3, nur Shader3 ist hin und wieder was performanter
uauch angenehmer zu bearbeiten.
Ich bin kein 3d-Shader-Freak, daher kann es sein, dass
Sahder 3.0 mal mehr Quali bringt, dann aber nciht
performant genug auf einer 6800.

Eventuell leuchtet ihm jetzt nach 2 Seiten
hreaddiskussion ein, abgeschlossen
durch den Scan, warum 25 gerenderte Bilder pro Sekunde
nicht wirlich angenehm sind, sondern erst 35+.

Spielbar ist es mit 25 sicherlich aber nicht angenehm.

Und da ra@ ja so alt ist hatte er noch nie etwas von
Motionblur gehört... dann aber weiterhin bei seinem falschen
Standpunkt zu bleiben finde ich nicht gerade alt/reif.
</flame>

So jetzt hab ich mich abgeregt.
:chainsaw:

Gortha

Wishnu
2004-05-14, 23:03:08
Original geschrieben von r@h
So einen Blödsinn hab' ich ja noch nie gehört... sorry.
Meine Maus wird mit glatten 800Hz abgetastet und das IMMER.

Was Du meinst, ist schlicht eine Sache der Engine. Und in GPU-limitierten Scenen, hat die CPU ja noch genügend Zeit, das Fadenkreuz nachzuziehen. Ich habe fast das Gefühl, dass wir aneinander vorbei reden...

Bitte keinesfalls CPU- mit GPU-Limitierung verwechseln !

Razor

Habe das eben leider jetzt erst gesehen, daher die verspätete Antwort:

Deine Maus wird also mit 800Hz abgetastet?
Ich kenne nur USB mit 125Hz und PS2 mit 40-200Hz.
Bist Du sicher, dass Du nicht 800 DPI (sprich die optische Auflösung) meinst?

Und die Rückmeldung der Mausbewegung kann ja nur über die gerenderten Frames erfolgen; bei 20fps bekommt man eben nur 20 Rückmeldungen/s, also arbeitet die Maus in diesem Fall effektiv mit 20Hz (dabei ists ja egal, ob mein Rechner im Hintergrund weiterhin 125 Signale entgegen nimmt, da in diesem Fall nur 20 'fühlen kann).

Kann man wunderbar sehen, wenn man bei einem Spiel (bspw. CS) die fps auf 20 begrenzt.

Außerdem frage ich mich, was Du mit "in GPU-limitierten Scenen, hat die CPU ja noch genügend Zeit, das Fadenkreuz nachzuziehen" meinst. In einem typischen Shooter ziehst Du doch keinen Mauscursor (wie bspw. auf dem Desktop) durch die Gegend. Eine Bewegung der Maus verändert hier den zu rendernden Bereich. Wie willst Du denn hier einfach mal schnell was per CPU nachschieben, ohne das ganze Bild neu zu rendern?

CrassusX
2004-05-18, 22:18:15
...

CrassusX
2004-05-18, 22:18:16
Es gibt immer Karten die teurer sind und trotzdem weniger Leisten. Man schaue sich z.B. ältere 256mb versionen an.
Dafür gibt es ja schliesslich auch Vergleichstest, damit man immer schauen, was einem preisleistungsmässig am besten liegt.

Zauberer
2004-05-19, 13:05:05
Original geschrieben von LovesuckZ
Nunja, ATi kann nur über den Speed gewinnen. Umso schwerer wird es den Kunden für die karten um 299€ und 399€ zu gewinnen, da diese entweder langsamer oder gleichschnell zur Nvidiakonkurenz sind, jedoch weniger Features unterstuetzen.
Bei der X800SS sieht es noch schlechter aus, da sie gleichzeitig zur 6800 kommt, jedoch gegenüber der vorigen gegenration bis auf 3dc keine Neuerung bietet und sogar nur ein 128Bit Speicherinterface hat.

1. Die Karte heißt "SE" und nicht "SS", "SS" gab es früher mal, das hatte aber nichts mit Grafikkarten zu tun bzw. gab es zur der Zeit überhaupt keine Grafikkarten.

2. Du NVidi.. die "SE" wird es auch mit 256Bit Speicherinterface geben, ich behaupte hier ja auch nicht das die "6800" von Nvidia ein 128Bit Interface hat.

3.
Lies meine Signatur, ich meine nicht den Cheat! :D

4.
Ich wollte mal back to Topic kommen, weil man das Posting von "dildo4u" leicht in der Fülle der Beiträge übersehen kann.
Aber Mäuse die mit 800 Hz abtasten, finde ich auch lustig! *g*

betasilie
2004-11-11, 17:24:37
Noch mal zum mitmeißeln:

Für den NV40-Käufer bringt das, solange er den NV40 einsetzt, wenig bis gar nichts.

Da 3.0 auf dem Weg zu 4.0 liegt, gehen 3.0-Features in 4.0 mit ein. 3.0 als überflüssig wegdiskutieren zu wollen ist so ähnlich, wie den 1.4-er für unsinnig zu halten, nur weil er so selten eingesetzt wurde.

Soweit ich weiß, will XGI auch 3.0-compliant Karten bringen. Ehe es (eine relevante Zahl) 4.0-Spiele gibt, werden wohl noch viele Jahre ins Land ziehen. Aber auch wenn es schon 4.0-HW gibt, wird der Entwickler ja nicht daran gehindert, seine HLSL-Shader u. a. auch mit dem 3_0-Profil übersetzen zu lassen.
Niemand sagt, dass SM3.0 überflüssig ist. :rolleyes: Nur bringt es dem Spieler erstmal wenig bis garnix.

Und XGIs neue Chip wird doch kein SM3.0 Chip.

Gast
2004-11-11, 17:28:05
@ beta
du hast den falschen Thread erwischt. ;)

betasilie
2004-11-11, 17:29:11
@ beta
du hast den falschen Thread erwischt. ;)
Jau, auch schon gemerkt. :redface:

Dunkeltier
2004-11-11, 17:39:47
Ein Überfeature sind PS3.0 sicherlich nicht, allerdings würde ich diese auch nicht als so unnütz abtun wollen, wie das oft dargestellt wird.
Die Spieleprogrammierer scheinen ja ganz angetan zu sein davon, es soll auch nicht allzu aufwendig sein, PS3.0 in eine vorhandene Engine zu integrieren.
Wir werden sehen, ob dieser technologische Vorsprung NVIDIA Pluspunkte bringen wird, ein Fehler war dieser Schritt sicher nicht... Innovationen sind immer zu begrüßen.


Ein Fehler war es in dieser Hinsicht schon, man hätte sich die Transistoren sparen können und wäre besser mit 'ner hohen Taktrate gefahren. Somit bleibt SM3.0, welches bei intensiver Nutzung mit dieser GPU eh viel zu lahmarschig ist. Jedenfalls, wenn man damit die Effektqualität aufwerten will...

MechWOLLIer
2004-11-11, 17:46:13
Ein Fehler war es in dieser Hinsicht schon, man hätte sich die Transistoren sparen können und wäre besser mit 'ner hohen Taktrate gefahren. Somit bleibt SM3.0, welches bei intensiver Nutzung mit dieser GPU eh viel zu lahmarschig ist. Jedenfalls, wenn man damit die Effektqualität aufwerten will...
Mhm, dann frage ich mich, warum man nicht bei PS/VS 1.1 geblieben ist? Das SM2 verbraucht auch einige zusätzliche Transistoren und für wirklich massiven SM2 Einsatz, sind imo auch noch die heutigen Topmodelle zu langsam.
Und SM3 ist auf dem NV40 wohl kaum für den massiven Einsatz gedacht, sondern eher um manche Berechnungen zu verschnellern(was es auch tut), aber nicht viele.

Dunkeltier
2004-11-11, 18:14:41
Mhm, dann frage ich mich, warum man nicht bei PS/VS 1.1 geblieben ist? Das SM2 verbraucht auch einige zusätzliche Transistoren und für wirklich massiven SM2 Einsatz, sind imo auch noch die heutigen Topmodelle zu langsam.
Und SM3 ist auf dem NV40 wohl kaum für den massiven Einsatz gedacht, sondern eher um manche Berechnungen zu verschnellern(was es auch tut), aber nicht viele.


Die Radeons ziehen in Spielen in welchen SM2.0 gebraucht wird aber mehr als gut davon, gegenüber einer Geforce gesehen. Das ist halt die Krux an der Sache, entweder Transistoren für Leistung opfern oder Transistoren für 'ne neue Technologie verbraten. So wie ich das bisher sehe, kann nVidia bisher noch keine richtigen Vorteile aus dem SM3.0 ziehen. Erstens, weil die Spiele eine unheimlich lange Vorlaufzeit haben, bis endlich mal neu verfügbare Technik verwandt werden, und zweitens weil die meisten Spielehersteller sich immer auf den kleinsten technischen Nenner einigen. Das war ja auch schon zu Geforce 3/4 und Radeon 8500 Zeiten so. Trotz SM1.4 wird und wurde zumeist nur SM1.1 verwandt.

Mills
2004-11-11, 19:56:27
Wobei man natürlich sagen muss, das die zwei drei Spiele die dann wirklich mal die neuesten Technologien nutzen, zumindest optische Leckerli sind, die man ungern verpassen will. Besonders dann, wenn man nen Haufen Kohle für die Graka gelöhnt hat, oder ein eigentlich "NichtsotollesModell" erwischt hat welches aber ein seltenes Feature beherrscht... ;) War z.B. bei Matrox so und dem ersten Bumpmapping in Expendable. Andere Beispiele sind der Kyro mit seinem Tile Based Rendering, die Voodoo-Serie mit dem genialen aber langsamen 4xAA, auch T&L der GF-Serie war lange blanker eye candy...