PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80 Techdemos Highres Videos


Godmode
2006-12-01, 13:35:43
http://www.nvidia.com/page/geforce8.html

Hier kann man endlich die Videos in voller Qualiät anschauen.

Radeonfreak
2006-12-01, 14:12:06
Das ist schön aber ich möchte die Demos auf meiner Grafikkarte laufen sehen und nicht als Video :(
Das wär volle Qualität.

tombman
2006-12-01, 14:14:46
Trotzdem siehts aber sehr gut aus ;)

Den Frosch werd ich quälen, soviel ist sicher ;)

Beim Wassertest wars nahe an der Ruckelgrenze, da wäre interessant was SLI da noch reißen könnte ;)

Fatality
2006-12-01, 15:12:44
jo und für die biatch gibts den nakedpatch drauf :rolleyes:

Ronny G.
2006-12-01, 15:56:11
Die Frau hat ne hässliche Nase

S3NS3
2006-12-02, 11:49:05
Das Echtzeitfluid in dem Glaskasten ist ja mal krass !! *Staun*

Ronny G.
2006-12-02, 13:04:08
Genau dieser Rauchkasten sowie der Frosch sehen richtig gut aus, der Rest ist einfach Optisch gesehen nichts tolles, hat man alles schon mit DX9 gesehen.
Na mal schauen wie lange der shader4.0 wieder brauch um ne breite unterstützung zu finden, selbst der 3.0er hat es noch relativ schwer.

Gast
2006-12-02, 13:21:59
Na mal schauen wie lange der shader4.0 wieder brauch um ne breite unterstützung zu finden, selbst der 3.0er hat es noch relativ schwer.

lange, wie bei jeder einführung einer neuen technologie. für SM4 kommt noch erschwerend hinzu dass WinVista notwendig wird.

Spasstiger
2006-12-02, 13:24:23
für SM4 kommt noch erschwerend hinzu dass WinVista notwendig wird.
Mit OpenGL lässt sich dieselbe Funktionalität umsetzen, Nvidia bietet alle notwendigen Extensions an.

Gast
2006-12-02, 13:38:52
Mit OpenGL lässt sich dieselbe Funktionalität umsetzen, Nvidia bietet alle notwendigen Extensions an.

klar, aber trotzdem wird es mindestens 2 jahre brauchen bis der großteil die notwendige hardware hat.

Ronny G.
2006-12-02, 13:52:52
An der Hardware wird es nicht mangeln, eher an der Umsetzung in der Software, ist doch wie beim Dualcore.

Slipknot79
2006-12-02, 15:15:04
Trotzdem siehts aber sehr gut aus ;)

Den Frosch werd ich quälen, soviel ist sicher ;)

Beim Wassertest wars nahe an der Ruckelgrenze, da wäre interessant was SLI da noch reißen könnte ;)


Wer weiß obs FRAPs (oder ähnliche Software) da ned Probleme gemacht hat, also Leistung gfressen hat. Rennt vllt auf na Single G80 flüssiger als im Vid.

Gast
2006-12-02, 15:26:00
Und warum läuft das Ding jetzt nicht in Echtzeit auf einer 7900GTX?

Radeonfreak
2006-12-02, 15:40:22
Und warum läuft das Ding jetzt nicht in Echtzeit auf einer 7900GTX?


Weil dazu der Geometrieshader nötig ist und den gibt es nur unter DX 10 und Vista.

Coda
2006-12-02, 15:48:47
Den gibts auch unter OpenGL und XP.

Radeonfreak
2006-12-02, 16:27:52
Den gibts auch unter OpenGL und XP.

Na gut, geht aber trotzdem nich auf einer 7900`er.

LovesuckZ
2006-12-02, 16:42:27
An der Hardware wird es nicht mangeln, eher an der Umsetzung in der Software, ist doch wie beim Dualcore.

Der Unterschied zu einem Dualcore Prozessor liegt in der Tatsache, dass der G80 auch unter den jetzigen Gegebenheiten immer ein Leistungsplus bringt.

Ronny G.
2006-12-02, 18:48:58
trotzdem kann kein G80 User momentan das ganze Featureset seine Karte erleben, schätzungsweise in nem halben Jahr werden wohl die ersten Games mit DX10 erscheinen. Und selbst dann werden sicherlich nur jedes 5.Game DX10 nutzen, momentan nutzen ja nicht mal 50% Shader 3!

Slipknot79
2006-12-02, 20:22:10
trotzdem kann kein G80 User momentan das ganze Featureset seine Karte erleben, schätzungsweise in nem halben Jahr werden wohl die ersten Games mit DX10 erscheinen. Und selbst dann werden sicherlich nur jedes 5.Game DX10 nutzen, momentan nutzen ja nicht mal 50% Shader 3!

Das ist schon sehr optimistisch angesetzt oder?
Gibts wo ne Liste mit DX10 Spielen die gerade entwickelt werden? Spontan weiß ich auch nur Crysis^^

Gast
2006-12-02, 20:31:31
trotzdem kann kein G80 User momentan das ganze Featureset seine Karte erleben,

doch, er könnte sich selbst irgendwelche SM4-shader schreiben ;)

Chris Lux
2006-12-02, 20:38:36
Das ist schon sehr optimistisch angesetzt oder?
Gibts wo ne Liste mit DX10 Spielen die gerade entwickelt werden? Spontan weiß ich auch nur Crysis^^
Alan Wake bspw. ist MS auch zum Opfer gefallen.

joe kongo
2006-12-02, 21:11:28
Schade das sie nicht die Frosch-Features bei der Tussi eingebaut haben.:frown:

p.s. beim bikini hätte schon gereicht

Raver
2006-12-02, 21:26:46
hehe. Beim nächsten mal. :D

LovesuckZ
2006-12-02, 21:31:29
trotzdem kann kein G80 User momentan das ganze Featureset seine Karte erleben, [...]

Wem interessiert SM4?
Das ist der Punkt auf dem "i" und nicht der Strich.
Wer sich die Karte wegen SM4 gekauft hat, der hat natürlich einen deutlichen Fehlkauf getätigt.

Gast
2006-12-02, 21:50:26
Wem interessiert SM4?
Das ist der Punkt auf dem "i" und nicht der Strich.
Wer sich die Karte wegen SM4 gekauft hat, der hat natürlich einen deutlichen Fehlkauf getätigt.
Stimmt, aber der Käufer muss SM4 mitbezahlen, obwohl er es vielleicht niemals mit dieser Karte in Spielen nutzen wird.

Grestorn
2006-12-02, 22:24:33
Stimmt, aber der Käufer muss SM4 mitbezahlen, obwohl er es vielleicht niemals mit dieser Karte in Spielen nutzen wird.

Wie bei jeder neuen GraKa-Generation. Henne-Ei Problem.

Ohne Karten, die neue Features unterstützen, gibt es keine Spiele, die diese nutzen. Wenn man jetzt auch noch entscheidet, deswegen GraKas nicht mit neuen Features auszustatten, bleibt die Entwicklung stehen.

Diese Diskussion ist soooo alt...

Gast
2006-12-02, 22:31:47
Ob sie Features hat die nicht genutzt werden stört doch niemanden.

Chris Lux
2006-12-02, 23:16:19
hehe,
gerade beim g80 profitieren auch alte (SM2, SM3) applikationen automatisch von SM4 features. das dynamische load balancing (soweit es funktioniert bzw. aktiv ist derzeit), und sicher auch automatische optimierungen des shader codes auf neue instruktionen usw...

LovesuckZ
2006-12-02, 23:23:54
Stimmt, aber der Käufer muss SM4 mitbezahlen, obwohl er es vielleicht niemals mit dieser Karte in Spielen nutzen wird.

Bis auf die Sache mit dem GS profitiert der G80 Käufer schon heute von den Änderungen, welche Nvidia für nötig empfunden hat, um SM4 zu implementieren.
Somit sehe ich keinen bezahlten, aber unnötigen Ballast.

Razor
2006-12-03, 08:23:50
trotzdem kann kein G80 User momentan das ganze Featureset seine Karte erleben, schätzungsweise in nem halben Jahr werden wohl die ersten Games mit DX10 erscheinen. Und selbst dann werden sicherlich nur jedes 5.Game DX10 nutzen, momentan nutzen ja nicht mal 50% Shader 3!

Wus?
Jedes 5. Game?
Dann sind die Software-Developer bald pleite...
(20% der Spiele in 6 Monaten... neee ;-)

Man bedenke bitte, dass es für D3D10 einen extra Rendering-Pfad braucht... und explzite Unterstützung für WinVista, während SM2-Shader einfach SM3 kompliliert werden können und unter jedem Win-OS laufen, wen man ein bissel aufpasst.

Nie den Zusammenhang von D3D10 und Vista aus den Augen verlieren.
Denn ob sich das System überhaupt in 2007 durchsetzten wird, darf ich doch einmal hart anzweifeln.
Nicht einmal M$ geht von vor 2008 aus...

Aber zumindest ein paar von M$ gesponsorte Games wird es (spätestens) in 6 Monaten geben und ein paar Techdemos selbstverständlich.
Dass dann Speiel-Entwickler allerdings einfach Geld verbrennen, glaube ich eher nicht...

Razor

Razor
2006-12-03, 08:36:24
Der G80 wurde mit JEDER Faser für D3D10 und Vista entwickelt.
Das scheint sich mehr und mehr heraus zu kristallisieren...

Ist halt nur ein bissel zu früh, das Kartchen und die derzeitige Verbreitung (auch die im Januar) spottet jeder Beschreibung. Es ist also eigentlich überflüssig, die Karte jetzt schon für den Consumer-Markt zu produzieren... aber zumindets erhält man einen 'moralischen' Vorteil gegenüber dem Hauptkonkurrenten, den allerdings die Endanwender bezahen. Zumal ATI dank der Nähe zu M$ nun schon mit dem "Killer-Argument" D3D10.1 kommt...

Alles Marketing Leute und Taktik... mehr nicht.

Und welche Schwierigkeiten solch eine vollkommen anders ausgerichtete Technologie machen kann, dürften ja die G80-User am eigenen Leib gerade spüren. Das geht von exorbitantem Energiekonsum (während die Karte 'nichts' tut), über Kompatibilitätsschwierigkeiten und echten Software-Fehlern (in den Treibern), bis hin zur Nicht-Unterstützung neuer Games, bis die Treiber 'angepaßt' wurden. Dann gibt es noch die eine oder Hardware-Inkompatibilität auch und gerade in Verbindung mit SLI... und noch ein paar anderen Dinge, die mir absolut nicht gefallen (derzeit kein 4xSAA oder TSSAA z.Bsp.).

Ist ein bischen viel des 'Guten' und ein eindeutiges Zeichen für den Zustand der Entwicklung bei dieser neuen Technologie.
Man hätte es genauso machen sollen, wie ATI: Presamples an die Deleoper und gut... Release erst mit Vista, um die volle 'Pracht' zu zeigen...
(vor allem aber die volle Funktionalität ;-)

That's it.

Razor

Razor
2006-12-03, 08:55:09
Passt 'irgendwie' zum Thema:

Neuester Crysis-Trailer der D3D10-Effekt im Video zeigt.
http://downloads.guru3d.com/download.php?det=1528


Den gab es schon mal... aber das war nur die "ShakingCam"-Version von der E3.
Allerdings war dort das Grün des Grases um einiges kraftvoller, wie auch die sonstige Brillianz des Videos.
Keine Ahnung, wo hier jetzt der Unterschied sein soll.


Und nein, auch für G80-User gibt es hier kein 'echtes' Demo... geschweige denn Vista-Treiber.

Razor

P.S.: und by the way... das neue "Hellgate: London"-Trailer-Video finde ich inhaltlich und simmungsseitig um einiges beeindruckender!

LovesuckZ
2006-12-03, 10:06:35
Ist halt nur ein bissel zu früh, das Kartchen und die derzeitige Verbreitung (auch die im Januar) spottet jeder Beschreibung.

Welche High-End KArte hat sich den besser verkauft? :rolleyes:

Es ist also eigentlich überflüssig, die Karte jetzt schon für den Consumer-Markt zu produzieren...

Das ist vollkommen falsch.
Der User profitiert auch heute, wenn der Treiber nicht dazwischen funkt, vom G80. Sei es mit deutlich gestiegender Leistung oder mit einer deutlich besseren BQ.

Chris Lux
2006-12-03, 10:52:31
oh mann razor. das ist totaler spam was du da schreibst.

die karte wurde für 3d graphik entwickelt und nicht für ein OS. wenn ms sich nun entscheidet das direct3d, welches die neuen features ansprechbar macht, erst mit vista zu bringen wurde die karte trotzdem nicht für vista gebaut. jegliche features kann ich heute schon nutzen und zwar per OpenGL.

nochmal die karte wurde für 3d gemacht und soweit ich sehen kann macht sie 3d in klasse IQ und sehr guter performance. dazu kommt, wie ich schon geschrieben habe, dass automatisch viele alte applikationen von den vorteilen der g80 architektur profitieren... und ja auch ohne vista.

ich weiss nicht was dein problem mit dem g80 ist, ich habe dir in dem anderen thread schon aufgezeigt, dass es bis auf kleinigkeiten keine schwerwiegenden probleme mit dem g80 gibt. das größte problem was ich derzeit sehe ist die verfügbarkeit von treibern (x64 und vista)...

und welchen hellgate trailer meinst du, den letzten (beeindruckenden) den ich sah war komplett vorgerendert und nichts ingame.

Ronny G.
2006-12-03, 12:53:23
Der G80 ist auch kein Problem, eher ein fantastischer Grafikchip, nur sollte vielleicht nicht immer dank Shader4 und DX10 mit Zukunftsicherheit geworben bzw. Argumentiert werden, den das sind keine Stärken des G80.
Zumindest kann er sie nicht umsetzen.

Also wird es Shader4 inkl. DX10 noch schwerer als Shader3 haben? schade:rolleyes:

Gast
2006-12-03, 13:01:43
Der G80 ist auch kein Problem, eher ein fantastischer Grafikchip, nur sollte vielleicht nicht immer dank Shader4 und DX10 mit Zukunftsicherheit geworben bzw. Argumentiert werden, den das sind keine Stärken des G80.

Natürlich ist die Zukunftssicherheit des G80 eine Stärke. Wenn nicht der G80, welcher Chip ist sonst zukunftssicherer?


Zumindest kann er sie nicht umsetzen.

Natürlich.

Also wird es Shader4 inkl. DX10 noch schwerer als Shader3 haben? schade:rolleyes:

Langsam glaube ich, dass einige nicht verstanden, wie Spiele enstehen.
Das sind keine Lebewesen, welche aus dem Ei schlüpfen, sich in schöne Verpackungen zwängen und dann zum Media Markt laufen.
Mit dem G80 werden Grundlagen gesetzt, von denen wir in einen, maximal zwei Jahren profitieren werden.
Gleichzeitig profitiert der heutige User durch die deulich gestiegende Leistung.

LovesuckZ

Chris Lux
2006-12-03, 13:06:39
@ronny:
erklär mir das bitte mal genau. warum ist der g80 nicht zukunftssicher? warum sind die SM4 sachen schlecht an ihm?

Ronny G.
2006-12-03, 13:28:11
In der Theorie ist er Zukunftsicher, aber was bringt das wenn die Software(Games) nicht diese Schnittstelle nutzen, also ist das Argument fürn Popo.
Wenn ich dann noch höre das im nächsten Jahr nicht mal ne Handvoll Games mit Shader4&DX10 Unterstützung rauskommen sollen, was bringt mir dann solch ein tolles Feuture, leider nicht allzuviel.
Finde es ja selber traurig das dies so ist.

Gast
2006-12-03, 13:41:17
welcher codec ist das video ? es läuft bei mir extrem lahm.

Gast
2006-12-03, 14:07:55
Natürlich ist die Zukunftssicherheit des G80 eine Stärke. Wenn nicht der G80, welcher Chip ist sonst zukunftssicherer?


garkeiner, bei GPUs kann man niemals mit zukunftssicherheit argumentieren.

welcher codec ist das video ? es läuft bei mir extrem lahm.

WMV

Ronny G.
2006-12-03, 14:14:32
welcher codec ist das video ? es läuft bei mir extrem lahm.

Ist das nicht so ein HD Video, entweder kann deine Graka das nicht beschleunigen(Videobeschleunigung deaktiviert) oder falls es über die CPU geht ist die verdammt lahm.

Chris Lux
2006-12-03, 14:20:36
In der Theorie ist er Zukunftsicher, aber was bringt das wenn die Software(Games) nicht diese Schnittstelle nutzen, also ist das Argument fürn Popo.
Wenn ich dann noch höre das im nächsten Jahr nicht mal ne Handvoll Games mit Shader4&DX10 Unterstützung rauskommen sollen, was bringt mir dann solch ein tolles Feuture, leider nicht allzuviel.
äh sorry, also sollte nie fortschritt vorangetrieben werden, weil es immer eine weile dauert ehe die features flächendeckend eingesetzt werden?

die geforcefx kam mit sm2.0 unterstützung. zugegeben die unterstützung war langsam. wenige entwickler sind auf diesen zug aufgesprungen. die geforce6 kam mit sm3.0 unterstützung, welche zudem noch sehr schnell vom start weg war. zu diesem zeitpunkt sind viele spiele mit sm2.0+ unterstützung rausgekommen. jetzt kommt der g80 mit sm4.0 und schon sind spiele angekündigt die dies wirklich nutzen. also ist dein argument schon widerlegt. auch wenn es nicht so wäre ohne neue features in der hardware wird nie jemand neue sachen in spielen ausprobieren. selbst wenn sie es nicht täten die geschwindigkeit der neuen generation macht sie zu 100% gerechtfertigt... das war so, ist so und wird auch so bleiben...

Ronny G.
2006-12-03, 14:30:19
Klar muß man die Technik irgendwie voran treiben, ob man sich dann allerdings gleich die erste Graka mit dieser Unterstützung kauft(also aus Feuturesicht) bleibt jeden selber überlassen.
Natürlich wiegen die Vorteile in Sachen Bildqualität und Leistung mehr für die G80 , als dessen SM4.
Wenn du allerdings ne Handvoll Games pro erstem Jahr als Argument für den SM4 siehst dann weiß ich auch nicht, wahrscheinlich würden dir dann auch schon ne Shader4 Techdemo reichen;)
Ich werde mir auch den G80 kaufen, aber erst bei seinem Refresh. Soll ja nicht so aussehen als ob ich was gegen dieses Sahnestück hätte.

S3NS3
2006-12-03, 15:13:08
SM4 wird man kaum auf der Karte nutzen können. Zumindest nicht in der Zeit wo die als "Highend" gilt. Aber macht ja nichts. So kommt der Zug ins rollen und ausserdem ist die Karte ja auch so derbe schnell. Wenn ich mir nächstes Jahr nen neuen Rechner kaufe ist da ne G80 oder nachfolger drinne. Selbst wenn ich bei WinXP bleiben sollte !

Grestorn
2006-12-03, 15:20:43
SM4 wird man kaum auf der Karte nutzen können. Zumindest nicht in der Zeit wo die als "Highend" gilt. Aber macht ja nichts. So kommt der Zug ins rollen und ausserdem ist die Karte ja auch so derbe schnell. Wenn ich mir nächstes Jahr nen neuen Rechner kaufe ist da ne G80 oder nachfolger drinne. Selbst wenn ich bei WinXP bleiben sollte !

Genauso, wie man SM 3 auf 6800GTs kaum nutzen kann, gell? :)

Gast
2006-12-03, 17:23:58
Ist das nicht so ein HD Video, entweder kann deine Graka das nicht beschleunigen(Videobeschleunigung deaktiviert) oder falls es über die CPU geht ist die verdammt lahm.

das video ist in 1280x720, WMV-kodiert, das sollte jede halbwegs aktuelle cpu auch ohne hardwarebeschleunigung ohne probleme darstellen können.

LovesuckZ
2006-12-03, 17:25:42
garkeiner, bei GPUs kann man niemals mit zukunftssicherheit argumentieren.


Du willst also behaupten, dass eine GTX weniger zukunftssicherer als eine X1950XTX ist?
Sehr mutig.

Gast
2006-12-03, 17:40:57
Du willst also behaupten, dass eine GTX weniger zukunftssicherer als eine X1950XTX ist?


wo hab ich das behauptet?

ich habe gesagt es gibt keine zukunftssichere GPU, weder die x1900XTX noch die 8800GTX ist zukunftssicher.

zukunftssicherheit gäbe es höchstens wenn sich ATI&NV entscheiden würden die produktionszyklen drastisch zu erhöhen.

LolekDeluxe
2006-12-03, 17:41:56
Du willst also behaupten, dass eine GTX weniger zukunftssicherer als eine X1950XTX ist?
Sehr mutig.

Was nützt Dir die zukunftssicherere GK wenn man sich zwischen 15 fps (GTX) oder 18 fps (XTX) entscheiden muß bei einem neuen Speiel um 2008.;D

Razor
2006-12-03, 19:54:14
Welche High-End KArte hat sich den besser verkauft?

Ich wollte damit zum Ausdruck bringen, dass sich durch den G80 nicht die Hardware-Basis für SM4 bilden wird... geschweige denn irgendwelchen Einfluß auf Developer-Entscheidungen nehmen wird.

Es ging mir nicht um "High-End", sondern um die Verbreitung neuer Technologie...
Dies wird mit den G8x erst nächstes Jahr erfolgen, wenn Vista da ist und die Karten für den Mainstream bezahlbar werden (und so etwas, wie die 79GT vom Markt verschwindet, welche noch immer den absoluten P/L-Hammer darstellen).

Die ganze Situation ist ähnlich dem R300 damals... ebenfalls Technologie die man noch nicht braucht, pfeilschnell (und für damalige Zeiten, die beste BQ von ATI) und scheiß Treiber. Und leider auch uneingelöste Versprechen...

Das ist vollkommen falsch.
Der User profitiert auch heute, wenn der Treiber nicht dazwischen funkt, vom G80. Sei es mit deutlich gestiegender Leistung oder mit einer deutlich besseren BQ.

Na ja... da übertreiben wir aber mal nicht.

Das es so etwas wie anisotrope Filter gibt, wissen die meisten Nutzer überhaupt nicht.
Und denjenigen, die was damit anfangen können, fehlen die alten Hybrid- und reinen SS-Modi.

Nicht richtig Fisch noch Fleisch derzeit.

Und das mit dem Treiber ist emanent, denn es ist schon mehr als ärgerlich, wenn "der Treiber dazwischen funkt", oder?
Viel schlimmer finde ich es aber, dass derzeit ALLES ausser WinXP aussen vor gelassen wird.

Für viele (wie auch für mich) eine absolut untragbare Situation.
Nur ein einziger Treiber für genau eine Plattform... und der ist auch noch arg... öhmm... "belastet".

die karte wurde für 3d graphik entwickelt und nicht für ein OS. wenn ms sich nun entscheidet das direct3d, welches die neuen features ansprechbar macht, erst mit vista zu bringen wurde die karte trotzdem nicht für vista gebaut. jegliche features kann ich heute schon nutzen und zwar per OpenGL.

Witzig... aber was nützt Dir OpenGL, wenn es nicht einmal einen Treiber für Linux gibt?
Klar... aus Developer-Sicht (für Win5.x-32Bit-Systeme!) ist das Kärtchen schon sehr interessant... aber selbst da magelt es noch an Interoperabilität. Denn was nützt mir das Entwickeln von Software, wenn es (noch) nicht möglich ist, alle erdenklichen Plattformen mit einzubeziehen? Zum 'Spielen' (aus Developer-Sicht) bestens geeignet, aber nur für Projekte, die noch weit, weit in der Zukunft liegen... und dann ist dieses Stück "HighEnd" lange nicht mehr als solches zu bezeichnen.

nochmal die karte wurde für 3d gemacht und soweit ich sehen kann macht sie 3d in klasse IQ und sehr guter performance. dazu kommt, wie ich schon geschrieben habe, dass automatisch viele alte applikationen von den vorteilen der g80 architektur profitieren... und ja auch ohne vista.

Eben nicht... es mag so ziemlich kein altes Scene Demo laufen... im Software-Mode... klar, aber sobald man mal etwas ausgefalleneres Testen möchte "will es nicht so recht".

ich weiss nicht was dein problem mit dem g80 ist, ich habe dir in dem anderen thread schon aufgezeigt, dass es bis auf kleinigkeiten keine schwerwiegenden probleme mit dem g80 gibt. das größte problem was ich derzeit sehe ist die verfügbarkeit von treibern (x64 und vista)...

Du hast aufgezeigt, dass es für Dich keinen nennenswerte Probleme gibt. Das ist ein feiner, aber für mich entscheidender Punkt. Wenn ich diese Karte im Rechner hätte wären schlagartig 2 Betriebssysteme 'tot'... ist inakzeptabel... Stichwort "Treiber". Du tust so, als wäre das nur ein nebensächliches Problem, für mich ist das aber entscheidend...

...neben dem für mich inakzeptablen Energie-Verbrauch im idle, neben den teils extremen Unzulänglichkeiten des Treibers... auch in Sachen BQ (Stichwort 4xS/TSSAA... wie ja schon geschrieben), aber vor allem Inkompatibilitäten und neue, offenbar vom Treiber noch nicht berücksichtigte (also unbekannte) Games, obwohl die Engine selber ja schon sehr viel länger existiert... sieht eben nach 'gefriggel' aus, denn schließlich kommen andere nVidia-Karten ja wunderbar damit klar.

Wenn Dich das alles nicht stört oder Du einfach viele Sachen gar nicht ausprobierst... gut.
Nur muss das für andere ja nun nicht unbedingt zutreffen, oder?

und welchen hellgate trailer meinst du, den letzten (beeindruckenden) den ich sah war komplett vorgerendert und nichts ingame.

Mit diesem Vergleich wollte ich nicht auf die Darstellung, sondern vielmehr auf die Stimmung und den Hintergrund hinaus. Ich erwarte dieses Game mit Hochspannung (Hellgate) und FarCry... na ja, wird wohl wieder eine ähnliche Techdemo, wie es seinerzeit HL2 für ATI war... hoffentlich nicht mit der gleichen Konsequenz (also immer weiter nach hinten verschobenen Release-Terminen, diesmal vielleicht wegen dem D3D10-Pfad?). Was ich so bisher gesehen habe, unterschiedet sich Crysis von FarCry nicht wirklich in Sachen Gameplay... OK, man spielt nun gegen Roboter... oder waren es Aliens? Who knows? Whom iterests?

Habe mir sehr viel von Gothic3 versprochen und wurde bitter enttäuscht.
Hoffentlich wird sich das mit Crysis nicht wiederholen...

Sich aber jetzt dafür eine Karte zu kaufen... neee.
;)

Razor

Chris Lux
2006-12-03, 20:09:01
Für viele (wie auch für mich) eine absolut untragbare Situation.
Nur ein einziger Treiber für genau eine Plattform...waren es nicht mal 7 an der zahl *scnr*
Witzig... aber was nützt Dir OpenGL, wenn es nicht einmal einen Treiber für Linux gibt?
Klar... aus Developer-Sicht (für Win5.x-32Bit-Systeme!) ist das Kärtchen schon sehr interessant... aber selbst da magelt es noch an Interoperabilität. Denn was nützt mir das Entwickeln von Software, wenn es (noch) nicht möglich ist, alle erdenklichen Plattformen mit einzubeziehen? Zum 'Spielen' (aus Developer-Sicht) bestens geeignet, aber nur für Projekte, die noch weit, weit in der Zukunft liegen... und dann ist dieses Stück "HighEnd" lange nicht mehr als solches zu bezeichnen.
linux ist ein problem, welches mit einem neuen treiber (ja da kommen sicher welche) gelöst wird. aber meine hautpentwicklungsplattform ist xp x64. der aktuelle treiber hat seine macken, aber man kann IMO schon sehr gut damit arbeiten und extrem vom g80 profitieren (extrem in meinem fall, sonst faktor 2). klar für den endanwender gibt es derzeit nur viel bessere performance als neue features zu bestaunen. für entwickler ist der g80 aber schon super interessant (nicht nur spiele entwickler). aber weit, weit in der zukunft ist übertrieben, denn wie wir ja alles sehen wurden spiele angekündigt die genau diese features nutzen werden und nicht mehr allzuweit entfernt released werden.
Wenn Dich das alles nicht stört oder Du einfach viele Sachen gar nicht ausprobierst... gut.
Nur muss das für andere ja nun nicht unbedingt zutreffen, oder?

ich probiere sehr viele sachen aus und merke auch die angesprochenen probleme. diese sind aber doch recht kleine probleme, welche zu 100% gefixed werden. darauf kann man sich eigentlich verlassen. mit passt es auch nicht, dass keine treiberupdates kommen. ich warte da auch schon sehnsüchtig, aber wie gesagt bis auf ein paar kleinigkeiten macht die karte was sie soll. jetzt schon von hardwareproblemen zu sprechen oder der hardware ihren wert abzusprechen finde ich übertrieben.
na ja, wird wohl wieder eine ähnliche Techdemo, wie es seinerzeit HL2 für ATI war...
crytek arbeitet hauptsächlich mit ati zusammen ;) ich glaube eher die verschiebung hat was mit dem r600 zu tun als mit vista oder dem g80 ;)

mictasm
2006-12-03, 20:11:42
Wenn ich dann noch höre das im nächsten Jahr nicht mal ne Handvoll Games mit Shader4&DX10 Unterstützung rauskommen sollen, was bringt mir dann solch ein tolles Feuture, leider nicht allzuviel.

Mal davon abgesehen, dass du offensichtlich nicht die Zielgruppe für den G80 bist, wieviele Spiele kaufst du im Jahr? Bei mir sind es meist nur eine Hand voll. Für mich klingt dein Argument mit den wenigen Spielen wie die Beschwerde eines Raubkopierers...

Gruß,

MIC

just me
2006-12-03, 20:26:01
Wenn du dir nur ne Hand voll Spiele im Jahr kaufst , wieso hast du dann ein 88GTX SLI-Gespann + ein 30" ? -.-

Ronny G.
2006-12-03, 20:36:21
Weil er mehr Bencht als Zockt.

@mictasm
Erst Überlegen dann schreiben.;)

Razor
2006-12-03, 20:45:08
waren es nicht mal 7 an der zahl *scnr*

Ein Treiber für WinXP 32Bit... nicht für 64Bit (ein Treiber, nicht 2)
Für alle anderen Systeme... nix.

So besser?
:confused:

linux ist ein problem, welches mit einem neuen treiber (ja da kommen sicher welche) gelöst wird. aber meine hautpentwicklungsplattform ist xp x64. der aktuelle treiber hat seine macken, aber man kann IMO schon sehr gut damit arbeiten und extrem vom g80 profitieren (extrem in meinem fall, sonst faktor 2). klar für den endanwender gibt es derzeit nur viel bessere performance als neue features zu bestaunen. für entwickler ist der g80 aber schon super interessant (nicht nur spiele entwickler). aber weit, weit in der zukunft ist übertrieben, denn wie wir ja alles sehen wurden spiele angekündigt die genau diese features nutzen werden und nicht mehr allzuweit entfernt released werden.

Ich schrieb ja (worauf Du Dich auch bezogen hast), dass der G80 aus Entwickler-Sicht interessant ist, wenn auch mehr zum "herum spielen"... zumal ernsthafte Entwickler ja schon sehr viel länger Testsampels in Händen gehalten haben dürften. Ein Hinweis darauf dürften die schon bald erhältlichen "Demo-Spiele" sein, die einerseits von nVidia und andererseits von M$ bezahlt worden sein dürften (Du weißt, wie ich das meine ;-).

Was danach sein wird, mag die Zeit zeigen.

Glaube aber nicht, dass nVidia und M$ (und natürlich ATI ;-) jetzt grundsätzlich diesen Part der Spiele-Entwicklung übernehmen werden.

ich probiere sehr viele sachen aus und merke auch die angesprochenen probleme. diese sind aber doch recht kleine probleme, welche zu 100% gefixed werden. darauf kann man sich eigentlich verlassen.

Mich stört an der Situation aber, dass die Probleme teils 100%ig reproduzierbar sind und trotzdem nicht ungehend gefixt werden. Offenbar ist dies nicht so einfach, wie sich der Endanwender das vorstellt und läßt so sehr tief blicken. Könnte mir vorstellen, dass die offensichtlichen Probleme nur die Oberfläche ankratzen... die Ursachen hierfür aber sehr viel tiefer liegen.

mit passt es auch nicht, dass keine treiberupdates kommen. ich warte da auch schon sehnsüchtig, aber wie gesagt bis auf ein paar kleinigkeiten macht die karte was sie soll. jetzt schon von hardwareproblemen zu sprechen oder der hardware ihren wert abzusprechen finde ich übertrieben.

Für Dich mag es übertrieben sein... zumal Du ja offenbar Vorteile durch diese Karte erhälst, die andere überhaupt nicht nachvollziehen können. Für mich allerdings, der diese Karte nicht zum Entwickeln benötigt, aber auf der anderen Seite auf maximale Stabilität und Kompatibilität Wert legt, sieht das leider vollkommen anders aus.

Die Mehrperformance verpufft regelrecht bei mir, da ich 'nur' 1280x1024 fahre, ich aber nicht auf das geniale TSSAA verzichten mag (dies andererseits aber bei HDR tun muss ;-). Das AF wäre schon ein tragendes Argument, aber nun bin ich schon soooo lange 'ohne' ausgekommen, da kommt es mir auf ein paar Monate auch nicht mehr an.

Und wenn ich dann ein 'vernünftigeres' Produkt bekommen kann, was evtl. auch preislich interessanter ist und vor allem seine Stärken auch vollumfäglich zeigt (wenn auch nur in einigen Techdemos oder 'handverlesenen' Games ;-), umso besser.

JETZT ist der G80 einfach sein Geld nicht wert... ganz im Gegenteil.

crytek arbeitet hauptsächlich mit ati zusammen ;) ich glaube eher die verschiebung hat was mit dem r600 zu tun als mit vista oder dem g80 ;)

DAS wäre ja noch schlimmer!
Evtl. D3D10.1-only-Effekte?
Und 'echtes' Release dann irgendwann in 2008?
:D

Im Ernst: ohne Vista, nix D3D10, nix D3D10-Effekte.
Und dass diese Verschiebung mit dem G80 zusammen hängt, glaube ich auch nicht... obwohl Treiber für D3D10 schon 'interessant' wär', oder?
(jetzt nicht ganz ernst gemeint ;-)

Razor

Chris Lux
2006-12-03, 22:31:39
ich glaube jetzt verstehen wir beide uns endlich mal ;)

in spielen fehlt mir das TSAA auch sehr. das war eins der ersten sachen die ich getestet habe.

zuletzt (vor dem g80) gab es schon nur sehr selten wirklich neue treiber von nvidia. das war früher auch mal anders (bis nv40 zeiten glaub ich). die art von ati jeden monat neue treiber zu bringen würde ich mir von nvidia auch wünschen. vielleicht sogar ganz neue treiber, weg von der UDA... halt mit der neuen architektur auch neue treiber bringen, welche nicht bugs über x versionen mitschleppen.

Grestorn
2006-12-04, 07:45:02
in spielen fehlt mir das TSAA auch sehr. das war eins der ersten sachen die ich getestet habe.

Ich weiß nicht, ob ich Dir hier missverstehe - aber TSAA funktioniert doch wunderbar, jetzt sogar mit HDR Spielen a la Oblivion...

Benny12345
2006-12-04, 20:11:05
Hmm

Wüsste gern mal wielange die noch warten wollen bis man die Demos endlich als .EXE runterladen kann. Vielleicht läufts so grausam dass es eher peinlich wäre die zum Download anzubieten.....

Finds schon n bissl lächerlich von nVidia aber ist man ja inzwischen gewöhnt.

MfG Benny

mictasm
2006-12-05, 02:11:09
Wenn du dir nur ne Hand voll Spiele im Jahr kaufst , wieso hast du dann ein 88GTX SLI-Gespann + ein 30" ? -.-
Tja, überlege mal. Es soll Leute geben, die nicht nur spielen. Und es gibt sogar Leute, die gerne ältere Spiele mehrfach spielen. Wow, welch eine Überraschung.

Und für deinen Beitrag -> http://de.wikipedia.org/wiki/Plenk

Weil er mehr Bencht als Zockt.

Ich benche im Vergleich zu anderen ... überhaupt nicht.

@mictasm
Erst Überlegen dann schreiben.;)

*lol*


Zum Topic: Ich möchte sie auch gerne mal live probieren...

Gruß,

MIC

Coda
2006-12-05, 07:32:28
Wüsste gern mal wielange die noch warten wollen bis man die Demos endlich als .EXE runterladen kann. Vielleicht läufts so grausam dass es eher peinlich wäre die zum Download anzubieten.....

Es gab bisher immer zuerst die Videos. Was du meinst mit "ist man von nVIDIA gewöhnt" ist mir auch nicht klar.

Razor
2006-12-05, 19:50:44
Ich weiß nicht, ob ich Dir hier missverstehe - aber TSAA funktioniert doch wunderbar, jetzt sogar mit HDR Spielen a la Oblivion...

Zeigen!

Einmal mit TSSAA und einmal ohne (nicht TMSAA!)... idealerweise mit und ohne HDR.
Gerne auch ein anderes Game als Oblivion... zur not reicht aber auch das.

Razor

P.S.: ähm... Zeigen bitte... :D

crux2005
2006-12-05, 19:52:40
keine Chance :mad: :mad:

(TSSAA + HDR in Oblivion)

robbitop
2006-12-05, 19:53:53
Zeigen!

Einmal mit TSSAA und einmal ohne (nicht TMSAA!)... idealerweise mit und ohne HDR.
Gerne auch ein anderes Game als Oblivion... zur not reicht aber auch das.

Razor

P.S.: ähm... Zeigen bitte... :D

Was ist daran so ungewöhnlich? Sollte der G80 das in Oblivion nicht per default können? Zumindest war in irgendeinem Review sowas zu lesen.

Btw: sowas kann man bei ATI schon seit März 2006 sehen ;)

Razor
2006-12-05, 20:21:23
zuletzt (vor dem g80) gab es schon nur sehr selten wirklich neue treiber von nvidia. das war früher auch mal anders (bis nv40 zeiten glaub ich). die art von ati jeden monat neue treiber zu bringen würde ich mir von nvidia auch wünschen. vielleicht sogar ganz neue treiber, weg von der UDA... halt mit der neuen architektur auch neue treiber bringen, welche nicht bugs über x versionen mitschleppen.

Na ja... die UDA empfand ich eigentlich immer als positives "Feature".
Ob dies allerdings mit dem G80 noch realisierbar ist, dürfte fraglich sein...

Wiederum steckt da nVidia auch in einem Dilemma, da z.Bsp. Bugfixing für Games immer in diversen Strukturen nachvollzogen werden müsste, was den Entwicklungsaufwand auf dieser Seite wesentlich erhöhen dürfte.

Und die "Treiber-Versorgungs-Frequenz" ging eigentlich... klar, wenn man nur die offiziellen Releases (WHQL+beta) nimmt, war es ein wenig dürftig... nur die Situation jetzt mit dem G80 ist untragbar. Erst eine Vielzahl an Review-Treibern und nun nur ein einziger, der offiziell zu bekommen ist... und dann genau ein Treiber für ein Betriebssystem in nur einer Ausprägung. Dann die vollmundige Ankündigung eines "X10"-Treibers (was auch immer das sein soll), welcher dann ohne irgendwelche Erklärungen ausgeblieben ist.

Interessanter weise sieht das auf der Pre-G80-Schiene gar nicht mal so schlimm aus... ein Treiber, der überhaupt keine Schwächen zu haben scheint (vom OC jetzt mal abgesehen), dazu ein (wenn auch inoffizielles) Stereo-Panel und rundum funktionierende "Drumherum-Features" (wie PureVideo HD z.Bsp.). Insofern wüsste ich gar nicht, was ein neuer hier (jetzt!) bringen sollte.

Hoffen wir mal, dass sich nVidia nun voll auf den G80 konzentriert und das Teil jetzt wirklich vollumfänglich zum Fliegen bekommt. Spätestens im neuen Jahr muss so einiges funktionieren, was derzeit für viele (der wenigen ;-) vielleicht noch nicht so tragisch ist.

Razor

P.S.: habe gerade in einem Review gelesen, wie es um meine passive 7600GS im Firmenrechner in Sachen Stromverbrauch bestellt ist... führt glatt die Hitliste von unten an... allerdings auch in Sachen Performance (Spiele). Bin mal gespannt, wie sich das Teil im 3D-Desktop von Vista schlägt... ;)

Razor
2006-12-05, 20:23:13
Was ist daran so ungewöhnlich? Sollte der G80 das in Oblivion nicht per default können? Zumindest war in irgendeinem Review sowas zu lesen.

Sollte vielleicht... gesehen habe ich das noch nicht... auch in irgendwelchen Reviews nicht.

Btw: sowas kann man bei ATI schon seit März 2006 sehen ;)

Darum geht es hier aber nicht, mann!
:D

Razor

Mr. Lolman
2006-12-05, 20:27:47
keine Chance :mad: :mad:

(TSSAA + HDR in Oblivion)

Dann sind die (hohen) Computerbase Scores falsch?

crux2005
2006-12-05, 20:35:17
k.A.

aber bei mir geht TSSAA + HDR in Oblivion nicht
Nutze den 97.02

Gast
2006-12-05, 20:36:12
keine Chance :mad: :mad:

(TSSAA + HDR in Oblivion)

Das Problem sitzt vor dem Rechner...

The_Invisible
2006-12-05, 20:54:53
Dann sind die (hohen) Computerbase Scores falsch?

nein, sie ist auch mir reinem msaa haushoch überlegen

http://www.firingsquad.com/hardware/nvidia_geforce_8800_preview/page19.asp
http://www.hexus.net/content/item.php?item=7177&page=10

mfg

MartinRiggs
2006-12-05, 21:00:49
die von ct haben ja auch die 8800er getestet und kommen auch nicht auf so hohe scores bei Oblivion.
Irgendwie schreibt jeder was anderes:rolleyes:

Demirug
2006-12-05, 21:13:34
Und dass diese Verschiebung mit dem G80 zusammen hängt, glaube ich auch nicht... obwohl Treiber für D3D10 schon 'interessant' wär', oder?

Real soon now.

Logistische Probleme.

Was ich mich allerdings frage ist welches Treibermodel (XP oder Vista) zukünftig die Grundlage für nvidias Treiber sein wird? Ich vermute nämlich das man nicht wirklich zwei Treiber schreiben wird. Muß mir mal wohl anschauen was der Vista User Mode Treiber zum Kernel Mode Treiber schickt.

Razor
2006-12-05, 21:17:17
Logistische Probleme.

Was soll das denn bedeuten?
Haben die Jungs vergessen, wie man einen Treiber ins Netz stellt?
:confused:

@TSSAA+HDR in Oblivion (und Co., nicht zu vergessen!)

Ich rede von TSSAA, i.e. TransparentSuperSamplingAntiAliasing und nicht von was etwas anderem, wie 'normalem' MSAA aka MultiSamplingAntiAliasing.
(und wie man das vielleicht korrekter oder überhaupt erst korrekt ausdrückt ist mir vollkommen wurscht!*)

Razor

*um etwaigen Kommentaren vorzubeugen, die rein gar nichts mit der hier aufgekommenen Frage zu tun haben

Demirug
2006-12-05, 21:21:21
Was soll das denn bedeuten?
Haben die Jungs vergessen, wie man einen Treiber ins Netz stellt?
:confused:

Razor

Nein, es hat etwas mit NDAs und anderen Terminen von Microsoft zu tun.

Razor
2006-12-05, 21:24:49
Ah ja...
(wirklich klarer ist es jetzt aber auch nicht ;-)

Razor

Grestorn
2006-12-05, 22:10:12
Zum Thema TSSAA und HDR:

(Oblivion, HDR aktiv, 640x480, 16xQ)

mit TSSAA:

http://www.nhancer.com/downloads/Oblivion_mit_TSSAA.png



und jetzt ohne TSSAA:

http://www.nhancer.com/downloads/Oblivion_ohne_TSSAA.png


Wem das noch nicht offensichtlich genug ist, möge das Bild vergrößern.

Bei der neuen NeverwinterNights-Version 1.03 kann man im Spiel selbst AA einschalten (erkennt sogar 8x bei der G80!), aber da geht TSSAA nicht.

Also hat das Erzwingen von AA trotz HDR keinen Einfluss auf TSSAA, wohl aber wenn das Spiel FullScreen Post-Effects einsetzt. Durch geeignete Maßnahmen kann das Spiel dann zwar immer noch AA einsetzen, TSSAA hat dann aber keine Wirkung.

Und das Thema PostEffects + AA hat auch nichts mit dem neuen "HDR + AA erzwingen"-Flag zu tun.

ShadowXX
2006-12-05, 22:30:57
Und hier noch mal ein Bild aus HL2 mit TSAA und einmal ohne (es wird 1650x1050 8XQ/16HQAF verwendet):

Zuerst mit TSAA:
http://www.guardians-realm.net/hl2_tsaa.jpg

Und hier ohne TSAA:
http://www.guardians-realm.net/hl2_no_tsaa.jpg

Die Bilder sind für die, die meinten das TSAA überhaupt nicht funktioniert (und das waren mehrere)....

Benny12345
2006-12-05, 22:40:28
Es gab bisher immer zuerst die Videos. Was du meinst mit "ist man von nVIDIA gewöhnt" ist mir auch nicht klar.

Ich finds halt lächerlich. Die Demos sind doch schon ewig fertig. Wieso muss man die dann so lange zurückhalten....

MfG Benny

Razor
2006-12-06, 19:15:12
WoW!
Herzlichen Dank Euch beiden!

Besonders der Maschendraht-"Effekt" bei den Shots von Dir, Shadow, ist mehr als Augenscheinlich.
*lecker*

Und Du, Grestorn, hast Dir ja ein richtig hübesches Eckchen bei Oblivion ausgesucht.
Hast Du die Bildchen herunter skaliert oder ist das tatsächlich 640x480 im Original?
Leider kann man dort keinen HDR-Effekt erkennen und auch die durch Supersampling gewonnene Schärfe kommt nicht wirklich rüber...
...könnte fast reines MSAA sein. Und danke für Deine Ausführungen.

Ihr beiden habt viele andere im Netz Lügen gestraft, die ganz offenbar Probleme damit hatten, das von Euch gezeigte zu bekommen.
Danke nochmal!

Razor

Grestorn
2006-12-06, 19:32:16
Und Du, Grestorn, hast Dir ja ein richtig hübesches Eckchen bei Oblivion ausgesucht.
Hast Du die Bildchen herunter skaliert oder ist das tatsächlich 640x480 im Original?


Das ist 640x480 im Original, je geringer die Auflösung desto besser sieht man das Aliasing - natürlich nur, wenn es auf den gesamten Schirm skaliert wird, was ja hier beim Screenshot leider nicht der Fall ist.

Deswegen müsste man die Shots schon rausvergrößern um den Unterschied klar zu sehen.

Die Szene habe ich gewählt, da man jede Menge Alphatest-Texturen sieht (die ganzen Blätter). Ansonsten fällt das TSSAA am stärksten dadurch auf, dass die Vegetation eben nicht mehr flimmert, aber das sieht man ja nur in Bewegung, und nicht im Shot.