PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nächste GPU Generation (Ende 09)- Wie Bedarf rechtfertigen?


tombman
2009-04-02, 17:29:33
Hallo

Wenn man sich aktuelle benchmarks heutiger highend Gpus/Grafikkarten bei AAA Spielen ansieht wundert man sich doch
wieso man im PC Bereich überhaupt noch schnellere GPUs braucht.
Bis auf Crysis und Stalker CS sieht man doch fast nur noch 3-stellige AVG Werte- bei Full HD und maximalen Details!

Mit welchem Argument will man denn bitte schnellere GPUs und Grafikkarten verkaufen? DX11?

Konsolenhardware bestimmt aktuellen content- wird das nicht zum großen Problem für Nvidia und AMD(ATI)?

"Wow, jetzt statt 120fps 300fps!!!!11122" -> :confused:

Was meint ihr?

Euer tombi :)

p.s: eine Xbox720 oder PS4 sind sicher noch locker 2 Jahre entfernt- das sind mindestens noch 2 weitere GPU Generationen!

AnarchX
2009-04-02, 17:36:20
GPU-Computing, nicht umsonst bemüht sich NV in diese Richtung so.

Dazu sollen ja bis Ende 2011 auch 3D-Displays relativ hohe Verbreitung finden, wo man auch mehr Leistung benötigt.

V2.0
2009-04-02, 17:38:47
Also ich hätte die heutige Topleistung gerne bei weniger als 150W TDP.

derguru
2009-04-02, 17:41:12
schau dir doch mal die fps werte von sacred 2 mit physX an dann weißt du wo demnächst die performance gebraucht wird.
und auch Ambient Occlusion haut derbe auf die performance,ob man es braucht oder nicht ist ja egal.;)

alleine die letzten spiele wie stormrise,empire war oder auch H.A.W.X.laufen nicht gerade 1A.
in 1920*1200 +4aa/16af dümpelt man öfter mal unter der 30fps marke und das auch schon mit einer 285gtx.
oder den russenshooter wie Cryostasis,da ist die karte total überfordert.

[dzp]Viper
2009-04-02, 17:43:04
physX + DX10 Modus mal ordentlich beschleunigen. Fast alle Spiele brechen unter DX10 ordentlich ein (50% und mehr) und sind dann kaum noch ordentlich spielbar.

Dazu noch das Ambient Occlusion und schon haben wir die Rechtfertigung :D

mapel110
2009-04-02, 17:43:05
Es wäre wirklich mal Zeit für neue AA- und AF-Modi oder überhaupt etwas, dass die Bildqualität erhöht. Ambient Occlusion ist ja schon mal was. Wäre nur gut, wenns bei allen Spielen funktionieren würde.

tombman
2009-04-02, 17:43:45
Auf ner Konsole wirds aber kaum GPU-computing spielen- also wer schafft den content dafür?

Klar kann man mit mehr GPU Leistung tolle Sachen machen, aber wenn es in der REALITÄT nun mal niemand macht....

dargo
2009-04-02, 17:47:06
Konsolenhardware bestimmt aktuellen content- wird das nicht zum großen Problem für Nvidia und AMD(ATI)?

Auf der einen Seite hast du sicherlich recht. Auf der anderen Seite denke ich, dass die Spieleentwickler eventuell langsam umdenken und bei den Multiplattformtiteln eine höhere Skalierung nach oben bieten. Schließlich bekommt man heute für 150€ einiges an Grafikleistung angeboten und das ist Mainstream-Preissegment. Ich bin mal gespannt wie die Skalierung beim nächsten CE3-Titel auf dem PC ausschauen wird.

tombman
2009-04-02, 17:55:38
Ich bin mal gespannt wie die Skalierung beim nächsten CE3-Titel auf dem PC ausschauen wird.
Das wird vom dev abhängen.

Außerdem DARF die PC Version ja gar NICHT viel besser aussehen, weil die Leute dann genau darauf warten werden und im Vorbeidenken auch noch raubmordkopieren werden.

Da wirst du als dev ja gleich mehrfach gefickt:

1.) mehr Geld ausgegeben, um die engine skalierbarer zu machen
2.) die PC Version aufgemotzt- wieder Geld weg
3.) keiner kauft die Konsolenfassung, weil alle auf die hübschere PC Fassung warten- die dann auch noch raubkopiert wird :ugly:

Und wenn du aber die PC Version nur ein bischen besser sein läßt, wie heutzutage, gibts keinen Bedarf an schnelleren GPUs.

Teufelskreis :(

Spasstiger
2009-04-02, 17:56:48
Wenn ich alles mit 8x8-SSAA in 1920x1200 flüssig zocken könnte, wäre mir das ganz recht. :biggrin:
Und wenn man mal zurückdenkt, 1996 war das Zocken in 640x480 ohne AA und mit bilinearem Filtern das Non-Plus-Ultra. Heute könnte man problemlos in 640x480 mit 4x4-SSAA zocken. Also mal schauen, wie es in weiteren 13 Jahren aussieht. Vielleicht kann man dann auch in 1920x1200 mit 4x4-SSAA flüssig spielen.

LovesuckZ
2009-04-02, 17:58:11
Lustig, sind es doch vorallen Konsolenports, die über D3D10 verfügen. Wundert mich, dass die Leute immer noch diese Meinung vertreten, dass die Konsolenports den PC hemmen würden.

deekey777
2009-04-02, 18:05:01
Lustig, sind es doch vorallen Konsolenports, die über D3D10 verfügen. Wundert mich, dass die Leute immer noch diese Meinung vertreten, dass die Konsolenports den PC hemmen würden.
http://www.pcgameshardware.com/aid,680340/Ghostbusters-PC-version-beats-console-variant-in-graphics/News/

Da braucht man nichteinmal D3D10. Überhaupt ist D3D10 kein Garant für irgendetwas (weder für bessere Performance noch für bessere Qualität).

tombman
2009-04-02, 18:08:40
Lustig, sind es doch vorallen Konsolenports, die über D3D10 verfügen. Wundert mich, dass die Leute immer noch diese Meinung vertreten, dass die Konsolenports den PC hemmen würden.
Die FPS Werte zeigen doch schon, daß es eine Hemmung gibt. Entweder die Konsolen oder die Entscheidung der devs, daß jeeeeeeedeeeeer mit max Details spielen können muß....

Früher wars doch so, daß die devs und die GPU Bauer sich gegenseitig die Rechtfertigung gegeben haben.
Spiel XYZ war ja soooo geil, daß man unbedingt hardware ABC braucht ;)
Und Hardware 123 war ja sooooo schnell, daß das kommende Spiel MONSTERMÖRDERKLOPPEN 5000 erstmaaaaals flüssig rennt :naughty:

Ende 09 wird das dann aber nicht mehr funktionieren, weil jedes Kiddie sein Monsterkloppen 10000 Spiel schon jetzt mit 100 fps gamen kann ;D

[dzp]Viper
2009-04-02, 18:12:31
Das ist doch Schwachsinn tombman. Schau dir doch mal die aktuellen DX10 Titel an.. die haben FPS-Drops selbst mit aktuellen High-End Karten von 50%... mit Mainstream-DX10 Karten (8800er) ist an DX10 Titel eigentlich garnicht zu denken - funktioniert zwar aber das wars dann auch schon.

Genauso mit dem neuen Ambient Occlusion in Kombination mit qualitätiv hochwertigen AA-Modi geht selbst High-End-Karten die Luft sehr sehr schnell bei aktuellen Spielen aus.

Der nächste Vorteil ist, dass mit neuen Kartengenerationen die "alten" High-End-Karten auch für die breite Masse an Spielern langsam käuflich wird (finanziell gesehen).
Das wiederrum animatiert die Devs dazu mehr DX10 Effekte einzubauen - weil es jetzt auch der Mehrheit langsam was bringt...

Spasstiger
2009-04-02, 18:24:56
Die großen Grafiksprünge bleiben momentan auch deshalb aus, weil man bereits alles implementiert hat, was man bei Echtzeitdarstellung mit heutiger Hardware realisieren kann. Die nächsten größeren Sprünge wie Global Illumination fressen ungleich mehr Resourcen, ohne dass man allzuviel davon sieht. Außerdem werden die Spielwelten tendentiell immer größer, so dass die Contenterstellung immer aufwändiger wird. Da bleibt keine Zeit, jeden Quadratzentimeter individuell von Hand zu gestalten.
Die heutigen Fortschritte bewegen sich vor allem im Bereich der Spielmechanik. Dazu gehören vor allem die Animationen und die Physik. Eine der Stärken von GTA IV ist z.B. die Kopplung von Animationen und Physik. Wenn man von einem Auto angefahren wird, torkelt der Alter Ego erstmal bis er wieder die Balance gefunden hat und fällt vielleicht auch hin. Gleiches gilt auch für die Passanten. Außerdem läuft der Alter Ego Treppenstufen sauber ab und schwebt nicht über eine unsichtbare Rampe mit einer Beinestrampeln-Animation.

dargo
2009-04-02, 18:31:21
Die heutigen Fortschritte bewegen sich vor allem im Bereich der Spielmechanik. Dazu gehören vor allem die Animationen und die Physik. Eine der Stärken von GTA IV ist z.B. die Kopplung von Animationen und Physik. Wenn man von einem Auto angefahren wird, torkelt der Alter Ego erstmal bis er wieder die Balance gefunden hat und fällt vielleicht auch hin. Gleiches gilt auch für die Passanten. Außerdem läuft der Alter Ego Treppenstufen sauber ab und schwebt nicht über eine unsichtbare Rampe mit einer Beinestrampeln-Animation.
So schön die Physik in GTAIV auch sein mag, die grafische Umsetzung (ich beziehe mich hier vor allem auf die Schattendarstellung und fehlendes Antialiasing) ist grauenhaft. Ich hatte mich auch vom Hype leiten lassen. Am Anfang machte mir GTAIV auch Spass, doch mittlerweile halte ich keine halbe Stunde bei diesem Flimmerhaufen durch. ;(

Ailuros
2009-04-02, 18:34:51
Die großen Grafiksprünge bleiben momentan auch deshalb aus, weil man bereits alles implementiert hat, was man bei Echtzeitdarstellung mit heutiger Hardware realisieren kann. Die nächsten größeren Sprünge wie Global Illumination fressen ungleich mehr Resourcen, ohne dass man allzuviel davon sieht. Außerdem werden die Spielwelten tendentiell immer größer, so dass die Contenterstellung immer aufwändiger wird. Da bleibt keine Zeit, jeden Quadratzentimeter individuell von Hand zu gestalten.
Die heutigen Fortschritte bewegen sich vor allem im Bereich der Spielmechanik. Dazu gehören vor allem die Animationen und die Physik. Eine der Stärken von GTA IV ist z.B. die Kopplung von Animationen und Physik. Wenn man von einem Auto angefahren wird, torkelt der Alter Ego erstmal bis er wieder die Balance gefunden hat und fällt vielleicht auch hin. Gleiches gilt auch für die Passanten. Außerdem läuft der Alter Ego Treppenstufen sauber ab und schwebt nicht über eine unsichtbare Rampe mit einer Beinestrampeln-Animation.

Es werden zwar einige nicht uebereinstimmen, aber im Sinn des obrigen lautet die Antwort echte D3D10 Spiele (scheissegal ob auf der Schachtel DX11 draufsteht, weil irgend ein ehlendiger D3D11 path mitkommen wird).

Argo Zero
2009-04-02, 18:36:54
Ich bin eigentlich recht froh drum, so kann ich meine X1950XT noch ein Weilchen behalten ;)

Spasstiger
2009-04-02, 18:39:04
So schön die Physik in GTAIV auch sein mag, die grafische Umsetzung (ich beziehe mich hier vor allem auf die Schattendarstellung und fehlendes Antialiasing) ist grauenhaft. Ich hatte mich auch vom Hype leiten lassen. Am Anfang machte mir GTAIV auch Spass, doch mittlerweile halte ich keine halbe Stunde bei diesem Flimmerhaufen durch. ;(
In 2560x1920 @ 1920x1200 sieht es bei mir recht ordentlich aus, wobei man für die Auflösung eine GTX 285 haben sollte, und gegen die Grieselschatten gibt es auch ein Mittel:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=447492
Damit kann man auch Motionblur und Depth of Field ohne Fullscreen-Matschfilter aktivieren.

Soll aber keine Entschuldigung dafür sein, dass Rockstar Games kein AA implementiert hat. Das fehlende AA ist für den weniger experimentierfreudigen, aber qualitätsorientierten User auf jeden Fall ein Manko. Und wie man sieht, hätten High-End-Grakas auch noch Luft für MSAA in GTA IV in üblichen Auflösungen (z.B. 1680x1050, 1920x1200).

Ich hab übrigens eine Idee für eine schöne Techdemo für die nächste Grakageneration: Ein Überflutungssimulator, der in hübscher Grafik a la Crysis die Auswirkungen der globalen Erwärmung auf den Meeresspiegel zeigt. Das Ganze aber stilisiert und nicht maßstabsgetreu, damit es spektakulärer wirkt. Und dazu noch eine Option, Kometen per Mausklick auf die Erde zu schiessen, die Löcher auf der Oberfläche hinterlassen. Damit keiner auf die Idee kommt, die Überschwemmungen seien vorberechnet. ;)

Gast
2009-04-02, 19:06:35
Ich sehe den Bedarf noch nicht gedeckt, obwohl die Fortschritte dank des Preiskampfes sehr groß sind. Mir gefällt die Situation... auf jeden Fall besser, als nvidia lange Zeit alleine den Markt dominierte und sich gar nichts tat!

In erster Linie ist die nutzbare Auflösung gestiegen, was aber auch zwingend erforderlich ist.
Mittlerweile fangen die ersten 24-27" Screens schon bei ca. 180-280€ an, vor einiger Zeit war die Auflösung von 1920x1200 für viele Karten noch ein Hinderniss (mit AA/AF), mittlerweile kommen sie damit zu recht. 8xAA ist aber auch jetzt noch von den billigen Karten kaum zu bewältigen.
Aber ich sehe auch schon den nächsten Schritt, 30" TFTs mit 2560x1600 sind jetzt stark im Preis gefallen, früher noch ab 1400€, mittlerweile bei ca. 1000€ angelangt.
Wenn das so weiter geht, werden auch die irgendwann den Massenmarkt erreichen und bis dahin brauchen wir die Power auf jeden Fall.

Ich finds eigentlich schon erstaunlich, das sich auf dem Markt der Bildschirme wenig getan hat, wann kommt denn mal der nächste Schritt?
Andererseits ist Rohleistung nicht alles, mehr Texturspeicher und höhere Speicherbandbreiten wären mal angebracht, nvidia krebst jetzt schon ne halbe Ewigkeit mit GDDR3 rum...

Coda
2009-04-02, 19:08:51
Also ich hätte die heutige Topleistung gerne bei weniger als 150W TDP.
Dann kannst du dir ja eine entsprechende D3D11-Mainstream-Karte kaufen.

Es wäre wirklich mal Zeit für neue AA- und AF-Modi oder überhaupt etwas, dass die Bildqualität erhöht. Ambient Occlusion ist ja schon mal was. Wäre nur gut, wenns bei allen Spielen funktionieren würde.
Supersampling ist eigentlich das einzige was da noch nicht ausgespielt wurde. AF ist leider auch bei bestmöglicher Abtastung nicht in der Lage optimale Bildqualität zu liefern.

HarryHirsch
2009-04-02, 19:11:43
Hallo

Wenn man sich aktuelle benchmarks heutiger highend Gpus/Grafikkarten bei AAA Spielen ansieht wundert man sich doch
wieso man im PC Bereich überhaupt noch schnellere GPUs braucht.
Bis auf Crysis und Stalker CS sieht man doch fast nur noch 3-stellige AVG Werte- bei Full HD und maximalen Details!

Mit welchem Argument will man denn bitte schnellere GPUs und Grafikkarten verkaufen? DX11?

Konsolenhardware bestimmt aktuellen content- wird das nicht zum großen Problem für Nvidia und AMD(ATI)?

"Wow, jetzt statt 120fps 300fps!!!!11122" -> :confused:

Was meint ihr?

Euer tombi :)

p.s: eine Xbox720 oder PS4 sind sicher noch locker 2 Jahre entfernt- das sind mindestens noch 2 weitere GPU Generationen!

Mir würde als Kaufgrund schon reichen wenn die Karte(n) Clear Sky in 1920x1200 und alles auf Max/Mega/Super high mit ~60FPS darstellen kann.

dargo
2009-04-02, 19:14:14
Andererseits ist Rohleistung nicht alles, mehr Texturspeicher und höhere Speicherbandbreiten wären mal angebracht, nvidia krebst jetzt schon ne halbe Ewigkeit mit GDDR3 rum...
Für die Bandbreite ist nicht nur der Speicher verantwortlich. Hätte man günstig ein 768-1024Bit SI anbieten können würde GDDR3 noch locker bis 2011 reichen.

Spasstiger
2009-04-02, 19:16:41
Wäre es mit heutiger Hardware eigentlich prinzipiell möglich, SSAA nur dort anzuwenden, wo die Grafik in Bewegung stark flimmert? Dazu könnte man die Pixel gemäß der Bewegung des Spieler tracken und schauen, ob sich die Pixelfarbe zwischen zwei Frames stark ändert. Wenn ja, wird SSAA angewandt. Ändert sich das Bild nicht, wird das SSAA weiterhin dort angewandt, wo es auch beim Abschluss der Bewegung eingesetzt wurde.
Man müsste natürlich dabei immer im Voraus rendern und das Tracking dürfte auch recht teuer sein. Aber mit steigender Rechenleistung und immer längeren Shaderprogrammen ist es möglicherweise doch günstiger als Fullscreen-SSAA.

derguru
2009-04-02, 19:17:06
Aber ich sehe auch schon den nächsten Schritt, 30" TFTs mit 2560x1600 sind jetzt stark im Preis gefallen, früher noch ab 1400€, mittlerweile bei ca. 1000€ angelangt.
Wenn das so weiter geht, werden auch die irgendwann den Massenmarkt erreichen und bis dahin brauchen wir die Power auf jeden Fall.

Ich finds eigentlich schon erstaunlich, das sich auf dem Markt der Bildschirme wenig getan hat, wann kommt denn mal der nächste Schritt?
Andererseits ist Rohleistung nicht alles, mehr Texturspeicher und höhere Speicherbandbreiten wären mal angebracht, nvidia krebst jetzt schon ne halbe Ewigkeit mit GDDR3 rum...

beim 30 zoll tft spielt nicht nur der preis eine rolle sondern auch die auflösung,zum spielen viel zu teuer erkaufte auflösung.(sli oder cf immer pflicht)
ist doch vollkommen wurscht ob nv noch gddr3 benutzt solang die SI bei 448-512 ist.

Gast
2009-04-02, 19:19:14
Wozu denn an dieser Technologie festhalten? Wenn Nvidia jetzt mal in die pushen kommen würde, käme das beiden sehr entgegen. Höhere Stückzahlen kämen den GDDR5 Karten entgegen, vielleicht wären dann endlich mal größere Speicherchips bezahlbar.

GDDR5 ist ja nicht nur wegen der Taktraten entstanden, auf der anderen Seite ist da noch die Leistungsaufnahme... GDDR3 ist bei maximalen Taktraten eben nicht mehr so wirklich sparsam.

dargo
2009-04-02, 19:20:45
Wäre es mit heutiger Hardware eigentlich prinzipiell möglich, SSAA nur dort anzuwenden, wo die Grafik in Bewegung stark flimmert?
Wie soll das funktionieren wenn bestimmte Anwendungen (wie zb. GTAIV, einige UE3 Games etc.) gar kein AA unterstützen?


GDDR5 ist ja nicht nur wegen der Taktraten entstanden, auf der anderen Seite ist da noch die Leistungsaufnahme... GDDR3 ist bei maximalen Taktraten eben nicht mehr so wirklich sparsam.
GDDR5 ist bei hohen Taktraten auch alles andere als sparsam.

Gast
2009-04-02, 19:26:36
beim 30 zoll tft spielt nicht nur der preis eine rolle sondern auch die auflösung,zum spielen viel zu teuer erkaufte auflösung.(sli oder cf immer pflicht)

Darum gehts doch. Wenn es in diesem Tempo weiter geht, dann wird es bald so weit sein, das diese Auflösung sinnvoll nutzbar wird und zwar ohne mehrere GPUs...

Vor ein paar Jahren hätte ich mir nie und nimmer einen 27" hingestellt, weil ich selbst in der nativen Auflösung probleme gehabt hätte, die nötige Grafikpower zu liefern.
Für jemanden, der nicht 400€ pro Karte ausgibt, ist das so nicht tragbar.

Der Markt passt sich dieser Situation an. Vor nicht langer Zeit wurden 22" plötzlich billiger, dann 24" und jetzt sind es 26". Die 30" sind noch zu teuer, wahrscheinlich, weil viele das Risiko nicht eingehen wollen, sich alle paar Monate ein neues Grafikgespann zu leisten.
2560x1600 wäre zwar machbar, aber wenn dann mal so ein Titel wie "Crysis Reloaded" rauskommt, krebsen wir bei 10fps rum. :)

_DrillSarge]I[
2009-04-02, 19:32:42
ssaa ist eigentlich JETZT wirklich vonnöten (besonders bei amd ;)). msaa hatte man ja aufgrund der besserern effektivität genutzt, nur langsam stoßen die karten in regionen vor, wo sich ssaa wirklich lohnt. und jetzt gibt es auch noch andere probleme, welche es "früher" in der form nicht gab, bspw. shaderflimmern.

man sollte sich auch mal gedanken machen, die karten REAL sparsamer zu machen. nicht nur diese effizienter-verarsche.

Gast
2009-04-02, 19:35:29
GDDR5 ist bei hohen Taktraten auch alles andere als sparsam.

Äpfel und Birnenvergleich!
Es reicht völlig, wenn GDDR5 bei gleicher Performance sparsamer ist. Alles andere ist gar nicht Sinn und Zweck dieser Technologie.

Offenbar gehst du schon wieder von den extremen aus, hast aber auf der anderen Seite vergessen, wieviel Bandbreite GDDR5 schon jetzt liefert?
Schon die Standarchips wie sie bei Ati zum Einsatz kommen, liefern fast die selbe Bandbreite an dem 256 bit Interface und da ist noch Spielraum nach oben.
Du solltest nicht vergessen, das nvidia mit wesentlich mehr als 256 bit arbeitet und trotzdem nehmen sich die Karten in vielen Fällen kaum etwas. Stell dir mal vor, nvidia würde jetzt schon die gleichen chips verwenden ohne etwas am speicherinterface zu ändern, dann hätten sie gleich nen ganzen Batzen mehr und müssten nicht mal schnelle Module dafür nehmen... die wären auf jeden Fall sparsamer.
Außerdem glaube ich nicht, das ein dickeres SI immer die bessere Wahl ist, ich persönlich weiß nur, das nvidia Karten für mich wegen des Verbrauchs derzeit nicht in Frage kommen. :)

Ailuros
2009-04-02, 19:37:49
Wäre es mit heutiger Hardware eigentlich prinzipiell möglich, SSAA nur dort anzuwenden, wo die Grafik in Bewegung stark flimmert? Dazu könnte man die Pixel gemäß der Bewegung des Spieler tracken und schauen, ob sich die Pixelfarbe zwischen zwei Frames stark ändert. Wenn ja, wird SSAA angewandt. Ändert sich das Bild nicht, wird das SSAA weiterhin dort angewandt, wo es auch beim Abschluss der Bewegung eingesetzt wurde.
Man müsste natürlich dabei immer im Voraus rendern und das Tracking dürfte auch recht teuer sein. Aber mit steigender Rechenleistung und immer längeren Shaderprogrammen ist es möglicherweise doch günstiger als Fullscreen-SSAA.

Global supersampling is just too expensive to be an option in most cases. That doesn't mean supersampling will never be applied, in fact, I believe it will be used more frequently in the future, but it will be implemented on the application side, and probably directly in the shader. This is what this demo shows.

The advantages of supersampling in the shader is that it gives the developer fine-grained control over where to apply it, to what degree and what sample positions to use, rather than just providing a global switch. In this demo there's one a bit aliasing prone bumpmap on the floor. The aliasing is showing up with the specular lighting, which is a fairly common scenario. So the app supersamples this particular material and nothing more. The walls are not supersampled, neither is the skybox and certainly not the GUI. Furthermore, the shader only supersamples the specular lighting. The diffuse lighting does not have a problem with aliasing for this bumpmap, so it's not supersampled, nor is the lightmap, base material and so on. Additionally dynamic branching can be used to shave off even more of the work.

This fine-grained selection of course means the performance loss is signficantly less than regular supersampling. A driver side 4 sample implementation would normally be in the range of 1/4 the original speed or even less, plus that it uses a good deal more memory for the framebuffer. This application side supersampling doesn't use any extra memory and is able to keep up with 77% of the original speed on my system.

How does it work? It's implemented using gradients. Remember that the gradient returns the difference between neighboring fragments in a fragment quad. The texture coordinate plus the gradient in x would land on the texture coordinate for the neighboring pixel to the right of it if it's one of the left column pixels in the quad. The math doesn't match perfectly in the other direction of course, but the disparency is normally not a concern. Multiplying the gradient with sample positions in the [-0.5, 0.5] range gives you texture coordinates for the samples, which you can then input to any function to compute whatever you want to supersample.

For the dynamic branching I compute the gradient of the center sample's specular. If there's a big change in the specular value between the pipes the supersampling will kick in, otherwise it will do with just the center sample.

http://www.humus.name/index.php?page=3D&&start=16

Wehe wenn jetzt jemand sagt dass sich wenige wenn nicht keine Entwickler so viel Muehe geben wuerden fuer solche oder aehnliche Methoden....

I[;7211952']ssaa ist eigentlich JETZT wirklich vonnöten (besonders bei amd ;)). msaa hatte man ja aufgrund der besserern effektivität genutzt, nur langsam stoßen die karten in regionen vor, wo sich ssaa wirklich lohnt. und jetzt gibt es auch noch andere probleme, welche es "früher" in der form nicht gab, bspw. shaderflimmern.

man sollte sich auch mal gedanken machen, die karten REAL sparsamer zu machen. nicht nur diese effizienter-verarsche.


Tja bei sehr fortschrittlicher Tesselation ergo vielen und sehr kleinen Dreiecken ist die Effizienz fuer Multisampling auch nicht mehr so gross. Genau aus dem Grund gibt es schon ein Patent von NV wo man quasi (und vereinfacht) quads zusammenmatscht um das obrige Problem etwas zu umgehen.

Effizienteres FSAA? Ich hab nur eine Antwort dafuer :P

syronth
2009-04-02, 20:09:18
AA ist doch von vorgestern. Ich will Displays mit 200dpi aufwärts. Die Hardware, die bei solchen Auflösungen noch erwähnenswerte FPS liefert, muss dann zwar mit Starkstrom versorgt und Flüssigwasserstoff gekühlt werden, aber was tut man sich nicht alles an für ein paar hübsche Bilder. Gell, Tombman? ;-)

Die Konsolen geben wohk den Ton an, für PC's gibts ein paar Details mehr und wenn das Studio sich nicht lumpen lässt, auch bessere Texturen. nVidia/Intel und auch AMD werden wohl die Studios dahingehend schon "impfen"/supporten, damit ihre PC HW noch gekauft wird. Notfalls bauen diese selbst DX11-Pfade mit komplexeren Shadern ein.

pest
2009-04-02, 20:11:24
Viper;7211714']Fast alle Spiele brechen unter DX10 ordentlich ein (50% und mehr) und sind dann kaum noch ordentlich spielbar.


das liegt aber nicht an den karten sondern imo an der software,
ich kauf doch kein neues produkt nur damit schlecht optimierte software besser läuft :|
ich spiele hier crysis übrigens in 1680x1050_DX10@High auf meiner 8800GT :)

[dzp]Viper
2009-04-02, 20:18:43
das liegt aber nicht an den karten sondern imo an der software,
ich kauf doch kein neues produkt nur damit schlecht optimierte software besser läuft :|
ich spiele hier crysis übrigens in 1680x1050_DX10@High auf meiner 8800GT :)

Das ist das berühmte Henne-Ei Problem ;)

Crysis DX10 @ High != DX10 @ Very High oder Ultra High :ugly:

Ausserdem glaube ich kaum, dass du mit der 8800GT unter DX10 @ High immer über 30-40fps hast bei Crysis ;)

Die DX10 Features fressen allsamt ordentlich Leistung - genau deswegen ist der Performanceeinsturz auch immer so groß sobald man unter DX10 auch einen wirklichen Unterschied gegenüber DX9 sieht...

Dafür brauchen wir nun mal potentere Hardware - wenn das die Devs net auf die Reihe bekommen X-D

pest
2009-04-02, 20:27:27
Viper;7212051']
Crysis DX10 @ High != DX10 @ Very High oder Ultra High :ugly:


mir schon klar, nur ich kenne keine single-gpu-grafikkarte die es in very-high schafft, außer vielleicht eine stark übertaktete GTX280/285
ich wollte bloß damit sagen, DX10 geht, und sollte bei gleicher visueller qualität nicht langsamer sein als DX9.


Ausserdem glaube ich kaum, dass du mit der 8800GT unter DX10 @ High immer über 30-40fps hast bei Crysis ;)


nie unter 25, das reicht imo bei crysis



Die DX10 Features fressen allsamt ordentlich Leistung - genau deswegen ist der Performanceeinsturz auch immer so groß sobald man unter DX10 auch einen wirklichen Unterschied gegenüber DX9 sieht...


was denn genau? ... gut ich verstehe auch nicht warum stalker cs so bescheiden läuft...

y33H@
2009-04-02, 21:04:21
xS oder SSAA samt Texturmods vögeln auch zwei GTX285. Ich will mehr Power.

Gast
2009-04-02, 21:14:48
Viper;7212051']
Die DX10 Features fressen allsamt ordentlich Leistung

Das ist und bleibt ein Mythos. Es ist nicht DX10, welches per se langsam ist oder viel Ressourcen verbrät, sondern die Tatsache, dass es bis heute nicht 1 native DX10 Engine gibt. Alles basiert auf DX9, hie und da wird ein DX10 Feature hineingefrickelt, was natürlich nicht optimal sein kann.

Natives DX10 (10.1 erst recht) wäre immer schneller als DX9 bei gleicher Last. Da DX10 aktuell nur ca. 20-25% Marktanteil geniesst (und nicht kompatibel zu den Konsolen ist), bleibt ihm der Durchbruch in der Spielewelt bis auf Weiteres verwehrt.
---

DX11 Karten werden bei Erscheinen für den Heimanwender gänzlich uninteressant sein, zumindest featuremässig. Tempomässig mit grosser Wahrscheinlichkeit auch, da -wie vom Threadstarter richtig gesagt- selbst aktuelle Mittelklassekarten nur mit reichlich AA/AF oder extremen Konfigurationen/Texturpacks kleinzukriegen sind.

blackbox
2009-04-02, 22:23:19
Ich denke, Tombman hat nicht ganz unrecht.
Es sind hier mehrere Faktoren zu beachten:
- Displaygröße: Ein Gast sprach das an und ich muss ihm widersprechen. Ich denke, dass Full-HD auf lange Zeit der Maßstab sein wird, aber nur für Enthusiasten. Momentan haben wir 1280x1024 und 1680x1024 als gängige Größe. Das wird auch so bleiben, denn höhere Auflösungen machen irgendwann keinen Sinn mehr. Der Hauptgrund ist die Ergonomie. Denn meist geht eine höhere Auflösung auch mit einer größeren Bildfläche einher. Sicher, es gibt Leute, die sitzen sogar vor einem 32 Zoll, aber das sind absolute Ausnahmen und sinnvoll ist es auch nicht. Mehr als 24 Zoll erachte ich als nicht sinnvoll. Es ist zwar schön, 2 Seiten A4 nebeneinander sehen zu können, aber dann ist auch schon die Grenze erreicht. Denn ein Buch hat auch nur 2 Seiten, wenn man es aufklappt. Außerdem sind Internetseiten für solche Größen nicht ausgelegt. Und einen Text lesen, wo die Zeile sich über 30 cm streckt, ist nicht wirklich spaßig. Gut, diese ganze Problematik hat aber weniger mit der Grafikleisung zu tun.
- Stromverbrauch: Schon jetzt ist er verdammt hoch, auch der von den Konsolen. Ich denke, wir haben eine Grenze erreicht. Nicht ohne Grund gab es sehr viele Ausfälle bei den Konsolen. Man wird solche Leistungen nur schwer kühlen können.
- DirectX 9 und 10: Ich denke, dass DirectX 10 die Entwicklung stark gebremst hat, weil nur mit Vista verfügbar. Somit fehlt der Druck, neue Techologien zu entwickeln und auf den Markt zu bringen. Ich bin mir relativ sicher, wäre DirectX10 auf XP verfügbar (unabhängig davon, ob es technisch geht oder nicht), hätten wir heute eine ganz andere Situation. Die Spieleentwickler hätten DirectX10 mehr Beachtung geschenkt und mehr Spiele für DirectX10 entwickelt. So aber bleiben wir seit Jahren technologisch auf DirectX9 stehen. Neue Anreize für wirklich neue Grafikkarten sind da begrenzt.
- Grafikstandard der Konsolen: Der ist heute gut genug und lässt sich problemlos auf den PC übertragen. Ich denke, der nächste Schub kommt tatsächlich erst mit der nächsten Konsolengeneration

Crazy_Chris
2009-04-02, 22:34:29
*hust* Selbst das inzwischen mehr als 2 Jahre alte Call of Juarez ist mit DX10 und 1920x1200 @4xAA mehr als Grenzwertig mit einer GTX 285. :eek: Ich freue mich jedenfalls auf die nächste Highend Single-GPU Karte. Brauch was schnelleres. :devil:

dargo
2009-04-02, 23:17:35
- Stromverbrauch: Schon jetzt ist er verdammt hoch, auch der von den Konsolen. Ich denke, wir haben eine Grenze erreicht. Nicht ohne Grund gab es sehr viele Ausfälle bei den Konsolen. Man wird solche Leistungen nur schwer kühlen können.

Was hat die fehlerhafte Konstruktion einer XBox360 mit den Desktop-Grafikkarten zu tun? Zudem, was hat eine kleine Box mit einem ATX-Gehäuse gemeinsam?


- Grafikstandard der Konsolen: Der ist heute gut genug und lässt sich problemlos auf den PC übertragen. Ich denke, der nächste Schub kommt tatsächlich erst mit der nächsten Konsolengeneration
Für wen?

Armaq
2009-04-02, 23:28:00
Multipurpose on GPU. Einen anderen Grund gibt es nicht. Nvidia investiert nicht umsonst soviel Manpower in den Bereich. Gaming wird tatsächlich nicht mehr der treibende Faktor in der GPU-Entwicklung. Andere Gründe gibt es schlicht nicht mehr. Für eine breite Masse von Anwendern genügt die Leistung und dabei spreche ich vom Pro-Nerd bis hin zum Papi der gerne mal virutell jagen geht. GT200 und Co. haben genug Saft dafür. Crysis beweist einfach wozu ein PC optisch in der Lage ist. Daran knabbern Konsolen vll. sogar noch zwei Generationen.

Sonyfreak
2009-04-02, 23:42:41
Ich persönlich hätte nichts gegen ne Grafikkarte mit der vierfache Leistung einer GTX 285. Dem G200 geht leider recht schnell die Puste aus wenn man bei neueren Spielen mal AntiAliasing verwenden will. Bei Far Cry 2 und Crysis muss man bei 1680x1050 mit 2xAA schon um die Framerate bangen. UT3 und HL2 EP2 mit FFM 9.51 laufen immerhin noch bis 4xAA annehmbar flüssig. An Hybrid- und SSAA-Modi braucht man da noch gar nicht denken. Stalker Clear Sky läuft soweit ich weiß noch auf keinem System wirklich annehmbar.

Ich würde mir gerne irgendwann mal einen höher aufgelösten Bildschirm kaufen. Nur ist das momentan leider nicht möglich, da es aktuell keine Grafiklösung gibt, die einen solchen Bildschirm adäquat befeuern könnte.

Also liebe Hersteller: Wir wollen endlich flottere Karten! :)

mfg.

Sonyfreak

blackbox
2009-04-02, 23:42:55
Was hat die fehlerhafte Konstruktion einer XBox360 mit den Desktop-Grafikkarten zu tun? Zudem, was hat eine kleine Box mit einem ATX-Gehäuse gemeinsam?

Ich wollte damit auf den allgemeinen Un-Trend hinweisen, deshalb schrieb ich "auch". Es gibt inzwischen in meinen Augen einen unmittelbaren Zusammenhang, was den Stromverbrauch angeht. Schaut man sich den Stromverbrauch von den Konsolen an, so ist er in etwa äquivalent zu einem Computer der gleichen Leistungsklasse. Wollen wir also immer bessere Grafik haben, so steigt der Strombedarf an. Schon jetzt liegen die Crossfire und SLI System jenseits von gut und böse. Man stelle sich vor, Konsolen hätten mindestens die selbe Potenz, was sie mit der nächsten Generation mit Sicherheit haben werden, der Stromverbrauch wäre ähnlich und ähnlich schwer zu kühlen. Außerdem steigt die Defekthäufigkeit bei den Highend-Modellen an, ein Indiz dafür, dass Kühlung ein Problem sein könnte.

Für wen?
Für die meisten Zocker dieser Welt. Mit Ausnahmen von Nerds wie Dir und den anderen Membern hier im Forum. Und das ist nicht bös gemeint.

dargo
2009-04-02, 23:54:17
Für die meisten Zocker dieser Welt.
Hatten diese Zocker auf einem "versiegelten" System jemals eine andere Wahl? Wenn man keine Wahl hat muss man sich mit dem zufrieden geben was man hat. Das heißt aber noch lange nicht, dass man damit vollkommen zufrieden ist. Ich verstehe diese Pauschalisierungen einfach nicht.

Sonyfreak
2009-04-02, 23:58:13
Hatten diese Zocker auf einem "versiegelten" System jemals eine andere Wahl?Ganz unrecht hat er aber nicht. Die meisten Konsoleros sind ja auch von der aktuellen Konsolengrafik begeistert. Und nur die wenigsten PC-Spieler kennen sich mit dem Optionsmenü der Spiele überhaupt aus. Da wird maximal die Auflösung noch angepasst. Von den möglichen Treibereinstellungen möchte ich da gar nicht erst sprechen.

mfg.

Sonyfreak

blackbox
2009-04-03, 00:00:18
Es gibt eindeutige Tendenzen, dass die Grafik ausreichend ist, du brauchst dir nur mal die Verkäufe ansehen. Die Wii liegt weit vorne, danach die Xbox360 und dann erst die leistungsstärkste der drei Konsolen, nämlich die PS3. Und wenn man noch die PS2 dazu nimmt, dann wird das Bild noch deutlicher.

Und die meistgekaufte "Konsole" ist übrigens das Nintendo DS. Und wie schaut die Grafik dort aus?

Sonyfreak
2009-04-03, 00:02:33
Die Verkaufszahlen hängen aber auch sehr stark vom Preis ab. Und unterwegs hat man ohnehin keine Wahl. ;)

mfg.

Sonyfreak

blackbox
2009-04-03, 00:07:13
Preis? Die Xbox360 ist runde 70 Euro günstiger als die Wii.

dargo
2009-04-03, 00:08:42
Es gibt eindeutige Tendenzen, dass die Grafik ausreichend ist, du brauchst dir nur mal die Verkäufe ansehen.
Du meinst also wenn es nächste Woche einen Nachfolger der XBox360 und PS3 für 300€ mit sagen wir mal der 8 fachen Leistung geben würde und die beiden Konsolen ein einigermaßen gutes Spieleangebot hätten keiner auf diese umsteigen würde weil die Grafik der "Vorgänger" ausreichend ist? Träum weiter. :)

Sonyfreak
2009-04-03, 00:12:33
Preis? Die Xbox360 ist runde 70 Euro günstiger als die Wii.Würde man die PS3 um 199€ verkaufen, so wäre sie meiner Meinung nach bei den Verkaufszahlen sicherlich vor der XBox360. Läge der Preis der Wii bei 400€ würde der Markt auch anders ausschauen.

Nintendo hatte halt auch Glück und die Zeichen der Zeit gut erkannt. Nur sind die Käufer der Konsole nicht unbedingt die Leute, die sonst am PC Crysis gezockt hätten.

mfg.

Sonyfreak

blackbox
2009-04-03, 00:14:06
Du meinst also wenn es nächste Woche einen Nachfolger der XBox360 und PS3 für 300€ mit sagen wir mal der 8 fachen Leistung geben würde und die beiden Konsolen ein einigermaßen gutes Spieleangebot hätten keiner auf diese umsteigen würde weil die Grafik der "Vorgänger" ausreichend ist? Träum weiter. :)

Genau so ist es. Nicht umsonst verkauft sich die PS2 immer noch prächtig. Und nicht umsonst hatten Xbox360 und PS3 Startprobleme.
Du kannst es akzeptieren oder nicht, aber die Konsolenspieler sind in der Hinsicht träge. Sicher werden sie irgendwann "umsteigen", aber nicht weil die Grafik schlecht wäre, sondern weil der Spielezufluss irgendwann austrocknet und nur noch für die neueren Konsolen veröffentlicht werden.

Sonyfreak
2009-04-03, 00:18:36
Genau so ist es. Nicht umsonst verkauft sich die PS2 immer noch prächtig. Und nicht umsonst hatten Xbox360 und PS3 Startprobleme.Das ist aber ne andere Käufergruppe. Die Konsolen sind nunmal im Mainstream angekommen. Schaut dich mal um wer mittlerweile aller ne PS2 oder ne Wii im Wohnzimmer herumstehen hat. Das sind ja keine echten Zocker. Die erkennen nämlich sehr wohl den Unterschied zwischen dem und aktueller Grafik. ;)

mfg.

Sonyfreak

blackbox
2009-04-03, 00:20:48
Natürlich erkennen sie den Unterschied, aber weißt du was? Das ist denen gar nicht so wichtig. ;)

dargo
2009-04-03, 00:20:55
Genau so ist es. Nicht umsonst verkauft sich die PS2 immer noch prächtig.

Ich glaube kaum, dass die Verkaufszahlen einer PS2 zwischen Ende 2005 und heute die Verkaufszahlen einer XBox360 + PS3 übersteigen. ;)


Und nicht umsonst hatten Xbox360 und PS3 Startprobleme.
Dafür gibts immer zwei Gründe:

1. Bei Einführung ist die Konsole meistens recht teuer.
2. Bei der Einführung ist das Spieleangebot eher mau, gerade im Vergleich zum Vorgänger.

blackbox
2009-04-03, 00:40:30
Ich glaube kaum, dass die Verkaufszahlen einer PS2 zwischen Ende 2005 und heute die Verkaufszahlen einer XBox360 + PS3 übersteigen. ;)


Ach Dargo, was willst du mit diesem unsinnigen Vergleich bezwecken?

Mit "prächtig" meine ich natürlich entsprechend dem Alter, das man berücksichtigen muss. Die Konsole ist 9 Jahre alt, und noch vor einem Jahr waren die Verkaufszahlen von PS3 und PS2 ähnlich. Auch jetzt liegt die PS2 nur wenig hinter der PS3. Und das ist immer noch PRÄCHTIG! Jetzt klar?

dargo
2009-04-03, 00:49:09
Ach Dargo, was willst du mit diesem unsinnigen Vergleich bezwecken?

Inwiefern unsinnig? Die sogenannten Coregamer sind schon lange auf die aktuellen Konsolen umgesattelt und nicht bei der PS2 geblieben weil sie eine ausreichende Grafik liefern würde.

Die Konsole ist 9 Jahre alt, und noch vor einem Jahr waren die Verkaufszahlen von PS3 und PS2 ähnlich.
Und daran ist alleine der Preis der PS3 schuld gewesen. Ich hatte nicht umsonst 300€ bei den Nachfolgern genannt.

tombman
2009-04-03, 02:52:06
Die PS2 ist doch nur mehr ne Kiddie Konsole-100€ kann man auch viel leichter ausgeben als 300€ oder 400€.

Armaq
2009-04-03, 09:32:08
Die Grafik ala Killzone und GoW ist für fast alle Spieler ausreichend. Ihr geht hier von eurem Standpunkt aus, der generiert aber nicht genug Verkäufe. Die nächste Generation GPUs wird auch keine GT200x2-Leistung liefern.

dargo
2009-04-03, 09:36:45
Die nächste Generation GPUs wird auch keine GT200x2-Leistung liefern.
Das Ziel von NV ist laut Ail sogar mindestens 2x GT200. Ob sie das erreichen ist ne andere Geschichte.

Gast
2009-04-03, 09:47:33
Für die Leute die die Masse ausmachen, die "Highend" Zocker sind ne Niesche wie man an den VKZ von Crysis gesehen hat. Die Industrie hat die Masse teilweise entdeckt, nur vergessen sie einfach das nicht jedes Spiel sich in der Masse verkauft. Leuts wie wir, die mit fetter Grafik geködert werden können, kaufen auch mehr Spiele im Jahr, egal für welches System.

reunion
2009-04-03, 10:07:12
Das Ziel von NV ist laut Ail sogar mindestens 2x GT200. Ob sie das erreichen ist ne andere Geschichte.

Das Ziel muss mindestens bei 3x GT200 liegen wenn nV zeigen will das sie mit ihren Monster-Dice den richtigen Weg gegangen sind. Den auch AMD strebt mit RV870 2xRV770-Leistung an und dann hätte man wieder das selben Problem wie jetzt.

dargo
2009-04-03, 10:09:54
Das Ziel muss mindestens bei 3x GT200 liegen wenn nV zeigen will das sie mit ihren High-End-Monster-Dice den richtigen Weg gegangen sind. Den auch AMD strebt mit RV870 2xRV770-Leistung an und dann hätte man wieder das selben Problem wie jetzt.
Umso besser, ich hätte gegen Faktor 2,5-3 überhaupt nichts. :)

V2.0
2009-04-03, 10:12:44
Dann kannst du dir ja eine entsprechende D3D11-Mainstream-Karte kaufen.


Das wollte ich mit meinen Post ausrücken. Es gibt in anderen Marktsegmenten durchaus akuten Bedarf für Mehrleistung. Nicht jeder ist gewillt sich einen 225W+ TDP Karte in den Rechner zu hängen.

Für die High-End-Karten der DX11 Generation wird DX11, PhysiX usw. schon ne Beschäftigung bieten.

Crazy_Chris
2009-04-03, 11:21:24
Umso besser, ich hätte gegen Faktor 2,5-3 überhaupt nichts. :)

Wo bitte gab es jemals so einen Performancesprung von alter Highend- zur neuen Highend Generation? :rolleyes:

50% im Mittel mehr sind a eher realistisch.

AffenJack
2009-04-03, 11:30:55
Wo bitte gab es jemals so einen Performancesprung von alter Highend- zur neuen Highend Generation? :rolleyes:

50% im Mittel mehr sind a eher realistisch.

Beim G80 z.B, mehr fallen mir gerade aber auch nicht ein.

AnarchX
2009-04-03, 11:37:00
Beim G80 z.B, mehr fallen mir gerade aber auch nicht ein.

Bei 9800 XT zu X800XT PE bzw. 5950Ultra zu 6800 Ultra gab es auch einen erheblichen Sprung:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_x800_pro_xt_pe_geforce_6800_gt_ultra/10/#abschnitt_far_cry_v11
... gerade bei NV gab es hier den Faktor 3.

Zumal man GT300 momentan einen größeren Die als beim 65nm GT200 nachsagt, jedoch wird GT300 in 40nm gefertigt ;):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170

Mr.Magic
2009-04-03, 11:41:37
Wo bitte gab es jemals so einen Performancesprung von alter Highend- zur neuen Highend Generation? :rolleyes:

50% im Mittel mehr sind a eher realistisch.

Ist natürlich nur ganz grob, aber da ich diese Karten hatte...
GeForce 3 -> 4600 - Faktor 2 bei 1024x768|4xSAA|4xAF
GeForce 4600 zu 5950 - Faktor 2 bei 1024x768|4xSAA|4xAF
GeForce 5950 zu 6800U - Faktor 3 bei 1024x768|8xSAA|16xAF
GeForce 6800U zu 7800GTX - Faktor 2 bei 1600x1200|8xSAA|16xAF
GeForce 7950GX2 (SLI!) zu 8800GTX - Faktor 2 bei 1600x1200|16xSAA|16xAF
GeForce 8800GTX zu GTX285 - Faktor 2 bei 1920x1080|16xSAA|16xAF

AnarchX
2009-04-03, 11:44:40
Auf welchen Ergebnissen basiert der Faktor 2 bei 88 GTX zu GTX 285?

Ich sehe gerade bei PCGHs aktuellem Test, durch den Speicherunterschied sind teilweise sogar ein Faktor 2.5 Avg und ein Faktor 4 bei Min: Fallout 3 mit Texturpack 1.920 x 1.200 8xAA (http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=9) :eek:

Mr.Magic
2009-04-03, 11:54:44
Auf welchen Ergebnissen basiert der Faktor 2 bei 88 GTX zu GTX 285?

Wie meinst du auf welchen Ergebnissen?
Der 8800GTX geht einfach viel früher die Puste aus, insbesondere mit Supersampling. Selbst mit einfachem 4xMSAA krebste die 8800GTX z.B. bei Fallout 3 mit 35-45FPS rum, während die GTX285 ständig am 60FPS-Limit (vSync) hing.

Wenn du es schwarz auf weiß willst, PCGH oder GS haben SSAA-Tests gemacht (8800U vs GTX280 AFAIR). Da ist der Unterschied nur selten unter 90%.

AnarchX
2009-04-03, 11:57:06
Ja, siehe mein Edit, da hast du wirklich recht.
Da war die Vorstellung zum Launch damals noch nicht so gut.

dargo
2009-04-03, 12:17:42
Wo bitte gab es jemals so einen Performancesprung von alter Highend- zur neuen Highend Generation? :rolleyes:

50% im Mittel mehr sind a eher realistisch.
Ein G80 ist um den Faktor 3-4 schneller als der G71. ;)

Gast
2009-04-03, 12:29:31
Bei den früheren Grakalaunches haben auch meistens die CPUs limitiert. Da konnten die Highend Grakas ihre Leistung meistens nicht voll ausspielen. Das könnte diesmal aber anders sein.

Gast
2009-04-03, 12:40:32
Konsolenhardware bestimmt aktuellen content- wird das nicht zum großen Problem für Nvidia und AMD(ATI)?

"Wow, jetzt statt 120fps 300fps!!!!11122" -> :confused:Wenn sie die Völker nicht immernoch so behämmert machen würden könnte man bei alles und jedem Triplebuff und Vsync anmachen. rock solid 60fps hat ja auch was. Es müßen nicht immer 160fps sein ;)

Bei der Leistung die du erwähnst muß der mainstream mit 70W Karten noch nachziehen. Dafgür braucht man einen neueren besseren Highend.

DX11 kommt sowieso noch. Mal sehen. Es gibt noch sehr viele noch nicht vorhandene oder kaum funktionierende Features die mir zu dem Thema einfallen aber leider kann man keins davon über fps-balken verkaufen :mad:

Gast
2009-04-03, 12:50:09
Bei 9800 XT zu X800XT PE bzw. 5950Ultra zu 6800 Ultra gab es auch einen erheblichen Sprung:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_x800_pro_xt_pe_geforce_6800_gt_ultra/10/#abschnitt_far_cry_v11
... gerade bei NV gab es hier den Faktor 3.Bei den Sprüngen hört es aber ab 60fps min auch schon wieder auf. Der größte Sprung aller Zeiten war von MilleniumII "auf" Voodoo2. Gänzlich ohne fps-Faktoren. Gelegentlich sogar mit weniger fps. Trotzdem wollte es bis mindestens TNT2 jeder haben.

Momentan werden selbst bei Texturen die man öftersmal direkt vor die Nase bekommt für die Spiele noch so viele auf platte Klötzchen runtergerechnet daß man hier ruhig ansetzen könnte. Das scheint mir nicht nur ein Problem der Entwickler zu sein. Sehr wohl bremsen uns hier übrigens die Konsolen aus.
Sowas fiel mir bei Crysis auf voll noch genauso wie es mir damals schon bei Unreal auffiel. Ich weiß nicht ob man hier und woanders die Kiddis immernoch dauernd mit fps-balken berieseln sollte oder mit ihnen einstimmen muß, AnarchX.

Crazy_Chris
2009-04-03, 12:59:27
Das sind aber immer Extrembedingungen. Wenn man man hohe AA/AF Modi weglässt dann bleibt davon aber nicht mehr viel übrig.

Ein G80 ist um den Faktor 3-4 schneller als der G71. ;)

Wohl eher nicht: ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Hydrogen_Snake
2009-04-03, 13:14:44
Wo bitte gab es jemals so einen Performancesprung von alter Highend- zur neuen Highend Generation? :rolleyes:

50% im Mittel mehr sind a eher realistisch.

Von diesen Nvidia FX'en (5000er!?) zu den 6000er... zumindest bei
der 5900 -> 6800

dargo
2009-04-03, 13:28:18
Das sind aber immer Extrembedingungen. Wenn man man hohe AA/AF Modi weglässt dann bleibt davon aber nicht mehr viel übrig.

Du weißt aber schon wie man Grafikkarten testet? :rolleyes:


Wohl eher nicht: ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet
Was soll mir jetzt der Uralttest und vorallem mit uralten Schinken an Games und noch über das Performancerating im Durchschnitt sagen?

Ich habe dir mal paar Beispiele ausgeschnitten:
Jericho
http://img3.imagebanana.com/img/dqhhci48/Test1.jpg

Dirt
http://img3.imagebanana.com/img/ollhbgk/Test2.jpg

Ghotic 3
http://img3.imagebanana.com/img/n3qmj80t/Test3.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/

AffenJack
2009-04-03, 13:43:47
Das sind aber immer Extrembedingungen. Wenn man man hohe AA/AF Modi weglässt dann bleibt davon aber nicht mehr viel übrig.



Wohl eher nicht: ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

Du schaust in den falschen test, da war nochn cpu-limit vorhanden. Dazu noch schlecht optimierte treiber. Siehe bissl neuere test:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet

Schon bei 1280x1024 mit 4aa isses beinahe Faktor 3 im Durchschnitt und das ist noch treiberversion 163. Bei neueren Spielen mit neuen Treibern dürfte es meist eher nen Faktor 4 und teils mehr geben.

Die Beispiele von AnarchX waren mir aber eher neu, ich war irgendwie immer der Meinung das wäre nur Faktor 2 gewesen, aber anscheinend gabs die selbst da. Mit GT300 sollte das dann wohl auch möglich sein, man wird wohl die Leistungs pro Transistor bzw pro Fläche Effizienz deutlich erhöhen wollen, mit G200 hat sich das ja eher verschlechtert im Hinblick auf G80.

dargo
2009-04-03, 14:00:32
Mit GT300 sollte das dann wohl auch möglich sein, man wird wohl die Leistungs pro Transistor bzw pro Fläche Effizienz deutlich erhöhen wollen, mit G200 hat sich das ja eher verschlechtert im Hinblick auf G80.
Nicht unbedingt wenn man zusätzlich das PhysX-Zeugs im Vergleich zum G80 betrachtet. :)

Crazy_Chris
2009-04-03, 14:03:37
Ja schon klar. Nur was nützt mir es aktuelle Spiele mit so alten Karten zu vergleichen? Eine Performancesteigerung vom Faktor 2-3 ist doch nur zum Zeitpunkt des Release (für mich) wirklich interessant. Ich hab nicht ohne Grund den alten Test der G80 rausgesucht. :) Das aktuelle Spiele eine G70 absolut nicht mehr schmecken ist auch mir klar. ;)

dargo
2009-04-03, 14:05:50
Ja schon klar. Nur was nützt mir es aktuelle Spiele mit so alten Karten zu vergleichen?
Dass du mit einer G8800GTX heute noch sehr viel flüssig spielen kannst wo die G7900GTX völlig versagt.

Crazy_Chris
2009-04-03, 14:07:42
Dass du mit einer G8800GTX heute noch sehr viel flüssig spielen kannst wo die G7900GTX völlig versagt.

Ich will ja nur damit sagen das die Leute die sich eh Highend kaufen diese Karten in der Regel so früh abstoßen das diese Steigerungsraten vom Faktor 2-3-4 nicht wirklich von Belang sind. Das ist ja Fatal zu denken nur weil man einmal Highend gekauft hat hätte man für 3-4 Jahre ruhe.

AnarchX
2009-04-03, 14:09:26
Auch zum Release konnte G80 schon seine Stärke zeigen.

Faktor 3,3 in Oblivion 1600x1200 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/#abschnitt_oblivion). Zudem war das Spiel durch das wu-AF und nun mit HDR möglichem MSAA (CB testet hier mit TSSAA!) deutlich ansprechender und spielbar.

Crazy_Chris
2009-04-03, 14:10:28
Auch zum Release konnte G80 schon seine Stärke zeigen.

Faktor 3,3 in Oblivion 1600x1200 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/#abschnitt_oblivion). Zudem war das Spiel durch das wu-AF und nun mit HDR möglich MSAA (CB testet hier mit TSSAA!) deutlich ansprechender und spielbar.

Ja. Da hat es sich echt mal gelohnt aufzurüsten. Unglaublich wie der G80 mal gerulet hat. :eek::biggrin:

dargo
2009-04-03, 14:28:18
Ich will ja nur damit sagen das die Leute die sich eh Highend kaufen diese Karten in der Regel so früh abstoßen das diese Steigerungsraten vom Faktor 2-3-4 nicht wirklich von Belang sind.

Dieser Käuferschicht ist es eh egal ob die Karte 2x oder 3x schneller ist. Sie wollen einfach nur das Schnellste haben.


Das ist ja Fatal zu denken nur weil man einmal Highend gekauft hat hätte man für 3-4 Jahre ruhe.
~3 Jahre dürfte bei der G8800GTX durchaus zutreffen wenn man in Ausnahmefällen wie zb. Crysis bereit ist minimale Abstriche bei den Details einzugehen und es mit der Auflösung nicht übertreibt. Als der G80 veröffentlicht wurde war eher die Auflösung von 1280x960/1024 in Mode. Sollte also Jemand weiter diese Auflösung nutzen sehe ich nicht wirklich die Not eine G8800GTX in Rente zu schicken.

reunion
2009-04-03, 14:49:27
Auch zum Release konnte G80 schon seine Stärke zeigen.

Faktor 3,3 in Oblivion 1600x1200 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/20/#abschnitt_oblivion). Zudem war das Spiel durch das wu-AF und nun mit HDR möglichem MSAA (CB testet hier mit TSSAA!) deutlich ansprechender und spielbar.

Wobei die Ausgangsbasis mit dem G71 auch entsprechend schwach war. Auf einen R580 war und ist es selten mehr als die doppelte Leistung, oft weniger.

AnarchX
2009-04-03, 15:14:37
Wobei die Ausgangsbasis mit dem G71 auch entsprechend schwach war. Auf einen R580 war und ist es selten mehr als die doppelte Leistung, oft weniger.

Wobei man hier auch über einen zeitlichen Unterschied von 10 Monaten redet und der Herstellungsprozess ist auch der gleiche.

Zwischen G200 und G300 bzw. RV770 und RV870 liegen wohl mindestens 15 Monate und der nicht ganz unerhebliche Sprung von 55 zu 40nm.

Insgesamt kann man im Quartal 4 wohl einen ordentlichen Leistungssprung erwarten.

Crazy_Chris
2009-04-03, 15:32:15
~3 Jahre dürfte bei der G8800GTX durchaus zutreffen wenn man in Ausnahmefällen wie zb. Crysis bereit ist minimale Abstriche bei den Details einzugehen und es mit der Auflösung nicht übertreibt.


Der G80 Reihe dürfte aber schon die Ausnahme sein. Einmal war sie bei erscheinen überdurchschnittlich schnell und zweitens fällt sie genau in eine Zeit bei der die Konsolen die grobe technischen Richtung angeben. Wäre das nicht so so hätten wir sicher deutlich mehr Spiele die die Grafik und die Anforderungen einen Crysis bieten. Und wie du schon selber sagst hat der G80 da schon ganz gut zu knabbern. (selbst auf einer GTX 285 kann man Very High vergessen)

Palpatin
2009-04-03, 20:14:10
Mir persönlich reicht 4AA und 16AF und natürlich alles auf max, mit 27 Zoll bin ich imo auch sehr zufrieden, mit der GTX 280 komm ich da bei den meisten aktullen Games gut hin aber sind doch bissel mehr Titel als Stalker und Crysis ( welche mich sowiso nicht intressieren) die besser laufen könnten, mit ner GTX 295 wär mein Leistungsbedarf was GPU angeht allerdings gedeckt, was CPU Leistung angeht ist er schon seit meinem ersten Quad Core (vor 2 Jahren gekauft) voll gedeckt.
Imo bin ich noch unschlüssig ob ich mir die 295 anschaffe oder auf die nächste Generation warte.
Ansosten liebäugle ich natürlich auch damit meinen HTPC hochzuzüchten um auch auf dem 50 Zoll Palsma die volle Grafikpracht zu haben, was ebenfalls nen Bedarf rechtfertigen würde, wär dann auch schöner vergleich zu XBox möglich :).

clockwork
2009-04-03, 23:04:52
Der Bedarf besteht in der Leistungsregion einer ~GTX260, nur mit weniger Verbrauch und in Form einer kleineren Karte. Im "Performance"(?) Bereich geht ja mal überhaupt nichts vorwärts. Kommt da irgendwann mal was oder gibts Ende des Jahres einen G92c als GTS350 bis die Ende 2010 dann endlich mal abgelöst wird?

Argo Zero
2009-04-04, 03:05:59
Für die Leute die die Masse ausmachen, die "Highend" Zocker sind ne Niesche wie man an den VKZ von Crysis gesehen hat. Die Industrie hat die Masse teilweise entdeckt, nur vergessen sie einfach das nicht jedes Spiel sich in der Masse verkauft. Leuts wie wir, die mit fetter Grafik geködert werden können, kaufen auch mehr Spiele im Jahr, egal für welches System.

Angebot und Nachfrage. Ich denke in naher Zukunft wird sich keiner mehr trauen einen "Grafik-Blender" zu entwickeln.
Ich bin recht froh 'drum, dass sich die Leute einigermaßen satt gesehen haben und Eigenschaften, die in Vergessenheit geraten sind, wieder aus den Katakomben herausgekramt werden.
Ein Spiel soll unterhalten, spezielle Genres mal dahin gestellt und das lässt sich mit Grafik allein eben nicht bewerkstelligen. Wozu Spielen, wenn ich nur Grafik sehen möchte – ein Film ist bequemer im Zeitalter von Flachbildschirmen und BluRay. Wobei sich hier ein ähnliches Phänomen feststellen lässt. Siehe 3D-Center BluRay Thread, wo ausgiebig nach Bildqualität(!) bewertet wird. Aber das ist ja meistens so mit den neuen Sachen, bis es irgendwann Standard wurde.
Das schöne daran, wann konnte man das letzte mal für 140€ (verhältnismäßig) so viel Grafik-Power erkaufen? Die Leute brauchen keine neue Graka, also müssen sie mit dumping Preisen gelockt werden.

@clockwork
Du sprichst einen neu entstandenen Punkt an. Die Käufer achten auf den Stromverbrauch. Für die Grafikkartenhersteller eigentlich ein günstiger Zeitpunkt, denn sie müssen sich nicht verpflichtet fühlen noch mehr Leistung auf die Platine zu löten. So lassen sich andere (imo sehr wichtige) Punkte ins Visier nehmen, wie zum Bleistift die Energieeffizienz. Mich hat es 'eh gewundert, warum das im Desktop-Bereich so ewig lange gedauert hat, denn Laptops können sich schon seit Jahren heruntertakten, was mich lange störte.

Gast
2009-04-04, 05:11:30
NV Desktop Karten hatten auch vor G80 schon verschiedene 2D/3D-Profile mit entsprechenden Taktraten.

Manchmal kommt mir vor das die Leute das nach G80 vergessen haben.

Gouvernator
2009-04-04, 08:57:59
Ich habe hier 3 Monitore stehen und für diese bräuchte ich mal mehr Leistung. Schön wenn es doch blos TFT's wären, aber es sind CRT's mit praktisch unbegrenzter Auflösung sprich 6600x1600@ 4xAA wären immer nett.

Ailuros
2009-04-04, 09:44:19
Das Ziel muss mindestens bei 3x GT200 liegen wenn nV zeigen will das sie mit ihren Monster-Dice den richtigen Weg gegangen sind. Den auch AMD strebt mit RV870 2xRV770-Leistung an und dann hätte man wieder das selben Problem wie jetzt.

Da ich mich an eine aehnliche Aussage wie oben erinnern kann, falls ich irgendwo einen Faktor 2 in der Vergangenheit erwaehnt habe, war es ein Tippfehler. Aber um das Ganze auch auf dem Teppich zu halten: G80 war bis zu =/>3.0x als G7x....

Es sollte aber keineswegs heissen dass auch NV so viel erreichen kann; einen Faktor 3x brauchen sie aber IMO schon um ihre single core Strategie diesmal beweisen zu koennen.

Wobei die Ausgangsbasis mit dem G71 auch entsprechend schwach war.

Jeglicher =/>3.0 Faktor gegenueber G7x setzt voraus dass sowohl G7x als auch G80 mit high quality AF getestet werden.

Auf einen R580 war und ist es selten mehr als die doppelte Leistung, oft weniger.

Tja bleibt nur der klitzekleine Unterschied im vorigen Paragraph und die Tatsache dass G80 als eigentlichen Gegner die R600, welche keine besondere Leistungssteigerungen im Vergleich zu R580 brachte.

Ich will ja nur damit sagen das die Leute die sich eh Highend kaufen diese Karten in der Regel so früh abstoßen das diese Steigerungsraten vom Faktor 2-3-4 nicht wirklich von Belang sind.

Da ich im November 2006 von einer 7800GTX 256MB auf eine 8800GTX stieg war u.a. der Unterschied auch wegen der Speichermenge um einiges groesser als nur ein Faktor 4.0. Der bis zu 3.0x Faktor gilt fuer sehr hohe Aufloesungen mit AA und hq AF fuer Ende 2006/Anfang 2007 gegen eine 7900/512MB. Ich hab die 7800 genau 16 Monate behalten nicht mehr.

Das ist ja Fatal zu denken nur weil man einmal Highend gekauft hat hätte man für 3-4 Jahre ruhe.

Aussnahmen wie ich gibt es immer. Ausser jeglichem SLi gegen das ich immer noch allergisch bin ga es durch 2007 nichts besonderes dass mich zu einer Aufruestung der GPU gelotzt haette. Eine 4870 in 2008 und die heutige 4890 jucken meine Finger durchaus, aber ich hab das Ganze so vernachlaessigt dass ich lieber gleich auf die D3D11 Generation warte.

Du hast zwar Recht was den generellen Trend betrifft bei high end Spieler, aber die 8800GTX war tatsaechlich stark genug dass ich das Ganze bis jetzt ueberleben konnte. Dafuer ist die G80 eine der wenigen Aussnahmen was GPUs betrifft, die ziemlich selten sind (siehe auch R300 als weiteres Beispiel); solche Aussahmen sind auch nicht stark genug um jegliche Regeln zu generieren.

***edit: ich sollte uebrigens noch erwaehnen dass mein 21" CRT immer noch lebt und dieser so lange er es noch aushalten kann weiterhin auf dem gaming PC angeschlossen bleibt. Hier ist die Palette an Aufloesungen zwischen 1280*960 und 2048*1536 ziemlich gross.

Gast
2009-04-04, 09:51:06
Wobei die Ausgangsbasis mit dem G71 auch entsprechend schwach war. Auf einen R580 war und ist es selten mehr als die doppelte Leistung, oft weniger.
Nur das R580 im Vergleich mit unfairen LQ AF getestet wurde.

Gast
2009-04-04, 09:56:39
Nur das R580 im Vergleich mit unfairen LQ AF getestet wurde.

Umgekehrt. Der G71 hatte das LQ AF....

LovesuckZ
2009-04-04, 10:03:45
Der g80 unterstützte auch D3D10. Die 8800GTX war beim Release 70% schneller als der r580. Der rv770 gerade mal 30% und das ohne nennenwerste Neuerungen. Die 8800GTX erschien 11 Monate nach dem r580, die 4870 ca 19 Monate später. nVidia hat wesentlich mehr erreicht als AMD und das trotz deutlich kleinerem Fertigungsprozeß. Nicht zu vergessen, dass der rv770 einen genauso großem Strombedarf besitzt wie die 8800GTX.

Gast
2009-04-04, 10:08:51
Der g80 unterstützte auch D3D10. Die 8800GTX war beim Release 70% schneller als der r580. Der rv770 gerade mal 30% und das ohne nennenwerste Neuerungen. Die 8800GTX erschien 11 Monate nach dem r580, die 4870 ca 19 Monate später. nVidia hat wesentlich mehr erreicht als AMD und das trotz deutlich kleinerem Fertigungsprozeß. Nicht zu vergessen, dass der rv770 einen genauso großem Strombedarf besitzt wie die 8800GTX.

Kommt aufs Spiel draufan. Bei shaderlastigen Spielen wie Crysis Warhead ist die 4870 locker 80% flotter als die 8800GTX.

Gast
2009-04-04, 10:19:52
Kommt aufs Spiel draufan. Bei shaderlastigen Spielen wie Crysis Warhead ist die 4870 locker 80% flotter als die 8800GTX.
Link?

Ailuros
2009-04-04, 10:22:39
Um auf's eigentliche Thema zurueckzukommen: was fuer eine angezielte Grafik-leistung stellt Ihr Euch denn fuer die naechste Generation von Consolen genau vor?

Zwar schaetze ich diese nicht irgendwo vor sagen wir mal 2012 ein, aber in absehbarer Zeit werden die grossen Hersteller schon ihre relevanten Vertraege fuer Grafik-IP abschliessen und das Resultat wird wohl um einige Male hoeher als bei den heutigen Xenos bzw. RSX chips liegen.

eine Xbox720 oder PS4 sind sicher noch locker 2 Jahre entfernt- das sind mindestens noch 2 weitere GPU Generationen!

Eigentlich nur eine technologische Generation die jeglichen Refreshes bis zu ~2012 mal nicht mitgerechnet. D3D11 hoechstwahrscheinlich ja fuer die naechste Consolen-Generation, RV870/GT3x0 Leistung aber wohl nicht. Erstens weil Consolen unter anderen Vorraussetzungen operieren und zweitens weil die Hersteller sowohl den Stromverbrauch der Console als auch die Herstellungskosten unter Kontrolle behalten moechten.

LovesuckZ
2009-04-04, 10:23:27
Kommt aufs Spiel draufan. Bei shaderlastigen Spielen wie Crysis Warhead ist die 4870 locker 80% flotter als die 8800GTX.

Das kann sich höchsten nur auf die 1GB Verison beziehen. Die 512mb Version leidet nämlich unter dem Speicher und ist nie 80% schneller.

Gast
2009-04-04, 10:25:38
Link?
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/16/#abschnitt_crysis_warhead

Gast
2009-04-04, 10:29:45
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/16/#abschnitt_crysis_warhead
Ich sehe keine 8800 GTX.

reunion
2009-04-04, 10:30:42
Wobei man dazu sagen muss die die 4870/512 im Gegensatz zum 1024MB Version (und auch manch andere Karten) hier noch mit einem uralt Treiber verglichen werden.

Gast
2009-04-04, 10:34:26
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/16/#abschnitt_crysis_warhead
4850 schneller als 4870? ;D

reunion
2009-04-04, 10:37:24
GTX275 schneller als GTX285, man könnte das Spiel ewig fortsetzen. Bis auf 4890 vs. GTX275 und vielleicht noch die 4870/1GB und die GTX260, welche mit dem Cat. 9.3/GF182.46 getestet wurden kann man dort nicht wirklich vergleichen.

Ailuros
2009-04-04, 10:39:45
Wird es nicht so langsam Zeit auf's eigentliche Thema zurueckzukommen?

Daredevil
2009-04-04, 10:51:02
Ich hoffe ja das die Grafikkarten durch ihre brachiale Leistung mit der Zeit immer mehr zur Allzweckwaffe in PC Systemen werden.
Das sie mehr sind als eine reine Grafikausgabe, Nvidia zeigt ja eindrucksvoll was man alles machen kann wenn man nur die gescheite Plattform hat, wenn das ganze nun breit gefächert über viel mehr Software geht wär es optimal.
Mal rein theoretisch, ich hab davon kein Plan, könnte man mit einer Grafikkarte das System entlasten?

Ich denke da an Dateien die man packt/entpackt und durch die Karte beschleunigt wird, halt alle möglichen Sachen die Leistung erfordern und wo die GPU viel mehr leistet als ein Prozessor.
Was ich mir ja schon immer gewünscht habe das man den freien vRAM im 2D Betrieb der Grafikkarte als RamDisc z.B. benutzen kann, is sowas möglich?
Wenn der Systemspeicher mit Vistas Prefetch vollgestopft wird kann doch auch die Auslagerungsdatei im 2D Mode auf den Graka RAM verschoben werden, sollte bei GDDR5 doch ordentlichen Speed bringen, nur so eine Idee als Laie.:redface:

Gast
2009-04-04, 10:56:02
Was ich mir ja schon immer gewünscht habe das man den freien vRAM im 2D Betrieb der Grafikkarte als RamDisc z.B. benutzen kann, is sowas möglich?
Wenn der Systemspeicher mit Vistas Prefetch vollgestopft wird kann doch auch die Auslagerungsdatei im 2D Mode auf den Graka RAM verschoben werden, sollte bei GDDR5 doch ordentlichen Speed bringen, nur so eine Idee als Laie.:redface:
Das bringt soviel, wie wenn der Systemspeicher einfach 1GiB größer ist.
Ok, nicht ganz, dank PCIe ist der VRAM etwas langsamer.

Nö bringt nichts, nur Probleme.

Ailuros
2009-04-04, 11:01:24
Ich hoffe ja das die Grafikkarten durch ihre brachiale Leistung mit der Zeit immer mehr zur Allzweckwaffe in PC Systemen werden.
Das sie mehr sind als eine reine Grafikausgabe, Nvidia zeigt ja eindrucksvoll was man alles machen kann wenn man nur die gescheite Plattform hat, wenn das ganze nun breit gefächert über viel mehr Software geht wär es optimal.
Mal rein theoretisch, ich hab davon kein Plan, könnte man mit einer Grafikkarte das System entlasten?

Das ist auch das eigentlich Ziel von GPGPU: die vorhandenen CPU und GPU Resourcen eines jeglichen Systems besser auszubalancieren.

Das eigentliche Ziel fuer NVIDIA fuer die naechste Generation waere die Architektur so aufzubauen dass jegliche GPGPU Faehigkeiten nicht die Leistung/Transistor Analogie fuer gaming gefaerden.

SimonX
2009-04-04, 11:24:35
Also ich meine, das solche Spiele wie Crysis voll gehypet wurden und das deren Grafik im Allgemeinen (nicht im Speziellen) sich nicht so gut darstellt und das obwohl es angeblich High-End Gfx sein soll.

Die Gfx-Qualität ist trotz hoher Leistunganforderungen nicht so wie ich es erwartet hatte. Da gibt es Spiele die eigentlich bessere Gfx-Qualität (im Allgemeinen, nicht im Speziellen) bieten und deutlich weniger Hardware benötigen. (Beispiel Riddick: Die Charakter waren deutlich besser gerendert als bei Crysis. Das läuft sogar flüssig (30+ fps) auf meinem alten P4 mit 7900GT bei 1600x1200)

Sebst 720p (1280x768) Spiele auf der PS3 sehen nicht schlechter aus als Crysis (Ich bin der Meinung, das sie sogar besser aussehen. Besser Lichteffekte. Vielleicht weniger Details im Speziellen, was aber im Allgemeinen nicht wirklich auffällt)

Entweder ist Crysis zu schlecht programmiert, oder Crysis benutzt unnötige Gfx-Effekte die nur die Hardware-Anforderungen erhöhen ohne wirklichen Qualitätsgewinn.

Dieser Trend zu immer mehr Hardware-Leistung im PC-Bereich hat an Eigenleben gewonnen. (So wie: Mein PC ist der schnellst und hat die längste .... Grafikkarte) Davon lebt die PC-Hardware Industrie.

Schon die existierende Hardware wird auch von PC-only Spielen nicht ausgereizt bzw. nicht richtig verwendet. Wozu also noch mehr GPU Power?

Der Bedarf rechtfertigt sich nur durch den Wunsch der PC-Enthusiasten schnellere Hardware zu bekommen. Dadurch wird auch die Mainstream-Hardware auf das nächste Level gepusht. Es gibt schon jetzt keine PC-Only Spiele, die die aktuelle Hardware voll ausnutzen und dabei durchgängig echte Qualitätsverbesserungen der Gfx zeigen.

Der Bedarf wird auch durch die Gfx-Hardware Industrie künstlich gepusht. Ganz speziell NVidia und ATI machen sich ja gerade extreme Konkurrenz.

Die einzige gute Rechtfertigung für stärkere Gfx-Hardware wäre echte photoreaslistische Darstellung in Spielen. Davon sind wir aber weit entfernt. Vielleicht ist es langsam an der Zeit in Richtung Ray-Tracing zu gehen.

Es wird auch ständig die Sfx vernachlässigt. (So hat Crysis ein Sfx-System (kein Raumfeeling) das nicht mal mit System Shock 2 aus 1999 mithalten kann.)

Mit "im Speziellen" meine ich z.B. Wassereffekte, Detailschatten oder die Masse an Details am Charakter.
Mit "im Allgemeinen" meine ich z.B. die Vielzahl der dargestellten Objekt: Häuser, Grass, Bäume, Felsen (die bei Crysis zum Teil echt schlecht aus sehen wenn man sie sich aus der Nähe anschaut)

mapel110
2009-04-04, 11:35:02
Was ich mir ja schon immer gewünscht habe das man den freien vRAM im 2D Betrieb der Grafikkarte als RamDisc z.B. benutzen kann, is sowas möglich?
Wenn der Systemspeicher mit Vistas Prefetch vollgestopft wird kann doch auch die Auslagerungsdatei im 2D Mode auf den Graka RAM verschoben werden, sollte bei GDDR5 doch ordentlichen Speed bringen, nur so eine Idee als Laie.:redface:
Im 2D-Modus ist doch eh das meiste an System-Ram frei. Der wird doch bei den meisten Leuten nur zum Spielen gebraucht. Also ist das eher sinnlos, da erst noch den VRam vollzumüllen, der bei jedem Spielstart dann ja erst wieder mühselig umgelagert werden müsste. Wenn SSDs kommen, wird kaum noch jemand übers Auslagern jammern.

SimonX, Crysis wurde hier schon sehr oft besprochen. Und für das Gebotene ist die Leistung sehr gut, wenn man die Technik dahinter versteht. So sehen es jedenfalls unsere Entwickler hier im Forum.

frix
2009-04-04, 11:58:10
Ich als 3D artist hoffe auf eine schnelle und zuverlässige echtzeit darstellung in meinem 3d programm.
Wird auf jeden fall kommen. Fraglich ist nur wie es mit der performance aussehen wird ;)

dargo
2009-04-04, 12:19:17
Also ich meine, das solche Spiele wie Crysis voll gehypet wurden und das deren Grafik im Allgemeinen (nicht im Speziellen) sich nicht so gut darstellt und das obwohl es angeblich High-End Gfx sein soll.

Die Gfx-Qualität ist trotz hoher Leistunganforderungen nicht so wie ich es erwartet hatte.

....

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7200813&postcount=23
Da kann ich nur zu sagen - entweder man sieht es oder eben nicht. :)

ROXY
2009-04-04, 12:24:25
also devil may cry 4 und UT 3 laufen super und bieten super grafik.

wenn ein spiel wesentlich mehr power braucht und weniger bietet oder nur ein bisschen mehr dann ist es ganz einfach _schlecht_ optimiert und gemacht.

crysis ist ganz nett aber ausser jungle - crap grafikdesign und eintönigen levellayout kann ich dem absolut nichts abgewinnen.
mehr ein timedemo als ein spiel.
für 500 palmen mehr oder weniger kauf ich mir keine neue graka...

Gast
2009-04-04, 12:27:13
Sebst 720p (1280x768) Spiele auf der PS3 sehen nicht schlechter aus als Crysis (Ich bin der Meinung, das sie sogar besser aussehen. Besser Lichteffekte. Vielleicht weniger Details im Speziellen, was aber im Allgemeinen nicht wirklich auffällt)

Entweder ist Crysis zu schlecht programmiert, oder Crysis benutzt unnötige Gfx-Effekte die nur die Hardware-Anforderungen erhöhen ohne wirklichen Qualitätsgewinn.
[/i]

Dicke Hardware macht noch keine gute Grafik. Da zählt eben viel der Content hinzu, und als Paradebeispiel kann man da auf der PS3 immer wieder Uncharted nennen. Ist eben ein Spiel in den das Gesammtbild stimmt, deswegen ist es im vgl. zu Crysis vieleicht Grafisch nicht soweit hinten wie es Farcry nun ist.
Crysis in DX9 High läuft gut auf allen gängigen Systemen, wo viele immer meinen es würde unter DX10 scheiße laufen hängt einfach daran, das die Effekte, um ein noch besseres Bild zu bekommen (aus dem Content heraus), eben extrem Leistung brauchen. Und wir sind erst in der 2. Generation der DX10 Grafikkarten, man denke mal zurück als erste DX9 Grafikkarten aufkamen und wirft denen dann ein FarCry mit vollen Grafikdetails vor...
Die Geschichte wiederholt sich (noch) und ich kann nicht sagen, dass ich das schlecht finde ;)

frix
2009-04-04, 12:28:05
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7200813&postcount=23
Da kann ich nur zu sagen - entweder man sieht es oder eben nicht. :)

Also solche aussagen versteh ich auch nicht. Es ist nach wie vor unerreicht imo.
Es dürfte aber gern mal wieder so ein spiel rauskommen, das der grafikkarte ordentlich zu beißen gibt.

Gast
2009-04-04, 12:30:58
also devil may cry 4 und UT 3 laufen super und bieten super grafik.

wenn ein spiel mehr power braucht und weniger bietet oder nur ein bisschen mehr dann ist es ganz einfach _schlecht_ optimiert und gemacht.

crysis ist ganz nett aber ausser jungle - crap grafikdesign und eintönigen levellayout kann ich dem absolut nichts abgewinnen.
mehr ein timedemo als ein spiel.
für 500 palmen mehr oder weniger kauf ich mir keine neue graka...
der ansatz und die engine von crysis ist ja gut - nur leider braucht man dann auch leute die damit umgehen können und geniale welten erschaffen und genau da hakt es eben.

DMC4 ist auch nur deinen Schlauch abrennen und viel Shadergeballer aber ohne gescheites AF auf den Konsolen... Wenn es nur 500 Palmen wären würde dir jeder zustimmen, aber du und viele sehen eben das Gesammtpacket dahinter nicht.
Evtl. fehlt da auch einfach das technische Wissen um das eben direkter Bewerten zu können.

Lolman
2009-04-04, 12:41:00
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7200813&postcount=23
Da kann ich nur zu sagen - entweder man sieht es oder eben nicht. :)

Eben. Außerdem skaliert die Engine wunderbar. Ich bastel gerade ein Level und bin aktuell bei 4Mio.Tris/frame und hab dennoch ~30 fps mit ner HD4870 (im Editor).

EDIT: Wobei da natürlich noch Optimierungsbedarf besteht. Die 4 Mio. kommen zu einem nicht unbeträchtlichen Teil von der Mster Config + hoher Vegetationssichtweite ;)

dargo
2009-04-04, 12:42:30
Also solche aussagen versteh ich auch nicht. Es ist nach wie vor unerreicht imo.

Ich glaube das Problem ist, dass viele die der Meinung sind Crysis würde fürs gebotene schlecht performen das Game gar nicht gespielt haben und nur anhand vom Bild XYZ beurteilen. Man sollte die Grafik nicht nur auf ein Bild beschränken. Die Detaildichte von Crysis je cm² ist immer noch unerreicht. Tag/Nacht Wechsel, zerstörbare Umgebung + Vegetation, enorme Sichtweite mit extremer Detaildichte, nahezu perfekte Schatten in den Outdoorlevels, dynamische Schatten etc.
Wenn dann Jemand mit UT3 etc. kommt dann kann ich nur den Kopf schütteln. Die UE3-Engine ist nicht mal in der Lage fehlerfreie Schatten darzustellen, oder anders ausgedrückt - ich habe bis jetzt kein UE3-Game mit fehlerfreier Schattendarstellung gesehen. Und die ganzen imo schlechten Fakes der UE3 sind auch nicht zu übersehen.

Eins würde ich noch gerne zu Uncharted loswerden. Das Artwork ist durchaus schön. Als ich aber das Video zu Uncharted 2 gesehen habe kam mir die Umgebung völlig leblos vor. Die Sichtdistanz war auch sehr klein (ich habe wie gesagt nur das Video gesehen). Das sind so Sachen die man dabei auch berücksichtigen sollte und nicht einfach nur ein "totes" Bild betrachten.

Gast
2009-04-04, 12:57:30
Bis auf Crysis und Stalker CS sieht man doch fast nur noch 3-stellige AVG Werte- bei Full HD und maximalen Details!
Full HD ist für Mädchen. ;)

Mr. Lolman
2009-04-04, 12:58:56
Wenn dann Jemand mit UT3 etc. kommt dann kann ich nur den Kopf schütteln. Die UE3-Engine ist nicht mal in der Lage fehlerfreie Schatten darzustellen, oder anders ausgedrückt - ich habe bis jetzt kein UE3-Game mit fehlerfreier Schattendarstellung gesehen.

Wobei die UE3 auch sehr schön skaliert. Die Detailsdichte von UE3-Spiele ist zwar deutlich geringer, als bei Crysis, aber das ist zu einem großen Teil ein Artworkproblem, bzw. ein Zugeständnis an die Konsolenkompatibilität. Rein vom technischen Standpunkt her spielt die UE3 auch ganz oben mit.

dargo
2009-04-04, 13:01:35
Rein vom technischen Standpunkt her spielt die UE3 auch ganz oben mit.
Ich würde dir das gerne glauben, nur leider sehe ich davon in Spielen sehr wenig. ;(
Aber wie du schon sagtest, man nimmt da anscheinend zuviel Rücksicht auf die Konsolen.

Argo Zero
2009-04-04, 14:40:58
Gibt es keine High-Quality Maps für UT3?
Muss ja kein Spiel sein.

ROXY
2009-04-04, 15:17:08
die unreal tournament engine ist und war immer schon eine art referenz da sie am meisten bietet bei geringen anforderungen.
das war bei UT 99, UT 2004 und UT3 so...


nur nebenbei.
wenn man schon so ein konstrukt wie crysis / tek hat - warum dann nicht ein spiel wie OUTCAST2 damit gestalten?
cuter slade in crysis mit ordentlichen world deign wäre sicherlich ein blockbuster geworden.

crysis ist und bleibt so wie es ist eine art spielbare demo da der inhalt und das layout und das leveldesign ganz einfach 0815 sind.

y33H@
2009-04-04, 15:28:20
Praktisch alle Shooter der letzten 5-10 Jahre kann man wenn man will als 08/15 bezeichnen. Schwebende Waffe, lineare Levels und alles platt machen. Nur das Drumherum variiert ...

tombman
2009-04-04, 15:47:24
Jo, gameplaytechnisch ändert sich leider überhaupt nix. Es wird auch gar ned versucht.
Es wird immer mehr Wert auf PRÄSENTATION gelegt. Ein interakiver Film mit Baby-Schwierigkeitsgrad und Bombastgrafik...
Wenn man die Effekte und Shader herausnimmt, spielt man quake 1 ;D

Was mich am meisten stört ist dieses Warten auf den Char. ALLES, jeder Effekt und jedes Ereignis is nur da, um darauf zu warten, daß man es auslöst. Jede Deckung, jede Kiste, jeder Raum hat einen Zweck- mir zu dienen, wenn die Zeit reif ist. DAS SUCKT.

Ich will eine virtuelle Welt, die auch funken würde, wenn ich nicht dort wäre. Jede AI soll ihre Aufgabe haben, ihren Arbeitsalltag und ihr Leben. In Gothic X wurde das ja schon versucht- das sollte man weiterverfolgen.

Und das dieses klare schwarz-weiß Denken :rolleyes: Ich will Verräter, Egoisten, Lügner etc.

Ups, ist ja schwer OT. hab mich hinreißen lassen ....

Crazy_Chris
2009-04-04, 15:52:09
Innovative Spiele wie z.B. Mirror´s Edge werden ja auch einfach links liegen gelassen. :mad:

The_Invisible
2009-04-04, 16:04:18
Jo, gameplaytechnisch ändert sich leider überhaupt nix. Es wird auch gar ned versucht.
Es wird immer mehr Wert auf PRÄSENTATION gelegt. Ein interakiver Film mit Baby-Schwierigkeitsgrad und Bombastgrafik...
Wenn man die Effekte und Shader herausnimmt, spielt man quake 1 ;D

Was mich am meisten stört ist dieses Warten auf den Char. ALLES, jeder Effekt und jedes Ereignis is nur da, um darauf zu warten, daß man es auslöst. Jede Deckung, jede Kiste, jeder Raum hat einen Zweck- mir zu dienen, wenn die Zeit reif ist. DAS SUCKT.

Ich will eine virtuelle Welt, die auch funken würde, wenn ich nicht dort wäre. Jede AI soll ihre Aufgabe haben, ihren Arbeitsalltag und ihr Leben. In Gothic X wurde das ja schon versucht- das sollte man weiterverfolgen.

Und das dieses klare schwarz-weiß Denken :rolleyes: Ich will Verräter, Egoisten, Lügner etc.

Ups, ist ja schwer OT. hab mich hinreißen lassen ....

welcom to real life :D

mfg

Showtime
2009-04-04, 16:10:41
Was mich am meisten stört ist dieses Warten auf den Char. ALLES, jeder Effekt und jedes Ereignis is nur da, um darauf zu warten, daß man es auslöst. Jede Deckung, jede Kiste, jeder Raum hat einen Zweck- mir zu dienen, wenn die Zeit reif ist. DAS SUCKT.

Ich will eine virtuelle Welt, die auch funken würde, wenn ich nicht dort wäre. Jede AI soll ihre Aufgabe haben, ihren Arbeitsalltag und ihr Leben.

Jaja... das gute, alte Deus Ex. :)

=Floi=
2009-04-04, 16:17:27
lasst mal die kirche im dorf. Es tut sich auch bei den shootern etwas und so schlimm wie ihr es hinstellt ist es nicht.

UT3 will auch spielbarkeit bieten und bei D3 hat man ja leider gesehen, wo es hinführt wenn man nur >30fps im mp hat...

Byteschlumpf
2009-04-04, 16:39:02
Ich hoffe mal, dass es weitaus bessere Kühlkonzepte für die nächste Generation geben wird - ich will eine schnelle und dennoch leise Grafikkarte!
Meine G92 GTS verhält sich da IMO vorbildlich, den unter 2D ist sie praktisch kaum wahrnehmbar.

dargo
2009-04-04, 16:43:03
Ich hoffe mal, dass es weitaus bessere Kühlkonzepte für die nächste Generation geben wird - ich will eine schnelle und dennoch leise Grafikkarte!
Meine G92 GTS verhält sich da IMO vorbildlich, den unter 2D ist sie praktisch kaum wahrnehmbar.
Das kriegst du mit zb. einer 65nm GTX260 auch ohne Probleme hin. Dafür ist nicht mal ein Bios-Eingriff notwendig.

Byteschlumpf
2009-04-04, 16:47:53
Das kriegst du mit zb. einer 65nm GTX260 auch ohne Probleme hin. Dafür ist nicht mal ein Bios-Eingriff notwendig.
Mittels RivaTuner?
Der MM hat eine von PNY in 65nm gerade für 169€ im Angebot.
http://geizhals.at/deutschland/a375192.html

Ein höher getaktetes Modell wäre mir da allerdings lieber.

dargo
2009-04-04, 16:50:09
Mittels RivaTuner?

Jepp, siehe Sig.

Eggcake
2009-04-04, 16:52:59
Jo, gameplaytechnisch ändert sich leider überhaupt nix. Es wird auch gar ned versucht.
Es wird immer mehr Wert auf PRÄSENTATION gelegt. Ein interakiver Film mit Baby-Schwierigkeitsgrad und Bombastgrafik...
Wenn man die Effekte und Shader herausnimmt, spielt man quake 1 ;D

Was mich am meisten stört ist dieses Warten auf den Char. ALLES, jeder Effekt und jedes Ereignis is nur da, um darauf zu warten, daß man es auslöst. Jede Deckung, jede Kiste, jeder Raum hat einen Zweck- mir zu dienen, wenn die Zeit reif ist. DAS SUCKT.

Ich will eine virtuelle Welt, die auch funken würde, wenn ich nicht dort wäre. Jede AI soll ihre Aufgabe haben, ihren Arbeitsalltag und ihr Leben. In Gothic X wurde das ja schon versucht- das sollte man weiterverfolgen.

Und das dieses klare schwarz-weiß Denken :rolleyes: Ich will Verräter, Egoisten, Lügner etc.

Ups, ist ja schwer OT. hab mich hinreißen lassen ....

Irgendwie kommt mir da die Truman Show in den Sinn :)

Byteschlumpf
2009-04-04, 17:03:34
Deine Gigabyte dürfte dann sicher baugleich mit der PNY sein.
http://geizhals.at/deutschland/a368849.html

Übertakten scheint mit der 65nm 216er Version ja auch kein Problem zu sein.

Armaq
2009-04-04, 18:19:15
Das Problem ist halt der Unterschied zwischen dem gewöhnlichen Konsumenten und dem sehr Erfahrenen. Tombman hat ein Problem, weil er viele Inhalte kennt und das natürlich stark auf seine aktuelle Wahrnehmung drückt. Dieses Problem haben viele Spieler (noch) nicht. Eh die große Mehrheit weiter ist wird es leider noch eine Weile dauern.

Nur müssen wir uns eingestehen, dass solche Forderungen kaum von den besten Filmen erfüllt werden. Es braucht dazu schlichtweg gute Geschichten. Dan Brown kann das zB. In einem Spiel wäre sein Plot allerdings arg langweilig.

Lawmachine79
2009-04-04, 18:23:28
Innovative Spiele wie z.B. Mirror´s Edge werden ja auch einfach links liegen gelassen. :mad:
Joar, das habe ich angestellt, Super Mario 3D war nicht das, worauf die Welt gewartet hat.

SimonX
2009-04-04, 18:37:42
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7200813&postcount=23
Da kann ich nur zu sagen - entweder man sieht es oder eben nicht. :)

Tja, all diese Effekte sind gut, aber was bringts wenn die Texturen der Wände flach und pixelig sind wenn man sich hin gelegt? (Bin gerade in einem Tunnelsystem)

Da ist halt die Frage: Effekte nur um zu zeigen das man es kann, dafür aber an anderer Stelle schludern?

ROXY
2009-04-04, 20:06:38
ut engine 1 bis 4 XD

http://www.videogamesblogger.com/wp-content/uploads/2008/06/unreal-tournament-4-on-unreal-engine-4-expectation-picture-big.jpg

Exxtreme
2009-04-04, 20:39:18
Ich will Supersamling. Und zwar ganz viel. ;(

dargo
2009-04-04, 21:01:45
ut engine 1 bis 4 XD

http://www.videogamesblogger.com/wp-content/uploads/2008/06/unreal-tournament-4-on-unreal-engine-4-expectation-picture-big.jpg
Lol. Das letzte Bild rechts ist Sylvester Stallone in Judge Dredd. ;D

Ich will Supersamling. Und zwar ganz viel. ;(
Ich wäre für höhere Auflösung pro Fläche bei den Bildschirmen. SSAA bringt dir nichts wenn das Game kein Antialiasing von Haus aus unterstützt. Und es gibt imo leider zu viele Spiele die darunter fallen.

=Floi=
2009-04-04, 21:27:38
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7002686&postcount=52
Da sieht man eindrucksvoll wieviel details da berechnet werden müssen.

deekey777
2009-04-05, 00:48:07
Ich will Supersamling. Und zwar ganz viel. ;(
Du bist so uncool.

drdope
2009-04-05, 01:49:16
Ich versuch das jetzt mal aus der perspektive eines "Normal-Spielers" zu beschreiben (nie das Super-high-end Gaming Sys gehabt und mir nie auf max. Bildquali einen runterholt)...

Ich zock seit ich 6 bin (27 Jahre her)...
Der ganze Grafik-Exzess der letzten Jahre hat mich völlig kalt gelassen...
Ego-Shooter reizen mich kaum noch (seit Wolfenstein 1 dabei), letzte Shooter waren FarCry (Radeon 9800) & Doom3 (7900GT).

Der PC ist für mich Spieletechnisch ne tote Plattform --> interessiert mich nicht einfach mehr...
PS3 = Spiel einlegen und los gehts, kein gefrikkel, kein feintuning, einfach nur zocken.
Für meine Desktopansprüch reicht mir locker mein MacMini mit GMA950.

Spiele derzeit primär Lego Star Wars & Lego Indiana Jones im CoOp Mode mit meinem 7 Jährigen Neffen und exessiv GT5P (auf nem Playseat mit G25) auf der PS3 (inkl. 52' FullHD LCD und nem guten Mittelklasse Soundsystem - Heco Metas an nem Denon AVC-A1SE).
Vom Spaßfaktor ist beides um Klassen besser als, als doof alleine auf nem Bürosessel vorm PC zu hocken.

Lawmachine79
2009-04-05, 05:07:57
Der PC ist für mich Spieletechnisch ne tote Plattform --> interessiert mich nicht einfach mehr...
PS3 = Spiel einlegen und los gehts, kein gefrikkel, kein feintuning, einfach nur zocken.
Für meine Desktopansprüch reicht mir locker mein MacMini mit GMA950.


Also sorry, aber den Einheitsbrei gibt es erst, seit Konsolen so hipp sind. Die beiden Spiele, die Du nennst - Far Cry und Doom 3 - haben ihre Genres revolutioniert - und kamen beide ZUERST für den PC. Diesen Fließband-Gears-of-War Müll haben wir der Konsolenorientierung zu verdanken. Die Meilensteine in ihrem jeweiligen Genre haben IMMER PC-Spiele gesetzt (Ausnahmen sind an einer Hand abzählbar, selbst bei Wohlwollen). Die aktuellen PC-Spiele sind so langweilig und anspruchslos, weil es Konsolenports sind. Die Ausnahmen sind: Dawn of War, Empire: Total War usw - merkt man was? Joar, das sind keine Konsolenports.
Ich will Supersamling. Und zwar ganz viel. ;(
Supersampling ist durch nichts zu ersetzen - außer durch noch mehr Supersampling :D :D :D. Immer noch gibt es zuviele Menschen, die dieses Plus an Lebensqualität nicht zu schätzen wissen :D :D :D. Eher würde ich auf HDR verzichten als auf das gestochen scharfe Bild (besonders in der Bewegung).

dargo
2009-04-05, 09:50:18
PS3 = Spiel einlegen und los gehts, kein gefrikkel, kein feintuning, einfach nur zocken.

Auch wenns wieder OT wird, das ist besonders bei einer PS3 völlig falsch. ;)

Und ich frage mich immer wieder von welchem Gefrickel die Rede beim PC ist? Spätestens seit es Windows XP gibt ist eine Konfiguration am PC so langweilig geworden wie noch nie. Zu Win95/98 Zeiten war man sich nie wirklich sicher vor Bluescreens. :D

Giraffengustav75
2009-04-05, 09:54:47
PS3 = Spiel einlegen und los gehts, kein gefrikkel, kein feintuning, einfach nur zocken.
Spiel einlegen und losspielen? Schön wärs, du meinst wahrscheinlich die PS2. :D

Gast
2009-04-05, 10:03:01
Die PS3 funktioniert tatsächlich ohne Internetanbindung?

lumines
2009-04-05, 10:27:47
Also sorry, aber den Einheitsbrei gibt es erst, seit Konsolen so hipp sind. Die beiden Spiele, die Du nennst - Far Cry und Doom 3 - haben ihre Genres revolutioniert - und kamen beide ZUERST für den PC. Diesen Fließband-Gears-of-War Müll haben wir der Konsolenorientierung zu verdanken. Die Meilensteine in ihrem jeweiligen Genre haben IMMER PC-Spiele gesetzt (Ausnahmen sind an einer Hand abzählbar, selbst bei Wohlwollen). Die aktuellen PC-Spiele sind so langweilig und anspruchslos, weil es Konsolenports sind. Die Ausnahmen sind: Dawn of War, Empire: Total War usw - merkt man was? Joar, das sind keine Konsolenports.

klasse, immer alles auf die konsolen schieben :redface:
du tust ja grad so, als ob es dort nur mainstreammüll geben würde.

ich würde es eher auf die multiplattformgeilheit einiger entwicklerstudios schieben.

G.
2009-04-05, 11:39:31
klasse, immer alles auf die konsolen schieben :redface:
du tust ja grad so, als ob es dort nur mainstreammüll geben würde.

Der viele Mainstreammüll kommt nur durch den Erfolg der Konsolen und derer dummer Käufer

Eggcake
2009-04-05, 12:03:16
Nein, das ist nicht das Problem der Konsolen oder der Konsolenkäufer, dass soviel "Müll" auf dem PC landet sondern der Entwickler/Publisher, die meinen man könne jedes Konsolenspiel auf den PC portieren und es würde dort genausoviel Spass machen.
Dem ist einfach nicht so. Konsolenspiele haben völlig andere Anforderungen als PC-Spiele. Das was auf dem PC keinen Spass macht, macht auf der Konsole oft Spass und umgekehrt.

Gast
2009-04-05, 14:48:41
Nein, das ist nicht das Problem der Konsolen oder der Konsolenkäufer, dass soviel "Müll" auf dem PC landet sondern der Entwickler/Publisher, die meinen man könne jedes Konsolenspiel auf den PC portieren und es würde dort genausoviel Spass machen.
Dem ist einfach nicht so. Konsolenspiele haben völlig andere Anforderungen als PC-Spiele. Das was auf dem PC keinen Spass macht, macht auf der Konsole oft Spass und umgekehrt.
Eine Portierung schadet aber ned. Man kann sich dann immer noch entscheiden, ob man käuft oder nicht. Lieber viel "Müll", in dem sich für viele doch noch immer etwas Spielbares verbirgt als gar nix. Da wäre dann das Geheule wieder groß, warum man denn den PC ausgrenzt.

Liszca
2009-04-05, 17:14:11
Natürlich erkennen sie den Unterschied, aber weißt du was? Das ist denen gar nicht so wichtig. ;)

Genau das ist der Punkt, und so sollte es am PC auch bleiben, mir gefällt der jetzige Zustand richtig gut.

V2.0
2009-04-05, 17:20:46
Was ich mir wünschen würde, ist das sich die iHVs mehr Gedanken um die Ergonomie ihrer Hardware machen. Kürzere Karten, die in die allermeisten Gehäuse passen und vor allem leise aber leistungsfähige Kühler als Standard.

Ich habe gestern das erste Mal ne 4890 unter Volllast gehört und das geht imho nicht mehr. Das ist genauso lächerlich wie der 5800Ultra Fön.

Liszca
2009-04-05, 17:44:38
Ich glaube das Problem ist, dass viele die der Meinung sind Crysis würde fürs gebotene schlecht performen das Game gar nicht gespielt haben und nur anhand vom Bild XYZ beurteilen. Man sollte die Grafik nicht nur auf ein Bild beschränken. Die Detaildichte von Crysis je cm² ist immer noch unerreicht. Tag/Nacht Wechsel, zerstörbare Umgebung + Vegetation, enorme Sichtweite mit extremer Detaildichte, nahezu perfekte Schatten in den Outdoorlevels, dynamische Schatten etc.


Dann werfe ich mal ganz plump Bioshock ein, gibts schon länger, läuft besser, sieht stimmiger aus, hat mehr Handlungsmöglichkeiten und dann kommt da noch die Atmosphäre dazu die sich einfach zu gut mit dem Sound paart. Und das hat Crysis einfach nicht hinbekommen.

dargo
2009-04-05, 17:51:34
Dann werfe ich mal ganz plump Bioshock ein, gibts schon länger, läuft besser, sieht stimmiger aus, hat mehr Handlungsmöglichkeiten und dann kommt da noch die Atmosphäre dazu die sich einfach zu gut mit dem Sound paart. Und das hat Crysis einfach nicht hinbekommen.
Könnten wir uns langsam einigen nicht über Geschmack zu diskutieren? Da werden wir uns nie einig da Geschmäcker nun mal verschieden sind.

Liszca
2009-04-05, 17:54:20
Könnten wir uns langsam einigen nicht über Geschmack zu diskutieren? Da werden wir uns nie einig da Geschmäcker nun mal verschieden sind.

Das ist jetzt aber ne schwache ausrede;D

Coda
2009-04-05, 17:55:44
Ist es nicht. Ich mag Bioshock auch überhaupt nicht (Fehlkauf), Crysis aber sehr gern.

Liszca
2009-04-05, 17:57:27
Ist es nicht. Ich mag Bioshock auch überhaupt nicht (Fehlkauf), Crysis aber sehr gern.

Soundtechnisch ist Crysis doch total langweilig, bin ich da so alleine mit dem Empfinden?

Coda
2009-04-05, 18:09:17
Soundtechnisch ist Crysis doch total langweilig
Ich finde weder Soundtrack noch sonstiges daran langweilig.

dargo
2009-04-05, 18:10:00
Das ist jetzt aber ne schwache ausrede;D
Entschuldige bitte, aber ich werde nicht mehr über Geschmack diskutieren weil es zu nichts führen wird. Egal ob es Crysis, Bioshock oder sonst was ist.

Armaq
2009-04-05, 19:06:47
2xGT285 wäre für Crysis schon ganz nett. Ansonsten bringts nichts. Sicherlich kommen jetzt wieder SuperAA und Auflösung für Mondkälber, aber denkt euch das dochmal runter auf ein Preis/Leistungsvergleich.

Abseits von Geschmack, habe ich bei einem Vergleich von Gears of War zu Crysis echte Schwierigkeiten mich zu entscheiden. GoW macht mir persönlich viel Spaß und Crysis finde ich technisch nur noch extrem. Ich habe Respekt vor der Leistung, aber ich brauche es nicht wirklich. Anders würde es mMn. aussehen, wenn ich die Grafik von Crysis für ein Rollenspiel bekäme. Hier würde mMn. Inhalt und Grafik einen Mehrwert dahingehend rechtfertigen, das mit der Grafik von CryEngine2 wirklich realistische Charaktere möglich sind und die haben viele Spieler schon bei MassEffect überzeugt. Die Technik darf einfach nicht zum Selbstzweck verkommen und dabei bemühe ich gleich nochmal WingCommander. Rechtfertigung nur durch den Sprung in zwei Dimensionen, Technik und Gameplay. GTA IV hat hier übrigens angesetzt und war auf den Konsolen deshalb erfolgreich. Denn für Konsolen sind sowohl Technik als auch Gameplay federführend.

=Floi=
2009-04-05, 19:36:16
wen interessiert das preis leistungsverhältnis? (im highend) Es ist unbestritten, dass AA, AF gepaart mit einer hohen auslösung die bildqualität verbessert und das ist noch immer das größte plus am pc.
Ich zahle auch gerne gutes geld für gute hardware und guten support. man darf soetwas nicht zu tode sparen, denn davon hat niemand etwas.

crysis ist FREI begehbar und bioshock erzählt eine geschichte. Das sollte man sich immer vor augen halten und mir gefällt beides. Jedes spiel hat seine eigenheiten und seine höhen und tiefen. Beides sind auch sehr gute spiele. Vergleicht nicht immer solche unterschiedlichen spiele, weil es schlicht nicht möglich ist. Die szene mit dem mond am anfang von bioshock ist wohl das einfachste und zugleich das beste was ich je gesehen habe. Ich muß bei jedem vollmond mit leichter bewölkung an das spiel denken und es war auch ein guter anfang.

pest
2009-04-05, 19:39:17
crysis ist FREI begehbar

crysis ist nicht so linear wie cod, aber trotzdem sehr linear wenn man
versucht die vorgegaukelte freiheit auszunutzen

iceman.s
2009-04-05, 19:41:08
Habe hier einen 30" HP TFT. Ich warte auch schon 'sehnsüchtig' auf die nächste Generation.:biggrin:

Vor allem brauche ich eine Karte mit deutlich mehr als 1024MB Speicher, am besten 2048 MB oder höher für Crysis(2) und GTAIV. Ich hoffe die ?GTX 380? kommt pünktlich, am besten schon Anfang Oktober. Wahrscheinlich werde ich sogar 2 rein machen für SLI. Eventuell kommt noch eine G21X dazu, für Physik.

In der Zwischenzeit werde ich meinem PC 2x OCZ Vertex 120GB im RAID 0 gönnen. Um die Ladezeiten zu verbessern.:rolleyes:
Da soll dann Windows 7 RC drauf kommen.

albix64
2009-04-05, 20:44:53
Entschuldige bitte, aber ich werde nicht mehr über Geschmack diskutieren weil es zu nichts führen wird. Egal ob es Crysis, Bioshock oder sonst was ist.
Ja, und wen interessiert das jetzt? ;)

Ailuros
2009-04-06, 08:31:56
Ich will Supersamling. Und zwar ganz viel. ;(

Ich wuensche mir auch einen high end TBDR, aber davon werde ich wohl auch nichts in absehbarer Zukunft etwas sehen.

Selbst exotische analytische (Supersampling) Algorithmen wie Pixar benutzt waeren auf einem DR besser aufgehoben.

robbitop@work
2009-04-06, 13:37:48
Ich wuensche mir auch einen high end TBDR, aber davon werde ich wohl auch nichts in absehbarer Zukunft etwas sehen.

Selbst exotische analytische (Supersampling) Algorithmen wie Pixar benutzt waeren auf einem DR besser aufgehoben.
Stochastic Grid? IMO ist es besonders wichtig, bei AA Modis mit hoher Sampleanzahl (>= 8x) einen guten Downsampling-Filter zu nutzen. Der Boxfilter stößt schnell an seine Grenzen und das Bild wird nicht mehr besser. Ich hoffe, dass die IHVs zukünftig beide in diese Richtung gehen.

Ich hätte am liebsten SG-SSAA mit Bi-Cubischem Downfilter. (wäre sogar auf heutigen GPUs machbar) Meinetwegen über Vertexoffsets und Multi-GPU (also 3dfx ähnliches Verfahren). Dann würde ich sogar SLI/CF in Erwägung ziehen!

Ansonsten wäre aber auch ok: anständiges TMAA und TSAA (kompatibel!), anständiges Edge-AA (ATI!), anständiges AF (NV!) und xS Modi. Wäre schön, wenn man beides kombinieren könnte.

Coda
2009-04-06, 14:42:08
Ich hätte am liebsten SG-SSAA mit Bi-Cubischem Downfilter. (wäre sogar auf heutigen GPUs machbar) Meinetwegen über Vertexoffsets und Multi-GPU (also 3dfx ähnliches Verfahren). Dann würde ich sogar SLI/CF in Erwägung ziehen!
Die IHVs haben das ab D3D10 aus der Hand gegeben. AA muss vollständig von der Applikation verwaltet werden.

Vertex-Offsets brauchst du mit D3D10.1/11 gar nicht mehr. Man kann pro Shader fein granuliert entscheiden welche Teile davon pro Pixel und welche per Sample laufen.

Auch der Downsample-Filter ist natürlich über die Compute Shader bzw. über ein Full-Screen-Quad beliebig selber zu definieren.

Übrigens hat selbst Crytek auf ihren Folien zu Crysis geschrieben "cinematic quality still far away" und darunter "We still need to get rid of all the aliasing".

Es ist also nicht so, als wäre das kein Thema.

robbitop@work
2009-04-06, 14:51:14
Die IHVs haben das ab D3D10 aus der Hand gegeben. AA muss vollständig von der Applikation verwaltet werden.

Vertex-Offsets brauchst du mit D3D10.1/11 gar nicht mehr. Man kann pro Shader fein granuliert entscheiden welche Teile davon pro Pixel und welche per Sample laufen.

Auch der Downsample-Filter ist natürlich über die Compute Shader bzw. über ein Full-Screen-Quad beliebig selber zu definieren.

Übrigens hat selbst Crytek auf ihren Folien zu Crysis geschrieben "cinematic quality still far away" und darunter "We still need to get rid of all the aliasing".

Es ist also nicht so, als wäre das kein Thema.
Das klingt schonmal sehr gut. Aber ich möchte es als User lieber über den Treiber erzwingen können. Nicht jedes Studio bietet alle sinnvollen BQ-Optionen im Spiel an.

Coda
2009-04-06, 14:53:40
Das ist seit D3D10 technisch leider nicht mehr möglich.

Gast
2009-04-06, 15:03:07
Nicht jedes Studio bietet alle sinnvollen BQ-Optionen im Spiel an.
Kaum ein Studio und jenseits der 3rd Person Shooter gleich noch weniger. :usad:

Gast
2009-04-06, 15:23:10
Ich sag nur eins: realtime global illumination/radiosity
ambient occlusion ist doch mist, nur eine billige übergangslösung

Coda
2009-04-06, 15:35:55
Ich sag nur eins: realtime global illumination/radiosity
ambient occlusion ist doch mist, nur eine billige übergangslösung
Ich vermute es wird sehr lange erstmal bei dem Screen-Space-Zeug bleiben, vielleicht noch mit einem zusätzlichen indirekten Schritt und evtl. mit zusätzlichen Tiefeninformationen vom Licht aus.

Echte global Illumination hat prinzipiell mindestens quadratische Laufzeit abhängig von der Levelgröße und Lichtanzahl, deshalb wäre es allein schon beim erstellen der Level sehr schwierig die Performance abzuschätzen.

Für meine Augen ist die Illussion damit eh gut genug. Viele Kino-Produktionen verzichten eh auch ganz darauf und verwenden einfach mehr Detail-Lichter. Wichtiger ist echt erstmal das nervige Aliasing überall wegzubekommen.

Ailuros
2009-04-07, 08:40:53
Stochastic Grid? IMO ist es besonders wichtig, bei AA Modis mit hoher Sampleanzahl (>= 8x) einen guten Downsampling-Filter zu nutzen. Der Boxfilter stößt schnell an seine Grenzen und das Bild wird nicht mehr besser. Ich hoffe, dass die IHVs zukünftig beide in diese Richtung gehen.

Selbst auf einem TBDR wuerde ich wenn moeglich Supersampling vermeiden, ausser ein System waere so verdammt CPU-bound dass der Leistungs-einbruch relativ maessig sein wuerde. Wie dem auch sei fuer SSAA waere theoretisch ein TBDR vom Speicher- und Bandbreiten-Verbrauch her besser geeignet, ueberhaupt wenn man hypothetisch verdammt hohe Sample-Anzahlen haben will. Wenn man aber schon etwas wie >16xSSAA anzielen wuerde, waere man mit einem jeglichen analytischen Algorithmus besser aufgehoben. Alles natuerlich rein theoretisch, denn Coda hat recht was die Begrenzungen in heutigen APIs betrifft.


Ansonsten wäre aber auch ok: anständiges TMAA und TSAA (kompatibel!), anständiges Edge-AA (ATI!), anständiges AF (NV!) und xS Modi. Wäre schön, wenn man beides kombinieren könnte.

Ein jeglicher hw engineer der sich mit solchen Algorithmen beschaeftigt kann es sowieso nie allen richtig machen. Das letzte Mal als ich einen der Vaeter vom VGX befragte wieso das Ding ueber so verrueckt hohe Sample-anzahlen faehig ist, war die Antwort dass sich die Entwickler nicht darueber einig werden konnten wie viele Samples sie eigentlich brauchen fuer OpenVG.

Uebrigens waere ATI's edge detect tatsaechlich anstaendig wenn es auch die notwendige hw-Unterstuetzung haette, denn der Leistungsverlust ist alles andere als optimal.

Wie dem auch sei es gibt viele Wege aliasing zu bekaempfen manchmal helfen sogar kluge Ideen die ueberhaupt nichts mit AA zu tun haben:


http://www.imgtec.com/downloadconfirmation.asp?Newsletter=10&Title=POWERVR%20Newsletter%20Issue%2010%202009

http://www.imgtec.com/powervr/insider/demos/coverflow.asp

Es haengt hauptsaechlich von der Emfindlichkeit eines jeglichen Entwicklers ab aliasing zu bekaempfen; wo ein Wille ist, ist meistens auch ein Weg.

robbitop@work
2009-04-07, 11:42:32
Uebrigens waere ATI's edge detect tatsaechlich anstaendig wenn es auch die notwendige hw-Unterstuetzung haette, denn der Leistungsverlust ist alles andere als optimal.
Das kann man nicht so einfach verbessern. Du musst ja jeden Pixel auf seine Subsamples prüfen und abhängig von der Prüfung kommt dann eine dynamische Sprunganweisung. Und du weißt, dass das teuer ist. Auch die Branchinggranularität ist für so einen Zweck noch nicht ganz optimal (diese zu verkleinern wäre aber sehr transistorintensiv). Da kann man wenig in Hardware gießen. Höchstens den Resolvefilter. Aber der kostet kaum Takte. Was helfen würde, wäre eine Steigerung der Shaderleistung.

Gerade der Resolvefilter bietet aus meiner Sicht das größte Potenzial, die BQ in Zukunft noch signifikant zu erhöhen.

Spasstiger
2009-04-07, 11:59:23
Die edge-detect-Leistung hat sich vom R600 zum RV770 ja schon drastisch verbessert:
- HD 2900 XT: (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_afskalierung) Framerate in Fear bricht auf 21% ein
- Radeon HD 4850: (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/5/#abschnitt_aa_und_afskalierung) Framerate in Fear bricht auf 34% ein.
Also ein Vorteil von 62%, der zu dem allgemeinen Leistungsvorteil ohne AA hinzukommt. Die 8xMSAA-Effizienz wurde dagegen nur um 37% gesteigert. Somit kann man die Steigerung der Effizienz des reinen edge-detect-Downsampling mit 18% beziffern.
Und wenn AMD/ATI die Shaderleistung in Zukunft auch stärker skaliert als die Infrastruktur, dann wird edge detect auch immer günstiger werden.

Aber das normale 8xMSAA ist auch schon recht hübsch und frisst auf den AMD-Karten relativ wenig (im Vergleich zu NV). Edge Detect ist in meinen Augen wirklich nur dazu da, auch das letzte bischen Leistung zu verbraten, wenn was überbleibt. Sinnvoller wären aber AA-Modi, die wirklich die gesamte Szene erfassen -> SSAA.

Byteschlumpf
2009-04-07, 14:03:27
Was könnte die nächste nVidia-Generation an Leistung bieten?

Annahme:
GTX380 ~ GTX295, ca. 400€
GTX360 ~ GTX285/GTX275, ca 220€ - 270€

Würde sich da ein Upgrade für einen G200-Besitzer überhaupt lohnen? Wahrscheinlich schon, wenn er SLI mit der neuen Generation nutzen möchte.

Sollte der Stromverbrauch jedoch noch höher ausfallen, als beim G200, dürfte es sicher einigen Unmut geben - von der noch größeren Lautstärke ganz zu schweigen!

robbitop
2009-04-08, 09:06:16
Also die GT300 im Vollausbau sollte IMO die GTX295 schon schlagen. Ich vermute, dass die GT300 Architektur auch wieder ein Stück effizienter wurde. Mit GT200 ist der Punch pro Transistor schon ziemlich lousy.

Spasstiger
2009-04-08, 10:01:15
Wenn NV mit dem GT300 die dreifache RV770-Performance hinbekommt ohne die üblichen Multi-GPU-Probleme, wäre das schon beachtlich. Vom Transistorcount her sollte es aber möglich sein. Speicherbandbreite muss dann natürlich auch ordentlich vorhanden sein, d.h. ein 512-Bit-GDDR5-SI.

Ailuros
2009-04-08, 14:26:02
Wenn NV mit dem GT300 die dreifache RV770-Performance hinbekommt ohne die üblichen Multi-GPU-Probleme, wäre das schon beachtlich. Vom Transistorcount her sollte es aber möglich sein. Speicherbandbreite muss dann natürlich auch ordentlich vorhanden sein, d.h. ein 512-Bit-GDDR5-SI.

Kommt u.a. darauf an um welchen Faktor die rohe Texelfuellraten auf GT3x0 im Vergleich zu GT200 skalieren werden. Bei einem </=3.0x Faktor, sieht es nicht danach aus als ob sie unbedingt mehr als sagen wir mal 1.6-1.8x Mal Bandbreite im Vergleich zu GT200 brauchen koennten.

Wie schon erwaehnt ich will ein 512bit SI noch nicht ausschliessen, aber es heisst gar nichts denn wir wissen nichtmal ueber was genau jegliche Einheit faehig ist, deren Anzahl, Effizienz usw.

Ailuros
2009-04-09, 08:22:07
Uebrigens:

http://s08.idav.ucdavis.edu/olick-current-and-next-generation-parallelism-in-games.pdf

203-204 (fast am Ende)

AnarchX
2009-04-09, 09:01:04
Ein Faktor 4+ und Spiele mit vollen 1080p@60FPS?
Da dürfte die visuelle Qualität der Spiele bei den Konsolen doch kaum steigen, denn schon allein die Erhöhung Auflösung von so manchen Top-Titel auf dieses Niveau kostet diese 4-fache Leistung und da hat man noch keine 60 FPS.

Ailuros
2009-04-09, 12:01:21
Ein Faktor 4+ und Spiele mit vollen 1080p@60FPS?

Er betont erstmal dass theoretisch 30fps in 720p auf einer 8800 moeglich waeren, aber die Theorie nicht der Realitaet entspricht. Uebrigens sind es 1080p@60fps mit Antialiasing.

Da dürfte die visuelle Qualität der Spiele bei den Konsolen doch kaum steigen, denn schon allein die Erhöhung Auflösung von so manchen Top-Titel auf dieses Niveau kostet diese 4-fache Leistung und da hat man noch keine 60 FPS.

Was genau hat eine Console mit einer 8800 zu tun? RSX basiert auf G7x; wuerde er es mit RSX vergleichen waere der Unterschied noch zich Male groesser.

robbitop@work
2009-04-09, 12:02:52
Ein Faktor 4+ und Spiele mit vollen 1080p@60FPS?
Da dürfte die visuelle Qualität der Spiele bei den Konsolen doch kaum steigen, denn schon allein die Erhöhung Auflösung von so manchen Top-Titel auf dieses Niveau kostet diese 4-fache Leistung und da hat man noch keine 60 FPS.
Von 720p auf 1080p ist der Faktor 2 zu nehmen.
Konsolen haben üblicherweise einen Performancesprung zwischen den Generationen von mind Faktor 8. Eher sogar noch mehr.
Das wird aber zugegebenermaßen schwer, wenn man das heute realisieren wollte. Man bräuchte gute 2 TFlops/s Rechenleistung. Das dürfte mit 32 nm machbar sein. Alle anderen Rohleistungsdaten der GPU müssten natürlich ähnlich mitskalieren.Texturfüllrate muss nicht unbedingt ganz Faktor 8 werden.
In Punkto CPU wird man das allerdings niemals schaffen. Wie auch? An anständige OoO Designs kommt man ja nicht heran. Und deutlich höher werden sich 2011 die IO Dinger auch nicht takten lassen. Und nochmehr Kerne bringen es auch nicht. IMO muss für einen anständigen Performancesprung ein guter OoO Kern her. Sonst kommt da maximal Faktor 2 bei heraus.

Ailuros
2009-04-09, 12:12:23
Robbi auch fuer Dich: Olick erwaehnt in diesem letzten Beispiel eine 8800-Series GPU. Es gibt keine Console mit G80.

AnarchX
2009-04-09, 12:12:32
Von 720p auf 1080p ist der Faktor 2 zu nehmen.

Nur rendern PS3/XBox360 teilweise nicht einmal 720p:
http://forum.beyond3d.com/showpost.php?p=1113342&postcount=2
http://forum.beyond3d.com/showpost.php?p=1113344&postcount=3

Dem Rest kann ich natürlich so zustimmen, wobei sich die Frage stellt, ob nicht das Wii-Konzept und dessen Erfolg möglicherweise Einfluss auf die kommenden Konsolen von Sony und MS haben wird.

Robbi auch fuer Dich: Olick erwaehnt in diesem letzten Beispiel eine 8800-Series GPU. Es gibt keine Console mit G80.
Also glaubst du eher, dass man hierraus etwas über kommende PC-GPUs herauslesen kann?

Interessant auch der Kommentar zu den 30 FPS @ GF 8800:
Unfortunately, reality falls a little short here and 15 fps is more likely.

dargo
2009-04-09, 12:15:54
Ein Faktor 4+ und Spiele mit vollen 1080p@60FPS?

Vorallem nur Faktor 4? Auf was genau bezieht sich dieser Faktor? CPU-Leistung wohl kaum. Auf GPU-Seite finde ich Faktor 4 nicht gerade viel, beim Speicher dann doch "nur" 2GB? Und auf welchen Veröffentlichungszeitraum bezieht sich die Aussage überhaupt?

Nur rendern PS3/XBox360 teilweise nicht einmal 720p:
http://forum.beyond3d.com/showpost.php?p=1113342&postcount=2
http://forum.beyond3d.com/showpost.php?p=1113344&postcount=3

Und nicht nur das - von 30 auf 60fps brauchts auch Faktor 2. Und 30fps werden von der heutigen Generation sogar oftmals unterschritten.

AnarchX
2009-04-09, 12:26:38
Nein, mit Konsolen hat das offenbar nichts zu tun.

Es geht eben um die Parallelisierung der Darstellungsberechnung in Spielen, speziell auch im Bezug auf id-Softwares kommende Engine mit Raycasting.
Momentan läuft die Implementierung mit theoretischen 30 FPS @720p auf einer GF 8800, real sollen es wohl doch nur 15 FPS sein.

Von kommenden Plattformen (also >=GT3x0/RV8x0) erwartet man sich mindestens 4-fache Leistungssteigerung um dann 1080p mit AA @ 60 FPS darzustellen.

In wieweit diese Aussage auf dem Wissen von solche Studio über kommende HW basiert, ist hier eben die Frage.

Ailuros
2009-04-09, 12:30:22
Also glaubst du eher, dass man hierraus etwas über kommende PC-GPUs herauslesen kann?

Interessant auch der Kommentar zu den 30 FPS @ GF 8800:

Natuerlich bezieht er sich auf PC-GPUs. Glaubst Du ehrlich dass er nicht weiss dass eine 8800 nichts mit einer Console zu tun hat?

60fps / 15 fps = 4.0 und das erstmal gar nicht die hoehere Aufloesung und das AA im ersten Fall mitberechnet.

Das Ganze bezieht sich natuerlich nur auf das an dem er zu diesem Zeitpunkt experimentiert hat.

dargo
2009-04-09, 12:33:05
Nein, mit Konsolen hat das offenbar nichts zu tun.

Es geht eben um die Parallelisierung der Darstellungsberechnung in Spielen, speziell auch im Bezug auf id-Softwares kommende Engine mit Raycasting.
Momentan läuft die Implementierung mit theoretischen 30 FPS @720p auf einer GF 8800, real sollen es wohl doch nur 15 FPS sein.

Von kommenden Plattformen (also >=GT3x0/RV8x0) erwartet man sich mindestens 4-fache Leistungssteigerung um dann 1080p mit AA @ 60 FPS darzustellen.

In wieweit diese Aussage auf dem Wissen von solche Studio über kommende HW basiert, ist hier eben die Frage.
Achso... X-D

Bei den Plattformen dachte ich auch erstmal an die nächsten Konsolen. :redface: Ail spricht leider oft in Rätseln. :whistle:

robbitop@work
2009-04-09, 14:04:24
Nur rendern PS3/XBox360 teilweise nicht einmal 720p:
http://forum.beyond3d.com/showpost.php?p=1113342&postcount=2
http://forum.beyond3d.com/showpost.php?p=1113344&postcount=3

Ja aber die meisten spiele werden 720p gerendert AFAIK. IMO muss auch nicht unbedingt alles krampfhaft mit 1080p60 gerendert werden. Lieber 30 fps, 720p, MSAA und dafür schöneren Content.


Dem Rest kann ich natürlich so zustimmen, wobei sich die Frage stellt, ob nicht das Wii-Konzept und dessen Erfolg möglicherweise Einfluss auf die kommenden Konsolen von Sony und MS haben wird.
Nunja. 2 TFlops wird bereits RV870 schaffen. Mit rund 300 sqmm in 40 nm. In 32 nm sollten es dann wohl > 150 sqmm sein. Das ist noch bezahlbar. Ganz so Lowtech wie Wii muss es IMO für eine Unterhaltungskonsole auch nicht sein. IMO hat Nintendo da ganz schön überzogen. Nur musste man diesmal nicht dafür bezahlen. Das nächste Mal könnte es anders sein.

Ailuros
2009-04-10, 07:34:40
Da die Consolen-Hersteller dicht halten ueber ihre Plaene fuer eine lange Zeit selbst nachdem Vertraege unterschrieben werden, wird es wohl noch einige Zeit dauern bis wir herausfinden wer mit welchem Grafik-IHV diesmal im Bett liegt.

Hier gibt es fuer mich keine Garantie dass X Hersteller mit Y IHV unterschreiben wird, nur weil sie in der Vergangenheit zusammengearbeitet haben.

NINTENDO hat nicht umsonst NV's Tegra lizenziert fuer ihr naechster Generation handheld. Es war einfach das billigste verfuegbare Angebot zur Zeit.

Olick macht diverse Experimente fuer das was er als Entwickler haben will und mehr als eine Indizie als auf das was er sich erhofft ist es wohl nicht. Es bleibt dennoch nur ein "educated guess" fuer die Zukunft, denn wenn die Theorie zeigt dass eine 8800-Serie-GPU 30fps erreicht in Fall X, aber diese in Realitaet nur zur Haelfte kommt, kann mich keiner versichern dass seine 'naechster Generation These' auf aehnliche Differenzen in Echtzeit stossen koennte.

Was man aber beruht sagen kann ist dass Grafik IHVs nach extensiver Forschung bei Entwicklern und fuer das was sie wirklich in der Zukunft brauchen ihre zukuenftige HW entwickeln. Wie Kristof vor Jahren mal sagte: 'when Carmack says jump, we ask how high' und daran duerfte sich IMHLO nicht viel geaendert haben, egal ob seine Spiele nicht mehr so erfolgreich sind wie in der Vergangenheit. Die Erfahrung zaehlt wohl eher.

Coda
2009-04-10, 16:04:05
Bei dem Raycasting-Zeug könnte auch immens mit reinspielen, dass bei GT300 wohl die Performance dynamischer Sprünge wohl deutlich besser wird. Das ist da sehr wichtig.

Spasstiger
2009-04-10, 17:19:31
Wie Kristof vor Jahren mal sagte: 'when Carmack says jump, we ask how high' und daran duerfte sich IMHLO nicht viel geaendert haben, egal ob seine Spiele nicht mehr so erfolgreich sind wie in der Vergangenheit. Die Erfahrung zaehlt wohl eher.
Carmack hat auch 64-Bit-Rendering (fp16) propagiert. Nvidia hat mit der GeForce FX genau das umgesetzt. Für DirectX 9 war die Optimierung auf fp16 aber nicht unbedingt die klügste Wahl. ;)

Coda
2009-04-10, 17:22:19
NVIDIA hat auf der GeForce FX fx12-Rendering umgesetzt. Alles mit float (egal ob 16 oder 32 bit) war lahm.

Außerdem hat Carmack damals eher von der Framebuffer-Präzision gesprochen um weniger Probleme mit Multipass zu bekommen.

Spasstiger
2009-04-10, 17:24:43
NVIDIA hat auf der GeForce FX fx12-Rendering umgesetzt. Alles mit float (egal ob 16 oder 32 bit) war lahm.
Hm, ok. Kam mir jetzt nur spontan in den Sinn, dass sich Nvidia beim Design der GeForce FX evtl. nach Carmack gerichtet hat. Aber Carmack war eh mehr vom R300 angetan, die Präsentation von Doom 3 auf der E3 2002 lief auch auf einer Vorserien-9700-Pro. Lob für NV gabs von Carmack erst wieder beim NV40.

Ailuros
2009-04-11, 02:13:27
Carmack hat auch 64-Bit-Rendering (fp16) propagiert. Nvidia hat mit der GeForce FX genau das umgesetzt. Für DirectX 9 war die Optimierung auf fp16 aber nicht unbedingt die klügste Wahl. ;)


Wenn Du mir einen Vorschlag machst und ich bin zu dumm es richtig einzusetzen bist doch Du nicht daran schuld oder?

ROXY
2009-05-04, 23:56:03
ich versteh nicht warum die medien alle vom pc raubkopieren reden.
es sind ebenso sämtliche konsolen von der psp über xbox bis zum nds raubkopierbar.

alles nur eine frage der internetbandbreite.

garack
2009-05-10, 10:45:07
Hallo

Wenn man sich aktuelle benchmarks heutiger highend Gpus/Grafikkarten bei AAA Spielen ansieht wundert man sich doch
wieso man im PC Bereich überhaupt noch schnellere GPUs braucht.
Bis auf Crysis und Stalker CS sieht man doch fast nur noch 3-stellige AVG Werte- bei Full HD und maximalen Details!

Mit welchem Argument will man denn bitte schnellere GPUs und Grafikkarten verkaufen? DX11?

Konsolenhardware bestimmt aktuellen content- wird das nicht zum großen Problem für Nvidia und AMD(ATI)?

"Wow, jetzt statt 120fps 300fps!!!!11122" -> :confused:

Was meint ihr?

Euer tombi :)

p.s: eine Xbox720 oder PS4 sind sicher noch locker 2 Jahre entfernt- das sind mindestens noch 2 weitere GPU Generationen!

Zum Thema:

Warum schnellere GPU?

1.) Games brauchen zu viel Power; War schon immer so. Momentan habe ich eine 4870 OC 1GB auf nem 22 Zöller. Mal ein paar Beispiele:

GTA4 Einbrüche auf unter 30 Frames. Auf Settings die nicht gemaxed sind, aber schon recht hoch.

FC2 Selbtsgebaute Maps mit viel Gewächs. schnell unter 30 Frames.

BF2 Projekt reallity Durch Größe und Modding auch mal unter 40 Frames.

Age of Conan - Schnell mal unter 30 Frames bei hohen Sttings.

Crysis Wars - Nicht ganz hohe Settings 30-40 Frames. Bei hohen Settings starke Einbrüche.

Company of heroes - Drehen der der Kamerawinkesl , große Einbrüche bei hohen Details auf 20 Frames.

Darkfall Online - Schatten auf hoch - 30 Frames.

Usw..CPU ist Q6600@3.4 Ghz, 4 GB Ram Applications können 3.2 nutzen durch DOS Befehl.Vista32 SP1 alle unnötigen Dienste off. Raptor festplatten..

Da ich persönlich Augenkrebs kriege wenn Vsync off ist (und sich das Bild ständig unterteilt) brauche ich 60 frames vsync stock. Das ist dann schönes Spielen...Geht aber nur bei älteren Games , BF2 Engine , HL2 Engine ...

Nun kommt Arma2, OFP2, BF3 was auch immer, und ich weiss wenn ich die Settings maxe brauch ich ne neue Graka. Ganz klar..wie immer.

Für medium Leute ohne Vnysnc und 19 Zöller reicht die Hardware aus. Aber nicht für Leute die Qualität wollen.

Dann kommt noch hinzu das viele Games kein AA mehr könnne wegen dem besch... HDR Quatsch. Nimmt man nhancer und dann gehen die frames richtig down. Oder das game implemetiert AA und HDR aber die performace bricht dann derbe ein (Crysis)..

Oder RTS Games...nach 1 Stunde 8 Leute alles voller Einschlaglösche, Wracks..Die CPU ackert..die GPU kotzt..die Frames be 20 .. argh..:)