PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF8800 und nun?


Avalox/Gast
2006-11-16, 13:04:45
Stetig aber langsam nähern sich aktuelle Grafikkarten doch immer mehr einer Grenze an. Die Granze der Anzeigegeräte.

Sieht man sich die aktuellen Benchmarks an, dann stellt man fest, dass die
GF8800 doch in recht aktuelle Spiele selbst in 1600x1200 (inkl. AA und AF) noch erfreuliche Frameraten liefert, öfter mal im Schnitt sogar höher als ein SingleLink DVI Anschluss überhaupt übertragen kann.
Die 1600x1200 Pixel sind ja seit Jahren eine Grenze bei Displays, welche stürmisch die Consumer, von der Profiklasse abgrenzt. Mehr als 1600x1200 Pixel wird man Zuhause nicht finden, es sei denn man Zuhause ein Display zu stehen, welches dort vom Hersteller nie im Markt platziert worden ist. Ich sehen ehrlich auch keinen Trend (es sei denn mal in weiterer Zukunft mit OLED Displays) welche Zuhause eine weit höherer Auflösung schaffen würden.

So denke ist sind grosse Sprünge in der Monitor Auflösungen für die direkte Zukunft nicht erwarten. So stellt doch diese Tatsache den Grafikkarten Hersteller doch immer mehr vor einen Dilemma. Wie verkauft er denn die höhere Leistung seinen Endkunden? Eine neue Grafikkarten Generation hübschte bestehende Spiele an. Höhere spielbare Auflösung oder nettere Kantenglättung. Man hatte als Käufer sofort was davon. Später gab es dann Spiele, welche die neuen Funktionen auch unterstützen. So hatte man über den Lebenszyklus der Grafikkarte eigentlich immer, den einen oder anderen netten Effekt.

Wo liegt denn aber in Zukunft das Verkaufsargument eine neuen Grafikkarten Generation? Neue Funktionen werden sicherlich immer kommen, aber diese werden ja erst in einer Zukunft X von entsprechenden Spielen unterstützt. Aber das anhübschen bestehender Spiele fällt ja quasi flach. Klar kann man die Kantenglättung unbegrenzt hochschrauben, aber der Nutzen wird ja immer geringer.

Avalox/Gast
2006-11-16, 13:06:18
Urgs. Korrekturlesen vergessen.

tombman
2006-11-16, 13:08:00
Ganz einfach, shader Effekte. Da gibts dann vielleicht 1000 Instruktionen pro Pixel für highend Karten und nur 100 für normale...
Oder man taucht alles in 3D Licht ein mit echten Partikel. "Pimpen" kann man eine Grafik immer...
Aufhören wird es bestenfalls dann wenn wir TV Grafik in Full HD haben ;)

Gast
2006-11-16, 13:12:57
Aufhören wird es bestenfalls dann wenn wir TV Grafik in Full HD haben ;)

Nee, also dann noch nicht.
TV Grafik wirste bei der Auflösung auch gar nicht hinbekommen, ich denke wir sollten da schon in Dimensionen von 16000:10000 Pixel rechnen.

Avalox@Gast
2006-11-16, 13:18:27
Shader Effekte mit dehnen man bestehende Spiele auftuffeln kann? Ein Sepia Effekt für Quake4?

Natürich ist es unfraglich, dass das Grafikrendering nicht am Ende ist. Ein Final Fantasy sieht in PAL Auflösung immer noch besser aus, als jedes Realtime Spiel. Von Fotorealismus ganz zu schweigen.

Aber es kauft sich doch niemand für viel Geld eine Grafikkarte welche Funktionen mitbringt, die vielleicht mal in irgend einer Zukunft gebraucht werden. Zumal die Erfahrung zeigt, dass die Funktionseinführende GraKa Generation eh zu leistungsschwach ist, um diese Funktionen auch zu nutzen.

Grafikkarten werden heute gekauft, nicht als Zukunftsinvest, sondern weil diese hier und jetzt Verbesserungen bringen und genau dieses Argument wird wegfallen. Eine neue Generation wird bestehendes nicht "besser" machen können, als die alte Generation (oder jedenfalls nicht mehr subjektiv feststellbar).

Da aber die Entwicklung der der Grafikkarten natürlich durch ihren kurzen Innovationszyklus finanziert wird, wird sich dort wohl bald mal ein Strategiewechsel bei den GraKa Entwicklern durchsetzen müssen.

Augenmerk auf andere Aspekte. Erweitertes Grafikunabhängiges Prozessing z.B.

tombman
2006-11-16, 13:26:12
naja, wegen quake2 kauft sich keiner 8800 SLI....es ist doch sicher so, daß game devs abschätzen welche hw sie in der Zukunft haben werden und planen dementsprechend ihre Grafikpracht. Du tust ja so, als ob Grafik jetzt schon am Ende wäre und keiner mehr Leistung braucht.

tombman
2006-11-16, 13:28:55
Nee, also dann noch nicht.
TV Grafik wirste bei der Auflösung auch gar nicht hinbekommen, ich denke wir sollten da schon in Dimensionen von 16000:10000 Pixel rechnen.
Wieso? Ein PAL TV Bild einer echten Wiese mit Käfern usw. sieht immer noch 100x besser als aus die beste PC Grafik in Full HD. Es kommt drauf an was man mit den Pixel macht, nicht unbedingt wieviele es gibt...

tombman
2006-11-16, 13:31:19
Ich hätte gerne diese Qualität in der Computergrafik ;)
http://img93.imageshack.us/img93/5127/3332671pm1.jpg (http://imageshack.us)

Avalox/Gast
2006-11-16, 14:13:49
naja, wegen quake2 kauft sich keiner 8800 SLI....es ist doch sicher so, daß game devs abschätzen welche hw sie in der Zukunft haben werden und planen dementsprechend ihre Grafikpracht. Du tust ja so, als ob Grafik jetzt schon am Ende wäre und keiner mehr Leistung braucht.


Nein, ich sage nur, dass (so langsam) einer der Motivatoren wegfällt, der dem Kunden veranlasst Geld für eine neue Grafikkarte zu bezahlen. Ergo wird dann weniger Geld umgesetzt werden und es kann weniger Geld in die Entwicklung neuer Grafikkarten fliessen. Die Entwicklung könnte sich verlangsammen, da der Grafikkartenmarkt zu uninteressant wird. Diese noch lange, bevor überhaupt fotorealistische Grafik überhaupt möglich ist. Es wird sicherlich auch dazu führen, dass sich GPU Hersteller sich immer stärker nach neuen Betätigungsfeldern umsehen werden.

SaTaN
2006-11-16, 14:14:41
Ich hätte gerne diese Qualität in der Computergrafik ;)
http://img93.imageshack.us/img93/5127/3332671pm1.jpg (http://imageshack.us)

Oh-oh... Unschaerfe, da kommen gleich wieder ganz viele, die keine "Bildunschaerfe" moegen.
Ich finde auch, dass bei einem Spiel in Egoperspektive oder in 3rd-person Perspektive, in dem ich die Spielfigur sein soll (G3), keine allzu starke Unschaerfe herrschen darf, denn im RL gibt es die Unschaerfe ja auch nicht bewusst zu bewundern. Natuerlich ist sie da, wenn ich hier auf den Bildschirm schaue, ist das Poster an der gegenueberliegenden Wand unscharf, aber wenn ich hingucke, um das zu sehen, ist da auf einmal alles scharf ;)
Eine Ausnahme ist natuerlich "wetterbedingte" Unschaerfe (Dunst am spaeten Abend, Nebel, Regen in der Ferne), da kann auch der beste TopGun-Pilot nicht mehr scharf in die Ferne sehen.
Na klar gibt es aus optischen (ich meine jetzt wirklich die Optik als Gebiet der Physik oder was auch immer) Gruenden im Fernsehen und im Kino und auf Fotos Unschaerfe, aber doch eher nicht im Blickbereich im wirklichen Leben.

PS: Wenn ich meine Brille absetze, dann hab' ich Unschaerfe en gros... 7,5 Dioptrien Kurzsichtigkeit sind mies :)

Gast
2006-11-16, 14:29:59
Wieso? Ein PAL TV Bild einer echten Wiese mit Käfern usw. sieht immer noch 100x besser als aus die beste PC Grafik in Full HD.

Das ist klar, kommt noch. Aber dann nerven immer noch die "großen" Pixel. Man sollte keine Pixel mehr sehen können.
Es ist ja auch so, je kleiner die Pixel sind, desto mehr Pixel können verwendet werden um den gleichen Bereich darzustellen. Aber davon sind wir noch weit entfernt, es geht nur sehr langsam vorran. Nicht in Dimensionen von doppelt so hohe bis vierfach höhere Auflösung, leider.

Ich hätte gerne diese Qualität in der Computergrafik ;)

Muss ehrlich sagen, schön finde ich das nicht. Sieht total unecht aus.

Gast
2006-11-16, 14:51:28
die 8800GTX mag zwar jetzt für extrem hohe auflösungen geeignet sein, aber schon in ein paar monaten mit den neuen next-gen-spielen (crysis, UE3) wird sie auch "nur" mehr für "normale" auflösungen ausreichen.

Avalox/Gast
2006-11-16, 14:58:53
Glaube ich nicht. Wir werden hier alle "überrascht" sein, wie gut diese neuen Spiele auf der bestehenden Hardware performen werden.

RaumKraehe
2006-11-16, 15:07:36
Nein, ich sage nur, dass (so langsam) einer der Motivatoren wegfällt, der dem Kunden veranlasst Geld für eine neue Grafikkarte zu bezahlen. Ergo wird dann weniger Geld umgesetzt werden und es kann weniger Geld in die Entwicklung neuer Grafikkarten fliessen. Die Entwicklung könnte sich verlangsammen, da der Grafikkartenmarkt zu uninteressant wird. Diese noch lange, bevor überhaupt fotorealistische Grafik überhaupt möglich ist. Es wird sicherlich auch dazu führen, dass sich GPU Hersteller sich immer stärker nach neuen Betätigungsfeldern umsehen werden.

Meine Motivation eine neue GraKa zu kaufen hatte noch nie den Hintergrund das ich mehr Pixel haben wollte. Sondern eigentlich der Speed in Auflösungen zwischen 1024x768 bis 1280x1024. Alles darüber ist mir Wurst. Dann sind ja auch mit jeder Generation mehr Features dazugekommen. Hat aber auch nichts mit der Auflösung zu tun.

Bei Photorealismus sind wir noch lange nicht angekommen. Und damit gibt es auch weiterhin eine Motivation neue GraKas zu entwickeln und auch zu kaufen.

dildo4u
2006-11-16, 15:09:14
Glaube ich nicht. Wir werden hier alle "überrascht" sein, wie gut diese neuen Spiele auf der bestehenden Hardware performen werden.Spiele wie Gothic 3 oder heuzutage sogar RTS Games wie Anno 1701(4 verschiedene Shader nur fürs Wasser!) verbraten unmengen Ressourcen.Du wirst überrascht sein wie schnell eine 8800GTS nicht mher für vollen Details reichen wird.Andere Beispiele sind Ports von der X-Box 360 wie TombRaider Legend oder Splinter Cell 4 ohne Absoluten High-End PC verkommen die zur Ruckelorgie.Ein anderes Stichwort ist HDRR plus AA was selbst eine 8800GTX in hohen Auflösungen am Limit laufen läßt.

SKYNET
2006-11-16, 15:18:09
Muss ehrlich sagen, schön finde ich das nicht. Sieht total unecht aus.

wei bitte? wohl zulange vorm rechner gehangen und polygone angeschaut... das bild sieht wenigsten ECHT aus... ihr solltet mal mehr zeit in der natur verbringen!


@ tombi babe, ja, würde ich mir auch wünschen... 5-10 jahre wirds aber wohl noch dauern.... ;(

aths
2006-11-16, 15:24:06
Nee, also dann noch nicht.
TV Grafik wirste bei der Auflösung auch gar nicht hinbekommen, ich denke wir sollten da schon in Dimensionen von 16000:10000 Pixel rechnen.Hrm? PAL-TV hat eine Auflösung von nur 576 Zeilen, nicht von 10000. Wir brauchen ausgehend von heute gängigen Spiel-Auflösungen nicht mehr Pixel. Sondern bessere Pixel. Die 8800 wäre in der Lage dazu, hier deutliche Fortschritte anzuzeigen – sofern sie vom Entwickler entsprechend programmiert wird.

Gast
2006-11-16, 15:30:05
Hrm? PAL-TV hat eine Auflösung von nur 576 Zeilen, nicht von 10000. Wir brauchen ausgehend von heute gängigen Spiel-Auflösungen nicht mehr Pixel. Sondern bessere Pixel.

Das spielt keine Rolle. PAL TV sieht beschissen aus und ist mit Computergrafiken nicht wirklich zu vergleichen. Ich will euch mal sehen, wenn ihr ein Computerspiel nur in PAL Auflösung zocken müsstest, auch in 20 Jahren noch.
Wenn Dinge gerendert werden, dann ist es nur logisch, das diese nicht an Materialien aus der Realität herankommen können, der entstandende Aufwand ist beim Rendering deutlich höher, als der, der beim >aufnehmen< einer realen Szene entsteht.

[QUOTE=SKYNET]das bild sieht wenigsten ECHT aus... ihr solltet mal mehr zeit in der natur verbringen!

Ja, echt unreal. Da bin ich sicher nicht der einzige, der der sagt.

Avalox/Gast
2006-11-16, 15:36:31
Ich mache es gar nicht an eine GF8800 fest, wenn nicht diese, dann eben die nächste, oder die übernächste GraKa Generation. Die Auflösung der Anzeige Geräte ist eben nach oben hin gedeckelt. Damit eine vernünftiger AA/AF Aufwand ebenso.
Natürlich gibt es Funktionen und Spielsituationen, welche auch aktuelle Hardware bis an den Grenzen fordert. Das wird auch noch lange so sein, weil es eben noch weit weg von einer wirklich guten Grafik ist.

Der Grund, dass ein Crysis, oder ein neues UT auf bestehender Hardware so gut laufen werden liegt halt an der Zielgruppe. Ein Spiel verkauft sich eben nur gut, wenn sich dafür auch eine Käufergruppe dafür finden lässt. Diese muss potentiell in der Lage sind es abzuspielen.

Der Skalierbarkeit einer Engine sind da Grenzen gesetzt. Grenzen im Aufwand den ein Spielehersteller bezahlen will um, dass das Spiel noch auf verbreiteter aber einfacher Hardware ansehnlich läuft und auf Spitzenhardware auch Spitzen Ergebnisse abliefert. Beides zusammen ist halt teuer, zumal heute eh die Konsolenumsetzung das Maß der Dinge ist.
Früher (bis heute) konnte sich der Spiele Hersteller einfach aus der Verantwortung ziehen.
Er bot im Spiel hohe Auflösungen und AA/AF an, damit hat er jede Spitzenhardware klein bekommen ohne auch nur einen deut mehr Aufwand in die Entwicklung zu stecken.
Ab heute scheint es mir anders. Spiele werden in nativer Displayauflösung wieder gegeben, nun reicht es auch noch für ein zusätzliches AA/AF.

Nehmen wir mal (noch rein hypothetisch) eine GF8800GTX reicht um das nächste UT in 1600x1200 mit AA/AF rennen zu lassen. Wie verkaufst du denn dann die nächste Grafikkarten Generation? Ein neues UT kommt ja nicht jährlich auf den Markt.
Du wirst neue Grafikkarten, nur noch dann verkaufen können, wenn auch tatsächlich neue Software verfügbar ist. Das zeichnet sich doch schon heute ab, "ich warte mal bis xx erschienen ist". Das wird im Zukunft immer öfter der Fall sein. Weil der Kauf einer Karte, dann im Bestand überhaupt keinen Vorteil mehr haben wird.

Gast
2006-11-16, 16:10:57
das bild sieht wenigsten ECHT aus... ihr solltet mal mehr zeit in der natur verbringen!


Es (das Bild) mutet in jedem Fall überbelichtet an. Der Schärfeverlauf ist auch nicht optimal.

Über die Natürlichkeit des Motivs besteht jedoch kein Zweifel. ;)

aths
2006-11-16, 17:19:16
Das spielt keine Rolle. PAL TV sieht beschissen aus und ist mit Computergrafiken nicht wirklich zu vergleichen. Ich will euch mal sehen, wenn ihr ein Computerspiel nur in PAL Auflösung zocken müsstest, auch in 20 Jahren noch.
Wenn Dinge gerendert werden, dann ist es nur logisch, das diese nicht an Materialien aus der Realität herankommen können, der entstandende Aufwand ist beim Rendering deutlich höher, als der, der beim >aufnehmen< einer realen Szene entsteht.Trotzdem sieht ein PAL-Video realistischer aus als die beste Echtzeit-Computergrafik – völlig wurscht, in welcher hohen Auflösung die Computergrafik gerendert wird.

SKYNET
2006-11-16, 19:04:30
Es (das Bild) mutet in jedem Fall überbelichtet an. Der Schärfeverlauf ist auch nicht optimal.

Über die Natürlichkeit des Motivs besteht jedoch kein Zweifel. ;)

da ist nix überbelichtet... farben sind satt und kräftig, und der schärfeverlauf... ist auf den käfer scharf gestellt.... punkt! :o)


für mich ein SEHR schönes, und natürliches bild! :smile:

JFZ
2006-11-16, 19:13:22
Die 1600x1200 Pixel sind ja seit Jahren eine Grenze bei Displays, welche stürmisch die Consumer, von der Profiklasse abgrenzt. Mehr als 1600x1200 Pixel wird man Zuhause nicht finden, es sei denn man Zuhause ein Display zu stehen, welches dort vom Hersteller nie im Markt platziert worden ist. Ich sehen ehrlich auch keinen Trend (es sei denn mal in weiterer Zukunft mit OLED Displays) welche Zuhause eine weit höherer Auflösung schaffen würden.


Mal abgesehen davon, daß durch mehr HDR, AA und sonstige graphische Spielereien immer härtere Anforderungen an Grafikkarten gestellt werden, kann ich zumindestens der von dir befürchtete Limitierung auf 1600x1200 nicht zustimmen.
Wenn sich HD Video durch BlueRay und HD-DVD langsam ausbreiten wird, werden auch Monitore, welche FullHD-Auflösungen beherrschen, immer häufiger werden. Jetzt sind ja schon teilweise 24"-Geräte mit 1920x1200 Bildpunkten für unter 800€ zu haben. Ich gehe davon aus, daß sich gerade diese Auflösung in Zukunft auch immer mehr durchsetzen wird, bzw. in vielleicht drei Jahren eher den Standard als die Ausnahme bilden wird...

Avalox
2006-11-16, 20:06:01
Ich denke, dass PC Displays keine immer grösseren Panels bekommen werden. Ein Schreibtisch ist nun mal platzmässig begrenzt und eine gewisse Übersichtlichkeit muss auch gegeben sein.
1920x1200 ist ja einfach die auf 16:10 aufgeblasene Variante von 1600x1200. Na gut, dann eben 1920x1200. Die PPI werden sicherlich im Homebereich auch nicht drastisch ansteigen. (Im Notebook und PDA Bereich tun es diese seit Jahren)

Es gibt ja durchaus sehr viel hochauflösendere PC Displays z.B. die 3840 x 2400 22' Modelle von IBM. Dieses auch schon seit vielen Jahren auf dem Markt.

Aber ich denke nicht, dass sich solche Auflösungen zu Lebzeiten der LCD Technik Zuhause bzw. im Büro durchsetzen werden. Als OLED Display vielleicht, wenn diese billigst herzustellen sind. Dann wird es sicherlich auch Monitore geben, bei dehnen man die Bildfläche einfach vergrößern kann, wenn man es braucht. Aber das ist ja noch einige Zeit hin.

20-23' war immer die Grenze gewesen für einen Büro Arbeitsplatz Monitor. Da der PC Zuhause direkt mit diesem harmoniert, ist auch nicht damit zu rechnen dass nun auf einmal extra grössere Home-Monitore eingeführt werden. Zumal TV Panele, die ja grösser sind, HD auflösungsfixiert wurden.
Deshalb halte ich eine höhere PPI Zahl für Zuhause für die nächsten Jahre unwahrscheinlich. Die Zeit ist dafür noch nicht reif.

Aquaschaf
2006-11-16, 20:23:51
Mein Lieblingsargument, aber hier nochmal: fotorealistische Grafik in Spielen wird nicht an der Hardware scheitern, sondern am Content. AAA-Titel für PS3 oder XBox360 sind schon bei Budgets von 40 Millionen. Ewig in die Höhe schießen werden die Budgets nicht, weil es sich nicht lohnt.

Benedikt
2006-11-16, 20:26:29
Mein Lieblingsargument, aber hier nochmal: fotorealistische Grafik in Spielen wird nicht an der Hardware scheitern, sondern am Content. AAA-Titel für PS3 oder XBox360 sind schon bei Budgets von 40 Millionen. Ewig in die Höhe schießen werden die Budgets nicht, weil es sich nicht lohnt.
Nicht, wenn man die Contenterstellung nicht zumindest zum Teil automatisieren kann, oder on-the-fly-erzeugen (wie hieß das bloß, prozedural?). Was sicher zumindest teilweise in Zukunft kommen wird. Aber schon klar, "händisches" Erstellen fotorealistischer Szenen wird's nicht spielen...

Gast
2006-11-16, 21:57:29
Trotzdem sieht ein PAL-Video realistischer aus als die beste Echtzeit-Computergrafik – völlig wurscht, in welcher hohen Auflösung die Computergrafik gerendert wird.

Ich glaube Du hast den Zusammenhang nicht verstanden. PAL spielt dabei überhaupt keine Rolle.

Wenn Du dir im TV einen computergenerierten Comic anschaust, so wirst du sicherlich zur der Einsicht kommen, das genau dieses selbst am Home PC kein Problem darstellt (okay, wegen der benötigten Renderleistung dauerts ultralang...) aber dann sieht es auch genauso gut aus.

Wenn Du jetzt aber mal reale Szenen, z.B. einen Actionfilm ansiehst, bei den alles mit Kameras aus der Realität aufgenommen wurde, so wirst du ein Problem haben, dieses mit der PAL-Auflösung vom Computer gerendert genauso gut darstellen zu können, da der Aufwand dahinter ein ganz anderer ist.
Die echten Bilder werden nur aufgenommen und nicht gerendert. Da ist ein Unterschied wie Tag und Nacht.

Um Fotorealität erreichen zu können, müssten die Pixel so klein sein, das auf jedem nanomillimeter mehrere dutzend Farben dargestellt werden können, damit wir es als Fotorealistisch wahrnehmen und das ist eben noch lange nicht der Fall.

Gast
2006-11-16, 21:58:23
* Streiche dutzend und ersetze es durch Millionen. ;)

Gast
2006-11-16, 22:21:05
Trotzdem sieht ein PAL-Video realistischer aus als die beste Echtzeit-Computergrafik – völlig wurscht, in welcher hohen Auflösung die Computergrafik gerendert wird.

stimmt, computergrafik ist einfach viel zu "sauber" und scharf.

wenn in der realität ein objekt vor einem anderen steht gibt es keinen pixelgenauen übergang sondern eine gewisse "unschärfe"

man sieht es ja sogar in filmen wie star-wars. beim R2-D2 der "alten" trilogie sah man beim genauen hinsehen noch kratzer und dellen an denen sich das licht gebrochen hat, der CGI-R2D2 der neuen trilogie sieht dagegen viel zu "perfekt" aus.

aths
2006-11-17, 03:18:35
Mal abgesehen davon, daß durch mehr HDR, AA und sonstige graphische Spielereien immer härtere Anforderungen an Grafikkarten gestellt werden, kann ich zumindestens der von dir befürchtete Limitierung auf 1600x1200 nicht zustimmen.D3D10 führt neue Format ein, die (etwas vereinfacht gesagt) HDR-ähnliches Rendering quasi in 32-Bit-Geschwindigkeit ermöglichen. (Tonemapping zieht nach wie vor an der Rechenleistung, aber man kann ohne 64-Bit-Formate auskommen und trotzdem die Dynamik des 5-Bit-Exponenten nutzen.)

aths
2006-11-17, 03:18:59
Ich glaube Du hast den Zusammenhang nicht verstanden. PAL spielt dabei überhaupt keine Rolle.

Wenn Du dir im TV einen computergenerierten Comic anschaust, so wirst du sicherlich zur der Einsicht kommen, das genau dieses selbst am Home PC kein Problem darstellt (okay, wegen der benötigten Renderleistung dauerts ultralang...) aber dann sieht es auch genauso gut aus.

Wenn Du jetzt aber mal reale Szenen, z.B. einen Actionfilm ansiehst, bei den alles mit Kameras aus der Realität aufgenommen wurde, so wirst du ein Problem haben, dieses mit der PAL-Auflösung vom Computer gerendert genauso gut darstellen zu können, da der Aufwand dahinter ein ganz anderer ist.
Die echten Bilder werden nur aufgenommen und nicht gerendert. Da ist ein Unterschied wie Tag und Nacht.

Um Fotorealität erreichen zu können, müssten die Pixel so klein sein, das auf jedem nanomillimeter mehrere dutzend Farben dargestellt werden können, damit wir es als Fotorealistisch wahrnehmen und das ist eben noch lange nicht der Fall.Um Fotorealismus zu erreichen müssen die Pixel keineswegs so klein sein. Natürlich ist es etwas anderes, ob man etwas mit der Kamera aufnimmt oder selbst berechnet. Doch das hat mit der Pixelgröße bezogen auf die Ausgabequalität nichts zu tun, sondern mit der Güte des Renderings (und natürlich des verwendeten Contents.)

Mr.Soapdown
2006-11-17, 05:47:02
Oh-oh... Unschaerfe,
Natuerlich ist sie da, wenn ich hier auf den Bildschirm schaue, ist das Poster an der gegenueberliegenden Wand unscharf, aber wenn ich hingucke, um das zu sehen, ist da auf einmal alles scharf ;)

:)

Ist sowas eigentlich schon mal in einem Game umgesetzt worden? Gerade in Egoshottern ......

Würde das nicht auch einen hohen Rechenaufwand benötigen?

Würde das nicht ein Game realitäsnaher machen?

Mr.Soapdown
2006-11-17, 05:52:16
Hrm? PAL-TV hat eine Auflösung von nur 576 Zeilen, nicht von 10000. Wir brauchen ausgehend von heute gängigen Spiel-Auflösungen nicht mehr Pixel. Sondern bessere Pixel. Die 8800 wäre in der Lage dazu, hier deutliche Fortschritte anzuzeigen – sofern sie vom Entwickler entsprechend programmiert wird.

Ist es dann nicht an der Zeit ein Schritt zurück zu machen, von den hohen Auflösungen runter zu kommen und Pixel entsprechend anders zu proggen.

Avalox/Gast
2006-11-17, 09:28:40
Ist sowas eigentlich schon mal in einem Game umgesetzt worden? Gerade in Egoshottern ......

Würde das nicht auch einen hohen Rechenaufwand benötigen?

Würde das nicht ein Game realitäsnaher machen?

Das kann man aus dem praktischen Grund nicht tun, da der Monitor eine flache Scheibe ist. Das Auge muss sich immer auf den Bildschirm fokussieren.
Zumal dann der Monitor auch gar nicht wüsste was du dir grade auf den Monitor ansiehst.

Von Kindesbeinen lernt man flache Bilder zu sehen, dass ist ja nicht identisch mit dem natürlichen sehen.
Was bei einen Film oder einen Foto noch funktioniert und ein Element der Bildgestalltung ist, nämlich nur das Objekt des Interesses scharf zu zeigen, funktioniert in einem 3D Shooter überhaupt nicht mehr. Du würdest nur noch das Monster im Vordergrund scharf sehen, der Hintergrund wäre unscharf.
Wenn du nun probieren würdest in diesen Hintergrund was zu erkennen so ist es nicht möglich.
Deshalb erhält man ja auch mit 3D Brillen (HMD) keinen wirklich überzeugenden Tiefeneindruck. Eigentlich müsste eine Optik von den Displays auf die Krümmung der Linse im Auge sehr schnell reagieren. Aber sowas gibt es nicht.

Der Mensch hat bis heute keine bildgebene Technik entwickelt, welche wirklich ein realistisches 3D sehen erlaubt.

Grestorn
2006-11-17, 09:43:45
Das kann man aus dem praktischen Grund nicht tun, da der Monitor eine flache Scheibe ist. Das Auge muss sich immer auf den Bildschirm fokussieren.
Zumal dann der Monitor auch gar nicht wüsste was du dir grade auf den Monitor ansiehst.

Von Kindesbeinen lernt man flache Bilder zu sehen, dass ist ja nicht identisch mit dem natürlichen sehen.
Was bei einen Film oder einen Foto noch funktioniert und ein Element der Bildgestalltung ist, nämlich nur das Objekt des Interesses scharf zu zeigen, funktioniert in einem 3D Shooter überhaupt nicht mehr. Du würdest nur noch das Monster im Vordergrund scharf sehen, der Hintergrund wäre unscharf.
Wenn du nun probieren würdest in diesen Hintergrund was zu erkennen so ist es nicht möglich.
Deshalb erhält man ja auch mit 3D Brillen (HMD) keinen wirklich überzeugenden Tiefeneindruck. Eigentlich müsste eine Optik von den Displays auf die Krümmung der Linse im Auge sehr schnell reagieren. Aber sowas gibt es nicht.

Der Mensch hat bis heute keine bildgebene Technik entwickelt, welche wirklich ein realistisches 3D sehen erlaubt.

Man kann das aber schon annähern, wie es z.B. in Gothic 3 sehr gut gelungen ist. Auch entfernte Dinge sind noch scharf, lediglich extrem weit entfernte Landschaftsdetails, die andere Spiele gar nicht mehr zeigen würden, sind durch die Tiefenunschärfe betroffen.

Und das wirkt sehr realistisch. Mehr wie Dunst als wie Unschärfe, weil man es nicht fokusiert hat.

dreas
2006-11-17, 10:00:32
Nun wir erleben aktuell das was auch das 3D-Center immer gefordert hat.
Einen Wettstreit der Bildqualität. Imho ist AAA einer der größten Fortschritte an Bildquali in letzter Zeit. Und der G80 kommt auch sehr konsequent mit
Qualitätsfeatures wie winkelunabhängigem AF, diverse neue AA-Modes (ob sinnvoll oder nicht wage ich noch nicht zu beurteilen)

Das kostet alles ordentlich Leistung und wird nun leistungstechnisch bezahlbar.

Ansonsten ist Bildquali irgendwann eh nicht mehr an Auflösung gebunden,
da die Unterschiede mit immer höheren DPI-Werten irgendwann nicht mehr wahrnehmbar sind.

mfg dreas

robbitop@work
2006-11-17, 10:16:43
Auflösung, AA und AF sind nicht alles. Wir werden in Zukunft eine vergrößerung des Colorbuffers haben (FP16 oder gar FP32 pro Komponente). Das sollte schon einen ordentlichen Leistungsbedarf haben. Hinzukommt, dass man vorhandene Performance für mehr Geometrie (vieles ist bis heute schlecht modelliert und vieles ist unmodelliert und basiert auf Alphatexturen), komplexere Shader, Physik, mehr Texturen. Sobald die Entwickler "fette" Ressourcen auf ihrem Tisch haben, nutzen sie diese auch sehr gern. Gerade die Einführung von SLI brachte dies sehr star. Auf einmal konnte man mit einzelnen Grafikkarten nicht mehr hohe Auflösung, maximale Details und viel AA/AF in aktuellen Spielen nutzen.

Avalox du machst den Fehler und ließt Reviews, die Timedemos nutzen und mit irgendwelchen AVG Werten Balken malen. Entscheidend sind doch die Worst Case Szenarien mit minFPS Werten. Gerade die machen Spiele manchmal ungenießbar.
Schau dir Gothic3 oder Oblivion in diesen Szenarien an. Das schreit nach mehr Performance. Crysis, UE3 und Konsorten werden da noch eine Schippe drauflegen. Eine G80 wird sehr schnell zu langsam für max Details. Spiele entwickeln sich einfach rasant.

IMO kann Performance nie genug da sein (es sei denn man will alle paar Monate aufrüsten).

Ich erlebe schon in heutigen Spielen in 1280 4x/8x max Details mit meiner X1900XT und einem Opteron 2,6 GHz oft Szenen, wo ich mir viel mehr Leistung wünsche..

Avalox/Gast
2006-11-17, 11:18:40
(vieles ist bis heute schlecht modelliert und vieles ist unmodelliert und basiert auf Alphatexturen), komplexere Shader, Physik, mehr Texturen. Sobald die Entwickler "fette" Ressourcen auf ihrem Tisch haben, nutzen sie diese auch sehr gern.


Das ist ja genau dass was ich sage. Wenn die Entwickler dieses auf dem Tisch haben und anfangen zu entwickeln, dann wird die Entwicklung erst fertig, wenn die Grafikkarte schon gar nicht mehr aktuell ist. Bzw. diese dann nicht mal mehr hinreichend ist.
Bisher spielte es keine Rolle. Vom Spiel nicht genutzte GPU Leistung wurde in eine mehr oder weniger Spieleunabhängige Bildverbesserung gesteckt.

Komplexerer Shader und aufwendigere Geometrien sind eine tolle Sache, doch müssen diese von Hand erstellt werden.
Kein Spieldesigner wird eine auch nur einen Deut aufwendigerer Geometrie mitliefern als unbedingt nötig. Den Entwicklungsaufwand bezahlt ihn kein Mensch. Zudem sollen ja neue Spiele ja grade besser aussehen als alte.
Niemand rührt auch nur einen Finger um Content mitzuliefern, welches auf irgendwelchen zukünftigen Beschleunigern noch mal besser aussieht.


Avalox du machst den Fehler und ließt Reviews, die Timedemos nutzen und mit irgendwelchen AVG Werten Balken malen. Entscheidend sind doch die Worst Case Szenarien mit minFPS Werten.

Durchschnitt ist Durchschnitt. Im Schnitt wird eine schnellere Bilderfolge generiert wird, als dass diese vom Monitor darstellbar ist. Natürlich bedeutet dieses dass es Szenen gibt, indem die Bilderfolge noch sehr viel schneller ist, als es der Monitor überhaupt darstellen könnte und im Umkehrschluss wird es Szenen geben, die die Anzeige unterfordern.
Aber die Verschiebung dieses Verhältnisses ist doch das Interessante, es ist doch ein Trend zu erkennen.

Mal rückwärts aufgezeumt.

Gab es vor der GF8800 eine Grafikkarte, welche die nativen Auflösungen von heute gebräuchlichen TFT Monitoren, bei gebräuchlicher Software mit solch hoher FPS Zahl gerendert hat?

Nein. Das Verhältnis verschiebt sich immer mehr. Ich bin sicher, wenn wir diese Kurve folgen, dann sind wir in kurzer Zeit jenseits dessen, was 1920x1200 Pixel(1600x1200) mit AA/AF fressen. Die Durchschnittsframeraten werden steigen, bis wie du sagst die aufwendigere Software da ist. Aber vorher wird es, mM keinen Grund geben sich einen neuen Grafikbeschleuniger zu kaufen. Der alte ist halt schnell genug, für das was da ist. Das ist doch der Unterschied. Ein "Schnell genug" gab es nicht wirklich, es wurden Kompromisse eingegangen - Auflösung, AA /AF. Aber diese Aufwände sind gedeckelt. Na gut erhöht sich ein Aufwand hier einer da. Aber der Fokus verschiebt sich. Der reine darstellungsbezogene Aufwand weicht in den Hintergrund zurück, bleibt der Content bezogene Aufwand.

Ich sage ja nicht, dass schnellere Grafikkarten nicht mehr gebraucht werden. Das ganz sicher nicht.

robbitop@work
2006-11-17, 11:34:12
Ja ok, das war beim G70 auch genauso zum Launch IIRC. Jedoch erscheinen Spiele, die das eiskalt ausnutzen sehr sehr flott.
Eine teure High End Karte kauft man doch, um 1-1,5 Jahre mal Ruhe zu haben. Genau das schafft sie auch (mehr nicht).
G80 ist 2x so schnell wie G71. Dieser 2x Sprung ist ja nichts sooo neues.
Ich denke deine Betrachtungen sind per se korrekt, nur glaube ich nicht, dass es sich langfristig so verhällt wie du prognostizierst. :)

AVG Werte sind übrigens sehr sehr anders als MinFPS Werte. Ich empfehle dazu die Reihe von Madkiller zu lesen auf 3dc. (er hat dazu vier Artikel geschrieben, die wirklich lesenswert sind...du wirst überrascht sein, wie anders es aussehen kann wenn man korrekte Benches hat. Ein Beispiel: vor ein paar Jahren hatten wir noch keinen G70/80. Auch da waren die Balken in den Spielen schon immer sehr lang und dennoch spiegelte es keinesfalls das Spielgefühl eines Spieles wider)

Avalox@Gast
2006-11-17, 12:09:50
Ja ok, das war beim G70 auch genauso zum Launch IIRC. Jedoch erscheinen Spiele, die das eiskalt ausnutzen sehr sehr flott.


Das sollte man wirklich mal vergleichen. Ich denke dem war nicht so.
Hat der G70 denn bei damals aktuellen Spielen in Timedemos, bei 1600x1200 mit AA/AF noch TimeDemos FPS Werte Reihenweise eingefahren, welche über den Darstellungsmöglichkeiten lag. Die GF8800 ist ja nichts weiter als eine konsequenze Weiterentwicklung. Nichts revolutionäres, bricht man auf den G70 runter, so ist der Trend sicher auch bei diesen schon zu erkennen. Würde ich vermuten. Nur ist dieses beim G80 so schön zu erkennen. Ob nun Max/Min, AVR oder welche FPS Rate auch immer. Wenn es heute nicht reicht, so doch schon morgen. Denn die Grafikbeschleuniger erarbeiten sich ja einen immer grösseren Vorsprung und grade jetzt fällt die letzte Grenze und beschelunigt dieses noch weiter. Diese letzte Grenze war 1600(1920)x1200 Pixel mit AA/AF Rendering.

Das Grafikbeschleuniger einen immer grösseren Vorsprung erhalten ist auch verständlich. Es liegt nicht an der Unfähigkeit der Entwickler Schritt zu halten, es liegt an der Marktgegebenheit. Ein neue neue Grafikkarten Generation erreicht ca. die doppelte Performance. Ein quadratische Steigerung. Der Spieleentwickler muss aber sehen, dass das Spiel auch vernümftig auf den im Markt vorhandenen Plattformen gut läuft. Daruf ist der Fokus zu richten. Mehr bezahlt niemand.

Aus genau diesen Grund wird der Abstand von TechDemos zu tatsächlichen Spielen auch immer grösser. Auf der einen Seite die Spitzenhardware, für die es sich aber nicht lohnt speziell zu entwickeln, weil diese kaum jemand hat.

robbitop@work
2006-11-17, 12:26:19
Es gibt doch genug Spiele, die mit einem G80 mit 4xTSAA nicht durchweg flüssig laufen. Oblivion und Gothic3 z.B.
In den Tests kommt nur reines MSAA zum Vorschein und auch nur utopisch hohe Timedemowerte. Wenn man mit dem Teil spielen würde, dann kommt man zu einem gänzlich anderen Eindruck als in den Reviews. (zumindest ist das mit bisherigen Karten immerso gewesen)

strcpy
2006-11-17, 12:31:17
Alle machen nur noch diesen Einheitsbrei... Immer muss alles auf dem Monitor in einer extrem Auflösung passieren. Wünsche mir mal als Gamer eine VR-Brille. Kann mich erinnern: Kollege hat mal eine VR-Brille gehabt und ich glaube "Flight Unlimited" war damit kompatibel. Mann musst die Auflösung reduzieren (glaub auf 320x200 ??) weil beide Augen einzeln brechnet wurden. Aber das Erlebte war der Hammer. Es kommt also nicht nur auf Grafik an, sondern auch auf die Schnittstelle Mensch-Maschine und eine VR-Brille liegt näher an der Natur als ein blöder Monitor.

Warum trauen sich nicht mehr die Hersteller und probieren Neues aus??
Geht nur noch um Gewinnmaximierung und wir unterstützen es. Der Monitor als Schnittstelle ist aus meiner Sicht nicht gut genug um von "Erlebnis" zu sprechen.

Die Bedienung insgesamt ist alles andere als intuitiv. Mal sehen wie das Wii-Konzept aufgeht???

Grestorn
2006-11-17, 12:31:44
Es gibt doch genug Spiele, die mit einem G80 mit 4xTSAA nicht durchweg flüssig laufen. Oblivion und Gothic3 z.B.
In den Tests kommt nur reines MSAA zum Vorschein und auch nur utopisch hohe Timedemowerte. Wenn man mit dem Teil spielen würde, dann kommt man zu einem gänzlich anderen Eindruck als in den Reviews. (zumindest ist das mit bisherigen Karten immerso gewesen)

Nur dass in Gothic 3 nach wie vor kein AA zuverlässig geht. Ohne erkennbaren Grund übrigens.

Gast
2006-11-17, 17:08:13
Nachtrag zum Thema Filmrendering auf 3D Karten:
http://www.csee.umbc.edu/~olano/s2006c03/ch07.pdf

Da sieht man welchen Aufwand man in schönere Grafik stecken kann... die Jungs in der Filmbranche haben ganz andere Vorstellungen von AA, z.B. ;-)

Mit den Ansprüchen wird auch ne 8800 weit unter 1fps bleiben...

Dunkeltier
2006-11-17, 19:14:46
Das sollte man wirklich mal vergleichen. Ich denke dem war nicht so.
Hat der G70 denn bei damals aktuellen Spielen in Timedemos, bei 1600x1200 mit AA/AF noch TimeDemos FPS Werte Reihenweise eingefahren, welche über den Darstellungsmöglichkeiten lag. Die GF8800 ist ja nichts weiter als eine konsequenze Weiterentwicklung. Nichts revolutionäres, bricht man auf den G70 runter, so ist der Trend sicher auch bei diesen schon zu erkennen. Würde ich vermuten. Nur ist dieses beim G80 so schön zu erkennen. Ob nun Max/Min, AVR oder welche FPS Rate auch immer. Wenn es heute nicht reicht, so doch schon morgen. Denn die Grafikbeschleuniger erarbeiten sich ja einen immer grösseren Vorsprung und grade jetzt fällt die letzte Grenze und beschelunigt dieses noch weiter. Diese letzte Grenze war 1600(1920)x1200 Pixel mit AA/AF Rendering.

Das Grafikbeschleuniger einen immer grösseren Vorsprung erhalten ist auch verständlich. Es liegt nicht an der Unfähigkeit der Entwickler Schritt zu halten, es liegt an der Marktgegebenheit. Ein neue neue Grafikkarten Generation erreicht ca. die doppelte Performance. Ein quadratische Steigerung. Der Spieleentwickler muss aber sehen, dass das Spiel auch vernümftig auf den im Markt vorhandenen Plattformen gut läuft. Daruf ist der Fokus zu richten. Mehr bezahlt niemand.

Aus genau diesen Grund wird der Abstand von TechDemos zu tatsächlichen Spielen auch immer grösser. Auf der einen Seite die Spitzenhardware, für die es sich aber nicht lohnt speziell zu entwickeln, weil diese kaum jemand hat.

Würde ich nicht behaupten. Nach dem NV30 und NV35 Desaster gabs dreimal ein immer wieder neu aufgekochtes Design mit nur sehr geringen Verbesserungen im Feature-Set und mäßiger Leistungssteigerung. Der G80, welcher nun folgte, wirft dagegen ein riesiges Paket an Verbesserungen auf die Waage. "Korrekte Filterung", erweiterte Kantenglättungsmodi, eine beinahe um den Faktor 2x gesteigerte Geschwindigkeit - wo man nicht fürchten muß das Sli bei der GX2 gerade mal wieder nicht will...und letztlich die D3D10-Fähigkeit. Wobei letzteres wenig Relevanz zur Lebzeit der Karte haben wird, aber trotzdem ein wichtiges "Checklist"-Feature ist.

Denn sonst sitzt man wieder dauerhaf am Henne-Ei Problem.

Lord.Saddler
2006-11-28, 15:18:14
Der Hunger nach schnellerer Hardware wird nicht aufhören.

Schaut doch mal in die VFX Filmindustrie: Die Auflösung ist dort seid Jahren auf ca. 3 Standarts festgefahren (1080p, 2k und 4k). Den Leuten die dort arbeiten steht absolutes Highend Equipment und Renderfarmen zur Verfügung. Und dennoch wird dir jeder Compositing und 3D artist sagen, dass er auch gerne (falls mörglich) die 100-fache Performance hätte.

Ein Spiel läuft zB. auf 1980x1080 mit 16AA absolut flüssig. Schön. Dann steigere einfach den Polycount, mach aufwändigere Lichteberechnungen, nimm bessere Physikmodelle (Knochen unter Haut, Muskeln, Haare usw)... Schon wirds zu ner Diashow bzw. läuft mit 0,001 fps.

Die Möglichkeiten ein künstliche computergeneriertes Bild weiter zu verfeinern sind beinahe unbegrenzt.

Coda
2006-11-28, 16:06:34
Die Auflösung ist dort seid Jahren auf ca. 3 Standarts festgefahren (1080p, 2k und 4k).

seit. Standards.

Die Möglichkeiten ein künstliche computergeneriertes Bild weiter zu verfeinern sind beinahe unbegrenzt.

Ich vermute auch das man das mehr an Leistung verwenden können wird solang es mehr geben wird.

Botcruscher
2006-11-28, 16:38:43
Man kann nie genug Leistung haben.

Wichtig ist aber das du die Leistung hast, welche du für eine Anwendung benötigst und das zu einem vertretbaren Preis.

Letzteres geht hier im Leistungsaspekt der Freaks immer etwas unter.;)

Lord.Saddler
2006-11-28, 23:44:51
Ich vermute auch das man das mehr an Leistung verwenden können wird solang es mehr geben wird.

"Ich vermute auch, dass man das mehr an Leistung verwenden können wird, solange es mehr geben wird."

Wer im Glashaus sitzt... ;)

Roi Danton
2006-11-29, 00:05:59
Habs gerade in den News gelesen ... es wird leider erst im letzten Abschnitt auf die Shaderberechnungen eingegangen.

Ob mit neueren Grafikkarten vielleicht nicht höhere Auflösungen benötigt werden, ist doch vollkommen wurst. Das ist doch nur die halbe Aufgabe einer GraKa. Bei der anderen Hälfte, dem Berechnen von Shadern (Light-, Shadowmaps & der ganze Kram, spätere Generationen hoffentlich auch mal Raytracing oder äquivalent), stecken heutige Grafikkarten noch in den Kinderschuhen - im Vergleich dazu, was mit "Software" Rendering genutzt wird. Letzteres dauert eben nur um den Faktor 10³,10k,100k länger. Ein Gespräch über Auflösungen war zu Zeiten von Strike Commander hochinteressiert, aber jetzt müssen erstmal genug Texturen diese Auflösung bieten und eventuell irgendwann mal RT-Lichtberechnungen gang und gäbe werden (siehe z.B. Crytek Vids), ohne vorberechnete Maps zu nutzen. 1900x1200 sind mit einem 24" für Spiele vollkommen ausreichend, zumal der "Inhalt" (die Shaderberechnung) durch höhere Auflösungen oder höheres Sampling nicht besser wird.

Finde es halt etwas eigenartig, soviel Platz in den News für Gedanken um eine Auflösungssteigerung von GraKaGenerationen zu verwenden, als vielmehr max. einen Abschnitt dazu zu schreiben und dann lieber auf das Potential der Shader hinzuweisen oder vielleicht auch auf Physikberechnungen einzugehen, etwa warum sind die Shadereinheiten der GraKas angeblich gut für physikalische Berechnungen geeignet oder was steckt hinter AGEIAs Physikbeschleuniger o.ä.

Just my 2cents.

Avalox
2006-11-29, 01:00:19
Es sagt niemand, dass keine leistungsfähigeren Grafikkarten gebraucht werden.
Doch was machst du mit der potentiellen Leistungsfähigkeit der Grafikkarte, wenn das Spiel diese eben nicht gebrauchen kann? Und eines kannst du dir absolut sicher sein, kommt eine neue GraKa der nächsten Generation auf dem Markt, braucht kein bestehendes Spiel der Welt deren Leistungsfähigkeit. Solche Spiele erscheinen erst lange nach der Grafikkarte.
Warum solltest du dir also überhaupt die Grafikkarte kaufen? Auf Vorrat, für den Fall dass mal ein Spiel erscheint, welches diese Garfikfunktionen in der Leistungsfähigkeit überhaupt benötigt?

LovesuckZ
2006-11-29, 01:13:40
Warum solltest du dir also überhaupt die Grafikkarte kaufen?

Um Spiele mit AA/AF und in hohen Auflösungen zu spielen.
Wer darauf nicht steht, ist mit einer Konsole oder einer günstigeren Karte natürlich besser bedient.

Avalox
2006-11-29, 01:27:28
Um Spiele mit AA/AF und in hohen Auflösungen zu spielen.
Wer darauf nicht steht, ist mit einer Konsole oder einer günstigeren Karte natürlich besser bedient.

Ahh. Bisher klar, aber in Zunkunft eben nicht mehr. Die jetzigen Grafikkarten erreichen in Spielen die höchsten (gebräuchlichen) nativen Displayauflösungen bei vernünftigen AA/AF Einstellungen. AA/AF höher zu drehen ist möglich, bringt aber untern Strich keinen Nutzen mehr.

Die Grafikkarten erreichen grade diese "magische" Grenze, die doch einiges ändern wird in Zukunft.

Grestorn
2006-11-29, 07:31:37
Ahh. Bisher klar, aber in Zunkunft eben nicht mehr. Die jetzigen Grafikkarten erreichen in Spielen die höchsten (gebräuchlichen) nativen Displayauflösungen bei vernünftigen AA/AF Einstellungen. AA/AF höher zu drehen ist möglich, bringt aber untern Strich keinen Nutzen mehr.

Die Grafikkarten erreichen grade diese "magische" Grenze, die doch einiges ändern wird in Zukunft.

Ist das so? Bisher war es doch so, dass immer Spiele erschienen sind, die man so einstellen konnte, dass die aktuelle Grafikkarten-Generation damit überfordert wurde, auch ganz ohne AA.

NV40 / R420: FarCry, Riddick
G70 / R5x0: Oblivion, Gothic3
G80 / R600: ?, vl. Crysis?

blackbox
2006-11-29, 09:40:05
Ich werfe mal einen neuen Aspekt rein: Der Aufwand.

Nicht zu vergessen ist, dass man für immer leistungsfähigere Grafikkarten einen immer größeren Aufwand benötigt, um die auch betreiben zu können. Denn da ist bald oder auch schon jetzt ganz sicher eine Grenze erreicht.
Mit Aufwand meine ich den Energieverbrauch. Der kann nicht weiter linear nach oben gehen. Wenn man sich mal die ganzen Rechnerparks anschaut, diese so viel verbrauchen wie ganze Dörfer oder Städte, dann ist ziemlich klar, dass man in einem normalen Haushalt nicht die Leistung bekommen kann, die sich Spieleentwickler, Filmemacher und andere sich wünschen. Das ist zur Zeit ein Ding der Unmöglichkeit, insbesondere, weil hier der Vergleich mit den Filmen angestellt wird.
Es kann nicht angehen, dass PC und Spielkonsole über 500 Watt verbraten, und das über mehrere Stunden, wo gespielt wird. Selbst wenn nicht gespielt wird, so ist beim G80 der Energieverbrauch unverhältnismäßig hoch.
Sicher, einige würden sagen, das sind doch Peanuts. Aber zu bedenken ist, dass ein Umkehr im Energieverbrauch bei Grafikkarten bisher nicht zu erkennen ist, das Gegenteil ist der Fall.
Innerhalb der nächsten zwei Generationen werden die 1000 Watt sicher geknackt. Bisher waren das Fälle für den Staubsauger, oder Herd, oder Heizgeräte, aber alle diese Geräte laufen nur Minuten, keine Stunden.

Daher glaube ich, dass der Aufwand zukünftig der limitierende Faktor sein wird.

Undertaker
2006-11-29, 09:48:35
Innerhalb der nächsten zwei Generationen werden die 1000 Watt sicher geknackt.

halte ich für sehr unwahrscheinlich; dein beispiel würde etwa 800w allein für cpu und gpu(s) bedeuten, das ist praktisch aktuell einfach nicht beherrschbar... viel weiter als 150w cpu und 200w graka wird es meines erachtens nicht gehen...

aths
2006-11-29, 12:22:46
halte ich für sehr unwahrscheinlich; dein beispiel würde etwa 800w allein für cpu und gpu(s) bedeuten, das ist praktisch aktuell einfach nicht beherrschbar... viel weiter als 150w cpu und 200w graka wird es meines erachtens nicht gehen...Eine Möglichkeit sind externe Grafikkarten im eigenen Gehäuse mit eigenem Netzteil.

defleppard78
2006-11-29, 12:29:44
Ich sehe das Problem nicht in der Auflösung. Irgendwann ist mal schluss, richtig. Ich sehe z.B. in Auflösungen die größer als 1600*1200 sind keinen Nutzen, das ist ja schon jetzt der Fall.

Allerdings wird sich an der Grafikqualität in Zukunft viel ändern müssen. In höheren Auflösungen zu spielen reizt dann nicht mehr.

In Zukunft wird man Fotorealismus haben wollen, und davon sind die jetzigen Grafikkarten meilenweit entfernt.

Da gibt es nocht so viel was man verbessern könnte...

darkvader
2006-11-29, 12:50:34
Ich sehe z.B. in Auflösungen die größer als 1600*1200 sind keinen Nutzen, das ist ja schon jetzt der Fall.

Ich glaube das sehen etliche 24" TFT Besitzer anders.....

defleppard78
2006-11-29, 12:58:41
Ich glaube das sehen etliche 24" TFT Besitzer anders.....

Mag ja sein dass jemand einen Nutzen darin sieht, nur die Frage ist welchen? Damit man den Kauf des Monitors rechtfertigen kann?

Wie würde das denn weitergehen? Dass wir in 5 Jahren einen 50" Monitor auf dem Schreibtisch stehen haben?

Wenn man in 3000 er Auflösungen speilen will müssen die Spiele auch die Details bringen die die Auflösungen rechtfertigen bzw. Sinnvoll machen.

Ein Spiel wird nicht schöner wenn man es in 2500 statt 1600 spielt, es wird schöner wenn die Texturen besser werden und es viel realistischere Grafik gibt.

Ich habe auch einen großen CRT der 2500 macht, nur ich erkenne dabei keine bessere Bildqualität im Vergleich zu 1600.

Die Grafik bei spielen ist heutzutage einfach noch nicht mit genügend Details versehen. Selbst im neusten super duper angepriesenen high tech Spiel seh ich sofort in jedem Bild 1000 dinge die man viel besser machen könnte, bzw. die weit von der Realität entfernt sind.

DrumDub
2006-11-29, 13:53:27
Innerhalb der nächsten zwei Generationen werden die 1000 Watt sicher geknackt. unsinn. die leistungsaufnahme einer einzelnen grafikarte wird auch in den nächsten 10 jahren nicht über 200w liegen.

PHuV
2006-11-29, 13:54:37
Ein Spiel wird nicht schöner wenn man es in 2500 statt 1600 spielt, es wird schöner wenn die Texturen besser werden und es viel realistischere Grafik gibt.


Einspruch, allein das Sichtfeld ist mit 2560x1600 bei 30" bedeutend besser, und daß sollte schon Anreiz genug sein. Rein von der Ergonimie ist ein 16:9 bzw. 16:10 Sichtfeld viel besser, weil es unserem natürlichen Sehen mehr entgegen kommt.

Spiele mal FarCry, Doom3, Fear, Oblivion und Gothic 3 auf 2560x1600, und spiele es gleich mit 1280x1024, es ist ein Unterschied wie Tag und Nacht.

Jedoch bin ich der Meinung, daß alles über 30" und Sichtabstand von ca. 50-70 cm unsinnig ist. Eine höhere Auflösung auf 30" könnte vielleicht noch etwas verbessern, aber mangels Test kann ich dazu keine Aussage machen.

Bauer
2006-11-29, 14:09:57
Meiner Meinung ist es höchste Zeit die Bildschirmauflösung stagnieren zu lassen und dafür die Texturauflösungen zu erhöhen.
Da kann noch einiges getan werden wenn ich mir aktuelle Spiele ansehe.

defleppard78
2006-11-29, 14:42:35
Einspruch, allein das Sichtfeld ist mit 2560x1600 bei 30" bedeutend besser, und daß sollte schon Anreiz genug sein. Rein von der Ergonimie ist ein 16:9 bzw. 16:10 Sichtfeld viel besser, weil es unserem natürlichen Sehen mehr entgegen kommt.

Wenn man das Sichtfeld nimmt ist das Ansichtssache. Mir hat 16:9 oder 16:10 z.B. noch nie gefallen.

Ich meine es bringt ja nichts z.B. die Grafik/Model/und Texturenqualität beizubehalten und einfach nur die Auflösungen der Monitore hochzuschrauben.

Ich würde eine Grafik die Fotorealistisch ist in ner 1280er Auflösung jederzeit einer Grafik wie wir sie heute haben in 2500 vorziehen.

Auch wenn man sich aktuelle sogenannte Grafikwunder anschaut gibt es soooo viel was verbessert werden kann, und wenn man ehrlich ist kommt man zu dem Schluss, auch wenn sich seit Pac Man oder Frogger viel getan hat, dass die Computergrafik wie wir sie zu Hause haben eigentlich immer noch in den Kinderschuhen steckt.

aths
2006-11-29, 15:13:09
Würde ich nicht behaupten. Nach dem NV30 und NV35 Desaster gabs dreimal ein immer wieder neu aufgekochtes Design mit nur sehr geringen Verbesserungen im Feature-Set und mäßiger Leistungssteigerung.Hrm? Die Feature-Verbesserungen vom NV35 zum NV40 waren doch beträchtlich (vor allem von diesem bereits hohen Niveau aus!), sowohl der NV40 als auch der G70 brachten zudem deutlich mehr Leistung als ihre Vorgänger.

Baxtor
2006-11-29, 15:27:07
warte mal erst den neuen grafik-chip von amd ab.die dinger haben inzwischen mehr transistoren als ne cpu drauf.das wärs doch:die graka macht allet alleine-die cpu macht ihren kram.von daher is der 8800 nur eine zwischenstation!

aths
2006-11-29, 15:52:24
Jede GPU ist nur eine Zwischenstation, keine GPU endgültig.

Avalox@Gast
2006-11-29, 15:53:41
Ich bin fest der Meinung, dass sich Auflösungen von Anzeigegeräten noch deutlich erhöhen werden. Dieses schon aus dem Grund, dass Business Displays ja vor allen aus einem Grund betrieben werden, nämlich um Text darzustellen. Und richtig gut kann man Text nur lesen, wenn dieser so brillant und scharf wie in einem guten Druck zu lesen ist.

Sicherlich laufen Displays in Auflösungen von mindestens 300DPI und mehr in Zukunft. Was ich aber nicht glaube ist, dass diese Displays wie Monitore auf den Tisch gestellt werden und zeitnah eingeführt werden um die heutigen Lücken zu schliessen.

Es werden flexible Displays sein, die man auf den Schreibtisch legt wie ein Blatt Papier.

LCD gibt ja viel her, viel mehr als heute genutzt. Man muss nur an die Panel Auflösungen von Beamern denken. Ein Dot auf solch einen Panel ist ja winzig im Vergleich zu einem Tisch Display. Ich denke in LCD Technik werden wir keine dolleren Sachen für den Arbeitsplatz sehen, einfach weil kein Markt dafür da ist.

Solche Sachen kommen dann mit OLEDs oder EPaper. Beide Varianten erlauben ja weit aus flexiblere Monitorlösungen. Einen ausziehbaren Monitor z.B., oder tatsächlich einen Monitor zum auf den Tisch legen.

Die ePaper Displays von PDAs und Smartphonen der nächsten Generation sind ja schon im entstehen. Dort sind 2048x1536 Pixel Auflösungen für 6 Zoll Panele keine Seltenheit und das ist erst der Anfang.

Aber machen wir uns nichts vor. Die heute zu sehenden schnellen Fortschritte im Grafikkartenfeld sind ja nur möglich, weil auch jemand diese Entwicklungen kauft. Sollte erstmal dort ein Einschnitt erfolgen, weil über eine Zeit X niemand mehr einen konkreten Nutzen direkt hat, dann wird es langsamer laufen. Festplatten sind das beste Beispiel. Die Speicherkapazität spielt heute quasi keine Rolle mehr. Diese ist hinreichend und Ende. Und schwups stagniert die Entwicklung vor sich hin, es geht eigentlich nur noch ums preiswerter machen. Was waren Festplatten vor Jahren ein heiss begehrter Markt. Es lassen sich aber auch andere Beispiele finden.

Der Feind der Entwicklung ist immer das „hinreichende“ nie das gute. Sobald was hinreichend ist, wird es schwer Geld für mehr aufzutreiben.

Roi Danton
2006-11-29, 22:47:08
Guter letzter Satz. Wahrscheinlich werden Grafikkarten noch eine Weile nicht hinreichend sein ... vielleicht nicht so sehr aus Nutzersicht (gut gestaltete Maps machen viel "realistische" Berechnung wett), aber aus Entwicklersicht, da das Gestalten aufwändiger ist, als wenn etwa Schatten oder physikalische Effekte live berechnet werden könnten.

Omega2
2006-11-30, 10:45:01
unsinn. die leistungsaufnahme einer einzelnen grafikarte wird auch in den nächsten 10 jahren nicht über 200w liegen.

Da würde ich aber nicht meine Hand für ins Feuer legen.

Gruß

Omega

Undertaker
2006-11-30, 10:58:30
hier stand mist

DrumDub
2006-11-30, 11:05:09
Da würde ich aber nicht meine Hand für ins Feuer legen. ich schon. wenn die ihvs so planen, dann hat das hand und fuß. tatsache ist, dass die leistungsaufnahme nicht linear skaliert. guck dir die sache doch bei de cpus an. der p4 d bei 2.8ghz in 90nm lag schon bei über 130w, in 65nm liegt er nur noch bei 90w.

prophet
2006-11-30, 11:14:09
Wenn man das Sichtfeld nimmt ist das Ansichtssache.

Im wörtlichen Sinne schon ;) aber im eigentlich vllt doch nicht?

Schaue dir mal die Proportionen deiner Augen in der Horizontale/Vertikale an. :rolleyes: Oder mach einen einfachten Test: schaue auf einen Punkt und versuche bewusst wahrzunehmen, was du seitlich noch "siehst". Links und rechts wirst du >2fache als oben und unten erfassen können.

Daher sind Breitbildformate "ergonomischer" im Sinne der Überinstimmung mit dem menschlichen Sichtfeld.

Das ganze macht aber wirklich erst ab einer bestimmten Größe des Anzeigegeräts (respektive Entfernung zu diesem). Computermonitor mit 17" und Breitbild macht keinen Sinn. Aber bereits 24" in WS ist ein anderes Erlebnis als 4:3, geschweige von 30", wovon wdragon gesprochen hat.

Neomi
2006-11-30, 11:49:38
ist das nicht kritisch bzgl latenz und bandbreite? 1m strecke sind, wenn ich mich jetzt nicht verrechnet habe, zb. schon ~3,3ns zusätzliche latenz... ka was der ram auf grakas aktuell so für verzögerungen hat, aber ich vermute mal er ist ein ganzes stück schneller als bei cpus (ab 40ns)... das wäre schon nichtmehr unerheblich

Wenn die Grafikhardware in eine externe Box wandert, dann wandert der Grafikspeicher logischerweise mit. Die Latenz ist belanglos.

Gaestle
2006-11-30, 13:56:01
Der Feind der Entwicklung ist immer das „hinreichende“ nie das gute. Sobald was hinreichend ist, wird es schwer Geld für mehr aufzutreiben.

Zumindest solange, bis das Attribut "hinreichend" nicht mehr zutrifft, weil sich die Anforderungen gesteigert haben.

Aber besonders die Papier-flexiblen Displays zeigen neu Möglichkeiten auf. Man denke z.B. an eine Wand, die teilweise mit einem Display "tapeziert" ist. Das was heutzutage mit 3-Monitoren gemacht wird (Marketing-Deutsch: "Surround-Gaming"), kann dann auf einer Folie erfolgen => noch mehr "mittendrin, statt nur dabei".

Trotzdem finde ich die Forderung nach besseren, höher aufgelösten TEXTUREN sehr zutreffend.
Dieses Bild : http://img470.imageshack.us/img470/1275/hl2ls9.jpg (1,2MB) zeigt HL2 in 2560 x 1920 . Und es zeigt IMHO sehr deutlich eine Überdehnung der Texturen. Die Artefakte auf den Steinen auf der Linken Seite sind definitiv unschön (Bild in Originalgröße ansehen) und ich denke, dass sie nicht nur von der jpg-Komprimierung herrühren.

Omega2
2006-11-30, 14:38:04
ich schon. wenn die ihvs so planen, dann hat das hand und fuß. tatsache ist, dass die leistungsaufnahme nicht linear skaliert. guck dir die sache doch bei de cpus an. der p4 d bei 2.8ghz in 90nm lag schon bei über 130w, in 65nm liegt er nur noch bei 90w.

Da gebe ich Dir Recht, allerdings hat NV mal eben so die Zahl der Transistoren bei der 8xxx im Vergleich zur 7xxx verdoppelt. Alleine das ist schon beeindruckend viel. Hinzu kommt dann noch die Taktschraube. Bei einem Core Duo ist ein Großteil der Transistoren Cache, bei einer Graka sind es Rechenwerke, die auch noch parallel laufen und gut ausgelastet werden können. Insofern weiß ich nicht, ob die Entwicklung einer GPU mit einer CPU so einfach zu vergleichen ist.

Ich sage ja auch nicht, daß wir auf jeden Fall über 200W kommen werden, aber vorstellbar ist es imho sehr wohl. Wenngleich absolut nicht wünschenswert :).

Gruß

Omega