PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die perfekte Grafikkarte der Zukunft ...


Gast
2004-11-04, 12:05:58
... wie sehe sie aus?
... was könnte sie?

:D

JFZ
2004-11-04, 12:23:18
... wie sehe sie aus?
... was könnte sie?

:D


nur halb so viel, wie das Nachfolgermodell ;)

SamLombardo
2004-11-04, 12:26:32
Die Welt photorealistisch mit 100fps darstellen.
Fragt sich bloß, was die Grafikkartenhersteller dann machen, wenn es mal soweit ist (Glaub dazu gab es mal nen Thread :) )

mfG Sam

Botcruscher
2004-11-04, 12:45:54
Die Welt photorealistisch mit 100fps darstellen.
Fragt sich bloß, was die Grafikkartenhersteller dann machen, wenn es mal soweit ist (Glaub dazu gab es mal nen Thread :) )

mfG Sam

Ganz einfach, die Welt photorealistisch mit 110fps darstellen. ;D

aths
2004-11-04, 12:59:34
... wie sehe sie aus?
... was könnte sie?Es kann keine perfekte Grafikkarte geben, jede Grafikkarte wird (natürlich) immer einen Kompromiss darstellen, und bestimmte Dinge besonders gut können, und muss dafür woanders sparen.

deLuxX`
2004-11-04, 13:22:39
/philosophischer Modus an:
Wie soll es die perfekte Grafikkarte geben? Genausowenig kann es den perfekten Prozessor, das perfekte Auto usw. geben. Alles was der Mensch baut und macht kann höchstens so gut sein wie er. Der Mensch ist nun aber (leider?) nicht perfekt->keine perfekte Graka.....

just my 2 cents

[ncp]EasyChiller
2004-11-04, 23:04:14
Ich hab immer noch starke hoffnungen, das die guten 3D-Helme erschwinglicher und leistungsfähiger werden (wenn endlich mal OLED-Dilsplays eine längere Halbwertszeit haben sollten). Dann erwarte ich von Grakas, das sie etwas leistungsfähigers als DVI-D drauf haben - möglichst das ganze wieder gleich dual (halt HDTV oder so in echten 100 fps). Dazu sollte natürlich die entsprechende Rohpower dahinter stehen um solche Auflösungen für 2 Bildschirme bereitzustellen. ;D

Spasstiger
2004-11-04, 23:41:58
Die beste Grafikkarte müsste direkt am Hirn ansetzen und Sinneseindrücke über ein neuronales Netzwerk erzeugen, welches dem menschlichen Gehirn nachempfunden ist. Als Quelldaten speist man quasi reale Objekte ein mit allen Eigenschaften, die auch der menschliche Organismus wahrnehmen kann. Man müsste die Oberfläche quasi komplett abtasten lassen.
Das neuronale Netzwerk müsste gegenüber dem menschlichen Gehirn deutlich schneller sein und genauso lernfähig sein. So kann die Software praktisch über Sinneseindrücke aus der Realität neue Daten beziehen.

Dieses System wäre aber nicht nur eine Grafikkarte ;D . Und ich würd mir sowas nicht anschließen lassen.

ilPatrino
2004-11-05, 01:18:20
...kann eine ruckelfreie, fotorealistische darstellung jeglicher objekte (incl. fotorealistischer umgebung) erzeugen, die dann direkt in den sehnerv induziert werden. der monitor wird auf die größe eines handelsüblichen brillengestells reduziert, die übertragung erfolgt drahtlos.

wird wohl noch ein, zwei generationen dauern :down:

Rampage
2004-11-05, 11:28:03
Fragt sich bloß, was die Grafikkartenhersteller dann machen

Sie bringen Half-Life 5 auf Funkwecker und Mikrowellendisplays ;)

[ncp]EasyChiller
2004-11-05, 14:01:21
Nee .. selbst wenn mal sowas (wäre teils schön, teils sehr erschreckend) möglich wäre, würden immer noch die Leute (Menschen) fehlen, die sowas einerseits programmieren und anderseits ausnutzen könnten. Was nutzt die beste Hardware, wenn es niemanden gibt, der dafür brauchbare Software coden kann? (in endlicher Zeit natürlich) :redface:

Demirug
2004-11-05, 14:22:54
EasyChiller']Nee .. selbst wenn mal sowas (wäre teils schön, teils sehr erschreckend) möglich wäre, würden immer noch die Leute (Menschen) fehlen, die sowas einerseits programmieren und anderseits ausnutzen könnten. Was nutzt die beste Hardware, wenn es niemanden gibt, der dafür brauchbare Software coden kann? (in endlicher Zeit natürlich) :redface:

Je mächtiger die Hardware wird desto leichter ist der gewünschte Effekt zu erreichen.

Demirug
2004-11-05, 14:23:27
Die Welt photorealistisch mit 100fps darstellen.
Fragt sich bloß, was die Grafikkartenhersteller dann machen, wenn es mal soweit ist (Glaub dazu gab es mal nen Thread :) )

mfG Sam

nVidia baut dann Holodecks.

[ncp]EasyChiller
2004-11-05, 14:42:47
Je mächtiger die Hardware wird desto leichter ist der gewünschte Effekt zu erreichen.


*hust* das trifft so aber nicht für alles zu! Spätestens dann wenn du mit Assemblern arbeiten musst, wünscht du dir manchmal (kann das jetzt nur für CPU's beurteilen) deinen alten einfachen 3-86'er oder so zurück! ;D

Und auch die Compiler werden mit höherer Architektur doch auch immer komplexer oder?

Ich meinte unter anderem im konkreten Fall auch z.B. das erstellen der noch so detaillierten 3D-Modelle (es sei denn sowas würde auch automatisiert werden können)

Demirug
2004-11-05, 15:52:05
EasyChiller']*hust* das trifft so aber nicht für alles zu! Spätestens dann wenn du mit Assemblern arbeiten musst, wünscht du dir manchmal (kann das jetzt nur für CPU's beurteilen) deinen alten einfachen 3-86'er oder so zurück! ;D

Und auch die Compiler werden mit höherer Architektur doch auch immer komplexer oder?

Ich meinte unter anderem im konkreten Fall auch z.B. das erstellen der noch so detaillierten 3D-Modelle (es sei denn sowas würde auch automatisiert werden können)

Ich meinte das eher in dem Kontext das wenn die Hardware mächtiger wird man weniger Aufwand treiben muss um das gleiche zu erreichen bzw man mit dem gleichen Aufwand viel mehr als bisher hinbekommt.

Was man bei 386 noch mit Assembler machen musste wird man bei A64 in der Regel mit einer Hochsprache lösen.

Highpoly Modelle sind übrigens viel einfacher zu erstellen als Lowpoly Modelle.

naBaend
2004-11-11, 16:02:41
Naja. Laut Fry (Futurama) gibt es im 31 Jahrhundert, Fernseher mit einer besseren Auflösung, als die reale Welt.

Ich glaube, da haben die Ingenieure noch viel zu tun ;)

][immy
2004-11-11, 17:34:43
EasyChiller']Nee .. selbst wenn mal sowas (wäre teils schön, teils sehr erschreckend) möglich wäre, würden immer noch die Leute (Menschen) fehlen, die sowas einerseits programmieren und anderseits ausnutzen könnten. Was nutzt die beste Hardware, wenn es niemanden gibt, der dafür brauchbare Software coden kann? (in endlicher Zeit natürlich) :redface:

auch programmiersprachen entwickeln sich

konnte man z.B. früher alles noch im assemblercode selbst schreiben (kann man heute natürlich immernoch wäre aber wohl ein "wenig" zeitaufwendig) braucht man heute nur ein eine reihe von befehlen und hat das gleiche erreicht. vielleicht ist es dann zwar nicht so resourcenschonend, aber die entwicklungszeit ist stark verkürzt

und genauso sehe ich das auch in zukunft. es wird standards geben die das entwickeln komplexer programme noch weiter vereinfachen, aber dafür die messlatte für die benötigte hardware erhöhen.
z.B. kann du schon seit langem in visual studio einfach ein fenster auf den bildschirm ziehen und hast schon ein fertiges fenster-objekt was sogar direkt voll funktionsfähig ist.
zeitaufwandt 2 klicks

das im c++ code zu schreiben wäre schon wesendlich zeitaufwendiger, allerdings wohl resourcensparender, da man dann nur das integriert, was man wirklich braucht

aber wo die resourcen da sind, braucht man auch nicht sparen (so entwickeln die meisten firmen ja)

vielleicht wird es irgendwann eine "programmiersprache" geben wo du nur noch eine 3d-brille und ensprechenden handschuh hast und dann nur noch auf die objekte zeigen musst und dazu die anweisung was damit passieren soll nur noch dem computer akustisch sagen musst. zwar wäre der rechenaufwand enorm, aber die entwicklungszeit wäre sehr kurz. wann solche system denn kommen würden, wäre schon wieder eine andere frage, denn erstmal muss auf basis die jetzigen sprachen eine neue geschaffen werden und entsprechende hardware zur verfügung stehen


zu sagen "hier ist schluss und weiter geht es nicht" gibt es nicht. es gibt immer weitere möglichkeiten, die frage ist nur wer die idee dazu hat und wer diese umsetzt

z.B. einfaches bespiel DSL. kaum jemand hätte vor jahren geblaubt das eine solche geschwindigkeit über ein kupferkabel möglich ist und siehe da die DSL technik ansich ist zwar schon recht alt (bzw die idee dazu) aber die umsetzung im großen rahmen ist noch recht jung

[ncp]EasyChiller
2004-11-11, 19:00:40
jap, das mit den hochlevel-sprachen stimmt schon .. doch diese müssena uch erstmal gecodet werden =) ... aber zugegeben, ich war schonmal von Delphi-Compiler stark überrascht! (positiv) ... nämlich als ich versuchte einen Grafikfilter (BELL) im Assembler direkt zu coden und so nen bissl Performance mehr zu erreichen ... im Endeffekt kam ich auf genau die selben Rechenzeiten wie ein in Delphi gecodeter BELL. :mad: ... allerdings lag das wohl auch daran das ich durch die Limmitierungen der vorliegenden Delphi-Version keine MMX und auch neuere Recheneinheiten / Register nutzen konnte. :D

Coda
2004-11-11, 19:19:38
Bei Scalarem Floating Point Code kannst du die neuen Compiler eigentlich kaum noch schlagen.
Bei Vectorzeugs haben die Compiler aber noch einen weiteren Weg vor sich.

Was das Instruction Set angeht: Shader Model 3 ist eigentlich einfacher zu programmieren als 2, weil man viel generalisiert hat. Wo es früher seperate Color/Texcoord Input/Output Register beim Pixel/Vertexshader gab gibt es jetzt nur noch 12 generelle Register die man für alles benützen kann.

So ähnlich verhällt es sich bei x86, früher konnte man bestimmte Operationen nur auf bestimmte Register anwenden, heute kann man für (fast) alles alle Register benützen.

Also weiß ich auch nicht was da jetzt schwerer geworden ist.

IVN
2004-11-11, 21:31:09
Bei Scalarem Floating Point Code kannst du die neuen Compiler eigentlich kaum noch schlagen.
Bei Vectorzeugs haben die Compiler aber noch einen weiteren Weg vor sich.

Was das Instruction Set angeht: Shader Model 3 ist eigentlich einfacher zu programmieren als 2, weil man viel generalisiert hat. Wo es früher seperate Color/Texcoord Input/Output Register beim Pixel/Vertexshader gab gibt es jetzt nur noch 12 generelle Register die man für alles benützen kann.

So ähnlich verhällt es sich bei x86, früher konnte man bestimmte Operationen nur auf bestimmte Register anwenden, heute kann man für (fast) alles alle Register benützen.

Also weiß ich auch nicht was da jetzt schwerer geworden ist.

More competing ISVs have very good products,and it's harder to be the best.So,you must programme very long and very hard to have a competitive software.

DryIce
2004-11-11, 21:47:30
edit

tomylee
2008-11-24, 17:27:57
Die beste Grafikkarte müsste direkt am Hirn ansetzen und Sinneseindrücke über ein neuronales Netzwerk erzeugen, welches dem menschlichen Gehirn nachempfunden ist. Als Quelldaten speist man quasi reale Objekte ein mit allen Eigenschaften, die auch der menschliche Organismus wahrnehmen kann. Man müsste die Oberfläche quasi komplett abtasten lassen.
Das neuronale Netzwerk müsste gegenüber dem menschlichen Gehirn deutlich schneller sein und genauso lernfähig sein. So kann die Software praktisch über Sinneseindrücke aus der Realität neue Daten beziehen.

Dieses System wäre aber nicht nur eine Grafikkarte ;D . Und ich würd mir sowas nicht anschließen lassen.

+1!

aber kabel brauchts da nicht mehr, das Gehirn kann auch anders kommunizieren, nur nutzen wir das nicht und kommen auch nicht drauf, so ähnlich wie der Affe auch nicht draufkommt Schulen zu bauen ;)

MasterElwood
2008-12-02, 02:05:16
Theoretisch kann man sich die leistung einer perfekten Grafikkarte ausrechnen!

Pixar sind wohl die CGI Meister dieser Erde (alles was bei Pixar nicht Photorealistisch aussieht SOLL nicht photorealistisch aussehen - siehe making-of´s wo sie zeigen das sie sachen verfälschen müssen weil sie ZU echt aussehen).

Die Leistung die ihre renderfarm für ein Frame braucht und das hochgerechnet auf 2x100fps (immerhin wollen wir ja 3D) - und schon haben wir die Leistung der "perfekten" Grafikkarte!

Wo sind die Mathematiker? :biggrin:

Gast
2008-12-02, 02:13:58
Die perfekte Grafikkarte rendert die Matrix.

Lyka
2008-12-02, 02:20:02
und trotzdem ruckeln dann noch Spiele... aus dem Grund, weil Spiele nur noch via Drag&Drop zusammengebastelt werden. Oder die Rechenleistung der CPUs fehlt. Oder man weniger als 64 GB RAM hat... oder weil es noch immer HDs gibt.

Crysis und D3 werden immer ruckeln. Immer.

Coda
2008-12-02, 02:28:07
Wieso sollte Crysis "immer ruckeln"? Das ist doch Unsinn. Das Spiel ist fast vollständig GPU limitiert.

Lyka
2008-12-02, 02:31:06
das ist ein Klassiker, ausgehend von dem Punkt "Auch im Jahr 2050 wird D3 ruckeln"^^

also in meinem Bekanntenkreis hat Crysis Doom3 abgelöst :D

Ectoplasma
2008-12-02, 14:47:37
Niemand will so eine Grafikkarte, sonst hätte man ja nichts mehr zu diskutieren ;)

G.
2008-12-02, 15:52:23
Die Welt photorealistisch mit 100fps darstellen.
Fragt sich bloß, was die Grafikkartenhersteller dann machen, wenn es mal soweit ist (Glaub dazu gab es mal nen Thread :) )

-höhere Auflösung

-stereo 3D

-mehr Objekte (gleichzeitig)

Armaq
2008-12-02, 16:30:14
Holodeck. So einfach ist das. Was soll sonst das Ziel sein. Ein Spiel in dem man mittendrin ist.

Gast
2008-12-02, 16:48:01
Je mächtiger die Hardware wird desto leichter ist der gewünschte Effekt zu erreichen.
aber was ist mit höher aufgelösten, komplexeren Texturen?
die werden doch nicht einfacher zu erstellen sein, je komplexer sie werden ;)

Aquaschaf
2008-12-02, 16:52:51
Highpoly Modelle sind übrigens viel einfacher zu erstellen als Lowpoly Modelle.

Das stimmt nicht so ganz. Wenn sie detailreicher sein sollen, dann muss auch mehr Arbeit investiert werden.

Gast
2008-12-02, 16:54:47
Holodeck. So einfach ist das. Was soll sonst das Ziel sein. Ein Spiel in dem man mittendrin ist.

Da schließt sich die Matrix. Wir haben uns selbst erfunden und sind ein Spiel. ;(

Kinman
2008-12-03, 11:36:04
Das stimmt nicht so ganz. Wenn sie detailreicher sein sollen, dann muss auch mehr Arbeit investiert werden.

Man braucht heutzutage so oder so detaillierte Models um die Height-/Normal-/Bumb- oder Sonstwas-Maps zu erstellen.
Also muss man das Highpoly Model erstellen und dann zu einen Lowpoly "umwandeln". Oder es werden zwei verschiedene Modelle erstellt (den genauen Vorgang kenne ich nicht).
Jedenfalls muss man sich bei der Low-Poly Version gedanken machen, wie es trotzdem gut aussieht.

mfg Kinman

Tyrann
2008-12-03, 16:09:39
nVidia baut dann Holodecks.

man denke an die Techdemos mit Dusk oder Dawn als Demoversion ohne Körperöffnungen.

drmaniac
2008-12-06, 22:26:33
cool, der Threat umgeht die NoPostingCount Sperre der Spielwiese....

.