PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - AMD sieht in DirectX einen Bremsklotz


boxleitnerb
2011-03-20, 23:29:02
AMD meint, die Benutzung von DirectX steht einer besseren Ausnutzung aktueller Hardware und damit einer besseren Grafik im Weg:

http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/1

"It's funny. We often have at least ten times as much horsepower as an Xbox 360 or a PS3 in a high-end graphics card, yet it's very clear that the games don't look ten times as good. To a significant extent, that's because, one way or another, for good reasons and bad - mostly good, DirectX is getting in the way. [...] I certainly hear this in my conversations with games developers and I guess it was actually the primary appeal of Larrabee to developers - not the hardware, which was hot and slow and unimpressive, but the software - being able to have total control over the machine, which is what the very best games developers want. By giving you access to the hardware at the very low level, you give games developers a chance to innovate, and that's going to put pressure on Microsoft - no doubt at all."

Ich bin zwar jetzt kein Profi, aber die 3D-Grafik ist doch mit weitestgehender Standardisierung groß geworden. Ist Abstraktion nicht besser als auf Hardwareebene für jede einzelne Architektur mühselig zu programmieren? Sicher sinkt hier die Effizienz, aber wäre die Gefahr nicht eine Zersplitterung der Entwicklergemeinschaft? Ich könnte mir vorstellen, dass es viel Arbeit ist, was Huddy sich da vorstellt. Bedenkt man, dass allein die Erstellung von Content immer aufwändiger wird, bleibt für die separate Programmierung bzw. Codeanpassung für 3 verschiedenen Architekturen (AMD, Nvidia, Intel) kaum genug Zeit.

Weiterhin denke ich, dass AMD hier verkennt, welche Rolle die Konsolen spielen bei der ganzen Geschichte. Hier sehe ich eher einen Bremsklotz. Würde die Mehrheit der Spiele Grafik auf dem Niveau der Cryengine 2 bieten und würde auch der Content (immer teurere Erstellung!) stimmen, gäbe es wenig Grund, sich zu beschweren. Auch muss man sich fragen, was "10x so gut" überhaupt heißt. Wie will man das quantifizieren? Man kann imo nicht einfach so eine Aussage in den Raum stellen ohne sie näher zu erläutern.

Edit:
Originalquelle hinzugefügt.

Nakai
2011-03-20, 23:50:22
Irgendwie ist das totaler Schwachsinn, den Huddy da labert.

It's funny. We often have at least ten times as much horsepower as an Xbox 360 or a PS3 in a high-end graphics card, yet it's very clear that the games don't look ten times as good.

Was ist 10mal so gut? Wer definiert das?
Es ist eben das typische Problem, dass immer mehr Rechenleistung für sichtbar bessere Resultate benötigt werden. Sinkender Grenzertrag ahoi.

By giving you access to the hardware at the very low level, you give games developers a chance to innovate, and that's going to put pressure on Microsoft - no doubt at all."

Genau das wollen doch die Entwickler nicht mehr, oder etwa nicht? Niemand will auf Hardwarebene rumfrickeln, das wäre viel zu aufwendig und teuer.

Imo beklagt sich Huddy umsonst. Er sollte eher über die Spieleindustrie jammern, welche keine richtigen Ports mehr für den PC rausbringen.


mfg

konkretor
2011-03-21, 00:07:04
Jo der labbert schon einen stuß zusammen, wann wird der mal wegbefördert und jemand gutes kommt wieder auf den posten.


Also was zusehen ist das DX9 nach wie vor sehr weit verbreitet ist. DX 10 Titel so gut wie nicht gibt, so langsam kommen endlich die DX 11 Titel auf den Markt und man hat zum Glück ja schon lange die passende Hardware.

Durch die Konsolen gibt es halt nicht mehr so schnell die Sprünge zu neueren DX Versionen.
Das wird sich mit der nächstne Consolen Generation wieder ändern.

Alles auf die Console würde ich auch nicht schieben Windows XP ist noch sehr weit verbreitet und man möchte sich diese Kunden denke ich nicht vergraulen.

Abwarten und Tee trinken

boxleitnerb
2011-03-21, 00:09:49
MS hätte DX10/11 sicherlich auch für XP verfügbar machen können, wenn man gewollt hätte. Das ist schon ärgerlich, stimmt.

san.salvador
2011-03-21, 00:17:12
Will er, dass man stattdessen auf OpenGL setzt? Soll ja das Prunkstück des AMD-Treibers sein. :ulol:

boxleitnerb
2011-03-21, 00:20:02
Ne, das kann es nicht sein. OpenGL ist ja auch ein Standard. Man will unmittelbar auf die Hardware zugreifen.

san.salvador
2011-03-21, 00:23:01
Ne, das kann es nicht sein. OpenGL ist ja auch ein Standard. Man will unmittelbar auf die Hardware zugreifen.
Da werden die Entwickler aber eine Freude haben. Denen ist eh langweilig genug.

Ernsthaft, wie stellen die sich das bitte vor?

Der_Korken
2011-03-21, 00:24:08
Der Vergleich mit den Konsolen ist an dieser Stelle einfach Quatsch, da man als Spieleentwickler eigentlich nie mehr als zwei verschiedene Hardware-Konfigurationen auf der Konsolenseite hat (eben PS3 und XBox360). In dem Fall ist es für die Entwickler vielleicht noch machbar, die Hardware voll auszunutzen und hochoptimierten Code zu produzieren. Der PC ist da quasi das andere Extremum, nämlich Hardware-Vielfalt. Ich glaube eher, ohne Standards wie DirectX würds für das PC-Gaming bereits deutlich düsterer aussehen. Außerdem bietet doch DirectX mit jeder neuen Version neue Möglichkeiten mit der Hardware umzugehen (?), besonders DirectX11.

deekey777
2011-03-21, 00:27:07
Wieviele von euch haben den eigentlichen Artikel gelesen?

boxleitnerb
2011-03-21, 00:32:18
Grade fertiggeworden damit.

Ein paar interessante Punkte sind da schon dabei, aber ich glaube nicht, dass es für die Entwickler zeitlich machbar ist, direkt auf die Hardware für so viele unterschiedliche Architekturen (Konsolen und verschiedene GPUs/GPU-Generationen) zu programmieren. Und zu teuer, extra für den PC nochmal einen deutlichen Vorsprung durch Optimierung herauszuarbeiten ggü. Konsolen. Eine schöne Vision, aber eine naive imo.

DX kann nichts für Knie mit 3 Polygonen (Crysis 2), 2D-Dosen auf dem Wasser (Crysis 2), miese Texturen (95% aller Spiele) und flimmernde Shader (95% aller Spiele). Erstmal sollten die Programmierer die zur Verfügung stehenden Technologien und Ressourcen gescheit benutzen, bevor man sich über mögliche Performanceverluste durch die API Gedanken machen kann.

S940
2011-03-21, 01:45:07
Kalter Kaffee, der AMD Type labert nur nach, was der Unreal Chef schon vor 2 Jahren gesagt hat:

http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf


The Meta-Problem:
 The fixed-function pipeline is
too fixed to solve its problems
 Result:
 All games look similar
 Derive little benefit from Moore’s Law
 Crysis on high-end NVIDIA SLI solution only looks at
most marginally better than top Xbox 360 games

So ...
Return to 100% “Software” Rendering
 Bypass the OpenGL/DirectX API
 Implement a 100% software renderer
 Bypass all fixed-function pipeline hardware
 Generate image directly
 Build & traverse complex data structures
 Unlimited possibilities
Could implement this…
 On Intel CPU using C/C++
 On NVIDIA GPU using CUDA (no DirectX)

airbag
2011-03-21, 02:00:51
Genau das wollen doch die Entwickler nicht mehr, oder etwa nicht? Niemand will auf Hardwarebene rumfrickeln, das wäre viel zu aufwendig und teuer.

mfg

Das dürfte wohl von Anwendung abhängig sein, die entwickelt werden soll. Aber es hat (allgemein gesehen ) schon einen Grund warum, solche Sprachen, wie Java erfolgreich geworden sind trotz "fehlender maschinennähe".

LovesuckZ
2011-03-21, 03:03:47
Ich find das schon ziemlich abstrus, was Fuddy da ablässt. Wenn man überlegt, dass man in Dragon Age 2 darauf verzichtet DX11 in großen Stil anzuwenden, um das Spiel deutlich schöner und performer zu machen, ist die Aussage, dass DirectX die Entwicklung zurückhalten würde, doch ein schlechter Witz. Vorallem aus dem Mund von Mr. OpenSource müsste man sich gleich doppelt verarscht vorkommen. Predigt er dauernd, wie stark AMD hinter dem Gedanken von solchen Schnittstellen steht und das nVidia's Weg falsch wäre. Aber Fuddy ist bekannt dafür, dass er seine Meinung um 180° ändert.

/edit: So wie es aussieht, scheint Fuddy mit seiner Meinung nicht gerade viel Rückendeckung zu erhalten:
The tablet runs Microsoft Windows and for now this operating system is a clear priority for AMD. In fact, in order to fully take advantage of x86, Windows is needed and AMD's support for this OS is understandable.

"DirectX 11-capable GPU on a tablet would open up huge opportunities for developers who know how to use this API. It is going to require a cooperation with Microsoft, obviously; at CES they announced their intention to better support the tablet market, announced something that we are working together with them on," stated the head of ISV relations department at AMD.
http://www.xbitlabs.com/news/mobile/display/20110317215409_AMD_to_Investigate_Android_in_a_Bid_to_Push_Fusion_into_Tablets.h tm

VooDoo7mx
2011-03-21, 03:45:44
Ohje so gut wie niemand hat hier überhaupt gerafft um was es geht aber jeder muss erst mal seinen Senf ablassen.

Es geht nicht unbedingt um DirectX alleine sonder allgemein um so großflächig angelegte APIs. Da gehört auch OpenGL und was weiß ich noch mit dazu.
Es geht auch nicht darum das DirectX 11 den technischen Fortschritt blockiert weil das Featureset zu gering ist.

Es geht schlicht und ergreifend darum das mit mit nicht hardwarenahen APIs wie Direct X niemals das volle Potential eines Grafikchips ausschöpfen kann. Und da ist es ganz egal von welchen Hersteller so ein Chip kommt.

Nur wird sich daran nichts ändern, da eine hardwarenahe Programmierung für den PC viel zu teuer wäre und Multiplatform Spiele auf den PC sowieso nicht sonderlich viel Umsatz erzeugen.
Um wirklich die Hardware in Reinstform ausnutzen zu können, müsste man für jede Chipgeneration, im Optimalfall sogar für jeden Chip einzeln das Spiel anpassen.
Mit einer Herstellerspezifischen API wie Glide oder S3Metal wäre es nicht getan.

Was also bleibt ist das die teuren PC Grafikkarten niemals ihr wirkliches Potential ausschöpfen können und das sich daran auch nichts ändern wird.

Coda
2011-03-21, 03:47:51
Er hat im gewissen Rahmen recht. Die Battlefield-Entwickler haben sich auch schon darüber beschwert.

Die GPUs können mehr als durch DirectX ansprechbar ist. Sowohl Fermi als auch Evergreen. Zudem hat man eben einen gewissen Overhead wenn man durch die API geht. Aber das sehe ich persönlich eigentlich eher als kleineres Problem an.

LovesuckZ
2011-03-21, 03:55:22
Es geht schlicht und ergreifend darum das mit mit nicht hardwarenahen APIs wie Direct X niemals das volle Potential eines Grafikchips ausschöpfen kann. Und da ist es ganz egal von welchen Hersteller so ein Chip kommt.

Das ist doch kompletter Nonsens. Wie soll denn das "volle Potential" ausgeschöpft werden, wenn niemand sich traut es überhaupt anzufassen?
Was bringt es mir, dass jede neue Iteration von D3D neue Features bringt, aber niemand mehr weg von DX9 geht? Was bringen mir die ganzen 16 Tessellationeinheiten einer GTX580, wenn niemand Tessellation vernünftig einsetzt? D3D hält kein Potential zurück, sondern es sind alleinig die Entwickler und IHVs. Es ist lächerlich D3D die Schuld zu geben, wenn der Schuldige auf einer höhreren Schicht im Entwicklungsprozess zu suchen ist.


Was also bleibt ist das die teuren PC Grafikkarten niemals ihr wirkliches Potential ausschöpfen können und das sich daran auch nichts ändern wird.

Dank APIs wie OpenGL und D3D gibt es auf dem PC eine Abwärtskompartibilität, die ihresgleichen sucht. Ich möchte mal die Leute sehen, die ein Großteil ihrer Sammlung nicht mehr spielen können, weil mit der neuen Grafikkarte auch ein neues Programmiermodel eingeführt wird. Standards sind essentiell, um offene Plattformen überhaupt eine Bedeutung zu geben.

Coda
2011-03-21, 04:07:24
Man braucht ja die APIs nicht abschaffen. Es geht um AAA-Spieleentwickler und Entwickler von Middleware, die gerne alle Möglichkeiten hätten. Und ja, die gibt es, und ja sie verlangen auch danach.

LovesuckZ
2011-03-21, 04:13:24
Man braucht ja die APIs nicht abschaffen. Es geht um AAA-Spieleentwickler und Entwickler von Middleware, die gerne alle Möglichkeiten hätten. Und ja, die gibt es, und ja sie verlangen auch danach.

Und wer sind "AAA"-Spielentwickler? Crytek, die Crysis 2 auf DX9 Level belassen? Epic, dessen Engine3 vornehmlich für Konsolen entwickelt wurde, die nicht an DX10 heranreichen?

Die einzigen, denen man es abkauft, sind die Leute von Dice. Die zeigen noch wirklich interesse für den PC. Alle anderen sollten erstmal die vorhandenen Ressourcen ausnutzen, bevor ein weiteres Fass aufgemacht wird.

Coda
2011-03-21, 04:44:19
DICE z.B. Aber völlig irrelevant. Wie gesagt will niemand die APIs abschaffen für den Rest.

=Floi=
2011-03-21, 07:14:30
Will er, dass man stattdessen auf OpenGL setzt? Soll ja das Prunkstück des AMD-Treibers sein. :ulol:

also die damalige neuprogrammierung für die X1950 war schon eine feine sache! Sie können schon, wenn sie mal wollen. wenn da nicht solche verblendeten manager am ruder drehen würden, dann käme bei denen sicherlich ähnliches wie bei nv raus. Nur hat bei denen keiner kapiert, dass der treiber mit das wichtigste ist und man hier mal stärker arbeiten sollte.

=Floi=
2011-03-21, 07:18:09
Man will unmittelbar auf die Hardware zugreifen.

das ist doch brainfuck. das geht doch 100% nach hinten los, wenn sich die architektur wieder stärker ändert und die optimierte software nichts mehr bringt. getrennte abgrenzung in software und treiber als schnittstelle ist doch der größte vorteil aktueller architekturen. an purer leistung hat es eigentlich noch nie gemangelt, weil diese von alleine kommt. :rolleyes:
ich sehe die kompatibilität und das schlichte problemlose funktionieren akueller grafikhardware sehr positiv. neue karte eingebaut, treiber installiert und ab gehts. Man braucht sich nicht um kompatibilität oder anderen mist sorgen machen und so gut wie alles (gibt hier und da mal kleinere probleme) passt perfekt.

ein anderer nachteil wäre, wenn dann die neue gpu im alten spiel nur gleich schnell oder langsamer als die alte wäre und auch noch mehr strom verbrauchen würde. HD2900 FTW ;D ;)

Demirug
2011-03-21, 07:48:30
Man braucht ja die APIs nicht abschaffen. Es geht um AAA-Spieleentwickler und Entwickler von Middleware, die gerne alle Möglichkeiten hätten. Und ja, die gibt es, und ja sie verlangen auch danach.

Wobei das ganze definitive in den Bereich: "Sei vorsichtig was du dir wünscht du könntest es bekommen." fällt. Ich fürchte die meisten die dannach verlangt haben, haben das ganze nicht wirklich zu Ende gedacht.

Matrix316
2011-03-21, 09:52:48
Kalter Kaffee, der AMD Type labert nur nach, was der Unreal Chef schon vor 2 Jahren gesagt hat:

http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf

Ähhh, Software Rendering ist glaube ich genau das Gegenteil von dem was der AMD Typ will. ;)

bloub
2011-03-21, 10:06:55
wird bestimmt lustig so ganz ohne generelle api. vor über 15 jahren hatten wir schonmal ein ähnliches spiel, wo man jedesmal hoffen musste, das neue spiele auch die eigene 3d-graka unterstützte.

seaFs
2011-03-21, 10:29:38
wird bestimmt lustig so ganz ohne generelle api. vor über 15 jahren hatten wir schonmal ein ähnliches spiel, wo man jedesmal hoffen musste, das neue spiele auch die eigene 3d-graka unterstützte.
Da war die API aber auch teilweise in die Hardware gegossen...

Hugo78
2011-03-21, 10:43:11
Man braucht ja die APIs nicht abschaffen. Es geht um AAA-Spieleentwickler und Entwickler von Middleware, die gerne alle Möglichkeiten hätten. Und ja, die gibt es, und ja sie verlangen auch danach.

Was hält sie denn davon ab?
Also wenn ein Entwickler näher an der Hardware arbeiten wollte, könnten sie das doch einfach tun.
Oder müsste zb. Nvidia jetzt CUDA noch erweitern um alle erdenklichen Effekte die bisher von D3D abgedeckt wurden (und in CUDA dann vermeintlich schneller rennen),
bzw. ebend überhaupt garnicht von D3D abgedeckt wurden?!

boxleitnerb
2011-03-21, 10:48:54
Ist das nicht auch ne Betriebsgeheimnisfrage? Man müsste die Hardware dann genau dokumentieren und würde ggf. Dinge offenlegen, die man nicht offenlegen will.

deekey777
2011-03-21, 10:50:57
Seit R600 wird bei AMD eigentlich alles frei dokumentiert.

S940
2011-03-21, 11:06:40
Ähhh, Software Rendering ist glaube ich genau das Gegenteil von dem was der AMD Typ will. ;)
Nö, das ist genau das, was der will.
Er sagt:
We often have at least ten times as much horsepower as an Xbox 360 or a PS3 in a high-end graphics card, yet it's very clear that the games don't look ten times as good. To a significant extent, that's because, one way or another, for good reasons and bad - mostly good, DirectX is getting in the way.

Tim Sweeny sagt:

Result:
All games look similar
Crysis on high-end NVIDIA SLI solution only looks at
most marginally better than top Xbox 360 games

Bypass the OpenGL/DirectX API
Wenn das das Gegenteil sein soll, weiss ich auch nicht.
Was bekommst Du denn, wenn Du an DirectX/OpenGL etc. vorbei gehst ? Das ist doch ein Software Renderer, oder etwa nicht ?

D4ve
2011-03-21, 11:26:29
Völlig unrecht hat er sicherlich nicht, zumal es ja auch immer etwas dauert, bis ein neuer DX-Standard verabschiedet ist. Könnte man auf die API verzichten, wären einige Sachen schneller möglich.
Damit hat ja letztlich auch Intel mit seinem Larrabee geworben, zumal die Architektur noch entsprechend flexibler ist, da kein Rastersierer in dem Sinn.

Ob das dann von Spiele-Entwicklern umgesetzt wird, ist ne ganz andere Sache.

deekey777
2011-03-21, 11:31:42
Wenn mich nicht alles täuscht, will der Kurzsichtige von Epic, dass die uralte Pipeline mit deren Fixed-Functions verschwindet: Er will, dass alles über freiprogrammierbare Einheiten läuft.
Das ist gerade nicht das, was Huddy will.
Was Huddy will, ist, dass die Entwickler die Möglichkeit haben, CTM zu programmieren (was schonmal gescheitert ist): Ein Spiel, das nur über DirectX läuft, läuft auf einem APU-System Scheiße, über CTM dagegen gut.

Matrix316
2011-03-21, 12:33:22
Nö, das ist genau das, was der will.
Er sagt:


Tim Sweeny sagt:


Wenn das das Gegenteil sein soll, weiss ich auch nicht.
Was bekommst Du denn, wenn Du an DirectX/OpenGL etc. vorbei gehst ? Das ist doch ein Software Renderer, oder etwa nicht ?

Die Probleme beschreiben beide gleich, aber die Lösungen sind Unterschiedlich.

Softwarerendering ist unabhängig von der GPU. Das geht normal NUR über die CPU oder halt über CUDA, aber es werden keinerlei GPU eigene Techniken verwendet. Da zeigt die Grafikkarte das Bild nur an. Der AMD Mann möchte aber gerne direkt die GPU auf der Grafikkarte ansprechen, also so ähnlich wie damals am Amiga die Spezialchips, oder wie es halt bei den Konsolen ist, die nicht auf Direct X setzen. Es ist immer noch Hardwarebeschleunigung über die GPU, während Softwarerendering garkeine GPU Features nutzt. Nur halt ohne Direct X dazwischen. Keine Ahnung ob das dann über Assembler funktionieren soll oder wie auch immer...;)

PS.: Softwarrendering über CUDA und Nvidia Karten wäre aber schon lustig. Vielleicht wäre es sogar schneller als wenn man über Direct X gehen würde.*g*

S940
2011-03-21, 14:13:38
Huddy mag von DTM schwärmen, aber es ist klar dass das nicht praktikabel ist, es programmiert heutzutage auch keiner mehr in reinem Assembler. Das letzte was es da gab war PTS-DOS (http://de.wikipedia.org/wiki/PTS-DOS) :freak:

Direct-to-metal kann man somit vergessen. Es mag im Konsolenmarkt vorkommen, aber im PC Bereich muss man portabel bleiben. Oder wer würde ein Spiel nur für ATi oder nV Karten programmieren ?
Sicher auch ne Geldfrage, aber solange keiner bezahlt, wird es das nicht geben.

Nächstbeste Lösung ist damit OpenCL. Zwar hat man wieder keinen vollen Hardwarezugriff, aber man darf grafisch machen was man will.

Sicher - OpenCL ist wieder ne API, aber eben keine 3D API und somit closer to metal als DX11. Auf alle Fälle ein Fortschritt, wenn man mehr Wahlfreiheiten haben will.

Was Huddy will, ist, dass die Entwickler die Möglichkeit haben, CTM zu programmieren (was schonmal gescheitert ist): Ein Spiel, das nur über DirectX läuft, läuft auf einem APU-System Scheiße, über CTM dagegen gut.
Tja die Frage ist dann .. wie liefe es mit OpenCL, bzw. wo läge der Unterscheid zw. CTM und OpenCL ? CTM war:
AMDs Close-to-the-Metal presents a virtual machine abstraction for GPUs. CTM presents a thin interface to this hardware by hiding graphics-specific features of the device.http://sourceforge.net/projects/amdctm/
und wurde durch OpenCL ersetzt.

Tesseract
2011-03-21, 14:18:07
Es geht um AAA-Spieleentwickler und Entwickler von Middleware, die gerne alle Möglichkeiten hätten.

wie diese möglichkeiten aussehen weiß man eh von früher: wenn das spiel raus kommt ist es eine spur schneller und mit der nächsten hardwaregeneration kaputt und keiner fühlt sich zuständig. :freak:

deekey777
2011-03-21, 14:23:04
Wie "close" ist, wenn man für Radeons direkt in IL schreibt?
...

Nächstbeste Lösung ist damit OpenCL. Zwar hat man wieder keinen vollen Hardwarezugriff, aber man darf grafisch machen was man will.

Sicher - OpenCL ist wieder ne API, aber eben keine 3D API und somit closer to metal als DX11. Auf alle Fälle ein Fortschritt, wenn man mehr Wahlfreiheiten haben will.

Tja die Frage ist dann .. wie liefe es mit OpenCL ?
Zwischen OpenCL und dem Maschinencode ist immernoch IL. Genau wie PTX zwsichen C for CUDA/OpenCL.

S940
2011-03-21, 15:23:52
AH Du meinst mit CTM Maschinencode ? Das ist dann aber doch DTM (direkt, nicht close), oder nicht ?

LovesuckZ
2011-03-21, 15:34:43
Nächstbeste Lösung ist damit OpenCL. Zwar hat man wieder keinen vollen Hardwarezugriff, aber man darf grafisch machen was man will.


Huch? Was kann man denn so grafisches mit OpenCL machen?

Coda
2011-03-21, 15:40:23
Alles. Ist schließlich Turing-Complete.

HOT
2011-03-21, 16:20:21
Seit dem Auftauchen von DirectX hat sich die Softwarelandschaft erheblich verändert. Die Hardwarehersteller lassen relativ einfach Zugriff auf die Hardware zu auch ohne DX. Das war damals erheblich schwerer und es gab keinen Konsens unter den Herstellern.
Wenn man jetzt aber von DX abkehrt hat das den Nachteil, dass nicht alle Hersteller die gleichen Features bieten werden. Bisher konnte M$ die Hersteller zwingen die gleichen Standards zu bieten. Sollte das wegbrechen wird es wieder schwerer für die Hersteller und unübersichtlicher für den Konsumenten.
Zudem könnte unser allseits beliebter Monopolist da wieder Nutznießer sein, weil er da wieder unendlich Geld in die Softwareentwickler pumpt und Hersteller, die nicht soviel Geld haben, wieder zu kurz kommen...
Dass so ein Statement von AMD kommt ist schon erstaunlich. Man muss sich seiner Sache mit BD und künftiger Grafik ja sehr sicher sein.
Wahrscheinlich ist aber auch, dass AMD langfristiger denkt als hier viele denken. Immerhin wandert die Grafik ja in den Prozessor, was eine Art Befehlssatz für alles möglich machen würde und Softwarerendering ermöglichen würde und damit nahezu unbeschränkte grafiksche Möglichkeiten - limitiert durch die CPU.

Coda
2011-03-21, 17:14:51
Die Hardwarehersteller lassen relativ einfach Zugriff auf die Hardware zu auch ohne DX.
Wie denn?

Rumbah
2011-03-21, 17:28:47
Wie siehts denn mit DirectCompute oder wie das heißt aus. Ist das nicht Turing vollständig oder gibts da andere Einschränkungen?

Coda
2011-03-21, 17:34:12
Natürlich ist es das. Aber was tut das zur Sache? DirectCompute ist noch nichtmal eine eigene API, sondern ist schlicht ein Bestandteil von Direct3D 11.

Black-Scorpion
2011-03-21, 18:32:13
MS hätte DX10/11 sicherlich auch für XP verfügbar machen können, wenn man gewollt hätte. Das ist schon ärgerlich, stimmt.
Nicht schon wieder. Das wurde doch nun schon hinreichend widerlegt. Das hätte fast einen kompletten Umbau von XP benötigt.

deekey777
2011-03-21, 20:30:58
AH Du meinst mit CTM Maschinencode ? Das ist dann aber doch DTM (direkt, nicht close), oder nicht ?
CTM war die Initiative von AMD zu Zeiten des R580:
http://en.wikipedia.org/wiki/Close_to_Metal
CTM gave developers direct access to the native instruction set and memory of the massively parallel computational elements in modern AMD video cards. CTM replaced the graphics-centric DirectX and OpenGL APIs for the GPGPU programmer while exposing previously unavailable low-level functionality. R580 (ATI x1900) and later generations of AMD's GPU microarchitecture supported the CTM interface.

Argh, mir fiel der richtige Begriff nicht ein: CAL. Das ist der Layer, für den man in IL schreibt. Damit kann man immernoch mehr als zB mit OpenCL oder Brook+.

Rumbah
2011-03-22, 01:18:21
Ich wusste nicht, dass DirectCompute mit an Direct3D gebunden ist.

Da es ja um die Umgehung von Direct3D ging dachte ich, dass man auch DirectCompute statt OpenCL nehmen kann. Wenn das da aber mit dran hängt, fällt das natürlich weg.

Und da ich mich jetzt nicht so mit der Grafikausgabe auskenne, in dem Artikel wird ja vor allem von den draw calls geredet, ist das denn so ein wichtiger Faktor? Denn wenn es z.B. um shader geht, die kann man ja auch für die eine oder andere Architektur hin optimieren, so dass es gut zur Hardware passt, oder nicht?

Coda
2011-03-22, 02:23:28
Ich wusste nicht, dass DirectCompute mit an Direct3D gebunden ist.

Da es ja um die Umgehung von Direct3D ging dachte ich, dass man auch DirectCompute statt OpenCL nehmen kann. Wenn das da aber mit dran hängt, fällt das natürlich weg.
Also nochmal: "DirectCompute" gibt es nicht. Was es gibt und landläufig "DirectCompute" genannt wird, ist headless Direct3D 11, das nur dazu verwendet wird, mit Compute Shadern GPGPU-Berechnungen durchzuführen. Das ist dann OpenCL sehr ähnlich, auch wenn die ganze andere 3D-API zusätzlich zur Verfügung steht. Der Vorteil der gemeinsamen API ist, dass Daten die durch 3D-Rendering erzeugt werden sehr einfach mit GPGPU weiterverarbeitet werden können.

Näher an der Hardware als DirectX ist da aber nichts, weil es nunmal bereits ein elementarer Bestandteil von Direct3D 11 ist. Auch OpenGL und OpenCL bieten zusammen praktisch identische Funktionalität und sind daher auch nicht näher an der Hardware.

Das einzige was wirklich näher dran sein könnte ist AMDs CAL/Stream. Ich weiß aber nicht, ob es damit tatsächlich möglich ist auch die 3D-Funktionen der Chips anzusprechen (Gipsel meinte mal das geht). Und falls das so ist, ob damit tatsächlich mehr Funktionalität exponiert wird.

Und da ich mich jetzt nicht so mit der Grafikausgabe auskenne, in dem Artikel wird ja vor allem von den draw calls geredet, ist das denn so ein wichtiger Faktor? Denn wenn es z.B. um shader geht, die kann man ja auch für die eine oder andere Architektur hin optimieren, so dass es gut zur Hardware passt, oder nicht?
Es gibt einen gewissen Overhead für jeden Drawcall, deshalb ist es wichtig darauf zu optimieren möglichst wenige davon zu verwenden. Vor allem mit Direct3D unter Windows XP war das ziemlich übel. Der Overhead wurde aber mit Vista ziemlich entschärft und ist bei OpenGL noch nie so akut gewesen. D3D10 und 11 machen es jeweils auch nochmal einfacher weniger Drawcalls zu verwenden.

Gipsel
2011-03-22, 09:45:03
Das einzige was wirklich näher dran sein könnte ist AMDs CAL/Stream. Ich weiß aber nicht, ob es damit tatsächlich möglich ist auch die 3D-Funktionen der Chips anzusprechen (Gipsel meinte mal das geht). Du kannst damit alle Shadertypen (nicht nur Computeshader) erstellen und aufrufen. Was aber unklar ist (und wo es afaik nichts Dokumentiertes zu gibt), ist ob und wie man sich damit eine eigene Grafikpipeline aufbauen kann. Offiziell vorgesehen ist ja erstmal nur das Einklinken in die von DirectX oder OpenGL mittels eines Pre- oder Postprocessings.

dargo
2011-03-22, 10:16:25
Durch die Konsolen gibt es halt nicht mehr so schnell die Sprünge zu neueren DX Versionen.
Das wird sich mit der nächstne Consolen Generation wieder ändern.

Was wird sich da großartig ändern? Imo gar nichts. Die nächste Generation wird denke ich höchstens DX12 verwenden und mit diesem DX12 werden wir wieder die nächsten ~10 Jahre auskommen müssen, bis zu übernächsten Generation wenn das so weiter geht.

PCGH_Carsten
2011-03-22, 15:00:05
Mein Tipp für die „nächste Konsolengeneration”: Dabei wird sich's hauptsächlich um DSPs handeln und eventuell etwas spezialisierte Krypto-IP für die Kontodaten.

Coda
2011-03-22, 15:33:40
Da wette ich dagegen. Noch ist Rasterisierung ziemlich effizient.

PCGH_Carsten
2011-03-22, 16:33:56
Die DRM-Möglichkeiten bei Streamin'-Gamin'-Diensten sind aber schwer zu schlagen… Und die Hardware kann billiger verkauft werden, was die Zielgruppe vergrößert.

Tesseract
2011-03-22, 16:44:51
Die DRM-Möglichkeiten bei Streamin'-Gamin'-Diensten sind aber schwer zu schlagen… Und die Hardware kann billiger verkauft werden, was die Zielgruppe vergrößert.

bringt nur wenig so lange game-streaming technisch vollkommen undenkbar ist.
solche ideen können echt nur von leuten kommen, die noch nie ein MMO gespielt oder noch nie an einem relativ begehrten live-video-broadcasting mitgesehen haben.
und da sind die de facto unbezahlbaren hardwareanforderungen auf serverseite noch garnicht dabei.

D4ve
2011-03-22, 16:58:34
Die DRM-Möglichkeiten bei Streamin'-Gamin'-Diensten sind aber schwer zu schlagen… Und die Hardware kann billiger verkauft werden, was die Zielgruppe vergrößert.

Dafür muss von Herstellerseite wesentlich bessere Hardware angeschafft werden um überhaupt die Mengen an Spielern zu versorgen, das sind einige Millionen.
Zudem hängts immer noch an der Internet-Geschwindigkeit auf Kundenseite. Dazu die Synchronisation zwischen Nutzer und Service...
Mit Bildqualität einer PSone oder PS2 sicherlich möglich, dank niedriger Auflösung. Bei 1080er-Auflösungen wirds schon schwieriger, auch wenn man ggf. LOD in die Videokompression mit einbezieht.

PCGH_Carsten
2011-03-22, 19:41:25
Ich verstehe diese Bedenken durchaus, nur sei die Frage gestattet, für wann ihr denn die nächste Konsolengeneration erwartet?

Asmodeus
2011-03-22, 19:51:29
Wie soll man sich im PC-Bereich, dazu noch bei AAA-Spielen, die hardwarenähere, API-lose Grafikprogrammierung denn vorstellen? Wie lange ist noch mal ein AAA-Titel in Entwicklung? Wie viele Grafikchip-Architekturen werfen AMD und Nvidia während dieser Zeit auf den Markt? Und auf welche dieser neuen Architekturen/Derivate und/oder alten Architekturen/Derivate soll dann noch mal genau ganz hardwarenah optimiert werden? Halte ich bei einem offenen System wie dem PC für völlig ausgeschlossen.

Und übrigens, ich war mal an der Programmierung einer kompletten 3D-Renderpipeline in Software für einen DSP beteiligt. Klar freut man sich, am Ende hoch optimierten Code produziert zu haben, aber schön ist anders. Und für eine neue Hardware kann man dann im Grunde kaum was wiederverwenden.

Gruß, Carsten.

deekey777
2011-03-22, 20:09:35
Vielleicht liege ich da falsch, aber wenn man die Möglichkeit hat, zB über CAL die Radeons "direkter" anzusprechen, dann sollte das kein Problem sein, oder?
Meiner Meinung nach will Huddy das, wo AMD gerade vor einigen Jahren gescheitert ist. Brook+ war zu hoch und bot nicht alles an, was die Hardware wirklich konnte, in IL zu schreiben, hatten dagegen nur wenige Lust. Und wenn man noch weiter zurückgeht, so ist CTM genau darum gescheitert.

Lokadamus
2011-03-22, 21:29:59
mmm...

Die Meldung gab es heute auch bei Golem. http://www.golem.de/1103/82246.html

Exxtreme
2011-03-22, 21:46:29
Gibt es eine technische Hürde unter Windows, dass eine direkte Programmierung nicht möglich ist?

Brillus
2011-03-22, 23:03:06
Gibt es eine technische Hürde unter Windows, dass eine direkte Programmierung nicht möglich ist?
Speicherschutz auf der Grafikkarte fehlt. Ist eher weniger ein Securityproblem als ein technisches aber wenn ich mir so überlege was man da für Scheiße mit machen könnte bin ihc mir sicher, dass das nicht kommt.

Edit:

Ich geh mal davon aus das am Ende sowas wie ein Bytecode für Grafikkarten steht, wo man sich dann seine eigene Grafikpipeline( oder GPCPU-Anwendung ) mit bauen kann und der Treiber die VM macht. Alles andere wäre sinnlos hinsichtlich den massiven Unterschieden und Änderungen zwischen verschieden Grafikchips von den Herstellern/Generationen.

deekey777
2011-03-23, 13:07:48
DICE z.B. Aber völlig irrelevant. Wie gesagt will niemand die APIs abschaffen für den Rest.
http://forum.beyond3d.com/showpost.php?p=1535975&postcount=8
I've been pushing for this for years in discussions with all the IHVs; to get lower and lower level control over the GPU resources, to get rid of the serial & intrinsic driver bottleneck, enable the GPU to setup work for itself as well as tear down both the logic CPU/GPU latency barrier in WDDM and the physical PCI-E latency barrier to enable true heterogeneous low-latency computing. This needs to be done through both proprietary and standard means over many years going forward.

I'm glad Huddy goes out and in public talks about it as well, he get's it! And about time that an IHV talks about this.

This is the inevitable, and not too far, future and it will be the true paradigm shift on the PC that will see entire new SW ecosystems being built up with tools, middleware, engines and games themselves differentiating in a way not possible at all now.

- Will benefit consumers with more interesting experiences & cheaper hardware (more performance/buck).

- Will benefit developers by empowering unique creative & technical visions and with higher performance (more of everything).

- Will benefit hardware vendors with being able to focus on good core hardware instead of differentiating through software as well as finally releasing them and us from the shackles of the Microsoft 3 year OS release schedule where new driver/SW/HW functionality "may" get in.


This is something I've been thinking about and discussing with all parties (& some fellow gamedevs) on different levels & aspects of over a long period of time, should really write together a more proper blog post going into details soon. This is just a quick half-rant reply (sorry)

The best graphics driver is no graphics driver.
Und das sagt Huddy selbst:
Note that Huddy (i.e. me) didn't say that he wanted to "make the API go away". I said that "make the API go away" is an increasingly common request from developers.

Just to support that observation I'll quote John Andersson of DICE who recently publicly stated at http://forum.beyond3d.com/showpost.php?p=1535975&postcount=8 : "I've been pushing for this for years in discussions with all the IHVs".

I'm not trying to argue that DirectX is a bad thing - just that (like most things) it comes with a cost.

For the vast majority of developers the 'cost' of using DirectX is well worth it. For some very high end ISVs like DICE it has become a bottleneck that they'd like to go away.

I guess if I were to refine my wording I'd say some ISVs want to be able to render PC graphics without using an API like DirectX or OpenGL...

Ilendir
2011-03-25, 15:18:00
ganz ehrlich, 10x so schnell? wofür denn...
wenn ich mir aktuelle Spiele so anseh, gibt es (bis auf einige Ausnahmen) doch eh nicht soviele Games die grafisch noch einen großen Unterschied machen...Die meisten (sogar Neuveröffentlichungen) fahren mit angezogener DirectX9-Handbremse ohne überhaupt an neuere Standards zu denken, selbst wenn PC als Plattform unwichtiger wird (weil viele Raubkopien), findet hier die Entwicklung statt und wie aktuelle Statistiken zeigen verringert sich die Anzahl der WindowsXP-Nutzer sowieso.
Wieso also an dem alten Standard festhalten? Konsolen, imho der einzige Grund.

so lang nicht klar ist wann die nächste Konsolengeneration mit besseren Grafikchips rauskommt, fallen für die Spielehersteller eh viele (auch Leistungs-) Optionen unter den Tisch, denn im Gegensatz zu den Konsolen gehts beim PC eigentlich immer Vorwärts...

PS3 / WII release Ende 2006
Xbox360 2005

in der Zeit bis heute gabs schon ein paar Grafikkartengenerationen oder? ;)

Ich persönlich finds schon gut, dass eine gewisse Abwärtskompatibilität da ist und ich glaube auch irgendwie nicht, dass die Entwickler (vorallem die kleineren Firmen) heutzutage noch die Zeit haben für jedes Game so nah an der Hardware zu programmieren, dass 1. ältere Hardware noch funktioniert und 2. neuere Features (wie Tessellation) auch genutzt werden und somit überhaupt eine Verbesserung zustande kommt.

(Apropos: bestände hier nicht die gefahr von Wildwuchs wenn das ganze nicht "standardisiert" wäre? jetzt musste DirectX11 Kompatibilität für die neuen GraKas implementiert werden, ansonsten könnten sich die Hersteller ja beliebig neue Verbesserungen ausdenken-> die Verschiedenen Hersteller divergieren immer mehr -> mehr Aufwand für die Spieleschmieden)

(Apropos2: Es heißt doch, dass Spiele mit "it's meant to be played" nVidia Optimiert sind, wie kann man das verstehen? also, wie kann etwas unter DirectX optimiert für einen Hersteller sein? CUDA? openGL?)

Also:
Mehr Leistung, aber wozu? Wie oft muss man heutzutage über den Treiber gewisse Features erzwingen, weil die Spiele höhere Qualitätseinstellungen nicht unterstützen, für den 0815 - User kann man das eh vergessen.

Dazu kommt:
Sieht der Otto-Normal-User überhaupt unterschiede? oft muss man schon auf Screenshots sehr genau hinsehen um überhaupt was festzustellen, wie ist das Ganze dann im laufenden Betrieb?

Zusammengefasst:
was brächte es denn für Vorteile den vermeintlichen Bremsklotz DirectX zu entfernen wenn es gleichermaßen andere (nicht zu unterschätzende) Probleme hervorrufen würde?

Tigerchen
2011-03-25, 15:49:05
Ich verstehe diese Bedenken durchaus, nur sei die Frage gestattet, für wann ihr denn die nächste Konsolengeneration erwartet?
Nicht vor 2015. Ist ne Menge Zeit. Nur bis dahin kann auch jedes OnBoard GPU im Notebook diesen Streaming Kram oder? Ist die Konsole dann nicht obsolet? Die Frage ist ja auch ob man dann noch diese exorbitanten Softwarepreise für Konsolentitel durchsetzen kann.

Ilendir
2011-03-25, 16:01:06
Nicht vor 2015. Ist ne Menge Zeit. Nur bis dahin kann auch jedes OnBoard GPU im Notebook diesen Streaming Kram oder? Ist die Konsole dann nicht obsolet? Die Frage ist ja auch ob man dann noch diese exorbitanten Softwarepreise für Konsolentitel durchsetzen kann.

2015, ist das geschätzt oder hast du dafür irgendwelche Quellen?

Lawmachine79
2011-03-25, 16:08:22
Seit DirectX10 ist DirectX ein Bremsklotz. Die Spiele wirken immer bunter und greller, AA funktioniert nicht richtig, keine gestochen scharfen Texturen mehr, nur noch matschige Texturen, die dafür in Echtzeit berechnet beleuchtet werden.

deekey777
2011-03-25, 16:20:45
Seit DirectX10 ist DirectX ein Bremsklotz. Die Spiele wirken immer bunter und greller, AA funktioniert nicht richtig, keine gestochen scharfen Texturen mehr, nur noch matschige Texturen, die dafür in Echtzeit berechnet beleuchtet werden.
Zusammenhang mit dem Thema?

gehts beim PC eigentlich immer Vorwärts...

PS3 / WII release Ende 2006
Xbox360 2005

in der Zeit bis heute gabs schon ein paar Grafikkartengenerationen oder? ;)

Ich persönlich finds schon gut, dass eine gewisse Abwärtskompatibilität da ist und ich glaube auch irgendwie nicht, dass die Entwickler (vorallem die kleineren Firmen) heutzutage noch die Zeit haben für jedes Game so nah an der Hardware zu programmieren, dass 1. ältere Hardware noch funktioniert und 2. neuere Features (wie Tessellation) auch genutzt werden und somit überhaupt eine Verbesserung zustande kommt.

(Apropos: bestände hier nicht die gefahr von Wildwuchs wenn das ganze nicht "standardisiert" wäre? jetzt musste DirectX11 Kompatibilität für die neuen GraKas implementiert werden, ansonsten könnten sich die Hersteller ja beliebig neue Verbesserungen ausdenken-> die Verschiedenen Hersteller divergieren immer mehr -> mehr Aufwand für die Spieleschmieden)

(Apropos2: Es heißt doch, dass Spiele mit "it's meant to be played" nVidia Optimiert sind, wie kann man das verstehen? also, wie kann etwas unter DirectX optimiert für einen Hersteller sein? CUDA? openGL?)

Also:
Mehr Leistung, aber wozu? Wie oft muss man heutzutage über den Treiber gewisse Features erzwingen, weil die Spiele höhere Qualitätseinstellungen nicht unterstützen, für den 0815 - User kann man das eh vergessen.

Dazu kommt:
Sieht der Otto-Normal-User überhaupt unterschiede? oft muss man schon auf Screenshots sehr genau hinsehen um überhaupt was festzustellen, wie ist das Ganze dann im laufenden Betrieb?
Ebenfalls: Was hat das mit dem Thema zu tun?

Ilendir
2011-03-25, 16:51:23
Zusammenhang mit dem Thema?

Ebenfalls: Was hat das mit dem Thema zu tun?

viel, hast du s überhaupt durchgelesen? Ich greife die Aussage auf und lenke sie in eine andere Richtung (zb. was meiner Meinung nach eher ein Bremsklotz ist) und stelle gleichzeitig 2 Fragen weil für mich was unklar war?!

Coda
2011-03-25, 17:42:52
Seit DirectX10 ist DirectX ein Bremsklotz. Die Spiele wirken immer bunter und greller, AA funktioniert nicht richtig, keine gestochen scharfen Texturen mehr, nur noch matschige Texturen, die dafür in Echtzeit berechnet beleuchtet werden.
Bullshit. Das hat nichts mit der API zu tun. Du verwechselst Ursache mit Wirkung.

aths
2011-03-25, 18:38:27
Trotzdem ist der Begriff "Bullshit" nicht angebracht. Man kann einen Irrtum auch aufklären, ohne gleich mit Kraftausdrücken zu kommen.

Seit DirectX10 ist DirectX ein Bremsklotz. Die Spiele wirken immer bunter und greller, AA funktioniert nicht richtig, keine gestochen scharfen Texturen mehr, nur noch matschige Texturen, die dafür in Echtzeit berechnet beleuchtet werden.Das ist wohl eher der Folge der Multiplattform-Entwicklung. DirectX 10 ist gegenüber der Version 9 ein Fortschritt im Bestreben, die CPU-Limitierung zu verringern und die Effektprogrammierung einfacher zu gestalten. Die API ansich hemmt wesentlich weniger als vorherige D3D-Versionen.

Lawmachine79
2011-03-25, 18:49:16
Trotzdem ist der Begriff "Bullshit" nicht angebracht. Man kann einen Irrtum auch aufklären, ohne gleich mit Kraftausdrücken zu kommen.

Das ist wohl eher der Folge der Multiplattform-Entwicklung. DirectX 10 ist gegenüber der Version 9 ein Fortschritt im Bestreben, die CPU-Limitierung zu verringern und die Effektprogrammierung einfacher zu gestalten. Die API ansich hemmt wesentlich weniger als vorherige D3D-Versionen.
Klar, die visuellen Rückschritte aktueller Spiele speziell bei der Texturqualität und der Kantenglättung ist nicht technisch ursächlich D3D10 zuzurechnen. Die Bildqualität selbst als solche, also der abgebildete Content hat sich m.E. seit Jahren kaum verbessert. Es wird nur allerhand Buntes drübergelegt und es "passiert" mehr auf dem Bildschirm. Das Bild wirkt dadurch zwar lebendiger, aber eben nicht realistischer. Ich finde man hat bei D3D10 zu sehr auf die Portierbarkeit geachtet aber keine wirklich BQ-verbessernde Maßnahmen eingeführt und wenn doch, werden sie nicht genutzt. Da könnte es hilfreich sein, wenn es wieder zu einem Kampf zweier Schnittstellen kommt, denn wo kein Wettbewerb ist, herrscht eben meistens Stagnation.

Captain Future
2011-03-25, 19:19:19
erwechselst du das nicht schon wieder? Es wurde dir doch gerade erklärt, dass es eben nicht an der api liegt. Da hilft auch keine zweiteschnittstellt.

Lokadamus
2011-03-25, 20:09:56
1.) ganz ehrlich, 10x so schnell? wofür denn...
wenn ich mir aktuelle Spiele so anseh, gibt es (bis auf einige Ausnahmen) doch eh nicht soviele Games die grafisch noch einen großen Unterschied machen...

2.) Die meisten (sogar Neuveröffentlichungen) fahren mit angezogener DirectX9-Handbremse ohne überhaupt an neuere Standards zu denken, ...
Wieso also an dem alten Standard festhalten? Konsolen, imho der einzige Grund.

3.) (Apropos: bestände hier nicht die gefahr von Wildwuchs wenn das ganze nicht "standardisiert" wäre? jetzt musste DirectX11 Kompatibilität für die neuen GraKas implementiert werden, ansonsten könnten sich die Hersteller ja beliebig neue Verbesserungen ausdenken-> die Verschiedenen Hersteller divergieren immer mehr -> mehr Aufwand für die Spieleschmieden)

4.) (Apropos2: Es heißt doch, dass Spiele mit "it's meant to be played" nVidia Optimiert sind, wie kann man das verstehen? also, wie kann etwas unter DirectX optimiert für einen Hersteller sein? CUDA? openGL?)

5.) Mehr Leistung, aber wozu? Wie oft muss man heutzutage über den Treiber gewisse Features erzwingen, weil die Spiele höhere Qualitätseinstellungen nicht unterstützen, für den 0815 - User kann man das eh vergessen.mmm...

Irgendwie hab ich das Gefühl, du hast dich nie mit dem Thema Engines beschäftigt und irgendwie wirfst du auch alles durcheinander.

1.) 64KB Ram sind genug. Warum mehr? Warum brauchen wir mehr als einen 386er? Warum Dualcore und noch mehr Kerne?
Die selben Fragen, die selben Antworten. Schnellere Verarbeitung, höhere Auflösung, bessere Effekte.

2.) Die Frage beantwortest du dir selber. Nicht jeder rennt jeden Monat los, um sich neue Hardware zu kaufen. Ich hab eine ATI 4770, wie alt ist die? 2 Jahre? Technisch schon veraltet, weil sie kein DirectX 11 kann, sondern nur 10.1.

3.) Ja und nein. Siehe Antwort 2: Ältere Hardware will auch noch unterstützt werden. Die Engines wie RageID/ Unreal3 sind gerade dafür da, dass sie das Optimum aus verschiedener Hardware herausholen.
http://www.pcgames.de/m,forum/Hard-und-Software-21/Software-allgemein-563/Kurzdefinition-fuer-Renderpfade-wenn-es-geht-verstaendlich-9184830/?c=4
http://de.wikipedia.org/wiki/Id_Tech_5
http://de.wikipedia.org/wiki/Unreal_Engine

4.) Siehe 3.
5.) Siehe 1.

Knuddelbearli
2011-03-25, 21:09:04
wenn die hardware jetzt 10x schnelelr ist sind auch die zukünftigen konsolen entsprechend schnelelr

( um es in deiner sprache auszudrücken du konsolenheld ^^ )

Tesseract
2011-03-25, 21:27:42
Ich finde man hat bei D3D10 zu sehr auf die Portierbarkeit geachtet aber keine wirklich BQ-verbessernde Maßnahmen eingeführt und wenn doch, werden sie nicht genutzt.
was meinst du mit "BQ-verbessernde Maßnahmen eingeführen"? moderne architekturen sind nicht mehr fixed function. das was der entwickler haben will kann bzw. muss er einbauen. da kann weder der grakabauer noch der API-spezifizierer was dafür.

Grey
2011-03-25, 23:06:09
War ja gar nicht so gemeint:


AMD Re-Affirms Commitment To Micrsoft's DirectX API

http://www.crn.com/news/components-peripherals/229400101/amd-re-affirms-commitment-to-micrsofts-direct-x-api.htm

Huddy cited developers including Dice, known for its successful Battlefield series, and Critech are among the minority of game developers who are looking to get around the API. “It’s not something most developers want,” he said. “If you held a vote among developers, they would go for Direct X or Open GL, because it’s a great platform.”

Hm. Kriechtech und DICE... schlimme Finger.

Robbson
2011-03-26, 01:43:35
Ein sehr interessantes Thema.
Offene Schnittstellen und einfachere Entwicklung für eine heterogene Hardwarelandschaft vs. Spezialisierte Entwicklung für eine einzige Hardware mit bestmöglichen hocheffizienten Resultaten.

Aus Entwicklersicht ist so eine einheitliche Konsolenplattform sicher ein Traum, um sich voll reinstürzen und massiv optimieren zu können. Am Ende bekommen alle Kunden dieselbe Qualität, so wie vom Gamestudio vorgesehen.
Und als Gamer bekommt man mit der einmal erworbenenen HW das Maximum geboten...

Ich bin manchmal neidisch, dass Konsoleros von diesem ganzen Hardware-Upgrade Wahn verschont bleiben und sich auf das Wesentliche konzentrieren können: Die Games und deren Inhalte. Während meiner einer desöfteren vom Zocken absieht, weil die Ultra-Detailstufen und/oder FSSSAA auf der gerade verbauten HW nicht drin sind

In Zeiten von "Going Green" und dem Bestreben, Energie möglichst effizient zu nutzen, ist der Konsolenansatz der offenen PC-Welt klar überlegen. Der API-Bremsklotz muß mit zusätzlicher HW-Power (und entsprechend höherem Energieverbrauch) ausgeglichen werden, das ist lächerlich.

Die bestmögliche Ausreizung einer Plattform zeigen aktuelle Konsolengames ja bereits. Die auf die PS3-Hardware spezialisierte Engine von Killzone 3 kann sich offenbar mit der PC-Version des Multiplattform-Shooters Crysis 2 messen, sieht man mal von Auflösung, AF und AA ab. Letztere sind einfach nur Methoden, die (immer überflüssiger werdende) Grafikpower irgendwie zu verballern. Irgendwie armselig.

Robbson

HarryHirsch
2011-03-26, 05:05:47
Ich schnall nicht mal das Thema.
Aber was du hier redest ist mir echt zu hoch.
Es war doch von Hardware-(näherer) Programierung die rede.

Coda
2011-03-26, 05:32:52
Trotzdem ist der Begriff "Bullshit" nicht angebracht.
Manchmal muss man Dinge beim Namen nennen.

Ich finde man hat bei D3D10 zu sehr auf die Portierbarkeit geachtet
Welche Portierbarkeit? Die auf Konsolen kannst du nicht meinen.

HarryHirsch
2011-03-26, 05:49:09
hmm

=Floi=
2011-03-26, 08:23:54
ihr verwechselt alle das thema!
robson, wm88 etc.

Lokadamus
2011-03-26, 08:28:14
1.) Aus Entwicklersicht ist so eine einheitliche Konsolenplattform sicher ein Traum, um sich voll reinstürzen und massiv optimieren zu können. Am Ende bekommen alle Kunden dieselbe Qualität, so wie vom Gamestudio vorgesehen.

2.)Und als Gamer bekommt man mit der einmal erworbenenen HW das Maximum geboten...
2.A) Ich bin manchmal neidisch, dass Konsoleros von diesem ganzen Hardware-Upgrade Wahn verschont bleiben...
Während meiner einer desöfteren vom Zocken absieht, weil die Ultra-Detailstufen und/oder FSSSAA auf der gerade verbauten HW nicht drin sind

3.) In Zeiten von "Going Green" und dem Bestreben, Energie möglichst effizient zu nutzen, ist der Konsolenansatz der offenen PC-Welt klar überlegen. Der API-Bremsklotz muß mit zusätzlicher HW-Power (und entsprechend höherem Energieverbrauch) ausgeglichen werden, das ist lächerlich.

4.) Die bestmögliche Ausreizung einer Plattform zeigen aktuelle Konsolengames ja bereits. Die auf die PS3-Hardware spezialisierte Engine von Killzone 3 kann sich offenbar mit der PC-Version des Multiplattform-Shooters Crysis 2 messen, sieht man mal von Auflösung, AF und AA ab.mmm...

1.) Dafür wurde Direct-X geschaffen. Es begrenzt aber auch ab einem gewissen Punkt.
2.) Nein, du hast nur nichts verstanden.
3.) Nein, wie gesagt, du hast nichts verstanden. Von "Going Green" reden und die neueste Effekte haben wollen (Hint: Ultra-Detailstufen und/oder FSSSAA) :uhammer:.
4.) Hust ... http://www.golem.de/1103/82327.htmlich verwechsel alle das thema!
robson, wm88 etc.Kann ich doch nichts dafür, dass du das Thema verwechselst. :tongue:

Robbson
2011-03-26, 18:46:02
mmm...

1.) Dafür wurde Direct-X geschaffen. Es begrenzt aber auch ab einem gewissen Punkt.
2.) Nein, du hast nur nichts verstanden.
3.) Nein, wie gesagt, du hast nichts verstanden. Von "Going Green" reden und die neueste Effekte haben wollen (Hint: Ultra-Detailstufen und/oder FSSSAA) :uhammer:.
4.) Hust ... http://www.golem.de/1103/82327.html

Hallo Lokadamus,

wenn Du mich schon zitierst, dann bitte richtig. Oder leidest Du auch an dem Guttenberg-Syndrom? :crazy:
Ich kann mich nicht erinneren, merkwürdige Aufzählungen benutzt zu haben. Und wieso schreibst Du neben "2)" auch noch "2 A)" und vergisst dann, Dich auf diesen Unterpunkt zu beziehen? :crazy2:
Naja, viel mehr als x-mal "Du hast nichts verstanden" zu erwähnen, hast Du anscheinend eh nicht zu bieten.

Also, was bitte habe ich falsch verstanden? Der fettgedruckte Teil sollte meine Kernaussage darstellen: Effizientere Nutzung der Plattform und damit auch der (Energie-)Ressourcen. Alle anderen Ausführungen beziehen sich auf das Status Quo bezüglich meiner Konsolensichtweise, damit keiner auf die Idee kommt, mich als Konsolen-Fanboy zu deklarieren.

Wenn ich meine, dass mir der ganze Grafikdetailkram u. FSSSA wichtig ist, dann aber von "Going Green" rede, heisst das: Ich bin dabei, meine Einstellung zu überdenken. Sowas soll vorkommen... Was passt da nicht zusammen?

Und was soll der Link zum Golem-Test von Crysis 2 mit der sinnfreien Bemerkung "Hust"? Bis Du erkältet oder was? Dann leg Dich besser schlafen... :freak:

Robbson

XtraLarge
2011-04-16, 23:22:17
Ich habe von dem Thema zwar keine Ahnung, aber ich will ja auch nicht blöd sterben :redface:

Wäre das nicht eher schlecht für den PC als Spieleplattform? Da ist doch viel zu viel Bewegung drin. Besonders hier gibt es doch Leute, die wirklich jede GraKa mitnehmen, auch wenn sie nur 5% mehr Leistung bietet.

Bei Konsolen kann ich mir ja noch vorstellen, dass es den Aufwand wert wäre, weil diese nunmal eine sehr lange Zeit unverändert genutzt werden (müssen). Außerdem hätte man dann auch "nur" noch zwei Systeme zu bedienen (die Wii lasse ich mal außen vor).

Oder mal andersrum gefragt, um das mal verstehen zu können:

Wieviel Leistungsplus wäre für eine PS3 oder Xbox360 drin, wenn man nicht nur auf D3D angewiesen wäre? Oder sind die Chips aufgrund der vergangen Zeit und der Erfahrung der Entwickler eh schon am absoluten Limit?

Knuddelbearli
2011-04-17, 19:24:03
wenn sich die entwickler richtig mühe geben ist auch weit über 200% !mehr! grafikqulität bei gleichgrosser rohleistung drinnen allerdings gilt halt das gesetzt des abnehmenden betrages