PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GTX-700-Karten/Titanen - GK180/GK110-B1 - GTX 790?


Seiten : 1 2 3 4 5 [6] 7

Gipsel
2013-11-02, 13:57:10
Was für eine Abfrage ständig? Wozu muss der Dev extra etwas abfragen wenn die DirectX Spezifikation Feature Level Abwärtskompatibiliät vorsieht?Wie willst Du die mit Level 11_0 optionalen Features nutzen?
Na klar gibt es da eine Abfrage. Daß die (z.T.) mit Level 11_1 Pflicht sind, hilft nV (bzw. dem Entwickler, wenn er das auf 11_0 Hardware unterstützen will) da gar nicht, weil ja nV-GPUs 11_1 nicht unterstützen. Sollte aber nicht das große Problem sein, wenn der Entwickler nicht gerade irgendwie in geistige Umnachtung verfallen ist.

Ronny145
2013-11-02, 14:01:32
Wie willst Du die mit Level 11_0 optionalen Features nutzen?
Na klar gibt es da eine Abfrage. Sollte aber nicht das große Problem sein, wenn der Entwickler nicht gerade irgendwie in geistige Umnachtung verfallen ist.


Wieso sollte es da eine Abfrage geben? Da hätte ich ganz gerne eine Quelle.

Skysnake
2013-11-02, 14:01:55
Was für eine Abfrage ständig? Wozu muss der Dev extra etwas abfragen wenn die DirectX Spezifikation Feature Level Abwärtskompatibiliät vorsieht?
Ganz einfach, weil du ansonsten nen Programmabsturz oder sonst irgendwas wildes haben wirst, wenn du Funktionen einfach aufrufst, mit der die Hardware absolut nicht anfangen kann, weil Sie sie nicht unterstützt...

Deswegen muss der Entwickler ja auch aufpassen, was er macht, wenn er am Ende nicht will, dass die Software irgendwelchen komischen Mist macht, und ich gehe jetzt einfach mal davon aus, dass die Entwickler vernünftig arbeiten...

Gipsel
2013-11-02, 14:02:11
Wieso sollte es da eine Abfrage geben? Da hätte ich ganz gerne eine Quelle.Denk doch einfach mal nach!

captain_drink
2013-11-02, 14:07:44
Na da wird aber was ganz anderes suggeriert von Aufkrawall und Ronny145. Wenn man als unbedarfter ihre Posts liest, dann kommt das so rüber, als ob DX11.1 Spiele auch auf nVidia Karten laufen würden, als ob Sie DX11.1 hätten.

Dem ist aber eben nicht so. Der Developer muss extra Abfragen einbauen, statt einfach nur DX11.1 feature_lvl ab zu fragen. Wenn er die Sachen braucht, die nVidia nicht unterstützt, und daher eben auch kein DX11.1 hat, ist man halt gekniffen. Genauso in dem Fall, in dem sich der Entwickler halt keine Mühe macht, da nochmal einzeln ran zu gehen.


Wenn man so kühn sein und Nvidia Glauben schenken will, so unterstützen Fermi und Kepler alle Direct3D-relevanten Features von DX11.1, wovon eines (von ca. 15) jedoch nicht direkt über D3D11.1-Interfaces angesprochen werden kann, sondern nur anwendungsspezifisch. Willst du ernsthaft behaupten, dass es einem Entwickler unmöglich sein sollte, für 2/3 des Grafikkartenmarktes einen seperaten Pfad für ein einzelnes (durchaus unterstütztes) Feature zu schreiben? Der Aufwand dafür ist so gering, dass die Annahme, DX11.1-Spiele liefen nicht auf Nvidia, naiv wäre.

Gipsel
2013-11-02, 14:14:28
wovon eines (von ca. 15) jedoch nicht direkt über D3D11.1-Interfaces angesprochen werden kann, sondern nur anwendungsspezifisch. Willst du ernsthaft behaupten, dass es einem Entwickler unmöglich sein sollte, für 2/3 des Grafikkartenmarktes einen seperaten Pfad für ein einzelnes (durchaus unterstütztes) Feature zu schreiben? Der Aufwand dafür ist so gering, dass die Annahme, DX11.1-Spiele liefen nicht auf Nvidia, naiv wäre.Also meine Vermutung wäre, daß das erstmal nur für AAA-Entwickler zugänglich ist, da der Treiber ein extra Profil für das jeweilige Spiel vorhalten muß, um das (also die UAVs in allen Shaderstages bzw. auch mehr UAVs) spezifisch zu aktivieren (zumindest interpretiere ich nVs Ausage dazu so, vermutlich meldet der Treiber dann 11_1 Support an die DX-Runtime, auch wenn es nicht stimmt [da sonst die Runtime nämlich entsprechende Versuche blockieren würde]). Also das wäre schon eine kleine Unannehmlichkeit.

Skysnake
2013-11-02, 14:15:48
Ähm...

Das kostet Geld, und zwar nicht wenig, so was zu implementieren. Vor allem kannste dir ja bei solchen Hampeleien nicht sicher sein, ob ein Patch oder what ever von nVidia das nicht wieder zerschiest usw usw usw. Sprich verdammt viel Verantwortung beim Entwickler, und jetzt denk mal an die vielen Konsolenports. Schau mal wieviel Liebe die erfahren im Allgemeinen...

Wenns nur ein Performancehit ist, und das wird es sehr wahrscheinlich sein bei den Sachen die nVidia hier nicht unterstützt, kanns den Entwicklern relativ wumpe sein. Sollen sich die Leute halt neue Hardware kaufen.

Tesseract
2013-11-02, 14:20:25
als ob es so kompliziert wäre ein feature abzufragen.
entscheidend ist ob die hardware das feature tatsächlich beherrscht und korrekt implementiert. (bei einer hack-lösung ist das natürlich wieder was anderes)
ob das explizit über eine direkte abfrage oder indirekt durch ein ganzes featuresets geregelt wird ist doch nix anderes als ein paar zeilen flag-jongliererei im code.

Gipsel
2013-11-02, 14:40:04
So sieht es aus.
Wobei das von captain_drink angesprochene feature (UAVs in allen stages) offizielle nur über Level 11_1 zugänglich ist, das ist kein optionales 11_0 Feature. Das wäre also ein Hack oder eben spielspezifische Vortäuschung der 11_1-Kompatibilität per Treiberprofil (was nV als Möglichkeit angedeutet hat).

StefanV
2013-11-02, 14:42:33
(...)
oder eben spielspezifische Vortäuschung der 11_1-Kompatibilität per Treiberprofil (was nV als Möglichkeit angedeutet hat).
Was auch ein ziemlich böser Hack wäre...

Gipsel
2013-11-02, 14:43:36
Was auch ein ziemlich böser Hack wäre...Aber des Treibers, nicht im Gamecode. :wink:
Wenn also Entwickler anfangen würden, das ausgiebig zu nutzen, müßte nV alle entsprechenden Spiele analysieren/testen (was sie bei etwas besser verkauften sowieso ständig tun) und das dann gegebenenfalls für diese aktivieren.

Skysnake
2013-11-02, 14:44:20
als ob es so kompliziert wäre ein feature abzufragen.
entscheidend ist ob die hardware das feature tatsächlich beherrscht und korrekt implementiert. (bei einer hack-lösung ist das natürlich wieder was anderes)
ob das explizit über eine direkte abfrage oder indirekt durch ein ganzes featuresets geregelt wird ist doch nix anderes als ein paar zeilen flag-jongliererei im code.
Mir gings um den Hack ;)

@Gipsel:
Wobei das sicherlich nicht so funktionieren wird, wie die native Version. Da gibts bestimmt genug Kopfschmerzen für die Entwickler.

Gipsel
2013-11-02, 14:48:58
@Gipsel:
Wobei das sicherlich nicht so funktionieren wird, wie die native Version. Da gibts bestimmt genug Kopfschmerzen für die Entwickler.
Sie können es ohne angepaßten Treiber von nV halt nicht auf nV-Karten testen, weswegen ich ja sagte, daß das vermutlich auf AAA-Entwickler beschränkt wäre (andere müssen sich dann auf Treiberupdates verlassen, aber das wäre dann nVs Problem).

Tesseract
2013-11-02, 14:57:25
Mir gings um den Hack ;)
deswegen die anmerkung. die entwickler sind ja nicht blöd, wenn eine große gruppe der DX11-hardware die DX11.1-features die ich nuzten will unterstützt, bau ich dafür eine abfrage ein und behandle sie intern auch als DX11.1-hardware.
und wenn dem zusammenfassen solcher großer gruppen ein einziges feature im weg steht überlege ich mir eher ob ich das eine feature als spezialfall implementiere oder gleich ganz weglasse statt auf einer großen hardware-gruppe gleich mehrere features zu verlieren.
und wenn man als ein entwickler einer der großen weiterlizenzierbaren engines so weit optimieren will, dass auch hack-lösungen in frage kommen würden spekulier ich doch nicht wild rum sondern sprech das einfach mit nvidia ab.

Skysnake
2013-11-02, 15:07:40
Sie können es ohne angepaßten Treiber von nV halt nicht auf nV-Karten testen, weswegen ich ja sagte, daß das vermutlich auf AAA-Entwickler beschränkt wäre (andere müssen sich dann auf Treiberupdates verlassen, aber das wäre dann nVs Problem).
Und du meinst, die Leute würden akzeptieren, das es nVidia verbockt hat weil Spiel XY von Entwickler Z nicht läuft?

Sicher? Also wirklich ganz! sicher?

Der Entwickler wird meiner Meinung nach ziemlich sicher den Shitstorm ernten, egal ob er jetzt etwas dafür kann oder nicht...

Ansonsten entwickelt sich damit halt wieder ne Zweiklassengesellschaft bei den Entwicklern. Die die nVidia für wichtig genug hält um mit denen zusammen zu arbeiten, und dann der Rest der Welt :down:

Sowas ist zum kotzen.

deswegen die anmerkung. die entwickler sind ja nicht blöd, wenn eine große gruppe der DX11-hardware die DX11.1-features die ich nuzten will unterstützt, bau ich dafür eine abfrage ein und behandle sie intern auch als DX11.1-hardware.
und wenn dem zusammenfassen solcher großer gruppen ein einziges feature im weg steht überlege ich mir eher ob ich das eine feature als spezialfall implementiere oder gleich ganz weglasse statt auf einer großen hardware-gruppe gleich mehrere features zu verlieren.
und wenn man als ein entwickler einer der großen weiterlizenzierbaren engines so weit optimieren will, dass auch hack-lösungen in frage kommen würden spekulier ich doch nicht wild rum sondern sprech das einfach mit nvidia ab.
Klar, für mich machen die Features, insbesondere mit DX11.2 zusammen, erst so richtig Sinn.

Was man ja damit machen kann, und was ich auch gut finde, ist, das man ja unterschiedliche Bildteile in unterschiedlichen Auflösungen und Qualitätseinstellungen rendern kann. Da steckt UNGLAUBLICH viel Potenzial drin. Die Frage ist halt, wie gut/schwierig sich das alles noch umsetzen lässt, wenn man bei nVidia nochmal gesondert darauf acht geben muss.

Für die 2-3 großen Engineentwickler wird es wohl ein stemmbarer Aufwand sein, aber sonst? Puh, da seh ich eher schwarz, und das treibt die Entwickler noch mehr in die Arme der wenigen großen Engineentwickler, was ich nicht unbedingt gut finde. Wir hatten ja bei DX9(?) gesehen, was das zur Folge hatte. Unglaublich viele Spiele, die sehr ähnlich aussahen, bzw wirkten.

TheCounter
2013-11-02, 15:53:27
Für 80% der Kunden ist die 290X aufgrund der Lautstärke vollkommen unbrauchbar.

Also mit Stock Kühler auf jedenfall. Das Ding macht ja fast der FX 5800 Ultra Konkurrenz wenn man sich das mal anhört (http://www.youtube.com/watch?v=sceM0-pfbb4).

Wahnsinn was für untaugliche Kühler da manchmal auf den Markt geworfen werden (egal ob NV oder AMD).

StefanV
2013-11-02, 16:00:12
Wahnsinn was für untaugliche Kühler da manchmal auf den Markt geworfen werden (egal ob NV oder AMD).
Dafür kanns nur 2 Gründe geben:

a) die OEMs wünschen das
b) einige Herrschaften finden (immer noch) DHE Kühler super toll. Auch wenn sie die Kotzgrenze schon mehrfach überschritten haben und eine bessere Leistung nur noch mit 3 Slot Bauweise und entsprechend hohem Lüfter möglich wäre...

Ronny145
2013-11-02, 16:05:52
Ganz einfach, weil du ansonsten nen Programmabsturz oder sonst irgendwas wildes haben wirst, wenn du Funktionen einfach aufrufst, mit der die Hardware absolut nicht anfangen kann, weil Sie sie nicht unterstützt...


Das ist doch Unfug. Die DirectX Spezifikation sieht eine Abwärtskompatibilität explizit vor. Das wird und wurde heute nicht anders gehandhabt in den Spielen. Gängige Praxis ist das. Wo du da Probleme siehst will ich wissen.

Denk doch einfach mal nach!


Also gibt es keine Quelle? Der Dev kann selbstverständlich ein Mindest Feature Level festlegen. Meinst du das mit Abfrage? Feature Level 11_0 ist das Minimum sofern der Entwickler Nvidia nicht komplett ausschließen möchte was nicht anzunehmen ist. Jetzt die Frage, was für eine Abfrage soll es denn noch geben, um Feature Level 11_0 Features gangbar zu machen?

fondness
2013-11-02, 16:36:16
Also gibt es keine Quelle? Der Dev kann selbstverständlich ein Mindest Feature Level festlegen. Meinst du das mit Abfrage? Feature Level 11_0 ist das Minimum sofern der Entwickler Nvidia nicht komplett ausschließen möchte was nicht anzunehmen ist. Jetzt die Frage, was für eine Abfrage soll es denn noch geben, um Feature Level 11_0 Features gangbar zu machen?

Wenn du ein DX11.1 Feature unter DX11 benutzen willst, das dort nur optional vorhanden ist (wenn nicht geht es ohnehin nicht ohne Hack), dann musst du abfragen ob die DX11.0-Hardware dieses Feature unterstützt. Was genau ist daran nicht zu begreifen? Im DX11.1-Pfad hingegen ist dieses Feature Voraussetzung und der Entwickler kann sich deshalb darauf verlassen das es vorhanden ist.

Also mit Stock Kühler auf jedenfall. Das Ding macht ja fast der FX 5800 Ultra Konkurrenz wenn man sich das mal anhört (http://www.youtube.com/watch?v=sceM0-pfbb4).

Wahnsinn was für untaugliche Kühler da manchmal auf den Markt geworfen werden (egal ob NV oder AMD).

Ist ja auch sehr sinnvoll so ein Sound-Sample ohne Vergleich. Je nach dem wie laut ich meine Lautsprecher aufdrehe ich das entweder extrem laut oder flüstleise. Ganz davon abgesehen finde ich die Hysterie schon etwas seltsam. Eine GTX Titan im Referenzkühler ist etwas leiser, aber das sind keineswegs Welten (3.3 Sone vs. 4.4 Sone AFAIK). Richtig laut wird die 290X erst im Uber-Mode, aber das trifft auf eine Titan mit entsprechenden freigaben bei Temp- und Power-Limit kaum weniger zu.

aufkrawall
2013-11-02, 16:42:26
Wenn du ein DX11.1 Feature unter DX11 benutzen willst, das dort nur optional vorhanden ist (wenn nicht geht es ohnehin nicht ohne Hack), dann musst du abfragen ob die DX11.0-Hardware dieses Feature unterstützt. Was genau ist daran nicht zu begreifen? Im DX11.1-Pfad hingegen ist dieses Feature Voraussetzung und der Entwickler kann sich deshalb darauf verlassen das es vorhanden ist.

Laut Coda und afair auch AlphaTier kein großer Aufwand.

Ronny145
2013-11-02, 16:42:51
Wenn du ein DX11.1 Feature unter DX11 benutzen willst, das dort nur optional vorhanden ist (wenn nicht geht es ohnehin nicht ohne Hack), dann musst du abfragen ob die DX11.0-Hardware dieses Feature unterstützt. Was genau ist daran nicht zu begreifen? Im DX11.1-Pfad hingegen ist dieses Feature Voraussetzung und der Entwickler kann sich deshalb darauf verlassen das es vorhanden ist.


Wenn es die Hardware nicht unterstützt, dann funktioniert es schlicht und ergreifend nicht.

fondness
2013-11-02, 16:44:41
Laut Coda und afair auch AlphaTier kein großer Aufwand.

Natürlich ist die Abfrage kein Aufwand, ist ja nur ein simple if-Anweisung. Der Entwickler muss halt auch für den Fall dass das Feature nicht vorhanden ist auf DX11.0-Hardware einen entsprechenden Pfad vorsehen. Wenn er gleich DX11.1 als Mindestvoraussetzung vergibt umgeht er das Problem.

Wenn es die Hardware nicht unterstützt, dann funktioniert es schlicht und ergreifend nicht.

Also Programmabsturz und fertig oder wie? :freak:

Ronny145
2013-11-02, 16:54:36
Natürlich ist es kein Aufwand, ist ja nur ein simple if-Anweisung. Der Entwickler muss halt auch für den Fall dass das Feature nicht vorhanden ist auf DX11.0-Hardware einen entsprechenden Pfad vorsehen. Wenn er gleich DX11.1 als Mindestvoraussetzung vorsieht umgeht er das Problem.


Bitte DX11.1 und Feature Level getrennt betrachten, es könnte sonst zu Verwirrungen kommen. Bei den meisten DX11 Spielen wird Feature Level 10 oder 10_1 als Minimum festgesetzt, eben weil es es prinzipiell kaum ein Aufwand macht und man sich dafür eine größere user Basis schafft macht. Ein Dev welcher strikt eine 11_1 Abfrage einbaut würde sich alle Vista, Windows 7, Fermi, Kepler User aussperren. Wie wahrscheinlich so ein Szenario wäre, kann sich jeder selbst ausmalen. Obwohl Battlefield 4 ein AMD gesponsertes Spiel ist, profitiert Kepler trotz aller DX11.1 Unkenrufe vom DX11.1 Speedup, da dieses Feature sowieso unter 11_0 verfügbar ist. (deswegen meine Frage an Skysnake, was er als DX11.1 Spiel definiert--> aber keine Antwort)


Also Programmabsturz und fertig oder wie? :freak:

Je nach Feature kein speedup oder Qualitätssteigerung. Auch hier wieder, gängige Praxis seit Jahren.

fondness
2013-11-02, 17:00:14
Bitte DX11.1 und Feature Level getrennt betrachten, es könnte sonst zu Verwirrungen kommen. Bei den meisten DX11 Spielen wird Feature Level 10 oder 10_1 als Minimum festgesetzt, eben weil es es prinzipiell kaum ein Aufwand macht und man sich dafür eine größere user Basis schafft macht. Ein Dev welcher strikt eine 11_1 Abfrage einbaut würde sich alle Vista, Windows 7, Fermi, Kepler User aussperren. Wie wahrscheinlich so ein Szenario wäre, kann sich jeder selbst ausmalen. Obwohl Battlefield 4 ein AMD gesponsertes Spiel ist, profitiert Kepler trotz aller DX11.1 Unkenrufe vom DX11.1 Speedup, da dieses Feature sowieso unter 11_0 verfügbar ist. (deswegen meine Frage an Skysnake, was er als DX11.1 Spiel definiert--> aber keine Antwort)

Ich spreche natürlich vom Feature-Level. Das ist schon klar das aktuell kein Entwickler aus oben genannten Gründen 11_1 als Mindestvoraussetzung festlegen wird. Er kann allerdings einen 11_1-Pfad schrieben und alle anderen Karten auf 11_0 oder niedriger herunter stufen um sich zusätzliche Arbeit zu ersparen was die Hardwarespezifische Abfrage von optionalen Features betrifft. Es gibt schließlich genug Hardwaregenerationen und auch noch Intel die alle manche Features unterstützen die über das jeweilige DX-Level hinaus gehen.


Je nach Feature kein speedup oder Qualitätssteigerung. Auch hier wieder, gängige Praxis seit Jahren.

Auch dafür braucht es den entsprechenden Programmcode, der die Aufgabenstellung anders (also ohne den geforderten Feature(s)) löst.

Iruwen
2013-11-02, 17:09:35
Wieso sollte es da eine Abfrage geben? Da hätte ich ganz gerne eine Quelle.
http://msdn.microsoft.com/en-us/library/windows/desktop/ff476497(v=vs.85).aspx
oder http://blogs.msdn.com/b/chuckw/archive/2012/06/20/direct3d-feature-levels.aspx
Kein Entwickler bei Verstand wird das bei >60% NV-Marktanteil bei 1_1+ Features nicht prüfen, nichtmal bei Gaming Evolved Titeln. Soviel Kohle hat AMD nicht um den potentiellen Verlust auszugleichen weil ein Spiel auf sämtlicher NV-Hardware nicht läuft. Außerdem muss es ja auch auf AMDs Prä-DX11.1 Hardware laufen. Und wenn man die Features eh abfragt kann man sie auch nutzen, i.e. es wird auch keine Performanceprobleme geben solange NV die spielerelevanten Features unterstützt. Was wohl alle bis auf eins sind.

Ronny145
2013-11-02, 17:13:33
Ich spreche natürlich vom Feature-Level. Das ist schon klar das aktuell kein Entwickler aus oben genannten Gründen 11_1 als Mindestvoraussetzung festlegen wird. Er kann allerdings einen 11_1-Pfad schrieben und alle anderen Karten auf 11_0 oder niedriger herunter stufen um sich zusätzliche Arbeit zu ersparen was die Hardwarespezifische Abfrage von optionalen Features betrifft. Es gibt schließlich genug Hardwaregenerationen und auch noch Intel die alle manche Features unterstützen die über das jeweilige DX-Level hinaus gehen.



Auch dafür braucht es den entsprechenden Programmcode, der die Aufgabenstellung anders (also ohne den geforderten Feature(s)) löst.



Einen 11_0 Pfad braucht er sowieso. Da kann er sich nichts sparen. Wenn er sich etwas sparen wollte, müsste er 11_1 als Basislevel festlegen. Warum das unwahrscheinlich ist, wurde erklärt.

fondness
2013-11-02, 17:18:46
Einen 11_0 Pfad braucht er sowieso. Da kann er sich nichts sparen. Wenn er sich etwas sparen wollte, müsste er 11_1 als Basislevel festlegen. Warum das unwahrscheinlich ist, wurde erklärt.

Nicht zwingend, man könnte auch die non 11_1-Karten zB auf 10_0 zurück stufen oder eben die optionalen Features bei 11_0 nicht abfragen wenn man eh schon einen 11_1-Pfad hat. Theoretisch ist vieles möglich, wie es in der Praxis aussieht hängt vom Anwendungsfall ab und dem Aufwand den man betreiben möchte.

Ronny145
2013-11-02, 17:22:38
http://msdn.microsoft.com/en-us/library/windows/desktop/ff476497(v=vs.85).aspx
oder http://blogs.msdn.com/b/chuckw/archive/2012/06/20/direct3d-feature-levels.aspx
Kein Entwickler bei Verstand wird das bei >60% NV-Marktanteil bei 1_1+ Features nicht prüfen, nichtmal bei Gaming Evolved Titeln. Soviel Kohle hat AMD nicht um den potentiellen Verlust auszugleichen weil ein Spiel auf sämtlicher NV-Hardware nicht läuft. Außerdem muss es ja auch auf AMDs Prä-DX11.1 Hardware laufen. Und wenn man die Features eh abfragt kann man sie auch nutzen, i.e. es wird auch keine Performanceprobleme geben solange NV die spielerelevanten Features unterstützt. Was wohl alle bis auf eins sind.


Ja so wie ich dachte.


will work on all feature levels, and a shader compiled for 4_0 will work on Feature Level 10.0, 10.1, 11.0, or 11.1

10_1 müsste Shader 4.1 voraussetzen. Shader Model 5.0 gibt es bei DX11.1 und DX11.0. Feature Level 11_0 wird kein Dev mit Verstand rausnehmen.


On a system with the DirectX 11.1 runtime, it supports 11.0 and 11.1 as well.

Noch weniger Code Auwand wie jetzt bei so vielen DX11 Spielen die auf DX10 Hardware lauffähig ist.

Iruwen
2013-11-02, 17:23:44
Gibts überhaupt schon ein Spiel das irgendwas davon nutzt? Irgendwie ist die Diskussion müßig und kommt meist dann auf wenn irgendjemandem die Argumente ausgehen. Dann wird grundsätzlich darauf rumgeritten, dass NV 11_1+ nicht unterstützt, und dass man die Features trotzdem nutzen kann ist egal. Stefan hat das ja gerade schön demonstriert.

Ronny145
2013-11-02, 17:25:32
DX11.1? Na Battlefield 4, aber das Feature ist ja eben unter 11_0 bereits verfügbar.

Iruwen
2013-11-02, 17:28:11
Gibts in 11_1 überhaupt irgendwas das es in 11_0 noch nicht optional gab? Oder erst wieder die Tiled Resources aus 11_2?

kruemelmonster
2013-11-02, 17:29:22
Um die Gegenwart und Zukunft zu verstehen lohnt gelegentlich ein Blick in die Vergangenheit:

"The Ubisoft team wanted to enhance the anti-aliasing through the reading of the multisampled depth Z-buffers, explained Vincent Greco, Worldwide Production Technical Coordinator at Ubisoft. "This feature was enabled by either using DX10.1 or using a DX10.0 extension supported by Nvidia DirectX 10 GPUs."
...

"I can tell you that one thing we support for sure is reading from the multisample depth buffer [with deferred rendering], which right now seems to be the thing that people are finding interesting in 10.1. And so for the ISVs that are doing that, we're supporting them directly [and exposing the feature to them]," explained Tamasi.


Quelle (http://www.bit-tech.net/news/hardware/2008/10/22/nvidia-gpus-support-dx10-1-features-in-far-cry-2/1)

Sprung in die Gegenwart:

The last three features :

UAVs in the vertex, geometry and tessellation shaders


UAVOnlyRenderingForcedSampleCount supports 16x raster coverage sampling


TIR - aliased color-only rendering with up to 16x raster coverage sampling

are only exposed through the hardware feature level 11_1, as a group of three features:
...
Fermi and Kepler GPUs do not support two of these features:

UAVOnlyRenderingForcedSampleCount supports 16x raster coverage sampling


TIR - aliased color-only rendering with up to 16x raster coverage sampling

These two features are intended as path rendering acceleration aids for Direct2D...

The third feature…

UAVs in the vertex, geometry and tessellation shaders

is supported by Fermi and Kepler GPUs however because this is only exposed through the hardware feature level 11_1, as a group of three features, we currently do not support it via the DX11.1 interfaces. We may expose support for the UAVs in the vertex, geometry and tessellation shaders feature on an app-specific basis in the future.

Quelle (http://nvidia.custhelp.com/app/answers/detail/a_id/3196/kw/11.1/session/L3RpbWUvMTM4MzQwOTA1NC9zaWQvUUpCRUNsRWw%3D)

Wenn ich nun im FarCry2-Zitat DX10.1 durch 11.1 ersetze und reading from the multisample depth buffer durch UAV, dann habe ich die aktuelle Situation. Warum sollte es heute nicht per Extension klappen wenn es damals scheinbar problemlos ging?

Iruwen
2013-11-02, 17:31:36
Muss man halt machen. Fraglich ob ein Entwickler den Aufwand auf sich nimmt (je nachdem wie groß der ist, wird ja mehr sein als ein einfacher Feature Check) oder es einfach weglässt.
Erste Frage: wofür braucht man das überhaupt? :biggrin:

kruemelmonster
2013-11-02, 17:37:49
Keine Ahnung, wahrscheinlich um NV in Forendiskussionen schlecht da stehen zu lassen. ;)
Für Devs scheint das ja umschiffbar zu sein:

use UAV
if VENDOR=AMD
goto DX11.1
if VENDOR=NV
goto NVAPI

:freak:

fondness
2013-11-02, 17:40:59
Keine Ahnung, wahrscheinlich um NV in Forendiskussionen schlecht da stehen zu lassen. ;)


NV könnte auch einfach mal Standards vollständig unterstützen und nicht Technologiebremse spielen, dann gebe es die ganzen Diskussionen gar nicht. ;)
Da selbst Intel 11_1 unterstützt und auch die Konsolen 11_2-fähig sind hätten wir so ein schönes Mindest-Level auf das die Entwickler setzen könnten...

kruemelmonster
2013-11-02, 17:55:01
Hätte, wenn und aber...wäre der Zugang zu UAV in DX nicht an zwei 2D-Funktionen gebunden könnte man die Funktion regulär über DX ansprechen und müsste nicht die NVAPI nutzen.

Doch das hilft keinem weiter. Fakt ist dass auch NV UAV unterstützt, und Fakt ist auch dass die Einbindung per Extension in der Vergangenheit schon tadellos geklappt hat.

Ronny145
2013-11-02, 18:00:04
NV könnte auch einfach mal Standards vollständig unterstützen und nicht Technologiebremse spielen, dann gebe es die ganzen Diskussionen gar nicht. ;)
Da selbst Intel 11_1 unterstützt und auch die Konsolen 11_2-fähig sind hätten wir so ein schönes Mindest-Level auf das die Entwickler setzen könnten...


Dann müssten sich die Devs aber auch von Windows 7 verabschieden. Bis es dazu kommt dürften viele Jahre ins Land gehen, siehe Windows XP. Das mit Windows 7 ist noch viel ärgerlicher. BF4 speedup nur ab Windows 8 obwohl die Karten es können.

fondness
2013-11-02, 18:00:31
Hätte, wenn und aber...wäre der Zugang zu UAV in DX nicht an zwei 2D-Funktionen gebunden könnte man die Funktion regulär über DX ansprechen und müsste nicht die NVAPI nutzen.

Einen Standard unterstützt man entweder oder man unterstützt ihn nicht. Dafür gibt es Standards. Wenn man jedes Feature extra Abfragen müsste wäre das Chaos perfekt.

Im übrigen steht in dem von dir verlinkten Beitrag absolut nichts von der NVAPI, sondern nur das sie es in Zukunft auf Anwendungsbasis (also mittles Hack) unterstützen wollen.

Iruwen
2013-11-02, 18:05:25
NV könnte auch einfach mal Standards vollständig unterstützen und nicht Technologiebremse spielen, dann gebe es die ganzen Diskussionen gar nicht. ;)
Da selbst Intel 11_1 unterstützt und auch die Konsolen 11_2-fähig sind hätten wir so ein schönes Mindest-Level auf das die Entwickler setzen könnten...
Der Standard nennt sich D3D11 Feature Level 11_0, beschwer dich bei Microsoft.
Und wer sagt den ganzen Besitzern von Prä-11_1 Hardware jetzt, dass sie sich leider neue Grafikkarten kaufen müssen weil sie Technologiebremsen sind?

kruemelmonster
2013-11-02, 18:06:31
Im übrigen steht in dem von dir verlinkten Beitrag absolut nichts von der NVAPI, sondern nur das sie es in Zukunft auf Anwendungsbasis (also mittles Hack) unterstützen wollen.

This excerpt comes from NVIDIA documentation on FarCry 2 features:

FarCry 2 reads from a multisampled depth buffer to speed up antialiasing performance. This feature is fully implemented on GeForce GPUs via NVAPI. Radeon GPUs implement an equivalent path via DirectX 10.1. There is no image quality or performance difference between the two implementations.
Quelle (http://www.hardocp.com/article/2008/12/01/farcry_2_dx9_vs_dx10_performance/1)

fondness
2013-11-02, 18:08:43
Quelle (http://www.hardocp.com/article/2008/12/01/farcry_2_dx9_vs_dx10_performance/1)

Achso du schließt von damals auf heute. Bei einem AAA-Titel, wo NV auch noch ordentlich Unterstützung liefert kann man das sicher machen. Aktuell wird es allerdings laut Beitrag oben noch gar nicht unterstützt.

kruemelmonster
2013-11-02, 18:09:53
Welcher Fakt spricht denn dagegen?

Ailuros
2013-11-02, 18:13:47
Keine Ahnung, wahrscheinlich um NV in Forendiskussionen schlecht da stehen zu lassen. ;)
Für Devs scheint das ja umschiffbar zu sein:

use UAV
if VENDOR=AMD
goto DX11.1
if VENDOR=NV
goto NVAPI

:freak:

Nette Idee:



if HAD ENOUGH WITH DX11.1 CRAP
goto BACK ON TOPIC
:D

-/\-CruNcher-/\-
2013-11-02, 18:37:48
Nette Idee:



if HAD ENOUGH WITH DX11.1 CRAP
goto BACK ON TOPIC
:D

Wenn es so einfach währe was da meistens passiert ist doch in der Realität das ein Nvidia Dev die Reise zum Studio antritt oder per Internet support abgibt allerdings nur wenn man TWIMTBP joined oder aber der Titel so gehyped ist das man Nvidia selbst in zugzwang gesetz hat ;)

Skysnake
2013-11-02, 19:17:07
Das ist doch Unfug. Die DirectX Spezifikation sieht eine Abwärtskompatibilität explizit vor. Das wird und wurde heute nicht anders gehandhabt in den Spielen. Gängige Praxis ist das. Wo du da Probleme siehst will ich wissen.

Dann schlag mal bitte nach, was Abwärtskompatibilität beudetet...

Das heist das DX9/10 usw Games auch auf DX11 Hardware laufen. Andersrum natürlich nicht!


Also gibt es keine Quelle? Der Dev kann selbstverständlich ein Mindest Feature Level festlegen. Meinst du das mit Abfrage? Feature Level 11_0 ist das Minimum sofern der Entwickler Nvidia nicht komplett ausschließen möchte was nicht anzunehmen ist. Jetzt die Frage, was für eine Abfrage soll es denn noch geben, um Feature Level 11_0 Features gangbar zu machen?
-.-
Mit ner simplen Abfrage ist es aber nicht getan...

Du musst ja auch noch den ganzen Fallback-Mist implementieren, und da ist es eben die Frage, ob man nur wegen Kepler jetzt ne Extrawurst macht, oder Kepler einfach zur DX11.0 Gen aka HD5k+6k+GTX400+GTX500 dazuschlägt, und für Intel und AMD dann halt direkt nen DX11.2 Pfad macht.

Ist ja nicht so, als ob nicht jeder zusätzliche Renderpfad kein Geld kosten würde....

Ist ja nicht so, als ob man die neuen Features einfach nur aus juchs und dollerei heraus benutzen würde. Da ist ja immer auch ein Ziel mit verbunden. Entweder mehr Performance bei gleichen Effekten, oder neue Effekte bei gleicher Performance.

Bitte DX11.1 und Feature Level getrennt betrachten, es könnte sonst zu Verwirrungen kommen. Bei den meisten DX11 Spielen wird Feature Level 10 oder 10_1 als Minimum festgesetzt, eben weil es es prinzipiell kaum ein Aufwand macht und man sich dafür eine größere user Basis schafft macht. Ein Dev welcher strikt eine 11_1 Abfrage einbaut würde sich alle Vista, Windows 7, Fermi, Kepler User aussperren.

Wer redet denn von "strikt"?

Es gibt halt einen Main-Renderpfad auf DX11.2, eher als 11.1, und alles andere fällt auf DX11.0 zurück. Das würde aus Sicht von Entwicklern durchaus Sinn machen, da wie du sagst, man für Win7 eh nen DX11.0 Pfad braucht. Dem wird aber halt weniger "Liebe" zukommen, als dem Main-Pfad.


Wie wahrscheinlich so ein Szenario wäre, kann sich jeder selbst ausmalen. Obwohl Battlefield 4 ein AMD gesponsertes Spiel ist, profitiert Kepler trotz aller DX11.1 Unkenrufe vom DX11.1 Speedup, da dieses Feature sowieso unter 11_0 verfügbar ist. (deswegen meine Frage an Skysnake, was er als DX11.1 Spiel definiert--> aber keine Antwort)

Und jetzt schau dir mal die TEsts an....

Win8+DX11.1 ist deutlich performanter als Win7+DX11.0...

Das ist ein völlig ausreichender Grund. Natürlich wird man immer auch Fallback-Renderpfade haben, aber die sind halt dann entweder weniger performant, oder haben halt einige Effekte weniger usw.

Ja so wie ich dachte.



10_1 müsste Shader 4.1 voraussetzen. Shader Model 5.0 gibt es bei DX11.1 und DX11.0. Feature Level 11_0 wird kein Dev mit Verstand rausnehmen.

Nochmal, wer hat was von raus nehmen gesagt?

Man kann auf nVidia HArdware aber nicht den DX11.1/2 Renderpfad zum laufen bekommen. MAn ist also immer darauf angewiesen, dass der Entwickler sich die Mühe macht, die Fallbacks entsprechend zu implementieren und auch zu optimieren.

Wenn ich das richtig im Kopf habe, kommen in nächster Zeit auch die ersten Spiele, die zwingend ne DX11 GPU voraussetzen, und da ist halt die Frage, wieviel Aufwand man sich macht. Für Win7 haste überall DX11.0, und damit alle Karten abgedeckt.

Für Win8 musste DX11.0 implementieren, und wirst DX11.1/2 wohl nocht mit nehmen für Intel und AMD. Warum da jetzt nur! wegen Kepler nochmal ne Extrawurst machen unter Win8?


Noch weniger Code Auwand wie jetzt bei so vielen DX11 Spielen die auf DX10 Hardware lauffähig ist.
Da fehlen dann aber Effekte usw.

Muss man halt machen. Fraglich ob ein Entwickler den Aufwand auf sich nimmt (je nachdem wie groß der ist, wird ja mehr sein als ein einfacher Feature Check) oder es einfach weglässt.

Genau das ist halt die Frage, wieviel Aufwand es ist, um die Sachen auf nVidia Hardware zum laufen zu bekommen. Man muss halt auch bedenken, das es nur für Kepler unter Win8 ist.


Keine Ahnung, wahrscheinlich um NV in Forendiskussionen schlecht da stehen zu lassen. ;)
Für Devs scheint das ja umschiffbar zu sein:

use UAV
if VENDOR=AMD
goto DX11.1
if VENDOR=NV
goto NVAPI

:freak:
JA genau, nur das :ugly:

Träum weiter...

Du musst trotzdem noch die ganzen SAchen implementieren, und wenn du weg von DX/OpenGL Standard gehst, dann bist du immer in der Verantwortung dass das Zeug auch wirklich läuft... Man muss sich nur mal anschauen, was sowohl AMD als auch nVidia schon in ihren Treibern für bugs drin hatten, die teilweise Monate brauchten um wieder gefixed zu werden. Und jetzt rat mal, wer den Shitstorm ertragen darf, wenn was nicht läuft...

Richtig der Spieleentwickler, egal ob er dran schuld ist oder nicht. DA würde ich mir das schwer überlegen, ob ich den Aufwand wirklich betreiben will, nur damit die Kepler Generation besser dasteht.

Iruwen
2013-11-02, 19:17:21
Wenn es so einfach währe was da meistens passiert ist doch in der Realität das ein Nvidia Dev die Reise zum Studio antritt oder per Internet support abgibt allerdings nur wenn man TWIMTBP joined oder aber der Titel so gehyped ist das man Nvidia selbst in zugzwang gesetz hat ;)

Du hast schon verstanden was Ail damit meinte? :D BTT
Ich glaub auch zu dem Thema ist alles gesagt.

Ailuros
2013-11-02, 19:26:50
Du hast schon verstanden was Ail damit meinte? :D BTT
Ich glaub auch zu dem Thema ist alles gesagt.

Schon. Es muss eben leider in modtext Format kommen bis es klarer wird:

Ich denke es reicht so langsam mit dem DX11.1 Brei; wer will kann sich einen neuen thread woanders aufmachen und sich dort darueber austoben. Zurueck zum Thema bitte.

Duplex
2013-11-02, 20:33:54
Ja, nee, is klar, schau dir mal das an (http://www.hardocp.com/article/2013/11/01/amd_radeon_r9_290x_crossfire_video_card_review/10#.UnTWvtM8O8M), den Punkt mit dem 4k Display...

4K ist noch kein Standard, in 2-3 Jahren vielleicht relevant, von daher ignoriere ich diese Auswahl.

Ich verstehe auch nicht, warum es so schwer ist, einzugestehen, dass momentan die AMD 290X die beste Karte am Markt ist...
Schreib das doch mal, tut sicher gut...
Für die Masse ist die Karte ganz bestimmt nicht die beste Karte.
Eine GTX780 mit Alternativ Kühlung ist besser als die 290x Referenz Karte.
Bis die Hersteller 290x Karten mit Alternativ Kühler vorstellen vergeht noch etwas Zeit und bis die Karten dann breit Verfügbar sind nochmal 1-2 Monate...
Also was sollen wir eingestehen, gefällt dir nicht?
Die GTX780 wurde im Preis gesenkt, bald kommt die TI, fast keiner hat mehr Interesse bei den 290/x Karten.

-/\-CruNcher-/\-
2013-11-02, 20:34:44
Du hast schon verstanden was Ail damit meinte? :D BTT
Ich glaub auch zu dem Thema ist alles gesagt.

Das war ziemlich deutlich aber meine Aussage bezog sich auf krümelmonster sein zitat das leider nicht übernommen wurde ;)

Raff
2013-11-02, 22:50:18
Neulich in Battlefield 4 ... :biggrin:

http://666kb.com/i/cix3t26odh5q5ecb5.jpg

Ich dachte mir "hm, nö" und habe es dann trotzdem gemacht ...

MfG,
Raff

Hübie
2013-11-02, 23:22:26
Hahahaaaaa... fucking OT hier! ;D :up: you made my day, Raff.

b2t:
Wieso nennt nVidia die Karten nicht 780i (die GHz-Edition), 780, 780 Ti und ersetzt Titan nicht einfach immer wieder mit dem jeweiligen Top dog?!
Also Titan I (GK110 @2688 ALUs), Titan II (GK110b @2880 ALUs), Titan III (Maxwell @3840 ALUs) etc.. Dann kann man immer schön 1000 Euro für einen Titanen verlangen und der Kunde fühlt sich nicht ganz so verarscht. :freak: Ich kapier einfach nicht was die da veranstalten...
Obwohl ich ja hier des öfteren das Gefühl habe, Titan-Club-Angehörige müssten ihre Anschaffung verteidigen / rechtfertigen / schönreden *hust*

-/\-CruNcher-/\-
2013-11-02, 23:27:14
Wenn es eine Anspielung sein soll kann ihnen das niemand beweisen ;)
Anderson: " We called the ship way ahead in the Developing process Titan already"

Patch wird nachgereicht für AMD GPU Fanboys und user über Steam vollautomatisch "Escape from the Hawai" ;)

Ronny145
2013-11-03, 00:19:11
Dann schlag mal bitte nach, was Abwärtskompatibilität beudetet...

Das heist das DX9/10 usw Games auch auf DX11 Hardware laufen. Andersrum natürlich nicht!


Auch wenn das Thema längst abgegolten sein sollte und ich jetzt keine Lust habe deinen sich ständig wiederholenden Unfug richtig zustellen darf der Blödsinn im 3dcenter dann doch nicht einfach so stehen bleiben. Es ist ein oft anzutreffender Irrglaube, dass DX11 Spiele zwingend DX11 Hardware voraussetzen. Dem ist nicht so. Es kann auf DX10 oder DX10.1 Hardware laufen. Die Spezifikation sieht Abwärtskompatibilität vor. Beschäftige dich ein wenig damit und du wirst dein Fehler sicherlich finden, hier wurden einige Links genannt.

schreiber
2013-11-03, 00:25:24
Auch wenn das Thema längst abgegolten sein sollte und ich jetzt keine Lust habe deinen sich ständig wiederholenden Unfug richtig zustellen darf der Blödsinn im 3dcenter dann doch nicht einfach so stehen bleiben. Es ist ein oft anzutreffender Irrglaube, dass DX11 Spiele zwingend DX11 Hardware voraussetzen. Dem ist nicht so. Es kann auf DX10 oder DX10.1 Hardware laufen. Die Spezifikation sieht Abwärtskompatibilität vor. Beschäftige dich ein wenig damit und du wirst dein Fehler sicherlich finden, hier wurden einige Links genannt.
Falsch. Siehe Crysis3, COD Ghosts usw.

StefanV
2013-11-03, 00:27:32
Es ist ein oft anzutreffender Irrglaube, dass DX11 Spiele zwingend DX11 Hardware voraussetzen.
Nein. D3D11 bedeutet D3D11, nichts anderes...


Dem ist nicht so.
Doch, ist so.


Es kann auf DX10 oder DX10.1 Hardware laufen.
ja, wenn es vom ISV vorgesehen ist und es einen D3D10.x Pfad gibt. Wenn nicht, dann ist D3D11 = D3D11 und läuft nicht auf D3D10.


Die Spezifikation sieht Abwärtskompatibilität vor.
ja, tut es. Aber diese Abwärtskompatibilität ist eben nicht zwingend!


Beschäftige dich ein wenig damit und du wirst dein Fehler sicherlich finden, hier wurden einige Links genannt.
Ich denke, dass er sich mehr damit beschäftigt hat als du es jemals tun wirst...

Oder wer/was ist deine Quelle?! Hast schon mal selbst damit gearbeitet?!

Ronny145
2013-11-03, 01:38:38
Falsch. Siehe Crysis3, COD Ghosts usw.


Falsch ist da gar nichts. Deswegen schreibe ich kann und nicht zwingend. Wenn deine genannten Spiele Feature Level 11_0 voraussetzen ist DX10 Hardware logischerweise nicht lauffähig. Bei den ganz neuen Spielen kommt das sicherlich immer öfter vor.

DX11 Spiele mit Feature Level 10/10_1 läuft auf DX10 Hardware. DX11 Spiel bedeutet nicht automatisch, dass es DX11 class Hardware braucht. Skysnake und StefanV behaupten gebetsmühlenartig das Gegenteil was einfach nur falsch ist.

Nein. D3D11 bedeutet D3D11, nichts anderes...

Was nein?


Doch, ist so.


Doch dem ist so.



ja, wenn es vom ISV vorgesehen ist und es einen D3D10.x Pfad gibt. Wenn nicht, dann ist D3D11 = D3D11 und läuft nicht auf D3D10.


Was es braucht sind Feature Level.



ja, tut es. Aber diese Abwärtskompatibilität ist eben nicht zwingend!


Das hat auch keiner so behauptet. Der Punkt ist, es braucht nicht zwingend DX11 class Hardware für den DX11 Pfad.



Ich denke, dass er sich mehr damit beschäftigt hat als du es jemals tun wirst...

Bei dem Unsinn den er verzapft sehr zweifelhaft. Mit games hat er nichts am Hut, was er ein weiteres mal eindrucksvoll untermauert.


Oder wer/was ist deine Quelle?! Hast schon mal selbst damit gearbeitet?!


Das sind basics die nach all den Jahren DX11 bekannt sein sollten. Quellen wurden bereits genannt. Die Diskussionen gibt und gab es so häufig und dennoch ist der Irrglaube nicht unterzukriegen.



Direct3D 11 runtime introduces Direct3D 9, 10, and 10.1 "feature levels", compatibility modes which allow use of only the hardware features defined in the specified version of Direct3D.
http://en.wikipedia.org/wiki/DirectX#DirectX_11


Using feature levels, you can develop an application for Direct3D 9, Microsoft Direct3D 10, or Direct3D 11, and then run it on 9, 10 or 11 hardware (with some exceptions of course, new 11 features will not run on an existing 9 card for example).

http://msdn.microsoft.com/en-us/library/windows/desktop/ff476876.aspx

http://abload.de/img/1wmp0m.png

http://abload.de/img/2jep53.png
http://download.microsoft.com/download/5/F/F/5FF1D7F6-C5FA-4D89-91FE-0A259056F97E/DirectX_11_Technology_Update_US.zip


Es gibt so viele Quellen dazu, einfach mal google bemühen wenn Unklarheiten bestehen. Die Diskussion hatten wir vor nicht allzulanger Zeit im pCars Forum. Da ging es für den DX11 Modus vom Feature Level 10_0 auf 10_1 rauf wegen TrSSAA Support. Dort hat es der Render Coder aufgeklärt und genau so bestätigt. Gängige Praxis seit Jahren. Vor knapp 2 Jahren habe ich das mangels DX10 Karte an meiner Sandy Bridge DX10.1 iGPU ausprobiert. So gut wie jedes Spiel ließ sich im DX11 Modus ausführen.

Skysnake
2013-11-03, 02:01:45
OMFG...

Natürlich ist DX9 und 10 ein Subset von DX11. DX11 ist ja abwärtskompatibel...

Wenn du einen DX11 Renderpfad hast, und damit meint man automatisch immer, das man API-Funktionen benutzt, die es eben in den anderen Versionen nicht gibt, dann wird das eben nur auf DX11 HArdware laufen...

Man wäre ja schön blöd, wenn man nur DX9/10 API-Funktionen nutzen würde, aber DX11 Featurelvl abfragen würde... Das wäre einfach nur dumm, und sorry, ich führ im normalfall nicht jedes mal extra aus, welche Varianten zwar möglich, aber total hirnrissig sind... Ich werde aber versuchen es mir zu merken, das man das bei dir muss....

Ich fühl mich irgendwie gerade an die USA erinnert: "Nein Sie dürfen die Mikrowelle nicht benutzen um ihr Haustier nach dem Baden zu trocknen..."

Ronny145
2013-11-03, 02:04:29
DX11 ist ja abwärtskompatibel...



Wurde Zeit das du es endlich auch mal geschnallt hast.

StefanV
2013-11-03, 02:26:50
Ronny145 klingt irgendwie wie ein verbitterter Christ, der 'seinen Gott' mit der Brechstange verteidigen muss...

Sorry, aber was du hier schreibst, ist einfach nur blödsinn. D3D11 ist abwärtskompatibel, ja.
Das bedeutet aber nicht, dass ein D3D11 Pfad zwangsläufig auf D3D10 Hardware läuft.
Das tut er nämlich nur, wenn ein entsprechender Renderpfad vorhanden ist - ists nicht, heißts: Tjo, pech gehabt, mussu D3D11 HW kaufen.

Und das, was du da gepostet hast, sagt auch nichts anderes als Skysnake oder ich...

D3D11 ist halt die API. Das kann man auch verwenden, um damit D3D9 Sachen abzubilden. Ist halt die Frage, ob mans dann D3D11 Anwendung nennen sollte, wenn man Feature Level 9 nutzt, aber die D3D11 API. Aber wir sprechen hier gerade von D3D11 Anwendung auf D3D10 Hardware...

dildo4u
2013-11-03, 10:01:11
780TI mit 50mhz OC

http://abload.de/img/geforce-gtx-780-ti-fu5dug9.jpg

http://abload.de/img/geforce-gtx-780-ti-un65usl.jpg

http://abload.de/img/geforce-gtx-780-ti-algsuge.jpg

http://abload.de/img/geforce-gtx-780-ti-baqmutm.jpg

http://abload.de/img/geforce-gtx-780-ti-biweujq.jpg

http://videocardz.com/47552/nvidia-geforce-gtx-780-ti-benchmarks-leaked

Botcruscher
2013-11-03, 10:09:02
Laut Aussage dafür schön an der Spannungsschraube gedreht. Da freut sich der Verbrauch.

fondness
2013-11-03, 10:20:54
System power consumption is definitely higher than other cards. We are looking at 500 watts here, which is definitely more than R9 290X in this comparison. The leaker claims that the card is running at average 970 MHz, which is 50+ MHz overclock. The GTX 780 Ti is supposedly labeled with a maximum power draw at 275W, that’s without any clock manipulation. Rising the clock could led to rapid power increase. These numbers will require much more sophisticated review just to be sure.

Mal sehen wie sich der Kühler bei 275W schlägt...

dildo4u
2013-11-03, 10:45:34
Stromverbrauch ist ja schon abgebildet mit OC im Bereich der 690.

Bei CB ist 290X mit Überbios= 690
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/10/

fondness
2013-11-03, 10:47:21
Stromverbrauch ist ja schon abgebildet mit OC im Bereich der 690.


Wo?
Und so wie ich den Test verstehe ist da nichts OCt, die +50Mhz sind der normale Boost. 690-Verbrauch wären im Vergleich zur Titan >100W mehr.

dildo4u
2013-11-03, 10:49:25
Wo?
.Gelbe Linie mit Punkten.

boxleitnerb
2013-11-03, 10:55:02
Für normalen Boost müsste er die Spannung nicht selbst erhöhen. Wo hat Botcrusher da was von Spannungserhöhung gelesen?

Skysnake
2013-11-03, 10:57:02
Laut Aussage dafür schön an der Spannungsschraube gedreht. Da freut sich der Verbrauch.
Ja, das Ding zieht noch mehr als die 290x. Die Effizienz haben Sie wohl damit gekillt :(

dildo4u
2013-11-03, 10:58:20
Ja, das Ding zieht noch mehr als die 290x. Die Effizienz haben Sie wohl damit gekillt :(
Die 290X läuft bei den Benches vermutlich ohne Überbios,laut CB 290X = 690.

Gaestle
2013-11-03, 11:02:47
Laut den Bildchen mehr Stromverbrauch als eine 690 GTX. Diese liegt bei 300W TDP. 20nm fehlt irgendwie schon.

dildo4u
2013-11-03, 11:10:25
Laut den Bildchen mehr Stromverbrauch als eine 690 GTX. Diese liegt bei 300W TDP. 20nm fehlt irgendwie schon.
Die 690 kommt nich auf 300 sondern 277.Das wird auch das TDP der 780Ti ohne OC sein.

http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index18.php

fondness
2013-11-03, 11:13:42
Gelbe Linie mit Punkten.

Achso jetzt bin ich dabei. Wenn man sich die Werte ansieht liegt die 780Ti aber meist sogar noch über der 690 was den Stromverbrauch betrifft. Das wäre schon heftig für die vielleicht 10-15% Mehrleistung. Allerdings verbraucht dort auch Titan relativ viel, mal andere Benchs abwarten. Die 290X wurde außerdem offenbar nicht im Uber-BIOS getestet.

Raff
2013-11-03, 11:19:37
Mal sehen wie sich der Kühler bei 275W schlägt...

Da würde ich mir keine ernsthaften Sorgen machen, das lässt sich schon mit einer Titan simulieren. Der Titan-Kühler schafft sowas mit ~4 Sone. Zur Erinnerung: 58 Prozent im Normalbetrieb, bis zu 63 Prozent im Sommer (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/) oder eben mit erhöhtem Powertarget (eine Titan kann man auf 265 Watt stellen). Mir ist das schon viel zu laut, habe den Kühler zwecks OC ja gewechselt, aber die Geräuschcharakteristik nagt nicht so an den Ohren wie beim 290(X)-Referenzkühler.

MfG,
Raff

(del676)
2013-11-03, 11:27:40
Nice. Noch mehr Stromverbrauch als ne GTX690. Na da bin ich mal gespannt, was die ueblichen nVidianer nun bezueglich Stromverbrauch und Effizienz posten. X-D

boxleitnerb
2013-11-03, 11:29:02
Nur weil der Verbrauch höher wird, muss die Effizienz nicht zwangsläufig abnehmen. 10% mehr Performance bei 10% mehr Verbrauch bedeutet, dass sich an der Effizienz nichts ändert. Schau mer mal.

Hugo78
2013-11-03, 11:54:42
Die Diagramme ohne überprüfbare Angaben sind nur für eine Sache gut => Verwirrung und Klicks.

Ätznatron
2013-11-03, 12:04:16
Weiss man denn jetzt wenigstens, mit wieviel Speicher die Karte kommt?

Skysnake
2013-11-03, 12:07:16
Nur weil der Verbrauch höher wird, muss die Effizienz nicht zwangsläufig abnehmen. 10% mehr Performance bei 10% mehr Verbrauch bedeutet, dass sich an der Effizienz nichts ändert. Schau mer mal.
Danach sieht es aber nicht aus. Eher 5% mehr Leistung bei 10% mehr Verbrauch

boxleitnerb
2013-11-03, 12:18:55
Danach sieht es aber nicht aus. Eher 5% mehr Leistung bei 10% mehr Verbrauch

Das würde ich an einem Review mit den unübersichtlichen Graphen nicht fest machen. Ich warte auf Leos Analyse und das solltest du auch tun.

fondness
2013-11-03, 12:43:47
Wenn es tatsächlich nur 3Gb VRAM sind, wundert mich der Merhverbrauch schon etwas. Titan hatte ja noch 24 Speicherchips. Anhand der technischen Daten sollte es schon 10% Mehrleistung sein ggü. Titan, der halbierte Speicher bringt vielleicht auch noch 1-2%.

Ätznatron
2013-11-03, 12:55:06
Wenn es tatsächlich nur 3Gb VRAM sind, wundert mich der Merhverbrauch schon etwas. Titan hatte ja noch 24 Speicherchips. Anhand der technischen Daten sollte es schon 10% Mehrleistung sein ggü. Titan, der halbierte Speicher bringt vielleicht auch noch 1-2%.

Möglicherweise gibt's ja doch eine 6 GB Variante:

Zum Preis der alten Titan, gepaart mit wahrscheinlich exorbitanter Leistungsaufnahme.

Skysnake
2013-11-03, 13:08:12
Das würde ich an einem Review mit den unübersichtlichen Graphen nicht fest machen. Ich warte auf Leos Analyse und das solltest du auch tun.
Ok ich hätte doch extra dazuschreiben sollen, dass es sich dabei um fiktive Zahlen handelt, die nur verdeutlichen sollen, dass die Effizienz halt zumindest sinkt.

Hugo78
2013-11-03, 13:09:21
Leute es bringt nichts hier über diese Balken zurätseln.
Die werfen mehr Fragen auf als das sie Anworten liefern.

Als Beispiel.
Schaut euch doch mal an, dass das angebliche Testsystem mit einem Intel Core i7-4960x @ 4,5GHz bei der HD 7990 nie über 500W Verbrauch kommt.
CB kommt mit ihrem 4770k @ 4,4GHz in Crysis 3 auf 550W, bzw. 564W in AC3 mit der HD 7990.

Cubitus
2013-11-03, 15:20:36
Wenn es tatsächlich nur 3Gb VRAM sind, wundert mich der Merhverbrauch schon etwas. Titan hatte ja noch 24 Speicherchips. Anhand der technischen Daten sollte es schon 10% Mehrleistung sein ggü. Titan, der halbierte Speicher bringt vielleicht auch noch 1-2%.

Mich wundert es nicht!
Ist die Kepler Gen doch schon 18 Monate alt!
Wird immer noch in 28nm gefertigt.
Und das "Mehr" an Shadern fordert eben auch Tribut.

Nvidia schwingt abermals den Holzhammer!
Und hält mit höheren Taktraten und dem Vollausbau die junge AMD Gen in Schach!
Nvidia geht es nicht um Effizienz, sondern um den Sieg!

Ähnlich war es damals mit der 480er.
Diese kam ein halbes Jahr zu spät! Nvidia ging in den Holzhammer-Modus
und deklassierte die etablierte 5870er!

Enthusiasten war dies egal, aber die Vox populi war erzürnt!
Was erwartet ihr? Nvidia kocht wie AMD auch nur mit Wasser!

Angiesan
2013-11-03, 17:14:27
Eine GTX 690 in Sachen Effizienz zu schlagen ist auch sehr schwer, abseits von MR und anderen Unzulänglichkeiten wäre diese Karte würde es sie mit 8 GB geben die Karte die wirklich Titanisch ist und dabei noch ein Effizienz-Wunder rein von dem Verhältnis FPS zu Watt geht an der Karte aktuell eh nur eine Lowend Karte vorbei, aber die gesamte Performance und Highend Riege muss sich da schon die ganze Zeit geschlagen geben.

boxleitnerb
2013-11-03, 17:21:53
Der Mehrverbrauch kommt wohl vor allem von dem 16% höheren Speichertakt. Ich erinnere mich, dass meine Titanen niedriger getaktet haben auf der GPU, wenn ich den Speichertakt erhöht habe, weil sie dann früher an das TDP-Limit gestoßen sind.

fondness
2013-11-03, 17:25:57
Dafür spart man sich 12 Speicherchips ein, das sollte reichen für ~20W weniger Verbrauch. Aber das auch ein höhere Speichertakt nicht for-free ist sollte klar sein.

Ätznatron
2013-11-03, 17:29:23
Der Mehrverbrauch kommt wohl vor allem von dem 16% höheren Speichertakt. Ich erinnere mich, dass meine Titanen niedriger getaktet haben auf der GPU, wenn ich den Speichertakt erhöht habe, weil sie dann früher an das TDP-Limit gestoßen sind.

Das mag eine Erklärung sein, macht die Sache aber nicht besser, da man offenbar den höheren Speichertakt dringend braucht, um das Ziel zu erreichen, die schnellste Single GPU anbieten zu können.

boxleitnerb
2013-11-03, 17:30:01
Hatte nicht Skysnake mal vorgerechnet/erklärt, dass die Anzahl der Speicherchips den Verbrauch kaum beeinflusst? Der Verbrauch durch den Refresh der Chips hängt von deren Anzahl ab, aber den Löwenanteil der Energie verbraucht der Datentransfer über den Bus.

Ailuros
2013-11-03, 17:36:32
Ιch bin voreingenommen und traue einem Author der Syed Muhammad Usman Pirzada heisst nicht, einfach weil der Name zu lang ist (selbst wenn die slides von NV selber kommen welches ich ernsthaft bezweifle).

Eine Indizie koennte es durchaus sein und ich will einen moeglichen hohen Stromverbrauch der 780Ti (ob uebertaktet oder nicht) persoenlich nicht ausschliessen. Umsonst kommt in 3D gar nichts und der Spruch ist uralt.

Trotz allem jetzt im Ernst da der oben erwaehnte Kerl ziemlich JEDEN Scheiss glaubt auf den er zutrifft wuerde ich noch ein paar Tage Geduld fuer offizielle reviews/Messungen vorschlagen.

Raff
2013-11-03, 17:39:22
Ein exzellenter Vorschlag. :up: Würden sich nicht immer alle Fliegen/Internetnutzer wild auf jeden Scheißhaufen/Leak stürzen, der abgeworfen wird, würde das Scheißen/Leaken aufhören und man ginge nicht ständig mit falschen Erwartungen an ein neues Produkt.

MfG,
Raff

AnarchX
2013-11-03, 17:42:54
Ιch bin voreingenommen und traue einem Author der Syed Muhammad Usman Pirzada heisst nicht, einfach weil der Name zu lang ist (selbst wenn die slides von NV selber kommen welches ich ernsthaft bezweifle).

Die Quelle der Folien ist getwinder aus dem Chiphell-Forum.

M4xw0lf
2013-11-03, 18:30:47
Ein exzellenter Vorschlag. :up: Würden sich nicht immer alle Fliegen/Internetnutzer wild auf jeden Scheißhaufen/Leak stürzen, der abgeworfen wird, würde das Scheißen/Leaken aufhören und man ginge nicht ständig mit falschen Erwartungen an ein neues Produkt.

MfG,
Raff
Und alles wäre sehr, sehr, seeeeehr langweilig während ihr schon mit den neuen Spielzeugen herumtollt :tongue:

Skysnake
2013-11-03, 19:28:51
Hatte nicht Skysnake mal vorgerechnet/erklärt, dass die Anzahl der Speicherchips den Verbrauch kaum beeinflusst? Der Verbrauch durch den Refresh der Chips hängt von deren Anzahl ab, aber den Löwenanteil der Energie verbraucht der Datentransfer über den Bus.
Jaein.

Es kommt darauf an, wieviele Chips dran hängen, und welche Speicherdichte Sie haben. Bei DDR3 geht man wenn ich es richtig im Kopf habe von rund 1/3 an Energieverbrauch nur für den Refresh aus.

Bei GDDR5 wird es weniger sein, aber immer noch recht viel. Bei Einfachbestückung wird man sicherlich rund 20% vom maximalen Stromverbrauch für den Refresh veranschlagen müssen.

Ich hatte mal erklärt, dass der Bustransfer stärker rein haut, als das schreiben in die Speicherzellen an sich.

boxleitnerb
2013-11-03, 19:32:46
Wenn man also von sagen wir 25W Mehrverbrauch ausgeht und das als 20% annimmt (natürlich unsinnig), käme man auf satte 125W Verbrauch durch den Speicher selbst + Transfers. "Leicht" unrealistisch. Wie gesagt: Die Anzahl der Chips ist nichtmal annähernd für den eventuellen Mehrverbrauch verantwortlich.

AnarchX
2013-11-03, 19:34:25
So ein GDDR5 Speicherchip hat eine TDP von 2-3W.

boxleitnerb
2013-11-03, 19:49:06
Eben. Wird man bei nur 3 GB also vielleicht 12*2.5W*20% = 6W sparen. Das ist nicht wirklich viel.

LSSJBroly
2013-11-03, 19:50:02
15SMX wohl vollkommen bestätigt - und weiterhin 1/3 DP -Performance?!
http://videocardz.com/47576/nvidia-geforce-gtx-780-ti-official-specifications

Und weiterhin 250 Watt TDP :)

DarknessFalls
2013-11-03, 19:56:38
Naja, 250W hatte auch eine gewisse GTX480, wenn ich nicht irre. ;) Warten wir ab, was bei Reviews herauskommt...

boxleitnerb
2013-11-03, 19:58:17
Klingt gut.
Dass Nvidia jetzt auf einmal mit dem Throtteln der Konkurrenz "wirbt" find ich witzig. Ne ernsthaft, das ist erstens ein Worst Case für AMD und Best Case für Nvidia und zweitens hat es die vorher auch nicht interessiert, dass ihre Karten mit Standardeinstellungen gern mal auf Basistakt fallen.

In der Realität takten die Karten ähnlich hoch unter langer Last, wobei sie bei der 780 Ti vielleicht noch irgendwas verändert haben, so dass diese das besser macht als die anderen Boost 2.0-Karten.

Naja, 250W hatte auch eine gewisse GTX480, wenn ich nicht irre. ;) Warten wir ab, was bei Reviews herauskommt...

TDP war damals nicht gleich Verbrauch, es gab noch kein Power Target, was da einen Riegel vorgeschoben hat. Zumal die GTX 480 beim Verbrauch längst erreicht (7970 GHz Ref-Design) oder überschritten wurde (290X und 780, Titan@max Targets). Dieser immense Verbrauch ist inzwischen halt salonfähig geworden.

Sven77
2013-11-03, 20:01:07
Nur 3GB? ;(

LSSJBroly
2013-11-03, 20:02:59
In der Realität takten die Karten ähnlich hoch unter langer Last, wobei sie bei der 780 Ti vielleicht noch irgendwas verändert haben, so dass diese das besser macht als die anderen Boost 2.0-Karten.


Da steht was von 83°C statt 79°C - vllt haben die gleichzeitig das Temp-Target etwas nach oben geschoben, sodass das Ding länger höher taktet.

TheCounter
2013-11-03, 20:06:06
Nur 3GB? ;(

Na bis Ende 2014 reicht das doch noch :ugly:

boxleitnerb
2013-11-03, 20:07:16
Da steht was von 83°C statt 79°C - vllt haben die gleichzeitig das Temp-Target etwas nach oben geschoben, sodass das Ding länger höher taktet.

Ja, das ist mir eben auch aufgefallen. Ist auch nötig, wenn sie nicht selbst auch einen Uber Modus bringen wollen. Sonst hat man in Benchmarks ca. 10% Nachteil, obwohl das in der Realität nicht der Fall ist.

aufkrawall
2013-11-03, 20:23:20
Na bis Ende 2014 reicht das doch noch :ugly:
Mit OC könnte das für Schrott (offense) wie FB3 etwas wenig sein.

Godmode
2013-11-03, 20:32:00
Na bis Ende 2014 reicht das doch noch :ugly:

Im Frühjahr 2014 kommen doch eh die neuen Kinderkarten mit Maxwell, die aber trotzdem 550 Euro kosten werden und die werden dann 4 GB haben. Ende 2014 bis Anfang 2015 kommen dann wieder die richtigen fetten Teile, da dürfen wir dann nochmal kaufen. ;)

Skysnake
2013-11-03, 20:38:41
Wenn man also von sagen wir 25W Mehrverbrauch ausgeht und das als 20% annimmt (natürlich unsinnig), käme man auf satte 125W Verbrauch durch den Speicher selbst + Transfers. "Leicht" unrealistisch. Wie gesagt: Die Anzahl der Chips ist nichtmal annähernd für den eventuellen Mehrverbrauch verantwortlich.

Ne, die 20% sind ja für den gesamten Verbrauch, also

Bustransfer+Refresh+Lesen/Schreiben auf dem Chip.

Für den Chip allein, wird es wieder auf ca 1/3 hoch gehen mit dem Verbrauch des Refreshs.

Die 2-3W je Chip sind denke ich auch ein ganz guter Richtwert.

Damit kommt man auf so ca 1W rein dafür, das ein Chip da ist.

Wie es mit dem Datentransfer aussieht kann ich nicht sagen. DA kommts halt drauf an, wie das jetzt genau elektrisch geschalten ist. Im Worstcase sind halt ~100% Mehrverbrauch für den Datentransfer, weil man über die doppelte Kapazität und Induktivität die Signale treiben muss. Aber wie gesagt, keine Ahnung wie die Chips bei Doppelbestückung real geschaltet sind.

dildo4u
2013-11-03, 20:42:10
15SMX wohl vollkommen bestätigt - und weiterhin 1/3 DP -Performance?!
http://videocardz.com/47576/nvidia-geforce-gtx-780-ti-official-specifications

Und weiterhin 250 Watt TDP :)
Größere Die bessere Hitzeableitung daher die recht moderate TDP.

boxleitnerb
2013-11-03, 20:43:31
Ne, die 20% sind ja für den gesamten Verbrauch, also

Bustransfer+Refresh+Lesen/Schreiben auf dem Chip.

Für den Chip allein, wird es wieder auf ca 1/3 hoch gehen mit dem Verbrauch des Refreshs.

Die 2-3W je Chip sind denke ich auch ein ganz guter Richtwert.

Damit kommt man auf so ca 1W rein dafür, das ein Chip da ist.

Wie es mit dem Datentransfer aussieht kann ich nicht sagen. DA kommts halt drauf an, wie das jetzt genau elektrisch geschalten ist. Im Worstcase sind halt ~100% Mehrverbrauch für den Datentransfer, weil man über die doppelte Kapazität und Induktivität die Signale treiben muss. Aber wie gesagt, keine Ahnung wie die Chips bei Doppelbestückung real geschaltet sind.

Sagte ich was anderes? Da steht doch Chips + Transfers.
Es kommt sicher auch auf die Belegung an. Wenn nur 3.5 GB von 6 GB belegt sind und regelmäßig gelesen oder geschrieben werden, wird man wohl kaum alle 24 Chips ansprechen. Ich würde da eher hauptsächlich vom Speicherinterface auf der GPU selbst ausgehen, und das hat eine Bandbreite (und damit einen Verbrauch), die unabhängig von der Anzahl der Speicherchips sein sollte.

aufkrawall
2013-11-03, 20:46:23
Im Frühjahr 2014 kommen doch eh die neuen Kinderkarten mit Maxwell, die aber trotzdem 550 Euro kosten werden und die werden dann 4 GB haben. Ende 2014 bis Anfang 2015 kommen dann wieder die richtigen fetten Teile, da dürfen wir dann nochmal kaufen. ;)
GM110/100 wird natürlich nicht mehr 28nm sein, bei der Die-Size erscheint mir da Anfang 2015 zu optimistisch.
Zwischen GF100 und GK110 im Desktop-Bereich waren es drei Jahre.

Godmode
2013-11-03, 20:52:22
GM110/100 wird natürlich nicht mehr 28nm sein, bei der Die-Size erscheint mir da Anfang 2015 zu optimistisch.
Zwischen GF100 und GK110 im Desktop-Bereich waren es drei Jahre.

Naja zwischen GK104 und GK110 lagen genau 11 Monate, daher gehe ich davon aus, dass es dieses Mal auch eine ähnliche Zeitspanne sein wird, außer natürlich es geht wieder irgendwas ordentlich schief. Im Mai-Juni können sie dann wieder ne 890 mit zwei GM104 auflegen. Also alles wie gehabt.

-/\-CruNcher-/\-
2013-11-03, 20:56:11
Im Frühjahr 2014 kommen doch eh die neuen Kinderkarten mit Maxwell, die aber trotzdem 550 Euro kosten werden und die werden dann 4 GB haben. Ende 2014 bis Anfang 2015 kommen dann wieder die richtigen fetten Teile, da dürfen wir dann nochmal kaufen. ;)
Kinderkarten 550€ fragt sich welche käuferschicht kinder sind meine fresse

Skysnake
2013-11-03, 20:57:14
Sagte ich was anderes? Da steht doch Chips + Transfers.

Du hast aber aus den 100% mal kurz 20% gemacht ;)


Es kommt sicher auch auf die Belegung an.

Nein, darauf sollte es nicht ankommen. Wenn RAM da ist, dann musst du ihn auch refreshen. Das ist ja eines der großen Probleme von Exascalecomputing. Man geht von 1TB/CPU aus, wenn ich das richtig im Kopf habe. Da verballerste halt dann fast schon MW nur dafür, dass der blöde DRAM dumm dasteht....

Die Controller könnten zwar so intelligent sein, und erst die einen Chips belegen, und dann erst die anderen, aber ich würde davon eher nicht ausghen, dass Sie die Chips ganz ausschaltne können. Die Configzykles müsste man ja ansonsten neu durchlaufen lassen, und das daaaaauuuuueeeerrrrtttttt bei DRAM.


Wenn nur 3.5 GB von 6 GB belegt sind und regelmäßig gelesen oder geschrieben werden, wird man wohl kaum alle 24 Chips ansprechen.

Wie gesagt, es ist eher sehr unwahrscheinlich, das man da Chips ausschaltet. Dann läuft halt immer noch der Selfrefresh, und das sind halt ca die 1/3


Ich würde da eher hauptsächlich vom Speicherinterface auf der GPU selbst ausgehen, und das hat eine Bandbreite (und damit einen Verbrauch), die unabhängig von der Anzahl der Speicherchips sein sollte.
Dafür brüchtest du aber 1:1 Verbindungen zu allen Chips, wo du dann eben die Chips "abklemmen" kannst.

Soweit ICH das aber weiß, sind die Chips einfach drangehängt. Also nichtmal über komplett eigene Leitungen, sondern eben nur über Abzweigungen. Das führt aber eben dazu, dass sich die Kapazitäten und Induktivitäten verändern, und damit der Komplexe Widerstand, was man wiederum kompensieren muss, womit der effekte ohmsche Widerstand ansteigt. Kurz um, du musst mehr Energie Aufwenden um das selbe Signal zu treiben. Ich geh mal davon aus, dass der Controller intelligent genug ist, um zu wissen, ob er jetzt ein oder zwei Chips an jeder Leitung dran hängen hat.

Wenn er das nicht kann, wird der Effekt wohl <10% sein. Wie gesagt, hängt aber von vielen Wenns ab. PCGH könnte das eigentlich relativ einfach mal nachmessen. Die haben ja ne vernünftige Möglichkeit um den Verbrauch der GPU zu messen. Sie müssen halt nur so auf 0,1W genau messen können, ich geh aber mal davon aus, dass das mit ihrem Aufbau möglich sein sollte.

Godmode
2013-11-03, 21:01:08
Kinderkarten fragt sich welche käuferschicht kinder sind meine fresse

Mit Kinderkarte war einfach der "kleine" GM104 gemeint, das war doch nicht auf die Käufer bezogen. :tongue:

TheCounter
2013-11-03, 21:04:49
Im Frühjahr 2014 kommen doch eh die neuen Kinderkarten mit Maxwell, die aber trotzdem 550 Euro kosten werden und die werden dann 4 GB haben. Ende 2014 bis Anfang 2015 kommen dann wieder die richtigen fetten Teile, da dürfen wir dann nochmal kaufen. ;)

Ach halb so wild. Wenn man seine alte Karte dafür verkauft ist es gar nicht mehr so schlimm.

Wenn ich meine alte 670 gegenrechne, hat mich meine neue GTX780 inkl. Wakü schlappe 235EUR gekostet. Dann halt Ende 2014 wieder so ;)

boxleitnerb
2013-11-03, 21:05:26
Skysnake, du schriebst:
Bei Einfachbestückung wird man sicherlich rund 20% vom maximalen Stromverbrauch für den Refresh veranschlagen müssen.

Du hättest da schon dazusagen können, was der maximale Verbrauch beinhaltet. Wenn du die Transfers mitzählst, können wir eh hier aufhören, denn wir wissen nicht, wieviel das Speicherinterface verbraucht. Das wäre dann nur Rumgerate und nicht hilfreich - vor allem, wenn man Angaben auf 1W genau machen will.

-/\-CruNcher-/\-
2013-11-03, 21:09:55
Mit Kinderkarte war einfach der "kleine" GM104 gemeint, das war doch nicht auf die Käufer bezogen. :tongue:
Trotzdem ich glaube du irst dich diesmal was für ein lineup präsentiert wird muss gegen AMD stand halten können und da wird eine Karte für 550€ nicht ausreichen, jedenfalls nicht wenn es Veränderungen beim Featureset oder dem DSP gibt.

Godmode
2013-11-03, 21:09:59
Ach halb so wild. Wenn man seine alte Karte dafür verkauft ist es gar nicht mehr so schlimm.

Wenn ich meine alte 670 gegenrechne, hat mich meine neue GTX780 inkl. Wakü schlappe 235EUR gekostet. Dann halt Ende 2014 wieder so ;)

Bin eh der letzte der deswegen jammert, weil ich mache es genau so. Von zwei 690 auf 4 Titan dann wieder auf 2 Titan und insgesamt nicht soviel verloren und dafür immer Ultra Highend. Man muss beim verkauf nur genügend Geduld aufbringen, dann findet man auch eine guten Käufer.

Angiesan
2013-11-03, 21:18:31
Mann muss vor allen Dingen die richtige Zeit abwarten, aber nicht zu lange ;-)
Wer seine GTX 780 vor hatte zu verkaufen wird jetzt richtig draufzahlen denn die wird ja gerade verramscht für 400 Euro und 3 Spielen die auch noch wirklich interessant sind.

Hübie
2013-11-03, 21:21:42
Ja wenn ich überlege dass ich 800 Euro ausgegeben habe und kein Spiel bekam... :freak:

Sven77
2013-11-03, 21:23:54
Wenn ich überlege was mich die Titan gekostet hat lach ich noch mindestens 12 Monate :D

TheCounter
2013-11-03, 21:24:58
Wenn ich überlege was mich die Titan gekostet hat lach ich noch mindestens 12 Monate :D

Oder bis zur neuen Titan :ugly:

Godmode
2013-11-03, 21:40:57
Ich denke die wenigsten geben hier zuwenig für Hardware aus. :wink:

Hübie
2013-11-03, 21:43:13
Das sehe ich anders. Im Luxx sind eher die "Poser" ;D Hier sind eher Sparfüchse welche das beste P/L-Verhältnis suchen.

aufkrawall
2013-11-03, 21:58:37
Ich trau mich trotzdem nicht, hier ein Bild von meinem "Rig" zu posten.
Das fällt schon vom Zusehen auseinander. :redface:
Und man kann sich lustig die Hand dran aufschneiden.

Blediator16
2013-11-03, 22:06:02
NVIDIA GeForce GTX 780 Ti official gaming performance

Sieht zu gut aus um wahr zu sein.

http://videocardz.com/47587/nvidia-geforce-gtx-780-ti-official-gaming-performance

fondness
2013-11-03, 22:18:39
Man kann anhand der bekannten Daten eh sehr genau einschätzen wo die Karte landen wird...

DarknessFalls
2013-11-03, 22:29:51
...und das ist nicht bei ~30% vor R290X / Titan.

TheCounter
2013-11-03, 23:03:59
If we add 4k benchmarks this number will get even better in AMD favor.

Ähm, nur bringt mir das nix weil sowohl die 290X als auch die 780Ti für 4k Gaming zu schwach sind...

IMO sinnlos da 4k einzuwerfen.

Rente
2013-11-03, 23:05:08
...und das ist nicht bei ~30% vor R290X / Titan.
Die 290X ist dort mit dem Quiet-Bios angegeben, es ist vielleicht etwas übertrieben (10-15%), aber nicht komplett realitätsfremd.

derguru
2013-11-03, 23:05:15
NVIDIA GeForce GTX 780 Ti official gaming performance

Sieht zu gut aus um wahr zu sein.

http://videocardz.com/47587/nvidia-geforce-gtx-780-ti-official-gaming-performance

für amd meinst du?:biggrin:

bin mal auf den preis gespannt für die 3gb variante,mehr als 600€ wäre imo zu viel des guten.

benchs kann man so stehen lassen aber warum die amd in grid 2 so abkackt ist merkwürdig. eine 7970ghz ist in den settings um die 10% langsamer als ne titan,naja dauert nicht mehr lang.:)

Nightspider
2013-11-03, 23:07:13
Godmode steigst du um?

derguru
2013-11-03, 23:10:11
wäre schön blöd umzusteigen,die paar % mehr aber dafür ramkrüppel.:biggrin:

Nightspider
2013-11-03, 23:11:23
Wieso, wenn die Black Edition 12GB hat? ;D

Godmode
2013-11-03, 23:19:51
Godmode steigst du um?

Vor ein zwei Monaten wollte ich noch, aber der Rechner ist jetzt schon seit Wochen aus. Ich habe momentan überhaupt keine Lust zum Spielen, daher warte ich erstmal ab. Oft ist es es nämlich so - wenn neue Hardware erscheint - ich mir einrede wie cool doch die neuen Spiele sind und ich daher auch neue Hardware brauche. :freak:

Nightspider
2013-11-03, 23:25:01
Hmm, das kenne ich.^^

Raff
2013-11-04, 00:13:24
Von Titan auf 780 Ti? Ach was. In Battlefield 4 macht die Titan zur Abwechslung mal richtig Spaß. Mit zweien läuft dann auch Ultra HD mit 4x MSAA flüssig (3,5 bis 4 GiB VRAM-Auslastung). Also Nvidia würde ich diese Generation kein Geld mehr in den Rachen werfen, nur weil sie die Güte haben, endlich einen vollen GK110 zu bringen (der zweifellos superschnell wird).

MfG,
Raff

Mancko
2013-11-04, 00:23:24
Von Titan auf 780 Ti? Ach was. In Battlefield 4 macht die Titan zur Abwechslung mal richtig Spaß. Mit zweien läuft dann auch Ultra HD mit 4x MSAA flüssig (3,5 bis 4 GiB VRAM-Auslastung). Also Nvidia würde ich diese Generation kein Geld mehr in den Rachen werfen, nur weil sie die Güte haben, endlich einen vollen GK110 zu bringen (der zweifellos superschnell wird).

MfG,
Raff

Naja gut von einer GTX 780 oder Titan zu wechseln ist ja nun auch wirklich sinnfrei. Ab GTX 680 und darunter kann man darüber nachdenken aber darüber ist nun wirklich sinnfrei.

OC_Burner
2013-11-04, 01:21:34
Na vielleicht sinken dann ordentlich die Gebrauchtpreise bei der Titan. Eine zweite Titan als Schnäppchen wäre nicht verkehrt.

Blaire
2013-11-04, 02:06:31
Na vielleicht sinken dann ordentlich die Gebrauchtpreise bei der Titan. Eine zweite Titan als Schnäppchen wäre nicht verkehrt.

Viel Glück. Ab 600€ gabs auf Ebay bereits. :) Wenn man sieht welchen Aufwand AMD betreibt, nur um verzweifelt einen Gleichstand zu erreichen, wird NV wohl kaum veranlassen, spektakuläre Preissenkungen für GeForce Titan vorzunehmen.
Eine mögliche 780Ti falls sie denn tatsächlich mit 6GB erscheint, dürfte anfangs wohl auch kaum unter 799$ UVP zu haben sein.

Marty98
2013-11-04, 07:40:35
NVIDIA GeForce GTX 780 Ti official gaming performance

Sieht zu gut aus um wahr zu sein.

http://videocardz.com/47587/nvidia-geforce-gtx-780-ti-official-gaming-performance

Find ich nicht, weil sie mit "Quiet" vergleichen.

Ailuros
2013-11-04, 08:22:06
Find ich nicht, weil sie mit "Quiet" vergleichen.

Erstens macht quiet zu uber auch nicht mehr die Welt an Unterschied und zweitens sind es nach wir hugegrainofsalt NVIDIA's eigene subjektive Resultate.

V2.0
2013-11-04, 08:27:44
Sicher kein Zufall, dass es kein 4k ist :)

Ailuros
2013-11-04, 08:31:58
Sicher kein Zufall, dass es kein 4k ist :)

Keine Ahnung was die gesamte Praesentation sonst noch an slides hat; sonst kann ich mir schwer vorstellen dass das Ding mit 5% mehr Bandbreite selbst in 4k das Nachsehen haben wird. Klar wird der Unterschied um einiges kleiner sein als im obrigen slide, aber es hat auch wohl nicht jeder momentan einen 4k display.

M4xw0lf
2013-11-04, 08:36:56
Erstens macht quiet zu uber auch nicht mehr die Welt an Unterschied und zweitens sind es nach wir hugegrainofsalt NVIDIA's eigene subjektive Resultate.
Wenn man die Karte schön vorheizt, mach quiet vs. uber schon einiges an Holz aus.

Ätznatron
2013-11-04, 08:37:42
Keine Ahnung was die gesamte Praesentation sonst noch an slides hat; sonst kann ich mir schwer vorstellen dass das Ding mit 5% mehr Bandbreite selbst in 4k das Nachsehen haben wird. Klar wird der Unterschied um einiges kleiner sein als im obrigen slide, aber es hat auch wohl nicht jeder momentan einen 4k display.

Es ist doch nicht abwegig davon auszugehen, dass diejenigen, die sehr viel Geld in ihre Grafikkarten stecken, am ehesten auch Geld in 4K stecken oder bereits gesteckt haben.

Ailuros
2013-11-04, 08:47:20
Es ist doch nicht abwegig davon auszugehen, dass diejenigen, die sehr viel Geld in ihre Grafikkarten stecken, am ehesten auch Geld in 4K stecken oder bereits gesteckt haben.

Ich lass mich gerne durch eine Statistik darueber ueberreden, dass es sich doch nicht um den absoluten minority report momentan handelt. Das daemlichste Beispiel hab ich erst vor kurzem bei einem Verwandten gesehen: ein schweineteures System mit einer GF 780 an einen billig Asus 1080p display geschnallt auf einem ~0.5m2 Billig-Schreibtisch und einem Stuhl bei dem es selbst nach der ersten halben Stunde ins Kreuz geht :rolleyes:

boxleitnerb
2013-11-04, 08:50:32
Wenn man die Karte schön vorheizt, mach quiet vs. uber schon einiges an Holz aus.

Dasselbe gilt aber wohl auch für Nvidia, es sei denn, man hat das Temperaturtarget in der Standardeinstellung deutlich angehoben.

V2.0
2013-11-04, 08:56:44
Dasselbe gilt aber wohl auch für Nvidia, es sei denn, man hat das Temperaturtarget in der Standardeinstellung deutlich angehoben.

Nur liegt der Baseclock bei NV bisher deutlich höher in Relation als bei AMD.

Wenn man bei der 290 von 662 ausgeht, macht sie bis zu ~50% Boost. Das hat man bei NV so bisher nicht.

Ailuros
2013-11-04, 09:01:37
Nur liegt der Baseclock bei NV bisher deutlich höher in Relation als bei AMD.

Wenn man bei der 290 von 662 ausgeht, macht sie bis zu ~50% Boost. Das hat man bei NV so bisher nicht.

Bei um einiges niedrigeren Temperaturen; es liegt nichts falsches an seinem Gedankensprung. Der ganze Kaese ist auch ziemlich scheissegal so lange man etwas schnelleres bei geringerer Lautstaerke erreichen kann. Es wird halt dem Geldbeutel weh tun aber in der Kategorie sind 100 Kroeten mehr auch nichts mehr so besonderes.

boxleitnerb
2013-11-04, 09:05:02
Nur liegt der Baseclock bei NV bisher deutlich höher in Relation als bei AMD.

Wenn man bei der 290 von 662 ausgeht, macht sie bis zu ~50% Boost. Das hat man bei NV so bisher nicht.

So ein niedriger Takt ist ein absolutes Worst Case Szenario. Weder HT4U, noch PCGH, noch Computerbase kommen auf solche Taktraten. Sondern eher auf 800 bis knapp 900 MHz. Ich sehe in deren Reviews nichtmal ansatzweise beim Uber Modus 50% höhere fps, sondern knapp 10%. Bei Nvidia liegen die Taktraten im vorgewärmten Betrieb in denselben Regionen.

LSSJBroly
2013-11-04, 09:41:39
Die R9 290 hat laut aktueller pcgh in einigen games unter freiluft nicht mal 700MHz erreicht.

boxleitnerb
2013-11-04, 09:43:55
Waren das Minimumtaktraten oder ein Durchschnitt während der Benchmarks? Der Takt ist da aber auch arg niedrig, ich kann mir kaum vorstellen, wie sowas passieren kann. Weniger Verbrauch, weniger Abwärme, selber Kühler und selbes Die. Irgendwas läuft da gewaltig schief, wenn das öfters so ist.
So oder so, 290 ohne X kommt in dem Diagramm von Nvidia nicht vor ;)

LSSJBroly
2013-11-04, 09:48:50
Durchschnitt.
Das ding verbrauchte rund 240 bis 250 Watt bei um die 800mhz.

Klar in den pics kommt die 290X vor - möglich sind diese Taktraten dennoch (unwahrscheinlich). Die 780 Ti erreicht ja immer noch mindestens den basistakt.

TheCounter
2013-11-04, 10:35:58
Sicher kein Zufall, dass es kein 4k ist :)

4K ist erst ab CF/SLI interessant. Davor krebst man auch mit einer 780TI/290X im untersten FPS Bereich rum, also völlig uninteressant mit einer Single-GPU.

Farcry 3 @ 4k mit 17FPS AVG (14FPS Min) auf ner 290X :ulol:

Eggcake
2013-11-04, 10:39:47
@box
Er sprach von der 290 in der aktuellen pcgh printausgabe, welche in der Praxis 6xx MHz kommt. Die untere Grenze bei der 290X liegt irgendwo bei 7xx MHz.

Edit.: Seite übersehen...

Duplex
2013-11-04, 10:40:22
4K ist erst ab CF/SLI interessant. Davor krebst man auch mit einer 780TI/290X im untersten FPS Bereich rum, also völlig uninteressant mit einer Single-GPU.
Selbst mit Dual Karten noch uninteressant, 4K macht erst in paar Jahren sinn, wenn die Karten Faktor 2-3 schneller werden, kann noch 4-5 Jahre dauern.

boxleitnerb
2013-11-04, 10:43:10
@box
Er sprach von der 290 in der aktuellen pcgh printausgabe, welche in der Praxis 6xx MHz kommt. Die untere Grenze bei der 290X liegt irgendwo bei 7xx MHz.

Edit.: Seite übersehen...

Ja ich hab mich verlesen, hab 290X gelesen, weil es eben um die Karte in dem Diagramm ging. Wobei nach wie vor die Frage bleibt, wo das mal so gebencht wurde. Ich finde keinen Benchmark der 290X, wo der Unterschied mehr wie ca. 10% ausmacht. Sicherlich keine 1000/7xx = 30%

Edit, hab nochmal gesucht:
Das Maximum was ich fand, war Anno 2070 bei Computerbase in 1600p, da waren es satte 26% und Serious Sam 3 bei HT4U in 1050p mit gut 25% Unterschied. Das ist aber definitiv nicht der Durchschnitt, wie die Ratings am Ende zeigen.

Hugo78
2013-11-04, 10:53:32
Find ich nicht, weil sie mit "Quiet" vergleichen.

Finde ich doch, weil der "Quiet" Mode die einzig humane Betriebsart des Ref.Designs ist und die "Out of the Box" Leistung darstellt.
"Quiet" müsste man btw. bei klarem Verstand als "Tolerable" bezeichnen... nochmal zur Erinnerung was "AMD Leise" in Wirklichkeit ist:


Damit ist die Karte zwar lauter als die GeForce GTX Titan, bleibt aber durchaus im Rahmen des Erträglichen
- http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/9/
Das Quiet-BIOS verdient seinen Namen allerdings nur im unmittelbaren Vergleich zur Geräuschkulisse des Performance-BIOS. 35 dB(A) bei einem Radial-Lüfter sind nicht leise, sondern Laut.
- http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index17.php
"deutlich hörbares, leicht pfeifendes Rauschen" (Quiet Mode)
- http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290X-im-Test-1093796/3/
Selbst im stillen Modus ist die 290X noch lauter als die Geforce Titan,
- http://www.golem.de/news/radeon-r9-290x-im-test-teilzeit-boost-macht-hawaii-fast-zum-titan-killer-1310-102331-7.html
but given the video card’s out of the box (quiet mode performance)
- http://anandtech.com/show/7457/the-radeon-r9-290x-review/19
Silent Mode which is louder than comparable NVIDIA cards and Uber mode which is louder than anything we’ve tested in the last 18 months or so.
- http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/63742-amd-radeon-r9-290x-4gb-review-16.html
At an idle the Radeon R9 290X was a respectable 42.5 dB, but when gaming the blower fan ramps up and you’ll know it. In ‘Quiet’ mode we were hitting 55.8 dB when gaming and in ‘Uber’ mode we were hitting 63.4 dB.
In recent years we’ve seen companies really working on improving acoustics, so it is pretty wild that AMD is going a different direction here.
- http://www.legitreviews.com/amd-radeon-r9-290x-video-card-review_126806/11
The "Quiet" BIOS will not deaden down the card, but its noise levels can be tolerated.

Using the "Uber" BIOS ... You will hear nothing but the card's fan noise, which makes hearing enemy footsteps or similar sound effects impossible unless you play with headphones.
- http://www.techpowerup.com/reviews/AMD/R9_290X/26.html

Knuddelbearli
2013-11-04, 11:05:36
Erstens macht quiet zu uber auch nicht mehr die Welt an Unterschied und zweitens sind es nach wir hugegrainofsalt NVIDIA's eigene subjektive Resultate.


kommt drauf an wie sie benchen, wenn die 290X in ein gedämmtes ITX System gequetscht wird ...

Verbrauchswerte sprechen eher dafür das Turbo bei weitem nicht ausgenutzt wird

Thomas Gräf
2013-11-04, 12:11:27
Selbst mit Dual Karten noch uninteressant, 4K macht erst in paar Jahren sinn, wenn die Karten Faktor 2-3 schneller werden, kann noch 4-5 Jahre dauern.

Ouha, ich denk gerad an das Wunschpanel für die Rift...4k. Ob das was wird?

TheCounter
2013-11-04, 12:30:31
Ouha, ich denk gerad an das Wunschpanel für die Rift...4k. Ob das was wird?

In 2 Jahren sicherlich. Bis dahin sollte auch 4k Gaming mit ner Single GPU einigermaßen möglich sein.

Erste Mobile 4k Panels sind ja schon in der Mache bzw. erreichen 2014 ihre Marktreife.

Iruwen
2013-11-04, 12:52:23
Für die Rift braucht man aber auch hohe FPS, noch lieber 100+ als 60.

Marty98
2013-11-04, 17:40:17
Finde ich doch, weil der "Quiet" Mode die einzig humane Betriebsart des Ref.Designs ist und die "Out of the Box" Leistung darstellt.
"Quiet" müsste man btw. bei klarem Verstand als "Tolerable" bezeichnen... nochmal zur Erinnerung was "AMD Leise" in Wirklichkeit ist:


Hab ja deshalb das Quiet in Anführungszeichen gesetzt. Die bei AMD haben einen Discoschaden. AMD Quiet ist real sehr laut und AMD Uber ist extrem laut.

TheCounter
2013-11-04, 18:21:48
Für die Rift braucht man aber auch hohe FPS, noch lieber 100+ als 60.

Na dann warten wir halt auf Volta (2016+) :biggrin:

Das Teil sollte genug Power für 4k haben.

yamo
2013-11-05, 11:17:41
Selbst mit Dual Karten noch uninteressant, 4K macht erst in paar Jahren sinn, wenn die Karten Faktor 2-3 schneller werden, kann noch 4-5 Jahre dauern.

Mit FXAA (das ich das mal sage :freak: )imho schon brauchbar bei guter Optik in 4K (DS). Bei 4xAA ist natürlich Schicht im Schacht, gerade bei den 780(ti) mit 3GiB Vram.
Allerdings fällt mir der optische Mehrgewinn bei 4XAA im Vergleich zu 4K mit FXAA kaum auf (DS). Kann natürlich auf einem 4K-Monitor anders sein.
Ansonsten Zustimmung, DAU-tauglich wirds wohl erst in ~4 Jahren...

Raff
2013-11-05, 11:24:53
Duplex hat recht spezielle Vorstellungen. ;) Ich zocke auch schon seit Ewigkeiten in "4K" mittels Downsampling. Man braucht eben stets die dickste und außerdem übertaktete Single-GPU, aber es geht. Spannend wird sein, inwiefern die GTX 780 Ti hier unter 3 GiB leidet.

MfG,
Raff

Gipsel
2013-11-05, 11:27:09
Allerdings fällt mir der optische Mehrgewinn bei 4XAA im Vergleich zu 4K mit FXAA kaum auf (DS). Kann natürlich auf einem 4K-Monitor anders sein.Nun, der zusätzliche Blur durch PostFX-AA wird durch die Schärfung des Downsamplings wieder kompensiert. Da hält sich der Qualitätsgewinn natürlich in Grenzen. Auf einem 4K-Monitor fällt der Vergleich aber so aus, wie er bei "richtigem" AA gegen Post-AA auch bei niedrigeren nativen Auflösungen ausfallen würde.

yamo
2013-11-05, 11:56:37
Duplex hat recht spezielle Vorstellungen. ;) Ich zocke auch schon seit Ewigkeiten in "4K" mittels Downsampling. Man braucht eben stets die dickste und außerdem übertaktete Single-GPU, aber es geht. Spannend wird sein, inwiefern die GTX 780 Ti hier unter 3 GiB leidet.

MfG,
Raff
Nun ja, wirst es schon wissen, darfst es aber noch nicht sagen :whistle:
Siehst Du einen großen Unterschied zwischen 4k DS mit FXAA/4xMSAA gegenüber 4K nativ mit/ohne 4xMSAA?

Nun, der zusätzliche Blur durch PostFX-AA wird durch die Schärfung des Downsamplings wieder kompensiert.

Nach meiner Erfahrung nur unwesentlich in dieser Auflösung. Bei geringerer (als 1080p) Auflösung ist FXAA wirklich blurry.

Da hält sich der Qualitätsgewinn natürlich in Grenzen. Auf einem 4K-Monitor fällt der Vergleich aber so aus, wie er bei "richtigem" AA gegen Post-AA auch bei niedrigeren nativen Auflösungen ausfallen würde.[/QUOTE]
Das könnte sein, hast Du persönliche Erfahrungen?

OC_Burner
2013-11-05, 12:09:09
Auf einem 4K-Monitor fällt der Vergleich aber so aus, wie er bei "richtigem" AA gegen Post-AA auch bei niedrigeren nativen Auflösungen ausfallen würde.

Aber nur wenn die Abmessungen des 4k Monitors doppelt so groß sind wie die eines herkömlichen 1080p Monitors. Gerade durch die höhere Pixeldichte (bei einem 24-27" Gerät) fällt die Unschärfe weniger auf, es sei denn man hat Adleraugen.

Ailuros
2013-11-05, 12:22:44
Aber nur wenn die Abmessungen des 4k Monitors doppelt so groß sind wie die eines herkömlichen 1080p Monitors. Gerade durch die höhere Pixeldichte (bei einem 24-27" Gerät) fällt die Unschärfe weniger auf, es sei denn man hat Adleraugen.

Viewing distance vor allem ahoi.

yamo
2013-11-05, 12:37:38
Wollte ich auch grad schreiben... Die Pixeldichte/ Monitor-Size entscheidet.
4k/1,25K Monis gibts nur mit 60 Hz für viel Geld....
Aber für 4k (DS) braucht man dennoch potentes SLI/CF.
Mit Single GPU ist das kaum genießbar. Crysis (mit Mods) letzter Level war selbst in SLI 280 nicht spielbar in 1,5 DS. Weil einfach auch der Vram ausging. Ich muß den Level noch mal mit meinen 3 Sluts nachspielen ;)....
Warum gibts von AMD keinen vernünftigen DS-Treiber (inkl. frame-pacing) für 1,5/2x DS ?
Da wäre ich schon lange bei denen. Die werben doch mit 4K Gaming.
Wer sich einen echten 4K Screen leisten kann, den interessiert AMD null. Der hat schon längst Titan 2/3SLI und lacht darüber.

yamo
2013-11-05, 12:44:04
Ailuros,
hast Du so einen Monitor in Betrieb?

Schaffe89
2013-11-05, 15:28:56
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-r9-290/test/amd_radeon_r9_290,741,3029454,2.html

Erste Tests der Ti. Gamestarlike Benchmarcs im CPU Limit, sind aber auch einige sinnvolle dabei.

Scheint ~10% schneller zu werden als Titan und ist daher wohl vergleichbar mit einer 290x im Ubermode.

fondness
2013-11-05, 15:31:16
Haha genial wie offensichtlich Gamestar auf das NDA scheißt. :D
Die 10% mehr Leistung sind durch die bekannten Specs keine Überraschung. Die bestätigten nur 3Gb VRAM enttäuschen allerdings etwas.

LSSJBroly
2013-11-05, 15:32:56
Lustig, dass die 780 Ti nicht überall drin ist- wohl einfach ein Fehler der Tester :freak:

Hübie
2013-11-05, 16:08:29
Hä? Ich seh da nur die R9 290...

Raff
2013-11-05, 16:10:15
Geil, wenn man auf den Link von Schaffe89 klickt, ist sie noch da. Klickt man selbst herum, sieht man, dass sie entfernt wurde. ;)

MfG,
Raff

Zergra
2013-11-05, 16:35:11
Geil, wenn man auf den Link von Schaffe89 klickt, ist sie noch da. Klickt man selbst herum, sieht man, dass sie entfernt wurde. ;)

MfG,
Raff
Funktioniert auch nicht mehr... :D Ich sehe sie nicht mehr

Rancor
2013-11-05, 16:40:02
Geil, wenn man auf den Link von Schaffe89 klickt, ist sie noch da. Klickt man selbst herum, sieht man, dass sie entfernt wurde. ;)

MfG,
Raff

Gibts doch zu ^^ du hast den Kollegen bescheid gegeben xD

Raff
2013-11-05, 16:42:56
Nope, habe das auch erst eben gesehen. Nvidia kann auch selbst lesen. ;)

MfG,
Raff

Iruwen
2013-11-05, 16:46:01
So ein "Zufall" :D

yamo
2013-11-05, 16:51:13
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-r9-290/test/amd_radeon_r9_290,741,3029454,2.html

Erste Tests der Ti. Gamestarlike Benchmarcs im CPU Limit, sind aber auch einige sinnvolle dabei.

Scheint ~10% schneller zu werden als Titan und ist daher wohl vergleichbar mit einer 290x im Ubermode.
"Gamestar" LOL :freak:

Iruwen
2013-11-05, 16:52:43
Gamestar Bashing ist so 2005.

TheCounter
2013-11-05, 16:56:26
Wahrscheinlich gibt es den B1 Chip auch bei den EVGA Classified Karten.

Wollte nur mal einwerfen:

Meine GTX780 (Referenzmodell, keine OC Version) von EVGA ist auch schon B1. Das Ding lässt sich höllisch gut takten ;)

captain_drink
2013-11-05, 16:57:39
Gamestar Bashing ist so 2005.

Inwiefern? Benchen im CPU- oder Grafiklimit, R280X schneller als HD 7970 Ghz, GTX 680 schneller als 770, 500-Euro-Karten ohne AA/AF in 1680x1050 testen, "perfektes AF" bei HD 5000 usw. usf. Die Leute dort konnten es schon vor zehn Jahren nicht und daran hat sich bis heute nichts geändert.

yamo
2013-11-05, 17:04:09
Inwiefern? Benchen im CPU- oder Grafiklimit, R280X schneller als HD 7970 Ghz, GTX 680 schneller als 770, 500-Euro-Karten ohne AA/AF in 1680x1050 testen, "perfektes AF" bei HD 5000 usw. usf. Die Leute dort konnten es schon vor zehn Jahren nicht und daran hat sich bis heute nichts geändert.

Sag mal, hast mal echt im RL Gamestar gelesen????:eek::eek::eek::eek:

captain_drink
2013-11-05, 17:15:43
Sag mal, hast mal echt im RL Gamestar gelesen????:eek::eek::eek::eek:

In jugendlichem Übermut macht man bekanntlich alles!

M4xw0lf
2013-11-05, 17:35:50
Gamestar Bashing ist so 2005.
Never gets old, würd ich sagen ;)

LSSJBroly
2013-11-06, 14:32:50
GTX 780 Ti Ahoi :D
http://www.chiphell.com/thread-895072-1-1.html

StefanV
2013-11-06, 15:41:59
Mit einer Leistungsaufnahme und Lautstärke über der 290X? :devil:

LSSJBroly
2013-11-06, 15:48:14
Mit einer Leistungsaufnahme und Lautstärke über der 290X? :devil:

Mit einer Lautstärke einer Referenz-GTX 780 (rund 2100RPM) - und max. 250 Watt TDP - ergo beides deutlich unterhalb der 290X - bei etwas besserer Performance wie die 290X im Übermodus;)

dildo4u
2013-11-06, 15:51:38
Ist ja der selbe Kühler laut dem Test läuft der Lüfter bei Firestrike Extreme mit max 45%,ist das Level der 780/Titan?

LSSJBroly
2013-11-06, 15:53:32
Da werden in games wohl um die 50% erreicht, der eine 3DMark-screen zeigt 49% an, der andere 50%. Werden wohl wieder rund 3,0 bis 3,2 Sone für die Referenz-Karte -stock. Und ja, eine Referenz-GTX 780 dreht ebenfalls mit rund 49 bis 52% Fanspeed.

Raff
2013-11-06, 15:57:57
58 Prozent = 3,2 Sone
63 Prozent = 4,2 Sone

Quelle Ti-tan-Test der PCGH (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/).

MfG,
Raff

LSSJBroly
2013-11-06, 15:59:19
58 Prozent = 3,2 Sone
63 Prozent = 4,2 Sone

Quelle Ti-tan-Test der PCGH (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/).


Die Titan hat aber ne andere Kennlinie;) Die 780 erreicht schon mit rund 53/54% Fanspeed die selben RPM wie die Titan mit 58% :)

Raff
2013-11-06, 16:00:24
Und woher weißt du, welche Kennlinie die Ti hat? :D

MfG,
Raff

LSSJBroly
2013-11-06, 16:03:00
Und woher weißt du, welche Kennlinie die Ti hat? :D

MfG,
Raff


Idle: 26% (wie die 780; etwa 1140RPM) und - oh wunder - 49/50% Fanspeed rund 2.100RPM, ebenfalls wie bei der GTX 780 :D Es liegt nahe, dass die 780 Ti eine ähnliche/gleiche Kennlinie wie die 780 besitzt (welche seit Release per Treiber geregelt wird; die BIOS-einstellungen werden ignoriert).


Und noch eine:
http://www.chiphell.com/thread-895300-1-1.html

Ailuros
2013-11-07, 09:50:11
http://videocardz.com/47722/asus-geforce-gtx-780-ti-pictured

Huh?

You can clearly see that ASUS has put DirectX 11.2 support on the box, so I guess this is official now.

:confused:

Hugo78
2013-11-07, 09:52:56
Das B1 muss ja für irgendwelche größeren Veränderungen stehen. ;)

Knuddelbearli
2013-11-07, 09:56:55
wieso muss er das ? das B steht nur für einen metal respin

Ailuros
2013-11-07, 09:58:56
Das B1 muss ja für irgendwelche größeren Veränderungen stehen. ;)

Gut DX11.2 kann ich eventuell schlucken aber das hier ist IMHO klarer Marketing brainfart:

http://videocardz.com/47576/nvidia-geforce-gtx-780-ti-official-specifications

533 vs. 455mm2? *yeahrightsureok*

AnarchX
2013-11-07, 10:01:33
wieso muss er das ? das B steht nur für einen metal respin

Ein Metalspin wäre ein GK110-A2. Von A auf B ist ein Fullspin. Bei GF110, der teilweise als GF100-B1 erkannt wurde, wurde immerhin die TMUs auf Fullspeed-FP16 geändert.

Aber eine API-Änderung ist bei einem Fullspin trotzdem unwahrscheinlich. Das wird einfach ein Fehler auf der Box sein, andere Hersteller schreiben bei ihren 780 Ti nur DX11.

btw.
Laut NV-Tabelle bei VC ist DP wohl nicht beschnitten: http://videocardz.com/47719/nvidia-launches-geforce-gtx-780-ti

Skysnake
2013-11-07, 10:04:27
http://videocardz.com/47722/asus-geforce-gtx-780-ti-pictured

Huh?



:confused:
Naja, warten wir mal ab, ob das wirklich ne Hardwarelösung ist, oder in Software getrickst wurde.

Ich bin aber schonmal auf die Kommentare derjenigen gespannt, die DX11.1 und 11.2 als total unwichtig angesehen haben. nVidia hat ja eh schon "alles für Gamer relevante" unterstützt laut so manchem.....

Scose
2013-11-07, 10:10:44
http://videocardz.com/47722/asus-geforce-gtx-780-ti-pictured

Huh?



:confused:

Auf der Box der Asus Titan stand doch auch schon DX11.1?

uweskw
2013-11-07, 10:11:48
...
Aber eine API-Änderung ist bei einem Fullspin trotzdem unwahrscheinlich. Das wird einfach ein Fehler auf der Box sein, andere Hersteller schreiben bei ihren 780 Ti nur DX11.
...


Denk ich auch mal. lt GPU-Z DX11

http://pic.yupoo.com/qzone1209397818/Di7Sjdiz/tjmPJ.png

Skysnake
2013-11-07, 10:16:08
Liest GPUz da aber nicht wieder nur Werte aus einer Datenbank aus?

Timbaloo
2013-11-07, 10:16:41
Naja, warten wir mal ab, ob das wirklich ne Hardwarelösung ist, oder in Software getrickst wurde.
Ist doch egal. Es geht ja nur darum, dass %SPIEL% nicht mit der Fehlermeldung "No DX11.2 support" abstürzt, was ja zweifelsohne passieren würde. Oder gar noch Schlimmeres.

Ailuros
2013-11-07, 10:24:28
Wenn man bei videocardz weiterwuehlt scheint auch bei der Zotac 780Ti Schachtel 11.2 drauf zu stehen. Ich glaube es zwar selber nicht, aber ich behalte es vorruebergehend als Fragezeichen.

Und das mit GPU-Z ist wirklich kein Punkt; wuerde das Ding auch wirklich richtig herauslesen wuerde auch nicht "A1" unter der Chip-Revision stehen :rolleyes:

Player18
2013-11-07, 10:25:57
Die High-End-Grafikkarte ASUS GeForce GTX 780 Ti wird von NVIDIAs GeForce GTX 780 Ti angetrieben. Die GPU setzt auf den GK110 "Kepler" im Vollausbau mit satten 2.880 Shadereinheiten, 15 SMX-Einheiten, 240 TMUs und 48 ROPs. Die GPU arbeitet mit 876 MHz Basistakt, der Boost-Takt beträgt bis zu 928 MHz. Die ASUS GeForce GTX 780 Ti ist mit 3 Gbyte GDDR5-Speicher bestückt, der über ein 384-Bit-Interface angebunden ist und mit 1,75 GHz taktet (effektive Datenrate 7,0 GHz).

780Ti ist bestellbar :) Naja aber ich wart noch bischen bis es bessere kühler gibt.

AnarchX
2013-11-07, 10:26:22
Wenn man bei videocardz weiterwuehlt scheint auch bei der Zotac 780Ti Schachtel 11.2 drauf zu stehen. Ich glaube es zwar selber nicht, aber ich behalte es vorruebergehend als Fragezeichen.

In den genauen Zotac-Specs steht wohl aber das:
Microsoft DirectX 11.2 (feature level 11_0)

uweskw
2013-11-07, 10:27:43
Boost 2.0....
Bin ja mal gespannt wie die sich in einem vorgeheiztem, geschlossenem Gehäuse macht. Im Vergleich zur 290x. Das wird der wichtigste Test.

Greetz
U.S.

Ailuros
2013-11-07, 10:29:43
In den genauen Zotac-Specs steht wohl aber das:

Οk das erklaert dann den Quark. IMHO case closed und danke :)

Neurosphere
2013-11-07, 10:31:22
Wann fällt denn heute das NDA?

uweskw
2013-11-07, 10:34:04
Οk das erklaert dann den Quark. IMHO case closed und danke :)

und was bedeuted nun:
Microsoft DirectX 11.2 (feature level 11_0)

Software-Lösung die auch für die 780GTX möglich wäre?
Dann hol ich mir gleich eine 780GTX Super-Jetstream!

Greetz
U.S.

Knuddelbearli
2013-11-07, 10:36:52
das bedeutet einfach das sofern der Entwickler nicht extra für NV eine extra abfrage amcht es nur DX 11.0 ist

spätestens mit Kepler die sicher auch 11.2 hat, hat auch NV kein Interesse mehr daran bei den Entwickler anzufragen damit die so eine Abfrage machen

uweskw
2013-11-07, 10:39:48
das bedeutet einfach das sofern der Entwickler nicht extra für NV eine extra abfrage amcht es nur DX 11.0 ist

spätestens mit Kepler die sicher auch 11.2 hat, hat auch NV kein Interesse mehr daran bei den Entwickler anzufragen damit die so eine Abfrage machen

kapier ich nicht!

M4xw0lf
2013-11-07, 10:43:49
kapier ich nicht!
Dann hat NV das Ziel ja erreicht :freak:

StefanV
2013-11-07, 10:44:29
kapier ich nicht!
Welchen Teil?!

Dass solche Hacks einfach nur scheiße sind oder dass nV kein Interesse mehr an alten Produkten hat, wenns das neue gibt?!

Ailuros
2013-11-07, 10:49:17
und was bedeuted nun:


Software-Lösung die auch für die 780GTX möglich wäre?
Dann hol ich mir gleich eine 780GTX Super-Jetstream!

Greetz
U.S.

DX11.2 support != compliance.


Einfacher Du kannst mit der GPU zwar DX11.2 als API im PC benutzen, ohne dass die GPU wirklich DX11.2 ist. Von der hw her koennte man DX11.2 API support sogar mit DX9.0L3 behaupten ;)

Nightspider
2013-11-07, 10:55:05
Bin mal gespannt ob die Karte einen Straßenpreis von 550-600 Euro haben wird.

Größtes Manko wäre ja dann fast die "nur" 3GB VRAM gegen die billigen AMD Karten für ~340 Euro mit 4GB.^^

uweskw
2013-11-07, 10:55:17
DX11.2 support != compliance.


Einfacher Du kannst mit der GPU zwar DX11.2 als API im PC benutzen, ohne dass die GPU wirklich DX11.2 ist. Von der hw her koennte man DX11.2 API support sogar mit DX9.0L3 behaupten ;)

Schei**e, hätte mir gern die 780GTX als Ersatz für meine 570er geholt.....
Also doch auf die 2. Charge 290er warten und dann den Accelero draufpacken...

Greetz
U.S.

Player18
2013-11-07, 11:02:19
Bin mal gespannt ob die Karte einen Straßenpreis von 550-600 Euro haben wird.

Größtes Manko wäre ja dann fast die "nur" 3GB VRAM gegen die billigen AMD Karten für ~340 Euro mit 4GB.^^

780ti kostet so um die 660 Euro ja nach hersteller etwas mehr oder Weniger ;)

aber eine InnO 3D mit Herculez Kühler wird wohl so um die 700 Euro kosten

Loeschzwerg
2013-11-07, 11:18:20
780ti kostet so um die 660 Euro ja nach hersteller etwas mehr oder Weniger ;)

Genau wie die 290 für 470€ gelistet war vor Fall des NDA :wink: Rechne von den 660€ eher mal gute 100€ weg.

Skysnake
2013-11-07, 11:41:02
In den genauen Zotac-Specs steht wohl aber das:
Na klasse! :down:

Also mal ganz im ernst, wenn das wirklich so stimmt, dann bin ich gelinde gesagt ziemlich pissed :mad:

Was soll denn der Scheis bitte? Für mich grenzt das an unlauteren Wettbewerb. ASUS usw machen gute Produkte, aber sowas ist echt ein NOGO! Ich hoffe wirklich inständig, dass die Verbraucherzentralen da mal endlich mal tätig werden. Das kanns echt nicht sein. :mad:

und was bedeuted nun:


Software-Lösung die auch für die 780GTX möglich wäre?
Dann hol ich mir gleich eine 780GTX Super-Jetstream!

Greetz
U.S.
Das bedeutet, dass du eigentlich ne DX11.0 GPU hast, nach dem wie man die Bezeichnungen von Anfang an bei DX verwendet hat. nVidia ist da halt etwas "kreativer" als die Allgemeinheit....

Gipsel
2013-11-07, 11:54:08
Na so ein wenig ist aber auch MS dran schuld. Woanders gibt es klare Richtlinien, wann und wie man compliance behaupten darf. Die informierten Kunden werden schon Bescheid wissen, den Anderen ist es vermutlich eher egal und die würden auch eine DDR3-Einsteigerkarte mit 4GB statt zum selben Preis die Gleiche mit 2GB GDDR5 kaufen. :rolleyes:

Und Handhabung die "Featuritis" ab DX11.1 ist irgendwie auch nicht das Gelbe vom Ei. Optionale Erweiterungen schön und gut, aber hat MS nicht erst mit DX10 verkündet, daß man klare Featurelevel einführt, die jeweils inklusiv sind (höhere beeinhalten pflichtgemäß alle Features von tieferen) und daß das viel besser wäre? Und jetzt gibt es Level 11_0 Karten, die 11.2 API-Features unterstützen, die bei Tiled Resources noch in unterschiedlichen Tiers ankommen. Kein Wunder, daß da eine ziemliche Kundenverwirrung ausbricht, wenn die Leute dann versuchen, das in eine einzige Zahl wie 11.0, 11.1 11.2a und 11.2b zu packen. Das kann ja gar nicht klappen.

Alles in Allem hat das aber eher nur am Rande mit dem Thema dieses Threads zu tun.

Iruwen
2013-11-07, 12:24:38
Ich glaub es kann vielleicht einer von tausend Kunden grob was mit DirectX anfangen, das Konzept der Feature Level versteht ja nichtmal hier im Forum jeder :D Entweder gar nichts auf die Packung schreiben oder die ganze Wahrheit, das war wohl ein Hirnfurz beim Hersteller. Irgendwer hat die Specs geschrieben, irgendwer hat die Packung designed und irgendwer hats abgenickt.

yamo
2013-11-07, 12:48:20
Bitte nicht schon wieder diese Diskussion:rolleyes:
~550 Straßenpreis für die Ref. Ti wäre ein Traum. Leider ist NV bei neuen Karten relativ preisstabil, vermute eher ~630€.
Wenn man eh auf SLI/WaKü geht scheint die 780 (mit Mod-Bios) das beste P/L zu bieten, wenn man DS/SGSSAA braucht.
AMD vermasselt seine 4k-Karte 290x mit nicht vorhandenem DS-Support, ansonsten würde ich mir sofort(!) 2 bestellen. Unter Wasser gehen die richtig ab.

Skysnake
2013-11-07, 12:54:30
Und Handhabung die "Featuritis" ab DX11.1 ist irgendwie auch nicht das Gelbe vom Ei. Optionale Erweiterungen schön und gut, aber hat MS nicht erst mit DX10 verkündet, daß man klare Featurelevel einführt, die jeweils inklusiv sind (höhere beeinhalten pflichtgemäß alle Features von tieferen) und daß das viel besser wäre? Und jetzt gibt es Level 11_0 Karten, die 11.2 API-Features unterstützen, die bei Tiled Resources noch in unterschiedlichen Tiers ankommen. Kein Wunder, daß da eine ziemliche Kundenverwirrung ausbricht, wenn die Leute dann versuchen, das in eine einzige Zahl wie 11.0, 11.1 11.2a und 11.2b zu packen. Das kann ja gar nicht klappen.

Das ist eben die Frage die sich mir stellt. Ist das wirklich DX11.2 oder nicht? Also offiziell von MS abgesegnet. Ich versteh das nämlich genau so wie du es gesagt hast. Jeder neue DX11.x Standard muss den vorhergehenden vollständig enthalten, damit man es DX11.x nennen darf!

MS kann aber natürlich nicht verbieten, das man einzelne API-Funktionen einbaut, das macht aber noch lange keine Unterstützung der API-Version aus...

Also zumindest habe ich noch nicht anderweitiges von MS usw gehört.

Gibt es eigentlich von MS eine Liste, auf der man alle zertifizierte Hardware nachschauen kann? Das würde dann ja klarheit schaffen.

nVidia hat ja z.B. auch bei Kepler keine OpenCL Zertifizierung. Man unterstützt zwar OpenCL an sich, aber das teils auch nur mehr schlecht als recht (Programme die nicht starten oder abstürzen). Da hat man halt auch einfach Pech, wenn etwas nicht funktioniert.

yamo
2013-11-07, 13:08:01
Das ist eben die Frage die sich mir stellt. Ist das wirklich DX11.2 oder nicht? Also offiziell von MS abgesegnet. Ich versteh das nämlich genau so wie du es gesagt hast. Jeder neue DX11.x Standard muss den vorhergehenden vollständig enthalten, damit man es DX11.x nennen darf!

MS kann aber natürlich nicht verbieten, das man einzelne API-Funktionen einbaut, das macht aber noch lange keine Unterstützung der API-Version aus...

Also zumindest habe ich noch nicht anderweitiges von MS usw gehört.

Gibt es eigentlich von MS eine Liste, auf der man alle zertifizierte Hardware nachschauen kann? Das würde dann ja klarheit schaffen.

nVidia hat ja z.B. auch bei Kepler keine OpenCL Zertifizierung. Man unterstützt zwar OpenCL an sich, aber das teils auch nur mehr schlecht als recht (Programme die nicht starten oder abstürzen). Da hat man halt auch einfach Pech, wenn etwas nicht funktioniert.

Ich verstehe ja Deinen Unmut, weil Du selbst dort sehr involviert bist.
Aber verschiebe das doch bitte in einen eigenen Thread.
http://weknowgifs.com/wp-content/uploads/2013/11/willem-dafoe-gif.gif ;)

Schnitzl
2013-11-07, 13:21:02
Ich glaub es kann vielleicht einer von tausend Kunden grob was mit DirectX anfangen, das Konzept der Feature Level versteht ja nichtmal hier im Forum jeder :D Entweder gar nichts auf die Packung schreiben oder die ganze Wahrheit, das war wohl ein Hirnfurz beim Hersteller. Irgendwer hat die Specs geschrieben, irgendwer hat die Packung designed und irgendwer hats abgenickt.
nun in solchen Fällen sind die Leute plötzlich "allwissend" und präsentieren stolz ihre DX11.2 Grafikkarte... ;D
Man muss da vorsichtig sein ^^

yamo
2013-11-07, 13:31:03
Wann fällt denn das NDA? Es müßte doch schon soweit sein, oder?

Timbaloo
2013-11-07, 13:31:09
Spontane Kompetenzsteigerung durch Produkterwerb :D

dildo4u
2013-11-07, 13:33:31
Wann fällt denn das NDA? Es müßte doch schon soweit sein, oder?
15Uhr.

yamo
2013-11-07, 14:52:33
also gleich ;)

[dzp]Viper
2013-11-07, 15:02:45
Eher jetzt.. sollte es jedenfalls ;)

yamo
2013-11-07, 15:09:51
Jo, PCGH ist online.

Raff
2013-11-07, 15:13:08
Und PCGH sagt "kein DX11.x" (http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/)

MfG,
Raff

Timbaloo
2013-11-07, 15:16:57
PCGH verschreibt sich aber auch gerne: "Immerhin hat AMD von Nvidia gelernt und legt der Geforce GTX 780 Ti ein ansehnliches Bündel bei:" ;)

yamo
2013-11-07, 15:19:30
Bei single-gpu bis 1600p kann man beruhigt zur 290x greifen. Insbesonders bei WaKü. Mit gescheitem DS würde sie die Ti und Titan im CF deklassieren, aber das geht ja bei AMD nicht :facepalm:

[dzp]Viper
2013-11-07, 15:25:07
Klar geht DS bei AMD....

yamo
2013-11-07, 15:28:58
Natürlich geht DS bei AMD. Aber wie weit und mit welchem Gefrickel?
Mir würde 1,5xDS reichen. Bei 2880p könnte man die 290x im CF gut ausreizen (WakÜ).
Aber noch nicht mal das geht.
AMD muß einfach Tweaks freigeben (ohne Garantie). Ich schmeiß sofort mein 3dv weg, wenn AMD DS implementiert.

Woklbokl
2013-11-07, 15:29:00
Viper;9992438']Klar geht DS bei AMD....

Von 1440P auf 4K oder 5120x2880@60Hertz?
Nein? Okay...

yamo
2013-11-07, 15:36:10
In Eyfinity rippt die 290x CF Titanen und 780ér/SLI ab. In Frametimes!
Und ich bin seit Jahren bei den Grünen.

Player18
2013-11-07, 16:06:08
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-ti-gegen-gtx-titan-im-test/

Ab Dezember gibts Partnerkarten wundert mich nicht da Ja Weihnachten vor der Tür steht.. aber ob´s nach weihnachten billiger wird bezweifel ich.

Tesseract
2013-11-07, 16:28:24
In Eyfinity rippt die 290x CF Titanen und 780ér/SLI ab. In Frametimes!
so lange AMD nix vergleichbares zu smooth AFR behavior hat ist crossfire generell leider ziemlich unbrauchbar.

Woklbokl
2013-11-07, 16:30:15
so lange AMD nix vergleichbares zu smooth AFR behavior hat ist crossfire generell leider ziemlich unbrauchbar.

Nur dumm das es dazu nicht mal Tests im Netz gibt und es kaum einer kennt.
Wer es kennt will es aber nie wieder missen :biggrin:

fondness
2013-11-07, 16:31:14
Man sollte sich mal die Frage stellen warum man bei NV dieses "smooth AFR behavior" überhaupt benötigt. Den AFR-Lag ansich kann man technisch nicht vermeiden, da die Karten nun mal parallel die Bilder berechnen. Leider kann man Reaktionsverhalten schlecht messen.

Woklbokl
2013-11-07, 16:33:00
Man sollte sich mal die Frage stellen warum man bei NV dieses "smooth AFR behavior" überhaupt benötigt. Den AFR-Lag ansich kann man technisch nicht vermeiden, da die Karten nun mal parallel die Bilder berechnen. Leider kann man Reaktionsverhalten schlecht messen.

Benötigt? Das Feature ist nicht standardmäßig aktiviert und reduziert input lag deutlich.

fondness
2013-11-07, 16:33:50
Benötigt? Das Feature ist nicht standardmäßig aktiviert und reduziert input lag deutlich.

Das ist mir schon bewusst. Nur ist die Frage was da genau im Hintergrund passiert.

Woklbokl
2013-11-07, 16:34:45
Das ist mir schon bewusst. Nur ist die Frage was da genau im Hintergrund passiert.

Dazu kann Blaire vielleicht mal was sagen, wenn er es liest.
Ist ja wie Downsampling kein offizielles Feature.