PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - D3D10.1-Support für die 8800 GT bzw. alle GF8?


AnarchX
2007-11-14, 12:08:35
Momentan sieht die Nichtunterstützung von D3D10.1 gegenüber der HD3800-Serie nach einem größeren Nachteil vorallem aus PR-Sicht aus.

Jedoch, tauchte im Zuge eines Pressemettings zur 8800 GT die Information auf, dass diese wohl doch D3D10.1 beherrschen soll, aber NV es weiterhin eher als nebensächlich ansieht:
Interestingly, Nvidia also notes that the card anticipates DirectX 10.1, but also notes that the upgrade will not be used by most developers.
http://www.extremetech.com/article2/0,1697,2216589,00.asp

Hierzu sollte man erwähnen, dass vor langer Zeit eine leider chinesisch sprachige Folie auftauchte, welche behauptet, dass die GeForce8-Serie später D3D10.1 unterstützen solll:
http://img261.imageshack.us/img261/9934/g8xdx101di8.jpg

Ein weiterer Anhaltspunkt tauchte auch in der .inf des FW156.80 auf:
[DEV_0405&SUBSYS_15D21043] NVIDIA GeForce 9500M GS
[DEV_0405&SUBSYS_16341043] NVIDIA GeForce 9500M GS
[DEV_0405] NVIDIA NB9P-GE1
[DEV_0406] NVIDIA NB9P-GE

[DEV_042E&SUBSYS_17C21043] NVIDIA GeForce 9300M G
[DEV_042E] NVIDIA NB9M-GE1

Bei der DEV_ID der 9300M G handelt es sich offensichtlich um den G86.


Nun stellt sich die Frage ob NV bald zum großen PR-Schlag ausholt und verkünden wird, dass man schon seit November 2006 D3D10.1-fähige HW verkauft, was ATi möglicherweise mit der HD2000-Serie nicht kann.

Winter[Raven]
2007-11-14, 12:12:55
Einige haben ja schon angemerkt, dass dem G80 sehr wenig fehlt für die 10.1... vielleicht schlummert da im G80 Kern noch so eine andere Überraschung?

Die gelbe Eule
2007-11-14, 12:13:27
Warum auch damit PR machen, wenn es noch nirgends genutzt wird? NV überrascht immer mehr und es sieht so aus, als denken sie immer einen Schritt voraus. Da bleibt ATi dann nicht mehr viel zu verkünden auf Folien ;)

Gast
2007-11-14, 12:15:36
Nun stellt sich die Frage ob NV bald zum großen PR-Schlag ausholt und verkünden wird, dass man schon seit November 2006 D3D10.1-fähige HW verkauft, was ATi möglicherweise mit der HD2000-Serie nicht kann.

Auch der HD2000-Serie fehlt höchstwahrscheinlich nur die Treiberunterstützung für D3D10.1.

mapel110
2007-11-14, 12:24:09
Auch der HD2000-Serie fehlt höchstwahrscheinlich nur die Treiberunterstützung für D3D10.1.
Irgendeiner von beiden muss aber maßgebend für D3D10 gewesen sein, sonst hätte es gleich 10.1 als 10 gegeben. Und wenn ATI erst jetzt mit DX10.1 wirbt bei den neueren Chips, ist davon auszugehen, dass die alten es nicht können.
Wie das bei nvidia aussieht, kann man wirklich nur spekulieren. Da sind wir wohl auch erst in ein paar Monaten schlauer.

Gast
2007-11-14, 12:44:28
Momentan sieht die Nichtunterstützung von D3D10.1 gegenüber der HD3800-Serie nach einem größeren Nachteil vorallem aus PR-Sicht aus.

Jedoch, tauchte im Zuge eines Pressemettings zur 8800 GT die Information auf, dass diese wohl doch D3D10.1 beherrschen soll, aber NV es weiterhin eher als nebensächlich ansieht:

http://www.extremetech.com/article2/0,1697,2216589,00.asp


Nungut, selbst wenn das der Fall sein sollte, bedeutet das noch lange nicht, dass alle GF8-Chips D3D10.1 beherrschen. Und selbst wenn bedeutet das wiederrum nicht, das man diese Unterstützung für die GF8-Serie auch freischaltet. G92 heißt wohl nicht ganz ohne Grund G92 und nicht G8x.


Hierzu sollte man erwähnen, dass vor langer Zeit eine leider chinesisch sprachige Folie auftauchte, welche behauptet, dass die GeForce8-Serie später D3D10.1 unterstützen solll:
http://img261.imageshack.us/img261/9934/g8xdx101di8.jpg


Gibt es hierzu eine Übersetzung, oder woher die Sicherheit? Nur weil da DX10.1 drin vorkommt, heißt das gar nichts. Da kann genau stehen, dass DX10.1 aus Sicht von nV unnötig ist, etc.


Nun stellt sich die Frage ob NV bald zum großen PR-Schlag ausholt und verkünden wird, dass man schon seit November 2006 D3D10.1-fähige HW verkauft, was ATi möglicherweise mit der HD2000-Serie nicht kann.

Man macht es wohl eher so wie AMD und nützt D3D10.1 für eine neuen Marketingnamen.

Gast
2007-11-14, 12:48:12
Irgendeiner von beiden muss aber maßgebend für D3D10 gewesen sein, sonst hätte es gleich 10.1 als 10 gegeben.

Es gibt mehr als nur ATi und nV, die für die Specs maßgebend sind. Vorallem Intel hat als Marktführer hier sicher ein gewichtiges Wort mitzureden, aber auch S3, IMG und andere kleine werden beachtet.


Und wenn ATI erst jetzt mit DX10.1 wirbt bei den neueren Chips, ist davon auszugehen, dass die alten es nicht können.

Was fehlt einem R600 denn für D3D10.1?
Das ATi bei RV670 damit wirbt, bedeutet nicht viel. Damit will man eben die neue Serie von der alten distanzieren. Kann genausogut reines Marketing sein.


Wie das bei nvidia aussieht, kann man wirklich nur spekulieren. Da sind wir wohl auch erst in ein paar Monaten schlauer.

Richtig. Abwarten heißt die Devise.

AnarchX
2007-11-14, 13:50:49
Gibt es hierzu eine Übersetzung, oder woher die Sicherheit? Nur weil da DX10.1 drin vorkommt, heißt das gar nichts. Da kann genau stehen, dass DX10.1 aus Sicht von nV unnötig ist, etc.

Nunja, ich hatte es mal übersetzt und heißt schon so etwas wie "später auch Dx10.1".

JTHawK
2007-11-14, 14:07:06
Gibt es hierzu eine Übersetzung, oder woher die Sicherheit? Nur weil da DX10.1 drin vorkommt, heißt das gar nichts. Da kann genau stehen, dass DX10.1 aus Sicht von nV unnötig ist, etc.

"當然也支持Dx10.1" heißt: "Unterstützt selbstverständlich auch Dx10.1"

AnarchX
2007-11-14, 14:12:06
@JTHawK
Danke für die Bestätigung. :)

Steht da sonst noch etwas interessantes?

up¦²
2007-11-14, 14:14:14
Haha - wäre ja zu komisch, wenn der G92 nicht umsonst G9x-Familie ist...
Der nächste Ast, den Nvidia absägt... ?

PCGH_Carsten
2007-11-14, 23:14:52
Warum hätte man seit genau einem halben Jahr darauf verzichten sollen, dieses Marketinginstrument ggü. AMD in Stellung zu bringen?

Neomi
2007-11-14, 23:31:28
Hat man <beliebiges Feature>, ist <beliebiges Feature> relevant. Hat man <beliebiges Feature> nicht, ist <beliebiges Feature> auch nicht relevant. Die tatsächliche Relevanz ist irrelevant. ;)

Hvoralek
2007-11-15, 00:29:59
Warum hätte man seit genau einem halben Jahr darauf verzichten sollen, dieses Marketinginstrument ggü. AMD in Stellung zu bringen?Es wäre zumindest denkbar, dass man erst einmal ATIs D3D10.1- Marketingmaschinerie anlaufen lässt, um dann mit einem süffisanten "Haben wir übrigens auch" zu reagieren. Etwas ähnliches hat Nvidia ja beim Thema "USC" gemacht. Ich denke, wenn G8x/ G9x D3D10.1 unterstützen sollten, werden wir das zum offiziellen RV670- Launch (also in ein paar Stunden) umgehend erfahren. Noch länger würde man damit wohl keinesfalls warten.

Gast
2007-11-15, 01:17:51
Hat man <beliebiges Feature>, ist <beliebiges Feature> relevant. Hat man <beliebiges Feature> nicht, ist <beliebiges Feature> auch nicht relevant. Die tatsächliche Relevanz ist irrelevant. ;)


hahahaha :D

thx, u made my day :)

Ailuros
2007-11-15, 06:03:45
Es wäre zumindest denkbar, dass man erst einmal ATIs D3D10.1- Marketingmaschinerie anlaufen lässt, um dann mit einem süffisanten "Haben wir übrigens auch" zu reagieren. Etwas ähnliches hat Nvidia ja beim Thema "USC" gemacht. Ich denke, wenn G8x/ G9x D3D10.1 unterstützen sollten, werden wir das zum offiziellen RV670- Launch (also in ein paar Stunden) umgehend erfahren. Noch länger würde man damit wohl keinesfalls warten.

To the best of my knowledge= G8x/G92 = nix D3D10.1.

Ehrlich gesagt hab ich nie darauf eine Antwort von NV darueber bekommen; und wenn die Kerle sich vor einer Antwort druecken heisst es ganz einfach dass die Antwort negativ waere.

Ich will wetten dass wenn ich etwas weiter druecken wuerde, ich irgend eine bloede Antwort bekommen wuerde, der Art "dass sie zur D3D10.1 Vorstellung auch kompliante HW haben werden". Ja neue dann wohl sicher LOL ;)

Gast
2007-11-15, 10:22:03
Warum hätte man seit genau einem halben Jahr darauf verzichten sollen, dieses Marketinginstrument ggü. AMD in Stellung zu bringen?

Weil man es absolut nicht nötig hatte? Welcher Pokerspieler lässt denn schon zu Beginn gleich die Hosen runter.

Hvoralek
2007-11-15, 18:09:19
Ehrlich gesagt hab ich nie darauf eine Antwort von NV darueber bekommen; und wenn die Kerle sich vor einer Antwort druecken heisst es ganz einfach dass die Antwort negativ waere.Gilt das auch für das Thema FP64- Genauigkeit? Bisher hat Nvidia auf die Nachfrage, ob G92 das biete, nur ausweichend geantwortet, die 8800 GT tue das nicht. Ich könnte aber wetten, die Quadro-/ Tesla- Versionen des Chips werden das unterstützen. Wofür soll man sonst so viele Transistoren gebraucht haben?

Mal wieder zur Bedeutung von D3D10.1: Das scheint ja keine Voraussetzung für sauberes MSAA bei der UE3 zu sein. GoW unterstützt AA ja offenbar auch hochoffiziell im normalen D3D10- Pfad. Bleibt dann überhaupt noch irgendein nennenswerter Nutzen durch D3D10.1 auf absehbare Zeit?

Gast
2007-11-15, 21:01:19
Gilt das auch für das Thema FP64- Genauigkeit? Bisher hat Nvidia auf die Nachfrage, ob G92 das biete, nur ausweichend geantwortet, die 8800 GT tue das nicht. Ich könnte aber wetten, die Quadro-/ Tesla- Versionen des Chips werden das unterstützen. Wofür soll man sonst so viele Transistoren gebraucht haben?


dass es FP64-unterstützung nur für tesla offiziell geben wird, ist eigentlich schon länger bekannt.

Gast
2007-11-15, 21:03:39
Warum hätte man seit genau einem halben Jahr darauf verzichten sollen, dieses Marketinginstrument ggü. AMD in Stellung zu bringen?

so blöd wäre es nicht, vielleicht hat man wieder mal andere die arbeit machen lassen. ;)

bei der unified-shader-architectur hat man ja auch ewig nur ausweichend geantwortet und ATI kräftig die werbetrommel rühren lassen, bis man dann mit "haben wir auch, und sogar noch viel früher" gekommen ist ;)

Demirug
2007-11-15, 21:22:13
Mal wieder zur Bedeutung von D3D10.1: Das scheint ja keine Voraussetzung für sauberes MSAA bei der UE3 zu sein. GoW unterstützt AA ja offenbar auch hochoffiziell im normalen D3D10- Pfad. Bleibt dann überhaupt noch irgendein nennenswerter Nutzen durch D3D10.1 auf absehbare Zeit?

Performance.
Manche Dinge lassen sich mir D3D10.1 effektiver lösen.

Was nun die Unterstützung von D3D10.1 angeht.
Mindestvoraussetzung für die Erzeugung eines 3D10.1 Devices ist ein D3D10 Treiber. ;)

PCGH_Carsten
2007-11-15, 21:38:52
So, HD3870-Launch ist durch, eine Nvidia-PM mit der Ankündigung von D3D10.1-Support ist mir noch nicht ins Postfach geflattert. Kann natürlich noch kommen.

Hvoralek
2007-11-15, 22:09:54
Performance.
Manche Dinge lassen sich mir D3D10.1 effektiver lösen.Und wie intensiv werden diese Dinge zu Lebzeiten dieser Chips bzw. unter Bedingungen, die sie noch schultern können, genutzt werden :ugly:

malle
2007-11-16, 08:58:34
Es ist doch wie Shader 3.0 oder?
Selbst eine 6800LE, ja gar eine 6200LE hatte SH3.0. Dagegen hatte ATI/AMD selbst bei einer X850XT-PE kein SH3.0 sondern nur SH2.5.
Und wenn wir mal schauen, wie hier im Forum die Diskussionen waren dazu, dann wissen wir, Marketing ist alles. Egal ob SH3.0 was nützt oder nicht.

DrumDub
2007-11-16, 10:30:19
Es ist doch wie Shader 3.0 oder?
nein. d3d10 ist sm 4.0.

nomadhunter
2007-11-16, 14:52:00
Ich denke, malle meint damit, dass die Situation mit D3D10.1/D3D10 genau so sein wird, wie sie mit SM3/SM2.5SM2b war. Nur dass diesmal eben ATI früher als NV dran ist.

malle
2007-11-16, 18:54:56
Ich denke, malle meint damit, dass die Situation mit D3D10.1/D3D10 genau so sein wird, wie sie mit SM3/SM2.5 war. Nur dass diesmal eben ATI früher als NV dran ist.
Genau

Gast
2007-11-16, 19:00:28
Es gab kein SM2.5...
Es gibt ShaderProfile, 2.0, 2.a, 2.b. Die Zählreihenfolge hat aber nichts mit den technischen Möglichkeiten zu tun, da 2.a viel näher an SM3 dran ist als 2.b.
Die Situation ist nicht vergleichbar mit den damaligen SM2/SM3 Karten. Damals hat es über 1Jahr gedauert bis nach erscheinen der DX Runtime auch ATI soweit war. Diesmal, wenn überhaupt sind es 3Monate.

Gast
2007-11-16, 19:58:27
Ich denke, malle meint damit, dass die Situation mit D3D10.1/D3D10 genau so sein wird, wie sie mit SM3/SM2.5 war. Nur dass diesmal eben ATI früher als NV dran ist.


das ist nicht mal annähernd vergleichbar, SM3.0 kann deutlich mehr als 2.0 und 2.b, wobei 2.a schon recht nah an 3.0 war.

wolf-Cottbus
2007-11-16, 23:39:29
Es ist egal wie nah es war, es ist eben nicht gleich. Und es ist der selbe Firlefanz (wie Malle sagte), sieht man ja an den Post hier. Meine Karte kann mehr als deine, usw.

Gruß Wolf

Ailuros
2007-11-18, 08:01:47
Performance.
Manche Dinge lassen sich mir D3D10.1 effektiver lösen.

Was nun die Unterstützung von D3D10.1 angeht.
Mindestvoraussetzung für die Erzeugung eines 3D10.1 Devices ist ein D3D10 Treiber. ;)

Paragraph 2 klingt aber nicht besonders berauschend fuer den ersten Paragraph.

AnarchX
2007-12-01, 21:55:21
HL: The GeForce 8800 GT does not support DirectX 10.1? How concerned should consumers be if their video card supports DX10 but not 10.1?

BB: Not very. With graphics, there is always “something new coming soon”. So you either have to plant a stake in the ground and make a purchase or always sit in a constant state of limbo waiting for the next this to come along. DirectX 10.1 is a minor incremental update to DX 10, and it won’t really affect games for quite a while. It makes a few features that were optional in DirectX 10 required. We support nearly all of the features anyways with our existing GeForce 8 hardware. NVIDIA works with every leading PC game developer in the world. None of them are currently using DX 10.1 features in the games they are working on for 2008. Developers have been developing for months on DirectX 10 with NVIDIA hardware. We are already starting to see the fruits of that with Crysis, Hellgate: London and other games.
http://hardwarelogic.com/news/138/ARTICLE/1857/2007-11-29.html

reunion
2007-12-01, 21:58:17
Das entscheidende hier ist "nearly". Das einige Features, welche in D3D10 noch optimal waren, und mit D3D10.1 zur Pflicht wurden von einer GF8 bereits unterstützt werden, ist schon lange bekannt. Und das aktuell noch kein Entwickler D3D10.1 nützt, wo es noch nicht mal offiziell ist, verwundert auch nicht sonderlich.

tombman
2007-12-01, 21:59:04
WAYNE. Wird sich eh keiner trauen .1 mandatory in einem game zu machen...

mike49
2007-12-01, 23:05:23
WAYNE. Wird sich eh keiner trauen .1 mandatory in einem game zu machen...
Zwingend bestimmt nicht, allerdings wird M$ zum Launch bestimmt das ein oder andere Game mit einem alternativen DX10.1 Renderpfad aus dem Hut zaubern.

Und spätestens dann bist Du der Erste, der sein Geld beim nächsten Hardware-Dealer für ein neues SLI-Gespann abliefert :biggrin: ;)

tombman
2007-12-01, 23:07:31
Zwingend bestimmt nicht, allerdings wird M$ zum Launch bestimmt das ein oder andere Game mit einem alternativen DX10.1 Renderpfad aus dem Hut zaubern.
Das bezweifel ich mal stark.

Und spätestens dann bist Du der Erste, der sein Geld beim nächsten Hardware-Dealer für ein neues SLI-Gespann abliefert :biggrin: ;)
2008 könnte sich bei tombman EINIGES ändern ;)

Gast
2007-12-01, 23:30:14
2008 könnte sich bei tombman EINIGES ändern ;)
Willst du doch aussteigen? ;)

Ailuros
2007-12-03, 08:07:45
Das entscheidende hier ist "nearly". Das einige Features, welche in D3D10 noch optimal waren, und mit D3D10.1 zur Pflicht wurden von einer GF8 bereits unterstützt werden, ist schon lange bekannt. Und das aktuell noch kein Entwickler D3D10.1 nützt, wo es noch nicht mal offiziell ist, verwundert auch nicht sonderlich.

D3D10.1 heisst fuer die naechsten Refreshes dass die eine Seite die paar zusaetzlichen Vorraussetzungen fuer 10.1 Komplianz hinzufuegt und die andere Seite HW fuer resolve wieder einbaut.

Fuer den Leistungszuwachs den man theoretisch durch 10.1 fuer MSAA oder auch coverage sampling dazugewinnen koennte, liegen im Grunde beide IHVs momentan auf dem "beinahe" Nivaeu.

horn 12
2007-12-03, 08:25:18
Kann nun die HD 2900XT bereits D3D10.1 oder
ausnahmslos nur die 38X0 er Serie.
Was unterscheidet das 10.1 vom normalen D3D10?
Wer kann dies 100 Prozentig abklären,- wohl nur ATI selbst...:confused:

AnarchX
2007-12-03, 09:22:11
Was unterscheidet das 10.1 vom normalen D3D10?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5975179&postcount=71

Kann nun die HD 2900XT bereits D3D10.1 oder
ausnahmslos nur die 38X0 er Serie. [...]
Wer kann dies 100 Prozentig abklären,- wohl nur ATI selbst...:confused:
Ja, aber da man extra die HD3000-Serie eingeführt hat, ist es wohl anzunehmen, dass HD2000 kein D3D10.1 unterstützen wird.