Archiv verlassen und diese Seite im Standarddesign anzeigen : NV38 samt restlichen FX'n vor DX -Ausschluß?
Das wär ja der Hammer...
http://www.gearboxsoftware.com/forums/showflat.php?Cat=&Board=technical&Number=25356&page=0&view=collapsed&sb=5&o=&fpart=1&vc=1&PHPSESSID=
up
mapel110
2003-10-04, 01:46:22
:rofl:
soll das nen april scherz sein?!
Winter[Raven]
2003-10-04, 01:51:36
Also, wirklich dieser Fanboy gelaber übertrifft alles was ich in letzer Zeit gehört habe.
Aber ich muss sagen, der wäre echt gut als April scherz nur kommt er paar Monate zuspäte *gg*
Mordred
2003-10-04, 01:52:53
Hrhr
und wenn schon?! Dann werden demnächst halt mehr OpenGL Sachen geproggt ^^
Welcher Publisher wäre schon so dämlich NV komplett aussen vor zu lassen ;>
Ausserdem halt ich die NEWS für FAKE. Der redet etwa zu ATI Freundlich das deutet dann doch etwas richtung fanATIker :>
Richthofen
2003-10-04, 01:54:59
selbe Empfehlung wie bei Nvnews von mir.
Thread closen.
Dieser Fanboy Crap der in letzter Zeit verbreitet wird ist ja kaum zum ertragen.
betasilie
2003-10-04, 01:55:58
*eg* :lolaway: *eg*
Ist das wahr? ... Wäre einfach zu witzig.
Byteschlumpf
2003-10-04, 01:59:08
An diesen Worten ist allerdings Wahres dran:
Man, NVIDIA just needs to scrap the FX line. We all know the the Ti series of cards were awesome. [censored] FX CARDS, go back to the drawing boards NVIDIA!
Die Gf4 Ti war und ist immernoch nVidias beste Kartenserie!
Schließen?
Mein Vorschlag: ==> Spekulationsforum
Warum sollte das nicht wahr sein können?
Es geht um DX10 und wer weiß, vielleicht steckt mehr dahinter als Dummes Zeug... Abwarten und Fakten, Fakten, Fakten!
up
Nope, I'm hooked by my nondisclosure agreement. As are the others that heard the news. This info is simply unofficial, as DX doesn't want to stir up the industry more than has alredy been done. As some might recall, 3dfx was given the same ultimatum back in 99', yet the news wasn't even released until 2 years later after bankruptsy...
betasilie
2003-10-04, 02:09:53
Original geschrieben von Gast
Schließen?
Mein Vorschlag: ==> Spekulationsforum
Warum sollte das nicht wahr sein können?
Es geht um DX10 und wer weiß, vielleicht steckt mehr dahinter als Dummes Zeug... Abwarten und Fakten, Fakten, Fakten!
up
Also so ganz unglaubwürdig hört sich das wirklich nicht an. Der Det5x ist schon mehrfach negativ aufgefallen und wenn der wirklich was ändert an DX9, obwohl dies ausdrücklich verboten ist, wäre so eine Maßnahme vorstellbar.
Und dieses gegacker, dass NV auf DX schei*** kann und dann einfach voll auf OGL setzt ist absoluter Nonsense. Für NV könnte ein DX-Bann tötlich sein.
Original geschrieben von betareverse
Für NV könnte ein DX-Bann tötlich sein.
tötlich ja :lol:
Mordred
2003-10-04, 02:13:20
Original geschrieben von betareverse
Also so ganz unglaubwürdig hört sich das wirklich nicht an. Der Det5x ist schon mehrfach negativ aufgefallen und wenn der wirklich was ändert an DX9, obwohl dies ausdrücklich verboten ist, wäre so eine Maßnahme vorstellbar.
Und dieses gegacker, dass NV auf DX schei*** kann und dann einfach voll auf OGL setzt ist absoluter Nonsense. Für NV könnte ein DX-Bann tötlich sein.
Icghnhab net gesagt das NV auf OpenGL setzt ich hab gesacht die DEVs :>
Und wenn eine dermaßen große Firma wie NV aussem DX rausfliegt werden eineige sicherlich mehr auf OpenGL proggen da damit BEIDE Firmen bedient wären. Naja und weniger können tut OpenGL nun wirklich nicht (siehe Enclave im OpenGL Modus).
Gut man könnte das langsam machen in dem man NV immer schlechter aussehen lässt, gut wenn man böswillig ist könnte man sagen das DX9 ein Ansatz dazu ist ^^
betasilie
2003-10-04, 02:27:26
Original geschrieben von [KoC]Mordred
Icghnhab net gesagt das NV auf OpenGL setzt ich hab gesacht die DEVs :>
Und wenn eine dermaßen große Firma wie NV aussem DX rausfliegt werden eineige sicherlich mehr auf OpenGL proggen da damit BEIDE Firmen bedient wären. Naja und weniger können tut OpenGL nun wirklich nicht (siehe Enclave im OpenGL Modus).
Gut man könnte das langsam machen in dem man NV immer schlechter aussehen lässt, gut wenn man böswillig ist könnte man sagen das DX9 ein Ansatz dazu ist ^^
Ich weiß worauf Du hinaus willst, aber selbst wenn mehr Developer auf oGL setzen, werden DX-Games mindestens etwa 50% Marktanteil haben und das wäre für NV tödlich. Niemand kauft sich eine GraKa und verzichtet auf einen Großteil der Spiele, weil sie schlichtweg nicht laufen werden.
Original geschrieben von Gast
tötlich ja :lol:
:rofl:
Demirug
2003-10-04, 02:40:17
Das ist jetzt aber wirklich spekulativ. *move*
man nur mutmaßen: DX10 ist eine Art 'Quantensprung'. Da ist die FX sowieso weg vom Fenster, weil FPS von 5-10, wenn überhaupt, bringen eben nix. Denkt mal an den Release von 3dMark 2003 zurück, und das Entsetzen der Leut =)
Die Deals von MS mit Ati sind augenfällig (X-Box2) und die Probs von Nvidia's FX auch ... Wer weiß was sich da hinter den Kulissen abspielt, das DX-Schicksal der FX scheint besiegelt. Die kann nur noch ein Wunder retten!
up
Mordred
2003-10-04, 02:46:17
Original geschrieben von betareverse
Ich weiß worauf Du hinaus willst, aber selbst wenn mehr Developer auf oGL setzen, werden DX-Games mindestens etwa 50% Marktanteil haben und das wäre für NV tödlich. Niemand kauft sich eine GraKa und verzichtet auf einen Großteil der Spiele, weil sie schlichtweg nicht laufen werden.
:rofl:
Niemand kann man net sagen du vergisst sämtliche Tuxer ^^
Spass bei Seite.
Es ist aber wie man an Enclave und vielen anderen spüielen sieht durchaus möglich DirectX und OpenGL zu verwenden also quasi nen hybrid (soweit man da von Hybrid reden kann :>) Also jedenfalls beide APIs zu unterstützen.
Desweiteren gibt es für NV auch noch den professionellen Markt und die Mainboard/MultiMedia Schiene. Also selbst wenn sowas durchgezogen wird (was ich mal derb bezweifel) wirds NVidia nicht das Genick brechen. Dazu diversifizieren sie heute schon zu stark.
Desweiteren darfst du nicht aussen vor lassen das selbst zu DX10 Zeiten noch viele Leute NV Karten haben werden (ob die nun Unterstüzt sind oder nicht) von daher werden die Entwickler (da sie ja immer am minimum ansetzen) größtenteils noch bei Sachen bleiben/oder wechseln wo beides einwandfrei läuft.
Man kann es sich als Entwickler schlicht net erlauben NV raus zu lassen. Soweit sind ATIs dann auch net verbreitet ;)
Aber da die Meldung ohnehin ein Fake ist können wir auch gerne diese deswegen relativ innlose diskussion einstellen ;)
Solltest du weiter diskutieren wollen erwarte keine Antwort vor Morgenmittag ich werd jetzt erstmal ne Mütze schlaf nehmen und mich dann zur Arbeit aufmachen.
Lesetip:
http://www.ukgamer.com/article.php4?id=114&page=1
up
Richthofen
2003-10-04, 03:10:10
Original geschrieben von betareverse
Also so ganz unglaubwürdig hört sich das wirklich nicht an. Der Det5x ist schon mehrfach negativ aufgefallen und wenn der wirklich was ändert an DX9, obwohl dies ausdrücklich verboten ist, wäre so eine Maßnahme vorstellbar.
Und dieses gegacker, dass NV auf DX schei*** kann und dann einfach voll auf OGL setzt ist absoluter Nonsense. Für NV könnte ein DX-Bann tötlich sein.
Ich sage dir was nonsense ist.
Dieser ganze Crap der da von einigen ATI Fanboys verbreitet wird und was anderes ist dieser Post nicht.
Eine US Firma wie MS wird eine US Firma wie Nvidia aus DX ausschliessen, damit eine Canadische Firma das Geschäft machen kann. Da hat man mit einigen fiesen Entscheidungen dafür gesorgt, dass NV nicht zu mächtig wird und holt sich dann den nächsten rein, der die Posi einnehmen will.
Das wird MS ganz bestimmt machen und wenn NV sich dann beschwert wegen Wettbewerbsbenachteiligung werden US Richter und Senatoren bestimmt auch ruhig zusehen, wie eine US Firma darunter leidet....
Also ehrlich abentheuerlicher gehts ja kaum noch.
Die ganzen Typen sind doch alle nur noch krank. Wie lächerich werden die Posts denn noch.
Das ist noch nichtmal spekulativ, das ist einfach nonsense. Da gehe ich jetzt hin und mache so einen Thread über ATI auf.
Ehrlich was manche für einen Blödsinn sich durchlesen - unglaublich.
Demirug
2003-10-04, 03:12:51
Original geschrieben von Gast
Lesetip:
http://www.ukgamer.com/article.php4?id=114&page=1
up
Das übliche Marketinggeblubber. So einen Text gibt es doch immer wenn jemand von MS über das nächste Release eines Produkts schreibt.
betasilie
2003-10-04, 04:09:26
Original geschrieben von Richthofen
Ich sage dir was nonsense ist.
Dieser ganze Crap der da von einigen ATI Fanboys verbreitet wird und was anderes ist dieser Post nicht.
Eine US Firma wie MS wird eine US Firma wie Nvidia aus DX ausschliessen, damit eine Canadische Firma das Geschäft machen kann. Da hat man mit einigen fiesen Entscheidungen dafür gesorgt, dass NV nicht zu mächtig wird und holt sich dann den nächsten rein, der die Posi einnehmen will.
Das wird MS ganz bestimmt machen und wenn NV sich dann beschwert wegen Wettbewerbsbenachteiligung werden US Richter und Senatoren bestimmt auch ruhig zusehen, wie eine US Firma darunter leidet....
Also ehrlich abentheuerlicher gehts ja kaum noch.
Die ganzen Typen sind doch alle nur noch krank. Wie lächerich werden die Posts denn noch.
Das ist noch nichtmal spekulativ, das ist einfach nonsense. Da gehe ich jetzt hin und mache so einen Thread über ATI auf.
Ehrlich was manche für einen Blödsinn sich durchlesen - unglaublich.
Ok, das ganze ist wahrscheinlich ein Fake, aber wenn es denn so wäre, dass der neue Detonator an DX9 etwas verändert, muss M$ reagieren. Ich meine wenn NV DX nicht passt, können sie doch nicht einfach an der API rumdoktern, als ob sie ihnen gehört und Verträge brechen.
Original geschrieben von [KoC]Mordred
Niemand kann man net sagen du vergisst sämtliche Tuxer ^^
Spass bei Seite.
Es ist aber wie man an Enclave und vielen anderen spüielen sieht durchaus möglich DirectX und OpenGL zu verwenden also quasi nen hybrid (soweit man da von Hybrid reden kann :>) Also jedenfalls beide APIs zu unterstützen.
Desweiteren gibt es für NV auch noch den professionellen Markt und die Mainboard/MultiMedia Schiene. Also selbst wenn sowas durchgezogen wird (was ich mal derb bezweifel) wirds NVidia nicht das Genick brechen. Dazu diversifizieren sie heute schon zu stark.
Desweiteren darfst du nicht aussen vor lassen das selbst zu DX10 Zeiten noch viele Leute NV Karten haben werden (ob die nun Unterstüzt sind oder nicht) von daher werden die Entwickler (da sie ja immer am minimum ansetzen) größtenteils noch bei Sachen bleiben/oder wechseln wo beides einwandfrei läuft.
Man kann es sich als Entwickler schlicht net erlauben NV raus zu lassen. Soweit sind ATIs dann auch net verbreitet ;)
Aber da die Meldung ohnehin ein Fake ist können wir auch gerne diese deswegen relativ innlose diskussion einstellen ;)
Solltest du weiter diskutieren wollen erwarte keine Antwort vor Morgenmittag ich werd jetzt erstmal ne Mütze schlaf nehmen und mich dann zur Arbeit aufmachen.
Wieviele Games ünterstützen denn beide APIs? Und wenn beide APIs unterstützt werden, ist der GL-Mode afaik immer der langsamere.
Keine Frage; NV hat mitlerweile noch andere Standbeine, neben der Gamerbranche und das würde sie wahrscheinlich vor dem Untergang bewahren.
Naja, wahrscheinlich sowieso nur ein dummer ake, aber man weiß ja nie. :D
... Gute N8
Mordred
2003-10-04, 04:39:29
Original geschrieben von betareverse
Ok, das ganze ist wahrscheinlich ein Fake, aber wenn es denn so wäre, dass der neue Detonator an DX9 etwas verändert, muss M$ reagieren. Ich meine wenn NV DX nicht passt, können sie doch nicht einfach an der API rumdoktern, als ob sie ihnen gehört und Verträge brechen.
Wieviele Games ünterstützen denn beide APIs? Und wenn beide APIs unterstützt werden, ist der GL-Mode afaik immer der langsamere.
Keine Frage; NV hat mitlerweile noch andere Standbeine, neben der Gamerbranche und das würde sie wahrscheinlich vor dem Untergang bewahren.
Naja, wahrscheinlich sowieso nur ein dummer ake, aber man weiß ja nie. :D
... Gute N8
Da wären
HalfLife/Mods
Unreal/Lizensgames
UT/2003/Mods/LizensGames
Enclave
hmm jut da wären wir am ende der "hybriden" liste :> Gut das viele war etwas voreilig zugegeben :>
Nunja dann käme noch OpenGL only was auch auf allen Karten recht gut läuft.
Quake
Quake2
Quake3
Doom3
sämltiche die mit deren Engines gemacht wurden
NWN
Ok das sind auch wieder recht wenige (aber ich bezweifel mal das ich alle kenne ^^)
Allerdings das OpenGL langsamer ist... Naja bei Enclave isses jedenfalls nicht so. HalfLife ebenso (ok war auch Q1 somit eigntlich OpenGL)
Klar ist natürlich das die Engine jeweils mit der API am besten läuft auf die es optimiert wurde :> Will zum Beispiel net wissen wie ein Quake3 Engine Spiel auf D3D laufen würde (wenns das überhaupt tun würde) ^^
Tatsache ist jedenfalls wenns die möglichkeit gibt dann wird sie auch genutzt :>
Du kennst Entwickler die wollen Kohle. Naja was bringt mehr? Die etwas leichtere Programmierung auf Direct3D oder die zusätzlichen Kunden durch OpenGL?
ICh würde sagen letzteres würde deutlich mehr anklang finden bei den Publisher (die sinds ja eigntlich die die Fäden in der HAnd haben bei sowas).
Ach und ja ich kann nicht schlafen ^^
Ailuros
2003-10-04, 05:21:07
Nur ein Wort zum Thema:
Quatsch.
betasilie
2003-10-04, 05:38:08
Original geschrieben von [KoC]Mordred
Da wären
HalfLife/Mods
Unreal/Lizensgames
UT/2003/Mods/LizensGames
Enclave
hmm jut da wären wir am ende der "hybriden" liste :> Gut das viele war etwas voreilig zugegeben :>
Nunja dann käme noch OpenGL only was auch auf allen Karten recht gut läuft.
Quake
Quake2
Quake3
Doom3
sämltiche die mit deren Engines gemacht wurden
NWN
Ok das sind auch wieder recht wenige (aber ich bezweifel mal das ich alle kenne ^^)
Allerdings das OpenGL langsamer ist... Naja bei Enclave isses jedenfalls nicht so. HalfLife ebenso (ok war auch Q1 somit eigntlich OpenGL)
Klar ist natürlich das die Engine jeweils mit der API am besten läuft auf die es optimiert wurde :> Will zum Beispiel net wissen wie ein Quake3 Engine Spiel auf D3D laufen würde (wenns das überhaupt tun würde) ^^
Tatsache ist jedenfalls wenns die möglichkeit gibt dann wird sie auch genutzt :>
Du kennst Entwickler die wollen Kohle. Naja was bringt mehr? Die etwas leichtere Programmierung auf Direct3D oder die zusätzlichen Kunden durch OpenGL?
ICh würde sagen letzteres würde deutlich mehr anklang finden bei den Publisher (die sinds ja eigntlich die die Fäden in der HAnd haben bei sowas).
Ach und ja ich kann nicht schlafen ^^
Klar ist OGL im Gamingbereich wichtig und oft genutzt. ... Du musst doch aber zugeben, wenn NV von DX ausgeschlossen werden würde, sehe es richtig schlecht aus, egal ob OGL-Spiele 1/3 oder 2/3 Marktanteil hätten. ... imho würden sie das nicht überleben, jedenfalls die GraKa-Schiene für den Gamerbereich, und das ist z.Zt. NVs größter Markt.
Tigerchen
2003-10-04, 06:30:53
Original geschrieben von betareverse
Wieviele Games ünterstützen denn beide APIs? Und wenn beide APIs unterstützt werden, ist der GL-Mode afaik immer der langsamere.
Keine Frage; NV hat mitlerweile noch andere Standbeine, neben der Gamerbranche und das würde sie wahrscheinlich vor dem Untergang bewahren.
Naja, wahrscheinlich sowieso nur ein dummer ake, aber man weiß ja nie. :D
... Gute N8
Die Spiele die ich kenne sind in OpenGL schneller.
Half-life/Opposing Force/Blue Shift
Unreal sowieso.
Und die Progger die ich so zum Thema gehört haben mögen OpenGL sowieso lieber.DirectX soll nicht grade freundlich sein.
egdusp
2003-10-04, 06:48:08
Original geschrieben von betareverse
Klar ist OGL im Gamingbereich wichtig und oft genutzt. ... Du musst doch aber zugeben, wenn NV von DX ausgeschlossen werden würde, sehe es richtig schlecht aus, egal ob OGL-Spiele 1/3 oder 2/3 Marktanteil hätten. ... imho würden sie das nicht überleben, jedenfalls die GraKa-Schiene für den Gamerbereich, und das ist z.Zt. NVs größter Markt.
Ich denke nicht, dass M$ NV von DirectX ausschließen kann/darf. Selbst wenn tatsächlich ein DX employee so etwas gesagt haben sollte, dann wird die Rechtsabteilung sicher da einspringen. Für M$ lohnt es sich nicht ein Risiko (Kartellprozess) einzugehen ohne dass ein Gewinn möglich ist. Und M$ hätte keinen Gewinn. Die Förderung der Graphic Gemeinde (oder so ähnlich), bzw. die Sicherstellung der Integrität von DX, lachhaft. Fürs 2. hat M$ die WHQL Abteilung, das erste ist kein wünschenswertes Ziel für M$. Sie wollen DX als Standard durchsetzten, vor allem da Linux an Fahrt gewinnt und DX die effektivste Möglichkeit ist Spiele unter Linux zu behindern.
Maximal dürfen sie NV von den Beratungen zu DX ausschließen, was dazu führen dürfte, dass so etwas wie jetzt passiert, nämlich einer entwicklet an den Standardanforderungen vorbei.
Zusammengefasst: M$ hat keinen Vorteil von einem Ausschluss irgendeines Grafikchipherstellers aus DX. Sofern die Deto 50 mit WHQL kommen (wovon auszugehen ist), ist bewiesen, wie wahr diese Behauptung bezüglich eines DX Ausschlusses NVs ist.
mfg
egdusp
Razor
2003-10-04, 09:41:46
Original geschrieben von betareverse
Also so ganz unglaubwürdig hört sich das wirklich nicht an. Der Det5x ist schon mehrfach negativ aufgefallen und wenn der wirklich was ändert an DX9, obwohl dies ausdrücklich verboten ist, wäre so eine Maßnahme vorstellbar.
Mega-:lol:
Sag mal, beta, geht's noch ? Oder ist es schon zu spät ?
:D
Da wurde geschrieben, dass der Deto50 etwas in der DX9.0b Runtime verändert, welches nur durch eine Neuinstallation von DX zu beheben ist. Auch wird davor gewarnt, den Deto50 überhaupt zu installieren...
Das ist Crap !Und zwar allerübelster Sorte !
Sei Dir gewiss, es wird NICHTS an DX9 verändert... wozu auch ? Wer sich ein bissel mit der Materie auskennt, sollte sofort über dieses kleine 'Detail' stolpern und diesen Mist als das ansehen, was es ist: Crap !
Dass Du darauf sofort anspringst, war ja klar, aber auch Dir müsste klar sein, dass die DX-Runtime ja nicht das Problem ist, sondern vielmehr die für ATI optimierten, vorcompilierten Shader. Eine Änderung an der Runtime würde da überhaupt nichts bringen.
Also bitte: Etwas mehr Realismus würde hier echt nicht schaden...
Und klar, NDA aber trotzdem Inhalte zum Besten geben.
:lol:
Razor
Richthofen
2003-10-04, 11:46:22
[SIZE=1]Original geschrieben von egdusp
Ich denke nicht, dass M$ NV von DirectX ausschließen kann/darf. Selbst wenn tatsächlich ein DX employee so etwas gesagt haben sollte, dann wird die Rechtsabteilung sicher da einspringen. Für M$ lohnt es sich nicht ein Risiko (Kartellprozess) einzugehen ohne dass ein Gewinn möglich ist. Und M$ hätte keinen Gewinn.
Den hätten sie auch nicht. Das einzige was sie hätten ist Ärger mit den Behörden und wenn es darum geht, dass eine US Firma benachteiligt wird, dann stehen die in den USA sehr sehr schnell auf dem Plan. Daran hat MS bei der ganzen negativ PR die um sie ohnehin schon da ist nun wirklich kein Interesse.
Vor allem gewinnen sie absolut nix dabei.
Maximal dürfen sie NV von den Beratungen zu DX ausschließen, was dazu führen dürfte, dass so etwas wie jetzt passiert, nämlich einer entwicklet an den Standardanforderungen vorbei.
Ich glaube auch das wird nicht passieren. Die haben beim letzten mal - das ist zumindest mein Eindruck - absichtlich zu Nvidias Vorstellung nein gesagt und das zu einem recht späten Zeitpunkt, als die schon voll am entwickeln waren. Denen ist Nvidia zu mächtig geworden. Einen 2. Intel wollten die einfach nicht. Würden sie Nvidia ausschliessen, würden sie das Problem nur durch eine andere Firma ersetzen. Dann würde ATI zu mächtig werden, weil bei Nvidia das Geschäft dann drunter erheblich leidet.
Ich glaube nicht, dass dies ihr Ziel ist. Die wollen lieber beide gegeneinander ausspielen damit die sich die Wage halten. Das wiederum halte ich natürlich für sehr bedenklich. Es gefällt mir nämlich überhaupt nicht, dass eine Monopolfirma wie MS über Erfolg und Mißerfolg anderer IHVs entscheidet und was anderes tun die nicht.
Normalerweise müssten die DX Specs von einem unabhängigen Konsortium getroffen werden, in denen alle mit gleicher Stimme vorhanden sind - zumindest die Großen.
Das Gelaber hinter dem Link ist natürlich totaler Schwachsinn und es nervt mittlerweile wie solcher Crap überall verbreitet wird. Da scheinen sich einige bei rage3d im Forum arg zu langweilen.
Original geschrieben von betareverse
Wieviele Games ünterstützen denn beide APIs? Und wenn beide APIs unterstützt werden, ist der GL-Mode afaik immer der langsamere.
Serious Sam (SE) -> oGL schneller (auf nV)
Unreal Tournament -> oGL schneller (auf nV), mit neueren Builds eher ausgeglichen
zeckensack
2003-10-04, 13:22:12
@Topic:
Blödsinn
Ich glaubs auch nicht.
Aber interessant zu sehen wie die, die andere als Fanboys schimpfen, sich ereifern und an die Decke gehen wie die Raketen. Jungens, Blutdruck wieder runter und schön ruhig bleiben.
betasilie
2003-10-04, 15:24:08
Original geschrieben von egdusp
Maximal dürfen sie NV von den Beratungen zu DX ausschließen, was dazu führen dürfte, dass so etwas wie jetzt passiert, nämlich einer entwicklet an den Standardanforderungen vorbei.
Zusammengefasst: M$ hat keinen Vorteil von einem Ausschluss irgendeines Grafikchipherstellers aus DX. Sofern die Deto 50 mit WHQL kommen (wovon auszugehen ist), ist bewiesen, wie wahr diese Behauptung bezüglich eines DX Ausschlusses NVs ist.
mfg
egdusp
1) Hast schon recht. Wenn überhaupt, wäre NV wohl lediglich von den Gesprächen zum DX10 Standard ausgeschlossen.
2) Das WHQL-Siegel wird es wohl entgültig klären.
Original geschrieben von Razor
Mega-:lol:
Sag mal, beta, geht's noch ? Oder ist es schon zu spät ?
:D
Da wurde geschrieben, dass der Deto50 etwas in der DX9.0b Runtime verändert, welches nur durch eine Neuinstallation von DX zu beheben ist. Auch wird davor gewarnt, den Deto50 überhaupt zu installieren...
Das ist Crap !Und zwar allerübelster Sorte !
Sei Dir gewiss, es wird NICHTS an DX9 verändert... wozu auch ? Wer sich ein bissel mit der Materie auskennt, sollte sofort über dieses kleine 'Detail' stolpern und diesen Mist als das ansehen, was es ist: Crap !
Dass Du darauf sofort anspringst, war ja klar, aber auch Dir müsste klar sein, dass die DX-Runtime ja nicht das Problem ist, sondern vielmehr die für ATI optimierten, vorcompilierten Shader. Eine Änderung an der Runtime würde da überhaupt nichts bringen.
Also bitte: Etwas mehr Realismus würde hier echt nicht schaden...
Und klar, NDA aber trotzdem Inhalte zum Besten geben.
:lol:
Razor
Ich spiele ja nur ein imaginäres Szenario durch. ;)
LOL
Ich bin zwar auch ein ATi (und PowerVR ;)) Fan, aber das ist einfach nur lächerlich.:lolaway:
DerKrampus
2003-10-04, 16:03:48
Original geschrieben von R300
LOL
Ich bin zwar auch ein ATi (und PowerVR ;)) Fan, aber das ist einfach nur lächerlich.:lolaway:
full ack
auch wenn nv irgendwas am DX drehen würde (was sehr sehr unwahrscheinlich ist, eigentlich nicht vorstellbar) wirds max. eine Standpauke von MS geben, aber Auschluß selten so gelacht.
The_Invisible
2003-10-04, 16:04:08
lol, gehts noch lächerlicher?
mfg
StefanV
2003-10-04, 16:07:05
Original geschrieben von zeckensack
@Topic:
Blödsinn
Naja, soo ganz abweisen kann man es ehrlich gesagt nicht...
M$ dürfte es nicht wirklich gefallen, was nV teilweise macht...
Demirug
2003-10-04, 16:08:02
Vorallem frage ich mich was nV an der DX-Runtime patchen will? Wenn sie bescheissen wollen dann haben sie in den Treibern mehr als genügend Möglichkeiten dafür.
Razor
2003-10-04, 16:16:40
Original geschrieben von betareverse
1) Hast schon recht. Wenn überhaupt, wäre NV wohl lediglich von den Gesprächen zum DX10 Standard ausgeschlossen.
Damit würde sich M$ selber ins Knie schießen...
Warum sollten sie so etwas unsinniges tun ?
???
Original geschrieben von betareverse
2) Das WHQL-Siegel wird es wohl entgültig klären.
Das WHQL-'Siegel' hat noch nie irgendwas endgültig geklärt...
(der Sinn und Zweck dessen bleibt mir bis heute verschlossen ;-)
Original geschrieben von betareverse
Ich spiele ja nur ein imaginäres Szenario durch. ;)
Sehr schön... gib's zu, Du hättest es liebend gern gesehen, dass so etwas stimmt.
(auch wenn es noch so abwegig und haarstäubend ist ;-)
Razor
Razor
2003-10-04, 16:20:17
Original geschrieben von Stefan Payne
Naja, soo ganz abweisen kann man es ehrlich gesagt nicht...
M$ dürfte es nicht wirklich gefallen, was nV teilweise macht...
Dass so etwas von Dir kommt, war ja klar...
:lol:
Razor
P.S.: M$ dürfte sich für rein gar nichts interessieren, was von den IHV's kommt... es sei denn, es ist Geld... ;)
StefanV
2003-10-04, 16:22:33
Original geschrieben von Demirug
Vorallem frage ich mich was nV an der DX-Runtime patchen will? Wenn sie bescheissen wollen dann haben sie in den Treibern mehr als genügend Möglichkeiten dafür.
Tjo, womöglich geht genau das M$ etwas auf die Nerven, daß bescheisen...
Richthofen
2003-10-04, 17:00:24
Original geschrieben von Stefan Payne
Tjo, womöglich geht genau das M$ etwas auf die Nerven, daß bescheisen...
Daran ist doch MS selber schuld. Sie waren es doch die sich mit DX9 nicht ausgekäst haben und dann Nvidia ins Messer haben laufen lassen.
Über was wollen die sich da wohl aufregen?
Die sollten lieber aufpassen, dass es keine Beschwerden gibt wegen Benachteiligung. Monopolmißbrauch ist ungern gesehen und das DX kann man schon fast in diese Ecke drängen, denn sie beeinflussen damit das Marktgeschehen im 3D Chip Markt.
betasilie
2003-10-04, 17:20:12
Original geschrieben von Razor
Damit würde sich M$ selber ins Knie schießen...
Warum sollten sie so etwas unsinniges tun ?
???
Haben sie doch quasi mit DX9 getan. :naughty: Wo ist das Problem? Bisher hat nur NV darunter gelitten.
Original geschrieben von Razor
Das WHQL-'Siegel' hat noch nie irgendwas endgültig geklärt...
(der Sinn und Zweck dessen bleibt mir bis heute verschlossen ;-)
Mir ist der Sinn schon klar. M$ wird mit jedem Siegel reicher. ;) ... Falls aber nur ein Funken Wahrheit an dem Topic sein sollte, wird M$ NV kein Siegel geben, wenn da an der Runtime von DX rumgemacht wird.
Original geschrieben von Razor
Sehr schön... gib's zu, Du hättest es liebend gern gesehen, dass so etwas stimmt.
(auch wenn es noch so abwegig und haarstäubend ist ;-)
Razor
Nicht wirklich, obwohl ich NV momentan einen kleinen Schock gönnen würde. *eg* Ich setze sehr viel Hoffnung in den NV40 und halte es für gut möglich, dass das meine nächste GPU werden wird. Trotzdem geht mir NV z.Zt. ziemlich auf den Senkel, aber meine Meinung wird sich mit entsprechender Hardware wieder ändern.
Tigerchen
2003-10-04, 18:42:24
Original geschrieben von Richthofen
Daran ist doch MS selber schuld. Sie waren es doch die sich mit DX9 nicht ausgekäst haben und dann Nvidia ins Messer haben laufen lassen.
Über was wollen die sich da wohl aufregen?
Die sollten lieber aufpassen, dass es keine Beschwerden gibt wegen Benachteiligung. Monopolmißbrauch ist ungern gesehen und das DX kann man schon fast in diese Ecke drängen, denn sie beeinflussen damit das Marktgeschehen im 3D Chip Markt.
Ausgerechnet der erbarmungslose Richthofen macht hier die Mitleidsnummer?
Ob dein Gejammer wohl genauso groß wär wenn bei DX alles nach nV's Willen gegangen wär?
Aber dann wäre die Häme gegenüber den Mitbewerbern wieder groß gewesen.Wollen wir wetten?
egdusp
2003-10-04, 20:03:49
Original geschrieben von Tigerchen
Ausgerechnet der erbarmungslose Richthofen macht hier die Mitleidsnummer?
Ob dein Gejammer wohl genauso groß wär wenn bei DX alles nach nV's Willen gegangen wär?
Aber dann wäre die Häme gegenüber den Mitbewerbern wieder groß gewesen.Wollen wir wetten?
AFAIK ist bisher immer der jeweilige Technologiefüher als DX Bestimmer gewählt worden.
Bei DX7 NV, bei DX8 3dfx (die dann aber leider nicht liefern konnten) und bei DX9 war NV Technologieführer (das NV3x Design war viel weiter fortgeschritten als das R3xx Design) und wurde trotzdem nicht bedacht.
Ich denke, NV wurde da wirklich direkt beanchteiligt. Ob das jetzt mit böser Absicht geschah ist eine andere Frage. Bei CineFX waren auch einige für Gamer unvorteilhafte Designentscheidungen.
mfg
egdusp
Black-Scorpion
2003-10-04, 20:53:07
Original geschrieben von egdusp
AFAIK ist bisher immer der jeweilige Technologiefüher als DX Bestimmer gewählt worden.
Bei DX7 NV, bei DX8 3dfx (die dann aber leider nicht liefern konnten) und bei DX9 war NV Technologieführer (das NV3x Design war viel weiter fortgeschritten als das R3xx Design) und wurde trotzdem nicht bedacht.
Ich denke, NV wurde da wirklich direkt beanchteiligt. Ob das jetzt mit böser Absicht geschah ist eine andere Frage. Bei CineFX waren auch einige für Gamer unvorteilhafte Designentscheidungen.
mfg
egdusp
Ich hoffe du glaubst nicht selber was du da geschrieben hast.
Alle Hersteller bringen ihre Vorschläge ein und M$ legt dann fest wie DX aussieht.
Und da entscheidet der kleinste Level und nicht was NV gefällt.
Stell dir mal vor, wie groß das geschrei wäre, wenn NV seine Vorstellung bei DX9 durchgestzt hätte.
Dann hätte bei Gamern kein anderer Hesteller mehr ein reelle Chance gehabt.
LovesuckZ
2003-10-04, 20:58:26
Original geschrieben von Anonym_001
Und da entscheidet der kleinste Level und nicht was NV gefällt.
"Kleinste Level" bedeute dann wohl minimum FP16 ohne _pp Hint. Warum also ausgerechnet FP24? Ein Widersprich in deiner Argumentationskette.
Wenn wir uns die anderen Minimum Vorraussetzungen angucken, ist es komisch, dass sie immer genau auf dem Niveau von ATi liegen.
reunion
2003-10-04, 20:59:42
Original geschrieben von egdusp
(das NV3x Design war viel weiter fortgeschritten als das R3xx Design)
:lol:
Soweit ich mich erinnern kann kam der R300 ein ganzes Stückchen vorm NV30 raus...
reunion
2003-10-04, 21:02:09
Original geschrieben von LovesuckZ
"Kleinste Level" bedeute dann wohl minimum FP16 ohne _pp Hint. Warum also ausgerechnet FP24? Ein Widersprich in deiner Argumentationskette.
[/SIZE]
Da NV ja auch FP32 unterstützt, ist das kleinste Level FP24.
Wenn wir uns die anderen Minimum Vorraussetzungen angucken, ist es komisch, dass sie immer genau auf dem Niveau von ATi liegen.
Kennst du den Spruch "kleinster gemeinsamer Nenner" ???
Demirug
2003-10-04, 21:05:25
Original geschrieben von reunion
:lol:
Soweit ich mich erinnern kann kam der R300 ein ganzes Stückchen vorm NV30 raus...
Leistung oder Features?
LovesuckZ
2003-10-04, 21:06:42
Original geschrieben von reunion
Da NV ja auch FP32 unterstützt, ist das kleinste Level FP24.
Aeh? FP24 ist bestimmt nicht das kleinste Level, wenn jemand FP16 und FP32 anbietet. Denn dann haette auch FP32 als minimum ohne _pp hint sein koennen...
Kennst du den Spruch "kleinster gemeinsamer Nenner" ???
Ach und den hat man bei den FP Berechnungen wohl vergessen :schlag:
Demirug
2003-10-04, 21:09:04
Original geschrieben von reunion
Kennst du den Spruch "kleinster gemeinsamer Nenner" ???
Genau. Die 2.0 Shader stellen den kleinsten gemeinsamen Nenner da den alle beiteiligten erfüllen können. Hätte nVidia keinen FP32 Support eingebaut dann wäre mit an sicherheit grenzende Wahrscheinlichkeit FP16 das minimum für PS 2.0 geworden. Es wäre aber für nV mehr als peinlich geworden wenn die FXen bei den PS 1.1 plötzlich eine schlechtere Qualität erzeugt hätten als die 4 TI Chips.
Black-Scorpion
2003-10-04, 21:09:05
Original geschrieben von LovesuckZ
"Kleinste Level" bedeute dann wohl minimum FP16 ohne _pp Hint. Warum also ausgerechnet FP24? Ein Widersprich in deiner Argumentationskette.
Wenn wir uns die anderen Minimum Vorraussetzungen angucken, ist es komisch, dass sie immer genau auf dem Niveau von ATi liegen. [/SIZE]
Demirug sagte mal das von ATI auch nicht alles in DX9 drinn ist.
Vielleicht wollte M$ für DX9 auch FP32, was aber wegen ATI nicht ging.
LovesuckZ
2003-10-04, 21:10:33
Original geschrieben von Anonym_001
Vielleicht wollte M$ für DX9 auch FP32, was aber wegen ATI nicht ging.
Dann haette man FP32 als Minimum gesetzt und FP16 sowie 24 waere mit _pp Hint erlaubt. Oder man haette FP16 als Minimum ohne Hint gemacht. Aber das man genau FP24 nimmt, ist doch schon sehr komisch...
Black-Scorpion
2003-10-04, 21:13:32
Original geschrieben von LovesuckZ
Dann haette man FP32 als Minimum gesetzt und FP16 sowie 24 waere mit _pp Hint erlaubt. Oder man haette FP16 als Minimum ohne Hint gemacht. Aber das man genau FP24 nimmt, ist doch schon sehr komisch...
Schau mal über meinen Post.
Die Frage hat Demirug schon beantwortet.
StefanV
2003-10-04, 21:15:57
Original geschrieben von LovesuckZ
Dann haette man FP32 als Minimum gesetzt und FP16 sowie 24 waere mit _pp Hint erlaubt. Oder man haette FP16 als Minimum ohne Hint gemacht. Aber das man genau FP24 nimmt, ist doch schon sehr komisch...
:rofl:
Und ATI damit direkt an den Karren fahren, welche schon mehr oder minder ein fertiges Produkt hatten??
Sorry, aber irgendwie...
reunion
2003-10-04, 21:18:39
Original geschrieben von Demirug
Leistung oder Features?
Häää ???
Ich glaube du verstehst mich falsch, ich rede vom Erscheinungsdatum...
LovesuckZ
2003-10-04, 21:21:16
Original geschrieben von Stefan Payne
:rofl:
Und ATI damit direkt an den Karren fahren, welche schon mehr oder minder ein fertiges Produkt hatten??
Sorry, aber irgendwie...
Die haetten ja ihr Design aendern koennen, wurde doch Nvidia auch immer wieder vorgeworfen...
reunion
2003-10-04, 21:22:00
Original geschrieben von LovesuckZ
Ach und den hat man bei den FP Berechnungen wohl vergessen :schlag:
Ich glaube du hast in Mathe nie besonders gut aufgepasst ;)
Kleinster gemeinsamer Nenner ist das höchstmöglich was von allen unterstützt wird!
Demirug
2003-10-04, 21:23:10
Original geschrieben von reunion
Häää ???
Ich glaube du verstehst mich falsch, ich rede vom Erscheinungsdatum...
Sorry, ich habe ein Wort falsch gelesen.
*monitorputztuchsuchen*
reunion
2003-10-04, 21:24:05
Original geschrieben von LovesuckZ
Die haetten ja ihr Design aendern koennen, wurde doch Nvidia auch immer wieder vorgeworfen...
Und warum sollte man das verlangen ???
Demirug
2003-10-04, 21:27:50
Es war AFAIK David Kirk der gesagt hat das zu dem Zeitpunkt als man mit dem Design der NV3X Reihe angefangen hat FP32 als Plicht für die PS im Gespräch war. Diese Forderung aber später in der finalen Spec auf FP24 reduziert wurde.
Zu dem _pp hätte es auch noch eine Alternative gegeben. FP16 als Standard und mit _hp (High Precision) hätte man dann >= FP24 anfordern müssen.
reunion
2003-10-04, 21:28:08
Original geschrieben von ow
???
FP16 als Minimum hätte ATi doch komplett egal sein können, weil die Chips das eh nicht können. Die haben doch keinen Nachteil dadurch.
Doch, dann müsste ATI ständig eine höhere Genauigkeit liefen, als erforderlich, was die Leistung sicher nicht positiv beeinflusst hätte ;)
Vielleich hat M$ einfach FP16 als zu "ungenau" empfunden für PS2.0 Shader, und da NV ja auch FP32 bot nahm man den kleinsten gemeinsamen Nenner.
LovesuckZ
2003-10-04, 21:47:43
Original geschrieben von reunion
Doch, dann müsste ATI ständig eine höhere Genauigkeit liefen, als erforderlich, was die Leistung sicher nicht positiv beeinflusst hätte ;)
schlimm, schlimm sowas. Zum Glueck haben wir diese Situation heutzutage nicht...
und da NV ja auch FP32 bot nahm man den kleinsten gemeinsamen Nenner.
Der kleinste gemeinsame Nenner ist FP16.
/edit: Ausserdem ist es schwer, einen kleinsten gemeinsamen nenner zu finden, wenn es 3 Unterschiedliche Formate gibt, die kein Chip insgesamt unterstuetzt...
reunion
2003-10-04, 21:48:42
Original geschrieben von ow
Verlieren ATi Chips Leistung bei Fp16?
Hm... soweit ich informiert bin unterstützen ATI-Chips nur FP24, das heißt wenn M$ FP16 als Standart eingeführt hätte müssten die ATI-Chips trozdem mit FP24 rechnen, oder ???
reunion
2003-10-04, 21:52:39
Original geschrieben von LovesuckZ
schlimm, schlimm sowas. Zum Glueck haben wir diese Situation heutzutage nicht...
;)<<-- Kennst du sowas ??
Der kleinste gemeinsame Nenner ist FP16.
/edit: Ausserdem ist es schwer, einen kleinsten gemeinsamen nenner zu finden, wenn es 3 Unterschiedliche Formate gibt...
Was ist daran schwer einen kleinsten gemeinsamen Nenner zu finden ??
NV bietet FP16 und FP32, ATI nur FP24.
Der kleinste gemeinsame Nenner den alle mindestens unterstützen ist also FP24!
PS.:Und nochmal extra für dich, der kleinste gemeinsame Nenner ist das höchstmögliche(!!) das von allen unterstützt wird!!!!!
LovesuckZ
2003-10-04, 21:55:17
Original geschrieben von reunion
Was ist daran schwer einen kleinsten gemeinsamen Nenner zu finden ??
NV bietet FP16 und FP32, ATI nur FP24.
Der kleinste gemeinsame Nenner den alle mindestens unterstützen ist also FP24!
Nvidia unterstuetzt kein FP24!
reunion
2003-10-04, 21:57:52
Original geschrieben von LovesuckZ
Nvidia unterstuetzt kein FP24! [/SIZE]
Und??
Aber FP32 ist größer als FP24!
Also ist der kleinste gemeinsame Nenner FP24!
Verstehst du das wirklich nicht oder willst du mich nur verarschen ?? ;)
LovesuckZ
2003-10-04, 21:59:41
Original geschrieben von reunion
Und??
Aber FP32 ist größer als FP24!
Also ist der kleinste gemeinsame Nenner FP24!
Verstehst du das wirklich nicht oder willst du mich nur verarschen ?? ;)
Aehm, FP32 und FP24 sind groeßer als FP16, also muesste es nach deiner Logik FP 16 sein...
/edit: Ausserdem waere es für ATi doch egal, ob nun FP16 oder FP24 Minimum waere, da sie sowieso alles nur mit FP24 berechnen.
Black-Scorpion
2003-10-04, 22:09:04
Original geschrieben von LovesuckZ
Aehm, FP32 und FP24 sind groeßer als FP16, also muesste es nach deiner Logik FP 16 sein...
/edit: Ausserdem waere es für ATi doch egal, ob nun FP16 oder FP24 Minimum waere, da sie sowieso alles nur mit FP24 berechnen.
------------------------------------------------------------
Genau. Die 2.0 Shader stellen den kleinsten gemeinsamen Nenner da den alle beiteiligten erfüllen können. Hätte nVidia keinen FP32 Support eingebaut dann wäre mit an sicherheit grenzende Wahrscheinlichkeit FP16 das minimum für PS 2.0 geworden. Es wäre aber für nV mehr als peinlich geworden wenn die FXen bei den PS 1.1 plötzlich eine schlechtere Qualität erzeugt hätten als die 4 TI Chips.
------------------------------------------------------------
Das hat Demirug eine Seite vorher zum Thema gesagt.
reunion
2003-10-04, 22:10:42
Original geschrieben von LovesuckZ
Aehm, FP32 und FP24 sind groeßer als FP16, also muesste es nach deiner Logik FP 16 sein...
Nein!
Es wird das höchstmögliche genommen das von allen unterstützt wird!!!!!!!!!!!!!!!!
/edit: Ausserdem waere es für ATi doch egal, ob nun FP16 oder FP24 Minimum waere, da sie sowieso alles nur mit FP24 berechnen.
Für ATI schon, aber für M$ nicht ;)
LovesuckZ
2003-10-04, 22:16:41
Original geschrieben von Anonym_001
Das hat Demirug eine Seite vorher zum Thema gesagt.
ich habe es gesehen. Trotzdem ergibt FP24 als Minimum ohne _pp Hint keinen Sinn, wenn eine andere Architektur auch noch FP16 unterstuetzt. Vorallen dann, wenn die einzigste Architektur, mit FP24, genau diese eine Genauigkeit kennt...
Original geschrieben von reunion
Nein!
Es wird das höchstmögliche genommen das von allen unterstützt wird!!!!!!!!!!!!!!!!
Dir ist bewusst, dass Nvidia keine FP24 Unterstuetzung hat sondern "nur" FP16 und FP32. Wenn FP16 Minimum waere, aendere (konjunktiv) sich aus Sicht der Entwickler für die ATi Hardware doch gar nichts...
reunion
2003-10-04, 22:20:59
Original geschrieben von LovesuckZ
Dir ist bewusst, dass Nvidia keine FP24 Unterstuetzung hat sondern "nur" FP16 und FP32. Wenn FP16 Minimum waere, aendere (konjunktiv) sich aus Sicht der Entwickler für die ATi Hardware doch gar nichts...
Anscheinend hat M$ FP16 aber als zu ungenau empfunden...
LovesuckZ
2003-10-04, 22:23:23
Original geschrieben von reunion
Anscheinend hat M$ FP16 aber als zu ungenau empfunden...
Wenn ich mir die Kommentare von Demirug ansehe, dann sei FP24 für viele Anweisungen auch schon overkill und FP16 reiche locker aus. Für die Sachen, die mehr erfordern, gibt es dann bei Nvidia immer noch FP32.
(del676)
2003-10-05, 00:51:56
also wenn man sich diesen thread so durchliest ...
jeder will der intelligenteste, jeder weiss es besser, jeder beschuldigt den gegenüber ein fanboy zu sein
aber eines habt ihr alle gemeinsam - ihr führt euch auf die kleinkinder die drüber streiten ob eine Knight Rider Schultasche besser ist als eine Mac Gyver :eyes: :eyes:
und was bringt euch eure streitereien?
ändert sich dadurch was?
findet ihr was raus (ausser blanke vermutungen)?
deekey777
2003-10-05, 01:18:37
Hm, auch hier eine Diskussion um die FP-Genauigkeit. Wer braucht schon >FP16, wenn schon FP16 richtig gut aussehen soll? Wozu dann DX9? Wozu dann die gesamte Entwicklung der letzten 5-6 Jahre? Auch DX6-Spiele (zB R6: Rogue Spear) sind gut (so gar besser als DX9-Titel in Sachen, die keine Grafik sind). Aber zum ersten Mal gibt es einen richtigen Fortschritt. Kleine Zusammenfassung der Zeit zw. DX7 und DX9: DX7 - die letzte D3D-API ohne Freiraum (fixed-function API); DX8 - "locker" programmierbare Shader, hardware-centric API, aber kleine HW-Wehwehchen; DX8.1 - noch mehr Verwirrung, da wieder "hardware-centric" API, aber mit einer anderen Registerarchitektur; DX9 - Hurra! Endlich Fortschritt! HW-unabhängige High-level Shading Language. Und dieser Fortschritt verlangt nun mal mindestens FP24.
Zu OpenGL: So lange es kein standartisiertes OpenGL2.0 gibt, ist OpenGL keine Alternative, da jeder unbedingt was eigenes im Code sehen will. OpenGL1.x ist alt - über 10 Jahre! Hier wird es Zeit für 2.0, denn Direct3D hat OpenGL schon überholt.
Zu der eigentlichen Diskussion: Wenn das war ist - und? nVidia ist der grösste und der wichtigste Grafikchiphersteller der Welt. Mit der FX-Serie haben die Kalifornier etwas Mist gebaut. Man kann sie doch nicht aus der DX10-Entwicklung ausschliessen, nur weil sie, um ihr Unternehmen zu retten, etwas gemoggelt haben.
Ailuros
2003-10-05, 03:08:42
Original geschrieben von Ulukay
also wenn man sich diesen thread so durchliest ...
jeder will der intelligenteste, jeder weiss es besser, jeder beschuldigt den gegenüber ein fanboy zu sein
aber eines habt ihr alle gemeinsam - ihr führt euch auf die kleinkinder die drüber streiten ob eine Knight Rider Schultasche besser ist als eine Mac Gyver :eyes: :eyes:
und was bringt euch eure streitereien?
ändert sich dadurch was?
findet ihr was raus (ausser blanke vermutungen)?
POPCORN zur Hand nehmen und sich im Comfy-chair totlachen. Wie oft hat man Entertainment for free? ;D
Razor
2003-10-05, 08:34:44
Original geschrieben von reunion
Ich glaube du hast in Mathe nie besonders gut aufgepasst ;)
Kleinster gemeinsamer Nenner ist das höchstmöglich was von allen unterstützt wird!
Na dann mal eine kleine Nachhilfestunde in Math für Dich:
Das wovon Du da redest ist (wenn überhaupt) der größte gemeinsame Nenner !
(der unterschied zwischen klein und groß sollte eigentlich gegenwärtig sein ;-)
Original geschrieben von reunion
Doch, dann müsste ATI ständig eine höhere Genauigkeit liefen, als erforderlich, was die Leistung sicher nicht positiv beeinflusst hätte ;)
Du meinst also die Situation, wie sie jetzt bei nVidia vorliegt hätte dann ATI getroffen ?
Ja, korrekt !
:D
Original geschrieben von reunion
Es wird das höchstmögliche genommen das von allen unterstützt wird!!!!!!!!!!!!!!!!
Sag mal, geht's noch ?
FP24 wird NUR von ATI unterstützt... es ist kein Nenner !
(wirklich interessate Auslegung mathematischer Prinzipien ;-)
Original geschrieben von reunion
Anscheinend hat M$ FP16 aber als zu ungenau empfunden...
Und deswegen FP16 mit _pp-Hint zugelassen ?
Sag mal, glaubst Du wirklich daran ?
???
Razor
Hellknight[FA]
2003-10-05, 11:22:29
Original geschrieben von Stefan Payne
Tjo, womöglich geht genau das M$ etwas auf die Nerven, daß bescheisen...
... und mir Deine Rechtschreibfehler :asshole:
Dann ist ATi genauso schuldig wie NVidia... dann dürften die ja in DX10 keine GraKa mehr unterstützen lt. Deiner Auffassung :D
Demirug
2003-10-05, 12:20:41
Original geschrieben von deekey777
Hm, auch hier eine Diskussion um die FP-Genauigkeit. Wer braucht schon >FP16, wenn schon FP16 richtig gut aussehen soll?
Eine ähnliche Frage könnte man sich auch bei den CPUs stellen. Warum werden mehr als 32Bit Fliespunktzahlen unterstützt obwohl man doch alles damit rechnen kann. Es gibt eben immer wieder Fälle wo das "normale" Format nicht mehr ausreicht.
Wozu dann DX9? Wozu dann die gesamte Entwicklung der letzten 5-6 Jahre? Auch DX6-Spiele (zB R6: Rogue Spear) sind gut (so gar besser als DX9-Titel in Sachen, die keine Grafik sind). Aber zum ersten Mal gibt es einen richtigen Fortschritt.
Neue DX-Versionen sind ein Werbemittel und festigen die Dominanz von Windows als Spieleplatform.
Kleine Zusammenfassung der Zeit zw. DX7 und DX9: DX7 - die letzte D3D-API ohne Freiraum (fixed-function API); DX8 - "locker" programmierbare Shader, hardware-centric API, aber kleine HW-Wehwehchen; DX8.1 - noch mehr Verwirrung, da wieder "hardware-centric" API, aber mit einer anderen Registerarchitektur; DX9 - Hurra! Endlich Fortschritt! HW-unabhängige High-level Shading Language. Und dieser Fortschritt verlangt nun mal mindestens FP24.
Ich kann mit HLSL (und auch Cg) auch Shader für DX 8 Karten compilieren. Und warum soll eine Hochsprache mindestens genau FP24 brauche? C, Pascal oder was auch immer sind ebenfalls Hochsprachen und dort werden auch Integertypen unterstützt.
Zudem gehört die ganze HLSL geschichte gar nicht zu DX9 selbst sondern ist ein Teil des DX9-SDKs. DX9 selbst arbeitet bei den Shadern nach wie vor auf "Assembler" ebene. Wobei dieser Assemblercode nicht direkt von den Grafikchips verstanden wird und daher eher eine Art Bytecode darstellt.
Zu OpenGL: So lange es kein standartisiertes OpenGL2.0 gibt, ist OpenGL keine Alternative, da jeder unbedingt was eigenes im Code sehen will. OpenGL1.x ist alt - über 10 Jahre! Hier wird es Zeit für 2.0, denn Direct3D hat OpenGL schon überholt.
Die Shaderhochsprache ging jetzt aber schon bei 1.5 ein. Das Problem ist aber das sich dadurch nur etwas für neue Karten (DX9-Techlevel) ändert. Für diese Karten gab es aber schon eine allgemein Extension für die Fragmentshader.
Razor
2003-10-05, 13:20:12
Original geschrieben von Demirug
Die Shaderhochsprache ging jetzt aber schon bei 1.5 ein. Das Problem ist aber das sich dadurch nur etwas für neue Karten (DX9-Techlevel) ändert. Für diese Karten gab es aber schon eine allgemein Extension für die Fragmentshader.
Sicher ?
Habe grad' mal mit dem neuen OpenGL Viewer geschaut...
Und danach sieht's schon wieder anders aus.
Hast Du oder vielleicht Zecki nähere Info's dazu ?
???
Razor
XERXES-8933A/A
2003-10-05, 13:53:07
.....
Razor
2003-10-05, 14:25:25
Bezug zum Thread-Thema oder gar Inhalten ?
???
Razor
XERXES-8933A/A
2003-10-05, 14:29:56
.....
Richthofen
2003-10-05, 15:18:02
Original geschrieben von XERXES-8933A/A
...Leute, wenn ich mir dieses Thread hier so anschaue, sag ich nur, "so spekulativ sehe ich persönlich die ganze Sache doch net"... meine nächste Graka wird mit Sicherheit entweder die vom ATi sein oder vom XGI... eine NVIDIA Graka werd ich mir demnächst nicht mehr holen, voraussgesetzt, die bringen endlich eine vernünftige Graka (letzte chance bei NV40) auf dem Markt, hab ja bisher nur zwei Graka's von denen gehabt... Geforce2Ultra und der jetzige in meinem Rechner Geforce3... mal schauen, wie R420 abschneidet...
Wenn ich der Chef von NVIDIA wäre, würde ich mich mehr auf NV40 konzentrieren und alle finanziellen Mitteln und Kräfte darauf setzen, anstatt auf NV36 oder NV38... ich meine, was soll denn die ganze Sache, ATI wird immer ein Schritt vorraus sein... das was NVIDIA macht ist ne finanzielle Selbst-Ruin... genau wie die Geschichte mit GeforceFX5800 => Geld aus dem Fenster rausgeschmissen...
Du scheinst nicht ganz zu kapieren, dass der NV36 für ein halbes Jahr neben dem NV34 den Großteil des Geldes im 3D Grafikkartenbereich bei Nvidia ausmacht.
Es sehr wohl richtig sich auf den NV36 zu konzentrieren. Auf den NV38 hat man sich wohl nur wenig konzentriert. Der wird eine Randerscheinung bleiben.
zeckensack
2003-10-05, 15:52:06
Original geschrieben von Razor
Sicher ?
Habe grad' mal mit dem neuen OpenGL Viewer geschaut...
Und danach sieht's schon wieder anders aus.
Hast Du oder vielleicht Zecki nähere Info's dazu ?
???
Razor Razor,
ehrlich gesagt weiß ich's nicht genau, aber ich glaube nicht daß ARB_fragment_program (<=die "DX9"-Extension) Kernfeature von 1.5 ist. Die Spec wurde nur ca zeitgleich veröffentlicht, und hat (dank ARB_ präfix) eben einen offiziellen Status.
Das kannst du dir in diesem schicken Tool sicher genauer ansehen.
ARB_fragment_shader hängt mit GLslang zusammen, und ist noch eine Ecke höher anzusiedeln.
zeckensack
2003-10-05, 16:59:03
Original geschrieben von ow
Und das Tool sagt, dass du irrst. Es ist Kernfeature von 1.5. Sobald ich hier (http://www.opengl.org/developers/documentation/specs.html) die GL1.5-Spec runterladen kann, überlege ich mir das ganze vielleicht nochmal.
Bis dahin gilt, daß auch die Autoren dieses Tools keine wasserdichte Information darüber haben, ob ARB_fragment_program nun Kernfeature ist oder nicht.
PS: Kernfeature oder nicht ist auf Win32 eh irrelevant.
edit:
Letzter offizieller Stand sind die Meeting notes vom 10. Juni (http://www.opengl.org/developers/about/arb/notes/meeting_note_2003-06-10.html) (Komplette Liste aller ARB meeting notes (http://www.opengl.org/developers/about/arb.html#Notes))
Und da steht, daß ARB_fp nicht in den Core aufgenommen wurde:ARB_vertex_program and ARB_fragment_program
Nick suggests folding both these and the HLSL extensions into a new "programmable shading" appendix to the core spec, but doesn't feel it's appropriate to place either group into the core.
VOTE for inclusion in the core: 1 Yes / 0 Abstain / 9 No, FAILS.
Need to decide how to handle this short of the core; possibilities include making them an optional feature set (like ARB_imaging), or Nick's proposal.
XERXES-8933A/A
2003-10-05, 17:11:09
.....
Razor
2003-10-05, 17:16:37
Hey, dann war der eine, der das mit "Yes" gestimmt hat, wohl ATI.
Hatten die nicht 'versprochen', dass dieses Feature a) in OpenGL 1.5 und b) in den nächsten Treibern unterstützt würde ?
Nun ja, nVidia unterstützt somit schon Features von OpenGL 2.0, während ATI noch immer nicht die 1.5 schafft... und ja, ist ein wenig zynisch... ;)
Razor
Razor
2003-10-05, 17:17:51
Original geschrieben von XERXES-8933A/A
@Razor, es ist lediglich nur eine Stellungnahme meinerseits zum Thema NV36 und NV38, wie schon im Thread-Thema erwähnt wird... :)
Dann schau Dir das Thead-Thema lieber noch einmal an.
Denn darum geht es hier überhaupt nicht...
Razor
zeckensack
2003-10-05, 17:22:57
Original geschrieben von Razor
Hey, dann war der eine, der das mit "Yes" gestimmt hat, wohl ATI.
Hatten die nicht 'versprochen', dass dieses Feature a) in OpenGL 1.5 und b) in den nächsten Treibern unterstützt würde ?Glaube ich eher nicht. ATI-Treiber unterstützen nur GL1.3, und das wird auf absehbare Zeit auch so bleiben. Warum sollten sie scharf auf GL1.5-Features sein?
edit: ich halte 3DLabs für einen möglichen Kandidaten. 3DLabs ist quasi die treibende Kraft hinter der ganzen Weiterentwicklung in Sachen Shader, denen sollte man das also auch zutrauen können.
Nun ja, nVidia unterstützt somit schon Features von OpenGL 2.0, während ATI noch immer nicht die 1.5 schafft... und ja, ist ein wenig zynisch... ;)
Razor Büdde :???:
seahawk
2003-10-05, 17:23:16
Erstmal ist die ganze Sache QUATSCH !!
Was mich aber überrascht ist, dass es wirklich Menschen gibt die so etwas auch noch gut finden. Will hier einer die totale ATI Dominanz ??
XERXES-8933A/A
2003-10-05, 17:25:52
.....
Razor
2003-10-05, 17:29:15
Oh mann...
:lol:
Ich vermute mal, dass Du rein gar nichts verstanden hast...
(und Dein Post hat noch immer nichts damit zu tun)
Razor
Tigerchen
2003-10-05, 17:29:25
Original geschrieben von egdusp
AFAIK ist bisher immer der jeweilige Technologiefüher als DX Bestimmer gewählt worden.
Bei DX7 NV, bei DX8 3dfx (die dann aber leider nicht liefern konnten) und bei DX9 war NV Technologieführer (das NV3x Design war viel weiter fortgeschritten als das R3xx Design) und wurde trotzdem nicht bedacht.
Ich denke, NV wurde da wirklich direkt beanchteiligt. Ob das jetzt mit böser Absicht geschah ist eine andere Frage. Bei CineFX waren auch einige für Gamer unvorteilhafte Designentscheidungen.
mfg
egdusp
Also wie ich das bisher verstanden habe ist nV's Ansatz für alle,einschließlich der eigenen Treiberprogrammierer schwerer zu beherrschen.Daher denke ich mal nV hat sich selbst ins Abseits dirigiert.
(Ist nur meine Meinung als interessierter Laie)
XERXES-8933A/A
2003-10-05, 17:31:50
.....
Al-CAlifAX
2003-10-05, 17:34:16
Original geschrieben von XERXES-8933A/A
@Razor... hab's mir angeschaut... und ? Es es steht doch
"NV38 samt restlichen FX'n vor DX -Ausschluß"
oder net,... ?!? Ich wollte nur zum Ausdruck bringen, dass ich das verstehe, wenn NV38 aus dem DX Bereich ab DX10 ausgeschlossen wird... ist doch ne richtige Entscheidung finde ich... die von NVIDIA bringen sowieso nur Müll auf dem Markt... die wollen nur dicke Kohle machen und sonst nichts... sorry aber ist wahr... ein Beispiel: Shaderperformance bei FX'lern...
Interressant. gegenfrage. Was will ATi? uns ihre Karten schenken? :P
Tesseract
2003-10-05, 17:34:49
Original geschrieben von betareverse
Und wenn beide APIs unterstützt werden, ist der GL-Mode afaik immer der langsamere.
da hab ich eigendlich nur gegenteilige erfahrungen gemacht
Razor
2003-10-05, 17:36:05
Original geschrieben von zeckensack
Glaube ich eher nicht. ATI-Treiber unterstützen nur GL1.3, und das wird auf absehbare Zeit auch so bleiben. Warum sollten sie scharf auf GL1.5-Features sein?
Ich meine das irgendwo mal gelesen zu haben...
Ich versuch' das mal zu finden... aj ja, hier (ist scho' ei bissel her ;-) :
http://www.warp2search.net/modules.php?name=News&file=article&sid=13684
News: ATI Confirms OpenGL 1.5 Support For Current Lineup
=>Thursday, August 07 @ 07:34:41 CEST
As reported earlier on July 29th the OpenGL 1.5 specification has been published and presented to the public at Siggraph2003. Since ATI in original marketing material already promised OpenGL 2.0 compatibility we went right to the source to clarify the current situation in terms of actually possible support for the new extensions on ATI hardware.
Our talks with ATI's Terry Makedon yielded the following facts:
Products from the RADEON 9500 and higher are capabable of supporting OpenGL 1.5, but we also need the driver to support these extensions.
Support will be through a driver update and I can't comment on when right now. We are finishing up some coding for this and are on a fast track for implementing it.
The claim of OpenGL 2.0 (compliance) is correct, but obviously we can't officially support it in our drivers until it is released to the public.
Aber wenn ATI noch immer nur OpenGL 1.3 unterstützt...
Original geschrieben von zeckensack
Büdde :???:
Siehe oben...
Nach dem Tool wird besagtes "ARB_fragment_program" von den nVidia-Treibern bereits unterstützt. Oder meinst Du, dass dieses 'Feature' auch bei OpenGL2.0 nocht in den Core aufgenommen ?
:???:
Razor
XERXES-8933A/A
2003-10-05, 17:36:21
.....
Razor
2003-10-05, 17:38:17
Original geschrieben von XERXES-8933A/A
@Razor... erklär du mir doch mal bitte, wie du das ganze verstehst... bin darauf sehr gespannt... ;D
Wie ich das verstehe ?
Hab' ich doch geschrieben:
Das ist Crap !:rofl:
Mehr gibt's dazu eigentlich nicht zu sagen...
:D
Razor
Al-CAlifAX
2003-10-05, 17:38:51
Original geschrieben von XERXES-8933A/A
@Al-CAlifAX... Meine Antwort, hier => :asshole:
Der Jenige, der blöd fragt, kriegt auch ne blöde Antwort...
:chainsaw:
Aha dann kann ich dich ja ignorieren, weil deine post nix konstruktives oder wissenswertes beitragen.
Und wech mir dir..!!
XERXES-8933A/A
2003-10-05, 17:42:18
.....
XERXES-8933A/A
2003-10-05, 17:46:05
.....
zeckensack
2003-10-05, 17:56:06
Original geschrieben von Razor
Ich meine das irgendwo mal gelesen zu haben...
Ich versuch' das mal zu finden... aj ja, hier (ist scho' ei bissel her ;-) :
http://www.warp2search.net/modules.php?name=News&file=article&sid=13684
Aber wenn ATI noch immer nur OpenGL 1.3 unterstützt...Jau, das ist widersprüchlich.
Jedenfalls melden alle ATI-Treiber bis einschließlich Cat3.7 GL1.3, mehr nicht ?-)
Cat3.7 auf Radeon 9800Pro (http://www.delphi3d.net/hardware/viewreport.php?report=849)
Siehe oben...
Nach dem Tool wird besagtes "ARB_fragment_program" von den nVidia-Treibern bereits unterstützt. Oder meinst Du, dass dieses 'Feature' auch bei OpenGL2.0 nocht in den Core aufgenommen ?
:???:
Razor ARB_fp gibt's selbstverständlich auch auf ATI-Treibern (ab R300; die kleineren Chips haben nicht die nötige Hardware dafür).
Bzgl GL2.0, so weit ich das in Erinnerung habe, wollte man da eine ganze Menge alter Zöpfe abschneiden (deswegen auch 2.0, und nicht 1.6 oder so). GL2 definiert sich primär über den integrierten Hochsprachencompiler. Ich glaube die Assembler-Interfaces werden dann wieder rausgeschmissen, weil überflüssig.
Das ganze fällt dann - wenn überhaupt - unter Abwärtskompatibilität.
Ein 'pure GL2', wie 3DLabs das irgendwo schonmal aufgezeichnet hat, soll überhaupt keine fixed function oder ASM-Sachen mehr beherrschen. Hochsprachen-Shader für alles.
Al-CAlifAX
2003-10-05, 17:59:16
Original geschrieben von XERXES-8933A/A
@Al-CAlifAX...
Zitat: Interressant. gegenfrage. Was will ATi? uns ihre Karten schenken?
... und du willst mir weiss machen, dass Deine postings konstruktives oder wissenswertes beiträgt... ?!? ;D
Hey kleiner Bubbibär... wenn ich dich traurig oder wütend gemacht habe... dann nimm das, was ich geschrieben habe, net so ernst, du bist ja völlig aus dem Häuschen... :)
Vergreif dich bitte nicht im Ton. Sowas hörste von mir auch nicht. Dein Post war einfach nonsens. Du prangerst NV an das sie nur die dicke Kohle verdienen wollen. Denkst du andere Firmen (ja auch Ati als wach auf) wollen keine Kohle machen? grade mir HL² und einem 50% unterschied hätten/haben sie alles in der hand die dicke kohle zu machen und ja auch mit DX10 auschluss für NV. Denn dann stellen entwickeln sie die karten. DX10 wird darauf angepasst und alle andere kriechen hinterher. Sp und nun rechne Dir nochmal aus wie günstig dann "dein" Ati sein dürfte wenn sie wie 3dfx ein Monopol darstellen. Das sind nur fiktive Denkweisen. Aber keiner sollte es gut heissen, wenn irgendwer aus einer API ausgeschlossen wird. genausowenog wenn Spiel zu 50% auf Ati Karten besser laufen werden. Denn das ist sehr viel. Und ich für meinen Teil möchte nicht das Ati DX10 entwickelt. Diese Firma tut nix im OpenGL sektor. Kaum was für Linux. und sind mir zu sehr in letzter zeit mit M$ verbunden. Ich bin gegen die TCPA und sehe im fall von opengl noch eine gewisse Hoffnung. Danke fürs lesen.
XERXES-8933A/A
2003-10-05, 18:07:08
.....
Razor
2003-10-05, 18:10:28
Original geschrieben von zeckensack
Jau, das ist widersprüchlich.
Jedenfalls melden alle ATI-Treiber bis einschließlich Cat3.7 GL1.3, mehr nicht ?-)
Cat3.7 auf Radeon 9800Pro (http://www.delphi3d.net/hardware/viewreport.php?report=849)
Merchwürdich...
Hier sieht's zumindest so aus, als ob zumindest 1.4 unterstützt würde:
http://users.adelphia.net/~tenchir/images/OGL.jpg
Gesehen im nvNews.net ("]Beyond3D-Forum[/url]...
Original geschrieben von zeckensack
ARB_fp gibt's selbstverständlich auch auf ATI-Treibern (ab R300; die kleineren Chips haben nicht die nötige Hardware dafür).
Bzgl GL2.0, so weit ich das in Erinnerung habe, wollte man da eine ganze Menge alter Zöpfe abschneiden (deswegen auch 2.0, und nicht 1.6 oder so). GL2 definiert sich primär über den integrierten Hochsprachencompiler. Ich glaube die Assembler-Interfaces werden dann wieder rausgeschmissen, weil überflüssig.
Das ganze fällt dann - wenn überhaupt - unter Abwärtskompatibilität.
Ein 'pure GL2', wie 3DLabs das irgendwo schonmal aufgezeichnet hat, soll überhaupt keine fixed function oder ASM-Sachen mehr beherrschen. Hochsprachen-Shader für alles.
Ah ja... und wieder was sazu gelernt...
Thx zeckensack !
Sieht dann in etwa so aus, gell ?
http://www.nvnews.net/images/news/200308/shading_diagram.gif
Gesehen auf [url="http://www.nvnews.net/cgi-bin/search_news.cgi?keyword=opengl+2.0).
Und 2.0 ist dann wirklich als völlig von den Altlasten befreit zu betrachten ?
:???:
Razor
Al-CAlifAX
2003-10-05, 18:19:26
Original geschrieben von XERXES-8933A/A
@Al-CAlifAX... ähmm... ich möchte mich 1000 mal entschuldigen Monsieur, wenn ich dich irgendwie verletzt haben sollte... ich bin weder ATI oder NVIDIA Fan... ich meinte ja nur das was ich vorher schrieb über NV38... nur das habe ich gemeint sonst niks... und davor schrieb ich auch... dass meine nächste Graka entweder ein ATI sein würde oder die von XGI aber kein NVIDIA kommt mehr in meinem PC rein... das wars auch schon... :wink2:
kennst du deine Post nicht mehr? hier nochmal für dich:
Original geschrieben von XERXES-8933A/A
@Razor... hab's mir angeschaut... und ? Es es steht doch
"NV38 samt restlichen FX'n vor DX -Ausschluß"
oder net,... ?!? Ich wollte nur zum Ausdruck bringen, dass ich das verstehe, wenn NV38 aus dem DX Bereich ab DX10 ausgeschlossen wird... ist doch ne richtige Entscheidung finde ich... die von NVIDIA bringen sowieso nur Müll auf dem Markt... die wollen nur dicke Kohle machen und sonst nichts... sorry aber ist wahr... ein Beispiel: Shaderperformance bei FX'lern...
Zur dicken Kohle sagte ich schon was. zur Shaderperformance. naja wer 200 Shader in nem spiel verwendet und kaum texturen - siehe halo - brauch sich net wundern. Das die FXen damit probleme is die eine sache. aber zu behaupten das Firma X fette Kohle verdienen will und dabei vergisst das des alle anderen genauso machen. und von verarsche spricht bei schlecht optimierten spielen und einseitig angefangenen 2.0 pfaden is auch net grade nett. also wenn du dich für eine karte entscheidest schön. aber bitte argumnentiere anstständig oder gehe in nen Forum wo Kompetenz net gefragt ist. auch ich weiss net alles. und dann frage ich nach. aber dumme sprüche lasse ich selten ab.
PS. uach ich empfehle meinen Freunden eine ti4200 bis 100 € eine Ati9600 bis 250€ und darüber erkläre ich ihnen was derzeit abgeht und das keiner weiss wie spiele wie stalker, doom³, deusex² und co aussehen werden. Man sollte keine Karte mehr kaufen und hoffen die hält 1 jahr. Dann die Programmierer sund erst am anfang von shadern in spielen. derzeit sind des meiste noch experimente. erst wenn sich alles gefestigt hat und etabliert und genügend engines gebaut wurden mit vielen shadern kann man wieder wissen was für die zukunft halbwegs gut ist. denn ausser shader gibt es noch andere elemente in der 3d programmierung. und alles zusammen muss ein konzept ergeben.
danke fürs lesen. war wieder sehr lang sorry ;)
Radeonator
2003-10-05, 18:32:26
:lol:
Wasn quatsch, wie oft hätte dann z.B. ATi gekicked werden müssen (PS1.4) Fanboy geblubber und Marketing sh1c3...
XERXES-8933A/A
2003-10-05, 18:36:08
.....
Al-CAlifAX
2003-10-05, 18:39:38
Original geschrieben von XERXES-8933A/A
@Al-CAlifAX... ich bin halt ein neutraler Beobachter sozusagen... nur eins möchte ich doch was sagen... ich versuch dir irgendwie meine Sichtweise dir darzustellen... sagen wir mal, NV5900Ultra ist soviel schnell, egal in welchem Proggiebenchmark oder in Spiel... aber wenn jetzt NV5950 auf dem Markt erscheint, und ist nur lediglich 5 bis 10 FPS schneller als sein Vorgänger, ja dann sag mir doch mal bitte, dass das doch net richtig ist oder ?!? Sagen wir mal ich hab 500 Euro für ein schei** NV5900Ultra bezahlt am Anfange versteht sich und dann nach 7 bis 8 Monaten erscheint dann ein weiteres Modell NV5950 mit oder ohne Ultra, keine Ahnung... dann kostet diese wiederrum 500 Euro... so in der neuen Modell ist ein Feature integriert, die in der vorherigen Modell gar nicht integriert waren, und plötzlich erscheint Half Life2, der genau dieses Feature nutzt und schneller läuft als bei NV5900 Ultra... nur was mich aufregt... das man Karten auf dem Markt herausbringt... die sich nur in Featurebereich unterscheiden... sonst niks...
weisst du mehr wie wir?
was fprn feature hat den der NV38 mehr als der NV35 das er bei HL² schneller läuft?
imho waren es die Deto 52 treiber und die gelten für alle FXen.
Razor
2003-10-05, 18:40:33
Original geschrieben von XERXES-8933A/A
ich bin halt ein neutraler Beobachter sozusagen... <..snap...>:lolaway:
Razor
zeckensack
2003-10-05, 18:42:59
Original geschrieben von Razor
Merchwürdich...
Hier sieht's zumindest so aus, als ob zumindest 1.4 unterstützt würde:
http://users.adelphia.net/~tenchir/images/OGL.jpg
Gesehen im nvNews.net ("]Beyond3D-Forum[/url]...Es sieht so aus ;)
Der GL-Treiber meldet sich als "1.3.3920". NV-Treiber melden sich lapidar als "1.4" (build-version wird nicht angegeben).
Beim R300 wäre man wohl in der Lage, 1.4 zu melden, weil alle Features vorhanden sind. Macht man trotzdem nicht, wahrscheinlich wegen der UDA (<=R200 paßt nicht).
NV geht hier bekanntermaßen in die vollen, und macht auf volle Unterstützung für GL1.4, selbst auf der Geforce2-Reihe. Das sieht erstmal supi aus, wenn man aber die 'falschen' Features benutzt, handelt man sich schnell Software-Rendering ein. Die Geforce 2-Hardware reicht nicht mal für vollen GL1.2-Support aus (zB 3D-Texturen).
Es gibt für beide Wege Argumente. Wie gesagt, eigentlich ist's auf Win32 latte, ob man GL1.1+Extensions oder GL1.4 hat. Ich würde den Weg "alle gemeldeten Features sind Schnell Genug(tm)" favorisieren, aber das ist jetzt wirklich ganz weit weg vom Thema.
Ah ja... und wieder was sazu gelernt...
Thx zeckensack !
Sieht dann in etwa so aus, gell ?
http://www.nvnews.net/images/news/200308/shading_diagram.gif
Gesehen auf [url="http://www.nvnews.net/cgi-bin/search_news.cgi?keyword=opengl+2.0).
Und 2.0 ist dann wirklich als völlig von den Altlasten befreit zu betrachten ?
:???:
Razor Ja, so in etwa.
Das hier ist wohl das, was ich im Hinterkopf hatte:PDF - Obacht: 2MB (http://www.3dlabs.com/support/developer/ogl2/presentations/OGL2_GDC2002.pdf)
Seite 12&13
XERXES-8933A/A
2003-10-05, 18:50:51
.....
Al-CAlifAX
2003-10-05, 19:03:24
Original geschrieben von XERXES-8933A/A
@Razor... :spam:
@Al-CAlifAX... Ja das kann schon...ich weiss ja net, wieviel Ahnung du im Bereich Marketing so hast... Wirtschaftlich betrachtet, schmeisst NVIDIA nur Geld aus dem Fenster, durch den Einführungsversuch der NV38... da würde es mehr Sinn machen für die Entwicklung von NV40... das ist meine Meinung...
;D
Wenn sie den NV3x ausser acht lassen. und sich nur auf den NV4x konzentrieren verlieren sie noch schneller. Denn wenn HL² und einige andere wie Stalker auf den jetzigen net gut performanen greift auch keiner so schnell zu einer NV4x, ausserdem wird der NV4x ähnlich dem NV3x werden. imho.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.