PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV 40 (GeForce FX 6000)


Keas
2004-02-28, 17:28:38
Ich hab meine GameStar heute erhalten und die haben exklusive Infos zum NV40. Unter anderem warten auf uns 16 statt 8 Pipelines, sehr hoher Takt, erweiterte shader etc. was aber schon bekannt sein sollte. Das interressante in dem Artikel find ich, das Nvidia behauptet, in Half Life 2 mit dem NV40 600% und in Doom 3 400% schneller zu sein als der GeForce FX 5950 Ultra. Was haltet ihr davon ? Ich freu mich auf jeden Fall auf die Karte bzw. die ersten Tests :)!

thop
2004-02-28, 17:31:35
4-6 mal schneller als die 5950 was? Halte ich für den dicksten Quatsch des Jahrhundert. Vielleicht in 3200x2400 Auflösung und 32AF/8AA, dann könnte es stimmen. An statt 0.2 FPS hat man dann mit der 6000 1 FPS ;D

LovesuckZ
2004-02-28, 17:31:55
"exklusive Infos" so nennt man also heute das Abschreiben von anderen Seiten :|

Keas
2004-02-28, 18:02:00
Nein die haben ne Menge an anderen Infos, die ich aber nicht preisgebe, da müßt ihr euch die GameStar kaufen. Nein spaß, aber die haben echt noch mehr infos.

3rr0r
2004-02-28, 18:47:00
Original geschrieben von Keas
Nein die haben ne Menge an anderen Infos, die ich aber nicht preisgebe, da müßt ihr euch die GameStar kaufen. Nein spaß, aber die haben echt noch mehr infos.

Oder noch besser ich kauf mir eine Kristallkugel, die gibt mir dann auch eine Menge an Infos über den NV40. ;D
Zudem behauptet Nvidia gar nichts, habe noch keine Pressemitteilung seitens Nvidia gesehen oder bekommen wo etwas über den NV40 steht. Woher die alle ihre Infos haben :kratz2: Haben wohl auch eine Kristallkugel.

reunion
2004-02-28, 19:13:51
Original geschrieben von Keas
Ich hab meine GameStar heute erhalten und die haben exklusive Infos zum NV40. Unter anderem warten auf uns 16 statt 8 Pipelines, sehr hoher Takt, erweiterte shader etc. was aber schon bekannt sein sollte. Das interressante in dem Artikel find ich, das Nvidia behauptet, in Half Life 2 mit dem NV40 600% und in Doom 3 400% schneller zu sein als der GeForce FX 5950 Ultra. Was haltet ihr davon ? Ich freu mich auf jeden Fall auf die Karte bzw. die ersten Tests :)!

Das ganze ist nur von INQ abgeschrieben und die sind nicht gerade die sicherste Quelle, somit wäre ich mehr als vorsichtig mit diesen Infos. Denen traue ich sogar zu das sie sich nur was ausgedacht haben um die Besucherzahl zu erhöhn.

Und die 4 bzw. 6-fache Geschwindigkeit im Vergleich zu einer 5950U ist ein reines Marketing ohne Hand und Fuß, wenn der NV40 selbst mit AA oder AF bei diesen Spielen "nur" doppelt so schnell ist wie ein NV38 dann wäre dass schon mehr als beeindruckend.

mfg
reu

Keas
2004-02-28, 19:27:32
Ich glaubs ja auch nicht, aber ich glaube auch nicht das GameStar sich das ausdenkt :)

3rr0r
2004-02-28, 19:35:55
Original geschrieben von reunion
Und die 4 bzw. 6-fache Geschwindigkeit im Vergleich zu einer 5950U ist ein reines Marketing ohne Hand und Fuß


Marketing von wem, sicher nicht von Nvidia? Alain Tiquet(Marketing Chef NV) hat bisher noch gar nix Gesagt, auch keiner seiner untergebener. Solange nicht Jen-Hsun Huang einen NV40 in seinen Händen hällt und den vorstellt glaube ich gar nix was sich dubiose seiten so aus den Fingern ziehen. Ich Traue Dr.Kirk ja viel zu aber soviel ist schon ein bischen zuviel. :bäh:

LovesuckZ
2004-02-28, 19:48:48
Original geschrieben von reunion
Und die 4 bzw. 6-fache Geschwindigkeit im Vergleich zu einer 5950U [...]

Verbaut Nvidia wirkliche 16 FPUs pro Pipes (aehm, hoff so richtig), dann haette man die 4fache arithmetische Leistung (mal die Universal FPU und die damit verbundenen Bedingungen außenvorgelassen). Dazu kommt noch der wahrscheinlich vergrößerte Registerspeicher, nicht zu vergessen neue "Optimierung" bezuehlich AA/AF.

r@e
2004-02-29, 08:59:27
Original geschrieben von reunion
Und die 4 bzw. 6-fache Geschwindigkeit im Vergleich zu einer 5950U ist ein reines Marketing ohne Hand und Fuß, wenn der NV40 selbst mit AA oder AF bei diesen Spielen "nur" doppelt so schnell ist wie ein NV38 dann wäre dass schon mehr als beeindruckend.Warum wäre das 'beeindruckend' ?
:???:

Dieser Massiv-Shader-Quatsch bei HL2 (weil-es-geht-nicht-anders-mit-ps2-weil-wir-hätten-doch-gerne-ps3 ;-) scheint demnach von der NV40-Architektur wesentlich besser verarbeitet werden zu können, als von der des NV30. Mal eben eine 'Vervierfachung' der Shaderleistung (16 statt vorher 4) und die Möglichkeit Shaderdurchäufe abzukürzen mit evtl. Verbesserungen beim AA/AF könnten also durchaus eine 6-fache Leistung bei HL2 bringen (und damit zumindest die R3x0'er richtig alt aussehen lassen ;-)...

Wie dem auch sei, nur weil's von Lamestar kommt, ist's noch lange kein Fakt und insofern reine Spekulation... wieso findet sich so etwas also hier ?

Razor

Godmode
2004-02-29, 11:07:04
Also ich bin schon auf die PCGH gespannt was die über den NV40 schreiben werden!! Wird überhaupt vor der Cbit irgendetwas bekanntgegeben werden? Ja das mit der Gamestar ist ne andere Sache also wenn die sowas in ihr Heft rein schreiben wird doch schon was dran sein, weil sie werden sich doch nicht einfach auf irgendetwas einlassen was sie nicht genau wissen ob es richtig ist oder nicht. Also ich habe die GameStar selber nicht aber wenn die sowas machen würden, einfach irgendwas reinzuschreiben was gar nicht stimmt, würde das sicher an ihrer Glaubwürdigkeit leiden. Ok es ist nur ein Spielemagazin aber man sollte ja trotzdem auch über Hardware was richtiges und nicht nur Blödsinn reinschreiben.

Aquaschaf
2004-02-29, 11:08:11
Original geschrieben von Keas
Ich glaubs ja auch nicht, aber ich glaube auch nicht das GameStar sich das ausdenkt :)

Die Gamestar denkt sich nichts aus, die schreibt einfach von Leuten ab die sich etwas ausgedacht haben.

stav0815
2004-02-29, 11:08:57
sie können gut abschreiben, dass ist dran :asshole:

reunion
2004-02-29, 11:15:27
Original geschrieben von bans3i
Also ich bin schon auf die PCGH gespannt was die über den NV40 schreiben werden!! Wird überhaupt vor der Cbit irgendetwas bekanntgegeben werden? Ja das mit der Gamestar ist ne andere Sache also wenn die sowas in ihr Heft rein schreiben wird doch schon was dran sein, weil sie werden sich doch nicht einfach auf irgendetwas einlassen was sie nicht genau wissen ob es richtig ist oder nicht. Also ich habe die GameStar selber nicht aber wenn die sowas machen würden, einfach irgendwas reinzuschreiben was gar nicht stimmt, würde das sicher an ihrer Glaubwürdigkeit leiden. Ok es ist nur ein Spielemagazin aber man sollte ja trotzdem auch über Hardware was richtiges und nicht nur Blödsinn reinschreiben.

Die Gamestar schreibt schon seit ewigkeiten von INQ ab und daher kommt auch das Gerücht mit den 16 Pipes...

Gast
2004-02-29, 11:31:25
Original geschrieben von bans3i
Also ich habe die GameStar selber nicht aber wenn die sowas machen würden, einfach irgendwas reinzuschreiben was gar nicht stimmt, würde das sicher an ihrer Glaubwürdigkeit leiden.

Die Wörter Gamestar und Glaubwürdigkeit in einem Posting? Der Gamestarleser weiß mit den technischen Infos nichts anzufangen und bereits mit dem Erhalt des nächsten Haftes weiß er nicht mehr, was im vorherigen stand. Die könnten sogar schreiben, der neuen Geforce legt ein Gutschein für Pamela Anderson bei, an der Seriosität der Zeitschrift ändert dies nichts.

deekey777
2004-02-29, 11:47:24
Nichts gegen die Gamestar, bitte - als Spilezeitschrift ist die GS wirklich gut. Bei Hardware kann man aber alle Spielezeitschriften vergessen.

Windi
2004-02-29, 11:50:09
Wenn das wirklich im Gamestar-Heft steht, dann müßten sie es vor dem INQ "gewusst" haben. Thilo hat mal erklärt wie lang der Druck und Auslieferung daueren würden und es waren glaub ich so 1 bis 2 wochen. Die INQ Meldung ist allerdings noch sehr frisch.

Mal ne ganz andere Theorie: Der INQ hat diese "tolle Meldung" von Gamestar abgeschrieben.(Sie haben vielleicht einen Informant im Verlag oder in der Druckerei)

Gut das wir hier im Speku-Forum sind :chainsaw:

nagus
2004-02-29, 12:09:46
Original geschrieben von deekey777
Nichts gegen die Gamestar, bitte - als Spilezeitschrift ist die GS wirklich gut. Bei Hardware kann man aber alle Spielezeitschriften vergessen.

BITTE?!?!?! als spielezeitschrift "gut"

*MEGALOL*

an PCPlayer anfang/mitte der 90er jahre ist keine zeitschrift jemals herangekommen

stav0815
2004-02-29, 12:15:49
Original geschrieben von nagus
BITTE?!?!?! als spielezeitschrift "gut"

*MEGALOL*

an PCPlayer anfang/mitte der 90er jahre ist keine zeitschrift jemals herangekommen

die PowerPlay war ne Zeit lang auch ned schlecht, war so 1995 wenn ich mich recht entsinne...

vielleicht fangen wir dann bald an zu behaupten dass Computer Bild viel Ahnung hat und professionell is ;D

Xmas
2004-02-29, 12:20:53
Original geschrieben von reunion
Und die 4 bzw. 6-fache Geschwindigkeit im Vergleich zu einer 5950U ist ein reines Marketing ohne Hand und Fuß, wenn der NV40 selbst mit AA oder AF bei diesen Spielen "nur" doppelt so schnell ist wie ein NV38 dann wäre dass schon mehr als beeindruckend.
Das wäre mehr als enttäuschend. Wenn du dir PS2.0 Benches anschaust, ist dort die R360 immer deutlich schneller als NV38, in vielen Fällen 2-3x. Ziel des NV40 ist es aber nicht, NV38 und R360 zu übertreffen, sondern R420 zu schlagen. Und das Potenzial hat NVidia.

Ailuros
2004-02-29, 12:40:08
Original geschrieben von Xmas
Das wäre mehr als enttäuschend. Wenn du dir PS2.0 Benches anschaust, ist dort die R360 immer deutlich schneller als NV38, in vielen Fällen 2-3x. Ziel des NV40 ist es aber nicht, NV38 und R360 zu übertreffen, sondern R420 zu schlagen. Und das Potenzial hat NVidia.

Sicher hat NV das Potenzial. Wenn die Performance-targets aber tatsaechlich bei beiden etwa 3*NV35 und 2*R350 waren, und diese auch erreicht wurden (sollte ja nicht schwer sein fuer beide Seiten), dann kann ich persoenlich bei bestem Willen nicht herausraten was, wo und wie effizienter oder schneller sein koennte.

Da bekomm ich genauso viel Kopfschmerzen wie mit dem X*Y Quark...

deekey777
2004-02-29, 13:16:03
Original geschrieben von nagus
BITTE?!?!?! als spielezeitschrift "gut"

*MEGALOL*

an PCPlayer anfang/mitte der 90er jahre ist keine zeitschrift jemals herangekommen
Damals konnte ich noch nicht lesen.

Aber: Schon mal die PCAction gelesen? GRRRRR....

2,50€ für die print only Version - allein dieser Artikel über die GeForce 6 FX ist die 2,50 Wert!
Zum Thema selbst: Nur diese 16 volle Pixelpipelines machen jeden Artikel über die NV40 unglaubwürdig.

aths
2004-02-29, 13:20:09
Original geschrieben von Ailuros
Da bekomm ich genauso viel Kopfschmerzen wie mit dem X*Y Quark... Dieser Pipeline-Quatsch ist beinahe irrelevant. Wichtig ist die vorhandene Texturier- und Rechenkraft, und dass sie effizient ausgenutzt wird.

aths
2004-02-29, 13:33:02
Original geschrieben von bans3i
Also ich bin schon auf die PCGH gespannt was die über den NV40 schreiben werden!! Wird überhaupt vor der Cbit irgendetwas bekanntgegeben werden? Solche Fragen sind witzlos: Falls, dann sowieso nur mit NDA.

Vor dem Parhelia-Launch z. B. bekam 3DCenter Material von Matrox, aber wir mussten bis zum Launchtag warten, ehe wir den darauf basierenden Artikel veröffentlichen durften. Später merkten wir, dass die Praxis von der schönen Matrox-Präsentation abweichte, was natürlich in News und Artikeln zur Sprache kam. Wegen dieser Ausrichtung am Leser, und nicht an den IHVs, kommt 3DCenter nur selten vorab an Infos.

BlackBirdSR
2004-02-29, 13:48:17
Original geschrieben von Windi
Wenn das wirklich im Gamestar-Heft steht, dann müßten sie es vor dem INQ "gewusst" haben. Thilo hat mal erklärt wie lang der Druck und Auslieferung daueren würden und es waren glaub ich so 1 bis 2 wochen. Die INQ Meldung ist allerdings noch sehr frisch.

Mal ne ganz andere Theorie: Der INQ hat diese "tolle Meldung" von Gamestar abgeschrieben.(Sie haben vielleicht einen Informant im Verlag oder in der Druckerei)

Gut das wir hier im Speku-Forum sind :chainsaw:

Nein!
GS schreibt IM Heft was auch so schon vorher spekuliert wurde.

von 8 auf 12 oder eventuell extreme 16 Pipelines.

Ailuros
2004-02-29, 13:49:40
Original geschrieben von aths
Dieser Pipeline-Quatsch ist beinahe irrelevant. Wichtig ist die vorhandene Texturier- und Rechenkraft, und dass sie effizient ausgenutzt wird.

Hmmmm da wundert es mich, wo ich das schonmal gehoert habe....:D

egdusp
2004-02-29, 19:28:01
Original geschrieben von aths
Wegen dieser Ausrichtung am Leser, und nicht an den IHVs, kommt 3DCenter nur selten vorab an Infos.

Nun ja. Aber da 3dCenter mittlerweile einen recht guten Ruf hat, teilweise sogar bei den amerikanischen News Seiten, besteht für die IHVs die Gefahr, dass sie bei Nichtbelieferung eine Art Sonderstellung von 3dcenter anerkennen. Dies würde wiederum dazu führen, dass Artikel von 3dcenter bei der andere Fachpresse (online + offline) als besonders gut gelten (was sie ja auch sind) und deren Enthüllunge peinlich für den IHV sein müssen. Klar was ich meine?

An einem Beispiel. Sollte 3dcenter nochmal so eine "Optimierung" wie das brilineare Filtering aufdecken, könnten die anderen Newsseiten dies als wichtig erachten und die Grafikkarte deswegen abstrafen (in extra Artikeln). Hinzu kommt noch, dass eine spätere Belieferung von 3dcenter dazu führt, dass deren Artikel zwar später, aber auch alleine erscheinen. Dies könnte mehr Aufmerksamkeit erregen, als ein kritischer Artikel in einer Flut von positiven Reviews. Selbst solch ein Artikel käme (ist das richtig geschrieben) wahrscheinlich immer noch vor der Massenverfügbarkeit der Karten und damit zum schlechstmöglichen Zeitpunkt für die IHVs.

Es gibt auch Gründe, die gegen eine Belieferung von 3dcenter sprechen, aber im Gegensatz zu früher überwiegen IMHO die Gefahren für die IHVs.

mfg
egdusp

TheDonMakaveli
2004-02-29, 19:40:00
an PCPlayer anfang/mitte der 90er jahre ist keine zeitschrift jemals herangekommen
Und warum ist sie dann zu Grunde gegangen?:D
Warscheinlich weil es doch nicht soviele Leser gab, die das (deiner Meinung nach) einzgste SpieleMag so toll fanden wie du!:asshole:

Gruß vom Don

CrazyIvan
2004-02-29, 19:52:47
@ TheDon

Oder vielleicht auch, weil es immer mehr DAUs mit immer weniger Wissen gibt, die meinen, Ahnung zu haben. Und vielleicht auch weil unsere ganze Gesellschaft zu fortschreitender geistiger Verrohung tendiert.

Und vielleicht auch, weil auch ich mich sicherlich positiver an die PCPlayer erinnere, als sie wohl eigentlich war.
Sicher ist jedoch eins. In meinem subjektiven Empfinden ist die PC Player immer noch mein all-time-favorite. Und komm' mir jetzt bloß nicht mit den Lacherzeitschriften heutiger Tage. Die sind doch allesamt das Papier net wert, auf dem die gedruckt sind.

Birdman
2004-02-29, 19:54:56
Original geschrieben von TheDonMakaveli
Und warum ist sie dann zu Grunde gegangen?:D
Warscheinlich weil es doch nicht soviele Leser gab, die das (deiner Meinung nach) einzgste SpieleMag so toll fanden wie du!:asshole:
Gruß vom Don
Ich denke mal du hast nie eine PCPlayer gelesen....was aber mit deinem Alter zu entschuldigen ist.
Nur sollte man dann nicht darüber irgendwelche ollen Sprüche machen die nix zur Sache tun.
Gamestar ist halt wie die Bild - scheisse aber jeder liest sie. Das kmmt halt von einer Gnadenlosen ausrichtung auf das Kundensegment mit den meisten potentiellen Käufern --> 12-14 Jahre.

Nur sagen halt Verkaufszahlen rein gar nichts über die inhaltliche Güte einer Zeitschrift aus...

Al-CAlifAX
2004-02-29, 20:23:25
Game is net sooo schlecht.

In sachen games haben sie ihre vorzüge und da merkt man. während ich mich wie ein schneebär auf DeusEx2 freue haben die des mit 80% bewertet. Während ich Halo total grottig fand hat des ne weit aus höhere wertung bekommen. Aber das hat man heutzutage bei jedem magazin. interssant sind manche themen trotzdem wenn man objektiv bleibt. mick Schnelle in sachen Simulator. Er ist ja net erst seit gamestar bekannt. oder jörg langer als Strategie Fan. viele haben früher schon bei anderen Magazinen gearbeitet. Aber in sachen gardware muss ich auch immer lachen. Feucht fröhlich wird jeder scheiß abgeschrieben. Von hardware haben die nicht nur wenig sondern gar keinen Plan. Zuviele fehler in berichten. Und die sollten auch aufhören son scheiß zu produzieren oder jemanden einstellen der schreiben kann und ahnung hat. denn ahnung alleine reicht net. man muss es auch Dau-gerecht schreiben warum grade eine 9800er schneller sein soll in PS2.0 und was des überhaupt ist. Sowas ist schwer Dau-gerecht zu schreiben. hmm ich merke gerade. Vllt wäre das ne Marktlücke :P

Sk_Antilles
2004-02-29, 21:59:47
Original geschrieben von Birdman
Ich denke mal du hast nie eine PCPlayer gelesen....was aber mit deinem Alter zu entschuldigen ist.
Nur sollte man dann nicht darüber irgendwelche ollen Sprüche machen die nix zur Sache tun.
Gamestar ist halt wie die Bild - scheisse aber jeder liest sie. Das kmmt halt von einer Gnadenlosen ausrichtung auf das Kundensegment mit den meisten potentiellen Käufern --> 12-14 Jahre.

Nur sagen halt Verkaufszahlen rein gar nichts über die inhaltliche Güte einer Zeitschrift aus...

Ich war von (fast) Anfang an Abonnent der PcPlayer. Und ich muss sagen, dass man sich bei den Tests wirklich auf die vergebenen Punktzahlen verlassen konnte.
Soweit ich mich erinnern kann wurde aber der Verlag von der PcPlayer von einen anderen Zeitschriftenverlag aufgekauft und somit wurde auch das Ende der PcPlayer besiegelt...
Man bekam dann automatisch ein Abo für die GameStar, worauf ich aber dankend verzichtet habe.

aths
2004-02-29, 23:07:12
Original geschrieben von egdusp
käme (ist das richtig geschrieben)Ja.
Original geschrieben von egdusp
Es gibt auch Gründe, die gegen eine Belieferung von 3dcenter sprechen, aber im Gegensatz zu früher überwiegen IMHO die Gefahren für die IHVs.Ich denke, 3DCenter ist weder darauf aus, Gefahr zu sein, noch, einen Marketing-Erfüllungsgehilfen zu stellen. Wir versuchen, mal mit mehr, mal mit weniger Erfolg, Dinge zu beleuchten, die andere Medien übersehen und somit unseren Platz in der Landschaft zu finden.

Gast
2004-02-29, 23:25:21
Wenn wir schon so Anfangen bring ich noch die ASM und den Amiga-Jocker mit in's Spiel. ABer da waren viele hier ja noch Quark im Schaufenster;D

Birdman
2004-03-01, 00:02:10
da hilft nur noch das abtauchen in die lang vergessene Welt der historischen PC Game Zeitschriften... http://www.kultpower.de/

egdusp
2004-03-01, 00:13:51
Original geschrieben von aths
Ja.
Ich denke, 3DCenter ist weder darauf aus, Gefahr zu sein, noch, einen Marketing-Erfüllungsgehilfen zu stellen. Wir versuchen, mal mit mehr, mal mit weniger Erfolg, Dinge zu beleuchten, die andere Medien übersehen und somit unseren Platz in der Landschaft zu finden.

War eine etwas unglückliche Wortwahl. Statt Gefahren hätte ich besser Nachteile geschrieben.

Ich habe nur verucht aus der Sicht eines IHVs abzuschätzen, on solche kritische (netural gemeint, nicht im Sinne von negativ) Seiten wie 3dcenter Testkarten bekommen sollten.

Welche Intention 3dcenter hat, kann den IHVs egal sein, solange 3dcenter unvoriengenommen testet.
Wenn die IHVs also kritische Test als notwedniges Übel ansehen und nicht versuchen sie zu verhindern (was letzendlich ja auch nicht funktionieren würde und sich sicher als Bumerang erweisen würde), müssen sie versuchen die Folgen der kritischen Tests zu minimieren. Eine gute Methode wäre IMO Testkarten mit recht knappem Zeitlimit und NDA zur verügung zu stellen. Damit können schon ausführliche Benchmarks gemacht werden, aber keine tiefergehende Analyse. Wenn die Karten dann im Laden stehen, kann es dann zwar nochmal zu einem ausführlichen Nachtest kommen, der aber dann erst später erscheint und dann nur einer von 2 Reviews ist.

So ähnlich wie die AMIs das mit den Reportern im Irak gemacht haben. Nciht ganz rauslassen, aber kontrollieren wer, wo was zu sehen bekommt.

mfg
egdusp

r@e
2004-03-01, 01:14:04
Original geschrieben von deekey777
Zum Thema selbst: Nur diese 16 volle Pixelpipelines machen jeden Artikel über die NV40 unglaubwürdig. Ja, Themenbezug ist schon was feines...
;-)

Warum sollen 16 volle(!) Pipes 'unglaubwürdig' sein ?
In einer Zeit, in der man rein gar nichts über die Architektur der 'Neues' weiß ?

Derzeit ist alles Spekulation !
Und das ist der einzige Fakt, den man als gültig anerkennen sollte...

Warten wir vielleicht doch mal offizielle Bekanntmachungen ab, bevor hier so ein Unsinn wie "auf jeden fall 8xirgendwas", "8x2 wird's sein" oder "16x ist unglaubwürdig" herum posaunt wird. TI's Behauptung steht hier im Raum und GS hat wieder mal abgeschrieben... also gibt's hier doch eigentlich rein gar nichts zu diskutieren, oder ?
:D

Razor

Ailuros
2004-03-01, 02:48:23
Warten wir vielleicht doch mal offizielle Bekanntmachungen ab, bevor hier so ein Unsinn wie "auf jeden fall 8xirgendwas", "8x2 wird's sein" oder "16x ist unglaubwürdig" herum posaunt wird. TI's Behauptung steht hier im Raum und GS hat wieder mal abgeschrieben... also gibt's hier doch eigentlich rein gar nichts zu diskutieren, oder ?

Bei mir steht Spekulations-Forum am oberen Rand :P

TheDonMakaveli
2004-03-01, 14:58:48
@Birdman&CrazyIvan
Dann sagt doch mal was an der PC Player so toll war oder besser?
Außerdem hat jeder seine eigene Meinung und Eindrücke!
Ich z.B. finde die PC Games total dumm!(Schon allein die Typen)
Dann gibt es wieder welche, die die PC Action oder Gamestar schice finden....
Nur in einem sind sich alle einig:Die Computerbildspiele ist wirklich in jeder Hinsicht unerträglich! ;D

P.S. Was willst du denn über mein Alter wissen?
Ich gehöre nicht in den von dir behaupten Altersbereich!
Ich kannte die PC Player sehr wohl, hab mich aber nicht wirklich für sie interessiert!Irgendwie fand ich die Gamestar schon immer am Besten!:)

Gruß vom Don

tokugawa
2004-03-01, 15:23:54
Original geschrieben von bans3i
Also ich bin schon auf die PCGH gespannt was die über den NV40 schreiben werden!! Wird überhaupt vor der Cbit irgendetwas bekanntgegeben werden? Ja das mit der Gamestar ist ne andere Sache also wenn die sowas in ihr Heft rein schreiben wird doch schon was dran sein, weil sie werden sich doch nicht einfach auf irgendetwas einlassen was sie nicht genau wissen ob es richtig ist oder nicht. Also ich habe die GameStar selber nicht aber wenn die sowas machen würden, einfach irgendwas reinzuschreiben was gar nicht stimmt, würde das sicher an ihrer Glaubwürdigkeit leiden. Ok es ist nur ein Spielemagazin aber man sollte ja trotzdem auch über Hardware was richtiges und nicht nur Blödsinn reinschreiben.


Was ich der Gamestar nicht zutraue, ist, dass die einfach nur lügen.

Ich denke schon, dass die die Informationen direkt von NVidia haben. Und die werden halt das mit den 600% oder was auch immer verklickert haben. Ob Gamestar das selber nachprüfen konnte, oder ob es wirklich nur "Informationen von NVidia" (=Marketing-Blah) war, werd ich wohl erst erfahren wenn meine Ausgabe der GameStar endlich ankommt ;D

tokugawa
2004-03-01, 15:29:39
Original geschrieben von Sk_Antilles
Ich war von (fast) Anfang an Abonnent der PcPlayer. Und ich muss sagen, dass man sich bei den Tests wirklich auf die vergebenen Punktzahlen verlassen konnte.
Soweit ich mich erinnern kann wurde aber der Verlag von der PcPlayer von einen anderen Zeitschriftenverlag aufgekauft und somit wurde auch das Ende der PcPlayer besiegelt...
Man bekam dann automatisch ein Abo für die GameStar, worauf ich aber dankend verzichtet habe.

Äh. So wie du das darstellst, ist das nicht ganz richtig (und auch nicht ganz falsch).

PC Player war ursprünglich eine Zeitschrift des WEKA Verlags (selber Verlag wie die DOS International... äh... "PC Magazin").

Wurde dann von Future Publishing aufgekauft (weltweit größter Zeitschriftenverlag, die bringen auch die amerikanische PC Gamer heraus, und die PC Player wurde ganz auf "deutsche Variante der PC Gamer" getrimmt).

Irgendwie klappte das nicht, und so wurde die PC Player von Future Publishing eingestampft.

Zur Rettung kam die GameStar (die NICHTS mit Future Publishing zu tun hat), die ja großteils aus ehemaligen PC Player-Mitarbeitern besteht (und ich kann großteils bestätigen, dass deren Qualität der PC Player entspricht). Die hat bewirkt, dass jene Abonnenten der PC Player immerhin eine gleichwertige Zeitschrift angeboten bekommen haben. Ich hab's nicht bereut. Die PC Player hat in den letzten Monaten ja leider drastisch an Qualität verloren, vermutlich dank Future Publishing.

So wie du das darstellst, klingt es so als hätte der GameStar-Verlag die PC Player eingestampft, dem war aber nicht so.

tokugawa
2004-03-01, 15:33:04
Original geschrieben von deekey777
Nichts gegen die Gamestar, bitte - als Spilezeitschrift ist die GS wirklich gut. Bei Hardware kann man aber alle Spielezeitschriften vergessen.

100% ACK! Die Hardware-Sektion der GameStar ist ziemlich mies, aber das war bei der PC Player und allen anderen Spielezeitschriften nicht anders.

Ich les eine Spielezeitschrft ja auch nicht wegen des Hardware-Teils, sondern um einen Überblick über aktuelle Spiele zu bekommen, und da ist die GameStar der würdige Quasi-Nachfolger (aufgrund beinahe gleichen Redakteursteam) der PC Player.

Sk_Antilles
2004-03-01, 15:39:27
Ja, hatte es wohl nicht mehr so recht in Erinnerung gehabt.

Als die PcPlayer vom Future Verlag herausgebracht wurde habe ich auch einen deutlichen Qualitätsverlust bemerkt. Auch sind dann damals viele von den Redakteuren abegwandert.

Da damals aber die GameStar schon einen nicht so tollen Ruf hatte, wollte ich mir nicht so ein Abo antun...heute vielleicht zu Unrecht.

Zu den Hardwaretests: Naja es sollte sich rumgesprochen haben, das diese nicht besonders toll sind. Schließlich sind das aber auch Spielezeitschriften. Eventuell Tests von Eingabegeräte sind akzeptabel (Joysticks, Lenkräder etc.)

r@e
2004-03-02, 05:16:46
Original geschrieben von Ailuros
Bei mir steht Spekulations-Forum am oberen Rand :P Auch Spekulationen brauchen irgendwelche Anhaltspunkte und nicht Wunschdenken oder Irrglaube.

Razor

r@e
2004-03-02, 05:21:32
Original geschrieben von tokugawa
Ob Gamestar das selber nachprüfen konnte, oder ob es wirklich nur "Informationen von NVidia" (=Marketing-Blah) war, werd ich wohl erst erfahren wenn meine Ausgabe der GameStar endlich ankommt ;D Wie das ?
Oder meinst Du, dass da "Information stammt direkt von nVidia-Mitarbeiter 'sowiso', welcher unter der eMail 'sowasaberauch' kontaktet werden kann, um die Echtheit dieser Meldung zu bestätigen" steht ?

Da glaub mal dran.
GS hat (wieder mal) von TI abegeschreiben...
That's it !

Razor

P.S.: Und die Chance, das eine TI-Meldung (im GraKa-Sektor) richtig ist, dürfte bei maximal 50% liegen... oder eher 40%... neee... doch eher... ;)

Ailuros
2004-03-02, 08:19:06
Original geschrieben von r@e
Auch Spekulationen brauchen irgendwelche Anhaltspunkte und nicht Wunschdenken oder Irrglaube.

Razor

True....och Du weist doch genau wie das meistens mit Spekulationen ist. Lass doch die Leute spielen; sie werden ja frueher oder spaeter dann schon sehen dass je hoeher die Erwartungen, desto groesser die Chance der "Enttaeuschungen". Effizienz ist keine Angelegenheit die unbedingt mit extrem hohen Zahlen zu tun hat. ;)

ShadowXX
2004-03-02, 12:21:31
Original geschrieben von tokugawa
Was ich der Gamestar nicht zutraue, ist, dass die einfach nur lügen.

Ich denke schon, dass die die Informationen direkt von NVidia haben. Und die werden halt das mit den 600% oder was auch immer verklickert haben. Ob Gamestar das selber nachprüfen konnte, oder ob es wirklich nur "Informationen von NVidia" (=Marketing-Blah) war, werd ich wohl erst erfahren wenn meine Ausgabe der GameStar endlich ankommt ;D

Nimm dir mal eine aeltere Gamestar vor, in der die ersten "Wundermeldungen" ueber den nv30 drinstehen...dann vergleiche mit der Wirklichkeit...

Und dann reden wir noch mal darueber inwieweit GS abschreibt und selbst dazuinterprtiert...und sich auch Teilweise ausde..aeaeaeae durch hintergruendige Gedankengaenge andere Theorien hervorbringt;D ;D

J.S.Shadow

deekey777
2004-03-02, 21:53:13
Zum eigentlichen Thema: Der Artikel in der aktuellen Gamestar ist eine Ansammlung irgendwelcher schon bekannten Details in Verbindung mit Kritik an 5800 und Philosophieren über die Zukunft - auf 2 Seiten!

BlackBirdSR
2004-03-02, 22:10:33
War doch klar, dass "handfeste Fakten" mehr in Richtung "Spekulation und Wunschdenken" interpretiert werden müssen.

ShadowXX
2004-03-02, 22:21:29
Original geschrieben von deekey777
Zum eigentlichen Thema: Der Artikel in der aktuellen Gamestar ist eine Ansammlung irgendwelcher schon bekannten Details in Verbindung mit Kritik an 5800 und Philosophieren über die Zukunft - auf 2 Seiten!

Wobei da die Frage sein duerfte: Welche Informationen sind den wirklich bekannt....eigentlich nur, das er in 0,13 hergstellt wird...

Der Rest sind alles I-Net "Fakten"....und die sind reine Spekulation....

J.S.Shadow

deekey777
2004-03-02, 22:57:47
Original geschrieben von ShadowXX
Wobei da die Frage sein duerfte: Welche Informationen sind den wirklich bekannt....eigentlich nur, das er in 0,13 hergstellt wird...

Der Rest sind alles I-Net "Fakten"....und die sind reine Spekulation....

J.S.Shadow

Ich meinte: Uns bekannte Fakten.

Noch interessanter ist dieser Satz:"Dessen (DX9.0c) wesentliche Neuerung ist nach unseren Informationen die Unterstützung des Shader-Models 3.0 mit erweiterten Pixel- und Vertex-Shadern."(Gamestar 04/04, Seite 188)

Danach sind die Informationen zu DX 9.0c so geheim, dass erst die Gamestar für alle verfügbar machte.
Zum Glück gibt es andere Artikel, ua über Splinter Cell 2 oder BF: Vietnam (im Unterschied zu der aktuellen PCGames richtiger Test, da die GS eigenen Angaben nach eine Goldmaster-Version hatte).

Gast
2004-03-02, 23:30:49
http://www.nvidia.com/props/IO/10026/78/Doom3.jpg

Gast
2004-03-02, 23:59:32
Original geschrieben von Keas
Ich hab meine GameStar heute erhalten und die haben exklusive Infos zum NV40. Unter anderem warten auf uns 16 statt 8 Pipelines, sehr hoher Takt, erweiterte shader etc. was aber schon bekannt sein sollte. Das interressante in dem Artikel find ich, das Nvidia behauptet, in Half Life 2 mit dem NV40 600% und in Doom 3 400% schneller zu sein als der GeForce FX 5950 Ultra. Was haltet ihr davon ? Ich freu mich auf jeden Fall auf die Karte bzw. die ersten Tests :)!

Und Rosinen backen die NV40 auch.... wird die Gamestar demnächst behaupten!

Wenn ich in meine Glaskugel schaue wird folgendes Bild immer schärfer!

1. NV wird max. 5 Testsamples in EUROPA in den kommenden Wochen an die Presse rausgeben.

2. Ein optimierter Treiber, der nicht WHCQL-ZERTIFIZIERT ist, wird belegen das die Karte bei 24-Bit FL-Point Berechnungen um ca. 30% schneller ist als eine 9800XT.

3. Die Lieferfähigkeit wird sich auf ENDE July verschieben, da die bisherige Ausbäute in der Produktion sehr gering ist.

FAZIT:

NV40 wird den INFORMIERTEN Gamer nicht aus der Reserve locken! Die bisherige Grafikkarten-Serie von ATI (9800XT) reicht völlig aus und wird in den kommenden 12 Monaten weiterhin unangefochtener Preis/Leistungs - Sieger bleiben.



Grüsse
Gast

Gast
2004-03-03, 00:38:03
1. weicht ihr vom Thema ab es geht um NV 40 und nicht dem Spielemagazin wie im Header zu lesen ist
2. Wird der NV 40 schnell. Aus 2 Gründen der erste ist die Spitze vor ATI wieder zu erlangen. Der 2. um die abgedrifteten Ungläubigen wieder zu NV scharen.
3. Ist der Kampf um das Spiel des Jahres noch lange nicht ausgefochten (was ich grad sehr witzig finde sind die Kooperationen der Firmen wie ATI->Valve Nvidia->IDsoftware die dann eigentlich folgt weitergehen müsste AMD macht mit ATI, Intel Mit NVidia (is ja schon so). Bin ja dann gespannt welcher Betriebsoftware dann zugeordnet wird.

Ok genug geschwafelt.

Ich freu mich im jdenfall auf doom3. denn da kann ich mich wieder in die Zeit reinversetzen wie bei doom2, als es rauskam. Als man beim durchspielen noch richtig erschrocken ist und einem es durch mark und Bein gefahren ist. :) Die Altzocker wissen von was ich rede.
Die Frage ist hol ich mir nen 5.1 Speakersystem oder ein 5.1 Headset um die Nachbarn zu schonen :)

Ailuros
2004-03-03, 01:12:47
Hmmmm also mit dem Sound hab ich das schon geregelt; ich muss ja windows-clicks bis ins andere Ende der Wohnung hoeren koennen und meine Nachbarn sind ein Stueck zu weit entfernt.

*klick* ~~~~~~droehhhhhhn~~~~~~~~~ ;D

ice cool69
2004-03-03, 01:38:37
@ Topic

3DFX hat bei der Ankündigung der VOODOO2 damals angegeben dass diese ca. 10x so schnell sein wird wie der Vorgänger.

egdusp
2004-03-03, 01:59:22
[QUOTE]Original geschrieben von ice cool69
@ Topic

3DFX hat bei der Ankündigung der VOODOO2 damals angegeben dass diese ca. 10x so schnell sein wird wie der Vorgänger. [/QUOTE

Und wie schnell wae sie durchschnittlich? Meine erste Grafikkarte, bei der ich wußte was sie machte, war eine Mystique (170), mit nur rudimentären 3D Fähigkeiten.

Danach kam eine Voodoo1, aber wirklich Plan hatte ich davon immer noch nicht. Erst ab der GF2 GTS war so etwas wie Grundverständnis vorhanden.

Ich tippe mal, dass Voodoo1 = Voodoo2 /3.

mfg
egdusp

P.s.: Schreibt niemals besoffen Posts.

Gast
2004-03-03, 03:58:31
Original geschrieben von r@e
Wie das ?
Oder meinst Du, dass da "Information stammt direkt von nVidia-Mitarbeiter 'sowiso', welcher unter der eMail 'sowasaberauch' kontaktet werden kann, um die Echtheit dieser Meldung zu bestätigen" steht ?

Da glaub mal dran.
GS hat (wieder mal) von TI abegeschreiben...
That's it !

Razor

P.S.: Und die Chance, das eine TI-Meldung (im GraKa-Sektor) richtig ist, dürfte bei maximal 50% liegen... oder eher 40%... neee... doch eher... ;)

Irgendwie hab ich jetzt keine Lust auf dein wirres Gerede einzugehen.

Das einzige was ich konkret gesagt habe ist, dass ich mir den Artikel in der GameStar selbst anschauen werd, bevor ich irgendwelche Vorurteile ausspreche.

Ich hab jetzt meine Ausgabe erhalten, und komme zu folgendem Schluß:

a) GameStar hat einfach alle Gerüchte aus dem Internet (nicht nur TI) zusammengetragen, und auch so deklariert. Sie schreiben explizit, dass es unbestätigt ist, und nur "womöglich". Also zumindest ein Fortschritt gegenüber TI

b) Damit sind alle Kritiken gegen die GS in diesem Thread void. Leute sollten vielleicht zuerst selbst etwas lesen bevor sie über etwas herziehen

c) Ich muß allerdings zugeben, dass es für einen DAU leicht ist, in der GameStar die Hinweise darauf dass es nur Gerüchte sind, zu "überlesen". Da hätte die GS deutlicher sein müssen. Ein DAU wird womöglich glauben dass es Fakten sind. Aber ein DAU ist ein DAU, und ich halte mich nicht für einen.

Gast
2004-03-03, 04:00:11
Original geschrieben von ShadowXX
Nimm dir mal eine aeltere Gamestar vor, in der die ersten "Wundermeldungen" ueber den nv30 drinstehen...dann vergleiche mit der Wirklichkeit...

Und dann reden wir noch mal darueber inwieweit GS abschreibt und selbst dazuinterprtiert...und sich auch Teilweise ausde..aeaeaeae durch hintergruendige Gedankengaenge andere Theorien hervorbringt;D ;D

J.S.Shadow


Und dabei immer dazuschreibt, wenn es unbestätigt ist, bzw. den Grad der Bestätigtheit (Worte wie "vermutlich", "womöglich" sind ein guter Anhaltspunkt).

Naja, eine Spielezeitschrift beurteilt man jedenfalls nicht am Hardware-Teil, da ist jede Spielezeitschrift mies.

Gast
2004-03-03, 04:05:00
Original geschrieben von Gast
Und Rosinen backen die NV40 auch.... wird die Gamestar demnächst behaupten!

Wenn ich in meine Glaskugel schaue wird folgendes Bild immer schärfer!

1. NV wird max. 5 Testsamples in EUROPA in den kommenden Wochen an die Presse rausgeben.

2. Ein optimierter Treiber, der nicht WHCQL-ZERTIFIZIERT ist, wird belegen das die Karte bei 24-Bit FL-Point Berechnungen um ca. 30% schneller ist als eine 9800XT.

3. Die Lieferfähigkeit wird sich auf ENDE July verschieben, da die bisherige Ausbäute in der Produktion sehr gering ist.

FAZIT:

NV40 wird den INFORMIERTEN Gamer nicht aus der Reserve locken! Die bisherige Grafikkarten-Serie von ATI (9800XT) reicht völlig aus und wird in den kommenden 12 Monaten weiterhin unangefochtener Preis/Leistungs - Sieger bleiben.



Grüsse
Gast

Der INFORMIERTE Gamer kann auch lesen, und liest aus diesem GameStar Artikel deutlich heraus, dass auch die GameStar nur die Gerüchte angesammelt hat. In keinster Weise behaupten die, es wären schon die Endfakten!

Ich behaupte jetzt mal, eine solche Ansammlung an Gerüchten vor einem Launch ist sogar positiv; erstens bekommt man eine Orientierung, was heute technisch möglich ist (=was man in Gerüchten als wahrscheinlich erachtet), und man kann selbst vergleichen, wie das dann auf das Endprodukt zutrifft.

Nicht alle vergeuden so viel Zeit wie wir, um uns technisch am Laufenden zu halten, da kann eine Ansammlung an Gerüchten, die ungefähr das _erwartete_ "Tech Level" von neuer Hardware wiederspiegelt (ich wiederhole: Gerüchte/Spekulationen = Erwartungen), nützlich sein.

tokugawa
2004-03-03, 04:07:17
Oops, sorry, hab vergessen mich auf dieser Maschine einzuloggen. Die obigen Gast-Postings sind von mir.

BlackBirdSR
2004-03-03, 08:34:58
Original geschrieben von Gast
Der INFORMIERTE Gamer kann auch lesen, und liest aus diesem GameStar Artikel deutlich heraus, dass auch die GameStar nur die Gerüchte angesammelt hat. In keinster Weise behaupten die, es wären schon die Endfakten!

Ich behaupte jetzt mal, eine solche Ansammlung an Gerüchten vor einem Launch ist sogar positiv; erstens bekommt man eine Orientierung, was heute technisch möglich ist (=was man in Gerüchten als wahrscheinlich erachtet), und man kann selbst vergleichen, wie das dann auf das Endprodukt zutrifft.

Nicht alle vergeuden so viel Zeit wie wir, um uns technisch am Laufenden zu halten, da kann eine Ansammlung an Gerüchten, die ungefähr das _erwartete_ "Tech Level" von neuer Hardware wiederspiegelt (ich wiederhole: Gerüchte/Spekulationen = Erwartungen), nützlich sein.


sorry, aber die Berichterstattung zur NV40 ist eine Katastrophe.
Noch viel schlimmer sind dann die Äusserungen des Redakteurs dazu. -> halbwissen und Fehlinformationen bündeln sich zu einem gefährlichen Teller Hypesalat.
Aber ist genauso wie beim 64bit vs Hyperthreading Artikel. Einfach grausam....

marco42
2004-03-03, 20:29:13
Original geschrieben von Gast
Wenn wir schon so Anfangen bring ich noch die ASM und den Amiga-Jocker mit in's Spiel. ABer da waren viele hier ja noch Quark im Schaufenster;D

Und da gab es noch die Power Play und spaeter den PC Jocker. Das waren die Zeiten, wo die Leute noch Spielen wie Monkey Island 2 entgegen lechzen.

aths
2004-03-03, 21:48:34
Original geschrieben von ice cool69
@ Topic

3DFX hat bei der Ankündigung der VOODOO2 damals angegeben dass diese ca. 10x so schnell sein wird wie der Vorgänger. 3dfx sprach davon, dass die Karte 10x so schnell wie der N64 sein würde.

Mit Voodoo2 SLI hatte man gegenüber Voodoo1 immerhin 7,2x Texelfüllrate.

Exxtreme
2004-03-05, 13:01:15
Jen-Hsun zum NV4x:

http://www.beyond3d.com/#news10574

Winter[Raven]
2004-03-05, 13:07:42
Original geschrieben von Exxtreme
Jen-Hsun zum NV4x:

http://www.beyond3d.com/#news10574

alt die news ...:zzz::zzz: .... -_-

Quasar
2004-03-05, 13:08:26
Original geschrieben von Jen-Hsun Huang
n terms of scalability, as with previous generations, NV4x will span a top to bottom line of graphics processors for the PC market space, however there has been a greater emphasis in NV4x’s design to implement this goal.

:D
Also doch ein 2x2-Pixelprozessor als Basiselement mit verschiedenen Skalierungsstufen? ;)

Winter[Raven]
2004-03-05, 13:16:11
WE CAN NOW confirm that Nvidia will have two versions of the NV40 chip once it is ready to show it to the world.
As is now traditional, Nvidia will have one extremely expensive card that will cost about €/$499. This card is expected to be faster clocked and it will have faster memory as well.

The memory target sits close to the 600MHz range but it's still being tested for the right speed. As previously suggested, the card will use GDDR 3 memory which consumes less power and runs cooler then DDR 2.

The NV40 non ultra, amateur version is going to be clocked lower but we don’t have any details how slower yet. The price will be around €/$299.

Both boards will use similar memory configurations but we suspect that Nvidia might offer a 128 bit version of the card.

Nvidia will use similar PCBs (printed circuit boards) for desktop and workstation cards as before.

Production of NV40/NV40 Ultra is scheduled for April. µ




http://www.theinquirer.net/?article=14533

Demirug
2004-03-05, 13:22:24
Original geschrieben von Quasar
:D
Also doch ein 2x2-Pixelprozessor als Basiselement mit verschiedenen Skalierungsstufen? ;)

Das würde die IMHO sinnvollste Lösung sein.

Eine mit 4 einen mit 3 einem mit 2 und dann noch einen mit einem.

Exxtreme
2004-03-05, 13:31:13
Original geschrieben von Winter[Raven]
alt die news ...:zzz::zzz: .... -_-
Habe ich hier im Thread noch nicht gesehen. :|

Ailuros
2004-03-05, 13:39:28
Original geschrieben von Winter[Raven]
http://www.theinquirer.net/?article=14533

Auch nichts neues <shrug> :bäh:

Winter[Raven]
2004-03-05, 13:39:33
@ Exxtreme


Jemand hat dies schon im "NV40 16 pipes" tread gepostet ^^.

Demirug
2004-03-05, 13:49:11
Original geschrieben von Ailuros
Auch nichts neues <shrug> :bäh:

Stimmt aber den http://www.theinquirer.net/?article=14524 hatten wir glaube ich noch nicht.

Winter[Raven]
2004-03-05, 13:55:31
Doch doch Demi ... ^^. Im Chips Forum ;)

Wallman
2004-03-05, 17:25:37
"NV4X generation has MPEG 1,2,4 encode/decode"
Für alle Videofans ein weiteres, nettes Feature.
Mal ganz ehrlich der NV 40 wird doch immer interessanter.

StefanV
2004-03-05, 17:39:26
Original geschrieben von Wallman
"NV4X generation has MPEG 1,2,4 encode/decode"
Für alle Videofans ein weiteres, nettes Feature.
Mal ganz ehrlich der NV 40 wird doch immer interessanter.

Nunja, man sollte auch nicht vergessen, daß der R300 das samt Ableger auch schon kann, nV zieht hier mehr oder minder nur mit ATI gleich...

Demirug
2004-03-05, 17:49:20
Original geschrieben von Stefan Payne
Nunja, man sollte auch nicht vergessen, daß der R300 das samt Ableger auch schon kann, nV zieht hier mehr oder minder nur mit ATI gleich...

Encoden? das wäre mir jetzt aber neu?

Wenn ich mir die Formeln dafür anschaue dann dürfte man das kaum in einem R300 reinbekommen. Könnte aber eine schöne PS 3.0 Anwendung werden.

Gast
2004-03-05, 18:01:53
Original geschrieben von Demirug
Encoden? das wäre mir jetzt aber neu?

Wenn ich mir die Formeln dafür anschaue dann dürfte man das kaum in einem R300 reinbekommen. Könnte aber eine schöne PS 3.0 Anwendung werden.

Könnte, dürfte und müßte hätte ich von dir nicht erwartet!

Fakten zählen und nichts anderes!

Demirug
2004-03-05, 18:14:33
Original geschrieben von Gast
Könnte, dürfte und müßte hätte ich von dir nicht erwartet!

Fakten zählen und nichts anderes!

Wenn ich immer nur das tun würde was man erwartet könnte ich ja auch ein Bot sein.

Fakten sind was für Technologieforum. Hier ist die Verwendung der Möglichkeitsform fast schon ein Gesetzt.

Quasar
2004-03-05, 18:20:55
Original geschrieben von Stefan Payne
Nunja, man sollte auch nicht vergessen, daß der R300 das samt Ableger auch schon kann, nV zieht hier mehr oder minder nur mit ATI gleich...

War das nicht "nur" DivX?

deekey777
2004-03-05, 18:26:50
Original geschrieben von Stefan Payne
Nunja, man sollte auch nicht vergessen, daß der R300 das samt Ableger auch schon kann, nV zieht hier mehr oder minder nur mit ATI gleich...

Leider nur Decoden. DivX geht mit dem DivX Player ganz gut, die WMV-Beschleunigung ist immernoch nicht frei im Catalyst verfügbar (nur im DNA-Treiber, aber buggy). Encoding beherrscht der R300 nicht, vielleicht aber der kommende R420 - zumindest für die AIW-Serie wäre HW Encoding wünschenswert.

Birdman
2004-03-05, 18:28:21
Original geschrieben von Quasar
War das nicht "nur" DivX?
Afaik sogar nur ein oller Deblocking Filter für mpeg4, welcher zur Zeit einfach nur vom DivX Player Unterstützt wird. Das ganze geht dann aber für, soweit ich weiss, alle mpeg4 codecs.

robbitop
2004-03-05, 18:30:40
ja das war aber auch nur zum Abspielen, so dass weniger CPU Last entsteht. Aber hier wird wohl das encoden unterstützt und wenn das deutlich schneller als mit einer dicken CPU geht, wäre mir das recht, zumal die CPU dann nicht allzu ausgelastet sein dürfte und man den PC nebenher noch nutzen kann. Tolle Entwicklung imo.

ShadowXX
2004-03-05, 18:40:38
Original geschrieben von robbitop
ja das war aber auch nur zum Abspielen, so dass weniger CPU Last entsteht. Aber hier wird wohl das encoden unterstützt und wenn das deutlich schneller als mit einer dicken CPU geht, wäre mir das recht, zumal die CPU dann nicht allzu ausgelastet sein dürfte und man den PC nebenher noch nutzen kann. Tolle Entwicklung imo.

Langsam werden es mir doch arg zu viel Features...der nV40 hoert sich inzwischen nach einer Eierlegenden Wollmilchsau an..

Nicht das es nicht toll waere, wenn er das dann zum Schluss wirklich alles kann, was er inzwischen so koennen soll...aber langsam driften die meisten wohl ins Fantastische...

Wenn die Haelfte ueber den nV40 wahr ist, ist er schon ein sehr sehr guter Chip...auf den sich auch yu warten lohnen wuerde (und noch einer der in die PR-Falle von nV getappt ist....)

J.S.Shadow

aths
2004-03-05, 19:53:26
Original geschrieben von Gast
Könnte, dürfte und müßte hätte ich von dir nicht erwartet!

Fakten zählen und nichts anderes! Wenn du mal genau lesen würdest, könntest du aus Demirugs Vermutungen mehr Wahrzeit ziehen, als aus den Behauptungen vieler anderer.

AlfredENeumann
2004-03-05, 20:38:51
"NV4X generation has MPEG 1,2,4 encode/decode"


Kann ich mir nicht so ganz vorstellen.
Wird das nicht arg teuer, alleine nur wegen irgendwelchen lizenzen?

LovesuckZ
2004-03-05, 20:46:17
Erst empfohlen, dann gebündelt (http://www.digitimes.com/NewsShow/Article1.asp?datePublish=2004/03/04&pages=A8&seq=48)

Godmode
2004-03-05, 20:51:03
Nur weil ein Next-Gen Game bei einer Next-Gen Karte dabei ist, heisst es noch lange nicht dass ich mir diese Karte auch kaufe!! Ich warte ersteinmal ab was die beiden "neuen" können und dann entscheide ich was ich kaufe. Obwohl ich eher zum NV40 tendiere wegen der PS/VS 3.0 für Entwicklungszwecke.

Demirug
2004-03-05, 21:09:04
Original geschrieben von AlfredENeumann
"NV4X generation has MPEG 1,2,4 encode/decode"


Kann ich mir nicht so ganz vorstellen.
Wird das nicht arg teuer, alleine nur wegen irgendwelchen lizenzen?

Kann nVidia egal sein. Die Lizenzen müssen von den Herstellern der Endprodukte gekauft werden.

MPEG 4 kostet $0,40 und MPEG 2 $2,50. Es gibt da wohl auch noch bestimmte Mengerabatte.

thop
2004-03-05, 21:12:33
Wenn das mit dem MPEG4 wieder so "toll" ist wie bei ATI mit dem anderem dingsda (namen vergesseb), wos dann nur ein spezieller Player kann, taugt das sowieso nix.

Winter[Raven]
2004-03-05, 21:50:44
Langsam werden es mir doch arg zu viel Features...der nV40 hoert sich inzwischen nach einer Eierlegenden Wollmilchsau an..

Nicht das es nicht toll waere, wenn er das dann zum Schluss wirklich alles kann, was er inzwischen so koennen soll...aber langsam driften die meisten wohl ins Fantastische...

Wenn die Haelfte ueber den nV40 wahr ist, ist er schon ein sehr sehr guter Chip...auf den sich auch yu warten lohnen wuerde (und noch einer der in die PR-Falle von nV getappt ist....

Nja, aber sowas nennt sich auch den Konkurennten TOTTRAMMPELN !

Ich denke Nvidia wird alles aufbitten was sie haben muss Ati wieder in die Schränke zuverweisen ... bzw. spätestens mit dem NV50.

Es ist natürlich klar das nicht viele die sich gerade eine Radeon 9800ro oder XT gekauft haben werden sofort auf den R420 oder NV40 umstiegen, wo es ja keine Shader 3.0 games gibt. Also muss Nvidia nicht nur mit ihren Shadern 3.0 zeigen das diese was taugen, sondern sie müssen auch sehr viel an Features aufbitten, um die Kunden zuüberzeugen auf den NV40 zusteigen.

Und das jetzt der NV40 mit DOOM III gebündelt werdne soll war eigentlich von vorne klar gewesen sein, das NV ihre extrem gute Beziehungen zu ID spielen lässt um DOOM III als Lunchpartner zuhaben.

LovesuckZ
2004-03-05, 21:52:30
Evildeus
Seems that Nv will be talking of PS/VS 3.0 at the Game Developer Conference 2004 and one of the presentation will be Cinematic Effects II: The Revenge
http://www.hardware.fr/news/lire/05-03-2004/


http://www.beyond3d.com/forum/viewtopic.php?p=233177#233177

ShadowXX
2004-03-05, 22:20:25
Original geschrieben von LovesuckZ
Erst empfohlen, dann gebündelt (http://www.digitimes.com/NewsShow/Article1.asp?datePublish=2004/03/04&pages=A8&seq=48)

Das Doom3 allerdings ein Online Game geworden ist, muss erst in den letzten Tagen passiert sein:

Nvidia plans to push its sales of its graphics cards by bundling the online game, Doom 3, to be launched by id Software in April, according to sources.

;D ;D ;D

J.S.Shadow

P.S.
ist ein quote aus dem Link

Gast
2004-03-05, 22:55:05
Das eigentlich ne gute Idee den NV40 mit Doom3 anzubieten.
Wenn sie es machen , bestimmt nur mit der Ultra im Bundle und dann für 550 Euro ;D

deekey777
2004-03-05, 23:36:10
Kuwelle (http://www.warp2search.net/modules.php?name=News&file=article&sid=16808)

"Just a heads up for everybody that a little birdy tells me ( This is Rumour at the Moment) that Nvidia as part of their Deal with id Software should have a DOOM 3 benchmark utility ready to download on their website a couple of weeks before id Software releases DOOM 3 to see if your current system can handle the presssure! I'll post more Info as I get it."

Auch ATi wollte bei der Präsentation von 9800XT einen HL2-Benchmark mitveröffentlichen.

Ailuros
2004-03-06, 00:44:05
Und das jetzt der NV40 mit DOOM III gebündelt werdne soll war eigentlich von vorne klar gewesen sein, das NV ihre extrem gute Beziehungen zu ID spielen lässt um DOOM III als Lunchpartner zuhaben.

Wenn ich jetzt auf die sogenannte "gute Beziehung" kommentiere, bricht wieder alle Hoelle los.

Gute Beziehungen in solchen Faellen sehen so aus: $$$$$$, und das ohne Ausnahmen.

Birdman
2004-03-06, 00:47:55
Original geschrieben von Ailuros
Wenn ich jetzt auf die sogenannte "gute Beziehung" kommentiere, bricht wieder alle Hoelle los.
Gute Beziehungen in solchen Faellen sehen so aus: $$$$$$, und das ohne Ausnahmen.
Na ja, gekostet hat es sicher was, nur wird es sicher kein Preiskampf mit/gegen ATi gewesen sein, denn diese haben einen DoomIII Bundle-Vertrag wohl eh mit Ihrer Leaking Aktion der Alpha damals verspielt.

ShadowXX
2004-03-06, 00:48:00
Original geschrieben von Ailuros
Wenn ich jetzt auf die sogenannte "gute Beziehung" kommentiere, bricht wieder alle Hoelle los.

Gute Beziehungen in solchen Faellen sehen so aus: $$$$$$, und das ohne Ausnahmen.

wer was anderes denkt ist entwender naviv oder zu gut fuer diese Welt...

J.S.Shadow

ShadowXX
2004-03-06, 00:51:21
Original geschrieben von Birdman
Na ja, gekostet hat es sicher was, nur wird es sicher kein Preiskampf mit/gegen ATi gewesen sein, denn diese haben einen DoomIII Bundle-Vertrag wohl eh mit Ihrer Leaking Aktion der Alpha damals verspielt.

ich glaube nicht, dass ATI die alpha mit voller Absicht geleakt hat...und ich glaube auch nicht, dass das bei id jemand annimmt...

Das ist Buisness...da zaehlt (fast) nur Geld eine Rolle...wenn ATI die "richtige" Summe zahlen wuerde, wuerde id auch ATI empfehlen...

J.S.Shadow

P.S.
jeder Mann hat seinen Preis...auch JC

thop
2004-03-06, 00:51:36
Original geschrieben von deekey777
that Nvidia as part of their Deal with id Software should have a DOOM 3 benchmark utility ready to download on their website a couple of weeks before id Software releases DOOM 3 to see if your current system can handle the presssure!
Was er damit eigentlich sagen wollte ist: to show how much faster nV hardware runs D3!!

HL2 all over again, diesmal aus nV Sicht, nur das nV/id den Deal wohl nicht so verkack0rn wie Valve/ATI.

Winter[Raven]
2004-03-06, 01:02:47
Nunja, auch wenn dort sicherlich eine gewisse Summe geflossen ist, so glaube ich trotzdem das John auch persönlich dies nicht nur wegen dem Geld macht. Es wird schon lange ID und NV nachgesagt zusammenzuarbeiten ... besucht john nicht alle 3 Monate irgend eine NV ingeneurskonfirenz zum thema NX-Generation Technology ?

Oder glaubt irgend jemand daran das Nvidia bei ID antanzt, ine schöne Summe oder ein Ferrari an john rüberwachsen lässt damit er irgend etwas in seine 3D engines einbaut, was für Nv gut ist.

Ehe ist es andersrum, das John seine Ideen und Vorstellungen mit Nv ausdiskuttiert und Nv dann versucht seinen Wünschen nachzukommen. Und das DOOM III nunmal auf FX Karten besser läuft, hat Ati es selbst verbockt.

Ailuros
2004-03-06, 01:13:03
Erstmal floss die besagte Summe nicht in iD's oder JC's Richtung sondern dem "Mittelmann" und zweitens bevorzugt JC diese Loesungen die auch besser fuer ihn laufen. Ob es nun manchen passt oder nicht, NVIDIA hatte schon immer einen guten Vorsprung mit ihrem OpenGL Treiber und sie haben auch nie die Ohren zugestopft von dem was sich JC gewuenscht hat, in der Vergangenheit sowie auch heute.

JC (wie auch jeder Entwickler) IMHO wuerde aber nicht dazu kommen unfair zu einer faehigen Loesung zu sein, oder sie in schlechtes Licht stellen (nur so nebenbei um Missverstaendnissen zu entgehen). Haette vor Jahren 3Dfx's Management auf JC gehoert, dann haetten sie auch nicht mit mathematischer Genauigkeit in ein paar Jahren den Untergang erlebt.

Und das DOOM III nunmal auf FX Karten besser läuft, hat Ati es selbst verbockt.

Tatsaechlich und hab ich auch schon des oefteren behauptet. Trotzdem liefen R3xx boards auch nicht um sooo viel langsamer in den alten fruehzeitigen Tests; ueberhaupt wenn man in Betracht nimmt, dass diese mit ihrer vollen Praezision das Spiel rendern.

r@e
2004-03-06, 05:00:31
Original geschrieben von Ailuros
<snip> ueberhaupt wenn man in Betracht nimmt, dass diese mit ihrer vollen Praezision das Spiel rendern. Du meinst die 24bit, ja ?
Liegt wohl daran, dass sie schlicht nichts anderes können...
:D

Razor

r@e
2004-03-06, 05:05:56
Original geschrieben von ShadowXX
Langsam werden es mir doch arg zu viel Features...der nV40 hoert sich inzwischen nach einer Eierlegenden Wollmilchsau an..Wieso das ?
PS 3.0 war ja nun wirklich keine Überraschung.
Und damit gibt's wohl Video-Hardware-Unterstützung 'for free'...
(wenn ich da Demirug richtig verstanden habe ;-)
Original geschrieben von ShadowXX
Nicht das es nicht toll waere, wenn er das dann zum Schluss wirklich alles kann, was er inzwischen so koennen soll...aber langsam driften die meisten wohl ins Fantastische...Was soll er denn alles 'können' ?
IMO ist die einzige Änderung wohl die VS/PS 3.0-Unterstützung und ein mächtig erweiterter Treiber... mehr nicht.
Original geschrieben von ShadowXX
Wenn die Haelfte ueber den nV40 wahr ist, ist er schon ein sehr sehr guter Chip...auf den sich auch yu warten lohnen wuerde (und noch einer der in die PR-Falle von nV getappt ist....)Vor allem, wenn die Preis-Spekulation vom INQ stimmt... 500 für das Top-Modell und nur noch 300 für das darunter liegende... wär' schon interessant !
:D

Razor

egdusp
2004-03-06, 08:20:17
Persönliche Beziehungen sind in der Geschäftswelt weit wichtiger als man sich das vorstellt.
Geld spielt natürlich auch eine Rolle, aber wenn es aus irgendeinem Grund Feindschaften/Ärger/etc.. zwischen 2 Firmen , oder genauer gesagt deren Managements, gibt, dann ist es fast egal wieviel Geld einer bietet.
Manager sind auch nur Menschen und zumeist verdammt eigenwillige und sture noch dazu.

mfg
egdusp

robbitop
2004-03-06, 09:26:56
ach allein mit den Pixelshadern soll MPEG-Encoding funktionieren??

Ailuros
2004-03-06, 09:48:54
Original geschrieben von r@e
Du meinst die 24bit, ja ?
Liegt wohl daran, dass sie schlicht nichts anderes können...
:D

Razor

Ich bezweifle dass es jetzt wieder notwendig ist die irrsinnige path-Debatte ueber D3 nochmal anzufangen. Mein voriger Post war IMHO objektiv genug, um eine solche erst gar nicht zu erlauben. Noch einen Schritt weiter bezweifle ich allen Ernstes dass D3 eigentlich mehr als FP16 im Grunde braucht; nichtdestominder gibt es auch wiederum keinen Grund es NICHT zu erwaehnen wenn eine Loesung mit hoeherer Prazision als diese das Spiel rennt.

Der NV30-path (an die dritte Firma) soll angeblich an die 6 Mio gekostet haben und ganz ehrlich waere es auch Bloedsinn gewesen D3 mit dem ARB2 path laufen zu lassen. Hier bezweifle ich (wenn das obrige auch wahr ist) dass die besagte Summe fuer den path war, sondern eher fuer das "bundling", was auch durchaus normal ist in der Industrie. Umsonst bekommt kein IHV einen neues Spiel als bundle, ueberhaupt wenn so heiss erwartet wie D3.

Ailuros
2004-03-06, 09:52:29
Original geschrieben von robbitop
ach allein mit den Pixelshadern soll MPEG-Encoding funktionieren??

Das will ich mal bezweifeln.

Ailuros
2004-03-06, 09:58:30
Original geschrieben von egdusp
Persönliche Beziehungen sind in der Geschäftswelt weit wichtiger als man sich das vorstellt.
Geld spielt natürlich auch eine Rolle, aber wenn es aus irgendeinem Grund Feindschaften/Ärger/etc.. zwischen 2 Firmen , oder genauer gesagt deren Managements, gibt, dann ist es fast egal wieviel Geld einer bietet.
Manager sind auch nur Menschen und zumeist verdammt eigenwillige und sture noch dazu.

mfg
egdusp

Es ist wohl bekannt dass JC nicht gerade froh war ueber den damaligen D3 alpha leak. Dass aendert aber nichts an dem Satz in meinem vorigen Post:

JC (wie auch jeder Entwickler) IMHO wuerde aber nicht dazu kommen unfair zu einer faehigen Loesung zu sein, oder sie in schlechtes Licht stellen (nur so nebenbei um Missverstaendnissen zu entgehen).

Fuer jegliche Schwaechen einer Loesung ist der Entwickler auf keinen Fall verantwortlich; ueberhaupt wenn schon seit Jahren bekannt ist was fuer ein Rendering-Modell D3 anwenden wird.

r@e
2004-03-06, 10:03:23
Original geschrieben von robbitop
ach allein mit den Pixelshadern soll MPEG-Encoding funktionieren?? Ich denke eher an den Pixelprozesser, der für so etwas verwendet werden könnte, der aufgrund seiner Architektur ja in der Lage sein muss komplexe Berechnungen 'CPU-like' durchführen zu können. Vielleicht eröffnet dies ja demnächst ganz andere Möglichkeiten beim Offline-Rendern oder eben auch solchen Aufgaben, wie dem Bitstream-Encoding.

Denke mal, dass Demirug eher auf diesen Anspekt hinaus wollte und nicht so sehr auf ein Encoding via DirectX...

Razor

r@e
2004-03-06, 10:07:45
Auf den ersten Teil des Posts habe ich nicht reagiert, weil ich ihn einfach nicht verstanden habe...
Original geschrieben von Ailuros
Der NV30-path (an die dritte Firma) soll angeblich an die 6 Mio gekostet haben und ganz ehrlich waere es auch Bloedsinn gewesen D3 mit dem ARB2 path laufen zu lassen. Hier bezweifle ich (wenn das obrige auch wahr ist) dass die besagte Summe fuer den path war, sondern eher fuer das "bundling", was auch durchaus normal ist in der Industrie. Umsonst bekommt kein IHV einen neues Spiel als bundle, ueberhaupt wenn so heiss erwartet wie D3. Klar wird nVidia an dem NV30 (NV40 ?) Path 'mitgewirkt' haben (was auch immer man sich darunter vorstellen mag ;-). Glaube aber, dass man 'Entwicklungsunterstützung' und Marketing hier trennen sollte...

Würde mir sogar sehr gut vorstellen können, dass nVidia gar sehr viel mehr als 6mio für das 'Bundle' hingeblättert hat.
:D

Razor

deekey777
2004-03-06, 12:05:21
Und dass DOOM III nunmal auf FX Karten besser läuft, hat Ati es selbst verbockt.

Hm?

Etwas Geschichtsunterricht: Als der NV35 aka 5900 Ultra präsentiert wurde, durften ausgewählte Tester auch mit Doom 3 testen. Doom 3 lief auf NV30/NV35 unter NV30-Pfad, da es angeblich ein Treiberproblem mit ARB2 gab und dieser Pfad auf nVidias nicht lauffähig war:"Nach Aussagen von NVIDIA soll die ARB2 Performance mit der NV30 Leistung im endgültigen Treiber aber identisch sein," - Originalzitat auf THG. Die Radeons liefen natürlich unter ARB2, da diese unter R200 nur etwas schneller sind, was aber zu vernachlässigen ist. Auch die Tatsache, dass die Treiber von ATi (3.4 schon draussen gewesen, getestet wurde mit 3.2) gar nicht auf Doom 3 optimiert waren, sollte auch nicht vergessen werden.
Darum die Frage: Wie kommst du darauf, dass ATi es mit Domm3 verbockt hat?

LovesuckZ
2004-03-06, 12:09:04
Original geschrieben von deekey777
Auch die Tatsache, dass die Treiber von ATi (3.4 schon draussen gewesen, getestet wurde mit 3.2) gar nicht auf Doom 3 optimiert waren, sollte auch nicht vergessen werden.

Es ist doch verboten den Treiber auf bestimmte Application zu "optimieren". Neudeutsch nennt man sowas auch cheat. Und wir wissen, "optimiert" ATi nicht auf einzelnde Spiele.
Ahso zur ARB2 Geschichte: Wem interessiers? Einen fairen Vergleich haette man wohl nur, wenn alle herstellerspezifischen Extensions (hoff so richtig) deaktiviert werden.

Gast
2004-03-06, 12:15:09
Original geschrieben von Winter[Raven]
Nunja, auch wenn dort sicherlich eine gewisse Summe geflossen ist, so glaube ich trotzdem das John auch persönlich dies nicht nur wegen dem Geld macht. Es wird schon lange ID und NV nachgesagt zusammenzuarbeiten ... besucht john nicht alle 3 Monate irgend eine NV ingeneurskonfirenz zum thema NX-Generation Technology ?

Oder glaubt irgend jemand daran das Nvidia bei ID antanzt, ine schöne Summe oder ein Ferrari an john rüberwachsen lässt damit er irgend etwas in seine 3D engines einbaut, was für Nv gut ist.

Ehe ist es andersrum, das John seine Ideen und Vorstellungen mit Nv ausdiskuttiert und Nv dann versucht seinen Wünschen nachzukommen. Und das DOOM III nunmal auf FX Karten besser läuft, hat Ati es selbst verbockt.
Lieber Winter,

du liegts vollkommen falsch!

Doom3 Preview lief auf einer 9800XT schneller als auf einer FX5950.

ID ist wie Valve nunmal gekaufter Partner !

Thats all!

ID wird doch nicht so blöd sein und sein SPIEL auf NV40 ausschließlich anpassen!

Das wäre ja ein verlorener Umsatz von Zig Mio's Kopies.

Grüsse

Gast
2004-03-06, 12:16:32
Original geschrieben von LovesuckZ
Es ist doch verboten den Treiber auf bestimmte Application zu "optimieren". Neudeutsch nennt man sowas auch cheat. Und wir wissen, "optimiert" ATi nicht auf einzelnde Spiele.
Ahso zur ARB2 Geschichte: Wem interessiers? Einen fairen Vergleich haette man wohl nur, wenn alle herstellerspezifischen Extensions (hoff so richtig) deaktiviert werden.

Lovesuck, du verdrehst die Tatsachen!

Aktuell ist 2003 nur NV beim sogg. CEATEn erwischt worden!

ATI hat anno dato mal gecheatet1

Demirug
2004-03-06, 12:19:26
Original geschrieben von Gast
Lovesuck, du verdrehst die Tatsachen!

Aktuell ist 2003 nur NV beim sogg. CEATEn erwischt worden!

ATI hat anno dato mal gecheatet1

Nicht ganz korrekt. Auch ATI hat zumindestens beim 3dmark Shader getauscht.

Von xgi reden wir besser gar nicht. :D

deekey777
2004-03-06, 12:19:53
Original geschrieben von LovesuckZ
Es ist doch verboten den Treiber auf bestimmte Application zu "optimieren". Neudeutsch nennt man sowas auch cheat. Und wir wissen, "optimiert" ATi nicht auf einzelnde Spiele.
Ahso zur ARB2 Geschichte: Wem interessiers? Einen fairen Vergleich haette man wohl nur, wenn alle herstellerspezifischen Extensions (hoff so richtig) deaktiviert werden.

Ich sag nur 3d2003 Patch 340 vs. 52.16&53.0x

Hier ist aber ein Mißverständnis:


Leistung D3&3.4 (http://www.hardocp.com/image.html?image=MTA1MjcyOTc2OEZ5RlFJTXBSY2pfMV8zX2wuZ2lm)
Leistung D3&3.2 (http://www.hardocp.com/image.html?image=MTA1MjcyOTc2OEZ5RlFJTXBSY2pfMl8xX2wuZ2lm)

Siehst du den Unterschied?
[H]ardOCP: If you were saying to yourself that something is not right here, we would have to agree with you. It seems that ATI's latest Catalyst driver is broken when it comes to running DOOM 3.

deekey777
2004-03-06, 12:25:23
Original geschrieben von Demirug
Nicht ganz korrekt. Auch ATI hat zumindestens beim 3dmark Shader getauscht.


Steht auch oben: Nur einmal, aber dieser "Cheat" brachte auch keine Leistungssteigerung wie hier (http://www.de.tomshardware.com/column/20030702/nv_cheating-06.html) , sondern nur soviel (http://www.de.tomshardware.com/column/20030702/nv_cheating-07.html) .

LovesuckZ
2004-03-06, 12:28:50
Original geschrieben von Gast
Aktuell ist 2003 nur NV beim sogg. CEATEn erwischt worden!

3DMark2001/2003, da war nicht nur Nvidia boese *eg*

ATI hat anno dato mal gecheatet1

Ob Software oder Hardware, Cheats sollten grundsaetzlich geaechtet werden. Und da unterscheiden sich beide nicht.

Lieber deekey777,
siehst du den Unterschied zwischen "broken" und "nicht optimiert"? Zweitens wurde als "Cheat" deklariert, wenn es auf bestimmte Application geschieht und nicht allgemein.

Quasar
2004-03-06, 12:34:36
deekey777,

Ich sehe den Unterschied zwischen einem völlig verhunzten Treiber, was Doom3 betrifft (so einen gab's für RtCW auch mal für die FX) und einem Treiber, der akzeptable Frameraten ermöglicht.

Was jetzt die "Cheat"-Debatte, besonders wenn sie so einseitig geführt wird, wieder soll, kann ich nicht nachvollziehen. Wie Demirug schon sagte, hat auch ATi Shader getauscht, auch ATi betreibt Shader-reordering (von einigen [FM *eg*] anfangs auch angeprangert). Wenn sich dadurch nur ein geringer Erfolg erzielen läßt - dumm gelaufen.

Oder hast du in der Schule nur eine "Sechs" wegen Täuschungsversuchs bekommen, wenn du mindestens eine Note besser als ohne geschrieben hättest? Nein - deswegen auch die Abstrafung des Versuchs unabhängig vom Erfolg.

VooDoo7mx
2004-03-06, 12:43:11
Original geschrieben von deekey777
Hm?

Etwas Geschichtsunterricht: Als der NV35 aka 5900 Ultra präsentiert wurde, durften ausgewählte Tester auch mit Doom 3 testen. Doom 3 lief auf NV30/NV35 unter NV30-Pfad, da es angeblich ein Treiberproblem mit ARB2 gab und dieser Pfad auf nVidias nicht lauffähig war:"Nach Aussagen von NVIDIA soll die ARB2 Performance mit der NV30 Leistung im endgültigen Treiber aber identisch sein," - Originalzitat auf THG. Die Radeons liefen natürlich unter ARB2, da diese unter R200 nur etwas schneller sind, was aber zu vernachlässigen ist. Auch die Tatsache, dass die Treiber von ATi (3.4 schon draussen gewesen, getestet wurde mit 3.2) gar nicht auf Doom 3 optimiert waren, sollte auch nicht vergessen werden.
Darum die Frage: Wie kommst du darauf, dass ATi es mit Domm3 verbockt hat?

Dieser Doom3 "Test" waren nur von NVidia zugespielte Werte. Einige Seiten wie die seriöse Tomshardware durften diese posten. Irgendwie gab es noch ne Seite die haargenau die selben Ergebnisse hatte wie THG.
Ich denk aber trotzdem das der NV30/35/38 bei Doom3 schon sehr gute performen wird. Besonders der NV35/38 wird recht gute laufen, da Doom3 sehr viele Stencil Schatten einsetzt.

Es wird aber sicher genauso gut auch auf ATi Hardware ab R300+ laufen.
Zumal man die fps Werte beider Architekturen eigentlich nicht vergleichbar sind da unterschiedliche Renderpfade benutzt werden.

Und JC hat wirklich eine vorliebe zu NVidia. Ins einen Rechnern läuft auch nur NV Hardware. Und das hat sicher nichts mit Geld zu tuen, dass ist einfach nur eine persönliche Vorliebe.
Vielleicht liegt es auch daran das NV technologie Spitzenreiter ist und auch bleiben wird udn das bei Carmack gut ankommt.

nochmal zum NV40:

Wenn da auch noch Doom3 dabei ist, gepaart mit Hardware Encoding dann ist das Teil meinerseits schon so gut wie gekauft...
Von allen progonsen/Gerüchten/spärlichen Fakten/Halbwarheiten abgeleitet dürfte der NV40 ein verdammt mächtiger Chip sein der ATi vielleicht wieder das fürchten lehrt.

Winter[Raven]
2004-03-06, 12:44:41
Doom3 Preview lief auf einer 9800XT schneller als auf einer FX5950

:lolaway::lolaway::crazy:

Ne ... sorry ... aber würdest du bitte deine Meinung auch in Form eines Benches belegen können ?

Ohne Beweise kanst du dir es Sparen hier rumzuflamen !

ShadowXX
2004-03-06, 12:49:43
Original geschrieben von r@e
Wieso das ?
PS 3.0 war ja nun wirklich keine Überraschung.
Und damit gibt's wohl Video-Hardware-Unterstützung 'for free'...
(wenn ich da Demirug richtig verstanden habe ;-)
Was soll er denn alles 'können' ?
IMO ist die einzige Änderung wohl die VS/PS 3.0-Unterstützung und ein mächtig erweiterter Treiber... mehr nicht.
Vor allem, wenn die Preis-Spekulation vom INQ stimmt... 500 für das Top-Modell und nur noch 300 für das darunter liegende... wär' schon interessant !
:D

Razor

Das war jetzt weniger nur allein auf die neuen "HW=MPEG=Encoding"-Features bezogen, sondern ich hatte mal alles was er den so koennen soll im Kopf zusammengezogen...und das waere IMHO doch etwas "too much"...selbst fuer nV.

Irendwie muss man das ganze ja auch noch performat in das Die gequetscht bekommen...

Aber wie ich schon erwaehnte, wird nV diesmal wohl wirklich schon mit der "Null-Nummer" einen sehr guten Chip abliefern...zumindest lt. TechSpecs...

Bei den Benches werden wir dann feststellen, ob das ganze dann auch performant ist..

J.S.Shadow

ShadowXX
2004-03-06, 12:57:01
Original geschrieben von Winter[Raven]
:lolaway::lolaway::crazy:

Ne ... sorry ... aber würdest du bitte deine Meinung auch in Form eines Benches belegen können ?

Ohne Beweise kanst du dir es Sparen hier rumzuflamen !

Du weisst selber, das wir hier darueber keine Zahlen Posten duerfen...

Xmas
2004-03-06, 12:58:16
Original geschrieben von ShadowXX
Das war jetzt weniger nur allein auf die neuen "HW=MPEG=Encoding"-Features bezogen, sondern ich hatte mal alles was er den so koennen soll im Kopf zusammengezogen...und das waere IMHO doch etwas "too much"...selbst fuer nV.
Was meinst du damit? Was soll er denn deines Wissens nach können?

Quasar
2004-03-06, 13:10:29
Das Hardware-Video-Encoding sollte in den Pixelshadern gratis enthalten sein.
Und wenn es nur ein Teil der Berechnungen ist, mit ~180MB Downstream kriegt auch die CPU genug Daten, an denen sie weiterrechnen kann.

deekey777
2004-03-06, 13:15:45
Whoops, da habe ich was vergessen: Man darf nVidia in diesem Forum nichts böses verwerfen.

@Quasar: Ehrlich gesagt habe ich noch nie in meinem Leben einen Täuschungsversuch unternommen - egal ob in der Schule oder in der Zeit danach. Den Cheatvorwurf hat jemand anders ins Thema gebracht. Mal sehen, ob jemand noch die Geschichte mit 16bit Farbtiefe in Quake 3 miteinbringt.

Quasar
2004-03-06, 13:21:39
Original geschrieben von deekey777
@Quasar: Ehrlich gesagt habe ich noch nie in meinem Leben einen Täuschungsversuch unternommen - egal ob in der Schule oder in der Zeit danach.

Ich hoffe, daß meine Schilderung dann anschaulich genug war, so daß du dir vorstellen konntest, was gemeint war und daraus auch die Analogie erkanntest. =)


Und ja, du darfst jedem vorwerfen, was immer du möchtest. Solltest dich dann aber nicht wundern, wenn man nach Quellen fragt, bzw. der Relevanz zum Thema.

Winter[Raven]
2004-03-06, 14:22:31
Original geschrieben von ShadowXX
Du weisst selber, das wir hier darueber keine Zahlen Posten duerfen...

Ahhh ... reden wir an einander vorbei ?

Ich meinte die Benches die von NV mit Hilfe von ID durcgeführt wurden zum startt von dem NV35 ;).

Ailuros
2004-03-06, 15:37:58
Original geschrieben von r@e
Auf den ersten Teil des Posts habe ich nicht reagiert, weil ich ihn einfach nicht verstanden habe...


IMHO braucht D3 nicht mehr als FP16.

Klar wird nVidia an dem NV30 (NV40 ?) Path 'mitgewirkt' haben (was auch immer man sich darunter vorstellen mag ;-). Glaube aber, dass man 'Entwicklungsunterstützung' und Marketing hier trennen sollte...

Würde mir sogar sehr gut vorstellen können, dass nVidia gar sehr viel mehr als 6mio für das 'Bundle' hingeblättert hat.
:D

Razor

Ich stell mir gar nichts merkwuerdiges vor. Es gab fuer mich keinen Grund den NV30 unter dem ARB2 path "leiden" zu lassen, wenn hoehere Prazision fuer das Spiel wohl nur minimale Unterschiede gebracht haette.

Ich hab weder was gegen Entwicklungsunterstuetzung noch Marketing dieser Form (ie game bundles), ganz im Gegenteil. Ich dachte auch nicht an eine Konspirations-theorie oder aehnlichen Mist.

Dass JC gerne mit NVIDIA zusammenarbeitet hab ich ja schon gepostet und ich persoenlich bezweifle auch dass es anders waere ob jetzt Moneten zu dritten Beteiligten (aus welchem auch immer Grund) reinfliessen oder nicht. Er entwickelte ja auch letztendes einen path fuer Matrox/Parhelia.

Mein eigentlicher Punkt war (auf den ich auch bestehe), dass ich bezweifle dass JC jemals dazu kommen wuerde mit Absicht dem einen IHV einen Vorteil zu "schenken" und daher natuerlich auch die restlichen IHVs automatisch in den Nachteil zu stellen. JC kann ja letztendes auch nichts dafuer dass Parhelia so schneckenlangsam laeuft.

Demirug
2004-03-06, 15:43:58
Original geschrieben von Ailuros
IMHO braucht D3 nicht mehr als FP16.

Beim Normalisieren der Vektoren kann mehr nichts schaden. Das ist aber auch schon der einzige Punkt. Bei den meisten Sachen reicht sogar FX12 völlig aus.

aths
2004-03-06, 15:44:20
Original geschrieben von ShadowXX
Das war jetzt weniger nur allein auf die neuen "HW=MPEG=Encoding"-Features bezogen, sondern ich hatte mal alles was er den so koennen soll im Kopf zusammengezogen...und das waere IMHO doch etwas "too much"...selbst fuer nV.Schon mal im DX9SDK geguckt, wie flexibel die Shader 3.0 sind?

Ailuros
2004-03-06, 16:31:16
Original geschrieben von Demirug
Beim Normalisieren der Vektoren kann mehr nichts schaden. Das ist aber auch schon der einzige Punkt. Bei den meisten Sachen reicht sogar FX12 völlig aus.

Schon. Aber werden die Mehrzahl der Gamer selbst dann einen Unterschied sehen koennen? Selbst wenn ja, wie gross wuerde der Unterschied in Echtzeit sein?

aths
2004-03-06, 17:07:25
Die Mehrzahl der Gamer vielleicht nicht. Wenn man die Effekte auf Screenshots untersucht, sollte wohl eine Abweichung feststellbar sein.

ShadowXX
2004-03-06, 18:03:18
Original geschrieben von Xmas
Was meinst du damit? Was soll er denn deines Wissens nach können?

Nehmt doch nicht immer alles wortwoertlich...ich habe alle Geruechte die so ueber den "Gesamtumfang" des Chips im Umlauf sind mal als Endprodukt vorgestellt....

Und das war dann (incl. der vermutung der meisten, das der Chip auch noch sehr sehr schnell ist) als Gesamtpacket doch etwas zuviel...IMHO.

Ich wollte eigentlich nur etwas anti=Hypen, damit nicht alle furchtbar enttaescht sind, wenn er dann doch "nur" eine Evolution statt einer Revolution ist....

J.S.Shadow

ShadowXX
2004-03-06, 18:05:16
Original geschrieben von aths
Schon mal im DX9SDK geguckt, wie flexibel die Shader 3.0 sind?

Ja....und deshalb hoffe ich, das die PS3.0 auch mehr als nur Paperspecs/Langsam sind....

J.S.Shadow

ShadowXX
2004-03-06, 18:10:23
Original geschrieben von Winter[Raven]
Ahhh ... reden wir an einander vorbei ?

Ich meinte die Benches die von NV mit Hilfe von ID durcgeführt wurden zum startt von dem NV35 ;).

Und gegen was stellen wir die??? Gegen die HL2 Benches die ATI im zusammenhang mit Valve gemacht hat???

Ernsthaft gesagt traue ich eigentlich nur noch Benchmarks, die ich selber angefertigt habe (und ab und zu denen vom 3DCenter;D )

J.S.Shadow

r@e
2004-03-06, 19:19:41
Original geschrieben von ShadowXX
Das war jetzt weniger nur allein auf die neuen "HW=MPEG=Encoding"-Features bezogen, sondern ich hatte mal alles was er den so koennen soll im Kopf zusammengezogen...und das waere IMHO doch etwas "too much"...selbst fuer nV.Nochmal meine Frage:
Was soll 'das alles' denn gewesen sein ?
:???:

Einzig die PS3.0-Geschichte (evtl. auch volls VS3.0-Unterstützung) wurde hier beschrieben und auch die Möglichkeit, dass ein Pixel-Prozessor, welcher PS3.0-Fähigkeiten besitzt durchaus auch für andere Dinge taugen würde (wie z.Bsp. das Hardware-BitStream-Encoding).

Was soll daran 'zu viel' sein ?
Original geschrieben von ShadowXX
Irendwie muss man das ganze ja auch noch performat in das Die gequetscht bekommen...Meinst Du jetzt PS3.0, oder was ?
:???:
Original geschrieben von ShadowXX
Aber wie ich schon erwaehnte, wird nV diesmal wohl wirklich schon mit der "Null-Nummer" einen sehr guten Chip abliefern...zumindest lt. TechSpecs...Was ist für Dich bitte eine "Null-Nummer"...
Trifft dies doch vermutlich eher auf den R420 von ATI zu.
(derzeit reine Vermutung !)

Razor

r@e
2004-03-06, 19:24:52
Original geschrieben von Ailuros
IMHO braucht D3 nicht mehr als FP16.Ähm... OK... ;)
Oder ?
;-)
Original geschrieben von Ailuros
Mein eigentlicher Punkt war (auf den ich auch bestehe), dass ich bezweifle dass JC jemals dazu kommen wuerde mit Absicht dem einen IHV einen Vorteil zu "schenken" und daher natuerlich auch die restlichen IHVs automatisch in den Nachteil zu stellen. JC kann ja letztendes auch nichts dafuer dass Parhelia so schneckenlangsam laeuft. 100% ACK !
Und ich glaube auch nicht, dass er sich dafür "bezahlen" lassen würde...

Razor

ShadowXX
2004-03-06, 19:42:42
Original geschrieben von r@e
Nochmal meine Frage:
Was soll 'das alles' denn gewesen sein ?
:???:

Einzig die PS3.0-Geschichte (evtl. auch volls VS3.0-Unterstützung) wurde hier beschrieben und auch die Möglichkeit, dass ein Pixel-Prozessor, welcher PS3.0-Fähigkeiten besitzt durchaus auch für andere Dinge taugen würde (wie z.Bsp. das Hardware-BitStream-Encoding).

Was soll daran 'zu viel' sein ?


Das "zu viel" bezieht sich nicht auf den Funktionsumfang, mag sein, dass nV das wirklich alles in den Chip reinbekommt...

Es ging mir um das "Geruechte-I-Net-Gesamtpacket", welches ich mir mal im Kopf ausgemalt hatte....von alle Geruechten das Maximum genommen...

Ich glaube selbst, dass der nv40 sehr guter Chip werden wird, aber IMHO werden viele (ich selber auch etwas) langsam etwas zu euphorisch....nichts gegen vorfreude..aber seit dem nv30 bin ich einfach etwas vorsichtig geworden....

(Nimm das "zu viel" als, mehr an mich selbst gerichteter, de-hype..)


Meinst Du jetzt PS3.0, oder was ?
:???:


ja...ich hoffe, das sie PS2.0 und PS3.0 schoen schnell machen....und keine zu grossen Kompromisse fuer irgendwelche Zusatzfunktionen machen, die dann 5% ueberhaupt mal nutzen...


Was ist für Dich bitte eine "Null-Nummer"...
Trifft dies doch vermutlich eher auf den R420 von ATI zu.
(derzeit reine Vermutung !)

Razor

Das war bestimmt nicht auf die faehigkeiten des nV40 gemuenzt..

Ich wollte eigentlich nur darauf anspielen, das bei nV der erste Chip einer "neuen" Generation meist nicht zu 100% der erwartete ist, sonder eher der Refresh...

Seit der TNT habe ich immer erst beim Refreshchip zugegriffen, da dieser meist wesentlich besser als das "Original" ist...

Und die neuen Generationen fangen ja immer mit x0 an...deshalb Null-Nummer...

J.S.Shadow

Gast2k4
2004-03-06, 20:21:41
Lol. Gamestar halt :P. Bei PCGH war auch ein Bericht über NV40, es wurde aber gesagt das dies eine Zusammenstellung von www.3dcenter.de und www.anandtech.com ist.

r@e
2004-03-06, 20:29:44
Original geschrieben von ShadowXX
Das "zu viel" bezieht sich nicht auf den Funktionsumfang, mag sein, dass nV das wirklich alles in den Chip reinbekommt...Ganz einfach: Was alles ?
:???:
Original geschrieben von ShadowXX
Es ging mir um das "Geruechte-I-Net-Gesamtpacket", welches ich mir mal im Kopf ausgemalt hatte....von alle Geruechten das Maximum genommen...Dann solltest Du deinen 'Kopf' ein wenig aufräumen, oder ?
;-)

Die PS3.0-Fähigkeit scheint unbestreitbar (damit dann vermutlich auch das BitStream-Encoding und evtl. auch volle VS3.0-Unterstützung). Ausstehend ist hier lediglich die zugrunde liegende Architektur. Und darüber mag man sich tatsächlich vortrefflich streiten dürfen...
Original geschrieben von ShadowXX
Ich glaube selbst, dass der nv40 sehr guter Chip werden wird, aber IMHO werden viele (ich selber auch etwas) langsam etwas zu euphorisch....nichts gegen vorfreude..aber seit dem nv30 bin ich einfach etwas vorsichtig geworden....Dem NV30 war ein schlechter 'Stern' beschienen, insofern würde ich von einer Schlappe nicht unbedingt auf die Zukunft schließen.

Und wenn hier nicht diese etwas unglückliche M$-'Verbandelung' zum Tragen gekommen wäre... wer weiß, wie's dann mit dem NV30 gelaufen wäre ?
Original geschrieben von ShadowXX
ja...ich hoffe, das sie PS2.0 und PS3.0 schoen schnell machen....und keine zu grossen Kompromisse fuer irgendwelche Zusatzfunktionen machen, die dann 5% ueberhaupt mal nutzen...PS2 schnell, die PS3 voll funktionsfähig wäre meine Vorstellung. Ergo: Power für das was verfügbar ist und sein wird (so in dem nächsten Jahr ;-) und 'Spielzeug' für das, was in den nächsten Jahren kommen mag.

Meinst Du nicht, dass auch nVidia den Markt 'beobachtet' ?
:D
Original geschrieben von ShadowXX
Das war bestimmt nicht auf die faehigkeiten des nV40 gemuenzt..

Ich wollte eigentlich nur darauf anspielen, das bei nV der erste Chip einer "neuen" Generation meist nicht zu 100% der erwartete ist, sonder eher der Refresh...

Seit der TNT habe ich immer erst beim Refreshchip zugegriffen, da dieser meist wesentlich besser als das "Original" ist...

Und die neuen Generationen fangen ja immer mit x0 an...deshalb Null-Nummer... OK, dann hab' ich Dich falsch verstanden !

Allerdings mag ich Dir hier nicht zustimmen mögen. Ganz im Gegenteil habe ich mir meist die 'Null-Nummern' (oder Derivate davon) zugelegt. Das fing bei nVidia mit dem TNT an (16MB im Kombo mit 'ner Voodoo2 ;-), weiter über die gfddr, der ur-gf3 und nun der FX5900...

Wie Du siehst, habe ich auch schon damals sehr genau darauf geachtet, was da auf den Markt gekommen ist. Die TNT war der erste vernünftige 3D-Beschleuniger, die gfsdr (also die erste gf1 mit SDRAM) nie für mich interessant, die ur-gf3 passte von Anfang an und mit der FX-Generation habe ich es mir sehr, sehr schwer gemacht und mir da erst mal die Kleinsten von ATI und nVidia gezogen (R9500np, FX5200 128Bit), um das Feature-Set bewerten zu können... mich schlußendlich dann für den NV35 und damit für die FX5900 von MSI entschieden (das erste mal keine 'Null'-Nummer und auch nicht das High-End-Modell !).

Einfach nur nVidia trifft bei mir einfach nicht zu.

Und glaube mir, auch den NV40 werde ich mir sehr genau anschauen, bevor ich mir so etwas zulegen werde !

Razor

reunion
2004-03-06, 20:31:36
Original geschrieben von Winter[Raven]
:lolaway::lolaway::crazy:

Ne ... sorry ... aber würdest du bitte deine Meinung auch in Form eines Benches belegen können ?

Ohne Beweise kanst du dir es Sparen hier rumzuflamen !

John Carmack sagt AFAIK schon mehrmals dass bei Doom3 mit voller PS-Präzision (24bit/32bit) die FX-Karten mit den ATI-Karten nicht mithalten können...

tokugawa
2004-03-06, 20:45:24
Original geschrieben von reunion
John Carmack sagt AFAIK schon mehrmals dass bei Doom3 mit voller PS-Präzision (24bit/32bit) die FX-Karten mit den ATI-Karten nicht mithalten können...


Vielleicht verwechsle ich da was, aber mir war nicht bewußt dass ATI Karten überhaupt FP32 unterstützen.

reunion
2004-03-06, 20:50:50
Original geschrieben von tokugawa
Vielleicht verwechsle ich da was, aber mir war nicht bewußt dass ATI Karten überhaupt FP32 unterstützen.

Unterstützen sie auch nicht...
volle Präzison ist bei ATI FP24 und bei NV FP32...

Gast
2004-03-06, 20:57:21
Wie teuer glaubt ihr wird die FX 6000 kosten? Kann man mit 300€ rechnen?

Auf jeden Fall bin ich optimistisch das der nv 40 das Rennen machen wird gegenüber dem R420. Hab heute gelesen dass das Problem der NV3x Serie war, dass sie einen ganzen und zum Teil gleitpunkt Zahlencode für Shader 2.0 benutzten, Microsoft für Shader 2.0 aber nur Gleitpunktzahlen unterstützte. nVidia rules :)!!!

r@e
2004-03-06, 21:13:49
Original geschrieben von Gast
Wie teuer glaubt ihr wird die FX 6000 kosten? Kann man mit 300€ rechnen?Gerüchten zur Folge soll die 'Ultra'-Variante (wie immer) 500 Euronen kosten, während die 'Standard'-Variante mit 300 zu Buche schlagen soll...

Razor

reunion
2004-03-06, 21:18:01
Original geschrieben von r@e
Gerüchten zur Folge soll die 'Ultra'-Variante (wie immer) 500 Euronen kosten, während die 'Standard'-Variante mit 300 zu Buche schlagen soll...

Razor

Soll die "Standard"-Variante bis auf den Takt unverändert sein zur U-Version, oder?

Gast2K4
2004-03-06, 21:25:51
Die Ultra unterscheidet sich mit der normalen Version in den Taktraten. So wie ich es gelesen habe wird die normale Version 400-450Mhz haben und die Ultra 500-550Mhz.

Wäre richtig hammer wenn die normale NV40 300€ kosten wird :).

reunion
2004-03-06, 21:28:30
Original geschrieben von Gast2K4
Die Ultra unterscheidet sich mit der normalen Version in den Taktraten. So wie ich es gelesen habe wird die normale Version 400-450Mhz haben und die Ultra 500-550Mhz.

Wäre richtig hammer wenn die normale NV40 300€ kosten wird :).

Genau deshalb frage ich nach, 300€ für einen Taktreduzierten "neuen" Chip halte ich für Wunschdenken, NV wird sich den NV40 sicherlich teuer bezahlen lassen...

Gast2K4
2004-03-06, 21:28:42
Edit: die Ultra Version wird sich sicherlich nur bei den Taktraten unterscheiden, vielleicht wird die Ultra schon DDR 3 haben während man bei der normalen nur DDR 2 finden wird (weiß ich nicht).

ow
2004-03-06, 21:30:53
.

reunion
2004-03-06, 21:34:24
Original geschrieben von ow
Für volle Präzision benötigt Doom3 FX12 und weder FP24 noch FP32, wie ebenfalls schon mehrfach gesagt wurde.

Ich weiß...
Es ging darum wenn beide Karten mit voller Präzison laufen würden (also FP24 bei ATI und FP32 bei NV), wieviel man benötigt ist wieder eine andere Frage ;)

r@e
2004-03-06, 21:49:12
Original geschrieben von reunion
Ich weiß...
Es ging darum wenn beide Karten mit voller Präzison laufen würden (also FP24 bei ATI und FP32 bei NV), wieviel man benötigt ist wieder eine andere Frage ;) Und wozu soll eine solche Überlegung 'gut' sein ?
:???:

Razor

Ailuros
2004-03-06, 21:52:03
Original geschrieben von aths
Die Mehrzahl der Gamer vielleicht nicht. Wenn man die Effekte auf Screenshots untersucht, sollte wohl eine Abweichung feststellbar sein.

So lange man in den Screenshot nicht ueber etliche Mal reinzoomen muss und man einen nennenswerten Unterschied auf ersten Blick sehen kann, dann ja.

r@e
2004-03-06, 21:53:11
Original geschrieben von reunion
Soll die "Standard"-Variante bis auf den Takt unverändert sein zur U-Version, oder? Das werden wir schon noch irgendwann erfahren...

Von der NV40-Chipfamilie soll es letztlich 5 Varianten geben, die dann den gesamten Markt abdecken sollen. Von Ultra-Low-End bis High-End. Und für jede dieser Varianten dürfte es dann wohl noch 'Abwandlungen' ala 'ultra', 'XT' und 'SP' geben.

Aber das führt wohl selbst in einem Speku-Thread zu weit, oder ?
:D

Razor

ow
2004-03-06, 21:59:47
.

egdusp
2004-03-06, 22:07:33
Ich glaube nicht, dass der NV40 GFFX 6000 heißen wird, wie sollten denn dann die kleineren oder NAchfolgechips heißen. Ich tippe mal auf 6800.


Wenn NV wirklich jedes kleine Fitzelchen des Marktes abdecken will, dann würde es Sinn machen, wenn sie sogar einen Ultra Low Cost Chip mit nur fp24 designen.
Dieser könnte dann vom Transistorcount ca. 20% einsparen (Spekualtion) und damit für den Volumenträchtigen OEM Markt das entscheidende Stück billiger sein.

Die Mehrkosten durch die Umstellung auf fp24 sehe ich als nicht so entscheidend an, wenn sie sowieso einen neuen Chip designen müssen. Vor allem in Anbetracht der möglichen Stückzahlen. Evtl. werden sie ja sogar die Technik lizensieren oder wieder in den nForce einbauen.
Als officechip könnte ich mir sogar eine Krücke vorstellen, der default auf fp16 läuft und nur einen Alibi fp24 eingebaut hat, bei dem die Pieplines zusammengschaltet werden oder so.
Eigentlich gehört das schon wieder in einen eigenen Spekthread.


mfg
egdusp

aths
2004-03-06, 22:08:33
Original geschrieben von ow
Für volle Präzision benötigt Doom3 FX12 und weder FP24 noch FP32, wie ebenfalls schon mehrfach gesagt wurde. Rein mit FX12 gibt es durchaus Qualitätseinbußen, erst recht mit FX9 (GF1-4).

Gast
2004-03-06, 22:23:33
Original geschrieben von egdusp
Ich glaube nicht, dass der NV40 GFFX 6000 heißen wird, wie sollten denn dann die kleineren oder NAchfolgechips heißen. Ich tippe mal auf 6800.


Wenn NV wirklich jedes kleine Fitzelchen des Marktes abdecken will, dann würde es Sinn machen, wenn sie sogar einen Ultra Low Cost Chip mit nur fp24 designen.
Dieser könnte dann vom Transistorcount ca. 20% einsparen (Spekualtion) und damit für den Volumenträchtigen OEM Markt das entscheidende Stück billiger sein.

Die Mehrkosten durch die Umstellung auf fp24 sehe ich als nicht so entscheidend an, wenn sie sowieso einen neuen Chip designen müssen. Vor allem in Anbetracht der möglichen Stückzahlen. Evtl. werden sie ja sogar die Technik lizensieren oder wieder in den nForce einbauen.
Als officechip könnte ich mir sogar eine Krücke vorstellen, der default auf fp16 läuft und nur einen Alibi fp24 eingebaut hat, bei dem die Pieplines zusammengschaltet werden oder so.
Eigentlich gehört das schon wieder in einen eigenen Spekthread.


mfg
egdusp


Wem do so wäre wäre nv jetzt nicht da wo sind sie sind!
FP24 ist auf gar keinem fall im low end zu finden!

es wird so sein wie dieses jahr, die FX5200 wird einen neuen namen bemommen und gut ist!

Gast
2004-03-06, 22:23:36
Ich verstehe den Sinn dieses Treaths nicht mehr so ganz, geht es nun um D3 oder um den NV4x, Leute kommt mal zum Thema zurück.
Ich denke Mal das NV etwas dazu gelehrnt hat im letzten Jahr, und ob jetzt D3 oder HL2 auf welcher HW besser läuft erscheint im moment noch unwichtig da D3 vielleicht bis Mitte jahr da ist und HL2 kommt dann irgendwann vor dem Duke ;). Ich denke mal wenn NV schon mal das Temp-register Problem gelöst hat, haben sie schon einen grossen Performancesprung gemacht, und das sollte durch die paar mehr Transistoren, wenn es dann 210 Mio sind, leicht möglich sein denke ich mir mal. Ich glaube das NV nicht noch einmal so einen "Fehler" macht wie bei der NV3x. Theorethisch wäre es auch möglich das NV den NV40 verschoben hat weil sie ihn in 110 um herstellen wollen, oder sie warten bis mehr GDDR3 Ram zur verfügung ist, sollte ja eigentlich kein Problem sein das noch kurzfristig zu ändern.

Rechtschreibfehler könnt ihr behalten :).

Exxtreme
2004-03-06, 22:25:17
Original geschrieben von egdusp

Wenn NV wirklich jedes kleine Fitzelchen des Marktes abdecken will, dann würde es Sinn machen, wenn sie sogar einen Ultra Low Cost Chip mit nur fp24 designen.
Dieser könnte dann vom Transistorcount ca. 20% einsparen (Spekualtion) und damit für den Volumenträchtigen OEM Markt das entscheidende Stück billiger sein.


mfg
egdusp
Die Frage ist ob es überhaupt so schnell eine Low-Cost-Version des NV40 geben wird. VS/PS3.0 dürften ziemlich viele Transistoren schlucken. Da ist's ziemlich schnell Ende mit Gelände bezüglich Low-Cost. Um daraus einen Low-Cost-Chip zu machen müsste man das Teil sehr niedrig takten und das Speicherinterface stark kastrieren. Mit dem Effekt, daß die Spiele-Entwickler dem Teil wieder Zwangs-DX8 verpassen.

LovesuckZ
2004-03-06, 22:30:39
Original geschrieben von Exxtreme
Mit dem Effekt, daß die Spiele-Entwickler dem Teil wieder Zwangs-DX8 verpassen.

Nun, wenn der zweitgroeßte grafikchiphersteller empfiehlt, Low-End DX9 karten als "DX8 Cards" zu behandeln, ist dies wohl nicht verwunderlich.

deekey777
2004-03-06, 22:32:51
Spekulativ: Wie gut wird denn die WM9 Beschleunigung sein? ATi hat mit der WMV Beschleunigung bei R3x0/RV3x0 ehrlich gesagt versagt, was schade ist. Schade nur, dass es kein WMV9 Encoding bei dem NV40 geben wird - wäre für mich schon ein Kaufgrund.
Aber:

Auf Doom9.org steht:"Then I got an email from an ATI PR rep about MPEG encoding and decoding support in GFX card. It appears that ATIs Radeon 9800 contains hardware DCT and iDCT blocks that can be used for MPEG-2/4 encoding and decoding. Furthermore, the chip does also support WMV9 decoding. However, at this point I'm still waiting to get a link to an official documentation on those features as the ATI website only mentions MPEG-2 decoding acceleration in the Radeon 9800 specs."

Aber kein WMV9 Encoding! :...(

Gast
2004-03-06, 22:36:54
Original geschrieben von egdusp


Wenn NV wirklich jedes kleine Fitzelchen des Marktes abdecken will, dann würde es Sinn machen, wenn sie sogar einen Ultra Low Cost Chip mit nur fp24 designen.
Dieser könnte dann vom Transistorcount ca. 20% einsparen (Spekualtion) und damit für den Volumenträchtigen OEM Markt das entscheidende Stück billiger sein.



mfg
egdusp

Denke ich eher nicht da sie die komplette Chiparchitektur neu machen müssten um auf FP24 zu kommen, zudem wäre diese Karte dann vielleicht sogar schneller als ihre grossen Brüder ;), die ja dann mit FP16/32 rechnen, was eher möglich wäre das die Low cost nur mit FP16 rechnen kann :) wäre doch mal was neues. Es gibt dann immer noch die Möglichkeit die LC variante mit 4 Pipes auszurüsten und die Midrange mit 8 und dann die High-End mit 16, dann noch ein bischen am Speicherbus beschneiden den Takt runtersetzen, womöglich noch n Billiges 8 oder 6 Layer PCB und schon haben wir ne Low-Cost variante, die PS 3.0 und VS 3.0 zumindestens auf dem Papier beherscht, wie schnell sei mal dahingestellt (siehe FX 5200).

betasilie
2004-03-06, 22:39:45
Original geschrieben von LovesuckZ
Nun, wenn der zweitgroeßte grafikchiphersteller empfiehlt, Low-End DX9 karten als "DX8 Cards" zu behandeln, ist dies wohl nicht verwunderlich.
Das macht NV auch.

LovesuckZ
2004-03-06, 22:40:15
Original geschrieben von betareverse
Das macht NV auch.

Quelle?

betasilie
2004-03-06, 22:42:44
Original geschrieben von LovesuckZ
Quelle?
Da gibts keine Quelle, aber Du glaubst doch wohl nicht, dass NV nicht an ihre Entwicklergilde die Empfehlung rausgibt die FX5200 mit dem DX8-Pfad anzusprechen.

LovesuckZ
2004-03-06, 22:45:23
Original geschrieben von betareverse
Da gibts keine Quelle, aber Du glaubst doch wohl nicht, dass NV nicht an ihre Entwicklergilde die Empfehlung rausgibt die FX5200 mit dem DX8-Pfad anzusprechen.

Doch, das tue ich.

betasilie
2004-03-06, 22:46:51
Original geschrieben von LovesuckZ
Doch, das tue ich.
Das tut mir dann leid für dich.

LovesuckZ
2004-03-06, 22:49:09
Original geschrieben von betareverse
Das tut mir dann leid für dich.

Nun, ich koennte sehr sarkastisch darauf antworten, lasse es aber.
Wenn du aber keine Quellen für deine These hast, solltest du vorsichtig sein, Nvidia etwas vorzuwerfen, nur weil du dran "glaubst", dass dies so waere.

Demirug
2004-03-06, 22:49:40
Original geschrieben von betareverse
Da gibts keine Quelle, aber Du glaubst doch wohl nicht, dass NV nicht an ihre Entwicklergilde die Empfehlung rausgibt die FX5200 mit dem DX8-Pfad anzusprechen.

Da muss ich dich jetzt leider enttäuschen. Diese Empfehlung gibt es nicht. In allen Entwicklerunterlagen wird die 5200 als vollwertiges Mitglied der FX Familie behandelt.

nVidia spricht sich ja generel gegen den übertriebenen Einsatz von PS 2.0 aus.

betasilie
2004-03-06, 22:56:17
Also ich ziehe einfach eine logische Schlußfolgerung aus der grottenschlechten Shader2.0Performance der FX5200. ... NVidia wird da imho die Empfehlung aussprechen müssen für diese Karte einen DX8-Renderpfad zu nutzen, statt dass die FX5200-Besitzer ein Game mit 3fps mit DX9-Pfad spielen müssen.

Und wenn sie es nicht tun, dann tun es die Entwickler aus freien Stücken, um das Spiel auf einer FX5200 spielbar zu halten. Das kommt dann auf´s gleiche raus, wie wenn ein Hersteller so eine Empfehlung rausgibt, weil es eigentlich keiner offiziellen Empfehlung benötigt, bei einer so schlechten Shader2.0-Performance, wie bei der FX5200.

Exxtreme
2004-03-06, 23:00:18
Original geschrieben von LovesuckZ
Nun, wenn der zweitgroeßte grafikchiphersteller empfiehlt, Low-End DX9 karten als "DX8 Cards" zu behandeln, ist dies wohl nicht verwunderlich.
Ob es nur an ATis Empfehlung liegt?

Das habe ich aus'm B3D-Forum gayklaut:
http://discuss.microsoft.com/SCRIPTS/WA-MSD.EXE?A2=ind0402d&L=directxdev&D=1&F=&S=&P=7149

:freak:

LovesuckZ
2004-03-06, 23:04:44
Original geschrieben von Exxtreme
Ob es nur an ATis Empfehlung liegt?


I just
don't know how to make sutff run well on it[...]

Unfaehigkeit?! *eg*
Wer ist eigentlich David Whatley?

betasilie
2004-03-06, 23:05:25
Original geschrieben von Demirug
nVidia spricht sich ja generel gegen den übertriebenen Einsatz von PS 2.0 aus.
Das kommt dann ja fast eine generellen DX8-Empfehlung für die FX-Serie gleich, was dann ATIs DX8-Empfehlung für zukünftige DX9-Value-Karten verblassen lässt.

LovesuckZ
2004-03-06, 23:06:19
Original geschrieben von betareverse
Das kommt dann ja fast eine generellen DX8-Empfehlung für die FX-Serie gleich, was dann ATIs DX8-Empfehlung für zukünftige DX9-Value-Karten verblassen lässt.

Nein.

Demirug
2004-03-06, 23:08:04
Original geschrieben von betareverse
Also ich ziehe einfach eine logische Schlußfolgerung aus der grottenschlechten Shader2.0Performance der FX5200. ... NVidia wird da imho sicherlich die Empfehlung aussprechen für diese Karte einen DX8-Renderpfad zu nutzen, statt das die FX5200-Besitzer ein Game mit 3fps mit DX9-Pfad spielen müssen.

Es gibt keine solche Empfehlung. nVidia macht es sich da nicht ganz so einfach wie ATI. Man spricht dort von Zielauflösungen und Framerate. Daraus ergibt sich dann eine verfügbare Shaderleistung pro Pixel und dann soll man eben entscheiden wie man diese aufteilen möchte.

Und wenn sie es nicht tun, dann tun es die Entwickler aus freien Stücken, um das Spiel auf einer FX5200 spielbar zu halten. Das kommt dann auf´s gleiche raus, wie wenn ein Hersteller so eine Empfehlung rausgibt.

Sowas nennt man einen Detailregler und das man den bei einer Low-End Karte nicht per default in den oberen Bereich stellt dürfte wohl klar sein. Und wenn die weniger anspruchsvollen Shading effekte kein PS 2.0 brauchen dann soll man ja laut nVidia auch keine PS 2.0 dafür verwenden. Wenn aber eben jemand meint den Regler an den Anschlag zu stellen soll man in das tun lassen.

ATI hat zu dem Thema eine ganz andere Ansicht und wenn man dem ATI Model folgt dann muss man die 5200 wirklich als DX 8 Karte behandeln weil sie sonst zu schwach ist. Das nVidia Model ist da etwas flexibler.

Exxtreme
2004-03-06, 23:09:15
Original geschrieben von LovesuckZ
I just
don't know how to make sutff run well on it[...]

Unfaehigkeit?! *eg*
Wer ist eigentlich David Whatley?
Der ist glaub' von hier:
http://www.play.net/

Und Unfähigkeit? Hmmm ... ich dachte, die neuen Detos + PS2_A-Profil würden es richten? *eg*

Demirug
2004-03-06, 23:13:26
Original geschrieben von betareverse
Das kommt dann ja fast eine generellen DX8-Empfehlung für die FX-Serie gleich, was dann ATIs DX8-Empfehlung für zukünftige DX9-Value-Karten verblassen lässt.

Nein. Die genaue Regel heist das man die Shaderversion nutzen soll die ausreicht um einen Effekt zu erreichen. Es gibt noch eine Reihe andere Empfehlungen von denen auch Besitzer von ATI Karten profitieren können. Zusammengefasst soll man die Shaderleistung dort verbraten wo man auch etwas davon sieht.

betasilie
2004-03-06, 23:17:01
Original geschrieben von Demirug
Es gibt keine solche Empfehlung. nVidia macht es sich da nicht ganz so einfach wie ATI. Man spricht dort von Zielauflösungen und Framerate. Daraus ergibt sich dann eine verfügbare Shaderleistung pro Pixel und dann soll man eben entscheiden wie man diese aufteilen möchte.



Sowas nennt man einen Detailregler und das man den bei einer Low-End Karte nicht per default in den oberen Bereich stellt dürfte wohl klar sein. Und wenn die weniger anspruchsvollen Shading effekte kein PS 2.0 brauchen dann soll man ja laut nVidia auch keine PS 2.0 dafür verwenden. Wenn aber eben jemand meint den Regler an den Anschlag zu stellen soll man in das tun lassen.

ATI hat zu dem Thema eine ganz andere Ansicht und wenn man dem ATI Model folgt dann muss man die 5200 wirklich als DX 8 Karte behandeln weil sie sonst zu schwach ist. Das nVidia Model ist da etwas flexibler.
Ich warte dann lieber mal auf zukünftige Spiele und wieviele davon auch nur einen Shader2.0-Effekt auf einer 5200er performant darstellen können. ... In der Theorie magst Du recht haben, in der Spielepraxis wird die 5200er imo eine DX8-only Karte bleiben und ein "flexibleres Modell" wird ein Papiertiger.

Quasar hat sich schonmal darüber aufgeregt und ich verstehe, dass der ambitionierte Technolgiefreak gerne alles Effekte mit 1fps auf seiner Karte sehen will, aber dafür wird bei den großen Studios wohl wenig Rücksicht genommen.

... Ich lasse mich gerne eines besseren belehren, wenn auch nur eine Game auf einer FX5200 mit Shader2.0-Effekten auch nur annähernd vernünftig läuft.

Mit TR:AOD hat NV schon einemal bewiesen, dass sie ihre FX5200 in der Spielepraxis als DX8 Karte verstehen.

tokugawa
2004-03-07, 01:52:01
Original geschrieben von betareverse
Ich warte dann lieber mal auf zukünftige Spiele und wieviele davon auch nur einen Shader2.0-Effekt auf einer 5200er performant darstellen können. ... In der Theorie magst Du recht haben, in der Spielepraxis wird die 5200er imo eine DX8-only Karte bleiben und ein "flexibleres Modell" wird ein Papiertiger.

Quasar hat sich schonmal darüber aufgeregt und ich verstehe, dass der ambitionierte Technolgiefreak gerne alles Effekte mit 1fps auf seiner Karte sehen will, aber dafür wird bei den großen Studios wohl wenig Rücksicht genommen.

... Ich lasse mich gerne eines besseren belehren, wenn auch nur eine Game auf einer FX5200 mit Shader2.0-Effekten auch nur annähernd vernünftig läuft.

Mit TR:AOD hat NV schon einemal bewiesen, dass sie ihre FX5200 in der Spielepraxis als DX8 Karte verstehen.

Und wie so oft gesagt sind Spiele nun mal nicht die einzige Grafikanwendung. Woanders ist die FX5200 definitiv eine DX9 Karte (und meiner Ansicht nach auch bei Spielen; ob ich jetzt nur bei 640x480 DX9-Level Effekte bei mindestens 15 fps darstellen kann oder auch höher, hat ja nichts mit dem Attribut "DX9" zu tun).

Außerdem "DX9 Spiel" und "VS2.0/PS2.0 Spiel" sind für mich zwei verschiedene Dinge. Technisch ist ein Spiel ein DX9 Spiel, wenn es die DirectX 9 Interfaces verwendet, egal ob es jetzt einen, hundert, oder gar keinen VS2.0 oder PS2.0 verwendet.

edit: wobei natürlich die Abhängigkeit "ein VS2.0/PS2.0-verwendendes Spiel ist auch ein DX9 Spiel" existiert; aber nicht umgekehrt!

betasilie
2004-03-07, 02:50:04
Original geschrieben von tokugawa
Und wie so oft gesagt sind Spiele nun mal nicht die einzige Grafikanwendung. Woanders ist die FX5200 definitiv eine DX9 Karte (und meiner Ansicht nach auch bei Spielen; ob ich jetzt nur bei 640x480 DX9-Level Effekte bei mindestens 15 fps darstellen kann oder auch höher, hat ja nichts mit dem Attribut "DX9" zu tun).

Ich schrieb ja auch Shader2.0, statt DX9. Bzw. deklariere ich die FX5200 was Spiele angeht als DX8-Karte, was für PS1.x steht.

Original geschrieben von tokugawa
Außerdem "DX9 Spiel" und "VS2.0/PS2.0 Spiel" sind für mich zwei verschiedene Dinge. Technisch ist ein Spiel ein DX9 Spiel, wenn es die DirectX 9 Interfaces verwendet, egal ob es jetzt einen, hundert, oder gar keinen VS2.0 oder PS2.0 verwendet.

Wenn es einen DX8- und einen DX9-Renderpfad bei einem Spiel gibt, dann wird der DX9-Pfad wohl Shader2.0 und der DX8Pfad Shader1.x nutzen.

Ein "DX9-Spiel", wobei ich das Wort in diesem Zusammenhang garnicht genutzt habe, ist für mich ein Spiel, was Effekte anbietet, welche eine Karte mit DX9-Compliance vorraussetzen.

r@e
2004-03-07, 09:13:26
Original geschrieben von Exxtreme
Der ist glaub' von hier:
http://www.play.net/

Und Unfähigkeit? Hmmm ... ich dachte, die neuen Detos + PS2_A-Profil würden es richten?Du und Beta können ich echt die Hand reichen !
(nein, nicht wirklich ;-)

Nur weil dieser David unfähig ist, sollen Compiler und/oder ein Treiber dies richten ?
Ist das wirklich Dein ernst ?
:???:

Also echt...

@all

Laßt Euch doch hier nicht von Beta an der Nase herum führen. Er spekuliert ja nicht einmal, sonder wirft hier einfach was in den Raum, was seinem ganz persönlichen Geiste entsprungen ist. Und Ihr reagiert da auch noch drauf'...

Ich würde (und werde) dies einfach ignorieren !

Razor

r@e
2004-03-07, 09:15:43
Zum mal das Zeugs von Beta ja nicht einmal was mit dem Thema zu tun hat.
Ts, ts, ts...

Razor

tokugawa
2004-03-07, 09:36:45
Original geschrieben von betareverse
Ich schrieb ja auch Shader2.0, statt DX9. Bzw. deklariere ich die FX5200 was Spiele angeht als DX8-Karte, was für PS1.x steht.


Wenn es einen DX8- und einen DX9-Renderpfad bei einem Spiel gibt, dann wird der DX9-Pfad wohl Shader2.0 und der DX8Pfad Shader1.x nutzen.

Ein "DX9-Spiel", wobei ich das Wort in diesem Zusammenhang garnicht genutzt habe, ist für mich ein Spiel, was Effekte anbietet, welche eine Karte mit DX9-Compliance vorraussetzen.


Ich sag's nochmal, DX9 und VS/PS2.0 sind vorerst einmal nicht synonym; Ein Spiel das VS/PS2.0 nutzt, ist zwangsläufig ein DX9 Spiel, aber ein Spiel das DX9 nutzt (und das heißt _nur_, dass es die Interfaces von DX9 nutzt), muß _nicht zwangsläufig_ ein VS/PS2.0 Spiel sein.

Und Spiele wie TR:AoD verwenden auch für eine FX5200 die DirectX9 Interfaces; nur keine VS/PS2.0. Sie verwendet also einen DX9 Renderpfad _ohne_ VS/PS2.0, was wie gesagt nach obiger Definition möglich ist.

Folglich halte ich es für falsch, hier von einem "DX8 Renderpfad" zu sprechen, da sollte man eher sagen "VS/PS 1.x Renderpfad".

Terr0r
2004-03-07, 09:40:04
OT: So hallo erstmal, ihr seid echt lustig, deshalb hab ich mich mal regiestriert, nicht falsch verstehen :)
Ich finde es nur Spassig hier im Forum und will mich auch ein bischen rumTrollen ;D

Zum eigentlichen Thema, um was geht es in dem Thema eigentlich anfänglich dachte ich es geht um die NV4x doch als ich so am lesen war kamm da mal D3 zur sprache das es auf Graka X besser läuft dafür blabla.... und auf einmal soll die 5200 keine DX 9 karte mehr sein, kleine Frage was hatt das alles mit der NV40 zu tun ?(. Ob die 5200 DX 9 sauschnell kann oder nicht ist doch Wurst, sie kann DX 9 Effekte darstellen, solange die Compilance nicht vorschreibt wie schnell das ablaufen muss kann das mit 1 FPS oder 0,00001 FPS Laufen das hat nun wirklich nix mit der NV40 zu tun.

Gruss Terr0r.

Terr0r
2004-03-07, 09:48:39
Original geschrieben von betareverse
ein "DX9-Spiel", wobei ich das Wort in diesem Zusammenhang garnicht genutzt habe, ist für mich ein Spiel, was Effekte anbietet, welche eine Karte mit DX9-Compliance vorraussetzen.

Nö ein DX 9 Spiel ist schon ein DX 9 spiel auch wenn es nur die Netzwerkkomponente oder den Sound von DX 9 unterstützt. Da können auch alles 1.1 Shader verwendet werden oder ist DX 9 einfach nur noch auf die PS/VS versionen zu beschränken?

ShadowXX
2004-03-07, 10:49:31
Original geschrieben von Terr0r
Nö ein DX 9 Spiel ist schon ein DX 9 spiel auch wenn es nur die Netzwerkkomponente oder den Sound von DX 9 unterstützt. Da können auch alles 1.1 Shader verwendet werden oder ist DX 9 einfach nur noch auf die PS/VS versionen zu beschränken?

Da hst du voellig recht...gutes Beispiel ist Colin04, welches als dx9 game angepriesen wird und definitiv nur PS/VS1.1 benutzt...braucht hlat den Sound oder Netzwerkteil von dx9...


J.S.Shadow

Demirug
2004-03-07, 11:00:36
Bei den Entwicklern ist es durchaus üblich eine DX Version auch als Synonym für die mit dieser Version eingeführten Techniken zu benutzten.

Terr0r
2004-03-07, 11:32:12
Original geschrieben von Demirug
Bei den Entwicklern ist es durchaus üblich eine DX Version auch als Synonym für die mit dieser Version eingeführten Techniken zu benutzten.

Ja aber die PS/VS 3.0 gehören ja auch zu DX 9, also wie kann sich dann eine Radeon r3xx oder NV3x als DX 9 Karte bezeichnen *eg*, ist vielleicht gerade ein bischen abwägig aber schlussendlich ist es doch so, da es bis DX Next nichts neue geben soll ausser vielleicht 9.0c. Oder ist alles nur Marketing blablabla von den Chiphestellern?

ShadowXX
2004-03-07, 12:18:04
Original geschrieben von Demirug
Bei den Entwicklern ist es durchaus üblich eine DX Version auch als Synonym für die mit dieser Version eingeführten Techniken zu benutzten.

Klar...aber da muessen wir wohl auch stark zwischen Marketing/PR und den Entwicklern unterscheiden...

Das Marketing moechte moeglichst "grosse" Zahlen auf der Verpackung stehen haben...darum fragen Sie die Entwickler wohl eher, ob Sie ueberhaupt etwas von DX9 benutzen, als Direkt..."nutzt ihr PS2.0?"...

Wenn der Entwicker dann mit.."oehh...wir benutzen den Sound-Teil von dx9...."...antworten, macht das Marketing flugs ein dx9-Titel draus....

Wirkt dann einfach "moderner"....und damit verkaufstraechtiger...

J.S.Shadow

Demirug
2004-03-07, 12:30:11
Original geschrieben von Terr0r
Ja aber die PS/VS 3.0 gehören ja auch zu DX 9, also wie kann sich dann eine Radeon r3xx oder NV3x als DX 9 Karte bezeichnen *eg*, ist vielleicht gerade ein bischen abwägig aber schlussendlich ist es doch so, da es bis DX Next nichts neue geben soll ausser vielleicht 9.0c. Oder ist alles nur Marketing blablabla von den Chiphestellern?

DX9 ist eben das Synonym für die 2.0 Shader. Was sich als Synonym für die 3.0 Shader durchsetzten wird muss sich noch zeigen.

Neuerdings nimmt man aber sowieso HLSL zum programmieren von Shader. Ob man dann draus einen 2.0, 2.X oder 3.0 Shader erzeugt ist ja erstmal egal. Es gibt natürlich Grenzen die dazu führen das ein bestimmter HLSL Shader sich als 3.0 compilieren lässt aber nicht als 2.0.

9.0c ist nur ein Bugfix der Runtime.

Letzten Endes gibt es sowieso zwei etwas gegensätzliche Meinungen wie man mit mit den DX-Techlevel verfahren soll.

Die eine Partei vertritt die Meinung das man für jeden Techlevel einen eigenen Core-Renderer schreiben soll. Die Engine füttert diese Renderer dann mit alle verfügbaren Daten und jeder einzelne Renderer entscheidet was er davon braucht und was er wegwirft. Als letztes werden die verbleibenden Daten dann entsprechend der Technologie umgesetzt. Einen solchen Renderer bezeichnet man dann auch oft als Pfad. Diese Technik hat den Vorteil das man leicht umsetzungen auf völlig andere APIs (Konsolen) vornhemen kann da nur der Core-Renderer neu geschrieben werden muss. Der Nachteil ist aber das dieses System sehr unflexible ist.

Auf der anderen Seite gibt es den Effektzentrischen Ansatz. Dabei gibt es für jeden benötigten Effekt für unterschiedliche Technologiestufen Render Anweisungen (Shadercode, Renderstates, ...). Bei Bedarf auch für mehrer Passes. Der Vorteil ist das man leicht neue Effekte einbringen kann und für jeden Effekt sehr fein festlegen kann welche Technik mit welcher Karte standard sein soll. Da die Beschreibung aber meist sehr API-Spezifisch ist lässt sich eine solche Engine nicht ganz so leicht portieren.

Demirug
2004-03-07, 12:31:46
Original geschrieben von ShadowXX
Klar...aber da muessen wir wohl auch stark zwischen Marketing/PR und den Entwicklern unterscheiden...

Das Marketing moechte moeglichst "grosse" Zahlen auf der Verpackung stehen haben...darum fragen Sie die Entwickler wohl eher, ob Sie ueberhaupt etwas von DX9 benutzen, als Direkt..."nutzt ihr PS2.0?"...

Wenn der Entwicker dann mit.."oehh...wir benutzen den Sound-Teil von dx9...."...antworten, macht das Marketing flugs ein dx9-Titel draus....

Wirkt dann einfach "moderner"....und damit verkaufstraechtiger...

J.S.Shadow

Natürlich muss man immer darauf achten von wem die Aussage und in welchem Zusammenhang sie kommt.

betasilie
2004-03-07, 15:41:26
Original geschrieben von tokugawa
Ich sag's nochmal, DX9 und VS/PS2.0 sind vorerst einmal nicht synonym; Ein Spiel das VS/PS2.0 nutzt, ist zwangsläufig ein DX9 Spiel, aber ein Spiel das DX9 nutzt (und das heißt _nur_, dass es die Interfaces von DX9 nutzt), muß _nicht zwangsläufig_ ein VS/PS2.0 Spiel sein.

Und Spiele wie TR:AoD verwenden auch für eine FX5200 die DirectX9 Interfaces; nur keine VS/PS2.0. Sie verwendet also einen DX9 Renderpfad _ohne_ VS/PS2.0, was wie gesagt nach obiger Definition möglich ist.

Folglich halte ich es für falsch, hier von einem "DX8 Renderpfad" zu sprechen, da sollte man eher sagen "VS/PS 1.x Renderpfad".
Ich sprach ja nie von DX9, sondern von Shadern2.0. :deal:

Außerdem:
Original geschrieben von Demirug
DX9 ist eben das Synonym für die 2.0 Shader. Was sich als Synonym für die 3.0 Shader durchsetzten wird muss sich noch zeigen.
Und genauso ist DX8 das Synonym für Shader 1.x.

Wenn ein Game einen DX9-Pfad und einen DX8-Pfad hat, werden sich diese Pfade durch die Versionen der genutzten Shader unterscheiden.

...

Welches Synonym sich für die Shader3.0-Pfade durchsetzt würde mich auch mal interessieren. :gruebel:

Terr0r
2004-03-07, 16:37:36
Original geschrieben von betareverse
Ich sprach ja nie von DX9, sondern von Shadern2.0. :deal:

Außerdem:

Und genauso ist DX8 das Synonym für Shader 1.x.

Wenn ein Game einen DX9-Pfad und einen DX8-Pfad hat, werden sich diese Pfade durch die Versionen der genutzten Shader unterscheiden.

...

Welches Synonym sich für die Shader3.0-Pfade durchsetzt würde mich auch mal interessieren. :gruebel:


Du widersprichst dir selber zum einen sagst du das du nicht von DX9 sprichst, sondern von den PS 2.0
:schlag: zum anderen sagst du das DX8 PS 1.x ist. Mhhh komisch das PS 2.0 plötzlich nicht zu irgendeiner DX version gehören soll zum anderen soll PS 1.x zu DX8 gehören, entweder ich versteh dich Falsch oder du versuchst dich hier irgendwie aus der Affäre zu schlängeln. DX 9.0c vielleicht, jedenfalls wird es Nvidia so vermarkten, und ich glaube auch zu das sie das recht dazu haben. Aber OT Frage Arbeitest du im Marketing.

betasilie
2004-03-07, 18:04:58
Original geschrieben von Terr0r
Du widersprichst dir selber zum einen sagst du das du nicht von DX9 sprichst, sondern von den PS 2.0

Falsch! :nono: Erst lesen, dann posten.

Ich sage lediglich, dass ich tatsächlich nicht von DX9 gesprochen habe, sondern von Shadern2.0. Das heißt noch lange nicht, dass ich DX9 nicht als Synonym für Shader2.0 benutzen würde.

Ein DX9 Renderpfad setzt immer ein Karte mit DX9-compliance voraus, was sich wohl immmer in den Shadern ausdrücken wird.

tokugawa
2004-03-07, 18:35:24
Original geschrieben von betareverse
Ein DX9 Renderpfad setzt immer ein Karte mit DX9-compliance voraus, was sich wohl immmer in den Shadern ausdrücken wird.

Und man kann DX9 Interfaces auch dann verwenden, wenn die Karte keinen VS/PS 2.0 unterstützt. Es gibt also Spiele die nur bei installiertem DX9 rennen, aber trotzdem keine VS/PS2.0 benutzen. Meiner Definition nach verwenden die einen DX9-Renderpfad (und keinen DX8 - sie verwenden ja die DX9 Interfaces und setzen ein installiertes DX9 vorraus), da sie die Interfaces von DX9 verwenden, aber nicht die Features (die Benutzung von DX9 setzt ja nicht die automatische Benutzung aller Features dieser Version vorraus).

Original geschrieben von Demirug
DX9 ist eben das Synonym für die 2.0 Shader. Was sich als Synonym für die 3.0 Shader durchsetzten wird muss sich noch zeigen.


Natürlich hat sich "umgangssprachlich" DX9 für die Verwendung von VS/PS2.0 durchgesetzt. Aber VS/PS2.0 sind ja nicht die einzigen neuen Dinge bei DX9. Und ich war noch nie ein Fan von inexakten "umgangssprachlichen" Äußerungen. Ist einfach nur meine Einstellung; "Walfische" sind ja auch keine Fische, von daher verabscheue ich die Benutzung des Begriffs "Walfisch"... ähnlich halte ich das mit der Bezeichnung "DX9-Spiel".


Auf was ich mich jedoch einigen kann ist, dass man etwa sagt "DX9-Tech Level", damit impliziert man, dass man doch einen Großteil der Möglichkeiten von DX9 nutzt.


Aber die Bezeichnung "DX9-Spiel" impliziert, meiner Ansicht nach, nicht die Verwendung ALLER DX9-Features, und damit auch nicht notwendigerweise VS/PS2.0.


Mir ist schon klar, dass das aber "umgangssprachlich" so gehandhabt wird. Wie Walfische.

r@e
2004-03-07, 18:42:35
Mich interessiert noch immer, was - himmel-arsch-und-zwirn - das mit dem NV40 zu tun hat !
:???:

Razor

ShadowXX
2004-03-07, 19:37:46
Original geschrieben von r@e
Mich interessiert noch immer, was - himmel-arsch-und-zwirn - das mit dem NV40 zu tun hat !
:???:

Razor

Direkt wohl gar nix...indirekt beschreibt es allerdings ein Problem welches nV beim Vermarkten haben wird:

Wie kann man die PS/VS3.0 Faehigkeiten ordentlich vermarkten und zwar so, das auch der "Dau" es versteht...einfach einen DX9 Aufkleber rauftun bringts ja nicht...

(Auch wenn es bei den beiden wohl um etwas anderes geht....)

J.S.Shadow

betasilie
2004-03-07, 20:40:01
Original geschrieben von tokugawa
Und man kann DX9 Interfaces auch dann verwenden, wenn die Karte keinen VS/PS 2.0 unterstützt. Es gibt also Spiele die nur bei installiertem DX9 rennen, aber trotzdem keine VS/PS2.0 benutzen. Meiner Definition nach verwenden die einen DX9-Renderpfad (und keinen DX8 - sie verwenden ja die DX9 Interfaces und setzen ein installiertes DX9 vorraus), da sie die Interfaces von DX9 verwenden, aber nicht die Features (die Benutzung von DX9 setzt ja nicht die automatische Benutzung aller Features dieser Version vorraus).

Klar, in einem solchen Fall würde ich auch nicht von einem DX9-Renderpfad sprechen. Das wäre einfach ein DX8/7-Spiel, welches DX9 vorraussetzt. Das muss aber nix mit der Grafik zu tun haben.

Ich bezog mich auf Spiele, die einen DX9- und einen DX8-Renderpfad haben und da kann man diese Einteilung in PS2.0 und PS1.x sehr wohl so machen.

Du hast mit deinen Aussagen nicht unrecht, nur dass Du meine Aussagen nicht auf den eigentlichen Kontext beziehst, denn dadurch würden meine Aussagen etwas präziser erscheinen.

... Und Razor hat schon recht, dass das alles ziemlich OT ist, daher lass uns mal die Dikussion hier beenden. Wir können das bestimmt nochmal in einem anderen Thread diskutieren, wo das mehr zum Topic passt. ;)

r@e
2004-03-08, 06:16:12
Original geschrieben von ShadowXX
Direkt wohl gar nix...indirekt beschreibt es allerdings ein Problem welches nV beim Vermarkten haben wird:

Wie kann man die PS/VS3.0 Faehigkeiten ordentlich vermarkten und zwar so, das auch der "Dau" es versteht...einfach einen DX9 Aufkleber rauftun bringts ja nicht...So, wie sie damals auch schon ihr 2.x 'vermarktet' haben. Auch die NV3x-Architektur kann schon wesentlich mehr, als das, was die Mindestanforderung fordert (i.e. ATI's R3x0). Jetzt können sie sich die volle DX9-Unterstützung auf die Fahne schreiben und werden dies sicher auch eindrucksvoll mit DirectX - Demo's belegen, die auf einer ATI-Karte dann gar nicht mehr (oder rekompiliert) nur noch ultra-langsam laufen wird.

Wenn sie zudem noch das (volle, nicht nur unterstützte) Video-Encoding promoten, werden sie genug in der Hand haben, die PS3.0-Fähigkeit vermarkten zu können... so nach dem Motto:

"Dank modernster DirectX9-Technologie, ist der NV40 weltweit erstmalig in der Lage, die fähigkeiten des Pixel-Prozessors auch für andere Aufgaben zu nutzen, als der (untra-schnellen) Echtzeit-Darstellung von 3D-Inhalten. So wird hier jetzt das Video-encoden mit voller Hardwareunterstützung, wie auch z.Bsp. das berechnen von Effekten zu Bildbearbeitung (z.Bsp. Photoshop) möglich - und das in einer nie dagewesenen Geschwindigkeit. Die neue nVidia-GPU ist der weltweit erste und einzige Grafik-Chip, welcher DirectX9 im vollen Umfang unterstützt."

So oder ähnlich halt...
;-)
Original geschrieben von ShadowXX
(Auch wenn es bei den beiden wohl um etwas anderes geht....)Das 'vermute' ich allerdings auch...
Und es gehört einfach nicht hier her.

Razor

r@e
2004-03-08, 06:56:53
Original geschrieben von betareverse
Ich bezog mich auf Spiele, die einen DX9- und einen DX8-Renderpfad haben und da kann man diese Einteilung in PS2.0 und PS1.x sehr wohl so machen. Nein, kann man nicht...

Wie ich gerade lernen 'mußte' (ein Schlem, wer dabei auch nur denkt ;-) :

Es gibt einen PS1-Pfad (PS1.1, PS1.3, PS1.4), einen PS2.0-Pfad (Mindestanforderung von DX9 - durch ATI repräsentiert) , einen PS2.X (PS2 eXtended, derzeit durch 'die anderen' repräsentiert) und einen PS3.0-Pfad (zukünftig wohl erst einmal nur durch den NV40 repräsentiert).

Bei DirectX werden von der Game-Engine sog. CAPS abgefragt, also hier erst mal den PS-Techlevel, um die Fähigkeiten des Chips bei den Pixel-Shadern (und nur da - es gibt andere CAPS für die anderen Fähigkeiten einer GPU) 'einzukreisen'. Erst danach werden weitere CAPS zu Ermittlung der sonstigen Fähigkeiten abgefragt...

Wird PS1.<irgendwas> zurück gegeben und von der Engine für einen Pfad als 'gültig' akzeptiert, dann handelt es sich hierbei um einen DX8-Pfad. Wird hingegebn PS2.<irgendwas> oder PS3 zurück gegeben, und von der Engine für einen Pfad als 'gültig' akzeptiert, dann handelt es sich hierbei um einen DX9-Pfad (wird von der Engine nur ein DX8-Pfad geboten, dann 'reicht' ein Techlevel von PS2 und höher natürlich dafür aus ;-).

DX9 ist nicht nur PS2.0, sondern auch PS2.X (im HLSL-Compiler dann als PS2.A, PS2.B, PS2.C etc Rendertarget 'hinterlegt') und eben PS3.0.

Und mehr gibt's dazu einfach nicht zu sagen.
(um mehr werde ich dazu auch nicht sagen ;-)

Razor

aths
2004-03-08, 06:58:44
Original geschrieben von r@e
So, wie sie damals auch schon ihr 2.x 'vermarktet' haben. Auch die NV3x-Architektur kann schon wesentlich mehr, als das, was die Mindestanforderung fordert (i.e. ATI's R3x0). Jetzt können sie sich die volle DX9-Unterstützung auf die Fahne schreiben Fraglich ist, ob NV40 überhaupt DX8 "voll" unterstützt. Die DirectX9-Compliance erfüllt auch eine 9600 SE. Keine Hardware unterstützt alle Features einer DirectX-Version. Radeon 8500 mag der "vollere" DX8-Chip gegenüber GeForce4 Ti gewesen sein. Beide Karten sind DirectX 8.1-Chips, da sie *einige* wesentliche Features unterstützen, die man unter DirectX erst ab Version 8.1 nutzen kann.

Original geschrieben von r@e
und werden dies sicher auch eindrucksvoll mit DirectX - Demo's belegen, die auf einer ATI-Karte dann gar nicht mehr (oder rekompiliert) nur noch ultra-langsam laufen wird.Das denke ich nicht. Imo werden sie auf neue Techniken setzen, die z. B. im Vertexshader auf Texturen zugreifen.

Tyler_Durden
2004-03-08, 10:47:46
Original geschrieben von ShadowXX
Da hst du voellig recht...gutes Beispiel ist Colin04, welches als dx9 game angepriesen wird und definitiv nur PS/VS1.1 benutzt...braucht hlat den Sound oder Netzwerkteil von dx9...


J.S.Shadow

Wenn Colin 4 wirklich nur PS1.1 nutzt, warum performt es dann auf NV3x Hardware wesentlich schlechter als auf R3x0?

Ailuros
2004-03-08, 11:49:42
"Dank modernster DirectX9-Technologie, ist der NV40 weltweit erstmalig in der Lage, die fähigkeiten des Pixel-Prozessors auch für andere Aufgaben zu nutzen, als der (untra-schnellen) Echtzeit-Darstellung von 3D-Inhalten. So wird hier jetzt das Video-encoden mit voller Hardwareunterstützung, wie auch z.Bsp. das berechnen von Effekten zu Bildbearbeitung (z.Bsp. Photoshop) möglich - und das in einer nie dagewesenen Geschwindigkeit. Die neue nVidia-GPU ist der weltweit erste und einzige Grafik-Chip, welcher DirectX9.1 im vollen Umfang unterstützt."

Kleine Schoenheitskorrigierung. :D

ShadowXX
2004-03-08, 11:58:45
Original geschrieben von Tyler_Durden
Wenn Colin 4 wirklich nur PS1.1 nutzt, warum performt es dann auf NV3x Hardware wesentlich schlechter als auf R3x0?

Da sind wir in dem anderen Thread auch am ueberlegen gewesen...bis jetzt kam da allerdings nur raus, dass es "vielleicht" am "schnellern" SingleTexturing der r3x0 Reihe liegen koennte....

Es kann aber auch sein, das es eben einfach so ist...X2 ist auf nV schneller, obwohl es eigentlich keinen Grund gibt, Enclave ist auf ATI schneller, obwohl es keinen wirklichen Grund gibt....

J.S.Shadow

P.S.
das mit den PS/VS1.1 kannst du selbst einfach mit der Demo und dem 3DAnalyser ueberpruefen...(Shader.out erzeugen)

ShadowXX
2004-03-08, 12:00:14
Original geschrieben von Ailuros
Kleine Schoenheitskorrigierung. :D

Meinst du wirklich das nV sich das trauen wird??

Einfach DX9.1 hinschreibn, obwohl es es nicht gibt??

Oder hab ich einen ironie-smile uebersehen??

J.S.Shadow

Ailuros
2004-03-08, 12:04:23
Original geschrieben von ShadowXX
Meinst du wirklich das nV sich das trauen wird??

Einfach DX9.1 hinschreibn, obwohl es es nicht gibt??

Oder hab ich einen ironie-smile uebersehen??

J.S.Shadow

Kein Ironie-smiley.

robbitop
2004-03-08, 12:06:55
hm vieleicht weil der NV3x weniger ausgelastet ist als R3xx und somit weniger effektive PS Ops schafft als R3xx.
AFAIK gibts im NV35 keine nativen FX12 Einheiten mehr. Somit müsste alles =< FP16 gleichschnell laufen.
Außerdem schafft die Radeon9800 (R3xx) 16AOps UND 8 TOps an Peakleistung. NV35 schafft 8AOps+0AOps oder 8TOps+4AOps.

Und die Granularität beim R3xx ist einfach günstiger.

ShadowXX
2004-03-08, 12:16:26
Original geschrieben von robbitop
hm vieleicht weil der NV3x weniger ausgelastet ist als R3xx und somit weniger effektive PS Ops schafft als R3xx.
AFAIK gibts im NV35 keine nativen FX12 Einheiten mehr. Somit müsste alles =< FP16 gleichschnell laufen.
Außerdem schafft die Radeon9800 (R3xx) 16AOps UND 8 TOps an Peakleistung. NV35 schafft 8AOps+0AOps oder 8TOps+4AOps.

Und die Granularität beim R3xx ist einfach günstiger.

Endlich mal eine sinnige Erklaerung....

Gast
2004-03-08, 12:19:19
Original geschrieben von robbitop
NV35 schafft 8AOps+0AOps oder 8TOps+4AOps.

4AO + 4AO (+4AO) oder 8TO + 4AO (+4AO).

robbitop
2004-03-08, 12:43:37
@Gast
ja das ist nochmal aufgeschlüsselt...was meinst du mit den Werten in den Klammern? Sind das AOps vom Shadercore unter gewissen Vorraussetzungen?

aths
2004-03-08, 13:23:06
Original geschrieben von robbitop
@Gast
ja das ist nochmal aufgeschlüsselt...was meinst du mit den Werten in den Klammern? Sind das AOps vom Shadercore unter gewissen Vorraussetzungen? Der Shadercore kann "pro Pipe" entweder 1 A-Op oder 2 T-Ops. Die FPU kann unter bestimmten Voraussetzungen 2 A-Ops pro Pipe und Takt erledigen.

robbitop
2004-03-08, 13:25:24
ja sowas hab ich mir auch gedacht, deswegen fragte ich ja
;)

aths
2004-03-09, 06:11:06
Original geschrieben von robbitop
hm vieleicht weil der NV3x weniger ausgelastet ist als R3xx und somit weniger effektive PS Ops schafft als R3xx.
AFAIK gibts im NV35 keine nativen FX12 Einheiten mehr. Somit müsste alles =< FP16 gleichschnell laufen.
Außerdem schafft die Radeon9800 (R3xx) 16AOps UND 8 TOps an Peakleistung. NV35 schafft 8AOps+0AOps oder 8TOps+4AOps.

Und die Granularität beim R3xx ist einfach günstiger. Der NV35 kann Takt für Takt fast genauso schnell 1.1-Shader abarbeiten, wie NV30. Es gibt weiterhin zusätzliche HW für FX12. Mit FP16-Einheiten kannst du FX12 nicht "emulieren". Allerdings kann eine FP32-Einheit, wenn sie dafür speziell vorbereitet ist, auch 2 FX12-Operationen ausführen. (Jedenfalls, wenn es sich um Operationen handelt die auf ADD und MUL basieren.)