PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce5/NV30 Specs


Wanginator
2002-05-14, 10:01:18
Hi,

laut http://www.3dchipset.com/news.shtml#newsitem1020969880,11223, soll die Geforce 5 mit DDR-II Ram von 900 MHz kommen und gleichzeitig 200 Mio. Polygone pro Sek. schaffen.

Das wäre dann doppelt soviel wie die jetzige Geforce. Was haltet ihr davon, klingt doch nicht schlecht, oder?

Richthofen
2002-05-14, 11:52:39
klingt alles sehr toll aber interessiert mich erst dann wenns soweit ist :)
Da Matrox mit 256 Bit vorlegt, denke ich wird Nvidia kurzfristig einfach auf DDR II umsatteln. Die werden einfach irgendwas machen um die Bandbreite zu erhöhen.
Bei dem Matrox Teil ist die Bandbreite schon ziemlich fett aber ich glaube hier ist dafür die Füllrate des Chips nicht ganz so gestiegen. Kann also gut sein das Bandbreite brach liegt. Könnt ich mir sogar bei 16x AA denken.

Tomp
2002-05-14, 12:12:29
Originally posted by Richthofen
klingt alles sehr toll aber interessiert mich erst dann wenns soweit ist :)
Da Matrox mit 256 Bit vorlegt, denke ich wird Nvidia kurzfristig einfach auf DDR II umsatteln. Die werden einfach irgendwas machen um die Bandbreite zu erhöhen.
Bei dem Matrox Teil ist die Bandbreite schon ziemlich fett aber ich glaube hier ist dafür die Füllrate des Chips nicht ganz so gestiegen. Kann also gut sein das Bandbreite brach liegt. Könnt ich mir sogar bei 16x AA denken.


Die ersten DDR2-Samples sollen glaub ich erst im November verfügbar sein. Und die sollen auch erstmal nur mit 133Mhz laufen. DDR2 wird es also erst im nächsten Jahr geben.

ow
2002-05-14, 12:46:12
Hier ist der Thread besser aufgehoben IMO.

nocturne
2002-05-14, 13:50:18
Irgendein nVidia-Mitarbeiter hat übrigens mal angedeutet, dass der NV30 gar nicht mehr "GeForce" heissen soll, sondern einen neuen Namen bekommen soll.

Unregistered
2002-05-14, 13:58:01
quote:
Da Matrox mit 256 Bit vorlegt, denke ich wird Nvidia kurzfristig einfach auf DDR II umsatteln. Die werden einfach irgendwas machen um die Bandbreite zu erhöhen.


bringt nichts!

DDRII hat die selbe Bandbreite wie DDR; das Interface wurde nicht geändert, es bleibt bei 2"Worten" pro Takt.
DDRII ist nur ein Update der DDR-Spec's damit Mainboards später auch mit 200MHz - 333MHz(?) schnellen Speichern ausgestattet werden können. Bisher sind DDR-Speicher bei Mainboards ja auf max. 166MHz begrenzt ( die 200MHz-DDR-RAM's sind bereits außerhalb der Spec ).

Frank
2002-05-14, 14:14:35
Originally posted by nocturne
Irgendein nVidia-Mitarbeiter hat übrigens mal angedeutet, dass der NV30 gar nicht mehr "GeForce" heissen soll, sondern einen neuen Namen bekommen soll.
das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?

Tomp
2002-05-14, 14:27:02
Originally posted by Frank

das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?


Wie wärs damit: G-Force?

Pirx
2002-05-14, 15:36:36
Gab es nicht vor ein paar Wochen mal die news, daß sich QDR relativ einfach und kurzfristig realisieren liesse? Wäre ja auch ne Möglichkeit.

Originally posted by Frank

das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?

Viell. G-Punkt... ähhh -Pixel?:)

Wanginator
2002-05-14, 17:33:50
Originally posted by Frank

das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?

Hab auch schon mal den Namen "Omen" zu Ohren bekommen...

Richthofen
2002-05-14, 18:27:56
In der Tat meinte ich auch nicht DDR II sondern QDDR.

Mein Fehler. QDDR gibt es in Samples von Micron wenn ich das noch richtig in Erinnerung habe. Irgendwas werden die sich schon einfallen lassen evtl SLI?

Die Bandbreite von 20 GB brauchen sie sowieso nicht. Da wird schon weniger bereits reichen. Zumindest beim Matrox Chip hab ich den Eindruck das die Bandbreite gemessen an der Chip Füllrate ein wenig oversized ist.
Aber das wird man sehen.

jedi
2002-05-14, 18:32:42
Originally posted by Frank

das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?

Hat nicht nVidia vor ein paar Jahren einen Namenswettbewerb gestartet, mo man seine Namensvorschläge für die neue Generation von T&L-Chips einreichen konnte? Dabei wurden auch Karten verlost. Als sie sich dann für "GeForce" entschieden haben, habe ich mich nur gewundert, weil der Name sehr gewöhnungsbedürftig war. Naja, der seltsame Name hat dem Erfolg der GeForce-Reihe offensichtlich nicht geschadet und inzwischen ist es ein fester Begriff für jeden.

Gohan
2002-05-14, 19:45:27
Originally posted by Frank

das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?

Voodoo, Ramapge ;D

jedi
2002-05-14, 19:51:08
Originally posted by Gohan

Voodoo, Ramapge ;D

Hehe, vielleicht steckt ja wirklich ein gutes Stück davon im NV30. Immerhin sind die 100 besten 3dfx-Entwickler nach der 3dfx-Pleite zu nVidia gegangen. Das macht die Sache natürlich noch interessanter. Lassen wir uns überraschen...

Unregistered
2002-05-14, 20:51:10
Originally posted by Richthofen
In der Tat meinte ich auch nicht DDR II sondern QDDR.

Mein Fehler. QDDR gibt es in Samples von Micron wenn ich das noch richtig in Erinnerung habe. Irgendwas werden die sich schon einfallen lassen evtl SLI?


Link?

QDDR gibt es IMO gar nicht. Du meinst sicher QDR, oder?
Das ist aber ein Trademark für eine spezielle SRAM-Version, taugt also gar nicht für Grafikkarten.

Gohan
2002-05-14, 21:10:36
Originally posted by Unregistered


Link?

QDDR gibt es IMO gar nicht. Du meinst sicher QDR, oder?
Das ist aber ein Trademark für eine spezielle SRAM-Version, taugt also gar nicht für Grafikkarten.

Pssst, das könnte nVidia lesen... vielleicht wissen die das noch garnicht ;D

mapel110
2002-05-14, 22:55:09
mein vorschlag für einen neuen namen: "maximus 3dmurks g5000"

HOT
2002-05-14, 23:11:46
Lol @Mapel :D

Nein, ich denke, der NV Chip wird diesmal eher durch Innovation denn durch rohe Power glänzen :D
DDRII oder QDR ist nett, aber nicht unbedigt billig. Es ist ein Streitfall, ob 256Bit oder QDR. Beides kostet relativ viel, aber 256Bit halte ich für effizienter.
ATI hat ja glücklicherweise dank ArtX 1TSRAM :D

Unreal Soldier
2002-05-14, 23:14:03
Originally posted by Frank

das wär mal was. :)
Wer bietet Vorschläge für einen neuen Namen?

Aus Gforce--->HFORCE oder ZFORCE

MFG
Unreal Soldier

Doomtrain
2002-05-14, 23:39:03
Originally posted by Gohan


Pssst, das könnte nVidia lesen... vielleicht wissen die das noch garnicht ;D

:lol:

Unregistered
2002-05-15, 13:03:46
Vulgären Unsinn entfernt (aths)

Unregistered
2002-05-16, 16:43:03
@waginator

von wegen doppelt so hoch die ti 4600 schaft ja schon 153 Mio Polygone pro Sekunde (theoretisch durch doppelt ausgelegten Vertexshader, da aber das 3eckssetup nicht doppelt ausgelegt ist sinds ungefähr 80 Mio polygone),

hab mal gehört das Nvidia einen zusätzlichen chip in die HaupGPU integriert der genauso hoch wie der GPU getaktet sein soll (450Mhz)
und alleine für die Geometrie berechnung zuständig sein soll > sogenantes ET&L) wie gesagt nur ein Gerücht spätestens im Herbst wissmer mer


Cu Pinhead.

nocturne
2002-05-19, 23:17:22
Originally posted by jedi

Hehe, vielleicht steckt ja wirklich ein gutes Stück davon im NV30. Immerhin sind die 100 besten 3dfx-Entwickler nach der 3dfx-Pleite zu nVidia gegangen. Das macht die Sache natürlich noch interessanter. Lassen wir uns überraschen...

So weit ich mich erinnere, hat nVidia damals auch die Rechte am Markennamen "Voodoo" übernommen, oder?

Simon Moon
2002-05-20, 00:31:21
Originally posted by HOT
Lol @Mapel :D

Nein, ich denke, der NV Chip wird diesmal eher durch Innovation denn durch rohe Power glänzen :D
DDRII oder QDR ist nett, aber nicht unbedigt billig. Es ist ein Streitfall, ob 256Bit oder QDR. Beides kostet relativ viel, aber 256Bit halte ich für effizienter.
ATI hat ja glücklicherweise dank ArtX 1TSRAM :D

Nun, die RAMs die auf den NV Boards verbaut sind, sollen ja schon eine Mischung aus DDR und DDRII sein (also so'n DDR1,5 :D ). Was aber genau dem DDR2 und was dem DDR Standart entspricht weiss ich aber nicht. Imho ist das jedoch auch egal, da der Unterschied im Speed minimal sein wird. Also denk ich DDR2 wird nVidia nix bringen. Von 256Bit Speicher sollen sie auch abstand genommen haben.
Wieso QDR ineffektiv(er als 256Bit ) sein soll, weiss ich leider nicht. ???

@ Richthofen:
Bisher war eben immer die Füllrate und nicht die Bandbreite 'überdimensioniert'. Wieso ist es nun schlimm, wenn es mal umgekehrt ist? Bzw. es ist noch garnicht gesagt ob es so überdimensioniert ist. (wenn ich da dann JK2 in 1600*1200*32 mit 16AF und 16FSAA spielen würde, sähe es vielleicht wieder anders aus...)

jedi
2002-05-20, 19:27:36
Originally posted by nocturne

So weit ich mich erinnere, hat nVidia damals auch die Rechte am Markennamen "Voodoo" übernommen, oder?

Ja, aber ich glaube nicht, dass sie diesen Namen noch benutzen. Diesen Namen assoziieren viele Gamer nicht nur mit dem 3D-Pionier, sondern inzwischen auch mit dem Ruf des Pleitegeiers.

Aber von den exzellenten 3dfx-Entwicklern kommen bestimmt tatsächlich noch schöne Mitentwicklungen bei nVidia.

Abdul Alhazred
2002-05-20, 19:41:07
Nur so mal nebenbei - ich bezweifle sehr, dass NVIDIA mit dem NV30 versuchen wird die Polygonenzahl wieder (so extrem) zu erhöhen - jetzige Standards werden ja, nach wie vor, noch nicht vollkommen ausgenutzt. Es gibt auch andere Technologien, die bei Spiele den Realismus erhöhen könnten, ohne gleich auf mehrere Polygone zu deuten (besseres Z-Culling, integrierte volumetrische Texturenbeschleunigung, so wie das von mir sehnlich erwartete hardware Motion-Blur). Auch die Menge und die Auflösung von Texturen dürfte um einiges höher gesetzt werden (vielleicht sogar 8192 x 8192 pixel Texturen ?) Mehrfache Lichtberechnungen (so um die 32, hmmm) wären auch nicht schlecht - immerhin hinken da die Spielerkarten den Entwicklerkarten schon einiges hinterher...

Abdul Alhazred
2002-05-20, 19:42:24
Originally posted by jedi


Ja, aber ich glaube nicht, dass sie diesen Namen noch benutzen. Diesen Namen assoziieren viele Gamer nicht nur mit dem 3D-Pionier, sondern inzwischen auch mit dem Ruf des Pleitegeiers.

Aber von den exzellenten 3dfx-Entwicklern kommen bestimmt tatsächlich noch schöne Mitentwicklungen bei nVidia.

8-fache Kantenglätung, etwa? ;)

jedi
2002-05-20, 19:57:40
Originally posted by Abdul Alhazred
Auch die Menge und die Auflösung von Texturen dürfte um einiges höher gesetzt werden (vielleicht sogar 8192 x 8192 pixel Texturen

Hast Du mal ausgerechnet, wieviel Speicher eine einzige solche Textur in 32 bit braucht? Aber immerhin gibt es ja Kompression und nVidia hat ja noch ein paar schöne Texturkompressionsverfahren patentiert, auch für 3D-Texturen.

zeckensack
2002-05-20, 20:07:24
Originally posted by Abdul Alhazred
integrierte volumetrische Texturenbeschleunigung
Gibt's schon längst
so wie das von mir sehnlich erwartete hardware Motion-Blur.
Kann man auch mit allen aktuellen Grafikkarten machen, nur ist's dann halt grottenlahm. Aber mal im Ernst, ist das wirklich ein sinnvolles Feature? Außer bei extremen Zeitlupensequenzen hat das mit Realismus doch auch überhaupt nichts zu tun ...
Auch die Menge und die Auflösung von Texturen dürfte um einiges höher gesetzt werden (vielleicht sogar 8192 x 8192 pixel Texturen ?)
32MB mit Texturkompression nach S3TC sind doch der Wahnsinn. Und warum sollte ich 64Mio Texel brauchen, wenn ich gerade mal 2Mio Pixel auf dem Bildschirm darstelle (bei 1600x1200)?Mehrfache Lichtberechnungen (so um die 32, hmmm) wären auch nicht schlecht - immerhin hinken da die Spielerkarten den Entwicklerkarten schon einiges hinterher...Die Spiele nutzen normalerweise null Hardware-Lichter. Warum aufstocken?

Demirug
2002-05-20, 20:36:56
Originally posted by zeckensack

Die Spiele nutzen normalerweise null Hardware-Lichter. Warum aufstocken?

*zeckensackzustimm*

Wäre absolute sinnlos.

Die ht&l pipeline ist tot und in den vs 2.0 kann ich noch mehr Hardwarelichter rechnenen lassen. Wobei auch das blödsinn ist. Wer braucht 32 Lichter?

Abdul Alhazred
2002-05-20, 20:37:59
Ha ja - volumetrische Texturen gibt's - aber noch nicht so gut integriert wie es machbar wäre (siehe Wolfman demo, wo die von NVIDIA per Pyramiden-struktur die Texturen einzeln berechnen lassen). Ich denke da an etwas komplexeres - so wie bei Fog Tables eingesetzt wird nur das mit komplexen Texturen (Haare, Pelze, etc). Hmm... Vielleicht sogar für volumetrische Effekte...

Das mit dem Motion-Blur würde ich persönlich schon begrüßen, rein aus Neugierde wie sich das Anwenden lassen würde. Ob es was bringt? Keine Ahnung - bei gerenderten Animationen sieht es aber manchmal recht hübsch aus. Ich könnte mir so etwas für Explosionen oder z.B. bei Rennspielen gut vorstellen.

Das Riesentexturen ein großer Aufwand wären (und viel Speicher benötigen würden) ist mir natürlich auch Klar. Nicht desto trotz darf man doch träumen, oder? Immerhin ist das ja hier ein "Spekulations" Forum ;)

Echtzeit Lichter, zum anderen, finde ich, wären Super. Das wenige Spiele Echtzeit Lichter einsetzen ist mir auch bewusst. Allerdings könnte ich mir vorstellen, dass die Möglichkeiten Enorm wären. Man braucht nur mal zu sehen was Carmack mit der Doom3 Engine schon alles aus einer GeForce3 kitzeln kann. Wenn ich dazu noch die Beleuchtungseffekte auf einer Wildcat anschaue, läuft mir einfach das Wasser im Mund zusammen. Allerdings müssten natürlich auch die Schnittstellen dafür optimiert werden und Spiele müssten dann beides unterstützen (immerhin verdienen ja die Hersteller noch so einiges an weniger Leistungsfähigen Hardware). Desto näher wir an Raytracing kommen und desto weiter wir uns von Shadowmaps und Lightmaps entfernen, desto realistischer wird auch die Grafik werden. Dürfte für nen Programmierer nicht das Leben vereinfachen, dass auf alle Fälle. Bei mir geht es aber nach wie vor um Grafikdetails und Grafikqualität. :D

Abdul Alhazred
2002-05-20, 20:41:06
Originally posted by Demirug


*zeckensackzustimm*

Wäre absolute sinnlos.

Die ht&l pipeline ist tot und in den vs 2.0 kann ich noch mehr Hardwarelichter rechnenen lassen. Wobei auch das blödsinn ist. Wer braucht 32 Lichter?

Hab' ja nicht gesagt das es viel Sinn ergeben muss - einiges was NVIDIA entwickelt hat ergibt nicht viel Sinn. Könnte es mir aber als Teil vom NV30 vorstellen - immerhin soll ja der Chipsatz auch für Quadro-Karten entwickelt werden.

Demirug
2002-05-20, 20:55:55
Originally posted by Abdul Alhazred


Hab' ja nicht gesagt das es viel Sinn ergeben muss - einiges was NVIDIA entwickelt hat ergibt nicht viel Sinn. Könnte es mir aber als Teil vom NV30 vorstellen - immerhin soll ja der Chipsatz auch für Quadro-Karten entwickelt werden.

Für die "Quadro" Anwender sind 8 Lichter genung. Und wenn nicht die Karte kann VertexShader der OpenGl Treiber kann damit auch mehr Lichter erzeugen. Im Spielebereich liegt die Zukunft im Per-Pixel Light.

Abdul Alhazred
2002-05-20, 21:01:12
Originally posted by Demirug


Für die "Quadro" Anwender sind 8 Lichter genung. Und wenn nicht die Karte kann VertexShader der OpenGl Treiber kann damit auch mehr Lichter erzeugen. Im Spielebereich liegt die Zukunft im Per-Pixel Light.

Da geb' ich dir vollkommen Recht. Ich meinte ja auch nicht, dass es umbedingt dabei sein muss - könnte aber.
Und, ermmm... das mit dem Quadro - ich hätte nichts dagegen wenn die noch ein paar Lichter einsetzen würden. Immerhin gehen mir auf meiner Quadro DCC schon manchmal die Lichter aus (ist zweideutig ;))
OK - könnte ich zwar auch anders machen aber so ist's halt einfacher.:D

jedi
2002-05-21, 19:01:58
Originally posted by zeckensack

Die Spiele nutzen normalerweise null Hardware-Lichter. Warum aufstocken?

Zumal aktuelle Hardware seit dem GeForce bereits acht Lichter pro Polygon unterstützt, das sollte für 'ne Weile reichen.

ow
2002-05-21, 22:13:27
uhhh wie mässig.:D
Der ICD meines uralten 3dlabs Permedia2 beschleunigt schon 16Lichtquellen (in SW).

Doomtrain
2002-05-21, 22:30:45
Originally posted by Demirug




Wäre absolute sinnlos.

Wer braucht 32 Lichter?

Stimmt, 32 Lichter sind overkill und werden nicht gebraucht. Aber schaut euch doch mal um in eurer Natur, 32 Lichter sind nix, wenn ihr z.B. eine Einkaufsstraße rendern wollt!! Nur so als Beispiel.

Oder Spiegel, die in Echtzeit Reflexionen abgeben, wenn eine virtuelle Sonne draufscheint...

Abdul Alhazred
2002-05-21, 22:39:16
Also, in der Filme / Special FX / Architektur Branche, sind 8 Lichter nun mal wirklich nichts - egal wie gut diese Ausstatung für Spiele sein mag (und, wie gesagt, ich gebe ja zu das bei Spielen die Zukunft eher in Richtung Pixel Shader / Lights geht).

Was ich noch dazu fügen möchte - ich sag' ja auch nicht, dass das ganze Sinn ergeben muss... Ich könnte mir gut vorstellen, dass NVIDIA so etwas einbauen würde, einfach weil die Profikarten anderer Hersteller (3DLabs, z.B) schon viel mehr Lichter berechnen können. Es ist nun auch mal Marketing, wenn NVIDIA sagen kann "Unsere Karte hat mehr Lichtquellen als die WildCat III".

Demirug
2002-05-21, 22:42:17
Originally posted by Doomtrain


Stimmt, 32 Lichter sind overkill und werden nicht gebraucht. Aber schaut euch doch mal um in eurer Natur, 32 Lichter sind nix, wenn ihr z.B. eine Einkaufsstraße rendern wollt!! Nur so als Beispiel.

Oder Spiegel, die in Echtzeit Reflexionen abgeben, wenn eine virtuelle Sonne draufscheint...

Meine Aussage beruht auf drei Überlegungen:

1. Hardwarelichter werden wie Jedi ja schon gesagt hat pro Poly gerechnet. Die meisten Lichtquellen haben keine große Reichweite und daher sind 8 Lichtquellen pro Poly eigentlich immer ausreichend.

2. Mit VertexShader kann man auch jetzt schon mehr Lichter berechnen daher ist es unnötig die fixed T&l Pipeline noch weiter aufzubohren.

3. Hardware Ligths werden bei Spielen kaum genutzt. Da sie nur bei hoher Polyzahl optisch gut aussehen. Ansonsten werden eh Ligthmaps benutzt. Das könnte sich zwar in Verbindung mit Displacmentmapping wieder ändern aber das glaube ich eher nicht da sich mit PixelShader sowieso die besseren Lichteffeckte erreichen lassen.

Doomtrain
2002-05-21, 22:51:34
Originally posted by Demirug


Hardware Ligths werden bei Spielen kaum genutzt. Da sie nur bei hoher Polyzahl optisch gut aussehen. Ansonsten werden eh Ligthmaps benutzt. Das könnte sich zwar in Verbindung mit Displacmentmapping wieder ändern aber das glaube ich eher nicht da sich mit PixelShader sowieso die besseren Lichteffeckte erreichen lassen.

Die Polygonzahl wird in Next-Gen-Spielen ernst einmal ins unendliche steigen, sagen wir 1 mio. pro Frame! Lightmaps sind veraltet, da sie zu statisch sind und im Prinzip immer gleich aussehen. Dynamikeffekte in Echtzeit zu berechnen, mit perfekter Licht und Schattenberechnung wird mit DM zwar einfacher, aber kaum schöner aussehen als mit reinen Pixelshaders.

Abdul Alhazred
2002-05-21, 22:52:24
A ja - displacement mapping...

Wie siehst du das überhaupt, Demirug? Meinst das wird wirklich "die" Innovation werden?

Doomtrain
2002-05-21, 23:00:29
Originally posted by Abdul Alhazred


Wie siehst du das überhaupt, Demirug? Meinst das wird wirklich "die" Innovation werden?

Das wird wieder genau so ein Feature wie Trueform. Man hat es zwar, aber man braucht es nicht wirklich.

Frage: Ist Trueform eigentlich von MS in DX aufgenommen worden?

Abdul Alhazred
2002-05-21, 23:02:56
Originally posted by Doomtrain


Das wird wieder genau so ein Feature wie Trueform. Man hat es zwar, aber man braucht es nicht wirklich.

Frage: Ist Trueform eigentlich von MS in DX aufgenommen worden?

Na ja, mit TruForm würde ich das nicht unbedingt vergleichen - es erlaubt ja, immerhin, eine Figur als Basis zu benutzen und durch Texturen zu deformieren. Doch ich glaub' auch nicht, dass das so der Renner werden wird. Es ist noch um einiges schwieriger so ein Map zu erstellen als ein Modell.

Demirug
2002-05-21, 23:05:09
Originally posted by Abdul Alhazred
A ja - displacement mapping...

Wie siehst du das überhaupt, Demirug? Meinst das wird wirklich "die" Innovation werden?

Das hängt von einigen Factoren ab.

1. ATI und NVidia müssen ebenfalls DM unterstützen sondt wird das nichts.

2. Der masseneinsatz dieser Technik wird wahrscheinlich etwas länger auf sich warten lassen da ein fallback für DM nicht ganz einfach ist.

Das ersten Einsatzgebiet dürften wahrscheinlich bei Highmap Outdoor engines sein. Dort ist der Fallback relative Einfach zu handhaben.

Demirug
2002-05-21, 23:09:00
Originally posted by Doomtrain


Das wird wieder genau so ein Feature wie Trueform. Man hat es zwar, aber man braucht es nicht wirklich.

Frage: Ist Trueform eigentlich von MS in DX aufgenommen worden?

Ja läuft dort unter N-Patches und ist eigentlich ganz net. Das Problem dabei ist nur das es halt nur mit einer ATi Karte geht und dafür lohnt der Mehraufwand bei den 3dDesigner nicht.

Sollte die NV30 das auch unterstützen hat die Sache durchaus noch Zukunft.

Doomtrain
2002-05-21, 23:10:53
Originally posted by Abdul Alhazred


Na ja, mit TruForm würde ich das nicht unbedingt vergleichen - es erlaubt ja, immerhin, eine Figur als Basis zu benutzen und durch Texturen zu deformieren. Doch ich glaub' auch nicht, dass das so der Renner werden wird. Es ist noch um einiges schwieriger so ein Map zu erstellen als ein Modell.

Nein, so hab ich es nicht gemeint. Trueform N-Patches und DM sind 2 Sachen die man hat, aber nicht braucht. Bonusfeatures eben. Ich wollte sie nicht technisch miteinander vergleichen. Die Teile stehen halt "in der gleichen Ecke". OK?

Abdul Alhazred
2002-05-21, 23:14:17
Originally posted by Doomtrain


Nein, so hab ich es nicht gemeint. Trueform N-Patches und DM sind 2 Sachen die man hat, aber nicht braucht. Bonusfeatures eben. Ich wollte sie nicht technisch miteinander vergleichen. Die Teile stehen halt "in der gleichen Ecke". OK?

So hatte ich das auch verstanden. ;) Aber ich sehe mehr Sinn hinter displacement mapping als hinter TruForm. Dennoch, wie gesagt, ich persönlich würde es viel schwieriger finden so einen Map zu erstellen, als wie einfach ein neues Modell zu basteln.

Was Demirug gesagt hat, stimmt aber - für Outdoor levels könnte es sich sicherlich lohnen. Ein Baum oder ein Berg ist immerhin nicht so Komplex wie eine Figur.

Demirug
2002-05-21, 23:20:46
Originally posted by Abdul Alhazred


So hatte ich das auch verstanden. ;) Aber ich sehe mehr Sinn hinter displacement mapping als hinter TruForm. Dennoch, wie gesagt, ich persönlich würde es viel schwieriger finden so einen Map zu erstellen, als wie einfach ein neues Modell zu basteln.

Was Demirug gesagt hat, stimmt aber - für Outdoor levels könnte es sich sicherlich lohnen. Ein Baum oder ein Berg ist immerhin nicht so Komplex wie eine Figur.

Bäume hab ich gar nicht gemeint. Mir ging es mehr um den Boden dort wird im Prinzip eine einfachere Form des DM schon heute benutzt. Wird halt alles von der CPU geerechnet. Deswegen läst sich das auch schnell umsetzen.

Abdul Alhazred
2002-05-21, 23:26:04
Originally posted by Demirug


Bäume hab ich gar nicht gemeint. Mir ging es mehr um den Boden dort wird im Prinzip eine einfachere Form des DM schon heute benutzt. Wird halt alles von der CPU geerechnet. Deswegen läst sich das auch schnell umsetzen.

Schon klar. Aber bei Bäumen dürfte das auch relativ unproblematisch sein (zu mindest für die Modelierer).

wulfman
2002-05-21, 23:50:49
Originally posted by Demirug

1. ATI und NVidia müssen ebenfalls DM unterstützen sondt wird das nichts.

2. Der masseneinsatz dieser Technik wird wahrscheinlich etwas länger auf sich warten lassen da ein fallback für DM nicht ganz einfach ist.


ignorante frage: DM ist ja ein verpflichtendes feature für dx9-fähigkeit, dh. nv oder ati sollten es haben, wenn sie den marketingtechnisch nicht deutlich zurückfallen wollen, oder?

ich würde also einfach den letzten teil von punkt 1 weglassen:

ATI und NVidia müssen ebenfalls DM unterstützen. ;)

mfg
wulfman

Demirug
2002-05-21, 23:58:31
Originally posted by wulfman


ignorante frage: DM ist ja ein verpflichtendes feature für dx9-fähigkeit, dh. nv oder ati sollten es haben, wenn sie den marketingtechnisch nicht deutlich zurückfallen wollen, oder?

ich würde also einfach den letzten teil von punkt 1 weglassen:

ATI und NVidia müssen ebenfalls DM unterstützen. ;)

mfg
wulfman

Mit der bezeichnung "verpflichtendes feature" wäre ich bei Direct X sehr vorsichtig. MS weigert sich zum Beispiel schon immer Featuressets festzulegen die man erfüllen muss damit sich eine Karte als Direct X n Karte bezeichnen kann (n = 1 - 8) und so wie es aussieht wird sich diese verhalten bei DX9 auch nicht ändern.

Im Prinzip ist Direct X nichts anders als eine Samlung von Optionen von dehen sich jeder Chiphersteller die aussucht die er unterstützen will. Nur wenn er sie unterstützt muss er sich genau an die Vorgaben halten.

Bei OpenGL ist das alles ein bischen anders.

Borbarad
2002-05-22, 10:12:23
Originally posted by Unregistered
hab mal gehört das Nvidia einen zusätzlichen chip in die HaupGPU integriert der genauso hoch wie der GPU getaktet sein soll (450Mhz)
und alleine für die Geometrie berechnung zuständig sein soll

Das entspräche dann vielleicht dem 3Dfx Sage oder wahrscheinlicher den 3Dfx Mojo Chips. Ist ja gut möglich, daß nun auch einige der 3Dfx Entwicklungen, die sich zum Zeitpunkt der Übernahme durch Nvidia in der Pipeline befanden, in angepasster Form in den NV3X Chips auftauchen.

Gruß,
Borbarad

nocturne
2002-05-24, 14:15:28
Aber so eine Multichip-Strategie wäre auch in der Boardherstellung teuer. Bisher geht nVidia's Strategie jedenfalls nicht in diese Richtung.

Demirug
2002-05-24, 15:33:49
Originally posted by nocturne
Aber so eine Multichip-Strategie wäre auch in der Boardherstellung teuer. Bisher geht nVidia's Strategie jedenfalls nicht in diese Richtung.

Multichip ist teurer. Aber Multi DIE pro Chip kann unter umständen günstiger sein als einen riessen DIE zu bauen.

[fu]121Ah
2002-05-24, 16:11:36
naja, man muss das auch von der machbarkeit her anschauen. wenn das nicht eine neuentwicklung ist, dann wird der nv30 wohl um die 100mio trans haben... wenn nicht mehr (bei angepeilten 8 pipelines?!?!?). das ist wärme und fertigungstechnisch ein grosser aufwand. 2x 50mio wäre da besser... und die fertigung wohl billiger (weniger ausschuss)

Richthofen
2002-05-24, 19:12:58
da Nvidia selber gesagt hat im Conference Call gestern, das sie hart am 0.13er Prozess mit TSMC arbeiten und ziemlich abhängig von dem für den Launch Termin des NV30 sind, erwarte ich mal über den Daumen gepeilt 80 bis 100 Mio Transistoren wobei ich fast zu satten 100 tendiere.

Wird ja nicht mehr lange dauern bis News dazu rauskommen.

[fu]121Ah
2002-05-24, 19:14:45
hast wohl recht richthofen...

ich tendiere auch zu 100... wir werden ja sehen was die sich ausgedacht haben... hoffentlich wieder mal was neues...

jedi
2002-05-25, 21:22:08
Originally posted by Richthofen
da Nvidia selber gesagt hat im Conference Call gestern, das sie hart am 0.13er Prozess mit TSMC arbeiten und ziemlich abhängig von dem für den Launch Termin des NV30 sind, erwarte ich mal über den Daumen gepeilt 80 bis 100 Mio Transistoren wobei ich fast zu satten 100 tendiere.

Wird ja nicht mehr lange dauern bis News dazu rauskommen.

In 100 Mio Transistoren würde theoretisch noch etwas eDRAM reinpassen... ;)