PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia NV30 und NV35 Spezifikationen (?)


Leonidas
2002-05-22, 12:29:34
Bezieht sich auf diesen Artikel:
http://www.3dcenter.org/artikel/2002/05-22_a.php
Unsere Spezifikations-Liste zum Thema:
http://www.3dcenter.org/artikel/2002/05-22_b.php#speclist



Hier nochmal die originalen, angeblichen Specs:

Leonidas
2002-05-22, 12:44:18
NV30
400MHz GPU - 8 pipeline engine - .13Micron
512-bit architecture
800~1000MHz DDR / QDR memory
400MHz Ramdac
LMA3 on 128MB~256MB Video Memory.
DirectX9 - OpenGL 1.3
-First, the NV30 is a brand new architecture. That means no more GeForce title, and no more internal guts which were repeated all the way through the GeForce architecture.
-The GeForce 4 was 256-bit, while the NV30 is 512-bit.
-The GeForce 4 was built on .15Micron technology while the NV30 is built on .13Micron Technology.
-GeForce4 is limited to 4096x4096 texture sizes while the NV30 has an infinite maximum texture size meaning 16384x16384 and higher can now be possible.
-NV30 also supports future resolutions of up to 2560x1920 with 64-bit colour (These are 100% rumors, so dont be let done if the final product doesnt support 64-bit colour). The whole rumor of 64-bit started when John Carmack back almost two years ago opened his mouth about Doom3's 64-bit support through the help of next generation Nvidia architecture.
-GeForce 4 features AGP4X while NV30 has full AGP8X support.
-NV30 supports memory bandwidth up to 16GB/s (1GHz).
-PCI-X support (1GB/s) the advanced PCI interface thats an alternative to AGP8X (2GB/s).
-This product is expected to be annouced in August 2002 and is expected to hit store shelves by late september, early october.

Leonidas
2002-05-22, 12:44:22
NV35
500MHz GPU - 8 pipeline engine - .13Micron
512-bit architecture
1000~1200MHz DDR / QDR memory
400MHz Ramdac
LMA3 on 128MB~256MB Video Memory.
TT&L Technology
DirectX 9.1 - OpenGL 2.0
Now, I'll go through the key new features that NV35 will bring;
-NV35 will hit the 500MHz barriar on .13Micron technology. To do this Nvidia is removing the T&L unit from the GPU and putting it external. This allows for more heat spreader and better heat transfer from the GPU.
-By removing the T&L unit, Nvidia is building on a new technology called TT&L which runs at 3/2 the GPU speed. (EX: Your GPU ran at 200MHz, the T&L unit would run at 300MHz) In NV35 case, the T&L unit will now run dedicated at 758MHz.
-Expected memory bandwidth of the NV35 is between 20~24GB/s.
-3DFX SLI technology will be implemented in higher models (A.K.A Workstation models)
-This product is expected to be annouced in January 2003, shipping by March.

Leonidas
2002-05-22, 12:44:27
NV30
-AGP 4x and 8x
-Copper Core GPU Processor 0.13 m default clock 450 MHz
-73 million transistors
-8 pipes
-128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit
-370Mhz RAMDAC
-DirectX 9.x compatible
-Quad Vertex Shaders
-Dual Pixel Shaders
-Lightspeed Memory Architecture III
-Quad Cache memory caching subsystem
-Dual Z-buffers for greater compression without losses visibility subsystem
-Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality.
-12nvx mode should deliver 80% better subpixel coverage and placement than previous modes
-Hardware bumpmapping
-4 Textures/Pixel in a single clock cycle, loop back can also apply an additional 4 textures per rendering pass
-A separate second copper processor running at 450Mhz an 0.13m as well - handle all T&L now called TT&L (True Time and lighting) and
-NVAutoShaper a new prechached and precacheable system
-Programmers can also add shapes to be temporarily stored in precache to speed things up
-Latest OpenGL
-Backward glide game capable thanks to NvBlur (Yes a new version of Glide!)
-NView Multi-display Technology

Quasar
2002-05-22, 13:12:57
Das meiste klingt für mich nach Hirngespinsten....

Unregistered
2002-05-22, 13:40:51
Es steht außer Frage, das QDR-SRAM niemals für Grafikkarten eingesetzt wird. SRAM benötigt 4-6 Transistoren pro Speicherzelle. Das RAM wäre damit viel zu groß und teuer um in Consumer-Cards eingesetzt zu werden. Die Spec's sind also nichts weiter als ein nettes Hirngespinst ( das "zufällig" nach dem Paperlaunch des Parhelia aufkam ).

nocturne
2002-05-22, 13:49:41
Da saugen sich ein paar Leute in irgendwelchen Foren ein paar "Specs" aus den Fingern, aber "Specs" würde ich hier nicht mit "Spezifikationen", sondern mit "Speculations" betiteln. ;)

Wir werden es sehen, wenn der NV30 da ist.

Leonidas
2002-05-22, 13:50:19
Der Gag ist aber: Selbst wenn sich das jemand rein ausgedacht haben sollte, 30-50 Prozent werden automatisch zutreffen :-).

Leonidas
2002-05-22, 13:51:25
Originally posted by nocturne
Eben. Da saugen sich ein paar Leute in irgendwelchen Foren ein paar "Specs" aus den Fingern, aber "Specs" würde ich hier nicht mit "Spezifikationen", sondern mit "Speculations" betiteln. ;)

Wir werden es sehen, wenn der NV30 da ist.



Irgendwas musste ich auch für die NV-Fraktion wieder tun! Nicht immer nur Matrox und 3Dlabs, ich will und werde immer an alle denken. ATi fehlt noch ...

nocturne
2002-05-22, 13:51:50
Originally posted by Leonidas
Der Gag ist aber: Selbst wenn sich das jemand rein ausgedacht haben sollte, 30-50 Prozent werden automatisch zutreffen :-).
Bestimmt. Nur welche? ;)

nocturne
2002-05-22, 14:07:27
Originally posted by Leonidas

Irgendwas musste ich auch für die NV-Fraktion wieder tun! Nicht immer nur Matrox und 3Dlabs, ich will und werde immer an alle denken. ATi fehlt noch ...

Mein Kommentar sollte auch keine Kritik an Dir sein. ;)
Ist ja auch ein netter Service, dass Du diese Spekulationen mal zusammenfasst und kommentierst. Und Du weist ja ausdrücklich darauf hin, dass es sich um reine Spekultion handelt.

Aber es würde mich nicht wundern, wenn wieder jemand die Tabelle aufschnappt, der gar kein deutsch kann. Und morgen lesen wir dann auf einer englischsprachigen Seite:

"The german site 3dcenter.de has got new informations about nVidia's Next-generation chip. It's in german though, but you can read the table of specifications on their site."

Und so verbreitet sich das dann im Netz. Und so werden aus dem Wunschdenken eiones Forumsmitglied plötzlich "Spezifikationen", die auf allen Hardwaresites stehen.

Ist immer wieder lustig, den Entwicklungsgang von Gerüchten im Netz zu verfolgen.

Dieses Experiment hat doch auch schon mal jemand hier im Forum gemacht. Er schrieb ausdrücklich: "Jetzt lasse ich mir hier mal ein paar Specs für den nächsten nVidia-Chip einfallen und schaue, was passiert."

Und tatsächlich: ein paar Tage später haben zahlreiche 3D-Sites diesen Fake als "new nex-gen nVidia specs" gebracht. Experiment gelungen. ;)

nocturne
2002-05-22, 14:08:45
;D

Allein schon dieses "NvBlur = a new Glide version" ist doch reine Satire.

:rofl:

Demirug
2002-05-22, 14:54:33
Originally posted by nocturne
;D

Allein schon dieses "NvBlur = a new Glide version" ist doch reine Satire.

:rofl:

Sicher ist das so blödsinn. Aber der NV30 braucht definitive neben OpenGL und DX eine dritte API. Wahrscheinlich will man in ja wieder in millitär Gerät verbauen und dort macht werder OpenGL noch DX wirklich sinn.

Aus dem was man so von den NVidia Leuten hört hab ich mir auch ein bischen was zusammen gereimt.

Da man ja von NVidias Seite offiziel nichts von 256 bit als Speicherinterface hält spricht das eigentlich für den Einsatz von eDRAM. Würde man dort einen komprimierte Z-Buffer ablegen könnte man schon etwas an Bandbreite sparen. Unter diesem Aspect würde auch die Aussage "Dual Z-buffers for greater compression without losses visibility subsystem" einen gewissen Sinn erhalten.

Bei der Pixelpipeline müssen wir uns wohl auch auf eine überraschung Gefasst machen (more Pixel Qualitiy) Da PS2.0 anscheined auf 16 Texturen ausgelegt ist ein neues Verfahren dringend anzuraten. Wenn ich mal hochspekulativ bin würde ich auf ein programierbares FPGA Feld tippen. Aber das ist wohl doch noch zu weit hergeholt.

nocturne
2002-05-22, 15:36:27
Originally posted by Demirug
Aber der NV30 braucht definitive neben OpenGL und DX eine dritte API. Wahrscheinlich will man in ja wieder in millitär Gerät verbauen und dort macht werder OpenGL noch DX wirklich sinn.


Du meinst z.B. professionelle Flugsimulatoren, so wie sie früher von 3Dfx/Quantum3D unterstützt wurden? Warum sollte für so was OpenGL oder DX nicht sinnvoll sein?

Originally posted by Demirug
Aus dem was man so von den NVidia Leuten hört hab ich mir auch ein bischen was zusammen gereimt.

Da man ja von NVidias Seite offiziel nichts von 256 bit als Speicherinterface hält spricht das eigentlich für den Einsatz von eDRAM. Würde man dort einen komprimierte Z-Buffer ablegen könnte man schon etwas an Bandbreite sparen. Unter diesem Aspect würde auch die Aussage "Dual Z-buffers for greater compression without losses visibility subsystem" einen gewissen Sinn erhalten.


Das mit dem eDRAM hab ich auch schon mal gedacht, das wäre natürlich ein Hammer. Andererseits frage ich mich, ob das mit 0.13 µ schon praktikabel und bezahlbar ist.
David Kirk hat ja andererseits früher mal 256 bit als "Overkill" bezeichnet. Wäre eDRAM preislich günstiger?

Quasar
2002-05-22, 15:45:09
Nein, sicher nicht. Aber das eDRAM kann sich nVidia selbst bezahlen lassen, während eine 256Bit-Anbindung nur für die Boardhersteller aufwändiger wäre. Daran verdient nV also eher weniger :)

Demirug
2002-05-22, 15:56:35
Du meinst z.B. professionelle Flugsimulatoren, so wie sie früher von 3Dfx/Quantum3D unterstützt wurden? Warum sollte für so was OpenGL oder DX nicht sinnvoll sein?


Nicht ganz dafür braucht man nur syncron laufende Chips. Ich meine z.B. die Displays in den Kampfjets und Panzer.


Das mit dem eDRAM hab ich auch schon mal gedacht, das wäre natürlich ein Hammer. Andererseits frage ich mich, ob das mit 0.13 µ schon praktikabel und bezahlbar ist.
David Kirk hat ja andererseits früher mal 256 bit als "Overkill" bezeichnet. Wäre eDRAM preislich günstiger?

Machbar ist das mit eDRAM schon. Die Frage ist nur ob man genügen Transitoren übrig hat um eine ausreichende Menge von eDRAM zur Verfügung zu haben.

Was den Preis angeht. Nicht das 256bit Interface auf dem Die macht die Sache teurer sonder der Aufwand das ganze nach aussen zu legen. Man braucht mehr Pins was dann auch zu einem größeren Chip führt. Die Pins müssen kontaktiert werden. Die Pins müssen über Leiterbahnen mit den Speicherchips verbunden werden. Dafür sind wahrscheinlich zusätzliche Layer erforderlich. Das alles geht ins geld.

Eine weitere möglichkeit wäre den zusätzlichen RAM zwar auf einem zweiten DIE zu halten diesen aber in den gleichen Chip zu bauen. Intel hat das mal beim Pentium Pro gemacht.

Was ebenfalls denkbar wäre. Eine 2 Chiplösung der erste Chip stellt den Memorycontroller und den Cache dar der zweite ist der eigentliche Grafikchip. Beide werden über Hypertransport verbunden.

Der Memorycontroller könnte zusätzlich vielleicht auch noch den Tesslator (DM, N-PATCH) und die Vertexshader enthalten.

Leonidas
2002-05-22, 16:17:26
Originally posted by nocturne
;D

Allein schon dieses "NvBlur = a new Glide version" ist doch reine Satire.

:rofl:



Ja und Nein. NvBlur ist nicht unwahrscheinlich - und die Sache mit Glide ist einfach nur ein Mißverständnis.

Xmas
2002-05-22, 17:30:20
Schon GeForce3 kann T-Buffer-Effekte. Ich halte die x3dfx-Specs nicht gerade für glaubwürdig...

jedi
2002-05-22, 18:38:20
Originally posted by Xmas
Schon GeForce3 kann T-Buffer-Effekte.

Vielleicht kann der "neue" sie schneller - und damit besser nutzbar? Irgendwas müssen die hundert 3dfx-Ingenieure ja beigetragen haben. ;)

aths
2002-05-22, 18:59:45
Die Quelle für die "Specs" auf Seite 2 sind 100% Hoax. Das ist an diversen Anspielungen auf das nV-Marketing zu merken.

Leonidas
2002-05-22, 19:11:11
Dös ist Deine Meinung. Und ich warne aus Erfahhrung davor, weil man zwei Haare in der Suppe gefunden hat, sofort alles als Hoax zu bezeichnen. Die allermeistens Specs enthalten Fehler - selbst diese, die sich im Nachhinein aus grob gesehen zutreffend erwiesen haben.




Außerdem sollte man immer einrechnen, daß NV derzeitige Specs immer nur vor Nichtfachleuten erzählt (Analysten, Boardhersteller, Investoren). Daß diese in ihren Notizen und Auslegungen grobe Fehler machen oder direkt auf ein irrtümliches Marketing hereinfallen, ist dabei nur logisch.

aths
2002-05-22, 19:43:25
Eben deshalb, Leo. Meiner Auffassung nach wusste der Hoax-Verfasser, wovon er schreibt und baute diesen Unsinn mit Absicht rein.



"Dual Pixel Shaders" - Anspielung auf "Dual" VertexShader.

"Dual Z-buffers for greater compression without losses visibility subsystem" - dito. Eine Tile-Matrix mit bestimten Z-Werten braucht man schon für Fast-Z-Clear, ist demzufolge schon in GF4 enthalten. Von dualen Z-Buffern kann aber nicht die Rede sein.

"Quad Cache memory caching subsystem" - hat bereits GeForce4.

"Advanced Hardware Anisotropic Filtering - A new 12nvx mode that delivers improved subpixel coverage, texture placement and quality." - AF 12x? Klingt unsinnig. Entweder 8x, oder 16x. 12 ist nicht unmöglich, aber unwahrscheinlich: Ausgehend von 8x gäbe es kaum optische Vorteile, da müsste schon 16x ran. "improved subpixel coverage" - Anspielung auf 4xS-Erklärung im AccuView-PDF.

"12nvx mode should deliver 80% better subpixel coverage and placement than previous modes" - hier ist nicht Anti-Aliasing gemeint, sondern der angebliche AF-Modus. ("Anisotropic Filtering - A new 12nvx mode"). Wieder die Anspielung auf 4xS-Erklärung im AccuView-PDF. (Im Original: "4XS mode delivers 50 percent more subpixel coverage than previous modes.")

12x AA macht auch keinen Sinn. Wenn du 4xS noch vertikal verdoppelst, ergäbe das nach nVidias "6x"-Zählung nicht 12x, sondern 10x. Außerdem passt "80% better subpixel coverage" nicht rein.

"Programmers can also add shapes to be temporarily stored in precache to speed things up" - gibt es schon, und heisst Vertex Buffer. Man könnte argumentieren, dass mal wieder ein Uralt-Feature als neu verkauft werde. Ich denke aber es ist wahrscheinlicher, dass der Verfasser die Aufmerksamkeit des Lesers testen wollte.

"Backward glide game capable thanks to NvBlur (Yes a new version of Glide!)" - Es wird erst Glide genannt, dann "NvBlur". Ich glaube nicht, dass Glide "nachträglich" reingemischt wurde. NvBlur ist entweder eine Anspielung auf vorgeblich blurry Glide-Games (da Texturauflösung auf 256² begrenzt) oder ein Seitenhieb auf das ansonsten nicht erwähnte Quincunx. nVidia würde ein MotionBlur-Feature (was schon GF3 kann) nie im Leben NvBlur nennen. Denn erstens beginnen nV-Marketing-Namen höchsten mit N, nicht mit Nv. Zweitens würden sie einen suptertollen Begriff finden ("Real Motion Rendering", weiss ich) als einfach "Blur".

"Built in re-programmable DVD and TV decoder chip" - steht nicht im Artikel, aber in der Quelle. Warum sollte so ein Chip reprogrammierbar sein?

mapel110
2002-05-22, 19:55:34
naja, aber tiefen technischen background hat er aber nicht gehabt. er kannte lediglich die begriffe und deren grobe bedeutung.

wenn man sich QDR anschaut !
so wie das hier jemand erzählt hat, wie QDR funzen soll, kann man das wohl auf grakas vergessen.

Leonidas
2002-05-22, 20:22:01
aths: Deine Auslegung ist mir zu absolutistisch. Man sollte bei solchen Specs immer Sachen einkalkulieren, die man noch gar nicht nicht kennt.

Doomtrain
2002-05-22, 21:03:27
Originally posted by Leonidas
Der Gag ist aber: Selbst wenn sich das jemand rein ausgedacht haben sollte, 30-50 Prozent werden automatisch zutreffen :-).

50% sind nichtssagend und wirken auf mich wie ausgedacht, auch wenn man gut rät, gebe ich meistens wenig auf solche Wunschträume ;)


Fakten, Fakten, Fakten, und an die User denken!

aths
2002-05-22, 23:12:26
Leo,

es könnte natürlich sein, dass die Specs von Seite 2 tatsächlich auf "echten" Gerüchten basieren, die lediglich mehrfach falsch interpretiert worden sind. Dann wurden sie aber soweit verfälscht, dass ein Abdruck auch nicht mehr lohnt. Da ist mehr als genügend Ausschuss drin, dass *jeder* Controller gleich die gesamte Charge abweist.

Unregistered
2002-05-23, 03:59:40
Hier habt ihr noch etwas zum Lesen :D :

http://www.pcgames.de/index.cfm?menu=070101&submenu=show_topic&board_id=104&thread_id=811988&father_id=0&message_id=811988&count_reply=0&group_id=21

zeckensack
2002-05-23, 04:09:52
Originally posted by Unregistered
Hier habt ihr noch etwas zum Lesen :D :

http://www.pcgames.de/index.cfm?menu=070101&submenu=show_topic&board_id=104&thread_id=811988&father_id=0&message_id=811988&count_reply=0&group_id=21 Aufgrund des juvenil anmaßenden Schreibstils wegzensiert

Xmas
2002-05-23, 04:39:08
Originally posted by Unregistered
Hier habt ihr noch etwas zum Lesen :D :

http://www.pcgames.de/index.cfm?menu=070101&submenu=show_topic&board_id=104&thread_id=811988&father_id=0&message_id=811988&count_reply=0&group_id=21
:lol::rofl::lol:

zeckensack
2002-05-23, 04:49:56
Originally posted by Xmas

:lol::rofl::lol: Ja, genau das hab' ich mir auch gedacht :bonk:

Dr.Doom
2002-05-23, 04:59:22
Originally posted by zeckensack
juvenil

Oje, was heisst das denn ??? ?

Der unreg da oben bin ich. Komisch, dass das 3DCenter-Forum eine Aversion gegen Kekse hat :( .

Thowe
2002-05-23, 22:20:08
Die Aversion taucht auf wenn längere Zeit ein Fenster geöffnet ist und man nichts im Forum macht. Scheint irgendein TimeOut zu sein.


Ansonsten, lol @ PCG - Forum


Juvenil = Jugendlich (meistens in Sinne von unreif)

nocturne
2002-05-24, 14:12:12
Originally posted by Leonidas
Der Gag ist aber: Selbst wenn sich das jemand rein ausgedacht haben sollte, 30-50 Prozent werden automatisch zutreffen :-).

Wenn Du oder ich uns irgenwelche Specs zum NV30 selber "ausdenken" würden, würden wir sicher auch eine Trefferquote von mehr als 30-50% bekommen. Nur: was bringt das? ;)

Pussycat
2002-05-24, 17:14:53
Originally posted by nocturne


Wenn Du oder ich uns irgenwelche Specs zum NV30 selber "ausdenken" würden, würden wir sicher auch eine Trefferquote von mehr als 30-50% bekommen. Nur: was bringt das? ;)

Dass mann sich kaputtlachen kann, das jeder Mist geglaubt wird?

jedi
2002-05-25, 21:23:39
Originally posted by Pussycat


Dass mann sich kaputtlachen kann, das jeder Mist geglaubt wird?

Nicht nur "geglaubt", sondern auch noch "verbreitet". :lol: