PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce5 Specs


Leonidas
2002-04-06, 22:24:53
Nvidia OMEN
Send your power hungry games a warning NO a OMEN!
With enuff raw graphic power to scare the Devil him self and enuff graphical beauty to make Da Vinci jealous!
Nvidia`s Omen will obliterate the power hungry nature of your games and your senses as well!
===================================
You wanted NV30 RUMORED spec`s?
Here they are!!!!
Please rember these are RUMORED spec`s NOT final or 100% factual....
Just RUMORED spec`s!

Omen Card
AGP 4x and 8x
Copper Core Gpu Processor 0.13 m default clock 450 MHz
73 million transistors
8 pipes
Quad Vertex Shaders
85 bone capable
Lightspeed Memory Architecture II
Quad Cache memory caching subsystem
Dual Z-buffers for greater compression without losses
visibility subsystem
NvAuto pre-charge
Advanced Anisotropic Filtering:
A new 12nvx mode that delivers improved subpixel coverage ,texture placement and quality.
12nvx mode should deliver 80% better subpixel coverage and placement than previous modes

A seprate second processor running at 450Mhz an 0.13m as well
Will handel all T&L now called TT&L (True Time and lighting) .
Plus new NVShaper a prechached and precacheable system.
That has precached shapes cirles,squares,triangles,and other shapes.
Programmers can also add shapes to be temporaly stored in it`s precache to speed things up. This should speed things up and make standard shapes more accurate!

128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit!
370Mhz RAMDAC
Direct X 9.X compatable
Latest Open Gl
backward glide capable
Comes with New NvBlur (Yes a new version of Glide!)
NView Multi-display Technology

There maybe A new form of cooling the gpu`s . Where the Gpu`s have a hole in the middle and through the board.
So, the hottest area of the Gpu`s gets proper cooling.



Und hierher gleich nochmal die upgedatete Version:
UPDATED!

You wanted NV30 RUMORED spec`s ?
Here they are !!!!
Please rember these are RUMORED spec`s NOT final or 100% factual....
Just RUMORED spec`s !

Omen Card

AGP 4x and 8x

Copper Core Gpu Processor 0.13 m default clock 450 MHz

73 million transistors

8 pipes

Quad Vertex Shaders

Dual Pixel Shaders

85 bone capable

Lightspeed Memory Architecture III

Quad Cache memory caching subsystem

Dual Z-buffers for greater compression without losses

visibility subsystem

NvAuto advanced pre-charge

Advanced Hardware Anisotropic Filtering:
A new 12nvx mode that delivers improved subpixel coverage ,texture placement and quality.
12nvx mode should deliver 80% better subpixel coverage and placement than previous modes

Hardware bumpmapping

The NV30 now improves upon it`s textures per pixel in a single clock cycle.
By doubling them!
By applying four not 2 textures per pixel in a single clock cycle,and through a "loop back" it can also apply an additional 4 textures per rendering pass.
That said this greatly improved trick improves performance and image quality by almost completely negating the chips need for multi-pass rendering!

A seprate second copper processor running at 450Mhz an 0.13m as well
Shall handel all T&L now called TT&L (True Time and lighting) .
It will also handel NVAutoShaper a new prechached and precacheable system.
That has precached shapes cirles,squares,triangles,and other shapes.
Programmers can also add shapes to be temporaly stored in it`s precache to speed things up.
This should speed things up and make standard shapes more accurate!

128 MB DDR-SDRAM @ 375 MHz x2 = 750Mhz and 256 bit yes 256 bit!

370Mhz RAMDAC

Direct X 9.X compatable
Latest Open Gl
Backward glide game capable thanks to
NvBlur (Yes a new version of Glide!)

NView Multi-display Technology
Built in reprogramable dvd and tv decoder chip

There maybe A new form of cooling the gpu`s .
Where the Gpu`s have a hole in the middle and through the board.
So, the hottest area of the Gpu`s gets more efficent cooling.

wulfman
2002-04-06, 22:37:00
quelle? link?

spectre ist back! ;)

ansonsten: no comment, ich hab wieder was zum lachen.

mfg
wulfman

[edit]+2 sätze +1 wort

Thowe
2002-04-06, 22:37:25
Stand auch in B3D, sind von Guru3D.

http://www.guru3d.com/forum/read_msg.php?tid=5320&forumid=ubb2

EDIT: Link

Xmas
2002-04-06, 22:37:33
Hört sich ziemlich albern an...

Nero
2002-04-06, 22:39:29
Hört sich echt albern an.

CU
nero

Quasar
2002-04-06, 22:39:58
Originally posted by Leonidas
There maybe A new form of cooling the gpu`s . Where the Gpu`s have a hole in the middle and through the board.
So, the hottest area of the Gpu`s gets proper cooling.

Agreed. Besonders obiges. Eine "Donut-GPU" :rofl:

Thowe
2002-04-06, 22:40:53
Anhängend an XMas sein Posting:

... und ist es auch.

Xmas
2002-04-06, 22:48:18
Hehe, ich hab mir gerade den Link angeschaut... da steht ja noch mehr Unsinn :D
Da merkt man richtig dass derjenige der sich das ausgedacht hat keine Ahnung von der Technik hat...

Stone2001
2002-04-06, 23:06:04
:) wenn man deren Thread durchliest, könnte man fast meinen, das sie wirklich davon überzeugt sind, das die zukünftige GeForce5 (falls sie unter diesem Namen herauskommt) solche Specs haben wird!

Leonidas
2002-04-06, 23:19:25
Originally posted by wulfman
quelle? link?




Ursprünglich nicht vom Guru3D, sondern aus dem Forum von NVmax. Das ist leider momentan down.

HiddenGhost
2002-04-06, 23:47:41
Wie soll das, Dual Z-buffers for greater compression without losses, funktionieren. Würden die sich nicht gegenseitig beim Rendering behindern? ;)

HiddenGhost
2002-04-06, 23:51:46
backward glide capable
Comes with New NvBlur (Yes a new version of Glide!)

Sicher , er erst 3dfx komplett zerstören und dann die Tech wiederbeleben... :lol::lol::lol:
Fanatast ,der das geschrieben hat. Das is ja dämlicher als das was Lisca nach ihren Excessen hier so verzapft hat! (nicht bös nehmen ;) )
Ist das vielleicht wieder so ein Fall,dass in einem anderen Land heute sowas wie der 1 April war ?

[dzp]Viper
2002-04-07, 01:27:44
Originally posted by Leonidas
Nvidia OMEN


Comes with New NvBlur (Yes a new version of Glide!)


DAS finde ich am zum :rofl: *g*
Glide war schliesslich nur eine abgespeckte version von opengl ...
warum sollten die glide wiederbeleben wenn sie doch jetzt opengl VOLLSTÄNDIG unterstüzen ???
:rofl:

Legolas
2002-04-07, 01:43:08
Glide hat mit Open GL direkt nix zu tun. Glide ist eine eigene auf die Voodooarchitektur zugeschnittene API. OGL unterscheidet sich ziemlich stark von Glide.. So ist es mit Extensions erweiterbar etc.

Quasar
2002-04-07, 02:09:44
Da bin ich anderer Meinung, Legolas. Ich meine mich zu erinnern, daß GLide (so wird's eigentlich geschrieben und gibt auch schon einen netten Hinweis auf seine Wurzel) ein auf für's Gaming wichtige Funktionen abgespecktes OpenGL ist. Nicht umsonst gab und gibt es für einige OpenGL-Games die MiniGL-Treiber, die AFAIK nur GLide-Mapper darstellen.

ow
2002-04-07, 02:12:42
Glide ist eine stark gemoddete OGL-Version, aus der vieles gestrichen wurde.
Der 3Dfx OGL Treiber braucht übrigens die glide DLL zum Rendern.

ow
2002-04-07, 02:13:44
Hi Quasar:)

So spät noch auf?

btw: was macht der Permedia?;)

Quasar
2002-04-07, 02:21:47
Spät? Neinnein ow, da verwechselst du was. Ich bin nur Extrem-Frühaufsteher.

Der Permedia is noch nicht da, hab heute den Postmann verpasst, weil ich aufm Postamt war :(

zeckensack
2002-04-07, 03:47:48
Originally posted by ow
Glide ist eine stark gemoddete OGL-Version, aus der vieles gestrichen wurde.
Noch viel schlimmer, es wurden einige Sachen hinzugefügt die OpenGL - übrigens auch D3D - immer noch nicht kann. Glide ist lediglich an die Struktur von OpenGL angelehnt, jedoch etwas völlig eigenständiges.

Nicht umsonst muß man die Erstellung von Glide->OpenGL wrappern immer noch Profis (mir :D) überlassen!

zeckensack
2002-04-07, 03:49:28
BTW, jede angebliche Spec-Übersicht in der was von
8 Pipes
...
2 Pixel Shader
steht, muß von einem Volltrottel verfasst worden sein.

[dzp]Viper
2002-04-07, 04:06:19
nope zeckensack - das mit dem glide wurde mal irgendwo ausfühlich im inet behandelt - glide is ein auf gaming ausgelegtes - gekürztes und "verbessertes" opengl!!!!
Darum war z.b. auch für Quake 2 zuerst ein glide modus da - weil das sich dadurch das opengl schon unterstüzt wurde ganz einfach zu implementieren!

[dzp]Viper
2002-04-07, 04:07:13
ich finde das wäre doch mal eine gute story für einen 3dcenterarticel! alle API´s und wie sie funktionieren/ funktioniert haben!

=)

Xmas
2002-04-07, 05:36:31
Originally posted by zeckensack
BTW, jede angebliche Spec-Übersicht in der was von
[...]
steht, muß von einem Volltrottel verfasst worden sein.
Eben. Nicht wissen was Pixel Shader überhaupt ist, aber dann solche Dinger loslassen. Kurios, dass solch ein Schmarrn dann überhaupt Verbreitung findet...

Tarkin
2002-04-07, 11:19:45
Originally posted by Leonidas
Ursprünglich nicht vom Guru3D, sondern aus dem Forum von NVmax. Das ist leider momentan down.

... tjá dann muß es ja auf jeden Fall stimmen ;-)

aths
2002-04-07, 11:43:38
Diese "Specs" sind Bullshit². Allerspätestens bei den "Dual Pixel Shaders" wird das klar. Zumal "deliver 80% better subpixel coverage" ebenso Stuss ist wie "NvBlur", von "Dual Z-buffers for greater compression without losses" mal ganz zu schweigen.


[dzp]Viper,

Glide ist kein "abgespecktes OpenGL", trotz einiger weniger Ähnlichkeiten. Die Entwickler mögen OpenGL bei der Schaffung von Glide im Hinterkopf gehabt haben, das ist dann aber auch alles.


Quasar,

wo hast du her, dass Glide angeblich GLide geschrieben wurde? Im Glide SDK ist jedenfalls nur von Glide und nicht GLide die Rede.

Legolas
2002-04-07, 12:32:15
OpenGL-Treiber für Voodoos sind eigentlich immer Glidewrapper. Wenn man aber Leuten Glauben schenken kann, die schonmal mit Glide und OGl gearbeitet haben, dann unterscheiden sich die beiden doch ziemlich voneinander. Glide wurde natürlich mit Open GL im Hinterkopf entwickelt, die 3dfx-Gründer waren ja schliesslich ehemalige SGI-Mitarbeiter. Und die Schreibweise von Glide ist Glide, wenns in meinen Voodoo 3 und Voodoo 5 Treibern nicht durchgängig falsch geschrieben ist.

Quasar
2002-04-07, 13:24:31
Originally posted by aths
Quasar,

wo hast du her, dass Glide angeblich GLide geschrieben wurde? Im Glide SDK ist jedenfalls nur von Glide und nicht GLide die Rede.

Irgendwann meine ich das mal auf www.3dfx.com oder einer Fan-Site gelesen zu haben. Einen genauen Link kann ich leider nicht geben. Allerdings hat 3dfx (vorm. 3Dfx) ja schon öfter von Groß- zu Kleinbuchstaben gewechselt ;)

@Legolas:
GLide gibt's aber schon etwas länger, als seit der Voodoo3.

aths
2002-04-07, 13:32:11
Quasar,

ich hatte auch die Voodoo1, und dort war (im Treiber, in Spielen bei der Wahl der API) immer nur von Glide (und nicht GLide) die Rede.

Hamster
2002-04-07, 13:35:28
mhhhh mein gehirn erinnert sich da dunkel an was:
hat nich john carmack für 3dfx damals die glide schnittstelle entwickelt? und das innherhalb eines abends? indem er ganz einfach opengl als ausgangsbasis genommen hat, und dies dann entsprechend für die bedürfnisse umgeschrieben hat??

kann auch sein das dies totaler stuss ist, aber ich erinnere mich an sowas :)


(sollte mal googeln)

aths
2002-04-07, 13:58:01
Er hat mal einen einfachen Glide->OpenGL-Wrapper geschrieben.

Ceiser Söze
2002-04-07, 14:59:27
Glide wurde von Brian Hook entwickelt, nicht von John Carmack ;)

Quasar
2002-04-07, 15:19:27
Hm, dann hab' ich das wohl nur falsch in Erinnerung. Irgendwo stands aber mal als GLide...was jedoch nicht der Weisheit letzter Schluß sein muss.

P.S.: Ich freu' mich jedenfalls auf meine Voodoo5.

Xmas
2002-04-07, 16:04:03
John Carmack hat den ersten MiniGL-Treiber für 3dfx an einem Wochenende geschrieben, damit man Quake auch endlich mit Hardwareunterstützung spielen konnte.

Pussycat
2002-04-07, 16:54:09
Originally posted by Leonidas
8 pipes
Quad Vertex Shaders
73 million transistors


Wieviel mehr Transistoren als bei der GF4 sind das? 10 millionen!!!

Und da passen 4 extra pixel- und 2 extra vertex shaders drin?? *lol*

R300 macht alle platt.

Hamster
2002-04-07, 17:17:57
Originally posted by Xmas
John Carmack hat den ersten MiniGL-Treiber für 3dfx an einem Wochenende geschrieben, damit man Quake auch endlich mit Hardwareunterstützung spielen konnte.

mhhh ja ok, so wars :)

da hab ich ja ganz schön was durcheinander gebracht :)

StefanV
2002-04-07, 17:52:48
Originally posted by Pussycat
R300 macht alle platt.

Wenn da nicht eine kleine Firma von 'nebenan' wäre *eg*

HiddenGhost
2002-04-07, 19:21:10
Originally posted by Pussycat


Wieviel mehr Transistoren als bei der GF4 sind das? 10 millionen!!!

Und da passen 4 extra pixel- und 2 extra vertex shaders drin?? *lol*

R300 macht alle platt.

Das glaub ich auch, zumal ArtX schon seit geraumer Zeit an dem Entwickelt hat!! Welch gute Arbeit die leisten zeigen ja die GC Games, die nach übereinstimmender Meinung einiger User hier im Forum flüssiger und weniger Zäh als die Xbox laufen werden!!! (vieleicht haben die auf der cebit angetestet ??????)
IMO ist diese ganze GF5 gelaber alles nur ein verspäteter Aprilscherz,den irgend ein halbDAU abgelassen hat um sich zu profilieren!

HiddenGhost
2002-04-07, 19:24:39
Gab es da nicht auch immer wieder Gerüchte, dass NV mit der NV30 Probleme bei der Entwicklung gehabt habe, die diese sehr weit zurückgeworfen haben, weil ja angeblich die überrestte der 3dfx Tech in diese integriert werden sollte, sprich MotionBlur und andere Tbuffer Specs?
Welche Stories darüber oder zu anderen NV30 Themen wandern eigentlich noch so im NEtz rum, in der Erwartung wieder ausgegraben zu werden???

Pussycat
2002-04-07, 21:12:27
NV hat in einem interview gesagt, "NV30 will be our spring 2002 product".

Probleme also auf geden Fall, wie es aber immer ist. Was mich allerdings Angst macht ist das NV gesagt hat, sie würden den ersten DX9 chip machen (mehrmals sogar, und sehr deutlich).

immi
2002-04-07, 22:27:43
ist euch eigentlich gar nicht aufgefallen:

'latest version of opengl'

wuerde sowas in einer relevanten tech-zusammenfassung stehen?

btw: so unrealistisch find ich das mit den 10mio transistoren fuer pixel und vertexshader nicht. es hiess doch mal, das man die einheiten 'wiederverwenden' koennte, aehnlich des smt der neuen pentiums. sicherlich eine schoenrechnung, aber realistisch moeglich.
und:
tt&L fuer True-Time & Lighting ??? auf nem extra chip? Wer soll denn das bezahlen???? Wo soll denn da noch die Leistung her kommen, wenn die Leitungen noch laenger werden? Allerdings waere das natuerlich der Grund fuer das 256bittige Interface ;-)

[ncp]EasyChiller
2002-04-08, 01:11:14
Auf Profi-OGL-Karten ist das mit den Extra-Chip für Beleuchtungsberechnung doch fast normal - oder? ;)

... ob Fake oder nicht Fake...

mich interresiert viel mehr, ob endlich mal der STG6000 und die Nachfolger überhaupt / wann produziert werden!

...weil...

Wenn das hier nen Fake ist... wass solls und

... wenn nicht ...

Würde der Chip / die Karten damit eeh verdammt teuer werden! NVDA sucks bezüglich ihrer Preisgestaltung!

nocturne
2002-04-08, 02:39:22
Originally posted by [ncp]EasyChiller
NVDA sucks bezüglich ihrer Preisgestaltung!

Das einzige was suckt ist Dein falsches Vorurteil. ;)

Andere betrachten den Markt lieber mit offenen Augen und kaufen sich jetzt eine GF3-Ti200 für 150-170 € oder demnächst eine GF4-Ti4200 für 200 €.

Schlecht informiert sein sucks. ;)

[ncp]EasyChiller
2002-04-08, 03:31:19
die 4200 ist noch nicht released!

Und somit hat NVDA in meinen Augen NIX, was irgendwie nen vernünftiges Preis-Leistungs-Verhältniss bieten würde!

Die 4200 wäre für mich sogar eine Alternative - auch wenn ich noch bezweifle, das sie gleich für 200€ aufn Markt kommen wird ... für 200$ vielleicht in den Staaten ....

@nocturne: bitte greif mich hier nicht an - das war eben meine Meinung! - für mich sind über 250€ für ne Graka eben nicht vertretbar
...Irgendwie ist momentan einfach zu wenig Konkurrenz da :(

Unregistered
2002-04-08, 05:48:11
Originally posted by ow
Glide ist eine stark gemoddete OGL-Version, aus der vieles gestrichen wurde.
Der 3Dfx OGL Treiber braucht übrigens die glide DLL zum Rendern.

Nein die V5 bruacht nicht die Glide dll zum Rendern.

Gruss Labberlippe

Labberlippe
2002-04-08, 06:16:03
Was die Spezifikationen Betrifft.

Einige Angaben sind machbar, ein grossteil für den Anus.

Was Glide betrifft.
War nicht einmal die Rede, das in der Registry von nVIDIA ein Glide Eintrag gesichtet wurde. ???

Da hatten wir ja schon einmal darüber diskutiert.

Wenn nVIDIA eine Glide ähnliche API bringen würde, dann sicher nicht für die ehemaligen 3dfx Jünger.
Würde auch keinen Sinn ergeben das nVIDIA plötzlich auf die "alte" Technologie gehen würde nur um ein Ultima 9 oder UT zu unterstützen.

Wenn dann würden Sie eine eigene API für kommende Games bringen um die Marktposition zu kräftigen.

Was bei nVIDIA das heissen würde brauche ich vermutlich eh nicht erwähen.

Wobei ich das aber dennoch eher bezweifeln würde, so unrealistisch ist das ganze aber nicht.

Gruss Labberlippe

[fu]121Ah
2002-04-08, 08:05:18
Originally posted by Quasar


Agreed. Besonders obiges. Eine "Donut-GPU" :rofl:

technisch praktisch nicht machbar, ich frag mich wie die im wafer löcher machen wollen?!!?!? man kann im frontend nicht einfach den chip nehmen und da n loch reinstampfen... und da würde man auch mehr silizium brauchen, was recht teuer würde...

GLide stimmt so... das hab ich schon hunderte male gehört.

laberlippe, die voodoos benützen wirklich eine art opengl wrapper... daher haben einige zeitgenossen auch etwas an dem ICD auszusetzen... es ist nämlich nie ein wirklich richtiges ICD entwickelt worden (gell ow? *s*).

zu den spez, absoluter scheiss...

ow
2002-04-08, 09:07:41
Originally posted by Unregistered


Nein die V5 bruacht nicht die Glide dll zum Rendern.

Gruss Labberlippe

???

Das entferne mal die glide3x.dll aus windows/system und schau, ob danach OGL noch geht.

ow
2002-04-08, 09:10:44
Originally posted by [fu]121Ah




laberlippe, die voodoos benützen wirklich eine art opengl wrapper... daher haben einige zeitgenossen auch etwas an dem ICD auszusetzen... es ist nämlich nie ein wirklich richtiges ICD entwickelt worden (gell ow? *s*).



Richtig.
Deshalb hat der 3dfx "ICD" auch die Eigenschaft, "stand-alone" also ohne die opengl32.dll von Windows zu laufen. Es ist also quasi als MiniGL Treiber einsetzbar.
Unter Q3 muss man dazu nur in der q3config.cfg den Eintrag "opengl32.dll" durch "3dfxogl.dll" ersetzen.

Unregistered
2002-04-08, 10:16:12
Originally posted by ow


???

Das entferne mal die glide3x.dll aus windows/system und schau, ob danach OGL noch geht.

Ich weiss nicht wer mich damals gefragt hat, ich habe es aber gemacht und OpenGL hat gefunzt.


Gruss Labberlippe

Unregistered
2002-04-08, 10:17:41
Originally posted by ow


Richtig.
Deshalb hat der 3dfx "ICD" auch die Eigenschaft, "stand-alone" also ohne die opengl32.dll von Windows zu laufen. Es ist also quasi als MiniGL Treiber einsetzbar.
Unter Q3 muss man dazu nur in der q3config.cfg den Eintrag "opengl32.dll" durch "3dfxogl.dll" ersetzen.

Ich bin heute nochmal bei meinen Schwager und werde die Glide Dateien löschen und OpenGL starten.

Gruss Labberlippe

ow
2002-04-08, 12:14:20
Originally posted by Unregistered


Ich bin heute nochmal bei meinen Schwager und werde die Glide Dateien löschen und OpenGL starten.

Gruss Labberlippe


Lieber umbenennen anstatt loeschen;)

HOT
2002-04-08, 13:56:47
Die Specs sind genauso glaubhaft wie die R300 Specs. Desweiteren halte ich diesen ganzen Glide Käse für ausgemachten Blödsinn, weil es sogar für NV keinen Sinn machen würde eine eigene Schnittstelle zu spezifizieren, dazu ist auch deren Marktmacht lange nicht gross genug.

HiddenGhost
2002-04-08, 14:58:11
Originally posted by HOT
Die Specs sind genauso glaubhaft wie die R300 Specs. Desweiteren halte ich diesen ganzen Glide Käse für ausgemachten Blödsinn, weil es sogar für NV keinen Sinn machen würde eine eigene Schnittstelle zu spezifizieren, dazu ist auch deren Marktmacht lange nicht gross genug.

Ich halte das für einen schlecht gemachte, mit Fehlern überzogenen Aprilscherz, mehr nicht!
Eine Frage ,an welchem Tag ist das in besagtem Forum eigentlich erstmals gepostet worden ?

nocturne
2002-04-08, 15:04:04
Originally posted by HiddenGhost


Ich halte das für einen schlecht gemachte, mit Fehlern überzogenen Aprilscherz, mehr nicht!
Eine Frage ,an welchem Tag ist das in besagtem Forum eigentlich erstmals gepostet worden ?

War für diesen Fake wirklich eine Erwähnung im 3dcenter-Newsteil nötig? Ist gerade news-technisch Sauregurkenzeit? ;)

Wenn man bei jeder dahergelaufenen Spekulation in einem Forum eine neue Newsmeldung machen würde, hätte man viel zu tun...

Leonidas
2002-04-08, 15:29:23
Originally posted by nocturne


War für diesen Fake wirklich eine Erwähnung im 3dcenter-Newsteil nötig? Ist gerade news-technisch Sauregurkenzeit? ;)

Wenn man bei jeder dahergelaufenen Spekulation in einem Forum eine neue Newsmeldung machen würde, hätte man viel zu tun...



Sonntag ist prinzipiell immer ein mieser Tag. Sieh Dir mal an, wie viele Seiten Sonntag de facto ihren Betrieb auf Eis legen ...

Das ich was dazu geschrieben habe, hängt aber auch damit zusammen, daß neu aufgetauchte Specs im gewöhnlichen einen eigenen kleinen Artikel bekommen. Wenn diese Specs es nicht bekommen, dann muß ich schon dazu sagen, warum ich das bei diesen Specs nicht mache ... Außerdem wollte ich ein absolut klares Statement setzen, bevor diverse Webseiten anfangen, daß für bare Münze zu nehmen.





Update: Der heutige Tag zeigt wieder, das der Montag eigentlich der miesseste News-Tag ist, es sei denn es steht ein besonderes Release an. Denn am Montag ist alles aufgebraucht, was man am Wochenende verbraten hat - und da über das Wochenende selber nix eues passiert ist, kann man nur hoffen, das am Montag selber etwas passiert, ansonsten sieht es ziemlich lau aus mit den montäglichen News,. Wie heute zu sehen ...

nocturne
2002-04-08, 22:39:55
Wenn ich mir Eure Wochentagsstatistiken ansehe, dann ist der Montag ja gar kein so schlechter Tag, was die Besucherstatistiken angeht. Ist natürlich dann schade, wenn das nicht mit den News korreliert, aber da kann man ja nichts machen.

robbitop
2002-04-08, 23:00:10
Also was ich zum NV30 hörte und mir denke:

-neue Architektur
-evl keine GeForce mehr
-evl mit Gigapixelarchitektur (sowas wie Tilebasedrendering) also ein deffered renderer
-Renderpipelines dürften eh keine grosse Rolle spielen
-256bit DDR nur wenn kein Gigatexel da teuer und dann nichmehr benötigt
-2Vertex/Pixelshader
-0,13Mircometer Bauform
-vieleicht sogar skallierbar aber das traut sich nach 3dfx und dem Rage 128maxx flopps besimmt keiner mehr
-Spectre Tec theoretisch möglich sogar vieleicht mit shadern aber praktisch zu teuer
-verbesserter T Buffer
-DX9 Architektur

Ich denke WENN man Gigatexel (gekaufte Firma von 3DFX die deffered Renderer Tecs entwickelte (GP1/2)) wird die Karte fix..ansonsten eher auf gleicher Höhe mit den anderen.

Ansonsten könnte ich mir vorstellen, dass MGA mit dem Parhelia, der schon früher kommt als der nv30 ein deutlich schnellerer und, feature reicherer Chip rauskommt...ein komplett neues Design (man vermutet eDRAM da enge Koorperation mit BitBoys OY und angabe, dassman kein 128/256bit interface einsetzt).

Tja zum R300 weiss ich nur, dass er laut veralteter ATI Roadmap (siehe 3dc) 4Vertex (oder waren es Pixel-)shader haben soll


Fazit: Wenn Nv ein deffered Renderer wird kann man sich WARM anziehn..wenn nich..dann wird wohl MAtrox das rennen machen..spekulier ich ma!

Alle angaben ohne Gewehr *PENG*

StefanV
2002-04-09, 00:07:46
@robbitop


Wenn eine GraKa 8 Pipes hat, dann hat sie auch 8 Pixelshader...

robbitop
2002-04-09, 00:10:59
ich ging jetzt von dne koventionelelen pipes der(rendering Pipes) aus. Sind bei der GF3 ja 4*2 und bei der R200 4*2 und bei der R100 2*3 usw....und nich die shader...dann habe ich was falsch gelesen

Leonidas
2002-04-09, 16:53:56
Originally posted by nocturne
Wenn ich mir Eure Wochentagsstatistiken ansehe, dann ist der Montag ja gar kein so schlechter Tag, was die Besucherstatistiken angeht.



... was damit zusammenhängt, das die Leute aus dem WE zurück sind.

HOT
2002-04-09, 17:35:30
Die Firma hiess Gigapixel, nicht Gigatexel :D
Aber ich glaube nicht, dass dessen Technik schon im NV30 Verwendung findet, sondern erst im NV40.
einen 256Bit DDR-Speicherbus halte ich jedoch für wahrscheinlich, auch wenn das absolut ineffizient ist. Aber es gibt einfach sonst keine Möglichkeit 6 oder 8 Renderpipes zu befriedigen.
Was ATi macht, bleibt weiterhin offen; der R300 soll ja 8 Renderpipes und 4 Vertexshader haben. Mal sehen, was sonst noch für Techniken Verwendung finden; HyperZ II ist ja schon recht nahe an deferred Rendering dran. Allerdings glaube ich nicht, dass schon der R300 ein solcher ist. Vielleicht der R400.

GloomY
2002-04-10, 00:13:17
Originally posted by HOT
HyperZ II ist ja schon recht nahe an deferred Rendering dran. Naja...
HyperZ II kann vielleicht einen ganz guten Teil Speicherbandbreite sparen, aber so effizient wie ein Deferred Renderer ist es noch lange nicht.
Alle Transparenzeffekte müssen in mehreren Passes gerendert werden und FSAA braucht Unmengen an Speicherbandbreite...

Immerhin ein kleiner Schritt weg vom reinen Brute-Force...

Die Specs sind imho Fakes, weiter nichts.

Labberlippe
2002-04-10, 08:36:35
Originally posted by robbitop
Also was ich zum NV30 hörte und mir denke:

-neue Architektur
-evl keine GeForce mehr
-evl mit Gigapixelarchitektur (sowas wie Tilebasedrendering) also ein deffered renderer
-Renderpipelines dürften eh keine grosse Rolle spielen
-256bit DDR nur wenn kein Gigatexel da teuer und dann nichmehr benötigt
-2Vertex/Pixelshader
-0,13Mircometer Bauform
-vieleicht sogar skallierbar aber das traut sich nach 3dfx und dem Rage 128maxx flopps besimmt keiner mehr
-Spectre Tec theoretisch möglich sogar vieleicht mit shadern aber praktisch zu teuer
-verbesserter T Buffer
-DX9 Architektur

Ich denke WENN man Gigatexel (gekaufte Firma von 3DFX die deffered Renderer Tecs entwickelte (GP1/2)) wird die Karte fix..ansonsten eher auf gleicher Höhe mit den anderen.

Ansonsten könnte ich mir vorstellen, dass MGA mit dem Parhelia, der schon früher kommt als der nv30 ein deutlich schnellerer und, feature reicherer Chip rauskommt...ein komplett neues Design (man vermutet eDRAM da enge Koorperation mit BitBoys OY und angabe, dassman kein 128/256bit interface einsetzt).

Tja zum R300 weiss ich nur, dass er laut veralteter ATI Roadmap (siehe 3dc) 4Vertex (oder waren es Pixel-)shader haben soll


Fazit: Wenn Nv ein deffered Renderer wird kann man sich WARM anziehn..wenn nich..dann wird wohl MAtrox das rennen machen..spekulier ich ma!

Alle angaben ohne Gewehr *PENG*


und solche Aussagen von den nVIDIA Useren welche Gigapixel als schwachsinn abgetan haben.
Jaja so ändert sich die Meinung.

Wobei ich persönlich nicht glaube das die volle Gigapixel Technick genommen wird.

Ich denke mal das nVIDIA eher warten wird bis die Mitbewerber die Produkte offiziel angefündigt haben.

Gruss Labberlippe

robbitop(nologg)
2002-04-10, 10:05:43
totaler Quark!
Gigapixel ist eine genauso effiziente Methode wie Tilebased rendering..also ein deffered Renderer...das spart speicherbandbreite..warum soll das Unsinn sein...das ist genauso wie bei den Kyro2 Karten..die wären sonst in der TNT(1-2) Klasse anzusiedeln (vom Design müsste es hinkommen)

Doch gebe ich euch recht, da man nich so einfach ne fremde Technik, die ein ganz anderes Design bedeutet in einen bereits halbfertigen Chip implementieren kann. WENN es kommt dann erst VIEL später...blöd von denen so bräcuten sie kein 256bittiges Speicherinterface.....
naja Haut rein!

[fu]121Ah
2002-04-10, 14:21:36
der GP1 mit 110MHz war so schnell wie ne Voodoo5 oder geforce 2 GTS!!! übrigens hatte der 3mio 3d-transistoren (verglichen mit ca 30 der gts)...

stellt euch vor wie schnell der nachfolger (der hiess übrigens GP3 und nicht GP2) hätte sein können...

nvidia wird eher auf die technologischen dinge von 3dfx beschränken, ich denke da an photorealistische effekte, evnt 52bit rendering, der m-buffer oder RGSS...

ow
2002-04-10, 14:44:31
Originally posted by HOT

einen 256Bit DDR-Speicherbus halte ich jedoch für wahrscheinlich, auch wenn das absolut ineffizient ist.


Das die Effizienz massgeblich von der Archtiktur des RAM Kontrollers abhaengt hat NV mit dem Memory-Crossbar der LMA eindrucksvoll bewiesen.
Also auch 256Bit DDR lassen sich SEHR effizient nutzen.


btw: die IBM Rasterizer Chips auf den FireGL1 bis FireGL4 Karten haben einen 256Bit DDR Bus.

ow
2002-04-10, 14:46:44
Originally posted by GloomY
Alle Transparenzeffekte müssen in mehreren Passes gerendert werden


Transparenzen werden in einem Pass gerendert. Auf allen Chips.
Du gebrauchst den Begriff des Passes falsch.

GloomY
2002-04-10, 16:05:17
Originally posted by ow
Transparenzen werden in einem Pass gerendert. Auf allen Chips.
Du gebrauchst den Begriff des Passes falsch. Wie soll das gehen?
Wenn ich ein transparentes Dreieck vor einem nicht transparentem habe, dann brauche ich doch bei einem IR immer zwei Passes? Oder etwa nicht?

Ich zitiere mal von

http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=1861

"Wichtig ist dabei zu beachten, dass ein echter Tiler (z.B. ST KYRO) selbst transparenter Overdraw effizienter behandelt, indem all diese Blending-Effekte mit transparenten Dreiecken innerhalb des Chips durchgeführt werden. Im Gegensatz zu einem traditionellen Baustein spart der Chip dadurch Speicher-Bandbreite, indem er für die Blending-Operationen nicht auf den externen Speicher zugreifen muss"

Ein traditioneller Renderer muss also immer den vorherigen Farbwert aus dem Graka-Speicher auslesen, diesen dann mit dem neuen Wert blenden und ihn wieder zurückschreiben. Imho ist das ein Pass (Farbwert lesen, Farbwert blenden und neuen Farbwert schreiben). Korrigiere mich bitte, wenn ich da falsch liegen sollte...

GloomY
2002-04-10, 16:11:48
Anmerkung:

Selbst wenn ich den Begriff des Passes falsch verwenden sollte, mildert es die Tatsache, daß ein tranditioneller Renderer zusätzliche Speicherzugriffe braucht (siehe quote von 3dconcept.ch), in keinem Fall ab.

Und das war schließlich die Kernaussage meiner Bemerkung...

ow
2002-04-11, 12:51:42
Gloomy


Ein Pass bezieht sich darauf wie oft die komplette 3D Engine des Chips durchlaufen wird.

Bei Multipass werden für jeden Pass nochmals die kompletten Triangles verarbeitet.

Also Triangles zu Chip, Rendern, im FB abspeichern, Dreicke noch mal zum Chip, rendern unter Auslesen der im FB gespeicherte Pixel, abspeichern.

Blending hat nicht mit Multipass zu tun. Es werden hier nämlich unterschiedliche Dreiecke (1x Hintergrund, 1x transparentes Dreieck) verarbeitet.

Multipass heisst also mehrere Texturen auf EIN Dreieck (wenn nicht genügend TMUs im Chip).


Du hast den Pass auf das Pixel im FB bezogen.
Hintergrund-Pixel einlesen und mit neuem (transparentem) Pixel blenden.
Das ist aber kein Multipass.


Bzgl. der Speicherzugriffe hast du recht.

Deine (SIS = TBR ohne HSR?)-Argumentation setzt aber einfach voraus, das der onchip tile cache wesentlich schneller als das externe Grafik-RAM ist.
Das ist nicht 'automatisch' gegeben. Da muss man schon die Anbindung des Caches an den Grafik-core mit betrachten.

ow
2002-04-11, 12:53:49
Originally posted by GloomY
W

"Wichtig ist dabei zu beachten, dass ein echter Tiler (z.B. ST KYRO) selbst transparenter Overdraw effizienter behandelt, indem all diese Blending-Effekte mit transparenten Dreiecken innerhalb des Chips durchgeführt werden. Im Gegensatz zu einem traditionellen Baustein spart der Chip dadurch Speicher-Bandbreite, indem er für die Blending-Operationen nicht auf den externen Speicher zugreifen muss"

Ein traditioneller Renderer muss also immer den vorherigen Farbwert aus dem Graka-Speicher auslesen, diesen dann mit dem neuen Wert blenden und ihn wieder zurückschreiben. Imho ist das ein Pass (Farbwert lesen, Farbwert blenden und neuen Farbwert schreiben). Korrigiere mich bitte, wenn ich da falsch liegen sollte...



Nein, das ist abolut richtig, was du da schreibst, s. mein erstes Posting.

Du verlagerst die Zugriffe von Grafik-RAM (ausser den FB Writes) auf den internen Cache.
Ich glaube nicht, dass dies allein viel bringt.

Wenn schon TBR dann doch bitte mit HSR.;)

GloomY
2002-04-11, 14:11:18
Ok, obwohl ich nicht deiner Meinung bin, was den TBR angeht, soll hier jetzt keine neue Diskussion darüber entstehen.
Es ging ja eigentlich nur um den Begriff des Passes.

Und hierzu habe ich mal wieder dazugelernt, wenn nicht noch irgend jemand hier lautstark protestiert ;)

Ich hab' allerdings noch eine kleine Frage bezüglich des einen Satzes. Du schreibst:
"Bei Multipass werden für jeden Pass nochmals die kompletten Triangles verarbeitet."

Heisst das, daß das Dreieck komplett die 3D-Pipeline neu durchlaufen muss, also quasi T&L, Trinangle Setup und dann Rendering Pipeline?

btw: Ein Cache ist eigentlich immer schneller als der zugehörige Speicher, allein schon deshalb, weil beim Cache SRAM und nicht wie sonst DRAM verwendet wird, was die Latenzzeiten deutlich verkürzt (keine Refreshzyklen wie bei DRAM)

StefanV
2002-04-11, 14:42:49
Originally posted by GloomY
btw: Ein Cache ist eigentlich immer schneller als der zugehörige Speicher, allein schon deshalb, weil beim Cache SRAM und nicht wie sonst DRAM verwendet wird, was die Latenzzeiten deutlich verkürzt (keine Refreshzyklen wie bei DRAM)

Und HIER liegt dein Denkfehler!!

Auf GraKas muß der 'Cache' mehrere MB Groß sein, womit SRAM Ausscheidet, da zu teuer.

Also nimmt man eDRAM, also 'normales' DRAM und packt das mit auf den Chip...

Daß ein 128bit eDRAM Interface keinen Sinn macht, leuchtet ein, oder??

HOT
2002-04-11, 15:10:31
ATi besitzt hierfür auch ne interessante Lösung: 1TSRAM!

Xmas
2002-04-11, 16:31:54
Wieso muss der Cache mehrere MB groß sein?

Gloomy,
ja, die Dreiecke durchlaufen beim Multipass Rendering die gesamte Pipeline nochmal, wobei die transformierten Eckpunkte sich noch im Vertex Cache befinden können und man deshalb die T&L-Stufe spart.

ow,
"automatisch" ist der Cache natürlich nicht schneller, aber ein langsamer Cache macht keinen Sinn. Und Gigapixel war offensichtlich der Meinung, dass das Verlagern der Speicherzugriffe sehr viel bringt...

GloomY
2002-04-11, 16:52:12
Für einen Tiler reicht eben auch ein kleiner Cache (wie in dem SIS-Thread vorgerechnet: 131072 Transistoren).

@Hot: Was ist das genau? SRAM mit einem Takt Latenz?

HOT
2002-04-11, 17:15:02
Soweit ich weiss ist das 1 Transistor SRAM, der von ArtX (gehört ATi) entwickelt wurde. Auch VIA hat sich diese SRAM Art gleich gesichert.

ow
2002-04-11, 18:22:27
Originally posted by GloomY
Ok, obwohl ich nicht deiner Meinung bin, was den TBR angeht, soll hier jetzt keine neue Diskussion darüber entstehen.



Bin da ganz deiner Meinung.:)



Es ging ja eigentlich nur um den Begriff des Passes.

Und hierzu habe ich mal wieder dazugelernt, wenn nicht noch irgend jemand hier lautstark protestiert ;)

Ich hab' allerdings noch eine kleine Frage bezüglich des einen Satzes. Du schreibst:
"Bei Multipass werden für jeden Pass nochmals die kompletten Triangles verarbeitet."

Heisst das, daß das Dreieck komplett die 3D-Pipeline neu durchlaufen muss, also quasi T&L, Trinangle Setup und dann Rendering Pipeline?



Transformiert wird AFAIK nur einmal, das Triangle Setup und die Rasterizer Pipe wird aber auf jeden Fall zweimal durchlaufen.



btw: Ein Cache ist eigentlich immer schneller als der zugehörige Speicher, allein schon deshalb, weil beim Cache SRAM und nicht wie sonst DRAM verwendet wird, was die Latenzzeiten deutlich verkürzt (keine Refreshzyklen wie bei DRAM)

Du kannst Cache auch als DRAM aufbauen.
Das dürfte sogar bei allen heutigen Chips der Fall sein, weil ich mal annehme, dass auch der Grafikchip selbst eine dynamische Struktur hat. Da bietet sich dann sowas an.

ow
2002-04-11, 18:25:35
Originally posted by Xmas
Wieso muss der Cache mehrere MB groß sein?

Gloomy,
ja, die Dreiecke durchlaufen beim Multipass Rendering die gesamte Pipeline nochmal, wobei die transformierten Eckpunkte sich noch im Vertex Cache befinden können und man deshalb die T&L-Stufe spart.

ow,
"automatisch" ist der Cache natürlich nicht schneller, aber ein langsamer Cache macht keinen Sinn. Und Gigapixel war offensichtlich der Meinung, dass das Verlagern der Speicherzugriffe sehr viel bringt...



Ok, ich sollte vielleicht erst mal alles lesen, bevor ich poste. Das mit dem Multipass hast du ja schon geklärt.:D


Wie sah denn die GP Architektur aus?
TBR ohne HSR? Alles im Cache rendern und nur fertige Pixel ins Graka-RAM schreiben?

ow
2002-04-11, 18:31:14
Originally posted by HOT
Soweit ich weiss ist das 1 Transistor SRAM, der von ArtX (gehört ATi) entwickelt wurde. Auch VIA hat sich diese SRAM Art gleich gesichert.


Nee, das Ding heisst nur SRAM, ist aber DRAM.

Statische RAM-Zellen mit einem Transistor gibt es nicht.


/edit: hier steht das was drüber

http://www.mosys.com/news/ipj2k1.pdf

Xmas
2002-04-11, 20:42:22
Originally posted by ow
Wie sah denn die GP Architektur aus?
TBR ohne HSR? Alles im Cache rendern und nur fertige Pixel ins Graka-RAM schreiben?
So ganz genau kann ich das auch nicht sagen...
Zitat aus einem "Peddie Report":
"Our architecture has a traditional rendering pipeline after the visibility sub-system.
The biggest difference is all the manipulation of pixels occurs on chip (lower bandwidth). There is
no need for going off chip to write out intermediate results."

Quasar
2002-04-12, 00:35:06
Klingt als wäre der komplette Backbuffer "on Chip"

Mann ist es schon wieder spät und ich schreibe nur Müll. Sorry

Xmas
2002-04-12, 00:39:17
Originally posted by Quasar
Klingt als wäre der komplette Backbuffer "on Chip"

Mann ist es schon wieder spät und ich schreibe nur Müll. Sorry
;D;D
Ne, ist ja ein Tiler...

Kennung Eins
2002-04-15, 18:16:30
...witzig finde ich ja, daß uns (guru3d) NVidia aufgefordert hat, diesen thread zu löschen...

"The thread has been moved, because

quote:
As requested by NVIDIA."

http://www.guru3d.com/forum/read_msg.php?tid=5320&forumid=ubb2

[fu]121Ah
2002-04-15, 18:19:37
der gp1 hatte nur 3mio transistoren... da kann aus meiner sicht kein grosser cache drauf sein...