PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Godmode
2005-02-23, 20:02:10
Im neuesten Treiber sind diese G70 Einträge drinnen! Im anderen Thread bekam ich keine Antwort was das sein könnte.

Inq :cop:FUAD:cop: schreibt nun folgendes: G70@Inq (http://www.theinquirer.net/?article=21409)

Also ich kann mir darunter nichts konkretes vorstellen.

hier nochmal die Einträge aus dem Treiber:
NVIDIA_G70.DEV_0090.1 = "NVIDIA G70"
NVIDIA_G70.DEV_0091.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_0092.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_0093.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_0094.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_009D.1 = "NVIDIA G70GL"
NVIDIA_G70.DEV_009E.1 = "NVIDIA G70GL "
NVIDIA_NV48.DEV_0210.1 = "NVIDIA NV48"

edit: hier gibts auch noch nen Thread dazu
http://www.beyond3d.com/forum/viewtopic.php?t=20712&highlight=g70

edit2: hier gibts was von sony das so heist:
http://www.moesrealm.com/hometheater/sonyG70.html

dildo4u
2005-02-23, 20:06:13
Im neuesten Treiber sind diese G70 Einträge drinnen! Im anderen Thread bekam ich keine Antwort was das sein könnte.

Inq :cop:FUAD:cop: schreibt nun folgendes: G70@Inq (http://www.theinquirer.net/?article=21409)

Also ich kann mir darunter nichts konkretes vorstellen, denke aber es ist was in Richtung Handy-Chip!

hier nochmal die Einträge aus dem Treiber:
NVIDIA_G70.DEV_0090.1 = "NVIDIA G70"
NVIDIA_G70.DEV_0091.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_0092.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_0093.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_0094.1 = "NVIDIA G70 "
NVIDIA_G70.DEV_009D.1 = "NVIDIA G70GL"
NVIDIA_G70.DEV_009E.1 = "NVIDIA G70GL "
NVIDIA_NV48.DEV_0210.1 = "NVIDIA NV48"


Eher nich G70GL ist eher eine workstation karte passt nicht so recht zur handy theorie.

Freakazoid
2005-02-23, 20:20:51
Eher nich G70GL ist eher eine workstation karte passt nicht so recht zur handy theorie.

Handytheorie? :uconf3:
Und dafür Treiber? doppel " :uconf3: "

Godmode
2005-02-23, 20:23:16
Handytheorie? :uconf3:
Und dafür Treiber? doppel " :uconf3: "

stimmt eigentlich ;D aber für die Mobiles mit Windows, braucht man da keinen Treiber?

mapel110
2005-02-23, 20:24:50
Angeblich sind die Einträge für Schleppis gedacht, weiss aber nit, obs stimmt.
:confused:

ShadowXX
2005-02-23, 20:24:59
Eher nich G70GL ist eher eine workstation karte passt nicht so recht zur handy theorie.

Vielleicht kamen deshalb damals die Gerüchte um den gechancelten (grausames Denglish) nv50 auf.....

NV hatte den nv50 in G70 umbenannt, aber der INQ (oder wer auch immer) hat aus dem "wegwerfen" des Namens dann gleich ein "cancel" gemacht.

Auf das mit dem GL am Ende wollte ich auch hinweisen...aber das hat sich ja schon erledigt.

ShadowXX
2005-02-23, 20:26:53
Angeblich sind die Einträge für Schleppis gedacht, weiss aber nit, obs stimmt.
:confused:

Auch das war nur eine Vermutung seitens 3DGuru (AFAIK).....aber ich fand schon als ich den Treiber vorhin mal runtergeladen habe, das ein G70GL sich nicht wirklich nach Schlepptop anhört...

Hellfire-Torrod
2005-02-23, 20:38:12
G70(GL) = Geforce 7X00 ? :|

stav0815
2005-02-23, 20:38:27
Auch das war nur eine Vermutung seitens 3DGuru (AFAIK).....aber ich fand schon als ich den Treiber vorhin mal runtergeladen habe, das ein G70GL sich nicht wirklich nach Schlepptop anhört...

eher sowas wie NV40M ;) stimmts oder hab ich recht?
komm sag schon :D

naja, vielleicht hat es was mit dem NV48 zu tun? *wildherumspekulier*

Quasar
2005-02-23, 20:59:58
edit2: hier gibts was von sony das so heist:
http://www.moesrealm.com/hometheater/sonyG70.html
Und was bastelt Sony noch schönes, was man in letzter Zeit mit nV in Verbindung bringen könnte?

VooDoo7mx
2005-02-23, 21:05:10
Die Idee mit einen Smartphone/PDA Treiber ist totaler Schwachsinn.

Die Betriebsysteme ( ja auch Windows Mobile!!!!) unterscheiden sich fundamental von denen auf dem großen Desktopcomputer.

Man könnte nicht einmal die jeweiligen Dateien ausführen.

ShadowXX
2005-02-23, 21:59:17
eher sowas wie NV40M ;) stimmts oder hab ich recht?
komm sag schon :D

naja, vielleicht hat es was mit dem NV48 zu tun? *wildherumspekulier*

Es geht eigentlich nur um das angestellte "GL" welches in den momentanen Treibern immer für Quadros steht....

Und der nv48 wird nochmal extra in den Treibern aufgeführt.

Adam D.
2005-02-23, 22:07:08
Kann ja sein, dass NVIDIA vom "NV" zum "G" geht. Warum auch immer. Aber rein theoretisch kann das alles sein. Wir haben ja überhaupt keinen Anhaltspunkt, besonders, weil "NV48" auch Teil der inf ist... :confused:

Ailuros
2005-02-24, 04:10:07
Die Kerle vom Inquirer sollten mal etwas oefter an die frische Luft.... :|

ShadowXX
2005-02-24, 10:45:51
Die Kerle vom Inquirer sollten mal etwas oefter an die frische Luft.... :|

Was ist der G70 denn deiner Meinung?

r@w
2005-02-24, 14:12:25
Und was bastelt Sony noch schönes, was man in letzter Zeit mit nV in Verbindung bringen könnte?DAS ist doch endlich mal der erste vernünftige Ansatz zu diesem Thema!
Und offeriert ein sehr, sehr großes Feld für Spekulationen...
:D

Eine PS3 mit einem Chip der auch in einer Windows-Umgebung lauffähig wäre?
(und offenbar auch für den professionallen Einsatz angedacht ist)
Hmmm...
*grins*

Die Kerle vom Inquirer sollten mal etwas oefter an die frische Luft.... :|Jo!
:up:

Razor

deekey777
2005-02-24, 15:07:25
Die Kerle vom Inquirer sollten mal etwas oefter an die frische Luft.... :|

Schon mal was von einer Sauerstoffvergiftung gehört? ;(

seahawk
2005-02-24, 15:09:07
Und wenn man jetzt noch dem Inq-Gerücht glaubt, dass der NV50 aufgegeben wurde ...

deekey777
2005-02-24, 15:12:57
Und wenn man jetzt noch dem Inq-Gerücht glaubt, dass der NV50 aufgegeben wurde ...


Eingemottet, in die dunkle Kammer gesteckt, aber nicht aufgegeben oder gecanceled. ;(

seahawk
2005-02-24, 15:14:14
Zumindest würde der NV50 zurückgestellt worden sein. Und wenn NV etwas hätte um die Lücke zu fülllen ...

Ailuros
2005-02-24, 15:50:26
Was ist der G70 denn deiner Meinung?

Klingt von den Device_ID Nummern auf jeden Fall nicht nach einer PC Loesung, kann mir aber nicht sicher sein.

NV48 hat oben eine DEV_0210.1. In Sandra bekomme ich unter Product_ID = DEV_0230 und in der "additional info" Seite des Treibers eine "p212" Nummer fuer die einfache 6800.

Der Sony-Link oben war oben IMO sehr gut getroffen und nein es muss nicht unbedingt mit einer ganzen GPU verbunden sein. Sony hat viel mehr als nur den rasterizer fuer PS3 lizenziert, nebenbei auch multimedia relevantes IP. Wie "alt/neu" ist denn dieser CRT-Projektor denn ueberhaupt? (ehrliche Frage).

Ailuros
2005-02-24, 15:59:44
Schon mal was von einer Sauerstoffvergiftung gehört? ;(

Uhhmmm angenommen man faehrt mit dem Auto in den Wald fuer einen Spaziergang, drueckt man eben im Notfall seine Nase in den Auspuff des laufenden Motors, falls die Symptome der "Vergiftung" zu extrem sind. :D

cbhnfg
2005-02-24, 18:12:31
Klingt von den Device_ID Nummern auf jeden Fall nicht nach einer PC Loesung, kann mir aber nicht sicher sein.



und warum ist der codename dann in windows-treibern enthalten?

Benedikt
2005-02-24, 19:32:42
Könnte nicht "G70" doch für "Generation 7.0" oder für "Geforce 7" stehen, also quasi den Nachfolger von "Generation 6.0" a. k. a. Geforce6?

Paulus9
2005-02-24, 20:05:59
Angenommen das Gerücht dass der Nv50 eingestellt wurde stimmt.
(Ich persönlich glaube das übrigens eher nicht.)
Was würde Nvidia dann wahrscheinlich tun?

Eine Möglichkeit wäre dass sie die deffered rendering Technologie über die sie
verfügen einsetzen. Das G in G70 könnte dann für GIGAPIXEL stehen.

Ich weiß wie weit hergeholt das ist aber ich finde diese Spekulation darf hier nicht fehlen.

rdzhgr
2005-02-24, 20:43:00
vielleicht geht ja nvidia einen ähnlichen weg wie intel mit dem pentium m, und entwickelt extra für notebooks eine eigene gpu.

eventuell auch einen deferred-renderer um mit niedriger taktfrequenz und damit niedrigem stromverbrauch auf eine akzeptable leistung zu kommen.

ShadowXX
2005-02-24, 21:21:53
Klingt von den Device_ID Nummern auf jeden Fall nicht nach einer PC Loesung, kann mir aber nicht sicher sein.

NV48 hat oben eine DEV_0210.1. In Sandra bekomme ich unter Product_ID = DEV_0230 und in der "additional info" Seite des Treibers eine "p212" Nummer fuer die einfache 6800.

Der Sony-Link oben war oben IMO sehr gut getroffen und nein es muss nicht unbedingt mit einer ganzen GPU verbunden sein. Sony hat viel mehr als nur den rasterizer fuer PS3 lizenziert, nebenbei auch multimedia relevantes IP. Wie "alt/neu" ist denn dieser CRT-Projektor denn ueberhaupt? (ehrliche Frage).

Scheinbar schon von 1997.......also ziemlich alt.

Zumindest wurde das Manual für das Gerät zu diesem Zeitpunkt gedruckt......es taucht in den TechSpecs des Gerätes auch nie das Wort "Videoprozessor" oder ähnliches auf.

Es gibt dafür zwar scheinbar verschiedene Einschübe, welche dann verschiedene Signale umsetzen können, das bezieht sich aber wohl mehr auf die Eingänge....ausserdem sehen diese Einschübe mehr wie eine uralte SCSI 100MB Platte bzw. das innenleben des Kasettenrecorders meiner Tochter aus.

Sieht also weniger nach einem Kandidaten für einen Detonator-Treiber bzw. Heimat für eine GPU aus.......

P.S.
die PDFs zu dem Gerät kann man sich auf der Seite, wo der vorhin gepostete Link hingeht runterladen.

die gelbe eule
2005-02-24, 21:41:54
Ich hatte hier mal nen thread gestartet, wo es darum ging welcher Name nun für die GF7 ansteht, da ja ATI bereit ne 7000er Reihe hatte.
Und mit der PS3 Technologie hat es auch nichts zu tun, das ist noch zu früh.

Für Smartphones eher nicht, da die meisten eh nur 32MB Ram haben, das wird man wohl kaum für einen Treiber benutzen.

G70 wäre NV50, klingt logisch.

NV48 wird wohl 6800er refresh sein, letztes Everest beta update bietet schon die Erkennung dafür an.

ShadowXX
2005-02-24, 22:00:04
Ich hatte hier mal nen thread gestartet, wo es darum ging welcher Name nun für die GF7 ansteht, da ja ATI bereit ne 7000er Reihe hatte.
Und mit der PS3 Technologie hat es auch nichts zu tun, das ist noch zu früh.

Für Smartphones eher nicht, da die meisten eh nur 32MB Ram haben, das wird man wohl kaum für einen Treiber benutzen.

G70 wäre NV50, klingt logisch.

NV48 wird wohl 6800er refresh sein, letztes Everest beta update bietet schon die Erkennung dafür an.

G70 = nv50 ist auch mein Favorit....könnte natürlich auch der sagenumwobene nv47 sein.

Wo wir die Sieben also noch mal auftauchend hätten.

Beim nv48 gehe ich sogar "nur" von einem gefixten nv40 aus....also laufender Videoprozessor, gefixtes Tonemapping und hier und da noch einen Bug oder ein Optimierung. Dazu kommt vielleicht auch noch ein optimierter Prozess, der weniger "anfällig" in Bezug auf den Yield ist.

Auch ja....30MHZ mehr wird er wohl auch haben...zur besseren Unterscheidung.

jmt
2005-02-24, 22:07:43
gefixtes Tonemapping

hab ich da was verpasst?

ShadowXX
2005-02-24, 22:12:48
hab ich da was verpasst?

War selber erstaunt....aber letztens hatte aths in einem der SC3-Threads dies erwähnt (also das das Tonemapping nicht gehen soll, wegen eines Bugs).

Andererseits hat Demi dann gleich hinterhergeworfen, das das nicht so schlimm ist, da man das Tonemapping sowieso nicht hätte über die DX-API ansprechen können.

Der Tonemapping von SC3 wird lt. Demi von einem Shader erledigt.

Godmode
2005-02-25, 00:08:34
War selber erstaunt....aber letztens hatte aths in einem der SC3-Threads dies erwähnt (also das das Tonemapping nicht gehen soll, wegen eines Bugs).

Andererseits hat Demi dann gleich hinterhergeworfen, das das nicht so schlimm ist, da man das Tonemapping sowieso nicht hätte über die DX-API ansprechen können.

Der Tonemapping von SC3 wird lt. Demi von einem Shader erledigt.

Was nicht alles kaputt ist bei dem Teil! Das ist ja schon Kundenverarschung

[ncp]EasyChiller
2005-02-25, 00:27:54
vielleicht will NVDA auch nur 1337 sein und das ganze steht für "GTO" .. Fans von PS-starken Karren sollte das ein Betriff sein ... :biggrin:

Die Fliegende Eule
2005-02-25, 08:35:49
Ich denke das nv hier nur ein bissel verwirren will.

Nv hat es längst gescheckt das die Hardcore-Gamer jeden Treiber nach NEUEN Modellen absuchen.

Rein logisch gesehen kann nv keinen NEUEN Chip in der Pipe haben, das wüßten wir dann wie beim 520'er von ATI schon seit dem letztem Jahr.

Ich für meinen Teil denke das es nur einen Refresh geben wird bei NV ähnlich wie beim 480'er.

ATI wird dieses Jahr gleich mit 3 Knüllern kommen.

1. X850 MR für Noteboojs
2. AMR
3. R520

Godmode
2005-02-25, 08:51:00
Von Nvidia gibts jetzt auch den 6800Ultra für Notebooks seit gestern:
http://www.nvidia.com/object/dell_xps_gen2.html 1337 machine ;D

Naja G70 könnte vielleicht ein Grund sein nicht gleich ATI Produkte zu kaufen!

cx
2005-02-25, 10:15:49
War selber erstaunt....aber letztens hatte aths in einem der SC3-Threads dies erwähnt (also das das Tonemapping nicht gehen soll, wegen eines Bugs).

Andererseits hat Demi dann gleich hinterhergeworfen, das das nicht so schlimm ist, da man das Tonemapping sowieso nicht hätte über die DX-API ansprechen können.

Der Tonemapping von SC3 wird lt. Demi von einem Shader erledigt.

wirklich, da ich im vergleich zu hdr ohne tonemapping nur 0-2fps geschwindigkeitsverlust habe dachte ich mir dass funktioniert im ramdac, aber vielleicht ist der shader auch nicht so aufwendig.

wie macht es denn farcry, wird da auch das tonemapping über einen shader realisiert?

r@w
2005-02-25, 11:40:00
War selber erstaunt....aber letztens hatte aths in einem der SC3-Threads dies erwähnt (also das das Tonemapping nicht gehen soll, wegen eines Bugs).

Andererseits hat Demi dann gleich hinterhergeworfen, das das nicht so schlimm ist, da man das Tonemapping sowieso nicht hätte über die DX-API ansprechen können.

Der Tonemapping von SC3 wird lt. Demi von einem Shader erledigt.Gibt's dazu mal einen Link oder zumindest den zugehörogen Thread?
Wäre schon mal ganz interessant...

Razor

Hörnchen
2005-02-25, 12:44:39
Ich tippe einfach auf Generation 70. Selbst wenn der NV50 zurückgestellt wurde, kann es durchaus sein, das er schon als Sample vorhanden ist und entsprechend getestet werden kann. G7 konnten oder wollten sie vielleicht nicht wählen wegen IBM mit ihren G4/G5.

Oder tatsächlich einfach nur Verwirrung um sich an den Spekulationen zu erfreuen.

Ailuros
2005-02-25, 12:54:51
G70 = nv50 ist auch mein Favorit....könnte natürlich auch der sagenumwobene nv47 sein.

Wo wir die Sieben also noch mal auftauchend hätten.

Beim nv48 gehe ich sogar "nur" von einem gefixten nv40 aus....also laufender Videoprozessor, gefixtes Tonemapping und hier und da noch einen Bug oder ein Optimierung. Dazu kommt vielleicht auch noch ein optimierter Prozess, der weniger "anfällig" in Bezug auf den Yield ist.

Auch ja....30MHZ mehr wird er wohl auch haben...zur besseren Unterscheidung.

Ich kann mit dem Codenamen-Quark sowieso nicht mithalten momentan. Auf jeden Fall gehoert NV48 erstmal zur NV4x Familie und hat wohl auch nicht viel mit high end zu tun.

Der sagenumwobene "NV47" dann wohl eben nicht; interner Codenamen Firlefanz mal ganz weg, ein >4 quads high end Design wuerde wohl eher auf der Basis von NV43 liegen und da laeuft der videoprozessor auch schon vollstaendig.

Wieso jetzt G70 unbedingt "NV50" gleichen soll kann ich auch nicht verstehen; jegliches naechster Generation Zeug wird sowieso momentan nur auf Simulatoren laufen; wieso man dazu mehrere Varianten bzw. device_IDs brauchen koennte ist mir fremd. Einen WGF2.0 chip wuerde ich nicht vor Mitte 2006 erwarten; mein Kalender zeigt Februar 2005 an.....

HOT
2005-02-25, 12:59:27
Folgende Spekulationen sind im Umlauf (um das mal zusammenzufassen :D)

1.) G70=NV50
2.) G70=Handychip
3.) G70=Neuer Name, neuer Weg (z.B. Gigapixel)
4.) G70=Low Power GraChip
5.) G70=PS3 Chip

Was lässt sich daraus ableiten? Alle Dinge oben sind gleich wahrscheinlich und keiner weiss was ;)
Ich tipp mal auf, hmm..., *randomize* 3 :D

Ailuros
2005-02-25, 13:11:54
und warum ist der codename dann in windows-treibern enthalten?

Voila Monsieur:

http://www.beyond3d.com/forum/viewtopic.php?t=20712&postdays=0&postorder=asc&start=40

PC=!notebook

***edit:

um es noch genauer zu machen:

http://www.hothardware.com/viewarticle.cfm?articleid=648&cid=10

GeForce Go 6800U/110nm/450/550MHz

Ailuros
2005-02-25, 13:15:32
Folgende Spekulationen sind im Umlauf (um das mal zusammenzufassen :D)

1.) G70=NV50
2.) G70=Handychip
3.) G70=Neuer Name, neuer Weg (z.B. Gigapixel)
4.) G70=Low Power GraChip
5.) G70=PS3 Chip

Was lässt sich daraus ableiten? Alle Dinge oben sind gleich wahrscheinlich und keiner weiss was ;)
Ich tipp mal auf, hmm..., *randomize* 3 :D

Was Gigapixel betrifft, NVIDIA hat keine besondere Lust sich mit Patent-Kriegen abzugeben und es wird auch nebenbei genug von deren Technologie benutzt, nur eben kein deferred rendering.

"NV50" siehe oben; Treiber die an Partner gehen haben wohl nichts mit dem was intern auf Simulatoren laeuft zu tun.

Handychip = AR10 und die Treiber haben ueberhaupt nichts in windows zu suchen.

PS3 chip= siehe oben; PS3 ist eine Konsole..... :|

Quasar
2005-02-25, 13:18:33
PS3 chip= siehe oben; PS3 ist eine Konsole..... :|
Eine Konsole, zu der es keine "CPU" gibt. Eine Konsole, die in einem Jahr auf den Markt soll. Eine Konsole, die AAA-Launchtitel braucht...

robbitop
2005-02-25, 13:20:24
NVIDIA scheint nun ihre Produktpallette komplett auf 110nm bei TSMC umzukurbeln. Das spart ggü IBM Geld, bringt höhere Yields und evtl sogar mehr Raum für Transistoren.
GF6800Ultra Go taktet mit 450MHz...beachtlich für einen NV4x mobile.
ATi zeigte ja bereits mit R430 wie es geht.

Ailuros
2005-02-25, 13:22:42
NVIDIA scheint nun ihre Produktpallette komplett auf 110nm bei TSMC umzukurbeln. Das spart ggü IBM Geld, bringt höhere Yields und evtl sogar mehr Raum für Transistoren.
GF6800Ultra Go taktet mit 450MHz...beachtlich für einen NV4x mobile.
ATi zeigte ja bereits mit R430 wie es geht.

....aber auch eine gute Anzeige wie hoch man genau mit 110nm gehen kann (obwohl notebook). Angenommen >4 quads..... *hust*

***edit: Achtung! GeForce Go 6800U hat 3 quads.

robbitop
2005-02-25, 13:26:46
....aber auch eine gute Anzeige wie hoch man genau mit 110nm gehen kann (obwohl notebook). Angenommen >4 quads..... *hust*

wäre möglich, ich wüßte nicht, was sie sonst mit NV47 (nun =48??) machen sollten. Seit NV30 hat man die Nase voll von Experimenten. Aber was mehr Quads @110nm angeht, bleibe ich skeptisch.

Ailuros
2005-02-25, 13:28:47
wäre möglich, ich wüßte nicht, was sie sonst mit NV47 (nun =48??) machen sollten. Seit NV30 hat man die Nase voll von Experimenten. Aber was mehr Quads @110nm angeht, bleibe ich skeptisch.

4+2 quads/ 16 ROPs dann eben. Bei 400MHz ist man schon verdammt nahe an der 10GPixels/sec Grenze.

ShadowXX
2005-02-25, 14:19:05
Gibt's dazu mal einen Link oder zumindest den zugehörogen Thread?
Wäre schon mal ganz interessant...

Razor

Hab lange gesucht, dann aber doch gefunden. Hier die Aussage von aths und der Kommentar von Demi dazu:


Eine dedizierte Tonemapping-Unit war im NV40 vorgesehen. Da das Teil dann aber nicht so funktionierte, wie gedacht, ist das Ding jetzt offiziell nicht mehr drin.



Ohne API Unterstüzung wäre es sowieso belangloss. Mit DirectX muss man das Tonemapping in jedem Fall über einen Pixelshader realisieren. Zudem brauchen wir nicht wirklich noch eine Fixed Function Unit Mehr.

Das ganze würde nur Sinn machen wenn man echte FP16 Framebuffer hätte und das Tonemapping beim Scanout miterledigt wird.


Quelle:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2754218#post2754218

DrumDub
2005-02-25, 14:38:43
Aber was mehr Quads @110nm angeht, bleibe ich skeptisch.

ich glaub an den quads kann man es nicht festmachen... siehe x800xl. okay, die hat auch weniger transen.

robbitop
2005-02-25, 14:49:07
ich glaub an den quads kann man es nicht festmachen... siehe x800xl. okay, die hat auch weniger transen.
solange das Design bestehen bleibt schon. Und man wird ja wohl kaum einen Rückschritt im Nachfolger machen.

DrumDub
2005-02-25, 15:13:04
solange das Design bestehen bleibt schon. Und man wird ja wohl kaum einen Rückschritt im Nachfolger machen.

klar. aber ich bezog das eher auf die tatsache, dass wenn drei quads in 110nm bei 450mhz möglich sind, warum also auch nicht vier? die x800xl macht mit vier quads ja auch 400mhz in 110nm und packt häufig auch 430-450mhz.

robbitop
2005-02-25, 15:17:01
klar. aber ich bezog das eher auf die tatsache, dass wenn drei quads in 110nm bei 450mhz möglich sind, warum also auch nicht vier? die x800xl macht mit vier quads ja auch 400mhz in 110nm und packt häufig auch 430-450mhz.
achso, dann habe ich dich falsch verstanden. Klar 4 Quads gingen sicher auch auf 450MHz (oder mehr, da nicht mehr mobile).
Ein 130nm LV FSG Prozess scheint mittlerweile dem 110nm LV FSG Prozess schon unterlegen zu sein. Das sah ja anfänglich eher anders aus (110nm LV als low cost Prozess).

DrumDub
2005-02-25, 15:22:24
achso, dann habe ich dich falsch verstanden. Klar 4 Quads gingen sicher auch auf 450MHz (oder mehr, da nicht mehr mobile).
Ein 130nm LV FSG Prozess scheint mittlerweile dem 110nm LV FSG Prozess schon unterlegen zu sein. Das sah ja anfänglich eher anders aus (110nm LV als low cost Prozess).

:up: dann wär das ja geklärt... die leistung der gf go 6800u ist auf jeden fall beeindruckend. die lücken zwischen desktop- und notebook-3dgrafik hat sich in weniger als zwei jahren fast vollständig geschlossen. schon krass.

robbitop
2005-02-25, 15:26:08
ja dank 110nm scheint NV jetzt ATI im High End mobil Bereich gleichgezogen zu haben.
Interessant wird NV47/48. Ich bin gespannt, ob man damit gegen R520 ankommen kann. Technologisch für das Jahr 2005 ist NV4x auf jeden Fall ausreichend.

reunion
2005-02-25, 15:35:52
achso, dann habe ich dich falsch verstanden. Klar 4 Quads gingen sicher auch auf 450MHz (oder mehr, da nicht mehr mobile).


Was zu beweisen wäre.


Ein 130nm LV FSG Prozess scheint mittlerweile dem 110nm LV FSG Prozess schon unterlegen zu sein. Das sah ja anfänglich eher anders aus (110nm LV als low cost Prozess).

Ja, und beide scheinen dem 130nm lowk sowohl was Taktraten als auch was Leistungsaufnahme betrifft unterlegen zu sein.

Mich würde ohnehin mal intressieren welchen Prozess nV für deren Next Gen Chip Nv47 oder Nv48 oder wie auch immer verwendet. Nochmal beim 130nm Prozess wird man auch nicht bleiben können, da dieser schon beim NV40 arge Probleme hat auf hohe Taktraten zu kommen. lowk will man ja auch nicht verwenden. Der 110nm Prozess scheint zwar nicht so schlecht zu sein wie ursprünglich angenommen, ist aber trozdem für einen an die 300mio Transistorengrenze wachsenden High-End-Chip undenkbar. Und 90nm wird man sich nach dem NV30 Desaster auch zweimal überlegen. Was bleibt?

robbitop
2005-02-25, 15:39:45
Was zu beweisen wäre.



Ja, und beide scheinen dem 130nm lowk unterlegen zu sein.

Mich würde ohnehin mal intressieren welchen Prozess nV für deren Next Gen Chip Nv47 oder Nv48 oder wie auch immer verwendet. Nochmal beim 130nm Prozess wird man auch nicht bleiben können, da dieser schon beim NV40 arge Probleme hat auf hohe Taktraten zu kommen. lowk will man ja auch nicht verwenden. Der 110nm Prozess scheint zwar nicht so schlecht zu sein wie ursprünglich angenommen, ist aber trozdem für einen an die 300mio Transistorengrenze wachsenden High-End-Chip undenkbar. Und 90nm wird man sich nach dem NV30 Desaster auch zweimal überlegen. Was bleibt?

1. Takt ist von der Transistorzahl unabhängig, hatten wir aber schon oft genug.

2. das ist nichts neues.

3. inzwischen wäre ich mir da nicht mehr soo sicher (etw skeptisch bin ich jedoch auch)

reunion
2005-02-25, 15:47:47
1. Takt ist von der Transistorzahl unabhängig, hatten wir aber schon oft genug.


Ja, ich glaube es trozdem nur bis zu einem gewissen Grad.
Aber es ist sinnlos darüber jetzt zu diskutieren.


3. inzwischen wäre ich mir da nicht mehr soo sicher (etw skeptisch bin ich jedoch auch)

Mit was?

robbitop
2005-02-25, 15:59:45
4-6Quads @110nm ;)

Die gelbe Eule
2005-02-25, 16:18:12
Kommt mal von den PocketPC Treibern weg ... nicht alle haben WindowsMobile und wie gesagt 32MB Ram ist im Moment standard, den füllt man nicht eben mit einem Treiber.

Handy ist das gleiche, nur das dort noch weniger Speicher vorhanden ist und die brauchen keine GFX Treiber, habe selbst ein SP.

Von 71.XX auf 75.90 ist ein derber Sprung und es gibt auch noch keine Börsenmeldungen, die NV in anderen Bereichen tätig werden läßt.

G70=GeForce70xx ... leichter gehts doch net ...

stickedy
2005-02-25, 16:51:58
Lesen!!!

G70(GL) = GeForce Go 6800U/110nm/450/550MHz

robbitop
2005-02-25, 17:00:49
Lesen!!!

G70(GL) = GeForce Go 6800U/110nm/450/550MHz
nur weil Wavey das annimmt, muss es noch kein Faktum sein ;)

Ailuros
2005-02-25, 17:10:53
nur weil Wavey das annimmt, muss es noch kein Faktum sein ;)

Und wer sagt Dir dass Wavey irgend etwas hier annimmt? Uebrigens nochmal der GeForce Go 6800U hat nur 3 quads und nicht 4 und es wurde hier nichts abgeschaltet.

robbitop
2005-02-25, 17:13:19
Und wer sagt Dir dass Wavey irgend etwas hier annimmt? Uebrigens nochmal der GeForce Go 6800U hat nur 3 quads und nicht 4 und es wurde hier nichts abgeschaltet.
Er sagte, dass er es annimmt, nicht dass er es 100% weiß ;)
Und ja ich weiß, dass es sich um einen NV41@110nm handelt.

Godmode
2005-02-25, 17:27:51
Wenn von den begrenzten Kühlmöglichkeiten eines Notebooks ausgeht dann sollten beim NV47 Desktopversion mit 6 Quads sicherlich schöne Takraten zu erreichen sein!

robbitop
2005-02-25, 18:09:28
im Rahmen von 400-500MHz nehme ich an.

reunion
2005-02-25, 22:16:22
Wenn von den begrenzten Kühlmöglichkeiten eines Notebooks ausgeht dann sollten beim NV47 Desktopversion mit 6 Quads sicherlich schöne Takraten zu erreichen sein!

Ich glaube weiterhin nicht an 110nm. Auch wenn es viele nicht wahrhaben wollen, 110nm@TSMC gilt weiterhin als low-cost Prozess. Der Stromverbrauch ist verhältnismäßig hoch, es gibt kein lowk, und auch die erreichten Taktraten reißen einem nicht gerade vom Hocker. Alles andere als optimal für einen High-End-Chip.

reunion
2005-02-25, 22:19:01
im Rahmen von 400-500MHz nehme ich an.

Wenn die Taktrate wirklich unabhängig von der Transistorenanzahl ist, dann müssten doch mindestens die 500mhz der 6600GT drin sein, oder?

fgh
2005-02-25, 23:24:06
Wenn die Taktrate wirklich unabhängig von der Transistorenanzahl ist, dann müssten doch mindestens die 500mhz der 6600GT drin sein, oder?

die taktrate ist nicht unabhängig von der transistorenzahl, aber auch nicht nur von der transistorenzahl abhängig (vgl. aktuelle intel und amd cpu´s)

Quasar
2005-02-26, 00:19:37
IBM und AMD haben anscheinend recht guten Erfolg mit ihrem 90nm-Prozess - insbesondere mit ersteren hatte man seit dem nV40 ja ein Jahr Zeit, auf einen neuen Prozess umzusteigen bzw.zu üben...

robbitop
2005-02-26, 01:50:26
die taktrate ist nicht unabhängig von der transistorenzahl, aber auch nicht nur von der transistorenzahl abhängig (vgl. aktuelle intel und amd cpu´s)
Auf Krampf? Warum nicht?
Transistoranzahl hat bis zu einem gewissen Grad keinen direkten Einfluss auf die Taktbarkeit. Beides jedoch senkt die Yields. Somit würde ich 400-500MHz sagen.
Bei 6Quads@110nm bleibe ich skeptisch, halte es jedoch nicht für unmöglich. In ein paar Monaten reden wir nochmal drüber :)

Ailuros
2005-02-26, 02:24:13
IBM und AMD haben anscheinend recht guten Erfolg mit ihrem 90nm-Prozess - insbesondere mit ersteren hatte man seit dem nV40 ja ein Jahr Zeit, auf einen neuen Prozess umzusteigen bzw.zu üben...

Nur hat sich NVIDIA um einiges spaeter fuer 90nm eingekauft als ATI. Nebenbei sind die libraries AFAIK zwischen 110 und 130nm ziemlich stark verwandt; 90nm bedeutet dann viel mehr Arbeit und Unkosten und nein so viel Zeit mit all den Projekten an den sie herumfuchteln haben sie nun auch wieder nicht.

Er sagte, dass er es annimmt, nicht dass er es 100% weiß
Und ja ich weiß, dass es sich um einen NV41@110nm handelt.

Oeffentlich kann er sagen was er will.

NV42M; NV41 ist der desktop chip.

Ailuros
2005-02-26, 02:35:40
Auf Krampf? Warum nicht?
Transistoranzahl hat bis zu einem gewissen Grad keinen direkten Einfluss auf die Taktbarkeit. Beides jedoch senkt die Yields. Somit würde ich 400-500MHz sagen.

Was heisst direkt oder indirekt ueberhaupt? Waere Transistoren-anzahl so irrelevant waere NV40 auch nicht auf 400MHz steckengeblieben, obwohl man sich mehr erhofft hatte. Andersrum: angenommen man entwickelt heute einen 300M chip @ low-k 130nm TSMC. Kann sich dieser mit Leichtigkeit auf 600MHz takten lassen, ohne dass ich damit in der Tiefkuehltruhe hocken muss?

Bei 6Quads@110nm bleibe ich skeptisch, halte es jedoch nicht für unmöglich. In ein paar Monaten reden wir nochmal drüber :)

Einen alternativen Vorschlag der sich mit R520 schlagen soll und jeglichem groesserem Herstellungsprozess als 90nm? Ich hatte und habe die genau gleichen Zweifel wie Du, das Problem ist dass ich das Raetsel sonst schwer loesen kann.

Angenommen ich will 9 GPixel erreichen:

a) 130nm@563*16
b) 110nm@375*24

Was klingt leichter zu erreichen? (sehr konservatives Beispiel natuerlich).

Godmode
2005-02-26, 09:09:59
Der R520 wird aber doch auch ein 90nm Chip, oder? Warum sollte der NV47 dann nicht in 90nm gemacht werden?

Quasar
2005-02-26, 09:18:15
Nur hat sich NVIDIA um einiges spaeter fuer 90nm eingekauft als ATI.
Ich meinte auch nicht TSMC. Nichtmal notwendigerweise IBM - obwohl die ja durchaus dazu in der Lage sein müssten, einen 230M+-Chip mit sehr hohem Anteil an Logik für enorme Taktraten zu fertigen - zumindest steht das für sehr demnächst im Plan.

robbitop
2005-02-26, 09:22:26
Was heisst direkt oder indirekt ueberhaupt? Waere Transistoren-anzahl so irrelevant waere NV40 auch nicht auf 400MHz steckengeblieben, obwohl man sich mehr erhofft hatte. Andersrum: angenommen man entwickelt heute einen 300M chip @ low-k 130nm TSMC. Kann sich dieser mit Leichtigkeit auf 600MHz takten lassen, ohne dass ich damit in der Tiefkuehltruhe hocken muss?



Einen alternativen Vorschlag der sich mit R520 schlagen soll und jeglichem groesserem Herstellungsprozess als 90nm? Ich hatte und habe die genau gleichen Zweifel wie Du, das Problem ist dass ich das Raetsel sonst schwer loesen kann.

Angenommen ich will 9 GPixel erreichen:

a) 130nm@563*16
b) 110nm@375*24

Was klingt leichter zu erreichen? (sehr konservatives Beispiel natuerlich).

1. ich habe das Gefühl, du hast nicht genau verstanden, was ich mit direkt und indirekt meine. Man kann ein Design unabhängig vom Transistorcount bis zu einem Limit takten. Dieses Limit setzt das Design selbst und natürlich der Fertigungsprozess. Ein sehr gutes Beispiel hierfür ist immer das R300 und R350/360 Design im 150nm Prozess. TSMC empfahl 96Mio Transistoren maximal für 150nm. ATI überzog dies ein wenig. Aber ohne Takteinbußen. Vergleich R300 vs andere 150nm GPUs im Takt. Wichtig ist nur, dass man die Verlustleistung auch kühlen muss. Ein anderes Beispiel ist die Netburst Architektur.
Nun kommt allerdings die indirekte Komponente hinzu. Der Yield.
Er wird stark vom Takt beeinflusst aber auch vom Transistorcount. Mehr Transistoren bedeuten längere interne Laufzeiten, mehr Fläche, die kaputt gehen kann. (BlackBirdSR hat darüber im 3DC einen sehr guten Artikel verfasst). Somit könnte man schlechtere Yields durch hohen Count mit weniger Takt ausgleichen. Natürlich auch umgekehrt.

2. Full ack.
Außerdem begeht NV nicht nocheinmal ein Experiment mit sehr neuen Fertigungsprozessen.

Razor
2005-02-26, 10:49:34
Hab lange gesucht, dann aber doch gefunden. Hier die Aussage von aths und der Kommentar von Demi dazu:

Quelle:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2754218#post2754218Allerherzlichsten Dank, Shadow!
*einles*

EDIT: Aber da ist ist doch was von einer "dedizierten Tonemapping-Unit" die Rede!
Warum sollte ein moderner Chip so etwas haben sollen?
Hmmm...
*weiterles*

Razor

Razor
2005-02-26, 10:57:36
Lesen!!!

G70(GL) = GeForce Go 6800U/110nm/450/550MHzB3D hat nur spekuliert und bei Hothardware steht überhaupt nix von G70...
In diese Richtung 'denkt' man IMO nur, da ausser dem NV41M nicht viel exisitiert, was Grundlage der Go6800U sein könnte. Dass es aber einfach 'nur' ein NV41M @ 450MHz sein könnte, scheint einigen hier nicht in den Kopf zu gehen...

Razor

robbitop
2005-02-26, 11:05:52
B3D hat nur spekuliert und bei Hothardware steht überhaupt nix von G70...
In diese Richtung 'denkt' man IMO nur, da ausser dem NV41M nicht viel exisitiert, was Grundlage der Go6800U sein könnte. Dass es aber einfach 'nur' ein NV41M @ 450MHz sein könnte, scheint einigen hier nicht in den Kopf zu gehen...

Razor

Es ist IMO kein NV41M. Bereits NV41 @130nm LV IBM ist im Desktopbereich bei 350MHz. Im mobilen Bereich wäre eine dermaßen übertaktete GPU nicht denkbar. Es handelt sich hier ziemlich sicher um einen NV41@110nm ehemals NV42M.

Razor
2005-02-26, 11:26:43
Es ist IMO kein NV41M. Bereits NV41 @130nm LV IBM ist im Desktopbereich bei 350MHz. Im mobilen Bereich wäre eine dermaßen übertaktete GPU nicht denkbar. Es handelt sich hier ziemlich sicher um einen NV41@110nm ehemals NV42M.Und warum sollte nVidia daraus extra einen neuen Chip machen?
Ein neues Stepping wäre doch vollkommen ausreichend, da sich ausser der Fertigung ja nichts geändert hat.

IMO ist NV42M jetzt der von Dir genannte NV41@110nm und nennt sich auch NV41M nur mit neuerem Stepping.

Nix mit "G70"... warum auch?
:confused:

Razor

robbitop
2005-02-26, 11:34:12
Und warum sollte nVidia daraus extra einen neuen Chip machen?
Ein neues Stepping wäre doch vollkommen ausreichend, da sich ausser der Fertigung ja nichts geändert hat.

IMO ist NV42M jetzt der von Dir genannte NV41@110nm und nennt sich auch NV41M nur mit neuerem Stepping.

Nix mit "G70"... warum auch?
:confused:

Razor

Nein.nein und nochmals nein. :D

Es gab einen NV41M. 130nm IBM. War glaube ich die 6800 Go!
Die 6800 Go Ultra ist der ehem. NV42M (nun G70??). Da 110nm in dieser Form für NV nur bei TSMC verfügbar war, musste man natürlich das Design mit anderen Libraries kompilieren und umarbeiten. Das ist mehr als nur ein neues Stepping. Nur so konnte man mit ATI wieder schritthalten im mobilen Bereich.

Ailuros
2005-02-26, 11:34:46
Eine 3 quad 6800@450/550MHz fuer ein notebook ist sehr imposant. Sagt mir bitte nur nicht was der Spass kostet *faints* :D

Ein sehr gutes Beispiel hierfür ist immer das R300 und R350/360 Design im 150nm Prozess. TSMC empfahl 96Mio Transistoren maximal für 150nm. ATI überzog dies ein wenig. Aber ohne Takteinbußen. Vergleich R300 vs andere 150nm GPUs im Takt.

Ja aber wie ATI diese Grenze ueberzogen hat ist hier wichtig. Es sind ja auch nur ~14M Transistoren mehr bei R300 und ~19M bei R350/360.

"Sign-off" mit manueller Funkelei fuer R300 war bei ~250MHz.

robbitop
2005-02-26, 11:45:20
Ja aber wie ATI diese Grenze ueberzogen hat ist hier wichtig. Es sind ja auch nur ~14M Transistoren mehr bei R300 und ~19M bei R350/360.

"Sign-off" mit manueller Funkelei fuer R300 war bei ~250MHz.

Das ändert nichts an den Tatsachen über Takt und Transistorcounts ;)

Razor
2005-02-26, 11:56:23
Nein.nein und nochmals nein. :D

Es gab einen NV41M. 130nm IBM. War glaube ich die 6800 Go!
Die 6800 Go Ultra ist der ehem. NV42M (nun G70??). Da 110nm in dieser Form für NV nur bei TSMC verfügbar war, musste man natürlich das Design mit anderen Libraries kompilieren und umarbeiten. Das ist mehr als nur ein neues Stepping. Nur so konnte man mit ATI wieder schritthalten im mobilen Bereich.Sag bitte dazu, dass es DEINE persönliche Spekulation ist, solange es keine Fakten dazu gibt.
(bezüglich des Namens natürlich, nicht des Wechsels von IMB zu TSMC und damit auf einen anderen Prozess)

Meine Speku steht dem gegenüber...
Und ich bin noch immer der Meinung, dass die Go6800U einfach nur ein NV41M in anderem Gewand aber ansonsten völlig identischen Featureset ist und somit keinen neuen Chip-Namen 'verdient' hat.

Aber gut, dass wir hier im Speku-Forum sind.

Und der "G70" ist für mich noch vollkommen offen!
Meine diesbezüglichen Gedanken bewegen sich da eher in Quasars Richtung...

Razor

Ailuros
2005-02-26, 12:04:04
Das ändert nichts an den Tatsachen über Takt und Transistorcounts ;)

Sehe ich nicht so; nochmal Dein quote:

Man kann ein Design unabhängig vom Transistorcount bis zu einem Limit takten. Dieses Limit setzt das Design selbst und natürlich der Fertigungsprozess. Ein sehr gutes Beispiel hierfür ist immer das R300 und R350/360 Design im 150nm Prozess. TSMC empfahl 96Mio Transistoren maximal für 150nm. ATI überzog dies ein wenig. Aber ohne Takteinbußen.

Die Fab gibt ihre Kunden tatsaechlich Empfehlungen fuer Transistoren-Anzahlen auf einem gewissen Herstellungsprozess, aber empfiehlt eben genauso einen gewissen "sign-off speed".

ATI hat im Fall von R300 auch die sign-off speed Empfehlungen von TSMC ueberschritten afaik.

ShadowXX
2005-02-26, 13:57:32
Und der "G70" ist für mich noch vollkommen offen!
Meine diesbezüglichen Gedanken bewegen sich da eher in Quasars Richtung...

Razor

Möglich wäre das.....dann wäre dieser Treiber aber wirklich einer der völlig unabsichtlich geleakt wurde (was ich bei vielen anderen Betas nicht so ganz glaube).

Die meisten Beta-Leaks kommen ja von irgendwelchen Boardherstellern.....weiss irgendjemand die "Quelle" dieses Treibers?

Wenn dieser nämlich tatsächlich "quasi" aus den Entwicklungslaboren von nV "entwendet" wurde, ist die wahrscheinlichkeit tatsächlich nicht so niedrig, das der G70 in Richtung von dem geht, was Quasar annimmt.

Ein Treiber für einen experimentellen Chip, der für Entwickler gedacht ist, die sich schon mal mit teilen der PS3-Hardware beschäftigen wollen/sollen.

Razor
2005-02-26, 14:37:05
Möglich wäre das.....dann wäre dieser Treiber aber wirklich einer der völlig unabsichtlich geleakt wurde (was ich bei vielen anderen Betas nicht so ganz glaube).

Die meisten Beta-Leaks kommen ja von irgendwelchen Boardherstellern.....weiss irgendjemand die "Quelle" dieses Treibers?Ich vermute mal: nVidia höchstpersönlich!
Nur eben nicht offiziell.

Es hat doch was, einen Treiber der nächsten Generation von einer riesigen Community testen zu lassen.
So etwas kann man 'synthetisch' gar nicht machen, da einfach sämtliche Kombinationen an Hard- und Software nicht abzubilden sind. Und... jeder der sich den Treiber installiert... tut dies freiwillig. Insofern kann nVidia auch nicht dafür ans Kreuz genagelt werden (was einige ganz sicher tun würden, selbst wenn dieser Treiber als 'beta' gekennzeichnet würde ;-).

Ich habe 'läuten' hören, dass nVidia diesen Treiber zusammen mit den Karten-Herstellern intensivst testet.
Auch soll er im 'bevorzugten' Developer-Bereich verfügbar sein...

Wenn dieser nämlich tatsächlich "quasi" aus den Entwicklungslaboren von nV "entwendet" wurde, ist die wahrscheinlichkeit tatsächlich nicht so niedrig, das der G70 in Richtung von dem geht, was Quasar annimmt.

Ein Treiber für einen experimentellen Chip, der für Entwickler gedacht ist, die sich schon mal mit teilen der PS3-Hardware beschäftigen wollen/sollen.So to say...
Wäre IMO die einzig sinnvolle Erklärung für diesen Namen.

Und die Namensgebung dieses Chips läßt darauf schließen, dass man dabei durchaus auch an einen zukünftigen Consumer/Workstation-Chip denkt... vielleicht ist das ja der Grund, warum man den NV50 erst einmal beiseite gelegt hat. Eine völlig neue Architektur vielleicht, die kaum noch was oder gar nichts mehr mit der vorherigen Generation gemein hätte... einen Multimedia-Prozessor auf Cell-Basis vielleicht?

Und da es sich um eine Gemeinschaftsentwicklung handelt wäre IMO ein neuer Chipname durchaus angebracht.

Who knows?
:D

Razor

robbitop
2005-02-26, 18:27:38
Sehe ich nicht so; nochmal Dein quote:

Man kann ein Design unabhängig vom Transistorcount bis zu einem Limit takten. Dieses Limit setzt das Design selbst und natürlich der Fertigungsprozess. Ein sehr gutes Beispiel hierfür ist immer das R300 und R350/360 Design im 150nm Prozess. TSMC empfahl 96Mio Transistoren maximal für 150nm. ATI überzog dies ein wenig. Aber ohne Takteinbußen.

Die Fab gibt ihre Kunden tatsaechlich Empfehlungen fuer Transistoren-Anzahlen auf einem gewissen Herstellungsprozess, aber empfiehlt eben genauso einen gewissen "sign-off speed".

ATI hat im Fall von R300 auch die sign-off speed Empfehlungen von TSMC ueberschritten afaik.

Fakt ist, R300 erreicht bei gleichem Fertigungsprozess mit massig mehr Transistoren als NV25 gleiche Taktraten. Mit R350/60 geht das sogar noch weiter. ob du es wahr haben willst oder nicht (das haben sogar schon ein paar Experten wie der gute Demi bestätigt und Diskussionen hatten wir über das Thema mehr als genug).

robbitop
2005-02-26, 18:30:25
Sag bitte dazu, dass es DEINE persönliche Spekulation ist, solange es keine Fakten dazu gibt.
(bezüglich des Namens natürlich, nicht des Wechsels von IMB zu TSMC und damit auf einen anderen Prozess)

Meine Speku steht dem gegenüber...
Und ich bin noch immer der Meinung, dass die Go6800U einfach nur ein NV41M in anderem Gewand aber ansonsten völlig identischen Featureset ist und somit keinen neuen Chip-Namen 'verdient' hat.

Aber gut, dass wir hier im Speku-Forum sind.

Und der "G70" ist für mich noch vollkommen offen!
Meine diesbezüglichen Gedanken bewegen sich da eher in Quasars Richtung...

Razor

6800Ultra Go! ist mit Sicherheit kein 130nm Part. 450MHz in einem Notebook bei einem 3 Quad NV4x? Never. Was NV42M = G70 angeht, weiß ich nicht ob das stimmt. Ich habe darüber keine Speku, ich wiederholte lediglich die von Wavey. Einen NV41M gab es schonmal in Form der 6800NU Go (350MHz). Ist also ein deutlicher Unterschied.
Ich gebe zu, dass das (noch) nirgends bestätigt wurde, aber ich bin mir dessen ehrlich gesagt sicher ;)

Ich denke also:

NV41M = 130nm IBM = GF6800NU GO = 3 Quads
NV42M = 110nm TSMC = GF6800 GO = 3 Quads
G70 = ???

Vieleicht ist G70 ja der ominöse NV47? Ein 6 Quad 110nm Part oder was weiß ich... Denn NV47 klingt so gar nicht schön und fortschrittlich :D
spekuli spekula

q@h
2005-02-26, 18:58:34
http://www.planet3dnow.de/news_images/nv6600go5.jpg

Das wollte ich nur mal eben in Erinnerung gerufen haben - vielleicht beflügelt das ja eure Phantasie in der einen oder anderen Richtung.

Godmode
2005-02-26, 19:12:55
Der/Die/Das G70 ist was ganz was anderes! Warum sollten sie zb für 6600 GO Ultra G70 als Codenamen wählen? Das wäre einfach nur unlogisch! und dann noch gleich soviele Einträge! Ich weiß das der G70 ganz was anderes ist! Bis jetzt hat jeder Chip NVxx geheißen. Vielleicht wird ja wirklich irgendwas mit Cell Technologie!

q@h
2005-02-26, 21:27:17
Schau dir mal die letzten paar Beiträge hier an: Da ging es darum ob und wie wahrscheinlich ein G70 eine nV42M sein könnte - und ausser der 6600 GO, die hier wirklich uninteressant ist, steht ganz unten in dem Bild noch was, das die Phantasie anregen kann.

sadfg
2005-02-26, 21:37:57
Schau dir mal die letzten paar Beiträge hier an: Da ging es darum ob und wie wahrscheinlich ein G70 eine nV42M sein könnte - und ausser der 6600 GO, die hier wirklich uninteressant ist, steht ganz unten in dem Bild noch was, das die Phantasie anregen kann.

NVIDIA Corporation all rights reserved?

q@h
2005-02-26, 21:42:14
Oh - hab ich vergessen. nVidia ist ja per se BÖSE und lügt ihre Kunden an. :rolleyes:

Wäre komisch, wenn die Launch-Präsentation der Go 6600 von ATi gekommen wäre, oder?

dxgfsd
2005-02-26, 22:10:30
net wirklich, aber was soll da so besonderes zu erkennen sein, sorry steh ein wenig auf der leitung ;)

Winter[Raven]
2005-02-26, 22:51:21
net wirklich, aber was soll da so besonderes zu erkennen sein, sorry steh ein wenig auf der leitung ;)

Ich glaube Quasar meint ehe die Geforce 6600 Ultra ;)

robbitop
2005-02-26, 22:51:23
die Punktzahl? Die ungewöhnlich hohe Leistungsaufnahme? (6800U Go)

Ailuros
2005-02-27, 03:10:06
Fakt ist, R300 erreicht bei gleichem Fertigungsprozess mit massig mehr Transistoren als NV25 gleiche Taktraten. Mit R350/60 geht das sogar noch weiter. ob du es wahr haben willst oder nicht (das haben sogar schon ein paar Experten wie der gute Demi bestätigt und Diskussionen hatten wir über das Thema mehr als genug).

Was genau soll ich wahrhaben? Sign off speeds?

Ailuros
2005-02-27, 03:15:58
die Punktzahl? Die ungewöhnlich hohe Leistungsaufnahme? (6800U Go)

Kann sein dass er auf die 66+W anspielt; das Raetsel muss er aber wohl selber loesen.

robbitop
2005-02-27, 07:54:26
Was genau soll ich wahrhaben? Sign off speeds?
sign off speeds ...sign off speeds...
es geht um die Abhängigkeit Transistorcount - Taktrate.

Leonidas
2005-02-27, 08:48:14
Es ist IMO kein NV41M. Bereits NV41 @130nm LV IBM ist im Desktopbereich bei 350MHz.


Ähm, da mißverstehst Du was: Der NV41 taktet nicht mit 350 MHz, weil nicht mehr geht, sondern weil er nicht mehr muß. Der NV41 ist ein Chip, der erst im nachträglichen für ein breits bestehendes Produkt (GF6800 nU) eingeführt wurde und dessen Specs bzgl. Takt übernimmt. Somit kann man nicht daraus ablesen, wie weit der NV41 wirklich könnte.

Quasar
2005-02-27, 09:25:17
Kann sein dass er auf die 66+W anspielt; das Raetsel muss er aber wohl selber loesen.
Der Vergleich 6800 "normal" und 6800-U.
Entweder sie musste hier massiv die Spannung erhöhen oder es könnte sich doch um unterschiedliche Chips handeln.

Razor
2005-02-27, 09:40:11
6800Ultra Go! ist mit Sicherheit kein 130nm Part. 450MHz in einem Notebook bei einem 3 Quad NV4x? Never. Was NV42M = G70 angeht, weiß ich nicht ob das stimmt. Ich habe darüber keine Speku, ich wiederholte lediglich die von Wavey. Einen NV41M gab es schonmal in Form der 6800NU Go (350MHz). Ist also ein deutlicher Unterschied.
Ich gebe zu, dass das (noch) nirgends bestätigt wurde, aber ich bin mir dessen ehrlich gesagt sicher ;)Was genau hast Du an meinem Zusatz nicht verinnerlicht:

"(bezüglich des Namens natürlich, nicht des Wechsels von IMB zu TSMC und damit auf einen anderen Prozess)"

und:

"Und ich bin noch immer der Meinung, dass die Go6800U einfach nur ein NV41M in anderem Gewand aber ansonsten völlig identischen Featureset ist und somit keinen neuen Chip-Namen 'verdient' hat."

Vieleicht ist G70 ja der ominöse NV47? Ein 6 Quad 110nm Part oder was weiß ich... Denn NV47 klingt so gar nicht schön und fortschrittlich :DUnd warum dann ein anderer Name?
Warum "G" statt "NV"?
Sorry, aber...

Razor

P.S.: Wer kommt bloß auf die Idee, dass ein purer Wechsel des Fertigungsprozesses, meinetwegen auch der Wechsel des Fertigers in einer neuen Chipbezeichnung resultieren muss? Nichts, aber auch gar nichts hat jemals und wird jemals auf solch einen Unfug hindeuten...

Razor
2005-02-27, 09:46:59
Der Vergleich 6800 "normal" und 6800-U.
Entweder sie musste hier massiv die Spannung erhöhen oder es könnte sich doch um unterschiedliche Chips handeln.Wieso denn das?
300 zu 450 verhält sich absolut analog 8000 zu 12000.
Kein Geheimnis.

Wie Leo ja schon sagte... es gibt keinen Grund, warum der NV41M nicht auch 450MHz schaffen sollte.
Und allein der Performance-Index zeigt auch, dass da keine Pipelines dazu kommen und sich die "U" von der "nU" ausschließlich im Takt unterschiedet. Und dafür gibt's ganz sicher keinen neuen Chip... schon gar keinen, mit einem völlig neuen Präfix.

Spekulieren ist ja ganz schön, aber...

Razor

P.S.: meinst Du in dem Bild das "2004"?
Was soll daran so ungewöhnlich sein?

ssdf
2005-02-27, 12:08:47
die Punktzahl? Die ungewöhnlich hohe Leistungsaufnahme? (6800U Go)


wieso ungewöhnlich, die steigerung der leistungsaufnahme von gf6800 bis gf6800u ist auch so "ungewöhnlich" hoch.
50% mehr takt und wahrscheinlich rund 20% höhere spannung kostet natürlich leistung.

robbitop
2005-02-27, 12:59:31
Ähm, da mißverstehst Du was: Der NV41 taktet nicht mit 350 MHz, weil nicht mehr geht, sondern weil er nicht mehr muß. Der NV41 ist ein Chip, der erst im nachträglichen für ein breits bestehendes Produkt (GF6800 nU) eingeführt wurde und dessen Specs bzgl. Takt übernimmt. Somit kann man nicht daraus ablesen, wie weit der NV41 wirklich könnte.

Der 6800NU PCI-E ist inzwischen preislich der Konkurrent der X800 PCI-E(12P). Da wären höhere Taktraten doch wirklich erwünschenswert. Die Übertaktungsversuche und Ergebnisse des NV41 von vielen Usern gehen damit scheinbar konform. Für 450MHz und 3 Quads in einem Notebook reicht 130nm LV @IBM IMO nicht mehr aus. Natürlich kann ich mich hier auch irren, aber selbst Wavey nimmt dies an.

robbitop
2005-02-27, 13:04:29
Und warum dann ein anderer Name?
Warum "G" statt "NV"?
Sorry, aber...

Razor

P.S.: Wer kommt bloß auf die Idee, dass ein purer Wechsel des Fertigungsprozesses, meinetwegen auch der Wechsel des Fertigers in einer neuen Chipbezeichnung resultieren muss? Nichts, aber auch gar nichts hat jemals und wird jemals auf solch einen Unfug hindeuten...

NV47 klingt halt blöd. Aber ich habe ja bereits gesagt, dass ich an dieser Möglichkeit nicht festhalte. Du brauchst also nicht versuchen, mich von etwas Anderem zu überzeugen ;)

Selbst NV45 hat einen eigenen Namen, obwohl es nur ein NV40 +HSI ist.
Der Wechsel einer Foundry, das Neukompilieren und die Optimierungen im Labor und ein Shrink sind IMO alle Mal wert, einen anderen Codenamen zu bekommen. Allein schon wegen der Verwechslungsgefahr. Siehe R480 und R430 ;) (130nm lowk und 110nm). Oder R423 und R480 (gleicher Prozess nur neues Tapeout). Oder R300 - R350 - R360. Oder NV35 - NV38.
Chips wurden schon wegen weniger umbenannt.

Razor
2005-02-27, 13:59:38
Chips wurden schon wegen weniger umbenannt.Ja?
Dafür hätt' ich gern ein Beispiel, wenn es nichts ausmacht.

Dass es einen neuen Codenamen gibt, wen beispielsweise das Bus-Interface geändert wird (AGP auf PCIe oder umgekehrt ;-) ist klar, da ja Specs, bzw. Features geändert wurden. Wenn aber das gesamte Leistungsspektrum völlig identisch bleibt, nur aber der Fertigungsprozeß geändert wird, gibt es kein neues Stepping... alles andere wäre außerordentlich unsinnig.

Razor

EDIT: 'leichte' Korrektur... ;)

Quasar
2005-02-27, 14:23:39
Ok, dann versuch ich's mal anders.-
Laut dem Bild beim Planet (http://www.planet3dnow.de/news_images/nv6600go5.jpg) brauch das 450MHz-Dingens maximal enorme 66,1W (max). Laut der Messungen von Xbit Labs (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_4.html) braucht eine ebenfalls 12-pipelinige GF6800 maximal ~39W (real) - selbst eine 6800GT zeigt sich da mit ~56W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_3.html) genügsamer als das "mobile Monster".

Das mobile Monster hat 25% weniger Pipes, die Saft verbraten, aber rund 28% mehr Takt - das dürfte sich in etwa die Waage halten (ob ROPS und VS eingespart wurden, weiß ich nicht). Trotzdem verbrät es 10W mehr Saft als eine ausgewachsene 6800GT inkl. aller Verluste, die noch auf dem PCB entstehen.
Das dürfte m.E. für den nicht als Stromwunder beworbenen 0,11µ-Prozess bei TSMC sprechen.

robbitop
2005-02-27, 14:26:23
Ja?
Dafür hätt' ich gern ein Beispiel, wenn es nichts ausmacht.

Dass es einen neuen Codenamen gibt, wen beispielsweise das Bus-Interface geändert wird (AGP auf PCIe oder umgekehrt ;-) ist klar, da ja Specs, bzw. Features geändert wurden. Wenn aber das gesamte Leistungsspektrum völlig identisch bleibt, nur aber der Fertigungsprozeß geändert wird, gibt es ein neues Stepping... alles andere wäre außerordentlich unsinnig.

Razor

bei keinem Meiner Beispiele gab es Unterschiede im Bus.

R423: 16p 6v PCI-E 130nm LowK
R480: 16p 6v PCI-E 130nm LowK (nur ein neues Stepping)
R430: 16p 6v PCI-E 110nm

merkst du was?

NV35 = NV38. immernoch nicht?

R300 = R350 hier?
R360 ist fast R350 (tempdiode).

So ungewöhnlich ist es nicht dass
NV41 = 130nm
NV42 = 110nm

so what???

robbitop
2005-02-27, 14:27:34
Ok, dann versuch ich's mal anders.-
Laut dem Bild beim Planet (http://www.planet3dnow.de/news_images/nv6600go5.jpg) brauch das 450MHz-Dingens maximal enorme 66,1W (max). Laut der Messungen von Xbit Labs (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_4.html) braucht eine ebenfalls 12-pipelinige GF6800 maximal ~39W (real) - selbst eine 6800GT zeigt sich da mit ~56W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_3.html) genügsamer als das "mobile Monster".

Das mobile Monster hat 25% weniger Pipes, die Saft verbraten, aber rund 28% mehr Takt - das dürfte sich in etwa die Waage halten (ob ROPS und VS eingespart wurden, weiß ich nicht). Trotzdem verbrät es 10W mehr Saft als eine ausgewachsene 6800GT inkl. aller Verluste, die noch auf dem PCB entstehen.
Das dürfte m.E. für den nicht als Stromwunder beworbenen 0,11µ-Prozess bei TSMC sprechen.

oder xbit mißt anders als NV. Aber deine Herangehensweise ist IMO ziemlich gut.

sdfds
2005-02-27, 14:37:53
die angegebenen leistungen der mobilen chips sind sicher maximalleistungen die real praktisch nie erreicht werden.

wenn man den mehrverbrauch mit dem mehrtakt linear annehmen und von 20% höherer spannung bei der ultra-version ausgehen (leistungssteigerung quadratisch zur spannung) ausgehen, und diese 20% braucht es sicher, beim desktop-nv40 braucht man für "nur" 23% mehr takt schon 16% mehr spannung, kommt man von der go6800 ausgehend beim chip genau auf den stromverbrauch der go 6800 ultra.

1,5-facher takt
1,2-fache spannung (angenommen)

1,5*1,2*1,2 macht 2,16-fachen stromverbrauch.

21,8W*2,16=47,088W (laut datenblatt 47,6W)
der mehrverbrauch lässt sich also ziemlich logisch erklären.

beim speicher wird es wohl etwas schwieriger, da wahrscheinlich bei der ultra gddr3 und mehr speicher verwendet wird, aber beim chip schaut es schon sehr nach dem gleichen chip aus.

robbitop
2005-02-27, 18:30:36
willst du dich demnächst nicht mal registrieren? :)

Razor
2005-02-27, 18:50:07
bei keinem Meiner Beispiele gab es Unterschiede im Bus.

R423: 16p 6v PCI-E 130nm LowK
R480: 16p 6v PCI-E 130nm LowK (nur ein neues Stepping)
R430: 16p 6v PCI-E 110nm

merkst du was?

NV35 = NV38. immernoch nicht?

R300 = R350 hier?
R360 ist fast R350 (tempdiode).

So ungewöhnlich ist es nicht dass
NV41 = 130nm
NV42 = 110nm

so what???Dass ATI soetwas macht, ist ja nichts Neues... die labeln ihre Chips ja einfach 'nur so' um. Und man munkelt, dass es von NV35 zu NV38 mehr Unterschiede gegeben hat, als 'nur' den höheren Takt.

so what???

Ausserdem reden 'wir' hier über den G70 und nicht über einen NV42...
Capiche?
;)

Razor

robbitop
2005-02-27, 23:01:19
Dass ATI soetwas macht, ist ja nichts Neues... die labeln ihre Chips ja einfach 'nur so' um. Und man munkelt, dass es von NV35 zu NV38 mehr Unterschiede gegeben hat, als 'nur' den höheren Takt.

so what???

Ausserdem reden 'wir' hier über den G70 und nicht über einen NV42...
Capiche?
;)

Razor

man munkelt also...? :|

zu 1.: Deine Aussage über das Labeln von Chips habe ich bereits bewertet und meine Meinung ausgedrückt und diese belegt. Wenn diese Belege insuffizient sind, tut es mir an dieser Stelle leid. Für mich ist hier EOD. :)

zu 2.: Es kann natürlich sein, dass ich mich nicht ein-eindeutig ausdrückte.
Ich redete nie davon GF6800U Go = G70. Ich legte lediglich dar, dass es eine Möglichkeit sei und dass es Waveys Idee sei. Ich war dessen nie überzeugt. Ich persönlich denke dass diese 6800U Go der NV42M ist. Sorry für das Missverständnis ;)

Somit ist von meiner Seite alles zu G70 und zu NV42 gesagt.

reunion
2005-02-28, 01:14:22
Ok, dann versuch ich's mal anders.-
Laut dem Bild beim Planet (http://www.planet3dnow.de/news_images/nv6600go5.jpg) brauch das 450MHz-Dingens maximal enorme 66,1W (max). Laut der Messungen von Xbit Labs (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_4.html) braucht eine ebenfalls 12-pipelinige GF6800 maximal ~39W (real) - selbst eine 6800GT zeigt sich da mit ~56W (http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_3.html) genügsamer als das "mobile Monster".

Das mobile Monster hat 25% weniger Pipes, die Saft verbraten, aber rund 28% mehr Takt - das dürfte sich in etwa die Waage halten (ob ROPS und VS eingespart wurden, weiß ich nicht). Trotzdem verbrät es 10W mehr Saft als eine ausgewachsene 6800GT inkl. aller Verluste, die noch auf dem PCB entstehen.
Das dürfte m.E. für den nicht als Stromwunder beworbenen 0,11µ-Prozess bei TSMC sprechen.

Jap, der 110nm prozess ist absolut ungeeignet für einen High-End Chip.

robbitop
2005-02-28, 08:11:24
Jap, der 110nm prozess ist absolut ungeeignet für einen High-End Chip.

da fehlt ein "IMO". Wir sprechen in ein paar Monaten nochmal darüber ;)

Ailuros
2005-02-28, 13:26:14
sign off speeds ...sign off speeds...
es geht um die Abhängigkeit Transistorcount - Taktrate.

Angegebene Transistoren-Anzahl ist genauso eine Sicherheitsmassnahme (in der Form einer Empfehlung) von der Fab, wie 'sign off-speed'. Die Entscheidungen und das damit verbundene Risiko ist danach eine Angelegenheit des IHVs.

Wenn Du nun wirklich glaubst dass TSMC als Beispiel ein maximum von ~100M fuer 150nm mit 500MHz empfehlen wuerde, be my guest.

Ailuros
2005-02-28, 13:36:50
Jap, der 110nm prozess ist absolut ungeeignet für einen High-End Chip.

Kommt ganz drauf um was es sich handelt.

robbitop
2005-02-28, 14:06:50
Angegebene Transistoren-Anzahl ist genauso eine Sicherheitsmassnahme (in der Form einer Empfehlung) von der Fab, wie 'sign off-speed'. Die Entscheidungen und das damit verbundene Risiko ist danach eine Angelegenheit des IHVs.

Wenn Du nun wirklich glaubst dass TSMC als Beispiel ein maximum von ~100M fuer 150nm mit 500MHz empfehlen wuerde, be my guest.

es geht mir nicht um Sign off oder irgendwelche Empfehlungen. Das ist alles Designabhängig und gefüllt mit zuvielen Faktoren. Mir geht es um Fakten und dieses genannte Verhältnis.

Ailuros
2005-02-28, 14:36:46
es geht mir nicht um Sign off oder irgendwelche Empfehlungen. Das ist alles Designabhängig und gefüllt mit zuvielen Faktoren. Mir geht es um Fakten und dieses genannte Verhältnis.

Design-abhaengig ist die korrekte Beschreibung, denn Transistoren =! Transistoren.

Viel Spass auf jeden Fall eine Formel zu finden die auf besagten "Fakten" basiert und Dir Design-unabhaengige Resultate geben wird in solchen Faellen.

Diese direkt/indirekt Haarspalterei ist sinnlos; die Realitaet wird Dir zeigen dass es verstaendliche Grenzen fuer alles geben wird, eben weil viel zu viele Faktoren mitspielen. Um den Brei herumreden koennen wir lange.

robbitop
2005-02-28, 14:40:55
Design-abhaengig ist die korrekte Beschreibung, denn Transistoren =! Transistoren.

Viel Spass auf jeden Fall eine Formel zu finden die auf besagten "Fakten" basiert und Dir Design-unabhaengige Resultate geben wird in solchen Faellen.

Diese direkt/indirekt Haarspalterei ist sinnlos; die Realitaet wird Dir zeigen dass es verstaendliche Grenzen fuer alles geben wird, eben weil viel zu viele Faktoren mitspielen. Um den Brei herumreden koennen wir lange.

mit dieser Aussage kann ich konform gehen :up:

reunion
2005-02-28, 16:03:02
Ich poste das mal hier rein.

NV48 is NV45 with 512MB RAM. Same clocks, same name, same as it ever was.

http://www.the-inquirer.net/?article=21476

Godmode
2005-02-28, 16:32:22
Sie wird keinen neue Namen bekommen, also wird einfach GF6800U 512mb heisen. Also haben sie noch 6850, 6900, 6950 für weitere Chips offen! Wenn NV47 wirklich ein 6 Quad Monster wird, passt aber 6900 irgendwie nicht so wirklich! Vielleicht wird das dann wirklich die Generation 7 = G70 könnte passen aber naja wir werdens schon noch früh genug erfahren!

Godmode
2005-03-01, 23:07:15
von Sony gibts noch was, was G70 im Namen trägt:
http://www.ivci.com/videoconferencing_sony_pcs-g70.html

stickedy
2005-03-01, 23:31:28
Das ist ja toll, aber was haben jetzt irgendwelche Sony Produkte, die tw schon Jahre auf dem Markt sind, mit aktuellen inf-Einträgen eines nVidia-Treibers zu tun? :rolleyes:

Godmode
2005-03-02, 00:04:00
Weil wir am Anfang in diese Richtung spekuliert haben, dass es irgendwas von Sony sein könnte! Natürlich ist es unwahrscheinlich, warum sollte es für irgend ein Sony Endgerät WindowsXP Treiber geben? Aber ich habs halt einfach mal reingeschrieben, damit der Thread nicht ausstirbt!

ShadowXX
2005-03-02, 08:58:33
Weil wir am Anfang in diese Richtung spekuliert haben, dass es irgendwas von Sony sein könnte! Natürlich ist es unwahrscheinlich, warum sollte es für irgend ein Sony Endgerät WindowsXP Treiber geben? Aber ich habs halt einfach mal reingeschrieben, damit der Thread nicht ausstirbt!

Das es nichts mit dem G70 von Sony zu tun hat, haben wir aber auch ebenfalls am Anfang des Threads schon geklärt.....

r@w
2005-03-02, 12:30:13
Das es nichts mit dem G70 von Sony zu tun hat, haben wir aber auch ebenfalls am Anfang des Threads schon geklärt.....Ja... es aber durchaus etwas mit einer nVidia-Entwicklung für Sony zu tun haben könnte...
:D

Razor

reunion
2005-03-02, 14:11:01
Ja... es aber durchaus etwas mit einer nVidia-Entwicklung für Sony zu tun haben könnte...
:D

Razor

Und was hat das in einem Windows-Treiber zu suchen?

ShadowXX
2005-03-02, 14:15:49
Ja... es aber durchaus etwas mit einer nVidia-Entwicklung für Sony zu tun haben könnte...
:D

Razor

Klar....ich glaube auch, das es damit etwas zu tun hat....nur eben nicht mit diesem komischen Projektor von 1997.

Momentan stelle ich mich die Frage, ob das G70 für einen "Zwischenchip"* (also quasi einen Aufgebohrten nv4x für PS3-Entwickler) oder schon für den "Final" steht.

Wenns ein "Zwischenchip" ist, könnte dieser auch nebenbei als Reaktion auf den r520 "abfallen"....wenn denn überhaupt eine Reaktion auf den r520 nötig ist.

*Mit "Zwischenchip" ist ein 24Pipe/16Rop Design des nv40 ala "nv47" gemeint.
Vielleicht gibt es sogar nur aus diesem Grund das Gerücht um einen nv47....

Razor
2005-03-02, 18:28:07
Klar....ich glaube auch, das es damit etwas zu tun hat....nur eben nicht mit diesem komischen Projektor von 1997.100% ACK!

Momentan stelle ich mich die Frage, ob das G70 für einen "Zwischenchip"* (also quasi einen Aufgebohrten nv4x für PS3-Entwickler) oder schon für den "Final" steht.Ähmmm... Entwickler-Kits für PS3-Developer?
Die Nomenklatur läßt hingegen vermuten, dass nVidia da schon eine ganze Serie mit dem G70 ins Leben ruft...

Wenns ein "Zwischenchip" ist, könnte dieser auch nebenbei als Reaktion auf den r520 "abfallen"....wenn denn überhaupt eine Reaktion auf den r520 nötig ist.Das wiederum glaube ich keinesfalls.
Der Gegner des R520 wird der NV48... weils vermutlich einfach reicht.

Der NV50 wäre vermutlich einfach zu früh für den Markt (analog dem R300 ohne DX9 damals) und wenn wir uns die 'Lücke' einfach mal anschaun':
- NV4x - derzeitige Generation
- NV5x - next Gen mit WGF2
- NV6x - ein wenig 'Luft' nach oben ;-)
...
Tjo... vielleicht einen G70 in totaler Ablösung bisheriger Architekturen, der jetzt für die Cell-basierende Konsole PS3 entwickelt wird. Ich persönlich vermute im derzeitigen G70 einen NV50, der sich so meldet... mit einem speziellen Treiber, um einen G70 zu 'emulieren'. Ist aber selbstverständlich reine Spekulation... die aber IMO Sinn machen würde.

Insofern ist ein G70 schon ein NV50 (und damit DIE Generation 7 ;-)... aber eben nicht so, wie die meisten hier denken.
Got it?
:D

*Mit "Zwischenchip" ist ein 24Pipe/16Rop Design des nv40 ala "nv47" gemeint.
Vielleicht gibt es sogar nur aus diesem Grund das Gerücht um einen nv47....Vermutlich wird es einen NV47 gar nicht geben... IMO.
Es wird einen NV48 als Refresh des NV40/45 geben, der entweder mit Bridge AGP- oder ohne PCIe-basierend sein wird (Flip-Bridge-Chip sei dank ;-). Und der NV50 wird kommen, wenn Microschrott endlich soweit ist...

Wirklich gespannt bin ich auf den Grafics/Media-Chip für ein Cell-basierendes System.

Razor

robbitop
2005-03-02, 18:56:14
@razor
interessant und durchdachte Spekulation :up:

Godmode
2005-03-02, 19:00:58
Was hat das eigentlich zu bedeuten, wenn gleich mehrere Einträge im Treiber sind? Sind das verschiedene Steppings/Samples/Versionen?

Razor
2005-03-02, 19:10:24
Was hat das eigentlich zu bedeuten, wenn gleich mehrere Einträge im Treiber sind? Sind das verschiedene Steppings/Samples/Versionen?Verschiedene Versionen...
So z.Bsp. 6800LE, 6800, 6800GT und 6800U sind auch vier verscheidene Einträge.
Der Zusatz 'GL' deutet auf Workstation-Ausrichtung (Quadros z.Bsp.)...

Razor

P.S.: Und nur, um o.g. zu ergänzen: schon öfters fanden sich Einträge in den Treibern, die NIE zu einem tatsächlich erhältlichen Produkt gehörten.

Godmode
2005-03-02, 19:12:50
Also könnte es einfach nur ein Link seitens nVidia sein?

ShadowXX
2005-03-02, 19:32:04
Ähmmm... Entwickler-Kits für PS3-Developer?
Die Nomenklatur läßt hingegen vermuten, dass nVidia da schon eine ganze Serie mit dem G70 ins Leben ruft...

Das wiederum glaube ich keinesfalls.
Der Gegner des R520 wird der NV48... weils vermutlich einfach reicht.

Der NV50 wäre vermutlich einfach zu früh für den Markt (analog dem R300 ohne DX9 damals) und wenn wir uns die 'Lücke' einfach mal anschaun':
- NV4x - derzeitige Generation
- NV5x - next Gen mit WGF2
- NV6x - ein wenig 'Luft' nach oben ;-)
...
Tjo... vielleicht einen G70 in totaler Ablösung bisheriger Architekturen, der jetzt für die Cell-basierende Konsole PS3 entwickelt wird. Ich persönlich vermute im derzeitigen G70 einen NV50, der sich so meldet... mit einem speziellen Treiber, um einen G70 zu 'emulieren'. Ist aber selbstverständlich reine Spekulation... die aber IMO Sinn machen würde.

Insofern ist ein G70 schon ein NV50 (und damit DIE Generation 7 ;-)... aber eben nicht so, wie die meisten hier denken.
Got it?
:D

Vermutlich wird es einen NV47 gar nicht geben... IMO.
Es wird einen NV48 als Refresh des NV40/45 geben, der entweder mit Bridge AGP- oder ohne PCIe-basierend sein wird (Flip-Bridge-Chip sei dank ;-). Und der NV50 wird kommen, wenn Microschrott endlich soweit ist...

Wirklich gespannt bin ich auf den Grafics/Media-Chip für ein Cell-basierendes System.

Razor

Ja, hört sich wirklich nicht schlecht an.

Ich hab mich vielleicht mit "Zwischchip" etwas blöd ausgedrückt.
Das mit dem nv47 war nur so ein Randgedanke, eigentlich war die Frage die mir sich stellte, ob nV den PS3-Chip schon so weit hat, das diese in Entwicklerkits "eingebaut" werden können oder ob der G70 mehr eine Vorstufe von diesem ist, damit die Entwickler überhaupt schonmal was haben.

Aber du hast Recht....dagegen spricht, dass Sie quasi schon eine vollständige Produktpalette aufgeführt haben....

Und ja, auch ich glaube, dass ein nv48 wohl gegen den r520 reichen wird.

Vielleicht sind die G70 Einträge auch nur im Treiber um ATI etwas "Angst" zu machen...nach dem Motto:"Guckt mal wie weit wir schon sind....."

Ailuros
2005-03-03, 03:46:26
Insofern ist ein G70 schon ein NV50 (und damit DIE Generation 7 ;-)... aber eben nicht so, wie die meisten hier denken.
Got it?

Erstens haben sich mehr als einer interner Codename geaendert und zweitens ist das was Du unter "NV50" verstehst, laeuft immer noch auf Simulatoren, es gibt noch kein Silizium. Wie viele verschieden Eintraege genau gibt es fuer G70 in den letzten Treibern?

Der Gegner des R520 wird der NV48... weils vermutlich einfach reicht.

Nein es reicht eben nicht.

***edit: unter der Vorraussetzung natuerlich dass Ihr unter NV48 einen hoeher getakteten NV40 meint. Von dem Zeug gibt es schon geleakte Leistungs-zahlen und es verstaerkt nur die obrige negative Antwort.

robbitop
2005-03-03, 08:31:46
nein hier wird gemeint NV48 = NV47 ;)
also das was du als den 6 Quad NV40 siehst.

Ailuros
2005-03-03, 12:42:37
nein hier wird gemeint NV48 = NV47 ;)
also das was du als den 6 Quad NV40 siehst.

Dann entschuldige ich mich fuer's Missverstaendnis.

robbitop
2005-03-03, 12:46:20
ich frage mich, wie man dafür sorgen will, dass diesen Monstern nicht die Bandbreite ausgeht. Die ist ja jetzt schon knapp bemessen. Sonst würde die Leistung nur in Spielen mit vielen Texturlagen (UT2004) und/oder viel AF/Pixelshading durchschlagen.

reunion
2005-03-03, 12:57:37
Hm, hat der Nforce 4 Intel Edition eine integriete Grafikeinheit?
Mir fällt sonst nichts ein was kurz vor der veröffentlichung steht und etwas in den Windows-Treiber zu suchen hätte.

An einen Desktopgrafikchip glaube ich nicht, dieser würde sich NVxx nennen und der PS3 Chip hat nichts in Windows-Treibern verloren.

Godmode
2005-03-03, 14:04:52
Hm, hat der Nforce 4 Intel Edition eine integriete Grafikeinheit?
Mir fällt sonst nichts ein was kurz vor der veröffentlichung steht und etwas in den Windows-Treiber zu suchen hätte.

An einen Desktopgrafikchip glaube ich nicht, dieser würde sich NVxx nennen und der PS3 Chip hat nichts in Windows-Treibern verloren.

Nein hat er nicht, dass hat der Nvidia CEO bestätigt, weis aber jetzt den Link nicht mehr!

Ailuros
2005-03-03, 14:47:37
ich frage mich, wie man dafür sorgen will, dass diesen Monstern nicht die Bandbreite ausgeht. Die ist ja jetzt schon knapp bemessen. Sonst würde die Leistung nur in Spielen mit vielen Texturlagen (UT2004) und/oder viel AF/Pixelshading durchschlagen.

Um hoehere PS/AF Leistung (u.a.) geht es ja auch im Grund, bis sie sich dann etwas spaeter GDDR3 ersetzen koennen. Normalerweise duerften beide Loesungen auch fuer andere Speicher kompliant sein (late 2005/early 2006).

HahnimKorb
2005-03-03, 17:17:51
Um hoehere PS/AF Leistung (u.a.) geht es ja auch im Grund, bis sie sich dann etwas spaeter GDDR3 ersetzen koennen. Normalerweise duerften beide Loesungen auch fuer andere Speicher kompliant sein (late 2005/early 2006).

Naja, aus meiner Sicht stellt sich folgendes Problem: GDDR3 mit mehr als 700MHz scheint nicht so wirklich, vor allem in Massen, in Sicht zu sein.

Dadurch ergeben sich mehrere Möglichkeiten:

a) Man hebt sich GDDR3 700+ MHz bis zur nächsten Generation oder Refresh bei Nvidia/ATI auf und wartet einfach gezwungenermassen bis es in Massen verfügbar ist.

b) Man wartet auf GDDR4. Keine Ahnung wie weit die Spezifikation dort ist, falls überhaupt.

c) Man verbreitert das Speicherinterface, auf zB 384Bit, was aber Grafikchips und PCBs verkomplizieren und teurer machen würde. Dafür kann man relativ "langsames" RAM verbauen und ist nicht den Speicherherstellern auf Gedeih und Verderb ausgeliefert.

d) Es wird RDRAM bei NV60/R600 eingesetzt, was wahrscheinlich aber auch nicht einfachere PCBs bringt wenn ich so an i850 Platinen zurückdenke. Preislich und vom Produktionsvolumen müsste sich da wahrscheinlich auch ganz stark was tun.

Godmode
2005-03-03, 17:30:02
e) es wird XDR-RAM verwendet, der aber auch noch nicht wirklich verfügbar ist und leider von RAMBUZ ist, die jeden klagen den sie nur können!

Razor
2005-03-03, 17:54:51
Erstens haben sich mehr als einer interner Codename geaendert und zweitens ist das was Du unter "NV50" verstehst, laeuft immer noch auf Simulatoren, es gibt noch kein Silizium. Wie viele verschieden Eintraege genau gibt es fuer G70 in den letzten Treibern?Jetzt bin ich mir nicht ganz sicher, was Du jetzt mit "NV50" meinst...
Ich meinte damit den 'echten' NV50, der derzeit als Basis für 'G70'-Betrachtungen dient.
(ergo: ein durchaus existierender WGF2-Chip, der den 'G70' emuliert ;-)

Und zu Deiner Frage:
%NVIDIA_G70.DEV_0090.1% = nv4_NV3x, PCI\VEN_10DE&DEV_0090
%NVIDIA_G70.DEV_0091.1% = nv4_NV3x, PCI\VEN_10DE&DEV_0091
%NVIDIA_G70.DEV_0092.1% = nv4_NV3x, PCI\VEN_10DE&DEV_0092
%NVIDIA_G70.DEV_0093.1% = nv4_NV3x, PCI\VEN_10DE&DEV_0093
%NVIDIA_G70.DEV_0094.1% = nv4_NV3x, PCI\VEN_10DE&DEV_0094
%NVIDIA_G70.DEV_009D.1% = nv4_WSApps_NV3x, PCI\VEN_10DE&DEV_009D
%NVIDIA_G70.DEV_009E.1% = nv4_WSApps_NV3x, PCI\VEN_10DE&DEV_009E7 Einträge... 5x 'consumer', 2x 'workstation'.

Nein es reicht eben nicht.

***edit: unter der Vorraussetzung natuerlich dass Ihr unter NV48 einen hoeher getakteten NV40 meint. Von dem Zeug gibt es schon geleakte Leistungs-zahlen und es verstaerkt nur die obrige negative Antwort.Das dürfte ja nun geklärt sein...
Ein 24 Piper (6 Quads) mit 'normaler' Taktung.
Vermutlich mit 256MB .:und:. 512MB selbstverständlich...

...vielleicht deswegen ja die 'Verwirrung' vom TINQ, weils sowohl einen NV40/45, als auch einen NV48 mit 512MB geben wird.

Razor

Mistvieh
2005-03-03, 20:52:34
Heut is doch der neue Forveware erschienen. Da wären die G70 Einträge laut CB verschwunden

http://www.computerbase.de/news/treiber/grafikkarten/2005/maerz/nvidia_forceware_7184/

reunion
2005-03-03, 20:54:30
Heut is doch der neue Forveware erschienen. Da wären die G70 Einträge laut CB verschwunden

http://www.computerbase.de/news/treiber/grafikkarten/2005/maerz/nvidia_forceware_7184/

Kein Wunder, der Treiber ist auch älter als der in dem die Einträge gefunden wurde.

Jesus
2005-03-03, 21:10:43
100% ACK!

Ähmmm... Entwickler-Kits für PS3-Developer?
Die Nomenklatur läßt hingegen vermuten, dass nVidia da schon eine ganze Serie mit dem G70 ins Leben ruft...

Das wiederum glaube ich keinesfalls.
Der Gegner des R520 wird der NV48... weils vermutlich einfach reicht.

Der NV50 wäre vermutlich einfach zu früh für den Markt (analog dem R300 ohne DX9 damals) und wenn wir uns die 'Lücke' einfach mal anschaun':
- NV4x - derzeitige Generation
- NV5x - next Gen mit WGF2
- NV6x - ein wenig 'Luft' nach oben ;-)
...
Tjo... vielleicht einen G70 in totaler Ablösung bisheriger Architekturen, der jetzt für die Cell-basierende Konsole PS3 entwickelt wird. Ich persönlich vermute im derzeitigen G70 einen NV50, der sich so meldet... mit einem speziellen Treiber, um einen G70 zu 'emulieren'. Ist aber selbstverständlich reine Spekulation... die aber IMO Sinn machen würde.

Insofern ist ein G70 schon ein NV50 (und damit DIE Generation 7 ;-)... aber eben nicht so, wie die meisten hier denken.
Got it?
:D

Vermutlich wird es einen NV47 gar nicht geben... IMO.
Es wird einen NV48 als Refresh des NV40/45 geben, der entweder mit Bridge AGP- oder ohne PCIe-basierend sein wird (Flip-Bridge-Chip sei dank ;-). Und der NV50 wird kommen, wenn Microschrott endlich soweit ist...

Wirklich gespannt bin ich auf den Grafics/Media-Chip für ein Cell-basierendes System.

Razor

Ich denke nicht dass es den Chip der für die PS3 benutzt wird jemals für den PC gebene wird, weil es vermutlich ein sehr stark abgespeckter Chip sein wird der sehr Tief ins System eingebettet ist.

Coda
2005-03-03, 21:12:37
sehr stark abgespeckter ChipBei den Pixelshadern wohl kaum....

Demirug
2005-03-03, 21:23:41
Also dieser "G70" ist auch im Controlpanel hinterlegt. nVidia hat in also nicht nur mal schnell in die inf eingefügt.

Mistvieh
2005-03-03, 21:37:57
@reunion

ups..lesen bildet....

Ailuros
2005-03-04, 02:09:20
www.beyond3d.com

Earlier NVIDIA held a Financial Analysts Session at Credit Suisses’ First Boston Semiconductor & Capital Equipment Conference, and as is often the case a few details could be gleaned on their upcoming parts. When asked of the high end refreshes for both Spring and Fall NVIDIA's Vice President of Investor Relations and Communications, Michael Hara had this to say:

“Well, from an architecture standpoint we’re just still at the beginning of shader model 3.0. And we need to give the programmers out there some time to continue to really learn about that architecture. So in the spring refresh what you’ll see is a little bit faster versions...

...I think you’ll see the industry move up a little bit in performance. But I don’t think you’ll see any radical changes in architecture. I doubt you’ll see any radical changes in architecture even in the fall. When we came out with GeForce 6, we tend to create a revolutionary architecture about every actually two years. And then we derive from it for the following time. So even the devices that we announced this fall, that will be I think a lot more powerful than the ones we actually had a year ago. Architecturally we’re still in the shader model three type era.”

Although it appears that NVIDIA have been tweaking their codenames, and we don’t yet know exactly how they are internally classifying these new parts we can surmise that the Spring part mentioned is what has previously been rumoured to be “NV47” whilst the fall product could be what was previously thought to be known as NV50. NVIDIA have said before that the GeForce 6 generation could last for 3 years in the low end, whilst there will be a slightly greater architectural shift in the high end in the intervening time period and, given these timescales, we had previously surmised that this high end refresh would still be Shader Model 3.0 based, possibly bring more flexibility, architectural performance benefits and being more orthogonal, and at present this would still appear to be the case.

On the discussion of silicon process nodes Mike later mentioned this: “If you look at when we go to 90, my guess will be is we’ll have one or two products this year going from 90 in the second half”. On the face of it this would tend to confirm our suspicions that the Spring refresh will be 110nm based, as much of the GeForce 6 product line is now, whilst the high end fall product will likely be 90nm.

One question that does remain is that of the graphics for Playstation 3 as NVIDIA have already stated that the graphics is an alteration on their next generation part. Given that the design for a console part must be finished many months before the product is due to ship should Sony be seeking an early 2006 ship date the feature capabilities may match up with the Fall product which would suggest Shader Model 3.0 equivelent capabilities.

Razor,

Jetzt bin ich mir nicht ganz sicher, was Du jetzt mit "NV50" meinst...
Ich meinte damit den 'echten' NV50, der derzeit als Basis für 'G70'-Betrachtungen dient.
(ergo: ein durchaus existierender WGF2-Chip, der den 'G70' emuliert ;-)

Ich sprach von einem Simulator und nicht von brauchbarem Silizium.

Ich hab ueber die Anzahl der Eintraege mit Absicht gefragt weil:

a) Eine Simulation nichts mit dem Zeug zu tun hat und schon gar nicht mit 7 verschiedenen device-IDs von nicht existierendem Silizium.

b) Sagt Dir dass hier was? nv4_NV3x.

Siehe auch im Zusammenhang zu Hara's Kommentaren. 90nm bedeutet nicht unbedingt einen WGF2.0 chip, bevor noch jemand zu schnell zu Schlussvolgerungen kommt.

***edit: WGF2.0 fuer beide IHVs ~2. Halbjahr 2006, oder eben fast zur gleichen Zeit mit der Longhorn Vorstellung.

Ailuros
2005-03-04, 02:20:14
Naja, aus meiner Sicht stellt sich folgendes Problem: GDDR3 mit mehr als 700MHz scheint nicht so wirklich, vor allem in Massen, in Sicht zu sein.

Dadurch ergeben sich mehrere Möglichkeiten:

a) Man hebt sich GDDR3 700+ MHz bis zur nächsten Generation oder Refresh bei Nvidia/ATI auf und wartet einfach gezwungenermassen bis es in Massen verfügbar ist.

b) Man wartet auf GDDR4. Keine Ahnung wie weit die Spezifikation dort ist, falls überhaupt.

c) Man verbreitert das Speicherinterface, auf zB 384Bit, was aber Grafikchips und PCBs verkomplizieren und teurer machen würde. Dafür kann man relativ "langsames" RAM verbauen und ist nicht den Speicherherstellern auf Gedeih und Verderb ausgeliefert.

d) Es wird RDRAM bei NV60/R600 eingesetzt, was wahrscheinlich aber auch nicht einfachere PCBs bringt wenn ich so an i850 Platinen zurückdenke. Preislich und vom Produktionsvolumen müsste sich da wahrscheinlich auch ganz stark was tun.

Vorruebergehend Deine (a) Option und danach XDR (siehe bans3i's Kommentar). Genau aus dem Grund sagten ja viele im vorigen Jahr, dass man vorsichtig sein sollte mit dem R520-am-Anfang-des-Jahres-release-Geruechten ;)

r@w
2005-03-04, 09:13:15
Also dieser "G70" ist auch im Controlpanel hinterlegt. nVidia hat in also nicht nur mal schnell in die inf eingefügt.Womit ein "Fake" ausgeschlossen sein dürfte...

Razor

r@w
2005-03-04, 09:41:39
www.beyond3d.comWenn ich das richtig sehe: einige interessante Fakten, aber ansonsten nur unbrauchbare Spekulationen...

Ich sprach von einem Simulator und nicht von brauchbarem Silizium.[]Schon klar... ich aber nicht.

Ich hab ueber die Anzahl der Eintraege mit Absicht gefragt weil:

a) Eine Simulation nichts mit dem Zeug zu tun hat und schon gar nicht mit 7 verschiedenen device-IDs von nicht existierendem Silizium.Ich rede von existierendem Silizium und des weiteren von einer Emulationsbasis, welche durchaus in der Lage sein sollte, alles, was angedacht ist (consumer Low- bis High-End und auch professionelle Karten) zu maskieren...

b) Sagt Dir dass hier was? nv4_NV3x. Klar... das heißt lediglich, dass die Installation des Treibers der des NV3x gleicht... nicht mehr. Der Code-Path im Treiber selbst kann/ist ein völlig anderer (wie dies ja auch bei FX vs. 6x der Fall ist).

Siehe auch im Zusammenhang zu Hara's Kommentaren. 90nm bedeutet nicht unbedingt einen WGF2.0 chip, bevor noch jemand zu schnell zu Schlussvolgerungen kommt.

***edit: WGF2.0 fuer beide IHVs ~2. Halbjahr 2006, oder eben fast zur gleichen Zeit mit der Longhorn Vorstellung.Da Longhorn eigentlich schon 2005 erscheinen sollte und die IHV's ca. 2 Jahre Vorlauf für eine neue Architektur (hier SM4) benötigen, kann ich Deine Argumentation beim besten Willen NICHT nachvollziehen.

Wäre Longhorn schon mitte diesen Jahres da (wie angekündigt) gäbe es Grafikkarten, die dessen Potential auch nutzen können. Und damit dieses möglich sein kann, muss es fast zwangsläufig schon jetzt (ca. 3 Monate vor ursprüglichem Release) lauffähiges Silizium geben... alles andere wäre sinnfrei.

Dass offiziell von nVidia was anderes kommt, ist verständlich, denn warum soll ich im Herbst neues 'HighEnd' kaufen, wenn dieses im Prinzip schon zum alten Eisen gehört?

Wie dem auch sei, der Refresh-Chip wird der NV48 mit 6 Quads sein, was für einen 'netten' Leistungsschub gut sein und ATI in Schach halten dürfte. Der NV48 ist keinesfalls ein "NV50", weil es architektonisch ja keine Änderungen ggü dem NV40 gibt, sondern lediglich 2 Quads dazu 'gepackt' wurden. Evtl. gibt's halt noch das eine oder andere Marketing-Gimmik und ein paar Fehlerbereinigungen.

Ansonsten düfte sich in nVidias Hardware-Entwicklung ALLES auf den NextGen bzw. Sonys Derivat konzentrieren, weil der "NV50" schon seit einiger Zeit 'fertig' ist und derzeit einfach nur 'geparkt' ist, bis Microschrott in die Hufe kommt.

Razor

robbitop
2005-03-04, 09:52:38
Wäre Longhorn schon mitte diesen Jahres da (wie angekündigt) gäbe es Grafikkarten, die dessen Potential auch nutzen können. Und damit dieses möglich sein kann, muss es fast zwangsläufig schon jetzt (ca. 3 Monate vor ursprüglichem Release) lauffähiges Silizium geben... alles andere wäre sinnfrei.

Dass offiziell von nVidia was anderes kommt, ist verständlich, denn warum soll ich im Herbst neues 'HighEnd' kaufen, wenn dieses im Prinzip schon zum alten Eisen gehört?

Wie dem auch sei, der Refresh-Chip wird der NV48 mit 6 Quads sein, was für einen 'netten' Leistungsschub gut sein und ATI in Schach halten dürfte. Der NV48 ist keinesfalls ein "NV50", weil es architektonisch ja keine Änderungen ggü dem NV40 gibt, sondern lediglich 2 Quads dazu 'gepackt' wurden. Evtl. gibt's halt noch das eine oder andere Marketing-Gimmik und ein paar Fehlerbereinigungen.

Ansonsten düfte sich in nVidias Hardware-Entwicklung ALLES auf den NextGen bzw. Sonys Derivat konzentrieren, weil der "NV50" schon seit einiger Zeit 'fertig' ist und derzeit einfach nur 'geparkt' ist, bis Microschrott in die Hufe kommt.

Razor

DX10 aka WGF2 sollte aber AFAIK nicht mit dem Ursprünglichen Longhorn im Jahre 2004 kommen. Das sollte vorerst eine Art DX9 sein.

Ack was NV48/47 or what ever angeht.

Man kann ein Design nicht mal eben "parken". Das veraltet doch sonst (siehe R400). Man könnte das Grunddesign auf den Simulatoren lassen und später einen Respin mit mehr Rechenpower bringen.

reunion
2005-03-04, 11:03:23
Wäre Longhorn schon mitte diesen Jahres da (wie angekündigt) gäbe es Grafikkarten, die dessen Potential auch nutzen können. Und damit dieses möglich sein kann, muss es fast zwangsläufig schon jetzt (ca. 3 Monate vor ursprüglichem Release) lauffähiges Silizium geben... alles andere wäre sinnfrei.


Man weiss schon lange das Longhorn später erscheint.
Ich glaube nicht das irgendein IHV schon einen lauffähigen WGF 2.0 Chip hat.


Wie dem auch sei, der Refresh-Chip wird der NV48 mit 6 Quads sein[...]

[...] weil der "NV50" schon seit einiger Zeit 'fertig' ist und derzeit einfach nur 'geparkt' ist, bis Microschrott in die Hufe kommt.


Stell' bitte nicht immer deine Spekulationen als Tatsachen hin.

robbitop
2005-03-04, 11:07:02
natürlich sind das seine Spekulationen. Sowas geistert schon lange durchs Netz und auf das aktuelle Interview und den neuen R520 bezogen scheint ein 6 Quad NV4x mit leichten Verbesserungen (Crossbarlogik bsw) erscheint das Ganze schon sehr wahrscheinlich. NV ist mit einem neuen Fertigungsprozess auf die Nase geflogen und geht nun andere Wege.

TruPlaya_UB
2005-03-04, 11:49:16
ihr spekuliert immer das tollste und beste was es gibt =)

Ich denke es handelt sich um einen Handychip oder für kleine tragbare Devices......net mehr und net weniger

Würde das Ding G20 heissen, dann würden wohl alle tippen das es ein NV20 für Handy´s wäre......

Ist zwar ein Spekuforum aber weltfremd sollte man nicht werden =)

robbitop
2005-03-04, 11:53:24
ein windowstreiber für einen Handychip also...soviel zu "weltfremd" :|

r@w
2005-03-04, 13:20:33
DX10 aka WGF2 sollte aber AFAIK nicht mit dem Ursprünglichen Longhorn im Jahre 2004 kommen. Das sollte vorerst eine Art DX9 sein.Schon Ende 2003 'wusste' man, dass Longhorn mit Avalon und WGF2 erst Mitte 2005 kommen wird (und wie sich ja nun heraus stellte... noch sehr viel später ;-).

Man kann ein Design nicht mal eben "parken". Das veraltet doch sonst (siehe R400). Man könnte das Grunddesign auf den Simulatoren lassen und später einen Respin mit mehr Rechenpower bringen.Klar kann man. Das dürfte sogar noch nach Tape-Out möglich sein, was immer noch kostengünstiger wäre, als die Massenproduktion anlaufen zu lassen und dann keine Basis für ein Produkt vorzufinden (wie zuerst ja mit dem R300 von ATI geschehen).

Razor

r@w
2005-03-04, 13:20:46
Man weiss schon lange das Longhorn später erscheint.
Ich glaube nicht das irgendein IHV schon einen lauffähigen WGF 2.0 Chip hat.'Glauben' heißt nicht 'Wissen', gell?
:D

Stell' bitte nicht immer deine Spekulationen als Tatsachen hin.ALLES, was hier gesagt wird, ist erst einmal nur Spekulation.
Oder ist Dir der Ort dieses Thread nicht gegenwärtig?
:confused:

Razor

ShadowXX
2005-03-04, 13:26:03
ein windowstreiber für einen Handychip also...soviel zu "weltfremd" :|

Nicht nur das.....es würde heissen, das es "endlich" Quadro-Chips für Handys gibt, damit unsere CAD-Leute auch unterwegs "malen" können.

Der G70 kann alles mögliche sein, aber ein Handy-Chip ist es bestimmt nicht.

Da auch der Mobil-Chip weggefallen ist (siehe anderen Thread) und der G70 auch im Einstellungsfeld von nV integriert wurde, bleibt eigentlich nicht mehr viel übrig.

Es muss quasi ein Desktop-Chip sein...jetzt ist eigentlich nur noch die Frage welcher?

reunion
2005-03-04, 13:30:32
'Glauben' heißt nicht 'Wissen', gell?
:D


Richtig, das gilt allerdings auch für dich. ;)

Warum sollte nV ein Tapeout vom NV50 machen wenn man ihn noch gar nicht braucht?
Ich streite auch gar nicht ab dass das Design schon fertig sein könnte (auch wenn ich es nicht glaube), funktionierendes Silizium ist allerdings äußerst unwarscheindlich.


ALLES, was hier gesagt wird, ist erst einmal nur Spekulation.
Oder ist Dir der Ort dieses Thread nicht gegenwärtig?
:confused:

Razor

Doch, nur sollte man seinen schreibstil auch den gegebenheiten anpassen.

mapel110
2005-03-04, 13:32:16
hm, na immerhion scheint jetzt sicher zu sein, dass nvidia auf den R520 reagiert.

reunion
2005-03-04, 13:37:54
Nicht nur das.....es würde heissen, das es "endlich" Quadro-Chips für Handys gibt, damit unsere CAD-Leute auch unterwegs "malen" können.

Der G70 kann alles mögliche sein, aber ein Handy-Chip ist es bestimmt nicht.

Da auch der Mobil-Chip weggefallen ist (siehe anderen Thread) und der G70 auch im Einstellungsfeld von nV integriert wurde, bleibt eigentlich nicht mehr viel übrig.

Es muss quasi ein Desktop-Chip sein...jetzt ist eigentlich nur noch die Frage welcher?

Ja, nur warum G70?
G70 hat absolut garnichts mit den bis jetzt verwendeten bezeichungen zu tun, sodass an dem Chip irgendwas "anders" sein muss.

Oder es ist einfach eine reine PR-Aktion.

Winter[Raven]
2005-03-04, 13:39:22
hm, na immerhion scheint jetzt sicher zu sein, dass nvidia auf den R520 reagiert.

War das nicht zu erwarten? *lechz*

r@w
2005-03-04, 13:45:52
Ja, nur warum G70?
G70 hat absolut garnichts mit den bis jetzt verwendeten bezeichungen zu tun, sodass an dem Chip irgendwas "anders" sein muss.Klar ist es was "anderes"...
Darüber spekulieren wir hier ja!

Oder es ist einfach eine reine PR-Aktion.Definitiv nein!
Das Panel des Treibers reagiert offenbar auf einen "G70", wie Demirug schon heraus fand.

Und da sich der Bezug zu diesem Chip auch noch in einem äusserst aktuellen Treiber wiederfindet (der eigentlich gar nicht zur aktuellen Line gehört und bis dato nur gutes zu zeigen vermag ;-), sind eben der Spekulation Tor und Tür geöffnet. Hier paßt die Entwicklung eines Media-Prozessors für Sony eben ausgesprochen gut... wie auch die die grundlegende Anpassung der internen Chip-Bezeichnung.

Schaun' mer mal... denn hier sind ja wohl nicht alle blind!
:D

Razor

r@w
2005-03-04, 13:47:38
Doch, nur sollte man seinen schreibstil auch den gegebenheiten anpassen.Für Dich?
Ganz sicher nicht...

Jeder hier dürfte wissen, um was es geht.

Razor

reunion
2005-03-04, 13:50:51
Und da sich der Bezug zu diesem Chip auch noch in einem äusserst aktuellen Treiber wiederfindet (der eigentlich gar nicht zur aktuellen Line gehört und bis dato nur gutes zu zeigen vermag ;-), sind eben der Spekulation Tor und Tür geöffnet. Hier paßt die Entwicklung eines Media-Prozessors für Sony eben ausgesprochen gut... wie auch die die grundlegende Anpassung der internen Chip-Bezeichnung.


Und warum ist ein Media-Prozessors für Sony in einem Windows-Treiber integriert?

mapel110
2005-03-04, 13:57:55
']War das nicht zu erwarten? *lechz*

Zumindest nicht bereits im 2.Quartal, da es ja sehr wenig Infos bislang gibt.

robbitop
2005-03-04, 14:01:34
Klar kann man. Das dürfte sogar noch nach Tape-Out möglich sein, was immer noch kostengünstiger wäre, als die Massenproduktion anlaufen zu lassen und dann keine Basis für ein Produkt vorzufinden (wie zuerst ja mit dem R300 von ATI geschehen).

Razor

Das wäre aber eine echte Notbremsenlösung. Soweit war NV50 IMO noch nicht.

Ailuros
2005-03-04, 14:34:51
Wenn ich das richtig sehe: einige interessante Fakten, aber ansonsten nur unbrauchbare Spekulationen...

Hara's Aussagen Spekulationen?

r@w
2005-03-04, 14:35:47
Und warum ist ein Media-Prozessors für Sony in einem Windows-Treiber integriert?Tjo... DAS wäre doch mal wirklich interessant, nicht wahr?
(wenn es denn so ist ;-)

Aber dazu habe ich hier schonmal was zum besten gegeben...

Razor

r@w
2005-03-04, 14:36:35
Hara's Aussagen Spekulationen?Nicht Hara's Aussagen, sondern die Spekulationen durmherum im B3D-Forum...

Razor

r@w
2005-03-04, 14:37:36
Das wäre aber eine echte Notbremsenlösung. Soweit war NV50 IMO noch nicht.Klar wäre es das... und teuer zudem.
Aber vielleicht zieht nVidia nun doch einen Vorteil daraus...

Razor

Ailuros
2005-03-04, 14:49:29
Klar ist es was "anderes"...
Darüber spekulieren wir hier ja!

Speak for yourself ;)

Es gab noch nicht mal ein tape-out fuer jegliches erste 90nm Produkt und wir reden hier immer noch ueber SM3.0 Komplianz.

Da Longhorn eigentlich schon 2005 erscheinen sollte und die IHV's ca. 2 Jahre Vorlauf für eine neue Architektur (hier SM4) benötigen, kann ich Deine Argumentation beim besten Willen NICHT nachvollziehen.

Shaders bitte fuer WGF2.0. Von dem abgesehen es haben sich die roadmaps seither genauso bei NV als auch bei ATI geaendert und daher originiert auch der falsch aufgefasste Bloedsinn vom Inquirer.

Dass offiziell von nVidia was anderes kommt, ist verständlich, denn warum soll ich im Herbst neues 'HighEnd' kaufen, wenn dieses im Prinzip schon zum alten Eisen gehört?

Weil es stets etwa 2 Jahre von jetzt ab zwischen Generationen brauchen wird. ATI verkauft auch altes Eisen mit der R4xx-Linie und verkauft sich sogar immer noch sehr gut; noch dazu wird vergleichsmaessig R520 genauso altes Eisen zu jeglichem NV4x sein (in relativem Sinn).

Wie dem auch sei, der Refresh-Chip wird der NV48 mit 6 Quads sein, was für einen 'netten' Leistungsschub gut sein und ATI in Schach halten dürfte. Der NV48 ist keinesfalls ein "NV50", weil es architektonisch ja keine Änderungen ggü dem NV40 gibt, sondern lediglich 2 Quads dazu 'gepackt' wurden. Evtl. gibt's halt noch das eine oder andere Marketing-Gimmik und ein paar Fehlerbereinigungen.

Potentielle Spekulanten verwenden fuer den 6 quad chip normalerweise NV47; ich erwaehne mit Absicht jeglichen Codenamen ab NV45 mit Anfuehrungsstrichen. Dieses Jahr wird es nur NV4x Abschlaege geben und den erwarteten WGF2.0 chip erst ~Mitte naechsten Jahres.

Nochmal Hara's genaues Zitat:

“Well, from an architecture standpoint we’re just still at the beginning of shader model 3.0. And we need to give the programmers out there some time to continue to really learn about that architecture. So in the spring refresh what you’ll see is a little bit faster versions...

...I think you’ll see the industry move up a little bit in performance. But I don’t think you’ll see any radical changes in architecture. I doubt you’ll see any radical changes in architecture even in the fall. When we came out with GeForce 6, we tend to create a revolutionary architecture about every actually two years. And then we derive from it for the following time. So even the devices that we announced this fall, that will be I think a lot more powerful than the ones we actually had a year ago. Architecturally we’re still in the shader model three type era.”

Und ich kann mich leider nur auf oeffentliche Aussagen beziehen.

Goooooaaaaaast
2005-03-04, 14:49:44
wäre e auc hdenkbar da vielleicht ne mutigpu graka gemeint ist(2oder mehr chips auf einem board).
vielleicht auch nich über das bisherige nvidia sli verfahren sondern über was anderes(was weiß ich)
nur sone idee sorry wenn ich hier müll fabriziere :)

Goooooaaaaaast
2005-03-04, 14:50:48
wäre es auch denkbar da vielleicht ne multi-gpu graka gemeint ist(2oder mehr chips auf einem board).
vielleicht auch nich über das bisherige nvidia sli verfahren sondern über was anderes realisiert(was weiß ich)
nur sone idee sorry wenn ich hier müll fabriziere :)

PS:sorry für dieses kauderwelch im vorigen post ;)

Ailuros
2005-03-04, 14:55:25
Nicht Hara's Aussagen, sondern die Spekulationen durmherum im B3D-Forum...

Razor

Und diese (**edit: Hara's Aussagen) sind klarer als alles andere, und bis jetzt in absoluter Abstimmung zu jeglicher anderen "off the record" Aussage, die aber das Licht der Oeffentlichkeit nicht sehen darf.

Ailuros
2005-03-04, 14:59:53
wäre es auch denkbar da vielleicht ne multi-gpu graka gemeint ist(2oder mehr chips auf einem board).
vielleicht auch nich über das bisherige nvidia sli verfahren sondern über was anderes realisiert(was weiß ich)
nur sone idee sorry wenn ich hier müll fabriziere :)

PS:sorry für dieses kauderwelch im vorigen post ;)

Es gibt schon von Gigabyte eine dual chip 6600GT und ist eine Initiative des vendors selber. Ob realisiert als multi-chip oder multi-board Loesungen chips von NVIDIA werden auch weiterhin skalierbar sein, der Markt fuer solche Produkte (ueberhaupt im high end) ist sowieso klein, wird aber womoeglich auch in der Zukunft existieren.

r@w
2005-03-04, 16:13:16
Och menno... wir reden hier echt aneinader vorbei...

Es gab noch nicht mal ein tape-out fuer jegliches erste 90nm Produkt und wir reden hier immer noch ueber SM3.0 Komplianz.Was soll denn bitte das eine mit dem anderen zu tun haben?
:confused:

Weil es stets etwa 2 Jahre von jetzt ab zwischen Generationen brauchen wird. ATI verkauft auch altes Eisen mit der R4xx-Linie und verkauft sich sogar immer noch sehr gut; noch dazu wird vergleichsmaessig R520 genauso altes Eisen zu jeglichem NV4x sein (in relativem Sinn).Wier kommst Du auf "von jetzt ab"?

Potentielle Spekulanten verwenden fuer den 6 quad chip normalerweise NV47; ich erwaehne mit Absicht jeglichen Codenamen ab NV45 mit Anfuehrungsstrichen. Dieses Jahr wird es nur NV4x Abschlaege geben und den erwarteten WGF2.0 chip erst ~Mitte naechsten Jahres.Klar wird's den WGF2-Chip erst zum Longhorn Launch geben...
Hat hier irgendwer etwas anderes behauptet?

Nochmal Hara's genaues Zitat:

Und ich kann mich leider nur auf oeffentliche Aussagen beziehen.Und?
Da steht nix anderes, als dass es dieses Jahr keine bahnbrechende, achitektonische Änderung geben wird... erst nächstens Jahr zum Longhorn Launch (hatten wir ja schon, gell ;-).

Was ist daran jetzt so besonderes?
Oder meinst Du, dass ich der Meinung bin, dass ein "G70" schon 2005 das Licht der Welt erblicken wird?
Neee... nicht Dein ernst, oder?
:D

Ich meine:
- demnächst NV48 (6 Quad NV40/45)
- Sommer 2006 einen WGF2-Chip (vermutlich nicht den 'jetzigen' "NV50", sondern eine Weiterentwicklung dessen ;-)
- in 2007 dann einen "G70", welcher auf dem Media-Prozessor für Sonys Cell-Konsole PS3 basiert

Aber... und das ist der Grund für 'meine' G70-Spekulation:
Schon jetzt wird es "G70"-Emulatoren geben, die IMO auf dem 'alten' NV50 basieren, um sicher zu stellen, dass 2006 auch Spiele da sind, die auf der PS3 laufen.

Klar ist's nur eine Spekulation, aba... eine sehr interessante, wie ich finde!
Die einzige Unstimmigkeit scheint hier zu sein, ob es bereits "NV50"-Silizium gibt, oder nicht.

Razor

robbitop@work
2005-03-04, 16:15:15
und warum sollte es dann bereits jetzt G70 Einträge geben?

reunion
2005-03-04, 16:34:27
und warum sollte es dann bereits jetzt G70 Einträge geben?

Eben, sieben Einträge im Treiber versprechen eine kurz bevorstehende veröffentlichung.

Tütenraucher
2005-03-04, 17:27:57
Weiterer Spekulatius: G70 ist im Treiber gelistet weil es der NV50 ist und davon vielleicht eine Handvoll existieren. Warum? Würdest du als Sony einen Chip lizensieren den du nicht in Aktion gesehen hast und der nur auf dem Papier und im Simulator existiert? Das Dingen muss auch noch produziert werden. Treten Probleme bei der Fertigung oder Ausbeute auf die du mit einem simulierten oder Paperchip noch nicht vorhersehen kannst, dann kann Sony den geplanten Markteintritt vergessen und das wäre verdammt bitter.

Ausserdem, der NV40 ist zwar gut aber nicht WGF2 kompatibel. Sony wäre dämlich wenn sie sich das "WGF2" oder "designed for Longhorn" Logo für Portierungen nur durch Versprechungen seitens Nvidia garantieren lassen, speziell nach dem NV30 Debakel.

Weiterhin, es wurde gesagt, dass der PS3 Chip sich aus Teilen des NV40 und Techniken des NV50 zusammensetzt. Das bedeutet, er muss schon ziemlich weit oder sogar fertig sein. Andernfalls wäre höchstwahrscheinlich "nur" vom NextGenChip gesprochen worden und der NV50 wäre _nicht_ konkret genannt worden.

Alles imho natürlich :)

Coda
2005-03-04, 17:29:36
Der PS3 Chip ist es sicher nicht, weil der gar kein PCIe Businterface hat, etc.

Ein Design lässt sich auch sehr gut im Simulator beurteilen, weißt du was ein Tapeout kostet? Nur für ein paar Samplechips für Sony macht man das sicher nicht.

speziell nach dem NV30 Debakel.Das Debakel entstand durch unglückliche Eigenschaften der DX9 API und nicht durch die Unfähigkeit von nVidia Ingineuren.
Der Shader Durchsatz wäre mit FX12 nämlich wahrscheinlich sogar höher gewesen als der von R300. Nur leider erlaubt DX9 solche Shader ja nicht (außer mit verkrüppeltem PS 1.4 Interface)

Tütenraucher
2005-03-04, 17:44:53
Der PS3 Chip ist es sicher nicht, weil der gar kein PCIe Businterface hat, etc.

Ein Design lässt sich auch sehr gut im Simulator beurteilen, weißt du was ein Tapeout kostet? Nur für ein paar Samplechips für Sony macht man das sicher nicht.

Das Debakel entstand durch unglückliche Eigenschaften der DX9 API und nicht durch die Unfähigkeit von nVidia Ingineuren.
Der Shader Durchsatz wäre mit FX12 nämlich wahrscheinlich sogar höher gewesen als der von R300. Nur leider erlaubt DX9 solche Shader ja nicht (außer mit verkrüppeltem PS 1.4 Interface)

Ich habe nicht gesagt, dass es der PS3 Chip ist. Es könnte der NV50 sein um etwas in der Hand zu haben.

Wieviel Nvidia durch den PS3 Deal verdient, wissen wir nicht, aber mit der zu erwartenden Laufzeit der PS3 dürfte es den Gewinn dadurch auch nicht soooo viel schmälern und da Cell ja auch bei IBM produziert wird, dürfte das Tapeout für den NV50 wahrscheinlich auch nicht so viel gekostet haben.
IBM dürfte auch daran interessiert sein, möglichst viele Cell CPUs mit der PS3 abzusetzen. Da würde ich als IBM doch Nvidia einen Sonderpreis beim Tapeout machen um sicherzustellen, dass die PS3 als Ganzes ein großer Wurf wird und es letztlich nicht an der GPU krankt.

Das NV30 Debakel in dem Sinn, das man 1. zuviel gewagt hat und 2. im Nachhinein dem NV30 Beine machen musste was alles zusammen immens Zeit gekostet hat. Weder IBM noch Sony noch Nvidia dürften an einer Verzögerung wirklich interessiert sein.

Ailuros
2005-03-05, 03:33:22
Die einzige Unstimmigkeit scheint hier zu sein, ob es bereits "NV50"-Silizium gibt, oder nicht.

Es gibt eben noch keins. Und natuerlich reden wir mit dem Rest um den Brei rum.

Einfachere Frage: wieso sollte ungefaehr >1 Jahr vor einer moeglichen Veroeffentlichung irgendwelches Silizium verfuegbar sein?

Schon jetzt wird es "G70"-Emulatoren geben, die IMO auf dem 'alten' NV50 basieren, um sicher zu stellen, dass 2006 auch Spiele da sind, die auf der PS3 laufen.

Uhmmm welcher "alter NV50" genau? Die Aenderungen der roadmap fanden noch statt, als besagtes Design noch auf Papier existierte.

-------------------------------------------------------------------

Zur PS3 Technologie ist es noch zu frueh; obwohl es oeffentliche Aussagen gibt dass die GPU auf NV's naechster Generation basieren wird, kann das eventuell vieles heissen.

Vergleichsmaessig kann ich auch behaupten dass die Xenon GPU auf ATI's R6xx-Architektur basiert. Sieht mir aber eher nach SM3.0 mit vereinten Einheiten aus ; von einem Geometrie Shader hab ich fuer das Ding noch nichts gehoert.

Ailuros
2005-03-05, 03:39:14
Ein Design lässt sich auch sehr gut im Simulator beurteilen, weißt du was ein Tapeout kostet? Nur für ein paar Samplechips für Sony macht man das sicher nicht.


True.

Mit welchen GPUs liefen die ersten test-samples der kommenden M$ Consolen noch mal vor einiger Zeit?

Coda
2005-03-05, 11:17:30
Radeon 9800 AFAIK... jetzt wird's wohl ein X800+ sein inzwischen

James Ryan
2005-03-10, 11:07:42
Neuigkeiten bezüglich G70 sind HIER (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/maerz/cebit05_nvidia_g70_ende_april/) zu finden.

MfG :cool:

Adam D.
2005-03-10, 11:27:59
Jo, nach dem Artikel von CB lässt sich folgendes sagen:

- Refresh Chip vom NV40
- Wechsel von IBM zu TSMC --> Höhere Taktraten
- Kleine Änderungen an der Architektur
- Zusätzliche Pipelines
- Und es wird dieses Jahr noch 'ne neue Serie geben, wahrscheinlich GeForce 7
- Erwartet wird G70 Ende April

Also so wie ich's mir irgendwie gedacht habe.

ShadowXX
2005-03-10, 11:58:26
Jo, nach dem Artikel von CB lässt sich folgendes sagen:

- Refresh Chip vom NV40
- Wechsel von IBM zu TSMC --> Höhere Taktraten
- Kleine Änderungen an der Architektur
- Zusätzliche Pipelines
- Und es wird dieses Jahr noch 'ne neue Serie geben, wahrscheinlich GeForce 7
- Erwartet wird G70 Ende April

Also so wie ich's mir irgendwie gedacht habe.

Trotzdem wäre mal interessant zu erfahren, warum das Ding als Codenamen "G70" und nicht "nv4irgendetwas" hat.....

Gaestle
2005-03-10, 12:07:47
Neuigkeiten bezüglich G70 sind HIER (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/maerz/cebit05_nvidia_g70_ende_april/) zu finden.

MfG :cool:


Wie gut ist die CB normalerweise unterrichtet?

Grüße

Adam D.
2005-03-10, 12:08:37
Vielleicht wegen dem Wechsel von IBM zu TSMC? Ich glaube auch nicht, dass die GeForce 7 wieder irgendwas mit "NV" im Codename hat...Sonst wäre das ja total sinnlos, das Namenwechseln.

robbitop
2005-03-10, 12:09:39
Trotzdem wäre mal interessant zu erfahren, warum das Ding als Codenamen "G70" und nicht "nv4irgendetwas" hat.....
NV47 klingt anhand der bisherigen Namensstruktur halt nicht sehr fortschrittlich. NV50 wäre normalerweise der nächste Schritt. Da der aber verschoben wurde, kam der NV47 vieleicht recht "kurzfristig". G70 klingt doch gleich besser.

reunion
2005-03-10, 12:38:28
Also G70 ist gleich NV40@130nm lowk TSMC mit nativem PCIe Interface?
Ob man damit gegen den bereits in 90nm lowk gefertigten R520 ankommt?

Allerdings wurden meine Spekulationen IMO bestätigt, 110nm taugt nicht für einen High-End-Chip, und da man sich mit 90nm offensichtlich noch nicht sicher genug ist bleibt nur 130nm lowk. Was zumindest eine deutliche Taktsteigerung ermöglichen sollte (siehe R420), nur rechne ich dann nicht mit zusätzlichen Quads, da die 222mio Transistoren des NV40 schon ziemlich an der grenze des machbaren mit 130nm liegen sollten.

DrumDub
2005-03-10, 12:46:24
interssant ist, dass nvidia jetzt "vorprescht" mit dem g70. wissen die vielleicht doch mehr über den r520 als ati lieb ist?

seahawk
2005-03-10, 12:46:44
Das ist relativ. Wenn sie den Takt halten oder verringern, dann könnten sie Quads hinzufügen.

ShadowXX
2005-03-10, 12:48:08
NV47 klingt anhand der bisherigen Namensstruktur halt nicht sehr fortschrittlich. NV50 wäre normalerweise der nächste Schritt. Da der aber verschoben wurde, kam der NV47 vieleicht recht "kurzfristig". G70 klingt doch gleich besser.

Klar...aber wenn der nächste dann wieder nv5x heisst, wirkt G70 irgendwie merkwürdig.

Allerdings sind mir im Zusammenhang mit Computer & Co schon mehr als eine merkwürdige Sache aufgefallen.... :rolleyes:

reunion
2005-03-10, 12:59:07
Das sit realtiv. Wenn sie den Takt halten oder verringern, dann könnten sie Quads hinzufügen.

Weisst du wie groß das DIE des NV40 jetzt schon ist?
Durch die Fertigung mit TSMCs 130nm lowk Prozess sollte da auch nochmal was dazukommen, da TSMC die SRAM-Zellen nicht so eng packen kann wie IBM (sieht man ja am R420). Und bezahlbar soll das ganze auch noch werden. Für die zurzeit spekulierten 24pipes würde man annähernd 300mio Transistoren benötigen was mit dem 130nm lowk Prozess IMO nicht billig genug realisierbar ist.

reunion
2005-03-10, 13:01:18
interssant ist, dass nvidia jetzt "vorprescht" mit dem g70. wissen die vielleicht doch mehr über den r520 als ati lieb ist?

Glaub ich nicht. Sie wissen logischerweise das R520 schneller sein wird als NV40 und R420 wodurch als konsequenz eben der G70 folgt.

robbitop
2005-03-10, 13:14:24
Allerdings wurden meine Spekulationen bestätigt, 110nm taugt nicht für einen High-End-Chip, und da man sich mit 90nm offensichtlich noch nicht sicher genug ist bleibt nur 130nm lowk.
Wo wurden diese bestätigt? Füge ein IMO in die Aussage, dann ists ok ;)
Denn wir alle kennen uns IMO nicht annähernd detailiert genug mit der Halbleiterfertigungstechnik aus, um solche Aussagen definitiv treffen zu können.

btw: 300Mio Transistoren @130nm halte ich für Utopie.

reunion
2005-03-10, 13:18:32
Wo wurden diese bestätigt. Füge ein IMO in die Aussage, dann ists ok ;)
Denn wir alle kennen uns IMO nicht annähernd detailiert genug mit der Halbleiterfertigungstechnik aus, um solche Aussagen definitiv treffen zu können.


Stimmt, erledigt :)


btw: 300Mio Transistoren @130nm halte ich für Utopie.

ACK

seahawk
2005-03-10, 13:22:03
interssant ist, dass nvidia jetzt "vorprescht" mit dem g70. wissen die vielleicht doch mehr über den r520 als ati lieb ist?

Ja, sie wissen inzwischen wahrscheinlich das Releasadate. Keiner von beiden kann es sich erlauben nicht eine neue Karte auf den Markt zu bringen, wenn der Mitbewerber eine auf den Markt bringt. Mit der heute schon relativ alten 6800Ultra gegen ne neue X900XT antreten ist Marketingselbstmord.

robbitop
2005-03-10, 13:25:12
naja der NV47 ist wie auch der R520 schon länger in Planung. Das geht nicht von heute auf morgen. So hört sich das hier nämlich an.

seahawk
2005-03-10, 13:25:23
Weisst du wie groß das DIE des NV40 jetzt schon ist?
Durch die Fertigung mit TSMCs 130nm lowk Prozess sollte da auch nochmal was dazukommen, da TSMC die SRAM-Zellen nicht so eng packen kann wie IBM (sieht man ja am R420). Und bezahlbar soll das ganze auch noch werden. Für die zurzeit spekulierten 24pipes würde man annähernd 300mio Transistoren benötigen was mit dem 130nm lowk Prozess IMO nicht billig genug realisierbar ist.

Wer geht denn gleich von 6 Quads aus ? Wie wäre es mit 5 Quads bei 400-450Mhz. Sicherlich an der Grenze des Prozesses, aber für einen Ultra-Hogh-End-Karte denkbar.
Davon ausgehend, dass ATI bei einem 4 Quaddesign bleibt, müßten sie schon von von 500MHZ auf 625 MHZ kommen. Was imho denkbar ist.

DrumDub
2005-03-10, 13:25:27
Ja, sie wissen inzwischen wahrscheinlich das Releasadate. Keiner von beiden kann es sich erlauben nicht eine neue Karte auf den Markt zu bringen, wenn der Mitbewerber eine auf den Markt bringt. Mit der heute schon relativ alten 6800Ultra gegen ne neue X900XT antreten ist Marketingselbstmord.

was dabei interssant ist, ob nvidia wieder als erster vorstellt wie beim nv40.

seahawk
2005-03-10, 13:29:01
naja der NV47 ist wie auch der R520 schon länger in Planung. Das geht nicht von heute auf morgen. So hört sich das hier nämlich an.

Natürlich, ich vermute sogar, dass der NV47 / G70 relativ lange feststeht. NV wird den Release allerdings an den R520 anpassen.

Gründe :

a) Als alleiniger Anbieter von SM3.0 Hardware braucht man gegenwärtig nicht reagieren. SLI bedient den Ultra-High-End-Markt.

b) Kommen Sie deutlich vor ATI raus könnte ATI versuchen die Taktraten seines R520 anzupassen.

Imho wird es wie fast immer sein. Beide Karten kommen annährend zeitgleich.

robbitop
2005-03-10, 13:37:24
Wer geht denn gleich von 6 Quads aus ? Wie wäre es mit 5 Quads bei 400-450Mhz. Sicherlich an der Grenze des Prozesses, aber für einen Ultra-Hogh-End-Karte denkbar.
Davon ausgehend, dass ATI bei einem 4 Quaddesign bleibt, müßten sie schon von von 500MHZ auf 625 MHZ kommen. Was imho denkbar ist.

Wenn schon denn schon. Ich denke sie brauchen mindestens die 6 Quads und ein bisschen mehr Takt. R520 wird schon einen nennenswerten Sprung hinlegen IMO.

ShadowXX
2005-03-10, 13:51:58
Wenn schon denn schon. Ich denke sie brauchen mindestens die 6 Quads und ein bisschen mehr Takt. R520 wird schon einen nennenswerten Sprung hinlegen IMO.

Wenn der r520 tatsächlich zu grossen Teilen auf dem grundlegenden r300-Design basiert (was ja die meisten annehmen), glaube ich nicht, das der r520 wesentlich mehr Performance haben wird als ein x850xt/pe.(Bei gleichem Takt)

Hier ein paar Verbesserungen, da und dort etwas Speed-Einbuße durch Umstellungen..

Sie werden durch den 90nm-Prozess aber wohl an der Taktschraube drehen können, woher dann wohl auch der grösste Teil des Speedzuwachses kommen wird.

nV ist praktisch "gezwungen" auch mehr Takt oder mehr Pipes zu bieten....es kommt dann eigentlich nur noch darauf an, was besser zu bewerkstelligen ist.

Was übrigens auch nv47/48 erklären könnte...nv48 als "Takterhöhungsversuch" und nv47 als "Pipeerhöhungsversuch".

seahawk
2005-03-10, 13:52:17
Also ist Deiner Meinung nach auch ein 6 Quad-Design ? Nur über eine erneute Taktsteigerung kann ich mir keine 50% mehr Leistung mehr vorstellen. Wir würden dann über 750Mhz reden.

ShadowXX
2005-03-10, 13:58:28
Also ist Deiner Meinung nach auch ein 6 Quad-Design ? Nur über eine erneute Taktsteigerung kann ich mir keine 50% mehr Leistung mehr vorstellen. Wir würden dann über 750Mhz reden.

Ist zwar wohl an Robbi gerichtet, aber wie ich oben schon erwähnte, glaube ich das ATI nur über den Takt und weniger über die Architektur Speed gewinnen wird.

Ich tippe beim r520-Gegner aber inzwischen fast nur noch auf mehr Takt....deshalb wohl low-k bei TMSC.

Wenn Sie den nv4irgendetwas/G70 auf 500-550MHz bringen können, könnte ich mir durchaus vorstellen, das der Abstand zum r520 in etwas dem jetzigen abstand nv40 -> r420/480 beträgt.

Das wird nV wohl bis zum nv50 (oder wie der dann auch immer heissen wird...G100 (<-kleiner scherz)) reichen.

reunion
2005-03-10, 14:13:23
Wenn der r520 tatsächlich zu grossen Teilen auf dem grundlegenden r300-Design basiert (was ja die meisten annehmen), glaube ich nicht, das der r520 wesentlich mehr Performance haben wird als ein x850xt/pe.(Bei gleichem Takt)


Naja, so viel kann man vom R300 angesichts der SM3.0-Fähigkeit nicht mehr mitgenommen haben.
Viel intressanter finde ich die Frage wieviel man vom R500 mitgenommen hat.


Hier ein paar Verbesserungen, da und dort etwas Speed-Einbuße durch Umstellungen..


Die zusätzlichen Features kosten Transistoren, aber keinen Speed.


Sie werden durch den 90nm-Prozess aber wohl an der Taktschraube drehen können, woher dann wohl auch der grösste Teil des Speedzuwachses kommen wird.


Jap, R520 wird mit hoher warscheindlichkeit ein 4 Quad Design mit >=650mhz Chiptakt.


nV ist praktisch "gezwungen" auch mehr Takt oder mehr Pipes zu bieten....es kommt dann eigentlich nur noch darauf an, was besser zu bewerkstelligen ist.


Falls das mit 130nm lowk stimmen sollte dürfte es um eine Transistorenerhöhung nicht so gut bestellt sein IMO.

Gaestle
2005-03-10, 15:04:04
Aber irgendwie passt das doch alles gar nicht zu der Aussage von NV irgenwelchen Analysen gegenüber, dass im Frühjahr ein Refresh mit kleinen Verbesserungen, und im Herbst/Winter eine Refresh mit Änderungen in der Architektur (aber SM3) kommen soll.

Das würde doch auf den 6-quad-Chip gegen Ende2005 deuten und nicht jetzt schon, oder? Warum nimmt NV von ihrer Namenspolitik abstand? NV25 zu NV28 bzw. NV35 zu NV38 ist da mal irgendwas anderes außer Takt passiert? Warum dann also diesmal ein neuer Name?

Für wie glaubhaft haltet ihr die CB-News? Kann es sein, dass die ziemlich falsch liegen?

Grüße...

ShadowXX
2005-03-10, 15:15:56
Aber irgendwie passt das doch alles gar nicht zu der Aussage von NV irgenwelchen Analysen gegenüber, dass im Frühjahr ein Refresh mit kleinen Verbesserungen, und im Herbst/Winter eine Refresh mit Änderungen in der Architektur (aber SM3) kommen soll.

Das würde doch auf den 6-quad-Chip gegen Ende2005 deuten und nicht jetzt schon, oder? Warum nimmt NV von ihrer Namenspolitik abstand? NV25 zu NV28 bzw. NV35 zu NV38 ist da mal irgendwas anderes außer Takt passiert? Warum dann also diesmal ein neuer Name?

Für wie glaubhaft haltet ihr die CB-News? Kann es sein, dass die ziemlich falsch liegen?

Grüße...

Frag Quasar....von Ihm kommt der CB-Text.

reunion
2005-03-10, 15:43:45
Aber irgendwie passt das doch alles gar nicht zu der Aussage von NV irgenwelchen Analysen gegenüber, dass im Frühjahr ein Refresh mit kleinen Verbesserungen, und im Herbst/Winter eine Refresh mit Änderungen in der Architektur (aber SM3) kommen soll.

Das würde doch auf den 6-quad-Chip gegen Ende2005 deuten und nicht jetzt schon, oder? Warum nimmt NV von ihrer Namenspolitik abstand? NV25 zu NV28 bzw. NV35 zu NV38 ist da mal irgendwas anderes außer Takt passiert? Warum dann also diesmal ein neuer Name?

Für wie glaubhaft haltet ihr die CB-News? Kann es sein, dass die ziemlich falsch liegen?

Grüße...

Hört sich für mich ziemlich sicher an:

Der im durchgesickerten ForceWare 75.90 bereits gelistete G70-Chipsatz von nVidia wird den von uns bereits angesprochenen Refresh der NV4x-Architektur darstellen und gegen Ende April vorgestellt werden.

Gaestle
2005-03-10, 16:00:46
Hört sich für mich ziemlich sicher an:

Der im durchgesickerten ForceWare 75.90 bereits gelistete G70-Chipsatz von nVidia wird den von uns bereits angesprochenen Refresh der NV4x-Architektur darstellen und gegen Ende April vorgestellt werden.

Der Verweis auf vergangene Besprechungen passt aber IMHO nicht so recht, weil der NV48 bislang lediglich als 512MB-VRAM-fähiger NV45 gesehen wurde (oder ich habe nicht den richtigen CB-Artikel gefunden).
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/februar/nv48_512-mb-karten/



Grüße

DrumDub
2005-03-10, 16:08:05
Der Verweis auf vergangene Besprechungen passt aber IMHO nicht so recht, weil der NV48 bislang lediglich als 512MB-VRAM-fähiger NV45 gesehen wurde (oder ich habe nicht den richtigen CB-Artikel gefunden).
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/februar/nv48_512-mb-karten/


wie wissen aber, dass das nicht stimmt mit dem nv48, da der nv40 schon 2gb ram adressieren kann.

reunion
2005-03-10, 16:13:52
wie wissen aber, dass das nicht stimmt mit dem nv48, da der nv40 schon 2gb ram adressieren kann.

Was ist NV48 dann?
Im Forceware 76.10 findet man drei intressante Einträge:

NVIDIA_NV48.DEV_0211.1 = "NVIDIA GeForce 6800 "
NVIDIA_NV48.DEV_0212.1 = "NVIDIA GeForce 6800 LE "
NVIDIA_NV48.DEV_0215.1 = "NVIDIA GeForce 6800 GT "


Also nach einem wirklich neuen Chip schauts nicht aus.
Im übrigen fehlt im 76.10er auch der Eintrag für den G70.

MechWOLLIer
2005-03-10, 16:15:03
Für wie glaubhaft haltet ihr die CB-News? Kann es sein, dass die ziemlich falsch liegen?
Grüße...
Für sehr glaubhaft, da das ganze von NV selbst kommt:)

DrumDub
2005-03-10, 16:23:14
Was ist NV48 dann?


ein refresh des nv40, bei dem auch der vp funktioniert? ich weiß es nicht. auf jeden fall ist der nv48 nicht notwendig, damit grakas mit 512mb ram auf nv4x basis gebaut werden können.

robbitop
2005-03-10, 16:52:24
Was ich glaube:

-NVIDIA hat die Nase voll von Risiken besonders im Fertigungsbereich
-NVIDIA sagte neulich selbst, dass es 90nm Parts erst viel später von ihnen geben wird
-130nm läßt nicht mehr als 4 Quads beim NV4x zu
-130nm lowk läßt IMO nicht genug an Mehrtakt beim 4 Quad NV4x zu, um mit R520 mithalten zu können. Selbst R420 kam mit einem relativ inkomplexem Design nur bis 540MHz. Das wird IMO nicht reichen.
-NVIDIA hat mit NV4x bereits ein sehr fortschrittliches SM3 Design
-der NV-Refresh wird gegen R520 antreten müssen
-NV4x ist superskalar und kann somit sehr sehr Problemlos im Pixelbereich hochskalliert werden
-der Refresh wird mehr Quads haben
-ich gehe von 6 Quads aus (für mehr reicht die Bandbreite nicht)
-ATI wird über den Takt gehen (für mehr Quads reicht die Bandbreite nicht)
-wie bekommt NV mehr Quads bei gleicher Fläche? 110nm.

Ergo:

R520: >600MHz 4xSM3 Quads 90nm NexSys Prozess
NV40: >400MHz 6xSM3 Quads 110nm TSMC

sowas munkeln derzeit viele und ich halte es für wahrscheinlich und logisch passend. Dass 110nm dafür nicht geeignet ist, kann man IMO nicht definitiv sagen. Dazu fehlen die Kenntnisse.

Wir werden es ja bald sehen..

DrumDub
2005-03-10, 17:02:01
robbitop

klingt logisch. bei 400mhz sind auch 110nm kein problem.

Tortenheber
2005-03-10, 17:22:00
NV48 ist das Gegenstück zum R480 würde ich sagen.
- Höhere Taktraten (ca. 500MHz+ imo)
- Fehler sind ausgemerzt (VP, Tonemapping, ?)
- generelle Verbesserungen (mehr Leistung/MHz?)
- vielleicht kühlere Chips dank low-k? (damit wären dann DualGPU Karten auf Ultra-Basis relativ problemlos möglich)

Es wundert mich allerdings, dass im Treiber keine Ultra gelistet ist.

Positive Nebeneffekte für Nvidia:

- ausgereifter Prozess
- wahrscheinlich ausreichend freie Kapazitäten bei TSMC dank R520@90nm?
- bei IBM werden Kapazitäten für PS3 Grafikchip frei?

Ob es billiger oder teurer ist/wird weiß ich nicht, zumindest ist IBM ja nicht gerade ein Sonderangebot, von daher könnte der NV48 bei TSMC sogar billiger sein obwohl low-k verwendet wird.

Alles Speku und imho natürlich :)

stav0815
2005-03-10, 17:23:47
Was ich glaube:

[...]

R520: >600MHz 4xSM3 Quads 90nm NexSys Prozess
NV40: >400MHz 6xSM3 Quads 110nm TSMC



wieso muss der Refresh 6 Quads haben? Der Rest wär mir so auch schon durch den Kopf gegangen, nur warum unbedingt 6 Quads ?

reunion
2005-03-10, 17:32:18
wieso muss der Refresh 6 Quads haben? Der Rest wär mir so auch schon durch den Kopf gegangen, nur warum unbedingt 6 Quads ?
Um gegen R520, der dank 90nm mit recht hohen Taktraten auftrumpfen wird bestehen zu können.

Hauwech
2005-03-10, 17:36:55
Was ich glaube:

-NVIDIA hat die Nase voll von Risiken besonders im Fertigungsbereich
-NVIDIA sagte neulich selbst, dass es 90nm Parts erst viel später von ihnen geben wird
-130nm läßt nicht mehr als 4 Quads beim NV4x zu
-130nm lowk läßt IMO nicht genug an Mehrtakt beim 4 Quad NV4x zu, um mit R520 mithalten zu können. Selbst R420 kam mit einem relativ inkomplexem Design nur bis 540MHz. Das wird IMO nicht reichen.
-NVIDIA hat mit NV4x bereits ein sehr fortschrittliches SM3 Design
-der NV-Refresh wird gegen R520 antreten müssen
-NV4x ist superskalar und kann somit sehr sehr Problemlos im Pixelbereich hochskalliert werden
-der Refresh wird mehr Quads haben
-ich gehe von 6 Quads aus (für mehr reicht die Bandbreite nicht)
-ATI wird über den Takt gehen (für mehr Quads reicht die Bandbreite nicht)
-wie bekommt NV mehr Quads bei gleicher Fläche? 110nm.

Ergo:

R520: >600MHz 4xSM3 Quads 90nm NexSys Prozess
NV40: >400MHz 6xSM3 Quads 110nm TSMC

sowas munkeln derzeit viele und ich halte es für wahrscheinlich und logisch passend. Dass 110nm dafür nicht geeignet ist, kann man IMO nicht definitiv sagen. Dazu fehlen die Kenntnisse.

Wir werden es ja bald sehen..

Öhm du vergisst dabei was Robbi: Der R520 muss erstmal zeigen wie gut er ist.

Im Moment liegt der NV40 was Leistung/MHz angeht vorne. Mit mehr Takt, 500-525MHz vielleicht, Fehlerbehebungen und generellen Leistungverbesserungen könnte der NV48 sehr wohl gegen den R520 bestehen.
Klar, in Punkto Füllrate ist natürlich kein Land zu gewinnen, aber der Rest? Da kocht ATI auch nur mit Wasser. Das sie ähnlich wie der NV30 auf die Schnüt fallen glaube ich zwar nicht, aber es muss sich erst zeigen.

Wenn ich mich nicht irre, verbrät der NV GO 6800 Ultra (3 Quads) bei 450MHz in 110nm 63 Watt. Wie soll das dann bei konservativen 300-350 oder max 400MHz allerdings mit 6 Quads aussehen?

reunion
2005-03-10, 17:41:18
Was ich glaube:

-NVIDIA hat die Nase voll von Risiken besonders im Fertigungsbereich
-NVIDIA sagte neulich selbst, dass es 90nm Parts erst viel später von ihnen geben wird
-130nm läßt nicht mehr als 4 Quads beim NV4x zu
-130nm lowk läßt IMO nicht genug an Mehrtakt beim 4 Quad NV4x zu, um mit R520 mithalten zu können. Selbst R420 kam mit einem relativ inkomplexem Design nur bis 540MHz. Das wird IMO nicht reichen.
-NVIDIA hat mit NV4x bereits ein sehr fortschrittliches SM3 Design
-der NV-Refresh wird gegen R520 antreten müssen
-NV4x ist superskalar und kann somit sehr sehr Problemlos im Pixelbereich hochskalliert werden
-der Refresh wird mehr Quads haben
-ich gehe von 6 Quads aus (für mehr reicht die Bandbreite nicht)
-ATI wird über den Takt gehen (für mehr Quads reicht die Bandbreite nicht)
-wie bekommt NV mehr Quads bei gleicher Fläche? 110nm.


Klingt aufjedenfall nach einer brauchbaren Spekulation, nur glaube ich nach wie vor nicht so recht dass mit dem 110nm-Prozess wirklich ein 300mio Transistorenchip machbar ist. Aber vermutlich hast du recht, recht viel andere Optionen bleiben ja nicht, mit 130nm wird man kaum eine Chance haben und 90nm hat man ja bereits selbst abgewiesen. Wäre noch ganz gut wenn Quasar was zu dem CB Bericht, der ja von 130nm lowk spricht sagen könnte.

Der Chip dürfte allerdings selbst mit 110nm im Vergleich zum R520 nicht gerade billig werden, immerhin verwendet man den größeren Herstellungsprozess und düfte aufgrund der 6 Quads auch noch deutlich mehr Transistoren benötigen.

robbitop
2005-03-10, 17:45:31
wieso muss der Refresh 6 Quads haben? Der Rest wär mir so auch schon durch den Kopf gegangen, nur warum unbedingt 6 Quads ?

steht weiter oben ;)

Für mehr als 6 Quads reicht die Bandbreite nicht. Für mehr Takt bei 4 Quads bräuchte man 90nm, was NV schon dementierte.


----
Was den NV48 angeht: wer weiß, ob es den noch geben wird. Es ist einfach zu kurz bis die anderen beiden heraus kommen. Wenn dieser herauskommt, dann in 110nm. 130nm lowk würde die Kosten zu sehr erhöhen.

robbitop
2005-03-10, 17:48:34
Der Chip dürfte allerdings selbst mit 110nm im Vergleich zum R520 nicht gerade billig werden, immerhin verwendet man den größeren Herstellungsprozess und düfte aufgrund der 6 Quads auch noch deutlich mehr Transistoren benötigen.

Nunja die Fläche würde relativ zum NV40 ungefähr gleich bleiben und 110nm ist billiger als 130nm LV IBM ;)

Und wer weiß wie reif 90nm ist und welche Yields dort sind. Ich denke ein 6 Quad NV4x @110nm wäre nicht teurer als ein NV40. Vermutlich billiger und besser verfügbar.

robbitop
2005-03-10, 17:50:06
Öhm du vergisst dabei was Robbi: Der R520 muss erstmal zeigen wie gut er ist.

Im Moment liegt der NV40 was Leistung/MHz angeht vorne. Mit mehr Takt, 500-525MHz vielleicht, Fehlerbehebungen und generellen Leistungverbesserungen könnte der NV48 sehr wohl gegen den R520 bestehen.
Klar, in Punkto Füllrate ist natürlich kein Land zu gewinnen, aber der Rest? Da kocht ATI auch nur mit Wasser. Das sie ähnlich wie der NV30 auf die Schnüt fallen glaube ich zwar nicht, aber es muss sich erst zeigen.

Wenn ich mich nicht irre, verbrät der NV GO 6800 Ultra (3 Quads) bei 450MHz in 110nm 63 Watt. Wie soll das dann bei konservativen 300-350 oder max 400MHz allerdings mit 6 Quads aussehen?

Ich gehe davon aus, daß NV weiß, wie schnell R520 ungefähr ist. Und was macht es aus, schneller zu sein?
Ein 4 Quad NV4x ohne 90nm wird IMO nicht ausreichen.

reunion
2005-03-10, 17:52:50
Öhm du vergisst dabei was Robbi: Der R520 muss erstmal zeigen wie gut er ist.


Ja, und G70, oder wie auch immer muss erstmal zeigen das er besser ist. ;)


Klar, in Punkto Füllrate ist natürlich kein Land zu gewinnen, aber der Rest?


Mehr Chiptakt bedeutet nichtnur mehr Füllrate, sonder auch zB eine höhere arithmetische Leistung.

seahawk
2005-03-10, 17:57:56
Für mich ist der NV47 als ein 5 Quad-Design @ 400MHZ im 130nm low-k Prozess denkbar. Ich bin mir nicht sicher über die Zeit schon reif für einen 6 Quad-Chip ist ?

NV48 ist imho der Nachfolger der 6800GT. Gefertigt im 0,11nm Prozess bei TSMC als 4 Quad-Ableger des NV41.

mapel110
2005-03-10, 18:00:03
braucht man nicht für hohe taktraten low-k? und das gibts bei 90nm noch nicht. Also wirds beim R520 wohl auf 6 Quads und etwa 500 Mhz hinauslaufen bei 300-350 mio transistoren.
Und beim G70 ist wohl von mehr Quads und höhere Taktrate auszugehen.
Ich wäre nicht so pessimistisch was 300 mio transistoren und 130nm angeht. Beim R300 haben wir uns auch verschätzt, und zwar gewaltig.

reunion
2005-03-10, 18:00:47
Für mich ist der NV47 als ein 5 Quad-Design @ 400MHZ im 130nm low-k Prozess denkbar. Ich bin mir nicht sicher über die Zeit schon reif für einen 6 Quad-Chip ist ?


Bereits NV40 ist IMO sehr nah am technisch machbaren mit 130nm, ich kann mir nicht vorstellen dass man da noch Transistoren hinzufügen wird ohne auf eine kleineren Prozess zu wechseln.

reunion
2005-03-10, 18:01:33
braucht man nicht für hohe taktraten low-k? und das gibts bei 90nm noch nicht.

90nm ist bisher ausschließlich mit lowk verfügbar. ;)

mapel110
2005-03-10, 18:04:44
90nm ist bisher ausschließlich mit lowk verfügbar. ;)
Wieso das? Kommt sowas normalerweise nicht später in der Entwicklung?
:confused:

robbitop
2005-03-10, 18:05:02
braucht man nicht für hohe taktraten low-k? und das gibts bei 90nm noch nicht. Also wirds beim R520 wohl auf 6 Quads und etwa 500 Mhz hinauslaufen bei 300-350 mio transistoren.
Und beim G70 ist wohl von mehr Quads und höhere Taktrate auszugehen.
Ich wäre nicht so pessimistisch was 300 mio transistoren und 130nm angeht. Beim R300 haben wir uns auch verschätzt, und zwar gewaltig.
das glaube ich nicht.
Für 6 Quads UND hohe Taktrate reicht die Bandbreite nicht.
222Mio Transistoren waren schon mehr als erwartet. Das ist schon ziemlich an der grenze.

mapel110
2005-03-10, 18:06:39
das glaube ich nicht.
Für 6 Quads UND hohe Taktrate reicht die Bandbreite nicht.
222Mio Transistoren waren schon mehr als erwartet. Das ist schon ziemlich an der grenze.

Und für shaderlastige Games kann man nie genug Füllrate haben. :)
Und eine verlässliche Quelle hätte ich gerne mal für "ziemlich an der Grenze".

robbitop
2005-03-10, 18:06:53
Wieso das? Kommt sowas normalerweise nicht später in der Entwicklung?
:confused:

LowK heißt doch nur, dass das Dielektrikum zwischen den Verdratungsebenen kleiner 3 ist. TSMC bietet mit 90nm NexSys nur mit lowk an. Das ist aber seit über einem Jahr bekannt.

robbitop
2005-03-10, 18:08:51
Und für shaderlastige Games kann man nie genug Füllrate haben. :)
Und eine verlässliche Quelle hätte ich gerne mal für "ziemlich an der Grenze".

Dann such sie dir doch selbst ;) Das sind empirische Werte. Aber schau doch einfach mal bei TSMC, die geben meist eine Grenze an.

Hauwech
2005-03-10, 18:12:57
Ich gehe davon aus, daß NV weiß, wie schnell R520 ungefähr ist. Und was macht es aus, schneller zu sein?
Ein 4 Quad NV4x ohne 90nm wird IMO nicht ausreichen.

Moment, du vergisst schon wieder etwas entscheidenes. Weißt du wie die Yields bei ATI sind? Wie wir wissen, waren die Highend Modelle von NV UND ATI nicht gerade als Massenware für eine lange Zeit zu bekommen. Wer sagt, das es nicht schon wieder so, zumindest für ATI, durch den neuen Prozess läuft? Weiß schon jemand, wie die tatsächlich erreichten Taktraten zu Anfang sind?

UND, zumindest munkelt man, dass Nvidia Ende des Jahres was Neues bringen wird. Nvidia hat im Gegensatz zu ATI den Vorteil auf den erprobten 130nm Prozess zu setzen. ATI nicht, die Termine sind im Moment alles nur "best-case" Szenarien, wobei es aber imho für Nvidia ein bisschen besser aussieht.

mapel110
2005-03-10, 18:13:35
Dann such sie dir doch selbst ;)
Du stellst die These auf, also bist du auch in der Bringschuld. :)

robbitop
2005-03-10, 18:16:59
Du stellst die These auf, also bist du auch in der Bringschuld. :)
Ich sagte doch "empirische Werte". ;)
Und ich meinte natürlich, dass alles nur IMO ist.

robbitop
2005-03-10, 18:19:02
Moment, du vergisst schon wieder etwas entscheidenes. Weißt du wie die Yields bei ATI sind? Wie wir wissen, waren die Highend Modelle von NV UND ATI nicht gerade als Massenware für eine lange Zeit zu bekommen. Wer sagt, das es nicht schon wieder so, zumindest für ATI, durch den neuen Prozess läuft? Weiß schon jemand, wie die tatsächlich erreichten Taktraten zu Anfang sind?

UND, zumindest munkelt man, dass Nvidia Ende des Jahres was Neues bringen wird. Nvidia hat im Gegensatz zu ATI den Vorteil auf den erprobten 130nm Prozess zu setzen. ATI nicht, die Termine sind im Moment alles nur "best-case" Szenarien, wobei es aber imho für Nvidia ein bisschen besser aussieht.

-130nm sind IMO am Ende
-TMSC selbst gab in einem Interview bekannt, die Verfügbarkeit von 90nm sei deutlich höher als 130nm. Denn dafür sollen mehr Fabriken ausgerüstet sein.
Die Yields interessieren mich persönlich nicht.

ShadowXX
2005-03-10, 19:51:25
Für mich ist der NV47 als ein 5 Quad-Design @ 400MHZ im 130nm low-k Prozess denkbar. Ich bin mir nicht sicher über die Zeit schon reif für einen 6 Quad-Chip ist ?


Jupps...das hört sich auch nicht schlecht an...ich weiss auch nicht warum es denn unbedingt 6 Quads sein müssen.


NV48 ist imho der Nachfolger der 6800GT. Gefertigt im 0,11nm Prozess bei TSMC als 4 Quad-Ableger des NV41.

Und das passt Perfekt auf die letzten Treibereinträge, wo der nv48 nur bis zur 6800GT geht.

Ich schätze auch, das der nv48 einfach nur den nv40 ablöst.
Im Prinzip einfach nur der gleiche Chip in "Preiswerter" und damit lohnender....vielleicht sogar besserer Yield.

robbitop
2005-03-10, 20:00:41
Und das passt Perfekt auf die letzten Treibereinträge, wo der nv48 nur bis zur 6800GT geht.

Ich schätze auch, das der nv48 einfach nur den nv40 ablöst.
Im Prinzip einfach nur der gleiche Chip in "Preiswerter" und damit lohnender....vielleicht sogar besserer Yield.

So war es sogar vor einer Weile in den News von 3DC zu lesen :)

VooDoo7mx
2005-03-10, 20:21:34
Hmmm und was macht dann nVidia mit G70 Chips, wo eines oder mehrere Quads defekt sind? Auch als 6800 verkaufen?

Also erweitert nVidia im April nur nach oben?!

G70 0,13µ low k TSMC
NV48 0,11µ TSMC
NV41 0,13µ IBM
NV43 0,11µ TSMC
NV44 0,11µ TSMC

:confused: