PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15

Xmas
2005-04-30, 20:04:11
TSMC hat eDRAM bis 90nm im Angebot. Ich weiss allerdings nicht wie gut dieser ist.
Hm, ich habe gerade nochmal nachgeschaut. 1T MiM gibts wohl auch in 90nm High Performance. Interessant aber, bis zu 32 MiB in 1Mib-Schritten, doch die Busbreite geht nur von 32 bis 256 bit.

Gast
2005-04-30, 21:16:29
G70 to be power hungry: Nvidia asked PCI Sig for more power (http://www.theinquirer.net/?article=22917)

"[...]It turns out that 75W from external connector and 75W from motherboard is not enough. Nvidia wants an additional 75W for its G70 card.[...]"

225 watt ? gehts noch die letzte hat schon zuviel gebraucht

Coda
2005-04-30, 21:29:24
Das ist eine Inquirer Meldung. Das hat ungefähr soviel Aussagekraft wie wenn Gerhard Schröder sagt, sie tun was gegen die Arbeitslosen.

gehts noch die letzte hat schon zuviel gebraucht10W mehr als ne X800 reißen es nicht wirklich raus :rolleyes:

Gast
2005-04-30, 22:26:16
wenn das mit dem stromverbrauch so weiter geht kann man sich keine guten karten mehr kaufen....nicht wegen dem kaufpreis sondern wegen den stromkosten

über 200 watt *vogelzeig*

Gast
2005-05-01, 00:13:27
wenn das mit dem stromverbrauch so weiter geht kann man sich keine guten karten mehr kaufen....nicht wegen dem kaufpreis sondern wegen den stromkosten

über 200 watt *vogelzeig*

1. Die Meldung ist vom Inq
2. Wer sich Highend Karten ohne Probleme leisten kann, den stört der Stromverbrauch sowieso nicht.
3. Wer sie sich nicht ohne Probleme leisten kann, der kauft sich entweder
a) "kleinere" Karten und schraubt seine Ansprüche runter oder
b) kauft sie sich trotzdem und muss dann eben woanders Abstriche machen oder
c) besorgt sich gebrauchte Highend Karten die weniger verbrauchen als die neuen Highend Karten oder
d) entsagt der "Höher-Schneller-Weiter" PC Sucht und kauft sich eine Konsole.

So einfach ist das.

Gast
2005-05-01, 01:19:20
1. Die Meldung ist vom Inq
2. Wer sich Highend Karten ohne Probleme leisten kann, den stört der Stromverbrauch sowieso nicht.
3. Wer sie sich nicht ohne Probleme leisten kann, der kauft sich entweder
a) "kleinere" Karten und schraubt seine Ansprüche runter oder
b) kauft sie sich trotzdem und muss dann eben woanders Abstriche machen oder
c) besorgt sich gebrauchte Highend Karten die weniger verbrauchen als die neuen Highend Karten oder
d) entsagt der "Höher-Schneller-Weiter" PC Sucht und kauft sich eine Konsole.

So einfach ist das.

überzeugt irgendwie garnicht

Ailuros
2005-05-01, 09:13:23
Afaik ist der MPEG2 Stream bei HDTV codiert in 1920x1088 bei 25Hz, zumindest sagen das meine Conerter Tools :)

Es verbleibt ein sinnloses Argument da Xmas ja schon sagte dass die Console fuer 720p (+2xMSAA) optimiert sein wird.

It was earlier unofficially said that eDRAM buffer will be about 10MB in order to fit 720p frame-buffer inside it and apply certain effects that boost eye candy of the image, such as anti-aliasing.

http://www.xbitlabs.com/news/multimedia/display/20050426075047.html

Ailuros
2005-05-01, 09:15:34
1. Die Meldung ist vom Inq
2. Wer sich Highend Karten ohne Probleme leisten kann, den stört der Stromverbrauch sowieso nicht.
3. Wer sie sich nicht ohne Probleme leisten kann, der kauft sich entweder
a) "kleinere" Karten und schraubt seine Ansprüche runter oder
b) kauft sie sich trotzdem und muss dann eben woanders Abstriche machen oder
c) besorgt sich gebrauchte Highend Karten die weniger verbrauchen als die neuen Highend Karten oder
d) entsagt der "Höher-Schneller-Weiter" PC Sucht und kauft sich eine Konsole.

So einfach ist das.

Obwohl sich der Trend wohl nicht ueber die naechste Generation uebertragen wird, kann sich eventuell heute jemand eine Gigabyte X800XL mit passiver Kuehlung schnappen.

reunion
2005-05-01, 10:00:22
Hm, ich habe gerade nochmal nachgeschaut. 1T MiM gibts wohl auch in 90nm High Performance. Interessant aber, bis zu 32 MiB in 1Mib-Schritten, doch die Busbreite geht nur von 32 bis 256 bit.


Was würde es dann überhaupt für einen Sinn machen eDRAM zu verwenden?
Mit 256-bit kann ich ja auch den externen Speicher anbinden.

Btw. Weiß man eigendlich schon genaueres wie das bei R500 ausschauen wird?

Ailuros
2005-05-01, 10:09:40
Was würde es dann überhaupt für einen Sinn machen eDRAM zu verwenden?
Mit 256-bit kann ich ja auch den externen Speicher anbinden.

Btw. Weiß man eigendlich schon genaueres wie das bei R500 ausschauen wird?

Meinst Du PC desktop Loesungen? Weniger als 32MB koennte ich mir schwer vorstellen fuer die Ansprueche einer PC GPU. Ich weiss jetzt zwar nicht wieviel Transistoren 10MB bei NEC verbrauchen, aber unter 80M wird es wohl nicht sein *hust*

reunion
2005-05-01, 10:20:03
Meinst Du PC desktop Loesungen?


Nein, rein theoretisch, was würde es mir überhaupt bringen eDRAM zu verwenden, wenn ich diesen ohnehin nur mit max. 256-bit ansteuern kann?
Da kann ich den Speicher ja auch gleich komplett extern anbinden.



Weniger als 32MB koennte ich mir schwer vorstellen fuer die Ansprueche einer PC GPU. Ich weiss jetzt zwar nicht wieviel Transistoren 10MB bei NEC verbrauchen, aber unter 80M wird es wohl nicht sein *hust*

Schon klar, allerdings sollte sich dieser auch wesentlich dichter packen lassen.

Xmas
2005-05-01, 13:26:55
Es verbleibt ein sinnloses Argument da Xmas ja schon sagte dass die Console fuer 720p (+2xMSAA) optimiert sein wird.
4xMSAA AFAIK. Man sollte sich langsam von der Vorstellung lösen dass MSAA immer den vollen Speicherverbrauch hat (was ja bei 3DLabs z.B. schon lange nicht mehr der Fall ist).

Coda
2005-05-01, 13:40:43
Und wie soll das funktionieren? Man kann ja nicht einfach sagen, dass manche Bilder nicht mehr gerendert werden können, weil sie eben doch (unwahrscheinlicherweiße) überhaupt nicht komprimiert werden können.

Xmas
2005-05-01, 13:54:34
Und wie soll das funktionieren? Man kann ja nicht einfach sagen, dass manche Bilder nicht mehr gerendert werden können, weil sie eben doch (unwahrscheinlicherweiße) überhaupt nicht komprimiert werden können.
Im Extremfall braucht es dann eben den externen Speicher. Oder die Kanten werden nicht mehr geglättet.

Coda
2005-05-01, 14:21:16
Ich frag mich aber wie man darauf zugreifen will. Das ist ja im Prinzip das selbe Problem wie bei Texturkompression, man muss sofort wissen wo die Daten liegen.

Xmas
2005-05-01, 14:35:20
Ich frag mich aber wie man darauf zugreifen will. Das ist ja im Prinzip das selbe Problem wie bei Texturkompression, man muss sofort wissen wo die Daten liegen.
Jein. Eine Stufe Indirektion (im Falle eines nicht-einfarbigen Pixels) dürfte noch akzeptabel sein. Man muss natürlich die ROPs dafür auslegen, in diesem Fall die Latenz zu verdecken.
Zum einen braucht es also eine Bitmaske, die angibt wo Kantenpixel liegen, zum anderen einen FIFO-Buffer der zurückgestellte Schreibvorgänge aufnimmt.

Gast
2005-05-01, 16:21:38
Nein, rein theoretisch, was würde es mir überhaupt bringen eDRAM zu verwenden, wenn ich diesen ohnehin nur mit max. 256-bit ansteuern kann?
Da kann ich den Speicher ja auch gleich komplett extern anbinden.




man hat diese 256bit exklusiv für frame- und z-buffer und zusätzlich extern 256bit für input-daten wie texturen. außerdem sollte sich eDRAM etwas höher takten lassen.

Coda
2005-05-01, 18:27:58
eDRAM läuft natürlich mit dem Chiptakt. Außerdem ist das wesentlich breiter angebunden, ansonsten würde es ja keinen Sinn machen.

Xmas
2005-05-01, 18:48:40
"Bis 256bit" ist die Angabe von TSMC.

Gast
2005-05-01, 19:10:00
"Bis 256bit" ist die Angabe von TSMC.
Und wo ist dann der Vorteil von embedded RAM? Die PS2 hat ja schon 4096bit afair.

Coda
2005-05-01, 20:14:22
Gar keiner mehr. Das Thema eDRAM ist damit eigentlich erledigt für R520 :rolleyes:

reunion
2005-05-01, 20:19:37
"Bis 256bit" ist die Angabe von TSMC.

Was bedeutet, dass auch R500 max. 256-bit eDRAM haben wird?

reunion
2005-05-01, 20:22:06
eDRAM läuft natürlich mit dem Chiptakt. Außerdem ist das wesentlich breiter angebunden, ansonsten würde es ja keinen Sinn machen.

Selbst bereits heute verfügbarer Speicher erreicht höhere Frequenzen als die meisten Grafikchips, und das mit der breiteren Anbindung scheint ja bei TSMC nicht der Fall zu sein.

Coda
2005-05-01, 20:25:15
Sagte ich was anderes?

Was bedeutet, dass auch R500 max. 256-bit eDRAM haben wird?Nein 2560bit AFAIK. Wird ja von NEC gefertigt.

reunion
2005-05-01, 20:27:26
Sagte ich was anderes?


Hätte weiterlesen sollen, sry ;(


Nein 2560bit AFAIK. Wird ja von NEC gefertigt.

Thx. :)

//Edit: Moment mal, heißt das, dass der gesamte R500 von NEC gefertigt wird?
Man wird ja wohl kaum den eDRAM extra herstellen und ihn dann mit dem Chip "zusammenstecken" können, oder?

Jesus
2005-05-01, 20:30:57
Und wo ist dann der Vorteil von embedded RAM? Die PS2 hat ja schon 4096bit afair.

2560: 1024 up/down 512 Texturen :rolleyes:

robbitop
2005-05-01, 23:23:50
Es bringt Platz- und Kostenersparnisse.

@Coda
je höher der Polycount, desto größer ist der Anteil des Bildes (mehr poly-edges), der geglättet werden muss.

Coda
2005-05-01, 23:40:16
je höher der Polycount, desto größer ist der Anteil des Bildes (mehr poly-edges), der geglättet werden muss.Auf was war das jetzt bezogen? Bei MSAA ändert sich da trotzdem außer der Speicherbandbreite (fast) nix.

robbitop
2005-05-02, 10:04:34
Auf was war das jetzt bezogen? Bei MSAA ändert sich da trotzdem außer der Speicherbandbreite (fast) nix.
Jeder Pixel, der auf einer Poly-edge liegt, wird von MSAA als zu glätten erkannt. Je nach subpixelanzahl kostet dieses Pixel Füllrate. Je mehr solche zu glättenden Pixel auftreten, desto mehr Füllrate brauchst du.

Ailuros
2005-05-02, 12:27:21
Jeder Pixel, der auf einer Poly-edge liegt, wird von MSAA als zu glätten erkannt. Je nach subpixelanzahl kostet dieses Pixel Füllrate. Je mehr solche zu glättenden Pixel auftreten, desto mehr Füllrate brauchst du.

Zu keinem grossen Grad aber; nimm Dir eine Szene mit maessigem Polycount und vergleiche 1x und 2x MSAA und eine Szene mit hohem Polycount und vergleiche wieder 1x und 2x MSAA.

robbitop
2005-05-02, 13:55:51
Zu keinem grossen Grad aber; nimm Dir eine Szene mit maessigem Polycount und vergleiche 1x und 2x MSAA und eine Szene mit hohem Polycount und vergleiche wieder 1x und 2x MSAA.
Natürlich zu keinem Großem Grad, da Polyedges immer nur ein Bruchteil des Bildes einnehmen. Füllrate kostet es dennoch und das ist abhängig davon wieviel Polyedges vorhanden sind. Das sieht man sehr schön bsw an Demi's AT-AA. Hier wird MSAA auch auf AT angewendet und es kostet, sofern viel AT vorhanden ist, auch ordentlich Füllrate.

Coda
2005-05-02, 15:07:02
Jeder Pixel, der auf einer Poly-edge liegt, wird von MSAA als zu glätten erkannt. Je nach subpixelanzahl kostet dieses Pixel Füllrate. Je mehr solche zu glättenden Pixel auftreten, desto mehr Füllrate brauchst du.Ehm nein. Die Polygone werden um die im Muster definierten Subpixel verschoben in 4 verschiedene Targets gerendert (mit dem gleichen Farbwert, deshalb ist es ja kein SSAA), da findet keinerlei Erkennung statt.

Die Glättung entsteht dann halt an den Kanten automatisch, wenn die 4 Subpixel wieder vermischt werden.

In einem Polygon sind in einem Pixel aber alle 4 Subpixel gleich, deshalb funktioniert da Kompression und an den Rändern halt nicht. Das ist aber auch schon der einzige wirkliche Performanceunterschied wenn viele Polygone und damit viele Kanten da sind. Naja und halt dass an den Rändern mit MSAA manchmal ein Pixel doch noch gerendert werden muss weil ein Subpixel halt weiter außen liegt als der normale Pixel, aber das ist wirklich vernachlässigabar meiner Meinung nach.

Ailuros
2005-05-02, 15:23:58
Natürlich zu keinem Großem Grad, da Polyedges immer nur ein Bruchteil des Bildes einnehmen. Füllrate kostet es dennoch und das ist abhängig davon wieviel Polyedges vorhanden sind. Das sieht man sehr schön bsw an Demi's AT-AA. Hier wird MSAA auch auf AT angewendet und es kostet, sofern viel AT vorhanden ist, auch ordentlich Füllrate.

Display Resolution 1600*1200*32 (no AF):

3dmark2001SE
High Polygon Count 1 & 8 light tests:

1xAA = 100.1, 31.1
2xAA = 100.5, 30.5
4xAA = 81.6, 27.4

VS1.1

1xAA = 227.6
2xAA = 189.0
4xAA = 104.3

3dmark2003

VS2.0

1xAA = 28.5
2xAA = 28.1
4xAA = 24.4

-----------------------------------------------------

***edit: nebenbei noch ein paar PS Tests:

PS2.0

1xAA = 90.1
2xAA = 82.7
4xAA = 35.5

PS1.1/1.4

1xAA = 265.3 / 239.4
2xAA = 247.8 / 208.5
4xAA = 154.6 / 128.4

DrumDub
2005-05-02, 15:27:16
das ist aber etwas strange. wieso kostet 2xmsaa bei dem vs 1.1 test so viel leistung, während es bei den anderen tests praktisch for free ist? :|

Ailuros
2005-05-02, 15:31:23
das ist aber etwas strange. wieso kostet 2xmsaa bei dem vs 1.1 test so viel leistung, während es bei den anderen tests praktisch for free ist? :|

Keine Ahnung; ca. 17% fuer 2xAA im Vergleich zu 54% von 1x auf 4xAA.

aths
2005-05-02, 16:10:12
das ist aber etwas strange. wieso kostet 2xmsaa bei dem vs 1.1 test so viel leistung, während es bei den anderen tests praktisch for free ist? :|Offenbar weil die Flaschenhälse woanders liegen?

DrumDub
2005-05-02, 16:11:02
Keine Ahnung; ca. 17% fuer 2xAA im Vergleich zu 54% von 1x auf 4xAA. hmm.. der vs 1.1 test bei 3dmark 2001 ist ja der mit den vielen max payne models, die gleichzeitig rumlaufen: http://www.pc-erfahrung.de/Daten/Bilder/ScreenshotsSpiele/3DMark2000_Screenshot_04.jpg


aths

so rum hab ich mir das noch gar nicht überlegt...

es ging ja auch um die aussage mit dem polycount von robbitop, der füllrate bei msaa kostet. deshalb sind die ergebnisse imho ein bisschen widersprüchlich...

Ailuros
2005-05-02, 16:33:37
es ging ja auch um die aussage mit dem polycount von robbitop, der füllrate bei msaa kostet. deshalb sind die ergebnisse imho ein bisschen widersprüchlich...

Ich hab auch mit Absicht in 1600 getestet um erstmal die CPU-bottlenecks zu umgehen. Haette ich auch in 1024 getestet haette ich Deine Frage schneller beantworten koennen:

1024*768*32
VS1.1

1xAA = 241.2
2xAA = 241.1
4xAA = 213.9

Hier spielt womoeglich die CPU eine groessere Rolle als ich erwartet haette.

DrumDub
2005-05-02, 16:44:29
danke, ail. damit wäre das ja geklärt. :)

robbitop hat also nicht wirklich recht, wenn ich mir die ergebnisse so ansehe...

Gast
2005-05-02, 16:44:33
das ist aber etwas strange. wieso kostet 2xmsaa bei dem vs 1.1 test so viel leistung, während es bei den anderen tests praktisch for free ist? :|

da es sich um einen VS-test handelt wird wohl der vertexshader sehr stark, der pixel-teil dagegen nur sehr schwach belastet sein.

daher wird vielleicht in jedem takt ein pixel/pipeline fertiggestellt, welches auch rausgeschrieben werden muss. (vielleicht auch jeden 2. takt ein pixel, auf jeden fall aber verhältnismäßig viele)

folglich wird sehr viel bandbreite gebraucht, die bei MSAA bekanntlich meistens den flaschenhals darstellt.

bei 4xMSAA kommt dann noch hinzu dass die ROP´s loopen müssen und nur mehr halb so viele (sub)pixel geschrieben werden können.

Coda
2005-05-02, 16:49:15
robbitop hat also nicht wirklich recht, wenn ich mir die ergebnisse so ansehe...Ja, aber nicht wegen der Füllrate, höchstens wegen der Bandbreitendifferenz.

robbitop
2005-05-02, 18:10:10
danke, ail. damit wäre das ja geklärt. :)

robbitop hat also nicht wirklich recht, wenn ich mir die ergebnisse so ansehe...
Oder es gibt einen anderen Flaschenhals.

Coda
2005-05-02, 18:13:07
Ich glaube du hast bei MSAA noch was missverstanden...

Quasar
2005-05-02, 18:20:15
da es sich um einen VS-test handelt wird wohl der vertexshader sehr stark, der pixel-teil dagegen nur sehr schwach belastet sein.

daher wird vielleicht in jedem takt ein pixel/pipeline fertiggestellt, welches auch rausgeschrieben werden muss. (vielleicht auch jeden 2. takt ein pixel, auf jeden fall aber verhältnismäßig viele)

folglich wird sehr viel bandbreite gebraucht, die bei MSAA bekanntlich meistens den flaschenhals darstellt.

bei 4xMSAA kommt dann noch hinzu dass die ROP´s loopen müssen und nur mehr halb so viele (sub)pixel geschrieben werden können.
Bei Futuremark wird nicht immer das getestet, was der Testname impliziert. Der Single-Texture-Fill ist eher ein Bandbreitenmesser, der VS1.1 im 2001er ist IIRC recht füllratenlastig und "ooohhh-ahhh-Pixelshader"-Nature belastet zum größten Teil die Vertexshader.

Wenn die ROPs bei 4xAA loopen müssen, wird dadurch aber auch die Bandbreite wieder etwas entlastet.

aths
2005-05-02, 18:26:40
da es sich um einen VS-test handelt wird wohl der vertexshader sehr stark, der pixel-teil dagegen nur sehr schwach belastet sein.

daher wird vielleicht in jedem takt ein pixel/pipeline fertiggestellt, welches auch rausgeschrieben werden muss. (vielleicht auch jeden 2. takt ein pixel, auf jeden fall aber verhältnismäßig viele)

folglich wird sehr viel bandbreite gebraucht, die bei MSAA bekanntlich meistens den flaschenhals darstellt.

bei 4xMSAA kommt dann noch hinzu dass die ROP´s loopen müssen und nur mehr halb so viele (sub)pixel geschrieben werden können.Warum schreibst du ROPs mit dem Apostroph (wobei ´ gar kein Apostroph, sondern ein Akzentzeichen ist)?

Bei Multitexturing ist zwar unwesentlich, ob die ROPs loopen müssen oder nicht, aber bei bilinearem Singletexturing vermindert sich bei 4x AA dann natürlich die Pixelfüllrate. Ein VS-Test soll ja VS-Leistung ermitteln, ich sehe keinen Grund, einen VS-Bench mit aktiviertem Antialiasing zu fahren.

aths
2005-05-02, 18:38:26
Mal was zum Thema MSAA, wenns erlaubt ist.

Natürlich kostet MSAA Füllrate, denn irgendwoher muss die Glättung ja kommen. Es handelt sich praktisch rein um Kanten-Supersampling, aber nicht um Textur-Supersampling. Jedoch werden mit MSAA tendenziell etwas mehr Pixel berechnet, welche dann ja für die Mittelwertbildung aller Subpixel die Glättung bringen.

In einer normalen Szene sind vielleicht 5% aller Pixel Kantenpixel. Werden die mit MSAA geglättet, heißt das normalerweise, für diese 5% Pixel die doppelte Füllrate zu brauchen. Denn mehr als zwei Polygone sind nur selten im gleichen Pixel. Aber: Bei 2x RG bekommen einige Kanten keine Glättung, weil die Anzahl der Subpixel nicht ausreichen, beide Dreiecke zu erwischen. Sagen wir, dass bei 5% Kantenpixel und 2x MSAA insgesamt 4% aller Pixel die doppelte Füllrate brauchen. Damit hat man im Vergleich zu 1x MSAA (also AA off) 4% zusäztlichen Füllratenverbrauch. Mit 4x MSAA werden sagen wir mal alle Kantenpixel geglättet. (Wir arbeiten hier mit vielen Vereinfachungen, es geht um das Prinzip) und somit hat man statt 4% zusätzlichem Füllratenverbrauch dann 5% zusätzlich. Das ist praktisch nichts.

Bei kleineren Dreiecken kann die Anzahl der Kantenpixel steigen. Aber der Zusatzfüllratenverbrauch erreicht bei "vernünftiger" Dreiecksgröße keine relevanten Dimensionen.

robbitop
2005-05-02, 20:22:58
...

Ja, in der Form habe ich das damals auch verstanden und darauf wollte ich hinaus. Danke :up:

Coda
2005-05-02, 20:25:45
Aber der Zusatzfüllratenverbrauch erreicht bei "vernünftiger" Dreiecksgröße keine relevanten Dimensionen.Ja. So meinte ich das auch...

Ailuros
2005-05-03, 11:34:38
Ein VS-Test soll ja VS-Leistung ermitteln, ich sehe keinen Grund, einen VS-Bench mit aktiviertem Antialiasing zu fahren.

Duerfte genauso fuer reine PS- oder andere spezialisierte Tests gelten.

Gast
2005-05-06, 23:25:33
wie schaut es denn jetzt mit den pipes aus ?
24 für die 6900ultra und 20 für die 6900GT ?

wieviel leistungssteigerung ist zu erwarten ?
ca 45% ? :eek:

und welche größe soll kommen 110 nm ?
90nm währen grob da würden wohl die 600 mhz fallen ...


MFG

r3ptil3
2005-05-07, 00:24:14
Es ist ziemlich sicher das man G70 zu SLI betreiben kann oder?

Coda
2005-05-07, 00:25:30
Ja. nVidia wird wohl kaum soviel in SLi inverstiert haben nur um es nur für eine Generation zu verwenden.

Gast
2005-05-07, 14:01:37
Ja. nVidia wird wohl kaum soviel in SLi inverstiert haben nur um es nur für eine Generation zu verwenden.
Dazu gibt es zudem eine offizielle Bestätigung.
Nvidia hat kurz nachdem SLI Launch auf mehren Meetings, Interviews etc.. bestätigt, dass SLI auch in zukünftigen Produktreihen verwendet werden wird.
Ich denke allerdings, dass SLI weiter verbessert wird was die Kombinationsmöglichkeiten angeht.
Es wird längst nicht bei 2x bleiben. 4x sind heute schon möglich.

Iwan
2005-05-07, 14:46:00
Dazu gibt es zudem eine offizielle Bestätigung.
Nvidia hat kurz nachdem SLI Launch auf mehren Meetings, Interviews etc.. bestätigt, dass SLI auch in zukünftigen Produktreihen verwendet werden wird.
Ich denke allerdings, dass SLI weiter verbessert wird was die Kombinationsmöglichkeiten angeht.
Es wird längst nicht bei 2x bleiben. 4x sind heute schon möglich.

fehlen ja dann nur noch die chipsätze mit >32Lanes damit dann dann gleich 4 Grakas (natürlich mit jeweils 2 GPUs) verwenden kann... :hammer:

Ailuros
2005-05-07, 15:44:50
fehlen ja dann nur noch die chipsätze mit >32Lanes damit dann dann gleich 4 Grakas (natürlich mit jeweils 2 GPUs) verwenden kann... :hammer:

Nicht so schnell; einen dementsprechenden PSU braucht man ja dann auch noch. Zwar hat PC Power & Cooling schon ein 950W mit 4 +12V rails verfuegbar (fuer nur etwas unter 500$...ist ja nicht viel oder? ;D ) aber mir ist immer noch nicht klar wo man das motherboard anschnallen wird, wenn man alle 4 rails fuer die GPUs verbrauchen wuerde....

mapel110
2005-05-07, 19:32:26
fehlen ja dann nur noch die chipsätze mit >32Lanes damit dann dann gleich 4 Grakas (natürlich mit jeweils 2 GPUs) verwenden kann... :hammer:
gibt schon welche mit bis zu 80 lanes.(nforce4)
Nicht so schnell; einen dementsprechenden PSU braucht man ja dann auch noch. Zwar hat PC Power & Cooling schon ein 950W mit 4 +12V rails verfuegbar (fuer nur etwas unter 500$...ist ja nicht viel oder? ;D ) aber mir ist immer noch nicht klar wo man das motherboard anschnallen wird, wenn man alle 4 rails fuer die GPUs verbrauchen wuerde....
ach komm, bei 2000 € für die Grakas jucken die Kosten für das NT nun wirklich nicht.

reunion
2005-05-09, 12:22:18
INQ: Nvidia G70 is a single slot cooling design: No special power requirement (http://www.theinquirer.net/?article=23098)

Quasar
2005-05-09, 12:47:19
INQ: Nvidia G70 is a single slot cooling design: No special power requirement (http://www.theinquirer.net/?article=23098)
Hm?
Das würde mich aber überraschen - doch 0,13µ-lowK oder gar 0,09µ-lowK?

sth
2005-05-09, 12:47:44
Schön wär's ja, wenn nVidia den Stromverbrauch einigermaßen in den Griff kriegen würde. Das ist der einzige Grund, weshalb ich immernoch am Überlegen bin, ob nicht zwei 6600GTs auch ausreichen würden... :-/

Godmode
2005-05-09, 12:57:09
Hm?
Das würde mich aber überraschen - doch 0,13µ-lowK oder gar 0,09µ-lowK?

Ich dachte 110nm war das Gerücht? also der Fertigungsprozess den alle Lowcost nennen und auch beim NV42M verwendet wird?

Quasar
2005-05-09, 13:07:53
0,11µ wurde von vielen als Beinahe-Tatsache hingestellt - keine Ahnung.

Gast
2005-05-09, 13:31:50
Schön wär's ja, wenn nVidia den Stromverbrauch einigermaßen in den Griff kriegen würde. Das ist der einzige Grund, weshalb ich immernoch am Überlegen bin, ob nicht zwei 6600GTs auch ausreichen würden... :-/

wenn du auf den stromverbrauch achtest, warum in gottes namen dan 2 6600GT, ein derartiges system kann man ja nicht gerade als energieeffizient bezeichnen.

sth
2005-05-09, 15:17:18
Weil ich 1. Leistung brauche aber 2. auch (im Endausbau) 3 DVI-Anschlüsse.

Godmode
2005-05-09, 15:18:33
Weil ich 1. Leistung brauche aber 2. auch (im Endausbau) 3 DVI-Anschlüsse.

Wenn du Multimonitor Betrieb machen willst, funktioniert aber SLI nicht, IIRC!

DrumDub
2005-05-09, 15:28:52
Wenn du Multimonitor Betrieb machen willst, funktioniert aber SLI nicht, IIRC! richtig, aber man kann sli im treiber ja deaktivieren, dann geht der multimonitorbetrieb ja wieder.

MarcWessels
2005-05-09, 16:16:09
Ich hoffe mal, dass die G70er 6900U (oder GT)-Karten ein identsiches Platinenlayout wie die jetzigen Highendteiel ahben werden, damit ich meinen Wasserkühler weiterbenutzen kann.

robbitop
2005-05-09, 16:17:31
Ich hoffe mal, dass die G70er 6900U (oder GT)-Karten ein identsiches Platinenlayout wie die jetzigen Highendteiel ahben werden, damit ich meinen Wasserkühler weiterbenutzen kann.
Ich habe meinen Wasserkühler und nutze ihn seit 2002 bis zur aktuellen Generation problemlos. So what? :|

Coda
2005-05-09, 16:59:04
Vielleicht hat er so nen speziellen NV40 Kühler.

sth
2005-05-09, 18:22:43
richtig, aber man kann sli im treiber ja deaktivieren, dann geht der multimonitorbetrieb ja wieder.
Eben. 3 Monitore sind halt primär zum Arbeiten 'ne feine Sache, wobei Triple-Head-Gaming mit aktiviertem SLI halt das Sahnehäubchen wär'.
Mal schauen, was die Treiber-Zukunft bei nVidia so bringt...

MarcWessels
2005-05-09, 19:05:36
Vielleicht hat er so nen speziellen NV40 Kühler.

So ist es. :) Mein Standard-Zern wurde in Rente geschickt.

Gast
2005-05-09, 19:54:36
Kann mir einer sagen, was der G70 wird?
30 Seiten Threads zu lesen ist slowly but lowley ;)

Ich denke, dat Ding wird...24p, 2*6800 PF

Was ist abschliessend noch zu wissen?

Godmode
2005-05-09, 20:09:13
Es wird vermutet dass es ein 5-6 Quad NV40 wird! Das Problem wird wie auch beim R520 die begrenzte Speicherbandbreite sein, IMO!

edit: naja Fertigungsprozess könnte 130nm, 130nm Low-K, 110nm, oder gar 90nm sein, aber wie gesagt ich weiß es nicht wirklich!

edit2: und die die etwas wissen sagen nichts!

SKYNET
2005-05-09, 21:37:55
Es wird vermutet dass es ein 5-6 Quad NV40 wird! Das Problem wird wie auch beim R520 die begrenzte Speicherbandbreite sein, IMO!

edit: naja Fertigungsprozess könnte 130nm, 130nm Low-K, 110nm, oder gar 90nm sein, aber wie gesagt ich weiß es nicht wirklich!

edit2: und die die etwas wissen sagen nichts!


wenn es soviele pipes werden, dann wird NV sicherlich das speicher interface auf 512bit aufbohren. :eek:

Godmode
2005-05-09, 21:44:08
wenn es soviele pipes werden, dann wird NV sicherlich das speicher interface auf 512bit aufbohren. :eek:

kanns mir zwar schwer vorstellen weil alle Gurus sagen dass es zu teuer ist, aber schön wärs und hoffen kann man :biggrin:

Iwan
2005-05-09, 22:19:54
kanns mir zwar schwer vorstellen weil alle Gurus sagen dass es zu teuer ist, aber schön wärs und hoffen kann man :biggrin:

das is wohl der einzigste weg um in nicht shader-limitierten situationen mit nem 6quad-design nochmal richtig leistung raus zukitzeln. ansonsten wäre er mit dem schnellsten gddr3@256bit recht bandbreitenlimitiert. aber angeblich gibts auch nicht die passenden chips für ein 512bit interface :confused:

Demirug
2005-05-09, 23:20:14
Für einen 512 Bit Bus sind 16 Speicherchips notwendig. Aber auch die entsprechenden Datenleitungen und Pins am Chip.

Da Samsung nun 800MHz Chips liefern kann erwarte ich kein 512 Bit Interface.

Godmode
2005-05-09, 23:41:55
Für einen 512 Bit Bus sind 16 Speicherchips notwendig. Aber auch die entsprechenden Datenleitungen und Pins am Chip.

Da Samsung nun 800MHz Chips liefern kann erwarte ich kein 512 Bit Interface.


Ich bin da wohl nicht mehr auf dem neuesten Stand der Dinge?(edit: jetzt schon http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=GME1001 ) Und du denkst dass Samsung auch in nicht homeopatischen Dosen liefern kann?

Ailuros
2005-05-10, 02:30:35
Für einen 512 Bit Bus sind 16 Speicherchips notwendig. Aber auch die entsprechenden Datenleitungen und Pins am Chip.

Da Samsung nun 800MHz Chips liefern kann erwarte ich kein 512 Bit Interface.

Und GDDR4 soll ~Ende 2005 erscheinen oder?

Mit 800MHz wird bei hypothetischen 9.6GPixels/sec das Fuellraten zu Bandbreiten Verhaeltnis der NV40 auf jeden Fall erhalten.

SKYNET
2005-05-10, 06:21:51
kanns mir zwar schwer vorstellen weil alle Gurus sagen dass es zu teuer ist, aber schön wärs und hoffen kann man :biggrin:


als wenn NV jemals geizig waren bei der herstellung der karten b.z.w. chips, NV kleckerten nie, sie klotzen dafür wo ging... darum liebe ich sie auch, immer schön dekadent mit den transen. ^^

SKYNET
2005-05-10, 06:27:59
Für einen 512 Bit Bus sind 16 Speicherchips notwendig. Aber auch die entsprechenden Datenleitungen und Pins am Chip.

Da Samsung nun 800MHz Chips liefern kann erwarte ich kein 512 Bit Interface.


wo liegt das problem ?
kommende highend karten haben eh 512MB, dadrunter würden sie sich selber ausbremsen, da der texturspeicher schneller voll wäre als man "voll" sagen kann, selbst bei der jetzigen generation bremsen die 256MB zum teil schon deutlich aus.

und da der nächste NV chip, wohl nichtnur mehr pipes sondern auch mehr takt bekommen wird, werden auch 800MHz b.z.w. 1600MHz DDR nich langen um bandbreiten probleme zu beseitigen.

meine prognose darum:
500MHz+ core
24 pipes
800MHz b.z.w. 1600MHz DDR speichertakt
512MB
512bit anbindung

mapel110
2005-05-10, 06:47:20
wo liegt das problem ?
kommende highend karten haben eh 512MB, dadrunter würden sie sich selber ausbremsen, da der texturspeicher schneller voll wäre als man "voll" sagen kann, selbst bei der jetzigen generation bremsen die 256MB zum teil schon deutlich aus.

und da der nächste NV chip, wohl nichtnur mehr pipes sondern auch mehr takt bekommen wird, werden auch 800MHz b.z.w. 1600MHz DDR nich langen um bandbreiten probleme zu beseitigen.

meine prognose darum:
500MHz+ core
24 pipes
800MHz b.z.w. 1600MHz DDR speichertakt
512MB
512bit anbindung
Mehr speicher löst das Bandbreitenproblem nicht. oder werden neuerdings Radeon 9600 SE Karten(64bit Interface) urplötzlich durch 256 MB performant?! :|

seahawk
2005-05-10, 08:26:30
0,11µ wurde von vielen als Beinahe-Tatsache hingestellt - keine Ahnung.


Wobei 0,11 sich als sehr brauchbarer Prozess erweißt. Geht man von einer konstanten Taktung aus, dann ist es denkbar, dass sie in der Verlsutleistung unter dem NV40@Ultra bleiben.

Oder sie überraschen mit 0,09nm.

ShadowXX
2005-05-10, 09:19:19
wo liegt das problem ?
kommende highend karten haben eh 512MB, dadrunter würden sie sich selber ausbremsen, da der texturspeicher schneller voll wäre als man "voll" sagen kann, selbst bei der jetzigen generation bremsen die 256MB zum teil schon deutlich aus.


Bei welchen Game bremsen "nur" 256MB??

Selbst bei Doom3 hat man bei HQ nur in ausgewählten Szenen bei 1600x1200 mit 4xAA/8xAF gerade mal 9% Speedgewinn mit den 512MB-Karten.

SKYNET
2005-05-10, 09:44:13
Mehr speicher löst das Bandbreitenproblem nicht. oder werden neuerdings Radeon 9600 SE Karten(64bit Interface) urplötzlich durch 256 MB performant?! :|

du slidest grade an dem was ich meinte vorbei...

512bit speicherbus erfordert 16 module ~ 16 x 32 = 512MB

und NV40/45 b.z.w. R420 werden jetzt ja schon zum teil durch die "knappen" 256MB ausgebremst.

also recht sinnvoll gleich 512MB mit 512bit zu "verbinden".

SKYNET
2005-05-10, 09:46:10
Bei welchen Game bremsen "nur" 256MB??

Selbst bei Doom3 hat man bei HQ nur in ausgewählten Szenen bei 1600x1200 mit 4xAA/8xAF gerade mal 9% Speedgewinn mit den 512MB-Karten.


alleine "nur" 9% speedgewinn. :rolleyes:

die neuen karten werden deutlich schneller, sprich man kann nochmal nen gang(auflösung/quali) höher schalten, dann wirds noch knapper mit dem speicher, und selbst ne 256MB 9800pro zeigt bei UT2004 gegenüber der 128MB variante vorteile(beide auf XT getaktet).

The_Invisible
2005-05-10, 09:52:03
alleine "nur" 9% speedgewinn. :rolleyes:

die neuen karten werden deutlich schneller, sprich man kann nochmal nen gang(auflösung/quali) höher schalten, dann wirds noch knapper mit dem speicher, und selbst ne 256MB 9800pro zeigt bei UT2004 gegenüber der 128MB variante vorteile(beide auf XT getaktet).

von 128 auf 256 ist eine sache, von 256 auf 512mb wieder eine andere

es gibt ja bereits 512mb karten, aber das verhältnis preis/leistung ist hier unzumutbar, freaks kaufen es, aber sonst keiner

außerdem sind die jetzigen für 1600x1200/4AA/16AF eh wieder zu langsam, für SLI wäre es noch interessant

mfg

SKYNET
2005-05-10, 10:02:53
von 128 auf 256 ist eine sache, von 256 auf 512mb wieder eine andere

es gibt ja bereits 512mb karten, aber das verhältnis preis/leistung ist hier unzumutbar, freaks kaufen es, aber sonst keiner

außerdem sind die jetzigen für 1600x1200/4AA/16AF eh wieder zu langsam, für SLI wäre es noch interessant

mfg


1600 4x/16x geht eigentlich im (fast) jedem spiel(ich glaube riddick bildet ne ausnahme), auch mit nur einer GT/Ultra.

ShadowXX
2005-05-10, 10:16:48
alleine "nur" 9% speedgewinn. :rolleyes:

die neuen karten werden deutlich schneller, sprich man kann nochmal nen gang(auflösung/quali) höher schalten, dann wirds noch knapper mit dem speicher, und selbst ne 256MB 9800pro zeigt bei UT2004 gegenüber der 128MB variante vorteile(beide auf XT getaktet).

Diese 9% gibts nur in sehr speziellen Szenen und von diesen gibts gerade mal eine Handvoll....ließ mal die News vom 3DCenter des heutigen Tages.


Warum der "Ultra Quality" Modus von Doom 3 mit einer 512-MB-Grafikkarte keinen deutlichen Performance-Unterschied zu 256-MB-Grafikkarten ergibt, haben Beyond3D einen der Programmierer bei id Software gefragt. Nach dessen Auskunft gibt es nur eine limitierte Anzahl von Szenen, wo 256 MB Grafikspeicher im "Ultra Quality" Modus zu wenig wären. Beyond3D haben mit der Performance-Messung einer solchen Szene ihren Artikel zur 512-MB-Grafikkarte von Sapphire aktualisiert und konnten dort dann immerhin 9 Prozent Performance-Unterschied feststellen - allerdings nur bei 1600x1200 (4xAA samt 8xAF), darunter war der Unterschied eher nicht relevant. Insofern erscheint Doom 3 weiterhin nicht als Spiel, welches von 512-MB-Grafikkarten wirklich profitiert.


Und D3 war eins der "ich brauche eine 512MB Karte" Games...bzw. wurde als ein solches tituliert...

SKYNET
2005-05-10, 10:33:53
Diese 9% gibts nur in sehr speziellen Szenen und von diesen gibts gerade mal eine Handvoll....ließ mal die News vom 3DCenter des heutigen Tages.



Und D3 war eins der "ich brauche eine 512MB Karte" Games...bzw. wurde als ein solches tituliert...


ja und nun stelle dir mal die nächste grafik generation mit nur 256MB vor, bei ner auflösung von 2048*1536 4xAA/16xAF oder 1600*1200 16xAA/16xAF... 256MB wären da hoffnungslos überfordert.

oder mal um es kurz zumachen:
aktuelle generation: 256MB langt
next gen: 512MB ein MUSS

weil was bringen einem unendlich viel speed, aber nicht nutzbar weil der texturspeicher überläuft ? :|

seahawk
2005-05-10, 10:38:40
ja und nun stelle dir mal die nächste grafik generation mit nur 256MB vor, bei ner auflösung von 2048*1536 4xAA/16xAF oder 1600*1200 16xAA/16xAF... 256MB wären da hoffnungslos überfordert.

oder mal um es kurz zumachen:
aktuelle generation: 256MB langt
next gen: 512MB ein MUSS

weil was bringen einem unendlich viel speed, aber nicht nutzbar weil der texturspeicher überläuft ? :|

Ich bezweifel mal, dass derartige Auflösungen in der Lebenszeit der Grfaikarten eine Martbedeutung haben. 2048x1536 + 4xAA/16xAF in SM3.0 High-End-Games mit HDR und den genannten AA+AF Einstellungen geht höchstens als SLi.

Coda
2005-05-10, 10:39:51
Du magst wohl recht haben dass die nächste Generation 512MB haben wir, aber so krass wie du es darstellst ist es bei weitem nicht.

q@w
2005-05-10, 10:45:52
Ich denke schon, daß mehr als 256 MB auf dem G70 einiges bringen werden. Gerade das Filter@Scanout-Verfahren benötigt bei nV noch immer einiges an Speicherplatz im Gegensatz zu den ATis.

So fallen die Karten in hohen Auflösungen unproportional stark ab, wenn 4xAA genutzt wird und der Treiber dort nicht "aufpaßt". Wenn er jedoch "aufpaßt", wird F@S abgeschaltet (vermute ich) und die Bandbreite wieder stärker belastet.

Aber gerade die Bandbreite scheint wohl, wenn wir bei einem 256 Bit Interface bleiben, eine der größten Bremsen zu werden und so schließt sich der Kreis wieder.

Und wer weiß, vielleicht gibt es demnächst ja auch noch höhere AA-Modi...

robbitop
2005-05-10, 10:58:50
Ich denke schon, daß mehr als 256 MB auf dem G70 einiges bringen werden. Gerade das Filter@Scanout-Verfahren benötigt bei nV noch immer einiges an Speicherplatz im Gegensatz zu den ATis.

So fallen die Karten in hohen Auflösungen unproportional stark ab, wenn 4xAA genutzt wird und der Treiber dort nicht "aufpaßt". Wenn er jedoch "aufpaßt", wird F@S abgeschaltet (vermute ich) und die Bandbreite wieder stärker belastet.

Aber gerade die Bandbreite scheint wohl, wenn wir bei einem 256 Bit Interface bleiben, eine der größten Bremsen zu werden und so schließt sich der Kreis wieder.

Und wer weiß, vielleicht gibt es demnächst ja auch noch höhere AA-Modi...
Bei 256MiB scheints jedoch zu reichen laut dem B3D Test. Oder was meinst du? (deine TBuffer 16x12 4xAA Max Payne2 Tests??)

Godmode
2005-05-10, 11:29:59
meine prognose darum:
500MHz+ core
24 pipes
800MHz b.z.w. 1600MHz DDR speichertakt
512MB
512bit anbindung

hui wenn sie sowas bringen würden, das ist aber IMO ein Traum!

NV40:
16*400=6,4GPixel/s
1000*256/8=32GB/s

G70 Skynet Edition:
24*500 = 12GPixel/s
1600*512/8= 102GB/s

Der hätte dann die doppelte Füllrate des NV40 und die 3-fache Speicherbandbreite, würde da nicht das doppelte der NV40 Speicherbandbreite ausreichen?

meine Vermutung:
G70
24*450 = 10,8GPixel/s
1400*256/8 = 44,8GB

Coda
2005-05-10, 11:32:12
Es gibt für so komplexe PCBs wohl nichtmal Massenfertigung vermute ich.

Die GeForce 6800 hat jetzt schon 10 Layer was schon reichlich teuer ist, für 512bit wäre man mit Sicherheit bei 16. Das ist unbezahlbar.

robbitop
2005-05-10, 11:33:49
würde da nicht das doppelte der NV40 Speicherbandbreite ausreichen?



Hm nein. Man sieht ja wie sehr NV40/R420 an Leistung bei 4xAA verlieren (AF kaschiert das etwas). Mehr Bandbreite würde den Flaschenhals für AA etwas weiten. Außerdem wollen wir ja irgendwann mal 6-8xMSAA in Spielen haben, oder? ;)

robbitop
2005-05-10, 11:35:36
Es gibt für so komplexe PCBs wohl nichtmal Massenfertigung vermute ich.

Die GeForce 6800 hat jetzt schon 10 Layer was schon reichlich teuer ist, für 512bit wäre man mit Sicherheit bei 16. Das ist unbezahlbar.

Man wird wohl auf 512MBit BGA's mit nativer 64 Bit Anbindung warten müssen. Dann wird's bezahlbar.

Coda
2005-05-10, 11:38:03
Wieso wird das dann bezahlbarer? Weniger Leiterbahnen sind's damit auch nicht.

robbitop
2005-05-10, 11:39:01
Wieso wird das dann bezahlbarer? Weniger Leiterbahnen sind's damit auch nicht.

Weniger BGA's sind nötig, was das PCB Layout vereinfacht ;)
Weniger Leiterbahnen werden es nie werden. Und irgendwann wird man den Schritt gehen müssen.

Godmode
2005-05-10, 11:49:56
Hm nein. Man sieht ja wie sehr NV40/R420 an Leistung bei 4xAA verlieren (AF kaschiert das etwas). Mehr Bandbreite würde den Flaschenhals für AA etwas weiten. Außerdem wollen wir ja irgendwann mal 6-8xMSAA in Spielen haben, oder? ;)


Ok dann nehmen sie doch die 800MHz Bausteine! Weiß man da etwas um wieviel teurer diese Bausteine sind?

Coda
2005-05-10, 11:51:08
Ich glaube nicht dass es dazu kommt. Vorher wird XDR verwendet, das mehr pro Takt überträgt.

robbitop
2005-05-10, 11:51:41
Ok dann nehmen sie doch die 800MHz Bausteine! Weiß man da etwas um wieviel teurer diese Bausteine sind?
700-800MHz sind absolut notwendig, denn so schnell wird man IMO nicht auf 512 Bit umstellen. Und deswegen glaube ich, dass R520/G70 etwas überschätzt werden.
Beide Arten BGA's werden sicher wieder schlecht verfügbar und die Preise so, wie sie zu Anfangszeiten bei 1,6ns BGA's waren. (IMO)

robbitop
2005-05-10, 11:52:56
Ich glaube nicht dass es dazu kommt. Vorher wird XDR verwendet, das mehr pro Takt überträgt.
Das hat ATI in einem Interview mit mir schon deutlich dementiert.
Wie wär's mit GDDR4?

Coda
2005-05-10, 11:54:30
GDDR4 überträgt mehr pro Takt? Das wäre mir neu...

Ich meinte auch eher in späteren Generationen.

robbitop
2005-05-10, 11:55:48
GDDR4 überträgt mehr pro Takt? Das wäre mir neu...

Ich meinte auch eher in späteren Generationen.
Nein, aber ob ich die Bandbreite durch mehr Takt oder durch ein breiteres Interface erreiche, ist doch egal oder?

Möglich.

Coda
2005-05-10, 11:59:35
Ja eben. Man wird vorher versuchen die Frequenz erheblich zu erhöhen bevor man mit 512bit kommt.

Hauwech
2005-05-10, 12:44:57
Das hat ATI in einem Interview mit mir schon deutlich dementiert.
Wie wär's mit GDDR4?

Könnte es vielleicht für Nvidia was mit XDR werden? Zumindest wird es doch bei der PS3 verwendet iirc. Ich weiss jetzt allerdings nicht, ob Nvidia das Speicherinterface dafür selber entwickelt, aber irgendwas mit Lizenzen war da doch.

robbitop
2005-05-10, 12:56:20
Von NV habe ich dazu keine Aussage. Aber an sich orientieren sich die IHV's wie man die letzten Jahre zu oft sehen konnte sehr aneinander. Ich persönlich denke, dass es so schnell nichts mit XDR wird. Aber ich lasse mich gern überraschen.

Godmode
2005-05-10, 13:08:27
persönlich denke, dass es so schnell nichts mit XDR wird. Aber ich lasse mich gern überraschen.

Vor allem weil XDR von Rambus kommt!

Hauwech
2005-05-10, 13:59:07
Vor allem weil XDR von Rambus kommt!

Sagen wir es mal so: Würde man danach gehen wie gut oder schlecht der Ruf einer Firma ist, würde es so manche Firmen nicht mehr geben.

Rambus hat zwar Dreck am Stecken aber Sony ist bestimmt nicht blauäugig und hat sich entsprechend abgesichert. Anscheinend entspricht XDR den Ansprüchen von Sony. Warum sollten sie dann auf was anderes setzen was für sie schlechter wäre?

Ich weiss zwar nicht wie groß Rambus ist, aber um Streitigkeiten aus dem Weg zu gehen kann man es im Zweifelsfall kaufen. :biggrin:

Godmode
2005-05-10, 15:46:33
Die haben viel Dreck am Stecken! Sie haben schon einige Firmen abgezogen weil anscheinend Patente von ihnen verletzt wurden, was da nun die Wahrheit ist kann ich auch nicht sagen.

Aber das könnte wirklich gut passen G70 und XDR. Nvidia/Sony haben ja sogar öffentlich gesagt, dass es einen Technologietransfer gibt, IIRC.

Hauwech
2005-05-10, 17:16:24
Die haben viel Dreck am Stecken! Sie haben schon einige Firmen abgezogen weil anscheinend Patente von ihnen verletzt wurden, was da nun die Wahrheit ist kann ich auch nicht sagen.

Aber das könnte wirklich gut passen G70 und XDR. Nvidia/Sony haben ja sogar öffentlich gesagt, dass es einen Technologietransfer gibt, IIRC.

An G70 + XDR glaube ich nicht so wirklich. Bis jetzt sind noch keine Infos, nichts in der Richtung aufgetaucht. Nee, imho wird Nvidia erstmal in aller Seelenruhe abwarten wie sich ihr Chip, hat der eigentlich schon einen Namen oder Nummer :confused: , mit XDR in der PS3 schlägt.

Godmode
2005-05-10, 17:22:57
Bis jetzt sind noch keine Infos, nichts in der Richtung aufgetaucht.

Hm also wenn du dich noch an letztes Jahr erinnern kannst, da gabs auch keine Infos, also zur Zeit ist noch alles offen!

edit:

Ist von eucht wer unter einem NDA?

robbitop
2005-05-10, 17:45:59
Ist von eucht wer unter einem NDA?
Du erwartest darauf hoffentlich keine Antwort? ;)

Mr. Tweety
2005-05-10, 17:47:59
Wahr heute bei einer Intel Veranstaltung wo auch ein paar Vertreter von NVIDIA/MSI vor Ort waren.

Hab ihn ein paar Fragen über den G70/(7xxxGxx -> Hat mir den Namen gesagt, leider auch vergessen, hatte nach dem Gespräch gerade nix zum schreiben da) gestellt die er auch bereitwillig beantwortet hat.

Hier ein paar Infos
0,11µ
ca. 300 Millionen Transistoren
24 Pipelines
Core 400 Mhz oder 470 Mhz(Hab ich vergessen)
Speicher 600 Mhz
Speicher & Speicherinterface hab ich leider vergessen zu fragen.
Launch war um den 20/22 Mai (Auch leider das genaue Datum vergessen)
Verfügbarkeit ende Juni, Man will es so lange es geht hinauszögern um Druck auf ATI zu machen ihre Karten zu releasen.
Er hat mir aber versichert das es nicht noch mal zu so einem Verfügbarkeitsdebakel wie zur 6800 geben soll.

Als ich fragte wie schnell er ist meinte er ca 100% Steigerung im 3dMark bei spielen nicht aber sie arbeiten dran ... (Marketingblubber was soll er sonst sagen)
Er ist aber guter Dinge den R520 zu schlagen.
Und wenn alle Stricke reissen haben sie noch SLI.
Zu AMR meinte er nur das es komisch implementiert und verdrehte die Augen bei Master und Slave.

Gast
2005-05-10, 18:04:23
Wahr heute bei einer Intel Veranstaltung wo auch ein paar Vertreter von NVIDIA/MSI vor Ort waren.

Hab ihn ein paar Fragen über den G70/(7xxxGxx -> Hat mir den Namen gesagt, leider auch vergessen, hatte nach dem Gespräch gerade nix zum schreiben da) gestellt die er auch bereitwillig beantwortet hat.

Hier ein paar Infos
0,11µ
ca. 300 Millionen Transistoren
24 Pipelines
Core 400 Mhz oder 470 Mhz(Hab ich vergessen)
Speicher 600 Mhz
Speicher & Speicherinterface hab ich leider vergessen zu fragen.
Launch war um den 20/22 Mai (Auch leider das genaue Datum vergessen)
Verfügbarkeit ende Juni, Man will es so lange es geht hinauszögern um Druck auf ATI zu machen ihre Karten zu releasen.
Er hat mir aber versichert das es nicht noch mal zu so einem Verfügbarkeitsdebakel wie zur 6800 geben soll.

Als ich fragte wie schnell er ist meinte er ca 100% Steigerung im 3dMark bei spielen nicht aber sie arbeiten dran ... (Marketingblubber was soll er sonst sagen)
Er ist aber guter Dinge den R520 zu schlagen.
Und wenn alle Stricke reissen haben sie noch SLI.
Zu AMR meinte er nur das es komisch implementiert und verdrehte die Augen bei Master und Slave.

endlich mal jemand der was zu sagen hat

robbitop
2005-05-10, 18:06:33
ist nur die Frage wie authentisch das ist. Einfach so rückt ein NV Mitarbeiter die Specs raus....

Mr. Tweety
2005-05-10, 18:20:26
ist nur die Frage wie authentisch das ist. Einfach so rückt ein NV Mitarbeiter die Specs raus....
Was ihr damit macht ist eure Sache.
Ich hatte die möglichkeit zu Fragen und hab gefragt.
Er hat geantwortet und ich habs hier reingeschrieben.

Obs jetzt stimmt oder nicht kann ich nicht beurteilen.
Und da ich eher ein Lurker bin und kein Forenvielschreiber (was man an meinem Postcount sieht) sehe ich auch keinen Grund mir etwas aus den Fingern zu saugen.

Wie gesagt wenns stimmt gut wenn nicht kann ich nix dafür.
Spätenstens um den 2X. Mai wissen wir genaueres.

robbitop
2005-05-10, 18:32:07
die G70 Specs sehen IMO sehr wahrscheinlich aus (sind aber in der Form IIRC schon seit September 2004 im Netz [damals als NV47]).

ShadowXX
2005-05-10, 19:36:18
die G70 Specs sehen IMO sehr wahrscheinlich aus (sind aber in der Form IIRC schon seit September 2004 im Netz [damals als NV47]).

Ja, die Specs sind durchaus realistisch...ich schätze beim Coretakt kommen wohl die 400MHz besser hin als die 470.

Nur das mit den 600MHz Speicher ist etwas enttäuschend...ich hatte auf 700MHz gehofft, den selbst meine jetzige Ultra hat schon 600MHz.

ATI und nV müssen sich wegen dem Speicher langsam mal was einfallen lassen....512Bit-Interface ist wohl illusorisch, selbst für die Nachfolgekarten von G70/r520.

600MHz für einen 24Piper ist IMHO doch arg arg wenig.

stav0815
2005-05-10, 19:44:15
krallt euch mal nicht an 512bit Interfaces fest. imho ist der Sprung zu groß als dass man nicht einfach einen Zwischenschritt machen könnte.

Godmode
2005-05-10, 19:48:36
ATI und nV müssen sich wegen dem Speicher langsam mal was einfallen lassen....512Bit-Interface ist wohl illusorisch, selbst für die Nachfolgekarten von G70/r520.


Wie oben schon erwähnt ausweichen auf Ram(Abzocker)bus.


Du erwartest darauf hoffentlich keine Antwort? ;)


man kann doch ja oder nein sagen, oder ist das auch nicht drinn?

Mr. Tweety
2005-05-10, 20:56:07
Nur das mit den 600MHz Speicher ist etwas enttäuschend...ich hatte auf 700MHz gehofft, den selbst meine jetzige Ultra hat schon 600MHz.


Ich hatte ihn kurz darauf angesprochen ob höherer Speicher verfügbar ist.
Er meinte ja, da wir aber danach kurz über die Verfügbarkeit gesprochen haben und er sagte sie wollen nicht nochmal so ein debakel erleben gehe ich mal davon aus das es warscheinlich zu wenig Speicherchips geben würde um die Verfügbarkeit zu gewährleisten.

SKYNET
2005-05-10, 22:26:47
Du erwartest darauf hoffentlich keine Antwort? ;)


also ja. ;)

wieviel geld oder bier muss ich dir geben, damit du singst wie ein kanarienvogel ? :| :rolleyes: :D

SKYNET
2005-05-10, 22:29:46
Ja, die Specs sind durchaus realistisch...ich schätze beim Coretakt kommen wohl die 400MHz besser hin als die 470.

Nur das mit den 600MHz Speicher ist etwas enttäuschend...ich hatte auf 700MHz gehofft, den selbst meine jetzige Ultra hat schon 600MHz.

ATI und nV müssen sich wegen dem Speicher langsam mal was einfallen lassen....512Bit-Interface ist wohl illusorisch, selbst für die Nachfolgekarten von G70/r520.

600MHz für einen 24Piper ist IMHO doch arg arg wenig.


eher die 470MHz, da kleineres fertigungsverfahren.

Iwan
2005-05-10, 23:17:01
eher die 470MHz, da kleineres fertigungsverfahren.

aber 50% mehr pipes und höhere taktrate bei nur einem wechsel von vermutlich 0,13µm auf 0,11µm? falls es ein 24piper@0,11µm wird, gehe ich mal von einem etwas niedrigeren takt bzw maximal dem gleichen coretakt wie beim nv40 aus.

ShadowXX
2005-05-10, 23:19:09
aber 50% mehr pipes und höhere taktrate bei nur einem wechsel von vermutlich 0,13µm auf 0,11µm? falls es ein 24piper@0,11µm wird, gehe ich mal von einem etwas niedrigeren takt bzw maximal dem gleichen coretakt wie beim nv40 aus.

Speziell da der 0,11µm Prozess eigentlich nicht für High-End konzipiert war.

Eigentlich sollten damit "billig" Mid- und Low-Range GPUs hergestellt werden.

SKYNET
2005-05-10, 23:50:07
Speziell da der 0,11µm Prozess eigentlich nicht für High-End konzipiert war.

Eigentlich sollten damit "billig" Mid- und Low-Range GPUs hergestellt werden.


ja, weil diese oft höher getaktet sind als ihre highend geschwister, lässt sich mit kleineren fertigungsverfahren halt besser bewekstelligen.
darum würde ich auch davon ausgehn das der nächste NV chip halt mehr takt bekommt, als die jetzigen highend versionen.

aber 50% mehr pipes und höhere taktrate bei nur einem wechsel von vermutlich 0,13µm auf 0,11µm? falls es ein 24piper@0,11µm wird, gehe ich mal von einem etwas niedrigeren takt bzw maximal dem gleichen coretakt wie beim nv40 aus.


wenn wird es wohl min. der coretakt der NV45 sein(425MHz).

Iwan
2005-05-11, 00:06:20
ja, weil diese oft höher getaktet sind als ihre highend geschwister, lässt sich mit kleineren fertigungsverfahren halt besser bewekstelligen.
darum würde ich auch davon ausgehn das der nächste NV chip halt mehr takt bekommt, als die jetzigen highend versionen.


dafür haben die kleinern gpus auch meisten weniger pipes (ergo weniger transen) und lassen sich deshalb auch höher takten als ihre größeren brüder. mit der begründung die kleinen chips liesen sich gut takten also wird das mit dem g70 auch klappen wirste also net weit kommen.

SKYNET
2005-05-11, 00:08:51
dafür haben die kleinern gpus auch meisten weniger pipes (ergo weniger transen) und lassen sich deshalb auch höher takten als ihre größeren brüder. mit der begründung die kleinen chips liesen sich gut takten also wird das mit dem g70 auch klappen wirste also net weit kommen.


mit den pipes und transen hat das herzlich wenig zutun, siehe P4 preskopp(transen) und r4x0(pipes).

Iwan
2005-05-11, 00:18:00
mit den pipes und transen hat das herzlich wenig zutun, siehe P4 preskopp(transen) und r4x0(pipes).

okay warten wir ab was rauskommt. ich bleib bei meinem tipp von einem niedrigeren core-takt. :wink:

Coda
2005-05-11, 00:54:05
Ja, die Sache ist sehr seltsam. Wenn 90nm 32 Pipelines vs. 110nm 24 Pipelines wirklich stimmt müsste die Runde sehr klar an ATi gehen.
Aber nVidia ist doch nicht doof? Irgendwas ist da einfach faul...

mapel110
2005-05-11, 01:01:08
Ja, die Sache ist sehr seltsam. Wenn 90nm 32 Pipelines vs. 110nm 24 Pipelines wirklich stimmt müsste die Runde sehr klar an ATi gehen.
Aber nVidia ist doch nicht doof? Irgendwas ist da einfach faul...
Ich sehe da immernoch einen Erfahrungsbonus bei nvidia. ATI muss erstmal Leistung bringen mit einem SM3-Chip, nvidia hat das schon und kann sich nochmals um die Effizienz(puh, endlich mal richtig geschrieben :smile: ) kümmern und aus einem bestehenden Design Rückschlüsse ziehen.

Ich will jedenfalls noch nicht so recht dran glauben, dass ATI ein wirklich großer Wurf gelingt und vorallem glaube ich nicht, dass nvidia deutlich in Sachen Performance geschlagen wird.

Coda
2005-05-11, 01:07:44
Aber heute zählt ja eher noch SM 2.0 und da kann R520 kaum ineffizient sein.

SKYNET
2005-05-11, 01:14:13
Ich sehe da immernoch einen Erfahrungsbonus bei nvidia. ATI muss erstmal Leistung bringen mit einem SM3-Chip, nvidia hat das schon und kann sich nochmals um die Effizienz(puh, endlich mal richtig geschrieben :smile: ) kümmern und aus einem bestehenden Design Rückschlüsse ziehen.

Ich will jedenfalls noch nicht so recht dran glauben, dass ATI ein wirklich großer Wurf gelingt und vorallem glaube ich nicht, dass nvidia deutlich in Sachen Performance geschlagen wird.


ack, NV wird da schon was übles aus dem ärmel zaubern... notfalls hat das teil dann ne halbe milliarde transen... NV wäre es zuzutrauen. :biggrin:

wie gesagt, NV hat noch nie gekleckert, immer geklotzt.

mapel110
2005-05-11, 01:16:35
Aber heute zählt ja eher noch SM 2.0 und da kann R520 kaum ineffizient sein.
Najo, ihr Gurus erzählt doch immer, wie groß die Änderungen sind an einem SM2-Chip um auf SM3 zu kommen. Da kann man doch sicher was falsch machen?!

Ailuros
2005-05-11, 02:53:44
Speziell da der 0,11µm Prozess eigentlich nicht für High-End konzipiert war.

Eigentlich sollten damit "billig" Mid- und Low-Range GPUs hergestellt werden.

NV42 ist aber nicht gerade "billig" fuer den Markt fuer den er gedacht ist. 3quads@450MHz, 5VS und ungefaehr auf 6800GT Leistungs-Nivaeu.

Von den ROPs abgesehen, soll G70 ein quasi 2*NV42 sein und die 300M Transistoren sind auch zu viel. Eher 240-245M.

mapel110
2005-05-11, 03:24:35
Von den ROPs abgesehen, soll G70 ein quasi 2*NV42 sein und die 300M Transistoren sind auch zu viel. Eher 240-245M.
6 Quads bei 245 Mio Transistoren?! Wie das?!

Ailuros
2005-05-11, 03:33:06
6 Quads bei 245 Mio Transistoren?! Wie das?!

Ich vermute nicht mehr als 16 ROPs und dass einiges redundantes Zeug auch entfernt wurde.

Will man Transistoren einschaetzen sollte man eher in Richtung 2xNV43 denken.

Adam D.
2005-05-11, 06:58:58
Weiß nicht, ob's schon da war, aber laut Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/2005/mai/neues_atis_r520_nvidias_g70/) soll der G70 hauptsächlich durch seinen geringen Stromverbrauch und die damit verbundene, geringe Wärmeabgabe, punkten. Daher soll eine Ein-Slot-Kühllösung ausreichen, um den G70 zu kühlen.

Quasar
2005-05-11, 10:55:24
Das kommt vom Inquirer.

Gast
2005-05-11, 11:45:15
Aber heute zählt ja eher noch SM 2.0 und da kann R520 kaum ineffizient sein.


naja, eigentlich sollte ein chip der SM2 effizient rechnen kann auch SM3 effizient beherrschen (sofern er es überhaupt kann), dynamic branches und dergleichen mal ausgenommen.

die frage ist eher ob es ati gelingt mit der höheren transistorenlast durch SM3 einen effizienten chip zu bauen.

eigentlich hatten sie aber lang genug zeit dafür, also sollte ihnen auch das gelingen.

Godmode
2005-05-11, 11:56:48
eigentlich hatten sie aber lang genug zeit dafür, also sollte ihnen auch das gelingen.

vielleicht hatten sie genug Zeit, aber ob sie die nötigen Leute für die ganzen Projekte haben?

Ich weiß nicht wieviele Leute sie zur Verfügung haben, aber zur Zeit oder in der letzten Zeit hatten sie sicher nirgends zuviele Leute, bei der Menge an Projekten.

OT: Wird eigentlich R500 und R520 von verschiedenen Teams entwickelt? IIRC entwickeln sie auch für Nintendos Nextgen Console eine Graphikeinheit.

DrumDub
2005-05-11, 12:15:58
OT: Wird eigentlich R500 und R520 von verschiedenen Teams entwickelt? nein, zumindest laut dave orton nicht:

Would I be correct in suggesting that mainly Marlborough and Orlando would be the R&D centres – with the design of various algorithms for new 3D parts – while the Santa Clara team would be primarily responsible for implementing them in silicon?

No, because the architecture of the R300 and R500 is all coming from the Valley, but we’ve got great architects in all three sites.

Bob Drebin in the Valley is in charge of the architecture team and so he’s in charge of the development of all the subsequent architectures but he goes out to the other teams key leaders and that forms the basis of the unified architectural team. At an implementation level, you’re right – Marlborough is mainly focused on the “special projects” and that will probably be another 18 to 24 months for them. So the R600 family will mainly be centred primarily in the Valley and Orlando with a little bit from Marlborough, and then the R800 would be more unified. http://www.beyond3d.com/interviews/daveorton/index.php?p=3

ShadowXX
2005-05-11, 13:17:13
NV42 ist aber nicht gerade "billig" fuer den Markt fuer den er gedacht ist. 3quads@450MHz, 5VS und ungefaehr auf 6800GT Leistungs-Nivaeu.

Von den ROPs abgesehen, soll G70 ein quasi 2*NV42 sein und die 300M Transistoren sind auch zu viel. Eher 240-245M.

Irgendwie habe ich langsam das Gefühl, das weder der G70 noch der r520 wirklich großartig was "reissen" werden.....

Mal sehen, was am Ende dann rauskommt.

Coda
2005-05-11, 13:21:33
Najo, ihr Gurus erzählt doch immer, wie groß die Änderungen sind an einem SM2-Chip um auf SM3 zu kommen. Da kann man doch sicher was falsch machen?!Ja, aber es ist sehr sehr unwahrscheinlich dass ATi bei der SM 2.0 Performance dafür abstriche macht.

naja, eigentlich sollte ein chip der SM2 effizient rechnen kann auch SM3 effizient beherrschen (sofern er es überhaupt kann), dynamic branches und dergleichen mal ausgenommen.Ja natürlich. Aber es geht ja gerade um diese kritischen Features.

ComputerBase:
nachdem nVidias Grafikkarten bisher immer mehr Strom verbraucht hatten, was schlussendlich sogar zu zwei zusätzlichen Stromsteckern auf der GeForce 6800 Ultra geführt hat.Stirbt das Gerücht eigentlich nie aus? eine 5950 Ultra braucht mehr Saft als eine 6800 Ultra.

Iwan
2005-05-11, 14:01:18
Ja, die Sache ist sehr seltsam. Wenn 90nm 32 Pipelines vs. 110nm 24 Pipelines wirklich stimmt müsste die Runde sehr klar an ATi gehen.
Aber nVidia ist doch nicht doof? Irgendwas ist da einfach faul...

auch an 32 pipes beim r520 glaub ich kaum. vllt hat das ati-marketing wieder extrem piplines gezählt und ist so auf 32 gekommen ;D

Godmode
2005-05-11, 14:25:30
auch an 32 pipes beim r520 glaub ich kaum. vllt hat das ati-marketing wieder extrem piplines gezählt und ist so auf 32 gekommen ;D

Schwer zum sagen, man müsste schon wissen wie gut der 90nm Low-K Prozess ist!

ShadowXX
2005-05-11, 14:38:10
auch an 32 pipes beim r520 glaub ich kaum. vllt hat das ati-marketing wieder extrem piplines gezählt und ist so auf 32 gekommen ;D

Wenn man den 48Pipe nonsense des r520 gelesen hat, weis man woher die 32 Pipes kommen (...nochmal danke an AiL und ein persönlichen vermerk an mein Gehirn, das es sich ab und zu beim lesen von solchen sachen einschalten sollte).

Irgendetwas im Design des r520 wird mit "32" zu tun haben (z.B. könnte es sich ebenfalls auf die ALUs beziehen)....was auch immer. Aber auf die Anzahl der Pipes wird es sich IMHO nicht beziehen.

Im schlimmsten Fall hat jemand den Fakt, das der r520 jetzt FP32 hat in den falschen Hals bekommen....

Gast
2005-05-11, 15:12:11
Wenn man den 48Pipe nonsense des r520 gelesen hat, weis man woher die 32 Pipes kommen (...nochmal danke an AiL und ein persönlichen vermerk an mein Gehirn, das es sich ab und zu beim lesen von solchen sachen einschalten sollte).

Irgendetwas im Design des r520 wird mit "32" zu tun haben (z.B. könnte es sich ebenfalls auf die ALUs beziehen)....was auch immer. Aber auf die Anzahl der Pipes wird es sich IMHO nicht beziehen.

Im schlimmsten Fall hat jemand den Fakt, das der r520 jetzt FP32 hat in den falschen Hals bekommen....

Wenn er SM3 beherrscht, dann macht er durchgängig _32bit_. Vielleicht ist das ja die ominöse 23 errrr 32...

Ailuros
2005-05-12, 04:57:31
Wenn man den 48Pipe nonsense des r520 gelesen hat, weis man woher die 32 Pipes kommen (...nochmal danke an AiL und ein persönlichen vermerk an mein Gehirn, das es sich ab und zu beim lesen von solchen sachen einschalten sollte).

Irgendetwas im Design des r520 wird mit "32" zu tun haben (z.B. könnte es sich ebenfalls auf die ALUs beziehen)....was auch immer. Aber auf die Anzahl der Pipes wird es sich IMHO nicht beziehen.

Im schlimmsten Fall hat jemand den Fakt, das der r520 jetzt FP32 hat in den falschen Hals bekommen....


Wenn dann eher ALU OPs als ALUs, oder jegliche andere Art von OPs. Ich hab eher das Gefuehl dass das Geheimnis der Entzifferung im R520= 16/1/1/1, R580= 16/1/3/1 Geruecht liegen koennte und der "3", wobei es sich mit hoechster Wahrscheinlichkeit auch um OPs handelt und nicht um mehr Einheiten.

Nach dem 32/24 Zeug, sollen ja alle vorhanden sein selbst in R520, nur eben 24 eingeschaltet.

Ich wuerde die 6 oder 8 quad Geschichte liebend gerne glauben (ueberhaupt mit =/>650MHz selbst wenn es moeglich waere) aber ich frag mich dann immer noch woher die Leistung fuer WGF2.0 chips Ende 2006 kommen soll.

robbitop
2005-05-12, 09:04:17
nein, zumindest laut dave orton nicht:

http://www.beyond3d.com/interviews/daveorton/index.php?p=3
Orton blubbert, ohne wirklich etwas Konkretes gesagt zu haben.

robbitop
2005-05-12, 09:06:53
Schwer zum sagen, man müsste schon wissen wie gut der 90nm Low-K Prozess ist!
90nm LV gibt es bei TSMC nicht mehr ohne low k dielectric. Warum erwähnst du low-k noch immer?

Godmode
2005-05-12, 11:24:47
90nm LV gibt es bei TSMC nicht mehr ohne low k dielectric. Warum erwähnst du low-k noch immer?

Weil es bei anderen Firmen auch 90nm LV gibt ohne Low-K, ok hier in dem Kontext wo wir sowiso wissen dass der R520 bei TSMC gefertigt wird könnte ich es weg lassen!

Apropos:
http://www.tsmc.com/download/english/a05_literature/90nm_Brochure.pdf
Kennt von euch wer diesen Chip auf dem Wafer am Anfang dieses PDF. Da ist auf einer Seite eine große Regelmäßigkeit zu erkennen was wahrscheinlich Cache ist. Wär nett wenn man wüsste was das für ein Chip ist!

Edit: beim 130nm Dokument wird der selbe Wafer verwendet, wird also doch nichts neues sein!

auch aus dem PDF:
interessant oder nur Marketinggeblubber?:

The Nexsys 90nm process provides numerous advantages over
other technologies. When compared with TSMC’s 0.13-micron
process, the Nexsys 90nm process doubles gate density and
boasts 35 percent faster speed, 60 percent improvement in active
power savings and a 20 percent interconnect RC improvement.

http://www.tsmc.com/english/b_technology/b01_platform/b010101_90nm.htm
One customer recently stated, "We are quite satisfied with TSMC Nexsys 90-nm process performance and yield. We are planning to move several products into TSMC 90-nm process as soon as we can".


könnte das Nvidia sein? weil zur Zeit haben sie ja bei IBM noch ein paar Produkte in Produktion?

robbitop
2005-05-12, 11:35:41
Apropos:
http://www.tsmc.com/download/english/a05_literature/90nm_Brochure.pdf
Kennt von euch wer diesen Chip auf dem Wafer am Anfang dieses PDF. Da ist auf einer Seite eine große Regelmäßigkeit zu erkennen was wahrscheinlich Cache ist. Wär nett wenn man wüsste was das für ein Chip ist!

auch aus dem PDF:
interessant oder nur Marketinggeblubber?:

The Nexsys 90nm process provides numerous advantages over
other technologies. When compared with TSMC’s 0.13-micron
process, the Nexsys 90nm process doubles gate density and
boasts 35 percent faster speed, 60 percent improvement in active
power savings and a 20 percent interconnect RC improvement.

http://www.tsmc.com/english/b_technology/b01_platform/b010101_90nm.htm
One customer recently stated, "We are quite satisfied with TSMC Nexsys 90-nm process performance and yield. We are planning to move several products into TSMC 90-nm process as soon as we can".


könnte das Nvidia sein? weil zur Zeit haben sie ja bei IBM noch ein paar Produkte in Produktion?

1. Marketing. Das ist relativ zu 130nm. Klar hat man pro cm^2 eine höhere Gate Density und klar ist ein 90nm Prozess sparsamer als ein 130nm Prozess.

2. Eher ATI. Allerdings lassen Kunden wie Xilinx ihre ASICs schon länger @90nm dort produzieren. Die sind dann auch weit weniger komplex.

DrumDub
2005-05-12, 11:36:56
Orton blubbert, ohne wirklich etwas Konkretes gesagt zu haben. hmm... ich seh da schon recht konkrete aussagen:

santa clara: aktuelle projekte (r500 und r520) und koordination -> hier läuft alles zusammen und hier werden die fertigen designs simuliert
orlando: next generation (r600)
marlborough: designentwürfe für in 18-24 monaten (r800)

robbitop
2005-05-12, 11:39:23
Jahaa aber er erzählte etwas von unified architecture team. Ergo irgendwie arbeiten ja alle zusammen und irgendwie doch nicht. Dass es einen gewissen IP Austausch gibt ist klar, aber so ganz konkret siehts hier eben IMO nicht aus.

Würden R520 und R500 vom gleichen Team stammen, dann würden beide vermutlich auch der selben Architektur angehören und der eine nur ein spinoff des Anderen sein.
Ob das stimmt oder auch nicht, wissen wir leider noch nicht.
Aber interessanter Punkt, der mich zum Denken anregt :up:

DrumDub
2005-05-12, 11:47:01
die zentrale rolle schient ja dieser bob drebin zu spielen. er trifft sich immer mit den chefs der anderen teams und koordiniert die arbeit, wobei eben letztendlich in santa clara dann erst die umsetzung von den theoretischen entwürfen in eine simulation erfogt. hängt wohl auch damit zusammen, dass die nur in santa clara die technischen mittel dazu haben. wär ja auch ein bisschen teuer die ganze hardware für ne simulation an jedem standort zu haben.

robbitop
2005-05-12, 12:04:49
Ergo
Für GPUs:
2 Teams und 1 Center für die Umsetzung (Simulatoren).
So ists bei NV auch.

Für Chipsets, Treiber und embedded Kram haben beide sicher noch andere Teams irgendwo herumlaufen *gg*

Godmode
2005-05-12, 12:17:57
Ergo
Für GPUs:
2 Teams und 1 Center für die Umsetzung (Simulatoren).
So ists bei NV auch.

Für Chipsets, Treiber und embedded Kram haben beide sicher noch andere Teams irgendwo herumlaufen *gg*


Dann würde jetzt also ein Team am R500/R520(laut Dave Orton) und das andere an NextGen Produkten arbeiten. Was ist dann aber zb mit der Nintendo Graphikeinheit, wer macht diese?

Coda
2005-05-12, 12:26:34
Auch ATi. Aber da wird man sich wohl am R500 orientieren imho.

robbitop
2005-05-12, 12:28:17
Ein R500 spinoff.

Godmode
2005-05-12, 12:31:09
Auch ATi. Aber da wird man sich wohl am R500 orientieren imho.

Blöd formuliert von mir ich wollte sagen welches Team von ATI, wenn beide belegt sind? Oder wird der auch vom R500/R520 Team designed?

DrumDub
2005-05-12, 13:09:09
Blöd formuliert von mir ich wollte sagen welches Team von ATI, wenn beide belegt sind? Oder wird der auch vom R500/R520 Team designed? robbitop hats ja schon gessagt. das teil für nintendo wird wohl auf dem r500 basieren... also kein neues desgin.

Godmode
2005-05-12, 13:22:32
robbitop hats ja schon gessagt. das teil für nintendo wird wohl auf dem r500 basieren... also kein neues desgin.

Glaubt ihr nicht dass sich M$ die Rechte an dem R500 Design gesichert hat?

@robittop kannst du diese Diskusion in den R520 Thread verschieben?

robbitop
2005-05-12, 13:41:41
Glaubt ihr nicht dass sich M$ die Rechte an dem R500 Design gesichert hat?

@robittop kannst du diese Diskusion in den R520 Thread verschieben?
1.Das glaube ich kaum. ATI hätte gar nicht die Ressourcen je ein extra Design zu entwerfen.
2.Ich könnte es tun, aber dafür ist die Moderation zuständig ;)

Godmode
2005-05-12, 13:59:08
1.Das glaube ich kaum. ATI hätte gar nicht die Ressourcen je ein extra Design zu entwerfen.
2.Ich könnte es tun, aber dafür ist die Moderation zuständig ;)

1. Ok, aber ich kann mir nicht vorstellen das M$ es zulassen würde, das ein Konkurzenzprodukt die selbe Graphikeinheit bekommt wie die X-Box!
2. Oh dachte du bist eh Mod ;)


Zum G70 um dem es in diesem Thread eigentlich geht:
Wie schauts mit einer Optimierung des Branching aus? Es war doch ein Kritikpunkt das dies zu viele Takte braucht? Könnte da vielleicht auch eine Änderung sein?

Coda
2005-05-12, 14:15:45
Glaubt ihr nicht dass sich M$ die Rechte an dem R500 Design gesichert hat?Das glaube ich weniger, ATi wird wohl auch zukünftige Desktopchips auf Basis von R500 bauen wollen.

ShadowXX
2005-05-12, 14:46:09
Vielleicht benutzt ATI ja auch den r520 als Grundlage für den Nintendo-Chip....

Coda
2005-05-12, 15:26:21
Unwahrscheinlich. So ein Design braucht viel zu viel Saft für eine Konsole.

Gastg70
2005-05-12, 16:06:03
Würd ich auch sagen das des zu viel Saft verbraucht.....aja stimmt des eig das der R500 ein 128bit Speicherinterface hat?? So stehts doch bei den Specs von der Xbox 360.

reunion
2005-05-12, 17:08:19
Würd ich auch sagen das des zu viel Saft verbraucht.....aja stimmt des eig das der R500 ein 128bit Speicherinterface hat?? So stehts doch bei den Specs von der Xbox 360.


R500 hat eDRAM das mit 1024 bit angebunden ist AFAIK.

stav0815
2005-05-12, 17:45:26
Vielleicht benutzt ATI ja auch den r520 als Grundlage für den Nintendo-Chip....
ahja. und womit kühlste das ding bitte in nem Gehäuse das nichmal so groß is wie nen HTPC?

stav0815
2005-05-12, 17:46:08
R500 hat eDRAM, dass mit 1024 bit angebunden ist AFAIK.
ja, ganze 4 oder 8 MB... welcome back to N64 Zeiten!

robbitop
2005-05-12, 19:27:20
ja, ganze 4 oder 8 MB... welcome back to N64 Zeiten!
Da waren es 4MiB unified Speicher für alles.
(später dann 8 mit dem Zusatzteil). Die XBOX besitzt zusätzlich noch einen recht großzügigen Hauptspeicher (für eine Konsole jedenfalls).

Xmas
2005-05-12, 19:28:48
ja, ganze 4 oder 8 MB... welcome back to N64 Zeiten!
10 MiB, und aufgrund der Architektur genug für den ganzen Framebuffer bei 720p mit 4xAA. Damit bleibt deutlich mehr Textur- und Geometriebandbreite als der R420 hat.

ShadowXX
2005-05-12, 20:39:45
ahja. und womit kühlste das ding bitte in nem Gehäuse das nichmal so groß is wie nen HTPC?

Wir wissen nicht wie gross das Gehäuse des Revolution ist und wir wissen nicht wie heiss der r520 wird und was er verbraucht.

Es wird ja sicher auch Mobil-Varianten des r520 geben....da könnte man dann auch ein Design für Nintendo machen, was extra wenig Saft verbraucht und nicht so heiss wird (das man dann wiederum auch für Notebooks benutzen könnte)

Der Chip muss ja auch nicht mit 650MHz takten.......

Davon abgesehen...der Cell mit 5.6GHz im Labor frass auch mal eben kurz 180Watt...ich bin mal gespannt, wie Sie den für die PS3 auf vernünftige werte bekommen.

Ich würde wirklich nicht unbedingt davon ausgehen, das die Next-Gen-Konsole so genügsam wie die jetzigen sein werden....und auch nicht unbedingt so "leise". (Die Xbox1 kann man auch ganz gut hören...und auch der GC ist nicht wirklich "lautlos")

mapel110
2005-05-12, 21:17:42
http://www.digitimes.com/NewsShow/MailHome.asp?datePublish=2005/5/10&pages=A6&seq=26
Nvidia to showcase G70 at Computex

Gast
2005-05-12, 21:25:33
0,11 hm

The makers did say the G70 may begin volume shipments in the latter half of the third quarter at the earliest and will retail for US$549.

dauert ja nicht mehr lang aber der preis ist krank ,nv typisch

Jesus
2005-05-12, 21:26:30
Davon abgesehen...der Cell mit 5.6GHz im Labor frass auch mal eben kurz 180Watt...ich bin mal gespannt, wie Sie den für die PS3 auf vernünftige werte bekommen.

war auch noch nicht in 65nm ...

Gast
2005-05-12, 21:42:06
10 MiB, und aufgrund der Architektur genug für den ganzen Framebuffer bei 720p mit 4xAA. Damit bleibt deutlich mehr Textur- und Geometriebandbreite als der R420 hat.

1280x720@32bit?

macht jeweils ca. 3,5MB für front-, back- und z-buffer, also insgesamt ca. 10,5MB, wo soll da noch etwas für 4xFSAA übrigbleiben?

da bekommt man nicht mal einen der buffer in den eDRAM.

für HDR scheint es leider auch keine reserven zu geben.

Gast
2005-05-12, 22:50:24
Glaubst du wirklich das 65nm beim Cell die verlustleistung sooooooooooooo viel mindert?? Von 180 auf unter 60 oder was?? Bestimmt net. Und ich glaube das Cell nur in einer abgespeckten version da verbaut wird

Xmas
2005-05-12, 23:03:12
1280x720@32bit?

macht jeweils ca. 3,5MB für front-, back- und z-buffer, also insgesamt ca. 10,5MB, wo soll da noch etwas für 4xFSAA übrigbleiben?

da bekommt man nicht mal einen der buffer in den eDRAM.

für HDR scheint es leider auch keine reserven zu geben.
Der Frontbuffer liegt natürlich im normalen Speicher, da braucht man ja weder viel Bandbreite noch geringe Latenz.
Der R500 benötigt nicht den vierfachen Speicher für 4xAA. Komprimierbare Tiles werden normal in den Backbuffer geschrieben, nicht komprimierbare kommen in einen zusätzlichen Buffer. Da reichen die 10MiB meistens aus. 3DLabs macht es seit jahren ein wenig ähnlich, mit bis zu 16 Samples.
Bei höheren Auflösungen oder für HDR rendert der R500 partitioniert, d.h. es wird erst eine, dann die andere Hälfte fertiggerendert.

Quasar
2005-05-12, 23:12:21
Glaubst du wirklich das 65nm beim Cell die verlustleistung sooooooooooooo viel mindert?? Von 180 auf unter 60 oder was?? Bestimmt net. Und ich glaube das Cell nur in einer abgespeckten version da verbaut wird
Der Labor-Cell lief IIRC mit ~1,5v. Für den normalen Betrieb sind IIRC ~1,1v angepeilt. Zusammen mit rund einem GHz weniger Takt und Verkleinerung des Fertigungsprozesses auf 0,65µ könnte das schon hinhauen.

Godmode
2005-05-13, 00:40:10
Was ich nicht verstehen kann ist wie ATI 90nm LV verwenden kann und Nvidia nicht! Beim R300 vs NV30 war ja das auch so nur halt umgekehrt(ATI:NV=150nm:130nm Low K IIRC) Ja dort gabs dann ne böse Überaschung für Nvidia! :rolleyes:

Sind sie deswegen jetzt so konservativ eingestellt? Also irgendwie denke ich das Nvidia mit 110 nicht die Leistung erreichen kann wie ATI mit 90nm, außer es gibt Probleme bei ATI/TSMC(90nm LV)!

90 nm = mehr Platz EDIT: für Transistoren/EDIT, mehr Takt, weniger Hitze
110nm = weniger Platz für Transitoren aber etwas Erfahrung, Takt 450MHz (für NV42m), Hitze? naja müsste auch etwas besser sein als bei 130nm
Ist doch logisch, oder?

Also so spannend wie dieses mal wars letztes Jahr nicht!

Coda
2005-05-13, 00:44:14
90 nm = mehr Platz, mehr Takt, weniger HitzeWieso mehr Platz? 90nm braucht natürlich weniger...

110nm = weniger Platz aber etwas Erfahrung, Takt 450MHz (für NV42m), Hitze? naja müsste auch etwas besser sein als bei 130nm
Ist doch logisch, oder?Wenn es kein low-k ist, dann ist das nicht so logisch :rolleyes:

Godmode
2005-05-13, 00:48:11
Wieso mehr Platz? 90nm braucht natürlich weniger...

Wenn es kein low-k ist, dann ist das nicht so logisch :rolleyes:

mehr Platz für Logik, Transistoren,...

bedeutet kleinerer Fertigungsprozess nicht weniger Hitze?

Coda
2005-05-13, 00:53:46
Nicht unbedingt. 130nm mit SOI und low-k ist sicher kühler als ein 110nm Billigprozess für die 6200er Karten z.B.

mapel110
2005-05-13, 00:53:50
Wieso mehr Platz? 90nm braucht natürlich weniger...

"mehr Platz" für Transistoren. :)


Also so spannend wie dieses mal wars letztes Jahr nicht!
Find ich nicht, letztes Jahr kamen beide bzw sollten beide mit neuen Architekturen kommen, diesmal kommt nur einer mit wesentlichen Neuerungen(zwar wie letztes Jahr auch, aber damals konnte es keiner wirklich erwarten :-))
Oder erwartet hier jemand ernsthaft größerer Neuerungen beim G70 gegenüber NV40?

Coda
2005-05-13, 00:56:45
Oder erwartet hier jemand ernsthaft größerer Neuerungen beim G70 gegenüber NV40?Jain. Ich hoffe sie fixen das flimmerige AF und sorgen für gescheiten FP16 Framebuffer Durchsatz auch ohne den MRT Trick.

Aber die Änderungen werden sich wohl noch im Rahmen von NV30->NV35 bewegen. Wobei das auch nicht sooo wenig war.

Godmode
2005-05-13, 01:03:21
Nicht unbedingt. 130nm mit SOI und low-k ist sicher kühler als ein 110nm Billigprozess für die 6200er Karten z.B.

Also der NV42M wird in 110nm gefertigt IIRC und der läuft mit 450 MHz in einem Notebook! also ob das mit einem normalen NV41 gehen würde??

Ich hoffe dass der 64Bit FP Framebuffer gleichzeitig mit AA nütztbar sein wird, was aber mit der wahrscheinlich begrentzen Bandbreite wieder nicht möglich sein wird! :mad:

Man könnte sicherlich an den Shaderunits noch einiges drehen, ka vielleicht noch mehr Arithmetik Leistung und eine 2. Texturunit. Weniger Takte beim Branching,.... Es gibt soviele Möglichkeiten wo was optimiert werden könnte!

edit: ganz vergessen natürlich will ich wieder gutes AF haben ohne dieser sch... Winkelabhängigkeit!

Godmode
2005-05-13, 01:24:44
http://www.digitimes.com/NewsShow/MailHome.asp?datePublish=2005/5/10&pages=A6&seq=26
Nvidia to showcase G70 at Computex

Doppelte Leistung als GF6800was Ultra, GT, Non Ultra? Also 2 mal die Leistung des 12 Pipers würde dann ja gut hin kommen, wie Ailurus schon meinte! Oder was meint ihr?

Übringens: http://boerse.welt.de/news/news_detail.asp?NewsNr=307539

edit: jetzt ist der richtige Link da für die Quartalszahlen

mapel110
2005-05-13, 01:31:18
Doppelte Leistung als GF6800was Ultra, GT, Non Ultra? Also 2 mal die Leistung des 12 Pipers würde dann ja gut hin kommen, wie Ailurus schon meinte! Oder was meint ihr?

Übringens: http://www.golem.de/0205/19923.html
should deliver twice the performance of the current flagship series, the GeForce 6800.
würde da eher auf 16 Piper tippen, die da gemeint sind. ;)

und was interessieren uns nvidias Geschäftszahlen von 2003(dein golem-link)?! :uponder:

Godmode
2005-05-13, 01:33:45
should deliver twice the performance of the current flagship series, the GeForce 6800.
würde da eher auf 16 Piper tippen, die da gemeint sind. ;)

und was interessieren uns nvidias Geschäftszahlen von 2003(dein golem-link)?! :uponder:

Ups, wollte eigetnlich die von heute zeigen, naja jetzt passt es :)

Nein ich denke 2 mal die Leistung des 12 Pipers wirds wohl sein!

Edit: Kann es sein das Aths unter NDA steht und alles schon weis, weil er hier gar nichts mehr postet? :confused:

mapel110
2005-05-13, 03:46:10
Nein ich denke 2 mal die Leistung des 12 Pipers wirds wohl sein!

in best case, mit 700 Mhz Ram ist im Schnitt nicht allzuviel drin.


Edit: Kann es sein das Aths unter NDA steht und alles schon weis, weil er hier gar nichts mehr postet? :confused:
aths zockt WoW ^^
Glaube kaum, dass 3DCenter ein Testexemplar bekommt, aber ich lass mich überraschen. :)
p.s. PR-Material bekommt er sicher, aber das ist ja weniger interessant.

Ailuros
2005-05-13, 05:35:11
Also der NV42M wird in 110nm gefertigt IIRC und der läuft mit 450 MHz in einem Notebook! also ob das mit einem normalen NV41 gehen würde??

Ob was mit einer NV41 gehen wuerde?

Ich hoffe dass der 64Bit FP Framebuffer gleichzeitig mit AA nütztbar sein wird, was aber mit der wahrscheinlich begrentzen Bandbreite wieder nicht möglich sein wird! :mad:

Sehe ich leider auf keinem der naechsten GPUs. Hoffnung stirbt aber als letzte.

Man könnte sicherlich an den Shaderunits noch einiges drehen, ka vielleicht noch mehr Arithmetik Leistung und eine 2. Texturunit. Weniger Takte beim Branching,.... Es gibt soviele Möglichkeiten wo was optimiert werden könnte!

Der NV43 ist ein sehr gutes Beispiel wieviel man im Vergleich zu einer NV41 in Shader-Leistung herauspumpen kann. Wie sieht das Block-diagramm einer NV41 im Vergleich zu einer NV43 aus? Mehr Einheiten oder effizientere Einheiten?

edit: ganz vergessen natürlich will ich wieder gutes AF haben ohne dieser sch... Winkelabhängigkeit!

Vergiss es; der Mist bleibt wohl mit allerhoechster Wahrscheinlichkeit. Das einzige was sie vielleicht aendern werden ist das LOD-Problem dass ich mit dem NV4x AF Algorithmus verdaechtige. Wenn es nur ein SW-Problem gewesen waere, waere logischerweise auch kein Treiber-workaround noetig gewesen.

Groessere moegliche Aenderungen was die AA/AF Algorithmen betrifft erwarte ich von beiden IHVs erst bei der ersten WGF2.0 Generation, aber auch nichts umwerfend revolutionaeres. NVIDIA wird vielleicht endlich einen programmierbaren (gamma-korrigierten) AA-Algorithmus haben, als Beispiel.

Ailuros
2005-05-13, 05:43:08
Ach uebrigens zur doppelten Leistung im Vergleich zu NV40: man braeuchte also schon eine Taktrate von =/>530MHz. Ein bisschen zu viel fuer 6 quads@110nm IMHO. Eher irgendwo zwischen ~450MHz wuerde ich fuer das Ultra-Modell raten; wie selten das Ding sein wird werden wir wohl dann sehen.

Der MSRP duerfte auch stimmen. Keine Ahnung wieviel Speicher und mit welchem Takt.

Uzundiz
2005-05-13, 06:24:39
in best case, mit 700 Mhz Ram ist im Schnitt nicht allzuviel drin.


aths zockt WoW ^^
Glaube kaum, dass 3DCenter ein Testexemplar bekommt, aber ich lass mich überraschen. :)
p.s. PR-Material bekommt er sicher, aber das ist ja weniger interessant.


Hi,

warum sollte 3dcenter kein Test-Exemplar bekommen? ...weil sie etwa zu genau in den Aufbau des gpus schaut und eventuel irgendwelche tricks findet?

Oder ist halt 3dcenter nicht so bekannt und deshalb bekommt sie keinen?

Das interessiert mich sehr, weil die anderen Hardwareseiten meistens Testexemplare einfach so bekommen...

mfg

Uzundiz

Ailuros
2005-05-13, 07:19:16
7
Das interessiert mich sehr, weil die anderen Hardwareseiten meistens Testexemplare einfach so bekommen...



"Einfach so" bekommen Hardware-seiten keine Test-exemplare. Es gibt auch sehr bekannte Seiten die stellenweise von dem einem oder anderen IHV gar nichts bekommen und natuerlich spielt die Groesse der Seite auch eine sehr wichtige Rolle.

Mehr als oefters kommt es sogar vor dass Seiten zwischen sich Hardware ausleihen und das jetzt irrelevant zu 3DCenter.

3DCenter wird wohl hoechstwahrscheinlich (wie auch in der Vergangenheit) einen zeitigen Review veroeffentlichen.

Gast
2005-05-13, 08:32:02
Doppelte Leistung als GF6800was Ultra, GT, Non Ultra? Also 2 mal die Leistung des 12 Pipers würde dann ja gut hin kommen, wie Ailurus schon meinte! Oder was meint ihr?

Übringens: http://boerse.welt.de/news/news_detail.asp?NewsNr=307539

edit: jetzt ist der richtige Link da für die Quartalszahlen


eine normale 6800U(16/6) PCIe ist schon so schnell wie 2x 6800(12/5).

die neue karte dürfte leistungsmäßig wohl knapp unterhalb eines 6800GT SLI gespannes liegen.

ShadowXX
2005-05-13, 09:53:25
eine normale 6800U(16/6) PCIe ist schon so schnell wie 2x 6800(12/5).

die neue karte dürfte leistungsmäßig wohl knapp unterhalb eines 6800GT SLI gespannes liegen.

Sowas in der Richtung vermute ich auch.....es wird aber auch viel daran liegen, welchen Speicher Sie nun wirklich verwenden werden.

Wenn es tatsächlich nur 600MHz Speicher sein sollte, dann glaube ich an eine verdoppelung der Leistung (bzw. das rankommen an ein SLI-GT-Gespann) nur in sehr ausgewählten Situationen.....

Gast
2005-05-13, 10:19:48
Wir werden es ja bald wissen:
http://www.xbitlabs.com/news/video/display/20050512035137.html

“We do have our next-generation GPU. We are really excited about it. Maybe next week you might get a sighting of it at E3,” said Jen-Hsen Huang, NVIDIA’s CEO.

Denke das man vieleicht die Unreal3 Engine (oder ähnliches) als Demo auf einer "G70" sehen darf, technische Specs werden wie immer geheim bleiben, aber das wär eine gute Marketing Aktion, so macht man die Leute heiß *g.

Gast
2005-05-13, 10:27:32
Wir werden es ja bald wissen:
http://www.xbitlabs.com/news/video/display/20050512035137.html

“We do have our next-generation GPU. We are really excited about it. Maybe next week you might get a sighting of it at E3,” said Jen-Hsen Huang, NVIDIA’s CEO.

Denke das man vieleicht die Unreal3 Engine (oder ähnliches) als Demo auf einer "G70" sehen darf, technische Specs werden wie immer geheim bleiben, aber das wär eine gute Marketing Aktion, so macht man die Leute heiß *g.

das hat der CEO gestern während des Konferenzcalls bei Bekanntgabe der Quartalszahlen gesagt. Scheint als wäre Nvidia schon recht weit.
BTW waren die Zahlen sehr gut. Gewinn wurde verdreifacht.
Marktanteil bei AMD Chipsätzen 55% nach Mercury Research.
Das aber nur am Rande.

Gast
2005-05-13, 10:34:15
Sowas in der Richtung vermute ich auch.....es wird aber auch viel daran liegen, welchen Speicher Sie nun wirklich verwenden werden.

Wenn es tatsächlich nur 600MHz Speicher sein sollte, dann glaube ich an eine verdoppelung der Leistung (bzw. das rankommen an ein SLI-GT-Gespann) nur in sehr ausgewählten Situationen.....


ja, 800MHz b.z.w. 1600MHz DDR müssen da schon min. her!
oder ein 512bit breites speicherinterface, aber ich lasse mich in der hinsicht überraschen.

Winter[Raven]
2005-05-13, 10:37:06
das hat der CEO gestern während des Konferenzcalls bei Bekanntgabe der Quartalszahlen gesagt. Scheint als wäre Nvidia schon recht weit.
BTW waren die Zahlen sehr gut. Gewinn wurde verdreifacht.
Marktanteil bei AMD Chipsätzen 55% nach Mercury Research.
Das aber nur am Rande.

Ja und der Anteil für DX9 Karten im high-segment wurde auf 70% gesteigert...

Da war doch noch eine Formulierung die gut passt:

Nvidia Goes Gangbusters...

Weiteres => http://www.forum-3dcenter.org/vbulletin/showthread.php?t=160222&page=5

Gast
2005-05-13, 10:52:30
Da war doch noch eine Formulierung die gut passt:

Nvidia Goes Gangbusters...

Weiteres => http://www.forum-3dcenter.org/vbulletin/showthread.php?t=160222&page=5


man könnte es auch, so ausdrücken: the imperium strikes back. ;)

ShadowXX
2005-05-13, 10:55:56
man könnte es auch, so ausdrücken: the imperium strikes back. ;)


wenn schon, dann: "the empire strikes back"

Godmode
2005-05-13, 11:35:13
Ob was mit einer NV41 gehen wuerde?

Ob es möglich wäre den normalen NV41 - also die 12 Pipe Version - auf 450 MHz zu bringen mit normaler Kühlung! Coda meinte ja das 130nm mit SOI und Low-K sicher kühler ist als der "Billigprozess" 110nm


Der NV43 ist ein sehr gutes Beispiel wieviel man im Vergleich zu einer NV41 in Shader-Leistung herauspumpen kann. Wie sieht das Block-diagramm einer NV41 im Vergleich zu einer NV43 aus? Mehr Einheiten oder effizientere Einheiten?


Da fragst du mich zuviel, aber ich werde mal recherchieren. BTW habe ich mich mit NV41, N43 noch nicht wirklich auseinandergesetzt.

reunion
2005-05-13, 11:50:28
Coda meinte ja das 130nm mit SOI und Low-K sicher kühler ist als der "Billigprozess" 110nm



Der 130nm lowk-Prozess ist bei TSMC auch wesentlich stromsparender als der 110nm-Prozess, jeder bis jetzt erhältliche Chip zeigt diese Tendenz.

Gast
2005-05-13, 11:59:18
wenn schon, dann: "the empire strikes back"

Mit der FX wollte Nvidia auch kontern, die meisten haben es auch geglaubt.
Es kam aber anders.
Also abwarten und Tee trinken. :)

Quasar
2005-05-13, 12:27:11
Mit der FX wollte Nvidia auch kontern, die meisten haben es auch geglaubt.
Es kam aber anders.
Also abwarten und Tee trinken. :)
Ging der Link nicht um die Quartalszahlen?
Fand ich eh bissel OT.

Gast
2005-05-13, 13:08:13
Der 130nm lowk-Prozess ist bei TSMC auch wesentlich stromsparender als der 110nm-Prozess, jeder bis jetzt erhältliche Chip zeigt diese Tendenz.

Vieleicht sollte Ihr euch ersteinmal ein paar Gedanken zum grundsätzlichen Unterschied von:

-130nm
-110nm
-90nm

machen!

Der 110nm G70 von nv kann max. 500MHz und bei 90nm ist da wesentlich mehr drin vom Takt!

Also immer schöne locker bleiben! ;) ATI wird eher zurückschlagen !

Demirug
2005-05-13, 13:25:52
Woher die Sicherheit das ein 110nm G70 maximal mit 500 MHz laufen wird?

Quasar
2005-05-13, 13:27:22
Der 110nm G70 von nv kann max. 500MHz und bei 90nm ist da wesentlich mehr drin vom Takt!
Und das leitest du genau woraus nochmal ab?
Daß in 90nm potentiell mehr schlummert, streitet ja keiner ab, aber es hängt halt auch ein bißchen vom Design der Chips ab, wieviel Taktpotential sich dann verwirklichen läßt.

edit:
Zu langsam. ;(

Gast
2005-05-13, 13:29:13
Ob es möglich wäre den normalen NV41 - also die 12 Pipe Version - auf 450 MHz zu bringen mit normaler Kühlung! Coda meinte ja das 130nm mit SOI und Low-K sicher kühler ist als der "Billigprozess" 110nm



allerdings verwendet nvidia beim N40 weder low-k, SOI oder ähnliches, von daher könnte der 110nm prozess schon einen fortschritt bedeuten.

robbitop
2005-05-13, 13:43:29
Ob es möglich wäre den normalen NV41 - also die 12 Pipe Version - auf 450 MHz zu bringen mit normaler Kühlung! Coda meinte ja das 130nm mit SOI und Low-K sicher kühler ist als der "Billigprozess" 110nm


SOI wird im GPU Bereich derzeit nicht angewandt.

ShadowXX
2005-05-13, 13:45:44
Vieleicht sollte Ihr euch ersteinmal ein paar Gedanken zum grundsätzlichen Unterschied von:

-130nm
-110nm
-90nm

machen!

Der 110nm G70 von nv kann max. 500MHz und bei 90nm ist da wesentlich mehr drin vom Takt!

Also immer schöne locker bleiben! ;) ATI wird eher zurückschlagen !

Wenn der G70 tatsächlich 24Pipes hat, würde 500MHz auch völlig ausreichen....

Mit der FX wollte Nvidia auch kontern, die meisten haben es auch geglaubt.
Es kam aber anders.
Also abwarten und Tee trinken. :)

Es ging mir nicht mal ansatzweise um die Bewertung/Zustimmung des getätigten Kommentars, sondern einfach darum, das "the emperium...." einfach falsch ist, es heisst "the empire...."

Gast
2005-05-13, 13:45:56
SOI wird im GPU Bereich derzeit nicht angewandt.

Warum eigentlich nicht? Ist es zu teuer oder für GPUs eher ungeeignet?

DrumDub
2005-05-13, 13:47:33
allerdings verwendet nvidia beim N40 weder low-k, SOI oder ähnliches, von daher könnte der 110nm prozess schon einen fortschritt bedeuten. das stimmt so nicht. beim nv40 wird fsg verwendet, statt low-k. ich glaube nicht, dass sich ein nv40 in 130nm low-k bei tsmc gefertigt höher takten ließe. das hängt in erster linie vom (re)design ab.

Demirug
2005-05-13, 14:15:47
Wie kommst du auf FSG? IBM verwendet SiLK und das hat bekanntermassen einen schlechten Ruf. FSG wird zum Beispiel von TSMC und UMC benutzt.

DrumDub
2005-05-13, 14:20:28
Wie kommst du auf FSG? IBM verwendet SiLK und das hat bekanntermassen einen schlechten Ruf. FSG wird zum Beispiel von TSMC und UMC benutzt. deshalb: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2783223#post2783223

Demirug
2005-05-13, 14:25:28
Da hat Ailuros wohl was verwechselt. Der Process bei IBM nennt sich 8SFG das hat aber nichts mit lowk zu tun.

Godmode
2005-05-13, 14:30:53
Wäre es möglich dass beim G70 statt 24 ROPs nur 12 verwendet werden? Die ROPs brauchen ja recht viele Transistoren IIRC, also könnte man hier gut was einsparen. Beim NV43 gibts ja auch nur 4 ROPs und man hat dadurch in der Praxis keine Nachteile weil bilineare Filterung und Singeletexturing wird ja heute normalerweise nicht mehr verwendet!

Die Piplines des NV43 sind auch noch weiter optimiert als die vom NV40 IIRC, also könnten vielleicht auch solche NV43 Teile verwendet werden, die noch weiter optimiert sind. Von den Libraries würde das ja passen weil sie für 110nm ja vom NV43 schon vorliegen, oder?

Quasar
2005-05-13, 14:40:27
Die ROPs sind von den Shadern/Pixeleinheiten entkoppelt. Ich weiß grad nicht, ob die komplett einzeln arbeiten, oder auch in Vierergrüppchen, aber prinzipiell ist das, was du vorschlägst kein Problem.

Godmode
2005-05-13, 14:53:25
Die ROPs sind von den Shadern/Pixeleinheiten entkoppelt. Ich weiß grad nicht, ob die komplett einzeln arbeiten, oder auch in Vierergrüppchen, aber prinzipiell ist das, was du vorschlägst kein Problem.


Ich denke das müsste gehen, weil die ROPs über die Fragment Crossbar angebunden sind! D.h. die ROPs werden immer dort eingesetzt wo sie gebraucht werden.

siehe hier: http://www.tomshardware.de/graphic/20040414/images/gpu-overview.jpg

Quasar
2005-05-13, 15:33:45
Ich denke das müsste gehen, weil die ROPs über die Fragment Crossbar angebunden sind! D.h. die ROPs werden immer dort eingesetzt wo sie gebraucht werden.

siehe hier: http://www.tomshardware.de/graphic/20040414/images/gpu-overview.jpg
Ja, sag' ich doch.
Nur weiß ich nicht, ob die ROPs wirklich einzeln, oder auch in Blocks arbeiten, sprich, ob eine GF6800 (norm: 12 Pipes, 16 ROPs) auch mit nur 15 ROPs möglich wäre, oder ob dann gleich ein ROP-Quad abgeschaltet werden müsste.

Godmode
2005-05-13, 15:44:09
Ja, sag' ich doch.
Nur weiß ich nicht, ob die ROPs wirklich einzeln, oder auch in Blocks arbeiten, sprich, ob eine GF6800 (norm: 12 Pipes, 16 ROPs) auch mit nur 15 ROPs möglich wäre, oder ob dann gleich ein ROP-Quad abgeschaltet werden müsste.

Achso meinst du das, wieder nicht ordentlich gelesen von mir :rolleyes:

Kann man aber sicher irgendwo nachlesen. Wenn ich mir die Folie von der NV40 Präsentation ansehe sieht es schon so aus als würden sie einzeln arbeiten, aber dies wird wohl nur eine Veranschaulichung sein!

robbitop
2005-05-13, 15:48:28
Wie kommst du auf FSG? IBM verwendet SiLK und das hat bekanntermassen einen schlechten Ruf. FSG wird zum Beispiel von TSMC und UMC benutzt.
Nein, auch IBM nutzt FSG für non lowk. SiLK ist wie Black Diamond ein lowk Material IIRC.

robbitop
2005-05-13, 15:55:26
Warum eigentlich nicht? Ist es zu teuer oder für GPUs eher ungeeignet?

-Teuer
-nicht den Effekt wie bei CPUs

CPU's sind nicht so hoch parallel wie GPUs. Folglich schalten im Durchschnitt (relativ auf die Gesamtanzahl gesehen) weniger Transistoren pro Takt als bei GPUs. Also wird theoretisch weniger Leistung aufgenommen. Mit der Miniaturisierung gibt es aber zunehmend Leckströme bei Transistoren, die nicht schalten. Diese tragen nun also auch zur Leistungsaufnahme bei (nicht so viel wie schaltende). SOI reduziert diesen Effekt. Bei einer CPU sehr sinnvoll.
Bei einer GPU schalten eh so viele Transistoren gleichzeitig, dass der Effekt auf die Verlustleistung nicht mehr so groß wäre wie bei CPUs. (im Idle Betrieb würde es aber schon eher was bringen).

Außerdem ist SOI eine heiße Sache. Man muss das Design darauf auslegen und viele Erfahrungen sammeln. Das dauert unter Umständen Jahre, bis man den "Dreh" raus hat. Viel zu teuer und riskant für einen IHV, wenn nicht genug dabei herausspringt.
Was viel eher was bringt sind individuelle Libraries für die jeweiligen Designs, so wie Intel und AMD sie besitzen. Das verbessert Yield und Takt dramatisch.
Fast14 ist sowas z.B.. Ich bin gespannt, wann und ob NV sich da etwas einfallen läßt. ATI dürfte jetzt schon ziemlich viel Vorlauf haben, was das angeht.

robbitop
2005-05-13, 15:57:25
Die ROPs sind AFAIK in Blöcken angeordnet. Das ist bei Quadpipelines auch sehr sinnvoll. Man muss Transistoren sparen, wo es geht. Und für alles mögliche eine eigene Kontrolllogik zu spendieren, wird im Ergebnis zu viel.

Gast
2005-05-13, 16:00:52
so leute jetzt mal wieder was interessantes :D

der g70 wird auf der E3 vorgestellt also nächste woche

DrumDub
2005-05-13, 16:18:11
Nein, auch IBM nutzt FSG für non lowk. SiLK ist wie Black Diamond ein lowk Material IIRC.
hast recht. hab grad noch mal nachgeforscht. dieser artikel von 2001 erklärt es ganz gut: http://pubs.acs.org/cen/coverstory/7947/7947electronic1.html

interesant ist auch, warum es keinen 90nm prozess ohne low-k gibt: FRESH BATTLE LINES are now being drawn at the 0.10-µm technology node. Michael A. Corbett, an analyst at Kline, says these chips will be a more important market for low-k dielectrics than are the 0.13-µm devices because fabricators won't be able to use FSG: Its k value of 3.7 is well above the 2.5 or less limit that 0.10-µm chips will likely require.

DanMan
2005-05-13, 17:18:15
so leute jetzt mal wieder was interessantes :D

der g70 wird auf der E3 vorgestellt also nächste woche
Angeblich 100% mehr Leistung - und das gleiche gilt wohl auch für den Preis. :ucrazy3:

Coda
2005-05-13, 17:36:12
Warum sollte das so sein? Highend hat bisher immer 400-500€ gekostet, das wird sich auch nicht so schnell ändern.

ShadowXX
2005-05-13, 20:08:22
Warum sollte das so sein? Highend hat bisher immer 400-500€ gekostet, das wird sich auch nicht so schnell ändern.

Der empfohlene Preis wurde doch schon irgendwo mit 550$ angegeben....

DrumDub
2005-05-13, 20:13:47
Der empfohlene Preis wurde doch schon irgendwo mit 550$ angegeben.... jupp. ist auch völlig ok.

Coda
2005-05-13, 20:39:28
Passt doch, das sind ca. 500€.
Zur Errinnerung: Man konnte GeForce 2 Ultra auch schon für 1200 Mark kaufen.

Gast
2005-05-13, 21:02:10
jupp. ist auch völlig ok.

jo echt billig bekommt man nur 2x xbox 360 für ;D

Coda
2005-05-13, 21:20:47
Dafür sind dann da ja die Spiele auch so billig und so :rolleyes:
Schonmal an Quersubventionierung gedacht?

Demirug
2005-05-13, 21:25:36
Das XBox Live Abo nicht zu vergessen.

Mich würde es nicht wundern wenn man irgendwann die Konsolen umsonst bekommt aber dafür ein 2 Jahresvertrag für ein Onlineabo nehmen muss.

ShadowXX
2005-05-13, 22:15:41
jo echt billig bekommt man nur 2x xbox 360 für ;D

Da wäre ich nicht ganz so überzeugt von....

Im Spiele-Forum hat jemand eine Quelle gepostet, lt. dem die XBox360 unter 479Euro kosten soll....

Das heisst wohl, das man mit ca. 450Euro für die Xbox360 in D rechnen muss...mit Pech auch 478,99.

Gast
2005-05-13, 22:17:39
wenn sie in amiland für 300$ verkauft wird kostet die bei uns wohl kaum 450 euro

ShadowXX
2005-05-13, 22:26:14
wenn sie in amiland für 300$ verkauft wird kostet die bei uns wohl kaum 450 euro

Ich schätze das es bei diesem Preis um die Version mit HDD geht.

Wenn man dann noch Steuer (US-Preise sind immer ohne MWSt), Zoll, Transport etc.etc...und zum Schluss den "Europa und Deutschlandaufschlag" raufrechnet, kommen die 450Euro schon ganz gut hin.

Gast
2005-05-13, 22:46:03
Das XBox Live Abo nicht zu vergessen.

Mich würde es nicht wundern wenn man irgendwann die Konsolen umsonst bekommt aber dafür ein 2 Jahresvertrag für ein Onlineabo nehmen muss.
:ulol3: der war gut...
aber wenn man bedenkt daß viele handys teurer sind als konsolen, und die gibt es auch umsonst für ein jahresabo, isr das gar nicht mal so abwegig

Coda
2005-05-13, 22:50:01
So abwegig ist das bei weitem nicht, ich vermute sogar dass Demirug damit recht behalten könnte.

Gast
2005-05-13, 22:53:15
jupp. ist auch völlig ok.
nein, ist nicht ok; erinnern wir uns kurz: zu Geforce 3-4 zeiten kostete das topmodell noch 399$, bei der nächsten generation ging es schon bis 499$, mit der X850XT PE waren wir schon bei 549$, und wenn´s ATI kann, kann nVidia das auch; also nicht wundern wenn das topmodell der (über)nächsten generation für 599$ empfohlen wird

Gast
2005-05-13, 22:55:37
nein, ist nicht ok; erinnern wir uns kurz: zu Geforce 3-4 zeiten kostete das topmodell noch 399$, bei der nächsten generation ging es schon bis 499$, mit der X850XT PE waren wir schon bei 549$, und wenn´s ATI kann, kann nVidia das auch; also nicht wundern wenn das topmodell der (über)nächsten generation für 599$ empfohlen wird
Glaskugel gepachtet oder spricht hier ein "Kenner"?

Hauwech
2005-05-13, 22:56:01
-Teuer
-nicht den Effekt wie bei CPUs

CPU's sind nicht so hoch parallel wie GPUs. Folglich schalten im Durchschnitt (relativ auf die Gesamtanzahl gesehen) weniger Transistoren pro Takt als bei GPUs. Also wird theoretisch weniger Leistung aufgenommen. Mit der Miniaturisierung gibt es aber zunehmend Leckströme bei Transistoren, die nicht schalten. Diese tragen nun also auch zur Leistungsaufnahme bei (nicht so viel wie schaltende). SOI reduziert diesen Effekt. Bei einer CPU sehr sinnvoll.
Bei einer GPU schalten eh so viele Transistoren gleichzeitig, dass der Effekt auf die Verlustleistung nicht mehr so groß wäre wie bei CPUs. (im Idle Betrieb würde es aber schon eher was bringen).

Außerdem ist SOI eine heiße Sache. Man muss das Design darauf auslegen und viele Erfahrungen sammeln. Das dauert unter Umständen Jahre, bis man den "Dreh" raus hat. Viel zu teuer und riskant für einen IHV, wenn nicht genug dabei herausspringt.
Was viel eher was bringt sind individuelle Libraries für die jeweiligen Designs, so wie Intel und AMD sie besitzen. Das verbessert Yield und Takt dramatisch.
Fast14 ist sowas z.B.. Ich bin gespannt, wann und ob NV sich da etwas einfallen läßt. ATI dürfte jetzt schon ziemlich viel Vorlauf haben, was das angeht.

Zu dem 'Idlen' würde mir statt SOI und Senkung der Verlustleistung eher Komplettabschaltung gefallen. Ich bin mir nicht sicher, aber ich meine zB der Pentium M kann Teile die er nicht braucht, komplett abschalten, oder war das ein anderer Mobilechip?
Keine Ahnung wie weit Longhorn da wirklich 3D für den Desktop braucht, aber für den reinen Windowsbetrieb zB unter Win2k (2D) reicht doch auch eigentlich sozusagen '1 Quad' aus. Und das noch nebenbei runtergetaktet und mit evtl weniger Spannung. Das gleiche bei den Speicherbausteinen. Zum Beispiel bei 256 MB aus 8 Chips reichen doch eigentlich 1 oder 2 vollkommen aus.

Naja, wahrscheinlich Wunschdenken von mir. :frown:

Coda
2005-05-13, 22:57:28
nein, ist nicht ok; erinnern wir uns kurz: zu Geforce 3-4 zeiten kostete das topmodell noch 399$Das täuscht. Ich habe für ne GeForce 3 Ti 500 auch mal mindestens 1000 Mark hingelegt. Und ne GeForce 2 Ultra gab's definitiv für 1300 :rolleyes:

deekey777
2005-05-13, 22:59:22
nein, ist nicht ok; erinnern wir uns kurz: zu Geforce 3-4 zeiten kostete das topmodell noch 399$, ...

Nein, schon die Geforce 2 hatte den Preisbogen weit überdennt.