PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15

stav0815
2005-05-13, 23:03:26
Das täuscht. Ich habe für ne GeForce 3 Ti 500 auch mal mindestens 1000 Mark hingelegt. Und ne GeForce 2 Ultra gab's definitiv für 1300 :rolleyes:
ich hab damals eine Leadtek GeForce 3 Ti 500 mit 128Mb gekauft, eines der seltenen Modelle. Das Ding hat mich damals 600€ gekostet und da war es nichtmehr weit bis die GF4 kam...

Gast
2005-05-13, 23:04:48
ja, die Geforce 2 schon, aber mit der Geforce 3 war der empfohlene verkaufspreis damals 399$ (bei produktlaunch war anfangs von preisen ~600$ die rede, welcher aber danach auf 399$ gesenkt wurde)
ich selber habe meine Geforce4 Ti 4400 (MSI, volles retailpaket mit 9 CDs, kabel, usw) ende april/anfang mai 2002 für 299$ (ohne steuern) gekauft; das damalige topmodell war Geforce4 Ti 4600 für 399$

Demirug
2005-05-13, 23:06:55
Zu dem 'Idlen' würde mir statt SOI und Senkung der Verlustleistung eher Komplettabschaltung gefallen. Ich bin mir nicht sicher, aber ich meine zB der Pentium M kann Teile die er nicht braucht, komplett abschalten, oder war das ein anderer Mobilechip?
Keine Ahnung wie weit Longhorn da wirklich 3D für den Desktop braucht, aber für den reinen Windowsbetrieb zB unter Win2k (2D) reicht doch auch eigentlich sozusagen '1 Quad' aus. Und das noch nebenbei runtergetaktet und mit evtl weniger Spannung. Das gleiche bei den Speicherbausteinen. Zum Beispiel bei 256 MB aus 8 Chips reichen doch eigentlich 1 oder 2 vollkommen aus.

Naja, wahrscheinlich Wunschdenken von mir. :frown:

Solange man auf dem Desktop ist könnte man die ganze 3D Pipe abschalten. Das läuft nämlich alles über den 2D Kern den heute noch jeder Chip hat.

Bei Longhorn läuft dagegen dann alles über den 3D Teil. MIL ist scheinbar eine recht interesante Renderengine.

mapel110
2005-05-13, 23:46:41
http://www.beyond3d.com/forum/viewtopic.php?topic=22830&forum=9
Dave liest jedenfalls doppelte NV40 Power aus der News bei Digitimes. =)

ShadowXX
2005-05-13, 23:48:28
ja, die Geforce 2 schon, aber mit der Geforce 3 war der empfohlene verkaufspreis damals 399$ (bei produktlaunch war anfangs von preisen ~600$ die rede, welcher aber danach auf 399$ gesenkt wurde)
ich selber habe meine Geforce4 Ti 4400 (MSI, volles retailpaket mit 9 CDs, kabel, usw) ende april/anfang mai 2002 für 299$ (ohne steuern) gekauft; das damalige topmodell war Geforce4 Ti 4600 für 399$

Der GF3 Preis war beim Launch AFAIK 499$...ein Kumpel von mir hat damals für eine der ersten GF3 etwas über 1000DM bezahlt.
Und noch Monate danach musste man meistens um die 800DM ausgeben.

Und als ich mir meine GF4 4600 geholt habe (ca. 1 Woche nach Launch), habe ich "günstige" 899DM bezahlt.
Wobei man sagen muss, das der Preis der GF 4600 relativ schnell in gefilde um die 600-700DM fiel.

Demirug
2005-05-13, 23:52:15
http://www.beyond3d.com/forum/viewtopic.php?topic=22830&forum=9
Dave liest jedenfalls doppelte NV40 Power aus der News bei Digitimes. =)

Ob er das wirklich in den digitimes news gelesen hat? ;)

mapel110
2005-05-13, 23:54:46
Ob er das wirklich in den digitimes news gelesen hat? ;)
Dürfte auch in einigen bunten PDFs von nvidia stehen, die er wohl kürzlich bekommen hat ^^

robbitop
2005-05-13, 23:59:47
Solange man auf dem Desktop ist könnte man die ganze 3D Pipe abschalten. Das läuft nämlich alles über den 2D Kern den heute noch jeder Chip hat.

Bei Longhorn läuft dagegen dann alles über den 3D Teil. MIL ist scheinbar eine recht interesante Renderengine.
mit kompletter Abkopplung des Taktsignales? Wenn nicht, zieht das noch immer einiges an Leistung.

Hauwech

nur für so ein paar Wünsche wird kein IHV SOI implementieren ;)

chaperone
2005-05-14, 00:01:44
Direct Link
http://www.digital-info.net/vbb/showthread.php?t=3262
NVIDIA最新一代的顯示核心代號:G70,即將在美國時間6月8號發表,這也意味者6月1號的Computex會場將不會看到G70實體顯示卡,

不過這次Computex NVIDIA將會邀請特定媒體至會場VIP Room觀賞G70的Live Demo



目前Digital-Info收到的相當頗具份量的情報管道來源指出,G70的進度符合NVIDIA的期許,效能部分也相當強悍

現階段G70(Rev-1.03工程版)擁有高達24條繪圖管線的暴力規格與SAMSUNG GDDR3 1.4GHz高規格,當然有支援SLI技術

G70(工程版)單張卡情況下:配合AMD FX55、nForce4 SLI主機板、DDR600的環境配備下,RUN 3DMARK05預設值的

成績將可高達8XXX以上

Gast
2005-05-14, 00:03:35
ne schon früher E3

Hauwech
2005-05-14, 00:41:41
mit kompletter Abkopplung des Taktsignales? Wenn nicht, zieht das noch immer einiges an Leistung.

Hauwech

nur für so ein paar Wünsche wird kein IHV SOI implementieren ;)

Nee, mir persönlich ist es Wurst ob ein IHV SOI reinkloppt oder nicht. Da laut Demi doch eine Art 2D Kern existiert, bei allen?, wäre ich 'schon' mit einer kompletten Abschaltung der 3D Pipelines zufrieden. Wer es denn wirklich haben will, 3D Desktop unter Longhorn, halt das dort eben nur 1 Quad benutzt wird. :)

Hammer wären natürlich richtig einzeln de-/aktivierbare Chipteile, zB VP. ATI kann ja afaik die Grafikkarte resetten, sowas wie ein 3D-Ausschalter dabei im Controlpanel wäre klasse. Kann man im Zweifelsfall bestimmt auch DAU sicher machen. Das für solche Wünsche SOI verwendet wird, ist natürlich Quätsch :)

Gast
2005-05-14, 00:54:44
http://www.digital-info.net/vbb/showthread.php?t=3262
G70(PCB:Rev-1.03) consists of 24parallel pixel pipeline and 700MHz GDDR3 Ram(effective 1400MHz)

The G70 Sample can obtain 8XXX points with FX55 for the time being. (ps:NF4 and DDR600 )

Gast
2005-05-14, 01:13:40
http://www.digital-info.net/vbb/showthread.php?t=3262
G70(PCB:Rev-1.03) consists of 24parallel pixel pipeline and 700MHz GDDR3 Ram(effective 1400MHz)

The G70 Sample can obtain 8XXX points with FX55 for the time being. (ps:NF4 and DDR600 )

8000 in 3dmarks05 oder wat hm ganz nett

Ailuros
2005-05-14, 03:38:42
http://www.digital-info.net/vbb/showthread.php?t=3262
G70(PCB:Rev-1.03) consists of 24parallel pixel pipeline and 700MHz GDDR3 Ram(effective 1400MHz)

The G70 Sample can obtain 8XXX points with FX55 for the time being. (ps:NF4 and DDR600 )

Falls der 3dmark05' score stimmen sollte, klingt es eher nach irgendwo um die 400-430MHz; mehr hab ich auch nicht erwartet.

dildo4u
2005-05-14, 05:44:09
Falls der 3dmark05' score stimmen sollte, klingt es eher nach irgendwo um die 400-430MHz; mehr hab ich auch nicht erwartet.
müsste das nicht mher chiptakt sein? eine 6800Ultra kommt mit Normaltakt auf ca4800

Gast
2005-05-14, 06:59:00
jo echt billig bekommt man nur 2x xbox 360 für ;D


die mega lame ist:
http://www.heise.de/newsticker/meldung/59548

Gast
2005-05-14, 07:00:25
Ich schätze das es bei diesem Preis um die Version mit HDD geht.

Wenn man dann noch Steuer (US-Preise sind immer ohne MWSt), Zoll, Transport etc.etc...und zum Schluss den "Europa und Deutschlandaufschlag" raufrechnet, kommen die 450Euro schon ganz gut hin.


die version mit 20GB HDD kostet in den USA 299$.

Gast
2005-05-14, 07:09:47
ja, die Geforce 2 schon, aber mit der Geforce 3 war der empfohlene verkaufspreis damals 399$ (bei produktlaunch war anfangs von preisen ~600$ die rede, welcher aber danach auf 399$ gesenkt wurde)
ich selber habe meine Geforce4 Ti 4400 (MSI, volles retailpaket mit 9 CDs, kabel, usw) ende april/anfang mai 2002 für 299$ (ohne steuern) gekauft; das damalige topmodell war Geforce4 Ti 4600 für 399$


quatsch, die GF3 hat damals wo sie rausgekommen ist gtu 1000,-DM hierzulande gekostet, und zwar egal welcher hersteller.

die GF4 war nicht anders, das flagschiff hat auch mit 500€ +/- zugeschlagen.

Gast
2005-05-14, 07:17:51
müsste das nicht mher chiptakt sein? eine 6800Ultra kommt mit Normaltakt auf ca4800


ja, 450MHz würden sich genau mit den 8000pkt. decken.

Ronny145
2005-05-14, 09:51:09
müsste das nicht mher chiptakt sein? eine 6800Ultra kommt mit Normaltakt auf ca4800


Ich schaffe schon mit ner GT 5000 Punkte. Das mit dem Forceware 75.90. Ohne Optimierungen.

Godmode
2005-05-14, 10:49:35
die mega lame ist:
http://www.heise.de/newsticker/meldung/59548

Was ist da los, die schreiben die Bandbreite des eDRAM beträgt 256MB/s ;)
und sowas auf so einer hochfrquentierten Seite wie heisse!

dildo4u
2005-05-14, 11:00:42
Ich schaffe schon mit ner GT 5000 Punkte. Das mit dem Forceware 75.90. Ohne Optimierungen.
Ohne OC?

reunion
2005-05-14, 11:31:42
Ich schaffe schon mit ner GT 5000 Punkte. Das mit dem Forceware 75.90. Ohne Optimierungen.

Und wieviel mit Optimierungen?
So ein Test wird mit Sicherheit nicht ohne Optimierungen gefahren.

reunion
2005-05-14, 11:32:32
Was ist da los, die schreiben die Bandbreite des eDRAM beträgt 256MB/s ;)
und sowas auf so einer hochfrquentierten Seite wie heisse!

Was ist daran falsch?
Sind das nicht die offiziellen Angaben von MS?

Gast
2005-05-14, 11:34:08
Was ist daran falsch?
Sind das nicht die offiziellen Angaben von MS?

Was ist da los, die schreiben die Bandbreite des eDRAM beträgt 256MB/s
und sowas auf so einer hochfrquentierten Seite wie heisse!


das sind aber 256GB/sek. ;)

Winter[Raven]
2005-05-14, 13:35:02
Ich schaffe schon mit ner GT 5000 Punkte. Das mit dem Forceware 75.90. Ohne Optimierungen.

Problem ist nur, dass alle Hersteller einer Ultra ihre Chips @ 425 verkaufen. Nvidia gibt die Ultra immer noch als 400mhz an, was aber nicht stimmt.

Den mit den 425mhz würde sich deine Punktzahl decken.

Ich bekomme mit meiner ultra @ 460 6002 Punkte :)

Godmode
2005-05-14, 13:47:00
Was ist daran falsch?
Sind das nicht die offiziellen Angaben von MS?

es sollte GB/s heißen und nicht MB/s, dass ist daran falsch!

reunion
2005-05-14, 13:50:13
das sind aber 256GB/sek. ;)

es sollte GB/s heißen und nicht MB/s, dass ist daran falsch!


Natürlich. :hammer:

Ronny145
2005-05-14, 13:51:24
']Problem ist nur, dass alle Hersteller einer Ultra ihre Chips @ 425 verkaufen. Nvidia gibt die Ultra immer noch als 400mhz an, was aber nicht stimmt.

Den mit den 425mhz würde sich deine Punktzahl decken.

Ich bekomme mit meiner ultra @ 460 6002 Punkte :)


Ich hatte gesagt GT und keine Ultra. Also 350/1000.

Gast
2005-05-14, 13:57:55
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3030607#post3030607^

Mit den neuen Treibern sind die GT´s wirklich in der Lage 5k Punkte im 3DMark05 zu holen, von daher ist die "G70" mit 8k Punkten bissl langsam wenn sie 400MHz Chiptakt haben soll.
Sind ja ca. 70% mehr theoretische Leistung die sie bringen kann, gegenüber einer GT (6800GT=350MHz Chiptakt).

Aber 3dMark sagt ja nur die Richtung an, denke das geht was mit ca. 10GPixel/s ^^.
Bin gespannt wie sie in HL2 abschneidet, da müsste sie minimal über einer X800XTPE liegen, da dort ja Chiptakt über alles geht (VS und PS Leistung).

ShadowXX
2005-05-14, 14:17:45
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3030607#post3030607^

Mit den neuen Treibern sind die GT´s wirklich in der Lage 5k Punkte im 3DMark05 zu holen, von daher ist die "G70" mit 8k Punkten bissl langsam wenn sie 400MHz Chiptakt haben soll.
Sind ja ca. 70% mehr theoretische Leistung die sie bringen kann, gegenüber einer GT (6800GT=350MHz Chiptakt).

Aber 3dMark sagt ja nur die Richtung an, denke das geht was mit ca. 10GPixel/s ^^.
Bin gespannt wie sie in HL2 abschneidet, da müsste sie minimal über einer X800XTPE liegen, da dort ja Chiptakt über alles geht (VS und PS Leistung).

Es könnte sein, das Sie beim G70 bei 16Rops bleiben, und deshalb das ganze nicht linear Skaliert....

reunion
2005-05-14, 14:23:44
Es könnte sein, das Sie beim G70 bei 16Rops bleiben, und deshalb das ganze nicht linear Skaliert....


Leistung skaliert ohnehin nie linear, die 8K im 3dmark05 halte ich daher für durchaus realistisch.
Würde auch zu den spekulierten 24 Pipes mit ca. 400mhz Chiptakt passen.

Coda
2005-05-14, 14:27:25
Es könnte sein, das Sie beim G70 bei 16Rops bleiben, und deshalb das ganze nicht linear Skaliert....Das dürfte gerade bei 3DMark mit den ganzen Shadern völlig egal sein.

Gast
2005-05-14, 14:56:47
Wenn es dem 3DMark egal ist ob 16 oder 24 ROP´s, dann empfinde ich es doch etwas "langsam" das er ca. 70% theoretische Mehr-Leistung in ca. 40% Realperformance umsetzt.
Die Leistung steigt sicher nicht linear an, aber ist doch ein wenig heftig der Einbruch.
Es ist doch zu min. 90% die selbe Architektur, also kann man so rechnen: 6800Ultra+8Pipes=G70

Coda
2005-05-14, 15:42:22
Wer sagt denn das die Zahlen überhaupt stimmen? Ich würde da keine voreiligen Schlüsse ziehen.

Es ist doch zu min. 90% die selbe Architektur, also kann man so rechnen: 6800Ultra+8Pipes=G70Das ist wahrscheinlich, aber auch nicht sicher.

Xmas
2005-05-14, 17:56:05
die mega lame ist:
http://www.heise.de/newsticker/meldung/59548
Oh Gott, der ganze Artikel ist ein einziger Ranz, so viel Schrott alleine über die GPU... :uclap:

das sind aber 256GB/sek. ;)
Wobei man sagen muss dass das die effektive Schreib-Bandbreite ist.

ShadowXX
2005-05-14, 18:44:40
Wenn es dem 3DMark egal ist ob 16 oder 24 ROP´s, dann empfinde ich es doch etwas "langsam" das er ca. 70% theoretische Mehr-Leistung in ca. 40% Realperformance umsetzt.
Die Leistung steigt sicher nicht linear an, aber ist doch ein wenig heftig der Einbruch.
Es ist doch zu min. 90% die selbe Architektur, also kann man so rechnen: 6800Ultra+8Pipes=G70

Die Bandbreite steigt ja auch nicht in dem Maße, wie die Pipes zunehmen....allerdings dürfte der 3DM05 durch die Shader auch nicht so extrem Bandbreitenhungrig sein.

Insgesamt gesehen habe ich allerdings auch nicht mehr als um die 8500 3DMurkse erwartet...

AiL hatte die Idee, das nV vielleicht auch die Quads der 6600-Serie (nv43?) zum "bauen" des G70 benutzt...dann hätten wir bei 24 Pipes sogar nur noch 12 Rops.....und einen gewissen Anteil an der Performance hat die Anzahl der Rops auch beim 3DM05.

Aber das sind alles nur Vermutungen....die Karte wird ja bald vorgestellt, dann wissen wir mehr.

DrumDub
2005-05-14, 19:07:50
AiL hatte die Idee, das nV vielleicht auch die Quads der 6600-Serie (nv43?) zum "bauen" des G70 benutzt...dann hätten wir bei 24 Pipes sogar nur noch 12 Rops.....und einen gewissen Anteil an der Performance hat die Anzahl der Rops auch beim 3DM05. diese umsetzung halte ich auch für sehr wahrscheinlich. ich bin mir auch recht sicher, dass der g70 bei 24 pipes unter 300 millionen transistoren bleibt, wenn auch nur knapp.

Ailuros
2005-05-15, 03:25:53
Es könnte sein, das Sie beim G70 bei 16Rops bleiben, und deshalb das ganze nicht linear Skaliert....


Ich sehe nicht ein wieso und seit wann das Ganze mit ROPs etwas zu tun hat.

2*6600GT @ SLi = 8.0 GPixels/sec (4+4= 8 ROPs)
X850XT = 8.3 GPixels/sec (16 ROPs)

Wenn ich mich jetzt nicht irre schafft die erste Loesung an die 6000 und die R480 an die 6200 Punkte.

Mit einer verkorksten Rechnung auf den SLi Resultaten basierend, komme ich auf ~440MHz fuer 8000 Punkte (mit 6 quads).

Ailuros
2005-05-15, 03:27:03
diese umsetzung halte ich auch für sehr wahrscheinlich. ich bin mir auch recht sicher, dass der g70 bei 24 pipes unter 300 millionen transistoren bleibt, wenn auch nur knapp.

Irgendwo zwischen 240-250M.

mapel110
2005-05-15, 03:35:52
Irgendwo zwischen 240-250M.
Ich bin gespannt, wo da genau eingespart wurde.
Und ich bin gespannt, warum ATI wohl einiges mehr an Transistoren verballlern wird.
:uponder:

Ailuros
2005-05-15, 03:37:24
Wer sagt denn das die Zahlen überhaupt stimmen? Ich würde da keine voreiligen Schlüsse ziehen.

8000 Punkte wuerde ich mehr oder weniger schon fuer 400-430MHz einschaetzen. 3dmark05 skaliert laut meiner bisherigen Beobachtungen eigentlich ziemlich gut mit zunehmender ("interner Shader-") Fuellrate, was zum einschaetzen eben hilft.

Um ~11.000 Punkte zu erreichen braucht man in dem Sinn zwei 6800Ultras@440MHz heute, oder eben einen 6 quad/G70@~600MHz.

Ich hab immer noch das Gefuehl dass viel zu viele doch etwas mehr von diesem Schub an GPUs erwarten. Falls die 8000 Punkte stimmen sollten, dann sind es ~15.000 Punkte im gleichen synthetischen Quark mit 2 G70@SLi.

Das ist wahrscheinlich, aber auch nicht sicher.

6 fragment quads sind fuer mich so gut wie sicher.

Ailuros
2005-05-15, 03:39:03
Ich bin gespannt, wo da genau eingespart wurde.
Und ich bin gespannt, warum ATI wohl einiges mehr an Transistoren verballlern wird.
:uponder:

Wie hoch soll denn der Transistor-count von R520 Deiner Meinung nach genau sein?

Man kann vieles einsparen; NV43 hat nur 4 ROPs und kann auch nur 4 Farben schreiben.

mapel110
2005-05-15, 03:41:40
Wie hoch soll denn der Transistor-count von R520 Deiner Meinung nach genau sein?

Also mit weit unter 300 Mio würde ich beim R520 nicht rechnen.
Schließlich muss er ja "decent Performance" liefern, selbst mit Flow Control im Vergleich zum NV40. :)

Ailuros
2005-05-15, 03:52:47
Also mit weit unter 300 Mio würde ich beim R520 nicht rechnen.
Schließlich muss er ja "decent Performance" liefern, selbst mit Flow Control im Vergleich zum NV40. :)

Komischerweise kann ich momentan keinen besonderen Abstand (was die Transistoren-Anzahl betrifft) vom G70 sehen. Das >300M Geruecht ist fuer Xenon, den ich irgendwo bei 330-350M einschaetzen koennte; unter der Vorraussetzung das schaetzungsweise ca. 80M nur fuer die 10MB eDRAM draufgehen.

Wuerde der Transistoren-count vom R520 so hoch sein, wuerde ATI auch nicht intern von einer vollen Ausnutzung der extra die-Flaeche mit hoeherer Taktrate erwaehnen. Das Ziel lag ueber 650MHz.

Quasar
2005-05-15, 10:10:25
AiL hatte die Idee, das nV vielleicht auch die Quads der 6600-Serie (nv43?) zum "bauen" des G70 benutzt...dann hätten wir bei 24 Pipes sogar nur noch 12 Rops.....und einen gewissen Anteil an der Performance hat die Anzahl der Rops auch beim 3DM05.
Gar nicht gut für Doom3 ;D

Außerdem sind die ROPs von den Pixeleinheiten entkoppelt. Es sollte also möglich sein, so viele ROPs zu verbauen, wie das Speicherinterface mit dem Speicher an Pixeln pro Takt hinbekommen kann.
Wenn man natürlich, wie bei der 6800u errechnet, daß mehr als 12 Pixel/Takt eh nicht sinnvoll drin wären, könnte man natürlich auf 12 ROPs begrenzen.
Aber wenn wir 33% mehr Speichertakt haben, wären auch 20 oder gar volle 24 ROPs evtl. von Nutzen - gerade für Stencilgeschichten und u.U. auch für die Schatten vom 3DMark05 ;(

ShadowXX
2005-05-15, 11:10:53
Gar nicht gut für Doom3 ;D

Außerdem sind die ROPs von den Pixeleinheiten entkoppelt. Es sollte also möglich sein, so viele ROPs zu verbauen, wie das Speicherinterface mit dem Speicher an Pixeln pro Takt hinbekommen kann.
Wenn man natürlich, wie bei der 6800u errechnet, daß mehr als 12 Pixel/Takt eh nicht sinnvoll drin wären, könnte man natürlich auf 12 ROPs begrenzen.
Aber wenn wir 33% mehr Speichertakt haben, wären auch 20 oder gar volle 24 ROPs evtl. von Nutzen - gerade für Stencilgeschichten und u.U. auch für die Schatten vom 3DMark05 ;(

Die Rops sind zwar von den Pixeleinheiten entkoppelt, aber ich glaube das diese trotzdem irgendwie mit zu den Quads "dazugehören" bzw. das das ganze nicht so flexibel ist, das nV "irgendeine" beliebige Anzahl Rops zu einer beliebigen Anzahl Quads dazupacken kann.

Das ganze läuft zwar über ein Crossbar-Interface, aber innerhalb des Quad-Designs gehört wohl eine bestimmte anzahl Rops jeweils zu einen Quad.
Das das ganze völlig entkoppelt bzw. nicht voneinander abhängig ist, glaube ich irgendwie nicht.....könnte aber natürlich durchaus sein....

Ailuros
2005-05-15, 12:47:15
Die Rops sind zwar von den Pixeleinheiten entkoppelt, aber ich glaube das diese trotzdem irgendwie mit zu den Quads "dazugehören" bzw. das das ganze nicht so flexibel ist, das nV "irgendeine" beliebige Anzahl Rops zu einer beliebigen Anzahl Quads dazupacken kann.

Das ganze läuft zwar über ein Crossbar-Interface, aber innerhalb des Quad-Designs gehört wohl eine bestimmte anzahl Rops jeweils zu einen Quad.
Das das ganze völlig entkoppelt bzw. nicht voneinander abhängig ist, glaube ich irgendwie nicht.....könnte aber natürlich durchaus sein....


http://www.beyond3d.com/previews/nvidia/nv43/images/nv40pipe.jpg


http://www.beyond3d.com/previews/nvidia/nv43/images/nv43pipeline.jpg

The NV40 consists of 3 distinct stages - at the top the vertex shaders, below the "Shader Instruction Dispatch" unit the Pixel (fragment) Shader pipelines and finally the ROP's (pixel output engines). What's key here, is that unlike other architectures there is a fragment crossbar between the Pixel Shaders and the ROP's, meaning that output from the Pixel Shaders can go to any available ROP; usually a ROP is directly attached to a pixel shader pipeline, or at least functionally they have been because all of NVIDIA's previous architectures have only utilised up to 4 pipelines. It is this disconnect between the Pixel Shaders and ROP's that give rise to NV43's pipeline structure, and we would suggest its configured like this:

Such an arrangement isn't as much of an issue these days as it used to be - with only one texture unit per fragment pipeline even Trilinear filtering takes 2 cycles, and as pixel shader lengths increase more and more cycles will be spent per pixel in the Pixel Shader element of the pipeline, so with a one-to-one mapping of Pixel Shader Pipelines to ROP outputs a lot of the time the ROP's are going to be spent idle anyway. Due to theses arrangements, NV40 has a very high peak theoretical fillrate but, due to the nature of the usage of modern pipelines, rarely will it get close to reaching it, whilst NV43 has a much lower peak fillrate but because of the processing capabilities in relation to output capabilities it is more likely to get closer to that peak in general use.

Such an arrangement for NV43 will give many of the benefits of a traditional 8x1 pipeline layout, but obviously some silicon is saved by not having 8 ROP's. The only cases where this may have a lower throughput than an "8x1" arrangement is with single textured bilinear filter pixels, or where there are fogging / layered effects. Although the NV43 still features twice the Z/Stencil fillrate per ROP, if it had 8 of NVIDIA's ROP's then there would also be greater performance in Z fill and stencil operations.

Although, clock or clock NV43 has a quarter the pure colour fill-rate of NV40, internally the there are still 8 Pixel Shader pipelines which is, half the capabilities. When clock speeds are taken into account 6600 GT would have a 29% Pixel Shader processing deficit to 6800 GT and we can put this to the test with Shader tests.

http://www.beyond3d.com/previews/nvidia/nv43/index.php?p=7

Eventuell wuerde ich auch auf Anteile der Xenon-GPU hinweisen; zwar unified aber wieviele Farben kann das Ding genau von sich geben und klingt die Pixel-Fuellrate auch nicht relativ klein?

Uebrigens verhaelt sich ein NV43 in Doom3 oder shader-lastigen Situationen mehr als nur gut, solange kein MSAA eingeschaltet wird. Ich schlug zwar nie vor dass G70 moeglicherweise nur 4 ROPs pro 2 quads haben wird, aber 24 ROPs sind auch nicht unbedingt moeglich.

***edit: ob ich 3 oder 4 quads auf der 6800nonU einschalte, ich hab stets 16 ROPs verfuegbar....

Coda
2005-05-15, 14:39:51
***edit: ob ich 3 oder 4 quads auf der 6800nonU einschalte, ich hab stets 16 ROPs verfuegbar....Wie überprüfst du das?

robbitop
2005-05-15, 15:01:18
So wie ich das sehe, hällt Ailuros die ROPs des NV43 für einen Flaschenhals bei >2xMSAA.

(Das mag bei DX7 Spielen vieleicht noch so hinkommen, oder bei viel Alphablending. Aber sobald längere Shader oder gar der anisotrope Texturfilter zum Einsatz kommt, wird dieser Falschenhals durch die hohe Wartezeit zur Berechnung der Pixelfarbe allerdings "versteckt").

MSAA kostet ersteinmal massig Bandbreite, die der NV43 irgendwann einfach nunmal nicht mehr hat.

Demirug
2005-05-15, 15:17:20
Wie überprüfst du das?

Pixelfillrate bei 4xMSAA messen.

Tarkin
2005-05-15, 16:51:28
http://www.xtremesystems.org/forums/showthread.php?t=62363

NVIDIA will be showcasing their newest generation vpu , the G70, in america soon (June 8th) (reviews?)

this also means that the G70 designs wont be available to the public on the partner booths but will only be shown behind closed doors.
At present Digital-Info received informations wich indicate that nvidia is very happy about the G70 performence.

the current specs for G70 indicate 24 pipelines and SAMSUNG GDDR3 at 1.4GHz high, sli support and a single slot cooling solution.

in a demo system powered by an AMD FX55 on an nForce4 SLI mainboard and DDR600 the G70 reaches as much as 8XXX 3dmarks in 2k5



very happy??? ... die performance finde ich ehrlich gsagt nicht sehr beeindruckend (auf ca. 700Mhz übertaktete X850 XT PE schaffen das auch).

Iwan
2005-05-15, 17:16:07
ob die performance beideruckend ist oder nicht wird man erst sehen wenn man vergleiche mit dem r520 ziehen kann. und vor allem ist das scheinbar nur ne "kleine" version wenn die nur mit einer single-slot lösung daherkommt. ich denk mal falls der r520 wirklich so einschlägt kann nv nochmal mit einer höher getakteten g70 nachlegen.

robbitop
2005-05-15, 17:28:06
very happy??? ... die performance finde ich ehrlich gsagt nicht sehr beeindruckend (auf ca. 700Mhz übertaktete X850 XT PE schaffen das auch).
1. Wir wissen ja auch alle, dass 3DMark der ultimative Geschwindigkeitsindikator ist. :rolleyes:

2. G70 hat aber nur ~400MHz. Das wäre dann eine pro Takt Leistung von immerhin 175% einer X850 XT ;)

3. Als IHV wählt man die Taktraten nach dem Yield und der Konkurenz und dem Sinn. Die Bandbreite läßt eh nicht mehr Rohleistung zu.

ShadowXX
2005-05-15, 18:59:26
Uebrigens verhaelt sich ein NV43 in Doom3 oder shader-lastigen Situationen mehr als nur gut, solange kein MSAA eingeschaltet wird. Ich schlug zwar nie vor dass G70 moeglicherweise nur 4 ROPs pro 2 quads haben wird, aber 24 ROPs sind auch nicht unbedingt moeglich.

***edit: ob ich 3 oder 4 quads auf der 6800nonU einschalte, ich hab stets 16 ROPs verfuegbar....

Ich meinte das zwar noch einbisserl anders....aber wenn bei der 6800nU immer 16 Rops verfügbar sind, kommt das was ich meinte auch nicht hin.

Also Ok...es ist wirklich vollständig entkoppelt.

r3ptil3
2005-05-15, 19:11:08
Neue Infos, der G70 soll doppelt so schnell wie ein 6800 ultra sein und 530.- Euro kosten - http://www.gamezoom.de/artikel/show/0,162843,1,11187.html

MSABK
2005-05-15, 19:20:34
Ich denke das die den Chip tackt auf ca.470- 490 hochgeschraubt haben.

reunion
2005-05-15, 19:25:10
the current specs for G70 indicate 24 pipelines and SAMSUNG GDDR3 at 1.4GHz high, sli support and a single slot cooling solution.


Auf diese Single-Slot-Kühlung bei einem höchstwarscheindlich im alles andere als stromsparenden 110nm-Prozess gefertigten Chip, mit locker 250mio Transistoren bin ich gespannt. :rolleyes:


in a demo system powered by an AMD FX55 on an nForce4 SLI mainboard and DDR600 the G70 reaches as much as 8XXX 3dmarks in 2k5

very happy??? ... die performance finde ich ehrlich gsagt nicht sehr beeindruckend


War nicht anders zu erwarten.
Mehr als 700Mhz GDDR3 RAM scheint nicht ausreichend verfügbar zu sein.

(auf ca. 700Mhz übertaktete X850 XT PE schaffen das auch).

Noch SM3.0 dazu, und du hast die Specs des R520. ;)

Xmas
2005-05-15, 20:12:40
Wenn man bedenkt dass die ROPs sowieso mit Speichertakt laufen, machen 24 davon auch keinen Sinn mehr.

robbitop
2005-05-15, 21:45:59
Wenn man bedenkt dass die ROPs sowieso mit Speichertakt laufen, machen 24 davon auch keinen Sinn mehr.
ist das schon immer so oder erst seit NV4x?

DrumDub
2005-05-15, 23:37:08
Irgendwo zwischen 240-250M. daran glaube ich wiederum nicht. nv43 hat ja immerhin 146 millionen. ich tippe auf 280-290 millionen für den g70.

Coda
2005-05-15, 23:37:56
Den Videoprozessor und die sonstige einmalige Logik must du davon aber abziehen. Das mit 240-250 kommt schon hin imho.

DrumDub
2005-05-15, 23:45:09
Den Videoprozessor und die sonstige einmalige Logik must du davon aber abziehen. Das mit 240-250 kommt schon hin imho. hmm... was mir gerade einfällt, ist ja wohl die tatsache, dass der g70 auch "nur" 16 rops haben wird. oder könnte der auch mit 12 auskommen? dann könnte das natürlich hinkommen.

Ailuros
2005-05-16, 03:18:38
hmm... was mir gerade einfällt, ist ja wohl die tatsache, dass der g70 auch "nur" 16 rops haben wird. oder könnte der auch mit 12 auskommen? dann könnte das natürlich hinkommen.

Wieso konzentriert Ihr Euch so stark auf ROPs ueberhaupt?

Gegenfrage die vielleicht hilft:

R360 = ~120M; warum ist der R420 nicht bei 240M sondern auf 160M?

Gast
2005-05-16, 07:31:51
Wieso konzentriert Ihr Euch so stark auf ROPs ueberhaupt?

Gegenfrage die vielleicht hilft:

R360 = ~120M; warum ist der R420 nicht bei 240M sondern auf 160M?


weils der gleiche chip ist, nur mit 8 pipes mehr? :upara:

robbitop
2005-05-16, 09:27:06
R360 = ~120M; warum ist der R420 nicht bei 240M sondern auf 160M?
R360 = 107Mio Transistoren.
RV410 = 120 Mio Transistoren.

Ein Pixelquad ist beim R3xx nicht all zu teuer, dank nur einer FP24 ALU pro Pipeline und deren Inkomplexität. ~20-25 Mio Transistoren kostet so ein R300 Quad.

Ein NV40 Quad kostet ~30-35 Mio Transistoren.
Wenn es 16 ROPs bleiben, das Tonemapping und der VP entfernt werden, sind es sicher noch immer deutlich über 250Mio Transistoren. Denn so teuer ist beides IMO auch nicht.

ShadowXX
2005-05-16, 11:44:57
R360 = 107Mio Transistoren.
RV410 = 120 Mio Transistoren.

Ein Pixelquad ist beim R3xx nicht all zu teuer, dank nur einer FP24 ALU pro Pipeline und deren Inkomplexität. ~20-25 Mio Transistoren kostet so ein R300 Quad.

Ein NV40 Quad kostet ~30-35 Mio Transistoren.
Wenn es 16 ROPs bleiben, das Tonemapping und der VP entfernt werden, sind es sicher noch immer deutlich über 250Mio Transistoren. Denn so teuer ist beides IMO auch nicht.

Ich glaube nicht, das Sie beim G70 den VP rausnehmen....beim nv43 läuft er ja und Sie hatten auch genug Zeit die allerletzten Bugs auszumerzen.

Tonemapping werden Sie aber wohl rausnehmen....So wie ich Demi mal verstanden habe, gibt es dafür nämlich kein DX-API-Funktionalitäten...und nur für OGL wäre es tatsächlich Transistorverschwendung.

r3ptil3
2005-05-16, 13:17:49
G70 auf der E3. http://www.gamezoom.de/artikel/show/0,162843,1,11191.html

mapel110
2005-05-16, 13:24:24
G70 auf der E3. http://www.gamezoom.de/artikel/show/0,162843,1,11191.html
Geforce7 O_o
Glaube ich nicht. Zumal es Geforce5 und geforce6 nicht als Verkaufsnamen gab. Wenn dann schon Geforce 7000 oder so, aber das sieht auch blöd aus mit sovielen Nullen am Ende. :ugly:

r3ptil3
2005-05-16, 13:31:03
Geforce7 O_o
Glaube ich nicht. Zumal es Geforce5 und geforce6 nicht als Verkaufsnamen gab. Wenn dann schon Geforce 7000 oder so, aber das sieht auch blöd aus mit sovielen Nullen am Ende. :ugly:

Steht wahrscheinlich eher für die ganze 7-Serie. Der high-end chip wird wahrscheinlich schon Geforce 7800 heissen oder vielleicht doch 6900!?

Coda
2005-05-16, 13:36:59
Da es keinen wirklichen NV40 Refresh gegeben hat vermute ich mal GeForce 7

MSABK
2005-05-16, 23:00:53
Ich glaube nicht das die Karte Geforce 7800 heißen wird, es gab ja schon von ATI die 7xxx serie. realistisch ist der name 6900.

Coda
2005-05-16, 23:11:14
Das interessiert doch nVIDIA nicht... glaubst du wirklich die werden wegen ATi nen Bogen um die 7 machen?

Ailuros
2005-05-17, 01:42:26
R360 = 107Mio Transistoren.
RV410 = 120 Mio Transistoren.

Ein Pixelquad ist beim R3xx nicht all zu teuer, dank nur einer FP24 ALU pro Pipeline und deren Inkomplexität. ~20-25 Mio Transistoren kostet so ein R300 Quad.

Ein NV40 Quad kostet ~30-35 Mio Transistoren.
Wenn es 16 ROPs bleiben, das Tonemapping und der VP entfernt werden, sind es sicher noch immer deutlich über 250Mio Transistoren. Denn so teuer ist beides IMO auch nicht.

Bei mir steht ~10% mehr in einem e-mail; was sind 10% von 222M fuer Dich genau?

robbitop
2005-05-17, 08:06:17
Bei mir steht ~10% mehr in einem e-mail; was sind 10% von 222M fuer Dich genau?
Mag ja sein, dass es in deiner Mail so steht, aber ich kann es derzeit noch nicht so richtig nachvollziehen.

Gassssttttt
2005-05-17, 09:22:35
Sorry falscher Thread:

Ist dass der G70?

Playstation 3 Graphikchip:

GPU Nvidia RSX @550MHz
>300Mio Transistors
1.8 TFLOPS floating point
performance
Full HD (up to 1080p) x 2
channels
Multi-way programmable parallel
floating point shader
pipelines
256MB GDDR3 VRAM @700MHz
VRAM 22.4GB/s
RSX 20GB/s (write) + 15GB/s
(read)

mapel110
2005-05-17, 10:36:57
http://www.planet3dnow.de/vbulletin/showthread.php?p=2226856#post2226856
ziemlich realistisch, aber mal schauen...

Godmode
2005-05-17, 10:48:35
http://www.planet3dnow.de/vbulletin/showthread.php?p=2226856#post2226856
ziemlich realistisch, aber mal schauen...

Ja finde ich auch, aber Transistoranzahl kommt mir etwas zu gering vor, ich bin von etwa 250-260Mio ausgegangen.

Gast
2005-05-17, 10:56:57
Ja finde ich auch, aber Transistoranzahl kommt mir etwas zu gering vor, ich bin von etwa 250-260Mio ausgegangen.


Transistors: 260 million



:|

r3ptil3
2005-05-17, 10:58:25
Ja finde ich auch, aber Transistoranzahl kommt mir etwas zu gering vor, ich bin von etwa 250-260Mio ausgegangen.

Dort steht ja auch 260mio. Transistoren.

seahawk
2005-05-17, 11:24:22
http://www.planet3dnow.de/vbulletin/showthread.php?p=2226856#post2226856
ziemlich realistisch, aber mal schauen...

:eek: :eek:

Ailuros
2005-05-17, 12:15:23
Mag ja sein, dass es in deiner Mail so steht, aber ich kann es derzeit noch nicht so richtig nachvollziehen.

Es gibt unendlich viele Unklarheiten vor einer Veroeffentlichung und man kann sich auch nie sicher sein was und wie so manches gemeint ist.

Koenntest Du alles oder das meiste nachvollziehen, waerst Du auch kein Laie.

reunion
2005-05-17, 12:22:45
http://www.planet3dnow.de/vbulletin/showthread.php?p=2226856#post2226856
ziemlich realistisch, aber mal schauen...


Jap, hört sich verdammt realistisch an, allerdings kann man sich soetwas natürlich auch leicht selbst ausdenken.

Im übrigen halte ich es für ziemlich unwarscheindlich, dass nV nicht weiß wie man "Pipelines" richtig schreibt. ;)

Godmode
2005-05-17, 13:37:27
Dort steht ja auch 260mio. Transistoren.

komisch, ich hab 240 gelesen!

Jesus
2005-05-17, 20:05:54
Was ist denn nun der RSX?

Coda
2005-05-17, 20:07:33
Außer dem Namen weiß man wohl noch von nix ;)

robbitop
2005-05-17, 20:09:42
Die GPU der PS3 ;)

Mal im Ernst: man munkelte, dass es ein NV5x Verschnitt sein sollte.
Bei der angegebenen Bandbreite kann der nicht soo viel Rohleistung haben (128 Bit GDDR3 700MHz). Dennoch 300Mio Transistoren. Das klingt mir nach einem sehr fortschrittlichen Design, welches auf Aritmetik setzt (IMO alles).

dildo4u
2005-05-17, 20:10:08
Was ist denn nun der RSX?
In der Sony PS3 Konferenz erzhält der Co Gründer von Nvidia was zum RSX
Speed soll 2mal 6800U sein Transitorcount liegt bei 300Mio.Ist whol ein besserer G70 mit 550mhz in 90nm.Schon Klug da hat sony schön bezuschußt und nvidia profitiert sogar noch vorher im PC markt.

Coda
2005-05-17, 20:11:59
Und das mit 700Mhz GDDR3? Dann ist wohl auch dort eDRAM vorprogrammiert...

robbitop
2005-05-17, 20:16:39
Und das mit 700Mhz GDDR3? Dann ist wohl auch dort eDRAM vorprogrammiert...
ein 6 Quad Chip @550MHz? Wohin mit der Füllrate bei der Bandbreite?
Ein NV50 Derivat wäre doch auch denkbar. Mehr Aritmetik, weniger Füllrate.

Quasar
2005-05-17, 20:18:08
ein 6 Quad Chip @550MHz? Wohin mit der Füllrate bei der Bandbreite?
Ein NV50 Derivat wäre doch auch denkbar. Mehr Aritmetik, weniger Füllrate.Das ist bei Konsolen doch kein Problem.

Jesus
2005-05-17, 20:18:25
Schon komisch dass die bei den Konsolen nur 128 Bit anbindung machen, allerdings gibt es zum RSX noch zwei andere Werte (neben den 22,4 GB/s VRAM Speed) , 20 GB Write und 15 GB/s Read Speed, oder bezieht sich das wieder auf was anderes?

Und Multi-way programmable parallel floating point shader pipelines hat ein G70 auch nicht, oder? (was immer das auch sein mag)

Coda
2005-05-17, 20:20:37
ein 6 Quad Chip @550MHz? Wohin mit der Füllrate bei der Bandbreite?
Ein NV50 Derivat wäre doch auch denkbar. Mehr Aritmetik, weniger Füllrate.Mhm? Es ging doch gerade um RSX...

Schon komisch dass die bei den Konsolen nur 128 Bit anbindung machenDa sieht man mal wie teuer 256bit eigentlich sind ;)

Und Multi-way programmable parallel floating point shader pipelines hat ein G70 auch nicht, oder? (was immer das auch sein mag)Ich denke mal das bedeutet unified shader.

robbitop
2005-05-17, 20:23:58
Mhm? Es ging doch gerade um RSX...

550MHz sollen gesichert sein. Und jemand warf G70@90nm ein. Also 6 Quad @550MHz.
Das ist viel zu viel Füllrate für 22GiB/sek. R520 protzt mit aritmetik Power, so würde ich es bei so einer Bandbreite ebenfalls tun. Ein so hohes aritkmetik/texturverhältnis kann NV4x nicht bieten.

Jesus
2005-05-17, 20:26:38
550MHz sollen gesichert sein. Und jemand war G70@90nm ein. Also 6 Quad @550MHz.
Das ist viel zu viel Füllrate für 22GiB/sek. R520 protzt mit aritmetik Power, so würde ich es bei so einer Bandbreite ebenfalls tun. Ein so hohes aritkmetik/texturverhältnis kann NV4x nicht bieten.

Dafür würden auch die *hust* 1,8 TFlops sprechen

Coda
2005-05-17, 20:27:43
550MHz sollen gesichert sein. Und jemand war G70@90nm ein. Also 6 Quad @550MHz.
Das ist viel zu viel Füllrate für 22GiB/sek. R520 protzt mit aritmetik Power, so würde ich es bei so einer Bandbreite ebenfalls tun. Ein so hohes aritkmetik/texturverhältnis kann NV4x nicht bieten.Irgendwie reden wir aneinander vorbei. Was hat das denn jetzt damit zu tun, dass ich gesagt habe dass man wohl auch eDRAM verbauen wird?

robbitop
2005-05-17, 20:31:08
Irgendwie reden wir aneinander vorbei. Was hat das denn jetzt damit zu tun, dass ich gesagt habe dass man wohl auch eDRAM verbauen wird?
*rotwerd* bin heute etwas durcheinander. Sry ;(

Jesus
2005-05-17, 20:35:07
Weiss nicht ob dieser Mist von heise schon gepostet wurde, aber da hört sichs wieder nach 256 Bit an (vermutlich haben die aber diese komischen "Read" und "Write" Werte einfach addiert):

So ist er mit 550 MHz getaktet und kann pro Takt 136 Shader-Operationen ausführen. Mit insgesamt 100 Milliarden möglichen Shader-Operationen pro Sekunde soll der aus 300 Millionen Transistoren bestehende Reality Synthesizer die Rechenleistung zweier Geforce-6800-Ultra-Karten bieten. Gefertigt wird er im achtlagigen 90-nm-Prozess. Zum Cell-Prozessor ist er über einen Bus mit einer Transferleistung von 35 GByte/s angebunden und nutzt nicht nur seine mit 700 MHz getakteten 256 MByte GDDR3-VRAM zum Rendern, sondern auch den 256 MByte großen und mit 3,2 GHz getakteten XDR-Hauptspeicher. Über zwei HDMI-Anschlüsse können zwei digitale Bildschirme angeschlossen werden, die entweder ein Gesamtbild mit 3840 × 1080 Bildpunkten im Format 32:9 darstellen oder unterschiedliche Szenen verarbeiten. Laut Sony rechnet die Nvidia-GPU doppelt so schnell wie der ATI-Grafikprozessor der Xbox 360.

Edit: Transferleitung zum CELL? :confused:

Xmas
2005-05-17, 20:50:24
Schon komisch dass die bei den Konsolen nur 128 Bit anbindung machen, allerdings gibt es zum RSX noch zwei andere Werte (neben den 22,4 GB/s VRAM Speed) , 20 GB Write und 15 GB/s Read Speed, oder bezieht sich das wieder auf was anderes?
Das ist der Flex-IO-Link zur CPU, die wiederum den Hauptspeicher mit 25 GB/s ansteuert.

Ich denke mal das bedeutet unified shader.
Nein, der RSX hat getrennte VS und PS.
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2417&p=4

Jesus
2005-05-17, 20:58:22
Nein, der RSX hat getrennte VS und PS.
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2417&p=4

Ehm, da steht nur "independent" und nicht getrennte Vertex/Pixelshader, das könnte man auch anders deuten.

robbitop
2005-05-17, 21:10:11
Hilft der Streamteil des Cells dem RSX?

@xmas
sieht das für dich noch nach NV4x aus?

robbitop
2005-05-17, 21:11:21
Ehm, da steht nur "independent" und nicht getrennte Vertex/Pixelshader, das könnte man auch anders deuten.
Ja selbst WGF2 fordert keine unified shader, wenn ich das richtig verstanden habe. Vieleicht ist es ein NV5x Derivat mit massiv gutem Tex/Arit.-Verhälltnis.

edit:
mir fiel folgendes auf. Die hälfte der Operationen, die der RSX raushauen kann, ist DP4. Wie beim NV4x im Pixelteil.
Angenommen RSX ist ein G70 Derivat @90nm, dann kommt die Gesamtrechenleistung ziemlich genau auf 2xNV40U.

Speku (völlig schwachsinnig, aber es regt vieleicht an):
NV40: 22 [16+6] * 400 = 8.800
RSX: 32 [24+8] * 550 = 17.600

8.800 * 2 = 17.600

Xmas
2005-05-17, 21:17:59
Ehm, da steht nur "independent" und nicht getrennte Vertex/Pixelshader, das könnte man auch anders deuten.
:confused:
Wenn sie unabhängig sind, wie sollen sie denn dann nicht getrennt sein?

Coda
2005-05-17, 21:19:20
Mhm ja so wie's da steht lese ich das auch als getrennt.

Quasar
2005-05-17, 21:27:44
:confused:
Wenn sie unabhängig sind, wie sollen sie denn dann nicht getrennt sein?
Es könnte auch gemeint sein, daß sie auf Pixel- und nicht auf Quad-Ebene unabhängig voneinander sind. Für Unified Shader m.E. sowieso das einzige wahre.

edit:http://images.anandtech.com/reviews/video/Playstation3/E3PressConference/rsxarchitecture.jpg
Dort sehe ich trotz Unschärfe auch nur "Vector ALU" und einen "Shader Instruction Processor" - keine getrennten PS und VS.

reunion
2005-05-17, 21:49:33
Und das mit 700Mhz GDDR3? Dann ist wohl auch dort eDRAM vorprogrammiert...


Nein, kein eDRAM.

Coda
2005-05-17, 21:50:59
Mhm dann ist aber HDR irgendwie auch nicht drin bei der PS3 :rolleyes:

Jesus
2005-05-17, 21:53:05
Mhm dann ist aber HDR irgendwie auch nicht drin bei der PS3 :rolleyes:

Schonmal das Getaway Techdemo gesehen? :rolleyes:

Coda
2005-05-17, 21:56:03
Kann ja fake HDR sein, du siehst da ja eh keinen Unterschied :P ;)

Ne ernsthaft mal... woher soll denn bitte die Bandbreite kommen für echtes HDR bei 128bit 700Mhz DDR? Es gibt Dinge gegen die kommen auch nVidia und Sony nicht an ;-)

Jesus
2005-05-17, 21:57:11
Kann ja fake HDR sein, du siehst da ja eh keinen Unterschied :P ;)

Ne ernsthaft mal... woher soll denn bitte die Bandbreite kommen für echtes HDR bei 128bit 700Mhz DDR? Es gibt Dinge gegen die kommen auch nVidia und Sony nicht an ;-)

click (http://xfer03.ign.com/^644323829/movies/streamingmovies.ign.com/docroot/ps3/article/614/614842/sonycon_demos_getaway_wmvlow.wmv?position=front)

:

Coda
2005-05-17, 21:58:34
HTTP/1.1 403 Forbidden

Und was hat das mit GDDR3 als Hauptspeicher zu tun?

Jesus
2005-05-17, 22:00:12
HTTP/1.1 403 Forbidden

Und was hat das mit GDDR3 als Hauptspeicher zu tun?

Nix :biggrin:

sorry war falscher link

http://media.ps3.ign.com/media/748/748448/vids_1.html

Coda
2005-05-17, 22:08:23
Sorry, aber wo siehst du da HDR? Das sieht verdammt nach Overbright aus.

Du weißt ja: Marketing und so...

Ailuros
2005-05-18, 01:57:08
RSX und G70 haben genau wieviel gemeinsam, wenn man bedenkt dass der eine ein consolen-Grafikcore und der andere ein PC high end chip ist?


Manche werden diese These wohl nicht gerne hoeren, aber so langsam wird mir auch klar warum NVIDIA nicht sofort auf 90nm fuer den PC gesprungen ist (IMHLO wie immer).

Uebrigens was die 128bit-Datenpfade betrifft, will mir jemand dieses alte Diagramm nochmal entziffern?

http://users.otenet.gr/~ailuros/xbox2.gif

Ailuros
2005-05-18, 02:09:16
Sorry, aber wo siehst du da HDR? Das sieht verdammt nach Overbright aus.

Du weißt ja: Marketing und so...

Also ich waere verdammt enttaeuscht wenn ich in absehbarer Zukunft nicht mehr als 64bpp HDR sehen wuerde (nicht unbedingt vor WGF2.0 im PC, aber Consolen sind auch ein anderes Bier).

Gast
2005-05-18, 02:35:44
Schonmal das Getaway Techdemo gesehen? :rolleyes:

Techdemo ! genau ingame nicht wirklich

Gast
2005-05-18, 02:38:48
Sorry, aber wo siehst du da HDR? Das sieht verdammt nach Overbright aus.

Du weißt ja: Marketing und so...
http://media.ps3.ign.com/articles/615/615000/vids_1.html Das Demo oben recht zeigt echtes HDR mit AA.

Ebenso Fight Night: http://web115.silverline-s15.de/demos/sonycon_demos_fightnight_wmvlow.rar

Bei the getaway würde ich auch sagen, dass es echtes HDR ist, aber ganz sicher bin ich mir da nicht.

Konsolenfreund

Uzundiz
2005-05-18, 03:37:10
ist bisschen OT, aber das muss ich jetzt mal sagen:

die grafik sieht echt geil aus! beim box-movie dachte ich, dass es echte menschen sind!(Dank der Mimik und die Lichteffekte)...

mfg

Gast
2005-05-18, 04:22:20
http://media.ps3.ign.com/articles/615/615000/vids_1.html Das Demo oben recht zeigt echtes HDR mit AA.

Ebenso Fight Night: http://web115.silverline-s15.de/demos/sonycon_demos_fightnight_wmvlow.rar

Bei the getaway würde ich auch sagen, dass es echtes HDR ist, aber ganz sicher bin ich mir da nicht.

Konsolenfreund

sind Techdemos kein ingame,im spiel wird das nie so gut ausschaun

ohman wie leicht leute sich kaufen lassen

Winter[Raven]
2005-05-18, 08:25:22
Manche werden diese These wohl nicht gerne hoeren, aber so langsam wird mir auch klar warum NVIDIA nicht sofort auf 90nm fuer den PC gesprungen ist (IMHLO wie immer).


Erzähl mal >>=o]

robbitop
2005-05-18, 08:44:11
']Erzähl mal >>=o]
Prozessreife vermute ich -> Yields.

Winter[Raven]
2005-05-18, 09:29:41
Prozessreife vermute ich -> Yields.

Hmm ... dann wäre es angebracht zufragen ob die Verspätung des R520 nicht an den Yields liegt ...

Ailuros
2005-05-18, 10:30:09
']Hmm ... dann wäre es angebracht zufragen ob die Verspätung des R520 nicht an den Yields liegt ...


Oder wir werden alle an der Nase gefuehrt und es gibt gar nichts in 110nm im high end am Ende. Zwar hab ich keine Anzeigen dafuer, aber sicher bin ich mir auch nicht ueber gar nichts.

Ich wuerde es nicht so stark mit yields alleine verbinden; hat man fuer die Console/RSX 90nm und fuer desktop/110nm hat man eventuell auch den Luxus fuer beide Maerkte ohne besondere Verzoegerungen auszuliefern (wenn alles andere nach Plan laeuft).

***edit: mal ganz doof vereinfacht....beide IHVs haben einen Consolen-chip in Produktion momentan wobei beide =/>300M Transistoren liegen; gleichzeitig muessen sie aber auch im desktop PC Markt auch mal wieder was zeigen, wobei aber die Komplexitaet nicht so hoch sein wird mit allerhoechster Wahrscheinlichkeit. NVIDIA wird wohl eingeschaetzt haben dass man mit sagen wir mal bis zu 450MHz und 110nm immer noch sehr konkurrenzfaehig sein kann; ob das jetzt wahr sein wird oder nicht bleibt abzusehen.

Anand ist bis jetzt die einzige Stelle wo ich scharz auf weiss sah dass RSX auf G70 basiert; falls es stimmt sind es 6 fragment quads mit 550MHz was natuerlich auch bis zu >2*NV40 Leistung geben kann (13200 > 2*6400), was aber PC desktop G70 dann eben zu einem kleineren Leistungssprung fuehrt. Denk ich an Hara's Kommentar bei B3D, stand drin dass es einen "relativ maessigen Leistungssprung" auf 110nm fuer den Fruehling geben soll und dann spaeter einen nochmal analogen Leistungssprung auf 90nm. So gesehen passt das Ganze schon zusammen.

robbitop
2005-05-18, 10:54:37
Oder wir werden alle an der Nase gefuehrt und es gibt gar nichts in 110nm im high end am Ende. Zwar hab ich keine Anzeigen dafuer, aber sicher bin ich mir auch nicht ueber gar nichts.

Ich wuerde es nicht so stark mit yields alleine verbinden; hat man fuer die Console/RSX 90nm und fuer desktop/110nm hat man eventuell auch den Luxus fuer beide Maerkte ohne besondere Verzoegerungen auszuliefern (wenn alles andere nach Plan laeuft).

***edit: mal ganz doof vereinfacht....beide IHVs haben einen Consolen-chip in Produktion momentan wobei beide =/>300M Transistoren liegen; gleichzeitig muessen sie aber auch im desktop PC Markt auch mal wieder was zeigen, wobei aber die Komplexitaet nicht so hoch sein wird mit allerhoechster Wahrscheinlichkeit. NVIDIA wird wohl eingeschaetzt haben dass man mit sagen wir mal bis zu 450MHz und 110nm immer noch sehr konkurrenzfaehig sein kann; ob das jetzt wahr sein wird oder nicht bleibt abzusehen.

Anand ist bis jetzt die einzige Stelle wo ich scharz auf weiss sah dass RSX auf G70 basiert; falls es stimmt sind es 6 fragment quads mit 550MHz was natuerlich auch bis zu >2*NV40 Leistung geben kann (13200 > 2*6400), was aber PC desktop G70 dann eben zu einem kleineren Leistungssprung fuehrt. Denk ich an Hara's Kommentar bei B3D, stand drin dass es einen "relativ maessigen Leistungssprung" auf 110nm fuer den Fruehling geben soll und dann spaeter einen nochmal analogen Leistungssprung auf 90nm. So gesehen passt das Ganze schon zusammen.

1. Die Konsolen haben bis zur Mass availability noch ~9 Monate Zeit (NV/ATI haben dank der Lizenzen so gut wie gar nichts mit der Produktion und Vermarktung zu tun)
2. R500 hat laut den bisherigen Infos keine 300 Mio Transistoren.
3. ACK! RSX ist IMO ein G70 Derivat @90nm (G80?). Die Bandbreite ist allerdings mehr als mager (GDDR3 @128Bit).

Ailuros
2005-05-18, 11:10:33
1. Die Konsolen haben bis zur Mass availability noch ~9 Monate Zeit (NV/ATI haben dank der Lizenzen so gut wie gar nichts mit der Produktion und Vermarktung zu tun)
2. R500 hat laut den bisherigen Infos keine 300 Mio Transistoren.
3. ACK! RSX ist IMO ein G70 Derivat @90nm (G80?). Die Bandbreite ist allerdings mehr als mager (GDDR3 @128Bit).

1. Du unterschaetzt wie viele andere IP-Integration vor der Massen-Produktion.

2. Mit oder ohne dem eDRAM-"chip"?

3. Bandbreite vs. Granularitaet (was auch wieder auf Lese-Effizienz und dann doch wieder auf Bandbreite zurueckfuehren koennte). Quasi >3*NV43 in niedrigen Aufloesungen.

4. Das Bild ist mir noch zu schwammig um zu sagen dass Console A oder B besser sein wird.

robbitop
2005-05-18, 11:19:48
1. Du unterschaetzt wie viele andere IP-Integration vor der Massen-Produktion.

2. Mit oder ohne dem eDRAM-"chip"?

3. Bandbreite vs. Granularitaet (was auch wieder auf Lese-Effizienz und dann doch wieder auf Bandbreite zurueckfuehren koennte). Quasi >3*NV43 in niedrigen Aufloesungen.

4. Das Bild ist mir noch zu schwammig um zu sagen dass Console A oder B besser sein wird.

1. Mag sein.

2. Ohne natürlich. RSX wird wohl keinen eDRAM haben. Der eDRAM von der XBOX liegt ja auch auf dem Chip von NEC und nicht auf dem R500.

3. dennoch zu niedrige Bandbreite IMO.

Gast
2005-05-18, 11:29:18
1. Mag sein.

2. Ohne natürlich. RSX wird wohl keinen eDRAM haben. Der eDRAM von der XBOX liegt ja auch auf dem Chip von NEC und nicht auf dem R500.

3. dennoch zu niedrige Bandbreite IMO.

Bandbreite ist doch aber mehr für AA und AF notwendig oder?
Den Hauptausschlag bei den Konsolen wird meiner Meinung nach wie auch beim PC zukünftig die Grafik geben.
Dem normalen User fallen tolle Shadereffekte deutlich eher auf als AA oder AF. Deshalb glaube ich wird das Hauptaugenmerk auf reinem Arithmetik Power liegen und davon hat der RSX scheinbar deutlich mehr als der R500 der xbox360.
AA wird denke ich eher eine Nebenrolle spielen, zumal der eDRAM der xBOx360 mit 15MB glaub ich ziemlich begrenzt ist.

Coda
2005-05-18, 11:33:57
http://media.ps3.ign.com/articles/615/615000/vids_1.html Das Demo oben recht zeigt echtes HDR mit AA.

Ebenso Fight Night: http://web115.silverline-s15.de/demos/sonycon_demos_fightnight_wmvlow.rar

Bei the getaway würde ich auch sagen, dass es echtes HDR ist, aber ganz sicher bin ich mir da nicht.

KonsolenfreundIch sehe da nur eine HDR Cubemap, aber keinen HDR Framebuffer. Für echtes HDR ist bei 22GB/s einfach die Bandbreite nicht da.

Bandbreite ist doch aber mehr für AA und AF notwendig oder?Nur für AA. AF braucht eigentlich nur mehr Arithmetikleistung.

robbitop
2005-05-18, 11:34:31
Bandbreite ist doch aber mehr für AA und AF notwendig oder?
Den Hauptausschlag bei den Konsolen wird meiner Meinung nach wie auch beim PC zukünftig die Grafik geben.
Dem normalen User fallen tolle Shadereffekte deutlich eher auf als AA oder AF. Deshalb glaube ich wird das Hauptaugenmerk auf reinem Arithmetik Power liegen und davon hat der RSX scheinbar deutlich mehr als der R500 der xbox360.
AA wird denke ich eher eine Nebenrolle spielen, zumal der eDRAM der xBOx360 mit 15MB glaub ich ziemlich begrenzt ist.

1. Um Farbwerte in den Framebuffer zu schreiben braucht es Bandbreite. Um Texturen zu samplen braucht es Bandbreite. Die Vertexbuffer brauchen Bandbreite und dann ist da noch der Z Buffer. Daran ändern die Shadereffekte auch nichts, wenn pro Takt einfach nicht die Farbwerte geschrieben werden können, wie es eigentlich machbar wäre.

2. es sind 10MiB. Dazu kann der 500 noch auf 512MiB GDDR3 zugreifen (Texturen und evtl kann er sogar Teile des FB dort umlagern).

Tarkin
2005-05-18, 11:58:24
GeForce 7800 GTX (G70) Specs von HKEPC

http://www.hkepc.com/bbs/viewthread.php?tid=383733 (Thread nicht mehr zugänglich... vermutlich gelöscht)

0.11 micron process TSMC
430Mhz core / 1.4GHz 256MB GDDR3 memory
256-bit memory interface
38.4GB/s memory bandwidth
10.32Bps Fill Rate
860M vertices/second
24 pixels per clock
400MHz RAMDACs
NVIDIA CineFX 4.0 engine
Intellisample 4.0 technology
64-bit FP texture filtering & blending
NVIDIA SLI Ready (7800 GTX only)
DX 9.0 / SM 3.0 & OpenGL 2.0 supported
G70 comes with 3 models; GTX, GT and Standard
Single card requires min. 400W PSU with 12V rating of 26A
SLI configuration requires min. 500W PSU with 12V rating of 34A
Launch : 22nd of June

Das deckt sich etwa mit den angeblichen 8.000 3dMarks (schätze ich mal)

(haut mich nicht vom Hocker)

robbitop
2005-05-18, 12:07:51
(haut mich nicht vom Hocker)

Dann ist die Frage, wie sehr R520 dich vom Hocker reißt.

lilgefo~
2005-05-18, 12:09:01
Single card requires min. 400W PSU with 12V rating of 26A
SLI configuration requires min. 500W PSU with 12V rating of 34A



26A liefert mein 353W Enermax auch das freut mich schonmal

aber auf 34A kommt nicht mal mein Tagan 480U01

Winter[Raven]
2005-05-18, 12:09:08
Dann ist die Frage, wie sehr R520 dich vom Hocker reißt.

Den muss ich mir merken :D

Ronny145
2005-05-18, 12:16:20
Single card requires min. 400W PSU with 12V rating of 26A


Das deutet auf einen höheren Stromverbrauch als beim NV40 hin. Die 6800GT/Ultra waren schon nicht sehr sparsam.

Godmode
2005-05-18, 12:16:54
26A liefert mein 353W Enermax auch das freut mich schonmal

aber auf 34A kommt nicht mal mein Tagan 480U01

Mein OCZ 470 liefert 33A, das dürfte sicherlich noch locker reichen! Ich denke das sind einfach wieder Werte für den Worstcase!

lilgefo~
2005-05-18, 12:19:19
Mein OCZ 470 liefert 33A, das dürfte sicherlich noch locker reichen! Ich denke das sind einfach wieder Werte für den Worstcase!

also laut dem dokument wird das wohl nicht der worstcase sein

wenn man genau hinguggt:


Single card requires min. 400W PSU with 12V rating of 26A

seahawk
2005-05-18, 12:33:27
Das deutet auf einen höheren Stromverbrauch als beim NV40 hin. Die 6800GT/Ultra waren schon nicht sehr sparsam.

Kann aber auch nur einen höheren Stromverbrauch durch kommende Dualcore-CPUs berücksichtigen.

Adam D.
2005-05-18, 12:34:05
Also ich finde die Zahlen echt okay. Da haben hier ja einige wirklich sehr gut spekuliert. Jetzt ist halt nur noch die Frage, ob das auch stimmt, was da steht.

Demirug
2005-05-18, 13:03:13
Das scheint mir aber nicht 1:1 von einem nVidia Dokument abgeschrieben zu sein.

Godmode
2005-05-18, 13:24:29
Das scheint mir aber nicht 1:1 von einem nVidia Dokument abgeschrieben zu sein.

Warum, hast du ein Dokument mit anderen Daten?

Sunrise
2005-05-18, 13:34:50
Die Daten passen perfekt, sieht sehr authentisch aus. Meine eigenen Kalkulationen basierend auf NV40, bestätigen zumindest den Chiptakt, jedoch würde das bedeuten, dass NV an den Pipes und der Auslegung (Effizienz) rein garnichts verändert hat.

Es bedeutet auch, dass G70 bei 430MHz und 700MHz GDDR3 deutlicher BW-limitiert ist, im Vergleich zum NV40 (auch hier wieder, "falls sich dort nichts getan hat"), was auch so vermutet wurde. -> R520-Diskussion

Zur Verdeutlichung:

Gleiche Effizienz bei Fillrate/BW vorausgesetzt, wäre G70 erst bei etwa 890 MHz GDDR3 ebenso limitiert wie NV40 -> Annahme, s.o.

Keine Gewähr für die Richtigkeit der Daten, aber es deckt sich praktisch alles.

EDIT:

Schaut euch mal das an - keine Ahnung, woher die Daten stammen, aber sie sind wirklich nicht 100%ig korrekt. Das mal komplett losgelöst von oben, mir eben erst aufgefallen.

"0.11 micron process TSMC
430Mhz core / 1.4GHz 256MB GDDR3 memory
256-bit memory interface
38.4GB/s memory bandwidth"

Godmode
2005-05-18, 13:38:30
Die Daten passen perfekt, sieht sehr authentisch aus. Meine eigenen Kalkulationen basierend auf NV40, bestätigen zumindest den Chiptakt, jedoch würde das bedeuten, dass NV an den Pipes und der Auslegung (Effizienz) rein garnichts verändert hat.

Es bedeutet auch, dass G70 bei 430MHz und 700MHz GDDR3 deutlicher BW-limitiert ist, im Vergleich zum NV40 (auch hier wieder, "falls sich dort nichts getan hat"), was auch so vermutet wurde. -> R520-Diskussion

Zur Verdeutlichung:

Gleiche Effizienz bei Fillrate/BW vorausgesetzt, wäre G70 erst bei etwa 890 MHz GDDR3 ebenso limitiert wie NV40 -> Annahme, s.o.

Keine Gewähr für die Richtigkeit der Daten, aber es deckt sich praktisch alles.

Also ich könnte mir schon vorstellen dass am Shadercore etwas geändert wurde, weil CineFX4.0 spricht für eine Änderungen. Ok kann auch sein dass es nur Marketing ist, aber möglich wäre es sicher dass an der Effizienz etwas geändert wurde, sowohl beim Shadercore als auch beim Speicherinterface.

robbitop
2005-05-18, 13:39:47
@Sunrise
da erzählst du nichts Neues.

NV hat bereits ein gutes SM3 Design und ein Eingriff in die Pipelinestruktur ist kostspielig. Eine Skallierung nach oben kostet wenig R&D und reicht offensichtlich. Ich nehme an, dass erst im WGF2 Design wirklich mal wieder etwas getan wird. Echte Refreshes scheint es seit NV35 nicht mehr zu geben.
ATI b.s.w. brachte ja nie einen echten Refresh.

Sunrise
2005-05-18, 13:43:40
Also ich könnte mir schon vorstellen das am Shadercore etwas geändert wurde, weil CineFX4.0 spricht für eine Änderungen. Ok kann auch sein das es nur Marketing ist aber möglich wäre es sicher das an der Effizienz etwas geändert wurde sowohl beim Shadercore als auch beim Speicherinterface.

Kennen wir ja, Thema: Geforce3; Geforce3 200 / 500 ...

Was direkt verbessert wurde, kann ich anhand meiner Daten leider nicht erkennen, jedoch sollten sie annähernd hinkommen, bleibt aber alles natürlich sehr theoretisch, was eigentlich nicht meine Art ist ;)

Sunrise
2005-05-18, 13:45:30
@Sunrise
da erzählst du nichts Neues.

NV hat bereits ein gutes SM3 Design und ein Eingriff in die Pipelinestruktur ist kostspielig. Eine Skallierung nach oben kostet wenig R&D und reicht offensichtlich. Ich nehme an, dass erst im WGF2 Design wirklich mal wieder etwas getan wird. Echte Refreshes scheint es seit NV35 nicht mehr zu geben.
ATI b.s.w. brachte ja nie einen echten Refresh.

Dass ich DIR nichts Neues erzähle, habe ich mir dabei auch gedacht, jedoch gibt es noch in etwa ein dutzend Anderer, die sich vielleicht in ihrer Annahme bestätigt fühlen ;)

Sind auch alles nur reine Zahlenspielereien, da ist leider nichts mit Tiefgang.

robbitop
2005-05-18, 13:51:06
Dass ich DIR nichts Neues erzähle, habe ich mir dabei auch gedacht, jedoch gibt es noch in etwa ein dutzend Anderer, die sich vielleicht in ihrer Annahme bestätigt fühlen ;)

Sind auch alles nur reine Zahlenspielereien, da ist leider nichts mit Tiefgang.
Das meine ich gar nicht. Diese Zahlen, die nun immer wahrscheinlicher werden, waren im Prinzip schon seit September 2004 im Netz (B3D IIRC).
Aber natürlich ist's gut, wenn sich's jetzt bestätigt :up:

Sunrise
2005-05-18, 14:02:27
Das meine ich gar nicht. Diese Zahlen, die nun immer wahrscheinlicher werden, waren im Prinzip schon seit September 2004 im Netz (B3D IIRC).
Aber natürlich ist's gut, wenn sich's jetzt bestätigt :up:

Das waren sie in der Tat, allerdings war das damals nicht der G70, sondern der NV47, wenn es die gleichen Daten sind, die du auch meinst. An eine "relativ" genaue Performance-Einschätzung, war da allerdings noch nicht zu denken, jedenfalls nicht von meiner Seite.

Der grobe Fehler von HKEPC bei der Bandbreite, gibt mir allerdings zu denken.

ShadowXX
2005-05-18, 18:39:32
EDIT:

Schaut euch mal das an - keine Ahnung, woher die Daten stammen, aber sie sind wirklich nicht 100%ig korrekt. Das mal komplett losgelöst von oben, mir eben erst aufgefallen.

"0.11 micron process TSMC
430Mhz core / 1.4GHz 256MB GDDR3 memory
256-bit memory interface
38.4GB/s memory bandwidth"

Sie haben bei den 38.4 scheinbar nur mit 600MHz Speicher gerechnet...(und dazu tatsächlich in GB und nicht in GiB)

Das mit den 600MHz Speicher würde übrigens zu einem anderen Posting passen, wo jemand einen nV-Mitarbeiter über den G70 ausgefragt hat und dieser beim Speicher "600MHz" sagte.....

Wenn das Ding wirklich nur 600MHz Speicher hat, macht das Ding wirklich nur einen sehr kleinen Performancesprung.

Einen G70 mit 700MHz Speicher hätte ich wohl gekauft...einen mit 600MHz Speicher kaufe ich bestimmt nicht...

(Andere möglichkeit...es gibt eine Version mit 700MHz Speicher (GTX) und eine mit 600MHz Speicher (GT))

Alertstatus Red
2005-05-18, 18:55:38
Hier auch was über G70:
http://www.hartware.de/news_37993.html


Cu Alertstatus red

Jesus
2005-05-18, 19:21:41
Ich sehe da nur eine HDR Cubemap, aber keinen HDR Framebuffer. Für echtes HDR ist bei 22GB/s einfach die Bandbreite nicht da.


Wie sieht man denn einen HDR Framebuffer? :rolleyes: Im übrigen benutzte auch das echtzeit UT 2007 Demo HDR (sagt zumindest Tim Sweaney)

Coda
2005-05-18, 19:29:04
Mhm und wie soll das von statten gehen mit 22GB/s Speicherbandbreite? Ich erinnere wie stark NV40 schon einbricht und der hat gut die doppelte.

reunion
2005-05-18, 20:02:34
Mhm und wie soll das von statten gehen mit 22GB/s Speicherbandbreite? Ich erinnere wie stark NV40 schon einbricht und der hat gut die doppelte.


Man sollte das nicht so generalisieren.
Ich kann mit meiner 6600GT sowohl Splinter Cell, als auch FarCry mit HDR relativ flüssig spielen.

Coda
2005-05-18, 20:05:08
Ja, aber das wäre nochmal die Hälfte der Bandbreite. Und das auf den Videos sieht nicht nach 640x480 aus...

reunion
2005-05-18, 20:12:56
Ja, aber das wäre nochmal die Hälfte der Bandbreite. Und das auf den Videos sieht nicht nach 640x480 aus...


Was wäre nocheinmal die Hälfte der Bandbreite?
Eine 6600GT hat eine Bandbreite von 16Gb/s, und ich empfinde Splinter Cell in 1280 x 960 sowie vollen Details und HDR als spielbar.

reunion
2005-05-18, 20:16:29
Nvidia G70 is a 90 nanometre chip (http://www.the-inquirer.net/?article=23325) :naughty:

Ronny145
2005-05-18, 20:17:52
Nvidia G70 is a 90 nanometre chip (http://www.the-inquirer.net/?article=23325)


Ist das sicher? Sonst ging man doch von 0,11 aus.

reunion
2005-05-18, 20:22:54
Ist das sicher? Sonst ging man doch von 0,11 aus.


Nein, alles andere als unwarscheindlich, dass FUAD da wieder was verwechselt hat.
Wenn ich mir das so durchlese, erscheint mir das sogar sehr warscheindlich.

Aber auch die Info über die angeblich vorhandenen 10MB eDRAM in der PS3 sind intressant.
Nur frage ich mich, warum Sony das nicht erwähnt hat (falls was dran ist)?

Gmax
2005-05-18, 20:29:41
Hab gerade auf Heise gelesen, daß die Ps3 für umgerechnet 370 Teuro
zu haben sein wird.... Überlegt mal: Für den Preis erhält man garantiert keine
G70 Karte, obwohl die Gpu wohl fast identisch sein soll ( das Cell nebenbei auch in der Ps3 steckt, soll nicht verschwiegen werden )
So was nenn ich verarsche :mad:

Merkor
2005-05-18, 20:31:47
So was nenn ich verarsche :mad:

Nein, das nennt man Hardware verkauft Software. Die holen das Geld über Lizenzen und eigene Games wieder rein. Sprich: Sie machen Verlust an der Konsole...

Gmax
2005-05-18, 20:34:42
Das könnte man ja bei Pc´s auch so machen. Immerhin kosten Konsolenspiele
auch auch nicht mehr als die für den Rechner :confused:

Ronny145
2005-05-18, 20:40:11
Das könnte man ja bei Pc´s auch so machen. Immerhin kosten Konsolenspiele
auch auch nicht mehr als die für den Rechner :confused:


Nur wer kauft dann noch die Spiele?

@reunion: Abgesehen von der Taktsteigerung, wäre dadurch eine verbesserte Verlustleistung möglich?

Gmax
2005-05-18, 20:41:06
[QUOTE=Ronny145]Nur wer kauft dann noch die Spiele?
:biggrin:

Xmas
2005-05-18, 20:42:09
Das könnte man ja bei Pc´s auch so machen. Immerhin kosten Konsolenspiele
auch auch nicht mehr als die für den Rechner :confused:
Wie sollte man da lizensieren?

Außerdem hat die Konsole eine längere Lebensdauer. Klar, viele kaufen am Anfang, aber einige auch erst später wenn die Produktionskosten deutlich gesunken sind.

reunion
2005-05-18, 20:45:23
@reunion: Abgesehen von der Taktsteigerung, wäre dadurch eine verbesserte Verlustleistung möglich?


Natürlich, speziell durch das beim 110nm Prozess nicht vorhandene low-k dielektrikum sollte einen deutliche Reduzierung der Verlustleistung möglich sein.

Allerdings halte ich dies nach all den Quellen, die von 110nm sprachen für recht unwarscheindlich.
Und auch die spekulierten Taktraten sprechen nicht dafür.

Ronny145
2005-05-18, 20:51:21
Das wäre auch sehr erfreulich in Hinblick auf die Lautstärke. Mit weniger Abwärme sinkt die Temperatur und die Kühlung wäre nicht mehr ganz so prolematisch.

Coda
2005-05-18, 20:55:04
Wenn nVidia wirklich 110nm benützt, dann sicher mit low-k. Das wird sich schon einfädeln lassen für diese Volumen.

Sunrise
2005-05-18, 21:00:17
Wenn nVidia wirklich 110nm benützt, dann sicher mit low-k. Das wird sich schon einfädeln lassen für diese Volumen.

Nicht möglich. TSMC bietet es nicht an, da der Prozess im Wesentlichen auf einen hohen Output bei relativ geringen Kosten setzt und nachträglich wird man daran auch nichtsmehr ändern.

Coda
2005-05-18, 21:10:35
High End ohne Low-K ist aber nicht machbar imho.

Eine 6600GT hat eine Bandbreite von 16Gb/s, und ich empfinde Splinter Cell in 1280 x 960 sowie vollen Details und HDR als spielbar.Pff, das ist ja nichtmal auf ner 6800GT flüssig.

reunion
2005-05-18, 21:13:46
Pff, das ist ja nichtmal auf ner 6800GT flüssig.


Geschmäcker sind verschieden. ;)

Ich habs mit diesen Einstellungen durchgezockt.

Coda
2005-05-18, 21:15:08
Auf Konsolen sind 30fps durchgehend Minimum.

reunion
2005-05-18, 21:18:20
Auf Konsolen sind 30fps durchgehend Minimum.

Und wenn nicht begrenzt man eben die Auflösung.

Im übrigen sind die fps in SC generell ziemlich niedrig.

Coda
2005-05-18, 21:19:31
Ja, klar. Neuste Konsolentechnik und dann 640x480...

reunion
2005-05-18, 21:21:49
Ja, klar. Neuste Konsolentechnik und dann 640x480...


Würde mich nicht wundern, wenn wird das ab und zu erleben würden.

seahawk
2005-05-18, 21:22:33
Sie haben bei den 38.4 scheinbar nur mit 600MHz Speicher gerechnet...(und dazu tatsächlich in GB und nicht in GiB)
(Andere möglichkeit...es gibt eine Version mit 700MHz Speicher (GTX) und eine mit 600MHz Speicher (GT))

Und wenn 800Mhz verfügbar wird, hat man sogar noch Platz für ne Ultra.

Merkor
2005-05-18, 21:55:38
Wird der G70 dann in allen High-End Ausbaustufen über 512MB RAM verfügen oder nur die SLI-Variante? Gibts da schon was?

robbitop
2005-05-18, 22:09:40
Wie sicher ist das mit dem eDRAM für die PS3?
Naja 128bit GDDR3 wäre für so ein Monster tatsächlich etwas wenig gewesen.

G70 @90nm...hmm das würde zu der Meldung über die kleine Kühlung diesen passen. Mehr als 430MHz benötigt es scheinbar eh nicht, da die Bandbreite am Ende ist. Passt allerdings so gar nicht zu den bisherigen Meldungen.

Das ist diesmal ja noch ein schlimmeres Informationschaos als zu R420/NV40

Coda
2005-05-18, 22:11:02
Wenn sie eDRAM hat, dann nehm ich das mit dem HDR zurück.

Was mich ja echt wundert ist dass sich das eine alte Blockdiagram der XBox 360 als komplett richtig erwießen hat :D

robbitop
2005-05-18, 22:17:33
Ich glaube fast, 110nm wurden absichtlich von NVIDIA ausgegeben als Falschinfo um Lecks bei den Informaten zu testen und die Konkurrenz zu verwirren. Ähnlich wars beim R420/NV40 auch. ["Extreme Pipelines". NV40 = 6x2 +2x2 (VS).]

eDRAM ist beim RSX wirklich notwendig. Denn bei so einem mächtigen Chip nur 22GiB/sek an Bandbreite zu haben ist in der Tat erbärmlich.
Ich frage mich warum Sony ein XDR und ein GDDR3 Interface implementierten, wenn es einen eDRAM gibt. Dann hätte man wie MS einen 512MiB Unified Memory nehmen können, das wäre platzsparender und billiger gewesen.
Also ich bin gespannt, ob sie eDRAM haben. Da RSX nicht bei TSMC produziert wird, wäre das denkbar. Es ist schließlich eine Co-Entwicklung von Sony und NV. NV wird den GPU Teil übernommen haben und Sony den eDRAM und die Verbindung zum CELL. Die Streamprozessoren kann man sicher auch noch für Grafikberechnungen heranziehen.

reunion
2005-05-18, 22:24:39
Ich glaube fast, 110nm wurden absichtlich von NVIDIA ausgegeben als Falschinfo um Lecks bei den Informaten zu testen und die Konkurrenz zu verwirren. Ähnlich wars beim R420/NV40 auch. ["Extreme Pipelines". NV40 = 6x2 +2x2 (VS).]

Wenn ich mir das Geschreibsel von FUAD so durchlesen, kommt es mir eher so vor als ob er den PS3-Chip mit dem G70 verwechselt.


eDRAM ist beim RSX wirklich notwendig. Denn bei so einem mächtigen Chip nur 22GiB/sek an Bandbreite zu haben ist in der Tat erbärmlich.
Ich frage mich warum Sony ein XDR und ein GDDR3 Interface implementierten, wenn es einen eDRAM gibt. Dann hätte man wie MS einen 512MiB Unified Memory nehmen können, das wäre platzsparender und billiger gewesen.
Also ich bin gespannt, ob sie eDRAM haben. Da RSX nicht bei TSMC produziert wird, wäre das denkbar. Es ist schließlich eine Co-Entwicklung von Sony und NV. NV wird den GPU Teil übernommen haben und Sony den eDRAM und die Verbindung zum CELL. Die Streamprozessoren kann man sicher auch noch für Grafikberechnungen heranziehen.

Dass die PS3 ein so marketingträchtiges Feature wie eDRAM hat, es aber von Sony nichtmal erwähnt wird, halte ich für ausgeschlossen.

Jesus
2005-05-18, 22:27:34
Ich frage mich warum Sony ein XDR und ein GDDR3 Interface implementierten, wenn es einen eDRAM gibt. Dann hätte man wie MS einen 512MiB Unified Memory nehmen können, das wäre platzsparender und billiger gewesen.

Vielleicht um unnötige Wait-Cycles zu vermeiden wenn beide gleichzeitig zugreifen? Ich glaube übrigens nicht das die RSX eDRAM haben wird, aber mal sehen...

(OT: Die UE3 Demo lief in 1280x720 inkl. AA (AF ka) bei 60 FPS + dem "Fake" HDR )

robbitop
2005-05-18, 22:32:46
Vielleicht um unnötige Wait-Cycles zu vermeiden wenn beide gleichzeitig zugreifen? Ich glaube übrigens nicht das die RSX eDRAM haben wird, aber mal sehen...

(OT: Die UE3 Demo lief in 1280x720 inkl. AA (AF ka) bei 60 FPS + dem "Fake" HDR )
Die beiden getrennten Interfaces sprechen für deine Theorie.
Hätte man eDRAM, hätte man das auch beworben.


----
Was 90nm angeht, wäre ich mir da nicht so sicher. 110nm ist ein lowcost Prozess und niemand von uns weiß, wozu er fähig ist oder nicht. Ein G70 @270-300Mio Transistoren wäre vieleicht ein bisschen viel für ihn und das Teil wäre heiß. Derzeit werden viele Fehlinfos gestreut. 90nm könnte falsch sein, 110nm könnte falsch sein. Carsten Spille wurde auf der CeBIT von NV direkt 130nm lowk gesagt, das erwies sich offenbar als falsch. Das brachte mich auf die Spur dieser absichtlichen Falschinformationsstreuung.
90nm wäre wirklich empfehlenswert für solch große GPUs.
Andererseits sprach NV öffentlich davon, dass es 90nm erst Ende 05 bei NV geben wird... :D

Demirug
2005-05-18, 22:38:45
RSX bekommt 35 GB/s (20 GB/s W + 15 GB/s R) der verfügbaren Bandbreite.

reunion
2005-05-18, 22:41:19
Was 90nm angeht, wäre ich mir da nicht so sicher. 110nm ist ein lowcost Prozess und niemand von uns weiß, wozu er fähig ist oder nicht. Ein G70 @270-300Mio Transistoren wäre vieleicht ein bisschen viel für ihn und das Teil wäre heiß. Derzeit werden viele Fehlinfos gestreut. 90nm könnte falsch sein, 110nm könnte falsch sein. Carsten Spille wurde auf der CeBIT von NV direkt 130nm lowk gesagt, das erwies sich offenbar als falsch. Das brachte mich auf die Spur dieser absichtlichen Falschinformationsstreuung.
90nm wäre wirklich empfehlenswert für solch große GPUs.


Natürlich wäre 90nm empfehlenwert, allerdings sitzten die Informationen die von 110nm sprechen IMO schon zu tief.

Es gab bereits unzählige Quellen, die angeblich an nV-Dokumente gekommen sind und von 110nm sprechen, jeder, der sich mit der Materie gut auskennt spricht von 110nm, ja selbst nV sagte man werde 90nm erst im zweiten Halbjahr einsetzten.

Und das mit dem eDRAM halte ich auch für falsch, vermutlich hat sich FUAD ein weiteres mal was aus der Nase gezogen. :D

reunion
2005-05-18, 22:43:01
RSX bekommt 35 GB/s (20 GB/s W + 15 GB/s R) der verfügbaren Bandbreite.

Wie soll das gehen mit 700Mhz GDDR3 an einem 128bit Interface?

robbitop
2005-05-18, 22:44:04
Wie soll das gehen mit 700Mhz GDDR3 an einem 128bit Interfance?
Er nutzt das XDR Interface mit.

robbitop
2005-05-18, 22:44:38
Natürlich wäre 90nm empfehlenwert, allerdings sitzten die Informationen die von 110nm sprechen IMO schon zu tief.

Es gab bereits unzählige Quellen, die angeblich an nV-Dokumente gekommen sind und von 110nm sprechen, jeder, der sich mit dieser Materie gut auskennt spricht von 110nm, ja selbst nV sagte man werde 90nm erst im zweiten Halbjahr einsetzten.

Und das mit dem eDRAM halte ich auch für falsch, vermutlich hat sich FUAD ein weiteres mal was aus der Nase gezogen. :D
Ist natürlich ebenso denkbar.

reunion
2005-05-18, 22:45:30
Er nutzt das XDR Interface mit.

:idea:

Demirug
2005-05-18, 23:16:09
RSX bekommt 35 GB/s (20 GB/s W + 15 GB/s R) der verfügbaren Bandbreite.

Sorry man sollte sich das Zeug erst ganz anschauen bevor man Blödsinn schreibt. Das ist nur die Kopplung zwischen Cell und RSX. Die GDDR3 Bandbreite kommt da noch dazu.

Gast
2005-05-18, 23:22:28
Update zu dem G70 - Core: Leider nur 430MHz! :)

deekey777
2005-05-19, 00:49:03
Nvidia G70 is a 90 nanometre chip (http://www.the-inquirer.net/?article=23325) :naughty:


Mehr als die Überschrift sollte man nicht lesen, es sei denn, man hat starke Nerven bzw. kann kein Englisch...

r3ptil3
2005-05-19, 01:34:14
Details zum G70 :
- 0.11 micron process TSMC
- 430Mhz core / 1.4GHz 256MB GDDR3 memory
- 256-bit memory interface
- 38.4GB/s memory bandwidth
- 10.32Bps Fill Rate
- 860M vertices/second
- 24 pixels per clock
- 400MHz RAMDACs
- NVIDIA CineFX 4.0 engine
- Intellisample 4.0 technology
- 64-bit FP texture filtering & blending
- NVIDIA SLI Ready (7800 GTX only)
- DX 9.0 / SM 3.0 & OpenGL 2.0 supported
- G70 comes with 3 models; GTX, GT and StandardSingle card
- requires min. 400W PSU with 12V rating of 26A
- SLI configuration requires min. 500W PSU with 12V rating of 34A
- Launch : 22nd of June

http://www.giga.de/index.php?storyid=119770

Klickt daneben auf Bilder...

Ailuros
2005-05-19, 04:28:10
Details zum G70 :
- 0.11 micron process TSMC
- 430Mhz core / 1.4GHz 256MB GDDR3 memory
- 256-bit memory interface
- 38.4GB/s memory bandwidth
- 10.32Bps Fill Rate
- 860M vertices/second
- 24 pixels per clock
- 400MHz RAMDACs
- NVIDIA CineFX 4.0 engine
- Intellisample 4.0 technology
- 64-bit FP texture filtering & blending
- NVIDIA SLI Ready (7800 GTX only)
- DX 9.0 / SM 3.0 & OpenGL 2.0 supported
- G70 comes with 3 models; GTX, GT and StandardSingle card
- requires min. 400W PSU with 12V rating of 26A
- SLI configuration requires min. 500W PSU with 12V rating of 34A
- Launch : 22nd of June

http://www.giga.de/index.php?storyid=119770

Klickt daneben auf Bilder...

Das haut so in etwa hin, mit dem was ich bis jetzt bekam. Nur kann hier jemand nicht rechnen:

700MHz GDDR3 @ 256bit = 44.8 GB/sec

Ailuros
2005-05-19, 04:34:06
Update zu dem G70 - Core: Leider nur 430MHz! :)

Behalte Deine Enttaeuschung fuer weitere PC-GPU Veroeffentlichungen. 10.3GPixels/sec sind nicht gerade wenig Fuellrate.

Gast
2005-05-19, 06:48:36
Behalte Deine Enttaeuschung fuer weitere PC-GPU Veroeffentlichungen. 10.3GPixels/sec sind nicht gerade wenig Fuellrate.

Naja, ich weiss auf alle fälle das die anderen höher takten werden, dank 90nm, war da nicht was*g* 110mn und 90nm ;) aber egal, mann kann ja fast alles.

Gast
2005-05-19, 06:53:57
Behalte Deine Enttaeuschung fuer weitere PC-GPU Veroeffentlichungen. 10.3GPixels/sec sind nicht gerade wenig Fuellrate.

Genau ;),

Außerdem wird wohl Nvidias offizielle Empfehlung in Bezug auf die Stromversorgung für Aufsehen sorgen.
Mindestens 26 Ampere müssen auf der 12-Volt-Schiene eines 400-Watt-Netzteiles anliegen, um das Spitzenmodell mit ausreichend Strom zu versorgen.
Im SLI-Verbund muss es sogar ein 500-Watt-Netzteil mit einer 34 Ampere starken 12-Volt-Leitung sein.


-> Das werden die Träume von RWE und anderen Stromlieferanten ja wirklichkeit! Respekt! Ob nvidia Anteile am Strommarkt hält??? ;)

ShadowXX
2005-05-19, 07:42:49
Naja, ich weiss auf alle fälle das die anderen höher takten werden, dank 90nm, war da nicht was*g* 110mn und 90nm ;) aber egal, mann kann ja fast alles.

Es kommt nicht nur auf den Takt, sondern auch auf die "Breite" des Designs an.

Der nV soll 24Pipes haben, der ATI wohl nur 16.

D.h. ATI muss höher takten um auf die gleiche Füllrate wie nV zu kommen. Nur aus dem Takt alleine kannst du keine Überlegenheit eines Chips erkennen.

(Dazu kommen noch ca. "1000" andere Faktoren...wie z.B. die Effiziens der Shadereinheiten usw. usw.)

Anders gesagt...nur weil ein Chip wesentlich langsamer getaktet ist als der andere, kannst du ohne restliche Daten keine Ausssage über die Keistungsfähigkeit treffen (siehe auch AMD64 vs. Intel P4 oder auch nv30 vs. r300)

ShadowXX
2005-05-19, 07:45:07
Genau ;),

Außerdem wird wohl Nvidias offizielle Empfehlung in Bezug auf die Stromversorgung für Aufsehen sorgen.
Mindestens 26 Ampere müssen auf der 12-Volt-Schiene eines 400-Watt-Netzteiles anliegen, um das Spitzenmodell mit ausreichend Strom zu versorgen.
Im SLI-Verbund muss es sogar ein 500-Watt-Netzteil mit einer 34 Ampere starken 12-Volt-Leitung sein.


-> Das werden die Träume von RWE und anderen Stromlieferanten ja wirklichkeit! Respekt! Ob nvidia Anteile am Strommarkt hält??? ;)

Am Anfang waren die Meldungen über die Stromaufnahme der nv40 Reihe gerüchteweise ähnlich überhöht angesetzt....im Endeffekt brauchte man dann doch nur ein gutes 350Watt NT für eine Ultra.

robbitop
2005-05-19, 09:07:15
Am Anfang waren die Meldungen über die Stromaufnahme der nv40 Reihe gerüchteweise ähnlich überhöht angesetzt....im Endeffekt brauchte man dann doch nur ein gutes 350Watt NT für eine Ultra.
Ich habe auch schon von PC's mit guten 250 und 300W NT's gelesen, bei denen die NV40U lief. Wattangaben sind eben nicht alles. Zumal so eine NV40U noch weniger Leistung aufnimmt als eine FX5950.

Gassstttt
2005-05-19, 09:34:52
Sorry man sollte sich das Zeug erst ganz anschauen bevor man Blödsinn schreibt. Das ist nur die Kopplung zwischen Cell und RSX. Die GDDR3 Bandbreite kommt da noch dazu.

Kann man das denn so einfach addieren? Ich meine wie entscheidet man über welchen Bus man seine Daten bekommt? (Das wäre dann allerdings eine ziemlich krasse Bandbreite)

Demirug
2005-05-19, 09:55:55
Kann man das denn so einfach addieren? Ich meine wie entscheidet man über welchen Bus man seine Daten bekommt? (Das wäre dann allerdings eine ziemlich krasse Bandbreite)

Die Lage der Daten entscheidet über welchen Bus sie geholt werden.

Gasssstttt
2005-05-19, 10:02:32
Das heisst wenn mans geschickt macht hat man 57.4 GB/s an Bandbreite zur Verfügung?

Demirug
2005-05-19, 10:04:36
Das heisst wenn mans geschickt macht hat man 57.4 GB/s an Bandbreite zur Verfügung?

Theoretisch ja nur ist dann ja nichts mehr für die CPU da.

Winter[Raven]
2005-05-19, 10:12:04
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11637

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11640&stc=1

http://pics.computerbase.de/news/10900/1.jpg

Coda
2005-05-19, 10:15:45
Die Marketing-Sätze die da stehen sind sehr Aufschlussreich :D

Tomcat70
2005-05-19, 10:20:16
Details zum G70 :
- 0.11 micron process TSMC


laut http://www.theinquirer.net/?article=23325
---
Nvidia G70 is a 90 nanometre chip
---

naja, inquirer halt........
wahrheitsgehalt unbekannt :D

*sorry falls das schon wer geposted hat, verfolg den thread nicht dauernd*

Coda
2005-05-19, 10:25:08
Inquirer labert generell nur Schrott. Einfach nicht beachten.

Aber so wie es da steht gibt's wieder nur 600Mhz GDDR3. Wie soll denn das für die Füllrate reichen?

reunion
2005-05-19, 10:34:33
http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11640&stc=1


Also doch nur 600Mhz RAM Takt?
Das würde den Chip ganz schön Bandbreitenlimitiert machen.
Troz fast 70% mehr Füllrate nichmal 10% mehr Bandbreite?!

Allerdings dürfte es bei R520 vermutlich auch nicht besser aussehen.

Coda
2005-05-19, 10:38:24
600Mhz wären ja 0% mehr Bandbreite gegenüber nen 6800 Ultra :rolleyes:

Aber irgendwie glaube ich langsam, dass sich da wirklichjemand verrechnet hat.

reunion
2005-05-19, 10:39:09
600Mhz wären ja 0% mehr Bandbreite gegenüber nen 6800 Ultra :rolleyes:

Aber irgendwie glaube ich langsam, dass sich da wirklichjemand verrechnet hat.


Eine 6800U hat AFAIK 550Mhz Ramtakt, also hätte der G70 9% mehr. :D

Coda
2005-05-19, 10:39:37
Edit: Ok, hast gewonnen X-D

Mhm ATi braucht mit 16 Pipelines mindestens 650Mhz dagegen. Wenn es denn wirklich so kommt.

reunion
2005-05-19, 10:41:05
Edit: Ok, hast gewonnen X-D

:uup:

Ronny145
2005-05-19, 11:22:12
http://www.vr-zone.com/?i=2206&s=1


Das steht schon wieder was von 0.09 micron process. Vielleicht nur abgeschrieben von theinquirer.

Xmas
2005-05-19, 11:29:22
http://www.vr-zone.com/?i=2206&s=1


Das steht schon wieder was von 0.09 micron process. Vielleicht nur abgeschrieben von theinquirer.
:confused:
Da steht doch "0.11 micron process TSMC"?

Ronny145
2005-05-19, 11:30:49
:confused:
Da steht doch "0.11 micron process TSMC"?


Das stand eben noch 0,09, bin mir das sicher, seltsam.

DrumDub
2005-05-19, 11:39:41
http://www.vr-zone.com/?i=2206&s=1
interessant, dass nur noch das model gtx sli unterstützen wird.

(del676)
2005-05-19, 11:45:16
interessant, dass nur noch das model gtx sli unterstützen wird.
jop entweder damit mal feste geld ziehen kann
und die modelle so bleiben wie bisher (normal - gt - gtx) d.h. 25% teurer für 5% leistung und sli support
oder es gibt nur 2 modelle, und die GTX ist einfach eine GT mit sli connector und 5% teurer (was mir lieber wär) :)

seahawk
2005-05-19, 11:49:20
Ich vermute, dass man durhc ein etwas einfacheres PCB evtl. Geld sparen kann und so die GT etwas billiger anbieten kann.

Botcruscher
2005-05-19, 11:55:34
Ich vermute, dass man durhc ein etwas einfacheres PCB evtl. Geld sparen kann und so die GT etwas billiger anbieten kann.


Die paar Leitungen sind sicher bei weitem billiger als der Endgültige Preis. NV hat erkannt das hier mächtig Geld machen kann.

ShadowXX
2005-05-19, 11:57:35
Eine 6800U hat AFAIK 550Mhz Ramtakt, also hätte der G70 9% mehr. :D

Aber auch nur auf dem Papier....es gibt etliche Anbieter von 6800Ultra-Karten, die schon 600MHz-Speicher haben (meine z.B.)

Für mich wäre es also 0% mehr Bandbreite....dadurch wird der Chips extrem uninteressant, da das was bei mir "blockiert" nicht erhöht wird.

Es kommt darauf hinaus, was in dem oftmals von AiL zitierten Interview mit dem nV-type zu lesen war: "leichte Performanceerhöhung".

Kein "Killerchip" (auch wenn ich das soweiso nicht erwartet habe) sondern nur ein leichtes Upgrade gegenüber dem nv40....und was viel wichtiger ist (für nV): wahrscheinlich wesentlich bessere verfügbarkeit.

Im Prinzip wird der G70 also die x850xt/pe von nV.....

P.S.
ich bin mal gespannt, welche Situation von nV ausgegraben werden um eine knape verdoppelung der Leistung zu demonstrieren.
Was mit AA kanns ja nicht sein, da die Bandbreite noch stärker als beim nv40 limitiert.
Müsste also was extrem Shaderlastiges sein...da dürften die 8 Pipes + etwas mehr Coretakt tatsächlich was bringen....

Leonidas
2005-05-19, 12:02:27
Nvidia G70 is a 90 nanometre chip (http://www.the-inquirer.net/?article=23325) :naughty:


G70 ist mit Sicherheit nicht "very familar" zu G70: Denn G70/NV40 haben nix mit unified Pipes zu tun.

Leonidas
2005-05-19, 12:05:53
Wie soll das gehen mit 700Mhz GDDR3 an einem 128bit Interface?


Es sind 350 MHz an einem 256bit Interface.

Gast
2005-05-19, 12:16:48
Leute diese 0.09 Gerüchte und 0.11 Informationen sind doch ganz klar.

Ich gebe mal kurz eine Zusammenfassung was wir so wissen an Infos und Gerüchten:

1) G70 soll 0.11 sein
2) G70 soll 0.09 sein
3) G70 kommt als Version 7800, 7800GT und 7800GTX
4) laut Michael Harava von Nvidia kommen noch dieses Jahr 1 bis 2 Produkte mit 0.09er Fertigungsverfahren
5) es gibt keine G70 Ultra in dem oberen Namensschema.
6) Momentan gibt es generell ein Bandbreitenproblem, so dass mehr Füllrate nicht mehr sinnvoll ausgenutzt werden kann.

Das alles lässt mich folgendes Bild zusammenmalen.
1) im Juni wird der G70 in den oben genannten Versionen mit 0.11 gelauncht.
2) Gegen Ende des Jahres, wird nach genauer Analyse der R520 Performance der G70 in 0.09 gelauncht.

Bis dahin ist dieser Porzess wieder eine Stufe reifer, die Memoryhersteller können schnellere Speicher besser liefern. Es passt zu Michael Harahs Aussagen und zu den ganzen Gerüchten um einen mal 0.11 dann mal wieder 0.09 Chip. Es ist das genaue Gegenteil, was Nvidia beim nV30 gemacht hat.
Also nicht von Beginn an agressiv sondern erstmal konservativ und dann agressiv.
Die Verspätung des R520 spielt Nvidia verdammt gut in die Hände. Dieser wird 2 Monate nach dem 0.11 G70 gelauncht. Das bedeutet, dass Nvidia genug Zeit hat und relativ kurz danach seine 0.09er Version des G70 launchen kann.

Ich glaube genau so wird es kommen. Da bin ich mir schon fast 95% sicher.

Gast
2005-05-19, 12:17:55
Zusatz: der G70 in 0.09 wird die GeForce7800Ultra sein, natürlich mit SLI.

ShadowXX
2005-05-19, 12:36:26
Leute diese 0.09 Gerüchte und 0.11 Informationen sind doch ganz klar.

Ich gebe mal kurz eine Zusammenfassung was wir so wissen an Infos und Gerüchten:

1) G70 soll 0.11 sein
2) G70 soll 0.09 sein
3) G70 kommt als Version 7800, 7800GT und 7800GTX
4) laut Michael Harava von Nvidia kommen noch dieses Jahr 1 bis 2 Produkte mit 0.09er Fertigungsverfahren
5) es gibt keine G70 Ultra in dem oberen Namensschema.
6) Momentan gibt es generell ein Bandbreitenproblem, so dass mehr Füllrate nicht mehr sinnvoll ausgenutzt werden kann.

Das alles lässt mich folgendes Bild zusammenmalen.
1) im Juni wird der G70 in den oben genannten Versionen mit 0.11 gelauncht.
2) Gegen Ende des Jahres, wird nach genauer Analyse der R520 Performance der G70 in 0.09 gelauncht.

Bis dahin ist dieser Porzess wieder eine Stufe reifer, die Memoryhersteller können schnellere Speicher besser liefern. Es passt zu Michael Harahs Aussagen und zu den ganzen Gerüchten um einen mal 0.11 dann mal wieder 0.09 Chip. Es ist das genaue Gegenteil, was Nvidia beim nV30 gemacht hat.
Also nicht von Beginn an agressiv sondern erstmal konservativ und dann agressiv.
Die Verspätung des R520 spielt Nvidia verdammt gut in die Hände. Dieser wird 2 Monate nach dem 0.11 G70 gelauncht. Das bedeutet, dass Nvidia genug Zeit hat und relativ kurz danach seine 0.09er Version des G70 launchen kann.

Ich glaube genau so wird es kommen. Da bin ich mir schon fast 95% sicher.

Hört sich nicht schlecht an und passt zu meiner persönlichen Meinung, das der 0.11er G70 quasi den refresh des nv40 darstellt.

Und zwar mit dem selben Grundgedanken wie bei ATI, nämlich bessere Verfügbarkeit (es war wohl "einfacher" den nötigen Speedzuwachs über 8Pipes mehr @0.11 hinzubekommen, als bei 0.13 die Taktschraube anzuziehen).

Dann könnte es bei der Verspätung des r520 wirklich hinkommen, das ATI einfach nur auf "Speicher" warten muss....

robbitop
2005-05-19, 13:32:10
Es sind 350 MHz an einem 256bit Interface.
Das glaube ich nicht. Dazu braucht es keinen teuren GDDR3, da genügt DDR1.


G80 wird gegen R580 antreten. Beide vermutlich mit 90nm. Allerdings schnellerer Speicher und beim G80 vermute ich ein paar Änderungen an der Pipeline, so daß dynamisches Branching etwas flotter läuft.

ShadowXX
2005-05-19, 13:47:10
Das glaube ich nicht. Dazu braucht es keinen teuren GDDR3, da genügt DDR1.


G80 wird gegen R580 antreten. Beide vermutlich mit 90nm. Allerdings schnellerer Speicher und beim G80 vermute ich ein paar Änderungen an der Pipeline, so daß dynamisches Branching etwas flotter läuft.

Ich glaube eher, das der G80 gegen den r520 antreten wird.....ATIs GraKa sehe ich nicht vor Jahresende und der "G80" soll ungefähr um die gleiche Zeit rauskommen (vielleicht 1-1.5 Monate später).

Das Problem bei der Betrachtung momentan ist, das ATI und nV nicht mehr parallel Ihre (Konkurrenz-)Karten rausbringen.

Ich bin ziemlich überzeugt davon, das der G70 die "Antwort" auf den x850xt/pe darstellt / darstellen soll.

r3ptil3
2005-05-19, 13:50:37
Ich glaube eher, das der G80 gegen den r520 antreten wird.....ATIs GraKa sehe ich nicht vor Jahresende und der "G80" soll ungefähr um die gleiche Zeit rauskommen (vielleicht 1-1.5 Monate später).

Das Problem bei der Betrachtung momentan ist, das ATI und nV nicht mehr parallel Ihre (Konkurrenz-)Karten rausbringen.

Ich bin ziemlich überzeugt davon, das der G70 die "Antwort" auf den x850xt/pe darstellt / darstellen soll.

Mit Sicherheit nicht!
Es ist sicherlich G70 gegen R520, dann G80 gegen R580!

seahawk
2005-05-19, 13:51:41
Wer sagt eigentlich, dass der R520 so toll sein muss ?

Was wäre dem an einem 4 Quad 600-650 MHz Design mit SM3.0 falsch ? Schneller als R480 und mehr Features.

Allderings hat der R420/480 auch stärker auf einen höheren RAM-Takt reagiert las der NV40/45. So gesehen kann ATI den 700MHZ DDR Speicher evtl. nötiger rbauchen als NV.

reunion
2005-05-19, 13:55:49
Ich glaube eher, das der G80 gegen den r520 antreten wird.....ATIs GraKa sehe ich nicht vor Jahresende und der "G80" soll ungefähr um die gleiche Zeit rauskommen (vielleicht 1-1.5 Monate später).

Das Problem bei der Betrachtung momentan ist, das ATI und nV nicht mehr parallel Ihre (Konkurrenz-)Karten rausbringen.

Ich bin ziemlich überzeugt davon, das der G70 die "Antwort" auf den x850xt/pe darstellt / darstellen soll.


ATi plante von beginn an R520 im ersten Halbjahr 2005 zu bringen, dies mag sich jetzt ev. um ein paar Wochen verschoben haben, eine Vorstellung gegen ende des Jahres halte ich allerdings für ausgeschlossen.

Immerhin hatte R520 schon 2004 sein Tapeout.

Winter[Raven]
2005-05-19, 13:55:54
Was wäre dem an einem 4 Quad 600-650 MHz Design mit SM3.0 falsch ? Schneller als R480 und mehr Features.

Ahhh .. Schwanzlänge?

r3ptil3
2005-05-19, 13:58:02
']Ahhh .. Schwanzlänge?

oh :uban:

ShadowXX
2005-05-19, 13:59:55
ATi plante von beginn an R520 im ersten Halbjahr 2005 zu bringen, dies mag sich jetzt ev. um ein paar Wochen verschoben haben, eine Vorstellung gegen ende des Jahres halte ich allerdings für ausgeschlossen.

Immerhin hatte R520 schon 2004 sein Tapeout.

Der r520 hatte zu diesem Termin vielleicht "ein" Tapeout....von dem niemand weiss, wie gut das Ergebniss war. Es ist nicht mal 100%tig sicher, ob es wirklich das Tapeout des r520 war und nicht vielleicht doch das des r500 (es wurde eben nur vermutet, das es sich um ein Tapeout des r520 handelte.....ausserdem gabs schon mehrfach Gerüchte, das es inzwischen schon "mehere" Tapeouts des r520 gab)

Die Vorhersage für das Erscheinen des r520 lagen (vor den gesammelten verstellungsverschiebungen) schon bei Herbst 2005.....

Nach diesen ganzen Verschiebungen kann man wohl mit käuflicher Verfügbarkeit erst im Spätherbst (November) rechnen....(alles IMO natürlich)

reunion
2005-05-19, 14:00:05
Wer sagt eigentlich, dass der R520 so toll sein muss ?

Was wäre dem an einem 4 Quad 600-650 MHz Design mit SM3.0 falsch ? Schneller als R480 und mehr Features.


ATi strebt AFAIK über 650Mhz an.


Allderings hat der R420/480 auch stärker auf einen höheren RAM-Takt reagiert las der NV40/45. So gesehen kann ATI den 700MHZ DDR Speicher evtl. nötiger rbauchen als NV.

Logisch, dass R420/R480 durch die wesentlich höhere Füllrate stärker auf höheren Ramtakt reagiert als NV40.

ShadowXX
2005-05-19, 14:05:27
ATi strebt AFAIK über 650Mhz an.


Etwas mehr als 100MHz über dem jetzigen Takt.....bei gleichbleibenden 16Pipes ist das nicht sooooo extrem mehr Rohperformance.

reunion
2005-05-19, 14:08:42
.....ausserdem gabs schon mehrfach Gerüchte, das es inzwischen schon "mehere" Tapeouts des r520 gab)


Was ja auch nicht ungewöhnlich ist.
Das A0 Silizium wird nie zur Massenproduktion genutzt.


Die Vorhersage für das Erscheinen des r520 lagen (vor den gesammelten verstellungsverschiebungen) schon bei Herbst 2005.....

Nach diesen ganzen Verschiebungen kann man wohl mit käuflicher Verfügbarkeit erst im Spätherbst (November) rechnen....(alles IMO natürlich)


Verschwörungstheorien vielleicht, ATi sprach stehts von "shipping 90nm products in the first half".

ShadowXX
2005-05-19, 14:13:30
Verschwörungstheorien vielleicht, ATi sprach stehts von "shipping 90nm products in the first half".

AFAIK waren das Einschätzungen von Analysten und nicht einfach Webgerüchte des INQ.....aber egal.

"First Half" ist inzwischen schon fast vorbei und die Vorstellung des r520 wurde auf irgendwann verschoben....gibts da eigentlich schon einen neuen Termin?

robbitop
2005-05-19, 14:15:29
Ich glaube eher, das der G80 gegen den r520 antreten wird.....ATIs GraKa sehe ich nicht vor Jahresende und der "G80" soll ungefähr um die gleiche Zeit rauskommen (vielleicht 1-1.5 Monate später).

Das Problem bei der Betrachtung momentan ist, das ATI und nV nicht mehr parallel Ihre (Konkurrenz-)Karten rausbringen.

Ich bin ziemlich überzeugt davon, das der G70 die "Antwort" auf den x850xt/pe darstellt / darstellen soll.

Die X850PE wird aber deutlich überflügelt mit G70. In Sachen Shaderleistung sogar brutalst.

Leonidas
2005-05-19, 14:32:03
Das glaube ich nicht. Dazu braucht es keinen teuren GDDR3, da genügt DDR1.




Das ist aber ziemlich eindeutig. Erstens mal ist ein 256bittiges Interface am Grafikchip derzeit normal, und bei einem 256bittigen Interface *kann* der Speicher bei der angegebenen Bandbreite nur mit 350 MHz takten. Und zweitens wurden bei allem rausgegebenen Daten *überall* die Marketing-Vervielfachungen angegeben: Wenn der XDR-Speicher mit 3.2 GHz angegeben wird und nicht mit physikalisch korrekten 400 MHz, dann ist es mehr als logisch, wenn der GDDR-Speicher auch mit seiner Marketing-Vervielfachung von 700 MHz anstatt der physikalisch korrekten 350 MHz angegeben wird.

Leonidas
2005-05-19, 14:34:00
ATi plante von beginn an R520 im ersten Halbjahr 2005 zu bringen, dies mag sich jetzt ev. um ein paar Wochen verschoben haben, eine Vorstellung gegen ende des Jahres halte ich allerdings für ausgeschlossen.

Immerhin hatte R520 schon 2004 sein Tapeout.



Korrekt. Ich sehe hier keine echte Verzögerung des R520 - sondern eher nur zuviel Optimimus bei den per Gerücht bekannten Launch-Daten. ATI wird den R520 wahrscheinlich noch im Juni raushauen - und was viel wichtiger ist, angeblich soll zwischen Launch und Markteintritt diesesmal nur noch 1-2 Monate vergehen, so wie früher einmal Standard. Gilt im übrigen auch für nVidia.

ShadowXX
2005-05-19, 14:45:25
Die X850PE wird aber deutlich überflügelt mit G70. In Sachen Shaderleistung sogar brutalst.

Zuerst: kein widerspruch von mir....aber:

(Ich habe es in dem anderen Thread auch schon geschrieben, wiederhole es aber hier nochmal)

Wir sollten vielleicht mal aus dem Denkschema heraustreten, das "Karte X die Antwort auf Karte Y" ist....ich glaube, das die Roadmap beider IHVs ziemlich durcheinandergeraten ist (Sony-Dela,MS-Deal,WGF2.0 Änderungen) und beiden momentan einfach nur die "neuen" internen Roadmaps "abarbeiten".

Anders gesagt....der G70 ist ein (guter) Refresh des nv40 und zufälligweise kommt er ungefähr heraus, wenn der r520 erscheint (ich bin übrigens nicht so optimistisch wie Leo und glaube an keine gute verfügbarkeit des r520 vor Oktober)....

Laut dem Interview mit O'Hara (?) passt das IMHO wie die Faust aufs auge....ein etwas schneller Chip in 110nm, dann ein nochmals etwas schneller Chip in 90nm....und das relativ unabhängig davon was ATI so ausliefert.

Das es ungefähre überschneidungen bei den Releases gibt, ist normal....das würde sogar passieren, wenn beide nichts voneinander wüssten.

Demirug
2005-05-19, 14:47:13
Der Sony Deal ist IMHO aber wesentlich weniger schmerzhaft als der MS Deal.

robbitop
2005-05-19, 14:56:32
Das ist aber ziemlich eindeutig. Erstens mal ist ein 256bittiges Interface am Grafikchip derzeit normal, und bei einem 256bittigen Interface *kann* der Speicher bei der angegebenen Bandbreite nur mit 350 MHz takten. Und zweitens wurden bei allem rausgegebenen Daten *überall* die Marketing-Vervielfachungen angegeben: Wenn der XDR-Speicher mit 3.2 GHz angegeben wird und nicht mit physikalisch korrekten 400 MHz, dann ist es mehr als logisch, wenn der GDDR-Speicher auch mit seiner Marketing-Vervielfachung von 700 MHz anstatt der physikalisch korrekten 350 MHz angegeben wird.
Es gibt keinen GDDR3 in diesen Taktregionen. Ergo unwahrscheinlich.

Gast
2005-05-19, 15:14:58
AFAIK waren das Einschätzungen von Analysten und nicht einfach Webgerüchte des INQ.....aber egal.

"First Half" ist inzwischen schon fast vorbei und die Vorstellung des r520 wurde auf irgendwann verschoben....gibts da eigentlich schon einen neuen Termin?

Ja anscheinend August, was dann auf Oktober/November in Sachen Verfügbarkeit hindeuten würde.
Das ist dann in jedem Fall Ende Q3 Anfang Q4 und wirklich deutlich später als erwartet. Ich denke, dass es mit 0.09 doch so einige Probleme gab.

Was die Konkurenzsituation betrifft, ist es falsch zu behaupten G70 wäre Nvidias Antwort auf die X850XT-PE.
Auf diese Karte hat Nvidia nicht geantwortet und sich kurzfristig umentschieden. Es war kein Bedarf da wie wir jetzt sehen können. Der refresh war mehr als dürftig und so hat Nvidia seinen einfach ausgelassen. Es wäre doch eh nur ein höher getakteter NV40 dabei herausgekommen.
Wozu also Ressourcen verschwenden. Nvidia hat das einzig richtige gemacht und sich auf die 6600GT und 6800GT konzentriert und das mit erheblichem Erfolg.

Der G70 ist also als Gegenstück zum R520 geplant gewesen. Ob sie nun am Ende direkt in ein Zeitfenster fallen, dass liegt nicht in Nvidia's Hand. Ich glaube aber, dass die Verspätungen beim R520 Nvidia sicherlich nicht unbedingt traurig machen werden :)
Es bringt ihren 0.09Refresh näher an den R520 heran vom Zeitfenster und das würde ein enormes Potential bedeuten, die Leistungskrone unwiederruflich ins eigene Lager zu bekommen. Wenn der G70 0.11 nah drann bleiben kann, dann liegt Nvidia mit dem 0.09 Refresh vorn. Vom R520 Refresh würde ich nicht allzuviel erwarten. Das wird eher marginal ausfallen wie zwischen X800XT-PE und X850XT-PE.

ShadowXX
2005-05-19, 15:29:15
Ja anscheinend August, was dann auf Oktober/November in Sachen Verfügbarkeit hindeuten würde.
Das ist dann in jedem Fall Ende Q3 Anfang Q4 und wirklich deutlich später als erwartet. Ich denke, dass es mit 0.09 doch so einige Probleme gab.

Was die Konkurenzsituation betrifft, ist es falsch zu behaupten G70 wäre Nvidias Antwort auf die X850XT-PE.
Auf diese Karte hat Nvidia nicht geantwortet und sich kurzfristig umentschieden. Es war kein Bedarf da wie wir jetzt sehen können. Der refresh war mehr als dürftig und so hat Nvidia seinen einfach ausgelassen. Es wäre doch eh nur ein höher getakteter NV40 dabei herausgekommen.
Wozu also Ressourcen verschwenden. Nvidia hat das einzig richtige gemacht und sich auf die 6600GT und 6800GT konzentriert und das mit erheblichem Erfolg.

Der G70 ist also als Gegenstück zum R520 geplant gewesen. Ob sie nun am Ende direkt in ein Zeitfenster fallen, dass liegt nicht in Nvidia's Hand. Ich glaube aber, dass die Verspätungen beim R520 Nvidia sicherlich nicht unbedingt traurig machen werden :)
Es bringt ihren 0.09Refresh näher an den R520 heran vom Zeitfenster und das würde ein enormes Potential bedeuten, die Leistungskrone unwiederruflich ins eigene Lager zu bekommen. Wenn der G70 0.11 nah drann bleiben kann, dann liegt Nvidia mit dem 0.09 Refresh vorn. Vom R520 Refresh würde ich nicht allzuviel erwarten. Das wird eher marginal ausfallen wie zwischen X800XT-PE und X850XT-PE.

Das mit "Antwort auf r480" war blöd von mir ausgedrückt.....und sollte nicht so extrem wortwörtlich genommen werden.

Ich bin nur inzwischen der Meinung, das der G70 nicht wirklich als Konkurrenz zur r520 geplant war, sondern nur eben zu einem ähmlichen Zeitpunkt herauskommt.

Der G70 ist einfach ein Produkt, welches nV als "nachfolger" des nv40 rausbringt und der eben Leistungsfähig genug erscheint um mit dem r520 mithalten zu können.

Ich glaube das die bessere Verfügbarkeit dabei eine wesentlich höhere Rolle als das "Dieser Chip ist unsere Antwort auf...." gespielt hat.

IMHO würde er mit grösseren Taktraten (Speicher) rauskommen, wenn er "wirklich" gegen den r520 antreten sollte....den wenn ATI erst gegen Oktober mit dem r520 kommt, werden diese bestimmt mindestens 700MHz-Speicher haben.

pF3NG
2005-05-19, 16:26:16
IMO wird der G80 NV60 sein...

Ailuros
2005-05-19, 16:34:56
Etwas mehr als 100MHz über dem jetzigen Takt.....bei gleichbleibenden 16Pipes ist das nicht sooooo extrem mehr Rohperformance.

Was zum Henker heisst "gleichbleibende pipe" ueberhaupt? Da Implementierung zu wesentlichen Unterschieden zwischen Architekturen fuehren kann, ist auch logischerweise quad=!quad zwischen den beiden IHVs. Welcher bessere Effizienz haben wird, muessen wir noch sehen.

Mit gleicher spekulativer Leichtigkeit behaupte ich jetzt dass die Kommunikation zwischen den Einheiten bei einem 4 quad Design leichter ist als bei einem 6 quad Design. Ganz dumm vereinfacht: die Abstaende sind halt kleiner.

Natuerlich wenn man vollkommen identische quads hat, koennte man sagen dass 6 quads@430MHz = 4 quads@650MHz, aber dem vorigen Paragraphen wuerde ich aber auch mal etwas schaerfer ueberdenken ;)

Ailuros
2005-05-19, 16:36:29
IMO wird der G80 NV60 sein...

Kann durchaus sein dass G80 der WGF2.0 chip der Zukunft ist.

Ailuros
2005-05-19, 16:40:11
Der Sony Deal ist IMHO aber wesentlich weniger schmerzhaft als der MS Deal.

Falls dieses nur auf Consolen begrenzt waere, wuerde ich zustimmen. Da sich aber der SONY/NVIDIA auf mehr als nur die Console bezieht, hat er zur gleichen Zeit Vor- und Nachteile denn so wie ich SONY's normale Politik kenne, greifen sie meistens zu exklusiven Vertraegen wenn sie erstmal IP lizenzieren. SONY war sicher keine leichte Nuss zu knacken und dass NVIDIA es geschafft hat einen deal bei denen zu landen, deutet mir nicht unbedingt auf eine Situation wo alles rosig fuer NV sein wird.

IMHLO ;)

Ailuros
2005-05-19, 16:41:36
Korrekt. Ich sehe hier keine echte Verzögerung des R520 - sondern eher nur zuviel Optimimus bei den per Gerücht bekannten Launch-Daten. ATI wird den R520 wahrscheinlich noch im Juni raushauen - und was viel wichtiger ist, angeblich soll zwischen Launch und Markteintritt diesesmal nur noch 1-2 Monate vergehen, so wie früher einmal Standard. Gilt im übrigen auch für nVidia.

Full ACK.

ShadowXX
2005-05-19, 16:48:49
Was zum Henker heisst "gleichbleibende pipe" ueberhaupt? Da Implementierung zu wesentlichen Unterschieden zwischen Architekturen fuehren kann, ist auch logischerweise quad=!quad zwischen den beiden IHVs. Welcher bessere Effizienz haben wird, muessen wir noch sehen.

Mit gleicher spekulativer Leichtigkeit behaupte ich jetzt dass die Kommunikation zwischen den Einheiten bei einem 4 quad Design leichter ist als bei einem 6 quad Design. Ganz dumm vereinfacht: die Abstaende sind halt kleiner.

Natuerlich wenn man vollkommen identische quads hat, koennte man sagen dass 6 quads@430MHz = 4 quads@650MHz, aber dem vorigen Paragraphen wuerde ich aber auch mal etwas schaerfer ueberdenken ;)

Ich meinte mit "gleichbleibend" nicht den Aufbau/das Design der Pipes, sondern "wenn es bei 16Pipes bleiben sollte".

Das sich die Pipes des r520 von denen des r420 unterscheiden werden (und wenn es wie von dir erwähnt nur die Anzahl der Quads ist) ist schon klar...