PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Xmas
2005-05-12, 19:25:26
Der Satz überzeugt mich ehrlich gesagt eher, als das Gerede von "custom memory" in der Patentschrift, die nichtsdestotrotz wohl von 2000 ist.

Daß der R300 den vollen Speicher für alle Samples reserviert, widerspricht meiner Annahme von weiter oben IMO allerdings nicht.
:confused:
Der Satz ist doch aus der Patentschrift. Und dass das Patent von 2000 ist hat auch nicht viel zu bedeuten, schließlich wird nicht immer nur konkret für das anstehende Projekt geforscht.

Und wenn der R300 die unkomprimierten Tiles woanders ablegen würde, müsste man nicht den vollen Speicher reservieren. Das Patent hat jedenfalls nichts mit dem R300 zu tun.

Ailuros
2005-05-13, 07:33:37
JUHU EIN INQ BERICHT!!!!! DEM MÜSSEN WIR JETZT ALLE SOFORT GLAUBEN!!!!! Nein mal im Ernst: Ich halte den Inquirer nicht für eine Seriöse Quelle, deswegen stehe ich der Meldung mehr als Skeptisch gegenüber. Auch wenn es oft so kommt wie sie es sagen, denke ich dass es nicht gut ist ohne Quellenangabe irgendwelche Fadenscheineige News zu schreiben.

Wenn er aber stimmen könnte, wäre es nicht schlecht.


Es war die gleiche Seite die ueber Verspaetungen des R520 sprach und auch die gleiche Seite die mit kleinem Zeit-unterschied behauptete dass NVIDIA einen Antrag fuer einen zweiten molex an PCI-SIG gestellt hat und dass ihr naechste GPU bis zu 225W verbrauchen wuerde. Nur mit einigen Tagen Unterschied kamen dann folgende 2 Berichte:

http://www.theinquirer.net/?article=23098

Und erst etwas spaeter traf man den Nagel auf den Kopf:

With two Geforce 6800GTs under the hood, we were not surprised to see two PCIe six-pin power connectors on the board.

I guess that Nvidia asked PCI-Sig for more power and for additional connector for these kinds of boards. You can get some additional details here.

http://www.theinquirer.net/?article=23154

Demirug
2005-05-13, 07:50:35
Woher das mit den 2 Powerconnectoren kommt weiss ich ja inzwischen.

nVidia hat auf der WinHEC einen Presentation vorgeführt in der unter anderem gesagt wurde das IHVs die PCISig darum gebeten hätten sich schon mal gedanken zu machen wie es nach den derzeitigen Energierichtlinen weitergehen soll.

Ailuros
2005-05-13, 08:13:22
Woher das mit den 2 Powerconnectoren kommt weiss ich ja inzwischen.

nVidia hat auf der WinHEC einen Presentation vorgeführt in der unter anderem gesagt wurde das IHVs die PCISig darum gebeten hätten sich schon mal gedanken zu machen wie es nach den derzeitigen Energierichtlinen weitergehen soll.


Und es wurde natuerlich sofort von jemand hier in irgend einem Thread verlinkt; ich tippte schon damals auf die Kompatibilitaet mancher vendors (z.B. Gigabyte, Asus) fuer ihre multi-chip boards.

Dazu brauchte man wohl keinen besonderen Gedankensporn darauf zu kommen.

Gast
2005-05-13, 08:17:30
Laut ATis Marketingabteilung heisst es das sehr wohl. ;D Ein GF6600 hat ja auch nur vier Pipelines. ;D



Wo hast du denn diesen Driss aufgeschnappt? :)

robbitop
2005-05-13, 09:16:02
Wo hast du denn diesen Driss aufgeschnappt? :)
NV43 kann nur 4 Farbwerte pro Takt in den Framebuffer schreiben, damit sind es 4 Pipelines ;-)

Allerdings sind intern 2 Quads verbaut. Wenn nicht gerade bi ST zum Einsatz kommt (oder massiv alphablending), macht das keinen Unterschied.

TheGood
2005-05-13, 10:14:39
blöde frage wenn ati für die xbox360 konsole schon unified shader entwickelt, hat warum wird diese TEchnologie dann im neuen PC Chip ned eingesetzt???

TheCounter
2005-05-13, 11:08:58
blöde frage wenn ati für die xbox360 konsole schon unified shader entwickelt, hat warum wird diese TEchnologie dann im neuen PC Chip ned eingesetzt???

AFAIK weil dazu ein entsprechendes DirectX fehlt. Mit WGF2.0 hat sich das ja dann erledigt.

Bezüglich des R500 in der X-Box 360:

http://features.teamxbox.com/xbox/1145/The-Xbox-360-Dissected/p3/

Quasar
2005-05-13, 12:07:57
Wenn ich die Marketing-Specs der Xbox 360 von Microsoft lese, insbesondere den Teil mit den 48 Shader-ALUs/Pipelines und den 48 Mrd. Shader-Ops pro Sekunde, fehlt mir der Glaube, daß sich an den Pipelines des R520 sehr viel in Sachen Effizienz getan hat.

Das klingt nämlich immer noch sehr nach einem 3:1 od. 2:2 Split der ALUs. Dazu fehlt beim R500 sogar noch die Erwähnung spezieller Textur-ALUs - es sei denn, die sind auch mit in den 48 "Pipelines" enthalten. Das käme mir dann aber wirklich etwas dünne vor.

16 Vertex-Shader
16 Pixel-ALUs (kpl.)
16 Textur-ALUs (TMU).

Hm. Natürlich wird die Leistung für eine Konsole und dank des eDRAM, sowie einiger Besonderheiten vermutlich recht gut sein, aber vier GPix/s an bilinearer (?) Füllrate sind nicht grad das Gelbe vom Ei. Das kann die aktuelle PC-Generation besser.

Quasar
2005-05-13, 12:08:31
Wo hast du denn diesen Driss aufgeschnappt? :)
In einem PDF von ATi. Das mit dem "Driss" hast du gesagt. ;D

edit:
Und hier (http://www.xbox.com/en-US/xbox360/factsheet.htm) kann man es auch rauslesen, wenn man denn lesen will.

reunion
2005-05-13, 12:26:58
[..], aber vier GPix/s an bilinearer (?) Füllrate sind nicht grad das Gelbe vom Ei. Das kann die aktuelle PC-Generation besser.


Das sind IMHO die Opfer an die unified-Shader-Architektur und den eDRAM.

Gibt es eigendlich schon Angaben über die Transistorenanzahl?
Würde mich nicht wundern, wenn das Teil die 300mio Marke locker knackt.

ShadowXX
2005-05-13, 13:41:37
Wenn ich die Marketing-Specs der Xbox 360 von Microsoft lese, insbesondere den Teil mit den 48 Shader-ALUs/Pipelines und den 48 Mrd. Shader-Ops pro Sekunde, fehlt mir der Glaube, daß sich an den Pipelines des R520 sehr viel in Sachen Effizienz getan hat.

Das klingt nämlich immer noch sehr nach einem 3:1 od. 2:2 Split der ALUs. Dazu fehlt beim R500 sogar noch die Erwähnung spezieller Textur-ALUs - es sei denn, die sind auch mit in den 48 "Pipelines" enthalten. Das käme mir dann aber wirklich etwas dünne vor.

16 Vertex-Shader
16 Pixel-ALUs (kpl.)
16 Textur-ALUs (TMU).

Hm. Natürlich wird die Leistung für eine Konsole und dank des eDRAM, sowie einiger Besonderheiten vermutlich recht gut sein, aber vier GPix/s an bilinearer (?) Füllrate sind nicht grad das Gelbe vom Ei. Das kann die aktuelle PC-Generation besser.

Demi hat doch schon ein paar mal erwähnt, das der r500 für eine PC-Graka zu wenig Leistung bringen würde.....

robbitop
2005-05-13, 13:46:48
Hm. Natürlich wird die Leistung für eine Konsole und dank des eDRAM, sowie einiger Besonderheiten vermutlich recht gut sein, aber vier GPix/s an bilinearer (?) Füllrate sind nicht grad das Gelbe vom Ei. Das kann die aktuelle PC-Generation besser.

Wären bei 16 TMU's aber auch 8GTex/sek bi. Das ist für eine Konsole doch in Ordnung.

DrumDub
2005-05-13, 13:49:58
Wären bei 16 TMU's aber auch 8GTex/sek bi. Das ist für eine Konsole doch in Ordnung. besonders wenn man von der (festen) auflösung 720p bzw. 1080i ausgeht.

Gast
2005-05-13, 14:17:23
Das sind IMHO die Opfer an die unified-Shader-Architektur und den eDRAM.

Gibt es eigendlich schon Angaben über die Transistorenanzahl?
Würde mich nicht wundern, wenn das Teil die 300mio Marke locker knackt.

Bei Heise steht, dass der Grafikchip 150 Mio. Transistoren hat. Wahrscheinlich ohne eDRAM gezählt oder komplett falsch.

Godmode
2005-05-13, 14:31:41
Bei Heise steht, dass der Grafikchip 150 Mio. Transistoren hat. Wahrscheinlich ohne eDRAM gezählt oder komplett falsch.

Wenn das inklusive eDRAM sein soll, dann kommt mir das herzlich wenig vor!

Quasar
2005-05-13, 14:33:40
Wären bei 16 TMU's aber auch 8GTex/sek bi. Das ist für eine Konsole doch in Ordnung.
Wenn die Textur-ALUs auch wirklich ein bilinear gefiltertes Sample auf's Mal erzeugen können, sicher.

In Ordnung wird das bestimmt sowieso sein, das hat man vorher sicher sehr genau bestimmt, wieviel Leistung man benötigen wird.

Coda
2005-05-13, 14:40:48
AFAIK weil dazu ein entsprechendes DirectX fehlt. Mit WGF2.0 hat sich das ja dann erledigt.Nein. Das ist völlig Transparent zur DX Version. Oder glaubst du die Unified Shader Karten können auf einmal kein DX9 mehr? :rolleyes:

robbitop
2005-05-13, 15:46:01
Wenn die Textur-ALUs auch wirklich ein bilinear gefiltertes Sample auf's Mal erzeugen können, sicher.

In Ordnung wird das bestimmt sowieso sein, das hat man vorher sicher sehr genau bestimmt, wieviel Leistung man benötigen wird.

1x bilineares Sample pro Takt ist seit Jahren standard. Ich glaube nicht, dass ATI daran etwas ändern wird.

150Mio Transistoren sind klar zu wenig. Selbst ohne eDRAM (IMO).

Xmas
2005-05-13, 16:35:18
Wenn ich die Marketing-Specs der Xbox 360 von Microsoft lese, insbesondere den Teil mit den 48 Shader-ALUs/Pipelines und den 48 Mrd. Shader-Ops pro Sekunde, fehlt mir der Glaube, daß sich an den Pipelines des R520 sehr viel in Sachen Effizienz getan hat.

Das klingt nämlich immer noch sehr nach einem 3:1 od. 2:2 Split der ALUs. Dazu fehlt beim R500 sogar noch die Erwähnung spezieller Textur-ALUs - es sei denn, die sind auch mit in den 48 "Pipelines" enthalten. Das käme mir dann aber wirklich etwas dünne vor.

16 Vertex-Shader
16 Pixel-ALUs (kpl.)
16 Textur-ALUs (TMU).

Hm. Natürlich wird die Leistung für eine Konsole und dank des eDRAM, sowie einiger Besonderheiten vermutlich recht gut sein, aber vier GPix/s an bilinearer (?) Füllrate sind nicht grad das Gelbe vom Ei. Das kann die aktuelle PC-Generation besser.
Es werden weder "Textur-ALUs" gezählt noch sind die Vertex-Shader getrennt. Wenn man das ganze grob vergleichen will, so kann man für NV40 38 ALUs und 16 TMUs ansetzen, für R500 48 ALUs und 16 TMUs, wobei der R500 die ALUs wohl effizienter ausnutzen kann. Inklusive Taktvorteil kann man da schon mal von 70-80% mehr Shaderperformance und 25% mehr Texturleistung reden.
Und mit 4xAA schafft NV40 auch nur noch 8 Pixel/Takt.

Exxtreme
2005-05-13, 16:40:40
Hmmm, was mich interessiert, ist welches Shader-Level der R500 erreicht.

DrumDub
2005-05-13, 16:45:41
Hmmm, was mich interessiert, ist welches Shader-Level der R500 erreicht. sm 3.0 in jedem falle... ;)

robbitop
2005-05-13, 16:50:46
Es werden weder "Textur-ALUs" gezählt noch sind die Vertex-Shader getrennt. Wenn man das ganze grob vergleichen will, so kann man für NV40 38 ALUs und 16 TMUs ansetzen, für R500 48 ALUs und 16 TMUs, wobei der R500 die ALUs wohl effizienter ausnutzen kann. Inklusive Taktvorteil kann man da schon mal von 70-80% mehr Shaderperformance und 25% mehr Texturleistung reden.
Und mit 4xAA schafft NV40 auch nur noch 8 Pixel/Takt.
Beim NV40 sind es ja 16 MAD/SFU und 16 MAD/DP4 Units (im Pixelteil).
Ergo nur 32x MAD4 aber nur 16x SFU und nur 16x DP4.
Sollten die ALUs des R500 nicht allzweck ALU's wie beim R300 sein?
Dann wäre die Leistung außerhalb von MAD nochmal deutlich besser als die des NV40, als du sie eingeschätzt hast. (und außerdem werden die ALUs des R500 wohl auch nicht durch Texturoperationen occupiert)

Mein lieber Scholli, das Ding kann verdammt fix sein!!!

dildo4u
2005-05-13, 16:51:48
Hmmm, was mich interessiert, ist welches Shader-Level der R500 erreicht.

http://www.gamepro.de/magazin/special/xsocks5678/3.html

vereinheitlichte Shader-Technologie

Also ca WGF2.0 Niveau.

"The Graphics Processor


The new Xbox will have a next-generation ATI graphics chip much more powerful than the current top-of-the-line Radeon X850 desktop graphics chip.

Microsoft will pair the IBM processor with an advanced 500MHz ATI graphics chip. The ATI chip will have "48-way parallel floating-point dynamically-scheduled shader pipelines." Today's PC desktop video cards max out at 16 pipelines, but the technologies aren't quite the same. The new ATI graphics chip will be based on a new unified shader model that processes vertex and pixels through the same multipurpose pipelines. Current PC video cards have pipelines dedicated to pixel processing or vertex processing. ATI's current top-of-the-line Radeon X850 XT PE graphics chip, for example, has 16-pixel pipelines and 6-vertex pipelines. We don't know how these new hybrid pipelines will perform compared to the older, dedicated pipeline designs, but with 48 of 'em, we're betting that the next-gen ATI chip will live up to expectations"

http://www.gamespot.com/features/6124293/p-3.html

robbitop
2005-05-13, 16:54:44
http://www.gamepro.de/magazin/special/xsocks5678/3.html

vereinheitlichte Shader-Technologie

Also ca WGF2.0 Niveau.
Da wäre ich mir nicht so sicher. WGF2 wurde erst ein bisschen später festgelegt. Es könnte sein, dass dem R500 dort noch etwas fehlt (bsw der Geometry Shader).
R400 ist als unified SM3 geplant worden. R500 ist praktisch ein Respin.
Vieleicht erreicht diese Architektur mit einem weiteren Respin WGF2 compliance. Denn ohne WGF2 wäre ein solcher Chip sinnfrei.

Demirug
2005-05-13, 17:07:33
Beim NV40 sind es ja 16 MAD/SFU und 16 MAD/DP4 Units (im Pixelteil).
Ergo nur 32x MAD4 aber nur 16x SFU und nur 16x DP4.
Sollten die ALUs des R500 nicht allzweck ALU's wie beim R300 sein?
Dann wäre die Leistung außerhalb von MAD nochmal deutlich besser als die des NV40, als du sie eingeschätzt hast. (und außerdem werden die ALUs des R500 wohl auch nicht durch Texturoperationen occupiert)

Mein lieber Scholli, das Ding kann verdammt fix sein!!!

Die SFUs sind beim NV40 auf beide ALUs verteilt. Hinzu kommen ja noch jweils die Mini-ALUs

Man sollte nicht vergessen das ATI die Leistungs des R420 schon mit 80 Ops/Takt angegeben hat. Hier sind es nun 96. Ob die ALUs wirklich voll symetrisch sind wird man wohl so schnell nicht heraus bekommen. Die weitere Frage ist wo die Interpolatoren sitzen. Wenn die den ALUs zugeordnet sind braucht man sie doch wieder als Vorarbeiter für die TMUs.

Ich gehe davon aus das die Rechenleistung sehr schnell von dem PC GPUs eingeholt wird.

Xmas
2005-05-13, 17:08:50
Beim NV40 sind es ja 16 MAD/SFU und 16 MAD/DP4 Units (im Pixelteil).
Ergo nur 32x MAD4 aber nur 16x SFU und nur 16x DP4.
Sollten die ALUs des R500 nicht allzweck ALU's wie beim R300 sein?
Dann wäre die Leistung außerhalb von MAD nochmal deutlich besser als die des NV40, als du sie eingeschätzt hast. (und außerdem werden die ALUs des R500 wohl auch nicht durch Texturoperationen occupiert)

Mein lieber Scholli, das Ding kann verdammt fix sein!!!
Es sind 16 MUL, 16 SFU und 16 MAD/DP, aber diese Faktoren habe ich bei meiner Schätzung schon beachtet, wobei 70-80% eher die untere Grenze darstellen.

Demirug
2005-05-13, 17:09:03
dildo4u, nur weil das Teil vereinte Shader hat muss es noch lange nicht WGF 2.0 entsprechen.

dildo4u
2005-05-13, 17:10:11
dildo4u, nur weil das Teil vereinte Shader hat muss es noch lange nicht WGF 2.0 entsprechen.
Ich schrieb ja ca wenn M$ eine 3Core Power PC cpu mit 3.2GHZ einbaut wird man auch beim Grafikporzessor nicht sparen.

Gast
2005-05-13, 18:52:54
mal ne frage...sind heutige gpus also nv4x und r4x0 auch in der lage, grafik in der auflösung der xbox darzustellen oder net??

Coda
2005-05-13, 18:56:43
Ich schrieb ja ca wenn M$ eine 3Core Power PC cpu mit 3.2GHZ einbaut wird man auch beim Grafikporzessor nicht sparen.Auch nicht ca. Die vereinheitlichen Shader haben rein gar nichts mit WGF 2.0 zu tun. Das ist nichtmal mehr Vorraussetzung.

Ich glaube kaum dass R500 Geometry Shader hat.

dildo4u
2005-05-13, 18:58:47
Das ist nichtmal mehr Vorraussetzung.


Wuz davon ging ich aus ok dann kann mans whol schlecht mit derzeitiger PCHardware vergleichen bin mal gespannt ob dieses design auch noch fürn pc kommt.

Demirug
2005-05-13, 19:02:20
Wuz davon ging ich aus ok dann kann mans whol schlecht mit derzeitiger PCHardware vergleichen bin mal gespannt ob dieses design auch noch fürn pc kommt.

Ja, das ist gestrichen worden. Momentan wird nur noch ein Einheitliches Programmiermodel gefordert.

Früher oder später wird man auch auf dem PC auf ein Shaderarry für alle Shaderfunktionen umsteigen. Aleine schon aus Gründen der Lastverteilung.

Coda
2005-05-13, 19:04:53
Das ganze ist für die API eh völlig transparent, von daher ist das auch kein "Feature".

Demirug
2005-05-13, 19:12:53
Das ganze ist für die API eh völlig transparent, von daher ist das auch kein "Feature".

Von der API ja aber nicht unbedingt von der Leistung. Und WGF spezifiziert ja nicht nur die API sondern auch Leistungsvorgaben.

Coda
2005-05-13, 19:44:51
Richtig. Aber darüber muss sich wohl eher Intel Gedanken machen, nicht?

reunion
2005-05-13, 19:48:58
Bei Heise steht, dass der Grafikchip 150 Mio. Transistoren hat. Wahrscheinlich ohne eDRAM gezählt oder komplett falsch.


Unmöglich, auch ohne eDRAM, selbst ein R420 hat mehr.

Schade, dass Ati oder MS dazu keine Angaben machen.
Dann könnte man wenigstens sehen, was der 90nm Prozess bei TSMC so hergibt.

reunion
2005-05-13, 19:57:05
Beim NV40 sind es ja 16 MAD/SFU und 16 MAD/DP4 Units (im Pixelteil).
Ergo nur 32x MAD4 aber nur 16x SFU und nur 16x DP4.
Sollten die ALUs des R500 nicht allzweck ALU's wie beim R300 sein?
Dann wäre die Leistung außerhalb von MAD nochmal deutlich besser als die des NV40, als du sie eingeschätzt hast. (und außerdem werden die ALUs des R500 wohl auch nicht durch Texturoperationen occupiert)

Mein lieber Scholli, das Ding kann verdammt fix sein!!!


Dann verstehe ich nicht warum ATi dieses Design nicht auch am Desktopmarkt bringt. Das so ein unified-Shader-Chip einen klaren Vorteil gegenüber einer beim R520 verwendeten Architektur mit getrennten Einheiten hat, liegt ja wohl auf der Hand. Außerdem hätte man dadurch bereits einen SM3.0-Chip, und müsste nicht nochmal extra den R300 weiterentwickeln. Hinzu kommt noch, dass man durch den bei einem Desktopchip nicht benötigten eDRAM nochmal ca. 75mio Transistoren einsparen, und anderweilig verwenden könnte.

Demirug
2005-05-13, 21:36:33
Unmöglich, auch ohne eDRAM, selbst ein R420 hat mehr.

Schade, dass Ati oder MS dazu keine Angaben machen.
Dann könnte man wenigstens sehen, was der 90nm Prozess bei TSMC so hergibt.

Der eDRAM ist doch angeblich auf einem eigenen Chip von NEC. Da dieser auch die ROPs únd wohl auch die AA Logik enthält entfällt dieser Teil im der GPU.

robbitop
2005-05-14, 00:04:02
Dann verstehe ich nicht warum ATi dieses Design nicht auch am Desktopmarkt bringt. Das so ein unified-Shader-Chip einen klaren Vorteil gegenüber einer beim R520 verwendeten Architektur mit getrennten Einheiten hat, liegt ja wohl auf der Hand. Außerdem hätte man dadurch bereits einen SM3.0-Chip, und müsste nicht nochmal extra den R300 weiterentwickeln. Hinzu kommt noch, dass man durch den bei einem Desktopchip nicht benötigten eDRAM nochmal ca. 75mio Transistoren einsparen, und anderweilig verwenden könnte.

So eine Architektur kostet eben ordentlich Transitoren, die kann man auch in mehr Ausführungseinheiten investieren.
Und wer weiß, wie sehr R520 verwandt mit R500 ist... mittlerweile glaube ich, dass er mehr vom R500 geerbt hat, als ich dachte. (ist aber auch nur so ein "feeling")

Godmode
2005-05-14, 11:04:17
Könnte es nicht sein dass der R520 das selbe ist wie der der R500 nur mit einigen Einsparungen und vielleicht mehr Takt?

Demirug
2005-05-14, 11:10:14
Könnte es nicht sein dass der R520 das selbe ist wie der der R500 nur mit einigen Einsparungen und vielleicht mehr Takt?

Das wurde schon mehrfach von Leuten mit guten Kontakten zu ATI dementiert.

Coda
2005-05-14, 12:43:42
Ist R500 wirklich leistungsfähiger als R520? Irgendwie kommt mir das immer noch nicht so vor.

TrigPe
2005-05-14, 12:47:05
Ist R500 wirklich leistungsfähiger als R520? Irgendwie kommt mir das immer noch nicht so vor.

Ich denke der R520 wird mindestens eine doppelt so hohe Füllrate als der R500 haben.


MfG

Coda
2005-05-14, 12:49:34
Unwahrscheinlich. R500 kann pro Takt nur 8 Pixel schreiben.

Wenn überhaupt müssten die Shader deutlich leistungsfähiger sein.

Demirug
2005-05-14, 12:52:01
Ist R500 wirklich leistungsfähiger als R520? Irgendwie kommt mir das immer noch nicht so vor.

Dazu müsste man erst mal wissen wie Leistungsfähig ein R520 ist.

Coda
2005-05-14, 12:53:59
Naja ich würde sagen nicht mehr als 2xX850 oder nicht?

Jesus
2005-05-14, 12:59:06
Ich denke der R520 wird mindestens eine doppelt so hohe Füllrate als der R500 haben.


MfG

Speicherbandbreite vielleicht. So wies aussieht hat der R500 ja nur ein 128bit Speicherinterface.

r3ptil3
2005-05-14, 13:01:22
Man wird doch auch den R520 im AMR (MVP) Betrieb nutzen können oder?

dildo4u
2005-05-14, 13:03:18
Speicherbandbreite vielleicht. So wies aussieht hat der R500 ja nur ein 128bit Speicherinterface.
256bit man hat nur 700mhz Speicher takt aber 22GB Speicherbandbreite.

Jesus
2005-05-14, 13:10:15
256bit man hat nur 700mhz Speicher takt aber 22GB Speicherbandbreite.

700Mhz GDDR3 ist doch effektiv 1400Mhz oder?

dildo4u
2005-05-14, 13:23:15
700Mhz GDDR3 ist doch effektiv 1400Mhz oder?
Kein plan ich weiss auch nicht ob nicht 1.4GHZ effetiv gemeint ist.

ShadowXX
2005-05-14, 13:29:29
Speicherbandbreite vielleicht. So wies aussieht hat der R500 ja nur ein 128bit Speicherinterface.

Hat nicht schon ein r480 eine höhere Füllrate als ein r500?

Der r500 kann 8 Farbwerte pro Takt...kann aber nicht schon der r480 16 Farbwerte pro Takt schreiben?

Oder denke ich jetzt in eine völlig falsche Richtung??

mapel110
2005-05-14, 13:30:07
700Mhz GDDR3 ist doch effektiv 1400Mhz oder?
700 Mhz Realtakt, bei 256bit Interface kommen da wohl ca 45 GB/s Speicherbandbreite zustande.

dildo4u
2005-05-14, 13:34:20
700 Mhz Realtakt, bei 256bit Interface kommen da wohl ca 45 GB/s Speicherbandbreite zustande.
Jo dann kommt das hin mit 128bit und 22GB Speicherbandbreite

reunion
2005-05-14, 13:39:13
Hat nicht schon ein r480 eine höhere Füllrate als ein r500?

Der r500 kann 8 Farbwerte pro Takt...kann aber nicht schon der r480 16 Farbwerte pro Takt schreiben?

Oder denke ich jetzt in eine völlig falsche Richtung??


Ja, R480 hat eine höhere Pixelfüllrate als R500, kann diese aber aufgrund der arg begrenzten Speicherbandbreite oft garnicht ausspielen.
In punkto Shaderperformance sollte der R500 allerdings überlegen sein.

ShadowXX
2005-05-14, 13:41:18
Jo dann kommt das hin mit 128bit und 22GB Speicherbandbreite

Wollte ich auch gerade schreiben die lt. den specs


Speicher


- 512 MB GDDR3 RAM

- 700 MHz DDR Speichertakt

- gemeinsam genutzte Speicherarchitektur

Speicherbandbreite


- 22,4 MB/s Speicherinterface Bus-Bandbreite

- 256 GB/s Speicherbandbreite zum EDRAM

- 21,6 GB/s Front Side Bus


hat er nämlich nur 21,6 GB/s......das sind bei 700MHz GDDR3 Speicherfrequenz
nur dann 21,6 wenn das Interface 128Bit hat.

Edit:
Wofür stehen eigentlich diese lustigen 22,4MB/s " Speicherinterface Bus-Bandbreite
"

Demirug
2005-05-14, 13:41:52
Hat nicht schon ein r480 eine höhere Füllrate als ein r500?

Der r500 kann 8 Farbwerte pro Takt...kann aber nicht schon der r480 16 Farbwerte pro Takt schreiben?

Oder denke ich jetzt in eine völlig falsche Richtung??

Das ist die Pixelfillrate. Die ist aber heute nicht mehr ganz so wichtig.

ShadowXX
2005-05-14, 13:54:00
Das ist die Pixelfillrate. Die ist aber heute nicht mehr ganz so wichtig.

Fragen wir mal anders....der r500 soll 16GSamples bei 4xMSAA packen. Wieviel schafft ein r480?

TrigPe
2005-05-14, 14:03:20
Das ist die Pixelfillrate. Die ist aber heute nicht mehr ganz so wichtig.

Hallo,

du zerstörst gerade meine Illusionen in Bezug auf die Abschätzung der theoretischen Leistungsfähigkeit von Grafikkarten. :(
Was hat sich denn da geändert.

MfG


[/Edit] endlich Fullmember :biggrin:

dildo4u
2005-05-14, 14:05:53
Hallo,

du zerstörst gerade meine Illusionen in Bezug auf die Abschätzung der theoretischen Leistungsfähigkeit von Grafikkarten. :(
Was hat sich denn da geändert.

MfG


[/Edit] endlich Fullmember :biggrin:
Mher Shader bei modernen Games reine MT Games wie z.B MAXPayne UT2003/4 sind out.

Demirug
2005-05-14, 14:07:54
Fragen wir mal anders....der r500 soll 16GSamples bei 4xMSAA packen. Wieviel schafft ein r480?

Wenn wir die 16 Pipe Version nehmen 32 pro Takt. Aber wie gesagt Pixel und Sample Fillrate spielt nur noch in wenigen Ausnahmefällen eine wichtige Rolle. Meist braucht man ja doch mehr als einen Takt in der Shaderpipe bis der Pixel zu den ROPs geht. bzw im Falle des R500 zum sekundärchip mit den ROPs und dem Framebuffer.

ShadowXX
2005-05-14, 14:16:21
Wenn wir die 16 Pipe Version nehmen 32 pro Takt. Aber wie gesagt Pixel und Sample Fillrate spielt nur noch in wenigen Ausnahmefällen eine wichtige Rolle. Meist braucht man ja doch mehr als einen Takt in der Shaderpipe bis der Pixel zu den ROPs geht. bzw im Falle des R500 zum sekundärchip mit den ROPs und dem Framebuffer.

Ok, das ist klar.

Also erhöht z.B. nV im Prinzip nur deshalb die Pipes beim G70, weil es "unmöglich" wäre das Design mal eben kurz mit ein paar ALUs mehr zu versorgen? (Und Sie über 2 Quads mehr eigentlich "nur" die ALU zahl steigern wollen?)

Demirug
2005-05-14, 14:53:55
Ok, das ist klar.

Also erhöht z.B. nV im Prinzip nur deshalb die Pipes beim G70, weil es "unmöglich" wäre das Design mal eben kurz mit ein paar ALUs mehr zu versorgen? (Und Sie über 2 Quads mehr eigentlich "nur" die ALU zahl steigern wollen?)


Ich weiß micht was nVidia beim G70 gemacht hat. Da müssen wir wohl noch etwas warten.

reunion
2005-05-14, 18:26:04
Der eDRAM ist doch angeblich auf einem eigenen Chip von NEC. Da dieser auch die ROPs únd wohl auch die AA Logik enthält entfällt dieser Teil im der GPU.

Der wird extren mit 1024 bit angebunden? :eek:
Wo wäre dann das Problem bei einem Desktopchip notwendigerweise etwas mehr eDRAM zu verbauen?

Coda
2005-05-14, 18:36:38
Öhm extern? Ich glaube wenn dann zumindest auf dem gleichen Package.

Demirug
2005-05-14, 19:23:40
Der wird extren mit 1024 bit angebunden? :eek:
Wo wäre dann das Problem bei einem Desktopchip notwendigerweise etwas mehr eDRAM zu verbauen?

Ich könnte mir denken das die 1024 Bit die interne Anbindung des eDRAMs zur Logik ist und nicht das Interface zwischen GPU und Speicher.

IMHO ist diese Konstruktion auch der Hauptgrund warum nur 8 Pixel pro Takt geschrieben werden können.

Coda
2005-05-14, 19:34:50
Du meinst die ROPs haben einen 1024bit Bus zum eDRAM, aber der R500 nur einen "8 Pixel breiten" zu den ROPs?

Demirug
2005-05-14, 19:49:21
Ja, genau davon gehe ich aus.

Xmas
2005-05-14, 21:03:22
Es müssten wohl 576 Bit sein. Allerdings wird auch der Framebuffer komprimiert gespeichert, darum wäre ich mir nicht mal so sicher dass die interne Anbindung wirklich 1024 Bit ist.

Coda
2005-05-14, 21:14:50
Und welcher Teil übernimmt dann die Verwaltung wenn die 10MB nicht mehr ausreichen?

Gast
2005-05-14, 23:32:42
Ich könnte mir denken das die 1024 Bit die interne Anbindung des eDRAMs zur Logik ist und nicht das Interface zwischen GPU und Speicher.

IMHO ist diese Konstruktion auch der Hauptgrund warum nur 8 Pixel pro Takt geschrieben werden können.

*kopfkratz*

Kann ich mir das dann so vorstellen wie es PentiumPro hatte? Core und eDRAM getrennt aber gemeinsam verpackt?

Demirug
2005-05-14, 23:39:26
Es müssten wohl 576 Bit sein. Allerdings wird auch der Framebuffer komprimiert gespeichert, darum wäre ich mir nicht mal so sicher dass die interne Anbindung wirklich 1024 Bit ist.

IMHO geht es mit weniger als 500 Bit.

Intern bin ich durchaus bereit dem Teil einen 1024 Bit Datenbus zu zugestehen.

Demirug
2005-05-14, 23:41:02
Und welcher Teil übernimmt dann die Verwaltung wenn die 10MB nicht mehr ausreichen?

Vielleicht hat das Teil den gleichen Effekt den man schon von Matrox her kennt. Wenn der Samplebuffer voll ist gibt es ab diesem Punkt kein AA mehr.

Demirug
2005-05-14, 23:44:14
*kopfkratz*

Kann ich mir das dann so vorstellen wie es PentiumPro hatte? Core und eDRAM getrennt aber gemeinsam verpackt?

Wäre denkbar. Könnte aber auch ein Sandwich verfahren sein bei dem die beiden DIEs direkt verbunden sind. Genausogut könnte sie aber auch wirklich als diskrete Chips auf der Platine sein.

Coda
2005-05-14, 23:45:42
Vielleicht hat das Teil den gleichen Effekt den man schon von Matrox her kennt. Wenn der Samplebuffer voll ist gibt es ab diesem Punkt kein AA mehr.Bitte nicht *urks*

Gast
2005-05-14, 23:48:30
Wäre denkbar. Könnte aber auch ein Sandwich verfahren sein bei dem die beiden DIEs direkt verbunden sind. Genausogut könnte sie aber auch wirklich als diskrete Chips auf der Platine sein.

Sandwich Verfahren bei Grafikchips? Hmm dachte das geht nicht wegen den hohen Temperaturen, anders als bei CPUs halt. Es sei denn, dem eDRAM macht die Temperatur nichts aus und es kann sie auch gut weitergeben.

Demirug
2005-05-14, 23:54:00
Sandwich Verfahren bei Grafikchips? Hmm dachte das geht nicht wegen den hohen Temperaturen, anders als bei CPUs halt. Es sei denn, dem eDRAM macht die Temperatur nichts aus und es kann sie auch gut weitergeben.

Es gibt da eine neue Variante bei der man nur einen kleinen Teil am Rand der beiden DIEs überlappen lässt. Dadurch steigt die Energiedichte pro mm² ja nicht weiter an wie beim vollflächigen Verfahren.

Xmas
2005-05-14, 23:56:43
IMHO geht es mit weniger als 500 Bit.

Intern bin ich durchaus bereit dem Teil einen 1024 Bit Datenbus zu zugestehen.
Stimmt, Z kann man ja noch komprimieren, da ja Quads übertragen werden, und Stencil brauchts erst gar nicht. Ich hatte einfach den 16 z/stencil-modus mit 16 4-bit Coverage Masks kombiniert, das ist natürlich gar nicht nötig.

Das AA hat aber mindestens einen Nachteil den FAA auch hat: Schnittkanten werden nicht geglättet.


Vielleicht hat das Teil den gleichen Effekt den man schon von Matrox her kennt. Wenn der Samplebuffer voll ist gibt es ab diesem Punkt kein AA mehr.
Das ist ganz sicher so, da man den Samplebuffer nicht mal so dynamisch vergrößern kann. Die Frage ist aber, ob der Samplebuffer nicht (zumindest teilweise) außerhalb des eDRAMs liegen kann.
Ansonsten könnte ich mir vorstellen, dass, falls das fehlende AA auffallend ist, die Spieleentwickler die GPU anweisen können auch bei 720p schon den Framebuffer zu partitionieren.

Coda
2005-05-14, 23:59:25
Das AA hat aber mindestens einen Nachteil den FAA auch hat: Schnittkanten werden nicht geglättet.Wieso? Das ist ja trotzdem MSAA.

Xmas
2005-05-15, 00:05:34
Wieso? Das ist ja trotzdem MSAA.
Weil Z nicht pro Sample gespeichert wird, sondern nur pro beteiligtem Fragment.

Demirug
2005-05-15, 00:05:47
Das ist ganz sicher so, da man den Samplebuffer nicht mal so dynamisch vergrößern kann. Die Frage ist aber, ob der Samplebuffer nicht (zumindest teilweise) außerhalb des eDRAMs liegen kann.
Ansonsten könnte ich mir vorstellen, dass, falls das fehlende AA auffallend ist, die Spieleentwickler die GPU anweisen können auch bei 720p schon den Framebuffer zu partitionieren.

Partitionieren kann man wahrscheinlich immer. Man braucht diesen Framebuffer wahrscheinlich ja auch für Render2Texture Effekte. Wobei das dann wohl eher auf ein DX9.0c mässiges Copy2Texture hinausläuft.

Coda
2005-05-15, 00:07:08
Weil Z nicht pro Sample gespeichert wird, sondern nur pro beteiligtem Fragment.Wo steht das? Wieso sollte man das dort anders machen als mit den Fragmenten?

Demirug
2005-05-15, 00:09:12
Weil Z nicht pro Sample gespeichert wird, sondern nur pro beteiligtem Fragment.

Bei Matrox Ja. Das ist aber nicht zwingend. Man kann FAA auch mit dem Z/Stencil Buffer verfahren des üblichen MSAA verknüpfen.

Xmas
2005-05-15, 00:10:51
Partitionieren kann man wahrscheinlich immer. Man braucht diesen Framebuffer wahrscheinlich ja auch für Render2Texture Effekte. Wobei das dann wohl eher auf ein DX9.0c mässiges Copy2Texture hinausläuft.
Ist nur die Frage ob das Partitionieren vom Spiel steuerbar ist. Wahrscheinlich ja.

Überhaupt würde mich auch mal die Lesebandbreite interessieren. Schließlich kann der Chip ja nicht einfach so weiterrendern wenn der Framebuffer ausgelesen wird. Wahrscheinlich wird allein schon deshalb partitioniert, so dass ein Buffer Flip keine Wartezeit zur Folge hat.

Coda
2005-05-15, 00:16:33
Mhm Fragen über Fragen. Das Ding ist wirklich interessant.
Sollte nicht mal jemand den Thread splitten?

Xmas
2005-05-15, 00:17:19
Wo steht das? Wieso sollte man das dort anders machen als mit den Fragmenten?
Falls dieses Patent (http://patft.uspto.gov/netacgi/nph-Parser?patentnumber=6614449) Anwendung findet, was ich glaube, dann ist dies so, weil hier kein Block-basiertes Kompressionsverfahren verwendet wird, sondern pro Pixel.

Bei Matrox Ja. Das ist aber nicht zwingend. Man kann FAA auch mit dem Z/Stencil Buffer verfahren des üblichen MSAA verknüpfen.
Das kostet dann aber wieder mehr Speicher, was es ja beim R500 zu vermeiden gilt.

Coda
2005-05-15, 00:25:47
Das kostet dann aber wieder mehr Speicher, was es ja beim R500 zu vermeiden gilt.Glaubst du dass die Kanten Z Werte so ins Gewicht fallen?

Xmas
2005-05-15, 00:41:57
Glaubst du dass die Kanten Z Werte so ins Gewicht fallen?
Damit Schnittkanten richtig geglättet werden können, reicht es ja nicht aus dass nur an Kanten mehrere Z-Werte gespeichert werden. Das muss auch innerhalb von Polygonen gemacht werden. Und das braucht auch komprimiert mehr Platz als nur ein Z-Wert.
Ich glaube dass ungeglättete Schnittkanten weniger ins Gewicht fallen als der Speicherbedarf.

Coda
2005-05-15, 00:50:21
Richtig, das habe ich ganz vergessen.

robbitop
2005-05-15, 11:45:49
Wie sicher sind eigentlich die 512MiB GDDR3?
Klingt nicht wirklich nach Konsole, wo Platz und v.A. Kosten gespart werden müssen. 512MiB GDDR3 sind teuer. Außerdem kommt ja noch der RAM dazu. Ich würde persönlich auf einen 512MiB großen Unified Arbeitsspeicher tippen (Konsole eben).

dildo4u
2005-05-15, 11:52:39
Wie sicher sind eigentlich die 512MiB GDDR3?
Klingt nicht wirklich nach Konsole, wo Platz und v.A. Kosten gespart werden müssen. 512MiB GDDR3 sind teuer. Außerdem kommt ja noch der RAM dazu. Ich würde persönlich auf einen 512MiB großen Unified Arbeitsspeicher tippen (Konsole eben).
Die box sollte eigentlich erst 256mbhaben aber die Entwickler wollte 512mb und M$ hat nachgelegt und die Speicherpresie sind eigentlich grad wirklich niedrig.Es sind echte 512mb und ich denke wenn man Games mit Unreal Eninge3 darauf laufen hat wird man die auch bitter benötigen.

Gear of War
http://www.gameinformer.com/images/media/{A96188BB-B636-4711-A85A-5908B655C7C2}/Barricade.jpg

Demirug
2005-05-15, 11:59:29
dildo4u, 700 MHz GDDR3 dürfte nicht wirklich billig sein. Das schlimme daran ist wohl auch das MS jetzt große Mengen dieser Chips abschöpfen muss. Mal abwarten wie viel da noch für die PC Grafikkarten übrig bleibt.

dildo4u
2005-05-15, 12:02:00
dildo4u, 700 MHz GDDR3 dürfte nicht wirklich billig sein. Das schlimme daran ist wohl auch das MS jetzt große Mengen dieser Chips abschöpfen muss. Mal abwarten wie viel da noch für die PC Grafikkarten übrig bleibt.
Es ging ja darum ob sie nun 512mb oder 512mib hat.Und M$ kann ohne ende verlust bei der hardware machen wichtig ist das man als erster am markt ist so wies aussieht.

Demirug
2005-05-15, 12:09:32
Es ging ja darum ob sie nun 512mb oder 512mib hat.Und M$ kann ohne ende verlust bei der hardware machen wichtig ist das man als erster am markt ist so wies aussieht.

Die Hardware ist bei Konsolen immer eigentlich ein Verlustgeschäft. Da macht der zusätzliche Speicher sicherlich auch nichts mehr aus. Allerdings könnten sich die Settop Box Fähigkeiten der XBox 360 durchaus negativ für die Bilanz auswirken. Es wird sicherlich Leute geben die sich das Teil nur genau für diesen Zweg kaufen werden.

Gast
2005-05-15, 12:34:35
Ich hab gehört das die R500 GPU in der neuen Xbox angeblich HyperZ 4
Funktionen verfügt,was bedeutet das??

Coda
2005-05-15, 12:42:06
Bessere Effizienz beim Early-Z Culling.

Gast
2005-05-15, 12:51:12
Was glaubt ihr wird der R520 für PC auch schon Unfined shader beherschen?Um Nvidia eins auszuwischen?

Ailuros
2005-05-15, 12:55:29
Was glaubt ihr wird der R520 für PC auch schon Unfined shader beherschen?Um Nvidia eins auszuwischen?

R520 basiert was den Shader-core-Aufbau betrifft auf R3xx/4xx, ergo non-unified.

Ailuros
2005-05-15, 12:56:38
Die box sollte eigentlich erst 256mbhaben aber die Entwickler wollte 512mb und M$ hat nachgelegt und die Speicherpresie sind eigentlich grad wirklich niedrig.Es sind echte 512mb und ich denke wenn man Games mit Unreal Eninge3 darauf laufen hat wird man die auch bitter benötigen.

Gear of War
http://www.gameinformer.com/images/media/{A96188BB-B636-4711-A85A-5908B655C7C2}/Barricade.jpg

Sieht zwar um einiges besser aus als heutige Spiele, aber die unendliche "Glaenzerei" nervt mich schon ein bisschen.... :|

Jesus
2005-05-15, 13:11:01
Sieht zwar um einiges besser aus als heutige Spiele, aber die unendliche "Glaenzerei" nervt mich schon ein bisschen.... :|

Vorrausgesetzt es ist überhaupt In-game, was ich bezweifle, denn die Szene sieht schon arg aufgesetzt aus und im Vgl. zu anderen Games ist die Graphik schon erheblich besser. :rolleyes:

dildo4u
2005-05-15, 13:12:06
Vorrausgesetzt es ist überhaupt In-game, was ich bezweifle, denn die Szene sieht schon arg aufgesetzt aus und im Vgl. zu anderen Games ist die Graphik schon erheblich besser. :rolleyes:
Es sind die Monster aus der Unreal Engine 3Techdemo und die Lief auf einer 6800GT warum soll das nicht auf der R500 möglich sein?

Coda
2005-05-15, 13:14:42
Vorrausgesetzt es ist überhaupt In-game, was ich bezweifle, denn die Szene sieht schon arg aufgesetzt aus und im Vgl. zu anderen Games ist die Graphik schon erheblich besser.Mhm ich hab nur bedenken was echtes HDR betrifft, weil der eDRAM schon sehr eingeschränkt ist. Ansonsten dürfte das kein Problem sein.

dildo4u
2005-05-15, 13:15:35
Mhm ich hab nur bedenken was echtes HDR betrifft, weil der eDRAM schon sehr eingeschränkt ist. Ansonsten dürfte das kein Problem sein.
Bei HDR fällt whol aa weg von daher kein Problem :devil:

Coda
2005-05-15, 13:37:58
Das kommt ja ganz darauf an was die ROPs können. Weil die anscheinend auf einem seperaten DIE sind kann es durchaus sein, dass MSAA auch mit FP Rendertargets funktioniert (weniger Yield Sorgen).

Aber die ganze 10MB eDRAM Geschichte ist für HDR sicher nicht zuträglich.

robbitop
2005-05-15, 14:49:23
Dildo

damit meinte man gewiss nicht VRAM sondern Hauptspeicher (IMO).
Bei 512MiB GDDR3 wäre kein eDRAM mehr nötig. Das tut man in der Regel nur, um trotz Shared Memory (platz/kosten) noch gute Leistung zu erzielen.
512MiB VRAM wären auch ein wenig overkill für eine Konsole (IMO)

dildo4u
2005-05-15, 14:53:02
Dildo

damit meinte man gewiss nicht VRAM sondern Hauptspeicher (IMO).
Bei 512MiB GDDR3 wäre kein eDRAM mehr nötig. Das tut man in der Regel nur, um trotz Shared Memory (platz/kosten) noch gute Leistung zu erzielen.
512MiB VRAM wären auch ein wenig overkill für eine Konsole (IMO)
Die 512mb können für alles eingestzt werden unifed memory.Je nachdem ob man für sein game mher texture speicher oder arbeitspeicher braucht.Wie auch bei der X-Box1 die hat auch kein extra speicher für Grafik.

robbitop
2005-05-15, 15:04:51
Die 512mb können für alles eingestzt werden unifed memory.Je nachdem ob man für sein game mher texture speicher oder arbeitspeicher braucht.Wie auch bei der X-Box1 die hat auch kein extra speicher für Grafik.
Genau das meinte ich damit.
(Aber das funktioniert mit GDDR3 nicht. Und deshalb kommen mir hier zweifel zu den Infos, die im Netz stehen)

dildo4u
2005-05-15, 15:17:46
Genau das meinte ich damit.
(Aber das funktioniert mit GDDR3 nicht. Und deshalb kommen mir hier zweifel zu den Infos, die im Netz stehen)
Es muss ja diese art Speicher sein um die hohen bandbreiten zu ereichen einfacher Arbeitspeicher wäre als vram zu langsam vieleicht ist der Speicher ja auch umgebaut worden das er auch als Arbeisspeicher funzt ich finde alles ist möglich ich hätte z.B nie gedachte das die näste X-Box ein Power pc Prozzi mit 3Kernen und 3.2GHz hat weit höhere getacktet als der teuerste G5Power mac.Was auch für meine Theorie spricht ist das der FSB speed wie die Spiecherbandbreite mit 22GB/s angegeben wird.

robbitop
2005-05-15, 15:23:05
GDDR3 kann nicht als Hauptspeicher genutzt werden. Und um die geringe Bandbreite des Shared Memory zu überbrücken hat man ja eDRAM.

Demirug
2005-05-15, 15:25:20
Das ist GDDR3 und der wird auch als Hauptspeicher benutzt. Das kommt daher weil die GPU gleichzeitig die Northbridge für die CPU enthält. Das war schon bei der XBox I so.

Coda
2005-05-15, 15:25:38
GDDR3 kann nicht als Hauptspeicher genutzt werden.Ich hab das zwar auch mal geglaubt, aber inzw. bin ich doch der Meinung dass das bei fest aufgelöteten Bausteinen gehen sollte.

dildo4u
2005-05-15, 15:26:27
Das ist GDDR3 und der wird auch als Hauptspeicher benutzt. Das kommt daher weil die GPU gleichzeitig die Northbridge für die CPU enthält. Das war schon bei der XBox I so.
Sag ich doch danke demiurg für die Bestätigung.

robbitop
2005-05-15, 15:42:41
Das ist GDDR3 und der wird auch als Hauptspeicher benutzt. Das kommt daher weil die GPU gleichzeitig die Northbridge für die CPU enthält. Das war schon bei der XBox I so.
Wenn R500 sich das Interface mit der CPU teilt (ergo NB), macht das natürlich wieder Sinn.

Jesus
2005-05-15, 15:44:07
Wenn R500 sich das Interface mit der CPU teilt (ergo NB), macht das natürlich wieder Sinn.

Das heisst aber doch auch sie teilen sich die Bandbreite, bzw. immer nur einer kann mit voller Bandbreite darauf zugreifen?

Coda
2005-05-15, 15:45:08
Ja natürlich, das war bei der XBox ja schon nicht anders.

robbitop
2005-05-15, 17:24:29
Shared memory ist bei Konsolen Gang und Gebe, da man sowie Platz als auch Geld sparen muss, wo es nur geht.
Mit dem eDRAM kann man die geringe Speicherbandbreite zum shared memory gut abfangen. Und so eng scheint der Bus zum Hauptspeicher gar nicht zu sein. Es hätte weit schlimmer kommen können (b.s.w. DDR400 mittels 64 Bit ect).

Jesus
2005-05-15, 18:26:29
Shared memory ist bei Konsolen Gang und Gebe, da man sowie Platz als auch Geld sparen muss, wo es nur geht.
Mit dem eDRAM kann man die geringe Speicherbandbreite zum shared memory gut abfangen. Und so eng scheint der Bus zum Hauptspeicher gar nicht zu sein. Es hätte weit schlimmer kommen können (b.s.w. DDR400 mittels 64 Bit ect).

Eigentlich nicht, PS1 hatte bspw. kein Shared Memory, die PS2 auch nicht.

Coda
2005-05-15, 19:08:11
Das ist so nicht richtig. Die PS2 muss auch die ganzen Geometriedaten und Texturen im System-RAM ablegen.

Es ist sozusagen eine Art manuelles shared memory, was die Sache nicht gerade einfacher macht.

Gast
2005-05-15, 19:09:52
Eigentlich nicht, PS1 hatte bspw. kein Shared Memory, die PS2 auch nicht.
Dreamcast auch nicht,und der hatte immer flüssige Grafik,deffered
Render Marke PowerVR machte es möglich.Schade das diese Funktion nicht
auch bei der Ati Gpu in der Xbox360 verwendung findet.

Coda
2005-05-15, 19:10:33
Was hat jetzt deferred rendering mit dem Speicherverbrauch zu tun? Nix!

r3ptil3
2005-05-15, 19:13:52
R520 Release im 3.Quartal unsicher - http://www.gamezoom.de/artikel/show/0,162843,1,11188.html

Coda
2005-05-15, 19:14:55
Das könnte die Specs des G70 erklären...

Gast
2005-05-15, 19:19:17
Das ist so nicht richtig. Die PS2 muss auch die ganzen Geometriedaten und Texturen im System-RAM ablegen.

Es ist sozusagen eine Art manuelles shared memory, was die Sache nicht gerade einfacher macht.

Es ist aber kein Shared Memory im klassischen Sinne. Die GPU hat keinen direkten Zugriff auf den Hauptspeicher der PS2, im Gegensatz zur Xbox.

Coda
2005-05-15, 19:21:54
Schon klar, aber das wäre bei der PS2 definitiv das bessere Konzept gewesen imho.

Winter[Raven]
2005-05-15, 20:18:29
Das könnte die Specs des G70 erklären...
?

//Edit:

Also wenn das wirklich stimmt ... sag ich nur: "R520 gonna be ATI's Nv30"

Weiß einer wer für dieses Zitat verantwortlich war?

Coda
2005-05-15, 20:22:20
?Ich denke nV weiß von der Verzögerung.

Winter[Raven]
2005-05-15, 20:28:03
Ich denke nV weiß von der Verzögerung.

Tjö, und wenn Nvidia es wirlich schafft die Karten mit dem G70 schnellstens in die Läden zu bringen, sollte bzw. kann sich ATI die kommenden Finanzquartale streichen und auf den R600 hoffen.

Es wäre im Q3 völlig sinnlos sich eine R520 zu kaufen, wenn es "hoffentlich" im Q2 2006 die WGF2.0 Karten gibt.

reunion
2005-05-15, 20:30:38
R520 Release im 3.Quartal unsicher - http://www.gamezoom.de/artikel/show/0,162843,1,11188.html


Vielleicht kommt deshalb jetzt noch schnell MVP mit R480?

Wobei, wenn in der Überschrift schon steht "sehr unsicher", sollte man doch etwas vorsichtig sein IMHO.

Winter[Raven]
2005-05-15, 20:36:30
Vielleicht kommt deshalb jetzt noch schnell MVP mit R480?

Wobei, wenn in der Überschrift schon steht "sehr unsicher", sollte man doch etwas vorsichtig sein IMHO.

Würde aber die damalige Meldung von INQ ins rechte Bild drücken, den sonst wäre es sinnlos jetzt 2X - R480 zu bringen...

reunion
2005-05-15, 20:39:16
']Tjö, und wenn Nvidia es wirlich schafft die Karten mit dem G70 schnellstens in die Läden zu bringen, sollte bzw. kann sich ATI die kommenden Finanzquartale streichen und auf den R600 hoffen.


IMHO wird man G70 auch nicht vor Q3 kaufen können.


Es wäre im Q3 völlig sinnlos sich eine R520 zu kaufen, wenn es "hoffentlich" im Q2 2006 die WGF2.0 Karten gibt.

So denken maximal ein Prozent der Käufer.
Desweiteren halte ich Q2/06 für die ersten WGF2.0-Karten als äußerst optimistisch geschätzt.

Gast
2005-05-15, 20:39:42
']Tjö, und wenn Nvidia es wirlich schafft die Karten mit dem G70 schnellstens in die Läden zu bringen, sollte bzw. kann sich ATI die kommenden Finanzquartale streichen und auf den R600 hoffen.

Es wäre im Q3 völlig sinnlos sich eine R520 zu kaufen, wenn es "hoffentlich" im Q2 2006 die WGF2.0 Karten gibt.

Wenn es sich 'nur' um die XT/XT PE Modelle handeln sollte, der Rest, also Ohne Pro, Pro, XL den anvisierten Takt bereits schaffen, dann sieht es so schlecht gar nicht aus. Zumindest haben sie dann theoretisch so Zeit schon mal entsprechende Stückzahlen der 'kleineren' Karten zu fertigen und können schnell liefern. Die dicken Brummer gibt es dann halt, wie gewohnt ;D, in winzigen Dosen zu sagenhaften Preisen.

Müssen sie die MHz auch bei den niedrigeren Modellen noch suchen, dann sieht es schlecht aus.

dildo4u
2005-05-15, 20:41:15
']

Es wäre im Q3 völlig sinnlos sich eine R520 zu kaufen, wenn es "hoffentlich" im Q2 2006 die WGF2.0 Karten gibt.
WGF2.0 ohne Passendes OS?

Winter[Raven]
2005-05-15, 20:47:26
IMHO wird man G70 auch nicht vor Q3 kaufen können.



So denken maximal ein Prozent der Käufer.
Desweiteren halte ich Q2/06 für die ersten WGF2.0-Karten als äußerst optimistisch geschätzt.

Also Jen-Hsun Huang versicherte, man wird sich nicht noch einmal solche Blamage leisten alá NV40.

Das mit WGF2.0 ist schon klar, war auch als wirklich nonplusultra bei besten Bedinnungen.

//EDIT:

Ailuros rechnet mit den WGF2.0 im 2Q. 2006.

dildo4u
2005-05-15, 20:53:08
']

//EDIT:

Ailuros rechnet mit den WGF2.0 im 2Q. 2006.
Für XP?

Coda
2005-05-15, 21:12:37
Das ist eher unwahrscheinlich wegen dem neuen Treibermodell.

Gast
2005-05-15, 21:12:49
Dreamcast auch nicht,und der hatte immer flüssige Grafik,deffered
Render Marke PowerVR machte es möglich.Schade das diese Funktion nicht
auch bei der Ati Gpu in der Xbox360 verwendung findet.

Warum? Es reicht doch auch so für eine SUPER PERFORMANCE!!!

Winter[Raven]
2005-05-15, 21:15:03
Für XP?

Ehe nicht, aber ich denke die bei NV und ATI wissen schon wieso man die Chips für das zweite Quartal vorgesehn hat.

Gast
2005-05-15, 21:15:16
Es ist aber kein Shared Memory im klassischen Sinne. Die GPU hat keinen direkten Zugriff auf den Hauptspeicher der PS2, im Gegensatz zur Xbox.

Wobei es wesentlich komplizierter war!

Coda
2005-05-15, 21:15:40
Wie super die ist wird sich erst noch zeigen müssen. :rolleyes:

Gast
2005-05-15, 21:17:58
']Tjö, und wenn Nvidia es wirlich schafft die Karten mit dem G70 schnellstens in die Läden zu bringen, sollte bzw. kann sich ATI die kommenden Finanzquartale streichen und auf den R600 hoffen.

Es wäre im Q3 völlig sinnlos sich eine R520 zu kaufen, wenn es "hoffentlich" im Q2 2006 die WGF2.0 Karten gibt.

Wer sagt der R520 könne kein WGF2.0 ??? ;)
Wer sagt der G70 ist schneller als R520?

Smile!

Winter[Raven]
2005-05-15, 21:21:44
Wer sagt der R520 könne kein WGF2.0 ??? ;)
Wer sagt der G70 ist schneller als R520?

Smile!

1. Sinnlos, keine API, keine Vorteile ...
2. Sonst würde ATI nicht laut dem Bericht mehr Zeit für die Performancesteigerung brauchen.

robbitop
2005-05-15, 21:39:16
Eigentlich nicht, PS1 hatte bspw. kein Shared Memory, die PS2 auch nicht.
Die XBOX, N64 und GC hatten es ;)

robbitop
2005-05-15, 21:44:01
Nun ja, vieleicht ist 90nm im Moment noch ein wenig problematisch für die R520 Massenproduktion. Die These über eine reine Strategie der Verschiebung klang IMO schon arg daneben.
110nm lässt zwar nicht annähernd solche Freiheiten, wie 90nm, ist aber recht gut verfügbar. Demnach sollte G70 relativ flott verfügbar sein (AFAIK gibt es seit einer Weile bereits Samples).
G80 wird AFAIK der G70 respin in 90nm. Bis dahin ist 90nm schon etwas reifer.
Mit der neuen Fertigungstechnologie zu warten könnte sich als gar nicht mal so dumm herausstellen (so wie damals mit 150nm -> 130nm).

mapel110
2005-05-15, 21:49:21
(AFAIK gibt es seit einer Weile bereits Samples).

gibts doch laut Aussage eines B3D-Members auch schon von R520 seit März.

Gast
2005-05-15, 21:58:43
']1. Sinnlos, keine API, keine Vorteile ...
Sag das nicht.
Wäre doch fürs Marketing Gold wert. ;)
Ein "Lonhorn ready" oder ähnlich und der Dau freut sich. :D
']
2. Sonst würde ATI nicht laut dem Bericht mehr Zeit für die Performancesteigerung brauchen.
Vielleicht warten sie auf entsprechend schnellen Speicher, damit die Leistung nicht verpufft.

Iwan
2005-05-15, 21:59:50
Nun ja, vieleicht ist 90nm im Moment noch ein wenig problematisch für die R520 Massenproduktion. Die These über eine reine Strategie der Verschiebung klang IMO schon arg daneben.
110nm lässt zwar nicht annähernd solche Freiheiten, wie 90nm, ist aber recht gut verfügbar. Demnach sollte G70 relativ flott verfügbar sein (AFAIK gibt es seit einer Weile bereits Samples).
G80 wird AFAIK der G70 respin in 90nm. Bis dahin ist 90nm schon etwas reifer.
Mit der neuen Fertigungstechnologie zu warten könnte sich als gar nicht mal so dumm herausstellen (so wie damals mit 150nm -> 130nm).

gibts etwa noch einen nv40 refresh bis zum nv50? gibts da schon irgendwo infos? :|

robbitop
2005-05-15, 22:02:29
gibts etwa noch einen nv40 refresh bis zum nv50? gibts da schon irgendwo infos? :|
Stand doch schon ein paar mal in einigen Newsblurbs.
NV hat in einem Interview selbst gesagt, dass es einen Refresh @90nm für Ende 2005 geben wird.

Coda
2005-05-15, 22:02:55
WGF 2.0 beim R520 ist unwahrscheinlich, da wird ATi eher auf ein unified shader modell setzen wollen.

r3ptil3
2005-05-15, 22:04:24
Also falls der R520 WGF2.0 haben würde, was ich nicht glaube aber hoffe dann wäre das ja mal echt super.

ShadowXX
2005-05-15, 22:11:00
WGF 2.0 beim R520 ist unwahrscheinlich, da wird ATi eher auf ein unified shader modell setzen wollen.

Ausserdem müsste der r520 dann jetzt schon ein GS mit an Bord haben...das währe zum jetzigen Zeitpunkt (und auch in Q305, ich sehe LH dazu nicht in Q206 sondern eher in Q406) Transistorverschwendung hoch 10, das passt überhaupt nicht zu ATI.

Iwan
2005-05-15, 23:26:01
Stand doch schon ein paar mal in einigen Newsblurbs.
NV hat in einem Interview selbst gesagt, dass es einen Refresh @90nm für Ende 2005 geben wird.

oha war mir neu. thx.

DrumDub
2005-05-16, 00:01:11
Ausserdem müsste der r520 dann jetzt schon ein GS mit an Bord haben...das währe zum jetzigen Zeitpunkt (und auch in Q305, ich sehe LH dazu nicht in Q206 sondern eher in Q406) Transistorverschwendung hoch 10, das passt überhaupt nicht zu ATI. kann auch mir auch nicht vorstellen. ati will eigentlich nur eins: schneller als die konkurrenz sein. daher macht die verschiebung schon sinn, wenn man die anvisierten taktraten noch nicht packt. mit mvp hält man die highend ati-käufer so lange bei der stange, bis der r520 erscheint.

mapel110
2005-05-16, 01:14:41
Wird nicht funktionieren, wenn nvidia SLI mit G70 hat. Aber ich halte derzeit nichts von den ganzen Verschiebungstheorien.

Ailuros
2005-05-16, 02:54:41
Was hat jetzt deferred rendering mit dem Speicherverbrauch zu tun? Nix!

Gar nichts und alles. :|

Ailuros
2005-05-16, 02:58:04
']
Es wäre im Q3 völlig sinnlos sich eine R520 zu kaufen, wenn es "hoffentlich" im Q2 2006 die WGF2.0 Karten gibt.

Es wird genug Zeit geben fuer R520/580 und G70 und zweiter NV-SM3.0 Refresh. Nach neuestem Standpunkt wuerde ich WGF2.0 GPUs nicht vor Ende 2006/Anfang 2007 erwarten was aber auch noch nicht definitiv ist.

Ailuros
2005-05-16, 03:01:34
Nun ja, vieleicht ist 90nm im Moment noch ein wenig problematisch für die R520 Massenproduktion. Die These über eine reine Strategie der Verschiebung klang IMO schon arg daneben.
110nm lässt zwar nicht annähernd solche Freiheiten, wie 90nm, ist aber recht gut verfügbar. Demnach sollte G70 relativ flott verfügbar sein (AFAIK gibt es seit einer Weile bereits Samples).
G80 wird AFAIK der G70 respin in 90nm. Bis dahin ist 90nm schon etwas reifer.
Mit der neuen Fertigungstechnologie zu warten könnte sich als gar nicht mal so dumm herausstellen (so wie damals mit 150nm -> 130nm).

Ich hab schon die zweite zuverlaessige Quelle die ueber XBox360 murmelt.

Ailuros
2005-05-16, 03:06:23
gibts etwa noch einen nv40 refresh bis zum nv50? gibts da schon irgendwo infos? :|


Neuester newsblurb von B3D:

NVIDIA G70 Sightings Soon...
12-May-2005, 22:03.59 Reporter : DaveBaumann
NVIDIA have, probably purposefully, been fairly quiet on their next generation of graphic processors, with the high end "G70" product expected to spearhead the new line. Digitimes has recently reported that Taiwanese motherboard vendors have indicated that G70 will be on show at the upcoming Computex computer fair, however according to NVIDI's CEO, speaking in their latest financial results conference call, there may actually be sightings of it even earlier, stating that it may be on show at next weeks E3 event, which is earlier than previous expectations.

Digitimes further suggests that G70 will be 110nm based, selling in the region of $550, have double the performance of NV40 and be available in the latter half of Q3. The utilisation of 110nm for G70 is inline with our prior expectations, however NVIDIA have stated previously that they expect "move up a little bit in performance" for their next generation, so we'll have to wait to see how that pans out. With possible sightings of the product as early as E3 availability of the product in the latter half of Q3 would also seem a little late, and not inline with NVIDIA recent moves of announcing a product close to availability.

www.beyond3d.com


Michael Hara 04.03.2005:

Well, from an architecture standpoint we’re just still at the beginning of shader model 3.0. And we need to give the programmers out there some time to continue to really learn about that architecture. So in the spring refresh what you’ll see is a little bit faster versions...

...I think you’ll see the industry move up a little bit in performance. But I don’t think you’ll see any radical changes in architecture. I doubt you’ll see any radical changes in architecture even in the fall. When we came out with GeForce 6, we tend to create a revolutionary architecture about every actually two years. And then we derive from it for the following time. So even the devices that we announced this fall, that will be I think a lot more powerful than the ones we actually had a year ago. Architecturally we’re still in the shader model three type era.”

If you look at when we go to 90, my guess will be is we’ll have one or two products this year going from 90 in the second half

http://www.beyond3d.com/forum/viewtopic.php?t=20937

robbitop
2005-05-16, 09:21:08
Scheinbar hat sich Quasar/Carsten Spille mit seiner definitiven Aussage in der CB News zur CeBIT also doch vertan (130nm low direkt von NV).

NV scheint einiges An Zeit zu haben bis R520 herauskommt. Und Q4 kommt dann G70@90nm laut dem NV Interview. Der sollte dann einfach nur höhere Taktraten haben IMO. War vieleicht die richtige Entscheidung, mit 90nm noch ein paar Monate zu warten.

@Ail
in welche Zusammenhang steht die XBox mit meiner obigen Aussage?

TheGood
2005-05-16, 09:30:37
Ich hab schon die zweite zuverlaessige Quelle die ueber XBox360 murmelt.
ähm was murmeln die quellen?

reunion
2005-05-16, 10:28:24
Scheinbar hat sich Quasar/Carsten Spille mit seiner definitiven Aussage in der CB News zur CeBIT also doch vertan (130nm low direkt von NV).


Scheint so.


NV scheint einiges An Zeit zu haben bis R520 herauskommt. Und Q4 kommt dann G70@90nm laut dem NV Interview. Der sollte dann einfach nur höhere Taktraten haben IMO. War vieleicht die richtige Entscheidung, mit 90nm noch ein paar Monate zu warten.



Ich bleibe dabei, es liegt nicht am 90nm Prozess.
Wie schon gesagt, mit R500 scheint es keine Probleme zu geben und dieser dürfte auch nicht viel weniger komplex sein als R520.
Außerdem glaube ich nicht, dass MS und ATi so dumm wären einen Prozess einzusetzte, welcher sich dann als nicht reif genug herrausstellt.
Immerhin habe die das NV30 Disaster auch mitbekommen.

Vermutlich hat ATi für die R500 Massenproduktion einfach eine recht strenge Deadline, die natürlich unter allen Umständen eingehalten werden muss.
Falls an dieser Verschiebungstheorie überhaupt was dran ist.

reunion
2005-05-16, 10:33:18
']
Also wenn das wirklich stimmt ... sag ich nur: "R520 gonna be ATI's Nv30"



Schlechter Vergleich, nV bekam damals von TSMC mehrere Warnungen, dass es äußerst riskant sein jetzt schon auf 130nm zu setzten, nV hats trozdem gemacht.

reunion
2005-05-16, 10:55:12
Im tweakers.net Forum scheint jemand ein paar Specs aufgeschnappt zu haben:

Value
RV515 > MP date Oct.
RV515 LE 250Mhz DDR1 TSOP / 128bit / 512MB / AIB, Retail, OEM
RV515 PRO 400Mhz DDR2 / 128bit / 512MB / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 256MB / OEM
RV515 SE 250Mhz DDR1 TSOP / 64bit / 256MB / LP design / AIB, Retail, OEM
RV515 SE HM 500Mhz GDDR3 / 32bit / 32MB / LP design / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 128MB / LP design / OEM

RX550, based on RV370 core, 500/250
128/64bit
pcb: pin to pin compatible with current X300 and X600 pro
standard config: 256MB / 128bit
Target product: 6200TC 256
MP: Mid June
>> X300SE HM continue

Mainstream
RV530 > MP date Sept
RV530 DDR1 TSOP / 64&128bit / 64&128MB / LP design
RV530PRO DDR2 / 128bit / 256&512MB / 4 layer
RV530XT GDDR3 / 128bit / 256MB / 8 layer
>> X700 and X600 PRO continue

Performance
R520 > MP date July / Aug
R520XT PE & XT GDDR3 / 256bit / 512MB / Dual slot cooling / PCI-E (aug)
R520 PRO GDDR3 / 256bit / 256MB / Dual slot cooling / PCI-E or AGP (sept)
>> X800PRO, X800XL continue

http://gathering.tweakers.net/forum/list_message/23376644#23376644

Gast
2005-05-16, 11:15:55
oh nein bitte nicht

R520 > MP date July / Aug
R520XT PE & XT GDDR3 / 256bit / 512MB / Dual slot cooling / PCI-E (aug)
R520 PRO GDDR3 / 256bit / 256MB / Dual slot cooling / PCI-E or AGP (sept)

ich bis diese xt´s von anfang an mit agp,war diese eine roadmap denn falsch ?
es sollte doch gleichzeitig agp/pce kommen

:(

ShadowXX
2005-05-16, 11:40:20
Vermutlich hat ATi für die R500 Massenproduktion einfach eine recht strenge Deadline, die natürlich unter allen Umständen eingehalten werden muss.
Falls an dieser Verschiebungstheorie überhaupt was dran ist.

ATI hat AFAIK überhaupt nichts mit der Produktion der r500-Chips zu tun....SIe haben die IP vollständig an MS lizensiert (oder gar verkauft) und MS ist selbst für die "Produktion" der r500-Chips verantwortlich.

ATI kann sich momentan (ausser der r500 funktioniert nicht und Sie müssen Sonderschichten schieben um MS was lauffähiges präsentieren zu können) eigentlich voll auf den r520 konzentrieren.

Anders gesagt....die Verschiebung des r520 hat IMHO nichts mit dem r500 und irgendwelchen Deadlines die ATI zu erfüllen hat zu tun.....

Wenn ich in dem anderen Post lese, das ATI bei den r520XT/PE und sogar den Pro Chips die "verhasste" und "verspottete" DualSlot-Kühllösung benötigt (wie oft sind die von ATI auf sowas herumgeritten), glaube ich, das Sie den r520 momentan einfach nicht auf den Takt bekommen, auf den Sie ihn hiefen wollten...

robbitop
2005-05-16, 11:43:49
Vermutlich hat ATi für die R500 Massenproduktion einfach eine recht strenge Deadline, die natürlich unter allen Umständen eingehalten werden muss.
Falls an dieser Verschiebungstheorie überhaupt was dran ist.
Das wäre ebenfalls absolut denkbar.
In jedem Falle kommt NV früher und kann später mit dem G80 nachlegen.

reunion
2005-05-16, 12:20:25
ATI hat AFAIK überhaupt nichts mit der Produktion der r500-Chips zu tun....SIe haben die IP vollständig an MS lizensiert (oder gar verkauft) und MS ist selbst für die "Produktion" der r500-Chips verantwortlich.

ATI kann sich momentan (ausser der r500 funktioniert nicht und Sie müssen Sonderschichten schieben um MS was lauffähiges präsentieren zu können) eigentlich voll auf den r520 konzentrieren.

Anders gesagt....die Verschiebung des r520 hat IMHO nichts mit dem r500 und irgendwelchen Deadlines die ATI zu erfüllen hat zu tun.....


Ich glaube kaum, dass MS ohne auch nur einen erfahrenen bzw. fähigen Mann, ein hochkomplexes Design von ATi in einem neuen Fertigungsprozess alleine zur Massenproduktion bringen kann.

ATi hat da mit Sicherheit noch die Finger im Spiel.

Und was es bedeutet, ein versprochenes Datum nicht einzuhalten, sollte klar sein.


Wenn ich in dem anderen Post lese, das ATI bei den r520XT/PE und sogar den Pro Chips die "verhasste" und "verspottete" DualSlot-Kühllösung benötigt (wie oft sind die von ATI auf sowas herumgeritten), glaube ich, das Sie den r520 momentan einfach nicht auf den Takt bekommen, auf den Sie ihn hiefen wollten...

Könnte natürlich auch sein, dies allerdings aufgrund der (höchst spekulativen) Dual-Slot-Kühlung abzuleiten ist doch ziemlich weit hergeholt.

ShadowXX
2005-05-16, 12:32:29
Ich glaube kaum, dass MS ohne auch nur einen erfahrenen bzw. fähigen Mann, ein hochkomplexes Design von ATi in einem neuen Fertigungsprozess alleine zur Massenproduktion bringen kann.

ATi hat da mit Sicherheit noch die Finger im Spiel.


Aber bestimmt nicht in dem Maße, als wenn ATI die Chips selbst produzieren würde....das sind 5-6 Mann (von mir aus auch 20) zu MS abgestellt um das ganze zu begleiten, aber das sollte eine Konzentration auf den r520 nicht dermaßen beeinflussen, das Sie diesen deshalb verschieben müssen.


Könnte natürlich auch sein, dies allerdings aufgrund der (höchst spekulativen) Dual-Slot-Kühlung abzuleiten ist doch ziemlich weit hergeholt.

Das der r520 eine DualSlot-Kühllösung haben solle, höre und lese ich nicht zum ersten mal....

So spekulativ finde ich die Herleitung überigens nicht, da eine DS-Lösung auf eine ziemliche Wäreentwicklung schliessen lässt, die wiederum meistens durch den versuch auf hohe Taktrate zu kommen "entsteht".
Meistens werden diese DS-Lösungen dann eingesetzt, wenn man anders gar nicht auf bestimmte Taktraten kommen würde....

Aber natürlich ist das alles spekulation.....

P.S.
der ürsprüngliche Satz der von Raven zitiert wurde hies eigentlich: "its gonna be their nv30 and they know it..."

Gast
2005-05-16, 13:03:42
DS Lösungen finde ich eigentlich recht sinnvoll wenn die warme Luft nach draussen geblasen wird, egal ob auf Taktrate prügeln notwendig ist oder nicht.

Coda
2005-05-16, 13:21:03
Gar nichts und alles. :|Na gut, der Z-Buffer fällt weg...

pF3NG
2005-05-16, 14:13:11
Im tweakers.net Forum scheint jemand ein paar Specs aufgeschnappt zu haben:

Value
RV515 > MP date Oct.
RV515 LE 250Mhz DDR1 TSOP / 128bit / 512MB / AIB, Retail, OEM
RV515 PRO 400Mhz DDR2 / 128bit / 512MB / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 256MB / OEM
RV515 SE 250Mhz DDR1 TSOP / 64bit / 256MB / LP design / AIB, Retail, OEM
RV515 SE HM 500Mhz GDDR3 / 32bit / 32MB / LP design / OEM
RV515 PRO 500Mhz GDDR3 / 128bit / 128MB / LP design / OEM


http://gathering.tweakers.net/forum/list_message/23376644#23376644

Ich finde den oberen "Value" bereich ziemlich Interressant, vorrausgeetzt natürlich, die spec's stimmen...

zur XBox 360: Ich ab gehört, dass MS Windows XP Media Center Edition rauf macht.

robbitop
2005-05-16, 16:29:09
zur XBox 360: Ich ab gehört, dass MS Windows XP Media Center Edition rauf macht.
Mit einem IBM PowerPC Prozessor mit 3 Kernen?
Ich glaube eher, dass man den aktuellen WinNT Build (XP/2003/longhorn ect) PPC kompatibel trimmt und diesen (wie schon bei der XBOX) drastisch aufs Notwendige kürzt und optimiert. Ob das Ding dann Media Center fähig sein wird, ist eine andere Frage. (gut wäre es ja, aber vieleicht würden dann viele Leute das Ding nur aus diesem Grunde kaufen und sinnlos MS Subventionen nutzen ohne gewinnbringende Spiele zu spielen. Zu praktisch darf's fast nicht sein)

Demirug
2005-05-16, 16:34:50
Auf der XBox 360 läuft keine Media Center Edition sondern sie ist ein Media Center Extender.

dildo4u
2005-05-16, 16:36:11
Auf der XBox 360 läuft keine Media Center Edition sondern sie ist ein Media Center Extender.
Jup aber muss sie dazu nicht Wireless Lan haben?Ich dachte da gibt so vorgaben was sich MediaCenter Extender nennen darf.

Coda
2005-05-16, 16:38:13
Microsoft macht doch selber die Vorgaben. Das ist denen doch egal :D

Demirug
2005-05-16, 16:44:25
Jup aber muss sie dazu nicht Wireless Lan haben?Ich dachte da gibt so vorgaben was sich MediaCenter Extender nennen darf.

Es gibt einen WLan Adapter für die USB Schnittstelle auf der Rückseite als Option.

reunion
2005-05-16, 17:54:44
gibts doch laut Aussage eines B3D-Members auch schon von R520 seit März.


Jap, und Crytek hat sogar schon einen Patch herrausgebracht.
http://www.xbitlabs.com/news/video/display/20050513123804.html

Die 32 Pipes mit 350mio Transistoren, die Xbitlabs vermutet, sind auch nicht von schlechten Eltern. :D

Coda
2005-05-16, 18:00:11
Der G70 Refresh in 90nm wird wohl auch 32 Pipelines haben. Insofern macht mir das keine großen Sorgen mehr...

reunion
2005-05-16, 18:01:52
Aber bestimmt nicht in dem Maße, als wenn ATI die Chips selbst produzieren würde....das sind 5-6 Mann (von mir aus auch 20) zu MS abgestellt um das ganze zu begleiten, aber das sollte eine Konzentration auf den r520 nicht dermaßen beeinflussen, das Sie diesen deshalb verschieben müssen.


Da ich auch keinerlei Ahnung habe inwieweit ATi da drinsteckt, kann ich dir darauf keine Antwort geben.

Es könnte natürlich tausende Gründe für die Verschiebung geben.

reunion
2005-05-16, 18:03:12
Der G70 Refresh in 90nm wird wohl auch 32 Pipelines haben. Insofern macht mir das keine großen Sorgen mehr...

Du glaubst das? :eek:
Soll der G70-Refresh nicht erst gegen Ende des Jahres kommen?

Coda
2005-05-16, 18:05:32
Warum sollte man das nicht machen? In 90nm hätte man genügend Platz.

Soll der G70-Refresh nicht erst gegen Ende des Jahres kommen?Schon. Nur erwarte ich R520 auch nicht mehr früher.

Iwan
2005-05-16, 18:12:09
Der G70 Refresh in 90nm wird wohl auch 32 Pipelines haben. Insofern macht mir das keine großen Sorgen mehr...

wie hart ist das denn, anstatt bei nem refresh die taktraten zu erhöhen werden jetzt einfach noch 2 quads drangehängt.

Coda
2005-05-16, 18:13:36
Wer sagt dass in 90nm nicht auch der Takt noch erhöht werden kann?

Außerdem ist das Spekulation und kein Fakt. Ich nehme es nur an.

reunion
2005-05-16, 18:16:17
Warum sollte man das nicht machen? In 90nm hätte man genügend Platz.


Naja, irgendwann sicherlich, ob das jetzt allerdings schon möglich ist?
R500 erreicht ja auch nicht ohne Grund nur 150mio Transistoren (ohne eDRAM, ROPs, ect.).

Und auch wenn du die Frage schon vermutet hast, ich wüsste nicht, wie man für so einem Biest ausreichend Bandbreite zu verfügung stellt.


Schon. Nur erwarte ich R520 auch nicht mehr früher.

Ich glaube kaum, dass sich ATi das ganze weitere Jahr kampflos geschlagen gibt.

Deshalb gehe ich weiter von einem 16 Pipechip mit ca. 200mio Transistoren und 700mhz Chip- und Speichertakt aus.
Sollte locker reichen gegen G70, mehr Pipes erwarte ich erst mit R580, der dann vermutlich bereits GDDR4-RAM verwenden wird.

Coda
2005-05-16, 18:17:14
Wenn ATi 32 Pipelines hat in 90nm, wird das nVidia auch machen. Davon kann man wirklich ausgehen...

Deshalb gehe ich weiter von einem 16 Pipechip mit ca. 200mio Transistoren und 700mhz Chip- und Speichertakt aus.
Sollte locker reichen gegen G70.Dürfte reichen, aber nicht locker.
Und neuste Meldungen sagen eben was anderes.

reunion
2005-05-16, 18:26:24
Wenn ATi 32 Pipelines hat in 90nm, wird das nVidia auch machen. Davon kann man wirklich ausgehen...


Logisch, allerdings halte ich beides für Utopie.


Und neuste Meldungen sagen eben was anderes.

Es muss ja nicht alles zwangläufig der Realität entsprechen.

//Edit: Außerdem haben die IHVs meißtens doch ein bisschen Ahnung was die Konkurrenz macht, und ich galube kaum, dass nV gehofft hat mit einem 24Pipe-Chip @ 400mhz gegen einen hypotetischen R520 mit 32 Pipes zu bestehen.

robbitop
2005-05-16, 18:30:10
Dafür reicht die Bandbreite doch gar nicht. Ich gehe von einem 6 Quad bei G70/R520 aus. Nur dass R520 zw 500 und 600MHz getaktet sein wird.
Um dagegen anzukommen braucht es dann G70@90nm (G80?).
Vieleicht hat ATI ja auch nur 4 Quads und 600MHz verbaut, dann reicht G70.
Es ist vieles möglich. 8 Quads sind aber ohne 512 Bit DDR Interface wirklich zu viel des Guten (IMO).

Coda
2005-05-16, 19:08:39
Naja für zukünftige Spiele ist Arithmetik Leistung wichtiger. Außerdem ist nVidias Speicherinterface schon recht effizient.

robbitop
2005-05-16, 19:23:48
Naja für zukünftige Spiele ist Arithmetik Leistung wichtiger. Außerdem ist nVidias Speicherinterface schon recht effizient.
Dennoch wird man noch lange lange Zeit viele Farbwerte pro Takt in den Framebuffer schreiben müssen. Das ändert sich nicht von heute auf morgen. Daran ändert ein effizientes Interface nur wenig. Selbst die X800 XT war schon oft bandbreitenlimitiert. Die G70 wird es eben so werden. Bei 8 Quads kommt dann vermutlich kaum noch mehr heraus.

reunion
2005-05-16, 19:26:40
Ich gehe von einem 6 Quad bei G70/R520 aus. Nur dass R520 zw 500 und 600MHz getaktet sein wird.


Bei B3D geht man davon aus, dass ATi >650Mhz erreichen will und die liegen kaum mal falsch.
Deshalb rechne ich auch nicht mit mehr als 4 Quads.

robbitop
2005-05-16, 19:30:16
Bei B3D geht man davon aus, dass ATi >650Mhz erreichen will und die liegen kaum mal falsch.
Deshalb rechne ich auch nicht mit mehr als 4 Quads.
Denkbar. Dann passt das mit dem G70 speed auch in etwa.
Es ist schon verdammt schwierig zu sagen, wie es nun mit Gewissheit werden wird, da 90nm eben sehr viel Spielraum lässt. Die Bandbreite allerdings nicht.

reunion
2005-05-16, 20:10:44
Naja für zukünftige Spiele ist Arithmetik Leistung wichtiger. Außerdem ist nVidias Speicherinterface schon recht effizient.


Auch nicht effizienter als das des R420 IMO, man hat einfach ein ausgeglicheneres Füllraten-/Bandbreitenverhältnis.
nV hatte Glück, dass kein bessere Speicher verfügbar war.

NV40: 6400 MPixel/s bei 35.2Gb/s Bandbreite.
R420: 8320 MPixel/s bei 35.8Gb/s Bandbreite.

Nur wird man diese Bedingungen bei G70 kaum erreichen, da mehr als 700mhz GDDR3 aktuell nicht machbar sein sollte, mehr als 256-bit Speicheranbindung ist IMO auch äußerst unwarscheindlich. Also max. 44.8 GB/s Bandbreite.

G70: (24 Pipes, 400mhz Chiptakt, 700mhz GDDR3) : 9600 MPixel/s bei 44.8Gb/s Bandbreite.

Man wäre damit also bereits ähnlich limitiert wie R420.

Ein hypotetischer R520 mit 32 Pipelines würde ein vollkommen krankes Füllraten-/Bandbreitenverhältnis aufweisen.

Demirug
2005-05-16, 20:27:42
reunion, samsung gibt an das sie 800er liefern können.

Zudem unterstelle ich nVidia eine bessere Cache Nutzung.

Xmas
2005-05-16, 20:30:58
Zudem unterstelle ich nVidia eine bessere Cache Nutzung.
Mit ein paar recht krassen Ausnahmen allerdings.

reunion
2005-05-16, 20:47:17
reunion, samsung gibt an das sie 800er liefern können.


Tatsächlich (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm#st), das würde die Lage natürlich etwas entschärfen, falls Samsung in außreichenden Mengen liefern kann.

Sunrise
2005-05-16, 21:25:24
Tatsächlich (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm#st), das würde die Lage natürlich etwas entschärfen, falls Samsung in außreichenden Mengen liefern kann.

ATI hat ja bereits verschoben...

r3ptil3
2005-05-16, 22:30:34
ATI hat ja bereits verschoben...

Das ist meiner Meinung nach OK! Schliesslich lieber ein paar wochen länger warten dafür aber wahrscheinlich Speicherbausteine mit 800mhz (effektiv 1600mhz).

Coda
2005-05-16, 22:34:58
Ich glaube kaum, dass sich R520 wegen dem Speicher verzögert.

Sunrise
2005-05-16, 23:12:34
Ich glaube kaum, dass sich R520 wegen dem Speicher verzögert.
Glauben schließt erst einmal garnichts aus.

Die Leistung eines G70, mit 6 Quads, ~400-430MHz Kerntakt, min. 700MHz GDDR3 und ~8.000 Punkte bei 3DM05 muss ATI erst einmal erreichen. NV wäre bereits mit diesem Part stärker BW-limitiert als es der NV40 ist. (gleiche Effizienz vorausgesetzt)

ATI wird ganz sicher kein R520 helfen, welcher zwar eine höhere Füllrate, aber eine deutliche geringere Effizienz und eine noch höhere BW-Limitierung aufweist. Der R520 wäre eine Bombe, würde er beide "Probleme" umgehen und gleichzeitig noch schneller sein, was ich aber nicht glaube. Ergo: Der R520 wurde noch einmal einem Re-Spin unterzogen oder ATI schraubt den eigentlichen Sign-Off-Speed von ~650 MHz höher und muss sich somit wieder mit einer Dual-Kühllösung zufrieden geben.

Natürlich sind das alles keine Gründe, aber es sind Hinweise, wir sind hier schließlich im Speku-Forum.

Gründe erfährt man recht selten, es geht eher darum, sich diesen durch entsprechende Fakten anzunähern.

Gast
2005-05-16, 23:40:40
Glauben schließt erst einmal garnichts aus.

Die Leistung eines G70, mit 6 Quads, ~400-430MHz Kerntakt, min. 700MHz GDDR3 und ~8.000 Punkte bei 3DM05 muss ATI erst einmal erreichen. NV wäre bereits mit diesem Part stärker BW-limitiert als es der NV40 ist. (gleiche Effizienz vorausgesetzt)

ATI wird ganz sicher kein R520 helfen, welcher zwar eine höhere Füllrate, aber eine deutliche geringere Effizienz und eine noch höhere BW-Limitierung aufweist. Der R520 wäre eine Bombe, würde er beide "Probleme" umgehen und gleichzeitig noch schneller sein, was ich aber nicht glaube. Ergo: Der R520 wurde noch einmal einem Re-Spin unterzogen oder ATI schraubt den eigentlichen Sign-Off-Speed von ~650 MHz höher und muss sich somit wieder mit einer Dual-Kühllösung zufrieden geben.

Natürlich sind das alles keine Gründe, aber es sind Hinweise, wir sind hier schließlich im Speku-Forum.

Gründe erfährt man recht selten, es geht eher darum, sich diesen durch entsprechende Fakten anzunähern.

Du sagtest 8000 Punkte muss ATI erst mal erreichen in 3D Mark 05, doch sie erreichen mit der X850 XT PE schon knapp über 6000 Punkte also werden wohl diese 8000 Punkte keine schwierige Hürde darstellen. Ich könnte mir vorstellen das er locker über 10000 Punkte erreicht.

Coda
2005-05-16, 23:44:38
Naja, das ist dann aber in einem übertakteten System. Ob's 10000 werden ist mit 650Mhz@16 Pipelines zumindest fraglich.

nagus
2005-05-16, 23:44:59
Auch nicht effizienter als das des R420 IMO, man hat einfach ein ausgeglicheneres Füllraten-/Bandbreitenverhältnis.
nV hatte Glück, dass kein bessere Speicher verfügbar war.

NV40: 6400 MPixel/s bei 35.2Gb/s Bandbreite.
R420: 8320 MPixel/s bei 35.8Gb/s Bandbreite.

Nur wird man diese Bedingungen bei G70 kaum erreichen, da mehr als 700mhz GDDR3 aktuell nicht machbar sein sollte, mehr als 256-bit Speicheranbindung ist IMO auch äußerst unwarscheindlich. Also max. 44.8 GB/s Bandbreite.

G70: (24 Pipes, 400mhz Chiptakt, 700mhz GDDR3) : 9600 MPixel/s bei 44.8Gb/s Bandbreite.

Man wäre damit also bereits ähnlich limitiert wie R420.

Ein hypotetischer R520 mit 32 Pipelines würde ein vollkommen krankes Füllraten-/Bandbreitenverhältnis aufweisen.

ich verwette meinen A**** darauf, dass ATI nicht allein den Chip, sondern auf dessen speicheranbindung deutlich verbessert bzw (HyperZ 4?) ansonsten würde dass ja absolut keinen sinn machen. die ingenieure sind ja auch nicht vollkommen verblödet ;)

r3ptil3
2005-05-16, 23:49:12
Naja, das ist dann aber in einem übertakteten System. Ob's 10000 werden ist mit 650Mhz@16 Pipelines zumindest fraglich.

Mit einen sehr schnellen Prozessor (z.B. P4 3.73ghz oder FX-55) kommt man locker auf 6000 mit default Takt. Wiso meinst du "obs 10000 werden mit 650@16 Pipelines", wiso mit 16 Pipelines steht das irgendwo fest das der R520 16 Pipelines hat?

BodyLove
2005-05-16, 23:55:20
Ich glaube kaum, dass sich R520 wegen dem Speicher verzögert.

Warum? die Specs von Reunion würden dann imho stimmen. Chip wären dann weniger das Problem. Es wären die Speicher. Die kleineren Karten könnten, auf Grund des Speicherproblems, früher erscheinen, und die Ultra-HighEnds dann im 4ten Quartal.

Denn es macht schon jetzt keinen Sinn, einen Refresh vom R480 mit mehr Chiptakt rauszubringen, da es schon jetzt stark BB-limitiert ist.

Imho ist die Wahrscheinlichkeit auf einen Speicherproblem höher, als ein Problem mit der Ausbeute.

Ronny145
2005-05-16, 23:56:33
Naja, das ist dann aber in einem übertakteten System. Ob's 10000 werden ist mit 650Mhz@16 Pipelines zumindest fraglich.


Über 7000 Punkte sind schon mit ner übertakteten X850 XT möglich. Die PE dürfte noch etwas mehr schaffen.

r3ptil3
2005-05-17, 00:01:04
Eben und wen der G70 wirklich nur 8000 Punkte erreicht, dann ist ATi in sachen Leistung mal sicherlich vorne.

Gast
2005-05-17, 00:05:19
Eben und wen der G70 wirklich nur 8000 Punkte erreicht, dann ist ATi in sachen Leistung mal sicherlich vorne.
aber nicht wenn der 0.09 Refresh des G70 kommt und der kommt noch dieses Jahr. Ich glaube ATI wird erstmal so schnell nicht mehr so easy nach vorn kommen. An SLI beissen sie sich ja schon ne ganze Weile die Zähne aus.

r3ptil3
2005-05-17, 00:13:37
aber nicht wenn der 0.09 Refresh des G70 kommt und der kommt noch dieses Jahr. Ich glaube ATI wird erstmal so schnell nicht mehr so easy nach vorn kommen. An SLI beissen sie sich ja schon ne ganze Weile die Zähne aus.

Ob ATi nicht mehr so schnell so "easy" nach vorne kommt sehen wir ja noch! Der G70 selber ist noch nicht mal vorgestellt worden und du erzählst schon vom G70 Refresh.

Ailuros
2005-05-17, 01:24:25
ich verwette meinen A**** darauf, dass ATI nicht allein den Chip, sondern auf dessen speicheranbindung deutlich verbessert bzw (HyperZ 4?) ansonsten würde dass ja absolut keinen sinn machen. die ingenieure sind ja auch nicht vollkommen verblödet ;)

Dir ist Dein *ahem* wohl nicht besonders wichtig ;)

R520 hat ein paar interne Speicher-Optimierungen die weder mit dem einem noch mit dem anderen zu tun haben. Wunder wuerde ich aber nicht erwarten.

Ailuros
2005-05-17, 01:30:06
Mit einen sehr schnellen Prozessor (z.B. P4 3.73ghz oder FX-55) kommt man locker auf 6000 mit default Takt. Wiso meinst du "obs 10000 werden mit 650@16 Pipelines", wiso mit 16 Pipelines steht das irgendwo fest das der R520 16 Pipelines hat?


Momentan noch nicht; nur eben klingt eine so hohe Taktrate ein massives Risiko mit mehr als 4 quads. 10000 Punkte in 3dmark05 kann man mit zwei 6800Ultra@SLi erreichen; eventuell 12 VS@400MHz und 12.8 GPixels/sec Fuellrate.

Um 12.8 zu erreichen braeuchte R520 theoretisch entweder 4 quads@800MHz oder 6 quads@533MHz.

Ailuros
2005-05-17, 01:31:57
Ob ATi nicht mehr so schnell so "easy" nach vorne kommt sehen wir ja noch! Der G70 selber ist noch nicht mal vorgestellt worden und du erzählst schon vom G70 Refresh.

R580 und G80(?) werden moeglicherweise gar nicht mehr dieses Jahr auf Ladentische kommen.

Gast
2005-05-17, 01:51:56
aber nicht wenn der 0.09 Refresh des G70 kommt und der kommt noch dieses Jahr. Ich glaube ATI wird erstmal so schnell nicht mehr so easy nach vorn kommen. An SLI beissen sie sich ja schon ne ganze Weile die Zähne aus.

ähm nein das liegst du falsch

Ailuros
2005-05-17, 03:20:47
ähm nein das liegst du falsch

Dass es ATI nicht so leicht wie erwartet hatte mit multi-board configs stimmt schon.

Professionelle Simulations-Loesungen wie simFusion von E&S sind multi-chip und nicht multi-board configs.

Gast
2005-05-17, 08:07:39
R580 und G80(?) werden moeglicherweise gar nicht mehr dieses Jahr auf Ladentische kommen.

NEIN, das ist "HAHNEBÜCHE", R520 wird dieses Jahr gelauncht und nv zieht mit Refresh nach.

Erst 2006 (Spät) ist mit einem G80 zu rechnen wenn überhaupt! Dann wird es Anfang 2007 einen Refresh vom R520 geben oder den schon fast legendenhaften R600 mit 64Pipes!

So oder so, das Highend-Rennen ist Stand heute mit R520 und G79 klar an die roten gegangen! Was weiterhin interessant bleibt ist der Volumenträchtigere Midrange-Bereich.

Dort erwarte ich einen Schlacht zwischen X800 und 6600GT!

Performance-Mässig geht auch dieser Punkt dann an Rot!

Wenn dann noch MVPU mit X800 kommt und ich ne R520 dazustecken kann :) smile ich über beide Ohren!

Getreu dem Motto, es kann nur einen geben!

ShadowXX
2005-05-17, 08:27:25
NEIN, das ist "HAHNEBÜCHE", R520 wird dieses Jahr gelauncht und nv zieht mit Refresh nach.

Erst 2006 (Spät) ist mit einem G80 zu rechnen wenn überhaupt! Dann wird es Anfang 2007 einen Refresh vom R520 geben oder den schon fast legendenhaften R600 mit 64Pipes!

So oder so, das Highend-Rennen ist Stand heute mit R520 und G79 klar an die roten gegangen! Was weiterhin interessant bleibt ist der Volumenträchtigere Midrange-Bereich.

Dort erwarte ich einen Schlacht zwischen X800 und 6600GT!

Performance-Mässig geht auch dieser Punkt dann an Rot!

Wenn dann noch MVPU mit X800 kommt und ich ne R520 dazustecken kann :) smile ich über beide Ohren!

Getreu dem Motto, es kann nur einen geben!

Kannst du mir deine Kristallkugel leihen?

Gast
2005-05-17, 08:40:38
IST nur eine logische Schlussfolgerung der letzten 24 Monate!

Erklärung:

Die 600GT ist 9700 von 2002, die 6600GT ist sehr erfolreich gewesen und hat die Patt-Situation (Marktanteile) erst für NV ermöglichlicht!
Es blieb NV gar nix anderes übrig als Sm3.0 vorzuziehen und bereits verfügbar zu machen obwohl alle Spiele noch mit Sm2.0 klarkommen.

Performancemässig tut sich nix viel zwischen beiden, ansonsten hätten Sie nicht aufholen können.

Jetzt kommt mit dem R520 aber gleich 3-Mal die Retourkutsche:

1. Sm3.0 HW
2. Top Performance gegenüber G70 (ATI 90nm Produktion und NV nur 110nm)
3. MVPU mit Abwärtskompabilität (R520 und X800-Serie)

Da wird sich SLI in den Featuretest & Vergleich gerade bei Mr. DAU sehr schwer tun!

Als Bonus gibt es die NEUE Technologie ZEITGLEICH in der Xbox2 mit drin und die wird durch Jahresendgeschäft durch die Presse hoch und runter gehen!
Immer wieder der Verweis auf ATI's NEUSTEN Grafikprozessor! Marketing Glamur Pur! ;)

Diese Situation gab es ja noch nie, gleichzeitig mit dem Launch einer Spielekonsole gibt es im Desktopbereich die gleiche Technologie, d.b. Konsole und Desktop ziehen gleichauf von der Spieleperformance!

Das schmeckt MS sicher sehr gut!

Alles in allem sind wir aber im Speku-Forum und alles kann so kommen..........

Meistens kommt es unverhoft anders als mann denkt!

ShadowXX
2005-05-17, 09:08:20
IST nur eine logische Schlussfolgerung der letzten 24 Monate!

Erklärung:

Die 600GT ist 9700 von 2002, die 6600GT ist sehr erfolreich gewesen und hat die Patt-Situation (Marktanteile) erst für NV ermöglichlicht!
Es blieb NV gar nix anderes übrig als Sm3.0 vorzuziehen und bereits verfügbar zu machen obwohl alle Spiele noch mit Sm2.0 klarkommen.

Performancemässig tut sich nix viel zwischen beiden, ansonsten hätten Sie nicht aufholen können.

Jetzt kommt mit dem R520 aber gleich 3-Mal die Retourkutsche:

1. Sm3.0 HW
2. Top Performance gegenüber G70 (ATI 90nm Produktion und NV nur 110nm)
3. MVPU mit Abwärtskompabilität (R520 und X800-Serie)


Du kannst den Speed einer GPU nicht an der Fertigungstechnologie "erkennen", dann wäre ja auch ein nv30 in deinen Augen schneller als ein r300 (130 vs. 150).

Wie das SM3.0 beim r520 intergriert sein wird, weiss keine und erst recht nicht, ob diese Lösung schneller als die von nV ist.

Ob ATI das mit den "unterschiedlichen" Karten bei ihrer MVP-Lösung wirklich bebehält, wage ist doch glatt mal zu bezwifeln....spätestens wenn man 2 Karten unterschiedlicher Generationen (also eine SM2.0 und eine SM3.0 Karte) zusammenstecken will, wird das IMHO in die Hose gehen.


Als Bonus gibt es die NEUE Technologie ZEITGLEICH in der Xbox2 mit drin und die wird durch Jahresendgeschäft durch die Presse hoch und runter gehen!
Immer wieder der Verweis auf ATI's NEUSTEN Grafikprozessor! Marketing Glamur Pur! ;)

Diese Situation gab es ja noch nie, gleichzeitig mit dem Launch einer Spielekonsole gibt es im Desktopbereich die gleiche Technologie, d.b. Konsole und Desktop ziehen gleichauf von der Spieleperformance!

Das schmeckt MS sicher sehr gut!

Alles in allem sind wir aber im Speku-Forum und alles kann so kommen..........

Meistens kommt es unverhoft anders als mann denkt!

Der r500 und der r520 werden als grösste Gemeinsamkeit die "5" im Namen haben.....

Gassssssttttt
2005-05-17, 09:14:49
Ist dass der G70?

Playstation 3 Graphikchip:

GPU Nvidia RSX @550MHz
>300Mio Transistors
1.8 TFLOPS floating point
performance
Full HD (up to 1080p) x 2
channels
Multi-way programmable parallel
floating point shader
pipelines
256MB GDDR3 VRAM @700MHz
VRAM 22.4GB/s
RSX 20GB/s (write) + 15GB/s
(read)

Winter[Raven]
2005-05-17, 09:16:30
Ist dass der G70?

Playstation 3 Graphikchip:

GPU Nvidia RSX @550MHz
>300Mio Transistors
1.8 TFLOPS floating point
performance
Full HD (up to 1080p) x 2
channels
Multi-way programmable parallel
floating point shader
pipelines
256MB GDDR3 VRAM @700MHz
VRAM 22.4GB/s
RSX 20GB/s (write) + 15GB/s
(read)

Nein ist es nicht, die RSX könnte ähnlichkeiten mit dem NV50 haben, nicht zu vergessen ... KÖNNTE *gg*

Gastleser
2005-05-17, 09:23:06
Du kannst den Speed einer GPU nicht an der Fertigungstechnologie "erkennen", dann wäre ja auch ein nv30 in deinen Augen schneller als ein r300 (130 vs. 150).

...

Moin,

kurzer Zwischenruf:

90nm ermöglichen höhere Taktraten bei der GPU als 500MHz.
Das ist bekannt.

So ermöglichen 110nm nur max 500MHz!

Grüsse
Gastleser

pF3NG
2005-05-17, 09:25:34
http://www.computerbase.de/news/consumer_electronics/konsolen/microsoft/2005/mai/xbox_360_spezifikationen/
*LOL* lest euch das mal durch:

Die CPU ist somit schneller als alles, was es derzeit im PC-Bereich gibt - die GPU liegt jedoch mit ihrer Pixelfüllrate und ihrer Geschwindigkeit beim Berechnen von Polygonen nur etwa auf dem Niveau einer ATi Radeon X700 Pro. Angesichts der bei HDTV-Geräten üblichen Auflösungen, 1080i (1920 × 1080 Pixel) und 720p (1280 × 720 Pixel), scheint die GPU vor allem beim Einsatz von Anti-Aliasing etwas unterdimensioniert zu sein. Diese Technologie würde dann auch den von Microsoft angepriesenen embedded DRAM von 10 MB und einer Transferleistung von 256 GB/s überfordern, da die Framebuffer bei 4x FSAA in 1080i und und 720p 32 bzw. 14 MB groß sein müssten. Somit müsste für den Framebuffer auf die 512 MB GDDR3-Speicher zurückgegriffen werden, die der Konsole sowohl als Haupt- als auch als Grafikspeicher dienen und mit 22,4 GB/s an die GPU gebunden sind. Auch dies ist heutzutage nur noch Mittelmaß und wird von jeder High-End-Grafikkarte übertroffen, der EDRAM würde dann für andere Funktionen herhalten. Da sich die Leistungsfähigkeit eines Grafikchips nicht nur nach der Füllrate und der Speicherbandbreite beurteilen lässt, wird wohl erst die E3 vom 18. - 30. Mai näheres zeigen.
Was haltet ihr davon?

Gastleser
2005-05-17, 09:26:01
Der r500 und der r520 werden als grösste Gemeinsamkeit die "5" im Namen haben.....


Moin,

noch ein kurzer Zwischenruf!

Diese Aussage kann heute nicht belegt werden, es sei denn du hast eine R520 GPU und eine XBOX 2 auf dem Tisch liegen!

Grüsse
Gastleser

Demirug
2005-05-17, 09:31:06
Moin,

kurzer Zwischenruf:

90nm ermöglichen höhere Taktraten bei der GPU als 500MHz.
Das ist bekannt.

So ermöglichen 110nm nur max 500MHz!

Grüsse
Gastleser

Wer erzählt den sowas? Die maximale Taktfrequenz ergibt sich immer aus einer Kombination aus Chipdesign und Fertigungsprozess. Man könnte auch mit 100nm mehr als 500 MHz realisieren.

Gastleser
2005-05-17, 09:31:39
http://www.computerbase.de/news/consumer_electronics/konsolen/microsoft/2005/mai/xbox_360_spezifikationen/
*LOL* lest euch das mal durch:

Was haltet ihr davon?

Hallo,

Die Xbox2 GPU mit einer X700Pro zu vergleichen ist schon sehr unwissend & sehr dreist, für mich gehört dieses Bericht vom Computerbase leider in die Trashtonne!

Grüsse Gastleser

ShadowXX
2005-05-17, 09:31:49
Moin,

kurzer Zwischenruf:

90nm ermöglichen höhere Taktraten bei der GPU als 500MHz.
Das ist bekannt.

So ermöglichen 110nm nur max 500MHz!

Grüsse
Gastleser

Ja und......der nv30 war auch höher getaktet als der r300!

Und welches ist insgesamt gesehen der schneller Chip?


Moin,

noch ein kurzer Zwischenruf!

Diese Aussage kann heute nicht belegt werden, es sei denn du hast eine R520 GPU und eine XBOX 2 auf dem Tisch liegen!


ATI selbst (in Ihren Treibern) sieht den r520 innerhalb der r3x0-Familiy......es geht hier auch momentan keiner davon aus, das der r520 vom r500 abstammt.

mapel110
2005-05-17, 09:33:12
http://www.computerbase.de/news/consumer_electronics/konsolen/microsoft/2005/mai/xbox_360_spezifikationen/
*LOL* lest euch das mal durch:

Was haltet ihr davon?
Das hat mit diesem Thread hier wenig zu tun. Poste es in einen dieser Threads
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=219059
R500 vs R520
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=217983
XBox 360 Sammelthread - Alle Games, alle Bilder, alle Fakten

Gast
2005-05-17, 09:33:55
Wer erzählt den sowas? Die maximale Taktfrequenz ergibt sich immer aus einer Kombination aus Chipdesign und Fertigungsprozess. Man könnte auch mit 100nm mehr als 500 MHz realisieren.


Hallo,

Nein, das stimmt nicht, für den GPU Takt ist ausschiesslich der Fertigungsprozess verantwortlich, das Design hat damit nix zu tun, aber du hast natürlich recht, denn mit einer Wasserstoff-Kühlung ginge da was ;)

Gast
2005-05-17, 09:35:21
Ja und......der nv30 war auch höher getaktet als der r300!

Und welches ist insgesamt gesehen der schneller Chip?



ATI selbst (in Ihren Treibern) sieht den r520 innerhalb der r3x0-Familiy......es geht hier auch momentan keiner davon aus, das der r520 vom r500 abstammt.

Aha, anhand eines Treibereintrags wird das heute festgestellt :)

Demirug
2005-05-17, 09:38:23
Hallo,

Nein, das stimmt nicht, für den GPU Takt ist ausschiesslich der Fertigungsprozess verantwortlich, das Design hat damit nix zu tun, aber du hast natürlich recht, denn mit einer Wasserstoff-Kühlung ginge da was ;)

Ich empfehle eine Einführung in VLSI Design. Würde sicherlich nicht schaden.

Gast
2005-05-17, 09:39:42
Ich empfehle eine Einführung in VLSI Design. Würde sicherlich nicht schaden.

Nur für dich, Weiterbildung in Sachen Fertigungsprozesse :)

Zitat: Intel

Erklärung von Intel:

Ein feinerer Herstellungsprozess kostet zwar enorme Summen bei der Entwicklung, ermöglicht aber deutlich höhere Taktfrequenzen. Die Abstände der Leiterbahnen werden kleiner, Elektronen sind schneller am Ziel, die Reibungsverluste sinken. Kritische Schaltungen ("Gatter") vertragen plötzlich deutlich höhere Takte. Mit dem neuen 90-Nanometer-Prozess setzt Intel erstmals auch gestrecktes Silizium ein ("strained silicon"). Damit soll der Reibungswiderstand weiter gesenkt werden, Transistoren sollen schneller schalten. Umso höher die Spannung (und umso kleiner der Fertigungsprozess), umso schneller geht der Prozess vor sich.

TheGood
2005-05-17, 09:42:20
Hallo,

Nein, das stimmt nicht, für den GPU Takt ist ausschiesslich der Fertigungsprozess verantwortlich, das Design hat damit nix zu tun, aber du hast natürlich recht, denn mit einer Wasserstoff-Kühlung ginge da was ;)
aha und wie kommts dass ein pc prozessor über 3 ghz schafft und eine gpu nur knapp über 500 bei 0,09. Jetzt bin cih mal auf deine erklärung gespannt ;)

mapel110
2005-05-17, 09:42:57
aha und wie kommts dass ein pc prozessor über 3 ghz schafft und eine gpu nur knapp über 500 bei 0,09. Jetzt bin cih mal auf deine erklärung gespannt ;)
oder so, das erpsart mir das Schreiben. Ack. :)

Gast
2005-05-17, 09:45:13
Ich empfehle eine Einführung in VLSI Design. Würde sicherlich nicht schaden.

Im übrigen bezieht sich VLSI nur auf die Anzahl der möglichen Trans-Funktioneni 0/1 und nicht auf den Fertigungsprozess 90nm,110nm etc....

Demirug
2005-05-17, 09:51:33
Nur für dich, Weiterbildung in Sachen Fertigungsprozesse :)

Zitat: Intel

Erklärung von Intel:

Ein feinerer Herstellungsprozess kostet zwar enorme Summen bei der Entwicklung, ermöglicht aber deutlich höhere Taktfrequenzen. Die Abstände der Leiterbahnen werden kleiner, Elektronen sind schneller am Ziel, die Reibungsverluste sinken. Kritische Schaltungen ("Gatter") vertragen plötzlich deutlich höhere Takte. Mit dem neuen 90-Nanometer-Prozess setzt Intel erstmals auch gestrecktes Silizium ein ("strained silicon"). Damit soll der Reibungswiderstand weiter gesenkt werden, Transistoren sollen schneller schalten. Umso höher die Spannung (und umso kleiner der Fertigungsprozess), umso schneller geht der Prozess vor sich.

Ja und? Da steht nur das ein Gatter mit einem feinerer Prozess schneller schaltet. Das habe ich ja niemals abgestritten und könnte das auch nicht tun ohne gleichzeitig die Physik in Frage zu stelle. Ich habe lediglich geschrieben das man mit 110nm auch GPUs bauen kann die mit mehr als 500 MHz laufen.

Gast
2005-05-17, 09:52:45
oder so, das erpsart mir das schreiben. Ack. :)

Die MHz Zahl einer CPU wird aus dem Multiplikator und dem Frontside Bus errechnet

Gast
2005-05-17, 09:53:22
Ja und? Da steht nur das ein Gatter mit einem feinerer Prozess schneller schaltet. Das habe ich ja niemals abgestritten und könnte das auch nicht tun ohne gleichzeitig die Physik in Frage zu stelle. Ich habe lediglich geschrieben das man mit 110nm auch GPUs bauen kann die mit mehr als 500 MHz laufen.

Okay!!!!!!! 1:1

Demirug
2005-05-17, 09:57:36
Im übrigen bezieht sich VLSI nur auf die Anzahl der möglichen Trans-Funktioneni 0/1 und nicht auf den Fertigungsprozess 90nm,110nm etc....

Und erneut muss ich leider Frage wer erzählt das VLSI nur etwas mit der Anzahl der Funktionen zu tun hat?

Sicherlich ist der Fertigungsprozess beim VLSI Design nur am Rande interesant. Die meisten Schritte dabei kann man sogar ohne die Kenntniss des Fertigungsprozess durchführen. Wäre ja auch schlecht wenn man jedesmal wenn ein neuer Prozess kommt alle Tools wegwerfen müsste um sie durch neue zu ersetzen.

mapel110
2005-05-17, 09:58:25
Die MHz Zahl einer CPU wird aus dem Multiplikator und dem Frontside Bus errechnet
Was hat das damit zu tun? Die CPU läuft mit 3000 Mhz und mehr intern, nix gefaked, ebenso takten heutige GPUs maximal mit 540 Mhz.

TheGood
2005-05-17, 10:08:29
Was hat das damit zu tun? Die CPU läuft mit 3000 Mhz und mehr intern, nix gefaked, ebenso takten heutige GPUs maximal mit 540 Mhz.
was soll ich da mehr sagen!! :)

r3ptil3
2005-05-17, 10:38:02
Ja und......der nv30 war auch höher getaktet als der r300!

Und welches ist insgesamt gesehen der schneller Chip?



ATI selbst (in Ihren Treibern) sieht den r520 innerhalb der r3x0-Familiy......es geht hier auch momentan keiner davon aus, das der r520 vom r500 abstammt.

Das der R520 innerhalb der R3xx Familiy gehört stimmt schon teilweise, genau wie beim NV40 war auch eigentlich die weiterführung von FX halt nur mit einer stark verbesserten Architektur.
Jedoch obwohl der R520 innerhalb der R3xx Familiy gehört unterscheidet er sich und nicht nur wegen Shader Model 3 und evtl. mehr pipes sondern wegen der Architektur (ist zwar nicht offiziell aber stimmt zu 90% sicher).
Ich glaube kaum das ATI die Vorstellung des R520 verzögert um einen Chiptakt zu erzielen sondern z.B. wegen denn 800mhz Bausteinen von Samsuung.

Hauwech
2005-05-17, 10:58:04
Das der R520 innerhalb der R3xx Familiy gehört stimmt schon teilweise, genau wie beim NV40 war auch eigentlich die weiterführung von FX halt nur mit einer stark verbesserten Architektur.
Jedoch obwohl der R520 innerhalb der R3xx Familiy gehört unterscheidet er sich und nicht nur wegen Shader Model 3 und evtl. mehr pipes sondern wegen der Architektur (ist zwar nicht offiziell aber stimmt zu 90% sicher).
Ich glaube kaum das ATI die Vorstellung des R520 verzögert um einen Chiptakt zu erzielen sondern z.B. wegen denn 800mhz Bausteinen von Samsuung.

Und was hindert ATI daran schon jetzt einen R520 XT PE mit 700MHz RAM zu bringen, so schon Nvidia Kunden wegzuschnappen und meinetwegen einen R520 XT XPE/PEE/PEX mit 800MHz nachzuschieben und damit logischerweise noch mehr Kohle verlangen zu können? Ich garantiere, dass es genügend Leute gibt die dann auch noch aufrüsten würden.

ATI verliert durch das angebliche Warten auf schnelleren Speicher richtig Geld, Geld was Leute lieber jetzt schon in Nvidia Karten stecken.

r3ptil3
2005-05-17, 11:02:57
Und was hindert ATI daran schon jetzt einen R520 XT PE mit 700MHz RAM zu bringen, so schon Nvidia Kunden wegzuschnappen und meinetwegen einen R520 XT XPE/PEE/PEX mit 800MHz nachzuschieben und damit logischerweise noch mehr Kohle verlangen zu können? Ich garantiere, dass es genügend Leute gibt die dann auch noch aufrüsten würden.

ATI verliert durch das angebliche Warten auf schnelleren Speicher richtig Geld, Geld was Leute lieber jetzt schon in Nvidia Karten stecken.

Falsch!
Im High-End Berreich geht es nunmal um Leisung und Technik.
ATI will halt wie Nvidia im High-End Berreich vorne sein.
Die Firmen (ATi-Nvidia) wissen das mit dem High-End Berreich nicht sehr viel Geld machen kann, dafür ist das untere und mittlere Grafikkartensegment da. High-End dient eigentlich vorallem für gutes Marketing.

Gast
2005-05-17, 11:04:23
ATI verliert durch das angebliche Warten auf schnelleren Speicher richtig Geld, Geld was Leute lieber jetzt schon in Nvidia Karten stecken.
Ack.
Wenn die wirklich nur auf schnelleren Speicher warten, ist das Dummheit.

r3ptil3
2005-05-17, 11:05:01
Ack.
Wenn die wirklich nur auf schnelleren Speicher warten, ist das Dummheit.

Begründung?

Gast
2005-05-17, 11:06:11
Begründung?
Siehe Text von Hauwech.
Was gibt es daran nicht zu verstehen?

r3ptil3
2005-05-17, 11:07:34
Siehe Text von Hauwech.
Was gibt es daran nicht zu verstehen?

Lies mal meine Antwort darauf.

Hauwech
2005-05-17, 11:15:50
Falsch!
Im High-End Berreich geht es nunmal um Leisung und Technik.
ATI will halt wie Nvidia im High-End Berreich vorne sein.
Die Firmen (ATi-Nvidia) wissen das mit dem High-End Berreich nicht sehr viel Geld machen kann, dafür ist das untere und mittlere Grafikkartensegment da. High-End dient eigentlich vorallem für gutes Marketing.

Dann erkläre mir doch mal, warum man die komplette R5xx Linie nicht schon jetzt bringt, wenn das große Geld eben im mittleren und unteren Segment liegt weil man mit den dicken Karten eh kaum Geld verdient?

Warum soll ATI auf 800MHz für HighestEnd warten, wenn die Karten im mittleren und unterem Segment schon bereit stehen und vor allem leistungsmässig mindestens gleich den Nv Karten sind?

Wen interessiert HighestEnd, wenn er in Tests lesen kann, dass zB eine X750Pro, wofür sein Geld nur reicht, eine 6600GT oder 6800 locker abzieht?

ädit:
Nebenbei sieht man an den neuen Zahlen, dass Schnellster sein, sich eben _nicht_ in Geld umschlägt. Warum führt Nvidia denn mit 70:30 unter DX9? (ädit2: SLI kann ja wohl kaum dafür verantwortlich sein.) Die Leute haben damals, neben den OEMs, wie bekloppt FX5200 gekauft, an der schlechten Leistung unter DX9 der FX5800/900/950 hat sich von den Käufern anscheinend auch keiner groß gestört.

seahawk
2005-05-17, 11:22:13
Manchmal wünschte ich mir hier würde mal wieder etwas mehr Realitätssinn Einzug halten.

ATI sollte keinerlei Probleme haben jetzt hinreichend Testsamples mit 800MHZ DDR Speicher von Samsung zu erzeugen. Diese PE könnte man zum Erringen der Leistungskrone in den Test schicken (Verfügbarkeit im Handel fraglich) und gleichzeitig den Markt mit einer 700MHZ DDR Version beschicken.

r3ptil3
2005-05-17, 11:23:28
Dann erkläre mir doch mal, warum man die komplette R5xx Linie nicht schon jetzt bringt, wenn das große Geld eben im mittleren und unteren Segment liegt weil man mit den dicken Karten eh kaum Geld verdient?

Warum soll ATI auf 800MHz für HighestEnd warten, wenn die Karten im mittleren und unterem Segment schon bereit stehen und vor allem leistungsmässig mindestens gleich den Nv Karten sind?

Wen interessiert HighestEnd, wenn er in Tests lesen kann, dass zB eine X750Pro, wofür sein Geld nur reicht, eine 6600GT oder 6800 locker abzieht?


ATI wartet ja wahrscheinlich was Nvidia rausbringt . Wie schon gesagt High-End dient vorallem für gutes Marketing.

Es werden immer zuerst High-End Karten vorgestellt die geben den Grundstein für die Architektur her.

Hast du nicht gesehen das ATI einen grösseren Markanteil hat als Nvidia, vorallem dank dem unterem mittleren und Notebook Segment.

seahawk
2005-05-17, 11:25:35
Aber NV muss doch gar nicht hndeln das gehobene und mittlere Desktopsegment läuft für sie.

Die müssen eher an der Mobileserie arbeiten. Imho kann NV eher warten als ATI.