Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

ShadowXX
2005-06-17, 21:21:36
Ich vermute außerdem, daß ein typisches XBox 360-Spiel ein Mehrfaches der Polygone eines typischen PC-Spiels mind. der nächsten zwei Jahre haben wird,


Woran machst du das fest? Nach den technische Daten des Xenos sehe ich das nicht unbedingt....

Konsolenspiele dürfen nicht ruckeln - PC-Spiele schon. ;)

Ich kenne mehrere Konsolenspiele die durchaus ruckeln.....

Quasar
2005-06-17, 21:42:34
Woran machst du das fest? Nach den technische Daten des Xenos sehe ich das nicht unbedingt....
Das mache ich eher an der CPU-Leistung fest. Diese in Verbindung mit der VS-Power machen deutlich komplexere Games was den Poly-Count angeht möglich, als beim PC, wo ja auf den "Durchschnitts-PC" Rücksicht nehmen muss.


Ich kenne mehrere Konsolenspiele die durchaus ruckeln.....
So? 15 fps? Oder was schätzt du?

robbitop
2005-06-17, 21:54:29
Nein, das hab ich AFAIK von dir auf-geschnappt. ;)
Bei mir gings aber um SRAM und nicht um DRAM. ;)
Dort ist die Packungsdichte in der Tat deutlich anders als bei Logiktransistoren. Wie es mit DRAM steht, weiß ich nicht. Kann mir aber vorstellen, dass es sich ähnlich verhält.

ShadowXX
2005-06-17, 23:12:11
Das mache ich eher an der CPU-Leistung fest. Diese in Verbindung mit der VS-Power machen deutlich komplexere Games was den Poly-Count angeht möglich, als beim PC, wo ja auf den "Durchschnitts-PC" Rücksicht nehmen muss.


Ich halte nicht viel von der XBox360 CPU....aber das ist eine andere sache.

Wir werden sehen, inwieweit Konsolenportierungen von den NextGens wirklich Rücksicht auf den "Durchschnitts-PCs" nehmen werden......


So? 15 fps? Oder was schätzt du?

Auch mal in Richtung 1-2 FPS.....schon öfter auf XBox und GC mitbekommen. Bei der PS2 soll es auch ein paar Kandidaten geben.

Coda
2005-06-17, 23:26:02
Bei mir gings aber um SRAM und nicht um DRAM. ;)
Dort ist die Packungsdichte in der Tat deutlich anders als bei Logiktransistoren. Wie es mit DRAM steht, weiß ich nicht. Kann mir aber vorstellen, dass es sich ähnlich verhält.Alles was eine gleichmäßige Struktur hat lässt sich dichter packen.

robbitop
2005-06-17, 23:44:20
Alles was eine gleichmäßige Struktur hat lässt sich dichter packen.
Das dachte ich mir schon fast. Danke :)

Quasar
2005-06-18, 00:09:03
Wir werden sehen, inwieweit Konsolenportierungen von den NextGens wirklich Rücksicht auf den "Durchschnitts-PCs" nehmen werden......
Ich meinte nicht speziell Konsolenprotierungen, sondern PC-Games allgemein.

Auch mal in Richtung 1-2 FPS.....schon öfter auf XBox und GC mitbekommen. Bei der PS2 soll es auch ein paar Kandidaten geben.
Oha - das war mir neu. Überhitzung/Fehlfunktion ausgeschlossen?

ShadowXX
2005-06-18, 00:37:51
Ich meinte nicht speziell Konsolenprotierungen, sondern PC-Games allgemein.


Wenn ich mir den HW-Hunger der letzten Games so angucke, bin ich mir auch da nicht mehr so sicher, als wenn wirklich noch auf "normale" Durchschnittsrechner rücksicht genommen wird.

Guck mal im Gamesforum, wie viele inzwischen selbst bei neueren Strategiegames über die HW-Anforderungen stönen.

Und wenn ich mir die Featureliste von AOE3 so angucke, wird das unter einem 3GHz PC mindestens einer 6600GT und 1Gig Ram nicht so dolle laufen....

Von anderen aktuellen im Ego-Shooter etc. Bereich gar nicht zu reden.

Vielleicht bemerken die Devs und Publisher ja langsam, das wer auf dem PC Gamed meist sowieso etwas bessere HW hat.

Und das sind auch die die am meisten Games kaufen......


Oha - das war mir neu. Überhitzung/Fehlfunktion ausgeschlossen?

Jupps.....ist ja auch nicht so das das dann ewig ruckelt....aber für 1-3 secs. kann man das mal öfters betrachten.

Es soll laut Forenberichten sogar Games geben die wirklich fast durchgehen leicht ruckeln....solche hab ich persönlich aber noch nicht in den Händen gehabt.

Es gibt auch Games mit Bugs (nichts wirklich heftiges natürlich)....auf der XBox hab ich schon öfter davon gehört und auch bei der PS2 soll sowas vorkommen.

Es sind auch meist keine AA oder AAA Titel....aber AAA Titel sind von sowas nicht völlig "befreit": z.B. Forza Motorsports für die XBox soll öfter mal "Denkpausen" einlegen. (weshalb es auch mehrere verfluchen)

Oder True Crime auf dem GC...das ruckelt auch ganz gerne mal....mir ist bei dem Game der GC sogar ein paar mal abgesemmelt.....reproduzierbar auf anderen GCs.

Ich sehe sowieso die "heile Konsolenwelt" in dieser Richtung etwas in Gefahr. Alle 3 (MS,Sony und BigN) setzen stark auf I-Net-Connectivität.
Bei allen 3 wird zumindest der Grunddienst auch umsonst sein......

Ich sehe dort durchaus die "Gefahr", das Sie doch irgendwann anfangen die Games zu patchen....wenn wohl auch meisten dann netter genannt und besser verpackt.

Es wird wohl nicht dem Level wie Teilweise beim PC annehmen....aber bei so Kleinigkeiten, die mit dem Download ein paar neuer Maps "zufällig" auch verschwinden könnten kommen.

Ailuros
2005-06-18, 01:28:55
Weil die Füllraten weit schneller steigen, als die verfügbaren Bandbreiten (es sei denn, G70 od. R520 kommen zur allg. Überraschung doch noch mit 512Bit-DDR).

Und gleichbleibende Scores in "normalen" Games lassen sich schlecht als "ub0r"-GPU verkaufen.

Ich dachte es geht ueber Multi- und nicht Supersampling :P Ausser den sample-loops die tatsaechlich etwas an Fuellrate schlucken fuer =/>4xAA, ist die Fuellrate eigentlich Nebensache fuer MSAA.

Ich wuerde das Ganze ja auch mit einem anderen Auge betrachten wenn Xenos mit 10MB viel mehr samples als im PC erlauben wuerde. Ich hab immer noch Zweifel dass die Entwickler durchgehend 4xMSAA@720p auf XBox360 verwenden werden.

Die ultimate Loesung fuer IMRs waere einen analytischen Algorithmus zusammenzuschrauben wenn HW etwas staerker wird, der in etwa als "two pass mechanismus" (so in etwa wie early-Z) arbeitet. In dem Fall koennte man genauso viel Bandbreite sparen wie ein TBDR mit AA, aber nur auf Multisampling begrenzt.

BTW, da fällt mir noch 'ne Spinnerei ein:
Das Parent-Die bleibt, wie es ist (also mit normalen 2-Sample-ROPs), aber für's High-End gibt's noch einen Daughter-Die mit eDRAM und nochmals derselben Anzahl ROPs.
Wäre fein zu Skalierungszwecken zwischen UHE, HE und Mid-Range.

Also mir war die Antwort von Xmas klar genug ;)

Quasar
2005-06-18, 11:46:59
Ich dachte es geht ueber Multi- und nicht Supersampling :P Ausser den sample-loops die tatsaechlich etwas an Fuellrate schlucken fuer =/>4xAA, ist die Fuellrate eigentlich Nebensache fuer MSAA.
Ich glaube, wir reden aneinander vorbei.
Worum es mir bei dieser Spekulation geht, ist, daß zukünftige GPUs trotz nahezu stagnierender Speicherbandbreite (solange wir bei 256Bit bleiben) irgendwie "schneller" werden müssen, um sie für unproportional viel Geld an den Mann zu bringen. Das Ganze ist ja schon jetzt beinahe eine Farce - 1600x1200 und höher... Dazu haben vielleicht 5-10% aller Gamer die Möglichkeit.

Wenn ich nun wahnsinnig viel Füllrate habe, aber gleichbleibende Bandbreite und MSAA nunmal primär Speicherbandbreite kostet, dann wird der Leistungsunterschied der GPUs an sich ganz schnell vom Speicher wieder aufgefressen - und hier soll, meiner Spekulation zufolge, das eDRAM einen Schub geben, so daß MSAA (auch 4 oder 6x) quasi for free zu haben ist.

Ich wuerde das Ganze ja auch mit einem anderen Auge betrachten wenn Xenos mit 10MB viel mehr samples als im PC erlauben wuerde. Ich hab immer noch Zweifel dass die Entwickler durchgehend 4xMSAA@720p auf XBox360 verwenden werden.
Xenos hat, abgesehen vom eDRAM, die Hälfte der Bandbreite einer aktuellen GPU zur Verfügung. Hier ist das Ausreichen des eDRAM quasi Mandat - sonst gibt's einen ziemlich tiefen Fall der Leistungskurve.

Also mir war die Antwort von Xmas klar genug ;)
Mir nicht - einfach nur "Xenos tut's nicht - wird schon seinen Grund haben" finde ich zwar nachvollziehbar, aber nicht sehr aufschlußreich. Der Vergleich mit Holz- und Metallrümpfen von Schiffen drängt sich auf. ;)

Ailuros
2005-06-18, 14:01:30
Ich glaube, wir reden aneinander vorbei.
Worum es mir bei dieser Spekulation geht, ist, daß zukünftige GPUs trotz nahezu stagnierender Speicherbandbreite (solange wir bei 256Bit bleiben) irgendwie "schneller" werden müssen, um sie für unproportional viel Geld an den Mann zu bringen. Das Ganze ist ja schon jetzt beinahe eine Farce - 1600x1200 und höher... Dazu haben vielleicht 5-10% aller Gamer die Möglichkeit.

Interne Shader-Fuellrate (wenn man es so nennen kann) geht aber bei weitem nicht verloren und um diese geht es auch bei solchen Designs.

Wieviel Bandbreite schaetzt Du steht dem kommenden SEGA Arcade System zur Verfuegung? Nein ich moechte Dich jetzt nicht verwirren, nur ein Gedankensporn.

Wenn ich nun wahnsinnig viel Füllrate habe, aber gleichbleibende Bandbreite und MSAA nunmal primär Speicherbandbreite kostet, dann wird der Leistungsunterschied der GPUs an sich ganz schnell vom Speicher wieder aufgefressen - und hier soll, meiner Spekulation zufolge, das eDRAM einen Schub geben, so daß MSAA (auch 4 oder 6x) quasi for free zu haben ist.

Ich sehe aber keinen effektiven Weg mit meinem begrenzten Wissen und meiner laienhaften Rechnerei der fuer weniger als 30MB eDRAM fuer einen PC chip sprechen wuerde; klingt mir momentan verdammt teuer in HW fuer das was man bekommt. Ach ja 4x oder 6xAA aber das haben wir jetzt schon im PC.

Xenos hat, abgesehen vom eDRAM, die Hälfte der Bandbreite einer aktuellen GPU zur Verfügung. Hier ist das Ausreichen des eDRAM quasi Mandat - sonst gibt's einen ziemlich tiefen Fall der Leistungskurve.

Bingo! Die Frage ist dann eher ob die Skalierung von Speicherfrequenzen in der absehbaren Zukunft billiger ist, als eDRAM und dessen Implementierungs und Transistoren-Aufwand. GDDR4 geschaetzt fuer Ende 2005 soll maximal bis zu 1400MHz theoretisch liefern koennen; minus das uebliche Marketing-geblubber bei 1000MHz@256bit sind wir schon bei fast der doppelten Bandbreite einer NV40 fuer 2006. =/>60GB/s Bandbreite und 512MB framebuffer werden wohl naechstes Jahr um einiges mehr erlauben als selbst 30MB eDRAM und ueberhaupt wenn es zu MSAA+ float HDR Kombinationen kommt denn irgendwann muss das Ganze auch moeglich sein.

Mehr als 13-14GPixels/sec Fuellrate fuer 2006 schaetze ich persoenlich sowieso nicht.

Mir nicht - einfach nur "Xenos tut's nicht - wird schon seinen Grund haben" finde ich zwar nachvollziehbar, aber nicht sehr aufschlußreich. Der Vergleich mit Holz- und Metallrümpfen von Schiffen drängt sich auf. ;)

Damit wir hier nicht um den Brei reden Xenos tut es tatsaechlich nicht; das im ersten Paragraph wird wohl maximal 64xAA mit float HDR in 1024*768 kombinieren koennen. Zwar eine extreme Marketing-Geblubber Nummer, aber geht man auf 4xMSAA + 64bpp HDR runter in HDTV Aufloesungen ist der Bandbreiten und Speicher-verbrauch so minimal wie er ueberhaupt sein kann.

Diese viewport Methode die ATI im eDRAM benutzt und die vielleicht sogar einiges mit Quantum3D's "performance tiling" gemeinsam haben koennte ist natuerlich interessant, aber ich sehe nicht ein wieso man unbedingt eDRAM dafuer braucht.

Ich kann Quantum's Seite momentan nicht erreichen aber wie schon erwaehnt (?) schaffen sie mit mehreren Quadros und dem Clarity Algorithmus/performance tiling bis zu 64xRGSS.

Quasar
2005-06-18, 16:30:50
Interne Shader-Fuellrate (wenn man es so nennen kann) geht aber bei weitem nicht verloren und um diese geht es auch bei solchen Designs.
Wieviel Bandbreite schaetzt Du steht dem kommenden SEGA Arcade System zur Verfuegung? Nein ich moechte Dich jetzt nicht verwirren, nur ein Gedankensporn.
Mit reiner Shader-Füllrate machen sie aber die üblichen Reviews gar nicht gut, denn was ist denn schon rein shaderlimitiert?
Und nein, ich habe weder eine Ahnung noch irgendeinen Anhaltspunkt, was Arcade-Consolen angeht.

Ich sehe aber keinen effektiven Weg mit meinem begrenzten Wissen und meiner laienhaften Rechnerei der fuer weniger als 30MB eDRAM fuer einen PC chip sprechen wuerde; klingt mir momentan verdammt teuer in HW fuer das was man bekommt. Ach ja 4x oder 6xAA aber das haben wir jetzt schon im PC.
30 MByte wären vermutlich wirklich extrem unwirtschaftlich, da gebe ich dir durchaus Recht. Aber die Frage ist ja, ob man mit einer kleineren Menge (auch <10MB) ebenfalls einen Effekt erreichen könnte, der, zusammen mit den Einsparungen am Parent-die und der größeren Flexibilität, was Performance-Scaling angeht, die Sache doch attraktiv gestalten könnte.
Bingo! Die Frage ist dann eher ob die Skalierung von Speicherfrequenzen in der absehbaren Zukunft billiger ist, als eDRAM und dessen Implementierungs und Transistoren-Aufwand. GDDR4 geschaetzt fuer Ende 2005 soll maximal bis zu 1400MHz theoretisch liefern koennen; minus das uebliche Marketing-geblubber bei 1000MHz@256bit sind wir schon bei fast der doppelten Bandbreite einer NV40 fuer 2006. =/>60GB/s Bandbreite und 512MB framebuffer werden wohl naechstes Jahr um einiges mehr erlauben als selbst 30MB eDRAM und ueberhaupt wenn es zu MSAA+ float HDR Kombinationen kommt denn irgendwann muss das Ganze auch moeglich sein.
XDR, GDDR4, 512Bit usw. sind genauso ein Schritt heraus aus der Bandbreitenfalle - ja.
Allerdings sehe ich weder GDDR4 noch XDR bereits markttauglich und auch 512Bit-DDR scheinen wohl noch nicht geplant zu sein.

Fakt ist und bleibt aber, daß man sich bei 600MHz GDDR3 ggü. 550MHz GDDR3 der letzten Generation bei gleichzeitig deutlich gestiegener Füllrate (Texel, Shader, Whatever) irgendwann fragen muss, wie man bei der angepriesenen 16x12x3+4xAA+16xAF Einstellung noch vernünftig längere Balken herzaubern soll?

Nicht, daß mir längere Balken etwas bedeuten würden - lieber hätte ich schönere Bilder - aber das Marketing hat die User ja seit Jahren auf nichts anderes getrimmt.

Ailuros
2005-06-19, 13:48:26
Ich schick Dir mal eine PM und dann kann's weiter gehen....

micki
2005-06-19, 13:51:44
So? 15 fps? Oder was schätzt du?
Champions of norrath ruckelt sich manchmal total einen ab. und es gibt einige spiele die sehr ruckeln, was verwunderlich ist, da die hersteller ja die plattform genau kennen und eigentlich dann zur not die hätten einiges optimieren müssen.

MfG
micki

robbitop
2005-06-19, 13:56:12
Ich schick Dir mal eine PM und dann kann's weiter gehen....
Du könntest mir auch eine zukommen lassen :D

Ailuros
2005-06-19, 14:12:10
Mit reiner Shader-Füllrate machen sie aber die üblichen Reviews gar nicht gut, denn was ist denn schon rein shaderlimitiert?
Und nein, ich habe weder eine Ahnung noch irgendeinen Anhaltspunkt, was Arcade-Consolen angeht.

Da wir momentan ueber eDRAM auf Xenos reden, ist Bandbreite auf Consolen - da es sich nur um 720p handelt - weniger wichtig als arithmetischer througput.

Was genau passiert auf Xenos wenn man auf eine "off screen" Flaeche rendern will oder ein paar shadow maps als Beispiel?

30 MByte wären vermutlich wirklich extrem unwirtschaftlich, da gebe ich dir durchaus Recht. Aber die Frage ist ja, ob man mit einer kleineren Menge (auch <10MB) ebenfalls einen Effekt erreichen könnte, der, zusammen mit den Einsparungen am Parent-die und der größeren Flexibilität, was Performance-Scaling angeht, die Sache doch attraktiv gestalten könnte.

Nochmal wenn man mit weniger als 10MB so viel erreichen koennte, dann spinnen eigentlich die IHVs dass sie es noch nicht eingesetzt haben.

Mal anders rum da RSX naeher an einer PC GPU liegt, wer sagt Dir eigentlich dass das Ding mit 4xMSAA@720p einen Nachteil haben koennte? 2xMSAA bekommt man "for free" und ein weiterer loop fuer 4x kostet etwas mehr an Fuellrate.

RSX (nach bisherigen Daten, die aber nicht stimmen muessen) = 13.2GPixels/s vs 8.0GPixels/s Xenos.

XDR, GDDR4, 512Bit usw. sind genauso ein Schritt heraus aus der Bandbreitenfalle - ja.
Allerdings sehe ich weder GDDR4 noch XDR bereits markttauglich und auch 512Bit-DDR scheinen wohl noch nicht geplant zu sein.

ATI/NVIDIA haben G80 und R580 mit GDDR4 im Hinterkopf geplant. Fuer 512bit wird es noch einige Zeit dauern. Lies mal meine PM genau durch und sag mir dann wie wirklich toll die PR-Bandbreiten Nummern vom Xenos eDRAM wirklich sind.

Fakt ist und bleibt aber, daß man sich bei 600MHz GDDR3 ggü. 550MHz GDDR3 der letzten Generation bei gleichzeitig deutlich gestiegener Füllrate (Texel, Shader, Whatever) irgendwann fragen muss, wie man bei der angepriesenen 16x12x3+4xAA+16xAF Einstellung noch vernünftig längere Balken herzaubern soll?

Na und? Die externe Speicherverbindung von RSX ist ja noch kleiner, eben natuerlich weil man auf 720p maximal zielt und genauso gleiches gilt auch die alternative Xenos Architektur mit 10MB eDRAM.

Nach oeffentlich bekannten Daten und nach dem Xenos Design sieht es auf keinen Fall danach aus, dass weder 10MB oder sogar weniger fuer den PC ausreichen koennten. Ich finde meine 30MB Schaetzung eigentlich verdammt konservativ, denn nochmal ich will frueher oder spaeter auch float HDR+MSAA Kombinationen sehen.

Nicht, daß mir längere Balken etwas bedeuten würden - lieber hätte ich schönere Bilder - aber das Marketing hat die User ja seit Jahren auf nichts anderes getrimmt.

Laengere Balken ergo hoehere Leistung lassen auch logischerweise mehr Luftraum wir mehr Effekte. Mal was anderes wie sahen die eDRAM-Balken auf den Bitboys-Vaporware Designs genau aus und ueberhaupt mit multi-chip configs da man mit diesen die Konkurrenz schlagen wollte?

-error-
2005-06-20, 18:28:22
R520 has 32 Pixel Pipelines?

YES!

Ich habe das Glück, oder wie man es auch immer nennen will, von einem aus meiner ICQ Liste die Informationen bekommen zu haben, dass der R520 32 Pixel Pipelines haben wird. Ob aktiv oder nicht, ist dabei nicht klar.

Warum hat der aus meiner ICQ-Liste Kontakte? Nun, er arbeitet da, wo man an diese leichter herankommt.

Mehr darf und will ich nicht sagen.

Glaubt es oder nicht.

Ich habe keinen Nutzen die Unwahrheit zu posten, zumal ich eh kein Insider bin, ich habe das geschrieben, was er mir geschrieben hat.

wuzetti
2005-06-20, 18:34:10
R520 has 32 Pixel Pipelines?

YES!

Ich habe das Glück, oder wie man es auch immer nennen will, von einem aus meiner ICQ Liste die Informationen bekommen zu haben, dass der R520 32 Pixel Pipelines haben wird. Ob aktiv oder nicht, ist dabei nicht klar.

Warum hat der aus meiner ICQ-Liste Kontakte? Nun, er arbeitet da, wo man an diese leichter herankommt.

Mehr darf und will ich nicht sagen.

Glaubt es oder nicht.

Ich habe keinen Nutzen die Unwahrheit zu posten, zumal ich eh kein Insider bin, ich habe das geschrieben, was er mir geschrieben hat.

2 fragen dazu:

a) ich hoffe, ich bin nicht der einzige, der nicht weiss, was eine ICQ liste ist. bitte hilf mir auf die sprünge, danke!
b) besteht eventuell die möglichkeit, dass dein kontakt einer fehlinformation aufgesessen ist?

3d
2005-06-20, 18:40:10
1. bist wohl der einzige in den unendlichen weiten des WWW, der ICQ nicht kennt. :biggrin: das ist so eine art "chat". :D
2. ich würde sagen, ja.

3. ich hoffe es stimmt, am besten noch mit 512bit speicherinterface. :smile:

Black-Scorpion
2005-06-20, 18:41:25
ICQ = Messenger
ICQ Liste = Kontakte

mapel110
2005-06-20, 18:42:19
R520 has 32 Pixel Pipelines?

YES!

Ich habe das Glück, oder wie man es auch immer nennen will, von einem aus meiner ICQ Liste die Informationen bekommen zu haben, dass der R520 32 Pixel Pipelines haben wird. Ob aktiv oder nicht, ist dabei nicht klar.

Warum hat der aus meiner ICQ-Liste Kontakte? Nun, er arbeitet da, wo man an diese leichter herankommt.

Mehr darf und will ich nicht sagen.

Glaubt es oder nicht.

Ich habe keinen Nutzen die Unwahrheit zu posten, zumal ich eh kein Insider bin, ich habe das geschrieben, was er mir geschrieben hat.
Da es vor Kurzem die selbe Meldung vom Inquirer gab, glaube ich es nicht. :)

-error-
2005-06-20, 18:43:27
2 fragen dazu:

a) ich hoffe, ich bin nicht der einzige, der nicht weiss, was eine ICQ liste ist. bitte hilf mir auf die sprünge, danke!
b) besteht eventuell die möglichkeit, dass dein kontakt einer fehlinformation aufgesessen ist?

a) Wenn die Frage denn ernst gemeint ist, ICQ ist ein InstantMessenger. Jeder hat dabei eine Liste mit Kontakten.

b) 2 Personen von ATI selbst sollen dies behauptet haben, der andere ist vom Kontakt her leichter zu erreichen und ist als Insider zu bezeichen, in Foren findet er Anerkennung.

Das der R520 32 PixelPipelines haben wird, sagen alle diese 3 aus. Nur ob aktiviert oder nicht, ist die Frage.

Was man daraus impretiert bleibt jeden selbst überlassen. Ich betone hierbei nochmal wo er arbeitet, das ist ja eben das Glaubwürdige. Den von da aus, hat man natürlich mehr Kontakte. Eer hat es mir auch bewießen, dass er dort arbeitet.

Bezüglich Präzisierungen halte ich den Rand.

wuzetti
2005-06-20, 18:45:22
1. bist wohl der einzige in den unendlichen weiten des WWW, der ICQ nicht kennt. :biggrin: das ist so eine art "chat". :D


au weia! :redface:
*zurkenntnisnehm*

3d
2005-06-20, 18:52:18
naja, nicht so schlimm. hauptsache du kennst google. kennst du doch, oder? :wink:

wann soll nochmal der R520 vorgestellt werden?
gibts ein genauen termin oder nur 3 quartal?

Gast
2005-06-20, 18:53:48
gibts ein genauen termin oder nur 3 quartal?
Ende Juli, der 26. war es glaube ich.

Gast
2005-06-20, 18:56:13
wie geil, ati fährt wieder voll ab und baut nen üb0r chip wenn das mit den 32 pipelines stimmt^^

aber das würde auch die (angeblich) derben probs mit 90nm bei tsmc erklären :-(

wuzetti
2005-06-20, 19:02:47
a) Wenn die Frage denn ernst gemeint ist, ICQ ist ein InstantMessenger. Jeder hat dabei eine Liste mit Kontakten.
ja, verdammt. hätte nicht so dumm fragen sollen......

b) 2 Personen von ATI selbst sollen dies behauptet haben, der andere ist vom Kontakt her leichter zu erreichen und ist als Insider zu bezeichen, in Foren findet er Anerkennung.

Das der R520 32 PixelPipelines haben wird, sagen alle diese 3 aus. Nur ob aktiviert oder nicht, ist die Frage.

Was man daraus impretiert bleibt jeden selbst überlassen. Ich betone hierbei nochmal wo er arbeitet, das ist ja eben das Glaubwürdige. Den von da aus, hat man natürlich mehr Kontakte. Eer hat es mir auch bewießen, dass er dort arbeitet.

Bezüglich Präzisierungen halte ich den Rand.

schaun wir mal, aber ich bin immer noch skeptisch!

Indian Guest
2005-06-20, 19:03:59
R520 has 32 Pixel Pipelines?

YES!

Ich habe das Glück, oder wie man es auch immer nennen will, von einem aus meiner ICQ Liste die Informationen bekommen zu haben, dass der R520 32 Pixel Pipelines haben wird. Ob aktiv oder nicht, ist dabei nicht klar.

Warum hat der aus meiner ICQ-Liste Kontakte? Nun, er arbeitet da, wo man an diese leichter herankommt.

Mehr darf und will ich nicht sagen.

Glaubt es oder nicht.

Ich habe keinen Nutzen die Unwahrheit zu posten, zumal ich eh kein Insider bin, ich habe das geschrieben, was er mir geschrieben hat.


Thats R I G H T :) -32-

Der Komische.
2005-06-20, 19:09:11
SChön 32 Pipes.:9 Nur ob es was bringt ist ne andere frage.Ich glaube mehr takt bringt mehr leistung.

Godmode
2005-06-20, 19:12:25
Ich möchte wissen wie hoch die diesen Chip dann taken wollen? Wenn sie wirklich auf 650 MHz wollen, dann braucht man dazu schon ein derb fettes Speicherinterface damit die GPU nicht verhungert.

another Indian Guest
2005-06-20, 19:15:54
Thats R I G H T :) -32-
my sources told me of 16 Pipes. :)

seahawk
2005-06-20, 19:30:30
Alles eine Frage der Zählweise. Und gerade an Tagen wie diesen würde ich keiner Nachricht von ATI, die unter der Hand ins ICQ geht, glauben.

Gast
2005-06-20, 19:30:37
how old is your information ? 2 years ? ;)

Gast
2005-06-20, 19:31:37
Ich hab Infos dass es ein 650MHz Chip mit 16 Pipes wird.

r3ptil3
2005-06-20, 19:46:03
Ich könnte auch als Gast sagen das ich Infos habe das der R520 soviel und soviel hat, aber ob das auch glaubwürdig ist... :rolleyes:

-error-
2005-06-20, 20:23:59
Ich könnte auch als Gast sagen das ich Infos habe das der R520 soviel und soviel hat, aber ob das auch glaubwürdig ist... :rolleyes:

Er ist es ;)

Gast
2005-06-20, 20:26:47
Er ist es ;)
Mag sein...
Warten wir es ab. :)
Wer sich eine G70-Karte holt bevor der R520 vorgestellt wird, ist selber schuld...

-error-
2005-06-20, 20:28:03
Alles eine Frage der Zählweise. Und gerade an Tagen wie diesen würde ich keiner Nachricht von ATI, die unter der Hand ins ICQ geht, glauben.


Wer sagt denn, dass die 2 Mitarbeiter von ATI einen Plausch über ICQ mit den Arbeitgeber von Indian Guest hatten? Glaub mir, die Firma kommt schon an andere Informationen bezüglich ATI heran.

Gast
2005-06-20, 20:34:22
Ich könnte auch als Gast sagen das ich Infos habe das der R520 soviel und soviel hat, aber ob das auch glaubwürdig ist... :rolleyes:

Du kannst das mit 16P@650 glauben oder nicht, du wirst es sicher bald aus anderen Quellen erfahren.

Gast
2005-06-20, 20:43:26
alle freuten sich schon auf 32 pipes und nun 16 :D

ob man mit 16 pipes und hohen takt an 24 pipes und lahmen takt vorbei ziehn kann hm

Gast
2005-06-20, 20:47:39
haben die x800 karten 16x1 design und der r520 16x2 ?

Gast
2005-06-20, 20:49:32
haben die x800 karten 16x1 design und der r520 16x2 ?

R520 soll ein 16x1 Design sein, aber eben mit viel Takt. Ob das reicht um den G70 zu schlagen kann ich nicht sagen.

Gast
2005-06-20, 20:49:35
alle freuten sich schon auf 32 pipes und nun 16 :D

ob man mit 16 pipes und hohen takt an 24 pipes und lahmen takt vorbei ziehn kann hm
Abwarten.
Dauert ja nicht mehr so lange, bis der R520 vorgestellt wir.
Sollte der R520 wirklich 32 Pipes besitzen, kann Nvidia einpacken...

Gast
2005-06-20, 21:20:46
Abwarten.
Dauert ja nicht mehr so lange, bis der R520 vorgestellt wir.
Sollte der R520 wirklich 32 Pipes besitzen, kann Nvidia einpacken...

Genau, das gleiche haben alle nach dem FX Debakel gesagt und was war? Nichts ist passiert.

Der R520 kann soviele Pipelines haben wie er will, das Geld wird mit den kleinen Karten gemacht. Kommt da nichts, werden weiterhin Nvidia gekauft. Sollten sich die Berichte und Gerüchte über den 90nm Prozess bewahrheiten, dann hat ATI ein riesiges Problem.

r3ptil3
2005-06-20, 21:27:16
Er ist es ;)

Wie ist das gemeint? Das ich als Gast hier die specs gepostet habe?
- - - - -

Ich zweifle nicht daran das der R520 16Pipelines hat und ich glaube auch nicht das er 32Pipes haben wird. Nur eben Links wären gut wenn es geht.

Gast
2005-06-20, 21:28:58
Genau, das gleiche haben alle nach dem FX Debakel gesagt und was war? Nichts ist passiert.
Ich habe das FX Debakel sehr früh erkannt...

Der R520 kann soviele Pipelines haben wie er will, das Geld wird mit den kleinen Karten gemacht. Kommt da nichts, werden weiterhin Nvidia gekauft.
Falsch.
Wer die schnellste Karte hat, hat das Ansehen. Das ist verdammt wichtig.
Wenn sich die Features kaum unterscheiden, entscheidet die Performance...

Und sollte der R520 wirklich deutlich schneller als der G70 sein, sieht es für Nvidia düster aus...

reunion
2005-06-20, 21:30:12
R520 hat keine 32 Pipelines - wenn doch, dann nicht wie bei R420 mit je einer TMU pro Pipe.

Und das wage ich zu behaupten, ohne auch nur die geringsten Informationen zu haben.

wuddu
2005-06-20, 21:31:26
Da es vor Kurzem die selbe Meldung vom Inquirer gab, glaube ich es nicht. :)

Hierzu bedurf es nur einem indiskreten Dell-Mitarbeiters :)

-error-
2005-06-20, 21:32:21
Wie ist das gemeint? Das ich als Gast hier die specs gepostet habe?
- - - - -

Ich zweifle nicht daran das der R520 16Pipelines hat und ich glaube auch nicht das er 32Pipes haben wird. Nur eben Links wären gut wenn es geht.

Nah vom ihm habe ich die Infos. Es sind 32 definitiv vorhanden, auch hat er geschrieben, dass ein gewisser Teil deaktiviert sein könnte. 24 verfügbare sind es auf jeden Fall.

Gast
2005-06-20, 21:36:15
Ich zweifle nicht daran das der R520 16Pipelines hat ...
Du glaubst doch nicht etwa, dass ATI ein Respinn wegen 16 Pipes gefahren hat...
16 Pipes sind schon lange Standard...

Gast
2005-06-20, 21:41:28
Du glaubst doch nicht etwa, dass ATI ein Respinn wegen 16 Pipes gefahren hat...
16 Pipes sind schon lange Standard...

16pipes ungleich 16 pipes oder anders ausgedrückt 16 r420 pipes ungleich 16 r520 pipes und ich rede nicht von SM2/SM3 unterschied.

Leute vergesst die 32pipe geschichte und das mit noch nicht aktiviertem pipes sowieso.

Gast
2005-06-20, 21:42:47
16pipes ungleich 16 pipes oder anders ausgedrückt 16 r420 pipes ungleich 16 r520 pipes und ich rede nicht von SM2/SM3 unterschied.

Leute vergesst die 32pipe geschichte und das mit noch nicht aktiviertem pipes sowieso.
Beweise?
Oder nur heiße Luft?

r3ptil3
2005-06-20, 21:43:45
Nah vom ihm habe ich die Infos. Es sind 32 definitiv vorhanden, auch hat er geschrieben, dass ein gewisser Teil deaktiviert sein könnte. 24 verfügbare sind es auf jeden Fall.

Wie kann man das erklären? Probleme bei der Produktion? Oder werden die 32 Pipelines für die angebliche 7800 Ultra aufgehoben?

mapel110
2005-06-20, 21:44:07
Nah vom ihm habe ich die Infos. Es sind 32 definitiv vorhanden, auch hat er geschrieben, dass ein gewisser Teil deaktiviert sein könnte. 24 verfügbare sind es auf jeden Fall.
Eine weitere Bestätitgung, dass es sich um das Inquirer-Gerücht handelt.

r3ptil3
2005-06-20, 21:45:21
Du glaubst doch nicht etwa, dass ATI ein Respinn wegen 16 Pipes gefahren hat...
16 Pipes sind schon lange Standard...

Standard? Das soll wohl ein Witz sein, 16 Pipes und Standard?

Gast
2005-06-20, 21:46:16
Du glaubst doch nicht etwa, dass ATI ein Respinn wegen 16 Pipes gefahren hat...
16 Pipes sind schon lange Standard...
wegen den 16 Pipes vielleicht nicht aber wegen dem Hohen Takt.

Schauen wir uns mal den R420 an. Dort haben wir 16 Pipes und um die 500 MHZ mit doch einigen notwendigen Kühlmaßnahmen und das auf 0.11 micron.
Jetzt shrinkt ATI auf den noch nicht sonderlich erprobten 0.09 Prozess und muss nebenbei FP32, HDR, FP-Filtering und das ganze SM3.0 Gedöhns einbauen.
Zusätzlich dazu will mann sagen wir mal hohe Taktraten.
Ich kann mir schon gut vorstellen, dass man selbst für 650MHZ einen Respin braucht. 650MHZ sind kein Pappenstiel und erheblich mehr als bei der Vorgängergeneration.
Möglich ist das also.
32 Pipes halte ich für Schwachsinn.

Nehmen wir mal an es sind 16 und 650 MHZ und ATI kämpft noch mit der Marke. Dann sähe es nicht sonderlich prickelnd aus.
Würde das für die GTX reichen? Davon gehe ich aus. Problem ist nur, dass die GTX anscheinend recht genügsam ist und wahrscheinlich recht gutes OC Potential bietet. Der Kühler ist recht klein im Vergleich zu anderen zur Zeit eingesetzten. Würde man da auf 2 Slot Kühlung steigen, dann sind 500 MHZ allemal drinn und dann würde es reichlich eng mit 16 Pipes auf 650 MHZ.

Ich bin mal gespannt. Für ATI hoffe ich, dass es eher anders kommt. Mit hohen Taktraten haben sie sich mit der X8xx Reihe schon verbrannt. Beschiessene Yields und miese Margen. Das Geschäft ist so richtig satt eingebrochen. Intel hat sich mit der Strategie auch schon verbrannt beim Prescott und Nvidia kann mit dem NV30 auch ein Liedchen davon singen.

32 halte ich wie gesgat für absolut unrealistisch. Ich gehe von 16 oder 24 aus und hoffe für ATI, dass es letzteres ist.

Gast
2005-06-20, 21:47:03
Wie kann man das erklären? Probleme bei der Produktion? Oder werden die 32 Pipelines für die angebliche 7800 Ultra aufgehoben?
Ich denke ATI wartet auf entsprechenden Speicher, weil wir sonst kaum was davon hätten...
Nvidia will halt schnell den schnellen Euro machen, bevor es alle merken, dass Nvidia bei dieser Generation deutlich verloren hat, mit 600 Mhz Speicher sowieso...

Gast
2005-06-20, 21:50:03
wegen den 16 Pipes vielleicht nicht aber wegen dem Hohen Takt.

Schauen wir uns mal den R420 an. Dort haben wir 16 Pipes und um die 500 MHZ mit doch einigen notwendigen Kühlmaßnahmen und das auf 0.11 micron.

Wenn man keine Ahnung hat, besser in in die Ecke verkriechen und schweigen...
Der R420 ist 0,13 low-k...

Darum spare ich mir weitere Kommentare, weil du einfach keine Ahnung hast...

ShadowXX
2005-06-20, 22:08:17
Zu den momentanen gerüchten poste ich mal ein post von Nero24, dem Admin von planet4dnow, welches ganz gut passt (ging übrigens dort auch um etwas von ATI, den Cat 5.6):


Solche Gerüchte entstehen nie zufällig, vor allem nicht wenn die Quelle auf das Entwicklerteam hinweist Zwei Möglichkeiten: die Quelle hat ein Plappermaul in der Entwicklungsabteilung sitzen, welches die Qualität der eigenen Arbeits selbstredend hoch einschätzt und das auch honoriert wissen will durch solche Gerüchte, oder die Gerüchte werden von der PR-Abteilung gestreut, da ihnen vielleicht die Publicity bei den letzten zwei Treiberveröffentlichungen ein wenig zu gering erschien. In einer offiziellen Mitteilung an die Presse wird sich eine Firma wie ATI natürlich hüten, solche Versprechungen zu machen, das ist klar - vor allem wenn sie nicht eintreten Aber was glaubst Du, was uns schon alles "hinter vorgehaltener Hand" von diversen Herstellern zugespielt wurde, was nicht einmal ansatzweise den Fakten entsprach; nur um sich ins Gespräch zu bringen. Hier gilt es für einen Redakteur auszusortieren, nach Erfahrung handelnd, was richtig sein KÖNNTE und was nicht. Manchmal liegt man daneben, manchmal nicht

http://www.planet3dnow.de/vbulletin/showthread.php?p=2262380#post2262380

phil99
2005-06-20, 22:11:10
Sind wir jetzt im Inkognitoforum.
Wer ist Gast 1, 2 und 3?
Detetkiv spielen ?
Mag sein, dass der jetzt 16 Pipes hat, aber so kann man da echt nichts glauben.

Gast
2005-06-20, 22:15:40
Wenn man keine Ahnung hat, besser in in die Ecke verkriechen und schweigen...
Der R420 ist 0,13 low-k...

Darum spare ich mir weitere Kommentare, weil du einfach keine Ahnung hast...
ich meinte eigentlich auch generell die X8xx Serie - also die Refresh Chips X850 XT-PE z.B.
Dort ist ein fetter 2 Slotkühler verbaut worden und das Teil hat relativ wenig Transistoren im Vergleich zur Konkurenz, die zudem noch auf 0.13 mit dem NV40/45 sitzt.
Also erstmal nicht schwach anreden sondern nachdenken bitte.

Wenn ATI auf dem bestehenden Design was die Breite angeht bleibt und hohe Taktraten anpeilt, dann stufe ich deren Aussichten als wenig rosig ein.

Gast
2005-06-20, 22:22:00
Sorry, ist beim Quote was schief gelaufen.. :)

ich meinte eigentlich auch generell die X8xx Serie - also die Refresh Chips X850 XT-PE z.B.
Dort ist ein fetter 2 Slotkühler verbaut worden und das Teil hat relativ wenig Transistoren im Vergleich zur Konkurenz, die zudem noch auf 0.13 mit dem NV40/45 sitzt.
Deine Aussage, das der R420 (oder auch R480) in 0,11 ist, ist definitiv falsch...
Der X850 (XT (PE)) ist auch 0,13 low-k.
Also hast du keine Ahnung...

Also erstmal nicht schwach anreden sondern nachdenken bitte.
Siehe oben, wenn man keine Ahnung hat...

Wenn ATI auf dem bestehenden Design was die Breite angeht bleibt und hohe Taktraten anpeilt, dann stufe ich deren Aussichten als wenig rosig ein.
Ist ein Fehler...

-error-
2005-06-20, 22:35:28
Ich denke ATI wartet auf entsprechenden Speicher, weil wir sonst kaum was davon hätten...
Nvidia will halt schnell den schnellen Euro machen, bevor es alle merken, dass Nvidia bei dieser Generation deutlich verloren hat, mit 600 Mhz Speicher sowieso...

Genau so sieht es aus, nicht anders.

Gast
2005-06-20, 22:37:52
Genau so sieht es aus, nicht anders.
Das weiss ich aber schon etwas länger...
Wenn man logisch nachdenkt, muss man darauf kommen..

mapel110
2005-06-20, 22:41:12
Naja, ich glaube eher an Fertigungsprobleme als an sowas simples wie 100 Mhz mehr Ramtakt. :)
Aber wir werden sehen.

Gast
2005-06-20, 22:43:24
Naja, ich glaube eher an Fertigungsprobleme als an sowas simples wie 100 Mhz mehr Ramtakt. :)
Aber wir werden sehen.
Dann glaubst Du leider falsch...

Gast
2005-06-20, 22:59:18
Naja, ich glaube eher an Fertigungsprobleme als an sowas simples wie 100 Mhz mehr Ramtakt. :)
Aber wir werden sehen.

Vielleicht auch beides :)

Gast
2005-06-20, 23:01:08
Vielleicht auch beides :)
Nö,
ATI wäre schon stark genug...
Mit dem Respinn weden sie Nvidia vernichten...

Quasar
2005-06-20, 23:03:33
Genau so sieht es aus, nicht anders.
Auf welchen Speicher wartet man denn genau? 700 MHz ist AFAIK lieferbar, 800 MHz noch nichtmal angekündigt. Oder geht es gar in Richtung XDR oder GDDR4?

Gast
2005-06-20, 23:05:09
Auf welchen Speicher wartet man denn genau? 700 MHz ist AFAIK lieferbar, 800 MHz noch nichtmal angekündigt. Oder geht es gar in Richtung XDR oder GDDR4?
800

Quasar
2005-06-20, 23:07:23
Und wann gibbet den?

Gast
2005-06-20, 23:12:11
Und wann gibbet den?
When it´s done...:D
You understand?
I hope...=)

Quasar
2005-06-20, 23:16:40
When it´s done...:D
You understand?
I hope...=)
Wann gibbet den Speicher?

Gast
2005-06-20, 23:20:31
Wann gibbet den Speicher?
Quasar,
die Anspielung "when it´s done" solltest auch du verstehen.
OK, Spass beiseite, ist bald soweit...

Quasar
2005-06-20, 23:21:10
Quasar,
die Anspielung "when it´s done" solltest auch du verstehen.
OK, Spass beiseite, ist bald soweit...
Wann gibt's den den 800MHz-Speicher?

Gast
2005-06-20, 23:22:36
Wann gibt's den den 800MHz-Speicher?
Lass dich überraschen.. *sing* =)

Gast
2005-06-20, 23:24:15
Lass dich überraschen.. *sing* =)

sach doch einfach das du keine ahnung hast wann der kommt und wie der r520 ausschaun wird

Gast
2005-06-20, 23:26:35
sach doch einfach das du keine ahnung hast wann der kommt und wie der r520 ausschaun wird
Wenn du keine Ahnung hast, beduetet es nicht, dass ich keine Ahnung habe...

Quasar
2005-06-20, 23:27:41
Lass dich überraschen.. *sing* =)
Na, du weißt's doch. Sag schon... und von wem komme diese Wahnsinns-RAMs?

mapel110
2005-06-20, 23:32:48
Na, du weißt's doch. Sag schon... und von wem komme diese Wahnsinns-RAMs?
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
Aber das Mass Produktion auf der Seite heißt ja anscheinend nichts. Das steht schon seit Monaten(?!) dort.

/edit
http://www.infineon.com/cgi/ecrm.dll/ecrm/scripts/prod_ov.jsp?oid=58829
HYB18H256321AF-12 256Mb (8Mx32) P-TFBGA-136 800MHz; Available 1Q06

Gast
2005-06-20, 23:33:52
Na, du weißt's doch. Sag schon... und von wem komme diese Wahnsinns-RAMs?
Samsung

Coda
2005-06-20, 23:37:03
Und selbst wenn - nVIDIA kann 800Mhz mit einem Refresh im Herbst locker auch adaptieren, inkl 90nm und mehr Pipelines. Das NV40 Design ist da sehr flexibel.

R520 ist ja im Moment anscheinend noch nicht mal durch's finale Tapeout :rolleyes:

Ich denke dieses Runde (nächste 6 Monate) geht eher an nVIDIA weil ATi sich mit 90nm erstmal ins Bein geschossen hat.

robbitop
2005-06-20, 23:37:14
Ich mutmaße mal, dass der 700er auch nicht so doll verfügbar ist. Sonst hätte man diesen schon auf der 7800GTX verbaut. NV scheute sich eigentlich nie, den besten verfügbaren Speicher zu nehmen. Aber diesmal wollte man anscheinend Verfügbarkeit.

Gast
2005-06-20, 23:37:25
Und selbst wenn - nVIDIA kann 800Mhz mit einem Refresh im Herbst locker auch adaptieren.

R520 ist ja im Moment anscheinend noch nicht mal durch's finale Tapeout :rolleyes:
Weil Respinn...

Quasar
2005-06-20, 23:37:52
Samsung
Und wann kommt der?

edit:
letztes Posting, sorry, Gast, aber ich muss schlafen. Spiel mit jemand anderem weiter ;)

Coda
2005-06-20, 23:38:13
Es ist doch egal warum. Das bedeutet auf jedenfall dass wir mindestens noch 6 Monate auf Karten warten werden.

mapel110
2005-06-20, 23:39:18
Okay, bei Samsung steht ja "Production Status" "Costumer sample", also nix mass production.
Ist aber bissl blöd gemacht auf der Seite.
http://www.samsung.com/Products/Semiconductor/common/partnumbersearch.aspx?partnum=K4J52324QC&cd1=&x=0&y=0

Sunrise
2005-06-20, 23:40:20
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
Aber das Mass Produktion auf der Seite heißt ja anscheinend nichts. Das steht schon seit Monaten(?!) dort.
Jein. Die "Customer Samples" für 800MHz gingen im April ´05 raus. Vorher stand dort die gleiche Info, nur mit dem Unterschied, dass es vorher eben 700MHz "Samples" waren. Mit der Massenproduktion verhält es sich ebenso, vorher stand dort übrigens nur: "Customer Sample: Available", das wird also schon seine Richtigkeit haben.

Genau hierauf basierte ja auch meine Annahme von vor ein paar dutzend Seiten, dass R520 eben nicht nur wegen Prozess-Problemen verschoben wird, sondern weil zu einem entsprechenden Takt und entsprechender Füllrate auch entsprechender Speicher vorhanden sein muss, um sich von NV merklich absetzen zu können. Genau hierauf fußen auch die Annahmen, dass R520 durchaus einen niedrigeren Takt, dafür aber mit min. 24 Pipelines antreten könnte, da ATI möglicherweise Probleme hat, einen Takt von 650MHz zu realisieren, was ich aber nicht unbedingt glaube. Vielmehr fahren sie einen "Re-spin", um noch einmal die Ausbeute deutlich steigern zu können, um den R520 mit Eindruck und Verfügbarkeit in den Markt drücken zu können, denn NV hat aktuell wieder deutlich Boden gut gemacht, die nächste "Aktion" von ATI, will daher gut überlegt sein.

mapel110
2005-06-20, 23:45:34
Jein. Die "Customer Samples" für 800MHz gingen im April ´05 raus. Vorher stand dort die gleiche Info, nur mit dem Unterschied, dass es vorher eben 700MHz "Samples" waren. Mit der Massenproduktion verhält es sich ebenso, vorher stand dort übrigens nur: "Customer Sample: Available", das wird also schon seine Richtigkeit haben.

Genau hierauf basierte ja auch meine Annahme von vor ein paar dutzend Seiten, dass R520 eben nicht nur wegen Prozess-Problemen verschoben wird, sondern weil zu einem entsprechenden Takt und entsprechender Füllrate auch entsprechender Speicher vorhanden sein muss, um sich von NV merklich absetzen zu können. Genau hierauf fußen auch die Annahmen, dass R520 durchaus einen niedrigeren Takt, dafür aber mit min. 24 Pipelines antreten könnte, da ATI möglicherweise Probleme hat, einen Takt von 650MHz zu realisieren, was ich aber nicht unbedingt glaube. Vielmehr fahren sie einen "Re-spin", um noch einmal die Ausbeute deutlich steigern zu können, um den R520 mit Eindruck und Verfügbarkeit in den Markt drücken zu können, denn NV hat aktuell wieder deutlich Boden gut gemacht, die nächste "Aktion" von ATI, will daher gut überlegt sein.
Naja, jedem seine Sichtweise, aber ich glaube, ATI würde liebend gerne SM3 bringen. Auch wenn sie nur ähnlich schnell wären wie nvidia. Und mit schnellerem Speicher abgrenzen kann nicht funktionieren, oder glaubt hier jemand, ATI hat einen Exklusiv-Vertrag mit Samsung?!
nvidia kann auf den selben Speicher zurückgreifen. Also machts keinen Sinn zu warten.

Hauwech
2005-06-20, 23:47:06
Jein. Die "Customer Samples" für 800MHz gingen im April ´05 raus. Vorher stand dort die gleiche Info, nur mit dem Unterschied, dass es vorher eben 700MHz "Samples" waren. Mit der Massenproduktion verhält es sich ebenso, vorher stand dort übrigens nur: "Customer Sample: Available", das wird also schon seine Richtigkeit haben.

Genau hierauf basierte ja auch meine Annahme von vor ein paar dutzend Seiten, dass R520 eben nicht nur wegen Prozess-Problemen verschoben wird, sondern weil zu einem entsprechenden Takt und entsprechender Füllrate auch entsprechender Speicher vorhanden sein muss, um sich von NV merklich absetzen zu können. Genau hierauf fußen auch die Annahmen, dass R520 durchaus einen niedrigeren Takt, dafür aber mit min. 24 Pipelines antreten könnte, da ATI möglicherweise Probleme hat, einen Takt von 650MHz zu realisieren, was ich aber nicht unbedingt glaube. Vielmehr fahren sie einen "Re-spin", um noch einmal die Ausbeute deutlich steigern zu können, um den R520 mit Eindruck und Verfügbarkeit in den Markt drücken zu können, denn NV hat aktuell wieder deutlich Boden gut gemacht, die nächste "Aktion" von ATI, will daher gut überlegt sein.

Das Problem ist aber, dass es vom Tapeout eines einzelnen Chips bis zum Regal noch entsprechend lange dauert. Mal so eben geht das nicht.

Gast
2005-06-20, 23:48:12
Naja, jedem seine Sichtweise, aber ich glaube, ATI würde liebend gerne SM3 bringen. Auch wenn sie nur ähnlich schnell wären wie nvidia. Und mit schnellerem Speicher abgrenzen kann nicht funktionieren, oder glaubt hier jemand, ATI hat einen Exklusiv-Vertrag mit Samsung?!
nvidia kann auf den selben Speicher zurückgreifen. Also machts keinen Sinn zu warten.
Du hast es nicht verstanden...
Nvidia will die G70 mit 600Mhz Speicher unters Fussvolk bringen, das ist glatte Verarsche....
Die 6800 Ultra hat auch diese Speicherbandbreite..

dildo4u
2005-06-20, 23:49:42
Die 6800 Ultra hat auch diese Speicherbandbreite..
Und genau die reicht aus bei einem SLI fast 90% mherleistung zu erzeugen.

Coda
2005-06-20, 23:50:52
Solang die Leistung da ist, ist es doch relativ egal woher sie kommt.

Ich denke mal Samsung kann eben schnellere Speicher nicht wirklich gut liefern im Moment.

mapel110
2005-06-20, 23:51:58
Du hast es nicht verstanden...
Nvidia will die G70 mit 600Mhz Speicher unters Fussvolk bringen, das ist glatte Verarsche....
Die 6800 Ultra hat auch diese Speicherbandbreite..
Wer sagt dir, dass die effektive Bandbreite nicht gestiegen ist? Es soll Methoden geben, die Bandbreite einsparen. Und wenn du glaubst, nvidia hat da nichts getan im Vergleich zum NV40 ...

Außerdem war die Füllrate beim NV40 geringer als beim R420. Ergo hatte nvidia mehr Spielraum.

Gast
2005-06-20, 23:52:18
Und genau die reicht aus bei einem SLI fast 90% mherleistung zu erzeugen.
Weil die Speicherbandbreite höher ist...

Sunrise
2005-06-20, 23:55:38
Naja, jedem seine Sichtweise, aber ich glaube, ATI würde liebend gerne SM3 bringen. Auch wenn sie nur ähnlich schnell wären wie nvidia. Und mit schnellerem Speicher abgrenzen kann nicht funktionieren, oder glaubt hier jemand, ATI hat einen Exklusiv-Vertrag mit Samsung?!
nvidia kann auf den selben Speicher zurückgreifen. Also machts keinen Sinn zu warten.
ATI wird auch SM3 bringen, nur glaube ich kaum, dass dies reichen wird, denn die Balkenlänge spielt eine nicht minder wichtige Rolle, da wirst du mir sicher zustimmen. Es braucht dafür auch keine Exklusiv-Verträge, das wird sich Samsung natürlich entsprechend bezahlen lassen, aber möglich ist es sicherlich, daher sollte man es von vorneherein auch nicht unbedingt sofort ausschließen.

Ich frage mich allerdings immernoch, wie ATI es mit 4 Quads und 650MHz Takt überhaupt schaffen will, auch nur annähernd an den G70 zu kommen. Hier stimmt etwas hinten und vorne nicht, oder der R520 ist wirklich derart neu, dass man ihn frisch "designt" hat, und wir R480-artige Maßstäbe auch nichtmehr anlegen können.

Sunrise
2005-06-20, 23:56:58
Das Problem ist aber, dass es vom Tapeout eines einzelnen Chips bis zum Regal noch entsprechend lange dauert. Mal so eben geht das nicht.

Der "Tapeout" findet ganz am Anfang statt. Man geht aktuell aber eher von einem "Re-Spin" aus. Alles andere würde in Bezug auf die berichteten "Yield-Probleme" auch keinen Sinn machen.

r3ptil3
2005-06-20, 23:58:08
Und selbst wenn - nVIDIA kann 800Mhz mit einem Refresh im Herbst locker auch adaptieren, inkl 90nm und mehr Pipelines.

Nvidia wird mit Sicherheit nicht im Herbst noch einen Chip bringen, der noch mehr Pipes hat!

mapel110
2005-06-21, 00:04:05
Nvidia wird mit Sicherheit nicht im Herbst noch einen Chip bringen, der noch mehr Pipes hat!
Ja, sie werden darauf warten, dass ATI in die Pötte kommt. ;)

Coda
2005-06-21, 00:04:48
Woher kommt diese Sicherheit? (ausgenommen Wunschdenken)

Gast
2005-06-21, 00:08:21
ATI wird auch SM3 bringen, nur glaube ich kaum, dass dies reichen wird, denn die Balkenlänge spielt eine nicht minder wichtigere Rolle, da wirst du mir sicher zustimmen. Es braucht dafür auch keine Exklusiv-Verträge, das wird sich Samsung natürlich entsprechend bezahlen lassen, aber möglich ist es sicherlich, daher sollte man es von vorneherein auch nicht unbedingt sofort ausschließen.

Ich frage mich allerdings immernoch, wie ATI es mit 4 Quads und 650MHz Takt überhaupt schaffen will, auch nur annähernd an den G70 zu kommen. Hier stimmt etwas hinten und vorne nicht, oder der R520 ist wirklich derart neu, dass man ihn frisch "designt" hat, und wir R480-artige Maßstäbe auch nichtmehr anlegen können.

Im wesentlichen verfolgen ati und nvidia mit r520 und g70 das gleiche ziel. Nur sie erreichen es was die pipeline struktur und takt angeht anders was durch die jeweiligen architekturen bedingt ist.

G70 hast du mehr (24 fragment) pipelines kleinere takt 16ROP's

r520 weniger (16)pipelines dafür etwas dickere(wie dick naja mal sehen) ;) und höherer takt

reunion
2005-06-21, 00:43:48
Und genau die reicht aus bei einem SLI fast 90% mherleistung zu erzeugen.


Logisch, da sich die Speicherbandbreite ebenfalls verdoppelt.

Gast
2005-06-21, 00:54:09
Und selbst wenn - nVIDIA kann 800Mhz mit einem Refresh im Herbst locker auch adaptieren, inkl 90nm und mehr Pipelines. Das NV40 Design ist da sehr flexibel.

R520 ist ja im Moment anscheinend noch nicht mal durch's finale Tapeout :rolleyes:

Ich denke dieses Runde (nächste 6 Monate) geht eher an nVIDIA weil ATi sich mit 90nm erstmal ins Bein geschossen hat.

Ich bin zwar noch ein wenig reserviert was das angeht aber die Wahrscheintlichkeit das ATI erstmal den kürzeren zieht ist auch bei mir über 50% mittlerweile. Es wurde noch keine 520 Produktion gestartet und es ist wohl ein Respin in der Mache. Unter der Voraussetzung das dieser klappt, wird es richtige Verfügbarkeit kaum noch vor Oktober geben.
Das gibt Nvidia natürlich ungeheuer Zeit, denn sie haben dann mehrere Optionen:
1) mehr Takt
2) breiter

1 geht sowohl bei 0.11 wie auch 0.09
2 geht nur bei 0.09.
Jetzt wird es echt interessant aber ATI ist schon so dermaßen spät drann, das spielt Nvidia ungeheuer in die Hände.
Ich denke mal noch sind ATIs Chancen durchaus da aber es muss jetzt alles klappen, ansonsten siehts düster aus. Sie haben auch kein Polster mehr von dem sie zehren können, da sie die letzten 12 Monate eh schon auf dem absteigenden Ast waren und nach wie vor sind.
Der Gegner ist so ungeheuer viel stärker und hat auch sehr viel mehr Handlungsspielraum bzw. Optionen als zu FX-Zeiten - das wird echt hart.

Wenn es nicht klappt, dann hat sich ATI fett verkalkuliert.
1) zu viele Baustellen
2) zu optimistisch was einen unerprobten Fertigungsprozess angeht. Den gleichen Fehler machte Nvidia auch schon mal.

Ailuros
2005-06-21, 00:58:47
ATI wird auch SM3 bringen, nur glaube ich kaum, dass dies reichen wird, denn die Balkenlänge spielt eine nicht minder wichtige Rolle, da wirst du mir sicher zustimmen. Es braucht dafür auch keine Exklusiv-Verträge, das wird sich Samsung natürlich entsprechend bezahlen lassen, aber möglich ist es sicherlich, daher sollte man es von vorneherein auch nicht unbedingt sofort ausschließen.

Ich frage mich allerdings immernoch, wie ATI es mit 4 Quads und 650MHz Takt überhaupt schaffen will, auch nur annähernd an den G70 zu kommen. Hier stimmt etwas hinten und vorne nicht, oder der R520 ist wirklich derart neu, dass man ihn frisch "designt" hat, und wir R480-artige Maßstäbe auch nichtmehr anlegen können.

R580 wird wohl eher dafuer sorgen; dafuer muss dann aber NVIDIA auch eine Antwort haben und zwar in 90nm fuer hoehere Taktraten.

Ailuros
2005-06-21, 01:05:53
Im wesentlichen verfolgen ati und nvidia mit r520 und g70 das gleiche ziel. Nur sie erreichen es was die pipeline struktur und takt angeht anders was durch die jeweiligen architekturen bedingt ist.

G70 hast du mehr (24 fragment) pipelines kleinere takt 16ROP's

r520 weniger (16)pipelines dafür etwas dickere(wie dick naja mal sehen) ;) und höherer takt

Quads koennen nie identisch sein, das ist den meisten hier wohl klar; wenn man annimmt dass in beiden Faellen die quads identisch sind, dann ja:

16*=/>650 vs. 24*430 = ~Gleichstand

Xmas
2005-06-21, 01:05:55
Du hast es nicht verstanden...
Nvidia will die G70 mit 600Mhz Speicher unters Fussvolk bringen, das ist glatte Verarsche....
Die 6800 Ultra hat auch diese Speicherbandbreite..
Es gibt NV40 mit 350 MHz Speichertakt. Ist das auch "Verarsche"? Wenn ja, wieso? Achtest du beim Kauf auf den Takt oder doch auf die Leistung?

Ich frage mich allerdings immernoch, wie ATI es mit 4 Quads und 650MHz Takt überhaupt schaffen will, auch nur annähernd an den G70 zu kommen. Hier stimmt etwas hinten und vorne nicht, oder der R520 ist wirklich derart neu, dass man ihn frisch "designt" hat, und wir R480-artige Maßstäbe auch nichtmehr anlegen können.
Wieso nicht? Immerhin ist 4*650 ~= 6 * 430.
R480 kann man IMO wirklich nicht als Maßstab für die pro-Takt/Pipeline-Leistung des R520 ansetzen. Genausowenig wie NV40 für G70 übrigens.

deekey777
2005-06-21, 01:51:57
Wie wird eigentlich die Geometry Rate berechnet?
Sollte der R520 zwar die gleiche Anzahl an VS, aber einen deutlich höheren VPU-Takt haben, müßte auch die Geometrieleistung nicht höher sein - und der Sieg in 3D 2005 wäre nur eine Formsache?

(Bei acht VS: 2xVPU-Takt?)

Ailuros
2005-06-21, 03:42:24
Wie wird eigentlich die Geometry Rate berechnet?
Sollte der R520 zwar die gleiche Anzahl an VS, aber einen deutlich höheren VPU-Takt haben, müßte auch die Geometrieleistung nicht höher sein - und der Sieg in 3D 2005 wäre nur eine Formsache?

(Bei acht VS: 2xVPU-Takt?)

Taktrate * Anzahl der VS Einheiten / 4

NV40 = 425 * 6 / 4 = 638 MTris/sec
G70 = 430 * 8 / 4 = 860 MTris/sec
R520 = 650 * 8 / 4 = 1300 MTris/sec

Aber....NV40 = ~5200 Punkte G70 = ~7800, 50% mehr Leistung bei 50% mehr Einheiten; warum spielt hier die zusaetzliche Geometrieleistung der G70 keine besondere Rolle?

Demirug
2005-06-21, 09:19:57
Taktrate * Anzahl der VS Einheiten / 4

NV40 = 425 * 6 / 4 = 638 MTris/sec
G70 = 430 * 8 / 4 = 860 MTris/sec
R520 = 650 * 8 / 4 = 1300 MTris/sec

Aber....NV40 = ~5200 Punkte G70 = ~7800, 50% mehr Leistung bei 50% mehr Einheiten; warum spielt hier die zusaetzliche Geometrieleistung der G70 keine besondere Rolle?

Das was du da berechnet hast ist der Vertexdurchsatz durch den Shader. Gerade bei unkomplizierten Shaderprogrammen darf man aber das Trisetup und den Rasterisierer nicht vergessen.

Hauwech
2005-06-21, 09:34:17
Der "Tapeout" findet ganz am Anfang statt. Man geht aktuell aber eher von einem "Re-Spin" aus. Alles andere würde in Bezug auf die berichteten "Yield-Probleme" auch keinen Sinn machen.

Ok, schlecht ausgedrückt. Ich meinte mit Tapeout eher die generelle Fertigstellung eines Chips aus der laufenden Produktion.

Gehen wir mal davon aus, dass der Re-Spin erfolgreich ist, dauert es aber trotzdem vom getesteten Silizium bis zum Regal beim Händler und diese Zeitspanne ist auch nicht gerade klein. Sollten zuerst die OEMs massiv mit Chips und Karten bedacht werden, dann dauert es auch noch mal länger bis man eine beim Händler bekommt.

seahawk
2005-06-21, 09:57:22
Nvidia wird mit Sicherheit nicht im Herbst noch einen Chip bringen, der noch mehr Pipes hat!

Was aber bei einem ausgereiften Prozess grundsätzlich kein Problem für NV wäre, da deren Chips das sehr leicht ermöglichen. Allerdings würde eine 32Pipe Chip wohl so erheblich Banbreiten limitiert sein, dass es fast sinnlos wäre.

robbitop
2005-06-21, 10:00:13
R480 kann man IMO wirklich nicht als Maßstab für die pro-Takt/Pipeline-Leistung des R520 ansetzen. Genausowenig wie NV40 für G70 übrigens.
Wie sicher bist du dir in beiden Fällen?

wuzetti
2005-06-21, 10:23:13
Ich frage mich allerdings immernoch, wie ATI es mit 4 Quads und 650MHz Takt überhaupt schaffen will, auch nur annähernd an den G70 zu kommen. Hier stimmt etwas hinten und vorne nicht, oder der R520 ist wirklich derart neu, dass man ihn frisch "designt" hat, und wir R480-artige Maßstäbe auch nichtmehr anlegen können.

das hatten wir einige seiten vorher schonmal. ich sehe das ähnlich, denn meines erachtens dürfte ATI bei 16*650 ein problem bekommen, in so manchen situationen mit G70 mithalten zu können, wenn die "rechenkraft" pro ps pipe nicht um einiges verbessert wurde. sprich z.b. mehr ALU's pro pipe. die hier und bei B3D angesprochene konfiguration von 16/1/1/1 (ich hoffe, ich hab's richtig im kopf) für R520 lässt aber vermuten, dass dem nicht so ist oder andere mittel gefunden wurden. das dürfte dann erst bei R580 der fall sein, da stand irgendwo ein 3er drin - 16/1/3/1 oder so ähnlich.

micki
2005-06-21, 12:09:03
Gerade bei unkomplizierten Shaderprogrammen darf man aber das Trisetup
afaik sagte mal nv, dass man maximal 1 tri/takt durchschieben kann, und damit das konstant geht müssen alles backfaces sein (also weggeculled).

im gegensatz du den ganzen anderen pipes können ati/nv das trisetup wohl nicht sehr steigern.

MfG
micki

Demirug
2005-06-21, 12:21:53
afaik sagte mal nv, dass man maximal 1 tri/takt durchschieben kann, und damit das konstant geht müssen alles backfaces sein (also weggeculled).

im gegensatz du den ganzen anderen pipes können ati/nv das trisetup wohl nicht sehr steigern.

MfG
micki

IIRC ist dieses 1TRI/Takt Limit ab dem NV40 nicht mehr vorhanden. Es sind jetzt wohl 2TRIs/Takt.

robbitop
2005-06-21, 12:22:44
afaik sagte mal nv, dass man maximal 1 tri/takt durchschieben kann, und damit das konstant geht müssen alles backfaces sein (also weggeculled).

im gegensatz du den ganzen anderen pipes können ati/nv das trisetup wohl nicht sehr steigern.

MfG
micki
1x Dreieck pro Takt? Das glaube ich nicht. Denn bei 4 Quads arbeitet man ja bereits parallel an 4 unterschiedlichen Dreiecken. (dank Quad Batch verteilung)

Pirx
2005-06-21, 12:47:57
Bleiben wir doch mal beim Topic:

Wird es Grafikkarten mit dem R520 schon Anfang 2006 mit guter Verfügbarkeit geben?
Was meint ihr?;)

wuzetti
2005-06-21, 12:59:28
Bleiben wir doch mal beim Topic:

Wird es Grafikkarten mit dem R520 schon Anfang 2006 mit guter Verfügbarkeit geben?
Was meint ihr?;)

"schon" anfang 2006? das wär wohl eine mittelschwere katastrophe, denn dann wäre NV fast ein halbes jahr lang ohne wirkliche konkurrenz. und die belebt ja bekanntlich das geschäft :D
ich hoffe doch sehr, dass es zumindest ab september/oktober soweit ist.

r3ptil3
2005-06-21, 13:07:53
"schon" anfang 2006? das wär wohl eine mittelschwere katastrophe, denn dann wäre NV fast ein halbes jahr lang ohne wirkliche konkurrenz. und die belebt ja bekanntlich das geschäft :D
ich hoffe doch sehr, dass es zumindest ab september/oktober soweit ist.

August spätestens September!

wuzetti
2005-06-21, 13:15:32
August spätestens September!

hoffst du oder weisst du?

ShadowXX
2005-06-21, 13:18:39
hoffst du oder weisst du?

Er hofft....ich gehe auch eher von September/Oktober aus, den daran das ATI noch einen Respin brauchte, scheint ja wirklich was dran zu sein.

Winter[Raven]
2005-06-21, 13:20:15
August spätestens September!

Deine Worte in gottes Ohr, nur sollte man realistisch bleiben, wir haben heute den 21.06.2005 der Chip hatte noch nicht mal den Finaen Tape out und ist immer noch im Respin, du erwartet mit der vollen Verfügbarkeit August - September, das ist nicht sehr viel Zeit...

reunion
2005-06-21, 13:31:17
Wie kommt ihr alle darauf, dass R520 noch nicht das finale Tape-out hatte, bzw. noch ein Re-spin braucht?

ShadowXX
2005-06-21, 13:34:42
Wie kommt ihr alle darauf, dass R520 noch nicht das finale Tape-out hatte, bzw. noch ein Re-spin braucht?

Das mit dem benötogten Respin war doch jetzt schon öfter von verschiedensten Quellen zu lesen.....

Ob das natürlich stimmt ist eine andere Frage.

Es passt allerdings zu den Verschiebungen der Vorstellung des r520.....man wird sehen.

Hauwech
2005-06-21, 13:38:13
Kleinstmengen wird es mit garantiert geben, aber zu welchen Preisen? Wer mit Sicherheit einen Großteil von den vorhandenen Chips bekommt sind die OEMs. Und wahrscheinlich auch nur USA und Asien, Europa, wie sonst auch, als letztes. Sollten sie noch länger für den Re-Spin brauchen, wird das vor Oktober sowieso nichts mit Massenverfügbarkeit.

Gast
2005-06-21, 13:39:12
']Deine Worte in gottes Ohr, nur sollte man realistisch bleiben, wir haben heute den 21.06.2005 der Chip hatte noch nicht mal den Finaen Tape out und ist immer noch im Respin, du erwartet mit der vollen Verfügbarkeit August - September, das ist nicht sehr viel Zeit...
Gibts dazu auch Quellen oder sagst du es, weil es in dein Bild passt?

Winter[Raven]
2005-06-21, 13:52:54
Gibts dazu auch Quellen oder sagst du es, weil es in dein Bild passt?

Das mit dem benötogten Respin war doch jetzt schon öfter von verschiedensten Quellen zu lesen....


Wäre strategisch Genial wenn der R520 wirklich durch den Final Tape-out wäre, und sich in Massenfertigung sich befinden würde, wäre gute Werbung um dem G70 Gehype etwas entgegenzuwirken was den morgigen Tag angeht!

Nur gibt es keine Leaks die auf ähnliches deuten können.

reunion
2005-06-21, 13:54:00
Das mit dem benötogten Respin war doch jetzt schon öfter von verschiedensten Quellen zu lesen.....

Ob das natürlich stimmt ist eine andere Frage.

Es passt allerdings zu den Verschiebungen der Vorstellung des r520.....man wird sehen.


So wie ich das verstanden habe, hat R520 ein ungeplantes Respin benötigt, welches allerdings schon lange abgeschlossen sein soll.

Wenn jetzt noch nichtmal das finale Tapeout stattgefunden hat, dann gute Nacht.

wuzetti
2005-06-21, 13:54:32
Wie kommt ihr alle darauf, dass R520 noch nicht das finale Tape-out hatte, bzw. noch ein Re-spin braucht?

da z.b. kann man's nachlesen. immer vorausgesetzt, das stimmt auch.

http://www.xbitlabs.com/news/video/display/20050609093014.html

wuzetti
2005-06-21, 13:57:26
So wie ich das verstanden habe, hat R520 ein ungeplantes Respin benötigt, welches allerdings schon lange abgeschlossen sein soll.

Wenn jetzt noch nichtmal das finale Tapeout stattgefunden hat, dann gute Nacht.

".... and that the chip firm is in process of re-spinning the chip. "

bezüglich finalem tapeout gibts hier möglicherweise missverständnisse, von was wir da genau sprechen. so wie ich es verstehe hat dieser schon vor monaten stattgefunden.
aber vielleicht kann ja einer der experten das klarstellen.

deekey777
2005-06-21, 14:03:22
Taktrate * Anzahl der VS Einheiten / 4

NV40 = 425 * 6 / 4 = 638 MTris/sec
G70 = 430 * 8 / 4 = 860 MTris/sec
R520 = 650 * 8 / 4 = 1300 MTris/sec

Aber....NV40 = ~5200 Punkte G70 = ~7800, 50% mehr Leistung bei 50% mehr Einheiten; warum spielt hier die zusaetzliche Geometrieleistung der G70 keine besondere Rolle?

Es ist eh nur eine Milchmädchenrechnung von mir. Was leistet eigentlich eine X700SE 64bit mit 4 Pipes, aber 6VS in 3D 2005?

seahawk
2005-06-21, 14:12:14
Man sollte hoffen, dass sie den endgültigen Tape-Out erreicht haben und die Produktion im Juli voll anläuft. Dann könnte eine Verfügbarkiet im August/September denkbar sein.

Wenn NV den 7800GTX allerdings wirklich ab dieser Woche in den Läden hat und das weltweit, dann wird es für ATI eilig.

Gast
2005-06-21, 14:15:15
ich glaube nicht das sich ati beeilen muß

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-570294601.gif

Godmode
2005-06-21, 14:17:08
ich glaube nicht das sich ati beeilen muß

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-570294601.gif

Siehst aber schon dass das hier CPU limitiert ist!

micki
2005-06-21, 14:21:42
IIRC ist dieses 1TRI/Takt Limit ab dem NV40 nicht mehr vorhanden. Es sind jetzt wohl 2TRIs/Takt.
die ganze pipe durch, oder auch nur backfaces?

MfG
micki

Gast
2005-06-21, 14:46:18
Siehst aber schon dass das hier CPU limitiert ist!

nö als ich mir ne x800 geholt haben gabs fast doppelt soviel fps also kein argument

micki
2005-06-21, 15:05:47
nö als ich mir ne x800 geholt haben gabs fast doppelt soviel fps also kein argument
mit 4AA und 8AF ist die framerate fast identisch bei 1024x768 zu ohne. somit ist das ein starkes indiz für cpu limitierung.
bei 1600*1200 mit AA und AF ist es dann gpu limitiert und zeigt auch den leistungsunterschied der karten.

Xmas
2005-06-21, 16:33:43
Wie sicher bist du dir in beiden Fällen?
G70 100%, R520 99% ;)

1x Dreieck pro Takt? Das glaube ich nicht. Denn bei 4 Quads arbeitet man ja bereits parallel an 4 unterschiedlichen Dreiecken. (dank Quad Batch verteilung)
Die Quads in einem Quad-Batch können aus vielen verschiedenen Dreiecken stammen. Wohlgemerkt, können. Aber was hat das mit dem Durchsatz des Triangle-Setup zu tun?


Und es wäre wirklich mal schön wenn die Begriffe Tapeout und Revision in ihrer üblichen Bedeutung gebraucht würden.

robbitop
2005-06-21, 16:51:36
Die Quads in einem Quad-Batch können aus vielen verschiedenen Dreiecken stammen. Wohlgemerkt, können. Aber was hat das mit dem Durchsatz des Triangle-Setup zu tun?

Das Trianglesetup macht eine 3D -> 2D Transformation. Die 2D Dreicke dürfen dann gerendert werden. Bei 4 Quadpipes mit sagen wir 4 verschiedenen Dreiecken beim Rendern wäre das aber eine unnötige Limitierung. Gerade bei kleinen Dreiecken.


Und es wäre wirklich mal schön wenn die Begriffe Tapeout und Revision in ihrer üblichen Bedeutung gebraucht würden.
Zur Not korrigiere doch einfach mal ;)

Demirug
2005-06-21, 16:59:39
Das Trianglesetup macht eine 3D -> 2D Transformation. Die 2D Dreicke dürfen dann gerendert werden. Bei 4 Quadpipes mit sagen wir 4 verschiedenen Dreiecken beim Rendern wäre das aber eine unnötige Limitierung. Gerade bei kleinen Dreiecken.

Das Trisetup berechnet die Ebenengleichungen welche zum Interpolieren benötigt werden und Culled auf Primitive ebene. Die 3D zu 2D Transformation wurde schon vorher im Vertexshader vorgenommen.

Kleine Dreiecke sind immer Gift.

robbitop
2005-06-21, 17:20:38
Das Trisetup berechnet die Ebenengleichungen welche zum Interpolieren benötigt werden und Culled auf Primitive ebene. Die 3D zu 2D Transformation wurde schon vorher im Vertexshader vorgenommen.

Kleine Dreiecke sind immer Gift.
Hm, früher hat das noch das Trisetup gemacht.

Spätestens seit den Quadpipelines sowieso.

Demirug
2005-06-21, 17:22:34
Hm, früher hat das noch das Trisetup gemacht.

Nein, noch nie. Das Trisetup bekommt schon immer komplett transformierte Eckpunkte.

micki
2005-06-21, 17:24:48
Bei 4 Quadpipes mit sagen wir 4 verschiedenen Dreiecken beim Rendern wäre das aber eine unnötige Limitierung.
ich glaube das rasterizern gehört nicht mehr zum trianglesetup... jedenfalls war es bisher in meinem begriffsverständnis so.

HAL-10K
2005-06-21, 17:33:39
nö als ich mir ne x800 geholt haben gabs fast doppelt soviel fps also kein argumentWas heißt hier kein Argument? Man kann eine hundertfach schnellere Grafikkarte nehmen und erreicht keinen Leistungszuwachs in einer CPU-Limitierten Anwendung.

Gerade eben die hohe Leistung bereits von der R420/NV40 Generation hat eine stark zunehmende CPU-Limitierung bewirkt, da sich im Gegensatz zu den Grafikkarten die Leistungsfähigkeit der CPU's viel schwächer entwickelt hat.

Man kann dies schon anhand der wenigen gezeigten Ergebnisse erkennen.

Godmode
2005-06-21, 17:37:27
Gerade eben die hohe Leistung bereits von der R420/NV40 Generation hat eine stark zunehmende CPU-Limitierung bewirkt, da sich im Gegensatz zu den Grafikkarten die Leistungsfähigkeit der CPU's viel schwächer entwickelt hat.

Man kann dies schon anhand der wenigen gezeigten Ergebnisse erkennen.

Genau darum brauchen wir Dualcore CPUs, Spiele und Treiber die das richtig unterstützen und von Nvidia gabs ja schon grünes Licht für DC optimierte Treiber

HAL-10K
2005-06-21, 17:37:53
Was soll das eigentlich mit den "kleine Dreiecke sind immer Gift"?

Klar, je komplexer die Geometrie, desto mehr transformationen usw.
Aber "kleiner"?

robbitop
2005-06-21, 18:15:40
Nein, noch nie. Das Trisetup bekommt schon immer komplett transformierte Eckpunkte.
Hm, aths hat das aber AFAIK mal in einem seiner Artikel mal beschrieben, dass die 3D -> 2D Transformation im Trisetup passiert.

r3ptil3
2005-06-21, 18:24:30
Seht mal -> http://www.gamershell.com/infosheets/238793.html

Ailuros
2005-06-21, 18:50:33
ich glaube nicht das sich ati beeilen muß

http://www.hardspell.com/newsimage/2005-6-19-22-42-35-570294601.gif

Schoene Aufloesung, nur leider fuer mich schon seit 2002 passe.

deekey777
2005-06-21, 18:53:52
Schoene Aufloesung, nur leider fuer mich schon seit 2002 passe.

Bei meinem 15 Zöller TFT ist das die schönste Auflösung überhaupt. :biggrin:

Ailuros
2005-06-21, 18:59:08
Bei meinem 15 Zöller TFT ist das die schönste Auflösung überhaupt. :biggrin:

Schon ich gebe 600-700 fuer eine GPU aus um auf einem 150 euro billig-LCD und kleinen Aufloesungen zu spielen. :rolleyes:

deekey777
2005-06-21, 19:01:39
Schon ich gebe 600-700 fuer eine GPU aus um auf einem 150 euro billig-LCD und kleinen Aufloesungen zu spielen. :rolleyes:

Dann schließt du das Ding halt an einen 70cm Fernseher per Cinch an.

Irgendwie scheinen viel nicht zu verstehen, daß die heutigen CPUs nicht gut genug für die kommende Generation an Grafikkarten sind. Darum sieht man die Verbesserungen erst bei sehr hohen Settings, wenn überhaupt.

DrumDub
2005-06-21, 19:52:44
Irgendwie scheinen viel nicht zu verstehen, daß die heutigen CPUs nicht gut genug für die kommende Generation an Grafikkarten sind. Darum sieht man die Verbesserungen erst bei sehr hohen Settings, wenn überhaupt. so siehts aus. :)

PatkIllA
2005-06-21, 19:56:29
Dann schließt du das Ding halt an einen 70cm Fernseher per Cinch an.
rofl
Irgendwie scheinen viel nicht zu verstehen, daß die heutigen CPUs nicht gut genug für die kommende Generation an Grafikkarten sind. Darum sieht man die Verbesserungen erst bei sehr hohen Settings, wenn überhaupt.
Dafür scheinen andere nicht zu verstehen, dass mehr als nen 17 oder gar nur 15" TFT gibt. Mit nem vernüftigen Monitor treibst du jede aktuell und demnächst erhältliche Grafikkarte in neueren Spielen ans Limit. Auch bei nem Durchschnittproz.

Gast
2005-06-21, 20:13:31
Hm, aths hat das aber AFAIK mal in einem seiner Artikel mal beschrieben, dass die 3D -> 2D Transformation im Trisetup passiert.

imo findet die 3D-2D-transformation im vertex-shader bzw. t&L statt, beim tri-setup werden die fertig transformierten dreiecke nur mehr ans pixel-raster angepasst, es wird also ermittelt welche pixel vom dreieck bedeckt werden (bzw. bei MSAA welche subpixel)

Gast
2005-06-21, 20:31:24
Irgendwie scheinen viel nicht zu verstehen, daß die heutigen CPUs nicht gut genug für die kommende Generation an Grafikkarten sind. Darum sieht man die Verbesserungen erst bei sehr hohen Settings, wenn überhaupt.
ja aber deswegen kauft man sich ja nen neue graka
ob ich mehr fps in 1280 hab ist mir latte
aber wenn ich flüddig bessere qualitätseinstellungen nehmen kann, dann hab ich wirklich einen mehrwert

Coda
2005-06-21, 21:07:24
Hm, aths hat das aber AFAIK mal in einem seiner Artikel mal beschrieben, dass die 3D -> 2D Transformation im Trisetup passiert.Nein, das passiert durch eine Matrix-Vektor Multiplikation im Vertexshader oder eben im festverdrahteten T&L.

Xmas
2005-06-22, 00:02:38
Das Trianglesetup macht eine 3D -> 2D Transformation. Die 2D Dreicke dürfen dann gerendert werden. Bei 4 Quadpipes mit sagen wir 4 verschiedenen Dreiecken beim Rendern wäre das aber eine unnötige Limitierung. Gerade bei kleinen Dreiecken.
Im NV40 ist es aber nicht so dass sich jede Quad-Pipeline ein Dreieck vornimmt. Wäre auch sinnlos, denn der Fragment-Pipeline kann es völlig egal sein ob ein Quad aus Dreieck A oder Dreieck B stammt, solange nur der State identisch ist und die Reihenfolge am Ende wieder stimmt. Und jeder Entwickler weiß ja dass man nach State batchen soll.

Natürlich kann auch das Triangle Setup zum Flaschenhals werden, das ist aber ziemlich selten und IMO noch keinen Einsatz zusätzlicher Transistoren wert.
Mit der 3D->2D-Transformation ist hier möglicherweise die Perspektivdivision gemeint, die nicht mehr Teil des Vertex Shaders ist (aber eigentlich 4D->3D ist).

Coda
2005-06-22, 00:05:30
aber eigentlich 4D->3D istVerwirr den armen doch nicht noch mehr ;)

Nachdenkender
2005-06-22, 01:10:05
Die ganze Verspätung des R520 nur mit Warten auf schnelleren Speicher, nämlich den 800MHz Speicher, zu erklären, macht irgendwie keinen Sinn.

Es wird doch nicht die komplette R520 Linie damit ausgestattet. Die kleineren X800 Versionen sind auch nicht mit dem XT PE Speicher bestückt. Das macht niemand weil es wirtschaftlich totaler Unsinn wäre denn der Speicher dürfte nicht gerade billig sein. Es kann mir doch keiner erzählen, dass ATI nur HighestEnd Karten anbietet und nur dafür auf 800MHz Speicher wartet. Das ist wirtschaftlich Unsinn. Die kleinen R520 brauchen den Speicher nicht und runtertakten wird ATI ganz bestimmt nicht.

Niemand hielt und hält ATI davon ab, entsprechend schnellere Versionen anzukündigen und erstmal die kleineren auf den Markt zu werfen. Die XT PE wurde auch nachgeschoben. Macht wirtschaftlich zwar nicht so viel Sinn aber besser als immer mehr Kunden an Nvidia zu verlieren, nicht nur wegen dem neuen G70 als schlicht neues Zugpferd. Die jetzt vorgestellte X550 zeigt imho auch nur, dass in den nächsten Monaten im unter/sten/en Preis- und Leistungsbereich nichts mehr grossartig kommt, bis auf R520.

Diejenigen die das nötige Kleingeld haben holen sich sowieso erstmal eine GTX und später vielleicht einen R520 falls dieser merklich schneller sein sollte. Falls dem nicht so ist, werden sie bei der GTX bleiben. Wer sowieso nur ATI kauft, wartet eh.

Die ganzen Berichte über Yield Probleme, allen voran die imho sehr seriöse Seite Xbitlabs, verbreiten solche Nachrichten bestimmt nicht nur wegen Pagehits wie Märchenonkel Fuad. Daneben bestätigt Forumsmitglied "Coda" indirekt die Probleme von TSMC mit 90nm und er ist beileibe kein Spammer oder "Fanboy". Da ist mehr dran und sollten sie immer noch am Re-Spin arbeiten, dann wird es dieses Jahr verdammt eng für ATI. Da kommt im schlimmsten Fall ein Half-Paperlaunch nächsten Monat auf uns zu denn ein paar Chips werden sie zwar schon haben, aber mit Massenverfügbarkeit ist dann Essig.

Ich habe fertig.

Gast
2005-06-22, 01:12:28
Nachtrag: Das Warten macht auch noch deshalb keinen Sinn, weil so viele HighestEnd Karten mit besagtem 800MHz Speicher kann ATI gar nicht verkaufen wie sie mit dem Warten schon an möglichem Gewinn verloren haben.

Ailuros
2005-06-22, 03:54:52
Dann schließt du das Ding halt an einen 70cm Fernseher per Cinch an.

28" oder? Hilft auch nicht viel da die Aufloesungen hier auch nicht besonders hoch sind bis jetzt.

Irgendwie scheinen viel nicht zu verstehen, daß die heutigen CPUs nicht gut genug für die kommende Generation an Grafikkarten sind. Darum sieht man die Verbesserungen erst bei sehr hohen Settings, wenn überhaupt.

Es kommt zu einem Oxymoron wenn ich als Verbraucher Uebersummen fuer eine high end Komponente ausgebe um es mit einer anderen low-end Komponente zu kombinieren; darum geht es mir eher.

ja aber deswegen kauft man sich ja nen neue graka
ob ich mehr fps in 1280 hab ist mir latte
aber wenn ich flüddig bessere qualitätseinstellungen nehmen kann, dann hab ich wirklich einen mehrwert

Wo sind dann die Leistungsbalken fuer SM3.0+ float HDR, shader-lastigere Situationen oder mit 8x bzw. 16xS usw.?

Wenn Dir 1280 oder sogar hoehere Aufloesungen egal sind, dann sind ultra high end GPUs eigentlich Geldverschwendung IMO.

robbitop
2005-06-22, 08:58:52
Verwirr den armen doch nicht noch mehr ;)
Kein Problem. Besser mal etwas nicht zu verstehen statt denken, dass man etwas verstanden hat und es in zukunft immer falsch anwendet.
Ich glaube, es aber nun verstanden zu haben.

reunion
2005-06-22, 13:52:55
Kann natürlich reine Spekulation des Autors sein, ich poste es trotzdem mal:

All this data ends up in significantly more graphics performance, giving Nvidia - at least temporarily - the desktop graphics crown, at least until ATI launches its R520 chip in the coming weeks.

http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html

r3ptil3
2005-06-22, 13:56:27
Kann natürlich reine Spekulation des Autors sein, ich poste es trotzdem mal:

All this data ends up in significantly more graphics performance, giving Nvidia - at least temporarily - the desktop graphics crown, at least until ATI launches its R520 chip in the coming weeks.

http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html

Nvidia also derzeit klar die Krone bis ATi in den nächsten Wochen seinen R520 bringt.
Wird er also schon früher vorgestellt?

Demirug
2005-06-22, 13:59:15
Kann natürlich reine Spekulation des Autors sein, ich poste es trotzdem mal:

All this data ends up in significantly more graphics performance, giving Nvidia - at least temporarily - the desktop graphics crown, at least until ATI launches its R520 chip in the coming weeks.

http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html

Wieso Spekulation? Das hört sich für mich eher so an als würde der Autor genauso im Dunkeln tappen wie alle anderen auch.

ShadowXX
2005-06-22, 14:00:24
Nvidia also derzeit klar die Krone bis ATi in den nächsten Wochen seinen R520 bringt.
Wird er also schon früher vorgestellt?

Das ist nicht mal eine Speku des Authors...er sagt im Prinzip nur, das nV mindestens bis zum Release des r520 die Performancekrone hat, schliesst aber nicht damit aus, dass es danach noch immer so aussehen kann.....

Der weiss auch nicht wie schnell der r520 ist....

Quasar
2005-06-22, 14:05:00
Hat Onkel Tom mal wieder das NDA 'anders interpretiert'? :(

reunion
2005-06-22, 14:06:27
Das ist nicht mal eine Speku des Authors...er sagt im Prinzip nur, das nV mindestens bis zum Release des r520 die Performancekrone hat, schliesst aber nicht damit aus, dass es danach noch immer so aussehen kann.....

Der weiss auch nicht wie schnell der r520 ist....


Er sagt, dass nV zumindest bis zur Vorstellung des R520 in den kommenden Wochen die Performancekrone hat - nicht mehr und auch nicht weniger.

Wie ernst man das nehmen kann, ist natürlich eine andere Frage.

DrumDub
2005-06-22, 14:22:55
Hat Onkel Tom mal wieder das NDA 'anders interpretiert'? :( das macht er doch immer. beschwert sich dann aber über paperlaunches. ;)

(wobei das diesmal ja defintiv nicht der fall ist, daher ein :up: an nvidia.)

DrumDub
2005-06-22, 14:26:04
Er sagt, dass nV zumindest bis zur Vorstellung des R520 in den kommenden Wochen die Performancekrone hat - nicht mehr und auch nicht weniger.

Wie ernst man das nehmen kann, ist natürlich eine andere Frage. "at least until" heißt ja "zumindest bis", was deutlich macht, dass er eben nicht weiß, ob der g70 nach der veröffentlichung des r520 noch die performance krone inne hat oder auch nicht. ;)

Gast
2005-06-22, 14:28:26
das macht er doch immer. beschwert sich dann aber über paperlaunches. ;)

(wobei das diesmal ja defintiv nicht der fall ist, daher ein :up: an nvidia.)

es wurde nur eine karte vorgestellt und das nur pcie weiß nicht was daran gut sein soll.ich würde erstmal warten wann die vernünftig verfügbar werden.

ne minderheit hat pcie da ist es nicht schwer die nachfrage zu decken

ShadowXX
2005-06-22, 14:29:46
"at least until" heißt ja "zumindest bis", was deutlich macht, dass er eben nicht weiß, ob der g70 nach der veröffentlichung des r520 noch die performance krone inne hat oder auch nicht. ;)

Genau das hatte ich ja auch schon versucht klarzumachen...aber das "at least"wurde wohl geflissendlich überlesen...(obwol es gleich 2x auftaucht)

DrumDub
2005-06-22, 14:33:08
es wurde nur eine karte vorgestellt und das nur pcie weiß nicht was daran gut sein soll.ich würde erstmal warten wann die vernünftig verfügbar werden.

ne minderheit hat pcie da ist es nicht schwer die nachfrage zu decken da hast du natürlich recht, aber agp interessiert mich nicht. ;)

abgesehen davon ist die große frage, ob nvidia die agp-version den boardherstellern überlässt oder dafür den boardherstllern nen referenzlayout anbietet.

reunion
2005-06-22, 14:33:43
"at least until" heißt ja "zumindest bis", was deutlich macht, dass er eben nicht weiß, ob der g70 nach der veröffentlichung des r520 noch die performance krone inne hat oder auch nicht. ;)

Er sagt, dass nV zumindest bis zur Vorstellung des R520 in den kommenden Wochen die Performancekrone hat - nicht mehr und auch nicht weniger.

Wie ernst man das nehmen kann, ist natürlich eine andere Frage.


IMHO hab' ich nichts anderes behauptet. :|

ShadowXX
2005-06-22, 14:37:37
IMHO hab' ich nichts anderes behauptet. :|

Dein Text liesst sich etwas anders (bzw. "hört" sich nach was anderem an)....speziell da du mich quotest und damit so tust, als wenn ich was völlig anderes von mir gegeben habe....

DrumDub
2005-06-22, 14:39:36
IMHO hab' ich nichts anderes behauptet. :| ups. da haste natürlich recht. in deinem ersten posting klang das aber etwas anders, da du auch die möglichkeit in beracht gezogen hast, dass es mehr als spekulation sein könnte, was ich ausgeschlossen habe.

reunion
2005-06-22, 14:39:58
Dein Text liesst sich etwas anders (bzw. "hört" sich nach was anderem an)....speziell da du mich quotest und damit so tust, als wenn ich was völlig anderes von mir gegeben habe....

War nicht beabsichtigt. =)

pF3NG
2005-06-22, 15:26:28
das macht er doch immer. beschwert sich dann aber über paperlaunches. ;)

(wobei das diesmal ja defintiv nicht der fall ist, daher ein :up: an nvidia.)
vllt. wirds trotzdem nur Paperlaunch, auch bei g70; die vollmundigen ankündigungen von nVidia und den ISV's gleich beim Launch entsprechend viele Karten zu haben sind IMO auch nur Marketinggeblubber, ich lasse mich aber gern eines besseren belehren ;)

Gast
2005-06-22, 15:39:17
nach dem enttäuschenden g70 freu ich mich jetzt auf den r520

Botcruscher
2005-06-22, 15:58:51
nach dem enttäuschenden g70 freu ich mich jetzt auf den r520

Ohne zusätzliche Bandbreite wird man auch da nicht mehr sehn.

wuzetti
2005-06-22, 16:25:08
nach dem enttäuschenden g70 freu ich mich jetzt auf den r520
1. wieso enttäuschend?
2. war immer klar, dass die jetzige generation nicht denselben leistungssprung hinlegen würde wie die vorige!
3. erst mal schauen, was R520 an features und performance bringt. wenn es bei 16x1@650 bleibt, werden sie sich schwer tun, speziell in shaderlimitierten szenen/games.

BlackBirdSR
2005-06-22, 16:45:29
nach dem enttäuschenden g70 freu ich mich jetzt auf den r520

Auf en R520 freut sich jetzt wohl jeder hier.
Aber warum sollte der G70 die Erwartungen nicht erfüllt haben?

Ich persönlich ging von eher minimalen Veränderungen und ansonsten eben einer 24/8 Konfiguration mit mehr Takt aus.

Der G70 ist in dieser Hinsicht aber deutlich mehr.
Klasse Sache :)

robbitop
2005-06-22, 16:53:34
nach dem enttäuschenden g70 freu ich mich jetzt auf den r520
Der wird genauso Gefangener der Bandbreite sein. Und Multisampling führt zwangsweise zu einer Zuspitzung dieser Situation.

reunion
2005-06-22, 17:07:09
Der wird genauso Gefangener der Bandbreite sein. Und Multisampling führt zwangsweise zu einer Zuspitzung dieser Situation.


http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png

http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7743.png

http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7742.png

Wobei ich es durchaus intressant finde, dass G70 auch dort punkten kann.

deekey777
2005-06-22, 18:33:49
...
Aber warum sollte der G70 die Erwartungen nicht erfüllt haben?

..


Weil er in 3D 2005 Scheiße ist.
Und seit dem Erscheinen des 3D 2005 wird nur dieses gespielt - ununterbrochen...

r3ptil3
2005-06-22, 18:45:36
Weil er in 3D 2005 Scheiße ist.
Und seit dem Erscheinen des 3D 2005 wird nur dieses gespielt - ununterbrochen...

Hehe, und dieser Post musste natürlich wie immer wieder von einem Gast kommen.

Black-Scorpion
2005-06-22, 18:59:11
Hehe, und dieser Post musste natürlich wie immer wieder von einem Gast kommen.
deekey777 ist ein Gast der seit 2003 angemeldet ist. :rolleyes:

robbitop
2005-06-22, 19:07:28
*BILDER*

Wobei ich es durchaus intressant finde, dass G70 auch dort punkten kann.
Ah..die hohe Auflösung lockt den G70 also erst aus der Reserve... Oder halt SSAA. Für was Anderes würde ich mir eh keine High End Karte kaufen.

deekey777
2005-06-22, 19:12:36
deekey777 ist ein Gast der seit 2003 angemeldet ist. :rolleyes:

Dieser Gast war gemeint:
nach dem enttäuschenden g70 freu ich mich jetzt auf den r520

(In meiner Sig stand, daß "Gast" mein Zweitaccount ist. ;D )

reunion
2005-06-22, 19:13:52
Ah..die hohe Auflösung lockt den G70 also erst aus der Reserve... Oder halt SSAA. Für was Anderes würde ich mir eh keine High End Karte kaufen.

Scheint so, wobei ich es trotzdem seltsam finde, dass der G70 bei 2048 x 1536 mit 4x MSAA derart davonzieht - obwohl die Bandbreite kaum zugenommen hat. Gibt es irgendwelche Infos über verbesserte Bandbreitenschohnung?

Black-Scorpion
2005-06-22, 19:16:57
Ah..die hohe Auflösung lockt den G70 also erst aus der Reserve... Oder halt SSAA. Für was Anderes würde ich mir eh keine High End Karte kaufen.
Dafür geht in der Auflösung der 6800U aber ziemlich die Puste aus.
Bis zu 100% Unterschied zur x850 XT-PE ist fett.
Das beide nicht gerade spielbar sind ist aber auch klar. ;)

Demirug
2005-06-22, 19:19:28
Scheint so, wobei ich es trotzdem seltsam finde, dass der G70 bei 2048 x 1536 mit 4x MSAA derart davonzieht - obwohl die Bandbreite kaum zugenommen hat. Gibt es irgendwelche Infos über verbesserte Bandbreitenschohnung?

Vielleicht war da beim NV40 mehr Luft als man bisher angenommen hat. Ich komme leider nicht an die Performanceregister im Chip ran. Da kann man dieses Infos alle auslesen.

-error-
2005-06-22, 20:13:24
Der wird genauso Gefangener der Bandbreite sein. Und Multisampling führt zwangsweise zu einer Zuspitzung dieser Situation.

Aber auch nur, weil der der schnelle Speicher nicht erhältlich ist. ATI wird gleich auf 1400 mhz GDDR3 (1.4ns) setzen. Zumindest bei der XT (PE?)

Gast
2005-06-22, 20:15:48
Aber auch nur, weil der der schnelle Speicher nicht erhältlich ist. ATI wird gleich auf 1400 mhz GDDR3 (1.4ns) setzen. Zumindest bei der XT (PE?)
Ich denke, dass die PE 800Mhz Speicher haben wird.

Godmode
2005-06-22, 20:17:07
Vielleicht war da beim NV40 mehr Luft als man bisher angenommen hat. Ich komme leider nicht an die Performanceregister im Chip ran. Da kann man dieses Infos alle auslesen.

Das hört sich so an als ob der NV40 künstlich gebremst wird?

Demirug
2005-06-22, 20:18:54
Das hört sich so an als ob der NV40 künstlich gebremst wird?

Nein, ich meinte das bei diesem Test vielleicht was anderes als die Bandbreite beim NV40 limitiert.

Godmode
2005-06-22, 20:23:58
Nein, ich meinte das bei diesem Test vielleicht was anderes als die Bandbreite beim NV40 limitiert.

Achso verstehe.

reunion
2005-06-23, 11:39:45
da z.b. kann man's nachlesen. immer vorausgesetzt, das stimmt auch.

http://www.xbitlabs.com/news/video/display/20050609093014.html

Da gibt es aber auch eine neuere Meldung, die besagt, dass sich R520 bereits in Massenproduktion befindet:

http://www.xbitlabs.com/news/video/display/20050530100343.html

seahawk
2005-06-23, 11:54:38
Da gibt es aber auch eine neuere Meldung, die besagt, dass sich R520 bereits in Massenproduktion befindet:

http://www.xbitlabs.com/news/video/display/20050530100343.html

Die wo von der Massenproduktion geschrieben wird ist vom 30.05, die mit dem Problemen vom 09.06. Die Problemmeldung ist neuer.

Aber ich würde mir da keine Sorgen machen. Der R520 liegt im Zeitplan.

mapel110
2005-06-23, 11:55:52
Aber ich würde mir da keine Sorgen machen. Der R520 liegt im Zeitplan.
Ist nur die Frage, wie "alt" dieser Zeitplan ist. ;)

Gast
2005-06-23, 11:56:23
Die wo von der Massenproduktion geschrieben wird ist vom 30.05, die mit dem Problemen vom 09.06. Die Problemmeldung ist neuer.

Aber ich würde mir da keine Sorgen machen. Der R520 liegt im Zeitplan.

Bedeutet das, Vorstellung am 26.7. mit gleicher Verfügbarkeit wie die G7800GTX jetzt?

seahawk
2005-06-23, 12:02:44
Ist nur die Frage, wie "alt" dieser Zeitplan ist. ;)

Eher wie "neu". :biggrin:

ShadowXX
2005-06-23, 12:53:56
Bedeutet das, Vorstellung am 26.7. mit gleicher Verfügbarkeit wie die G7800GTX jetzt?

Das wissen nur die Sterne.....bei nV wurde so dichtgehalten, das ja sogar Leo nicht daran glaubte, das es sofort Karten gibt.

Gast
2005-06-23, 13:59:31
AFAIK,R520 is 20~40% faster than G70 all depends on what kind of situation.

Gast
2005-06-23, 14:02:08
Aus dem Quartalsbericht (für das abgelaufene Fiskal-Q3) von ATI:

For the fourth quarter, we anticipate revenues in the range of $550-580 million. This range has been adjusted down from the preliminary guidance on June 6, 2005, due to a more conservative expectation on the ramp of new products in the fourth quarter.

Scheint so, als ob es mit einigen neuen Produkten wohl wirklich mehr Probleme als gedacht gibt, und das das Q4 (also die nächsten 3 Monate) nicht optimal laufen wird...

Grüße: X.Perry_Mental

Quelle: http://www.ati.com/companyinfo/ir/2005/atiq305.pdf

Godmode
2005-06-23, 14:05:04
AFAIK,R520 is 20~40% faster than G70 all depends on what kind of situation.

Wenn er wirklich schneller sein soll muss er auch noch SSAA unterstützen, ansonsten interessiert mich der Chip nicht wirklich.

Gast
2005-06-23, 14:06:22
net loss.......

I hate Red ink

Gast
2005-06-23, 14:08:46
Wenn er wirklich schneller sein soll muss er auch noch SSAA unterstützen, ansonsten interessiert mich der Chip nicht wirklich.

You will only see limited quantity of R520 .

Winter[Raven]
2005-06-23, 14:15:58
AFAIK,R520 is 20~40% faster than G70 all depends on what kind of situation.

Yeh and my grandmother can fly!

Anonym_001@Suse
2005-06-23, 14:22:22
Gehts bei dir auch mal ohne dumme Bemerkungen und Spam?

ShadowXX
2005-06-23, 14:27:14
']Yeh and my grandmother can fly!

Ich würds nicht so extrem negativ sehen.....ganz dumm sind die ATI Ings auch nicht.

Ich könnte mir durchaus vorstellen, das gerade in Situationen wo auch schon die x8x0-Reihe dem nv40 überlegen war, auch der r520 gegen den G70 gewinnt.

Allerdings wohl nicht mehr insgesamt so hoch und es wird wohl auch nicht mehr so extrem Ausreisser wie jetzt Teilweise geben.

Ich glaube allerdings auch, das der G70 in Shaderlimitierten Situationen schneller sein wird als der r520...teilweise sogar deutlich...das wird sich wohl erst mit dem r580 ändern.

Aber wie schon erwähnt....wenn ATI seine AA-Modi nicht aufgebohrt hat (SuperSampling, Transparent AA), kann mir der Chip gestohlen bleiben, selbst wenn er durchgehend 10% schneller ist....

seahawk
2005-06-23, 14:34:08
AFAIK,R520 is 20~40% faster than G70 all depends on what kind of situation.

Je nach Anwendung und Settung ist das korrekt. Es ist aber nicht für alle Anwendungen (heutige und künftige) korrekt. :)

Winter[Raven]
2005-06-23, 14:36:54
@ Shadow

Ich bezog mich ehe auf die 40% die der Gast reingepostet hat ;) Wir werdens abwarten müssen, aber ich trau ATI auch zu sich verschätz zuhaben mit NV, deswegen zwitschern ja die Vögel das das sich erst mit dem R580 ändern wird, nur erwartet uns dann wiederum der G80 *gg*

seahawk
2005-06-23, 14:39:51
']@ Shadow

Ich bezog mich ehe auf die 40% die der Gast reingepostet hat ;) Wir werdens abwarten müssen, aber ich trau ATI auch zu sich verschätz zuhaben mit NV, deswegen zwitschern ja die Vögel das das sich erst mit dem R580 ändern wird, nur erwartet uns dann wiederum der G80 *gg*

In einzelnen Anwendungen und unter bestimmten Vergleichsetting sind mehr als 40% Unterschied zu gunsten der ATI möglich. :smile:

Gast
2005-06-23, 14:40:17
']Yeh and my grandmother can fly!

You will see that happen.

Winter[Raven]
2005-06-23, 14:43:21
In einzelnen Anwendungen und unter bestimmten Vergleichsetting sind mehr als 40% Unterschied zu gunsten der ATI möglich. :smile:

Das glaub ich wiederrum nicht, "VIELLEICHT" in den schon etwas älteren aber nicht in den neuen *gg*

@ Gast,

:) We'll see !

Gast
2005-06-23, 14:50:12
There are two versions of R520


1.The low-yield R520 but better thermal control(K=0.12)
2. The refined R520 (K=0.15)

Gast
2005-06-23, 14:54:47
Why R520 is faster than G70?

1. High clock(more 100MHz) compare to What we already see from retail G70 version.
2.R520 have a huge amount of effiency feature .

seahawk
2005-06-23, 14:56:41
If it has only 100MNhz more clock speed, then it won´t stand a chance. I expect 200+mhz more for the R520.

Gast
2005-06-23, 14:58:12
If it has only 100MNhz more clock speed, then it won´t stand a chance. I expect 200+mhz more for the R520.

You have to compromise with yield altogether.

Gast
2005-06-23, 15:07:16
You have to compromise with yield altogether.

version (1) R520 already have 650 MHz that can run stable all the time,
but version (2) R520 is refined R520 which have high K dielectric substance that is why i dont expect the latter one can run faster even stable compared to the version (1) R520.

r3ptil3
2005-06-23, 16:02:44
Von wo habt ihr das?

Mumins
2005-06-23, 16:03:11
Nachtrag: Das Warten macht auch noch deshalb keinen Sinn, weil so viele HighestEnd Karten mit besagtem 800MHz Speicher kann ATI gar nicht verkaufen wie sie mit dem Warten schon an möglichem Gewinn verloren haben.

Dir ist aber schon klar wieviel der HighEnd Bereich vom Gesamtumsatz ausmacht! Das sind wohl 5%.
Mit dem HighEnd Bereich will man vornehmlich Prestige gewinnen.

Gast
2005-06-23, 16:07:07
Von wo habt ihr das?

TSMC pdf

Gast
2005-06-23, 16:12:46
In einzelnen Anwendungen und unter bestimmten Vergleichsetting sind mehr als 40% Unterschied zu gunsten der ATI möglich. :smile:

vor allem wenn man 6xFSAA gegen 8xS testet könnte das durchaus drinnen sein ;)

r3ptil3
2005-06-23, 16:18:11
TSMC pdf

Link?

Gast
2005-06-23, 16:23:58
Link?

NDA

Gast
2005-06-23, 16:33:39
Ich habe jetzt nicht alles verfolgt. Der R520 hat 16 pipes? Oder steht das noch nicht fest?

Gast
2005-06-23, 16:36:16
If you want to buy good thermal control and faster clock increment potential to be overclocked , go for the first quanitity of R520.

reunion
2005-06-23, 16:37:35
Launch "late summer", availability "at the same timeframe".
http://www.beyond3d.com/forum/viewtopic.php?t=23600&postdays=0&postorder=asc&start=280#top

Gast
2005-06-23, 16:37:45
Ich habe jetzt nicht alles verfolgt. Der R520 hat 16 pipes? Oder steht das noch nicht fest?

32 shaders 16rop

[dzp]Viper
2005-06-23, 16:41:12
32 shaders 16rop

all 32 pipes actived?

Gast
2005-06-23, 16:42:43
Viper']all 32 pipes actived?

24shaders enable .

mapel110
2005-06-23, 16:45:29
Viper']all 32 pipes actived?
Wenn er 32 Pipes hätte, wären die auch aktiviert. (Vorsichtig lesen, ist Konjunktiv. :O )

Gast
2005-06-23, 16:47:59
http://www.beyond3d.com/forum/viewtopic.php?t=23600&postdays=0&postorder=asc&start=280#top


All i can say is when Review up we still only see few cards on the shelves.

Because R520 is first low yield GPU more or less (even lower than NV30).

Gast
2005-06-23, 16:49:01
Wenn er 32 Pipes hätte, wären die auch aktiviert. (Vorsichtig lesen, ist Konjunktiv. :O )

You wont see 32shaders untill R580's arrival.

Gast
2005-06-23, 16:49:58
G70 24 shaders 16 ROP
R520 32 shaders 16 Rop

Ronny145
2005-06-23, 16:50:43
24 pipes und bei dem Takt, da sollte der R520 schon um einiges schneller sein. Das klingt gut.

Hauwech
2005-06-23, 16:50:52
Wenn er 32 Pipes hätte, wären die auch aktiviert. (Vorsichtig lesen, ist Konjunktiv. :O )

Nicht unbedingt wenn 24 schon ausreichen den G70 zu schlagen. Macht aber irgendwie für eine fabless company wie ATI keinen Sinn mehr Transistoren zu verballern wenn die die nächsten 6 Monate oder noch länger noch gar nicht benötigt werden. Intel kann sich sowas erlauben, aber ATI? Oder ist wie so oft alles nur kreative Zählweise.

Falls das aber doch alles stimmt, nicht schlecht 24 Pipes@650MHz.

Nebenbei würde ich so einer Person, vorausgesetzt er erzählt nicht nur Märchen, nie irgendwelche wichtige Informationen in die Hand drücken wenn die so eindeutig weitergegeben werden.

mapel110
2005-06-23, 17:03:17
Nicht unbedingt wenn 24 schon ausreichen den G70 zu schlagen. Macht aber irgendwie für eine fabless company wie ATI keinen Sinn mehr Transistoren zu verballern wenn die die nächsten 6 Monate oder noch länger noch gar nicht benötigt werden. Intel kann sich sowas erlauben, aber ATI? Oder ist wie so oft alles nur kreative Zählweise.

Falls das aber doch alles stimmt, nicht schlecht 24 Pipes@650MHz.

Nebenbei würde ich so einer Person, vorausgesetzt er erzählt nicht nur Märchen, nie irgendwelche wichtige Informationen in die Hand drücken wenn die so eindeutig weitergegeben werden.
Wenn man die Chance hat, durch 32 Pipes nvidia wesentlich deutlicher zu schlagen als durch 24 Pipes, dann macht man das auch.

Wenn ein Chip mit 32 Pipes so wenig Ausbeute liefert, dass man ihn als 24 Piper verkaufen müsste, bringt man ihn gar nicht erst auf den Markt.
24 pipes und bei dem Takt, da sollte der R520 schon um einiges schneller sein. Das klingt gut.
Er wird genauso gegen das CPU-Limit knallen wie G70, wobei der G70 den Vorteil Supersampling und TransparencyAA hat, worin man die überschüssige Füllrate stecken kann. ATI bietet dafür nichts, wobei ich hoffe, dass da noch was kommt.

micki
2005-06-23, 17:05:15
performance ist nicht alles
ich hoffe dass SM3.0 wirklich drinne ist und mindestens so flexibel ist wie beim nv30/40
diese dependencie level usw. nerven.

dann würd ich meine 9500pro endlich ausrangieren. aber wenn sie diesmal wieder nur was halbherziges raushauen, kauf ich mir ne günstige nv40U, so! :D


MfG
micki

micki
2005-06-23, 17:08:47
Wenn ein Chip mit 32 Pipes so wenig Ausbeute liefert, dass man ihn als 24 Piper verkaufen müsste, bringt man ihn gar nicht erst auf den Markt.
doch macht man trotzdem, nennt man marktabschöpfung. ein paar 32piper, nemenge 24piper und vielleicht an irgendwelche schnullis noch ne LE version mit nem halb kaputten 16piper chip. :D

aber heutzutage legt man chips eh schon so aus, dass man sie trotz defekt verkauft, das ist von vornherein eingeplannt. macht jeder cpu/gpu hersteller. am einfachsten geht das natürlich mit dem cache. aber dank flexibler pipe architektur....

meine 9500pro hat auch die hälfte der pipes abgeschaltet, obwohl sie nicht kaputt sind.

MFG
micki

zeckensack
2005-06-23, 17:13:57
meine 9500pro hat auch die hälfte der pipes abgeschaltet, obwohl sie nicht kaputt sind.:|
9700: 8 Pipes, 256 Bit Speicherinterface
9500Pro: 8 Pipes, 128 Bit Speicherinterface
9500: 4 Pipes, Speicherinterface mal so, mal so

Mumins
2005-06-23, 17:14:06
meine 9500pro hat auch die hälfte der pipes abgeschaltet, obwohl sie nicht kaputt sind.

Falsch, deine Karte hat 8 Pipes aber nur 128bit.

Gast
2005-06-23, 17:15:46
R520's low-yield is due to CVD problem which is the reason why ATI have to wait long long months to finialize the production sample.

Coda
2005-06-23, 17:26:41
performance ist nicht alles
ich hoffe dass SM3.0 wirklich drinne ist und mindestens so flexibel ist wie beim nv30/40
diese dependencie level usw. nerven.SM 3.0 kennt fast keine Flags, d.h. R520 kann SM 3.0 gar nicht unflexibler handhaben als NV40/G70.
Unlimited dependent reads gehören da auch dazu...

Gast
2005-06-23, 17:27:56
:|
9700: 8 Pipes, 256 Bit Speicherinterface
9500Pro: 8 Pipes, 128 Bit Speicherinterface
9500: 4 Pipes, Speicherinterface mal so, mal so

You will see 16 shaders R520 equipped with either 128bit or 256bit interface depends on ATI's decision.

ShadowXX
2005-06-23, 17:37:47
Ich kann mir sehr gut vorstellen, warum ATI auf 32 Pipes hinauswill.....wovon hat nV zwei in einer Pipe und sehr wahrscheinlich ATI nur einen??

Anders gesagt...nV hat im G70 quasi 48 Pixelshader. Viel unterscheidet die beiden ALU-Teile nicht mehr. Dadurch auch die um den Faktor 2 gestiegenen Shaderpower.

Durch den Mehrtakt und bei 24 Aktiven Pipes würden Sie wahrscheinlich aber höchstens Pari mit dem Shaderpower des G70 gehen...wenn Sie die "neue" SM3.0 / FP32 ALU halbwegs ordentlich hinbekommen haben.


Sie hätte aber natürlich wesentlich mehr Füllrate.....mal sehen was Sie draus basteln.

reunion
2005-06-23, 17:40:15
G70 24 shaders 16 ROP
R520 32 shaders 16 Rop


And how much TMUs?
Also 32?

Sie hätte aber natürlich wesentlich mehr Füllrate.....mal sehen was Sie draus basteln.

Nur unter der Vorraussetztung, dass jede Shader Pipe auch eine TMU hat.
R480 hat ja auch noch eine Mini-ALU, also je nach zählweise ebenfalls 32 "Shaders".