PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42

mapel110
2005-09-06, 04:59:39
Grosse Webseiten haben relevantes Zeug schon bekommen fuer kommende reviews ;)
hm, ja, wenn man Crossfire ein zweites Mal "launchen" will, muss man das Material wohl etwas früher rausgeben weil (wesentlich) mehr Benchaufwand. :uponder:
Wenn ich mir vorstelle, die ganzen NV4x-SLI-Modelle und dann noch 3 ?! neuen Radeon-Modelle und die alten Radeonmodelle alle im SLI Mode, my ass. Die armen Reviewer. Da fühlt man sich ja genötigt, alle Artikel zu lesen um den Aufwand zu belohnen. :D

seahawk
2005-09-06, 07:48:47
Was soll ich dir erklären, wenn du es schon selbst gemacht hast? :|
Oder denkst du, daß:
a) die 7800Ultra schon seit mehreren Monaten im stillen Kämerchen rumliegen und nur darauf warten, auf die Welt losgelassen zu werden;
b) die Quadro 4500 einfach zu 7800Ultra umgelabelt werden, zZ aber am laufenden Band produziert werden.

Wenn weder a) noch b) zutreffen, dann muß die 7800Ultra vorher in ausreichenden Mengen produziert und ausgeliefert werden, bevor sie angekündigt wird, damit sie sofort verkauft wird. Wie kurzfristig das Kurzfristig sein könnte, weiß ich nicht. Daß sie Zeit zum Aussortieren haben, ist schon klar, sonst gäbe es keine Quadro 4500, die mit 550MHz läuft.


Nö, ne Ultra ist easy. Die Kartenhersteller müßten nur selektieren. Man muss sich due Ultra nur als Golden Sample Version vorstellen. Es gibt gar nicht so wenige 7800GTX die über 475 mhz schaffen und einige schaffen sogar über 500Mhz.

robbitop
2005-09-06, 08:48:42
Die G70 Pipes sind schon extrem rechenstark. ATI muss relativ zum R4xx etwas an den Pipes getan haben. Denn eine G70 Pipe hat pro Takt den 2x aritmethischen Output wie eine R4xx Pipe. Ich persönlich glaube nicht, dass R520/580 das überflügeln können. Das ist ein extremer Sprung. Seit NV40 ist NV mit einer hohen aritmethischen Effizienz am Markt, IMO ist da bei aktuellen Designs kaum noch Luft nach oben. Genauso sieht es auf der Featureseite aus. Lediglich ein paar Kleinigkeiten fehlen da noch. G70 wurde mit CineFX seit NV3x auf SM3 ausgelegt. Somit sind die Pipes relativ transistoreffizient designed (man schaue was für Features im G70 schlummern und wieviele Ausführungseinheiten er hat).
Selbst 600MHz sollten IMO nicht genügen, um G70 wirklich zu besiegen (ich spreche hier also nicht über einen einstelligen Prozentsatz, welcher auch im Messfehlerbereich liegen kann). Und die kann ATI eh kaum liefern.
R580 ist lediglich ein R520 Refresh. Ich erwarte hier im Gegensatz zu anderen keine spektakulären Änderungen. ATI hat noch nie einen echten Refresh gebracht. Zumal sie auch kein wirklich gut skallierbares Design besitzen, welches mal eben um 2 Quads aufstockbar ist. Das erfordert schon mehr Arbeit beim Redesign.
Vor Q1 2006 kommt das Teil eh nicht. Der Gegner von R580 wird G80 sein. Auch hier erwarte ich nur sehr leichte Änderungen und vor Allem mehr Takt.
Der ganze Verlauf vom R520 erinnert mich stark an den NV3x. Er kam ewig nicht heraus, da NV das Ding verkrampft auf 500MHz bringrn musste, um R300 auch nur annähernd gefährlich werden zu können. Nur ist es diesmal weniger Kritisch, da ATI vermutlich keinen so großen Murks wie den NV30 herausbringt. Aber ein wenig in die Richtung scheint mir das zu verlaufen. IMO ist ATI's nächste Chance auf den Tron erst mit R600 vs NV50(??).

alles IMO.

Gast
2005-09-06, 09:14:20
Nvidia G70 Ultra cancelled !!


http://www.the-inquirer.com/?article=25949

Gast
2005-09-06, 09:17:51
Ich lese da was anderes drin, nämlich die mieserabel werdende Verfügbarkeit von R520. Wenn kaum produziert wird oder viel auf Müllhalde produziert wird, dann ists nix mit Umsätzen, geschweigedenn Gewinnen.
Aber in ein paar Wochen sind wir schlauer.

Du hättest lieber sagen sollen, dass du das zusätzlich noch darin liest. Ich auch :)
Die Message die du aufgeführt hast, gab es auch noch.

Aber das was ich sagte war auch enthalten.
Wenn der CEO auf einem Conference Call zu Analysten und Investoren sagt, dass sie überzeugt sind G70 GTX zu schlagen wenn die anvisierten Taktraten erreicht werden können, dann ist das schon eine versteckte Warnung. Und gleich hinten drann noch, dass sie wissen dass Nvidia mit dem G70 GTX konservativ war und einiges an Overclocking Potential hat.

Das hörte sich an wie:
"Also wir werden die GTX schaffen, wohl aber nicht mit den besten yields (deine Message :) ) aber es sieht nicht so gut aus, wenn Nvidia nochmal nachlegt wovon wir bei den derzeit moderaten Taktraten ausgehen.

Juerg
2005-09-06, 09:28:42
Nvidia G70 Ultra cancelled !!


http://www.the-inquirer.com/?article=25949Entegen der Nachricht von the Inquirer könnte man dies auch so deuten: nVidia hat ein Release-Board vom R520 in die Hand bekommen und getestet. Daraufhin wurde die 7800Ultra sofort gestoppt. Es braucht sie nicht mehr ;)

Gast
2005-09-06, 10:01:21
Entegen der Nachricht von the Inquirer könnte man dies auch so deuten: nVidia hat ein Release-Board vom R520 in die Hand bekommen und getestet. Daraufhin wurde die 7800Ultra sofort gestoppt. Es braucht sie nicht mehr ;)
Könnte sein, fragt sich nur, warum sie die Ultra nicht mehr bräuchten. Wenn ich gegen einen Porsche bestehen müßte, würde ich auch darauf verzichten, mein Pferd zu dopen. ;)

robbitop
2005-09-06, 10:17:32
Entegen der Nachricht von the Inquirer könnte man dies auch so deuten: nVidia hat ein Release-Board vom R520 in die Hand bekommen und getestet. Daraufhin wurde die 7800Ultra sofort gestoppt. Es braucht sie nicht mehr ;)
So in etwa. Kann man sich als Laie aber auch denken. Dazu braucht es kein Sample, das kann man ja einfach hochskallieren. Letztendlich wäre es ein Leichtes, den G70 ein paar MHz höher zu takten.

Tigershark
2005-09-06, 10:39:36
Könnte sein, fragt sich nur, warum sie die Ultra nicht mehr bräuchten. Wenn ich gegen einen Porsche bestehen müßte, würde ich auch darauf verzichten, mein Pferd zu dopen. ;)

Dein Porsche hat aber leider nur 2 zylinder, errr.... 16 Pipelines, aber das hatten wir ja alles schon :rolleyes:

Gast
2005-09-06, 11:01:00
Ich hab mir den G70 Die mal angeguckt und den vom R520. Der G70 Die ist ja schon riesig und wenn man sich den R520 Die anguckt und bedenkt das dieser in 90nm gefertigt wird anstatt wie der G70 in 110nm kann ich mir schlecht vorstellen, dass der R520 unter 310 Mio Transistoren aus dem Haus geht. Kann mir mal vielleicht einer helfen und sagen was außer 16 Pipes noch so viel Platz weg nimmt? Da scheinen vielleicht doch 24 Pipes vorhanden zu sein.


Meine Theorie: Es sind 24 PP vorhanden. Es kommt eine Version mit 500 Mhz raus und eine mit 600 Mhz. Die Pipes sind nicht so effiezent, sodass sie hohen Takt brauchen und mit 500 MHz die GTX nur knapp geschlagen wird oder gleichgezogen und das die 600Mhz sich vor der GTX absetzt.

Juerg
2005-09-06, 11:24:09
Kann mir mal vielleicht einer helfen und sagen was außer 16 Pipes noch so viel Platz weg nimmt? Da scheinen vielleicht doch 24 Pipes vorhanden zu sein. :| :rolleyes: Lieber Gast es sind 16 säusel... sechzehn... SECHS ZEHEN :biggrin: (wenn man den diese falsche Zählweise als Pipelines bervorzugt)

SKYNET
2005-09-06, 11:32:16
Entegen der Nachricht von the Inquirer könnte man dies auch so deuten: nVidia hat ein Release-Board vom R520 in die Hand bekommen und getestet. Daraufhin wurde die 7800Ultra sofort gestoppt. Es braucht sie nicht mehr ;)

genau das wirds wahrscheinlich sein... ich bin echt gespannt auf die ersten reviews G70 vs. R520 ;D

deekey777
2005-09-06, 11:36:06
Grosse Webseiten haben relevantes Zeug schon bekommen fuer kommende reviews ;)

Aber natürlich: Es kommt immer auf die Größe an...

SKYNET
2005-09-06, 11:45:15
Aber natürlich: Es kommt immer auf die Größe an...


und was am schluss rauskommt... X-D

zeckensack
2005-09-06, 11:57:13
Ja. Definitiv :D :rolleyes:

Abseits davon: Da ist nicht viel Spielraum gegenüber NV4x. Das einzige was noch geht ist mehr als Pointfiltering in den Vertex-TMUs und FP16-MSAA.Der VT-Support von NV40 und G70 ist lächerlich, und hat diesen Namen überhaupt nicht verdient. Wusstest du schon, dass nur Vierkanal-FP32-Texturen unterstützt werden? Das kann man vielleicht als 2D indexed constant storage verkaufen (ist IMO auch exakt so implementiert), aber wohl weniger als vertex texturing.
Da gibt es viel Spielraum zur Verbesserung. Viel.

Und die Branching-Performance ist ja wohl auch noch verbesserungsfähig.

Gast
2005-09-06, 12:11:15
Mal wieder was aus der Gerüchteküche: Wird der R520 als X1800 verkauft? Mein Chinesisch ist nicht wirklich gut... Da steht auch was von 16 Pipes und 700MHz, aber wer schreibt da von wem ab?
http://www.pconline.com.cn/diy/front/news/graphics/0509/696235.html

cR@b
2005-09-06, 12:19:58
Hier in Deutsch http://www.hartware.de/news_38451.html

daywalker1982
2005-09-06, 12:32:48
ATi äußert sich zum R520

Vermehrt in letzter Zeit traten zwar immer mehr Gerüchte zum R520 auf, allerdings hörte man nicht viel von ATi selbst her. Doch nun meldete sich Dave Orton, seines Zeichens CEO, zu Wort. So ließ er verlauten, dass der R520 inklusive seiner Derivate nun wirklich ende September veröffentlicht wird. Der Launchtag ist aber nicht gleichzeitig der Tag, indem man den R520 auch kaufen kann, diese Seltenheit bescherte uns die GeForce 7800 GTX vorbildlich. Erst im Oktober ist damit zu rechnen, dass R520 Exemplare den Weg in die Regale gefunden haben. Weiterhin äußerte sich Dave Orton zur Verspätung des R520, dieser soll nämlich bereits im Dezember 2004 lauffähig gewesen sein. Man habe laut Dave Orton, lediglich Re-Spines vollzogen, um höhere Taktraten zu erzielen. Auf die Frage, ob der R520 schneller werde, als die GeForce 7800 GTX, sagte er, dass der R520 durchaus schneller werde, vorausgesetzt allerdings, dass man die angepeilten Taktraten beibehalten kann. Zurzeit sind mehr als 10.000 3DMarks im Gespräch, die 7800 GTX kommt gerade mal auf 7.800 3DMarks. Aber wie bereits in unserer letzten News thematisiert, arbeitet nVidia schon eifrig am Nachfolger der 7800 GTX. Zum Schluss ließ Dave Orton allerdings eine nicht so schöne Nachricht verlauten. Er verschob den Termin des R580 auf das Frühjahr 2006, bestätigte allerdings gleichzeitig, dass man schon eifrig am RV560, RV540 und RV505 arbeite. Das nächst größere Projekt seiner Meinung nach wird allerdings erst Ende 2006 bzw. Anfang 2007 realisiert. Gemeint ist die Implementierung von WGF 2.0 (DirectX 10), welche gleichzeitig mit der Vorstellung von Windows Vista Eintritt findet.

(quelle www.hardwareinfos.com)

Coda
2005-09-06, 13:02:11
Der VT-Support von NV40 und G70 ist lächerlich, und hat diesen Namen überhaupt nicht verdient. Wusstest du schon, dass nur Vierkanal-FP32-Texturen unterstützt werden?Ja.
Das kann man vielleicht als 2D indexed constant storage verkaufen (ist IMO auch exakt so implementiert), aber wohl weniger als vertex texturing.
Da gibt es viel Spielraum zur Verbesserung. Viel.Es wird aber auch Mipmapping unterstützt, ansonsten würd ich dir das jetzt mal sofort glauben.
The GeForce 6 Series GPUs support vertex texturing, but vertex textures should not be treated as constant RAM. Vertex textures generate latency for fetching data, unlike true constant reads. Therefore, the best way to use vertex textures is to do a texture fetch and follow it with many arithmetic operations to hide the latency before using the result of the texture fetch.
Vertex Textures are not a substitute for large arrays of constants. They instead are designed for sparse per vertex data, such that there are only a small number of vertex texture fetches per vertex.Aber mal abgesehen davon; was anderes als "constant storage" sind Texturen denn?
Und die Branching-Performance ist ja wohl auch noch verbesserungsfähig.Ich denke nicht, dass da R520 sehr viel besser ist. Das ist einfach ein Problem bei SIMD und so tiefen Pipelines.

zeckensack
2005-09-06, 13:16:58
Es wird aber auch Mipmapping unterstützt, ansonsten würd ich dir das jetzt mal sofort glauben.Mipmapping ist bei VTs mehr oder weniger bedeutungslos, weil es keinen natürlichen per vertex-LOD gibt.
Mipmap-Stufen >0 können nur durch expliziten LOD genutzt werden. Ich weiß jetzt ehrlich gesagt gerade nichtmal, welche Instruktionen das machen, und ob NV40 die unterstützt. Wenn du es sagst wird es wohl stimmen, und dann muss ich den Implementationstrick zurücknehmen. Sinn sehe ich darin trotzdem nicht.
Aber mal abgesehen davon; was anderes als "constant storage" sind Texturen denn?Nüx.
Der eigentliche Wert von Texturen besteht darin, dass man sie binden und wiederverwenden, also mit leichten Operationen sehr große Datenmengen zwischen Shadern "verschieben" und teilen kann.
Ich denke nicht, dass da R520 sehr viel besser ist. Das ist einfach ein Problem bei SIMD und so tiefen Pipelines.Ja, schon. Die Batch-Größe beim NV40 ist aber geradezu pathologisch. Es muss auch ein besserer Kompromiss möglich sein. Wenn ATI die Branching-Performance wichtig ist, dann werden sie auch versucht haben einen zu finden. "Checkbox"-Implementierungen braucht niemand.

Coda
2005-09-06, 13:20:31
Mipmapping ist bei VTs mehr oder weniger bedeutungslos, weil es keinen natürlichen per vertex-LOD gibt.
Mipmap-Stufen >0 können nur durch expliziten LOD genutzt werden. Ich weiß jetzt ehrlich gesagt gerade nichtmal, welche Instruktionen das machen, und ob NV40 die unterstützt. Wenn du es sagst wird es wohl stimmen, und dann muss ich den Implementationstrick zurücknehmen. Sinn sehe ich darin trotzdem nicht.Anscheinend hat man auf jedenfall entkoppelte Einheiten für externe "constant storage" im VRAM eingebaut. Merkt man ja auch an der Latenz von den texture-fetches im Vertexshader. Ob man das jetzt als "TMU" bezeichnen kann ist die andere Frage ;)

Die 224 sonstigen Konstanten werden ja sicher lokal irgendwo gehalten (wahrscheinlich pro Quad).

Demirug
2005-09-06, 13:21:41
Mipmapping ist bei VTs mehr oder weniger bedeutungslos, weil es keinen natürlichen per vertex-LOD gibt.
Mipmap-Stufen >0 können nur durch expliziten LOD genutzt werden. Ich weiß jetzt ehrlich gesagt gerade nichtmal, welche Instruktionen das machen, und ob NV40 die unterstützt. Wenn du es sagst wird es wohl stimmen, und dann muss ich den Implementationstrick zurücknehmen. Sinn sehe ich darin trotzdem nicht.

Kan in Spezialfällen ganz nützlich sein wenn man dynamische Oberflächen berechnet.

Ja, schon. Die Batch-Größe beim NV40 ist aber geradezu pathologisch. Es muss auch ein besserer Kompromiss möglich sein. Wenn ATI die Branching-Performance wichtig ist, dann werden sie auch versucht haben einen zu finden. "Checkbox"-Implementierungen braucht niemand.

ATI hat mehr oder weniger direkt vor der Verwendung von Branching gewarnt.

Gast
2005-09-06, 13:36:45
http://www.hkepc.com/bbs/viewthread.php?tid=465653

Schaut mal was ich schönes neues gefunden habe!

Gast
2005-09-06, 13:54:56
http://www.hkepc.com/bbs/viewthread.php?tid=465653

Schaut mal was ich schönes neues gefunden habe!
Geier Fake das Bild der letzten Wochen einfach auf ein Rotes PCb draufgeklatscht.

Gast
2005-09-06, 15:28:16
Geier Fake das Bild der letzten Wochen einfach auf ein Rotes PCb draufgeklatscht.

nein, ganz sicher kein fake

Coda
2005-09-06, 15:47:04
Glaube auch nicht an einen Fake. Die Karten müssten ja schon in Massenproduktion sein inzwischen, außerdem war das ältere Bild viel zu unscharf um das zu produzieren.

Ronny145
2005-09-06, 15:57:46
Das sieht nach einem Fake aus. Die R520 Aufschrift ist deutlich zu erkennen, wie draufgemalt, und die Schrift darunter ist unscharf bzw. verwischt.

DrumDub
2005-09-06, 16:03:14
Glaube auch nicht an einen Fake. Die Karten müssten ja schon in Massenproduktion sein inzwischen, außerdem war das ältere Bild viel zu unscharf um das zu produzieren. also perspektivisch kommt das mit dem schriftzug "R520" und der anderen schrift ganz sicher nicht hin. von daher imho nen fake...

Blacksoul
2005-09-06, 16:11:14
Ich weiß noch wie sie alle beim NV45 mit der HSI(?) on Package "Fake" gerufen haben, weil ja alles so offensichtlich war ;)

Ich denke nicht, dass es ein Fake ist.




t.blacksoul.d

Gast
2005-09-06, 16:18:21
Glaube auch nicht an einen Fake. Die Karten müssten ja schon in Massenproduktion sein inzwischen, außerdem war das ältere Bild viel zu unscharf um das zu produzieren.
Sowohl als auch, würde ich sagen. Das Foto von der Karte ist echt, aber der Chip wurde übermalt. Vermutlich um zu verhindern, die Karte, und damit den Ursprung des Fotos, zurück verfolgen zu können. Nur eine Theorie, aber das die Oberfläche des Chips mit einem schwarzen Rechteck übermalt worden ist, ist meiner Meinung nach deutlich oben rechts zu sehen. Der Übergang ist viel zu scharf.

Ailuros
2005-09-06, 16:23:27
Nvidia G70 Ultra cancelled !!


http://www.the-inquirer.com/?article=25949

*seufz* es waere einfacher einzugeben, dass es sowas nie gab und der Mist nur zu eigenen bloeden Fantasie gehoerte.

Ailuros
2005-09-06, 16:27:16
Die G70 Pipes sind schon extrem rechenstark. ATI muss relativ zum R4xx etwas an den Pipes getan haben. Denn eine G70 Pipe hat pro Takt den 2x aritmethischen Output wie eine R4xx Pipe. Ich persönlich glaube nicht, dass R520/580 das überflügeln können. Das ist ein extremer Sprung. Seit NV40 ist NV mit einer hohen aritmethischen Effizienz am Markt, IMO ist da bei aktuellen Designs kaum noch Luft nach oben. Genauso sieht es auf der Featureseite aus. Lediglich ein paar Kleinigkeiten fehlen da noch. G70 wurde mit CineFX seit NV3x auf SM3 ausgelegt. Somit sind die Pipes relativ transistoreffizient designed (man schaue was für Features im G70 schlummern und wieviele Ausführungseinheiten er hat).

R580 ist genauso ein refresh zu R520 wie G70 zu NV40. Wenn es NV geschafft hat mit G70 (was eigentlich fuer die doppelte ALU Leistung nur - verdammt vereinfacht illustriert- 2 extra mini-ALUs voraussetzte), dann sehe ich nicht ein warum dieses nicht moeglich sein sollte mit R580.

Ailuros
2005-09-06, 16:28:23
Entegen der Nachricht von the Inquirer könnte man dies auch so deuten: nVidia hat ein Release-Board vom R520 in die Hand bekommen und getestet. Daraufhin wurde die 7800Ultra sofort gestoppt. Es braucht sie nicht mehr ;)

noe Fudo hat endlich mitbekommen was genau los ist ;)

Ailuros
2005-09-06, 16:36:13
Der VT-Support von NV40 und G70 ist lächerlich, und hat diesen Namen überhaupt nicht verdient. Wusstest du schon, dass nur Vierkanal-FP32-Texturen unterstützt werden? Das kann man vielleicht als 2D indexed constant storage verkaufen (ist IMO auch exakt so implementiert), aber wohl weniger als vertex texturing.
Da gibt es viel Spielraum zur Verbesserung. Viel.

Und die Branching-Performance ist ja wohl auch noch verbesserungsfähig.

Es kann auch schlimmer als das sein.

Ailuros
2005-09-06, 16:38:05
ATI hat mehr oder weniger direkt vor der Verwendung von Branching gewarnt.

Genauso die PVR Kerle die Artikel fuer das ShaderX2 Buch geschrieben haben.

Asmodeus
2005-09-06, 17:16:42
...
ATI hat mehr oder weniger direkt vor der Verwendung von Branching gewarnt.

Wenn auch nicht ganz zum Thema, aber ich bin inzwischen mit dem Branching beim G70 ganz zufrieden.

Gruss, Carsten.

WEGA
2005-09-06, 17:38:18
Das sieht nach einem Fake aus. Die R520 Aufschrift ist deutlich zu erkennen, wie draufgemalt, und die Schrift darunter ist unscharf bzw. verwischt.
also perspektivisch kommt das mit dem schriftzug "R520" und der anderen schrift ganz sicher nicht hin. von daher imho nen fake...

der untere schriftteil ist doch nur verschlüsselt :ugly: und weil die verschlüsselung vom computer horizontal und vertikal ist sieht der winkel falsch aus ;) wäre ein sehr guter fake. das foto finde ich is trotzdem nichts besonderes. just in time hald

robbitop
2005-09-06, 17:44:19
R580 ist genauso ein refresh zu R520 wie G70 zu NV40. Wenn es NV geschafft hat mit G70 (was eigentlich fuer die doppelte ALU Leistung nur - verdammt vereinfacht illustriert- 2 extra mini-ALUs voraussetzte), dann sehe ich nicht ein warum dieses nicht moeglich sein sollte mit R580.
1. das will ich erstmal sehen. Von NV ist man einen Refresh gewöhnt. Von ATI nicht.
2. G70 hat die beim NV4x bereits hervoragende Effizienz nur noch etwas erhöt. Da kam nicht mal eben noch eine ALU dazu. Es wurde nur offensichtliches ergänzt. Wunder sollte man nicht erwarten.
3. MiniALUs sind nicht so wesentlich. IdR nur gut für Modifier ect.
Wichtiger sind Funktionen der eigentlichen ALUs.

Coda
2005-09-06, 17:55:27
Naja G70 hat schon mehr Shader-Dampf durch die zusätzliche MAD-Einheit.

Enterprise
2005-09-06, 17:58:50
http://www.vr-zone.com/?i=2647&s=1


Doch mehr als 16 Pipes^^?

Ailuros
2005-09-06, 18:02:41
1. das will ich erstmal sehen. Von NV ist man einen Refresh gewöhnt. Von ATI nicht.

Einen "NV30" waren wir auch nicht gewoehnt von NVIDIA. Ja und?

2. G70 hat die beim NV4x bereits hervoragende Effizienz nur noch etwas erhöt. Da kam nicht mal eben noch eine ALU dazu. Es wurde nur offensichtliches ergänzt. Wunder sollte man nicht erwarten.

So hervorragend wenn es zu SM3.0 und Effizienz kommt ist der NV40 nun auch wieder nicht. Wo kam eine ALU dazu?

http://www.beyond3d.com/previews/nvidia/nv40/images/pss.gif

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=9

http://www.beyond3d.com/previews/nvidia/g70/images/pss.gif

http://www.beyond3d.com/previews/nvidia/g70/index.php?p=02

3. MiniALUs sind nicht so wesentlich. IdR nur gut für Modifier ect.
Wichtiger sind Funktionen der eigentlichen ALUs.

Natuerlich sind die Funktionen der ALUs wichtiger, aber das Ganze spricht immer noch nicht gegen viel mehr ALU OPs pro Takt auf R580.

Was diesen Bereich betrifft ist der R580 ein quasi "NV35".

robbitop
2005-09-06, 18:06:11
Naja G70 hat schon mehr Shader-Dampf durch die zusätzliche MAD-Einheit.
G70 besitzt keine zusätzliche "MAD Einheit". Es wurde lediglich der Funktionsumfang von SU1 um ADD erweitert.
Oft genug konnte auch NV4x schon 2 Vec4 Ops pro Takt raushauen. So wie es G70 kann.

mapel110
2005-09-06, 18:06:20
http://www.vr-zone.com/?i=2647&s=1


Doch mehr als 16 Pipes^^?
ya, was wäre ein Tag ohne 24 und 32 Pipe Gerücht. Das Neue an der Meldung is ja mal krass. 10 Exemplare. Tolle Zahl. Warum nicht 9 oder 11, das fänd ich realistischer. ;)

r3ptil3
2005-09-06, 18:08:06
ya, was wäre ein Tag ohne 24 und 32 Pipe Gerücht. Das Neue an der Meldung is ja mal krass. 10 Exemplare. Tolle Zahl. Warum nicht 9 oder 11, das fänd ich realistischer. ;)

Wenn der Chip wirklich "nur" 600mhz Chiptakt hat und vorallem 700mhz Speicher, dann könnte ich wetten das die R520 XT 24 Pipelines hat, vorallem 700Mhz Speichertakt bei 16Pipes, halt ich nicht für sehr logisch, eher dann 600Mhz Speicher.
Ansonsten 16Pipes unfied shaders :tongue: ...

robbitop
2005-09-06, 18:09:13
Einen "NV30" waren wir auch nicht gewoehnt von NVIDIA. Ja und?
Err was hat das eine mit dem Anderen zu tun ("mit dem Fahrrad ist's auch schneller als durch den Wald")??



So hervorragen wenn es zu SM3.0 und Effizienz kommt ist der NV40 nun auch wieder nicht. Wo kam eine ALU dazu?
s.o.


Natuerlich sind die Funktionen der ALUs wichtiger, aber das Ganze spricht immer noch nicht gegen viel mehr ALU OPs pro Takt auf R580.

Was diesen Bereich betrifft ist der R580 ein quasi "NV35".

Glaube ich erst, wenn ich's sehe. Bei NV würde mich das nicht verwundern. Deren Zyklus sah schon immer so aus. Alle 2 Jahre eine neue Architektur und jedes Jahr einen echten Refresh. Bei ATI alle 12-18 Monaten eine neue Architektur und zwischenzeitlich miniupgrades (des Namens "Refresh" unwürdig).

Achja BTW: NV35 brachte zwar Besserung, doch mehr nicht. IMO wird das gegen G80 nicht reichen.

Ailuros
2005-09-06, 18:12:17
Wenn der Chip wirklich "nur" 600mhz Chiptakt hat und vorallem 700mhz Speicher, dann könnte ich wetten das die R520 XT 24 Pipelines hat, vorallem 700Mhz Speichertakt bei 16Pipes mit 600mhz Takt halt ich nicht für sehr logisch, eher dann 600Mhz Speicher.
Ansonsten 16Pipes unfied shaders :tongue: ...

600/1400, 4 quads, 8 VS.

r3ptil3
2005-09-06, 18:16:30
600/1400, 4 quads, 8 VS.

Dave Orton hat ja bestätigt das der R520 schon Dezember letzten Jahres so gut wie fertig war, nur der gezielte Chiptakt nicht erreicht wurde.
24Pixel Pipelines und 8Vertex Shader halte ich für realistisch, für den R520.
600Mhz Chiptakt erreicht man mit vielen X850 XT PE Karten, also dürften bei gleicher Anzahl Pipes und Chiptakt bei 90nm doch nicht schlechter ausfallen.

Der R580 kommt dann vielleicht mit 32Pipes.

Ailuros
2005-09-06, 18:16:52
Err was hat das eine mit dem Anderen zu tun ("mit dem Fahrrad ist's auch schneller als durch den Wald")??

Was ein jeder von einem IHV "gewoehnt" ist sagt mir persoenlich gar nichts. Wenn ich der Logik folgen wuerde, wuerde ATI immer noch R100 und R200-artige GPUs bauen.

Glaube ich erst, wenn ich's sehe. Bei NV würde mich das nicht verwundern. Deren Zyklus sah schon immer so aus. Alle 2 Jahre eine neue Architektur und jedes Jahr einen echten Refresh. Bei ATI alle 12-18 Monaten eine neue Architektur und zwischenzeitlich miniupgrades (des Namens "Refresh" unwürdig).

see above.

Ailuros
2005-09-06, 18:20:14
Dave Orton hat ja bestätigt das der R520 schon Dezember letzten Jahres so gut wie fertig war, nur der gezielte Chiptakt nicht erreicht wurde.
24Pixel Pipelines und 8Vertex Shader halte ich für realistisch, für den R520. Der R580 kommt dann vielleicht mit 32Pipes.

Er hat Dir das bestaetigt was Du lesen wolltest oder was?

Nochmal von Anfang an; erster re-spin fuer den memory controller dabei konnte die erwuenschte Taktrate nicht erreicht werden. Zweiter re-spin fuer hoehere Taktraten was wohl zum heutigen Resultat fuehrte.

600MHz ist nur fuer XT, nicht fuer ultra-super-duper-selten XT-PE ;)

***edit: R580 hat genau so viele quads wie R520. Was robbi hier nicht schnappen will ist dass die Taktrate und Speicher-Frequenzen nicht mehr allzu viel gesteigert werden koennen um bei R580 einen sehenswerten Unterschied zu machen. Der RV530 ist eine Anzeige fuer die Aenderungen im R580, genauso wie der NV43 eine Anzeige fuer G70 war; alles aber stets im relativen Sinn.

Gast
2005-09-06, 18:24:49
Dave Orton hat ja bestätigt das der R520 schon Dezember letzten Jahres so gut wie fertig war, nur der gezielte Chiptakt nicht erreicht wurde.
24Pixel Pipelines und 8Vertex Shader halte ich für realistisch, für den R520.
600Mhz Chiptakt erreicht man mit vielen X850 XT PE Karten, also dürften bei gleicher Anzahl Pipes und Chiptakt bei 90nm doch nicht schlechter ausfallen.

Der R580 kommt dann vielleicht mit 32Pipes.


Du vergisst das der R520 umgebaut werden musste in einige Bereichen, und wenn der R520 wirklich seit damals fertig ist, hätte man ihn bei einer 24 Pipe Version auch mit 500MHz auf den Markt werfen können!!!
Damals gab es keinen G70, der kam erst 6! Monate später, blöde sind sie ja wirklich nicht, sie hätten abgeräumt mit einem 500MHz 24Piper, der hätte ja die alte Generation weit übertroffen, warum hat man ihn nicht gebracht, selbst 450MHz hätten wohl gelangt wenn man den G70 ansieht.

Halte ich allein deshalb für absolut unmöglich das es 24Pipes sind, man hätte ihn veröffentlicht und jetzt das SpeedUpgrade nachgeschoben, wie es mal NV mit dem NV38 (5950Ultra) getan hat.

r3ptil3
2005-09-06, 18:28:47
Du vergisst das der R520 umgebaut werden musste in einige Bereichen, und wenn der R520 wirklich seit damals fertig ist, hätte man ihn bei einer 24 Pipe Version auch mit 500MHz auf den Markt werfen können!!!
Damals gab es keinen G70, der kam erst 6! Monate später, blöde sind sie ja wirklich nicht, sie hätten abgeräumt mit einem 500MHz 24Piper, der hätte ja die alte Generation weit übertroffen, warum hat man ihn nicht gebracht, selbst 450MHz hätten wohl gelangt wenn man den G70 ansieht.

Halte ich allein deshalb für absolut unmöglich das es 24Pipes sind, man hätte ihn veröffentlicht und jetzt das SpeedUpgrade nachgeschoben, wie es mal NV mit dem NV38 (5950Ultra) getan hat.

Naja, warten wir es ab, nicht mehr lange bis erste anständige Benchmarks vom R520 den Weg ins Netzt finden.

Ailuros
2005-09-06, 18:30:21
Naja, warten wir es ab, nicht mehr lange bis erste anständige Benchmarks vom R520 den Weg ins Netzt finden.

"Lange" ist auch relativ. Eher einen Monat.

robbitop
2005-09-06, 18:42:51
Was ein jeder von einem IHV "gewoehnt" ist sagt mir persoenlich gar nichts. Wenn ich der Logik folgen wuerde, wuerde ATI immer noch R100 und R200-artige GPUs bauen.

Es geht mehr als um Gewöhnung. Das war ATI's Produktzyklus über lange Zeit. Das ist Fakt. Das mal eben zu ändern...naja da bleibe ich ersteinmal skeptisch.

seahawk
2005-09-06, 18:51:26
"Lange" ist auch relativ. Eher einen Monat.

Nicht mehr ganz. Und vielleicht sehen ja schon ziemlich bald was von dem R520.

Enterprise
2005-09-06, 18:59:53
Manche erzählen mit einer Arroganz als wenn sie den R520 in der Hand hätten. Ich bin nunmal wieder ganz zuversichtlich das der R520 mit 24pp@600MHZ kommt.

Gast
2005-09-06, 19:03:39
Manche erzählen mit einer Arroganz als wenn sie den R520 in der Hand hätten. Ich bin nunmal wieder ganz zuversichtlich das der R520 mit 24pp@600MHZ kommt.

Du verwechselst Arroganz wohl mit rationalen Überlegungen, gib doch ein paar Erläuterungen die deine Annahme festigen, ist schließlich das Spekuforum ^^

seahawk
2005-09-06, 19:06:44
Manche erzählen mit einer Arroganz als wenn sie den R520 in der Hand hätten. Ich bin nunmal wieder ganz zuversichtlich das der R520 mit 24pp@600MHZ kommt.

Wer sagt, dass es hier keine Leute gibt die zumindest bereits die Specs vom R520 gesehen haben oder gar Testingsampels in Betrieb gesehen haben ?

Adam D.
2005-09-06, 19:14:06
Wer sagt, dass es hier keine Leute gibt die zumindest bereits die Specs vom R520 gesehen haben oder gar Testingsampels in Betrieb gesehen haben ?
Die gibt es ganz bestimmt. Ist ja nicht so, als wäre der Release noch lange hin.

Ailuros
2005-09-06, 19:21:42
Die gibt es ganz bestimmt. Ist ja nicht so, als wäre der Release noch lange hin.

Die Presse hat momentan noch nichts was HW betrifft. Crossfire R4xx haben sie gerade erst bekommen.

Sunrise
2005-09-06, 19:25:17
Wer sagt, dass es hier keine Leute gibt die zumindest bereits die Specs vom R520 gesehen haben oder gar Testingsampels in Betrieb gesehen haben ?
Gesehen ja, aber nicht mit den finalen Taktraten. Die Specs sind mittlerweile auch praktisch final, echte HW hatte hier aber noch keiner in der Hand. Und das ist praktisch sicher.

Crossfire kommt vorher noch, denn die sind bereits eingetroffen.

Ailuros
2005-09-06, 19:26:15
Gesehen ja, aber nicht mit den finalen Taktraten. Die Specs sind mittlerweile auch praktisch final, echte HW hatte hier aber noch keiner in der Hand. Und das ist praktisch sicher.

Crossfire kommt vorher noch, denn die sind bereits eingetroffen.

....und laeuft's bei Euch? *hust*

Gast
2005-09-06, 19:26:18
"Lange" ist auch relativ. Eher einen Monat.

Ende September ist doch die Veröffentlichung. Warum einen Monat?

Ailuros
2005-09-06, 19:28:28
Ende September ist doch die Veröffentlichung. Warum einen Monat?

Warum fragst Du mich und nicht ATI wenn Du so sicher ueber Ende September bist? Bis vor einigen Wochen war es noch der 15.09.

Gast
2005-09-06, 19:32:20
Warum fragst Du mich und nicht ATI wenn Du so sicher ueber Ende September bist? Bis vor einigen Wochen war es noch der 15.09.


Weil überall von Ende September die Rede war...

Ailuros
2005-09-06, 19:38:17
Dann kommt es wohl darauf an, fuer was "ueberall" genau steht.

Sunrise
2005-09-06, 19:46:42
....und laeuft's bei Euch? *hust*

Alles andere wäre ziemlich unsinnig, meinst du nicht ? *hust*

Gast
2005-09-06, 19:49:23
Alles andere wäre ziemlich unsinnig, meinst du nicht ? *hust*

Gesundheit *hust*

Ailuros
2005-09-06, 19:49:33
Alles andere wäre ziemlich unsinnig, meinst du nicht ? *hust*

Ihr habt Glueck gehabt; glaub mir ;)

Sunrise
2005-09-06, 20:01:58
Ihr habt Glueck gehabt; glaub mir ;)

Es ist etwas komplizierter...

Sunrise
2005-09-06, 20:02:28
VR-Zone (http://www.vr-zone.com/?i=2647&s=1) schreibt:

The core clock of the card is 650Mhz+ and memory at 1400Mhz. The R520 card uses 1.26ns GDDR3 memories. The 32 pipes R520 performance will exceed the GeForce 7800GTX.

Manche lernen es nie.

Die gelbe Eule
2005-09-06, 20:14:01
Rofls.

Was soll die Karte dann kosten, bei den Yields? 600 oder 700€?

Black-Scorpion
2005-09-06, 20:17:54
Bezieht sich das auf den Post über dir?

Wenn ja, was hat das mit der Deppenverdopplung zu tun.

Die gelbe Eule
2005-09-06, 20:55:27
Ironie ist wenn man trotzdem lacht ;)

horn 12
2005-09-06, 21:53:28
so , wieder mal ich hier !

ich tippe nun fest daruaf , dass ATI DEN R520
( nicht viell. das spitzrnmodell aber einen darunter )
SICHER für AGP rausbringt !

erstens ist der Markt da ,
zweitens hat NV keine APG Basis mehr bei 7800 ....

und somit würde siche der R520 weit aus besser verkaufen als so mancher andere NV ATI chip / graka
denn viele wollen noch ne graka um die 350 euro , finden aber auf der AGP Basis nicht´s mehr !

also meine NEUE Graka wird der R520 mit ca. 500 mhz ( zweitschnellste verison ende obtober denk ich mal auf AGP )
oder der R530 auf 100 pro AGP / denke mitte oktober sicher lieferbar .

Adam D.
2005-09-06, 21:57:42
Die Presse hat momentan noch nichts was HW betrifft. Crossfire R4xx haben sie gerade erst bekommen.
Ich rede ja nicht unbedingt von Presse. Eher so Leute wie du...Was auch immer du bist :biggrin:

Gast
2005-09-06, 22:37:09
so , wieder mal ich hier !

ich tippe nun fest daruaf , dass ATI DEN R520
( nicht viell. das spitzrnmodell aber einen darunter )
SICHER für AGP rausbringt !

erstens ist der Markt da ,
zweitens hat NV keine APG Basis mehr bei 7800 ....

und somit würde siche der R520 weit aus besser verkaufen als so mancher andere NV ATI chip / graka
denn viele wollen noch ne graka um die 350 euro , finden aber auf der AGP Basis nicht´s mehr !


Und wer sagt dir, dass Nvidia nicht bis dahin auch eine AGP Graka bringt. Ich meine bis jetzt haben sie es ja nicht nötig. Man will ja schliesslich von der Alleinstellung profitieren und ein bisschen mehr nForce4 verkaufen aber wenn dann mal Konkurenz da ist, wird auch Nvidia es sich nicht nehmen lassen und eine 7800 für AGP zu bringen.

Ailuros
2005-09-06, 23:38:25
Ich rede ja nicht unbedingt von Presse. Eher so Leute wie du...Was auch immer du bist :biggrin:

Nur Entwickler haben 575MHz Prototypen seit Maerz dieses Jahres. Ausser diesen hat noch keiner was bekommen.

Haette die Presse schon samples waeren wir verdammt kurz vor einer Ankuendigung.

Coda
2005-09-06, 23:51:37
Nur Entwickler haben 575MHz Prototypen seit Maerz dieses Jahres. Ausser diesen hat noch keiner was bekommen.Wieso hab ich dann keinen? :ulol:

Ailuros
2005-09-06, 23:57:51
Wieso hab ich dann keinen? :ulol:

Weil Du nicht Sweeney z.B. heisst :P

deekey777
2005-09-07, 01:44:52
http://www.hkepc.com/bbs/viewthread.php?tid=465653

Schaut mal was ich schönes neues gefunden habe!

Jaja, da hast du was schönes gayfunden...

http://www.beyond3d.com/forum/showpost.php?p=559527&postcount=1013

Das ist definitiv keine "normale" X800/X850 Platine, denn einerseits scheint der RAM-Baustein "diagonal" zu liegen, auch gibt es keine Löcher in der Nähe des Chips (Bild (http://www.ixbt.com/video2/images/ref/x800xl-scan-front.jpg), wie es auf dem Bild von hkepc zu sehen ist...
Es wäre also möglich, daß alles ein Fake ist oder auf dem Bild ist doch eine "R520"-Grafikkarte zu sehen.

PS: Die Postings im B3D Forum zu diesem Bild sollte man sich antun.

€: Irgendwie sieht das Die kleiner aus als auf dem Foto von Mitte August.

Coda
2005-09-07, 02:00:52
Das Bild ist schon weg.

Adam D.
2005-09-07, 07:43:20
Und wer sagt dir, dass Nvidia nicht bis dahin auch eine AGP Graka bringt. Ich meine bis jetzt haben sie es ja nicht nötig. Man will ja schliesslich von der Alleinstellung profitieren und ein bisschen mehr nForce4 verkaufen aber wenn dann mal Konkurenz da ist, wird auch Nvidia es sich nicht nehmen lassen und eine 7800 für AGP zu bringen.
Glaube ich eher nicht. Ich dachte gehört zu haben, dass Nvidia nicht mehr vor hat, die G70-Serie für AGP zu bringen. Ich glaub, dass hat sogar der deutsche Pressesprecher bestätigt.
Außerdem denke ich, dass der Markt nicht ganz so groß ist, wie sich das manche vorstellen.

@Ailuros: Wann bekommen denn Presseleute solche Karten? 2 Wochen vor Vorstellung? Eine? :confused:

ShadowXX
2005-09-07, 07:48:36
Glaube ich eher nicht. Ich dachte gehört zu haben, dass Nvidia nicht mehr vor hat, die G70-Serie für AGP zu bringen. Ich glaub, dass hat sogar der deutsche Pressesprecher bestätigt.
Außerdem denke ich, dass der Markt nicht ganz so groß ist, wie sich das manche vorstellen.

nV will keinen nativen G70-AGP-Chip mehr rausbringen, überlässt es aber den Graka-Herstellern ob diese per Bridge-Chip AGP-Karten auf G70-Basis basteln wollen.

Nur die wollen scheinbar nicht.....

Adam D.
2005-09-07, 07:53:19
nV will keinen nativen G70-AGP-Chip mehr rausbringen, überlässt es aber den Graka-Herstellern ob diese per Bridge-Chip AGP-Karten auf G70-Basis basteln wollen.
Genau, sorum war's ;D

Nur die wollen scheinbar nicht.....
Stellt sich mir die Frage, warum...Wenn sich was damit verdienen lässt, dann würden's sie doch machen. Aber wahrscheinlich ist der Aufwand einfach zu groß und man bedient eine zu kleine Käufergruppe. Anders kann ich's mir nicht erklären.

robbitop
2005-09-07, 08:28:03
Laut der HW Umfrage ist der Markt sogar recht groß. (ASRock hat auch nicht umsonst ein AGP/PCIe Board gebracht mit ULi Chipset)
Sobald es einen Hersteller gibt, der in diese Marktlücke springt, kann dieser sicher einen netten Nebenverdienst damit machen.
Nur schade, dass NV kein PCB mit HSI als Referenzlayout bietet. So müssen die Hersteller dies selbst übernehmen ..und das kann schon eher dauern. (vor Allem wegen der Entscheidungsfindung).
Bei der NV43 war dies noch anders.

Ich gebe die Hoffnung nicht auf. Schließlich gab es ja noch bis vor Kurzem sogar PCI Karten neu zu kaufen (FX5600/R9600/FX5700 und in Japan sogar eine FX5900).

Gast
2005-09-07, 10:30:09
Glaube ich eher nicht. Ich dachte gehört zu haben, dass Nvidia nicht mehr vor hat, die G70-Serie für AGP zu bringen. Ich glaub, dass hat sogar der deutsche Pressesprecher bestätigt.
Außerdem denke ich, dass der Markt nicht ganz so groß ist, wie sich das manche vorstellen.


Das ist Quark. In Nvidia's letzten Conference Call vor 3 oder 4 Wochen anlässlich der Quartalszahlen wurde der CEO gefragt, wie groß der PCI-E Markt momentan in Augen von Nvidia ist und wer er sich entwickelt.
Seine Aussage dazu war, dass es derzeit 20% sind und der Rest ist AGP.
Allerdings rechnet er bzw. Nvidia mit einem sehr starkem Anstieg von PCI-E in den kommenden 2 Quartalen auf die Marke > 50%.

Die werden AGP bestimmt nicht vernachlässigen, nur wissen sie auch, dass sie solange sie die Alleinstellung im High End haben, Kunden schneller auf PCI-E zwingen können und das funktioniert ja auch. Es wird genug geben die sich bei der Gelegenheit gleich mal ein nForce4 kaufen.
Und vor allem nicht immer alles glauben was die PR Leute sagen. Ist doch klar, dass die erstmal sagen, dass es kein AGP bis auf weiteres für die GTX gibt. Junge die wollen Geschäft machen. Das ist alles Strategie.
Was glaubst Du, wie lange es dauert bis AGP Versionen kommen, wenn ATI auf der Matte steht. Nvidia weiss doch ganz genau wie sie ATI bei der letzten Generation mit der AGP Keule ausgekontert haben. Die sind ja nicht blöd.
Wenn ATI mit AGP kommt, wird Nvidia auch auf der MAtte stehen mit AGP und die PR Leute werden dann sagen, was interessiert mich mein Geschwätz von gestern.
Alles PR Strategie.

Gast
2005-09-07, 10:33:55
Genau, sorum war's ;D


Stellt sich mir die Frage, warum...Wenn sich was damit verdienen lässt, dann würden's sie doch machen. Aber wahrscheinlich ist der Aufwand einfach zu groß und man bedient eine zu kleine Käufergruppe. Anders kann ich's mir nicht erklären.

Weil die Grakahersteller auch Mainboardverkäufer sind - darum.
Das High End Segment ist relativ klein aber mit hohen Margen behaftet. Man kann es - solange man der alleinige High End Herrscher ist - sich leisten, die Kunden ein bisschen zu verprellen bzw. zu PCI-E zwingen. Wer High End will, muss momentan zwangsläufig auf PCI-E.
Wenn die Konkurenz kommt, wird die Strategie ganz schnell geändert. Die HSI gibt es ja - also stellt das schonmal kein Problem dar und die Boarddesigns wird man auch haben.
Dann muss wer High End will nicht unbedingt PCI-e gehen.

zeckensack
2005-09-07, 11:30:16
nV will keinen nativen G70-AGP-Chip mehr rausbringen, überlässt es aber den Graka-Herstellern ob diese per Bridge-Chip AGP-Karten auf G70-Basis basteln wollen.

Nur die wollen scheinbar nicht.....Das ist ziemlich lächerlich.
Kaum ein Graka-Hersteller produziert irgendwas ohne ein Referenz-PCB. Die Ausnahmen in den letzten Jahren kannst du locker an einer Hand abzählen.
Die Frage ist nicht ob die Hersteller wollen, sondern ob NVIDIA ihnen das entsprechende Referenz-PCB-Design zur Verfügung stellt.

Gaestle
2005-09-07, 11:37:53
Der RV530 ist eine Anzeige fuer die Aenderungen im R580, genauso wie der NV43 eine Anzeige fuer G70 war; alles aber stets im relativen Sinn.

Bitte um kurzen Exkurs, was NV43 (abweichend vom Papa NV40) mit G70 verbindet.


....und laeuft's bei Euch? *hust*
Ihr habt Glueck gehabt; glaub mir ;)

War's wirklich 'ne Lotterie? Meinst Du die Teilnahme an der Lotterie oder ein sauber funktionierendes Los (unabh. von den Specs)?

Grüße

Gast
2005-09-07, 11:43:11
http://www.theinquirer.net/?article=25997

mapel110
2005-09-07, 11:48:23
http://www.theinquirer.net/?article=25997
:uclap: Fuad
Kann das sein, dass er sich wiederholt?! Die Meldung gabs doch schon einmal. :uponder:

deekey777
2005-09-07, 11:59:25
Das Bild ist schon weg.
Ist es nicht. :biggrin:
Das ist ziemlich lächerlich.
Kaum ein Graka-Hersteller produziert irgendwas ohne ein Referenz-PCB. Die Ausnahmen in den letzten Jahren kannst du locker an einer Hand abzählen.
Die Frage ist nicht ob die Hersteller wollen, sondern ob NVIDIA ihnen das entsprechende Referenz-PCB-Design zur Verfügung stellt.

Bei ATi gibt es da eine AGP-Platine für X800/X800XL+Rialto, bei nVidia gibt es für einen HighEnd-Chip so etwas nicht; es sei denn, sie packen wieder den Bridgchip wieder auf den Chip neben das Die drauf und nutzen die Platine der 6800Ultra AGP.

Wenn das Bild des R520 und der Platine echt ist, da braucht man definitiv eine neue Platine für eine AGP-Version. ;(

Bitte um kurzen Exkurs, was NV43 (abweichend vom Papa NV40) mit G70 verbindet.
...
Grüße
Der Umstand, daß die Anzahl der ROPs weniger ist als die Anzahl der "Pixelpipelines"?

Gast
2005-09-07, 12:03:05
Ich werde mir den R520 nicht kaufen, auch weil ich noch ein AGP-Board habe und dieses wahrscheinlich auch austauschen müsste. Ich warte lieber bis Windows Vista erscheint und kaufe dann einen komplett neuen, dazu passenden Rechner mit Dualcore-Prozessor und R600.

MikBach@work
2005-09-07, 12:07:24
Ich werde mir den R520 nicht kaufen, auch weil ich noch ein AGP-Board habe und dieses wahrscheinlich auch austauschen müsste. Ich warte lieber bis Windows Vista erscheint und kaufe dann einen komplett neuen, dazu passenden Rechner mit Dualcore-Prozessor und R600.
:uclap:
Und woher willst du wissen, ob bei der nächsten Generation nicht zufällig NV vorne ist?
Oder warum ist der R600 schon fest eingeplannt?

Gast
2005-09-07, 12:17:24
:uclap:
Und woher willst du wissen, ob bei der nächsten Generation nicht zufällig NV vorne ist?
Oder warum ist der R600 schon fest eingeplannt?

ATI wird meiner Meinung nach bei der nächsten Generation die Nase vorn haben, weil sie mit Unified Shader schon weiter sind (Anforderung von DirectX 10) und auch mit Microsoft eng zusammenarbeiten (Xbox360). Außerdem bin ich seit dem R300 von Nvidia auf ATI umgestiegen und werde auch bei denen bleiben, da die Karten meiner Meinung nach besser sind. ATI liefert im Gegensatz zu Nvidia auch die nötige Performance, um neue Features nutzen zu können.

Gaestle
2005-09-07, 12:27:20
Der Umstand, daß die Anzahl der ROPs weniger ist als die Anzahl der "Pixelpipelines"?

Stimmt, ja. Sonst noch was?

Grüße

deekey777
2005-09-07, 12:28:28
Stimmt, ja. Sonst noch was?

Grüße

Funktionierender Videoprozessor? :biggrin:
Sorry.

Tomcat70
2005-09-07, 12:33:32
Interview mit Richard Huddy

http://www.nvitalia.com/articoli/Intervista_Richard_Huddy_ATI/index.php?pagina=6

ShadowXX
2005-09-07, 12:37:52
Stimmt, ja. Sonst noch was?

Grüße

AFAIR wurden die Pipelines des nv43 im Branchingbereich (und vielleicht auch anderem) leicht gegenüber dem nv40 verbessert.

ShadowXX
2005-09-07, 12:39:00
ATI liefert im Gegensatz zu Nvidia auch die nötige Performance, um neue Features nutzen zu können.

Kristallkugel??

Ein paar Postings vorher hat Demi preis gegeben, das ATI von der Verwendung von Branching abrät.

reunion
2005-09-07, 12:50:58
Interview mit Richard Huddy

http://www.nvitalia.com/articoli/Intervista_Richard_Huddy_ATI/index.php?pagina=6

With every generation our hardware becomes faster and more powerful, and we'll add interesting new features when we introduce our next generation hardware. Interesting I've seen David Kirk from NVIDIA saying that in his view some of our new features are years away, so I guess the new hardware could make a bit of a stir. Our focus is always on usable features which run at full speed, so I'm looking forward to the fact that our new hardware will change the games development landscape for the better in ways that games developers will welcome. Indeed the one word which games developers commonly tend to use when we discuss the new hardware with them is simply "Cool!"

The single thing which will make games look better in the next generation is full on HDR. HDR stands for "High Dynamic Range" and what it really means in our context is rendering 3D images using data which is very like that found in the natural world. "HDR" has become the buzzword in the games industry because a few games developers have started to show demos which use HDR and the difference is simply stunning. But the trouble right now is that all the HDR implementations in the market to date are limited in one way or another which makes the decision to use HDR a somewhat painful compromise. We plan to eliminate the compromise and thereby do away with the pain.

R520 mit neuen Features, welche nV erst "Jahre später" für notwendig hält.
Und HDR ohne "Kompromisse" - was immer das auch heißen mag. Man kann aber wohl davon ausgehen, dass R520 HDR plus MSAA ermöglicht.

Die gelbe Eule
2005-09-07, 12:52:40
Interview mit Richard Huddy

http://www.nvitalia.com/articoli/Intervista_Richard_Huddy_ATI/index.php?pagina=6

Interessantes Iview ...

1. Unannounced products. Wird wohl doch noch etwas länger dauern als geplant. Einfach so auf den Markt werfen, werden sie bestimmt nicht.

2. Crossfire. Nur für den ernsten Gamer. Das würde ja heissen, es gibt es gar keine Crossfirekarten, die nicht den Anspruch eines "ernsten" Gamers erfüllen könnten. Natürlich muss man hier auch eine Crossfire Karte haben, damit eine nicht Crossfire auf dem Board läuft. Er verschweigt das Nvidia diesen Bereich viel besser abdeckt.
Bin gespannt was diese Exklusivität kosten wird und wie die Boards dann aussehen. Weil es gibt im Moment weder das eine noch das andere zu kaufen ...

Gast
2005-09-07, 12:56:42
Kristallkugel??

Ein paar Postings vorher hat Demi preis gegeben, das ATI von der Verwendung von Branching abrät.

Der R300 war der erste DX9 Chip und von Anfang an schnell genug, um dies auch voll zu nutzen. Der NV40 hatte zwar schon SM3.0 und HDR-Support, ist aber bei Branching (einem der Schlüsselfeatures von SM3.0) und HDR (nur ohne Anti-Aliasing) zu langsam. Warten wir doch mal ab, was ATI beim R520 bringt.

Coda
2005-09-07, 13:11:03
Das "Schlüsselfeature" von SM 3.0 ist vor allem für ATi-Fans dynamic branching, weil es das einzige ist wo NV40 schwächelt. Es gibt weitaus wichtigere Sachen im Moment die ATi nicht hat wie statisches branching, mehr constants, mehr inputs und predication.

G70 hat mit HDR keine großen Probleme mehr, es limitiert eben noch die Bandbreite, da kann auch ATI nicht Hexen.

ShadowXX
2005-09-07, 13:13:34
Der R300 war der erste DX9 Chip und von Anfang an schnell genug, um dies auch voll zu nutzen. Der NV40 hatte zwar schon SM3.0 und HDR-Support, ist aber bei Branching (einem der Schlüsselfeatures von SM3.0) und HDR (nur ohne Anti-Aliasing) zu langsam. Warten wir doch mal ab, was ATI beim R520 bringt.

Das ganze Bezog sich auf den r520.......ATI rät von der Benutzung von Branching auf dem r520 ab.

Mit dem Branching auf dem G70 sind die meisten Devs wohl inzwischen zufreidener als mit dem vom nv40.....obwohl es wohl immern noch nicht das Gelbe vom Ei ist.
Auch HDR hat auf dem G70 zugelegt (speedmäßig).

Und auch auf meiner 6800Ultra konnte ich ohne Probs SC3-CT und FC ohne Probleme mit HDR spielen....

Coda
2005-09-07, 13:14:35
"Branching" allgemein ist ja nicht richtig. Statisches Verzweigungen funktionieren sehr schnell und sind z.Z. eher wichtiger.

robbitop
2005-09-07, 13:15:44
AFAIR wurden die Pipelines des nv43 im Branchingbereich (und vielleicht auch anderem) leicht gegenüber dem nv40 verbessert.
Das liegt doch nur an den Quadbatches. IIRC

SKYNET
2005-09-07, 13:16:25
ATI liefert im Gegensatz zu Nvidia auch die nötige Performance, um neue Features nutzen zu können.


sieht man ja besonders gut bei HDR... :rolleyes: ;D

ShadowXX
2005-09-07, 13:20:00
"Branching" allgemein ist ja nicht richtig. Statisches Verzweigungen funktionieren sehr schnell und sind z.Z. eher wichtiger.

Jupss....ist schon klar....es müsste "schwächen im dynamsichen Branching" heissen.

deekey777
2005-09-07, 13:27:24
Jupss....ist schon klar....es müsste "schwächen im dynamischen Branching" heissen.

Ist SC3 zZ nicht das einzige Spiel, wo dynamic branching zum Einsatz kommt?

sieht man ja besonders gut bei HDR... :rolleyes: ;D


Ich werde ab jetzt nur Sinnvolles posten:
http://www.cristalloterapia.info/spirale%20animata.gif

ShadowXX
2005-09-07, 13:30:34
Ist SC3 zZ nicht das einzige Spiel, wo dynamic branching zum Einsatz kommt?


AFAIK wird dort statisches Branching benutzt...

Coda
2005-09-07, 13:36:27
AFAIK wird dort statisches Branching benutzt...Korrekt. Und da sind NV40&G70 alles andere als langsam.

Gast
2005-09-07, 13:38:33
Das ganze Bezog sich auf den r520.......ATI rät von der Benutzung von Branching auf dem r520 ab.

Mit dem Branching auf dem G70 sind die meisten Devs wohl inzwischen zufreidener als mit dem vom nv40.....obwohl es wohl immern noch nicht das Gelbe vom Ei ist.
Auch HDR hat auf dem G70 zugelegt (speedmäßig).

Und auch auf meiner 6800Ultra konnte ich ohne Probs SC3-CT und FC ohne Probleme mit HDR spielen....

Diese Aussage von ATI kenne ich auch, damit meinte ATI aber das Branching auf dem NV40. Nvidia bringt die nötige Performance immer erst mit dem Refresh-Chip (siehe G70) oder noch später. Ich bin mir sicher, dass der R520 für Dynamic Branching schnell genug ist. Dieses ist auch für richtiges Displacement Mapping notwendig. Der NV40, G70 und auch R420 bieten nur eine stark eingeschränkte Variante davon.

Coda
2005-09-07, 13:42:00
Dieses ist auch für richtiges Displacement Mapping notwendig.Eigentlich braucht man dafür primär erstmal Vertex-Texturing.

Dynamic Branching im PS könnte man zwar in OpenGL dafür einsetzen in einen Vertexbuffer zu rendern und damit irgendwie Geometrie zu erzeugen, aber ich glaube nicht, dass du das gemeint hast.

reunion
2005-09-07, 13:50:18
G70 hat mit HDR keine großen Probleme mehr, es limitiert eben noch die Bandbreite, da kann auch ATI nicht Hexen.

Das Problem ist vorallem, dass kein MSAA möglich ist.

Gast
2005-09-07, 13:54:22
Eigentlich braucht man dafür primär erstmal Vertex-Texturing.


Das könnte auch ein Feature des R520 sein. Außerdem wird er wohl direkten Speicherzugriff aus dem Shaderprogramm heraus erlauben.

Coda
2005-09-07, 13:55:45
Das könnte auch ein Feature des R520 sein.Wenn er SM 3.0 kann muss er es können.

Außerdem wird er wohl direkten Speicherzugriff aus dem Shaderprogramm heraus erlauben.Das ist in DX9 nicht vorgesehen und wäre bei einer nicht unfied-memory Architektur wie dem PC auch brutal langsam.

Das Problem ist vorallem, dass kein MSAA möglich ist.Stimmt schon, aber mir geht in 1600x1200 schon jetzt auch vor allem der RAM aus wenn ich MSAA aktiviere. Mit FP16-Rendertargets ist das wohl nicht besser.

Für kleinere Auflösungen wäre es natürlich begrüßenswert.

Anderer Gast
2005-09-07, 13:57:04
G70 hat mit HDR keine großen Probleme mehr, es limitiert eben noch die Bandbreite, da kann auch ATI nicht Hexen.

Der R520 soll aber einen neuen Speichercontroller haben, vielleicht genau aus dem Grund.

aths
2005-09-07, 13:57:57
Das liegt doch nur an den Quadbatches. IIRCUnd wie hängt das damit zusammen?

Der R520 soll aber einen neuen Speichercontroller haben, vielleicht genau aus dem Grund.Da helfen nur mehr Bits pro Takt. Das würde teuer, und bei einer 16-Pipe-Architektur, so es eine solche werden sollte, wären 512 Bit etwas übertrieben.

Coda
2005-09-07, 13:58:36
512bit ist so gut wie ausgeschlossen. D.h. sie haben zwar etwas mehr Bandbreite weil sie 50Mhz mehr Speicher haben, das war's dann aber auch schon.

Und wie hängt das damit zusammen?Irgendwie wird das Branching bei NV4x doch immer auf eine große Anzahl an Quads ausgeführt, d.h. wenn einer einen anderen Branch nimmt müssen ihn alle anderen auch nehmen. Bei G70 und NV43 wurde anscheinend die Größe dieser Quadmenge reduziert.

Gast
2005-09-07, 13:59:33
Wenn er SM 3.0 kann muss er es können.

Das ist in DX9 nicht vorgesehen und wäre bei einer nicht unfied-memory Architektur wie dem PC auch brutal langsam.

Stimmt schon, aber mir geht in 1600x1200 schon jetzt auch vor allem der RAM aus wenn ich MSAA aktiviere. Mit FP16-Rendertargets ist das wohl nicht besser.

Für kleinere Auflösungen wäre es natürlich begrüßenswert.

Die neuen Karten werden auch 512MB Speicher haben.

Coda
2005-09-07, 14:01:46
Mehr Speicher ist ja kein Problem, das hat nVIDIA ja genauso vorgesehen.

dr_mordio
2005-09-07, 14:02:27
Ich möchte noch mal auf die ganzen Spekulationen über die Pipeanzahl des R520 Aufgreifen.

So wie es aussieht, werden die ersten ausgelieferten Karten 16 Pipes besitzen.

Aber allem anschein nach wurde der R520 zuerst als ein 24 Pipe-Chip designed...
Allerdings gab es Produktionsbedingt massive Probleme, genügend Chips mit der vollen funktionsfähigen Pipe-Anzahl zu erhalten.

Dadurch kam es zu dem Entschluß, den Chip mit 16 Pipes und mehr MHz auf den Markt zu bringen. Das klappte dann leider auch nicht so einfach, da es durch die Erhöhung der Taktes und der Spannung zu immer größeren Leckströmen kam...

Dadurch ist es insgesammt zu der großen Verspätung gekommen.

Ich bin aber sehr sicher, das auch die aktuelle Version noch immer 24 Pipes enthällt, von denen aber nur 16 aktiviert sind.
Es wird sicherlich möglich sein alle 24 zu aktivieren, alledings rechne ich nicht mit einem einwandfreien Betrieb der Karte, da es zu 99% keinen Chip auf dem Markt gibt, bei dem alle 24 Pipes ohne produktionsbedingte Fehler laufen werden.
Die wenigen Chips, bei denen alle 24 Pipes funktionieren, werden sicher noch nicht das Licht der HardwareWelt erblicken, sondern im Lager landen und dort auf die XT-PE oder wie auch immer sie heißen soll warten.

Dieses ist die einzige Möglichkeit die sich aus der Zusammensetzung der Gerüchte, Spekulationen, Relaseverschiebungen und ReSpins ergibt.

Also macht euch keine zu großen Hoffnungen einen 24 Pipe R520 zu sehen.

Dennoch bin ich sehr gespannt auf das Finale Relase der Karte um zu sehen ob ATI es mit den ReSpins und der Takterhöhung geschafft hat den Verlust der Pipes wieder Auszugleichen.

Achja, was die 32 Pipe Version angeht, die auf HKEPC erwähnt wurde, so glaube ich nicht das es sich hierbei um den R520 handelt. Der Chip wurde schon 2004 designed....
Da hat mann sich noch keine großen Gedanken darum gemacht gleich eine 32 Pipe-Version rauszubringen. Das wäre doch ein etwas zu großer Sprung von der 16 und 12 Pipe X8x0 Serie.

Möglich wäre allerdings das es sich um erste interne Testsamples des R580 handelt. Wenn man überlegt das der erste R520, laut Dave Orton auch schon im Dezember 2004 lauffähig war, wäre es sicher auch möglich das jetzt schon die ersten Testsamples vom R580 laufen....

MfG
Alex

Coda
2005-09-07, 14:03:40
Es gab nie einen R520 mit mehr als 4 Quads. Diese Sachen kommen jetzt von den Leuten die es langsam raffen und sich damit rausreden.

seahawk
2005-09-07, 14:17:00
R580 ist schon ziemlich weit, aber ob er 32Pipes haben wird will ich mal nicht kommentieren.

Schade, dass der R520 nicht schon jetzt kommt, damit solche Diskussionen endlich vorbei sind. Der R520 wird heftige Diskussionen auslösen, soviel kann ich sagen.

deekey777
2005-09-07, 14:38:36
AFAIK wird dort statisches Branching benutzt...
Korrekt. Und da sind NV40&G70 alles andere als langsam.


Öhm, nein? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2745564&postcount=32
Aber gibt es weitere Spiele, wo dynamisches Branching benutzt wird?

Far Cry fällt definitiv aus.

PS: Was bedeutet das "R" in AFAIR?

MadManniMan
2005-09-07, 14:48:29
PS: Was bedeutet das "R" in AFAIR?

As Far As I Remember =)

aths
2005-09-07, 14:56:36
Irgendwie wird das Branching bei NV4x doch immer auf eine große Anzahl an Quads ausgeführt, d.h. wenn einer einen anderen Branch nimmt müssen ihn alle anderen auch nehmen. Bei G70 und NV43 wurde anscheinend die Größe dieser Quadmenge reduziert.Wieso "irgendwie".

Wenn man ein bi-Sample braucht, sollte es im nächsten Takt fertig sein, wenn es dort verrechnet wird. So schnell geht die Filterung nicht. Zum Ausgleich sind mehrere Quads gleichzeitig in der Pipe. Mindestens so viele, dass (sofern alle Texel im Cache waren) dann, wenn das Quad wieder rankommt, das Sample fertig ist. Auf alle Quads werden dieselben Operationen ausgeführt, es gibt nur einen Instruction Pointer per Quadpipe: Die Pipeline wird konfiguriert und dann drückt er von oben die Quads rein, die unten rauspurzeln und meistens wieder an den Eingang zurückgeloopt werden. Bevor der nächste Befehl rankommt, wird die Pipeline entsprechend eingestellt. NV sagte ja, so richtig VLIW-basierend sei das nicht mehr, aber ich nehme weiterhin an dass es im Prinzip genau so eine Architektur ist.

Hat man eine Verzweigung, kann man nicht einige Quads in die eine Richtung und andere in die andere Richtung führen. Dafür ist die Steuerungslogik nicht da, nur pro Batch kann man entscheiden. Nur pro Batch ist ein Register für den Instruction Pointer vorhanden. Man kann leider auch nicht schon mal vereinzelte Quads mit kill rausschießen, die Pixelpipe muss ein FIFO sein. Entweder killt man den ganzen Batch, oder nix. Entweder geht der ganze Batch den einen Branch lang, oder den anderen, oder alle Quads müssen beide Branches durchlaufen. Beim NV40 gab es offenbar für die gesamte Architektur nur einen Quadbatch. Dabei können Quads aber auch beim NV40 ruhig von unterschiedlichen Dreiecken kommen, Hauptsache man nutzt die gleiche Textur.

Hab ich btw auch erst verstanden, als Xmas mir das mal erklärt hatte :)
R580 ist schon ziemlich weit, aber ob er 32Pipes haben wird will ich mal nicht kommentieren.

Schade, dass der R520 nicht schon jetzt kommt, damit solche Diskussionen endlich vorbei sind. Der R520 wird heftige Diskussionen auslösen, soviel kann ich sagen.Dass es bei einem neuen Chip im 3dcf Diskussionen gibt, die zuweilen heftig werden, ist nichts neues. Gut, wir sind im Spekualtionsforum und ich kann mir auch eine Menge ausdenken.

Ich zweilfe allerdings daran, dass dein Nicht-Kommentar auf Nicht-Willen begründet ist.

Die gelbe Eule
2005-09-07, 15:06:34
Der R520 wird heftige Diskussionen auslösen, soviel kann ich sagen.

Glaube ich auch, nur in welche Richtung das werden wir noch sehen ;D

seahawk
2005-09-07, 15:16:48
Ich zweilfe allerdings daran, dass dein Nicht-Kommentar auf Nicht-Willen begründet ist.

Wenn ich sagen würde, was imho diskutiert werden wird, dann kriege ich momentan einige Probleme. Es sind einige Punkte, einige sind positiv, einige negativ und einige überraschend.

Ich versuche hier nur unrealistische Erwartungen zu stoppen. Die letzte Genration gibt doch einen guten Anhalt, was man erwarten kann, wenn nicht einer der beiden großen sich völlig verrennt.

Coda
2005-09-07, 15:17:57
Öhm, nein? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2745564&postcount=32
Aber gibt es weitere Spiele, wo dynamisches Branching benutzt wird?
PS: Was bedeutet das "R" in AFAIR?Hm gut, von dem einen dynamischen branch in SC3 wusste ich tatsächlich nichts. Der dürfte aber sowieso umgehbar sein.

@aths: D.h. NV43 ist beim Branching vielleicht schneller weil es nur 2 statt 4 Quad-Pipelines sind?

aths
2005-09-07, 15:52:06
Ich versuche hier nur unrealistische Erwartungen zu stoppen.Ich versuche, nicht zu simulieren mehr zu wissen, als ich weiß.

Hm gut, von dem einen dynamischen branch in SC3 wusste ich tatsächlich nichts. Der dürfte aber sowieso umgehbar sein.

@aths: D.h. NV43 ist beim Branching vielleicht schneller weil es nur 2 statt 4 Quad-Pipelines sind?Durch die feinere Granularität kann der NV43 dank seinem höheren Takt schneller sein, wenn dynamic branching zum Einsatz kommt. Das hängt davon ab, wie groß die Flächen sind für die man nur einen Branch zu berechnen braucht. Den G70 sehe ich hier ja als vernünftigen Schritt nach vorne, da einzelne Quadpipes jetzt in dieser Beziehung unabhängig voneinander sind. Das hätte ich mir beim NV40 auch schon gewünscht, aber wir wissen ja, dass NV oft erst das Feature bringt, und dann die Performance.

Was die Granularität und so weiter angeht, beruht mein Kenntnisstand auf Tests von Tridam. Um sowas mit eigenen Shader-Benches zu ermitteln, dazu reicht es bei mir leider noch nicht.

Nachdem was Xmas so mit Loops getestet hat, wird das im SM3-Profil alles ausgerollt, damit ja kein Branching genutzt wird. Aber dazu sollte er besser selbst was schreiben.

Crushinator
2005-09-07, 16:41:18
sieht man ja besonders gut bei HDR... :rolleyes: ;D
Können wir in Zukunft bitte auf solche polarisiernden Formulierungen verzichten, aus denen statt verwertbarer Inhalt meist nur irgendwelche Anfeindungen entstehen, ohne daß dieser Text einen orangen Farbton verpaßt bekommen muß, kthx?

Coda
2005-09-07, 16:55:05
Nachdem was Xmas so mit Loops getestet hat, wird das im SM3-Profil alles ausgerollt, damit ja kein Branching genutzt wird. Aber dazu sollte er besser selbst was schreiben.Es gibt Fälle (loops mit dynamischer Abbruchbedingung), da ist das nicht möglich.

seahawk
2005-09-07, 17:31:18
Ich versuche, nicht zu simulieren mehr zu wissen, als ich weiß.



Ich weiss genug um Ideen mit 24-32 Pipes. Und sonst sage ich auch nicht mehr, als ich weiss.

aths
2005-09-07, 17:58:23
Ich weiss genug um Ideen mit 24-32 Pipes. Und sonst sage ich auch nicht mehr, als ich weiss.Du weißt oder hast du nur mal gehört?

reunion
2005-09-07, 20:23:51
R520-Präsentation angeblich am 1. Oktober:

http://zonaforo.meristation.com/foros/viewtopic.php?t=408571&m=

mapel110
2005-09-07, 21:02:31
R520-Präsentation angeblich am 1. Oktober:

http://zonaforo.meristation.com/foros/viewtopic.php?t=408571&m=
An einem Samstag ... wäre recht ungewöhnlich.

http://www.beyond3d.com/forum/showpost.php?p=560068&postcount=1056
Und unterschiedliche Launchdates für EU und USA und/oder den Rest der Welt halte ich auch für unrealistisch.

MikBach
2005-09-07, 21:10:39
Du weißt oder hast du nur mal gehört?
Er schreibt doch, dass er um Ideen weiss, also nichts konkretes.
Aber hier im Forum wird es wahrscheinlich niemand wissen.

PS könntest du bitte mit diesen Sticheleien aufhören? Wir sind hier im Speku-Forum und hier darf jeder das sagen, was er denkt.

deekey777
2005-09-07, 21:16:56
An einem Samstag ... wäre recht ungewöhnlich.

http://www.beyond3d.com/forum/showpost.php?p=560068&postcount=1056
Und unterschiedliche Launchdates für EU und USA und/oder den Rest der Welt halte ich auch für unrealistisch.

Vielleicht ist es nur ein "Begrüßungsevent" zum Start des R520 - mit Blackjack und Nutten.

Die gelbe Eule
2005-09-07, 21:42:07
Er schreibt doch, dass er um Ideen weiss, also nichts konkretes.
Aber hier im Forum wird es wahrscheinlich niemand wissen.

PS könntest du bitte mit diesen Sticheleien aufhören? Wir sind hier im Speku-Forum und hier darf jeder das sagen, was er denkt.

Spekulieren aber nicht realitätsfern werden ...

MikBach
2005-09-07, 21:48:30
Der R520 wird heftige Diskussionen auslösen, soviel kann ich sagen.
Ganz schlimm wird es, wenn der R520 schneller sein würde.

Streit:
"Meine Karte ist schneller" (R520)
"Meine kann aber Transparent-Antialiasing" (G70)

:D

MikBach
2005-09-07, 21:52:13
Spekulieren aber nicht realitätsfern werden ...
Dann mal eine ganz einfache Frage...
Warum hat der R520 etwa 300 Mil Transistoren und nur 16 Pipes?
Der G70 hat aber 24 Pipes bei ähnlicher Transistorzahl.
:wink:

seahawk
2005-09-07, 21:52:52
Du weißt oder hast du nur mal gehört?

Da ich noch keine R520 im Rechner hatte, kann ich nur gehört bestätigen.

aths
2005-09-07, 22:04:06
Da ich noch keine R520 im Rechner hatte, kann ich nur gehört bestätigen.Dann verstehe ich nicht, warum du andeutest, über den R520 schon ganz gut bescheid zu wissen. Einen auf wavey zu machen halte ich persönlich nicht für sonderlich schicklich. Wer jetzt schon was weiß, wird nichts sagen dürfen und auch nichts sagen. Wer was sagt, oder andeutet was zu wissen, zeigt damit nur dass er nichts weiß. Spekulationen sollten imo auch im Spekulationsforum als Vermutung gekennzeichnet werden.

Vielleicht fällt einigen meine betonte Ernsthaftigkeit in solchen Themen auf. Ich bin es einfach leid, wenn aus Spekulationen dann "Gerüchte" werden. Wenn der Chip dereinst draußen ist, können wir ihn analysieren.

aths
2005-09-07, 22:05:01
Dann mal eine ganz einfache Frage...
Warum hat der R520 etwa 300 Mil Transistoren und nur 16 Pipes?
Der G70 hat aber 24 Pipes bei ähnlicher Transistorzahl.
:wink:Wie viel Pipelines ein Chip hat ist Wurscht. Wichtig ist, was der Chip pro Sekunde berechnen kann. Ob das mit wenigen oder mit vielen Pipelines realisiert wurde, ist für uns Kunden völlig uninteressant. Das ist auch so eine Sache, die mich stört: Man diskutiert mit Begriffen, mit denen man glaubt, was anfangen zu können – und übersieht bei der Halbwissen-Fachsimpelei das, worauf es eigentlich ankommt.

r3ptil3
2005-09-07, 22:09:26
Wie viel Pipelines ein Chip hat ist Wurscht. Wichtig ist, was der Chip pro Sekunde berechnen kann. Ob das mit wenigen oder mit vielen Pipelines realisiert wurde, ist für uns Kunden völlig uninteressant. Das ist auch so eine Sache, die mich stört: Man diskutiert mit Begriffen, mit denen man glaubt, was anfangen zu können – und übersieht bei der Halbwissen-Fachsimpelei das, worauf es eigentlich ankommt.

Das würde dann bedeuten du glaubst an einen Chip mit 16 sehr effizienten Pipes?
Was aber eigentlich nicht sein kann, wenn der R520 grösstenteils vom R300 Design stammt.

MikBach
2005-09-07, 22:12:15
Wie viel Pipelines ein Chip hat ist Wurscht. Wichtig ist, was der Chip pro Sekunde berechnen kann. Ob das mit wenigen oder mit vielen Pipelines realisiert wurde, ist für uns Kunden völlig uninteressant. Das ist auch so eine Sache, die mich stört: Man diskutiert mit Begriffen, mit denen man glaubt, was anfangen zu können – und übersieht bei der Halbwissen-Fachsimpelei das, worauf es eigentlich ankommt.
Du hast meine Anspielung nicht verstanden. :)
Wenn der R520 wirklich nur 16 Pipes, aber 300 Mil Transistoren hat, dann frage ich mich wofür...wenn der G70 mit ca. der gleichen Transistorzahl 24 Pipes realisiert.
Entweder Mega-Pipes oder das AF ist besser geworden.
Oder hast du eine andere Erklärung?

mapel110
2005-09-07, 22:13:33
Oder hast du eine andere Erklärung?
Er hat keine 300 Mio Transistoren, sondern wesentlich weniger.

MikBach
2005-09-07, 22:14:42
Er hat keine 300 Mio Transistoren, sondern wesentlich weniger.
Quelle?

BlackBirdSR
2005-09-07, 22:15:24
Dann mal eine ganz einfache Frage...
Warum hat der R520 etwa 300 Mil Transistoren und nur 16 Pipes?
Der G70 hat aber 24 Pipes bei ähnlicher Transistorzahl.
:wink:


Analogie:
Warum hat ein PM Kern vielleicht ca 16Millionen Transistoren, ein K8 dagegen ca 30Millionen?

Das muss nichts über deren Leistung aussagen:
Oder noch ein Vergleich: P4 NW Kern ca 30Millionen, P4 Prescott ca 85 Millionen

mapel110
2005-09-07, 22:16:09
Quelle?
Die gleiche, die du für deine 300 Mio angegeben hast.

MikBach
2005-09-07, 22:20:24
Analogie:
Warum hat ein PM Kern vielleicht ca 16Millionen Transistoren, ein K8 dagegen ca 30Millionen?

Das muss nichts über deren Leistung aussagen:
Oder noch ein Vergleich: P4 NW Kern ca 30Millionen, P4 Prescott ca 85 Millionen
Vergleichen wir jetzt hier Äpfel mit Birnen?
Du willst doch nicht etwa eine CPU mit einer GPU vergleichen?

BlackBirdSR
2005-09-07, 22:22:17
Vergleichen wir jetzt hier Äpfel mit Birnen?
Du willst doch nicht etwa eine CPU mit einer GPU vergleichen?

Hab ich das? Ich sehe nicht wo.

Ich habe Transistoren mit Transistoren verglichen, und einen Anhaltspunkt auf deren Auswirkung auf die Performance gegeben.
Das kannst du doch sicherlich erkennen, und gut für deine Frage nutzen oder?

MikBach
2005-09-07, 22:23:08
Die gleiche, die du für deine 300 Mio angegeben hast.
Kannst du Gedanken lesen oder woher weisst du meine Quellen?

skoRn
2005-09-07, 22:23:34
Ausserdem fehlt beim P-M ja einiges. Der Speichercontroller, EMT64 und zwei drei andere Dinge die eher Backbird mir erklären kann, als ich sie hier Aufrscheiben.

aths
2005-09-07, 22:27:12
Kannst du Gedanken lesen oder woher weisst du meine Quellen?Soweit ich das sehe, hast du genauso gute Quellen wie beim ddx/ddy-Problem.


Das würde dann bedeuten du glaubst an einen Chip mit 16 sehr effizienten Pipes?
Was aber eigentlich nicht sein kann, wenn der R520 grösstenteils vom R300 Design stammt.Was ich glaube, spielt keine Rolle. Ich kann mir unterschiedliche Lösungen von ATI vorstellen, und ich kann warten, bis ATI dazu was sagt :)

MikBach
2005-09-07, 22:28:19
Hab ich das? Ich sehe nicht wo.
Vielleicht wäre eine Brille nötig. :wink:
Analogie:
Warum hat ein PM Kern vielleicht ca 16Millionen Transistoren, ein K8 dagegen ca 30Millionen?

Das muss nichts über deren Leistung aussagen:
Oder noch ein Vergleich: P4 NW Kern ca 30Millionen, P4 Prescott ca 85 Millionen
Ich sehe hier CPUs, du etwa GPUs?

Ich habe Transistoren mit Transistoren verglichen, und einen Anhaltspunkt auf deren Auswirkung auf die Performance gegeben.
Das kannst du doch sicherlich erkennen, und gut für deine Frage nutzen oder?
Nö.

aths
2005-09-07, 22:31:57
Du hast meine Anspielung nicht verstanden. :)
Wenn der R520 wirklich nur 16 Pipes, aber 300 Mil Transistoren hat, dann frage ich mich wofür...wenn der G70 mit ca. der gleichen Transistorzahl 24 Pipes realisiert.
Entweder Mega-Pipes oder das AF ist besser geworden.
Oder hast du eine andere Erklärung?Ich weiß nicht, wie viele Transistoren der R520 wirklich hat. Ich weiß auch nicht, nach welchem Muster die gezählt werden. Es ist zum Beispiel schon mal sinnlos, Transistorzahlen zu vergleichen ohne die Architektur zu kennen. Und ich sehe keinen Sinn darin, über Pipeline-Zahlen zu spekulieren. Wie viele Pipelines eine GPU hat, ist für mich uninteressant. Ich möchte wissen, was die GPU insgesamt kann.

MikBach
2005-09-07, 22:32:55
Soweit ich das sehe, hast du genauso gute Quellen wie beim ddx/ddy-Problem.

Oh, da ist aber jemand nachtragend.
Ich wusste es nicht genau, mein Gedanke ging in Richtung zeckensack´s Denken.
Aber du kannst es ja bestimmt gut ausschlachten... :mad:

Gast
2005-09-07, 22:35:31
Es langt, ich darf mal wieder dran erinnern: http://www.forum-3dcenter.org/vbull...1796#post111796

Die gelbe Eule
2005-09-07, 22:37:28
Die gleiche, die du für deine 300 Mio angegeben hast.

Der war echt klasse :D

300m Transistoren sind echt etwas zuviel für einen Refresh Chip der schon den nächsten Refresh bekommt.

Schaut man sich den r480 an, so sind dort auch 60m Transistoren Unterschied zum nv40. So einen riesen Sprung wird es bei ATI imho nicht geben. Die hohen angedeuteten Takfrequenzen lass auch darauf schließen, das aus weniger mehr gemacht werden möchte.

BlackBirdSR
2005-09-07, 22:41:01
Vielleicht wäre eine Brille nötig. :wink:

Ich sehe hier CPUs, du etwa GPUs?

Nö.

Also habe ich GPUs mit CPUs vergleichen? Im gleichen Zug sagst du aber, dass du nur CPUs siehst.. genau was ich dir ja gesagt habe.
Was jetzt?

Nochmal:
Was ich dir klarmachen wollte (ging wohl nicht) war, dass die Anzahl an Transistoren gar nichts aussagen muss!
Jemand kann mehr Transistoren brauchen um etwas zu realisieren.
Jemand kann Transistoren für etwas brauchen, was dann nicht klappt.
Jemand kann massig Transistoren verbrauchen um kleine Performancesteigerungen zu erhalten.

Man kann schlecht Aussagen treffen, wenn man nicht weiss, für was die Transistoren gebraucht werden.
Siehe Northwood / Prescott

Ich vergleiche nur zugrundelegende Aussagen, nicht GPUs CPUs.
Aber das weisst du ja...

aths
2005-09-07, 22:47:28
Man kann schlecht Aussagen treffen, wenn man nicht weiss, für was die Transistoren gebraucht werden.Genau. So ist der G70 für meinen Geschmack ziemlich fett geraten. Wie viele Transistoren sind da noch für die eigentliche Logik? Wie viele Transistoren gibts zusätzlich, um die Taktbarkeit zu gewährleisten? Wie viel ist Cache? Wie viele Transistoren hätten gespart werden können, hätte man das Design von Grund auf neu entwickelt (und dabei auf einigen Legacy-Kram verzichtet)? All das sagt einem ja keiner.


Oh, da ist aber jemand nachtragend.
Ich wusste es nicht genau, mein Gedanke ging in Richtung zeckensack´s Denken.
Aber du kannst es ja bestimmt gut ausschlachten... :mad:Von dem was zeckensack geschrieben hat, habe selbst ich nur mit Mühe und Not die Hälfte verstanden. Ich zweilfe daran, dass deine Gedanken in zeckensacks (zu deinem Apostroph, der keiner ist, darf ich auf folgende Kolumne verweisen: http://www.kolumnen.de/sick-210605.html) Richtung gingen, außer vielleicht, das "irgendwie" auch emulieren zu können, denn ATI meint ja, mit SM3 seien gar keine neuen Effekte möglich und so. Nach einem konkreten Shader gefragt, hattest du ja sofort die Waffen gestreckt.

Ich weiß dass ich mir keine Freunde mache, wenn ich mal wieder den Beinahe-Diplom-Ingenieur raushängen lasse. Aber ich will mir hier keine Freunde machen, sondern ein technisches Niveau hochhalten. Dazu gehört nicht, so zu tun, als wüsste man was, wo man gar nichts weiß und sich höchstens irgendwas denkt. Dazu gehört auch nicht, sinnvollen Anmerkungen wie denen von BlackBirdSR bewusst schnoddrig zu begegnen. Wir sind hier weder am Lagerfeuer, wo man mit Bierchen in der Hand Geschichten erzählt, die wahr sind oder auch nicht, noch in der Disko wo es nur darauf ankommt, c00l zu sein und anerkannt zu werden egal ob hinter der großen Klappe auch was steckt oder nicht.

MikBach
2005-09-07, 22:48:54
Also habe ich GPUs mit CPUs vergleichen? Im gleichen Zug sagst du aber, dass du nur CPUs siehst.. genau was ich dir ja gesagt habe.
Was jetzt?

Ich sehe nur, dass du deine Rechnung mit CPUs machst, was aber nicht auf GPUs übertragen werden kann.
Die Gründe weisst du sicherlich. :wink:

MikBach
2005-09-07, 23:02:57
Von dem was zeckensack geschrieben hat, habe selbst ich nur mit Mühe und Not die Hälfte verstanden. Ich zweilfe daran, dass deine Gedanken in zeckensacks (zu deinem Apostroph, der keiner ist, darf ich auf folgende Kolumne verweisen: http://www.kolumnen.de/sick-210605.html) Richtung gingen, außer vielleicht,
Dass du das nicht verstehen kannst, ist deine Sache, aber halt bitte nicht anderen Leuten vor, dass sie es nicht verstehen. :)


das "irgendwie" auch emulieren zu können, denn ATI meint ja, mit SM3 seien gar keine neuen Effekte möglich und so. Nach einem konkreten Shader gefragt, hattest du ja sofort die Waffen gestreckt.
Welche Effekte sind es genau?

Ich weiß dass ich mir keine Freunde mache, wenn ich mal wieder den Beinahe-Diplom-Ingenieur raushängen lasse.
Komm schon aths, ich habe mein Informatik-Diplom schon längst geschafft...
Was willst du mir jetzt damit sagen?

deekey777
2005-09-08, 01:20:58
OMG, OMG!!!!!!!

http://www.techpowerup.com/index.php?5127

Man achte auf die Anordnung der Speicherchips, das wäre ein Novum bei ATi.


Größenvergleich (http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520)

Oh-oh (http://img358.imageshack.us/img358/4708/3dcdc8mm.jpg)

mapel110
2005-09-08, 02:11:44
OMG, OMG!!!!!!!

http://www.techpowerup.com/index.php?5127

Man achte auf die Anordnung der Speicherchips, das wäre ein Novum bei ATi.

Viel interessanter find ich die 512bit. Wo auch immer die auftreten ... :O
btw die Karte wird bei meinem Gehäuse nicht passen, da werd ich wohl einen G70 kaufen müssen. ;)


Oh-oh (http://img358.imageshack.us/img358/4708/3dcdc8mm.jpg)
:eek:
btw noch nachträglich Glückwunsch zu deinem 76.sten. :D

-error-
2005-09-08, 02:37:08
OMG, OMG!!!!!!!

http://www.techpowerup.com/index.php?5127

Man achte auf die Anordnung der Speicherchips, das wäre ein Novum bei ATi.


Größenvergleich (http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520)

Oh-oh (http://img358.imageshack.us/img358/4708/3dcdc8mm.jpg)

Heilige Scheiße! Ist die Karte nicht ein wenig zu groß geraten?

Warum ist die Anordnung der Rams jetzt so wie bei nVidia?


@ mapel110

Ist ein 512 BIT-Interface nicht sehr logisch?

+ Geschwindigkeit nimmt warscheinlich zu
+ Keine Probleme mit der Ausbeute (ist ja nur die Anbindung zwischen GPU und Ram)

- teuer, aber bei den Preisen ist das eher weniger von Bedeutung

SKYNET
2005-09-08, 02:42:27
Heilige Scheiße! Ist die Karte nicht ein wenig zu groß geraten?

Warum ist die Anordnung der Rams jetzt so wie bei nVidia?


kürzere signalwege und somit geringere latenzen.

Die gelbe Eule
2005-09-08, 02:47:40
R520 XT

512MB RAM
~600 MHz core
~650-700 MHz memory
Dual slot cooling
Dual DVI

Muss ja übel teuer werden. Was da alleine ein 700MHz Rambaustein kostet ...


Warum die Crossfire Edition nur 256MB hat, bleibt mir ein Rätsel ...

The will only be PCI-Express boards. AGP versions are definitely not planned.

Soviel zur Kundenfreundlichkeit ... da wird NV noch bessere Umsatzzahlen bekommen, wenn auch nur eine 7800er für AGP kommt.

deLuxX`
2005-09-08, 02:57:37
Muss ja übel teuer werden. Was da alleine ein 700MHz Rambaustein kostet

Das gleiche dachte ich mir auch. Hinzu kommt, dass die Häufigkeit dieser Grafikkarte nicht sehr hoch sein wird.

Warum die Crossfire Edition nur 256MB hat, bleibt mir ein Rätsel ...
Mir auch. Vielleicht weil bei CF Rams der beiden Grafikkarten mitgenutzt werden. Nicht so wie bei nVIDIA.



Soviel zur Kundenfreundlichkeit ... da wird NV noch bessere Umsatzzahlen bekommen, wenn auch nur eine 7800er für AGP kommt.

We'll see. ;)

-deLuxX`

mapel110
2005-09-08, 03:05:05
Wenn ATI kein Referenz-Design für AGP plant und die Aussage von Zeckensack stimmt, dass es nur sehr selten dazu kommt, dass Boardhersteller eigene PCBs einwickeln, dann seh ich für High End AGP auf beiden Seiten eigentlich schwarz.

Eventuell bleibt dann eben nur übrig, auf die nächsten Mid Range Produkte von nvidia und ATI zu warten (Ableger von R600 und G80/NV50) und zu hoffen, dass diese schneller werden als altes High End. ;(

Die gelbe Eule
2005-09-08, 03:06:43
Würde sogar sagen das die R520XT nur eine Phantomkarte wird, da eh der R580 zum Weihnachstgeschäft kommt. Dort läßt sich selbige Performance viel günstiger realisieren.

Schwanzmark läßt mal wieder grüßen ...

@Mapel: Aber genau das wird Nvidia gebrauchen können. Sockel 939 boards(als Beispiel) gibt es ja noch genug, die AGP unterstützen und der ULi ist ja auch net umsonst auf dem Markt. Da es eh keine performanten Vorteile auf PCI-E gibt und das auch bei jedem Review durchsickert, kann man hier noch einen vorhandenen Markt über 6-12 Monate bedienen. Genau ein Zyklus des Refreshchips.

Ailuros
2005-09-08, 03:25:30
Bitte um kurzen Exkurs, was NV43 (abweichend vom Papa NV40) mit G70 verbindet.


Weniger ROPs, mehr fragment quads.

Ailuros
2005-09-08, 03:44:11
Was den "angeblichen" 512bit bus betrifft, hat XMas dieses Thema schon ausreichend beantwortet bei B3D.

Thema 64bpp + MSAA: falls dieses der Fall sein sollte bei R520 (und nicht irgend ein "FP10+MSAA - workaround"), dann hat natuerlich ATI einen Vorteil gegenueber der Konkurrenz und ich werde Ihnen auch den Hut dafuer abnehmen. Float HDR wird aber nichtdestotrotz fuer einige Zeit noch ein Feature zum ausprobieren sein auf GPUs der absehbaren Zukunft, ueberhaupt kombiniert mit MSAA, denn was ausreichende Bandbreiten-Reserven fuer hohe Aufloesungen betrifft sehe ich bei solchen Kombinationen noch nichts.

Thema branching: ich hab den Ausschnitt schon auf B3D gepostet und es kommt von Kristof Beets der einige Artikel fuer das ShaderX2 Buch geschrieben hat.

Performance considerations

The cloth shader code contains a loop, while a loop makes the code easy to understand and read it might not be optimal for hardware execution. If the hardware supports enough instructions it might be better to unroll this loop, by unrolling the loop no cycles are wasted on actually executing the loop instructions (compare and jump operations). But generally a developer should not have to worry about this since the driver compiler should automatically handle this according to the device capabilities.

The shader above also contains dynamic branching. When using branching it is essential to realize that there are 2 distinct types: constant branching and dynamic branching. Constant branching, as the name suggest, executes code based on a constant (Boolean). This constant is known before the shader execution starts and remains constant for a large number of vertices (vertex shader) or pixels (pixel shader). Most graphics hardware uses a SIMD Structure (Single Instruction Multiple Data) meaning that ideally the same instruction is executed on a lot of different data elements. When using branching situations are introduced where for different vertices/pixels different code paths are executed and this conflicts with the SIMD principle that aims to apply the same instructions.

With constant branching the branch taken is the same for a large number of vertices/pixels and hence the conflict with the SIMD structure is quite low, with dynamic branching this is different. Dynamic branching decides which bits of the code to execute based on a value calculated during the execution of the shader, the outcome of this calculation can be different for every pixel/vertex and hence this can completely conflict with the SIMD structure of graphics hardware resulting in possibly lost hardware pipeline efficiency and hence performance.

Based on this information it is essential to select the correct type of branching, only use dynamic branching if your decision can change per pixel. If the decision is the same for a lot of pixels/vertices it is better to use constant branching, where possible, or avoid the branching (e.g. do a zero operation or overwrite previous results). When considering to add branching as a performance improvement it is essential to check that it actually improves the performance, each branching instruction comes with a cost and hence introducing a lot of branching instructions might in the end cost more than executing some non-essential instructions – remember that the branching instruction will be executed for every pixel and instructions are only saved in those cases that the correct branch is selected.

My 2 schentsch :P

Ailuros
2005-09-08, 03:51:09
OMG, OMG!!!!!!!

http://www.techpowerup.com/index.php?5127

Man achte auf die Anordnung der Speicherchips, das wäre ein Novum bei ATi.


Größenvergleich (http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520)

Oh-oh (http://img358.imageshack.us/img358/4708/3dcdc8mm.jpg)

Es kann sein dass es auch eine XT PE geben wird; erwartet aber nicht viel - wenn ueberhaupt was am Anfang - im retail Markt.

mapel110
2005-09-08, 03:57:19
Dynamic branching decides which bits of the code to execute based on a value calculated during the execution of the shader, the outcome of this calculation can be different for every pixel/vertex and hence this can completely conflict with the SIMD structure of graphics hardware resulting in possibly lost hardware pipeline efficiency and hence performance.
Interessant. Hm, was Dynamic Branching angeht, müsste doch Unified Shader die Antwort darauf sein?! Wenn jede Pipe Vertex und Pixelshader kann, dann müsste das doch gerade dort von Vorteil sein?!
Hm, weiß nicht, wie ich das jetzt in Worte fassen soll. ;(
dann hat natuerlich ATI einen Vorteil gegenueber der Konkurrenz und ich werde Ihnen auch den Hut dafuer abnehmen.
:)
Ist lieb gemeint von dir. Korrekt heißt es aber ...
dann hat natuerlich ATI einen Vorteil gegenueber der Konkurrenz und ich werde/würde dafür den Hut vor ihnen ziehen.

Ailuros
2005-09-08, 05:16:09
Interessant. Hm, was Dynamic Branching angeht, müsste doch Unified Shader die Antwort darauf sein?! Wenn jede Pipe Vertex und Pixelshader kann, dann müsste das doch gerade dort von Vorteil sein?!
Hm, weiß nicht, wie ich das jetzt in Worte fassen soll. ;(

PC PGUs =X * 4-way SIMD
Xenos = 3 * 16-way SIMD

Xenos ist immer noch eine "SIMD-Architektur" und dazu ist die "pipeline" um einiges tiefer als bei den heutigen PC GPUs.

So wie ich das Ganze verstehe, koennte es durchaus sein dass es bei Xenos noch besser wird, aber zu einem absoluten Segen sieht mir da dynamisches branching auch nicht aus; eben nur unter sehr gewissen Bedingungen.


Ist lieb gemeint von dir. Korrekt heißt es aber ...
dann hat natuerlich ATI einen Vorteil gegenueber der Konkurrenz und ich werde/würde dafür den Hut vor ihnen ziehen.

Merci bien ;)

seahawk
2005-09-08, 07:48:08
Dann verstehe ich nicht, warum du andeutest, über den R520 schon ganz gut bescheid zu wissen. Einen auf wavey zu machen halte ich persönlich nicht für sonderlich schicklich. Wer jetzt schon was weiß, wird nichts sagen dürfen und auch nichts sagen. Wer was sagt, oder andeutet was zu wissen, zeigt damit nur dass er nichts weiß. Spekulationen sollten imo auch im Spekulationsforum als Vermutung gekennzeichnet werden.

Vielleicht fällt einigen meine betonte Ernsthaftigkeit in solchen Themen auf. Ich bin es einfach leid, wenn aus Spekulationen dann "Gerüchte" werden. Wenn der Chip dereinst draußen ist, können wir ihn analysieren.

Natürlich, für eine Analyse ist es viel zu früh, da wir die Effizinz überhaupt nicht einschätzen können.

robbitop
2005-09-08, 07:58:54
Dann mal eine ganz einfache Frage...
Warum hat der R520 etwa 300 Mil Transistoren und nur 16 Pipes?
Der G70 hat aber 24 Pipes bei ähnlicher Transistorzahl.
:wink:
Er hat 250 Mio Transistoren und 16 Pipes (gab es mal einen relativ exakten Größenvergleich mit Rechnung +/- ein paar Mio).
Warum? Weil R520 wieder nur ein Plan B ist und wieder nur ein aufgebohrter Vorgänger. (eine Annahme die darauf stützt, dass R400/500/600 eigentlich gedacht waren und das Unternehmen natürlich beschränkte Ressourcen zur Verfügung hat. Und natürlich eine andere Quelle: wavey) R300 auf SM3 aufzubohren ist verdammt Transistorintensiv. (kann sich jeder selbst ausrechnen) Somit liegt die Transistoreffizienz unter der des CineFX designs (NV4x/G7x), denn diese sind seit Anfängen auf SM3 ausgelegt worden.
Außerdem ist R300 nicht so skallierbar wie NV4x/G7x. (ist im NV4x Inside Artikel nachzulesen) Hier kostet es verdammt viel Arbeit, mal eben ein paar Quads dazu zu tun. Mehr als hier einige denken.
NV4x hingegen wurde so designed (das hat viel Mühe gekostet), dass er hervorragend skallierbar ist.

Ich nehme mal an, ATI wusste, wie bei SLI (man sieht es an den "Masterboards"), nicht dass NV soetwas bringen würde (24P).


btw: das Bild vom R520 im Case ist doch schon alt. PCBs müssen natürlich größer dimensioniert werden, je höher die Taktraten sind. NVIDIA macht das seit der Ti4600 und das nicht ohne Grund. Bis auf das eine vermurkste NV43 A1 PCB sind nämlich alle sehr sehr gut haltbar gewesen.
Der R520 sieht auf dem Foto ..im wahrsten Sinne des Wortes...heiss aus.
Dieses verkrampfte Hochgetakte und die damit verbundene Verspätung, nur um annährend Konkurrenzfähig zu sein, erinnert mich sehr an den NV30.
Das PCB, die Kühlung, die seltenen XT Versionen und die riesen Verspätung mit den Respins spricht ja dafür.
Mit der XT P(ress) E(dition) war es ja ebenfalls so.

robbitop
2005-09-08, 08:11:40
Ich sehe nur, dass du deine Rechnung mit CPUs machst, was aber nicht auf GPUs übertragen werden kann.
Die Gründe weisst du sicherlich. :wink:
CPUs waren nur ein Beispiel. Das was er gesagt hatte betrifft aber den Logikteil jeden ASICs.
Aber nur für dich: R420 160Mio Transistoren - NV40 222 Mio Transistoren.
Wer war schneller? ;)

Noch krasser: NV30 125 Mio Transistoren - R300 107 Mio Transistoren
R300 hatte doppelt so viele Pipelines und über den doppelten aritmetischen FP Output.

robbitop
2005-09-08, 08:17:44
Viel interessanter find ich die 512bit. Wo auch immer die auftreten ... :O

2x256 Bit = 512 Bit. (vor dem DDR Speichercontroller)
Da der Speichercontroller entkoppelt ist, könnte man theoretisch jeden beliebig breiten Controller anschließen. Das ist spätestens seit NV25 so.

robbitop
2005-09-08, 08:19:29
Würde sogar sagen das die R520XT nur eine Phantomkarte wird, da eh der R580 zum Weihnachstgeschäft kommt. Dort läßt sich selbige Performance viel günstiger realisieren.


Dave Orton hat offiziell gesagt, dass R580 erst Q1 05 kommt. So schnell geht sowas nun auch wieder nicht. Diese wird sich mit G80 messen müssen.

Ronny145
2005-09-08, 08:34:55
OMG, OMG!!!!!!!

http://www.techpowerup.com/index.php?5127

Man achte auf die Anordnung der Speicherchips, das wäre ein Novum bei ATi.


Größenvergleich (http://www.beyond3d.com/news/images/image.php?img=http://www.beyond3d.com/news/images/20050519_r520.jpg&comment=R520)

Oh-oh (http://img358.imageshack.us/img358/4708/3dcdc8mm.jpg)

Na toll, nur PCIE. Da muss ich mir extra ein neues Board kaufen.

Tarkin
2005-09-08, 08:58:46
http://www.hkepc.com/hwdb/r520firstlook-e.htm

... Comparing the ATI R520 Rev 2 card against the previous generation Radeon X850XT PE, we can observe that the PCB is longer at 229mm similar to GeForce 7800GTX. According to our source, the R520 core is design with 32 pipelines in mind but due to yield problem, not all the pipelines can be utilized. We expect R520 will have 16pp, 24pp and 32pp versions using 90nm micron process technology from TSMC. Die size is at 16mm x 18mm and will support Shader Model 3.0 and Direct X 9.0c. According to our source, the R520XT sample will be clocked at 650Mhz core and support 512bit memory interface but only 256bit memory on board. ...

http://www.hkepc.com/hwdb/r520firstlook/pcb.jpg

... As the card maker doesn't wish to reveal the R520 performance yet, but we can confirm that R520 at 24pp or 32pp will not be lower than that of the GeForce 7800GTX. Even though the 32pp and 24pp R520 mass production will face some difficulties, but the 16 pipelines R520 using the 90nm core will be clocked high to maintain a certain level of competitiveness. Apart from employing TSMC to make the 90nm R520 cores, UMC will be making them as well in the near future to make up the shortage problem and we can see more of the 32pp and 24pp R520 versions....

[dzp]Viper
2005-09-08, 09:02:31
Also doch 16/24/32 Pipes - wobei wir die 32 Pipe-Version wohl nie sehen werden und die 24 Pipe-Version wohl nur fürs Gewinnen der Benchmarks da sein wird :eek: (Glaube kaum, dass die 24 Pipe-Version oft im Handel zu finden sein wird...)

Also wenn das stimmt, was da steht, dann wäre der R520 doch ziemlich schnell :|

/edit:


delays from July 26th to 27th August to 20th September

Tomcat70
2005-09-08, 09:05:49
Weil R520 wieder nur ein Plan B ist und wieder nur ein aufgebohrter Vorgänger. R300 auf SM3 aufzubohren ist verdammt Transistorintensiv. Somit liegt die Transistoreffizienz unter der des CineFX designs (NV4x/G7x), denn diese sind seit Anfängen auf SM3 ausgelegt worden.
Außerdem ist R300 nicht so skallierbar wie NV4x/G7x. (ist im NV4x Inside Artikel nachzulesen) Hier kostet es verdammt viel Arbeit, mal eben ein paar Quads dazu zu tun.


naja, solange Plan B besser funktioniert als Plan A spricht ja nichts gegen Plan B.
bei dir klingt alles sehr nach "Wunsch ist Vater des Gedanken".
die transistoreffizienz des noch nicht vorhandenen r520 so abzuurteilen würde ich mir für die zeit nach dem release aufheben, oder kennst du das interne design des r520 schon? eher nein......

Adam D.
2005-09-08, 09:09:06
Ja toll, und was bedeutet das jetzt? Es existieren also sowohl 24-, als auch 32-Pipeline-Versionen. Aber ATi schmeißt nur die 16er auf'n Markt, weil die anderen beiden zu niedrige Yield-Raten haben?
Wenn denn auch nur ganz wenige existieren, wird man nicht versuchen, die auf den Markt zu werfen? Oder an Tester zu geben, um den Sieg über Nvidia zu zeigen?

Grestorn
2005-09-08, 09:09:24
Mir auch. Vielleicht weil bei CF Rams der beiden Grafikkarten mitgenutzt werden. Nicht so wie bei nVIDIA.
Das ist technisch gar nicht möglich.

seahawk
2005-09-08, 09:13:50
the R520XT sample will be clocked at 650Mhz core and support 512bit memory interface but only 256bit memory on board. ...

Sorry, aber ein Artikel der so etwas schreibt ist nicht gerade glaubwürdig und zeugt auch nicht von tieferem Verständnis.

[dzp]Viper
2005-09-08, 09:20:41
Sorry, aber ein Artikel der so etwas schreibt ist nicht gerade glaubwürdig und zeugt auch nicht von tieferem Verständnis.

und was wäre daran falsch?

Gast
2005-09-08, 09:21:13
Wenn der Artikel von HKEPC stimmt, dann ist dies eine grosse Ueberaschung fuer alle die an ATI gezweifelt oder geglaubt haben und ein grosser Rueckschritt was die Kompetenz und die Glaubwuerdigkeit einiger sogenannter Hardware-Gurus hier in diesem eigentlich so guten Forum betrifft.

Naja, vielleicht haben sie ja doch recht......

seahawk
2005-09-08, 09:28:47
Viper']und was wäre daran falsch?

Entweder ein Chip hat ein 512Bit Memoryinterface oder nicht. Das hat nichts mit on Board zu tun. Maximal denkbar ist, dass der Chip intern mit 512bit arbeitet, das Interface bleibt aber 256bit. Es hat also keinen Einfluss auf die Bandbreite. Und jetzt könnte man sich fragen, ob nicht jeder Chip der ein 256bit DDR Interface nutzt nicht intern mit 512Bit arbeitet.

[dzp]Viper
2005-09-08, 09:33:22
Entweder ein Chip hat ein 512Bit Memoryinterface oder nicht. Das hat nichts mit on Board zu tun. Maximal denkbar ist, dass der Chip intern mit 512bit arbeitet, das Interface bleibt aber 256bit. Es hat also keinen Einfluss auf die Bandbreite. Und jetzt könnte man sich fragen, ob nicht jeder Chip der ein 256bit DDR Interface nutzt nicht intern mit 512Bit arbeitet.


ganz genau so habe ich es im Text verstanden. Der Chip ist intern ein 512bit Chip aber nach Außen hin "nur" ein 256bit Chip. Was das nun am ende bringt - darüber sollten wir nicht Urteilen da wird wohl nicht genug Hintergrundwissen besitzen um sowas zu beurteilen.

Es könnte aber sein, dass der R520 die Basis für viele neue Chips bis ende 2006 ist und man deswegen einen Chip designed hat, welchen man später noch gut "pimpen" ;) kann.

Fragen über Fragen - das wird wohl alles erst ende September beantwortet :)

seahawk
2005-09-08, 09:40:51
Aber gilt das nicht für jeden Chip mit einen 256Bit DDR Interface :

256Bit DDR = 512Bit SDR.

reunion
2005-09-08, 10:09:08
btw die Karte wird bei meinem Gehäuse nicht passen, da werd ich wohl einen G70 kaufen müssen. ;)


ACK, wenn es sich dabei um das final-PCB handelt, dann ist die Karte für mich gestorben.
Wobei mir die 600Mhz Chiptakt verdammt wenig vorkommen, vermutlich wird es noch eine XT-PE mit >=650Mhz geben.

reunion
2005-09-08, 10:19:22
http://www.the-inquirer.net/?article=26010
http://www.the-inquirer.net/?article=26011

ShadowXX
2005-09-08, 10:40:41
http://www.the-inquirer.net/?article=26010
http://www.the-inquirer.net/?article=26011


We revealed that the top end R520 XT will end up clocked to 600MHz core with sixteen pipelines and memory at quite high 1400MHz. We already said that those cards will be quite hard to get as ATI will have some trouble to produce as many as the market would want it to. We believe that whoever gets one might end up having the fastest card around.

The other two cards will also feature sixteen pipelines but their core and memory speeds will end up working slower than the R520 XP performance but limitedly available king.

The R520PRO will be second in terms of speed and will work at 550 MHz core while its memory will work at 1250 MHz. This card should be widely available and will have sixteen pipelines.

Third in line is R520XL. This card will work at 500 MHz core and 1000 MHz memory but we guess that its price will be more acceptable for most of you. This is sixteen pipelines part and will be highly available.


Die Quelle von HKEPC glaube ich auch zu kennen.....Sie ist grün und fängt mit "n" an und hat auch auch Fuad schon mal ein paar "hints" gegeben.... :wink:

Quasar
2005-09-08, 10:42:04
Entweder ein Chip hat ein 512Bit Memoryinterface oder nicht. Das hat nichts mit on Board zu tun. Maximal denkbar ist, dass der Chip intern mit 512bit arbeitet, das Interface bleibt aber 256bit. Es hat also keinen Einfluss auf die Bandbreite. Und jetzt könnte man sich fragen, ob nicht jeder Chip der ein 256bit DDR Interface nutzt nicht intern mit 512Bit arbeitet.

Der R300 hatte auch ein 256-Bit-Interface. Und dann gab es, basierend auf demselben Kern die R9500 und R9500 Pro – beide mit 128-Bit-Interface.

Und nun?

reunion
2005-09-08, 10:47:10
Der R300 hatte auch ein 256-Bit-Interface. Und dann gab es, basierend auf demselben Kern die R9500 und R9500 Pro – beide mit 128-Bit-Interface.

Und nun?


Nur warum sollte man 8 Speichercontroller verbauen, wenn man doch nur 4 verwendet?

SKYNET
2005-09-08, 11:01:30
Nur warum sollte man 8 Speichercontroller verbauen, wenn man doch nur 4 verwendet?


evtl. weils einfacher ist einmal zu designen als mehrmals?!

Quasar
2005-09-08, 11:06:05
Nur warum sollte man 8 Speichercontroller verbauen, wenn man doch nur 4 verwendet?
Wenn du eine Crossbar davor hast, womöglich eine programmierbare, dann kannst du den Chip auch noch nutzen, wenn du einen Defekt im Memory-Controller hast.
Selbes Prinzip, wie bei 24 Pipelines, von denen nur 16 oder 20 genutzt werden. Chipinterne Redundanz für höhere Ausbeuten.

reunion
2005-09-08, 11:09:50
Neue Bilder:

http://www.hkepc.com/hwdb/r520firstlook/compare.jpg

Die Karte scheint exakt die gleiche Länge wie eine 7800GTX zu besitzen.


http://www.hkepc.com/hwdb/r520firstlook/dram.jpg


http://www.hkepc.com/hwdb/r520firstlook/testing.jpg

http://www.hkepc.com/hwdb/r520firstlook.htm

robbitop
2005-09-08, 11:17:34
naja, solange Plan B besser funktioniert als Plan A spricht ja nichts gegen Plan B.
bei dir klingt alles sehr nach "Wunsch ist Vater des Gedanken".
die transistoreffizienz des noch nicht vorhandenen r520 so abzuurteilen würde ich mir für die zeit nach dem release aufheben, oder kennst du das interne design des r520 schon? eher nein......
Das ist alles nicht grundlos. Es ist extrapolierbar. Es gibt keinen Grund solche Bedenken grundlos zu äußern. Quellen und Indizien habe ich bereits geäußert.

robbitop
2005-09-08, 11:20:10
Ja toll, und was bedeutet das jetzt? Es existieren also sowohl 24-, als auch 32-Pipeline-Versionen. Aber ATi schmeißt nur die 16er auf'n Markt, weil die anderen beiden zu niedrige Yield-Raten haben?
Wenn denn auch nur ganz wenige existieren, wird man nicht versuchen, die auf den Markt zu werfen? Oder an Tester zu geben, um den Sieg über Nvidia zu zeigen?
Eher nicht. Es ist von Entwicklern mehrfach bestätigt, dass R520 ein 4 Quad Design ist. Da scheint der Autor etwas falsch verstanden zu haben.

Hätte man >4 Quads, wären so verkrampft hohe Taktraten gar nicht nötig.

robbitop
2005-09-08, 11:22:48
Viper']ganz genau so habe ich es im Text verstanden. Der Chip ist intern ein 512bit Chip aber nach Außen hin "nur" ein 256bit Chip. Was das nun am ende bringt - darüber sollten wir nicht Urteilen da wird wohl nicht genug Hintergrundwissen besitzen um sowas zu beurteilen.

Es könnte aber sein, dass der R520 die Basis für viele neue Chips bis ende 2006 ist und man deswegen einen Chip designed hat, welchen man später noch gut "pimpen" ;) kann.

Fragen über Fragen - das wird wohl alles erst ende September beantwortet :)
Das ist seit dem Parhelia so. Selbst beim NV25 ist das so. Warum soll das plötzlich etwas besonderes sein? s.o.
Seit NV25 kann jedes beliebige Speicherinterface an den Chip "gebaut" werden.

dildo4u
2005-09-08, 11:23:18
Wie will mann eigentlich mit 16pipes und 650mhz auf 10000 3Dmark 05 Punkte kommen Laut Futuremark kommen X800XT-PE mit 650mhz auf ca 7000-7500 Punkte.

robbitop
2005-09-08, 11:25:09
Wie will mann eigentlich mit 16pipes und 650mhz auf 10000 3Dmark 05 Punkte kommen Laut Futuremark kommen X800XT-PE mit 650mhz auf ca 7000-7500 Punkte.
8xVS. 3DMark ist eh ein schlechter Indikator.

[dzp]Viper
2005-09-08, 11:27:56
Wie will mann eigentlich mit 16pipes und 650mhz auf 10000 3Dmark 05 Punkte kommen Laut Futuremark kommen X800XT-PE mit 650mhz auf ca 7000-7500 Punkte.

effizientere pipes?

dildo4u
2005-09-08, 11:28:08
8xVS. 3DMark ist eh ein schlechter Indikator.
8XVS? wie viele VS Einheiten hat den eine X800XT?

robbitop
2005-09-08, 11:30:50
Viper']effizientere pipes?
Durchaus möglich. Effizienter als die R300 Pipe sind die sicher ;)

8XVS? wie viele VS Einheiten hat den eine X800XT?
6

reunion
2005-09-08, 11:30:51
8XVS? wie viele VS Einheiten hat den eine X800XT?


Sechs, wobei ich nicht denke, dass diese limitieren.
SM3 bringt im 3dmark im übrigen auch >500 Punkte.

robbitop
2005-09-08, 11:34:40
Sechs, wobei ich nicht denke, dass diese limitieren.
SM3 bringt im 3dmark im übrigen auch >500 Punkte.
beim Murks05 bringen die durchaus was.

Merkor
2005-09-08, 11:36:17
http://www.techpowerup.com/index.php?5127

http://www.techpowerup.com/img/05-09-07/r520front.jpg

reunion
2005-09-08, 11:37:57
beim Murks05 bringen die durchaus was.

NV40 verliert durch das Reduzieren auf 5VS kaum Leistung, erst bei vier nimmt die Performance spürbar ab. Man müsste das mal mit einem G70 testen, aber da R480 eine wesentlich höhere VS-Performance als NV40 und G70 bietet, glaube ich nicht, dass noch mehr da viel bringen würde.

robbitop
2005-09-08, 11:38:55
NV40 verliert durch das Reduzieren auf 5VS kaum Leistung, erst bei vier nimmt die Performance spürbar ab. Man müsste das mal mit einem G70 testen, aber da R480 eine wesentlich höhere VS-Performance als NV40 und G70 bietet, glaube ich nicht, dass noch mehr da viel bringen würde.
Ein paar hundert punkte bringts sicher. Müßte man mal nachtesten.

reunion
2005-09-08, 11:40:43
http://www.techpowerup.com/index.php?5127


Interessant, dass bei der Rückansicht vor dem PCIe-Anschluss so ein kleines Plastikteilchen hervorsteht, welcher bei der Frontansicht verschwunden ist. Fotomontage, oder Fake?

SKYNET
2005-09-08, 11:41:51
Ein paar hundert punkte bringts sicher. Müßte man mal nachtesten.


aber keine 3000pkt. :|

robbitop
2005-09-08, 11:47:23
aber keine 3000pkt. :|
dessen bin ich mir bewußt. Aber wer weiß, wie viele Punkte das Teil wirklich holt. Evtl sind die 10k auf FUAD. Habe bisher noch keinen brauchbaren Beweisscreenie gesehen.
Wenn das Teil 10k schafft, ohne Cheats ..err Optimierungen, dann bräuchte es keinen so verkrampft hohen Takt und damit so lange Verspätung, um G70 zu schlagen ;)

Crushinator
2005-09-08, 12:06:19
Nur warum sollte man 8 Speichercontroller verbauen, wenn man doch nur 4 verwendet?
Die Antwort findet, wer das (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm) richtig deuten kann. ;)

tombman
2005-09-08, 12:08:19
Also ich bin auch sehr skeptisch wie 16p nvidias 24p schlagen sollen, 600mhz core oder nicht.

Aber die 1.26ns GDDR3 sind :eek: :eek: :O

Laut Rechnung 800mhz :eek:

Ich will ne 7800 ultra mit 550 core und diesem ram ;D

dr_mordio
2005-09-08, 12:15:06
was mich freut, ist das ich doch nicht so danebenlag mit dem mehr als 16pipe-design welches nur durch die yields erstmal auf 16 eigeschränkt ist.

Interessant, dass bei der Rückansicht vor dem PCIe-Anschluss so ein kleines Plastikteilchen hervorsteht, welcher bei der Frontansicht verschwunden ist. Fotomontage, oder Fake?

nunja, man sieht aber auch auf der vorderansicht das dort eine etwa 1pixel längere kante ist. genau zu sehen am bogen der runter zu den kontakten geht..... irgend ein grafiker hat die pix ja freigestellt. evtl hat er diese kante einfach übersehen, da man nicht weiß welche farbe der hintergrund hatte. oder es sind 2 verschiedene revisionen des boards - sprich die pix wurden evtl nicht am selben tag gemacht.... auf anderen pix bei hkepc sieht man den nippel auch auf der vorderseite

MfG
Alex

Quasar
2005-09-08, 12:19:01
Wie will mann eigentlich mit 16pipes und 650mhz auf 10000 3Dmark 05 Punkte kommen
Mit CrossFire?

SKYNET
2005-09-08, 12:24:00
Also ich bin auch sehr skeptisch wie 16p nvidias 24p schlagen sollen, 600mhz core oder nicht.

Aber die 1.26ns GDDR3 sind :eek: :eek: :O

Laut Rechnung 800mhz :eek:

Ich will ne 7800 ultra mit 550 core und diesem ram ;D


wer will die nicht? ;D

robbitop
2005-09-08, 12:24:07
was mich freut, ist das ich doch nicht so danebenlag mit dem mehr als 16pipe-design welches nur durch die yields erstmal auf 16 eigeschränkt ist.
Das ist nirgends bestätigt. Hingegen ist bestätigt sind die 4 Quads beim R520. >4 Quads entstand aus FUD.

Gast
2005-09-08, 12:24:11
Mit CrossFire?
Denn müsste mann aber weitaus über 10K kommen,weil eine X850X TPE ja schon 7000punkte schafft.

Quasar
2005-09-08, 12:32:21
Denn müsste mann aber weitaus über 10K kommen,weil eine X850X TPE ja schon 7000punkte schafft.
Auch der 3DMark05 hat ein CPU-Limit. Wer weiß, vielleicht ereilt CrossFire ja das selbe Schicksal wie SLI, das mit der 7800 GTX schlechter im 3DMark05 skaliert, als mit einer 6800 Ultra ( -> Annäherung an das CPU-Limit).

HajottV
2005-09-08, 12:33:53
Hoi,

Weiß nicht, ob's schon gepostet wurde:

http://www.hkepc.com/hwdb/r520firstlook-e.htm

Die Anordung der Speicherchips erinnert irgendwie an die Parhelia-Karten. :confused:

Wenn es wirklich stimmt, daß ATi Probleme hat von 32 Pipelines 24 zum Laufen zu bekommen, dann werden wir vermutlich wieder homöopathische Dosen der Phantom-Edition sehen. Nuja, bald wissen wir mehr.

512'er Speicherinterface... das ist doch mal interessant. (Selbst wenn die Board wohl vorerst nur 256 unterstützen.) Da ist dann noch Raum nach oben.

Gruß

Jörg

ShadowXX
2005-09-08, 12:38:10
Hoi,

Weiß nicht, ob's schon gepostet wurde:

http://www.hkepc.com/hwdb/r520firstlook-e.htm

Die Anordung der Speicherchips erinnert irgendwie an die Parhelia-Karten. :confused:

Wenn es wirklich stimmt, daß ATi Probleme hat von 32 Pipelines 24 zum Laufen zu bekommen, dann werden wir vermutlich wieder homöopathische Dosen der Phantom-Edition sehen. Nuja, bald wissen wir mehr.

512'er Speicherinterface... das ist doch mal interessant. (Selbst wenn die Board wohl vorerst nur 256 unterstützen.) Da ist dann noch Raum nach oben.

Gruß

Jörg

Es gibt keine Version mit mehr als 4 Quads...wie Robbitop schon sagte: Wenn Sie eine Version hätten die mehr als 4 Quads hat, bräuchten Sie keine so hohen Taktraten....und genau diese waren ja das Problem bei ATI.

Aber das das Ding nur 4 Quads hat glauben die meisten wohl erst, wenn jemand das Die abflext...

HOT
2005-09-08, 12:39:34
Also ich bin auch sehr skeptisch wie 16p nvidias 24p schlagen sollen, 600mhz core oder nicht.

Aber die 1.26ns GDDR3 sind :eek: :eek: :O

Laut Rechnung 800mhz :eek:

Ich will ne 7800 ultra mit 550 core und diesem ram ;D

Es kommt darauf an, wie mächtig die Pipes sind und welche Leistung die TMUs bieten. 16Pipes sind nicht gleich 16 Pipes. Im Moment braucht ATI mit dem R4x0 Karten auch 100MHz mehr als NV um ähnliche Leistungen zu erreichen.

HOT
2005-09-08, 12:43:04
Es gibt keine Version mit mehr als 4 Quads...wie Robbitop schon sagte: Wenn Sie eine Version hätten die mehr als 4 Quads hat, bräuchten Sie keine so hohen Taktraten....und genau diese waren ja das Problem bei ATI.

Aber das das Ding nur 4 Quads hat glauben die meisten wohl erst, wenn jemand das Die abflext...

Mit mehr als 4 Quads ist wohl vorm Refresh nicht zu rechnen., das stimmt.

seahawk
2005-09-08, 12:55:42
Die Antwort findet, wer das (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm) richtig deuten kann. ;)

Also 8X32 statt 4x64. Interessante Idee, nur wie wirkt sich das auf die effektive Bandbreite aus ? Hat man da weniger Verschnitt ?

robbitop
2005-09-08, 13:00:42
Hoi,

Weiß nicht, ob's schon gepostet wurde:

http://www.hkepc.com/hwdb/r520firstlook-e.htm

Die Anordung der Speicherchips erinnert irgendwie an die Parhelia-Karten. :confused:

Wenn es wirklich stimmt, daß ATi Probleme hat von 32 Pipelines 24 zum Laufen zu bekommen, dann werden wir vermutlich wieder homöopathische Dosen der Phantom-Edition sehen. Nuja, bald wissen wir mehr.

512'er Speicherinterface... das ist doch mal interessant. (Selbst wenn die Board wohl vorerst nur 256 unterstützen.) Da ist dann noch Raum nach oben.

Gruß

Jörg

Erschreckend, wie lange und wie gründlich sich dieser FUD hällt. Es existieren keine 24P oder 32P Versionen. Durch mehrfaches Wiederholen ahnungsloser Redakteure wird das nicht richtiger. Es wurde schon bestätigt, dass es eine 4 Quad Architektur ist.

robbitop
2005-09-08, 13:02:27
Mit mehr als 4 Quads ist wohl vorm Refresh nicht zu rechnen., das stimmt.
Laut bisherigen Infos auch da nicht.
Es ist ein Refresh und da ATI keine gut skallierbare Architektur besitzt, ist es nicht einfach mal eben 2 Quads hinzuzufügen. Das kostet richtig Zeit.

Gast
2005-09-08, 13:08:35
The picture what you saw is the sample by August. ATI also have one-slot design which similar to GF7800GT.

PS: 24PS 550MHz 3Dmark 2005---7600

"If anyone want to know numerous real things behind R520, I can spill the beans."16~32Pixel pipelines only account for 20% of what TSMC got from the C version.

Coda
2005-09-08, 13:10:24
was mich freut, ist das ich doch nicht so danebenlag mit dem mehr als 16pipe-design welches nur durch die yields erstmal auf 16 eigeschränkt ist.
Da liegst du sicherlich daneben. So schlecht können die Yields gar nicht sein, wie manche behaupten. Das ist doch nur eine blöde Ausrede deren, die monatelang auf >16 Pipelines bestanden haben.

Intel schafft es immerhin Itaniums mit >1 Milliarde Transistoren zu fertigen in 90nm.

ShadowXX
2005-09-08, 13:11:39
The picture what you saw is the sample by August. ATI also have one-slot design which similar to GF7800GT.

PS: 24PS 550MHz 3Dmark 2005---7600


Wenn das stimmen würde, wäre aber ziemlich gruselig....das Sie aber nur 16Pipes haben sowieso hinfällig.

[dzp]Viper
2005-09-08, 13:12:54
Erschreckend, wie lange und wie gründlich sich dieser FUD hällt. Es existieren keine 24P oder 32P Versionen. Durch mehrfaches Wiederholen ahnungsloser Redakteure wird das nicht richtiger. Es wurde schon bestätigt, dass es eine 4 Quad Architektur ist.

ähm
vielleicht doch? :|

Momentan spricht wieder so extrem viel dafür - und vor allem von leuten die eine R520 direkt gesehen haben - auch in aktion - dass man auch damit wieder rechnen sollte...

Black-Scorpion
2005-09-08, 13:13:23
@Coda

Und wieviele Millionen davon sind Cache?

Du solltest bestimmt mit am besten wissen das man CPUs und GPUs so nicht vergleichen kann.

'edit' Nachtrag

Coda
2005-09-08, 13:15:26
Schon klar, trotzdem ist es humbug dass jemand einen Chip produziert wenn sie die Hälfte der Einheiten danach abschalten. Denk doch mal logisch: Yields sind vor allem wegen Waferdefekten oder Staub schlecht. Die 32 Pipelines wären ja wohl identisch, womit begründest du dass immer nur die Hälfte davon funktioniert?

Das sind Hirngespinste. Das Ding hat 16PP - Schluss, aus, amen.

Gast
2005-09-08, 13:17:28
Wenn das stimmen würde, wäre aber ziemlich gruselig....das Sie aber nur 16Pipes haben sowieso hinfällig.

"16+20+24+28+32"pixel pipelines only account for 20% of the numerous Wafers.
The version what R520 been fabricating are C version .

HOT
2005-09-08, 13:19:13
Schon klar, trotzdem ist es humbug dass jemand einen Chip produziert wenn sie die Hälfte der Einheiten danach abschalten. Denk doch mal logisch: Yields sind vor allem wegen Waferdefekten oder Staub schlecht. Die 32 Pipelines wären ja wohl identisch, womit begründest du dass immer nur die Hälfte davon funktioniert?

Das sind Hirngespinste. Das Ding hat 16PP - Schluss, aus, amen.

Würich genauso sehen, wenn man sich das Die Foto mal anschaut. Das ist IMHO kleiner als das des R420, jedenfalls macht es den Eindruck (muss ja nicht stimmen). Da passen auch bei 90nm keine 8 vollwertigen Quads rein ;)

robbitop
2005-09-08, 13:20:41
Viper']ähm
vielleicht doch? :|

Momentan spricht wieder so extrem viel dafür - und vor allem von leuten die eine R520 direkt gesehen haben - auch in aktion - dass man auch damit wieder rechnen sollte...
Es wollen sich nur einige Leute wichtig machen. Wie soll ein einfacher Tester denn erkennen, ob da Pipelines gelockt sind? Oder der FUD ist immernoch in den Köpfen der Tester.
Da müssten ersteinmal Spezialisten wie Unwinder heran.
Wie schon zig mal vorher gesagt: 4 Quads sind bestätigt. Wären es mehr, bräuchte man diesen verflucht hohen Takt und diese 9 Monate Verspätung nicht. Das mit den Yields ...siehe Coda.

robbitop
2005-09-08, 13:22:01
@Coda

Und wieviele Millionen davon sind Cache?

Du solltest bestimmt mit am besten wissen das man CPUs und GPUs so nicht vergleichen kann.

'edit' Nachtrag
Es geht nicht um einen Vergleich CPU/GPU. Es geht darum, wieviele Logiktransistoren auf einem ASIC in einem Fertigungsprozess realisierbar sind.

Gast
2005-09-08, 13:23:08
Keep in mind 10VS are fully enabled all the time no matter numerous 16~32PS version.

Anyone want more truth???

[dzp]Viper
2005-09-08, 13:23:41
Es wollen sich nur einige Leute wichtig machen. Wie soll ein einfacher Tester denn erkennen, ob da Pipelines gelockt sind? Oder der FUD ist immernoch in den Köpfen der Tester.
Da müssten ersteinmal Spezialisten wie Unwinder heran.
Wie schon zig mal vorher gesagt: 4 Quads sind bestätigt. Wären es mehr, bräuchte man diesen verflucht hohen Takt und diese 9 Monate Verspätung nicht. Das mit den Yields ...siehe Coda.

was machst du, wenn es doch mehr sind? X-D

robbitop
2005-09-08, 13:26:28
Viper']was machst du, wenn es doch mehr sind? X-D
Ich bin doch völlig unbedeutend. Mich gruselt es nur, wie sich solcher FUD hällt, vor allem wenn man durch einfaches Hinterfragen und Zusammenlegen der Indizien und Quellen der letzten Zeit auf ein klares Ergebnis kommt.
Zumal es doch längst bestätigt ist.

Coda
2005-09-08, 13:32:30
Also ich hab grad mal die DIEs verglichen. R520 hat ungefähr 75% der Fläche vonn R480. Das kommt schon hin mit den 250 Mio Transistoren bei 90nm.

32 Pipelines sind ausgeschlossen. Dafür müsste der Chip mindestens so groß sein wie R480.

reunion
2005-09-08, 13:34:16
Also 8X32 statt 4x64. Interessante Idee, nur wie wirkt sich das auf die effektive Bandbreite aus ? Hat man da weniger Verschnitt ?


Nur weil jeder Speicherbaustein mit 32-bit angebunden ist, bedeutet das noch lange nicht, dass R520 8 Speichercontroller zu je 32-bit besitzt.