PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

robbitop
2004-11-05, 20:56:17
tja, nur "leider" scheint R480 tot zu sein.
wirds wohl nicht geben.
wo hast du das denn her?

"Let's start with ATI. The SIG pre-announced and let us all know that ATI already has R480 and R430 cards up and running. They tested them, so they sure have to exist." Theinq.net

Exxtreme
2004-11-05, 21:04:24
AA und AF kann man IMO relativ isoliert von der Rohleistung betrachten. Und da der nV30 genau wie nV20/5/8 nur ein Quad besaß, musste sehr viel über die Taktraten gemacht werden.
Ja, das ist wahr. Der NV30 unterscheidet sich, bis auf die Shader, nur marginal vom NV25. Color Compression ist noch dazugekommen als grössere Neuerung und vielleicht noch die Möglichkeit für brilineares Filtering... IIRC.

Aber wie gesagt, für den Endkunden war Faktor zwei an Leistung drinne wenn man AA und AF benutzte. Ohne diese Features waren diese Karten fast immer CPU-limitiert.

robbitop
2004-11-05, 21:13:44
Ja, das ist wahr. Der NV30 unterscheidet sich, bis auf die Shader, nur marginal vom NV25. Color Compression ist noch dazugekommen als grössere Neuerung und vielleicht noch die Möglichkeit für brilineares Filtering... IIRC.

Aber wie gesagt, für den Endkunden war Faktor zwei an Leistung drinne wenn man AA und AF benutzte. Ohne diese Features waren diese Karten fast immer CPU-limitiert.

nach aussen hin vieleicht.
Innen ist die CineFX Pipeline doch relativ stark verändert worden. Man ist hin zu einem VLIW Prinzip gegangen und liess die Steuerlogik durch den Treiber erledigen. Auch der Shadercore (mit dem die SUs im NV40 sehr verwand sind) sind neu.
Alt hingegen sind die Register Combiner.
Nach aussen hin siehts nach einem getunten NV25 aus. Die Pipeline hingegen ist größtenteils neu. Sonst wäre auch keine Flowcontrol und die Grundlage fürs Branching möglich gewesen (Versetzen von beliebigen Programmzeigerwerten)

Exxtreme
2004-11-05, 21:17:57
nach aussen hin vieleicht.
Innen ist die CineFX Pipeline doch relativ stark verändert worden.
Ich schrieb ja... "bis auf die Shader". ;)

mapel110
2004-11-05, 21:33:18
wo hast du das denn her?

"Let's start with ATI. The SIG pre-announced and let us all know that ATI already has R480 and R430 cards up and running. They tested them, so they sure have to exist." Theinq.net

Wie soll das zeitlich in den Rahmen passen, wenn R520 sein Tape out hatte und nun wohl innerhalb der nächsten 4-5 Monate vorgestellt wird. Wenn ein R480 kommen sollte, dann jetzt. So wie es aussieht, werden diese einfach nur die R420er karten ersetzen ohne grösseres Tam Tam, ergo ohne Veränderungen (also Taktsteigerungen), damit die Ausbeute endlich stimmt.

/edit
Wenn R480 wirklich schon fertig ist, dann sollte ja wohl in Kürze ein Launch kommen, aber gibt keine Gerüchte dazu.

robbitop
2004-11-05, 21:44:18
Ich schrieb ja... "bis auf die Shader". ;)

Eine Pipeline besteht doch fast nur aus der Steuerlogik (sofern vorhanden), entsprechenden Ausführungseinheiten, FIFO, Caches, Register, Decodern, den TMUs und evl den Rasterizer Operatoren. (Wobei die im NV40 ja bereits durch einen Crossbar entkoppelt sind).

Somit ist die Haupsache neu ;-)
Die Combiner, Teile der TMUs und der ROPs sind übernommen.
Wobei auch an den ROPs entsprechend gearbeitet worden ist (NV30 kann 8 Z Werte pro Takt lesen/schreiben NV25 kann das nur unter MSAA).
Die Vertexshader sehen auch sehr neu aus.

Ok, ausser den Shadern *gg*

robbitop
2004-11-05, 21:47:55
Wie soll das zeitlich in den Rahmen passen, wenn R520 sein Tape out hatte und nun wohl innerhalb der nächsten 4-5 Monate vorgestellt wird. Wenn ein R480 kommen sollte, dann jetzt. So wie es aussieht, werden diese einfach nur die R420er karten ersetzen ohne grösseres Tam Tam, ergo ohne Veränderungen (also Taktsteigerungen), damit die Ausbeute endlich stimmt.
Naja wenn ATi einen R480 auf der Roadmap hat, dann kommt der auch.
Zum Dezember will man wegen Weihnachten noch gut absahnen.
Ausserdem was nutzt ATi ein Produktlaunch vor Massenverfügbarkeit?
Nichts. Die "alten" Karten verfallen im Preis und man will noch die Chips loswerden. Ausserdem ist in HJ1 auch kein Konkurent da, der zur Eile drängen könnte.
Aprill erwarte ich einzelne Samples (ich habe bisher noch nichts über die Zuverlässigkeit von TSMCs' NexGen gehört bei so komplexen GPUs).
Jedoch wenn ich mir anschaue, wie lange es bei der aktuellen Generation bis zur Verfügbarkeit gedauert hat, kann ich mir durchaus vorstellen, dass man den Launch etwas rausschiebt, bis man ein paar Karten auf Masse produziert hat. Ich mutmaße mal Sommer als Launch.
Das ist genug Abstand zum R480 (welcher wohl soziemlich 0 Veränderung hat) -> so gut wie keine R&D Aufwände. Lediglich die Kosten fürs Tapeout.

aths
2004-11-05, 23:28:31
Bitte bitte "außer" und "größer" mit ß schreiben.

Ja, das ist wahr. Der NV30 unterscheidet sich, bis auf die Shader, nur marginal vom NV25. Color Compression ist noch dazugekommen als grössere Neuerung und vielleicht noch die Möglichkeit für brilineares Filtering... IIRC.

Aber wie gesagt, für den Endkunden war Faktor zwei an Leistung drinne wenn man AA und AF benutzte. Ohne diese Features waren diese Karten fast immer CPU-limitiert.Der NV40 ist böse gesagt ein NV25 mit dem DX9-Shadercore. Aber es gibt schon Änderungen, so z. B. die Fähigkeit, ohne Antialiasing 2 Quads gleichzeitig auf Z und Stencil zu testen, dann der Vertex Shader 2.0 mit Branching, neben dem brilinearem Filter gibts noch Änderungen am AF.

aths
2004-11-05, 23:39:38
Und den NV40 ein bisschen zu tunen, dürfte nicht viele Resourcen in Anspruch nehmen bzw auf jedenfall nicht so schwieriig sein, wie eine komplett neue Architektur auf Speed zu trimmen(NV50).Beim NV50 erwarte ich keine komplett neue Architektur. Der NV50 ist praktisch fertig entwickelt und muss nur noch zur Produktionsreife gebracht werden, während NV nebenbei die ganzen NV40-Ableger zur Marktreife bringt. Ehe es eine komplett neue Architektur gibt, müsste NV erst mal genügend Erfahrungen mit funktionstüchtigen NV40-Chips gemacht haben. Nicht zu vergessen die Entwicklungskosten. Eine komplett neue Architektur (NV30 inkl. Ableger NV31 und NV34) zu entwickeln kostet ganz grob 300 Mio USD, eine Architektur etwas aufzubohren (NV20->NV25, NV11->NV17) zusammen nur rund 100 Mio USD.

Gast
2004-11-06, 11:22:06
AiL
don't feed the trolls ;)

zum R520
R300 kam auch früher als NV30 und musste sich jedoch mit NV30 messen und hatte bis dahin keine Konkurrenz.
Allerdings munkelt man bei B3D von einem geheimnisvollen NV47 der mehr Quads bekommen soll (dafür bräuchte man dann auch 90nm) um vorerst gegen R520 mithalten zu können.
Ich schenke allerdings diesem Gerücht keinen Glauben.


Ihr seit ja sehr boniert in eurer Annahme das sachliche Argumentation "Trollen" wäre.

Euch fehlen einfach die Gegenargumente und Ail, dir brauche ich ja ja nicht zu sagen das Vertexshader sehr wohl einen Nutzen haben, immerhin sind sie sinnvoller als SM3.0 zu implementieren was ja heute keine einziges Spiel unterstützt.

Zudem ist NV SM3.0 noch nicht einmal kompatibel zu MS$, wie Ihr zu sagen pflegt, das 90% der Gamer ein MS$ plattform verwenden scheint hier ja egal zu seinn!

Quasar
2004-11-06, 11:32:34
Beim NV50 erwarte ich keine komplett neue Architektur. Der NV50 ist praktisch fertig entwickelt und muss nur noch zur Produktionsreife gebracht werden, während NV nebenbei die ganzen NV40-Ableger zur Marktreife bringt.


Ehe es eine komplett neue Architektur gibt, müsste NV erst mal genügend Erfahrungen mit funktionstüchtigen NV40-Chips gemacht haben.

Zwischen erstem und zweitem Teil sehe ich irgendwie einen Widerspruch - oder wie definierst du "genügend Erfahrungen"? Vor allem, da man nach diesen Erfahrungen ja erst an den Optimierungsprozess herangehen kann.

Quasar
2004-11-06, 11:34:55
Ihr seit ja sehr boniert in eurer Annahme das sachliche Argumentation "Trollen" wäre.

Euch fehlen einfach die Gegenargumente und Ail, dir brauche ich ja ja nicht zu sagen das Vertexshader sehr wohl einen Nutzen haben, immerhin sind sie sinnvoller als SM3.0 zu implementieren was ja heute keine einziges Spiel unterstützt.

Zudem ist NV SM3.0 noch nicht einmal kompatibel zu MS$, wie Ihr zu sagen pflegt, das 90% der Gamer ein MS$ plattform verwenden scheint hier ja egal zu seinn!
Waren das deine Argumente?

Dir ist kein Vorsprung bekannt??? Dann hilft dir vieleicht folgender Input:

- 100% native PCI Express
- Einziger Chip mit 6 Vertex Shadern im Midrange (X700)
- 80% Marktanteil im Notebookbereich
->>> Prognose für 2005 + 40% mehr Notebookverkäufe
- Einziger Chip im Entrylevel mit 4 Pixelshadern - 9250


Oder warst/bist du jemand anderes?

ice cool69
2004-11-06, 20:55:00
Ich kann diesen Wahn nach immer höheren Shadermodellen überhaupt nicht nachvollziehen. Was nützt mir ein Shader12-Modell wenn der Chip zu langsam ist?
Außerdem ist es eine komische Aussage wenn man meint nVidia hätte die Drecksarbeit übernommen. Das hört sich so an als ob ATI jetzt einfach den NV40-Chip genommen und das Design kopiert hätte was absoluter Schwachsinn ist. Jede Firma entwickelt immer noch für sich selber und entscheidet selber was sie wann entwickelt und warum.

mapel110
2004-11-06, 21:16:16
Ich kann diesen Wahn nach immer höheren Shadermodellen überhaupt nicht nachvollziehen. Was nützt mir ein Shader12-Modell wenn der Chip zu langsam ist?
Außerdem ist es eine komische Aussage wenn man meint nVidia hätte die Drecksarbeit übernommen. Das hört sich so an als ob ATI jetzt einfach den NV40-Chip genommen und das Design kopiert hätte was absoluter Schwachsinn ist. Jede Firma entwickelt immer noch für sich selber und entscheidet selber was sie wann entwickelt und warum.

naja, ist schwer davon auszugehen, dass sich die Konkurrenten sehr gut beobachten. Und der eine oder andere ATI-Mitarbeiter dürfte schon mal den ein oder anderen NV40 näher betrachtet haben. ;)

zu den Shadermodellen:
Irgendwer muss doch neue Features einführen, damit die Entwickler die neuen Funktionen in der Praxis testen können.
Man könnte vielleicht Serien nur für Entwickler fertigen, aber macht das Sinn?
Irgendwie muss man doch die Entwicklungskosten wieder reinholen, und da ists doch okay, wenn man Massenfertigung macht und den ein oder anderen Technikbegeisterten mit zahlen lässt, der sich dann an den Techdemos ergözen kann.
Ausserdem bietet NV40 ja mehr als nur "unnötiges, lahmes" SM3.0.

Gast
2004-11-06, 21:21:07
Zudem ist NV SM3.0 noch nicht einmal kompatibel zu MS$, wie Ihr zu sagen pflegt, das 90% der Gamer ein MS$ plattform verwenden scheint hier ja egal zu seinn!

???????

Was willst du uns damit sagen???

aths
2004-11-06, 22:10:43
Zudem ist NV SM3.0 noch nicht einmal kompatibel zu MS$, wie Ihr zu sagen pflegt, das 90% der Gamer ein MS$ plattform verwenden scheint hier ja egal zu seinn!Ich habe einen MS-Mitarbeiter während einer NV-Veranstaltung referieren gesehen (und gehört), wobei er nicht meinte, dass Nvidias SM3-Implementierung inkompatibel sei. Wäre auch bisschen komisch, da man ja offensichtlich SM3 mit DX9.0c nutzen kann.


Ich kann diesen Wahn nach immer höheren Shadermodellen überhaupt nicht nachvollziehen. Was nützt mir ein Shader12-Modell wenn der Chip zu langsam ist?Bei SM3 nützen bestimmte neue Features, dass komplexe Effekten mit weniger Rechenschritten auskommen als es noch bei SM2 erforderlich ist.

aths
2004-11-06, 22:13:01
Zwischen erstem und zweitem Teil sehe ich irgendwie einen Widerspruch - oder wie definierst du "genügend Erfahrungen"? Vor allem, da man nach diesen Erfahrungen ja erst an den Optimierungsprozess herangehen kann.Eine wirklich neue Architektur erwarte ich erst beim NV60.

Quasar
2004-11-06, 22:37:51
Eine wirklich neue Architektur erwarte ich erst beim NV60.
Ich habe "eine" gelesen, nicht "keine". Sorry.

Gast
2004-11-07, 09:56:34
Ich habe einen MS-Mitarbeiter während einer NV-Veranstaltung referieren gesehen (und gehört), wobei er nicht meinte, dass Nvidias SM3-Implementierung inkompatibel sei. Wäre auch bisschen komisch, da man ja offensichtlich SM3 mit DX9.0c nutzen kann.


Bei SM3 nützen bestimmte neue Features, dass komplexe Effekten mit weniger Rechenschritten auskommen als es noch bei SM2 erforderlich ist.


ATHS,

du weißt genau das die die eine Präsentation halten nie etwas gegen einen Hersteller sagen würden, immer schön politisch korrekt.

Was MS$ angeht werden die sich langsam mal entscheiden müssen!
;-)

anderer Gast
2004-11-07, 11:03:45
? Wo bitte schön kann man nachlesen das NVs SM3.0 Implementierung nicht dem von MS und den IHVs entwickelten Richtlinien entspricht?
Nicht gerade ein ideales Beispiel, aber bei FarCry funktioniert SM3 doch.
Ich glaub eher hier Trollt jemand mit Halbwissen und Hörensagen rum, wirft wieder ein schlechtes Bild auf "uns" Gäste!

reunion
2004-11-07, 11:43:16
Was mich etwas "irritiert" ist die Aussage das die Die Fläche im Verglich zum R420 kleiner werden soll, selbst wenn man nun davon ausgeht das R520 in 90nm Prozess gefertigt wird so wird die Fläche im vergleich zum 130nm Prozess um max. 50% kleiner. An SM3.0 wird man wohl kaum vorbeikommen sodass hier IMO kaum noch möglichkeiten zur weiteren Leistungssteigerung wie mehr Pipes bleiben.

robbitop
2004-11-07, 13:14:31
? Wo bitte schön kann man nachlesen das NVs SM3.0 Implementierung nicht dem von MS und den IHVs entwickelten Richtlinien entspricht?
Nicht gerade ein ideales Beispiel, aber bei FarCry funktioniert SM3 doch.
Ich glaub eher hier Trollt jemand mit Halbwissen und Hörensagen rum, wirft wieder ein schlechtes Bild auf "uns" Gäste!


Wo genau kommt in Far Cry SM3 zum Einsatz?
AFAIK kommen zusätzlich (zur V1.0) folgende Dinge zum Einsatz:

-Geometric Instancing (der VS2 der Radeon kann das auch)
-Zusammenfassen von Lichtquellen (nicht an SM gekoppelt. Die Radeon kann das auch. Hierfür benötigt es eine gewisse Anzahl an Interpolatorregistern in der ALU selbst. NV40 hat davon ein paar mehr und kann somit mehr Lichtquellen zusammenfassen. Die Anzahl der Interpolatoren hat mit SM3 nichts am Hut)
-HDR (FP Rendertargets haben mit SM3 auch nichts zu tun)
-ursprünglich war noch Offsetmapping geplant (kann jede DX9 Karte)

ironMonkey
2004-11-07, 13:40:04
Was mich etwas "irritiert" ist die Aussage das die Die Fläche im Verglich zum R420 kleiner werden soll, selbst wenn man nun davon ausgeht das R520 in 90nm Prozess gefertigt wird so wird die Fläche im vergleich zum 130nm Prozess um max. 50% kleiner. An SM3.0 wird man wohl kaum vorbeikommen sodass hier IMO kaum noch möglichkeiten zur weiteren Leistungssteigerung wie mehr Pipes bleiben.


Ob das eine Aussage ist, kann man stark in Frage stellen, allerdings würde man hier über 300 mio+. Transitoren unterbringen können.........

mapel110
2004-11-07, 13:45:22
? Wo bitte schön kann man nachlesen das NVs SM3.0 Implementierung nicht dem von MS und den IHVs entwickelten Richtlinien entspricht?
Nicht gerade ein ideales Beispiel, aber bei FarCry funktioniert SM3 doch.
Ich glaub eher hier Trollt jemand mit Halbwissen und Hörensagen rum, wirft wieder ein schlechtes Bild auf "uns" Gäste!

Bezieht sich wohl auf das Hier.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=181154

-Geometric Instancing (der VS2 der Radeon kann das auch)


GI ist ein SM3.0 feature und nur durch einen Treiberhack(Registry key muss gesetzt werden, ist aber defaultmässig Off, weils sonst kein WHQL geben würde) bei ATI möglich.

robbitop
2004-11-07, 15:08:54
Bezieht sich wohl auf das Hier.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=181154



GI ist ein SM3.0 feature und nur durch einen Treiberhack(Registry key muss gesetzt werden, ist aber defaultmässig Off, weils sonst kein WHQL geben würde) bei ATI möglich.

-Wenn ein regulärer VS2 das technisch umsetzen kann, dann ist SM3 als required ja wohl unsinnig, oder?

mapel110
2004-11-07, 15:13:47
-Wenn ein regulärer VS2 das technisch umsetzen kann, dann ist SM3 als required ja wohl unsinnig, oder?

Sag das MS, nicht mir. :)

Exxtreme
2004-11-07, 15:20:57
-Wenn ein regulärer VS2 das technisch umsetzen kann, dann ist SM3 als required ja wohl unsinnig, oder?
Sag das Microsoft. :D

Hier zeigt sich OpenGL als viel flexibler. Da kann man alles nutzen wie man's will solange es die nötigen Extensions gibt.

Gast
2004-11-07, 15:25:14
-Wenn ein regulärer VS2 das technisch umsetzen kann, dann ist SM3 als required ja wohl unsinnig, oder?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=168761

Xmas
2004-11-07, 16:00:02
-Zusammenfassen von Lichtquellen (nicht an SM gekoppelt. Die Radeon kann das auch. Hierfür benötigt es eine gewisse Anzahl an Interpolatorregistern in der ALU selbst. NV40 hat davon ein paar mehr und kann somit mehr Lichtquellen zusammenfassen. Die Anzahl der Interpolatoren hat mit SM3 nichts am Hut)
Doch.
SM2: 8 FP + 2 FX-Interpolatoren
SM3: 10 FP-Interpolatoren

aths
2004-11-07, 16:50:27
Wo genau kommt in Far Cry SM3 zum Einsatz?
AFAIK kommen zusätzlich (zur V1.0) folgende Dinge zum Einsatz:

-Geometric Instancing (der VS2 der Radeon kann das auch)Die Frage ist, wie weit das genutzt werden kann. Soweit ich das sehe, "kennt" DX9.0c GI erst, wenn gleichzeitig SM3 unterstützt wrid.

-Zusammenfassen von Lichtquellen (nicht an SM gekoppelt. Die Radeon kann das auch. Hierfür benötigt es eine gewisse Anzahl an Interpolatorregistern in der ALU selbst. NV40 hat davon ein paar mehr und kann somit mehr Lichtquellen zusammenfassen. Die Anzahl der Interpolatoren hat mit SM3 nichts am Hut)Doch, da eine bestimmte Anzahl gefordert wird. Zur Zusammenfassung von Lichtquellen kommt es weiterhin auf den Instruction Count an, SM2 erfordert nur 32+64, SM3 erfordert 512 Instruktionen.

-HDR (FP Rendertargets haben mit SM3 auch nichts zu tun)Allerdings. In der Praxis werden wir das aber wahrscheinlich nur gekoppelt erleben. Um die Rechenpower und Flexibilität für HDR-Rendering zu bieten, ist gleichzeitiger SM3-Support sinnvoll. Andersherum, hat man SM3, sollte man mit "HDR-Einheiten" gleich noch eine gute Anwendungsmöglichkeit bieten. Die 6200 kann zwar SM3, hat aber kein FP16-Blending und Filtering, aber das ist ja ohnehin keine Karte für Gamer.

-ursprünglich war noch Offsetmapping geplant Nicht dass ich wüsste. Beim 6800-Launch wurde da zwar son Lügen-Vergleich gezeigt, aber für Offset Mapping müsste Crytek viel Content nachliefern.

DrumDub
2004-11-07, 18:45:12
Die Frage ist, wie weit das genutzt werden kann. Soweit ich das sehe, "kennt" DX9.0c GI erst, wenn gleichzeitig SM3 unterstützt wrid.

bei farcry funktionierts zumindest auf meiner radeon 9700 und cat 4.11b wunderbar. ohne gi geht nämlich die performace gewaltig in den keller mit e_obj_lod_ratio=100.

robbitop
2004-11-07, 18:59:09
bei farcry funktionierts zumindest auf meiner radeon 9700 und cat 4.11b wunderbar. ohne gi geht nämlich die performace gewaltig in den keller mit e_obj_lod_ratio=100.

Zwischenfrage: wie aktiviert man das?
Funktioniert dies nur mit einer R3xx/4xx u. NV4x? Oder könnten andere DX9 Karten dies auch realisieren?

mapel110
2004-11-07, 19:07:05
Zwischenfrage: wie aktiviert man das?


hab ich doch schon geschrieben, registry key setzen (geht im CCC oder per ATI-Tray tool)

speziell bei Farcry brauchts dann noch zwei parameter.
e_vegetation_sprites_distance_ratio = "100.000000"
und
geominstancing = "1"

Doch, da eine bestimmte Anzahl gefordert wird. Zur Zusammenfassung von Lichtquellen kommt es weiterhin auf den Instruction Count an, SM2 erfordert nur 32+64, SM3 erfordert 512 Instruktionen.
.

stimmt zwar, aber hier wird ja wohl im Speziellen nach Farcry gefragt, und da gehen wohl fast alle Optimierungen auch mit dem Limit von PS2.0.

jagger
2004-11-08, 22:42:13
Also wenn ich mir jetzt so ne X800XT gekauft hätte und Anfang nächstes Jahres wieder ein neues Topmodell kommt, würde ich mir verarscht vorkommen. :|

Exxtreme
2004-11-08, 22:58:47
Also wenn ich mir jetzt so ne X800XT gekauft hätte und Anfang nächstes Jahres wieder ein neues Topmodell kommt, würde ich mir verarscht vorkommen. :|
LOL. :D

Ich überspringe auch diese Generation. Die RX800 ist für mich kein richtiges Update und die GF6800GT/U wäre zwar in einigen Bereichen zwar ein Update aber in einigen Bereichen wiederum ein Downgrade. Deshalb warte ich auf den R520. :)

saddevil
2004-11-08, 23:27:11
also

ATI hat gute karten .. recht unproblematisch...teuer dazu
NV hat gute und auch GÜNSTIGE karten ... leichte probleme

aber ATI hat nix neues zu bieten in der 250-300€ klasse!
da dümpelt die 9800XT rum..

die x700 lässt warten und ist für PCIe ...

jetzt kommt von ATI bald was neues ...R520 ...
NV müsste was nachlegen...

NV hat aber zwar was geplant ..
was aber theoretisch schlechter ist...


eine jetzige 6800nu lässt sich recht oft freischalten auf 16/6
die leistung liegt mit OC oft bei der GT...

die NEUEN chips sollen ja aber von hause aus nur 12pipes haben...
nix mit freischalten..
durch den kleineren prozess dürfte aber OC technisch EINIGES GEHEN
dürfte sich relativieren
der preis wird denk ich bei 260 liegen..
darunter kommt ja 6600Gt ...

wenn ATI die neuen karten bringt.. müsste NV nachlegen..
6700 oder 6900 ??

also...
lohnt es sich zur zeit überhaupt eine graka zu kaufen??
OK ma kann immer warten .. und sich totwarten ...iss klar

aber wo führt das mal noch hin...


M$ und ATI entwickeln zusammen ... tja
NV hat anscheinend erstmal das nachsehen...
sie könnten höchstens versuchen die kosten zu senken...


etwas weniger leistung ---> aber deutlich günstigerer preis

Gast
2004-11-21, 17:04:55
Wenn die Refresh Atis grad mal Dez. 2004 vorgestellt werden wird der R520 dann erst in der 2ten Jahreshälfe 2005 vorgestellt ?

Wie stehn die chancen das der R520 eine bessere Verfügbarkeit haben wird als die aktuellen Karten (x800) ?

mapel110
2004-11-21, 17:07:57
Wenn die Refresh Atis grad mal Dez. 2004 vorgestellt werden wird der R520 dann erst in der 2ten Jahreshälfe 2005 vorgestellt ?

Wie stehn die chancen das der R520 eine bessere Verfügbarkeit haben wird als die aktuellen Karten (x800) ?

Denke cebit dürfte ein guter Termin sein für R520.

Der chip wird wohl zum einen einen brandneuen Fertigungsprozess bekommen und zum anderen kann man nicht sagen, wieviele Trasistoren er haben wird. Das machts schwer, das ganze einzuschätzen.

Coda
2004-11-21, 17:10:46
Die 6200 kann zwar SM3, hat aber kein FP16-Blending und Filtering
Woher nimmst du diese Info? Ich dachte immer NV4x sei komplett Featureidentisch.

Hauwech
2004-11-21, 19:13:09
Denke cebit dürfte ein guter Termin sein für R520.

Der chip wird wohl zum einen einen brandneuen Fertigungsprozess bekommen und zum anderen kann man nicht sagen, wieviele Trasistoren er haben wird. Das machts schwer, das ganze einzuschätzen.

Ich glaube das kann man recht gut. Durchgaeging FP32 statt FP24 duerfte schon ca. 1/3 mehr Transistoren ausmachen. Falls noch das eine ohne andere Schmankerl mit drin sein soll dann wird er ca. gleichviel oder noch ein paar Millionen Transistoren mehr haben. Ich schaetze ihn so um 230 bis 240 Millionen ein.

Demirug
2004-11-21, 19:28:06
Woher nimmst du diese Info? Ich dachte immer NV4x sei komplett Featureidentisch.

Steht bei nVidia auf der Page. Die Begründung ist das bei den 6200 die Bandbreite sowieso nicht reicht.

aths
2004-11-21, 23:24:09
Woher nimmst du diese Info? Ich dachte immer NV4x sei komplett Featureidentisch.Im 3DCenter-Artikel (http://www.3dcenter.org/artikel/2004/10-12.php) steht: "Doch auch an Features fiel der Schere einiges zum Opfer: Die Fähigkeit zur Floatingpoint-Texturfilterung und zum Floatingpoint-Alphablending bietet die GeForce 6200 ebenfalls nicht. In erster Linie bleibt also die SM3-Fähigkeit erhalten, während spezielle HDR-Beschleunigung leider nicht geboten wird [...]"

mapel110
2004-11-22, 02:37:13
Ich glaube das kann man recht gut. Durchgaeging FP32 statt FP24 duerfte schon ca. 1/3 mehr Transistoren ausmachen. Falls noch das eine ohne andere Schmankerl mit drin sein soll dann wird er ca. gleichviel oder noch ein paar Millionen Transistoren mehr haben. Ich schaetze ihn so um 230 bis 240 Millionen ein.

schön, aber woher willst du wissen, dass nicht auf 24 Pipes hochgegangen wird?!
und wenn du jetzt sagst, das wären dann zuviele Transistoren, dann lass dir gesagt sein, dass mit 222 Mio transistoren beim NV40 auch niemand gerechnet hat. Die Gerüchte dazu kamen recht spät ein paar Monate vor release.

seahawk
2004-11-22, 08:16:16
Das kann ich mir nur schwer vorstellen, dass 24 Pipes schon Anfang 2005 kommen. Ich dneke eher 16 Pipes mit mehr Takt und SM3.0.

robbitop
2004-11-22, 09:34:43
Beim R520 wäre es möglich, dass es gar keine "Pipelines" mehr gibt.
Zumal eine Steigerung von 4 (Quad)Pipelines auf 24 doch etwas viel wäre ;)

Gast
2004-11-22, 09:41:17
Das ist denke ich zusammen gereimt aus ein paar Gerüchten, die DIE größe von 240mio könnte hinhauen, da ja die chip größe minimal kleiner werden soll, allerdings schafft es ja NV bei nur minimal größerer Fläche über 220mio Transistoren rein zu packen, es könnten also auch bis zu 300mio. sein beim R520, aber wieviel Pipes jetzt das ganze hat und was sonst noch verbaut ist, das weiß nur ATI und die Leute wo's nicht sagen dürfen, es wird aber wohl nur das nötigste sein, wobei man auch sagen muss das der R300 auch nicht vor Features platzt.

Anfang 05 wird der Chip mit Sicherheit nicht kommen, er wird ende 1 - 2Quartal(Cebit) vorgestellt und wohl früstens im 3Quartal erhältlich sein, schätze ich jetzt mal einfach, weil alles andere ergibt keinen Sinn.

seahawk
2004-11-22, 09:47:43
Da muss ich dem Gast zu stimmen.

Winter[Raven]
2004-11-22, 10:08:15
Ich sehe den R520 als 16 Piper an, 24 sind für mich einfach nicht vorstellbar, ATI muss neue Architektur auf die Beine stellen, SM3.0 und noch so einiges mehr einbauen, und das trau ich ATi nicht so zu. 24 oder 32 sind bzw. werdens beim NV50 werden, da man bei Nvidia die Pipes erhöhen wird.

Soll jetzt nicht heißen das ich ATI nichts zutraue, ich habe jetzt positive Erfahrung mit ATI gemacht durch den R9700, also nicht böse sein ... ^^.

reunion
2004-11-22, 10:20:16
']Ich sehe den R520 als 16 Piper an, 24 sind für mich einfach nicht vorstellbar, ATI muss neue Architektur auf die Beine stellen, SM3.0 und noch so einiges mehr einbauen, und das trau ich ATi nicht so zu.


Dafür hatte Ati seit dem R300 eigendlich nichts mehr zu tun, beinahe die gesamten Resourcen des Unternehmens konzentrieren sich auf die R500/520 Chips. R420 war ja nur ein verdoppleter R300 und dürfte wohl kaum viel Zeit in anspruch genommen haben.


24 oder 32 sind bzw. werdens beim NV50 werden, da man bei Nvidia die Pipes erhöhen wird.


ACK, da der Nv40 bereits SM3.0 fähig ist und an einem WGF-Chip noch nicht zu denken ist wird sich Nv wohl auf die Steigerung der Performance konzentrieren.

seahawk
2004-11-22, 10:21:48
Ich sehe vor allem momentan die Rahmenbedingungen für solche Chips nicht. Ein Chip der die Rohleistung des R420 um 50% erhöht wäre nur noch durch den verfügbaren Speicher limtiert. Besonders da er seine Lesitung nur unter hohen und höchsten AA+AF Settings ausspielen könnte.

Im Endeffekt wird man den R520 erst einschätzen können, wenn er vorgestellt wird. Die Vorstellung wird zu Cebit denkbar sein. Will ATI dann einen schnell verfügbaren Chip, dann ist es ein 16 Pipe SM3.0 Chip. Ein 24Pipe SM3.0 Chip könnte, im Hinblick auf die projezierte Verfügbarkeit von schnellerem Speicher, lange eine Papiertiger bleiben.

Gast
2004-11-22, 10:26:31
Das Problem ist nur wie Robbitop, das man hier die Leistung über die normalen Pipelines nicht mehr abschätzen kann, das wird so eine art Allround Chip werden der R520.

Im NV50 sehe ich auch nur einen verbesserten NV40, die Zeit ist zu knapp um da großartig was machen zu können.

Gast
2004-11-22, 10:28:27
Das Problem ist nur wie Robbitop, das man hier die Leistung über die normalen Pipelines nicht mehr abschätzen kann, das wird so eine art Allround Chip werden der R520.

Im NV50 sehe ich auch nur einen verbesserten NV40, die Zeit ist zu knapp um da großartig was machen zu können.

Sorry, war etwas abgelenkt, hinter Robbitop fehlt schrieb.

reunion
2004-11-22, 10:29:48
Ich sehe vor allem momentan die Rahmenbedingungen für solche Chips nicht. Ein Chip der die Rohleistung des R420 um 50% erhöht wäre nur noch durch den verfügbaren Speicher limtiert. Besonders da er seine Lesitung nur unter hohen und höchsten AA+AF Settings ausspielen könnte.


Seh ich nicht so. Im Grunde ist die Speicherbandbreite immer knapp, R420 erreicht immerhin mehr als die dreifache Füllrate des R300, hat aber nichtmal die dopplete Bandbreite. An der Speicherbandbreite wirds denke ich nicht scheitern, da wird man sich schon was einfallen lassen, selbst XDR-RAM oder ein 384-bit Speicherinfance wäre (für mich) im Notfall denkbar.

Winter[Raven]
2004-11-22, 10:36:29
Im NV50 sehe ich auch nur einen verbesserten NV40, die Zeit ist zu knapp um da großartig was machen zu können

Ist es nicht so das gleichzeitig 2 Design-Teams am arbeiten sind ;)? Dazu gibt es schon seit längerem Gerüchte das am am NV50 länger gearbeitet wird als man sich denkt ^^.

Gast
2004-11-22, 10:46:40
Seh ich nicht so. Im Grunde ist die Speicherbandbreite immer knapp, R420 erreicht immerhin mehr als die dreifache Füllrate des R300, hat aber nichtmal die dopplete Bandbreite. An der Speicherbandbreite wirds denke ich nicht scheitern, da wird man sich schon was einfallen lassen, selbst XDR-RAM oder ein 384-bit Speicherinfance wäre (für mich) im Notfall denkbar.


Wir reden hier von einem Massenprodukt das Geld in die Kassen bringen soll, man hätte auch schon dem R420 ein 384/512bit Speicherinterface geben können und eventuell 32 Pipelines, aber sowas kostet nunmal Geld ohne Ende, von daher wird auch wohl der R520 noch auf ein 256bit Interface zurück greifen, aber halt nicht so verschwendend wie der R420.

seahawk
2004-11-22, 12:31:42
Seh ich nicht so. Im Grunde ist die Speicherbandbreite immer knapp, R420 erreicht immerhin mehr als die dreifache Füllrate des R300, hat aber nichtmal die dopplete Bandbreite. An der Speicherbandbreite wirds denke ich nicht scheitern, da wird man sich schon was einfallen lassen, selbst XDR-RAM oder ein 384-bit Speicherinfance wäre (für mich) im Notfall denkbar.

Halte ich persönlich für sehr unwahrscheinlich. So ein Produkt ist nicht mehr zu marktüblichen Preisen relaisierbar, besonders wenn man bedenkt, dass die absoluten High-End-Boards bald 512MB Video-RAM haben werden.

Technisch möglich dürfte es evtl. sogar sein, wirtschaftlich sinnvoll ist es sicher nicht.

MechWOLLIer
2004-11-22, 16:28:36
Halte ich persönlich für sehr unwahrscheinlich. So ein Produkt ist nicht mehr zu marktüblichen Preisen relaisierbar, besonders wenn man bedenkt, dass die absoluten High-End-Boards bald 512MB Video-RAM haben werden.

Da muss ich dir recht gebeb, höchstens könnte ich mir vorstellen, dass ein 384 bittriges Speicherinterface sinnvoll und auch wirtschaftlich wäre.
Nur wie schon gesagt, gerade bei ATI scheitert es derzeit an der Speicherbandbreite, doch was wollen sie machen?
Entweder man verbreitert die Speicheranbindung oder man erhöht den Speichertakt, was derzeit aber noch nicht möglich zu sein scheint.

mapel110
2004-11-22, 16:31:08
Entweder man verbreitert die Speicheranbindung oder man erhöht den Speichertakt, was derzeit aber noch nicht möglich zu sein scheint.

Man kann auch die Effiziens des Speicherinterfaces verbessern. :)

robbitop
2004-11-22, 16:45:23
Man kann auch die Effiziens des Speicherinterfaces verbessern. :)

z.B. über Virtualisierten Speicher. Man kann damit den Platz der MIPMAPs sparen.

MechWOLLIer
2004-11-22, 16:59:59
Man kann auch die Effiziens des Speicherinterfaces verbessern. :)
Könnte man, aber kann man da wirklich noch viel heraushohlen?

seahawk
2004-11-22, 17:52:13
Sicherlich genug um mit einer 16 Pipe Lösung und besserem Speicher noch eine merkliche Verbesserung hinzukriegen. Das gilt imho für beide IHVs.

Gast
2004-11-22, 18:23:34
Sicherlich genug um mit einer 16 Pipe Lösung und besserem Speicher noch eine merklich Verbesserung hinzukriegen. Das gilt pmho für beide IHVs.

Soweit ich richtig Informiert bin ist der NV40 in dieser Richtung sehr Effektiv, aber der R420 ist weit davon entfernt.

seahawk
2004-11-22, 18:42:47
Soweit ich richtig Informiert bin ist der NV40 in dieser Richtung sehr Effektiv, aber der R420 ist weit davon entfernt.

Effektiver als der R420 ja, absolut gesehen dürfte da auch noch Spielraum sein. Dafür könnte NV beim NV50 ja auch noch deutlicher an der Taktschraube drehen.

robbitop
2004-11-22, 19:26:10
Könnte man, aber kann man da wirklich noch viel heraushohlen?

Virtualisierter Speicher kann durch MIPMAP Einsparung bis zu 30% Texturbandbreite sparen, also ingesamt 10-20% Ersparnis (Color/MS/Z Buffer sind ja unbetroffen).
Hinzu kämen noch bessere Cachelines und ein bisschen Feintuning, da kommt man sicher irgendwie auf 20-30% effektiv mehr Bandbreite.

Xmas
2004-11-22, 19:38:36
Virtualisierter Speicher kann durch MIPMAP Einsparung bis zu 30% Texturbandbreite sparen
Speichervirtualisierung bringt nur dann einen Bandbreitenvorteil, wenn der lokale Speicher nicht mehr ausreicht. Dann wird man allerdings auch nur durch die Busbandbreite ausgebremst.

robbitop
2004-11-22, 20:39:41
Speichervirtualisierung bringt nur dann einen Bandbreitenvorteil, wenn der lokale Speicher nicht mehr ausreicht. Dann wird man allerdings auch nur durch die Busbandbreite ausgebremst.

Achso. Wieder was dazugelernt. Naja dann verliert das Ganze natürlich einiges an Sinn.

Gast
2004-12-02, 22:39:59
*push*

gibts denn nix neues zum chip ???

mapel110
2004-12-02, 22:43:03
*push*

gibts denn nix neues zum chip ???

wenn man Demirugs und Airulos Aussagen zu deuten versucht, kanns wohl gut sein, dass der Chip kein SM3.0 kann. Wäre echt ein Hammer, wenn das zutrifft. oder interpretier ich da was falsch?!

Quasar
2004-12-02, 22:46:04
Vielleicht kann er alles, was für SM3.0 erforderlich ist, sans FP32? Darauf deutet(e) auch eine der berühmten Fußnoten hin.

reunion
2004-12-02, 23:46:42
wenn man Demirugs und Airulos Aussagen zu deuten versucht, kanns wohl gut sein, dass der Chip kein SM3.0 kann. Wäre echt ein Hammer, wenn das zutrifft. oder interpretier ich da was falsch?!

In our recently published interview with ATI’s CEO, Dave Orton[...]Dave also states that they didn’t feel Shader Model 3.0 was right for R420 due to the die size that it would require and 90nm processes aren’t really available until '05. Considering 90nm will be the next high performance process from TSMC, for a high end product to achieve both performance at not too large a die size, an obvious concern for ATI, then you can draw that R500 may be targeted for 90nm and would also feature Shader Model 3.0.

http://www.beyond3d.com/forum/viewtopic.php?t=12174

Following the release of the Mercury Market share figures, ATI held an Analyst conference last week in which numerous point of ATI's business were discussed. Reports indicate that following the meeting Goldman Sachs have come back with numerous impressions of ATI's R5xx series, some of which are inline with elements that we've discussed before.

The reports state that ATI have confirmed they are due to launch their new architecture, the basis of the R5xx series, in the first half of 2005. Goldman also believes the architecture to be based on Shader 3.0 and be very focused on the memory interface and bus.

http://www.beyond3d.com/forum/viewtopic.php?t=17745

Es wurde bereits von Dave Orton höchstpersöhnlich bestätigt das man SM3.0 unterstützten wird. Wieviel Beweise brauchen denn mache Leute noch?

Und das wohl beste Argument ist es wäre schlicht selbstmord weiterhin auf der bereits jetzt veralteten Architektur aufzubauen. SO intelligent düfte wohl ATi auch sein.

Ailuros
2004-12-03, 06:56:16
In our recently published interview with ATI’s CEO, Dave Orton[...]Dave also states that they didn’t feel Shader Model 3.0 was right for R420 due to the die size that it would require and 90nm processes aren’t really available until '05. Considering 90nm will be the next high performance process from TSMC, for a high end product to achieve both performance at not too large a die size, an obvious concern for ATI, then you can draw that R500 may be targeted for 90nm and would also feature Shader Model 3.0.

http://www.beyond3d.com/forum/viewtopic.php?t=12174

Following the release of the Mercury Market share figures, ATI held an Analyst conference last week in which numerous point of ATI's business were discussed. Reports indicate that following the meeting Goldman Sachs have come back with numerous impressions of ATI's R5xx series, some of which are inline with elements that we've discussed before.

The reports state that ATI have confirmed they are due to launch their new architecture, the basis of the R5xx series, in the first half of 2005. Goldman also believes the architecture to be based on Shader 3.0 and be very focused on the memory interface and bus.

http://www.beyond3d.com/forum/viewtopic.php?t=17745

Es wurde bereits von Dave Orton höchstpersöhnlich bestätigt das man SM3.0 unterstützten wird. Wieviel Beweise brauchen denn mache Leute noch?

Und das wohl beste Argument ist es wäre schlicht selbstmord weiterhin auf der bereits jetzt veralteten Architektur aufzubauen. SO intelligent düfte wohl ATi auch sein.

Ich brauche ueberhaupt keine Beweise. Durchsuchst Du die Datenbank hier wirst Du schnell herausfinden dass ich bis vor einiger Zeit auch glaubte dass R520 direkt verwandt mit jeglichem R5xx ist, was natuerlich auch durchaus logisch ist.

Wenn ich aber das Zeug in Betracht nehme dass momentan hinter den Kulissen gefluestert wird, geht meine obrige Sicherheit schnell den Bach runter. Im "Save the nanosecond" Dokument mit Huddy's Notizen wird nur R5xx erwaehnt und kein direkter Anschlag auf R520/PC oder wann SM3.0 Teile genau fuer den PC verfuegbar sein werden. Und ja es kann durchaus sein dass ich mich wieder mal u.a. durch dieses geleakte Dokument irrefuehren liess.

Falls R520 tatsaechlich ein SM3.0 Teil sein sollte, desto besser fuer ATI. Hier wird wohl die Veroefflichungs-Zeitspanne auch eine grosse Rolle spielen; falls es tatsaechlich Anfang 2005 erscheint mir das alles sowieso viel zu frueh. 90nm hin und her und egal was fuer ein Shader Modell, von 2*R420 kann hier schwer die Rede sein IMHO.

seahawk
2004-12-03, 08:07:02
Vielleicht kann er alles, was für SM3.0 erforderlich ist, sans FP32? Darauf deutet(e) auch eine der berühmten Fußnoten hin.

Gibt es ein Link zu dem Dokument ??

saaya
2004-12-03, 23:58:55
r500 muss sm3.0 sein, glaube kaum dass ms sich mit weniger abfindet, also wieso sollte r520 dann nicht sm3.0 sein? zwei verschiedene designs? ich glaube nicht dass sich das ati zutraut... ausserdem war in den geleakten nv40/r420 release materialien doch der hinweis darauf dass man die kundschaft bis zum r5xx hinhalten soll und sm3.0 als NOCH nicht wichtig darstellen soll. oder irre ich mich da?

es sind ueber 8 montate seit einem neu relaese von ati vergangen (r430/480 sehe ich nicht als neu release, ist ja nichtmal wirklich ein refresh... :rolleyes: ) , imo ist der r5xx ueberfaellig, und da ati von amr im fruehen q1 2005 gesprochen hat, und bereits r500 kits an xbox2 entwockler ausgeliefert wurden, und tsmc schon 80 90nm low-k chips produziert (hat), und tsmc von erster massen produktion in 90nm low-k von q1 2005 gesprochen hat, gehe ich davon aus dass wir schon bald r520 chips sehen werden (cebit?)

Ailuros
2004-12-04, 00:14:58
Gibt es ein Link zu dem Dokument ??

http://users.otenet.gr/~ailuros/nano.jpg

saaya
2004-12-04, 01:23:23
wie kann man nachdem man dieses dokument gesehen hat daran zweifeln das r520 eine sm3.0 vpu ist?

die werden ja wohl kaum von r600 reden...

Ailuros
2004-12-04, 05:50:02
wie kann man nachdem man dieses dokument gesehen hat daran zweifeln das r520 eine sm3.0 vpu ist?

die werden ja wohl kaum von r600 reden...

Wie gesagt ich hab dieses Dokument schon eine Ewigkeit und war mir auch ziemlich sicher dass es sich um SM3.0 handelt. Die neuesten Geruechte die dagegensprechen stammen ja nicht von mir und ich trage auch keine Scheuklappen. Ich hatte ja auch den Eindruck dass R420 etwas mehr als nur SM2.0+ sein wird; nach den "extremen" 8 pipelines suche ich immer noch.

Der Markt und die Entwickler brauchen SM3.0 Karten im Grunde fuer die absehbare Zukunft und nicht weniger. Je performanter als NV40 desto besser, sonst wird's langweilig.

Melc
2004-12-04, 06:13:34
Wenn GPU Hersteller wissen worauf es ankommt, wieso werden die GPUs nicht größer gebaut, um mehr Transistoren zur Verfügung zu stellen, mehr Pipelines anzubringen und auf den Karten mehr Platz zu schaffen, um zB. 1024 MB DDR RAM zu verbauen.

Dadurch könnten Spielehersteller viel schönere, Grafikumgebungen schaffen, weil solche Karten den Lesitungsanforderungen nachkommen würden

Godmode
2004-12-04, 06:45:51
Weil diese Generation jetzt schon ziemlich am Limit war, wenn sie noch mehr Transistoren beim NV40 oder Takt beim R420, würde es unwirtschaftlich sein diese Chips zu Produzieren dh. die Ausbeute würde noch schlechter werden! Es war ja sicherlich nicht gewollt, das die X800XTPE und die 6800Ultra sehr schlecht Verfügbar waren/sind.

robbitop
2004-12-04, 08:59:26
Weil diese Generation jetzt schon ziemlich am Limit war, wenn sie noch mehr Transistoren beim NV40 oder Takt beim R420, würde es unwirtschaftlich sein diese Chips zu Produzieren dh. die Ausbeute würde noch schlechter werden! Es war ja sicherlich nicht gewollt, das die X800XTPE und die 6800Ultra sehr schlecht Verfügbar waren/sind.
dafür wird es 90nm geben, welches zumindist bei TSMC deutlich besser verfügbar sein wird, als es 130nm je war (laut TSMC selbst).
Und nebenbei kann man mit diesem Prozess mit Sicherheit wieder neue Rekorde , was den Transistorcount angeht, aufstellen.

Demirug
2004-12-04, 10:04:44
Signalwege. Ihr sollte bei den immer kleiner werdenden Prozessen endlich mal anfangen die Signalwege zu berücksichtigen. In diesem Zusammenhang dann natürlich auch die Anzahl der verwendeten Layer. Zu guter letzt ist dann natürlich die verwendete Software von entscheidenter Beduetung.

Ailuros
2004-12-04, 12:32:25
Signalwege. Ihr sollte bei den immer kleiner werdenden Prozessen endlich mal anfangen die Signalwege zu berücksichtigen. In diesem Zusammenhang dann natürlich auch die Anzahl der verwendeten Layer. Zu guter letzt ist dann natürlich die verwendete Software von entscheidenter Beduetung.

Schaetzungsweise wieviel layer (mehr oder weniger) bei 90nm?

Jesus
2004-12-04, 12:36:06
Signalwege. Ihr sollte bei den immer kleiner werdenden Prozessen endlich mal anfangen die Signalwege zu berücksichtigen. In diesem Zusammenhang dann natürlich auch die Anzahl der verwendeten Layer. Zu guter letzt ist dann natürlich die verwendete Software von entscheidenter Beduetung.

Ich weiss nicht, dieses Argument gab es schon als der Pentium 3 an die 1 Ghz Marke kam und jeder sagte recht viel weiter kann man nicht gehen...

Gast
2004-12-04, 12:43:19
Ich weiss nicht, dieses Argument gab es schon als der Pentium 3 an die 1 Ghz Marke kam und jeder sagte recht viel weiter kann man nicht gehen...

Die Takte steigen aber schneller als das sich die Strukturbreiten verringern. Es ist der höhere Takt, der die Signallaufzeit bei kleineren Strukturbreiten kritisch werden lässt.

Ailuros
2004-12-04, 12:48:50
Ich weiss nicht, dieses Argument gab es schon als der Pentium 3 an die 1 Ghz Marke kam und jeder sagte recht viel weiter kann man nicht gehen...

Zum Post des Gasts noch dazu; siehst Du ueberhaupt keine Probleme was spezifisch Intel und den staendig kleineren Prozessen betrifft bis jetzt? Natuerlich kann man es umgehen, aber es ist ein Gedanke den man nicht uebersehen darf.

saaya
2004-12-04, 12:50:47
130nm ibm 6-8
130nm tsmc 7-8
90nm tsmc 7-9

doppelte transitoren aber nur ein extra layer... das wird ein chaos... :D

300m+ mit 9 layern... ein a64 hat wieviel? 100m+ mit 9 layern? :eek:

Demirug
2004-12-04, 12:53:39
Schaetzungsweise wieviel layer (mehr oder weniger) bei 90nm?

Da muss ich nicht schätzen. Für sowas habe ich doch meine Listen.

130nm

IBM: 6 Kupfer, 7 Kupfer, 8 Kupfer, 6 (KKKAKA), 7 (PKKKKKK), 9 (PKKKKKKKK)
TSMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)
UMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)

110nm:
TSMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)

90nm:

IBM: 11 (PKKKKKKKKKK)
TSMC: 8 (PKKKKKKK), 9 (PKKKKKKKK), 10 (PKKKKKKKKK)
UMC: 9 (PPKKKKKKK), 10 (PPKKKKKKKK), 11 (PPKKKKKKKKK)

65nm:

TSMC: 9 (PKKKKKKKK), 10 (PKKKKKKKKK), 11 (PKKKKKKKKKK)

saaya
2004-12-04, 12:54:48
Ich weiss nicht, dieses Argument gab es schon als der Pentium 3 an die 1 Ghz Marke kam und jeder sagte recht viel weiter kann man nicht gehen...

aber damals war es wirklich unbegruendet, nur intel hatte probleme weil sie so stur waren und bei alu geblieben sind... ibm und amd hatten damals keine probleme.

vergleich das mal mit heute:
wer hat heute alles probleme mit den neuen prozessen?
amd, intel, ibm, transmeta, via, ati, nvidia, xgi, sis, samsung, hynix, elpida, micron...

dass wir uns dem ende naeheren glaube ich auch nich, aber es ist schon deutlich enger als damals imo, und besser wird es auf keinen fall...

Demirug
2004-12-04, 12:58:05
Ich weiss nicht, dieses Argument gab es schon als der Pentium 3 an die 1 Ghz Marke kam und jeder sagte recht viel weiter kann man nicht gehen...

Ich bezog mich eigentlich gar nicht so sehr auf den Takt sondern das man bei Überlegungen bezüglich der Chipgrösse nicht nur die Transitoren sondern eben auch die Signalwege zwischen diesen berücksichtigen muss.

saaya
2004-12-04, 12:58:24
Da muss ich nicht schätzen. Für sowas habe ich doch meine Listen.

130nm

IBM: 6 Kupfer, 7 Kupfer, 8 Kupfer, 6 (KKKAKA), 7 (PKKKKKK), 9 (PKKKKKKKK)
TSMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)
UMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)

110nm:
TSMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)

90nm:

IBM: 11 (PKKKKKKKKKK)
TSMC: 8 (PKKKKKKK), 9 (PKKKKKKKK), 10 (PKKKKKKKKK)
UMC: 9 (PPKKKKKKK), 10 (PPKKKKKKKK), 11 (PPKKKKKKKKK)

65nm:

TSMC: 9 (PKKKKKKKK), 10 (PKKKKKKKKK), 11 (PKKKKKKKKKK)


umc und ibm meinen beide dass sie 10 layer schaffen? :| ist das nicht ein bisschen sehr optimistisch?

Demirug
2004-12-04, 13:00:40
umc und ibm meinen beide dass sie 10 layer schaffen? :| ist das nicht ein bisschen sehr optimistisch?

Sie bieten es so an. Bei UMC sind es aber nur 9 Layer Kupfer weil man dort mit 2 Layer Poly arbeitet.

saaya
2004-12-04, 13:33:37
Sie bieten es so an. Bei UMC sind es aber nur 9 Layer Kupfer weil man dort mit 2 Layer Poly arbeitet.
oh hab ich uebersehen ^^

wieso zwei poly layer? das ist doch quatsch oder?

Demirug
2004-12-04, 14:08:15
oh hab ich uebersehen ^^

wieso zwei poly layer? das ist doch quatsch oder?

Frag UMC. Der sinn des zweiten Poly Layer ist mir auch nicht klar.

saaya
2004-12-04, 14:23:12
google sagt:

two layers of low ohmic poly to form poly/poly capacitors ...verstehst du das? :D

Ailuros
2004-12-05, 07:47:54
Da muss ich nicht schätzen. Für sowas habe ich doch meine Listen.

130nm

IBM: 6 Kupfer, 7 Kupfer, 8 Kupfer, 6 (KKKAKA), 7 (PKKKKKK), 9 (PKKKKKKKK)
TSMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)
UMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)

110nm:
TSMC: 7 (PKKKKKK), 8 (PKKKKKKK), 9 (PKKKKKKKK)

90nm:

IBM: 11 (PKKKKKKKKKK)
TSMC: 8 (PKKKKKKK), 9 (PKKKKKKKK), 10 (PKKKKKKKKK)
UMC: 9 (PPKKKKKKK), 10 (PPKKKKKKKK), 11 (PPKKKKKKKKK)

65nm:

TSMC: 9 (PKKKKKKKK), 10 (PKKKKKKKKK), 11 (PKKKKKKKKKK)

Ich bin jetzt zu faul mir das Ganze nachzusuchen. NV40 boards haben "nur" 9 layers?

robbitop
2004-12-05, 09:56:22
ist alles eine Kostenfrage. Jede weitere Verdrahtungsebene kostet einiges.

Gast
2004-12-05, 10:10:12
Ich bin jetzt zu faul mir das Ganze nachzusuchen. NV40 boards haben "nur" 9 layers?
Boards? Dies!

Q

acrowley23
2004-12-12, 00:09:44
zum Thema !!

das es immer fast genau nach 12 Monaten eien neuen Chip gib ist doch bekannt...das zu 99,99% immer zur Cebit !

Also kommt der R520 wieder so gegen mitte 04-05 !! Wie immer ...leicht zu durchschauen

deekey777
2004-12-24, 19:52:55
R520 taped out (http://www.theinq.com/?article=20379)

Fudo get shape before Yule


By :cop:Fuad:cop: Abazovic in the Bosnian wilds: Freitag 24 Dezember 2004, 15:04

OUR WELL INFORMED Spanish lady nicknamed Informationa Digitala told us that ATI's next generation chip codenamed R520 is taped out. She confirmed that the chip is 90 nanometres. As far as we know it works well, but it's early days yet.
We suggest that we are talking about A01 silicon and that there is always some hardware things and flaws that can be fixed in the next revision. ATI still has time as the company wants to launch in a Spring window. The chip is real, the chip is there and all of the previous news that we brought is confirmed.

Nvidia changed its plans to compete with the Fudo R520, indicating that the R520 chip is definitely going to be a good one. ATI still have to live with the fear that the new Nvidia chip might be better.

We have to add that R520 will finally include 32 bit colour precision. Saying that R520 is Shader Model 3.0+ compatible naturally means that this chip actually uses 128 bit colour. Nvidia's NV40 generation supports 32 bit colour per channel (red green nlue and alpha) and so will the R520. That’s a Shader Model 3.0 requirement.

Let's hope that ATI will have these chips out on time. Fudo chip boy, we are all waiting for you. Merry Christmas to you all. µ

MechWOLLIer
2004-12-24, 22:24:56
Sollte der R520 nicht schon längst sein Tape Out hinter sich haben?
Oder war das der R500?

TheCounter
2004-12-24, 22:48:22
Sollte der R520 nicht schon längst sein Tape Out hinter sich haben?
Oder war das der R500?

Der R500 hatte es sicher schon da dieser bereits im Januar an die Entwicklerstudios ausgeliefert wird. So nen Teil würd ich schon gern in die Hände bekommen :biggrin:

mapel110
2004-12-24, 22:53:47
schon klasse, dass er die Meldung nochmal zu Weihnachten bringt. :uup:
das Gerücht gabs schon vor einigen Wochen und ich meine damit nicht das R500 Tapeout.

mortanius
2004-12-25, 01:36:19
R500 und R520 hatten fast Gleichzeitig ihren Tape-Out. Also, naja....

Demirug
2004-12-25, 17:08:17
Der R500 hatte es sicher schon da dieser bereits im Januar an die Entwicklerstudios ausgeliefert wird. So nen Teil würd ich schon gern in die Hände bekommen :biggrin:

Ich glaube du verwechselt da was. In den Entwicklermaschinen die vorab an die Studios ginen waren keine R500 drin.

TheCounter
2004-12-26, 04:05:10
Ich glaube du verwechselt da was. In den Entwicklermaschinen die vorab an die Studios ginen waren keine R500 drin.

Also ich hab gelesen das im Januar 2005 die Entwicklerkits mit den R500-Karten verschickt werden. Die neue Lieferung steht also erst noch aus.

In den alten waren nur R9800Pro Karten.

Demirug
2004-12-26, 11:07:18
Also ich hab gelesen das im Januar 2005 die Entwicklerkits mit den R500-Karten verschickt werden. Die neue Lieferung steht also erst noch aus.

In den alten waren nur R9800Pro Karten.

Sorry, Missverständniss. Ich hatte das so gelesen das sie schon verschickt worden wären.

Ailuros
2004-12-26, 11:14:35
Also ich hab gelesen das im Januar 2005 die Entwicklerkits mit den R500-Karten verschickt werden. Die neue Lieferung steht also erst noch aus.

In den alten waren nur R9800Pro Karten.

Zwischen dem was die Mehrheit unter "erstem tape-out" versteht und voll arbeitsfaehigem Silizium, braucht man normalerweise einige Monate und dass unter der Vorraussetzung dass alles nach Plan gelaufen ist und keine respins noetig sind.

Cenmocay
2004-12-26, 15:52:45
glaub ihr wirklich dran das der r520 so einen großen schritt machen wird wie der r300 seiner zeit ?
es wurde schon oft behauptet z.b beim nv30 und was wurde drauß ;D

wird es 2005 mit dem r520 auch so langsam ablaufen wie dieses jahr d.h vorstellung märz/april und wirklich kaufbar erst herbst ,ich weiß keiner weiß es genau ?

Ailuros
2004-12-27, 04:01:18
glaub ihr wirklich dran das der r520 so einen großen schritt machen wird wie der r300 seiner zeit ?
es wurde schon oft behauptet z.b beim nv30 und was wurde drauß ;D

wird es 2005 mit dem r520 auch so langsam ablaufen wie dieses jahr d.h vorstellung märz/april und wirklich kaufbar erst herbst ,ich weiß keiner weiß es genau ?

Verfuegbarkeit kann man wohl schlecht einschaetzen bei einem so neuen Prozess was den Grafikmarkt betrifft (low-k 90nm).

Was jetzt R520-Leistung betrifft, waere ich eher vorsichtig mit den Spekulationen um nicht spaeter unangenehm enttaeuscht zu werden.

seahawk
2004-12-27, 08:55:50
Eine Enttäuschung ist beim R520 imho nicht zu erwarten. ATI hat in den letzten Jahren sowohl mit dem R300 las auch dem R420 jeweils einen erheblichen Leistungsprung hingelegt. Weniger ist imho nicht zu erwarten.

Gast
2004-12-27, 09:25:41
Eine Enttäuschung ist beim R520 imho nicht zu erwarten. ATI hat in den letzten Jahren sowohl mit dem R300 las auch dem R420 jeweils einen erheblichen Leistungsprung hingelegt. Weniger ist imho nicht zu erwarten.

Erheblicher Leistungssprung in was? 2048x1536 mit 4xAA/8AF 100fps jetzt möglich? In 1600x1200 jetzt 400 fps mit AA/AF? 800fps ins 1280x960 mit allem Tralala? 16xAA/32xAF? Keine Winkelabhängigkeit mehr, denn DC zeigt wie es geht? Nur noch Trilinear statt bi und bri?

Oder wo soll ein erheblicher Leistungssprung stattfinden wenn schon heutige Grakas bei "normalen" Settings selbst mit höchsten Detailstufen und allem an praktisch immer noch auf den Rest des Systems warten muss?

seahawk
2004-12-27, 09:35:48
Erheblicher Leistungssprung in was? 2048x1536 mit 4xAA/8AF 100fps jetzt möglich? In 1600x1200 jetzt 400 fps mit AA/AF? 800fps ins 1280x960 mit allem Tralala? 16xAA/32xAF? Keine Winkelabhängigkeit mehr, denn DC zeigt wie es geht? Nur noch Trilinear statt bi und bri?

Oder wo soll ein erheblicher Leistungssprung stattfinden wenn schon heutige Grakas bei "normalen" Settings selbst mit höchsten Detailstufen und allem an praktisch immer noch auf den Rest des Systems warten muss?

1600x1200 in 6xAA/16xAF und höhere Auflösungen. Man sollte eine Leistung erwarten, die in etwa einen heutigen Top SLI Systems der Konkurrenz entspricht.

Gast
2004-12-27, 09:55:25
Bei heutigen Spielen erwarte ich keinen all zu großen Leistungsprung.
Erstens limitiert eh die CPU und um in hohen Auflösungen über 30% mehr Leistung zu bringen muss der R520 erheblich höher getaktet sein als ne X850XTPE oder 24 Pipes besitzen.
Und da sie ja eine "bessere" SM3 unterstützung als die des NV40 einbaun wollen steigert sich das Transistor Budget doch erheblich.

Ich denke das wird eher wie der Sprung von NV30 auf NV40, mehr Pipes und etwas langsamer getaktet. Ist doch sinnvoller als beim R420 design (+Aufbohrung auf SM3) zu bleiben und dort die letzten MHz rauszuquetschen.

Gast
2004-12-27, 09:55:37
1600x1200 in 6xAA/16xAF und höhere Auflösungen. Man sollte eine Leistung erwarten, die in etwa einen heutigen Top SLI Systems der Konkurrenz entspricht.

Genau, und jeder hat natürlich auch einen CRT oder TFT mit der Auflösung und dazu mindestens einen 3800er Winchester, am besten noch oced, WinXP64 und 4GB RAM...

seahawk
2004-12-27, 10:08:53
Der Markt macht die Anforderungen .... Warum kaufgen Menschen ein 6800Ultra SLI System ??

MechWOLLIer
2004-12-27, 10:18:44
Genau, und jeder hat natürlich auch einen CRT oder TFT mit der Auflösung und dazu mindestens einen 3800er Winchester, am besten noch oced, WinXP64 und 4GB RAM...
Jeder nicht, aber einige schon:)
Und genau die High End Karten sollen sicher nicht jedermann bedienen, sondern nur einige, wenige Freaks wie wir. Somit passt das doch alle sschön, falls die Karten in diesen Settings flüssig laufen würden. Ich würde es begrüßen.

1600x1200 in 6xAA/16xAF und höhere Auflösungen. Man sollte eine Leistung erwarten, die in etwa einen heutigen Top SLI Systems der Konkurrenz entspricht.
Erwarten tuen das sicherlich viele, aber imo werden da dann viele enttäuscht werden. imo müsste ATIU verdammt viel an der Karte ändern, damit diese Geschwindigkeit erreicht wird. Alleine mit einem höheren Speichertakt und vielleicht einem Quad mehr sollte es da nicht getan sein. Und wenn der R520 dann noch zur R300 Familie gehöhrt, sehe ich da Schwarz.

Hauwech
2004-12-27, 10:20:31
Bei heutigen Spielen erwarte ich keinen all zu großen Leistungsprung.
Erstens limitiert eh die CPU und um in hohen Auflösungen über 30% mehr Leistung zu bringen muss der R520 erheblich höher getaktet sein als ne X850XTPE oder 24 Pipes besitzen.
Und da sie ja eine "bessere" SM3 unterstützung als die des NV40 einbaun wollen steigert sich das Transistor Budget doch erheblich.

Ich denke das wird eher wie der Sprung von NV30 auf NV40, mehr Pipes und etwas langsamer getaktet. Ist doch sinnvoller als beim R420 design (+Aufbohrung auf SM3) zu bleiben und dort die letzten MHz rauszuquetschen.

Bis auf die "bessere" SM3 Unterstützung einverstanden. Schnelleres SM3 ja, aber das hat nichts mit dem Transistorcount zu tun. Allein schon durchgängig FP32 braucht ordentlich mehr Transistoren als FP24. Durch 90nm +LowK rechne ich mal NV40 x 1,5 beim Takt. Ein paar MHz mehr oder weniger wäre auch egal. Sollte er wirklich 6 Quads haben dann eher in den Regionen wo jetzt der R480 ist +-.

Ob der R520 nun der Hammer wird oder nicht, vom High-End können viele nur träumen. Viel wichtiger ist das auch ATI PS3.0 Top-to-bottom anbietet. Ansonsten sieht es schlecht für ATI aus: Die 5200 hat gezeigt, wo das Geld verdient wird und alleiniger PCI-E Anbieter sind sie auch nicht mehr.

Ob nun SLI oder AMR, es wird für die meisten unbezahlbar bleiben. Wer es kauft, Glückwunsch, wer nicht, halt nicht.

Hauwech
2004-12-27, 10:27:39
Der Markt macht die Anforderungen .... Warum kaufgen Menschen ein 6800Ultra SLI System ??

Weil es das gibt. Gäbe es nur AMR würden einige es sich auch kaufen.

Manche kaufen sich auch DualCPU Systeme. Unterstützung für Spiele gibt es in dem Bereich aber noch weniger im Vergleich mit SLI obwohl es da imho mehr Sinn machen würde zu "investieren" da die meisten Spiele eh CPU limitiert sind.

Ailuros
2004-12-27, 12:05:05
Eine Enttäuschung ist beim R520 imho nicht zu erwarten. ATI hat in den letzten Jahren sowohl mit dem R300 las auch dem R420 jeweils einen erheblichen Leistungsprung hingelegt. Weniger ist imho nicht zu erwarten.

Eben. Wenn Du den gleichen Leistungssprung erwartest wie in der Vergangenheit wirst Du wohl doch enttaeuscht werden. Schau Dir mal die Anzahl der SIMD Kanaele bei R200/300/420 vergleichsmaessig an; nun denk an die gleiche Anzahl wie R420 und ca. 20-25% hoehere Taktrate. Ja das ist tatsaechlich alles und dazu auch ziemlich mehr Bandbreitenbegrenzt als R420, bis schnellerer Speicher verfuegbar sein wird.

Ailuros
2004-12-27, 12:30:58
1600x1200 in 6xAA/16xAF und höhere Auflösungen. Man sollte eine Leistung erwarten, die in etwa einen heutigen Top SLI Systems der Konkurrenz entspricht.

Nur die Fuellrate steigt anfangs, aber nicht die Fuellraten zu Bandbreiten - Relation. Fuer MSAA braucht man ueberwiegend Bandbreite in hohen Aufloesungen; je mehr loops desto mehr Bandbreitenverbrauch.

Fuer 1600 aber dann bitte nur =/>21" Bildschirme und den Mist ueber sehr hohe Aufloesungen wie 2048 (das schon im B3D Forum erwaehnt wurde) moechte ich schon gar nicht hoeren. Zeitlich nur mit CRTs meistens moeglich und ein 21" hat in etwa 355mm Breite. Mit einem normalen 0.25 dot pitch kommt man gerade noch auf 1420; schon ein Stueck von 1536 entfernt.

Wie dem auch sei fuer 2048*1536 sind 256MB framebuffer gerade noch meistens genug fuer 2xAA mit heutigen high end Karten.

SLi ist eine bis zu 80-85% Geschichte was die Leistung betrifft. Wer sagt Dir denn ueberhaupt dass ich ueber die wahre durchschnittliche Leistung eines SLi Systems begeistert bin? Momentan sind sowieso nur 6600GTs/PCI-E verfuegbar und in dem Fall ist es sowieso idiotisch nicht gleich zu einer 6800GT zu greifen. Ich bin entweder blind oder ich kann keine PCI-E NV40/5 sehen. Wenn man jetzt natuerlich einen 3dmark-Koller hat und um jeden Preis die 10k Grenze mit zwei 6k8Us brechen will, dann ist es natuerlich eine andere Geschichte.

Ailuros
2004-12-27, 12:39:09
Bei heutigen Spielen erwarte ich keinen all zu großen Leistungsprung.
Erstens limitiert eh die CPU und um in hohen Auflösungen über 30% mehr Leistung zu bringen muss der R520 erheblich höher getaktet sein als ne X850XTPE oder 24 Pipes besitzen.
Und da sie ja eine "bessere" SM3 unterstützung als die des NV40 einbaun wollen steigert sich das Transistor Budget doch erheblich.

Ich denke das wird eher wie der Sprung von NV30 auf NV40, mehr Pipes und etwas langsamer getaktet. Ist doch sinnvoller als beim R420 design (+Aufbohrung auf SM3) zu bleiben und dort die letzten MHz rauszuquetschen.

Der Platz den ATI durch 90nm einspart, wollen sie einfach fuer hoehere Taktraten ausnuetzen. Man gewinnt schaetzungsweise ~50% die space von 130->90nm und wir haben mit 222M eine Taktrate von 400MHz momentan bei NV40.

Wie ich schon sagte es sieht eher nach =/>600MHz, wobei 650MHz schon verdammt gewagt ist. Falls 600MHz genug sein sollten mit der Speicherverfuegbarkeit im 1.Halbjahr 2005, gibt es keinen besonderen Grund noch hoeher zu steigen, ausser man will wieder ueberseltene Benchmark-Protz-Modelle haben.

seahawk
2004-12-27, 13:00:15
Eben. Wenn Du den gleichen Leistungssprung erwartest wie in der Vergangenheit wirst Du wohl doch enttaeuscht werden. Schau Dir mal die Anzahl der SIMD Kanaele bei R200/300/420 vergleichsmaessig an; nun denk an die gleiche Anzahl wie R420 und ca. 20-25% hoehere Taktrate. Ja das ist tatsaechlich alles und dazu auch ziemlich mehr Bandbreitenbegrenzt als R420, bis schnellerer Speicher verfuegbar sein wird.

Das glaube ich nicht. ATI wird beim R520 sicherlich auch an der Effizienz gearbeitet haben. Ein relaer Gewinn von 30-50% ist zu erwarten.

seahawk
2004-12-27, 13:02:22
Nur die Fuellrate steigt anfangs, aber nicht die Fuellraten zu Bandbreiten - Relation. Fuer MSAA braucht man ueberwiegend Bandbreite in hohen Aufloesungen; je mehr loops desto mehr Bandbreitenverbrauch.

Fuer 1600 aber dann bitte nur =/>21" Bildschirme und den Mist ueber sehr hohe Aufloesungen wie 2048 (das schon im B3D Forum erwaehnt wurde) moechte ich schon gar nicht hoeren. Zeitlich nur mit CRTs meistens moeglich und ein 21" hat in etwa 355mm Breite. Mit einem normalen 0.25 dot pitch kommt man gerade noch auf 1420; schon ein Stueck von 1536 entfernt.

Wie dem auch sei fuer 2048*1536 sind 256MB framebuffer gerade noch meistens genug fuer 2xAA mit heutigen high end Karten.

SLi ist eine bis zu 80-85% Geschichte was die Leistung betrifft. Wer sagt Dir denn ueberhaupt dass ich ueber die wahre durchschnittliche Leistung eines SLi Systems begeistert bin? Momentan sind sowieso nur 6600GTs/PCI-E verfuegbar und in dem Fall ist es sowieso idiotisch nicht gleich zu einer 6800GT zu greifen. Ich bin entweder blind oder ich kann keine PCI-E NV40/5 sehen. Wenn man jetzt natuerlich einen 3dmark-Koller hat und um jeden Preis die 10k Grenze mit zwei 6k8Us brechen will, dann ist es natuerlich eine andere Geschichte.

Guck Dich hier im Forum mal um. Es gibt heir einige User die ein 6800U SLi Lösung haben oder planen. Wenn der R520 nicht selber eine SLI Option (ala ATI) bietet, wird man eine UltraHighEnd Produkt bringen müssen, dass mit einer SLI Lösung stadhält. Preis, Verfügbarkeit und Lautstärke speilen dann keine Rolle.

seahawk
2004-12-27, 13:02:58
doppelt

Hauwech
2004-12-27, 13:06:17
Wieso? ATI arbeitet doch an einer "SLI-Lösung" = AMR

Jesus
2004-12-27, 13:21:27
Der Platz den ATI durch 90nm einspart, wollen sie einfach fuer hoehere Taktraten ausnuetzen.

Was hat der eingesparte Platz mit den Taktraten zu tun ? Das ist doch eher hinderlich bei den jetzigen Prozessen (Strukturbreite ...), siehe 110nm wo´s ja nicht gerade hoch geht bei den Taktraten.

StefanV
2004-12-27, 13:27:15
Was hat der eingesparte Platz mit den Taktraten zu tun ? Das ist doch eher hinderlich bei den jetzigen Prozessen (Strukturbreite ...), siehe 110nm wo´s ja nicht gerade hoch geht bei den Taktraten.
110nm ist auch nicht für hohe Taktraten ausgelegt, eher auf möglichst günstige Produktion von irgendwas...

Ailuros
2004-12-27, 13:59:37
Das glaube ich nicht. ATI wird beim R520 sicherlich auch an der Effizienz gearbeitet haben. Ein relaer Gewinn von 30-50% ist zu erwarten.

Sagst aber nur Du. Von zuverlaessigen Quellen hoere ich aber ganz was anderes.

Was hat der eingesparte Platz mit den Taktraten zu tun ? Das ist doch eher hinderlich bei den jetzigen Prozessen (Strukturbreite ...), siehe 110nm wo´s ja nicht gerade hoch geht bei den Taktraten.

Du kannst Dir die Masche selber ausdenken. NV43 schafft 500MHz mit mainstream Komplexitaet auf 110nm und dazu mit sehr guter Verfuegbarkeit.

seahawk
2004-12-27, 14:08:40
Aber größten Problemen für den Käufer siehe den 6600GT Thread im Grafikartenforum.

Ein komplexer Chip wie ein NV48/47 dürfte in 110nm kaum zu realisieren sein. Zumindest unter den bisher bekannten Bedingungen.

Ailuros
2004-12-27, 14:12:11
Guck Dich hier im Forum mal um. Es gibt heir einige User die ein 6800U SLi Lösung haben oder planen. Wenn der R520 nicht selber eine SLI Option (ala ATI) bietet, wird man eine UltraHighEnd Produkt bringen müssen, dass mit einer SLI Lösung stadhält. Preis, Verfügbarkeit und Lautstärke speilen dann keine Rolle.

Dual board Loesungen gehoeren in eine ganz andere Kategorie vom Preis/Leistungs-Verhaeltnis gesehen; es ist nicht unmoeglich dass ATI selber auch mit dual board Loesungen naechstes Jahr ankommt.

Ausser dem SM3.0-Zeug und dessen Leistung was noch in der Luft steht, werden sehenswerte Leistungsunterschied nur in Bereichen zu sehen sein wo pure Shader-leistung und hoehere Fuellraten die wichtigste Rolle spielen. PS2.x und AF Leistung sind zwei gute Beispiele.

Wenn Du doppelt so hohe Leistung in hohen Aufloesungen mit AA willst, dann brauchst Du auch um einiges hoehere Bandbreite. Es geht hier lediglich um den Vergleich zwischen NV40 und R520. Wieviel mehr genau Bandbreite soll den der letztere genau haben fuer den Anfang?

Hauwech
2004-12-27, 14:12:13
Sagst aber nur Du. Von zuverlaessigen Quellen hoere ich aber ganz was anderes.



Du kannst Dir die Masche selber ausdenken. NV43 schafft 500MHz mit mainstream Komplexitaet auf 110nm und dazu mit sehr guter Verfuegbarkeit.

Hmm das klingt alles wie "PS3.0 an R420 getackert und durch 90nm + LowK hoffen, dass man möglichst hoch kommt". Wenn er wirklich nur über den Takt "brauchbareres" PS3.0 bringt, dann frage ich mich was die bis Longhorn machen wollen falls NV auch auf den 90nm Zug aufspringt und entsprechend nachlegt. Noch dazu wo sie PS3.0 über die ganze Palette bieten und neben AGP per HSI auch PCI-E bedient wird.

So ganz überzeugt klingst du nicht das der R520 die von vielen erhoffte bzw erwartete Granate ist. :confused:

Ailuros
2004-12-27, 14:15:44
Hmm das klingt alles wie "PS3.0 an R420 getackert und durch 90nm + LowK hoffen, dass man möglichst hoch kommt". Wenn er wirklich nur über den Takt "brauchbareres" PS3.0 bringt, dann frage ich mich was die bis Longhorn machen wollen falls NV auch auf den 90nm Zug aufspringt und entsprechend nachlegt. Noch dazu wo sie PS3.0 über die ganze Palette bieten und PCI-E auch bedient wird.

So ganz überzeugt klingst du nicht das der R520 die von vielen erhoffte bzw erwartete Granate ist. :confused:

ATI hat grossen Wert auf branching/looping Leistung bei der Entwicklung gelegt. Ich beziehe mich hauptsaechlich auf heutige Spielsituationen.

Um wieviel R520 mit SM3.0 schneller sein koennte kann ich nicht wissen; NVIDIA hatte auf jeden Fall nicht besonders viel Zeit fundamentale Aenderungen fuer zukuenftige NV4x Varianten vorzunehmen.

Ailuros
2004-12-27, 14:18:22
Aber größten Problemen für den Käufer siehe den 6600GT Thread im Grafikartenforum.

Ein komplexer Chip wie ein NV48/47 dürfte in 110nm kaum zu realisieren sein. Zumindest unter den bisher bekannten Bedingungen.

Ich hab mich auf low-k 90nm und R520 bezogen. Dass mir ein zukuenftiger high end chip auf 110nm von NVIDIA als unwahrscheinlich oder schwer machbar erscheint, hab ich schon oefters indirekt erwaehnt.

NV43@110nm ist nur ein Beispiel dass die Taktrate doch hoeher ist als im high end Bereich.

Cenmocay
2004-12-27, 14:41:43
der umstieg von r300 auf den r420 hat sich doch nur gelohnt wenn man extrem hohe auflösungen spielt oder halt mit aa/af

möchte mal wieder ein karten kaufen die auch bei 1024 ohne schnickschnack allen davon zieht,ich weiß viele sind cpu limitiert aber das muß doch möglich sein

die grakahersteller müssen sich was einfallen lassen denn selbst nagelneue engines wie hl2,doom3 sind abartig cpu limitiert
die masse der menschen werden hl2 nur in 1024 ohne aa/af spielen und in dem spiel ist es egal ob man nun ne 9800pro hat (150Euro) oder ne x800(500euro)

also wie wollen sie in zukunft mehr grakas verkaufen wenn es egal ist ob ich die alte oder die neue generation habe ?
es ist zeit für features die der cpu endlich richtig viel arbeit abnehmen,shader 4.0 kann doch richtig viel schatten berechnung und teilweise schon physikberechnung übernehmen richtig ?

seahawk
2004-12-27, 15:06:14
Dual board Loesungen gehoeren in eine ganz andere Kategorie vom Preis/Leistungs-Verhaeltnis gesehen; es ist nicht unmoeglich dass ATI selber auch mit dual board Loesungen naechstes Jahr ankommt.

Ausser dem SM3.0-Zeug und dessen Leistung was noch in der Luft steht, werden sehenswerte Leistungsunterschied nur in Bereichen zu sehen sein wo pure Shader-leistung und hoehere Fuellraten die wichtigste Rolle spielen. PS2.x und AF Leistung sind zwei gute Beispiele.

Wenn Du doppelt so hohe Leistung in hohen Aufloesungen mit AA willst, dann brauchst Du auch um einiges hoehere Bandbreite. Es geht hier lediglich um den Vergleich zwischen NV40 und R520. Wieviel mehr genau Bandbreite soll den der letztere genau haben fuer den Anfang?

Aber bei kommenden Spielen wird die gerade die Shaderleistung wichtig werden. Ob ein neuer Chip in heutigen Spielen sich gegen seine Vorgänger gerade unter hohen AA Stufen und in hohen Auflösungen deutlich absetzen kann wird imho davon abhängen, ob man es schafft Bandbreite zu finden. Dies kann durch schnlelleren Speicher oder effektiviere Kompressionsmethoden geschehen. Ein großer Schritt ist dort sicher nicht zu erwarten.

Kommandofrosch
2004-12-27, 15:11:46
Wieviel Pipelines + shadereinheiten hat den nun der R520 endlich ?

MechWOLLIer
2004-12-27, 15:32:10
Wieviel Pipelines + shadereinheiten hat den nun der R520 endlich ?
Who knows? Entweder weiterhin 4 Quads oder imo warscheinlicher 5 Quads.
Bei 5 Quads bräuchten sie noch nichteinmal den Takt anzuheben, sie könnten ih nauch etwas senken. Allerdings gäbe es da immer noch das Speicherbandbreitenproblem....

Weiß eigentlich einer, ob man mittlerweile von Samsung wenigstens GDDR3 700 Speicher bekommen kann?

Demirug
2004-12-27, 15:40:41
Aber bei kommenden Spielen wird die gerade die Shaderleistung wichtig werden. Ob ein neuer Chip in heutigen Spielen sich gegen seine Vorgänger gerade unter hohen AA Stufen und in hohen Auflösungen deutlich absetzen kann wird imho davon abhängen, ob man es schafft Bandbreite zu finden. Dies kann durch schnlelleren Speicher oder effektiviere Kompressionsmethoden geschehen. Ein großer Schritt ist dort sicher nicht zu erwarten.

Deswegen erwarte ich auch eher mehr Rechenleistung pro Kanal anstelle von mehr Kanälen.

Gast
2004-12-27, 15:53:52
Deswegen erwarte ich auch eher mehr Rechenleistung pro Kanal anstelle von mehr Kanälen.

Schnellerer Speicher muss trotzdem her. Nur ist eher die Frage wieviel wichtiger als wann. :/

Glaube aber nicht, dass ATI und NV wegen "Speichermangel" so schnell auf 384bit ausweichen werden. Obwohl.... bei R300 hat man das anfangs ja auch gedacht und NV hat nachgezogen.

robbitop
2004-12-27, 16:11:43
je mehr loops desto mehr Bandbreitenverbrauch.


Warum setzt du die loops proportional zum Bandbreitenverbrauch an? Das eine hat mit dem anderen doch direkt nichts zu tun.
Dass R3xx/4xx pro Takt nur 2 Z Werte testen können ist ja bekannt. Für 4xMSAA braucht man 4 Z Werte also einen loop. Aber ein Loop selbst hat mit der notwenidigen Bandbreite AFAIK nichts zu tun.
Jeder Subpixel hat (ohne Colorcompression) einen eigenen Farb- und Tiefenwert, die beide in den Framebuffer geschrieben werden müssen (es sei denn der Z Wert steht bereits im Tiefenspeicher).

Oder habe ich dich missverstanden?

seahawk
2004-12-27, 18:01:46
Deswegen erwarte ich auch eher mehr Rechenleistung pro Kanal anstelle von mehr Kanälen.

Sehe ich ähnlich. Deswegen halte ich Spekualtionen, die eine Verbesserung der Lesitung im Bereich des Taktzuwachses erwarten auch für riskant.

Die Frage ist halt nur wieviel ATI für den R520 neu macht oder nicht.

Demirug
2004-12-27, 18:08:07
Sehe ich ähnlich. Deswegen halte ich Spekualtionen, die eine Verbesserung der Lesitung im Bereich des Taktzuwachses erwarten auch für riskant.

Die Frage ist halt nur wieviel ATI für den R520 neu macht oder nicht.

Eine leichte Steigerung wird es wohl geben aleine schon weil der Takt eben immer noch ein gutes Marketingwerkzeug ist.

Der Grad der Änderung dürfte in erster Linie von der Antwort auf die Frage abhängen wie ATI SM3 erreicht. Da die Pipelinesteuerung des R3XX/R4XX aber immer noch ein paar ungeklärte Details enthält ist die Spekulationsgrundlage etwas problematisch.

Ailuros
2004-12-27, 23:44:04
Aber bei kommenden Spielen wird die gerade die Shaderleistung wichtig werden. Ob ein neuer Chip in heutigen Spielen sich gegen seine Vorgänger gerade unter hohen AA Stufen und in hohen Auflösungen deutlich absetzen kann wird imho davon abhängen, ob man es schafft Bandbreite zu finden. Dies kann durch schnlelleren Speicher oder effektiviere Kompressionsmethoden geschehen. Ein großer Schritt ist dort sicher nicht zu erwarten.

Kein Zweifel dass sich die Shaderleistung in zukuenftigen Spielen ausspielen wird, aber eben nicht zu dem Grad wo sich z.B. die Leistung des PS2.0 Tests/3dmark03 steigern wuerde, weil wir eben noch verdammt lange davon entfernt sind bis wir wahre PS2.x Spiele erstmal sehen werden. Und ja in diesem sterilen und rein synthetischen Fall hast Du mit einem "NV40-aehnlichen-SIMD-Kanal"@600MHz theoretisch auch um die 50% mehr Leistung.

Die Lese-effezienz wird etwas gesteigert was interne/externe Bandbreiten betrifft, aber Wunder erwarte ich da auch nicht. Schnellerer Speicher kommt erst spaet in 2005 und ergo hoechstwahrscheinlich mit dem Refresh des R520, wobei dann auch ein grosser Teil der Bandbreiten-Limitierung begrenzt wird.

Ailuros
2004-12-28, 00:03:46
der umstieg von r300 auf den r420 hat sich doch nur gelohnt wenn man extrem hohe auflösungen spielt oder halt mit aa/af

Aufloesungen skalieren eben mit den Jahren. Vor ~6 Jahren war 1024*768 eine "hohe" Aufloesung, heutzutage eben eher 1600*1200.

Wenn man nur in 1024 spielt und nichts von AA/AF haelt, investiert man eben nur in mainstream Loesungen.

möchte mal wieder ein karten kaufen die auch bei 1024 ohne schnickschnack allen davon zieht,ich weiß viele sind cpu limitiert aber das muß doch möglich sein

Errrrr....nein :|

die grakahersteller müssen sich was einfallen lassen denn selbst nagelneue engines wie hl2,doom3 sind abartig cpu limitiert
die masse der menschen werden hl2 nur in 1024 ohne aa/af spielen und in dem spiel ist es egal ob man nun ne 9800pro hat (150Euro) oder ne x800(500euro)

Und die Spiele der Vergangenheit waren nie bis jetzt CPU limitiert? Bei Erscheinen vom originalen UT als Beispiel muss ich wohl der einzige gewesen sein der lahme Leistung mit einer high end CPU bemerkte.

500 euro wird oder sollte nur der bewusste high end Gamer ausgeben.

Ich legte vor einigen Jahren gute 600$ auf den Ladentisch fuer zwei V2, um in 1024*768 erstmal spielen zu koennen; die Mehrzahl spielte immer noch in 640*480 oder 800*600 damals.

also wie wollen sie in zukunft mehr grakas verkaufen wenn es egal ist ob ich die alte oder die neue generation habe ?

Wieso war es unter Umstaenden unterschiedlich in der Vergangenheit?

es ist zeit für features die der cpu endlich richtig viel arbeit abnehmen,shader 4.0 kann doch richtig viel schatten berechnung und teilweise schon physikberechnung übernehmen richtig ?

WGF2.0 verspricht tatsaechlich eine um einiges groessere Entlastung der CPU, wobei der letzteren dann theoretisch nur AI und physics ueberlassen werden sollen. Mit ein bisschen Optimismus, den Erscheinungstermin von WGF2.0 und die notwendige Zeit bis derartige Spiele erstmal veroeffentlicht werden, sieht es eher nach fast einem halbem Jahrzent aus.

-error-
2004-12-28, 00:20:39
Immer dieses Herumgerede um den heissen Brei, ich will Fakten ;D

Um wieviel % schneller, würde die R520 nach eurem aktuellsten Erkenntnistand gegenüber der X850XT PE sein, wenn man von realistischen technischen Gegebenheiten ausgehen würde?
Klar kann man das nicht pauschal sagen, eine aber es ist ja das Spekuforum und da kann man auch ruhig Vermutungen aufstellen.

Und was wird für die Verbesserung der Filterung getan? Wäre ein winkelunabhängiges AF, was mehr Leistung, kostet seitens ATI denkbar? Mit soviel Leistung wäre das sicherlich kein Problem. Nvidia ist ja leider davon wegegangen.

Wird ATI die Unterstützung von SSAA im Treiber integrieren? Auch dafür sollte nun genügend Leistung bereitstehen.
Es ist für mich sowieso unverständlich, warum ATI SSAA auf MAC OS-Basis anbietet und für Windows nicht, das ist auf Deutsch gesagt eine rießen Sauerei.

Ich habe nämlich kein Bock mehr auf dieses Texturflimmern und auf minderwertige anisotropischer Filterqualität, besonders bei Rennspielen fällt das auf! Mit SSAA wäre das Problem gegessen, zumindest auf den NextGen-Karten.

mapel110
2004-12-28, 00:29:06
Immer dieses Herumgerede um den heissen Brei, ich will Fakten ;D

Um wieviel % schneller, würde die R520 nach eurem aktuellsten Erkenntnistand gegenüber der X850XT PE sein, wenn man von realistischen technischen Gegebenheiten ausgehen würde?
Klar kann man das nicht pauschal sagen, eine aber es ist ja das Spekuforum und da kann man auch ruhig Vermutungen aufstellen.


Wir haben keine aktuellen Erkenntnisse. ;(


Und was wird für die Verbesserung der Filterung getan? Wäre ein winkelunabhängiges AF, was mehr Leistung, kostet seitens ATI denkbar? Mit soviel Leistung wäre das sicherlich kein Problem. Nvidia ist ja leider davon wegegangen.


unwahrscheinlich, weil es eben darum geht, fps-balken-vergleiche zu gewinnen und keine screenshotsvergleiche.


Wird ATI die Unterstützung von SSAA im Treiber integrieren? Auch dafür sollte nun genügend Leistung bereitstehen.
Es ist für mich sowieso unverständlich, warum ATI SSAA auf MAC OS-Basis anbietet und für Windows nicht, das ist auf Deutsch gesagt eine rießen Sauerei.

Ich habe nämlich kein Bock mehr auf dieses Texturflimmern und auf minderwertige anisotropischer Filterqualität, besonders bei Rennspielen fällt das auf! Mit SSAA wäre das Problem gegessen, zumindest auf den NextGen-Karten.

auch unwahrscheinlich.

Ailuros
2004-12-28, 00:46:51
Immer dieses Herumgerede um den heissen Brei, ich will Fakten ;D

Soll ich Dir ein NDA-Formular zuschicken? :D

Um wieviel % schneller, würde die R520 nach eurem aktuellsten Erkenntnistand gegenüber der X850XT PE sein, wenn man von realistischen technischen Gegebenheiten ausgehen würde?
Klar kann man das nicht pauschal sagen, eine aber es ist ja das Spekuforum und da kann man auch ruhig Vermutungen aufstellen.

Mufu@B3D:

Memory interface/internal topology improvements, more VS units (completely new VS?). As long as fast enough memory is available, worst case it'll scale with clockspeed vs 420 (~25%) and it'll probably be quite a bit faster in bandwidth or geometry-limited situations.

Und was wird für die Verbesserung der Filterung getan? Wäre ein winkelunabhängiges AF, was mehr Leistung, kostet seitens ATI denkbar? Mit soviel Leistung wäre das sicherlich kein Problem. Nvidia ist ja leider davon wegegangen.

Einen grossen Leistungsunterschied wuerde fast trilinear nicht unbedingt ausmachen, aber die Antwort auf Deine Frage ist nein. Xenon ist auch nur ueber 16x bi faehig.

Wird ATI die Unterstützung von SSAA im Treiber integrieren? Auch dafür sollte nun genügend Leistung bereitstehen.

Gute Frage hab aber keine Ahnung.

Es ist für mich sowieso unverständlich, warum ATI SSAA auf MAC OS-Basis anbietet und für Windows nicht, das ist auf Deutsch gesagt eine rießen Sauerei.

Weil die Leistung generell auf teuren feschen "Nachttischlampen" etwas gleichgueltiger ist vielleicht? Spass beiseite andere Platform und andere Vorraussetzungen.

Ich habe nämlich kein Bock mehr auf dieses Texturflimmern und auf minderwertige anisotropischer Filterqualität, besonders bei Rennspielen fällt das auf! Mit SSAA wäre das Problem gegessen, zumindest auf den NextGen-Karten.

Stoert mich dauernd auch. Im Fall von EA wo in der Mehrzahl der Rennspiele die gleiche engine wie bei F1 2001 benutzt wird, sieht es grausam aus. Hybride AA-modi mit AF und so hoch wie moeglichen Aufloesungen helfen in diesen Faellen schon. Pures Supersampling ist trotzdem Leistungsverschwendung.

Man kann Underground1/2 locker in 1280 mit einer 6800GT und 8xS spielen; obwohl die spezifischen Spiele Supersampling im Grunde ueberhaupt nicht benoetigen.

-error-
2004-12-28, 01:25:04
Stoert mich dauernd auch. Im Fall von EA wo in der Mehrzahl der Rennspiele die gleiche engine wie bei F1 2001 benutzt wird, sieht es grausam aus. Hybride AA-modi mit AF und so hoch wie moeglichen Aufloesungen helfen in diesen Faellen schon. Pures Supersampling ist trotzdem Leistungsverschwendung.

Man kann Underground1/2 locker in 1280 mit einer 6800GT und 8xS spielen; obwohl die spezifischen Spiele Supersampling im Grunde ueberhaupt nicht benoetigen.

Gerade auf F1C wollte ich hinaus. Um das Spiel einigermaßen genießbar zu spielen, muss man schon die AF auf 16x (Full Trilinear) einstellen, das geht natürlich massiv auf die Leistung, besonders wenn man dazu noch 4xAA verwendet und eine 1280x1024er Auflösung fährt, eigendlich schon zuviel für meine 9800Pro.
Dann sehen wenigstens die Schilder und größere Objekte aus der Entfernung gut aus, Leitblanken und Zuschauertribünen sehen aus der Ferne jedoch sehr unansehlich aus und genau hier kann SSAA voll auftrumpfen. Alls ich die Nascarpics mit verschieden Filtermodi auf der 6800er sah, viel mir dabei SSAA besonders aus, feinste Masten wurden aalglatt dargestellt, ein wahrer Genuss.

Klar ist pures SSAA Leistungsverschwendung, aber man kann das ja auch kombinieren, soviel ich weiß.

Was meinst du mit Hybride AA-modi?

Cenmocay
2004-12-28, 02:18:33
wenn ich eine karte für 400-500 euro kaufe erwarte ich das ich nicht nur in 1600 schneller bin als die letzte generation sondern auch in 1024 auflösung

mapel110
2004-12-28, 02:18:54
Klar ist pures SSAA Leistungsverschwendung, aber man kann das ja auch kombinieren, soviel ich weiß.

Was meinst du mit Hybride AA-modi?

gibst dir die Antwort selbst. :)
Hybride Modi sind Multisampling und Supersampling kombiniert.

wenn ich eine karte für 400-500 euro kaufe erwarte ich das ich nicht nur in 1600 schneller bin als die letzte generation sondern auch in 1024 auflösung

sind sie ja auch, sofern nicht die CPU limitiert.

Hauwech
2004-12-28, 08:17:29
Ich glaube das Thema SSAA auf Mac aber nicht auf PC hatten wir schon mal. Irgendwas war da was von wegen weniger Spiele auf dem Mac wodurch der Aufwand für Treiber und vor allem Support kleiner ist und so ATI billiger kommt.

An SSAA glaube ich bei ATI auch weiterhin nicht. Mit R3xx-R4xx ist die Leistung da, natürlich eher für ältere Spiele, aber anscheinend zu teuer obwohl eine Art "Simple SSAA" ohne Probleme über den Treiber realisiert werden könnte, wenn ich mich nicht irre.

Demirug
2004-12-28, 08:38:53
Ich glaube das Thema SSAA auf Mac aber nicht auf PC hatten wir schon mal. Irgendwas war da was von wegen weniger Spiele auf dem Mac wodurch der Aufwand für Treiber und vor allem Support kleiner ist und so ATI billiger kommt.

An SSAA glaube ich bei ATI auch weiterhin nicht. Mit R3xx-R4xx ist die Leistung da, natürlich eher für ältere Spiele, aber anscheinend zu teuer obwohl eine Art "Simple SSAA" ohne Probleme über den Treiber realisiert werden könnte, wenn ich mich nicht irre.

ATI hat ja gerade wieder bestätigt das sie die PC Treiber nicht um SSAA erweitern werden.

MechWOLLIer
2004-12-28, 09:45:53
ATI hat ja gerade wieder bestätigt das sie die PC Treiber nicht um SSAA erweitern werden.
Wo denn?
Naja, finde ich auf jeden Fall wieder ganz toll. Die Hardware kann es, nur ATI wilkl es aus unerklärlichen Gründen nicht implementieren, warscheinlich weil ihnen zuviel Performance verloren geht.....
Ich habe HL2 gestern mal mit 4xS AA gespielt und es sah endlich mal gut aus. Die Zäune flackerten nicht wie Hund und die Alphatexturen sahen auch mal vernümpftig aus....Danach noch eine Runde GTR. Schrecklich dieses Flackern der Linien....4xS AA, huch, wo ist das Flackern hin?

Warum baut ATI SSAA nicht einfach ein, zur Not können sie es doch einfach verstecken. So tuen sie sich nichts böses und uns Kunden etwas gutes.

Hauwech
2004-12-28, 09:57:39
Wo denn?
Naja, finde ich auf jeden Fall wieder ganz toll. Die Hardware kann es, nur ATI wilkl es aus unerklärlichen Gründen nicht implementieren, warscheinlich weil ihnen zuviel Performance verloren geht.....
Ich habe HL2 gestern mal mit 4xS AA gespielt und es sah endlich mal gut aus. Die Zäune flackerten nicht wie Hund und die Alphatexturen sahen auch mal vernümpftig aus....Danach noch eine Runde GTR. Schrecklich dieses Flackern der Linien....4xS AA, huch, wo ist das Flackern hin?

Warum baut ATI SSAA nicht einfach ein, zur Not können sie es doch einfach verstecken. So tuen sie sich nichts böses und uns Kunden etwas gutes.

Wenn du ATI dafür bezahlst, bauen sie es dir bestimmt ein.

Demirug
2004-12-28, 10:15:10
Wo denn?
Naja, finde ich auf jeden Fall wieder ganz toll. Die Hardware kann es, nur ATI wilkl es aus unerklärlichen Gründen nicht implementieren, warscheinlich weil ihnen zuviel Performance verloren geht.....
Ich habe HL2 gestern mal mit 4xS AA gespielt und es sah endlich mal gut aus. Die Zäune flackerten nicht wie Hund und die Alphatexturen sahen auch mal vernümpftig aus....Danach noch eine Runde GTR. Schrecklich dieses Flackern der Linien....4xS AA, huch, wo ist das Flackern hin?

Warum baut ATI SSAA nicht einfach ein, zur Not können sie es doch einfach verstecken. So tuen sie sich nichts böses und uns Kunden etwas gutes.

Irgendwo bei Rage3d gab es einen Thread dazu.

seahawk
2004-12-28, 10:15:59
Kein Zweifel dass sich die Shaderleistung in zukuenftigen Spielen ausspielen wird, aber eben nicht zu dem Grad wo sich z.B. die Leistung des PS2.0 Tests/3dmark03 steigern wuerde, weil wir eben noch verdammt lange davon entfernt sind bis wir wahre PS2.x Spiele erstmal sehen werden. Und ja in diesem sterilen und rein synthetischen Fall hast Du mit einem "NV40-aehnlichen-SIMD-Kanal"@600MHz theoretisch auch um die 50% mehr Leistung.

Die Lese-effezienz wird etwas gesteigert was interne/externe Bandbreiten betrifft, aber Wunder erwarte ich da auch nicht. Schnellerer Speicher kommt erst spaet in 2005 und ergo hoechstwahrscheinlich mit dem Refresh des R520, wobei dann auch ein grosser Teil der Bandbreiten-Limitierung begrenzt wird.

Ich denke wir sind eigentlich einer Meinung. :smile:

robbitop
2004-12-28, 11:26:26
Wenn du ATI dafür bezahlst, bauen sie es dir bestimmt ein.

wieso bezahlen? Die Mac Treiber bieten dies und es ist eine Selbstverständlichkeit, dass die Treiber weiterentwickelt werden. Bezahlt hat man schließlich mit dem Kauf der Hardware. SSAA zu implementieren wäre sicher nicht schwer. Ich denke, dass man bei ATI befürchtet, die Redakteure würden SSAA mit MSAA verwechseln oder derartiges.

Hauwech
2004-12-28, 12:18:37
wieso bezahlen? Die Mac Treiber bieten dies und es ist eine Selbstverständlichkeit, dass die Treiber weiterentwickelt werden. Bezahlt hat man schließlich mit dem Kauf der Hardware. SSAA zu implementieren wäre sicher nicht schwer. Ich denke, dass man bei ATI befürchtet, die Redakteure würden SSAA mit MSAA verwechseln oder derartiges.

Beim Mac hält sich der Support für SSAA was Spiele angeht aber in Grenzen, beim PC nicht.

Gast
2004-12-28, 12:26:21
? Gibts da ein Problem ne SSAA Methode in den Treiber zu integrieren, bei NV funst die schon seit Jahren ohne Probleme, kann mir nicht vorstellen das da was an ein Spiel angepasst werden muss.

-error-
2004-12-28, 12:43:04
Das macht mich aber sehr traurig, dass ATI diese Filteroption nicht im Treiber implementieren will.

Nvidia bietet das auch, also kann man nicht mit dem Argument Geld kommen, ATI hat mindestens genausoviel davon.

Was will man denn mit der Leistung einer R520, wenn man sich noch nichtmal gescheit einsetzen kann? Meinetwegen müssen die SSAA auch nicht voll zugänglich im ControlPanel und im Control Center machen, sondern man würde halt dann zB. das ATI Tray Tool benutzen.

Exxtreme
2004-12-28, 14:20:46
Ich denke, dass man bei ATI befürchtet, die Redakteure würden SSAA mit MSAA verwechseln oder derartiges.
Nun ja... Anand ist dieser Fauxpass passiert. :D :D :D Er meinte beim R200-AA ursprünglich auch, daß es MSAA ist und durch einen Treiberbug AF auch gleichzeitig aktiv ist. :D

mapel110
2004-12-28, 14:24:01
Nun ja... Anand ist dieser Fauxpass passiert. :D :D :D Er meinte beim R200-AA ursprünglich auch, daß es MSAA ist und durch einen Treiberbug AF auch gleichzeitig aktiv ist. :D

Ist der Artikel dazu noch online? :)

? Gibts da ein Problem ne SSAA Methode in den Treiber zu integrieren, bei NV funst die schon seit Jahren ohne Probleme, kann mir nicht vorstellen das da was an ein Spiel angepasst werden muss.

gibt keine programmiertechnischen Probleme, auch nicht, was Spiele betrifft.

Beim Mac hält sich der Support für SSAA was Spiele angeht aber in Grenzen, beim PC nicht.

hö?

Exxtreme
2004-12-28, 14:48:20
Ist der Artikel dazu noch online? :)

http://www.anandtech.com/video/showdoc.aspx?i=1558&p=5

Und hier ist der Irrtum aufgefallen:
http://www.anandtech.com/video/showdoc.html?i=1562&p=1

:D

Rampage 2
2004-12-28, 15:31:17
Also ich würde sagen:

24 pipes @ 600-650MHz
512Bit Speicherinterface @ 500-600MHz
6-8 VertexShaderUnits
SM3.0

Haltet ihr die 512Bit wirklich für übertrieben? Für eine neue Generation braucht es ja mindestens 30-50% Mehrleistung. Und mehr als 650-700MHz wird man derzeit aus GDDR3-Speichern nicht rauskriegen - also viel zu wenig Speicherbandbreitenerhöhung...daher wird man an einen höheren Speicherinterface nicht vorbeikommen können...

mapel110
2004-12-28, 15:39:39
Für eine neue Generation braucht es ja mindestens 30-50% Mehrleistung.

frag mich auch, wo die herkommen sollen. bin da sehr gespannt. :)

Exxtreme
2004-12-28, 15:40:30
Haltet ihr die 512Bit wirklich für übertrieben? Für eine neue Generation braucht es ja mindestens 30-50% Mehrleistung. Und mehr als 650-700MHz wird man derzeit aus GDDR3-Speichern nicht rauskriegen - also viel zu wenig Speicherbandbreitenerhöhung...daher wird man an einen höheren Speicherinterface nicht vorbeikommen können...
Naja, kann sein, daß ATi ihr HyperZ noch weiter verbessern was auch Speicherbandbreite sparen dürfte. ArtX hat auch mal Virtual Texturing entwickelt.

MechWOLLIer
2004-12-28, 15:51:01
Für eine neue Generation braucht es ja mindestens 30-50% Mehrleistung.
Wo steht das?
Es kann durchaus auch eine neue Generation geben, welche nicht viel schneller ist als die Vorgängerkarten, aber dafür mit einer modernen Technik auffährt. Und imo sieht es so aus, als würde ATI genau das machen. Performancemäßig etwas schneller, aber nicht viel. Dafür wird dann mit der Technik geprotzt.
Und bei einer 6 Quad GPU noch 600Mhz? Und dazu noch ein 512 bittiges Speicherinterface? Man, die Karte wird aber teurer....

Demirug
2004-12-28, 15:57:42
Naja, kann sein, daß ATi ihr HyperZ noch weiter verbessern was auch Speicherbandbreite sparen dürfte. ArtX hat auch mal Virtual Texturing entwickelt.

Bis zu welcher Auflösung funktioniert HyperZ beim R420? Bandbreite würde eine Verbesserung nur sparen wenn sie das Auflösungslimit noch höher setzten. Ansonsten ist nur eine Fillrate Einsparung drin und die würde als Folge zu einem höheren Bandbreitenverbrauch führen weill genutze Füllrate ja Bandbreite braucht.

Das Virtual Texturing von ArtX ist nichts anderes als ein extra grosser Texturecache. Ich denke kaum das ATI dermassen viel RAM auf den Chip bauen will.

Rampage 2
2004-12-28, 16:10:08
Nun ja... 1.6-1.7x mehr Füllrate und 1.7-2x so viel Bandbreite und zusammen mit HyperZ und den ganzen Kram alles in allem doppelt so schnell wie X850XT-PE.

mortanius
2004-12-28, 16:46:32
Das Virtual Texturing von ArtX ist nichts anderes als ein extra grosser Texturecache. Ich denke kaum das ATI dermassen viel RAM auf den Chip bauen will.

Wär aber durchaus eine Möglichkeit um das Speicherbandbreitenproblem zu umgehen. Möglivh wärs schon. Ob die Kosten dafür sprechen ist wieder eine andere Frage.

Ailuros
2004-12-29, 02:47:42
Gerade auf F1C wollte ich hinaus. Um das Spiel einigermaßen genießbar zu spielen, muss man schon die AF auf 16x (Full Trilinear) einstellen, das geht natürlich massiv auf die Leistung, besonders wenn man dazu noch 4xAA verwendet und eine 1280x1024er Auflösung fährt, eigendlich schon zuviel für meine 9800Pro.
Dann sehen wenigstens die Schilder und größere Objekte aus der Entfernung gut aus, Leitblanken und Zuschauertribünen sehen aus der Ferne jedoch sehr unansehlich aus und genau hier kann SSAA voll auftrumpfen. Alls ich die Nascarpics mit verschieden Filtermodi auf der 6800er sah, viel mir dabei SSAA besonders aus, feinste Masten wurden aalglatt dargestellt, ein wahrer Genuss.

Klar ist pures SSAA Leistungsverschwendung, aber man kann das ja auch kombinieren, soviel ich weiß.

Was meinst du mit Hybride AA-modi?

Ich renne F1 2002 mit 4xS/8xAF in der hoechstmoeglichen Aufloesung.

Mit hybriden AA-modi meine ich natuerlich die Kombination von Super- und Multisampling (siehe 4xS, 6xS, 8xS).

Ailuros
2004-12-29, 02:52:16
Ich denke wir sind eigentlich einer Meinung. :smile:

Im Grunde schon. Es handelt sich aber trotzdem nicht um eine Verdoppelung der Leistung wie bei frueheren Generationen, sondern eher einen bis zu "Trend" der wohl vielleicht schon maximal auch auf 50% unter Umstaenden steigen koennte.

Fuer eine wahre Verdoppelung der Leistung braeuchte man auch noch ein paar quads mehr und die dementsprechende Bandbreite. Einen solchen Fall hielt ich nie schon so frueh nach der R420 Vorstellung als moeglich.

Ailuros
2004-12-29, 02:54:58
Also ich würde sagen:

24 pipes @ 600-650MHz
512Bit Speicherinterface @ 500-600MHz
6-8 VertexShaderUnits
SM3.0

Haltet ihr die 512Bit wirklich für übertrieben? Für eine neue Generation braucht es ja mindestens 30-50% Mehrleistung. Und mehr als 650-700MHz wird man derzeit aus GDDR3-Speichern nicht rauskriegen - also viel zu wenig Speicherbandbreitenerhöhung...daher wird man an einen höheren Speicherinterface nicht vorbeikommen können...

Wenn Du das Shader Modell aenderst, hat das oben beschriebene Ding gute Chancen ein potentieller WGF2.0 chip zu werden :D

aths
2004-12-29, 09:07:51
Ich renne F1 2002 mit 4xS/8xAF in der hoechstmoeglichen Aufloesung.aths' kleine Deutschstunde:

"To run" wird im Kontext mit "laufen lassen" übersetzt -> "Ich lasse F1 2002 mit 4xS/8xAF in der hoechstmoeglichen Aufloesung laufen."


Wär aber durchaus eine Möglichkeit um das Speicherbandbreitenproblem zu umgehen. Möglivh wärs schon. Ob die Kosten dafür sprechen ist wieder eine andere Frage.Es ist ja nicht nur die Texturbandbreite, die anfällt. Um "nur" die Texturbandbreite in den Griff zu kriegen wäre es wenig sinnvoll, riesigen Aufwand zu betreiben.

aths
2004-12-29, 09:09:58
Bis zu welcher Auflösung funktioniert HyperZ beim R420? Soweit ich weiß, noch über 1600x1200 hinaus.

Ailuros
2004-12-29, 10:43:11
Danke aths.

Cenmocay
2005-01-09, 23:42:09
hoffe es kommt bald ein besseres AA,was man dann in games nutzen kann wo noch genug power übrig ist

beim aktuellen AA sieht man einfach noch zu viele kanten,fehler :udown:

Coda
2005-01-10, 00:00:00
beim aktuellen AA sieht man einfach noch zu viele kanten,fehler
Also solang keine Alphatest benützt wird ist ATIs 6x eigentlich schon fast perfekt.

Exxtreme
2005-01-10, 00:01:24
Also solang keine Alphatest benützt wird ist ATIs 6x eigentlich schon fast perfekt.
Leider wird Alphatesting sehr oft verwendet, auch bei den neuesten Titeln.

robbitop
2005-01-10, 12:10:32
Leider wird Alphatesting sehr oft verwendet, auch bei den neuesten Titeln.
hat Demirug dafür nicht seit Neustem eine Lösung (Plugin für den DXTweaker)?

mapel110
2005-01-10, 12:20:59
hat Demirug dafür nicht seit Neustem eine Lösung (Plugin für den DXTweaker)?

ist aber noch im geschlossenen Betatest.

Ailuros
2005-01-11, 06:32:18
Ich erwarte persoenlich (leider) keine groessere Aenderungen was AA-Algorithmen betrifft vor WGF2.0 komplianten chips.

robbitop
2005-01-11, 09:26:14
ich erwarte hauptsächlich eine Leistungssteigerung.
Die AA-Algoritmen zu verbessern erfordert einen enormen Aufwand. Zumal die aktuellen AA-Algorithmen so schlecht nicht sind.

Crushinator
2005-01-11, 10:21:58
Was AA angeht erwarte ich auch keine großen Überraschungen. Leider erwarte ich aber eine (Strom-)Verbrauchssteigerung, die mir mit sehr hoher Wahrscheinlichkeit nicht gefallen wird. ;(

ironMonkey
2005-01-11, 10:25:44
Was AA angeht erwarte ich auch keine großen Überraschungen. Leider erwarte ich aber eine (Strom-)Verbrauchssteigerung, die mir mit sehr hoher Wahrscheinlichkeit nicht gefallen wird. ;(


Glaube ich nicht eine X850XT PE ist ja schon ein Schluckspecht( um die 90Watt).



Gruß

marlurau
2005-01-13, 14:37:16
Zum Thema allgemein : die ersten 2 Wochen des Jahres sind morgen rum, damit ist meine Definition von " anfang des Jahres" abgelaufen. Ergebnis : kein neuer R520 ! Wann ist die Cebit ? April ? Dann wird er da wohl vorgestellt. dann 2 Monate fürs shipping :cool: ,also anfang 2. Halbjahr könnt es das Ding auch im dt. Handel geben als hand- Hardware !

mapel110
2005-01-13, 14:58:22
eine X850XT PE ist ja schon ein Schluckspecht( um die 90Watt).



Gruß

wuzz?
hab ich was verpasst?
Quelle?

MechWOLLIer
2005-01-13, 15:35:15
wuzz?
hab ich was verpasst?
Quelle?
Quellen hab ich nicht, aber so um den Dreh, vielleicht etwas weniger, wird es unter maximaler Last schon liegen.

robbitop
2005-01-13, 15:43:38
Quellen hab ich nicht, aber so um den Dreh, vielleicht etwas weniger, wird es unter maximaler Last schon liegen.
die XT-PE zieht unter Last laut xbit ~65W. Die haben das brauchbar gemessen.
Ich glaube die X850 sollte nicht allzuviel mehr ziehen

MechWOLLIer
2005-01-13, 15:55:19
die XT-PE zieht unter Last laut xbit ~65W. Die haben das brauchbar gemessen.
Ich glaube die X850 sollte nicht allzuviel mehr ziehen
Ok, aber bei den xbit zieht, falls ich das richtig im Kopf habe, auch eine Geforce 6800U weit weniger Strom als 90W, bei anderen Messungen tzut sie es hingegen (fast) schon.

Mr. Lolman
2005-01-13, 15:56:47
Habe keine Lust mir 35 Seiten durchzulesen. Gibts jetzt schon nen ungefähren Release Termin für den R520? Und kommt das Teil auch noch für AGP?

DrumDub
2005-01-13, 15:58:50
Habe keine Lust mir 35 Seiten durchzulesen. Gibts jetzt schon nen ungefähren Release Termin für den R520? Und kommt das Teil auch noch für AGP?

1. wird wohl im frühjahr vorgestellst. verfügbarkeit sommer, denke ich.
2. keine ahnung. aber wird wohl nativ pcie sein. eventuell mit rialto-bridge als agp-version.

MechWOLLIer
2005-01-13, 16:27:51
Habe keine Lust mir 35 Seiten durchzulesen. Gibts jetzt schon nen ungefähren Release Termin für den R520? Und kommt das Teil auch noch für AGP?
Ich vermute mal, dass die VOrstellung zur CeBIT geplant sein wird. Ob das funktioniert, ist eine andere Frage.
Kaufbar (in größeren Mengen) wird die Karte wohl frühestens im Sommer sein.

ShadowXX
2005-01-13, 16:37:50
Ich vermute mal, dass die VOrstellung zur CeBIT geplant sein wird. Ob das funktioniert, ist eine andere Frage.
Kaufbar (in größeren Mengen) wird die Karte wohl frühestens im Sommer sein.

Sagen wir mal "theoretisch" Kaufbar.....halbwegs gute Verfügbarkeit erwarte ich nicht vor dem Herbst....

Cenmocay
2005-01-13, 16:39:45
Zum Thema allgemein : die ersten 2 Wochen des Jahres sind morgen rum, damit ist meine Definition von " anfang des Jahres" abgelaufen. Ergebnis : kein neuer R520 !

:crazy2: :lol:


Wann ist die Cebit ? April ? Dann wird er da wohl vorgestellt. dann 2 Monate fürs shipping ,also anfang 2. Halbjahr könnt es das Ding auch im dt. Handel geben als hand- Hardware !

is doch ok und normal :up:

deekey777
2005-01-13, 22:07:54
Hoffentlich klaue ich niemandem sein Posting:

ATI's next generation (http://www.extremetech.com/article2/0,1558,1750723,00.asp)

"ATI's next generation, perhaps going by the chip name R520, will likely have a set of general "pipelines" that can read 32-bit floating point data of any type, vertex or pixel, and perform enough different math operations on them to qualify as a fully functional vertex- or pixel-shader pipeline. The idea has a lot of merit. If you have 16 general pipelines, you can devote all of them to vertex processing, all to pixel processing, or any balance in between. We expect the chip to support shader model 3.0 and then some. (ATI will probably pull a marketing trick like putting a "+" sign in there, though there is no shader specification yet beyond shader model 3.0.)"
(Sehr spekulativ!)
Der Artikel selbst: State of the Industry: Graphics in 2005 and Beyond (http://www.extremetech.com/article2/0,1558,1750720,00.asp)

Demirug
2005-01-13, 22:31:39
Hoffentlich klaue ich niemandem sein Posting:

ATI's next generation (http://www.extremetech.com/article2/0,1558,1750723,00.asp)

"ATI's next generation, perhaps going by the chip name R520, will likely have a set of general "pipelines" that can read 32-bit floating point data of any type, vertex or pixel, and perform enough different math operations on them to qualify as a fully functional vertex- or pixel-shader pipeline. The idea has a lot of merit. If you have 16 general pipelines, you can devote all of them to vertex processing, all to pixel processing, or any balance in between. We expect the chip to support shader model 3.0 and then some. (ATI will probably pull a marketing trick like putting a "+" sign in there, though there is no shader specification yet beyond shader model 3.0.)"
(Sehr spekulativ!)
Der Artikel selbst: State of the Industry: Graphics in 2005 and Beyond (http://www.extremetech.com/article2/0,1558,1750720,00.asp)

Das hört sich aber eher nach dem R500 an.

reunion
2005-01-13, 22:49:35
Das hört sich aber eher nach dem R500 an.

Vielleicht stammt ja R520 entgegen anderslautender Meldungen doch von R500 ab, bis jetzt haben wir ja nur Gerüchte :naughty:

Coda
2005-01-13, 22:55:59
Vielleicht stammt ja R520 entgegen anderslautender Meldungen doch von R500 ab, bis jetzt haben wir ja nur Gerüchte
Naja wir haben halbe Fakten aus dem Treiber...

TheCounter
2005-01-14, 00:35:52
Naja wir haben halbe Fakten aus dem Treiber...

Vlt. nur experimentelle Einträge? Naja hoffentlich wissen wir bald mehr und vor allem handfeste Details.

seahawk
2005-01-14, 08:23:01
Vielleicht stammt ja R520 entgegen anderslautender Meldungen doch von R500 ab, bis jetzt haben wir ja nur Gerüchte :naughty:
Vielleicht hat der Autor aber auch nur den Unterschied zwischen R500 und R520 nicht so richtig verstanden. :naughty:

Quasar
2005-01-14, 09:09:55
die XT-PE zieht unter Last laut xbit ~65W. Die haben das brauchbar gemessen.
Ich glaube die X850 sollte nicht allzuviel mehr ziehen
Wozu haben die dann den Doppelschlitz-Kühler auf das Topmodell draufmontiert? Der kostet sicherlich etwas mehr als der alte von der X800 (von denen man, nebenbei bemerkt, ja noch massenhaft auf Halde liegen haben müsste).

ShadowXX
2005-01-14, 09:29:25
Vielleicht hat der Autor aber auch nur den Unterschied zwischen R500 und R520 nicht so richtig verstanden. :naughty:

Genau das habe ich beim Lesen des Posts auch gedacht....der nette Herr hat einfach die wahrscheinlichen r500 Spezifikationen auf den r520 projeziert...

Vielleicht wissen wir, wenn die CeBit näherrückt, mehr....

reunion
2005-01-14, 11:28:27
Wozu haben die dann den Doppelschlitz-Kühler auf das Topmodell draufmontiert?

Weil ne X850 XT PE logischerweise mehr verlustleistung erzeugt als ne X800XT PE, laut PCGH 9W mehr, aber immernoch 11W weniger als ne 6800U.

StefanV
2005-01-14, 11:52:39
Wozu haben die dann den Doppelschlitz-Kühler auf das Topmodell draufmontiert? Der kostet sicherlich etwas mehr als der alte von der X800 (von denen man, nebenbei bemerkt, ja noch massenhaft auf Halde liegen haben müsste).
Damits nicht zu laut wird.

Du weißt ja sicher, das ATI früher mal stark gescholten wude, für die Quirle auf der Radeon 64 und den nachfolgenden Modellen, oder? ;)

robbitop
2005-01-14, 12:46:30
Wozu haben die dann den Doppelschlitz-Kühler auf das Topmodell draufmontiert? Der kostet sicherlich etwas mehr als der alte von der X800 (von denen man, nebenbei bemerkt, ja noch massenhaft auf Halde liegen haben müsste).

Kühler und Verlustleistung sind manchmal arg seltsam.
Ich errinnere mich gern an den NV30u mit FlowFX. Das Teil war riesig und sehr laut. Wir bei Seijin haben da einen kleinen Quirl von Termaltake montiert (sieht aus wie ein Orb aus Kupfer) und ein paar kleine Speicherkühler. Das war leiser und (seltsamerweise) kühler.

Ich vermute die Dinge müssen auch irgendwo in der Wüste stabil laufen. Die Produktionskosten für einen Kühlkörper liegen eh im unteren einstelligen Eurobereich.

Ailuros
2005-01-15, 10:30:22
ich erwarte hauptsächlich eine Leistungssteigerung.
Die AA-Algoritmen zu verbessern erfordert einen enormen Aufwand. Zumal die aktuellen AA-Algorithmen so schlecht nicht sind.

Ich will bezweifeln dass Architekturen ueber mehr als 2xMSAA pro Zyklus faehig sein werden bis zumindest WGF2.0 kompliante Karten auftauchen. Solange beide IHVs sich auf GDDR3 verlassen muessen, sieht es eher danach aus als ob sich die Fuellrate zwar enorm steigern wird (entweder durch hoehere Taktfrequenzen oder mehr Einheiten), wobei aber die Bandbreite nicht in Analogie skalieren wird.

Eine besondere Leistungssteigerung sehe ich in diesen Faellen nicht unbedingt. "Schlecht" ist im Grunde nie etwas, solange nichts um vieles "besseres" in der Zwischenzeit auftaucht.

Von dem abgesehen Entwickler sollten endlich mal mehr Ruecksicht auf antialiasing in ihren Spielen nehmen und es nicht als quasi "Nachgedanken" noch drueberschmieren. Solange von den ISVs nichts in der Richtung kommt, hilft selbst auch ein um weites besserer AA-Algorithmus nicht viel.

Mir persoenlich nuetzt die Ueberfoerderung von Shadern bei Spielen auf einem quasi dx7.0 Skelett erstmal gar nichts, solange ich entweder ganz auf AA verzichten muss oder trotz aktiviertem AA die aliasing/moire Nebeneffekte mir fast die Augen ausreissen.

robbitop
2005-01-15, 13:45:44
Ich will bezweifeln dass Architekturen ueber mehr als 2xMSAA pro Zyklus faehig sein

Du spielst darauf an, dass die ROPs 2 Z-Werte pro Takt schreiben/lesen können?
Mehr wäre (besonders in Zukunft) nicht nötig. Denn die Dauer einer finalen Berechnung eines Farbwertes pro Pixel steigt tendenziell an. Die Pixelshader enthalten immer mehr Instruktionen und wir haben ja heute bereits viel MT und trilineare Filterung. Im Worst Case kann die Berechnung eines Pixels bei shaderlastigen Spielen schon im 2-3 stelligen Taktbereich liegen.

Mr. Lolman
2005-01-15, 14:27:16
Ich glaube, dass der R520 noch ein gutes Stückchen auf sich warten lässt. Mit Vorstellung im Frühjahr schätz ich braucht man nicht rechnen, und zu haben wird er wahrscheinlich im Spätherbst sein. Warum? Die X850 steht erst in den Startlöchern, und NV wird wohl auch nicht ihre Trümpfe ausspielen, solang der NV40 noch Kohle reinbringen muß...

Q3 2005
2005-01-15, 16:58:27
http://www.cooltechzone.com/index.php?option=content&task=view&id=906&Itemid=0&limit=1&limitstart=2

As if the availability factors aren’t worse already, ATI has plans to introduce their next product line sometime in Q3 this year. ATI was fairly consistent with their 6-month refresh product line course and have hopes to maintain the timeline. While both companies try to work on a 6-month timeline, they did fall behind, as far as timing is concerned, with the past few product lineup announcements.

NVIDIA will also announce their next generation architecture towards the end of this year. Currently, NVIDIA is enjoying the success of their GeForce 6 series family over ATI and working on 3D mobile devices.

It is possible that ATI may delay their next generation architecture, since they haven’t been able to deliver the X850 series of products thus far, which would make the new product lineup redundant in the market, but that’s a wait-and-see scenario so far. The bottom line: be ready for more confusion, poor availability and high prices in the market this year.
...

seahawk
2005-01-15, 17:45:08
Ich glaube, dass der R520 noch ein gutes Stückchen auf sich warten lässt. Mit Vorstellung im Frühjahr schätz ich braucht man nicht rechnen, und zu haben wird er wahrscheinlich im Spätherbst sein. Warum? Die X850 steht erst in den Startlöchern, und NV wird wohl auch nicht ihre Trümpfe ausspielen, solang der NV40 noch Kohle reinbringen muß...

An das erste Quartal glaube ich auch nicht. Mai/Juni wäre imho denkbar. Verfügbarkeit dann Ende 3Q05.

Mantikor
2005-01-15, 17:47:38
An das erste Quartal glaube ich auch nicht. Mai/Juni wäre imho denkbar. Verfügbarkeit dann Ende 3Q05.

"Verfügbarkeit" wohl erst zu Weihnachten... :rolleyes:

xL|Sonic
2005-01-15, 18:06:45
Hmm...wenn der Chip wirklich erst gegen Ende diesen Jahres vorgestellt wird, dann könnte es ja doch eher ein Ableger des R500 werden und vielleicht doch schon ein WGF Chip sein.

Cenmocay
2005-01-15, 21:38:31
"Verfügbarkeit" wohl erst zu Weihnachten... :rolleyes:


was denn los etwa schon wieder geil 500 euro für ne neue auszugeben :biggrin:

TheCounter
2005-01-16, 00:12:48
Schade wenn der Chip erst so spät vorgestellt wird, dann werd ich mir wohl vorher ne X800XL/GF6800GT kaufen und sobalds den R520 gibt die Karte wieder verkaufen und den R520 nehmen.

Is echt schlimm zur Zeit mit den ganzen Spekulationen um Verschiebungen/Vorstellungsterminen.

@xL|Sonic

WGF2.0?

Mantikor
2005-01-16, 00:49:01
was denn los etwa schon wieder geil 500 euro für ne neue auszugeben :biggrin:

Ich hab noch nichtmal eine der jetzigen... :rolleyes: , ich glaube ich warte auf den NV50 bzw den ersten WGF2.0 Chip...

Mfg der Mantikor

Ailuros
2005-01-16, 12:13:48
Du spielst darauf an, dass die ROPs 2 Z-Werte pro Takt schreiben/lesen können?
Mehr wäre (besonders in Zukunft) nicht nötig. Denn die Dauer einer finalen Berechnung eines Farbwertes pro Pixel steigt tendenziell an. Die Pixelshader enthalten immer mehr Instruktionen und wir haben ja heute bereits viel MT und trilineare Filterung. Im Worst Case kann die Berechnung eines Pixels bei shaderlastigen Spielen schon im 2-3 stelligen Taktbereich liegen.


Wie wird 4xMSAA auf NV2x/3x/4x und/oder R3xx/4xx genau erreicht?

Dass die Anzahl der ROPs zwischen diesen Architekturen und dessen "output" variiert, sollte wohl klar sein und ist am wenigsten relevant auf das was ich hinaus will.

This also signifies that NV4x is only capable of 2 FSAA Multi-Sample samples per clock cycle, and indeed David Kirk confirmed this to be the case - as it has, in fact, been since NV20. To achieve 4X Multi-Sampling FSAA a second loop must be completed through the ROP over two cycles – memory bandwidth makes it prohibitive to output more samples in a cycle anyway. Unlike ATI, only one loop is therefore allowed through the ROP which continues to restrict NV4x to a native Multi-Sample AA of 4X – modes greater than 4X still require combined Super-Sampling and Multi-Sampling.

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=11

Je mehr sich die Fuellrate im Vergleich zur Bandbreite erhoeht, desto weniger macht mir eine Aenderung hier Sinn. Nimm doch einfach ein theoretisches Beispiel eines 6-quad chips mit GDDR3 Speicher; im Fall einer solchen Moeglichkeit von NVIDIA wird es sowieso auf NV4x basieren, wo keine so besonders grosse Aenderungen zu erwarten sind, selbst wenn schnellerer Speicher verfuegbar sein wuerde. Alternativ R520 mit sehr hoher Taktrate und 4 quads; auf jeden Fall minimal 9.6GPixels/sec bilinear fuer den einen oder anderen Fall.

Mir ist egal wie man single-cycle 4xMSAA erreichen wuerde in der Theorie und hierbei sehe ich auch keinen besonderen Grund dass die ROP Anzahl erhoeht wird. Ich kann mir aber leicht vorstellen dass der Aufwand fuer solch eine Idee gross genug sein koennte, dass man in der Zukunft dann gleich anstatt an exotischere Algorithmen greift.

Nochmal Mali100 (PDA/mobile) ist ueber single-cycle 4xRGMS faehig. 4 cycles = 16xMSAA.

Ailuros
2005-01-16, 12:17:10
http://www.cooltechzone.com/index.php?option=content&task=view&id=906&Itemid=0&limit=1&limitstart=2

As if the availability factors aren’t worse already, ATI has plans to introduce their next product line sometime in Q3 this year. ATI was fairly consistent with their 6-month refresh product line course and have hopes to maintain the timeline. While both companies try to work on a 6-month timeline, they did fall behind, as far as timing is concerned, with the past few product lineup announcements.

NVIDIA will also announce their next generation architecture towards the end of this year. Currently, NVIDIA is enjoying the success of their GeForce 6 series family over ATI and working on 3D mobile devices.

It is possible that ATI may delay their next generation architecture, since they haven’t been able to deliver the X850 series of products thus far, which would make the new product lineup redundant in the market, but that’s a wait-and-see scenario so far. The bottom line: be ready for more confusion, poor availability and high prices in the market this year.
...


Pfffffff .......*gaehn* (just say I hadn't figured....) :|

aths
2005-01-16, 17:17:57
Nochmal Mali100 (PDA/mobile) ist ueber single-cycle 4xRGMS faehig. 4 cycles = 16xMSAA.Wozu brauche in Single-Cycle 4x MSAA, wenn ich DX8- oder DX9-Spiele spielen möchte?

robbitop
2005-01-16, 18:20:12
Wozu brauche in Single-Cycle 4x MSAA, wenn ich DX8- oder DX9-Spiele spielen möchte?

Ich vermute diesen Zusammenhang hat er trotz meiner Ausführung leider nicht verstanden :frown:

xL|Sonic
2005-01-16, 23:29:22
Schade wenn der Chip erst so spät vorgestellt wird, dann werd ich mir wohl vorher ne X800XL/GF6800GT kaufen und sobalds den R520 gibt die Karte wieder verkaufen und den R520 nehmen.

Is echt schlimm zur Zeit mit den ganzen Spekulationen um Verschiebungen/Vorstellungsterminen.

@xL|Sonic

WGF2.0?

WGF 1.0 würde ich wenn überhaupt schätzen, also ähnlich wie der R500. WGF 2.0 wäre glaube ich etwas zu früh.

Demirug
2005-01-16, 23:39:58
WGF 1.0 würde ich wenn überhaupt schätzen, also ähnlich wie der R500. WGF 2.0 wäre glaube ich etwas zu früh.

WGF 1.0 ist nichts anderes als DX 9.0 in der Longhorn version.

Ailuros
2005-01-17, 03:50:09
Wozu brauche in Single-Cycle 4x MSAA, wenn ich DX8- oder DX9-Spiele spielen möchte?

Mali100 verfuegt zwar ueber keine PS, ist aber ueber VS2.0 faehig; die Relation der chip-Groesse fuer diesen Bereich sollte man ja wohl verstehen koennen.

Welche dx9.0 Spiele denn ueberhaupt momentan? Die Mehrzahl der "hybriden" dx7/9.0 Spiele dort draussen, fressen ja CPU-resources bis zum geht nicht mehr auf.

Ich vermute diesen Zusammenhang hat er trotz meiner Ausführung leider nicht verstanden.

Verstanden hab ich es schon, nur ist es eben IMHO eine dumme Ausrede die die IHVs selber benutzen um ihre laecherlichen Benchmark-kriege zu gewinnen. Andere Prioritaeten heisst das in meinem Buch und daher stammt auch Dein "gut genug" Kommentar.

Johnny Rico
2005-01-17, 15:42:50
wann gibts dann endlich karten mit dem chip?

TheCounter
2005-01-17, 16:47:18
wann gibts dann endlich karten mit dem chip?

Laut den neuesten Spekulationen ende 2005/anfang 2006.

Johnny Rico
2005-01-17, 19:36:32
lol -.-

ich dachte die Karte kommt schon Februar oder so. Also machen die das auch wie Nvidia? Erst mit Longhorn aufn Markt kloppen.

klasse...

reunion
2005-01-18, 10:40:35
Laut den neuesten Spekulationen ende 2005/anfang 2006.

Blödsinn, wir haben mehrere Aussagen von Dave Orton wonach R520 "Anfang 2005" erscheinen soll.

tEd
2005-01-18, 10:48:00
Ich würde mal anfang sommer sagen , wenn alles gut geht (nicht mehr als 2 revisionen für den massenproduktions chip)

TheCounter
2005-01-18, 10:56:00
Blödsinn, wir haben mehrere Aussagen von Dave Orton wonach R520 "Anfang 2005" erscheinen soll.

Massenproduktion inkl. breiter Verfügbarkeit Weltweit? Unwarscheinlich. Wenn der R520 nicht auf der Cebit im Februar vorgestellt wird, ist es imo eher unwarscheinlich das er noch Anfang 2005 "kommt" (Vorgestellt wird).

Schön wärs schon, dann könnt ich mir so nen Teil gleich zulegen, aber richtig glauben will ich das dann doch noch nicht ;)

DrumDub
2005-01-18, 11:01:12
Massenproduktion inkl. breiter Verfügbarkeit Weltweit? Unwarscheinlich. Wenn der R520 nicht auf der Cebit im Februar vorgestellt wird, ist es imo eher unwarscheinlich das er noch Anfang 2005 "kommt" (Vorgestellt wird).

gibts da denn schon ne aussage zu? vorstellunge cebit oder nicht?

Schön wärs schon, dann könnt ich mir so nen Teil gleich zulegen, aber richtig glauben will ich das dann doch noch nicht ;)

kommt halt ganz drauf an, wie gut die mit dem neuen 90nm produktionsprozess klar kommen. aber vor q3/05 erwarte ich auch keine breite verfügbarkeit.

seahawk
2005-01-18, 11:10:05
Blödsinn, wir haben mehrere Aussagen von Dave Orton wonach R520 "Anfang 2005" erscheinen soll.

Wobei man auch beit ATI die Möglichkeit einräumen muss, dass sie ihre Pläne dem Markt anpassen.

Besonders weil dei X850 Serie bei einer Vorstellung des R520 im Februar wohl eine wirtschaftliche Todgeburt wäre. Außer der R520 wäre nur ein R480+SM3.0, ohne deutliches Speedupgrade.

TruPlaya_UB
2005-01-18, 11:16:31
IMHO ist der R520 auch nichts anderes bisher als ein PAPIERTIGER !!

Ich habe zwar keine quellen, aber ich glaube net mal das sie volle SM3.0 Kompatibilität haben....evlt Shader 2.c ????

Die werfen eh mit Grafikkarten um sich wie niemand zuvor, nur kaufen kann man kaum welche !!!

Vorallem wie wollen die auf einmal mit 32Bit Precision daherkommen und die Geschwindigkeit dazu erhöhen ?? DynamicFlow Control...davon raten sie ja gerade ab um es nachher selber zu präsentieren ??

Ich rechne erst im Q3 mit der Karte !!!

Die ganze Sache klingt schon fast nach dem ATI CHIP, der mal 4 R9600 Chips draufhaben sollte =) Fudo war ebenfalls sein name !!!

seahawk
2005-01-18, 11:20:53
Ein R420 hat 16 Pipes ein 9600 4 Pipes. Da war schon was dran.

TruPlaya_UB
2005-01-18, 11:23:37
Ein R420 hat 16 Pipes ein 9600 4 Pipes. Da war schon was dran.

Ja, aber die wollten auf das PCB, 4 Stück von denen draufhauen !!! MultiGPU =)

TheCounter
2005-01-18, 11:42:06
gibts da denn schon ne aussage zu? vorstellunge cebit oder nicht?

Ich hab noch nichts dergleichen gehört, aber ich denke mal wenn dann wäre die Cebit ein guter Zeitpunkt für die Vorstellung. Am besten wäre es die stellen das Teil erst vor wenn die Verfügbarkeit für 2-4 Wochen danach garantiert ist, aber das is wohl nur Wunschdenken ;)

@TruPlaya_UB

IMO unwarscheinlich, entweder er kann voll SM3.0 oder garnicht. Da der R500 SM3.0 hat/kann ist es imo sehr warscheinlich das es der R520 auch kann, selbst wenn die beiden sonst nicht viel Gemeinsam haben sollten.

Außerdem wollen sie ja gegen die neuen Chips von NVIDIA standhalten.

Btw. das mit den Spekulationen wird langsam immer nerviger/langweiliger find ich, ich will was handfestes (Am besten von beiden Seiten) ;)

TruPlaya_UB
2005-01-18, 11:52:15
Sie versprachen auch schon 32Bit bei den jetigen R480......zwar wurde nie ein riesen trara draus gemacht aber gesagt hatten sie das !!

Ich glaube BEIDEN nix mehr, bevor Ich es in meinen Händen halte !!

Hauwech
2005-01-18, 12:41:15
In einigen Bereichen kann der R480 doch 32bit, nur nicht durchgängig wie der NV4x wenn ich mich nicht irre.

TheCounter
2005-01-18, 12:44:00
In einigen Bereichen kann der R480 doch 32bit, nur nicht durchgängig wie der NV4x wenn ich mich nicht irre.

Wollte gerade das selbe schreiben, hab das hier des öfteren gelesen.

@TruPlaya_UB

Kannste mir mal den Link zu dem Versprechen geben? Danke.

TruPlaya_UB
2005-01-18, 12:45:23
es kommt net drauf an was reinkommt bei NV oder ATI (16/24/32 Bit), sondern was rauskommt, und da kommt bei ATI nur eben 24 !!

UNd ich glaube die werden ein SM3.0 KOMPATIBEL haben !!!

Evtl rechnen die ja nur mit 24Bit SM3.0 =) Sagte Ich schon Shader 2.c ???

bestimmt rechnet der r520 intern alles mit 32 bit und ausgegebeben wird nur 24 bit =) So wie damals bei den Voodoo´s ! Nur waren es sogar 16Bit ausgabe (auch 22bit aber anderes thema)

DrumDub
2005-01-18, 12:55:15
Wollte gerade das selbe schreiben, hab das hier des öfteren gelesen.


die vs haben natürlich fp32 genauigkeit. die ps eben nur fp24.

ShadowXX
2005-01-18, 12:59:44
Sie versprachen auch schon 32Bit bei den jetigen R480......zwar wurde nie ein riesen trara draus gemacht aber gesagt hatten sie das !!

Ich glaube BEIDEN nix mehr, bevor Ich es in meinen Händen halte !!

Quelle??

Der r480 sollte nie etwas anderes sein als ein Speed-Upgrade des r420.....und ich glaube auch nicht, dass ATI jemals etwas anderes verlautbart hat.

Cenmocay
2005-01-18, 14:18:57
Wobei man auch beit ATI die Möglichkeit einräumen muss, dass sie ihre Pläne dem Markt anpassen.

Besonders weil dei X850 Serie bei einer Vorstellung des R520 im Februar wohl eine wirtschaftliche Todgeburt wäre. Außer der R520 wäre nur ein R480+SM3.0, ohne deutliches Speedupgrade.


wieso denn der x850 rutscht dann natürlich in eine ganz andere preisklasse :wave2:

reunion
2005-01-18, 15:53:15
Wobei man auch beit ATI die Möglichkeit einräumen muss, dass sie ihre Pläne dem Markt anpassen.


Klar, nur sollte man nicht wegen eines Gerüchtes gleich alles andere über den Haufen werfen.


Besonders weil dei X850 Serie bei einer Vorstellung des R520 im Februar wohl eine wirtschaftliche Todgeburt wäre. Außer der R520 wäre nur ein R480+SM3.0, ohne deutliches Speedupgrade.

Was ist bitte der unterschied zwischen R423 und R480?
Höchstens ein neues Tapeout, wenn überhaupt, vielleicht hat man auch nur die Spannung leicht erhöht. X850 ist bicht viel mehr als Marketing, viel Geld hat man da sicher nicht reingesteckt.

Gaestle
2005-01-19, 11:14:19
es kommt net drauf an was reinkommt bei NV oder ATI (16/24/32 Bit), sondern was rauskommt, und da kommt bei ATI nur eben 24 !!

UNd ich glaube die werden ein SM3.0 KOMPATIBEL haben !!!

Evtl rechnen die ja nur mit 24Bit SM3.0 =) Sagte Ich schon Shader 2.c ???

bestimmt rechnet der r520 intern alles mit 32 bit und ausgegebeben wird nur 24 bit =) So wie damals bei den Voodoo´s ! Nur waren es sogar 16Bit ausgabe (auch 22bit aber anderes thema)


Ich hab' zwar wenig Ahnung von der Materie, habe aber den Thread und die Aussagen der "richtigen Leute" dazu gelesen und bin der festen Überzeugung, dass Du komplett daneben liegst.

1.) Vorstellung & Verfügbarkeit:
a) ein chipmonster mit weit mehr als 200Mio. Transistoren auf Dauemennagelgröße zu basteln, das dauert eben, sowohl bei NV als auch bei ATi.
b) dass die Firmen keine Chips anbieten, bevor die relevanten Teile genutzt werden können (Stichwort WGF2.0) sollte klar sein. Wenn ein solcher Chip wirklich demnächst schon fertig sein sollte, kann man die Zeit bis Longhorn super mit testen und dem Verbessern von Details verbringen.

2.) Technische Daten
a) es gibt AFAIK kein SM2.c (und wird es auch in Zukunft nicht), denn es gibt auch kein SM2.a oder SM2.b . Es gibt AFAIK lediglich SM2.0 und das Marketing von ATi bzw. NV.
b) SM3.0 mit 24Bit gibt es nicht. AFAIK fordert SM3.0 durchgängig 32Bit, andernfalls ist es eben kein SM3.0 sondern SM2.0. ALLE Spezifikationen müssen erfüllt sein, sonst darf das Label nicht verwendet werden.

Die Sache mit der Voodoo ist wirklich ein anderes Thema.

Grüße

BTW: 59Posts in 2 Tagen: Respekt! Wirst Du ein zweiter Stefan Payne?

ShadowXX
2005-01-19, 11:29:27
Ich hab' zwar wenig Ahnung von der Materie, habe aber den Thread und die Aussagen der "richtigen Leute" dazu gelesen und bin der festen Überzeugung, dass Du komplett daneben liegst.

1.) Vorstellung & Verfügbarkeit:
a) ein chipmonster mit weit mehr als 200Mio. Transistoren auf Dauemennagelgröße zu basteln, das dauert eben, sowohl bei NV als auch bei ATi.
b) dass die Firmen keine Chips anbieten, bevor die relevanten Teile genutzt werden können (Stichwort WGF2.0) sollte klar sein. Wenn ein solcher Chip wirklich demnächst schon fertig sein sollte, kann man die Zeit bis Longhorn super mit testen und dem Verbessern von Details verbringen.

2.) Technische Daten
a) es gibt AFAIK kein SM2.c (und wird es auch in Zukunft nicht), denn es gibt auch kein SM2.a oder SM2.b . Es gibt AFAIK lediglich SM2.0 und das Marketing von ATi bzw. NV.
b) SM3.0 mit 24Bit gibt es nicht. AFAIK fordert SM3.0 durchgängig 32Bit, andernfalls ist es eben kein SM3.0 sondern SM2.0. ALLE Spezifikationen müssen erfüllt sein, sonst darf das Label nicht verwendet werden.

Die Sache mit der Voodoo ist wirklich ein anderes Thema.

Grüße

BTW: 59Posts in 2 Tagen: Respekt! Wirst Du ein zweiter Stefan Payne?


Die Shaderprofile 2.0a bzw. 2.0b existieren durchaus bei MS.....

Bei Rest stimme ich aber durchaus zu.

Ailuros
2005-01-19, 13:03:09
die vs haben natürlich fp32 genauigkeit. die ps eben nur fp24.

Aber auch nur beim schreiben (PS) AFAIK.

Ailuros
2005-01-19, 13:29:42
bestimmt rechnet der r520 intern alles mit 32 bit und ausgegebeben wird nur 24 bit So wie damals bei den Voodoo´s ! Nur waren es sogar 16Bit ausgabe (auch 22bit aber anderes thema)

Lassen wir lieber mal bitte die Voodoos zur Seite.......weil eben mal ganz ganz einfach das eine mit dem anderen nichts zu tun hat.

Kannste mir mal den Link zu dem Versprechen geben? Danke.

Keine Ursache :D (es sollte wohl klar sein dass ein Link dafuer nicht existiert).

-------------------------------------------------------------------

Ich hab mal eine andere dumme Frage:

Wir wissen dass NV40 4096 PS3.0 instruction slots hat; hat der R520 nun tatsaechlich nur das Minimum (fuer PS3.0 Komplianz) 512 instruction slots, koennte es hier irgendeine Verbindung geben mit der angeblichen besseren Verzweigung?

ShadowXX
2005-01-19, 13:49:13
Wir wissen dass NV40 4096 PS3.0 instruction slots hat; hat der R520 nun tatsaechlich nur das Minimum (fuer PS3.0 Komplianz) 512 instruction slots, koennte es hier irgendeine Verbindung geben mit der angeblichen besseren Verzweigung?

Ich schätze eher, dass die 512 slots was mit der Methode der Bereitstellung des SM3.0 zu tun haben.

Ailuros
2005-01-19, 14:03:49
Ich schätze eher, dass die 512 slots was mit der Methode der Bereitstellung des SM3.0 zu tun haben.

512 slots sind die minimale Vorraussetzung fuer SM3.0 AFAIK.

Ich denke dass meine Frage wohl eher dumm sein sollte, da es vielleicht keinen Zusammenhang gibt zwischen der Anzahl der instruction slots und Verzweigungen. In jeglichem Gegenfall koennte es sein dass R520 einen gesunden Vorteil mit Verzweigungen nur im VS hat....aber wie gesagt ich schiesse mir womoeglich wieder in den Fuss. Dumme Fragen helfen aber zum lernen :P

ShadowXX
2005-01-19, 14:38:55
512 slots sind die minimale Vorraussetzung fuer SM3.0 AFAIK.

Ich denke dass meine Frage wohl eher dumm sein sollte, da es vielleicht keinen Zusammenhang gibt zwischen der Anzahl der instruction slots und Verzweigungen. In jeglichem Gegenfall koennte es sein dass R520 einen gesunden Vorteil mit Verzweigungen nur im VS hat....aber wie gesagt ich schiesse mir womoeglich wieder in den Fuss. Dumme Fragen helfen aber zum lernen :P

Mein Post war wohl auch nicht eindeutig genug....ich meinte damit, das sich ATI auf das Minimum von 512 beschränkt, da Sie die SM3.0 funktionalität über eine Methode bereitstellen, die eigentlich schon viel früher nicht mehr wirklich das Gelbe vom Ei darstellt.....

F-Buffer 3 ist da das Zauberwort...Demi meinte mal, das es durchaus über sowas realisierbar wäre....(und durchaus auch "relativ" performant).

reunion
2005-01-19, 16:35:31
Mein Post war wohl auch nicht eindeutig genug....ich meinte damit, das sich ATI auf das Minimum von 512 beschränkt, da Sie die SM3.0 funktionalität über eine Methode bereitstellen, die eigentlich schon viel früher nicht mehr wirklich das Gelbe vom Ei darstellt.....

F-Buffer 3 ist da das Zauberwort...Demi meinte mal, das es durchaus über sowas realisierbar wäre....(und durchaus auch "relativ" performant).

Würde man SM3 über den F-Buffer realisieren, wüsste ich keinen Grund warum man sich auf "nur" 512 Slots beschränkt.