PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R600 schon im dritten Quartal 2006?


Seiten : [1] 2 3 4 5 6

Enterprise
2006-01-21, 22:25:52
Hallo!

Wir nähern uns mit großen Schritten dem R580 Launch und dann wird es vorraussichtlich noch im März den G71 von nV geben, dann ist es aber erstmal still. Aber schon Mitte 2006 soll es ja schon die ersten Direct3D10 Chips geben wie dem R600. Sehr wahrscheinlich wird dieser den R400 und den Xenos aus der Xbox 360 beerben und Unified Shader einführen, alles passend zu Windows Vista mit WGF 2.0 . Ich denke das wir mit dem G80 und dem R600 mit neuen Architekturen (U.S.) die intressantesten Chips des Jahres sehen werden. Fragliich bleibt nur ob die Chips es dieses mal insbesondere von ATi pünktlich schaffen und nicht bis zum Q4 gewartet werden muss, zumal für Upgrader dieses mal mit R600/G80 ein intressantes Stück Technik sich zum Intel "Conroe" gesellen könnte, welcher ja auch dieses Jahr kommt.


Mit freundlichen Grüßen

EnTeRpRiSe

Winter[Raven]
2006-01-21, 22:37:06
G80 müsste ~Juni da sein...

PingpiN
2006-01-21, 22:38:40
LoL d wenn de G71 erst zur Cebit kommt,kommt der G80 bestimmt nicht in märz. :rolleyes: :biggrin:

Gandharva
2006-01-21, 22:38:53
Schuss ins Blaue:

R600:

- 64 US
- 24 TMUs
- 24 ROPs
- GDDR4
- ~750 MHz

Enterprise
2006-01-21, 22:39:42
Ich weiß Unified Shader sind nicht das Allheilmittel aber sollte der G80 nicht nochmals getrennte Einheiten haben?

Gandharva
2006-01-21, 22:40:10
LoL d wenn de G71 erst zur Cebit kommt,kommt der G80 bestimmt nicht in märz. :rolleyes: :biggrin:Lern lesen. Danke.

reunion
2006-01-21, 22:43:04
']G80 müsste ~Juni da sein...


Viel zu früh.

Winter[Raven]
2006-01-21, 22:44:58
LoL d wenn de G71 erst zur Cebit kommt,kommt der G80 bestimmt nicht in märz. :rolleyes: :biggrin:

Wie Demi gestern schon geschrieben hat, besitzt er ein Techpaper zu einem US Chip von Nvidia. Microsoft plant im Juni eine Vorführung der D3D10 Technik auf irgendeiner Dev-Messe, Ritual wird die Engine dafür liefern.

Nvidia sollte es eigentlich hinbekommen.

//EDIT:
Lieferbarkeit ist eine andere Frage bzw. die off. Vorstellung.

Enterprise
2006-01-21, 22:46:47
Ich hoffe ich nerv nicht aber wo hat er das geschrieben?

SKYNET
2006-01-21, 22:48:22
Viel zu früh.


*hüstel*

Winter[Raven]
2006-01-21, 22:48:50
Ich hoffe ich nerv nicht aber wo hat er das geschrieben?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3898563&postcount=1384

reunion
2006-01-21, 22:49:23
Schuss ins Blaue:

R600:

- 64 US
- 24 TMUs
- 24 ROPs
- GDDR4
- ~750 MHz

64ALUs sind viel zu wenig, bereits Xenos hat 48. Ich rechen mit ~128, unter der Voraussetzung, dass diese ähnlich stark wie bei Xenos werden. Dazu 32TMUs (dank GDDR4), 16 ROPs. Hergestellt vermutlich in 80nm.

Enterprise
2006-01-21, 22:56:59
64ALUs sind viel zu wenig, bereits Xenos hat 48. Ich rechen mit ~128, unter der Voraussetzung, dass diese ähnlich stark wie bei Xenos werden. Dazu 32TMUs (dank GDDR4), 16 ROPs. Hergestellt vermutlich in 80nm.

Nicht mehr ROPs als heute ?

Demirug
2006-01-21, 22:58:35
']Wie Demi gestern schon geschrieben hat, besitzt er ein Techpaper zu einem US Chip von Nvidia.

Immer langsam mit den jungen Pferden. Ich habe auch schon schon ein Papier zu einem DR Chip von nVidia gehabt. Das es Papier gibt heist noch lange nicht das es auch gebaut wird. Das ganze könnte durchaus aus der Phase stammen als Microsoft für DX-Next einen Hardware US fordern wollte.

Enterprise
2006-01-21, 23:00:16
Immer langsam mit den jungen Pferden. Ich habe auch schon schon ein Papier zu einem DR Chip von nVidia gehabt. Das es Papier gibt heist noch lange nicht das es auch gebaut wird. Das ganze könnte durchaus aus der Phase stammen als Microsoft für DX-Next einen Hardware US fordern wollte.


DR Chip? DR?

RLZ
2006-01-21, 23:04:41
An welchem Punkt könnte man gegenüber einem US eigentlich noch sparen? Die Shader müssen doch abgesehen vom Input/Output die gleiche Funktionalität besitzen.

Gandharva
2006-01-21, 23:16:41
64ALUs sind viel zu wenig, bereits Xenos hat 48. Ich rechen mit ~128, unter der Voraussetzung, dass diese ähnlich stark wie bei Xenos werden. Dazu 32TMUs (dank GDDR4), 16 ROPs. Hergestellt vermutlich in 80nm.Und wie soll ATI die 128 US + Ringbus + AAA etc... deiner Meinung nach da reinpferchen?

up¦²
2006-01-21, 23:20:29
Zum einrahmen ;)

ATI R600 Specs

64 Shader pipelines (Vec4+Scalar)
32 TMU's
32 ROPs
128 Shader Operations per Cycle
800MHz Core
102.4 billion shader ops/sec
512GFLOPs for the shaders
2 Billion triangles/sec
25.6 Gpixels/Gtexels/sec
256-bit 512MB 1.8GHz GDDR4 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
WGF2.0 Unified Shader

Enterprise
2006-01-21, 23:21:09
Und wie soll ATI die 128 US + Ringbus + AAA etc... deiner Meinung nach da reinpferchen?

Theoretisch hat eine Pixelshader ALU im R580 nur 1,2 Mio Transistoren, was bei 128 Pi mal Daumen 150 Mio Transistoren bei 128 ALUs sein sollten. Der RingBus sollte so 40 Mio Transistoren "wiegen". Und wenn man bedenkt das der der R580 schon 384 Mio Transistoren hat bei 90nm und das nocht geht, dann sollten bei 80nm das noch machbar sein.

Spasstiger
2006-01-21, 23:23:57
Dazu 32TMUs (dank GDDR4) [...] Hergestellt vermutlich in 80nm.

Wie meinst du das mit 32 TMUs danke GDDR4?
Und 80 nm ist kein mir bekannter Fertigungsprozess. Da wird wohl eher 90 nm für High-End und 65 nm für Mainstream zum Einsatz kommen.

Gast
2006-01-21, 23:25:37
Doch TSMC bietet 80nm an. Ist aber eigentlich eher als LowCost-Prozess gedacht.

Gandharva
2006-01-21, 23:26:26
Und 80 nm ist kein mir bekannter Fertigungsprozess. Da hast Du wohl was verpasst: http://www.theinquirer.net/?article=29033

Godmode
2006-01-21, 23:32:37
DR Chip? DR?´

Deferred Renderer

http://www.google.at/search?hl=de&q=Deferred+Rendering&btnG=Suche&meta=

robbitop
2006-01-21, 23:32:53
Wie meinst du das mit 32 TMUs danke GDDR4?
Und 80 nm ist kein mir bekannter Fertigungsprozess. Da wird wohl eher 90 nm für High-End und 65 nm für Mainstream zum Einsatz kommen.
Aktueller Halfnode Prozess. 110 und 150nm waren ebenfalls Halfnodes.
DR Chip? DR?

Defered Renderer. Vor dem Rendern des Bildes, wird dieses in Kacheln zerlegt (Serie 5 von PVR nutzte hier 32x32er Tiles) überprüfen HSR Units, ob die zu rendernden Pixel im aktuellen Tilen sichtbar sind, oder nicht. Dafür brauchte es einen Cache, der die Z Werte dieses Tiles komplett hielt. Alle nicht sichtbaren Z Werte wurden vorher aussortiert. Das fertige Tile geht nun erst an das Trisetup und danach in den Pixelprozessor. Vorteil: es wird weniger externe Z Bandbreite benötigt, da Z Reads prinzipiell nicht mehr nötig sind.
Außerdem ist es effektiver als die Overdrawsenkenden Mechanismen wie HyperZ.
PVRs Renderer arbeiteten/arbeiten nach diesem Prinzip.

Spasstiger
2006-01-21, 23:49:22
Da hast Du wohl was verpasst: http://www.theinquirer.net/?article=29033

Ja, hab ich tatsächlich nicht mitbekommen. Ist aber wohl trotzdem ein Prozess, der für Mainstream bestimmt ist.
Im High-End-Bereich haben ja ATI und Nvidia die Kostenersparnis nicht nötig und die Verlustleistung ist auch nicht das entscheidende Kriterium im High-End.

Coda
2006-01-22, 00:06:10
64ALUs sind viel zu wenig, bereits Xenos hat 48. Ich rechen mit ~128, unter der Voraussetzung, dass diese ähnlich stark wie bei Xenos werden. Dazu 32TMUs (dank GDDR4), 16 ROPs. Hergestellt vermutlich in 80nm.128 ALUs/32 TMUs war auch meine Schätzung bisher.

Spasstiger
2006-01-22, 00:08:49
128 ALUs/32 TMUs war auch meine Schätzung bisher.

Und wieviele ROPs? Limitieren 16 ROPs heute schon?

robbitop
2006-01-22, 00:15:59
Ja, hab ich tatsächlich nicht mitbekommen. Ist aber wohl trotzdem ein Prozess, der für Mainstream bestimmt ist.
Im High-End-Bereich haben ja ATI und Nvidia die Kostenersparnis nicht nötig und die Verlustleistung ist auch nicht das entscheidende Kriterium im High-End.
Halfnodes müssen kein schlechter Prozess sein. Siehe 110nm (G70) und 150nm (R360).

Coda
2006-01-22, 00:19:16
Und wieviele ROPs? Limitieren 16 ROPs heute schon?Nö. 16 ROPs dürften reichen, solang es bei einem 256 Bit SI bleibt (wovon auszugehen ist).

Wechselbalg
2006-01-22, 00:36:31
128 ALUs/32 TMUs war auch meine Schätzung bisher.

Ich muss sagen, dass sich das mMn nach irgendwie nach sehr viel anhört. Im Vergleich zum Xenos wäre das ja zumindest in den Bereichen mindestens eine Verdoppelung und der lag schon ohne Tochter Die bei ~220 Millionen??? Transistoren und R600 sollte noch ein paar Features draufpacken. Oder übersehe ich etwas?

mapel110
2006-01-22, 00:40:14
Mit 32 TMUs wirds aber eng auf dem DIE, wenn die D3D10-Features wie Geometri-Prozessor auch einiges kosten sollen.
Oder gehen mit 80nm über 500 Mio Transistoren?
Ich glaub irgendwie nicht so recht.

Coda
2006-01-22, 01:08:25
Bei nem Unified-Shader kostet der Geo-Shader fast nichts.

RLZ
2006-01-22, 01:18:49
Bei nem Unified-Shader kostet der Geo-Shader fast nichts.
Sind aber hier ein paar Transistoren, dann werden die ALUs teurer wegen den neuen Integeroperationen, vielleicht muss man noch etwas an den TMUs ändern wegen der TAs usw.
Ob man wirklich eine solch massive Leistungssteigerung erwarten kann bezweifel ich auch irgendwie.

Coda
2006-01-22, 01:26:30
2x C1 sind keine enormen Leistungssteigerungen ;)

robbitop
2006-01-22, 01:28:43
2x C1 sind keine enormen Leistungssteigerungen ;)
+Erhöhung der Taktraten schon :)

Ailuros
2006-01-22, 02:00:46
robbi,

http://www.pvrgenerations.co.uk/articles/2005/pvrsgx/SGX2big.jpg

Nur mal um den Datenfluss bei SGX etwas besser zu verstehen.

Uebrigens ist der PowerVR ein Tile Based Deferred Renderer. Muss ein DR wirklich auch tile based sein?

Sunrise
2006-01-22, 02:15:01
Im High-End-Bereich haben ja ATI und Nvidia die Kostenersparnis nicht nötig und die Verlustleistung ist auch nicht das entscheidende Kriterium im High-End.
Eine Kostenersparnis ist eigentlich immer anzustreben, selbst im High-End-Sektor. Die Nötigkeit ergibt sich alleine schon daraus, dass High-End-Chips, wenn sie länger im Programm bleiben werden, eben auch möglichst kostengünstig herzustellen sein sollten, damit man die Margen maximieren kann, wenn die Konkurrenz an der Reihe ist, und die Preise etwas unter Druck geraten, oder man sich ein Hintertürchen für potentielle (starke) Preissenkungen offen lassen möchte.

Auf die neue Fertigungsstraße bei TSMC kann relativ schnell portiert werden, da die 80nm Half-Node auch erstmals direkt ab Einführung mehrere Targets für alle möglichen Designs bietet. Man hat hier also auch beste Voraussetzungen für eine günstigere Produktion, mit relativ minimalem Aufwand.

Wenn es technisch mit dem angedachten Design möglich wäre, dann würde jeder IHV die Verlustleistung auf das Minimum reduzieren und passiv kühlen oder die Karten als Single-Slot-Ausführung (ein großer Bonuspunkt der 7800GT/GTX) auf den Markt bringen. Verlustleistung kann also auch hier durchaus für sehr viele Käufer kaufentscheidend sein.

Spasstiger
2006-01-22, 04:32:59
Wir haben halt an der Uni gelernt, dass Strukturverkleinerungen eigentlich nur wegen der Kostenersparnis und der damit verbundenen Konkurrenzfähigkeit angestrebt werden. Dass dabei auch mal die Verlustleistung gesenkt werden kann (muss aber nicht), ist nur ein angenehmer Nebeneffekt.

Deshalb werden Fertigungen in kleineren Strukturbreiten zunächst an den Midrange-Produkten getestet. Bei den High-End-Chips ging man ja in der Vergangenheit häufiger auf Nummer Sicher und blieb dort bei den alten Fertigungsverfahren.

Die Ersparnis beim Wechsel von 90nm auf 80nm soll ja 25 cent je Chip betragen. Das ist nicht wirklich viel und kann bei den High-End-Chips sogar zu wenig sein, wenn nachher die Ausbeute je Wafer zu gering ist, weil man das Verfahren noch nicht so gut beherrscht wie das Alte.
Bei Midrange-Chips ist ja die Ausbeute naturgemäß besser (entweder sind die Chips kleiner oder es sind Chipfehler zulässig, da man defekte Einheiten auch deaktivieren kann).

Mal abwarten, ob der G80 und der R600 nun in 80nm oder noch in 90nm kommen. Vielleicht wird das 80nm Verfahren ja auch schon bei den kommenden Midrange-Produkten erprobt (z.b. Radeon X1700 und GeForce 7800), dann wäre 80nm auch bei der nächsten High-End-Generation gut vorstellbar. Dann könnte Ende des Jahre bis Anfang nächstens Jahres im Midrange sogar schon 65nm eingesetzt werden. Kommt mir allerdings noch etwas zu früh vor, denn so hätte man die CPUs ja schon eingeholt. ;)

doom1
2006-01-22, 07:50:04
Wer auf die neuen wartet hat doch schon in Gedanken Vista inst. ich denke ihr haßt das so :biggrin:

reunion
2006-01-22, 10:37:56
Und wie soll ATI die 128 US + Ringbus + AAA etc... deiner Meinung nach da reinpferchen?

Hast du irgendeine plausible Begründung, für deine skepsis?
Xenos dürfte ohne eDRAm irgendwo bei ~250mio Transistoren landen, da ist noch jedemange Platz.

reunion
2006-01-22, 10:42:56
Wie meinst du das mit 32 TMUs danke GDDR4?


Ohne entsprechender Bandbreite machen mehr TMUs nicht wirklich Sinn.


Und 80 nm ist kein mir bekannter Fertigungsprozess. Da wird wohl eher 90 nm für High-End und 65 nm für Mainstream zum Einsatz kommen.

80nm wird ATi bei RV560, RV535, und RV505 verwenden. Daher liegt es IMHO sehr nahe, dass man diesen Prozess auch für R600 verwendet. Für 65nm ist es noch viel zu früh, und 90nm ist durch R580 bereits ausgereizt IMO.

Ailuros
2006-01-22, 10:57:49
Ohne entsprechender Bandbreite machen mehr TMUs nicht wirklich Sinn.

Wie wird dann das ALU<->TMU ratio auf R600 aussehen?

reunion
2006-01-22, 11:05:47
Wie wird dann das ALU<->TMU ratio auf R600 aussehen?


Da die ALUs auch die Vertexarbeiten erledigen müssen, hängt das von der Vertexlast ab. Je nach Szenarion schätzungsweise 3 - 3.5 : 1. Warum?

(Natürlich unter der Voraussetzung, dass meine Spekulationen auch stimmen. :D )

Ailuros
2006-01-22, 11:11:45
Da die ALUs auch die Vertexarbeiten erledigen müssen, hängt das von der Vertexlast ab. Je nach Szenarion schätzungsweise 3 - 3.5 : 1. Warum?

(Natürlich unter der Voraussetzung, dass meine Spekulationen auch stimmen. :D )

Was hat Vertexlast hier zu tun wenn ich an Xenos denke? R600 ALUs werden sowieso wahrscheinlich PS/VS/GS behandeln.

Xenos = 48:16

Jetzt rechne mal die ALUs einer R600 nach oben und sag mir wieviele TMUs Du mit dem 3 oder 3.5 Ratio genau bekommst?

reunion
2006-01-22, 11:16:44
Was hat Vertexlast hier zu tun wenn ich an Xenos denke? R600 ALUs werden sowieso wahrscheinlich PS/VS/GS behandeln.

Xenos = 48:16


Naja, da bei Xenos, wie du schon sagst die ALUs auch die PS/VS/GS behandeln, und nicht nur die PS wie bei heutigen Architekturen, sollte man das auch berücksichtigen IMHO.


Jetzt rechne mal die ALUs einer R600 nach oben und sag mir wieviele TMUs Du mit dem 3 oder 3.5 Ratio genau bekommst?

Bei 128 : 32 wäre das genau 4:1.
Wobei ich nicht verstehe, auf was du hinaus willst? :confused:

Ailuros
2006-01-22, 11:31:38
Naja, da bei Xenos, wie du schon sagst die ALUs auch die PS/VS/GS behandeln, und nicht nur die PS wie bei heutigen Architekturen, sollte man das auch berücksichtigen.

Xenos kann keine GS behandeln sonst waere er auch mehr als SM3.0 kompliant. Ich sehe hier trotz allem keinen Grund die Vertexlast mitzurechnen.

Bei 128 : 32 wäre das genau 4:1.
Wobei ich nicht verstehe, auf was du hinaus willst? :confused:

Ergo braucht man wohl doch 32 TMUs wenn man die Anzahl der ALUs nach oben skaliert und es war nur eine Antwort auf Deinen Satz wo Du sagtest dass ohne mehr Bandbreite 32 TMUs nicht viel Sinn machen wuerden.

Mehr Bandbreite braucht ein Design mit so vielen US/ALUs erstmal so oder so. Mich interessiert in diesem Fall eher worueber eine jegliche zukuenftige TMU (oder TMU-array) genau faehig ist, als die Anzahl dieser an fuer sich.

Vertex und Geometry texturing muss erstmal gehen.

reunion
2006-01-22, 11:36:41
Xenos kann keine GS behandeln sonst waere er auch mehr als SM3.0 kompliant. Ich sehe hier trotz allem keinen Grund die Vertexlast mitzurechnen.


Mein Fehler, ich meinte natürlich R600.

robbitop
2006-01-22, 11:45:42
Uebrigens ist der PowerVR ein Tile Based Deferred Renderer. Muss ein DR wirklich auch tile based sein?
Ich beschrieb oben ja einen TBDR. Ein DR sollte IMO ein TBDR sein, da man nur so externe Bandbreite sparen kann (die Z Caches können dann nämlich auf Caches innerhalb der GPU ablaufen).
Im Prinzip ist bereits ein Z-Firstpass Renderer ein Defered Renderer (Doom3 macht das ja per Software bsw). Nur benötigt er zum Rendern 2 Pässe und spart eben keine Bandbreite.

Ailuros
2006-01-22, 12:02:35
Ich beschrieb oben ja einen TBDR. Ein DR sollte IMO ein TBDR sein, da man nur so externe Bandbreite sparen kann (die Z Caches können dann nämlich auf Caches innerhalb der GPU ablaufen).

Im Prinzip ist bereits ein Z-Firstpass Renderer ein Defered Renderer (Doom3 macht das ja per Software bsw). Nur benötigt er zum Rendern 2 Pässe und spart eben keine Bandbreite.

Das zeigt aber auch nur dass ein deferred renderer auch theoretisch ohne TB moeglich waere.

Wechselbalg
2006-01-22, 12:14:08
Die Vertexlast wäre vielleicht nur zu erwähnen, wenn man bisherigen Architekturen vergleicht, wo man ja meistens sagt, dass z.B. R580 48 ALUs und 16 TMUs hat, aber die Vertexpipelines ja eigentlich auch noch mal ALUs haben, oder stehe ich auf dem Schlauch?

Aber ich würde weiterhin sagen, dass 32 TMUs und 128 ALUs mMn nach zu viel wäre. Wenn Xenos wirklich gar um die 250 Millionen Transistoren hat und man die TMU Zahl verdoppelt und die ALUs sogar mehr als verdoppelt und dann zumindest ein paar weitere Features erwartet(auch wenn diese relativ billig vom Transistoraufwand sein mögen), die Xenos nicht hatte, klingt das für mich so, als ob man einen weitaus kleineren Fertigungsprozess braucht um das zu schultern. Saßen bei Xenos auf dem Tochter Die nicht auch noch ein paar Dinge wie die ROPs, oder war das reiner embedded Ram?

Das würde dann ja fast auf 500+X Millionen Transistoren rauslaufen und dass kann ich mir mit vernünftigen Taktraten irgendwie kaum vorstellen. Ein gleiches Verhältnis mit kleineren Nummern erscheint mir da irgendwie erst mal realistischer. Vielleicht 24 TMUs und 96 ALUs.

Ailuros
2006-01-22, 12:24:44
Ja ROPs und relevante Logik sitzen auf dem Xenos Tochter-die.

Vorsicht aber eine X-prozentige Erhoehung gewisser Einheiten heisst nicht unbedingt X-mal so wiel Transistoren.

Von 222M/NV40 kam NVIDIA auf 302M/G70. Auf ersten Blick sind es 50% mehr quads, aber allein die Erweiterung der ALUs zwischen den beiden Archikturen kostet so manche Transistoren + weitere kleinere Aenderungen.

robbitop
2006-01-22, 12:26:20
Das zeigt aber auch nur dass ein deferred renderer auch theoretisch ohne TB moeglich waere.
Nicht nur theoretisch. Der Deltachrome war ursprünglich ein FirstZ Renderer. Ich glaube aber nicht, dass er wirklich darauf ausgelegt worden ist. Da stimmt vieles hinten und vorne nicht.
Wenn schon ein DR dann sollte es auch ein TBDR sein IMO.

Ailuros
2006-01-22, 12:30:31
Nicht nur theoretisch. Der Deltachrome war ursprünglich ein FirstZ Renderer. Ich glaube aber nicht, dass er wirklich darauf ausgelegt worden ist. Da stimmt vieles hinten und vorne nicht.
Wenn schon ein DR dann sollte es auch ein TBDR sein IMO.


http://www.beyond3d.com/articles/deflight/

Deferred Lighting is now possible in hardware on the latest video cards, it has an own unique advantages and disadvantages and while in many cases the disadvantage out way the advantages on current hardware in the right situations it can outperform and look better than conventional per-pixel lighting. In situations with complex procedural shaders with many lights and shadows, the saving can be massive this is even truer in densely occluded environments. The same techniques used to accelerate objects (batching etc) can be used to accelerate lights, and if a light isn’t visible its cost is very low.

In the long term the occlusion and geometric properties of deferred lighting are its most interesting factors, no other technique allows you to render so many lights affecting a single surface without crippling performance, with deferred lighting it scales much better.

robbitop
2006-01-22, 12:32:39
Von 222M/NV40 kam NVIDIA auf 302M/G70. Auf ersten Blick sind es 50% mehr quads, aber allein die Erweiterung der ALUs zwischen den beiden Archikturen kostet so manche Transistoren + weitere kleinere Aenderungen.
Absolut.
Ein Pixelquad beim NV40 ist gar nicht mal sooo teuer. NV42 besitzt laut NV 202 Mio Transistoren ... 3 Quads. Ich bin mir nicht sicher, ob wirklich in HW auch nur 5VS verbaut worden sind. Aber wenn die Angabe stimmt, kostet ein solcher Quad <20Mio Transistoren. Ein purer 6 Quad NV40 wäre also mit ~260 Mio Transistoren möglich gewesen.
Allerdings wundert dann der Abstand zw NV43 und NV42 wieder. (202-146)Mio. Sind 56 Mio. Für ein Quad, 2-3 VS und 12 ROPs. Vermutlich waren die FP16 ROPs ziemlich teuer.

Jedenfalls floß beim G70 noch einiges an Transistoren für die pro Taktleistung hinzu. Und das merkt man in neueren Spielen natürlich auch.

Wechselbalg
2006-01-22, 12:37:06
Ja ROPs und relevante Logik sitzen auf dem Xenos Tochter-die.

Vorsicht aber eine X-prozentige Erhoehung gewisser Einheiten heisst nicht unbedingt X-mal so wiel Transistoren.

Von 222M/NV40 kam NVIDIA auf 302M/G70. Auf ersten Blick sind es 50% mehr quads, aber allein die Erweiterung der ALUs zwischen den beiden Archikturen kostet so manche Transistoren + weitere kleinere Aenderungen.

Gut. Ist letzen Endes natürlich immer eine Milchmädchenrechnung ohne genauere Kenntnisse. Wobei die ROPs dann ja bei G70 eben zum Beispiel nicht mitskalierten und hier noch die Anzahl der Vertexshader nicht prozentual so stark wuchs. Ich fand den Sprung bei G70 in der Tat recht klein, aber kann mir wenn bei Xenos noch nicht einmal die ROPs integriert waren nicht vorstellen, dass es in heutige Fertigungsprozesse mit solchen Zahlen passen würde. Oder wie hoch würdest du den Transistorcount bei den spekulativen 32 TMUs und 128 ALUs einschätzen?

Gmax
2006-01-22, 12:38:56
Ähm, also der R600 soll tatsächlich Mitte des Jahres
kommen?
Wenn das stimmt, dann überspring ich den R580 ganz einfach :rolleyes:

Gast
2006-01-22, 12:39:34
Im Prinzip ist bereits ein Z-Firstpass Renderer ein Defered Renderer (Doom3 macht das ja per Software bsw). Nur benötigt er zum Rendern 2 Pässe und spart eben keine Bandbreite.

klar spart man auch dort bandbreite, sonst würde man es ja nicht machen, allerdings natürlich nich so viel wie bei einem TBDR in hardware.

Ailuros
2006-01-22, 12:45:50
Gut. Ist letzen Endes natürlich immer eine Milchmädchenrechnung ohne genauere Kenntnisse. Wobei die ROPs dann ja bei G70 eben zum Beispiel nicht mitskalierten und hier noch die Anzahl der Vertexshader nicht prozentual so stark wuchs.

Auch in den G70 ROPs gab es kleinere Aenderungen wenn ich mich nicht irre.

Ich fand den Sprung bei G70 in der Tat recht klein, aber kann mir wenn bei Xenos noch nicht einmal die ROPs integriert waren nicht vorstellen, dass es in heutige Fertigungsprozesse mit solchen Zahlen passen würde. Oder wie hoch würdest du den Transistorcount bei den spekulativen 32 TMUs und 128 ALUs einschätzen?

Eine Xenos ALU ist ueber einen MADD faehig; ohne zu wissen ueber was genau eine R600 ALU genau faehig ist, ist jegliche Schaetzung nutzlos.

Ich hab eine andere Frage stattdessen: warum 128 ALUs/1 MADD und nicht sagen wir mal 96 ALUs/2 MADDs? Und nein ich kann bei bestem Willen mit meinem Wissensniveau das Zeug nicht selber ausrechnen.

Coda
2006-01-22, 12:49:25
+Erhöhung der Taktraten schon :)Das war eingerechnet...

4:1 wirds mindestens, da bin ich mir sicher bei ATI. Also entweder 96/24 oder 128/32, wobei ersteres einfach zu wenig Leistung wäre.

Ailuros
2006-01-22, 13:03:14
Das war eingerechnet...

4:1 wirds mindestens, da bin ich mir sicher bei ATI. Also entweder 96/24 oder 128/32, wobei ersteres einfach zu wenig Leistung wäre.

Ich hab aber ein anderes Dilemma als Frage zur Debatte beigefuegt; Du gehst wohl davon aus dass eine Xenos und R600 ALU ueber die gleiche Anzahl von FP OPs verfuegen oder?

In Deinem Beispiel oben waere aber auch das folgende moeglich:

128 * 8 FLOPs * 0.75 GHz = 768 GFLOPs
96 * 16 FLOPs * 0.75 GHz = 1152 GFLOPs

In diesem Fall ist natuerlich die zweite These um einiges schneller, aber die Frage bleicht: was garantiert mir dass die R600 ALUs ueber gleich viel OPs als Xenos ALUs faehig sein werden. Mit 4 FP32 pro Takt pro ALU kommt man auch mit "nur" 64 ALUs aus, wenn das Ziel tatsaechlich rund um die 770GFLOPs waere....

Coda
2006-01-22, 13:11:22
4 MADDs pro Pipeline kannst du nicht mehr auslasten. Das sättigt sich irgendwo bei 2 schon.

Das ist das gleiche Dilemma wie bei CPUs, da kann man auch nicht einfach mehr Einheiten dranflanschen für mehr Leistung.

robbitop
2006-01-22, 13:12:58
klar spart man auch dort bandbreite, sonst würde man es ja nicht machen, allerdings natürlich nich so viel wie bei einem TBDR in hardware.
Ich sprach von Z-Bandbreite (ggü einem IMR mit 1 Renderpass). Man spart vor Allem Füllrate und Shaderleistung. Z-Reads und Z-Checks müssen im Z Pass auf jeden Fall gemacht werden. Bandbreite für den Color buffer spart man im Rendervorgang natürlich damit. Aber die würde der TBDR sowieso auch sparen.

Winter[Raven]
2006-01-22, 13:19:38
Ähm, also der R600 soll tatsächlich Mitte des Jahres
kommen?
Wenn das stimmt, dann überspring ich den R580 ganz einfach :rolleyes:

Nein, mitte des Jahres wird Nvidia erwartet, ATI folgt dann im bestenfall Q3 wenn nicht Q4.

Gast
2006-01-22, 13:44:01
Besteht eigentlich die Chance, dass wir beim R600 bzw. irgendwann in absehbarer Zeit bei PC-GPUs eDRAM spendiert bekommen?

Bei der Xbox360 hat dies ja auch so seine unschätzbaren Vorteile und mit VRAM werden auch in Zukunft die Grafikkarten nicht gerade gesegnet sein und man kann eh nie genug davon haben. ;)

reunion
2006-01-22, 14:25:16
Die Vertexlast wäre vielleicht nur zu erwähnen, wenn man bisherigen Architekturen vergleicht, wo man ja meistens sagt, dass z.B. R580 48 ALUs und 16 TMUs hat, aber die Vertexpipelines ja eigentlich auch noch mal ALUs haben, oder stehe ich auf dem Schlauch?


Nein.


Aber ich würde weiterhin sagen, dass 32 TMUs und 128 ALUs mMn nach zu viel wäre. Wenn Xenos wirklich gar um die 250 Millionen Transistoren hat und man die TMU Zahl verdoppelt und die ALUs sogar mehr als verdoppelt und dann zumindest ein paar weitere Features erwartet(auch wenn diese relativ billig vom Transistoraufwand sein mögen), die Xenos nicht hatte, klingt das für mich so, als ob man einen weitaus kleineren Fertigungsprozess braucht um das zu schultern. Saßen bei Xenos auf dem Tochter Die nicht auch noch ein paar Dinge wie die ROPs, oder war das reiner embedded Ram?


Das "Haupt"-Die hat AFAIK 230mio Transistoren, das Daughter-Die 100mio, wobei davon circa 80mio den eDRAM zugerechnet werden, macht also ungefair 250mio für Xenos ohne eDRAM.

Ohne zu wissen, wieviel eine ALU, bzw. eine TMUs kostet, sind deine Rechnungen wenig sinnvoll. Wenn man von Xenos ausgeht, erscheint mir diese 128ALU/32TMU-These jedenfalls als durchaus realistsich. Aber wie immer wird nur die Zeit zeigen, wer Recht behält.


Das würde dann ja fast auf 500+X Millionen Transistoren rauslaufen und dass kann ich mir mit vernünftigen Taktraten irgendwie kaum vorstellen. Ein gleiches Verhältnis mit kleineren Nummern erscheint mir da irgendwie erst mal realistischer. Vielleicht 24 TMUs und 96 ALUs.

Bei gleicher Die-Größe wie bei R580 oder G70 wären in 80nm annähernd 500mio Transitoren möglich.

Coda
2006-01-22, 14:29:14
Also ich komme auf rechnerisch 25% mehr Die-Fläche von 90nm->80nm.

Wieviel Transistoren hat R580 denn?

reunion
2006-01-22, 14:30:18
Also ich komme auf rechnerisch 25% mehr Die-Fläche von 90nm->80nm.

Wieviel Transistoren hat R580 denn?

384mio.

Coda
2006-01-22, 14:31:52
Also 480 Mio. wärens bei gleicher Die-Fläche dann. Das reicht imho gut für 128/32. Vor allem weil ja auch seperate Vertexshader wegfallen.

reunion
2006-01-22, 14:34:39
Eben.
Wobei R580 noch immer relativ klein ist - G70 ist AFAIK größer.
Diese 480mio Transistoren sollte also mindestens drin sein, die Die-Größe steigt ja auch stetig an.

Spasstiger
2006-01-22, 14:43:12
Eben.
Wobei R580 noch immer relativ klein ist - G70 ist AFAIK größer.

G70 ist schon kleiner als der R520 und damit viel kleiner als der R580.
G70 = 302 Mio. Transis

Ailuros
2006-01-22, 14:46:33
4 MADDs pro Pipeline kannst du nicht mehr auslasten. Das sättigt sich irgendwo bei 2 schon.

Das ist das gleiche Dilemma wie bei CPUs, da kann man auch nicht einfach mehr Einheiten dranflanschen für mehr Leistung.

Wie soll ich das jetzt verstehen? Eine Xenos ALU ist schon ueber 4 MADDs faehig.

Sunrise
2006-01-22, 14:48:15
Wir haben halt an der Uni gelernt, dass Strukturverkleinerungen eigentlich nur wegen der Kostenersparnis und der damit verbundenen Konkurrenzfähigkeit angestrebt werden. Dass dabei auch mal die Verlustleistung gesenkt werden kann (muss aber nicht), ist nur ein angenehmer Nebeneffekt.

Deshalb werden Fertigungen in kleineren Strukturbreiten zunächst an den Midrange-Produkten getestet. Bei den High-End-Chips ging man ja in der Vergangenheit häufiger auf Nummer Sicher und blieb dort bei den alten Fertigungsverfahren.
Das ist schon korrekt so, da hast du nichts Falsches gelernt. Interessant wird es allerdings ab dem Punkt, wenn allgemein-gehaltenes Wissen plötzlich versagt, und bestimmte Märkte, Anforderungen und/oder Bedürfnisse angesprochen werden. Im Sinne von Anforderungen kann die Kostenersparnis dann ebenso ein "günstiger Nebeneffekt" sein, weil ein neuer, "besserer" Fertigungsprozess bereits erprobt ist, der die gewünschten Resultate innerhalb dieses Marktes erzielt. Das aber nur am Rande erwähnt.

Die Ersparnis beim Wechsel von 90nm auf 80nm soll ja 25 cent je Chip betragen. Das ist nicht wirklich viel und kann bei den High-End-Chips sogar zu wenig sein, wenn nachher die Ausbeute je Wafer zu gering ist, weil man das Verfahren noch nicht so gut beherrscht wie das Alte.
Bei Midrange-Chips ist ja die Ausbeute naturgemäß besser (entweder sind die Chips kleiner oder es sind Chipfehler zulässig, da man defekte Einheiten auch deaktivieren kann).
Bei dem Thema Ausbeute muss man gerade bei dem Sprung von 90nm -> 80nm bedenken, dass dies ein eher spezieller Sprung ist, also eine Half-Node und keine neue (vollwertige) Node. Es ist nur ein optischer Shrink, bei dem sich die Ausbeute nur minimalst verschlechtern sollte, wenn überhaupt, da dieser Prozess parallel zur vollwertigen 90nm-Node läuft und alle Verbesserungen, die Reife und prozesstechnische Parameter angehen, hier übernommen werden.

Dass die Ausbeute bei MidRange-Chips "besser" ist, hängt natürlich stark vom eigentlichen Design ab, im Prinzip ist das schon korrekt so, denn es hängt maßgeblich davon ab, wie komplex und/oder redundant ein Design ausgelegt ist.

Wie du allerdings auf diese "25 cent"-Angabe kommst, ist mir ehrlich gesagt schleierhaft, vielleicht könntest du das mal näher ausführen. Du meintest wohl eher "25 percent" oder ?

Mal abwarten, ob der G80 und der R600 nun in 80nm oder noch in 90nm kommen. Vielleicht wird das 80nm Verfahren ja auch schon bei den kommenden Midrange-Produkten erprobt (z.b. Radeon X1700 und GeForce 7800), dann wäre 80nm auch bei der nächsten High-End-Generation gut vorstellbar. Dann könnte Ende des Jahre bis Anfang nächstens Jahres im Midrange sogar schon 65nm eingesetzt werden. Kommt mir allerdings noch etwas zu früh vor, denn so hätte man die CPUs ja schon eingeholt. ;)
Die Low- und MidEnd-Kategorie betreffend, wird dies sogar sehr sicher kommen, denn RV505 befindet sich bereits im Sampling-Status. Einige andere SKUs, sind natürlich auch schon unterwegs.

Für 65nm ist die Sache noch etwas zu früh, besonders im High-End. Da TSMC hier nach und nach neue Targets einführen wird, und hier auch zum ersten Male SOI zum Einsatz kommen soll. Hier wird ganz sicher wieder auf Low-End bzw. Mid-End-SKUs ausgewichen, um möglichen anfänglichen Problemen hinsichtlich Yield aus dem Weg zu gehen.

Coda
2006-01-22, 14:49:24
Wie soll ich das jetzt verstehen? Eine Xenos ALU ist schon ueber 4 MADDs faehig.Naaa. Das ist ja mit Splitting, dafür brauchts ja nicht mehr Funktionseinheiten.

reunion
2006-01-22, 14:50:20
G70 ist schon kleiner als der R520 und damit viel kleiner als der R580.
G70 = 302 Mio. Transis

Transistorenanzahl != Die-Fläche.

Spasstiger
2006-01-22, 15:08:21
Wie du allerdings auf diese "25 cent"-Angabe kommst, ist mir ehrlich gesagt schleierhaft, vielleicht könntest du das mal näher ausführen. Du meintest wohl eher "25 percent" oder ?
Sollte Cent mit großem C heißen. Und ja, ich hab mich da vertan, sind tatsächlich über 20 Prozent. Dann ist die Kostenersparnis natürlich in jedem Fall lohnenswert.

Transistorenanzahl != Die-Fläche.

Oh, da kann man leicht durcheinanderkommen. Hab nicht bedacht, dass bei der Diskussion die Die-Größe im Fokus stand.

Gandharva
2006-01-22, 16:39:25
64ALUs sind viel zu wenig, bereits Xenos hat 48. Ich rechen mit ~128, unter der Voraussetzung, dass diese ähnlich stark wie bei Xenos werden. Dazu 32TMUs (dank GDDR4), 16 ROPs. Hergestellt vermutlich in 80nm.Also ich hab eher von R580 auf R600 übertagen, denn von Xenos auf R600. Dewegen auch weniger US. Dafür Leistungsfähiger. Das mit den 16ROPs wird wohl wirklich so bleiben. Rentiert sich bei 256Bit wohl einfach nicht.

War da nicht was mit 3:1 Verhältnis bei ATI? Das wollten sie doch lt. einem Interview beibehalten. Oder verwechsle ich da aufgrund meiner mangelnden Kenntisse etwas beim Übertrag auf die US Architektur?

Macht mich nicht fertig, ich will nur besser Verstehen. :)

Ailuros
2006-01-22, 17:34:34
Das 3:1 Verhaeltnis gilt bei ATI eigentlich nur fuer RV530/60, R580 und Xenos. Es muss nicht unbedingt auch fuer R600 gelten.

Ailuros
2006-01-22, 17:36:14
Naaa. Das ist ja mit Splitting, dafür brauchts ja nicht mehr Funktionseinheiten.


Hmmmm.....*rennt schnell weg um durch extra Laien-Leserei aufzuholen*

M2-Master
2006-01-22, 17:42:48
Wie sieht's mit Schätzungen zum G80 aus ?

Gandharva
2006-01-22, 17:45:40
Das 3:1 Verhaeltnis gilt bei ATI eigentlich nur fuer RV530/60, R580 und Xenos. Es muss nicht unbedingt auch fuer R600 gelten.Also ich habe die Aussage so in Erinnerung das ATI es im Bezug auf kommende Spiele für günstiger hält ein 3:1 Verhältnis zu verwenden. Da wäre es doch unsinnig eine Generation danach sofort auf 4:1 umzusteigen. Und was bisher vom X1900 durchgesickert ist, bestätigt doch eigendlich das ein 3:1 Verhältnis momentan sogar noch etwas zu hoch ist, weil die theoretisch vorhandene ALU Leistung (noch) nicht voll genutzt wird. Da könnte ich mir eher 96:32 oder 72:24 vorstellen.

-=CHICKEN=-
2006-01-24, 11:40:47
OT vorschlag:

den r580 thread das "wichtig entloggen"
den r600 thread als "wichtig loggen"

Crushinator
2006-01-25, 10:08:01
*done*

[Edit]
Möge er keine 600+ Seiten bekommen. X-D

Ailuros
2006-01-25, 10:35:49
Also ich habe die Aussage so in Erinnerung das ATI es im Bezug auf kommende Spiele für günstiger hält ein 3:1 Verhältnis zu verwenden. Da wäre es doch unsinnig eine Generation danach sofort auf 4:1 umzusteigen. Und was bisher vom X1900 durchgesickert ist, bestätigt doch eigendlich das ein 3:1 Verhältnis momentan sogar noch etwas zu hoch ist, weil die theoretisch vorhandene ALU Leistung (noch) nicht voll genutzt wird. Da könnte ich mir eher 96:32 oder 72:24 vorstellen.

http://www.beyond3d.com/reviews/ati/r580/images/shaderproj.gif

http://www.beyond3d.com/reviews/ati/r580/index.php?p=02

Ein USC der auf Xenos aufbaut wird weder die extra ADD Faehigkeiten der R580/520 haben, noch extra ALUs fuer VS Einheiten.

Demirug
2006-01-25, 11:39:42
http://www.beyond3d.com/reviews/ati/r580/images/shaderproj.gif

http://www.beyond3d.com/reviews/ati/r580/index.php?p=02

Ein USC der auf Xenos aufbaut wird weder die extra ADD Faehigkeiten der R580/520 haben, noch extra ALUs fuer VS Einheiten.

Ich habe ein kleines Problem mit dieser Grafik. Es werden Anweisungen gezählt. Nun war es aber schon immer so das sich häufig mehrer ALU Anweisungen zu einem einzigen ALU-Befehl zusammen fassen ließen. Textureanweisungen haben dagegen aufgrund des Filters die Eigenschaft mehr als ein Takt zur abarbeitung zu brauchen. Die Grafik verzert daher IMHO den Sachverhalt etwas.

Ailuros
2006-01-25, 11:51:29
Ich habe ein kleines Problem mit dieser Grafik. Es werden Anweisungen gezählt. Nun war es aber schon immer so das sich häufig mehrer ALU Anweisungen zu einem einzigen ALU-Befehl zusammen fassen ließen. Textureanweisungen haben dagegen aufgrund des Filters die Eigenschaft mehr als ein Takt zur abarbeitung zu brauchen. Die Grafik verzert daher IMHO den Sachverhalt etwas.


Da es um ATI geht, benutzen sie ja selber diese "Analysen" um ihr bisheriges 3:1 Verhaeltnis zu gerechtfertigen oder moegliche hoehere Verhaeltnisse in der Zukunft.

Nebenbei motzt ja NV gerade ueber die R580 reviews weil sie nicht an solche Ratios in ihren Architekturen glauben.

Schneid ich mir jetzt einen Zwischenweg hat die eine Seite hoechstwahrscheinlich zu viel und die andere Seite zu wenig TMUs am Ende ;)

Gandharva
2006-01-26, 14:32:38
Schneid ich mir jetzt einen Zwischenweg hat die eine Seite hoechstwahrscheinlich zu viel und die andere Seite zu wenig TMUs am Ende ;)Genau deswegen denke ich das ATI beim R600 das 3:1 Verhältnis erstmal beibehalten wird. Am meisten wird doch wohl der hoffentlich kommende Umstieg von GDDR3 auf GDDR4 für die kommende Generation bringen.

Wechselbalg
2006-01-26, 14:55:51
Wie im Thread aber schon mehrmals angeklungen ist es nicht so gut möglich ein 3:1 ALU/TMU Verhältnis auf einer 'konventionellen' und einer US Architektur zu vergleichen. Erst einmal ist ja ALU nicht gleich ALU und bisher hat niemand die ALUs im Vertexshader da mit reingerechnet. Insgesamt hat R580 ja auch mehr als 48 ALUs, nur sitzen davon eben nicht alle in den Pixelshadern. (Hoffe so kann man es ungefähr sagen)

Daher denke ich schon, dass 4:1 passen dürfte.

Gandharva
2006-01-26, 16:17:49
Danke für die Erklärung.

Rampage 2
2006-01-29, 22:26:12
Also meine Einschätzung:

- gefertigt in 0.065m
- 550++ Millionen Transistoren
- 128 ALU's
- 32 TMU's
- 32 ROP's
- 12 VertexShader-Units
- 2.0 GHz GDDR4 Speichertakt (effektiv)
- 800 MHz Chiptakt
- 512 - 1024MB Grafikspeicher

RLZ
2006-01-29, 22:50:20
Also meine Einschätzung:
*hust*
Begründung?
- gefertigt in 0.065m
TSCM ist grade dabei den 80nm Node einzuführen.
Der 65nm Lowpower Prozess soll auch bald folgen und der notwendige 65nm Highperformance Prozess soll erst im 2. Halbjahr eingeführt werden. Selbst dann wagt man sich nicht direkt mit einem solchen Monsterchip daran.
- 32 ROP's
Wäre mit GDDR4 zumindest mal ganz nett.
Bleibt aber auch noch abzuwarten.
- 12 VertexShader-Units
Warum kein US?
Was ist mit dem GS?
- 2.0 GHz GDDR4 Speichertakt (effektiv)
GDDR4 fängt afaik erst mit 1,4 GHz an.
Falls der schon verbaut wird kriegen wir also noch etwas mehr.
- 512 - 1024MB Grafikspeicher
1024 MB sind imo unwahrscheinlich. Vielleicht für einen Refreshchip.

Rampage 2
2006-01-29, 23:17:00
*hust*
Begründung?

GDDR4 fängt afaik erst mit 1,4 GHz an.
Falls der schon verbaut wird kriegen wir also noch etwas mehr.

1024 MB sind imo unwahrscheinlich. Vielleicht für einen Refreshchip.

Ja aber, du musst bedenken, dass der Chip, viel mehr Transistoren und doppelt so viele Textureinheiten haben wird, wie heutige Highendchips - da
wird der Chip mehr als 1 GHz nicht mitmachen - ich sage dies aus Erfahrung
NV38 -> NV40. Überhaupt ist 1 GHz schon optimistisch, denn die schnellste derzeitige Grafikkarte - die GTX 512 hat 850MHz. Jetzt stell dir vor, die TMU's
werden verdoppelt, die Transistorenzahl steigt und dann soll der Takt trotzdem noch erhöht werden - mehr als 1GHz halte ich für unwahrscheinlich.

Zum RAM: Ja wie gesagt, es ist eine Möglichkeit. Wie du bereits gesagt hast, der Refreshchip wird bestimmt 1GB haben - spätestens wenn UT2007 rauskommt, da dieses ja ebensoviel RAM benötigt.

AnarchX
2006-01-29, 23:29:29
Ja aber, du musst bedenken, dass der Chip, viel mehr Transistoren und doppelt so viele Textureinheiten haben wird, wie heutige Highendchips - da
wird der Chip mehr als 1 GHz nicht mitmachen - ich sage dies aus Erfahrung
NV38 -> NV40. Überhaupt ist 1 GHz schon optimistisch, denn die schnellste derzeitige Grafikkarte - die GTX 512 hat 850MHz. Jetzt stell dir vor, die TMU's
werden verdoppelt, die Transistorenzahl steigt und dann soll der Takt trotzdem noch erhöht werden - mehr als 1GHz halte ich für unwahrscheinlich.



LOL... Der Takt des Speichers hat aber nix mit dem des Cores zu tun!
Du schreibst totalen Unsinn!
Die 512MB GTX hat 550Mhz Core und 1700Mhz DDR (850Mhz) Speicher..

Und GDDR4 fängt halt bei 1,4Ghz -> 2,8Ghz DDR an

Bei der Taktrate vermute ich mal nicht mehr als 700Mhz, wenn ATI auf ein völlig neues Design setzt könnte man viel Leistung auch bei weit weniger Takt erreichen. Aber ich glaube ATI wird sich treu bleiben bei der Taktsteigerung...

Ailuros
2006-01-30, 08:40:19
Und GDDR4 fängt halt bei 1,4Ghz -> 2,8Ghz DDR an

:|

-------------------------------------------------------------

Am meisten haben mir die angeblichen 32 ROPs gefallen LOL. Xenos hat aber komischerweise nur 8 die bis zu 32c/64z faehig sind. ;)

RLZ
2006-01-30, 09:08:52
:|

Hynix und Samsung starten die Massenproduktion mit 1.4 GHz Chips. 2. Halbjahr sind 1.8 geplant. Quellen findet man bei den Herstellern in den Pressemitteilungen.
Warum sollte man zumindest mit dem Topmodell dies nicht auch ausnutzen?

Am meisten haben mir die angeblichen 32 ROPs gefallen LOL. Xenos hat aber komischerweise nur 8 die bis zu 32c/64z faehig sind. ;)
32c/64z ?
Das ist doch erheblich mehr als die Rops auf PC-Karten?
Ich ging immer von 1c/1z oder 1c/2z ohne AA pro Cycle aus. X-D

ShadowXX
2006-01-30, 09:44:17
Hynix und Samsung starten die Massenproduktion mit 1.4 GHz Chips. 2. Halbjahr sind 1.8 geplant. Quellen findet man bei den Herstellern in den Pressemitteilungen.
Warum sollte man zumindest mit dem Topmodell dies nicht auch ausnutzen?


32c/64z ?
Das ist doch erheblich mehr als die Rops auf PC-Karten?
Ich ging immer von 1c/1z oder 1c/2z ohne AA pro Cycle aus. X-D

AFAIK sind die 32c/64z auf den Fall mit 4xMSAA bezogen und dann natürlich als Leistung für alle ROPs zusammen.....(das AA ist quasi "For Free" (und diesemal tatsächlich und nicht nur als spruch)).

Ailuros
2006-01-30, 10:11:15
Ich sagte ja auch "bis zu" ;)

Despite references to 192 processing elements in to the ROP's within the eDRAM we can actually resolve that to equating to 8 pixels writes per cycle, as well as having the capability to double the Z rate when there are no colour operations. However, as the ROP's have been targeted to provide 4x Multi-Sampling FSAA at no penalty this equates to a total capability of 32 colour samples or 64 Z and stencil operations per cycle.

http://www.beyond3d.com/articles/xenos/index.php?p=04

Zwar ist Xenos ein Consolen-Design der fuer niedrigere Aufloesungen und mit eDRAM entwickelt wurde, aber wozu man jetzt ploetzlich auf R6xx gleich 32 ROPs brauchen wuerde kann ich auch nicht unbedingt verstehen.

http://www.beyond3d.com/forum/showthread.php?p=681319#post681319

Post #14 und #15 fuer spekulative Moeglichkeiten was TMUs und texture samplers betreffen koennte. Auch hier ist eben TMU!=TMU, zumindest nicht unbedingt mit den gleichen Faehigkeiten wie sie in heutigen PC GPUs bekannt sind.

Ailuros
2006-01-30, 10:13:25
Hynix und Samsung starten die Massenproduktion mit 1.4 GHz Chips. 2. Halbjahr sind 1.8 geplant. Quellen findet man bei den Herstellern in den Pressemitteilungen.
Warum sollte man zumindest mit dem Topmodell dies nicht auch ausnutzen?

Gut dann sind 1.25GHz projezierte Speicher (2.5 effektiv) fuer X-GPU ueber die ich hoere fuer die absehbare Zukunft dann eben nur GDDR3 wahrscheinlich ;)

RLZ
2006-01-30, 10:41:36
Gut dann sind 1.25GHz projezierte Speicher (2.5 effektiv) fuer X-GPU ueber die ich hoere fuer die absehbare Zukunft dann eben nur GDDR3 wahrscheinlich ;)
Wobei ich zum aktuellen Zeitpunkt solche Aussagen nur als ganz grobe Zielsetzung sehe.
Ob im Endeffekt 1.25, 1.3 oder 1.4 rauskommt ist wahrscheinlich eh nur für Benchmarks interessant. Die 12% machens auch nimmer.
Post #14 und #15 fuer spekulative Moeglichkeiten was TMUs und texture samplers betreffen koennte. Auch hier ist eben TMU!=TMU, zumindest nicht unbedingt mit den gleichen Faehigkeiten wie sie in heutigen PC GPUs bekannt sind.
Vielleicht sollte man sich auf eine zu den aktuellen Karten vergleichende Leistungangabe der Einheiten beschränken.
Da die Taktraten sich wohl nicht wesentlich ändern werden, wären zumindest bei ATI die doppelte Samplingleistung wünschenswert. Zumindest wenn der Speicher auch entsprechend die Daten liefern kann.

Bzgl Rops.: Ich wünsche mir bei einem D3D10 US wesentlich mehr Z-Füllrate. Die Bedeutung von Z-Only Passes wird imo stark zunehmen. Um den Engpass Vertexshader braucht man sich dank US ja keine Sorgen mehr zu machen. Ob man dies jetzt durch andere oder mehr Rops realisiert ist eigentlich egal.

Ailuros
2006-01-30, 10:58:23
Bzgl Rops.: Ich wünsche mir bei einem D3D10 US wesentlich mehr Z-Füllrate. Die Bedeutung von Z-Only Passes wird imo stark zunehmen. Um den Engpass Vertexshader braucht man sich dank US ja keine Sorgen mehr zu machen. Ob man dies jetzt durch andere oder mehr Rops realisiert ist eigentlich egal.

Wie waere es mit einem TBDR dann? :biggrin:

RLZ
2006-01-30, 11:07:40
Wie waere es mit einem TBDR dann? :biggrin:
Ich schrieb Z-Only nicht Z-First. :biggrin:
Bei Shadowmaps zB. bringt dir ein TBDR ja nicht viel.
Auch das Rendern der Testgeometrie für Predicated Rendering kostet reine Z-Füllrate.

mapel110
2006-01-31, 01:13:28
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=275776
R580 langsamer als R520, wenn ...
geht da weiter

Ailuros
2006-01-31, 02:15:37
Ich schrieb Z-Only nicht Z-First. :biggrin:

Gigantischer Unterschied :P Wie waere es mit Z+MSAA dann?

Bei Shadowmaps zB. bringt dir ein TBDR ja nicht viel.
Auch das Rendern der Testgeometrie für Predicated Rendering kostet reine Z-Füllrate.

Haette ich heute einen 4-quad TBDR, waeren es etwa >100GPixels/s Z/stencil Fuell-rate bei nur 400MHz.

Banshee18
2006-01-31, 05:37:22
Könnte mal bitte jemand kurz die Aufgaben des Geometrie-Prozessors erläutern? Vielen Dank im Vorraus. =)

MfG,

Banshee

Ailuros
2006-01-31, 06:59:39
Könnte mal bitte jemand kurz die Aufgaben des Geometrie-Prozessors erläutern? Vielen Dank im Vorraus. =)

MfG,

Banshee

http://www.beyond3d.com/articles/directxnext/index.php?p=4#top

Ob jetzt da was an diesem "Topologie-Prozessor" was fehlt in der Zwischenzeit oder ob noch was dazukam (eher unwahrscheinlich) koennen Dir vielleicht diejenigen helfen die vielleicht etwas mehr ueber D3D10 oeffentlich blubbern koennen.

Coda
2006-01-31, 08:16:41
Die D3D10-Dokumentation ist schon lange publik, jeder der was davon versteht kann darüber reden ;)

Der Geometry-Shader "sieht" das ganze Dreieck das aus dem Vertex-Shader rauskommt und kann abhängig davon neue Dreiecke generieren oder es verwerfen.

Asmodeus
2006-01-31, 10:20:33
Die D3D10-Dokumentation ist schon lange publik, jeder der was davon versteht kann darüber reden ;)

Der Geometry-Shader "sieht" das ganze Dreieck das aus dem Vertex-Shader rauskommt und kann abhängig davon neue Dreiecke generieren oder es verwerfen.

"Sieht" der Geometry-Shader wirklich nur Dreiecke, oder auch andere Primitive, wie z.B. Quads? Ja, ein Quad sind auch zwei Dreiecke, aber es geht mir darum, ob der GS das Primitiv Quad mit seinen 4 Punkten sieht, oder es in zwei Dreiecke zu je 3 Punkten zerlegt wird.

Gruss, Carsten.

RLZ
2006-01-31, 11:26:30
"Sieht" der Geometry-Shader wirklich nur Dreiecke, oder auch andere Primitive, wie z.B. Quads? Ja, ein Quad sind auch zwei Dreiecke, aber es geht mir darum, ob der GS das Primitiv Quad mit seinen 4 Punkten sieht, oder es in zwei Dreiecke zu je 3 Punkten zerlegt wird.

Gruss, Carsten.
Er hat als Input eins der folgenden Primitive:
- Line list or line strip
- Triangle list or triangle strip
- Line list with adjacency or line strip with adjacency
- Triangle list with adjacency or triangle strip with adjacency

Und als Output:
- Pointstream
- Linestream
- Trianglestream

Coda
2006-01-31, 15:03:02
"Sieht" der Geometry-Shader wirklich nur Dreiecke, oder auch andere Primitive, wie z.B. Quads? Ja, ein Quad sind auch zwei Dreiecke, aber es geht mir darum, ob der GS das Primitiv Quad mit seinen 4 Punkten sieht, oder es in zwei Dreiecke zu je 3 Punkten zerlegt wird.Dreiecke natürlich. Kein Mensch würde sich den Quad-Quatsch in HW antun.

Asmodeus
2006-02-01, 09:05:55
Dreiecke natürlich. Kein Mensch würde sich den Quad-Quatsch in HW antun.

Ach, so ein paar Menschen würden diesen "Quad-Quatsch" sicher ganz gern auch in Hardware nutzen. ;)

Gruss, Carsten.

Gast
2006-02-01, 09:06:54
http://vr-zone.com/?i=3177

Naja!...

Coda
2006-02-01, 09:09:23
Ach, so ein paar Menschen würden diesen "Quad-Quatsch" sicher ganz gern auch in Hardware nutzen. ;)Nö würden sie nicht. 4 Punkte müssen nicht in einer Ebene liegen und Triangle-Setup usw. werden unglaublich viel komplizierter.

Asmodeus
2006-02-01, 09:41:32
Nö würden sie nicht. 4 Punkte müssen nicht in einer Ebene liegen und Triangle-Setup usw. werden unglaublich viel komplizierter.

So Sachen wir Catmull-Clark sagen dir nichts, oder?

Gruss, Carsten.

ShadowXX
2006-02-01, 11:50:24
So Sachen wir Catmull-Clark sagen dir nichts, oder?

Gruss, Carsten.

Werden die OGL-Quads intern (also vom Treiber) nicht sowieso in Tris zerlegt?

Wenn du Glück hast, wird es bei den OGL-Treiber-Extensions ja auch wieder Transparent gehandhabt.

Asmodeus
2006-02-01, 11:58:58
Werden die OGL-Quads intern (also vom Treiber) nicht sowieso in Tris zerlegt?

Wenn du Glück hast, wird es bei den OGL-Treiber-Extensions ja auch wieder Transparent gehandhabt.

Ja, ich denke, natürlich werden Quads irgendwann immer in Dreiecke zerlegt. Es ging ja nur um die Sichtbarkeit im kommenden Geometry-Shader. Die Sache geht dann jetzt vielleicht auch etwas zu sehr am eigentlich Thema R600 vorbei. Ich wollte lediglich darauf hinweisen, dass es sehr wohl Sachen gibt, wie eben Unterteilungsansätze (z.b. eben Catmull-Clark), die auf Quadbasis funktionieren und mit Quads auch wesentlich einfacher und schneller handhabbar sind, als auf Dreiecksbasis.

Gruss, Carsten.

RLZ
2006-02-01, 12:14:52
Ja, ich denke, natürlich werden Quads irgendwann immer in Dreiecke zerlegt. Es ging ja nur um die Sichtbarkeit im kommenden Geometry-Shader. Die Sache geht dann jetzt vielleicht auch etwas zu sehr am eigentlich Thema R600 vorbei.
Du kannst ja auf die benachbarten Dreiecke zugreifen und dann über die PrimitiveID im GS 2 aufeinanderfolgende Dreiecke als Quad definieren.
Müsste also schon machbar sein.
Natürlich muss dabei die bestehende Geometrie so aufgebaut sein, dass auch immer 2 aufeinanderfolgende Dreiecke wirklich ein Quad bilden.

up¦²
2006-02-04, 02:38:48
Noch ein nettes interview mit Toshiyuki Okumura, Director Channel Marketing & Business Development bei ATi :

We had some challenges in 2005. We introduced dozens of new products and a few of them were slower ramping than we would have hoped. One of our biggest challenges on the desktop side was the delay in delivering the R520. We had some technical issues that took much longer then expected to resolve. Due to the issues, we were later to market then anticipated. Launching of CROSSFIRE was also a challenge in 2005. However, we have overcome many of the issues and now have an amazing platform for multi-GPU products. The CROSSFIRE technology is in many ways superior to our competition’s solution. We’ve discussed the highlights of CROSSFIRE so no need to go on further here. But we learned a lot in 2005 and have been able to put a lot of processes in place to ensure better delivery in 2006.
...
In 2006 you will see a lot of great things from ATI: Continued leadership top to bottom starting with the introduction of the X1K family in 2005 and the upcoming X1900 family. X1900XTX will be the fastest, most feature rich product available in the market. You will also see ATI deliver to our commitment in 2006. No more launches without product availability. You will see the proof of this with the X1900 family launch.

http://voodoopc.blogspot.com/2006/02/ati-2006-dont-call-it-comeback.html

Ailuros
2006-02-05, 11:50:28
Die angebliche "Superioritaet" von Crossfire moechte ich gerne erstmal sehen :|

Gast
2006-02-05, 13:57:41
Die angebliche "Superioritaet" von Crossfire moechte ich gerne erstmal sehen :|

Da spricht der Kenner. Crossfire scheint konzeptionell Vorteile zu haben, nur leider wird das Potential z.Z. noch von unausgreiften Treibern verschenkt.

Xmas
2006-02-05, 14:04:06
Haette ich heute einen 4-quad TBDR, waeren es etwa >100GPixels/s Z/stencil Fuell-rate bei nur 400MHz.
Das eine hat mit dem anderen nichts zu tun.

Da spricht der Kenner. Crossfire scheint konzeptionell Vorteile zu haben, nur leider wird das Potential z.Z. noch von unausgreiften Treibern verschenkt.
Vor- und Nachteile.

Gast
2006-02-05, 18:23:16
Da spricht der Kenner. Crossfire scheint konzeptionell Vorteile zu haben, nur leider wird das Potential z.Z. noch von unausgreiften Treibern verschenkt.Konzeptionelle Vorteile? LOL, was denn bitte? Die Tatsache, dass ATI fünf (5!!) zusätzliche Chips auf der Master-Platine verbauen muss um diese Bastellösung zu realisieren? Die Tatsache, dass der User keinerlei Zugriff auf die Profile hat und so neue Spiele erst mit CF spielen kann, wenn ATI sich dazu bequemt hat einen neuen Treiber zu bringen? Die Tatsache, dass CF selbst in Mainstream spielen nicht so gut skaliert wie SLI?

Gast
2006-02-05, 18:25:32
Die aktuellen Chips von ATI waren nie für Crossfire ausgelegt und das merkt man auch. Crossfire wird wohl erst konkurrenzfähig wenn die nötige Logik in die Chips gewandert ist und ich als Benutzer Zugriff auf die Profile habe. Solange ist es nur eine erbärmliche Notlösung, weil ATI auch ein Stück vom Multi-GPU-Kuchen abhaben wollte.

Gast
2006-02-05, 18:54:32
Konzeptionelle Vorteile? LOL, was denn bitte? Die Tatsache, dass ATI fünf (5!!) zusätzliche Chips auf der Master-Platine verbauen muss um diese Bastellösung zu realisieren? Die Tatsache, dass der User keinerlei Zugriff auf die Profile hat und so neue Spiele erst mit CF spielen kann, wenn ATI sich dazu bequemt hat einen neuen Treiber zu bringen? Die Tatsache, dass CF selbst in Mainstream spielen nicht so gut skaliert wie SLI?

Was bitte haben den zugängliche Profile mit der technischen Konzeption zu tun? Diese freizuschalten bzw. zugänglich zu machen ist treibertechnisch sicher eine einfache Übung. Weiterhin sehe ich, wenn ich von Vorteilen rede, diese aus Kundennutzensicht, d.h. ob ATI dafür jetzt 5, 10 oder nur einen zusätzlichen Chip verbaut ist mir und wahrscheinlich der Mehrzahl der Anwender ziemlich egal.

Also bitte laß dein Gebashe, vor allem wenn in einem Absatz der selbe Sachverhalt von dir x-Mal gewendet und als weiteres Manko verkauft wird.

Gast
2006-02-05, 18:57:13
Die aktuellen Chips von ATI waren nie für Crossfire ausgelegt und das merkt man auch. Crossfire wird wohl erst konkurrenzfähig wenn die nötige Logik in die Chips gewandert ist und ich als Benutzer Zugriff auf die Profile habe. Solange ist es nur eine erbärmliche Notlösung, weil ATI auch ein Stück vom Multi-GPU-Kuchen abhaben wollte.


Bla, bla bla und weiter gehts. Auch dieses von dir schon einige Male runtergebetete Statement entbehrt jeder Grundlage. Die technischen Voraussetzungen für CF sind sogar schon im R300 gegeben, woran es hakt ist die Erfahrung in der Multi-GPU-Treiber-Entwicklung. Aber das wird kommen.

Gast
2006-02-05, 19:02:08
Bla, bla bla und weiter gehts. Auch dieses von dir schon einige Male runtergebetete Statement entbehrt jeder Grundlage. Die technischen Voraussetzungen für CF sind sogar schon im R300 gegeben, woran es hakt ist die Erfahrung in der Multi-GPU-Treiber-Entwicklung. Aber das wird kommen.
Irgendwie scheint da ein Widerspruch in deiner Aussage zu stecken. Das Supertiling, welches bereits in den R300-basierten Renderbeasts von E&S zu finden war, gibt es in der Tat bereits seit dem R300. Andererseits gibt es seit dieser Zeit eben auch Treiber, die dieses Feature unterstützen.

Ati sagt allerdings, dass für Supertiling überhaupt keine Treiberanpassung nötig sei - alles läuft "out of the box". :)

Gast
2006-02-05, 23:39:04
Irgendwie scheint da ein Widerspruch in deiner Aussage zu stecken. Das Supertiling, welches bereits in den R300-basierten Renderbeasts von E&S zu finden war, gibt es in der Tat bereits seit dem R300. Andererseits gibt es seit dieser Zeit eben auch Treiber, die dieses Feature unterstützen.

Ati sagt allerdings, dass für Supertiling überhaupt keine Treiberanpassung nötig sei - alles läuft "out of the box". :)

So so, die E&S Workstations liefen also mit den Catalysts.

Scheinbar kann man aber Supertiling nicht immer nutzen. Aus ähnlichem Grund gibt es ja bei Nvidia AFR. Nur mal so als Denkanstoss.

Ailuros
2006-02-06, 02:29:43
Da spricht der Kenner. Crossfire scheint konzeptionell Vorteile zu haben, nur leider wird das Potential z.Z. noch von unausgreiften Treibern verschenkt.

Nette Entschuldigung nichtdestominder.

Was bitte haben den zugängliche Profile mit der technischen Konzeption zu tun? Diese freizuschalten bzw. zugänglich zu machen ist treibertechnisch sicher eine einfache Übung. Weiterhin sehe ich, wenn ich von Vorteilen rede, diese aus Kundennutzensicht, d.h. ob ATI dafür jetzt 5, 10 oder nur einen zusätzlichen Chip verbaut ist mir und wahrscheinlich der Mehrzahl der Anwender ziemlich egal.

Profile gehoeren zur technischen Konzeption denn keine Hardware laeuft ohne Software.

Nebenbei moechte ich die angeblichen Vorteile erstmal hoeren.

Gast
2006-02-06, 10:58:02
Was bitte haben den zugängliche Profile mit der technischen Konzeption zu tun? Diese freizuschalten bzw. zugänglich zu machen ist treibertechnisch sicher eine einfache Übung. Weiterhin sehe ich, wenn ich von Vorteilen rede, diese aus Kundennutzensicht, d.h. ob ATI dafür jetzt 5, 10 oder nur einen zusätzlichen Chip verbaut ist mir und wahrscheinlich der Mehrzahl der Anwender ziemlich egal.

Also bitte laß dein Gebashe, vor allem wenn in einem Absatz der selbe Sachverhalt von dir x-Mal gewendet und als weiteres Manko verkauft wird.Dann nenn mir doch bitte mal die "konzeptionellen Vorteile" von Crossfire?

deekey777
2006-02-06, 13:20:00
Dann nenn mir doch bitte mal die "konzeptionellen Vorteile" von Crossfire?

X1300/X1600: Es läuft ohne eine interne bzw. externe Verbindung, sondern über PCIe.
X1800/X19000XF:
Alle vier Modi laufen über das externe CF-Kabel, eine Limitierung wie bei SLI-AA findet bei SuperAA nicht (mehr) statt.

Allgemein: Man sieht fast immer ein Performance-Plus. Wenn nicht, dann ist es eine CPU-Limitierung. :biggrin:

Gast
2006-02-06, 14:22:22
X1300/X1600: Es läuft ohne eine interne bzw. externe Verbindung, sondern über PCIe. Erstens ist das auch bei SLI mit den kleinen Karten der Fall und zweitens verstehe ich nicht was daran besonders gut sein soll. Die Brige-Lösung finde ich weitaus eleganter.

X1800/X19000XF:
Alle vier Modi laufen über das externe CF-Kabel, eine Limitierung wie bei SLI-AA findet bei SuperAA nicht (mehr) statt.Was ist daran so toll? Bei SLI läuft auch alles über die Bridge.

Allgemein: Man sieht fast immer ein Performance-Plus. Wenn nicht, dann ist es eine CPU-Limitierung. :biggrin:Erstens ist das bei SLI auch der Fall und trifft auch noch auf fast ALLE Szenarien zu, die nicht CPU-limitiert sind, ganz im Gegensatz zu Crossfire wo man keinerlei Zugriff auf die Profile hat. Und zweitens skaliert SLI (noch?) deutlich besser.

Diese externe-Dongle-Lösung ist ganz sicher kein "konzeptioneller Vorteil" von Crossfire, sondern ein riesengroßer Nachteil, weil ATI nicht die Zeit hatte die notwendige Logik in die GPU einzubauen. Diese Lösung wird auch verschwinden, sobald die Logik in die GPU gewandert ist. Dann wird Crossfire wohl auch konkurrenzfähig.

Ich sehe keinerlei Vorteile für Crossfire. Das einzige Argument für Crossfire sind imho die sehr guten Einzelkarten, das wars dann aber auch schon.

deekey777
2006-02-06, 17:30:03
Das SLI-AA läuft über PCIe und nicht über die Bridge, da sie dafür zu eng ist.

Gast
2006-02-06, 18:11:45
Das SLI-AA läuft über PCIe und nicht über die Bridge, da sie dafür zu eng ist.Und trotzdem ist SLI-AA meist schneller? Und das obwohl oft 16xSLI-AA vs. 12x SuperAA gebencht wird...

deekey777
2006-02-06, 18:20:19
Und trotzdem ist SLI-AA meist schneller? Und das obwohl oft 16xSLI-AA vs. 12x SuperAA gebencht wird...
ATI Super AA vs. NVIDIA SLI Anti-Aliasing (http://www.firingsquad.com/hardware/ati_super_aa_vs_nvidia_sli_aa/default.asp)

Der Leistungsabfall bei SLI-AA 16x ist enorm.

Gast
2006-02-06, 18:48:09
Und trotzdem ist SLI-AA meist schneller? Und das obwohl oft 16xSLI-AA vs. 12x SuperAA gebencht wird...


Wie kommst du denn auf das dünne Brett?!

Ailuros
2006-02-07, 01:32:44
ATI Super AA vs. NVIDIA SLI Anti-Aliasing (http://www.firingsquad.com/hardware/ati_super_aa_vs_nvidia_sli_aa/default.asp)

Der Leistungsabfall bei SLI-AA 16x ist enorm.

Ihr solltet beide Verfahren in Echtzeit erstmal sehen. Die Sample-Positionen sind so bekloppt, dass sie meistens nicht der Rede wert sind.

Anstatt dem bloeden 16xSLi AA modus, ist 16xS nicht nur um einiges schneller, sondern sieht auch nicht unbedignt schlechter aus. Natuerlich nur wenn man 4xSSAA theoretisch braucht.

Wer ein multi-GPU kauft sollte sich einen Bildschirm besorgen der eine ziemlich hohe Aufloesung erreichen kann und dabei mit 4xAA in der hoechstmoeglichen Aufloesung spielen. Diese BS-modi beider Seiten sind fuer die Tonne.

Gast
2006-02-07, 07:55:24
Wer ein multi-GPU kauft sollte sich einen Bildschirm besorgen der eine ziemlich hohe Aufloesung erreichen kann und dabei mit 4xAA in der hoechstmoeglichen Aufloesung spielen. Diese BS-modi beider Seiten sind fuer die Tonne.Naja, 8xS ist imho durchaus brauchbar und sieht auch bedeutend besser aus als 4xMSAA. Klar, in einem Fear reicht die Leistung dafür in der Regel nicht, aber es gibt genug Spiele in denen 8xS auch mit einer GTX möglich ist und wunderbar aussieht. Finde ich persönlich auch klar schöner als 6xMSAA.

ATI Super AA vs. NVIDIA SLI Anti-Aliasing (http://www.firingsquad.com/hardware/ati_super_aa_vs_nvidia_sli_aa/default.asp)

Der Leistungsabfall bei SLI-AA 16x ist enorm.Hmm´kay. Allerdings hat SLI 16x AA auch einen beachtlichen Supersampling-Anteil.

deekey777
2006-02-07, 12:13:32
[...]

Hmm´kay. Allerdings hat SLI 16x AA auch einen beachtlichen Supersampling-Anteil.

Das ist wiederum egal, denn die Performance müßte in etwa gleich sein wie mit einer Grafikkarte mit "halbem" AA-Modus.
http://www.beyond3d.com/reviews/ati/r580/index.php?p=22

Ihr solltet beide Verfahren in Echtzeit erstmal sehen. Die Sample-Positionen sind so bekloppt, dass sie meistens nicht der Rede wert sind.

Anstatt dem bloeden 16xSLi AA modus, ist 16xS nicht nur um einiges schneller, sondern sieht auch nicht unbedignt schlechter aus. Natuerlich nur wenn man 4xSSAA theoretisch braucht.

Wer ein multi-GPU kauft sollte sich einen Bildschirm besorgen der eine ziemlich hohe Aufloesung erreichen kann und dabei mit 4xAA in der hoechstmoeglichen Aufloesung spielen. Diese BS-modi beider Seiten sind fuer die Tonne.
Darum frage ich mich, ob 4xAAA oder 6xAAA eine bessere Alternative zu "10xAA" und "14xAA" beim XF der X800er Generation sind, schließlich läuft das ganze über die CF-Dongel und nicht über PCIe.

Ailuros
2006-02-07, 17:42:55
Naja, 8xS ist imho durchaus brauchbar und sieht auch bedeutend besser aus als 4xMSAA. Klar, in einem Fear reicht die Leistung dafür in der Regel nicht, aber es gibt genug Spiele in denen 8xS auch mit einer GTX möglich ist und wunderbar aussieht. Finde ich persönlich auch klar schöner als 6xMSAA.


Wenn es um die Glaettung von alpha test Texturen geht (und der Anteil dieser in einer Szene nicht zu gross ist) dann macht es mehr Sinn jeweils Transparency Supersampling oder adaptive AA auf den jeweiligen Karten zu benutzen. 8xS + TSAA sieht zwar noch besser aus aber es kostet auch wiederrum mehr Leistung als 4xAA + TSAA.

Ailuros
2006-02-07, 17:48:53
Darum frage ich mich, ob 4xAAA oder 6xAAA eine bessere Alternative zu "10xAA" und "14xAA" beim XF der X800er Generation sind, schließlich läuft das ganze über die CF-Dongel und nicht über PCIe.

4x/6x/8xMSAA + AAA sind je nach Fall die besten Loesungen auf Crossfire setups, nur hapert es etwas mit der Leistung auf R4x0/CF und 8x.

Enterprise
2006-02-08, 09:36:26
Back2Topic please.

JaDz
2006-02-28, 14:45:52
Back2Topic please.
Genau: http://www.pcgameshardware.de/?article_id=454883

Wie neu und wie glaubhaft diese Meldung ist, weiß ich allerdings nicht.

Gast
2006-02-28, 14:50:13
Nichts neues. Frag mich nur warum die "nun doch mit Unified..." schreiben. Es war doch nie was anderes geplant...

deekey777
2006-03-29, 14:24:12
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4137656&postcount=125
[...]

***edit:



ROTFLMAO :biggrin:

Und genau solche Aussagen stiften Verwirrung um D3D10-Grafikkarten.

Ailuros
2006-03-29, 14:45:11
Und genau solche Aussagen stiften Verwirrung um D3D10-Grafikkarten.


http://www.trustedreviews.com/article.aspx?head=73&page=6117

deekey777
2006-03-29, 15:08:06
http://www.trustedreviews.com/article.aspx?head=73&page=6117

:confused:

The R600 needs Vista to glow = Der R600 braucht Vista um zu glänzen
Was soll das sein? Auch unter WinXP wird der R600 seine Stärke zeigen können, oder? Es sei denn, er meint, dass unter Vista der R600 seine Muskeln am größten/am stärksten spielen lässt. Das ist auch richtig, doch auch heutige Grafikkarten werden unter Vista bessere Ergebnisse erzielen können als unter WinXP, oder? Bis D3D10-Anwendungen kommen, dauert es eh etwas. Vielleicht sieht erst der Nachfolger des R700 diese.

Coda
2006-03-29, 15:12:37
Naja ist wohl so gemeint dass man erst so richtig DX10-Marketing machen kann wenn auch DX10-Demos laufen

DrumDub
2006-03-29, 15:14:01
Das ist auch richtig, doch auch heutige Grafikkarten werden unter Vista bessere Ergebnisse erzielen können als unter WinXP, oder? wie kommst du zu dieser aussage/frage? vom overhead her könnte das treibermodell von vista vielleicht auch was bei den aktuellen dx9-grakas bringen, aber ansonsten seh ich nicht, warum vista performancemäßig besser dastehen sollte bei nem dx9-spiel als xp. (abgesehen davon, dass vista momentan noch das doppelte an speicher belegt wie xp. 2GB ram werden bei vista und spielen wohl pflicht sein.)

up¦²
2006-03-29, 16:23:26
Naja, spekulation, aber der R600 kann doch nur in einem wirklich gut sein: nämlich D3D10.
DX9 müßte dann doch emuliert werden :| , und das kostet leistung.Ich wage mich mal vor und vermute dabei sogar eher eklatante schwächen, sonst macht die aussage keinen sinn.

There are going to be titles that are fully exploitive [of Direct3D 10 hardware], and there are going to be titles that are going to span much farther back and reach a broader audience of hardware, and those are going to have fallback codepaths.
Quelle: Microsoft Direct3D 10 program manager Sam Glassenberg talks with GameSpot about how Direct3D 10 games will evolve on Windows Vista (http://www.gamespot.com/news/6146634.html)

deekey777
2006-03-29, 16:30:48
wie kommst du zu dieser aussage/frage?
Wenn ich das nur wüsste.
vom overhead her könnte das treibermodell von vista vielleicht auch was bei den aktuellen dx9-grakas bringen, aber ansonsten seh ich nicht, warum vista performancemäßig besser dastehen sollte bei nem dx9-spiel als xp. (abgesehen davon, dass vista momentan noch das doppelte an speicher belegt wie xp. 2GB ram werden bei vista und spielen wohl pflicht sein.)
Ältere Anwendungen bzw. die benutzten APIs, die Vista nicht kennen, werden die XPDM-Treiber nutzen und in einem Kompabilitätsmodus laufen. Hier werden wohl nur Verbesserungen von Vista gegenüber WinXP helfen.
Wie es aussieht, werden nVidia und ATi pünktlich LDDM/VDDM-Treiber liefern (diese verwenden schon die Vista-Betatester?). WGF 1.0 (oder wie heißt das jetzt? einfach D3D9?) wird VDDM verwenden. Aber auch Anwendungen, die diese neue API verwenden. Halo 2 wird mit hoher Wahrscheinlichkeit mindestens D3D9 verwenden (toll, hilft aber nicht weiter), aber wenn Crysis für Vista D3D9 und so VDDM verwendet, könnte dies ein Performancevorteil sein.
Verwirrt bin ohne Ende.

Ich verschiebe einige Posts in den R600-Thread.

deekey777
2006-03-29, 16:47:05
Naja, spekulation, aber der R600 kann doch nur in einem wirklich gut sein: nämlich D3D10.
DX9 müßte dann doch emuliert werden :| , und das kostet leistung.Ich wage mich mal vor und vermute dabei sogar eher eklatante schwächen, sonst macht die aussage keinen sinn.


Quelle: Microsoft Direct3D 10 program manager Sam Glassenberg talks with GameSpot about how Direct3D 10 games will evolve on Windows Vista (http://www.gamespot.com/news/6146634.html)

Wieso sollte da was emuliert werden? D3D10 wird der eine Renderer sein, D3D9/DX9 der andere, nur werden einige Transistoren brach liegen.

aths
2006-03-29, 17:39:20
Naja, spekulation, aber der R600 kann doch nur in einem wirklich gut sein: nämlich D3D10.
DX9 müßte dann doch emuliert werden :| , und das kostet leistung.Ich wage mich mal vor und vermute dabei sogar eher eklatante schwächen, sonst macht die aussage keinen sinn."Emulierte" Pixelshader 1.1 oder DirectX7-Multitexturing-Setups sind ja auch nicht langsamer als früher. Jede D3D10-Karte ist automatisch auch eine sehr gute SM3-Karte.

Coda
2006-03-29, 18:12:31
Naja, spekulation, aber der R600 kann doch nur in einem wirklich gut sein: nämlich D3D10.
Blödsinn. Siehe aths.

StefanV
2006-03-29, 20:34:17
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4137656&postcount=125
Und genau solche Aussagen stiften Verwirrung um D3D10-Grafikkarten.

Wieso?
Stimmt doch auch, wenn mans genau nimmt ;)

Denn ohne Vista kann man nur die hälfte der Karte nutzen, mehr oder minder...

Gandharva
2006-03-29, 21:49:51
...nur werden einige Transistoren brach liegen.Nicht unbedingt.

MikBach
2006-03-29, 21:57:55
"Emulierte" Pixelshader 1.1 oder DirectX7-Multitexturing-Setups sind ja auch nicht langsamer als früher. Jede D3D10-Karte ist automatisch auch eine sehr gute SM3-Karte.
Da kann ich nur zusimmen.
Bei Unified Shadern muss man die Sache eh anders aufrollen...

Coda
2006-03-29, 22:08:10
Bei Unified Shadern muss man die Sache eh anders aufrollen...
Das hat mit dem Shadermodell aber herzlich wenig zu tun.

MikBach
2006-03-29, 22:11:24
Das hat mit dem Shadermodell aber herzlich wenig zu tun.
Aus der Sicht der Programmierer schon. :)

Coda
2006-03-29, 22:12:59
Nein auch dort nicht. Es gibt weiterhin getrennte Stages für Vertex- Und Pixelprogramme - im Gegenteil: Es kommt sogar noch eine hinzu.

MikBach
2006-03-29, 22:16:28
Nein auch dort nicht. Es gibt weiterhin getrennte Stages für Vertex- Und Pixelprogramme - im Gegenteil: Es kommt sogar noch eine hinzu.
Ja, es mag mehr Ebenen geben, aber die Prorgrammierung wird einfacher, sonst wäre es ja sinnlos... :|

Coda
2006-03-29, 22:28:47
Nö, wieso? Unified Shader ist eine reine Hardwaredesignentscheidung um Resourcen besser auszulasten. Die erste DX10-GPU von nVIDIA wird auch kein US sein nach allem was man so hört.

Es gibt übrigens schon Dokumentation von DX10, du kannst gerne nachschauen wenn du mir nicht glauben magst ;)

Ich denke die Verwirrung liegt daran, dass die Instructions in allen 3 Stages natürlich fast die gleichen sind, aber das war auch schon bei SM3 so. Aber es ist nicht so dass ein Vertex-Shader als Pixel-Shader kompiliert, die Rahmenbedingungen sind ganz andere (Inputs, Outputs, etc.)

MikBach
2006-03-29, 22:37:23
Nö, wieso? Unified Shader ist eine reine Hardwaredesignentscheidung um Resourcen besser auszulasten.
Abgesehen vom Load-Balancing werden die US eine einfachere Programmierung ermöglichen.

Die erste DX10-GPU von nVIDIA wird auch kein US sein nach allem was man so hört.r kompiliert, die Rahmenbedingungen sind ganz andere (Inputs, Outputs, etc.)

Dann ist das aber eine Verletzung der Specs. D3D10 setzt doch US vorraus, oder hat sich da was geändert?

mapel110
2006-03-29, 22:39:10
Dann ist das aber eine Verletzung der Specs. D3D10 setzt doch US vorraus, oder hat sich da was geändert?
Die API möchte nur US sehen, was der Treiber sieht, ist egal. Ja (also hat sich das quasi geändert).

Coda
2006-03-29, 22:47:10
Abgesehen vom Load-Balancing werden die US eine einfachere Programmierung ermöglichen.
Nein. Hörst du mir überhaupt zu?

Dann ist das aber eine Verletzung der Specs. D3D10 setzt doch US vorraus, oder hat sich da was geändert?
War noch nie der Fall. Da hat wieder jemand das verwechselt was ich schon angesprochen hatte.

Die API möchte nur US sehen, was der Treiber sieht, ist egal. Ja (also hat sich das quasi geändert).
Auch die API nicht. Wie auch? Es gibt weiterhin getrennte Interfaces für Vertex-, Pixel- und Geometry-Shader. Alle Stages können zwar prinzipiell die gleichen Berechnungen durchführen, aber wie gesagt war das auch schon bei SM3 so (auf R5xx nur bedingt, da die VS keine Texturen samplen können).

C1 ist schließlich auch nichts weiteres als ein SM3-Unified-Shader mit einigen kleineren Zusätzen.

Der Programmierer kommt mit Unified-Shader überhaupt nicht in Berührung. Das ist reines Hardware-Load-Balancing auf die vorhandenen Shadereinheiten! Ein Nebeneffekt davon ist eben, dass automatisch alle Stages das gleiche können, aber das will die Spec eh.

MikBach
2006-03-30, 09:12:11
Nein. Hörst du mir überhaupt zu?


War noch nie der Fall. Da hat wieder jemand das verwechselt was ich schon angesprochen hatte.


Auch die API nicht. Wie auch? Es gibt weiterhin getrennte Interfaces für Vertex-, Pixel- und Geometry-Shader. Alle Stages können zwar prinzipiell die gleichen Berechnungen durchführen, aber wie gesagt war das auch schon bei SM3 so (auf R5xx nur bedingt, da die VS keine Texturen samplen können).

C1 ist schließlich auch nichts weiteres als ein SM3-Unified-Shader mit einigen kleineren Zusätzen.

Der Programmierer kommt mit Unified-Shader überhaupt nicht in Berührung. Das ist reines Hardware-Load-Balancing auf die vorhandenen Shadereinheiten! Ein Nebeneffekt davon ist eben, dass automatisch alle Stages das gleiche können, aber das will die Spec eh.
OK, alles klar.
Jetzt kapische. :)
(Interpretationsproblem)
Die Vorraussetzung, dass jeder Shader laufen muss ist aber geblieben?

Ailuros
2006-03-30, 09:25:18
Was die Shader-stages betrifft muss die HW ueber Pixel/Vertex und Geometrie Shader faehig sein fuer D3D10 Komplianz als Beispiel; wie die HW ausgelegt ist und wie sie diese bearbeitet sollte der SW schnuppe sein.

MikBach
2006-03-30, 09:49:45
Was die Shader-stages betrifft muss die HW ueber Pixel/Vertex und Geometrie Shader faehig sein fuer D3D10 Komplianz als Beispiel; wie die HW ausgelegt ist und wie sie diese bearbeitet sollte der SW schnuppe sein.
In der Theorie sicherlich richtig. Könnte aber in der Praxis nicht egal sein (Software-Emulation)...

Ailuros
2006-03-30, 10:08:19
In der Theorie sicherlich richtig. Könnte aber in der Praxis nicht egal sein (Software-Emulation)...

Wenn Microsoft tatsaechlich jegliche Art von SW-Emulation zulaesst und man dadurch trotz allem noch D3D10 Komplianz bekommt, dann haben sie wohl einen Vogel.

Entweder ist die HW einen solchen Komplianz-Siegel wert oder eben nicht.

MikBach
2006-03-30, 10:20:29
Wenn Microsoft tatsaechlich jegliche Art von SW-Emulation zulaesst und man dadurch trotz allem noch D3D10 Komplianz bekommt, dann haben sie wohl einen Vogel.

Entweder ist die HW einen solchen Komplianz-Siegel wert oder eben nicht.
Es muss jeder Shader laufen.
Mit Treiberoptimierungen könnte man dafür sogar die CPU missbrauchen (übertrieben natürlich :D ).

Ailuros
2006-03-30, 11:13:46
Es muss jeder Shader laufen.
Mit Treiberoptimierungen könnte man dafür sogar die CPU missbrauchen (übertrieben natürlich :D ).

Moeglich ist schon einiges. Die eigentliche Frage ist was erlaubt ist und was nicht.

Coda
2006-03-30, 11:28:11
Die Vorraussetzung, dass jeder Shader laufen muss ist aber geblieben?
Es gibt immer noch ein paar kleinere Limits. "Jeder" Shader ist also übertrieben.

Moeglich ist schon einiges. Die eigentliche Frage ist was erlaubt ist und was nicht.
Ist nicht erlaubt, weil MS anscheinend auch Performancetests für WHQL macht mit D3D10-Treibern. Aber für die GPUs ist es eh kein Problem.

Es ist garantiert keine Unified-Shader-GPU nötig um D3D10 in HW ausführen zu können.

Ailuros
2006-03-30, 11:56:22
Die Performance-tests hat Demi schon erwaehnt, nur hatte ich den Eindruck beim lesen dass die Ansprueche hier nicht besonders hoch sind.

Hier koennte theoretisch ein jeglicher IHV auch eine total bekloppte Einheit einbauen und das Endresultat ist am Ende dann auch nicht gerade nutzvoller als mit einfacher SW-Emulation.

Es ist garantiert keine Unified-Shader-GPU nötig um D3D10 in HW ausführen zu können.

Dass sollte man irgendwo festnageln in fetten Druckbustaben dass man nicht staendig daran erinnern muss.

Coda
2006-03-30, 12:07:15
Bei Software-Emulation von D3D10-Shadern sprechen wir von SPF.

Ailuros
2006-03-30, 14:13:49
Bei Software-Emulation von D3D10-Shadern sprechen wir von SPF.

Natuerlich sind es Spf; was nuetzt es aber wenn es im Gegensatz 5-10 fps sind? Ach ja das letztere ist um zich Male schneller, aber trotzdem unbrauchbar. Auf so etwas wollte ich hinaus.

MikBach
2006-03-30, 14:14:07
Es gibt immer noch ein paar kleinere Limits. "Jeder" Shader ist also übertrieben.
Ich bin da zwar nicht mehr auf dem neusten Stand, aber es sollte doch jeder Shader laufen...
Wurden die Specs zurechtgestutzt oder war das schon immer geplant?


Ist nicht erlaubt, weil MS anscheinend auch Performancetests für WHQL macht mit D3D10-Treibern. Aber für die GPUs ist es eh kein Problem.
Na toll. Wenn du jetzt schon weiss, dass es kein Problem für die GPUs sein wird, dann kann der Test doch nur Käse sein.

Ailuros
2006-03-30, 14:18:30
Na toll. Wenn du jetzt schon weiss, dass es kein Problem für die GPUs sein wird, dann kann der Test doch nur Käse sein.

In die Richtung tendiere ich auch; man sollte aber trotzdem sagen dass man so zumindest eine reine SW Emulation erstmal verhindert.

mapel110
2006-03-30, 14:20:11
Na toll. Wenn du jetzt schon weiss, dass es kein Problem für die GPUs sein wird, dann kann der Test doch nur Käse sein.
Könnte wirklich sein, dass diese Schwelle arg niedrig ist ala 10fps@640x480. Da gabs ja mal in der Richtung. Bei Karten vom Schlage einer FX5200 oder TC6200 machen solche "Forderungen" allerdings Sinn.

MikBach
2006-03-30, 14:24:16
Könnte wirklich sein, dass diese Schwelle arg niedrig ist ala 10fps@640x480. Da gabs ja mal in der Richtung. Bei Karten vom Schlage einer FX5200 oder TC6200 machen solche "Forderungen" allerdings Sinn.
Dann kann man sich einen Performancetest aber auch sparen...
Dieser würde nämlich gar nichts aussagen. :|

Coda
2006-03-30, 14:56:43
Ich bin da zwar nicht mehr auf dem neusten Stand, aber es sollte doch jeder Shader laufen...
Wurden die Specs zurechtgestutzt oder war das schon immer geplant?
Das war so geplant. Bei den Interpolatoren ist es z.B. auch fast unmöglich unendlich viele anzubieten. Oder der Geo-Shader kann z.B. nur zwischen 0-1024 Triangles an den Pixelshader weitergeben.

Instruction- oder Templimits gibts keine mehr.

Na toll. Wenn du jetzt schon weiss, dass es kein Problem für die GPUs sein wird, dann kann der Test doch nur Käse sein.
Ich meinte damit dass es kein Problem für die Karten sein wird alles in Hardware auszuführen wie es sein soll.

RLZ
2006-03-30, 15:05:15
Oder der Geo-Shader kann z.B. nur zwischen 0-1024 Triangles an den Pixelshader weitergeben.
Leider nur bis zu 1024 32-Bit Werte, nicht Dreiecke. ;)

Coda
2006-03-30, 15:32:02
Hm Brainfart. Hast recht.

up¦²
2006-03-31, 18:51:16
http://img372.imageshack.us/img372/8503/atiocpolicy8vz.jpg
schluß mit lustig! :tongue:

Coda
2006-03-31, 18:55:11
"Internal fuses in GPU will reveal if it has been thermally stressed" - wie gemein ;)

Merkor
2006-03-31, 18:58:24
"Internal fuses in GPU will reveal if it has been thermally stressed" - wie gemein ;)

Jo und wie wollen die dann rausfinden, ob die Karte in einem Gehäuse ohne Gehäuselüfter bei Standardtakt 15 Grad heißer geworden ist oder ob jemand die GPU in einem gut durchlüftetem Gehäuse hochgejubelt hat?

Coda
2006-03-31, 20:57:41
Also ich denke mal da gehts um Temperaturen um die 150°C, also wenns für Siliziumschaltungen wirklich zu Ende geht ;)

mapel110
2006-04-01, 04:59:25
http://www.beyond3d.com/forum/showthread.php?t=29612
R6xx to Utilise 80nm and 65nm Processes

kein 90nm Prozess mehr (auch im Low End nicht), aber war auch nicht zu erwarten bei ATI.

Winter[Raven]
2006-04-01, 08:35:45
Na wir wollen doch mal hoffen, der Umstieg auf 80 oder 65nm klappt besser als der auf 90nm ... :)

reunion
2006-04-01, 09:58:20
Das wird bestimmt wieder so ähnlich ablaufen wie bei R300. Zunächst R600 im bis dahin bekannten und ausgereiften 80nm Prozess, und etwas später die Mid- und Lowend-Produkte in 65nm.

Ailuros
2006-04-01, 13:38:41
Ausser dem Risiko dass ATI mit 65nm eingehen wuerde, waere es sowieso ausserordentlich schwer mit R6xx zeitlich anzukommen mit diesem Prozess.

svenw
2006-04-01, 15:37:34
Gäbe eigentlich überhaupt genug Fertigungskapazität um die Grakas im 65nm Prozeß zu fertigen? AMD tut sich ja damit schwer und wie sieht es bei den Auftragsfertigern aus?

Sunrise
2006-04-01, 16:17:15
Das wird bestimmt wieder so ähnlich ablaufen wie bei R300. Zunächst R600 im bis dahin bekannten und ausgereiften 80nm Prozess, und etwas später die Mid- und Lowend-Produkte in 65nm.
Das hast du ganz gut übersetzt. ;)

Sunrise
2006-04-01, 16:21:14
Ausser dem Risiko dass ATI mit 65nm eingehen wuerde, waere es sowieso ausserordentlich schwer mit R6xx zeitlich anzukommen mit diesem Prozess.
R6XX-Lowend wäre theoretisch im Bereich des Möglichen, da ATi bereits seit ein paar Monaten schon Testsamples fährt. Da Lowend-Designs normalerweise keine besonders hohen Anforderungen an einen Prozess stellen, dürfte das zu machen sein.

Ob das Ganze jedoch klug ist, ist die Frage, denn falls sich hier wieder ein Fehler einschleicht, hinken Lowend und Midrange wieder hinterher. Seit R300 hat ATi es nicht geschafft, annähernd zeitgleich Produkte vom High-End und Low-End der gleichen Generation zu präsentieren, während NV das schon seit NV30 zelebriert (mal mit Ausnahme von G7X). Das ist also wiedermal mit einem nicht zu verachtenden Risiko verbunden, und ich hoffe, ATi weiß, auf was sie sich da wieder einlassen.

@svenw:
Die Fertigungskapazität sollte zu Anfang kein Problem darstellen. Es existiert natürlich immer nur eine sehr eingeschränkte Auswahl an FABs, auf welche die IHVs hier zugreifen können und die auch technologisch soweit sind, dass man konkurrenzfähig sein kann. Jedoch sind, soweit mir bekannt, bei TSMC aktuell 2 FABs (Fab 12 und Fab 14, beide produzieren auf 12" Wafern) am Start, die bereits auf 65nm produzieren (können), was zu Anfang erst einmal mehr als genug sein sollte.

Ailuros
2006-04-02, 04:46:48
R6XX-Lowend wäre theoretisch im Bereich des Möglichen, da ATi bereits seit ein paar Monaten schon Testsamples fährt. Da Lowend-Designs normalerweise keine besonders hohen Anforderungen an einen Prozess stellen, dürfte das zu machen sein.

Wo steht auf irgendwelchen roadmaps (abhaengig von welchem IHV) dass am Anfang high end/mainstream oder sogar kleinere D3D10 GPUs zur gleichen Zeit ankommen werden?

Ob das Ganze jedoch klug ist, ist die Frage, denn falls sich hier wieder ein Fehler einschleicht, hinken Lowend und Midrange wieder hinterher. Seit R300 hat ATi es nicht geschafft, annähernd zeitgleich Produkte vom High-End und Low-End der gleichen Generation zu präsentieren, während NV das schon seit NV30 zelebriert (mal mit Ausnahme von G7X). Das ist also wiedermal mit einem nicht zu verachtenden Risiko verbunden, und ich hoffe, ATi weiß, auf was sie sich da wieder einlassen.

Das Problem dass ATI hatte war nicht nur auf R520 begrenzt, sondern auch RV530. Wenn ich mich nicht irre war nur die RV515 nicht davon befallen, sonst wurde sowohl auch (zu einem kleineren Grad) R580 davon beeinflusst.

betasilie
2006-04-02, 05:46:13
Wieso können Griechen nicht mal Klartext sprechen? :rolleyes:

Sunrise
2006-04-02, 05:51:16
Wo steht auf irgendwelchen roadmaps (abhaengig von welchem IHV) dass am Anfang high end/mainstream oder sogar kleinere D3D10 GPUs zur gleichen Zeit ankommen werden?
Das steht auf keiner Roadmap, daher spreche ich es ja an. ;)

(ATi sollte das zwar besser wissen, aber diese Sache beschäftigt mich schon eine ganze Weile.)

ATi hat jede Generation seit dem R300 wirklich ein sehr gutes Line-Up im High-End, "versagt" jedoch immer, wenn es darum geht, annährend zeitgleich auch im Low-End bzw. Mid-End, ähnlich Gutes zu präsentieren, wie NV dies seit langer Zeit vorlegt.

NV30 -> FX5200 (NV34)
NV40 -> 6600GT (NV43)
G70 -> 7600GT (G73)

Als "ähnlich gut" klassifizere ich ASICs, die nicht nur möglichst günstig herzustellen sind, sondern auch das gleiche Featureset haben und auch auf einem erprobten Prozess vom Band laufen, damit die Ausbeute gleich zu Begin so hoch wie nur irgendwie möglich ist.

ATi nutzte diese "Chance" erst halbwegs mit RV515/RV530, durch die Fehler in u.g. ASICs sah das ganze Bild allerdings etwas "verzerrt" aus.

Das ist allerdings ein Thema, das wir vielleicht nicht hier besprechen sollten, da das wohl zuweit Off-Topic gehen würde.

Das Problem dass ATI hatte war nicht nur auf R520 begrenzt, sondern auch RV530. Wenn ich mich nicht irre war nur die RV515 nicht davon befallen, sonst wurde sowohl auch (zu einem kleineren Grad) R580 davon beeinflusst.
Betroffen waren R520, RV530 und auch R580. Dies ist auch gleichzeitig die Reihenfolge, in der die "Fehler" gefixt wurden. Also R520 zuerst, danach RV530, danach R580. RV515 war das einzige ASIC, welches nicht betroffen war.

reunion
2006-04-02, 09:50:37
Das hast du ganz gut übersetzt. ;)

Oh, in der Eile habe ich den Link gar nicht gelesen. Sorry.

robbitop
2006-04-02, 09:58:14
NV30 -> FX5200 (NV34)
NV40 -> 6600GT (NV43)
G70 -> 7600GT (G73)
Hm das sieht mir nicht ganz homogen und nicht vollständig aus. Warum packst du bei NV30 das lowend hin und bei den anderen beiden das Mid-End?

NV30 - NV31 - NV34
NV35 - NV36 - NV34
NV40 - NV43 - NV44
G70/1- G73 - G72

Ailuros
2006-04-02, 11:27:35
Das steht auf keiner Roadmap, daher spreche ich es ja an. ;)

(ATi sollte das zwar besser wissen, aber diese Sache beschäftigt mich schon eine ganze Weile.)

ATi hat jede Generation seit dem R300 wirklich ein sehr gutes Line-Up im High-End, "versagt" jedoch immer, wenn es darum geht, annährend zeitgleich auch im Low-End bzw. Mid-End, ähnlich Gutes zu präsentieren, wie NV dies seit langer Zeit vorlegt.

NV30 -> FX5200 (NV34)
NV40 -> 6600GT (NV43)
G70 -> 7600GT (G73)

Als "ähnlich gut" klassifizere ich ASICs, die nicht nur möglichst günstig herzustellen sind, sondern auch das gleiche Featureset haben und auch auf einem erprobten Prozess vom Band laufen, damit die Ausbeute gleich zu Begin so hoch wie nur irgendwie möglich ist.

ATi nutzte diese "Chance" erst halbwegs mit RV515/RV530, durch die Fehler in u.g. ASICs sah das ganze Bild allerdings etwas "verzerrt" aus.

Das ist allerdings ein Thema, das wir vielleicht nicht hier besprechen sollten, da das wohl zuweit Off-Topic gehen würde.


Ich meinte was ganz anderes: IMHO werden G80/R6xx zuerst als high end GPUs vorgestellt (wenn alles nach Plan....yadda yadda) und erst um einige Zeit spaeter mainstream und budget GPUs aus der Familie. Fuer R6xx braucht man sich am Anfang fuer 80nm keine Sorgen machen und wenn dann die Zeit spaeter fuer die kleineren Modelle dann kommt wird die Zeit dann auch reif (oder "reifer") sein fuer 65nm.

Das was Du hier ansprichst ist ein total anderes Kapitel und es war soweit ich mich erinnern kann bei ATI stets so. Das letzte Mal als ich was aehliches ueber ATI erwaehnte, dass es R430 von Anfang an haette geben sollen wurde ich fast zerfetzt hier LOL :D

Kann mir irgend jemand einen guten Grund geben warum sie nicht von Anfang an anstatt RV530 gleich RV560 eingesetzt haben? Eine niedrigere Taktrate sagen wir mal um 400MHz haette ausgereicht fuer den Anfang und man haette eventuell nur die Frequenzen bei refreshes nach oben skaliert.

Betroffen waren R520, RV530 und auch R580. Dies ist auch gleichzeitig die Reihenfolge, in der die "Fehler" gefixt wurden. Also R520 zuerst, danach RV530, danach R580. RV515 war das einzige ASIC, welches nicht betroffen war.

Gut dass mich mein Gedaechtnis doch nicht betruegt ;)

Sunrise
2006-04-02, 20:10:14
Hm das sieht mir nicht ganz homogen und nicht vollständig aus. Warum packst du bei NV30 das lowend hin und bei den anderen beiden das Mid-End?
Das ist beabsichtigt. ATi hatte mindestens immer einen deutlichen Pferdefuß im kompletten Line-Up, seit R300. Wie gesagt, ich sehe das eher aus "produktionstechnischer"-Sicht, ob es das Low-End oder Mid-End betrifft, ist hier zweitrangig, da jedes ASIC, welches ich oben nannte extrem günstig herzustellen (Die-Size) war und alle erbten das gleiche Featureset der High-End-ASICs.

Zur Erklärung, warum ich bei NV30 das Low-End hineingenommen habe:

Gerade in dieser Generation fiel mir das damals schon auf. NV30 war im High-End sicher "nicht schlecht", aber NV34 hatte das gleiche Featureset (war relativ langsam, aber auch das ist nicht wichtig), war auf einem damals extrem erprobten Prozess (150nm), war hinsichtlich der Die Size relativ klein und hatte NV damals mit "den Arsch" gerettet. ATi hat eine halbe Ewigkeit gebraucht, bis sie Ähnliches auf die Reihe brachten.

Ebenso NV40:

NV bringt eine "neue Generation" auf den Markt, und stellt auch annähernd zeitgleich NV43 vor - wie es sich bis vor dem Release des G73 herausstellte, war das seit damals eine extrem gute Karte, mit extrem starker Nachfrage auf einem erprobten Prozess mit relativ kleinem Die. ATi brauchte auch hier Ewigkeiten, bis diese Lücke gefüllt wurde.

Bei G73 ist diese Sache dann offensichtlich:

ATi nutzt "gezwungenerweise" wiedermal ihr "Inventory" (R520) um diese Lücke vernünftig zu füllen. Die wirklichen Konkurrenten (Ailuros spricht es auch an) RV560/RV570 kommen erst in ein paar Monaten. Bei G72 sehe ich die Sache nicht so tragisch, da RV505 in Kürze vorgestellt werden sollte.

Sunrise
2006-04-02, 20:33:21
Ich meinte was ganz anderes: IMHO werden G80/R6xx zuerst als high end GPUs vorgestellt (wenn alles nach Plan....yadda yadda) und erst um einige Zeit spaeter mainstream und budget GPUs aus der Familie.
Ich meine im Prinzip das gleiche wie du (ich sehe es wie gesagt etwas mehr aus der Perspektive der Die Size). Warum machen sie das ? Warum stellen sie erst Monate später ihr Low- und/oder Mid-End der gleichen Generation vor und nicht möglichst zeitgleich ? Eine Erklärung wäre natürlich, dass wirklich alle Ressourcen, die sie zur Verfügung haben, immer "nur" erstmal an einem ASIC arbeiten lassen (und hier brecht das High-End ja immer vor) und danach sukzessive die Roadmap weiter abgearbeitet wird. Warum aber setzen sie auf ihrer Roadmap jedesmal das "konkurrenzfähige" Low- und/oder Mid-End so spät an ? Ich sehe das als gravierenden Nachteil.

Bei RV530 sieht man es ja sehr schön. Extrem kleine Die Size -> extrem günstig herzustellen, laut Orton sehr hohe Ausbeute und eine "unglaublich hohe Nachfrage" (Und das nicht nur im Mid-End, das betrifft natürlich auch Notebooks). Ja, nun, warum merkt man das aber erst jetzt ? ;)

Das was Du hier ansprichst ist ein total anderes Kapitel und es war soweit ich mich erinnern kann bei ATI stets so. Das letzte Mal als ich was aehliches ueber ATI erwaehnte, dass es R430 von Anfang an haette geben sollen wurde ich fast zerfetzt hier LOL :D
Ja, es ist ein komplett anderes Kapitel und es war bei ATi schon immer so, zumindest so lange ich denken kann. Genau das ist es, was ich in Frage stelle, warum dauert das bei ATi jedesmal Monate ? Die Sache mit R430 hattest du damals auch schon richtig gesehen, dieses ASIC war allerdings auch bitter nötig, da alles, was damals mit 130nm (inkl. Low-K) bei TSMC vom Band lief, extrem knapp war (Kapazität von TSMC an der Grenze, Ausbeute wohl unterdurchschnittlich).

Kann mir irgend jemand einen guten Grund geben warum sie nicht von Anfang an anstatt RV530 gleich RV560 eingesetzt haben? Eine niedrigere Taktrate sagen wir mal um 400MHz haette ausgereicht fuer den Anfang und man haette eventuell nur die Frequenzen bei refreshes nach oben skaliert.
Richtig. Genau das meine ich. RV560 wäre dann zwar statt 80nm bei 90nm vom Band gelaufen, aber ich denke, das wäre angesichts der möglichen, hohen Taktraten und der Endleistung vollkommen zu verschmerzen gewesen. Hier wären sie konkurrenzfähig und sie hätten einen relativ kleinen Die "gehabt", sie wählten aber lieber wieder den "steinigeren" Weg, machen einen Shrink auf 80nm, brauchen mindestens 6 Monate, um diese SKUs auf den Markt zu bringen. Genau diese Entscheidungen, die bei ATi hinsichtlich ihrer Produktion (ihrer SKUs) getroffen werden, kann ich einfach nicht nachvollziehen.

NV schläft nicht und plant wohl (was man so hört) bei G80 auch wieder relativ "schnell" Low- und Mid-End zu präsentieren, auch wenn man anfangs vermutete, dass die G7X-Generation "sehr lange" ausharren wird. Bei beiden R6XX/G8X hat man allerdings noch keine genauen Daten, daher lassen wir das mal beiseite.

robbitop
2006-04-02, 22:53:05
@sunrise
OT...ist mir aber bei dir aufgefallen
"zeitgleich" - die Länge der Zeitdauer ist gleich
"gleichzeitig" - der Zeitpunkt ist gleich
letzteres meinst du wohl hier?

Sunrise
2006-04-03, 00:46:24
@sunrise
OT...ist mir aber bei dir aufgefallen
"zeitgleich" - die Länge der Zeitdauer ist gleich
"gleichzeitig" - der Zeitpunkt ist gleich
letzteres meinst du wohl hier?
Ich rede von zeitgleicher Entwicklungzeit bis letztendlich zur Vorstellung. Die Betonung liegt auf Entwicklungszeit, die bei ATi immer sehr stark "gestreckt" ist, da sie jedesmal auf einen neuen Prozess warten und ihre aktuellen Möglichkeiten nicht nutzen.

Ailuros
2006-04-03, 06:06:41
Sunrise,

Auch NVIDIA braucht etliche Monate mainstream/budget GPUs einer neuen GPU Familie vorzustellen. G72/73 kamen ja auch jetzt erst nachdem G70 im Sommer 2005 auf den Markt kamen. Der Trick ist eben dass NV43 immer noch erhaeltlich war in der Zwischenzeit.

ATI's Problem liegt IMHO eher darin dass ihre mainstream GPUs einfach schlecht geplant sind.

Die Sache mit R430 hattest du damals auch schon richtig gesehen, dieses ASIC war allerdings auch bitter nötig, da alles, was damals mit 130nm (inkl. Low-K) bei TSMC vom Band lief, extrem knapp war (Kapazität von TSMC an der Grenze, Ausbeute wohl unterdurchschnittlich).

Und somit musste man die Libraries umkrempeln denn von low-k 130nm zu 110nm ist das Ganze auch nicht gerade ein Kinderspiel. Man stornierte die X700XT weil die Volts ausserhalb der Specs lagen.

NV schläft nicht und plant wohl (was man so hört) bei G80 auch wieder relativ "schnell" Low- und Mid-End zu präsentieren, auch wenn man anfangs vermutete, dass die G7X-Generation "sehr lange" ausharren wird. Bei beiden R6XX/G8X hat man allerdings noch keine genauen Daten, daher lassen wir das mal beiseite.

Rechne mal sicherheitshalber mit zumindest 7-8 Monaten nach der G80 Vorstellung. Es gibt noch genug Lebenszeit fuer G7x.

Wir sind im Spekulationsforum uebrigens ;)

Sunrise
2006-04-03, 20:00:06
Sunrise,

Auch NVIDIA braucht etliche Monate mainstream/budget GPUs einer neuen GPU Familie vorzustellen. G72/73 kamen ja auch jetzt erst nachdem G70 im Sommer 2005 auf den Markt kamen. Der Trick ist eben dass NV43 immer noch erhaeltlich war in der Zwischenzeit.
Ja, natürlich. Sie brauchen auch etliche Monate (der Umstieg von 110nm -> 90nm Low-K ist auch kein Kinderspiel), das ist aber meiner Meinung nach kein Vergleich, wenn du dir ansiehst, wie lange ATi dafür benötigt(e). Du sprichst es ja an, NV43 war ein verdammt gut platziertes und erdachtes Produkt, das noch Jahre nach seiner Fertigstellung eine Daseinsberechtigung hatte und auch relativ günstig hergestellt werden konnte.

G73/G72 waren zudem relativ frühzeitig fertiggestellt, was man ja am Notebook-Ableger merkte. Nur G71 ließ eine ganze Weile auf sich warten. Im Gegensatz zu ATi war NV hier immernoch "rasend schnell".

Du siehst es ja jetzt, ATi wartet gezwungenermaßen auf ihre RV560/RV570 ASICs, während NV mit einem (meiner Meinung nach) sehr guten
G73 nicht nur extrem viel Leistung für das Mid-End bietet, sondern ihn auch sehr günstig herstellen kann. ATi hätte problemlos an RV530 und gleichzeitig auch an RV560 arbeiten können und diese entsprechend platzieren können. Gerade RV560 wäre (basiert er ja auf R580) eine hochinteressante Angelegenheit gewesen, ganz besonders im Hinblick auf G73.

Wenn man mal alles aufrechnet, dann benötigt ATi (nach der Fertigstellung von R580) etwa 9 Monate - 1 Jahr, um RV560/RV570 zu präsentieren und das halte ich einfach für deutlich zuviel.

ATI's Problem liegt IMHO eher darin dass ihre mainstream GPUs einfach schlecht geplant sind.
Ja, und hier sehe ich eben mehrere Nachteile für ATi. Nicht nur im Notebook-Markt, sondern auch übertragen auf den Desktop-Markt.

Das Low-End mag in dieser Generation wieder etwas "besser" platziert sein, auch im Hinblick auf die kürzlich kommenden RV516 und RV505 ASICs, aber das entschädigt wohl nur bedingt. RV530 ist so klein (Die Size), dass ein RV560 viel viel kleiner hätte sein können (und mit entsprechenden Taktraten ausgeliefert hätte werden können) als R520/R580 (GTO/XL whatever).

Man stornierte die X700XT weil die Volts ausserhalb der Specs lagen.
Warum man dieses "Teil" überhaupt auf den Markt brachte, war mir damals schon schleierhaft. Dieses ASIC sah mir damals eher wie ein Experiment aus, aber nicht als konkurrenzfähige, von ATi ernst gemeinte Alternative zu NV43.

Rechne mal sicherheitshalber mit zumindest 7-8 Monaten nach der G80 Vorstellung. Es gibt noch genug Lebenszeit fuer G7x.
Ich glaube nicht, dass es wieder 7-8 Monate dauern wird, da ich denke, dass der lange Zeitraum zwischen G70->G7X (110nm -> 90nm Low-K) eine eher "große" Ausnahme war.

Wir sind im Spekulationsforum uebrigens ;)
Zum Glück, ja. ;)

Gast
2006-04-04, 01:02:36
mainstream g8x könnten schon schnell folgen
nv will bestimmt als erster d3d10 karten in allen bereichen positioniert haben
wie damals mit der fx5200

up¦²
2006-04-04, 01:23:56
R6xx to Utilise 80nm and 65nm Processes
31-Mar-2006, 01:09.28 Reporter : Dave Baumann
ATI have previously mentioned that their next generation, DirectX10 architecture would leverage much of the technology designed for "Xenos", ATI’s graphics processor developed for the XBOX 360, and we surmised that would equate to the R6xx generation featuring a unified shader architecture at the hardware level. In a conference call discussing their latest quarter’s financial results ATI’s CEO, Dave Orton, more or less confirmed that the next generation architecture will be unified, and suggested that they will be better off for it with the technology having a proving ground with the XBOX and R6xx effectively being their second generation unified architecture.

A question was asked as to what process their next generation architecture would be based on, and Dave Orton pointed out that the 80nm process comes in a number of flavours, including a cost reduction option, which is currently in the process of being adopted for ATI’s low end parts, and also an 80nm HS process, to be used on more expensive higher end solutions. Dave then went on to say that none of the R6xx generation is likely to be 90nm based, instead split between 80nm and 65nm processes. This suggests that ATI may be adopting the process choices they did with the R3xx and R4xx generation, by introducing the new architecture first at the high end on a known process, and moving the derivative, lower end parts to a newer, smaller process. ATI didn’t do this with R520, choosing to move build the new architecture on the new 90nm process simultaneously because their Shader Model 3.0 choices quite clearly required it, however this utimately ended up backfiring with chip being held up for several quarters while a bug in a 90nm library needed chasing down.
http://www.beyond3d.com/

Gast
2006-04-04, 17:02:38
http://www.beyond3d.com/
Hast du auch eine Meinung dazu?

Q

mapel110
2006-04-04, 18:47:01
Hast du auch eine Meinung dazu?

Q
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4147895&postcount=184
braucht er nicht, ist eh schon vor ein paar Tagen gepostet worden. ;)

Sunrise
2006-04-04, 18:50:25
http://www.beyond3d.com/
Mach' wenigstens mal die Augen auf, bevor du etwas postest. Deine "News" wurde schon eine Seite vorher verlinkt und die Meldung selbst ist jetzt auch schon recht alt.

Was meinst du, über was wir uns die ganze Zeit schon unterhalten ? ;)

Gast
2006-04-04, 19:18:41
Mach' wenigstens mal die Augen auf, bevor du etwas postest. Deine "News" wurde schon eine Seite vorher verlinkt und die Meldung selbst ist jetzt auch schon recht alt.

Was meinst du, über was wir uns die ganze Zeit schon unterhalten ? ;)

ohja omg wie kann er das nur tun, er hat nicht alle comments gelesen in dem thread

Sunrise
2006-04-04, 20:11:26
ohja omg wie kann er das nur tun, er hat nicht alle comments gelesen in dem thread
Das braucht er auch nicht und das verlangt auch niemand. Man kann aber die letzten 10-15 Antworten lesen, zumindest dann, wenn es einen überhaupt interessiert und man nicht nur zum News-Posten hier anwesend ist. Das ist eine der Forenregeln, die durchaus allgemein gültig sind.

Ailuros
2006-04-08, 08:22:10
Ja, natürlich. Sie brauchen auch etliche Monate (der Umstieg von 110nm -> 90nm Low-K ist auch kein Kinderspiel), das ist aber meiner Meinung nach kein Vergleich, wenn du dir ansiehst, wie lange ATi dafür benötigt(e). Du sprichst es ja an, NV43 war ein verdammt gut platziertes und erdachtes Produkt, das noch Jahre nach seiner Fertigstellung eine Daseinsberechtigung hatte und auch relativ günstig hergestellt werden konnte.

G73/G72 waren zudem relativ frühzeitig fertiggestellt, was man ja am Notebook-Ableger merkte. Nur G71 ließ eine ganze Weile auf sich warten. Im Gegensatz zu ATi war NV hier immernoch "rasend schnell".

Dass G71 sich verspaetete lag eher daran dass man mit 8-quad Versionen (kein tape-out) herumfunkelte. Deshalb auch der GTX512 Zwischenschieber ;)

Wenn man mal alles aufrechnet, dann benötigt ATi (nach der Fertigstellung von R580) etwa 9 Monate - 1 Jahr, um RV560/RV570 zu präsentieren und das halte ich einfach für deutlich zuviel.


Ja, und hier sehe ich eben mehrere Nachteile für ATi. Nicht nur im Notebook-Markt, sondern auch übertragen auf den Desktop-Markt.

G7x skaliert nach oben und nach unten einfacher. Selbst wenn ATI Ende Sommer mit etwas besserem als G73 ankommt, was genau haelt NV theoretisch davon ab nochmal einen quad dazuzuschrauben?

Ich glaube nicht, dass es wieder 7-8 Monate dauern wird, da ich denke, dass der lange Zeitraum zwischen G70->G7X (110nm -> 90nm Low-K) eine eher "große" Ausnahme war.

Und was macht man mit dem G7x-Inventory? Ich bezweifle dass NVIDIA ihre SM3.0 Behauptungen nicht einhalten wird, es gibt noch genug Leben in dieser Generation dass man ausmelken kann.

Sunrise
2006-04-08, 20:56:55
Dass G71 sich verspaetete lag eher daran dass man mit 8-quad Versionen (kein tape-out) herumfunkelte. Deshalb auch der GTX512 Zwischenschieber ;)
Ja, das ist mit ein Faktor. Besonders über die Sache mit dem Simulator hatten wir gesprochen. Wie wir ja gesehen haben, war es auch völlig richtig, dass ich davon ausgegangen bin, dass RSX uns sehr viel über G71 sagen wird bzw. umgekehrt (B3D (http://www.beyond3d.com/forum/showthread.php?p=643847#post643847)).

"NV had lots of time to concentrate on their 90nm designs, so RSX should give us a pretty good idea about what G71 is capable of. R580 won´t be easy to beat from things i´m hearing and that will certainly be a good starting point were NV needs to make things right from the get-go, they won´t have time to cherry-pick, they need to release something that is as fast as it can get right from the beginning."
...
"In the same context it´s hard to guess what final configuration G71 will have, currently (when thinking about it throughly) i´m not entirely sure, since we haven´t seen a 90nm G7X from NV were we can kind of estimate whats doable and what´s not. It would make a lot of sense that they modified G70 (RSX) to some extent and looked at how high they can clock it. We should know that pretty soon."

NV hat sich einfach gedacht, dass es bzgl. des Notebook-Marktes (Stromaufnahme/"heat dissipation") deutlich mehr Sinn macht, es bei einem 6-Quad-Chip zu belassen und dafür dieses Mal die Taktraten anzuheben (Low-K haben sie jetzt), insofern konnten sie auch die komplette Pipeline etwas kürzer auslegen, und somit Transistoren sparen.

Im Grunde genau umgekehrt, wie sie es sonst gehandhabt hatten und ich finde das ist/war ein verdammt cleverer Schachzug.

G7x skaliert nach oben und nach unten einfacher. Selbst wenn ATI Ende Sommer mit etwas besserem als G73 ankommt, was genau haelt NV theoretisch davon ab nochmal einen quad dazuzuschrauben?
Absolut nichts. Daher ist die Sache auch so "clever".

Und was macht man mit dem G7x-Inventory? Ich bezweifle dass NVIDIA ihre SM3.0 Behauptungen nicht einhalten wird, es gibt noch genug Leben in dieser Generation dass man ausmelken kann.
Leben gibt es natürlich noch mehr als genug. Wenn G80 allerdings auf 80nm kommt, dann werden sie entsprechende ASICs für jedes Segment auch nachschieben und nicht Monate warten.

Die Frage ist hier, ob G80 so aufgebaut ist, dass man ihn genauso gut "nach unten" skalieren kann, wie G7X. Zudem bezweifle ich ganz stark, dass NV auch nur annähernd so exzessiv Inventory aufbaut wie ATi z.B. bei R480 oder anderen Beispielen. ATi hat generell eine deutlich unübersichtlichere Design- und Segment-Mentalität, mit dutzenden, verschiedenen ASICs für ihre Segmente.

Mit R5XX im High-End scheint ihnen das dieses Mal deutlich besser zu gelingen, da erst nach Monaten der R520-Vorstellung die GTO eingeführt wurde und die R580 bisher wohl in ähnlichen Regionen spielt - alles hinsichtlich des Inventorys.

Ailuros
2006-04-09, 02:34:35
AFAIK (lege aber meine Hand nicht ins Feuer) ist G80 fuer low-k 90nm ausgelegt.

Die Frage ist hier, ob G80 so aufgebaut ist, dass man ihn genauso gut "nach unten" skalieren kann, wie G7X.

Eine "Uebermenge" an quads erwarte ich nicht, eher eine Uebermenge an ALUs.

Sunrise
2006-04-09, 04:31:35
AFAIK (lege aber meine Hand nicht ins Feuer) ist G80 fuer low-k 90nm ausgelegt.
Ausgelegt mag er für 90nm Low-K sein, nur bin ich da etwas vorsichtig, weil der Sprung auf 80nm Low-K eigentlich kein "richtiger" ist, und man das Design auch relativ schnell portieren könnte.

G80 hatte soweit ich weiß auch noch kein Tape-Out, was mich hinsichtlich 90nm auch eher skeptisch macht. Wenn wir mal etwa 6 Monate (vom ersten Tape-Out bis zur Produktion) annehmen, dann hat NV mittlerweile G80 ganz klar als Produkt für 2007 angesetzt, zumindest, was die Geschäftsquartale angeht. Das würde auch Sinn ergeben, denn Vista verschiebt sich ja "noch etwas" nach hinten. Und genau in diesem Context wären 80nm meiner Meinung nach sinniger.

Da man so ohne Weiteres aber nur sehr schwer rausbekommt, wie alle 80nm-Targets (bzw. 80nm HS) von TSMC überhaupt einzuschätzen sind, sind beides (90nm und 80nm) Optionen, die NV prinzipiell nutzen könnte.

betasilie
2006-04-09, 06:37:15
Ist 80nm Low-K nicht erstmal ATI exklusiv?

Ailuros
2006-04-09, 09:21:20
Ist 80nm Low-K nicht erstmal ATI exklusiv?

Nein.

http://www.digitimes.com/mobos/a20060316PR210.html

robbitop
2006-04-09, 11:25:48
@sunrise
Inwiefern glaubst du, hat man die Pipeline von G7x verkürzt? Das ist AFAIK gar nicht so einfach machbar die Pipelinestufen mal eben zu reduzieren.

Coda
2006-04-09, 11:27:42
Anscheinend konnten Drive-Stages weggelassen werden (also reines Signal-Traveling übers Die), da der Chip kleiner ist.

Sunrise
2006-04-09, 21:50:24
@sunrise
Inwiefern glaubst du, hat man die Pipeline von G7x verkürzt? Das ist AFAIK gar nicht so einfach machbar die Pipelinestufen mal eben zu reduzieren.
Wer redet davon, dass es "einfach" ist ? Und was meinst du mit "inwiefern" ? Du hast dir die Antwort selbst gegeben.

robbitop
2006-04-09, 21:53:29
Nein, ich wollte damit nur implizieren, dass ich nicht glaube, dass sie das getan haben. ;)

Sunrise
2006-04-09, 22:04:06
Nein, ich wollte damit nur implizieren, dass ich nicht glaube, dass sie das getan haben. ;)
Was haben sie denn - deiner Meinung nach - getan, um 10% Transistoren zu sparen, gleichzeitig sogar noch einige Funktionalitäten hinzuzufügen und die Taktraten ziemlich aggressiv auszulegen?

Paul Brain
2006-04-09, 22:24:53
G80 hatte soweit ich weiß auch noch kein Tape-Out, was mich hinsichtlich 90nm auch eher skeptisch macht. Wenn wir mal etwa 6 Monate (vom ersten Tape-Out bis zur Produktion) annehmen, dann hat NV mittlerweile G80 ganz klar als Produkt für 2007 angesetzt, zumindest, was die Geschäftsquartale angeht. Das würde auch Sinn ergeben, denn Vista verschiebt sich ja "noch etwas" nach hinten.G80 sollte doch den Gerüchten nach schon im Spätsommer kommen? Nachdem ATi jetzt noch den R580+ nachschiebt, gegen den nVidia kurzfristig mit G80 ja anscheinend nicht kontern kann, für wie wahrscheinlich haltet ihr es da, daß von nVidia auch noch was neues kommt, z.B. ein 8-Quad G7x?

mapel110
2006-04-09, 22:28:55
G80 sollte doch den Gerüchten nach schon im Spätsommer kommen? Nachdem ATi jetzt noch den R580+ nachschiebt, gegen den nVidia kurzfristig mit G80 ja anscheinend nicht kontern kann, für wie wahrscheinlich haltet ihr es da, daß von nVidia auch noch was neues kommt, z.B. ein 8-Quad G7x?
Bislang siehts so aus, dass R580+ nur ein Shrink wird, um Kosten zu sparen.
nvidia 278 Mio Transistoren bei 90nm
ATI 384 Mio Transistoren bei 90nm
So siehts derzeit aus.

Ich denke, falls ATI den Shrink doch dazu nutzen wird, an der Taktrate was zu ändern, wird man bei nvidia einfach über den Preis gehen und ATI die Krone überlassen bis zum G80.

Sunrise
2006-04-09, 22:32:57
G80 sollte doch den Gerüchten nach schon im Spätsommer kommen?
Ja, ursprünglich sprach man definitiv noch von diesem Jahr (Summer/Fall), das ist aber inzwischen (seit etwa März) wohl kein Thema mehr.

OBrian
2006-04-10, 00:22:18
Da Vista verschoben wurde, besteht ja auch kein Anlaß, deutlich vorher einen passenden DX10-Chip zu bringen. Sowohl das DirectX10 in Vista als auch die Shader 4.0-Fähigkeit sind natürlich erstmal Papierfeatures, nichtdestotrotz im Marketing gut zu verknüpfen. Jeder, der Vista kauft, MUSS auch eine DX10-Karte haben "für das volle Gaming-Erlebnis" und umgekehrt MUSS jeder, der sich eine DX10-Karte kauft, auf Vista upgraden. Paßt zu gut, als daß man das zeitlich auseinanderreißen will.

Gast
2006-04-10, 00:32:20
Da Vista verschoben wurde, besteht ja auch kein Anlaß, deutlich vorher einen passenden DX10-Chip zu bringen.

auch die radeon 9700 kam deutlich vor DX9, und es hat ihr nicht geschadet.

außerdem gibt es ja immer noch OGL.

Ailuros
2006-04-10, 01:25:22
Nein, ich wollte damit nur implizieren, dass ich nicht glaube, dass sie das getan haben. ;)

PS und VS wurden umgekrempelt und erwarte nicht mehr Details als diese.

Ailuros
2006-04-10, 01:31:21
G80 sollte doch den Gerüchten nach schon im Spätsommer kommen? Nachdem ATi jetzt noch den R580+ nachschiebt, gegen den nVidia kurzfristig mit G80 ja anscheinend nicht kontern kann, für wie wahrscheinlich haltet ihr es da, daß von nVidia auch noch was neues kommt, z.B. ein 8-Quad G7x?

"R580+" = R420 <--> R480 was die Leistung betrifft. Falls NV mit etwas kontern sollte wird es eher ein genauso langweiliges Produkt sein wie "R580+".

up¦²
2006-04-10, 13:02:23
ATI R600 Details Revealed
Date: Monday, 10 April 2006
(Insider Series) - After convincingly taking away the performance crown from NVIDIA, ATI seems to be on a roll. The R580 was a smashing hit, but the R600 seems to be even more stunning. If our sources are to be believed, then the specifications sheet for the R600 will look something like this:

1. Unified shader architecture.

2. 64 pixel/vertex shaders. Since ATI is incorporating an Unified shader architecture, these 64 shaders can be either all pixel, all vertex or a combination of both. In contrast, the R580 based X1900XTX had 48 pixel shaders.

3. 80/65nm fabrication process, though ATI wouldn’t elaborate on the exact split as well as why they weren’t sticking to just a single fabrication process.

4. There was also some passing mention of GDDR4. However, we could not confirm either way whether the R600 would come with GDDR4 onboard. Later variants of the architecture will definitely the updated DRAM standard.

5. As for the clock speed, ATI said they weren’t really too concerned about raising the clock speed to particularly high levels, so we suspect the core clock may not be much higher than the current X1900s.

6. It will obviously be Vista ready and (ATI claims) has been built from the ground up to support DX10.

7. The R600 will also be the first practical implementation of ATI’s GPU concept. This is something we would be very interested in seeing because if this works as well as ATI claims, then apart from cutting down CPU load, it might put certain PhysX processor manufacturers out of business, simply because ATI cards would not need an additional card to do necessary computations for Physics. The onboard GPU will take care of it.

8. The launch of the R600 is expected to be somewhere around Christmas this year.

That’s all the information we have right now. As we get more information, we’ll continue to update you.
http://www.cooltechzone.com/Special_Reports/Insider_Series/ATI_R600_Details_Revealed_200604102280/

robbitop
2006-04-10, 13:34:42
Eine verkürzung der Pipelinestages wäre ein ziemlich großer Eingriff in das Design. Das kostet vermutlich viel zu viel Zeit für einen Refresh. Die Latenzen sind ja genau auf die Anzahl der Quads, die in die Pipeline passen, ausgelegt.
IMO hat man hauptsächlich Redundanzen beseitigt/reduziert. (Ich kenne natürlich keine Details.) Das hat auch negative Auswirkungen auf die Yields, das gab NV bereits zu. Aber anscheinend ist der Prozess gut genug dafür. Vieleicht hat man noch ein paar Massetransistoren über Board geschmissen, die bei 110nm für angepeilte Taktraten nötig waren aber bei 90nm vieleicht nicht mehr.
Weiterhin könnte man die Tonemapping Unit entfernt haben oder unnütze native SFUs.

-------

zum G80:
Durch den Vistaverzug könnte man sich vieleicht nachträglich für einen neueren Prozess (i.e. 80nm ??) entschieden haben.
Ich hoffe, dass es dieses ja nicht nochmal wieder nur aufgewärmte Respins der "alten Generation" gibt.

Coda
2006-04-10, 13:50:15
Das muss wohl 64 ALUs heißen.

Eine verkürzung der Pipelinestages wäre ein ziemlich großer Eingriff in das Design. Das kostet vermutlich viel zu viel Zeit für einen Refresh.
Wenn man nur Drive-Stages weglässt? Nö.

Hab ich aber schonmal gesagt.

robbitop
2006-04-10, 16:17:34
Wenn man nur Drive-Stages weglässt? Nö.


Was meinst du mit Drive Stages?

Coda
2006-04-10, 16:34:35
Stages die man braucht um das Signal über den Chip zu bekommen

robbitop
2006-04-10, 16:59:29
Und die kann man ungestraft reduzieren?
(ist doch aber nicht in dem Sinne eine logische Stage, die einen Takt lang überbrückt werden muss, wie die anderen, oder?)

Gast
2006-04-10, 18:01:10
Stages die man braucht um das Signal über den Chip zu bekommen


Hat doch mit der logischen Piplinelänge gar nichts zu tun *kopfschüttel*

robbitop
2006-04-10, 18:55:15
Hat doch mit der logischen Piplinelänge gar nichts zu tun *kopfschüttel*
Genau darauf wollte ich hinaus. Aber es hat auch niemand was von einer Verkürzung der logischen Pipeline gesagt. Aber die Reduzierung der Drivestages klingt plausibel.

aths
2006-04-10, 19:09:47
Das muss wohl 64 ALUs heißen.


Wenn man nur Drive-Stages weglässt? Nö.

Hab ich aber schonmal gesagt.Das bringt leider nichts, außer gesparte Transistoren. Mir liegen bisher keine Erkenntnisse vor, dass sich die Quadbatch-Größe verkleinert habe. Das heißt, dass man auch genauso viele Register braucht wie früher – man hat keine "gefühlte" Verkürzung, auch wenn man einige Datenübermittlungsstufen weglässt. Bei Quadbatches laufen die Quads ja durch und gehen pro Takt eine Stufe weiter. Für logische Verkürzungen sehe ich da keinen Raum, wenn man nicht an anderen Stellen ebenfalls ändert. Vermutlich ist ein Batch 256 Quads groß, und die Abarbeitungs eines Batches wird (inkl. Steuer-Quad) pro Befehl wohl nach wie vor 257 Takte beanspruchen (und in dieser Zeit eben 256 Quads bearbeiten.)

Coda
2006-04-10, 19:14:53
G71 ist ja auch nicht sonderlich viel schneller als G70. In einigen wenigen Fällen benötigt man wohl trotzdem weniger Takt, wenn Buffer leerlaufen usw.

Sunrise
2006-04-10, 21:49:20
Eine verkürzung der Pipelinestages wäre ein ziemlich großer Eingriff in das Design. Das kostet vermutlich viel zu viel Zeit für einen Refresh. Die Latenzen sind ja genau auf die Anzahl der Quads, die in die Pipeline passen, ausgelegt.
IMO hat man hauptsächlich Redundanzen beseitigt/reduziert. (Ich kenne natürlich keine Details.) Das hat auch negative Auswirkungen auf die Yields, das gab NV bereits zu. Aber anscheinend ist der Prozess gut genug dafür. Vieleicht hat man noch ein paar Massetransistoren über Board geschmissen, die bei 110nm für angepeilte Taktraten nötig waren aber bei 90nm vieleicht nicht mehr.
Weiterhin könnte man die Tonemapping Unit entfernt haben oder unnütze native SFUs.
"vermutlich", "IMO", "(Ich kenne natürlich keine Details)", "anscheinend", "Vielleicht" - das klingt doch alles wirklich extrem sicher.

Es geht hier nicht um eine radikale Veränderung der Pipeline an sich, sondern um die "Filler Stages", die NV bei 90nm weggelassen hat. Zudem sind - laut meinen Informationen - auch Massetransistoren weggefallen, zur Vermeidung von "Hotspots" im Sinne der Taktbarkeit. 90nm Low-K hat ggü. 110nm nicht nur sehr vorteilhafte Eigenschaften, was das Chip-interne "Leaking" angeht (meist der wichtigste Faktor, was die Yields angeht), sondern auch deutlich verbesserte Charakteristika hinsichtlich der Transistoren selbst.

NVIDIA says it has replumbed the G71's internal pipelines throughout the chip, making them shorter, because those longer pipes and extra transistors aren't needed to help the G71 achieve acceptable clock speeds—the faster-switching transistors of the 90nm process will suffice for that purpose. How's that for confidence?

Die im Prinzip gleiche Aussage habe ich auch von mehreren unabhängigen Quellen erhalten. Josh, der sich damit u.a. auch sehr eingehend beschäftigt hat, spricht das auch an.

Reicht dir das, um deinem "Glauben" Genüge zu tun ?

Zum Thema Redundanz:

Dass geschickt platzierte Redundanz bei einem Design die Yields erhöhen kann / erhöht, ist kein Geheimnis. Ich wüsste nicht, was NV (ganz besonders bezogen auf diesen Punkt) hier zugeben müsste. Zudem wurde Redundanz im Zusammenhang mit G71 auch bereits im März hier im Thread angesprochen.

robbitop
2006-04-10, 21:55:34
Ein ziemlich nerviger und rechthaberischer Ton, den du da bei geringem Hinterfragen anlegst. So macht Diskutieren keinen Spaß. Ich wollte nicht implizieren, dass du unbedingt im Unrecht bist, sondern nur meine Bedenken hinsichtlich einer Verkürzung der logischen Pipelinelänge äußern.


Es geht hier nicht um eine radikale Veränderung der Pipeline an sich, sondern um die "Filler Stages", die NV bei 90nm weggelassen hat. Zudem sind - laut meinen Informationen - auch Massetransistoren weggefallen, zur Vermeidung von "Hotspots" im Sinne der Taktbarkeit. 90nm Low-K hat nicht nur sehr vorteilhafte Eigenschaften, was das Chip-interne "Leaking" angeht (meist der wichtigste Faktor, was die Yields angeht), sondern auch deutlich verbesserte Charakteristika hinsichtlich der Transistoren selbst.
Nichts anderes habe ich behauptet, wenn du die Folgebeiträge liest.

Sunrise
2006-04-10, 22:01:33
Ein ziemlich nerviger Ton, den du da bei geringem Hinterfragen anlegst. So macht Diskutieren keinen Spaß. Ich wollte nicht implizieren, dass du unbedingt im Unrecht bist, sondern nur meine Bedenken hinsichtlich einer Verkürzung der logischen Pipelinelänge äußern.
Du solltest doch mittlerweile wissen, dass ich eines ganz sicher nicht bin - darauf aus, hier im Forum "Unwissen" zu verbreiten.

Was den "nervigen Ton" angeht:

Nein, ich wollte damit nur implizieren, dass ich nicht glaube, dass sie das getan haben. ;)

Du schreibst jedesmal in deine Posts, dass du "glaubst, dass". Das erkenne ich genauso an, wie von jedem anderen auch. Dein vorletzter, zitierter Post klingt aber, als hättest du selbst starke Zweifel, dass die Dinge, die du selbst ansprichst, wahr sind und lieferst gleichzeitig auch keine Quellen, bei denen man das Gefühl hätte, dass diese Dinge Hand und Fuß haben.

Ich wüsste nicht, was falsch daran ist, dich darauf sachlich hinzuweisen. Du interpretierst immer alles ins Negative, was ich nicht so ganz verstehen kann.

robbitop
2006-04-10, 22:11:27
So kommt dein Ton nunmal rüber. Sarkastisch, feindlich und leicht überheblich. Das ginge auch anders und würde das Diskutieren deutlich angenehmer machen. Schließlich habe ich dich AFAIR nie mit so einem Ton behandelt (siehe Wald ;)). Und ich wäre interessiert an einem etw freundlicheren Miteinander.

Ich zweifle etwas an, weil ich mich über dieses Thema mit ein paar Technikern unterhalten habe. Natürlich habe ich keine Belege dafür. Soll ich dann lieber still bleiben? ;) Auch behaupte ich keinesfalls, dass meine Postings eher wahr sind als andere. Zweifel anbringen aufgrund eigener Überlegungen wird ja wohl noch erlaubt sein. Das soll wie gesagt nie ein Angriff sein. Nur jedesmal ständig alles belegen zu müssen...das kann es auch nicht sein. Das kann ein Bot sicher genauso gut. Schließlich stelle ich das nicht explizit als Fakt dar.

*end-of-OT*

Sunrise
2006-04-10, 22:23:39
Nur jedesmal ständig alles belegen zu müssen...das kann es auch nicht sein. Das kann ein Bot sicher genauso gut. Schließlich stelle ich das nicht explizit als Fakt dar.
Wir versuchen doch alle, uns Themen zu nähern (und sie möglichst gut zu belegen), ohne (was oft der Fall ist, keiner ist allwissend) die wirklichen Fakten zu kennen. Der entscheidende Teil eines Forums und der Kommunikation ist es doch, miteinander sachlich zu diskutieren und nicht jedesmal so zu reagieren wie du es gerade tust. Kritikfähigkeit muss gegeben sein, und eine gewisse Distanz zu den Dingen, über die man diskutiert, sowieso.

Nebenbei: Ich hätte wohl kaum nach deiner Meinung gefragt, wäre ich an deiner Meinung nicht interessiert.

(Alles, was persönlicher Natur ist, hat hier eigentlich nichts zu suchen.)

robbitop
2006-04-10, 22:34:46
Dein Ton ist keinesfalls sachlich. Dank u.A. deinem Sarkasmus wirkt er auf mich wirklich aggressiv. (trotz des Forums sind es Menschen die diskutieren...das wird oftmals zu schnell vergessen) Schön, dass es dir egal ist und du diese Kritik anscheinend nicht annimmst. Danke fürs Gespräch. ksrythx :|

On Topic:

Die Pipeline wurde vermutlich um einige Driving Stages verkürzt. Doch was mich interessiert: wurde sie auch logisch verkürzt?
10% der Transistoren sparen sich sicher nicht allzu leicht. Wurde die Tonemapping Unit eigentlich schon zum G70 hin entfernt?

Coda
2006-04-10, 22:47:43
Doch was mich interessiert: wurde sie auch logisch verkürzt?
Das wohl kaum, da stimme ich dir uneingeschränkt zu. Das wäre echt viel Aufwand für einen solchen Refresh.

Die meisten Transistoren wurden meiner Meinung nach dadurch entfernt dass man überschüssige ALUs weggelassen hat, die es bei G70 sicherlich gab (das Die ist viel zu riesig um sonst gute Yields zu bekommen).

StefanV
2006-04-10, 22:50:27
So kommt dein Ton nunmal rüber. Sarkastisch, feindlich und leicht überheblich.
Also wie jemand, der weiß, was er weiß und weiß, das der Gegenüber falsch liegt?
Oh, ich überspann mal den Bogen einfach mal ein wenig:
Wie jemand, der viel weiß und weiß, das er viel weiß, so ein Sarkastischer, feindlicher und leicht überheblicher Stil kommt mir eigentlich bekannt vor :upoder:
Ach, liegt wohl daran, das man das bei so ziemlich jedem hier im Forum findet, insbesondere bei den Gurus wie Coda, Demirug, XMas...

Das ginge auch anders und würde das Diskutieren deutlich angenehmer machen.
Wie wärs, wenn du das einfach mal ignorieren würdest und dich einfach auf die Aussagen der Person konzentrieren würdest, zumal ich die Postings von Sunrise eigentlich noch als recht nett empfunden hab, für jemanden, der wirklich weiß, wovon er redet (nein, damit mein ich jetzt nicht dich, robby) :rolleyes:


Ansonsten würde ich DIR; lieber Robby mal raten, die persönlichen Differenzen per PM auszuhandeln und nicht unbedingt öffentlich in irgendeinem Forum, zumal ich bei Sunrise eher das Gefühl hab, das er weiß, wovon er redet, als bei dir, aber das nur am Rande...

Diese ganzen keilereien in diesem Forum kotzen mich btw ziemlich an und sind ein Grund dafür, das ich mich so sehr zurückgezogen hab, weil ich einfach keinen Bock hab, mich mit irgendwem rumzuschlagen...


Achja:
Worum gehts hier eigentlich?!

Die letzten Seiten gings irgendwie nur um irgendwelche gezählten Erbsen, könnten wir eventuell uns mal die Köppe um wichtigere Dinge einschlagen als irgendwelche Mücken?!

robbitop
2006-04-10, 22:54:37
Das wohl kaum, da stimme ich dir uneingeschränkt zu. Das wäre echt viel Aufwand für einen solchen Refresh.

Die meisten Transistoren wurden meiner Meinung nach dadurch entfernt dass man überschüssige ALUs weggelassen hat, die es bei G70 sicherlich gab (das Die ist viel zu riesig um sonst gute Yields zu bekommen).
Überschüssige ALUs? Im Sinne von Redundanz innerhalb eines Quads?

Coda
2006-04-10, 23:12:50
Entweder dass oder wirklich ein ganzes Quad mehr.

robbitop
2006-04-10, 23:19:45
Hm, hatte Dave nicht damals mal soetwas angedeutet? G70 war ja auch ggü NV40 ziemlich "groß" trotz seiner Skallierung.

reunion
2006-04-10, 23:20:55
On Topic:
[...]


Also "OnTopic" ist das schon lange nicht mehr. Ein Split wäre mal angebracht...

Hm, hatte Dave nicht damals mal soetwas angedeutet? G70 war ja auch ggü NV40 ziemlich "groß" trotz seiner Skallierung.

Es gab ziemlich oft verschiedenste Gerüchte (speziell vom INQ :D), wonach G70 über acht vollständige Quads verfügen würde. Allerdings würde das nie genauer eruiert, und auch DaveB äußerte sich dazu stets stark spekulativ IMO.

Ailuros
2006-04-11, 08:31:17
Beim letzten briefing gab es gruendliche Infos ueber G71 und ein paar Fetzen ueber G80. Alles steht wie verstaendlich unter NDA.

Was die Aenderungen in G71 betrifft reicht IMO das was bis jetzt angedeutet wurde und manche sollten sich dran erinnern dass die GTX512 eigentlich nie geplant war. Was den Herstellungsprozess und G80 betrifft, obwohl der Schwung von 90 auf 80nm nicht relativ "gross" ist was den Aufwand betrifft, es wird auch wieder Zeit kosten und den Luxus hat NV momentan auch nicht unbedingt.

Es gab ziemlich oft verschiedenste Gerüchte (speziell vom INQ ), wonach G70 über acht vollständige Quads verfügen würde. Allerdings würde das nie genauer eruiert, und auch DaveB äußerte sich dazu stets stark spekulativ IMO.

Kein tape-out, aber selbst bei 550MHz wurde das Ding zu heiss im relativen Sinn was fuer den notebook Markt nicht besonders geholfen haette. Der Gewinn insgesamt (alle Vor- und Nachteile mitberechnet) fuer einen 6 quad@650MHz war insgesamt groesser. Und ja fuer solchen Schnickschnack kann selbst ein Simulator genug anzeigen bevor man Zeit und Geld fuer tape outs verplempert.