PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

oliver2909
2008-11-01, 08:57:33
ich hoffe der R800 wird wieder ein Preisleistung Burner

Ailuros
2008-11-01, 09:03:13
ich hoffe der R800 wird wieder ein Preisleistung Burner

Bis jetzt steht RV870 in meinen zukuenftigen Aufruestungs-Plaenen.

Gast
2008-11-01, 10:31:17
Ausserdem will ich bezweifeln dass sich NV mit einem Halbjahr Unterschied mit einer neuen Technologie-Generation schlagen laesst. Jegliches Geruecht dass ueber GT21x und D3D11 spricht, ist IMHLO absoluter Unsinn.

Jo, dass erst GT300 DirectX 11 bringen wird, hat ja erst die jüngste, angebliche Nvidia-Roadmap bestätigt. Wie aber schaut es mit DirectX 10.1 in Zusammenhang mit dem GT21x aus? Gerade, dass nun auch Windows 7 Gebrauch davon machen wird, wirft doch neuen Zündstoff in die Diskussion...

Sorkalm
2008-11-01, 11:16:47
Jo, dass erst GT300 DirectX 11 bringen wird, hat ja erst die jüngste, angebliche Nvidia-Roadmap bestätigt. Wie aber schaut es mit DirectX 10.1 in Zusammenhang mit dem GT21x aus? Gerade, dass nun auch Windows 7 Gebrauch davon machen wird, wirft doch neuen Zündstoff in die Diskussion...

Da bräuchte man eher entsprechende IGPs als große Grafiklösungen.

igg
2008-11-01, 12:06:21
Bis jetzt steht RV870 in meinen zukuenftigen Aufruestungs-Plaenen.
Wie kommt es dass du dem RV870 mehr zutraust als der GT3xx (bzw. GT212(?

Gaestle
2008-11-01, 13:38:23
Ich vermute, es geht wohl eher um GT212 vs. RV870 (beides wohl H1/09)
GT3xx kommt wohl erst Ende 09.

Nakai
2008-11-01, 14:44:11
Ich vermute, es geht wohl eher um GT212 vs. RV870 (beides wohl H1/09)
GT3xx kommt wohl erst Ende 09.

Würde für eine geringere Leistungssteigerung seitens des RV870 passen.


mfg Nakai

derguru
2008-11-01, 15:44:40
Ich vermute, es geht wohl eher um GT212 vs. RV870 (beides wohl H1/09)
GT3xx kommt wohl erst Ende 09.

sehe ich auch so,ich glaub nicht das man auf den RV870 der angeblich 25% mehrleistung haben soll bis zum sommer warten muss.(bis zum Sommer wäre eine mehrleistung von 25% eigentlich zuwenig)
das müsste eigentlich die antwort auf die refresh karten von nv sein.die nv karten denke ich aber werden schon spätestens im dezember in den markt geworfen.

Gast
2008-11-01, 15:46:25
Dass eben die alten roadmaps beider IHVs seit einer geraumen Zeit bekannt waren. Auf der alten stand natuerlich drauf dass "R700" sogar D3D11 sein wird. Bis zu etwa einem Jahr zurueck dachte selbst "Wavey" dass deren Tesselator fuer 11 genueg sein wird. Bis eben die Bombe seitens M$ platzte dass noch zwei stages in den D3D11 Tesselator dazukamen. Plus natuerlich alle andere zusaetzlichen Vorraussetzungen fuer 11, die AMD nicht zu 100% klar waren als sie die alte roadmap geplant hatten.
Du rechnest ernsthaft damit, dass die beiden neuen Shaderstufen sehr transistorintensiv sind? Wo sollen da die Transitoren verwendet werden? Bis auf gegebenenfalls kleinen Anpassungen beim Scheduler sehe ich da nichts.

Coda
2008-11-01, 15:49:25
Für die Tesselation braucht man schon einiges an Fixed-Function-Logik.

Gast
2008-11-01, 16:09:37
Für die Tesselation braucht man schon einiges an Fixed-Function-Logik.
Die sich inwiefern von der bisherigen Fixed-Function Tesselation Logik unterscheidet?

Ailuros
2008-11-01, 16:43:23
Jo, dass erst GT300 DirectX 11 bringen wird, hat ja erst die jüngste, angebliche Nvidia-Roadmap bestätigt. Wie aber schaut es mit DirectX 10.1 in Zusammenhang mit dem GT21x aus? Gerade, dass nun auch Windows 7 Gebrauch davon machen wird, wirft doch neuen Zündstoff in die Diskussion...

Wenn NV in ihrem Dornroeschen-schlaf nicht so sicher waeren dass sie 10.1 "nicht brauchen", haetten sie es zumindest mit GT200 schon gebracht. Ich bezweifle dass sie sich die Muehe ueberhaupt machen, wuerde aber gerne angenehm ueberrascht werden.

Nebenbei was genau soll Dir 10.1 fuer Windows7 genau liefern?

Du rechnest ernsthaft damit, dass die beiden neuen Shaderstufen sehr transistorintensiv sind? Wo sollen da die Transitoren verwendet werden? Bis auf gegebenenfalls kleinen Anpassungen beim Scheduler sehe ich da nichts.

Du willst mir doch nicht einreden dass D3D11 als einzige Erweiterung nur den Tesselator bringt oder? Es klingt mir eher danach als ob man fuer D3D11 die bisherige D3D10.x pipeline nicht unbedingt optimal ist. Kommt natuerlich auch darauf an auf was man genau zielt; schielt man eher in Richtung GPGPU waeren MIMD Einheiten (mit ihren Vor- und Nachteilen) als Beispiel eine Idee. Aber von der anderen Seite kommt es auch natuerlich darauf an was man genau unter "multi-threading" (ueberhaupt unter D3D11) verstehen will.

Nebenbei kannst Du die paar angeblichen Anpassungen fuer den Tesselator vergessen. Es hiess zurueck zu den Kreidetafeln vor einiger Zeit fuer alle IHVs.

Sorkalm
2008-11-01, 16:54:53
Nebenbei was genau soll Dir 10.1 fuer Windows7 genau liefern?

Direct2D (http://winfuture.de/news,43258.html)
Soll aber auch bei GPUs die D3D10.1 nicht unterstützen, dafür aber D3D9, im begrenzten Umfang laufen.

Ailuros
2008-11-01, 17:01:42
Direct2D (http://winfuture.de/news,43258.html)
Soll aber auch bei GPUs die D3D10.1 nicht unterstützen, dafür aber D3D9, im begrenzten Umfang laufen.

Tja wenn NV kein 10.1 bringt, finden sie wohl wieder irgend eine Hintertuer das Zeug unter 10 zu realisieren. Wenn's in Spielen geht dann wird's wohl nicht besonders schwer fuer ein bisschen verstreutes AA auf dem desktop sein.

Gast
2008-11-01, 18:07:03
Du willst mir doch nicht einreden dass D3D11 als einzige Erweiterung nur den Tesselator bringt oder?
Nein. Du hast aber als Hauptargument die beiden neuen Shaderstufen genannt, welche in meinen Augen Hardwaretechnisch die kleinsten Veränderungen verursachen dürften. Wenn überhaupt....
Auch sehe ich Codas Argument, dass Tesselierung einiges an Fixed-Function braucht sehr kritisch. Tesselierung funktioniert heute auch ohne FF schon gut. Die API ist halt noch nicht sehr brauchbar dafür. Zudem wird Intel wird es auch in Software lösen. Falls es da größere Hardwareprobleme gibt, sollte man eher darauf schauen, dass die Flexibilität der Hardware erhöht wird.

Es klingt mir eher danach als ob man fuer D3D11 die bisherige D3D10.x pipeline nicht unbedingt optimal ist.
Ist ein Argument. Aber halt ein schwer spekulatives.

Kommt natuerlich auch darauf an auf was man genau zielt; schielt man eher in Richtung GPGPU waeren MIMD Einheiten (mit ihren Vor- und Nachteilen) als Beispiel eine Idee.
Was für mich durch Intels Designentscheidungen nicht als sehr sinnvoll klingt. Aber ok.
Aber von der anderen Seite kommt es auch natuerlich darauf an was man genau unter "multi-threading" (ueberhaupt unter D3D11) verstehen will.
Multithreaded Rendering? Das wurde doch schon von MS ausführlich vorgestellt. Schreit extrem nach Softwarelösung.

Nebenbei kannst Du die paar angeblichen Anpassungen fuer den Tesselator vergessen. Es hiess zurueck zu den Kreidetafeln vor einiger Zeit fuer alle IHVs.
Ich sage nicht, dass deine Aussage falsch ist. Nur die Argumentationskette ist quasi nicht existent. Welches neue Feature soll so verheerend gewesen sein?

Ailuros
2008-11-02, 22:07:57
Nein. Du hast aber als Hauptargument die beiden neuen Shaderstufen genannt, welche in meinen Augen Hardwaretechnisch die kleinsten Veränderungen verursachen dürften. Wenn überhaupt....

Dann lese meine Posts der vorigen Seite etwas vorsichtiger durch. Ich hab mich lediglich mehr auf den Tesselator konzentriert weil ATI Fans konstant den bloeden Eindruck haben dass der Xenos/R600 "ausreichen" wird fuer D3D11. Und leider so hiess von manchen ATI Angestellten auch vor einiger Zeit.

Auch sehe ich Codas Argument, dass Tesselierung einiges an Fixed-Function braucht sehr kritisch. Tesselierung funktioniert heute auch ohne FF schon gut.

Tja Coda's Argument bringt nur neue Fragezeichen, z.B. ob man den R600/Xenos Tesselator total zum Fenster hinausschmeisst oder nicht. Ich wuerde persoenlich eher schaetzen dass er stehen bleibt und man dem Ding die notwendige Programmierbarkeit fuer D3D11 hinzufuegt.

Die API ist halt noch nicht sehr brauchbar dafür. Zudem wird Intel wird es auch in Software lösen. Falls es da größere Hardwareprobleme gibt, sollte man eher darauf schauen, dass die Flexibilität der Hardware erhöht wird.

Wer immer erzaehlt dass LRB keine FF HW enthaelt, hat IMHLO eine falsche Vorstellung von dem Ding. Was wohl momentan noch keiner wissen kann ist wieviel an FF HW und wo genau eingesetzt wurde.

Ist ein Argument. Aber halt ein schwer spekulatives.

Ich gehe keineswegs von LRB dafuer aus, sondern eher von IMG's SGX welches reine MIMD Einheiten enthaelt.

Was für mich durch Intels Designentscheidungen nicht als sehr sinnvoll klingt. Aber ok.

Siehe oben. Nebenbei Intel's groesstes Problem klingt mir eher nach zu grossem die-size um Leistungsmarge X erreichen zu koennen. Vielversprechend klingt mir LRB sowieso nicht, aber eine generelle Tendenz in Richtung mehr FF HW loszuwerden von allen IHVs wuerde mir auch keinen besonderen Eindruck machen.

Multithreaded Rendering? Das wurde doch schon von MS ausführlich vorgestellt. Schreit extrem nach Softwarelösung.

Wie gesagt kommt ganz drauf an was man genau unter multithreading verstehen will.


Ich sage nicht, dass deine Aussage falsch ist. Nur die Argumentationskette ist quasi nicht existent. Welches neue Feature soll so verheerend gewesen sein?

Da es sich um AMD's GPUs hier handelt, wird AMD den Xenos/R6x0 Tesselator nicht so benutzen koennen wie er heute existiert. Das ist auch was ich mit der zurueck zu den Kreidetafeln fuer D3D11 andeutete.

deekey777
2008-11-02, 22:13:38
Was meinst du mit "reinen MIMD-Einheiten"?

Ailuros
2008-11-02, 22:40:34
Was meinst du mit "reinen MIMD-Einheiten"?

Heutige GPUs haben eine X Anzahl an SIMD Einheiten mit einer MIMD "Verbindung" zwischen diesen.

Auf G8x/GT200 kann nur die selbe Instruktion (vereinfacht) pro 8SPs durchlaufen ueber eine Anzahl von zykli (je nach thread type).

NV4x/G7x hatten MIMD VS Einheiten und es war auf diesen gleichgueltig ob jede Einheit nicht untereinander verwandte vertices bearbeitete.

deekey777
2008-11-02, 22:54:24
Heutige GPUs haben eine X Anzahl an SIMD Einheiten mit einer MIMD "Verbindung" zwischen diesen.

Auf G8x/GT200 kann nur die selbe Instruktion (vereinfacht) pro 8SPs durchlaufen ueber eine Anzahl von zykli (je nach thread type).

NV4x/G7x hatten MIMD VS Einheiten und es war auf diesen gleichgueltig ob jede Einheit nicht untereinander verwandte vertices bearbeitete.

Das ist mir schon klar. Nur kann ich daran nicht so recht glauben, denn die kleinste Größe ist ein Quad. Sprich: Selbst wenn du "SIMDs" aus einem SP hast, wird dieser nicht eine Instruction pro Pixel, sondern pro Quad ausführen, auch wenn hintereinander. Und so eine einzelne SIMD-Einheit wäre nicht "One-Way-SIMD", sondern "4-Way-SIMD" (AMD spricht bei den einzelnen SIMD-Engines des RV670 deshalb von 64-Way-SIMDs, denn dort dauert es ja vier Takte bis zum Wechsel von einer Instruction zur anderen, darum ist die "Wavefront" 64 Threads groß).

Natürlich kannst du jetzt die Bratpfanne rausholen und sagen, was das Ganze mit IMG zu tun hat. :weg:

Ailuros
2008-11-03, 00:52:46
Das ist mir schon klar. Nur kann ich daran nicht so recht glauben, denn die kleinste Größe ist ein Quad. Sprich: Selbst wenn du "SIMDs" aus einem SP hast, wird dieser nicht eine Instruction pro Pixel, sondern pro Quad ausführen, auch wenn hintereinander. Und so eine einzelne SIMD-Einheit wäre nicht "One-Way-SIMD", sondern "4-Way-SIMD" (AMD spricht bei den einzelnen SIMD-Engines des RV670 deshalb von 64-Way-SIMDs, denn dort dauert es ja vier Takte bis zum Wechsel von einer Instruction zur anderen, darum ist die "Wavefront" 64 Threads groß).

Es bleibt aber 1 instruction => multiple data. Multiple instruction => multiple data ist eben ein Schritt weiter wenn es zu multithreading kommt; mehrere Threads laufen parallel durch jede Einheit und im Idealfall mit 0 overhead fuer context switching u.a.

Natürlich kannst du jetzt die Bratpfanne rausholen und sagen, was das Ganze mit IMG zu tun hat. :weg:

Nein. Ich benutzte SGX nur als Beispiel, weil es eine total andere Realisierung fuer das Ganze darstellt. Verdammt vereinfacht eine quasi "heterogene CPU" an die die entsprechende FF HW bzw. Einheiten dazugefuegt wurden. NV als Gegenbeispiel befindet sich nur einen Schritt dass die ROPs verschwinden und es koennte eventuell irgendwann auch bei ihnen zu MIMDs kommen. Es ist stets eine Frage ob bei Loesung X die Vorteile den Nachteilen ueberwiegen und natuerlich auch ob X auch in ein Transistoren-budget Y passt.

aylano
2008-11-04, 11:27:22
Es geht gar nicht um die Wichtigkeit von D3D11, sondern eher dass es in den bis jetzt verfuegbaren Herstellungsprozessen keinen Platz fuer gleichzeitige 11 Komplianz und einer gesunden Leistungssteigerung gibt (oder besser es sieht mir nicht danach aus). Ausserdem will ich bezweifeln dass sich NV mit einem Halbjahr Unterschied mit einer neuen Technologie-Generation schlagen laesst. Jegliches Geruecht dass ueber GT21x und D3D11 spricht, ist IMHLO absoluter Unsinn.
Irgendwie wird ATI dann wahrscheinlich ihren Vorteil vom kleinen Die ausspielen.
Mit zB. einer Frühen Einführung von DX11, während Nvidia mit gleicher Die-Größe zur gleichen Zeit nur eine Shrink machen kann. Später integriert Nvidia DX11 und ATI kann/wird noch viele Shader draufklatschen.

Nehmen wir mal an, Nvidia shrinkt nur den GT200 auf 40nm, während ATI auch auf DX11 setzt und somit dann beide etwa einen ähnlich großen DIe haben.
Dann sind für längere Zeit bis auf die DX11-Features beide ungefähr gleich gut a la Performance & Die-Größe.

Aber wir sahen schon beim RV670 sahen, der DX10.1 hatte , dass das Feature als DX10.1 nicht so wichtig, wenn die andere Karte a la 8800GT um AFAIK 20% schneller ist.

Oder der GT200 hat Physik-X, Cuba, Hybrid-Power sowie angeblich eine Schönere Grafik haben und ist dabei wieder um ca. 20% schneller als eine RV770 sein.
Trotzdem wird fast nur RV770 gekauft, weil Performance bzw. Preis/Leistung eben verdammt wichtig ist und während Features eine untergeordnete Rolle spielen.

Und das könnte ja beim RV870 wieder passieren, wenn dieser nur auf DX11 setzt und mit nur 20%+ Shader an die GT200 rankommen will. Aber da Nvidia vielleicht nur auf den Shrink setzt und somit auf Perforamce-Steigerung könnte Nvidia per GT212 nicht nur mit einem GPU sondern auch zwei GPU an einer Karte etwas davonrennen, sofern die neue Verbindungstechnologie nicht funktioniert.

Auch diese Variante würde ich für Möglich halten, aber sinnvoller wäre es, wenn ATI wie Nvidia (laut jetzigen Gerüchten) momentan nicht auf DX11 setzt. Und dann wäre statt DX11 genug platz für vielleicht doppelt so viel Shader & Co.
Und später wird DX11 integriert, wenn die 40nm-Fertigung dann größere Dies zulässt.

Das Ganze braucht etwas mehr HW-Liebe das es leider nur in "R700" sprich RV870 finden wird.
Hybrid-Power wurde auch angesagt und es ist bis jetzt noch nicht gekommen.
Und es sieht so aus, als ob CnQ 2.0 & Powerplay 2.0 auch nicht so wirklich funktioniert.

Aber wenn ich spiele mal in der Theorie mit dem obrigen mit: was Du vorschlaegst klingt eher danach als ob man NV die Leistungskrone verschenkt, den kleineren die Vorteil ebenso und nur noch mit hoeherem Stromverbrauch und Papierfranzen ala D3D11 vorzeitig auf dem Karton. So bloed ist AMD IMO nicht.
Nö, die Leistungskrone bekommt man mit Performance & Shadern und nicht mit DX11.
DX11-Spiele kommen eh erst viel später.

Nakai
2008-11-04, 11:46:00
NV konnte auch mit dem NV4x mehr Verkäufe als ATI erzielen, was nur an SM 3.0 lag. SM 3.0-Software gabs ja auch noch nicht, dennoch glaubten viele DAUs das eine 6600GT schneller als eine X850XT war, genau wegen SM 3.0.

Aber mittlerweile ist die Käuferschicht zum Glück intelligenter geworden(ich hoffe es mal...).


mfg Nakai

nagus
2008-11-04, 12:44:36
AMD DX11 bereits im 1Q 2009???!??!

link (http://www.pcgameshardware.de/aid,665797/News/Roadmap_Radeon_HD_5800_mit_DirectX_11_und_Nvidia_GT212_Anfang_2009/)

AnarchX
2008-11-04, 12:46:52
Selfmade by P3DNow:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1225703919

Zumal es wohl mit 40nm nicht im Q1 wird und für DX11 wohl auch eher Ende 2009 von MS veröffentlicht wird.

Coda
2008-11-04, 13:53:03
DX11 gibt's schon als Beta im November-SDK. Wenn man von der D3D10-Timeline ausgeht ist es also spätestens Q2 2009 fertig.

Allerdings wäre es schon sehr ungewöhnlich, wenn ATI so viel früher mit D3D11 ankommen würde.

w0mbat
2008-11-04, 14:10:58
Selfmade by P3DNow:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1225703919

Zumal es wohl mit 40nm nicht im Q1 wird und für DX11 wohl auch eher Ende 2009 von MS veröffentlicht wird.

Da wäre ich mir nicht mehr so sicher. Es sieht zwar bis jetzt nach Q2 aus, aber Q1 wäre nicht unmöglich. Und wenn es beim RV870 so gut wie beim Shanghai läuft sowieso ;)

Gast
2008-11-04, 19:16:57
Warum sagen immer alle, es wäre schlecht wenn der RV 870 nur 20% schneller wird ?
Überlegt mal Leute : Durch den kleinen Die (~150 mm^2) dürfte es möglich sein, nicht nur 2, sondern auch 3 oder vll. 4 Dies auf einem PCB zu verarbeiten. Und damit wäre mal doch deutlich schneller als heute.

Gast
2008-11-04, 19:31:33
Warum sagen immer alle, es wäre schlecht wenn der RV 870 nur 20% schneller wird ?
Überlegt mal Leute : Durch den kleinen Die (~150 mm^2) dürfte es möglich sein, nicht nur 2, sondern auch 3 oder vll. 4 Dies auf einem PCB zu verarbeiten. Und damit wäre mal doch deutlich schneller als heute.Nur zu welchem Preis? An MultiGPU ohne die üblichen Probleme (Latenz, Mikroruckler, VRAM addiert sich nicht) glaube ich erst, wenn dies wasserdicht bewiesen ist.

Schlammsau
2008-11-04, 19:58:25
Nur zu welchem Preis? An MultiGPU ohne die üblichen Probleme (Latenz, Mikroruckler, VRAM addiert sich nicht) glaube ich erst, wenn dies wasserdicht bewiesen ist.

Das Problem des VRAMs dürfte bei 1GB pro GPU doch keine Rolle mehr spielen oder?

Coda
2008-11-04, 20:00:51
Klar, das VRAM-Problem lässt sich so erschlagen. Der Rest leider nicht.

Ailuros
2008-11-05, 08:00:13
Selfmade by P3DNow:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1225703919

Zumal es wohl mit 40nm nicht im Q1 wird und für DX11 wohl auch eher Ende 2009 von MS veröffentlicht wird.

Das "Selfmade" sollte man hier betonen. Ich sehe erstmal nirgends eine GX2 von NV, die codenamen fuer GT21x sind verkehrt und die gesamte Tabelle basiert im guten Ganzen auf dem Zeug dass hier und da herumschwirrt.

Irgendwie wird ATI dann wahrscheinlich ihren Vorteil vom kleinen Die ausspielen.
Mit zB. einer Frühen Einführung von DX11, während Nvidia mit gleicher Die-Größe zur gleichen Zeit nur eine Shrink machen kann. Später integriert Nvidia DX11 und ATI kann/wird noch viele Shader draufklatschen.

Die obrige These geht ziemlich gut auf AMD's Rechnung insgesamt, wenn NVIDIA mit dem GT3x0 nur einen "ueberarbeiteten" GT2x0 bzw. G80 bringt. Ich bin eben momentan so naiv und erwarte als Laie etwas fundamentalere Aenderungen fuer D3D11 und das von allen IHVs. Undendlich SPs "dazuklatschen" fuehrt irgendwann auch zu einer quasi Sackgasse wie eben GT200. Ich will hoffen dass AMD ihre roadmap fuer H2 2009 nicht unter solchen Vorraussetzungen geplant hat. Was fuer Folgen es haben kann wenn man die Konkurrenz zu stark unterschaetzt, haben wir schon etliche Male in diesem Markt gesehen.

Nehmen wir mal an, Nvidia shrinkt nur den GT200 auf 40nm, während ATI auch auf DX11 setzt und somit dann beide etwa einen ähnlich großen DIe haben.
Dann sind für längere Zeit bis auf die DX11-Features beide ungefähr gleich gut a la Performance & Die-Größe.

Moment ein RV870 soll gleich gross sein als GT212 oder was? Wenn ja dann waere es eher verheerend fuer AMD. Damit das Ganze zumindest fast so gut hinhaut wie unter RV770 vs. GT200, muessten 2*RV870 dies etwas kleiner als GT212 sein und zumindest gleich so viel Leistung.

Aber wir sahen schon beim RV670 sahen, der DX10.1 hatte , dass das Feature als DX10.1 nicht so wichtig, wenn die andere Karte a la 8800GT um AFAIK 20% schneller ist.

Ein API update hat schon einen Unterschied zu einer neuen API Generation. Ueberhaupt da 10.1 der kleinste update in der gesamten Direct3D Geschichte war, war das letztere kein besonderer Grund mich persoenlich marketing-technisch von diesem ueberzeugen zu lassen. Bei D3D11 vs. D3D10 und vergleichbarer Leistung werden hoechstwahrscheinlich auch meine Beine schwach, egal ob ich die 11 Komplianz nur in ein paar techdemos sehen kann.

Oder der GT200 hat Physik-X, Cuba, Hybrid-Power sowie angeblich eine Schönere Grafik haben und ist dabei wieder um ca. 20% schneller als eine RV770 sein.
Trotzdem wird fast nur RV770 gekauft, weil Performance bzw. Preis/Leistung eben verdammt wichtig ist und während Features eine untergeordnete Rolle spielen.

Dass sich RV770 wie warme Semmeln verkaufen wird wohl keiner bezweifeln; das "fast nur" ist aber "fast" schon eine Uebertreibung. Ein so radikales Bild zeigen mir die Q3 Jon Peddie Resultate (vom insgesamten Grafik-Markt) nun auch wieder nicht.

Und das könnte ja beim RV870 wieder passieren, wenn dieser nur auf DX11 setzt und mit nur 20%+ Shader an die GT200 rankommen will. Aber da Nvidia vielleicht nur auf den Shrink setzt und somit auf Perforamce-Steigerung könnte Nvidia per GT212 nicht nur mit einem GPU sondern auch zwei GPU an einer Karte etwas davonrennen, sofern die neue Verbindungstechnologie nicht funktioniert.

GT212 ist afaik ein chip und die gesamte 21x Familie hat nach meinen Infos eine 4*8 Konstellation. Wenn sie das Ding wieder verpatzt haben, dann duerften nicht mehr als 1.4TFLOPs aus dem Ding schiessen. Aber damit sie mit 40nm nur 1.2GHz erreichen, heisst dann aber dann auch dass sie massiv Mist damit gebaut haben.

Auch diese Variante würde ich für Möglich halten, aber sinnvoller wäre es, wenn ATI wie Nvidia (laut jetzigen Gerüchten) momentan nicht auf DX11 setzt. Und dann wäre statt DX11 genug platz für vielleicht doppelt so viel Shader & Co.
Und später wird DX11 integriert, wenn die 40nm-Fertigung dann größere Dies zulässt.

Selbst NV waere weisser IMHLO wenn sie fuer D3D11 nicht auf 40nm setzen wuerden.

aylano
2008-11-06, 03:25:28
ch bin eben momentan so naiv und erwarte als Laie etwas fundamentalere Aenderungen fuer D3D11 und das von allen IHVs.
Du nimmst mich zu wörtlich.
Mit DX11-Integrieren meine ich, die neue DX11-Featurrs dazugeben und mit den dazugehörigen Änderungen a la neues DX11-Architektur.

Generell kann ich mir vorstellen, dass ATI Die-Packdichte-Know-How vom DX10-Design mitnehmen kann.

Undendlich SPs "dazuklatschen" fuehrt irgendwann auch zu einer quasi Sackgasse wie eben GT200.
Die Frage bleibt, was das Ziel vom GT200 war und wie gut man den noch (so auf die Art (zB: Die-Größe) des RV770) optimieren konnte. Und das werden wir eh erst in einigen Monaten sehen, wie sich der GT200 im Server-Bereich durchsetzt und wie groß (falls überhaupt) der Sprung des GT300 ist ala Wie viel R&D in GT200 & GT300?
Der GT200 sieht "ja nur so schlecht aus", weil RV770 überraschend und sprunghaft gut geworden ist.

Bei D3D11 vs. D3D10 und vergleichbarer Leistung werden hoechstwahrscheinlich auch meine Beine schwach, egal ob ich die 11 Komplianz nur in ein paar techdemos sehen kann.
Die Frage bleibt, ob die Masse an Perforamance & High-End-User auch eine langsamere (Annahme) DX11 nur wegen den DX11-Techdemos kaufen wird.
Das bezweifel ich bzw. das könnte für ATI riskant sein.

Dass sich RV770 wie warme Semmeln verkaufen wird wohl keiner bezweifeln; das "fast nur" ist aber "fast" schon eine Uebertreibung. Ein so radikales Bild zeigen mir die Q3 Jon Peddie Resultate (vom insgesamten Grafik-Markt) nun auch wieder nicht.
Ich meinte den Vergleich RV770 vs. GT200 und nicht RV770 vs. gesamte Nvidia-GPU-Palette. (onboard bis High-End in Desktop & Notebook)
Mag sein, dass "fast nur" eine Übertreibung ist. Das liegt vielleicht auch darin, dass es mich eher überrascht, wie viele die Karte (noch) kaufen. Da dürfte der erste Überraschende Eindruck bei vielen noch tief in Erinnerung sein.

Aber damit sie mit 40nm nur 1.2GHz erreichen, heisst dann aber dann auch dass sie massiv Mist damit gebaut haben.
Oder sie sind damit dann zu früh in 40nm gegangen und haben etwas riskiert statt in 55nm zu bleiben. (So wie du das sagtest)
Wenn man hinterher rennt, dann macht man mal kleine überhastige Fehler bzw. Riskiert manchmal ein bisschen mehr a la AMD-CPU-Markt.

Damit das Ganze zumindest fast so gut hinhaut wie unter RV770 vs. GT200, ...
Genau das könnte eben nicht mehr passieren, wenn ATI per RV870 auf DX11 (=etwas höherer Stromverbrauch) setzt und somit die Die-Größe deutlich erhöht und Nvidia per GT21x den Die shrinkt und schaut, dass der Takt ordentlich in die höhe kommt.

Die Welt würde für ATI nicht untergehen, aber der Vorteil mit dem ATI gutes Geld macht, könnte für einige Zeit weg sein.
Und deshalb wäre ein schnellerer Zwischenschieber in 40nm vielleicht doch nicht so schlecht, wie es vielleicht Nvidia macht.

V2.0
2008-11-06, 07:39:03
ATI ist doch in einer komfortabelen Situation. Sie sind mArktführer, sie verdienen Geld, sie haben die kleineren Dies.

NV scheint sehr chaotisch zu reagieren, daher ist es mehr als wahrscheinlich, dass sie GT212 verhauen haben und der Vorteil nur weiter zu Gunsten von ATI ausschlägt.

Gast
2008-11-06, 11:45:31
ATI ist doch in einer komfortabelen Situation. Sie sind mArktführer, sie verdienen Geld, sie haben die kleineren Dies.

NV scheint sehr chaotisch zu reagieren, daher ist es mehr als wahrscheinlich, dass sie GT212 verhauen haben und der Vorteil nur weiter zu Gunsten von ATI ausschlägt.

hust

es gibt kein ATI mehr, es gibt nur noch amd . der letzte müsste es doch schon gehört haben das ATI geschluckt worden ist.

es ist doch traurig bzw peinlich das AMD erst jetzt einigermaßen auf der höhe von nvidia ist.

wenn sich die entwicklung weiter so geit das der stromverbrauch wieder steigt können sich die Graka hersteller ihre ach so tollen neuen Graka´s sonst wo hinstecken, dann wird halt wieder lowlevel grakas gekauft und kein
middel oder highend.

Gast
2008-11-06, 12:03:40
hust

es gibt kein ATI mehr, es gibt nur noch amd . der letzte müsste es doch schon gehört haben das ATI geschluckt worden ist.

es ist doch traurig bzw peinlich das AMD erst jetzt einigermaßen auf der höhe von nvidia ist.

wenn sich die entwicklung weiter so geit das der stromverbrauch wieder steigt können sich die Graka hersteller ihre ach so tollen neuen Graka´s sonst wo hinstecken, dann wird halt wieder lowlevel grakas gekauft und kein
middel oder highend.
und du spielst dann auch freiwillig wieder in 640x480 2D, allerhöchstens 5 texturmaps etc?

Schlammsau
2008-11-06, 12:29:24
hust

es gibt kein ATI mehr, es gibt nur noch amd . der letzte müsste es doch schon gehört haben das ATI geschluckt worden ist.

es ist doch traurig bzw peinlich das AMD erst jetzt einigermaßen auf der höhe von nvidia ist.

wenn sich die entwicklung weiter so geit das der stromverbrauch wieder steigt können sich die Graka hersteller ihre ach so tollen neuen Graka´s sonst wo hinstecken, dann wird halt wieder lowlevel grakas gekauft und kein
middel oder highend.

Mach das doch! Wenn aber keine Spiele damit vernünftig laufen, bringt das nur nicht viel. ;)

Gast
2008-11-06, 13:18:46
Mach das doch! Wenn aber keine Spiele damit vernünftig laufen, bringt das nur nicht viel. ;)
Was heißt "Vernünftig laufen"?

60 FPS ind höchsten Settings? Das kann nichtmal eine 4870 X2, flimmern tuts immer.

Gast
2008-11-06, 15:38:21
GT212 ist afaik ein chip und die gesamte 21x Familie hat nach meinen Infos eine 4*8 Konstellation.

Was für eine 4*8-Konstellation? Meinst Du 32 Streamprozessoren pro Shadercluster?

deekey777
2008-11-06, 15:49:36
Was für eine 4*8-Konstellation? Meinst Du 32 Streamprozessoren pro Shadercluster?
Genau das meint er: In jedem Cluster sind dann vier SMs mit je 8 SPs.
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=6

Gast
2008-11-06, 20:26:40
ICh werf mal eine anderen Frage/Hypothese in den Raum : Vll. hat sich die Verbindung zwischen den GPUs geändert, und man setzt nicht mehr auf normales CF, sondern auf eine andere Technologie um die GPUs untereinander kommuniezieren zu lassen.

igg
2008-11-06, 20:32:22
@Gast: Das hieß es beim R600, beim R700, und es wäre ja seltsam wenn es diese Gerüchte zum R800 nicht gibt. Aber es würde mich bei dem R&D Budget von AMD/ATI wundern.

Schlammsau
2008-11-06, 20:39:04
@Gast: Das hieß es beim R600, beim R700, und es wäre ja seltsam wenn es diese Gerüchte zum R800 nicht gibt. Aber es würde mich bei dem R&D Budget von AMD/ATI wundern.

Da wird mit Sicherheit was neues geben! Eine neuartige Komunikation der Kerne, ähnlich der einer Multicore CPU.

Gast
2008-11-06, 20:55:25
Da wird mit Sicherheit was neues geben! Eine neuartige Komunikation der Kerne, ähnlich der einer Multicore CPU.
So definitiv, wie es bis zum Schluss beim R700 der Fall war!

Schlammsau
2008-11-06, 20:58:14
Gerade zum Schluss, war es eben ganz klar, dass es kein MCM wird. Aber jetzt wo der Kern unter 200mm² gross werden soll, ist es durchaus denkbar und realisierbar.
Aber das sind natürlich nur Spekulatius! :)

Gast
2008-11-06, 21:21:05
Gerade zum Schluss, war es eben ganz klar, dass es kein MCM wird.
Die Stimmung in den Foren war nicht so.

Es hat alles gegen diese Theorie gesprochen, aber das war ja egal, es wurde bis zum Schluss das heitere vom Himmerl gelogen.

|MatMan|
2008-11-07, 02:10:17
Da wird mit Sicherheit was neues geben! Eine neuartige Komunikation der Kerne, ähnlich der einer Multicore CPU.
Was soll uns denn das bitteschön sagen? GPUs sind schon multicore.

Und selbst wenn du GPUs mit multicore CPUs vergleichen willst, wo soll da die neuartige Kommunikationstechnologie sein? L3 Cache? Der lahme FSB bei den aktuellen C2Qs etwa? Hypertransport? QPI? ... sehr witzig ;D
aber Hauptsache erstmal etwas "schlaues" gesagt...

Schlammsau
2008-11-07, 09:03:18
Was soll uns denn das bitteschön sagen? GPUs sind schon multicore.

Und selbst wenn du GPUs mit multicore CPUs vergleichen willst, wo soll da die neuartige Kommunikationstechnologie sein? L3 Cache? Der lahme FSB bei den aktuellen C2Qs etwa? Hypertransport? QPI? ... sehr witzig ;D
aber Hauptsache erstmal etwas "schlaues" gesagt...

Das VRAM Problem, dass bei 2GB VRAM, jede GPU nur 1GB abbekommt, soll eigentlich schon gelöst sein. Shared VRAM lautet das Zauberwort!
Weiss man es genau? Nein, weil verdammt noch mal, die GPU erst in frühsten 3 Monaten zu erwarten ist.
Ich persönlich glaube nicht, dass ATi nur einen noch schnelleren und kleineren R600 auf den Markt wirft!
Wenn doch, was solls, die R600 Architektur ist durchweg solide, und hat uns bis jetzt noch nicht enttäuscht.

Sorkalm
2008-11-07, 11:24:30
Next generation 40nm ATI is not MCM (http://www.fudzilla.com/index.php?option=com_content&task=view&id=10351&Itemid=1)

Meldet jedenfalls Fudzilla...

Gast
2008-11-07, 11:36:27
Das VRAM Problem, dass bei 2GB VRAM, jede GPU nur 1GB abbekommt, soll eigentlich schon gelöst sein. Shared VRAM lautet das Zauberwort!
.

Da würde ich drauf wetten, daß es auch beim RV870 kein shared VRAM gibt!

Sorkalm
2008-11-07, 11:37:32
Wenns keinen MCM gibt, wäre das auch logisch, dann gibts wieder eine typische X2...

AffenJack
2008-11-07, 15:03:46
Vll wird Rv870 größtenteils nen einfacher shrink mit höheren taktraten und etwas später 2009 kommt dann der dx11 mcm chip. So könnte man den größten teil des R&D fürn nächsten chip investieren und hätte mit ner vll neuen Architektur auch effizienzvorteile in dx11 gegenüber ner architektur wo dx11 nur so zugeklatscht wird.

Gast
2008-11-07, 15:11:39
Ich denke schon, dass RV870 DirectX 11 unterstützen wird. Wie Ailuros hier ja schon mehrfach erwähnte, werden mit der neuen API aber auch einige Schaltungen mehr auf den Chip kommen. Da ist es allzu verständlich, dass man trotz neuer Fertigungstechnologie die Komplexität des Chips ("nur" 20% mehr Streamprozessoren) in Grenzen hält.
Mit der MCM-Lösung können sie ja noch Ende 09 / Anfang 10 kommen, wenn Nvidia seinen GT300 launcht.

Ailuros
2008-11-09, 08:40:16
Du nimmst mich zu wörtlich.
Mit DX11-Integrieren meine ich, die neue DX11-Featurrs dazugeben und mit den dazugehörigen Änderungen a la neues DX11-Architektur.

Generell kann ich mir vorstellen, dass ATI Die-Packdichte-Know-How vom DX10-Design mitnehmen kann.

http://forum.beyond3d.com/showpost.php?p=1237154&postcount=276

http://www.techpowerup.com/75685/AMD_to_Give_RV770_a_Refresh_G200b_Counterattack_Planned.htm

http://www.techpowerup.com/img/08-11-07/3a.jpg

Wie bekommt man jetzt 50% mehr FLOPs mit nur 25% mehr SPs? Und da die Antwort darauf klar sein sollte, was wird dieses in die space genau kosten? Nix dam mit Packdichte know-how da hoeher getaktete Anteile in einem chip das Bild radikal aendern koennen.

Ich bezweifle zwar nicht dass ich falsch liegen koennte, aber bis jetzt scheinen meine bisherigen RV870 Infos zu stimmen.


Die Frage bleibt, was das Ziel vom GT200 war und wie gut man den noch (so auf die Art (zB: Die-Größe) des RV770) optimieren konnte. Und das werden wir eh erst in einigen Monaten sehen, wie sich der GT200 im Server-Bereich durchsetzt und wie groß (falls überhaupt) der Sprung des GT300 ist ala Wie viel R&D in GT200 & GT300?
Der GT200 sieht "ja nur so schlecht aus", weil RV770 überraschend und sprunghaft gut geworden ist.

Stimmt schon aber ebenso sieht es danach aus als ob GT212 doch [12*(4*8)] sein wird. Falls dieses stimmt sind es 384SPs@40nm. Da NV fuer GT3x den gleichen Herstellungsprozess geplant hat, kannst Du gerne weiterspekulieren ob es wahrscheinlicher ist dass NV auf die gleiche Architektur basiert hat oder zu radikaleren Aenderungen gegriffen hat.


Die Frage bleibt, ob die Masse an Perforamance & High-End-User auch eine langsamere (Annahme) DX11 nur wegen den DX11-Techdemos kaufen wird.
Das bezweifel ich bzw. das könnte für ATI riskant sein.

Mein erster Paragraph oben ueberzeugt mich sowieso nicht dass es Platz fuer D3D11 gibt.


Ich meinte den Vergleich RV770 vs. GT200 und nicht RV770 vs. gesamte Nvidia-GPU-Palette. (onboard bis High-End in Desktop & Notebook)
Mag sein, dass "fast nur" eine Übertreibung ist. Das liegt vielleicht auch darin, dass es mich eher überrascht, wie viele die Karte (noch) kaufen. Da dürfte der erste Überraschende Eindruck bei vielen noch tief in Erinnerung sein.

Der eigentliche Vergleich ist sowieso zwischen 4870 und 260 was den unteren high end Markt betrifft. Die erste hat den Vorteil des leicht geringeren Preises.


Oder sie sind damit dann zu früh in 40nm gegangen und haben etwas riskiert statt in 55nm zu bleiben. (So wie du das sagtest)
Wenn man hinterher rennt, dann macht man mal kleine überhastige Fehler bzw. Riskiert manchmal ein bisschen mehr a la AMD-CPU-Markt.

Die 55nm chips haben afaik (was aber keine Garantie sein sollte) ein 2.5x ALU/TMU Verhaeltnis. Bei der theoretischen chip-Komplexitaet eines GT212@40nm erwarte ich keine besonders hoehere core Frequenz als beim GT200, jedoch zumindest das 2.5x Verhaeltnis von den 55nm chips.

Genau das könnte eben nicht mehr passieren, wenn ATI per RV870 auf DX11 (=etwas höherer Stromverbrauch) setzt und somit die Die-Größe deutlich erhöht und Nvidia per GT21x den Die shrinkt und schaut, dass der Takt ordentlich in die höhe kommt.

Die Welt würde für ATI nicht untergehen, aber der Vorteil mit dem ATI gutes Geld macht, könnte für einige Zeit weg sein.

Ich schaetze momentan folgendes (und ja es handelt sich momentan ausschliesslich um persoenliche Spekulation die auf die bisherigen paar Daten basieren).

RV870 =

200 ALUs @0.9GHz = 1.8 TFLOPs

GT212 =

384 SPs @1.5GHz = 1.7 TFLOPs


Und deshalb wäre ein schnellerer Zwischenschieber in 40nm vielleicht doch nicht so schlecht, wie es vielleicht Nvidia macht.

Angenommen das vorige Zeug ist so nahe wie moeglich an der Realitaet, hat sich AMD einen guten Nachfolger fuer RV770 gesichert. D3D11 kann ihnen dann dank den oben erwaehnten TFLOPs wohl vorruebergehend gestolen bleiben.

ATI ist doch in einer komfortabelen Situation.

AMD nicht unbedingt; es geht allen IHVs nicht besonders gut momentan ausser Intel die auch ein Unmenge von Bargeld-Reserven haben, im absoluten Gegenteil zu AMD.

Sie sind mArktführer

Nein.

sie verdienen Geld

Nochmals nein.

sie haben die kleineren Dies

Zweifellos ja.

NV scheint sehr chaotisch zu reagieren, daher ist es mehr als wahrscheinlich, dass sie GT212 verhauen haben und der Vorteil nur weiter zu Gunsten von ATI ausschlägt.

NVIDIA bleibt ausser dass sie vorzeitig mit einem high end chip auf 40nm zu gehen scheinen, auf der bisher bekannten Masche so wie es aussieht. Falls RV870 ein shader domain haben sollte, dann hat AMD eher in Richtung G8x/G2x0 weiterentwickelt. Das Ergebnis duerfte dem 870 schon einen die-space Vorteil garantieren; bleibt abzusehen ob der Unterschied in Leistung pro Quadratmillimeter genauso gross sein wird wie zwischen RV770 und GT200. Da beide den gleichen Herstellungsprozess verwenden werden kann man leicht schon jetzt nein sagen.

Gast
2008-11-09, 11:11:16
RV870 wird keine eigene Shaderdomain besitzen! Habe vor ein paar Wochen einen ausführlichen Artikel zur R6xx-Generation gelesen, der klar suggeriert hat, dass dies bei dieser Architektur nichts/kaum brächte bzw. die einfache Erhöhung der Streamprozessoren deutlich effizienter wäre.

Bezüglich Chipgröße RV870 vs. GT300 kann man aus meiner Sicht in etwa ein 1:2-Verhältnis erwarten, wobei sicherlich auch noch eine Rolle spielt, ob RV870 bereits DirectX11-kompatibel sein wird.

Gast
2008-11-09, 13:14:41
Wie bekommt man jetzt 50% mehr FLOPs mit nur 25% mehr SPs? Und da die Antwort darauf klar sein sollte, was wird dieses in die space genau kosten? Nix dam mit Packdichte know-how da hoeher getaktete Anteile in einem chip das Bild radikal aendern koennen.

Möglichkeiten für 50% mehr Rechenleistung.
0. Möglichkeit: Man erhöht Anzahl der ALUs um 50%. Da die Anzahl aber nur um 25% erhöht wurde, wird es eine effektivere Lösung bzgl. Chipfläche geben. Dies erlaubt uns aber eine Worst-Case Abschätzung für die Chipfläche.
1. Möglichkeit: Man erhöht die Effizienz. Ohne die Architektur zu ändern nur in geringem Umfang möglich. Wenn die angebenen Daten wirklich stimmen sollten, kann man ein ansehnlichen Teil der benötigten 20% damit erreichen.
2. Möglichkeit: Takt erhöhen. Hat auch auf andere Chipbereiche positive Auswirkungen. Allerdings darf die Takterhöhung nicht soviele Fläche kosten, wie die Erhöhung der Anzahl der ALUs.

Wie immer wirds eine Kombination aus allen 3. Allerdings würde man im Worst Case für eine 50% Erhöhung der Leistung mit 50% mehr Transistoren hinkriegen. Das wäre schon allein mit dem neuen Prozess machbar. Offensichtlich ist es aber sogar noch weniger. Womit sich dann die Frage stellt, ob neue Features, kleinere Dies oder noch mehr Rechenleistung das Ziel sind...

horn 12
2008-11-09, 13:44:53
So, wenn der ZwischenRefresh von ATI sicher vor Weihnachten komme sollte, lohnt es sich da zu warten meiner Voraussicht nach.
Mit ca. 875 Mhz CPU Takt und 1050 Mhz Ram GDDR5 Taktung dürfte bei einigen Verbesserungen und 1024MB Ram die Karte wohl zwischen 25-30% schneller werden als die derzeitige HD4870 1GB Version.
Somit hätte ATI dann bis zum RV870 im FrühSommer eine recht potente SingleSlot Lösung für jene welche um die 1920x1200 4-8xAA zocken wollen!

Gast
2008-11-09, 14:17:04
Wie kommst Du darauf, dass sie mit 875/1050 MHz takten würde?
Ich tippe da eher auf etwas konservativere Werte. ;)

horn 12
2008-11-09, 14:23:21
Dies wird wohl der Super RV770 sein, von dem schon vor 3-4 Monaten mal die Rede war und sollten knappe 900 Mhz an GPU Takt mit eignener Kühllüsung werden... Und nehme nun an dass dieser "wieder" eingeführt wurde, da der
RV870 nicht sooo schnell kommen wird!

Undertaker
2008-11-09, 16:32:26
Hmm, aber bei den von dir angedachten 16,7% mehr an Chip-/Speichertakt würde ein solches Modell aber nicht 25-30% schneller sein, sondern eben nur die erwähnten 16,7% im Bestfall ;) Oder sepkulierst du mit Chipänderungen? Das würde ich ja eher nicht erwarten...

Gast
2008-11-09, 17:59:01
Man darf bei RV790 auf 10-15 Prozent Mehrleistung gegenüber RV770 hoffen. Gleiches gilt auch in Bezug auf GT206 und GT200.

Gaestle
2008-11-09, 18:08:57
Irgendwie sieht mir der RV790 nach Reaktion auf GTX260² aus...
Wenn dem so sein sollte, dann erwarte ich mit RV790 lediglich mehr Takt, aber keine neuen Einheiten.

Wenn Ailuros' Quellen Recht haben (delay des 55nm-GT206 auf Q2/09, aber 40nm-GT212 schon in Q1/09), sehen wir vielleicht gar keinen GT206 mehr.

reunion
2008-11-09, 18:14:53
GT212 erst im Q2, GT216 im Q1. Beide 40nm.

horn 12
2008-11-09, 18:32:49
Amd-ati wird sicher alles daran setzen dass eine Standard GTX 280 geschlagen wird,- und die Shader sollen weiter optimiert, das AA überarbeitet werden um noch effizienter arbeiten zu können als es eh schon ist.
Zudem wird ihnen der GDDR5 Speicher nochmals zu Gute kommen.

Denke dies ist der "Super RV770" von dem mal die Rede war,- und bis dato nirgends mehr aufgetaucht ist. Und da sprach man gar von 900-925 Mhz GPU was ich mir aber kaum vorstellen kann Ohne eine WAKÜ.
Aber vieleicht kommt ja ein "DreiSlot Kühler daher, ähnlich wie bei PALIT und Gainward nun mit der HD4870 X². Ob sich dies aber rechnet steht in den Sternen, da dann die Käuferschicht nochmals geringer sein dürfte.
PS: Mit ca. 20-25% kann man schon rechnen, die erwähnten 30% werden wohl Seltenheit erreichen.

robbitop
2008-11-09, 19:16:44
Über 900 MHz GPU Clock wären nötig, um mit einer GTX280 gleich zu ziehen. Das wird mit 55 nm schwierig. Auch der Yield wird nicht doll sein. Die Frage ist, ob das überhaupt der Anspruch von ATI ist. Sie haben doch derzeit ein gutes Lineup.

reunion
2008-11-09, 19:30:27
Da Das Ding RV790 heißen soll und RV770 mit 256mm² alles andere als groß ist aber schon relativ hoch taktet wäre eine Verbreiterung des Chips IMHO viel nahe liegender als eine Erhöhung der Taktraten.

robbitop
2008-11-09, 19:36:06
Wie sicher ist es, dass es nocheinmal so einen Zwischenschieber geben wird? Das wäre ja, da RV870 bald geplant ist, ein relativ kurzer Produktlebenszyklus. Die DIE-Size ist doch beim RV770 auch um die 250 mm^2. Oder soll RV790 schon auf dem 40 nm Fertigungsprozess basieren?

Ailuros
2008-11-09, 19:43:51
RV870 wird keine eigene Shaderdomain besitzen! Habe vor ein paar Wochen einen ausführlichen Artikel zur R6xx-Generation gelesen, der klar suggeriert hat, dass dies bei dieser Architektur nichts/kaum brächte bzw. die einfache Erhöhung der Streamprozessoren deutlich effizienter wäre.

Shader domain Vor- und Nachteile sind weniger Architektur-bedingt als Du Dir vorstellst. Die size zur Seite wuerde ein RV770 seine ALUs auf 1.2GHz takten koennen, haette NVIDIA ihren GT21x schon letztes Jahr gleich stornieren koennen. Bei 1.2GHz waere das Ding knapp unter 2 TFLOPs und AMD haette auch keine X2 benoetigt.

Bezüglich Chipgröße RV870 vs. GT300 kann man aus meiner Sicht in etwa ein 1:2-Verhältnis erwarten, wobei sicherlich auch noch eine Rolle spielt, ob RV870 bereits DirectX11-kompatibel sein wird.

Was meinst Du mit 1:2 Verhaeltnis genau?

Wie sicher ist es, dass es nocheinmal so einen Zwischenschieber geben wird? Das wäre ja, da RV870 bald geplant ist, ein relativ kurzer Produktlebenszyklus. Die DIE-Size ist doch beim RV770 auch um die 250 mm^2. Oder soll RV790 schon auf dem 40 nm Fertigungsprozess basieren?


Nur weil der slide von einem grauem Bereich blubbert, heisst es fuer mich persoenlich gar nichts. AMD haette fuer mich einen Zwischenschieber noetig falls RV870 nicht in Q2 kommen wuerde. Was genau tolles soll denn NVIDIA bis Q2 genau vorstellen?

w0mbat
2008-11-09, 19:47:22
Also ich denke ein reiner Refresh oder Shrink würde RV780 heißen, siehe RV730 -> 40nm RV740. Wenn das Teil wirklich RV790 heißt könnte ich mir, wie AnarchX schon im RV700 Thread geschrieben hat, vorstellen dass wir einen breiteren Chip sehen werden.

Es gab ja Gerüchte über einen RV870 mit 960SPs - vielleicht wurde da nur RV870 mit dem RV790 verwechselt.

Ein RV770 + 2 SIMDs würde ja mit 960SPs + 48TMUs daher kommen und mit 800MHz+ eine GTX280/290 rocken. Zumal er mit ~300mm² immer noch sehr klein wäre. Und wenn sie dann auch noch PP2.0 zum Arbeiten bringen wäre es perfekt.

q208 - RV770 - 55nm - 10 SIMDs (800SPs, 40TMUs, 256bit@1800MHz GDDR5) - 260mm²
q408 - RV790 - 55nm - 12 SIMDs (960SPs, 48TMUs, 256bit@2000MHz GDDR5) - 300mm²
q209 - RV870 - 40nm - ...

LovesuckZ
2008-11-09, 19:47:25
Shader domain Vor- und Nachteile sind weniger Architektur-bedingt als Du Dir vorstellst. Die size zur Seite wuerde ein RV770 seine ALUs auf 1.2GHz takten koennen, haette NVIDIA ihren GT21x schon letztes Jahr gleich stornieren koennen. Bei 1.2GHz waere das Ding knapp unter 2 TFLOPs und AMD haette auch keine X2 benoetigt.


Natürlich ist eine Domain nur für die Recheneinheiten eine architekturbedingte Begrenzung gesetzt. AMD hat 800 Recheneinheiten. Die Stromaufnahme und Wärmeabgabe wird sich klar erhöhen, wenn man sie mit 1200MHz laufen lassen würde.
nVidia hat nur 240 und erreicht nichtmal den Takt eines G92.

deekey777
2008-11-09, 19:58:55
Der GT200 hat 270 SPs.

dargo
2008-11-09, 20:03:32
Der GT200 hat 270 SPs.
Seit wann denn das :confused:

AnarchX
2008-11-09, 20:03:35
Ein RV770 + 2 SIMDs würde ja mit 960SPs + 48TMUs daher kommen und mit 800MHz+ eine GTX280/290 rocken. Zumal er mit ~300mm² immer noch sehr klein wäre. Und wenn sie dann auch noch PP2.0 zum Arbeiten bringen wäre es perfekt.

q407 - RV670
q208 - RV770 - 55nm - 10 SIMDs (800SPs, 40TMUs, 256bit@1800MHz GDDR5) - 260mm²
q408 - RV790 - 55nm - 12 SIMDs (960SPs, 48TMUs, 256bit@2000MHz GDDR5) - 300mm²
q209 - RV870 - 40nm - ...

Ein neuer Chip im Q4 würde in der Tat zu AMDs halbjährlichen High/Performance-Refreshes passen, was ja die Strategie seit RV670 sein soll.

Seit wann denn das :confused:
... wenn man die 30 DP-ALUs hinzählt.

Eigentlich kann man auch von 510SPs sprechen. :D

LovesuckZ
2008-11-09, 20:04:12
Deren 30 SF nur alle 4 Takte mal Schalten. :rolleyes:
Ändert nichts an der Tatsache, dass durch die erhöhte Anzahl an Recheneinheiten die Möglichkeit eines hohen Taktest nicht mehr gegeben ist.
Und das ist ein noch größeres Problem bei AMD, da sie wesentlich mehr Recheneinheiten haben.

deekey777
2008-11-09, 20:05:27
Seit wann denn das :confused:
Seit es diesen Chip gibt.
Oder denkt ihr, dass die DP-Einheiten in der Luft schweben?

reunion
2008-11-09, 20:13:41
Ein neuer Chip im Q4 würde in der Tat zu AMDs halbjährlichen High/Performance-Refreshes passen, was ja die Strategie seit RV670 sein soll.



Richtig, passt auch wie die Faust aufs Auge zu deinen Vorhersagen:

- spätes(Ende) Q2 2008: geplanter Launch des HighEnd R7xx (R700/R720 ?) und des MidRange R7xx (RV750 ?), beide 55nm
- danach etwas später (wohlmöglich Q3 2008): Launch des Mainstream R7xx (RV730?) und des LowEnd R7xx (RV710?)
- im Q4 2008, dann wie laut Tatik eine HighEnd Refresh(wohl mehr als nur Taktraten): R780(sehr wahrscheinlich 45nm) und ein Midrange-Refresh (RV760?)


http://www.forum-3dcenter.org/vbulletin/showthread.php?t=374644

Gast
2008-11-09, 20:41:49
Was meinst Du mit 1:2 Verhaeltnis genau?

Damit meine ich, dass RV870 bspw. 200 mm² groß sein kann, während GT212 400 mm² groß ist.

Ein RV770 + 2 SIMDs würde ja mit 960SPs + 48TMUs daher kommen und mit 800MHz+ eine GTX280/290 rocken. Zumal er mit ~300mm² immer noch sehr klein wäre. Und wenn sie dann auch noch PP2.0 zum Arbeiten bringen wäre es perfekt.

Ich denke hier ständen Aufwand und Nutzen in keinem gesunden Verhältnis. RV790 wird in Q4/08 kommen, allerdings nur mit etwas höheren Taktraten.

IMHO halte ich ca. 850/1000 MHz bei etwa 289 mm² Die-Größe für realistisch.

Sorkalm
2008-11-09, 22:55:09
Wenn man schon einen neuen Chip entwickelt, dürften zwei weitere SIMDs auch nicht so das Problem sein. Gerade wenn man eh ein größeres Design verursachen würde.

Die Frage ist eher, ob man so einen neuen Chip entwickeln will.

w0mbat
2008-11-09, 23:11:10
Ich denke AMD will um jeden Preis seine jetzige Position innehalten und dafür ist ein RV770 Refresh einfach nötig. Die HD4870 kommt zwar ganz gut mit der GTX260(+) zurecht und die HD4870 X2 schlägt die GTX280, aber Nvidia könnte dies schon mit dem G200b/G206 und GTX270/290 ändern. Die GTX270 wird wohl schneller als die HD4870, wird weniger Strom verrauchen und dank 55nm Fertigung auch günstiger in der Herstellung sein (als die jetzige GTX260). Nvidia kann sich hier also wohl deutlich besser aufstellen. Und die GTX290 wird die wohl ebenso schlagen, womit Nvidia wieder an der Spitze währe.

Wenn AMD jetzt einen RV790 mit 12 SIMDs bringt kann man die GTX270 kontern und eventuell (man sehe sich die aktuellen 3-Slot X2s an) auch eine neue X2 gegen die GTX290 bringen. Und mit <300mm² wäre man trotzdem in der besseren Position, zumal DX10.1 immer wichtiger wird.

Ailuros
2008-11-09, 23:18:08
Natürlich ist eine Domain nur für die Recheneinheiten eine architekturbedingte Begrenzung gesetzt. AMD hat 800 Recheneinheiten. Die Stromaufnahme und Wärmeabgabe wird sich klar erhöhen, wenn man sie mit 1200MHz laufen lassen würde.
nVidia hat nur 240 und erreicht nichtmal den Takt eines G92.

GT200 wurde unter 65nm hergestellt und der Grund warum das ALU:TMU Verhaeltnis hier so schlecht ist, ist wohl die zu hohe Chipkomplexitaet. Ein theoretischer RV770 wuerde nie von 260 auf 565 Quadratmillimeter unter 55nm steigen nur weil man die ALU Frequenz entbunden und erhoeht haette. Ja es haette zu kleinerer Packdichte gefuehrt, aber es waere auch selbstverstaendlich gewesen um den Stromverbrauch unter Kontrolle zu halten.

Damit meine ich, dass RV870 bspw. 200 mm² groß sein kann, während GT212 400 mm² groß ist.

Wieviel Transistoren ergeben denn theoretisch 400 Quadratmillimeter unter 40nm? (ehrliche Frage).

Ich denke AMD will um jeden Preis seine jetzige Position innehalten und dafür ist ein RV770 Refresh einfach nötig. Die HD4870 kommt zwar ganz gut mit der GTX260(+) zurecht und die HD4870 X2 schlägt die GTX280, aber Nvidia könnte dies schon mit dem G200b/G206 und GTX270/290 ändern. Die GTX270 wird wohl schneller als die HD4870, wird weniger Strom verrauchen und dank 55nm Fertigung auch günstiger in der Herstellung sein (als die jetzige GTX260). Nvidia kann sich hier also wohl deutlich besser aufstellen. Und die GTX290 wird die wohl ebenso schlagen, womit Nvidia wieder an der Spitze währe.

Um wieviel schneller kann denn eine theoretische 290@55nm als eine 280 wirklich am Ende sein? Ich dachte man haette bis jetzt eingesehen dass NV verzweifelt eine sehr gute mainstream Loesung am dringensten braucht. Warum kommt nochmal GT216 als erste aus dem 40nm Portofolio?

horn 12
2008-11-10, 00:06:39
@Wombat

Wie viel schneller würdest denn nach deinen Prognosen dann die "Neue"
HD4970 ? einschätzen bei deinen Specs im Vergleich zur aktuellen HD4870?

q408 - RV790 - 55nm - 12 SIMDs (960SPs, 48TMUs, 256bit@2000MHz GDR5) - 300mm²

Gast
2008-11-10, 10:14:26
wieso sollte amd/ati 2 simd clusters dranhängen? nochmal nen print? nochmal das ganze geld rauswerfen? nur damit man mit ner singlechip karte die 280er knacken kann, was im märz/april eh schon wieder zum alteisen gehört... ne ne ne, so blöd können die ja nicht sein.

w0mbat
2008-11-10, 10:18:10
@horn 12: Naja, mit 12 SIMDs hätte man 20% mehr Einheiten und mit einem etwas höheren Takt könnte der RV790 gute 30%+ schneller sein.

@Gast: Vielleicht weil der RV770 gegen den G200b keine Chance hätte und AMD weiterhin gerne massig GPUs verkaufen will. Ich weiß nicht wie aufwändig es wäre 2 SIMDs an den RV770 zu klatschen, aber sooo teuer kann ich mir das nicht vorstellen.

AnarchX
2008-11-10, 10:19:53
Weil es nunmal die Strategie sein soll, die AMD für sich festgelegt hat.

Und da dürfte über HW-Einheiten zu skalieren wohl doch etwas einfacher sein, als die hohe Energie-Dichte des RV770 nochmal deutlich zu erhöhen, indem man fast 900MHz anzielt.

Sicherlich steht RV870 für Q2 auf der Roadmap, aber wenn es Probleme mit ihm gibt, sei es mit 40nm, DX11 oder der Finanzkrise, so hat man einen konkurrenzfähigen Chip für das H1 2009.

Gast
2008-11-10, 10:29:33
naja, wenn alles gut läuft, sind die kosten wohl überschaubar, aber man muss sich schon bewusst sein, dass die R&D Kosten dabei massig höher sind, als wenn man einfach gute RV770er selektiert und mit 900 rauslässt. damit hätte man auch 15 - 20% mehr leistung.

V2.0
2008-11-10, 10:31:50
AMD hat aber keinen Druck. NV hat den Ball völlig verloren und hängt wohl bis spät in 2009 auf den jetzigen Chips fest.
Gleichzeitig bedeutet ein 20%-Refresh eben auch einen Preisrutsch bei 4870 und 4850. Ob sich das bei der gegenwärtigen Wirtschaftslage lohnt?

Ailuros
2008-11-10, 10:43:20
Seit es diesen Chip gibt.
Oder denkt ihr, dass die DP-Einheiten in der Luft schweben?

In der Luft schweben sie garantiert nicht, aber man kann nicht so mir nichts dir nichts jede Einheit mitzaehlen, wenn man sie nicht immer einsetzen kann:

That goes for the FP64 ALU per SM too, which could execute at the same time as the FP32 units, but it shares datapaths to the RF, shared memory pools, and scheduling hardware with them so the two can't go full-on at the same time (presumably it takes the place of the MUL/SFU, but perhaps it's more flexible than that). Either way, it's not currently exposed outside of CUDA or used to boost FP32 performance.

http://www.beyond3d.com/content/reviews/51/3

Ausser ich hab irgendwo etwas verpasst.

AMD hat aber keinen Druck. NV hat den Ball völlig verloren und hängt wohl bis spät in 2009 auf den jetzigen Chips fest.
Gleichzeitig bedeutet ein 20%-Refresh eben auch einen Preisrutsch bei 4870 und 4850. Ob sich das bei der gegenwärtigen Wirtschaftslage lohnt?


Was heisst genau keinen Druck?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10348&Itemid=1

http://www.techreport.com/discussions.x/15845#jazz

http://www.techreport.com/discussions.x/15719

Es mag wohl sein dass sie doch noch einen RV7x0 Refresh vorstellen, aber es heisst nun auch wieder nicht dass sie den Luxus haben nicht generell vorsichtig zu sein. IMHLO wuerde eine solche Loesung eher Sinn machen wenn sie wissen dass RV870 es nicht vor dem GT212 schaffen koennte (was aber auch nichts gutes fuer den letzteren heissen koennte). Ausser NVIDIA verarscht wieder die gesamte Welt, sieht GT206/200b nicht danach aus als ob das Ding deutlich die Leistungskrone von RV770 stehlen koennte.

Im Fall wo ein solcher RV7x0 Refresh wirklich ankommt, werden lediglich alle RV770 ausverkauft. Ob es sich lohnt? IMHLO eigentlich nicht, aber AMD wird ja schon wissen muessen wie viel mehr sie verkaufen koennen. Q4 sieht nach Analysten sowieso nicht besonders gut fuer alle Maerkte aus.

V2.0
2008-11-10, 11:21:49
So meinte ich das mit dem Druck nicht. Allerdings frage ich mich ob man einen 20-Refresh im gegenwärtigen Markt noch sinnvoll refinanzieren kann, wenn RV870 nicht verspätet ist. Gerade jetzt zeigen sie ja, dass die Leistungskrone mit einer GPU nicht mehr entscheident ist.

Nightspider
2008-11-10, 11:29:12
AMD hat aber keinen Druck. NV hat den Ball völlig verloren und hängt wohl bis spät in 2009 auf den jetzigen Chips fest.
Gleichzeitig bedeutet ein 20%-Refresh eben auch einen Preisrutsch bei 4870 und 4850. Ob sich das bei der gegenwärtigen Wirtschaftslage lohnt?

Ach du arbeitest wohl bei Nvidia?

Dachte schon du würdest dein Halbwissen nur aus Gerüchteküchen beziehen, da bin ich aber froh. ;D


Mal im Ernst. Du hast keine Ahnung was Nvidia in Petto hat. Ich hab keine Ahnung was Nvidia in Petto hat und kein Anderer hier im Forum.

Gast
2008-11-10, 13:08:04
Was soll dieser Kommentar? Wir sind im Spekulations-Forum und Du kannst Dir sicher sein, dass einige schon etwas mehr wissen, die hier schreiben.

Bezüglich RV790 gibt es eigentlich nur zwei Optionen:
1.) Sie verwenden einfach selektierte RV770-Chips (dürften sich in der Zwischenzeit genügt angesammelt haben). Den Kunden würden dann höhere Taktraten erwarten, aber keine Effizienzsteigerungen.

2.) Sie haben wirklich an einem neuen Chip gearbeitet und den da und dort optimiert. Bei der Gelegenheit wäre es nicht unwahrscheinlich, wenn man tatsächlich noch 2 SIMDs ergänzt hätte.

Zeitlich hätte man letztere Variante durchaus meistern können, denn man denke, was man zwischen R600 und RV670 geleistet hätte. Damals war man aber auch mehr unter Druck, erstere Variante würde ich persönlich als ausreichend empfinden, um gegen GTX 270 zu bestehen.

Für GTX 280 und GTX 290 dürfte man weiter auf Dual-Variante zurückgreifen.

Gast
2008-11-10, 13:15:01
hmm, evnt. ist die motivation in einer single chip karte mit mehr performance als die gtx280/290, dass man nicht so teure dinge wie GDDR5 en massé usw. braucht, dann wäre auch ich zu überzeugen, dass es sich lohnt 2 simds ranzuklatschen. die marge dürfte höher sein. nun, solche entscheide treffe ja zum glück NICHT ich :)

Gast
2008-11-10, 14:21:15
1.) Sie verwenden einfach selektierte RV770-Chips Mich erinnert das mehr an R350 und R360.

Keinerlei Selektierung, sondern einfach ein neues Stepping das eben einen neuen Namen bekommt.

Sorkalm
2008-11-10, 15:16:26
Es mag wohl sein dass sie doch noch einen RV7x0 Refresh vorstellen, aber es heisst nun auch wieder nicht dass sie den Luxus haben nicht generell vorsichtig zu sein. IMHLO wuerde eine solche Loesung eher Sinn machen wenn sie wissen dass RV870 es nicht vor dem GT212 schaffen koennte (was aber auch nichts gutes fuer den letzteren heissen koennte).

Hmm, ich dachte bisher immer diese Entscheidungen müssen deutlich eher gefällt werden. Und da hat man halt beim RV870 das neue Fertigungsverfahren sowie entsprechende Architekturänderungen im Blick und muss abwegen, ob man da nicht eher die risikoärmere Variante fährt und einen weiteren Performance-Chip baut. Das R&D könnte ja auf Grund des nicht mehr zu fertigenden High-End-Chips da sein.

Im Fall wo ein solcher RV7x0 Refresh wirklich ankommt, werden lediglich alle RV770 ausverkauft. Ob es sich lohnt? IMHLO eigentlich nicht, aber AMD wird ja schon wissen muessen wie viel mehr sie verkaufen koennen. Q4 sieht nach Analysten sowieso nicht besonders gut fuer alle Maerkte aus.

Auch hier: Die Analysen für den Markt in Q4 dürften sich wohl - egal wie die Entscheidung zu einem weiteren RV7xx-Refresh ausgefallen ist - erst nach dieser so entscheidend verändert haben.

Coda
2008-11-10, 19:39:56
Mal im Ernst. Du hast keine Ahnung was Nvidia in Petto hat. Ich hab keine Ahnung was Nvidia in Petto hat und kein Anderer hier im Forum.
Ich hab auch keine Ahnung, aber da wäre ich mir jetzt trotzdem nicht so sicher.

Ailuros
2008-11-11, 00:21:22
Hmm, ich dachte bisher immer diese Entscheidungen müssen deutlich eher gefällt werden. Und da hat man halt beim RV870 das neue Fertigungsverfahren sowie entsprechende Architekturänderungen im Blick und muss abwegen, ob man da nicht eher die risikoärmere Variante fährt und einen weiteren Performance-Chip baut. Das R&D könnte ja auf Grund des nicht mehr zu fertigenden High-End-Chips da sein.

NV bringt wohl doch ihre 55nm high end chips, aber es handelt sich eher um eine Massnahme die Produktionskosten zu reduzieren, denn einer besondere Leistungssteigerung wird wohl keiner erwarten.

Klar wuerde man erwarten dass AMD darauf reagiert mit einem RV7x0 Refresh, aber es sieht mir keinesfalls danach aus als ob die die-Groesse in irgend einer Art wachsen wuerde. NV legt um X% zu, AMD legt ebenfalls um X% zu (wobei X eigentlich im Normalverbrauch schwer bemerkbar ist) und wir haben wohl am Ende den gleichen Unterschied wie heute.

RV870 hat uebrigens nicht zufaellig das "V" im Codenamen; es handelt sich seit RV670 ausschliesslich um mainstream chips.

Auch hier: Die Analysen für den Markt in Q4 dürften sich wohl - egal wie die Entscheidung zu einem weiteren RV7xx-Refresh ausgefallen ist - erst nach dieser so entscheidend verändert haben.

Der Haken ist hier dass NV 55nm absolut noetig hat, AMD aber nicht. Einen kleinen Tick mehr Leistung kann man auch durch die neuesten Revisionen erreichen.

aylano
2008-11-14, 17:39:12
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/UnderstandingGraphicsAMD2008AnalystDayBreakout11-18-2008.pdf
Seite 9

Desing-Goals (für Grafik Technology)
Scale up Processing Power & AA-Performance
Target >2x previous generation

Deutet doch einen RV870 mit doppelter Performance an?!

Gast
2008-11-14, 18:11:01
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/UnderstandingGraphicsAMD2008AnalystDayBreakout11-18-2008.pdf
Seite 9

Desing-Goals (für Grafik Technology)
Scale up Processing Power & AA-Performance
Target >2x previous generation

Deutet doch einen RV870 mit doppelter Performance an?!

Seite5 ---> Higher Image Quality

HarryHirsch
2008-11-14, 18:17:20
Seite5 ---> Higher Image Quality

na da bin ich ja mal echt gespannt was die unter "Higher Image Quality" verstehen

Ailuros
2008-11-14, 18:40:51
Seite5 ---> Higher Image Quality

Nein. Jeder IHV - wenn dieses auch moeglich ist - zielt normalerweise doppelt so viel Leistung mit jeder neuen Generation an. Seite 10 zeigt dann auch genauer wie es gemeint ist.

crux2005
2008-11-14, 18:57:47
http://www.amd.com/us-en/assets/content_type/DownloadableAssets/UnderstandingGraphicsAMD2008AnalystDayBreakout11-18-2008.pdf
Seite 9

Desing-Goals (für Grafik Technology)
Scale up Processing Power & AA-Performance
Target >2x previous generation

Deutet doch einen RV870 mit doppelter Performance an?!

nein, damit ist der RV770 gemeint - es wurden sehr viele slides von der Radeon HD 4800 series presentation uebernommen und grafisch ueberarbeitet

Hvoralek
2008-11-14, 19:11:35
na da bin ich ja mal echt gespannt was die unter "Higher Image Quality" verstehenIm Zusammenhang mit "more demending and more intensive 3D games" meinen sie wohl eher genug Leistung für bessere Grafik und nicht höhere Bildqualität.

horn 12
2008-11-18, 19:27:22
Wo bleiben die Infos zum RV770 Refresh, muss mich eben diese Tage entscheiden..

w0mbat
2008-11-18, 19:35:11
Es gibt jetzt Stimmen die sagen dass es einen RV790 gar nicht gibt -> http://news.ati-forum.de/index.php/de/news/34-amdati-grafikkarten/106-rv790-alles-nur-heisse-luft

robbitop
2008-11-18, 20:15:43
Vor RV870 wird IMO auch nichts kommen. Also bis Q2/09 wird man mit den heutigen Karten wohl Ruhe haben. Die 4870 ist doch auch kein schlechter Kauf. Unter 200 EUR eine knapp 20% schlechtere Leistung als die GTX280 für 350 EUR. Besseres P/L-Verhältnis hat nur die 4850.

Gast
2008-11-18, 20:57:18
Wenn Nvidia mit GTX 270 und GTX 290 kommt, wird man reagieren, andernfalls ergibt auch der RV790 keinen Sinn.
Hoffen wir, dass beides also zutrifft. ;)

BvB123
2008-11-18, 21:25:43
Wenn man erst reagiert wenn nVidia was rausbringt wird das wohl viel zu spät sein. Bis sie dann was fertig haben ist RV870 schon längst am mann. und ich glaube nicht das sie den Chip komplett fertig und in stückzahlen produziert in ner kammer liegen lassen weil nVidia nichts bringt ;)

robbitop
2008-11-18, 21:25:50
Wenn dann gibt's geringfügige Takterhöhungen IMO. Es sieht derzeit aber eher so aus, als wenn man GT200 durch die 55nm Version still und heimlich ersetzt um damit niedrigere Preise erzielen zu können um Marktanteile zurückzugewinnen und akzeptable Gewinnspannen pro GPU zu erhalten. Der 55 nm Half-Node ist erfahrungsgemäß kaum besser als der 65 nm Full-Node, lediglich billiger. Das war IIRC aber bisher mit allen Half-Nodes so.

Psychopat
2008-11-19, 12:55:52
Im Januar soll ja die Dragon Plattform kommen. Das könnte ein Termin für einen RV790 sein.
DX11 soll sich ja nochmal verspäten. Ich denke wir werden auf jeden Fall noch einen neuen highend DX10.1 Chip von AMD sehen. Ob das jetzt RV870 ist oder doch RV790 bleibt Speku.

Ailuros
2008-11-20, 20:14:42
Es gibt jetzt Stimmen die sagen dass es einen RV790 gar nicht gibt -> http://news.ati-forum.de/index.php/de/news/34-amdati-grafikkarten/106-rv790-alles-nur-heisse-luft

Ich waere SEHR ueberrascht wenn wir irgend etwas berauschendes bis Mitte Sommer sowohl von NV als auch von AMD sehen wuerden.

Irgendwo klingen mir die angeblichen 950MHz fuer die angebliche RV790 als Bloedsinn. Wenn so ein Ding dann X% mehr Leistung gegenueber RV770 bringen wuerde, streicht man genau dieses Prozentual vom Leistungsunterschied zwischen RV770 und RV870 ab.

Uebrigens sind ganze 200MHz nur durch einfache respins auf dem gleichen Herstellungsprozess viel zu viel damit es ueberhaupt glaubwuerdig sein koennte.

Im Januar soll ja die Dragon Plattform kommen. Das könnte ein Termin für einen RV790 sein.
DX11 soll sich ja nochmal verspäten. Ich denke wir werden auf jeden Fall noch einen neuen highend DX10.1 Chip von AMD sehen. Ob das jetzt RV870 ist oder doch RV790 bleibt Speku.

Mainstream 10.1 bitteschoen. Es koennte natuerlich aber auch sein dass ein RV790 nie existierte und dass die "magischen" 950MHz bzw. =/>1.5 TFLOPs doch alle zum RV870 gehoeren ;)

crux2005
2008-11-21, 08:49:43
ich glaube, die Leute erwarten mehr vom RV870

S940
2008-11-21, 11:43:44
Uebrigens sind ganze 200MHz nur durch einfache respins auf dem gleichen Herstellungsprozess viel zu viel damit es ueberhaupt glaubwuerdig sein koennte.
Naja, dass ist halt die Frage, TSMC hat den 55nm Prozess jetzt einige Zeit unter Kontrolle, gut möglich, dass sie den jetzt etwas getuned haben. Wäre eigentlich nur normal, bei jedem Herstellungsprozess steigt mit der Zeit die Yield an.

AMD hatte zuerst bei 65nm auch nur nen 125W Phenom Stromschlucker und am Ende nen sparsameren 9950er.

Frage ist, ob TSMC solche kleinen Verbesserungen im laufenden Betrieb durchführt, oder nicht.

ciao

Alex

Gast
2008-11-21, 13:31:20
Alles über 850 MHz würde mich sehr positiv überraschen.
Bin aber inzwischen skeptisch, dass das vor Weihnachten noch etwas wird, nachdem Nvidia nun offenbar auch GTX 270/GTX 290 vorerst zurückgestellt hat.

Ailuros
2008-11-24, 07:04:35
Naja, dass ist halt die Frage, TSMC hat den 55nm Prozess jetzt einige Zeit unter Kontrolle, gut möglich, dass sie den jetzt etwas getuned haben. Wäre eigentlich nur normal, bei jedem Herstellungsprozess steigt mit der Zeit die Yield an.

AMD hatte zuerst bei 65nm auch nur nen 125W Phenom Stromschlucker und am Ende nen sparsameren 9950er.

Frage ist, ob TSMC solche kleinen Verbesserungen im laufenden Betrieb durchführt, oder nicht.

ciao

Alex

Fuer "etwas getuned" klingen mir aber zusaetzliche 27% an Frequenz verdammt unrealistisch auf dem gleichen Herstellungsprozess.

Gast
2008-11-24, 18:00:23
"Mit einem 256 Bit breiten Speicherbus, wie es die eben genannten AMD-Grafikkarten bisher besitzen, könnten somit theoretisch 160 GB/s an Bandbreite erzielt werden. [...]"

Macht's da bei dem ein oder anderen klick? ATI-Forum sprach doch bei RV870 damals von 150-160 GB/s an Speicherbandbreite.
ATI sattelt also einfach auf schnelleren GDDR5-Speicher um - der Zeitpunkt der Massenproduktion, 1H/2009, passt auch wunderbar.

Hatte mir schon gleich gedacht, dass das mit 512 Bit humbug ist. ;)

http://www.hardware-infos.com/news.php?news=2536

Ailuros
2008-11-24, 19:31:05
Es gab nie ein Dilemma zwischen 512 und 256bit fuer RV870, sondern eher 256 und 128bit pro core.

Gast
2008-11-24, 21:17:45
Ich denke Du meinst Debatte statt Dilemma. ;)

Aber es gab sehr wohl darüber eine. Derselbe Bericht auf ATI-Forum schreibt, dass "Gerüchte sagen aber bereits aus, dass ein 512bit Interface wahrscheinlich ist."
Und auch die aus Gerüchten zusammengeschusterten Roadmaps von P3D sprechen von 512 Bit. Insofern: Vollkommen obsolet war es in der Gerüchteküche nicht.

Gast
2008-11-24, 22:11:06
Vll. meinen sie mit 512 bit ja 2x256 bit bei einer Dual-Chip-Lösung ?

Ailuros
2008-11-25, 06:50:05
Ich denke Du meinst Debatte statt Dilemma. ;)

Nein ich meinte Dilemma.

Aber es gab sehr wohl darüber eine. Derselbe Bericht auf ATI-Forum schreibt, dass "Gerüchte sagen aber bereits aus, dass ein 512bit Interface wahrscheinlich ist."
Und auch die aus Gerüchten zusammengeschusterten Roadmaps von P3D sprechen von 512 Bit. Insofern: Vollkommen obsolet war es in der Gerüchteküche nicht.

Im Sinn der vorigen Antwort kann jemand auch so bloed sein und 2*256 oder 4*128 als 512bit zu interpretieren; ich sagte aber ausdruecklich pro chip.

Tarkin
2008-12-11, 19:54:14
dauert wohl nicht mehr lange mit 40nm....

http://forum.beyond3d.com/showpost.php?p=1247745&postcount=79

"Expreview put up an article about GTX285... but at the end they also mention RV775XT. Funny thing is that today I had 2 sources contact me about it too. And I also heard that RV740 (supposedly an 8 SIMD, 128-bit, 40nm GPU -> sounds like RV730 on 40nm) is already sampling and is scheduled for release very soon."

horn 12
2008-12-12, 07:29:44
http://www.newprice.it/webapp/wcs/stores/servlet/ProductDisplay?catalogId=10001&storeId=10001&langId=-4&partNumber=4870-1GB

Mann der Preis geht diese Tage auf ca. 210 Euro runter in dem Shop, bin nun fast wieder am Drücker...
Wenn doch bloss mal einige Infos zum Refresh kommen würden, denn dann würde ich sicherlich warten.
Mit dem Refresh erst im Jänner kann man den Neuen RV870 nicht vor Mai erwarten würde ich mal schnell behaupten!
Diese Sapphire HD4870 1GB Version gefällt mir schon äusserst gut, und soll auch sehr Leise,AUCH UNTER LAST sein!

Wenn bis Sonntag nichts durchsickert bestelle ich nehm ich mal stark an!
Danke!

Gast
2008-12-12, 07:48:07
Wäre es bei ATI nicht langsam mal Zeit für nen Leistungsschub ala R300 ?
Die Leute greifen seit 2? Jahren zu Nvidia,weil ATI zu deutlich zurück hängt

Nightspider
2008-12-12, 07:51:57
Wäre es bei ATI nicht langsam mal Zeit für nen Leistungsschub ala R300 ?
Die Leute greifen seit 2? Jahren zu Nvidia,weil ATI zu deutlich zurück hängt

Hast wohl was verschlafen? Leg dich lieber wieder ins Bett ^^

reunion
2008-12-12, 08:21:46
dauert wohl nicht mehr lange mit 40nm....

http://forum.beyond3d.com/showpost.php?p=1247745&postcount=79

"Expreview put up an article about GTX285... but at the end they also mention RV775XT. Funny thing is that today I had 2 sources contact me about it too. And I also heard that RV740 (supposedly an 8 SIMD, 128-bit, 40nm GPU -> sounds like RV730 on 40nm) is already sampling and is scheduled for release very soon."

Wenn das Ding jetzt schon gesampelt wird kann man wohl mit der Verfügbarkeit noch im Q1 rechnen.

pest
2008-12-12, 13:01:30
-del-

Gast
2008-12-12, 18:53:59
Ich denke mal, dass wird vor allem damit zusammenhängen wie weit TSMC mit schon 40 nm ist bzw. ab wann der Prozess in großen Massen verfügbar sein wird.

Nightspider
2008-12-12, 22:19:48
Ob AMD beim R8xx vllt ein 384 Bit Speicherinterface nutzen wird?

Spätestens dann wohl zum R9xx, glaube nicht das AMD 512Bit SI als nächsten Schritt gehen wird.

Beim R8xx wird man wohl dank schnellerem GDDR5 schon 200GB/s schaffen, wenn nicht sogar mehr aber bei dessen Nachfolger wird es wohl nichtmehr solchen Fortschritt beim VRAM gegeben haben...

Deshalb denke ich AMD @ 1H 2010 @ 384 Bit SI

Der_Korken
2008-12-13, 00:34:33
Ob AMD beim R8xx vllt ein 384 Bit Speicherinterface nutzen wird?

Spätestens dann wohl zum R9xx, glaube nicht das AMD 512Bit SI als nächsten Schritt gehen wird.

Beim R8xx wird man wohl dank schnellerem GDDR5 schon 200GB/s schaffen, wenn nicht sogar mehr aber bei dessen Nachfolger wird es wohl nichtmehr solchen Fortschritt beim VRAM gegeben haben...

Deshalb denke ich AMD @ 1H 2010 @ 384 Bit SI

Da wäre ich mir nicht so sicher. Es wurde ja viel gemunkelt über die Multi-Chip-Technologie, die man mit dem RV870 zu sehen bekommen soll. Vor allem wollte man erreichen, bei Multi-GPU den VRAM nicht doppelt auslegen zu müssen. Das würde die Spekulation um eine SI-Breite hinfällig machen, da man dann die Speicheranbindung komplett umstellen müsste.

Ailuros
2008-12-13, 06:33:48
BS*10n:

http://www.theinquirer.net/inquirer/news/020/1050020/ati-s-hd-49x0-coming-soon-ish

Now the juicy bit is that AMD has narrowed down the 40nm parts launch to the first half of 2009 too, so between the derivatives and the shrinks there will be plenty of options on the market in 2009.

Ergo wohl doch irgendwo zwischen GT216 und GT212 falls NV keinen Mist gebaut hat...

...und noch wichtiger:

Last, but certainly not least, the 58xx series cards will be reserved for Q4 2009 and will pair up with Microsoft's DirectX 11 launch. So fanbois and fangoils, you'll have to wait a while.

*kratzt seinen Kater-buckel und leckt sich die Pfoten* ;)

horn 12
2008-12-13, 09:05:18
Nun, es zeichnet sich wohl doch ab dass es 960 Shadereinheiten werden könnten und auch eine HD4890 X² soll wohl nachgeschoben werden.
Somit würde man zwischen GTX 280 / 285 bei einer Einzelkarte liegen und für die X² -er Karte könnte sich ein Kopf an Kopf rennen mit der GTX295 ausgehen. Die derzeitige X² wird dann wohl langsam ersetzt werden und der Preis der alten GTX angepasst!
Ebenso wird nun wohl das Powerplay 2.0+ ENDLICH komplett funktionieren und alles auf das Maximum optimiert worden sein,- um den RV775 voll auszuschöpfen, obwojl schon der RV770 bei ca. 90-95% liegt.
Aber weitere kleine Optimierungen waren sicherlich drinnen...

Die Neue X² wird ATI helfen nicht ganz von der seit nun Mitte August erreichten Performance-Krone abzusacken bis im Mai/ Juni der RV870 daherkommen wird, denke nicht dass jener schon im März/ April das Licht der Welt erblicken wird, eher die neuen MainstreamKarten alla Neuen HD-4670 und Co. High End aber erst Frühsommer!

Nur hoffe ich diesmal dass SOFORT auch zur 512-er Version AUCH die 1GB Variante des Refresh angeboten wird. Taktmässig kursieren 875 Mhz GPU Takt, und dies wäre mit den 2 zusätzlichen "Shaderneinheiten" sicher nicht zu kurz!
Seht doch die ASUS Matrix 4870 an, denke der Refresh orientiert sich recht an dieser Karte, wenn die Matrix nicht vielleicht schon den Refresh beinhaltet, denn vor Weihnachten ist diese nicht mehr lieferbar.

Meine Meinung dazu!

KonKorT
2008-12-13, 12:41:44
Interpretiert es, wie ihr wollt. Für mich ist daraus zu lesen, dass der RV870 erst zum vierten Quartal 2009 kommt:

http://www.theinquirer.net/inquirer/news/020/1050020/ati-s-hd-49x0-coming-soon-ish (Englisch)
http://www.hardware-infos.com/news.php?news=2581 (Deutsch)

RV775 soll frühestens im Februar/März kommen, und zwar unter der Bezeichnung HD 49xx.

w0mbat
2008-12-13, 14:31:37
Es gibt keinen RV775! Ich kann dass natürlich nicht 100%tig sagen, aber ich habe noch nichts über ihn gehört und auch auf Nachfrage bekomme ich nur Dementis.

Gast
2008-12-13, 15:24:54
@Wombat, nun gehen wieder Gerüchte des Refresh vom Februar/ März um.
Könnte meine HD4870 512 MB von Force 3D um 175 Euro verkaufen und um 228 Euro eine Sapphire HD4870 1GB mit Sapphire Lüfter bekommen. Sollte ich wechseln oder besser auf den Refresh diese 1-3 Monate noch warten...
IMMER DIESE UNGEWISSHEIT bei den GrakaHerstellern, Grrr!

KonKorT
2008-12-13, 16:08:34
@ w0mbat
Es ist doch schnurzpiepegal, ob der Refresh-Chip unter dem Codenamen RV770XTX, RV775 oder RV790 entwickelt wird - jedenfalls wird einer im Frühjahr kommen!

w0mbat
2008-12-13, 16:48:24
Es geht mir nicht um den Codenamen sondern um die Angaben zur Hardware.

KonKorT
2008-12-13, 16:51:06
Dass die von Expreview fehlerhaft sind, ist doch inzwischen weitesgehend gesichert.
Was stört Dich genau? ;)

GeneralHanno
2008-12-13, 17:31:47
wäre der launch eines 40nm chips im februar machbar?
sprich ein "kleiner" RV740 und ein "großer" RV790 (oder was auch immer) ???

R8xx
- Q4/09
- mit DX11 -> neue architektur
- 40nm

Ailuros
2008-12-13, 19:02:54
Nur weil manche es schwer haben zwischen den Zeilen im vorigen Link zu lesen und wombat's Andeutungen zu interpretieren:

Q1 09' = RV7x0 refresh mit hoeheren Frequenzen
Q2 09' = RV8x0@40nm
Q4 09' = D3D11

KonKorT
2008-12-13, 19:10:09
@ Ailuros
Klingt für mich sehr merkwürdig. Demnach wäre RV8xx nichts weiter als ein RV770 in 40 nm.

DirectX 11 ist keine Erweiterung, die man einfach mal so nachliefert. Die Architektur muss von vornherein in Hinblick darauf konzipiert werden. Ich kann mich da eher mit GeneralHannos Ansatz identifizieren und vermute, dass es noch einen Performance-Chip in 40 nm auf RV770-Basis geben wird in 1H/09.

Q1/09: RV770XTX (55 nm) -> Q2/09: RV790 (40 nm) -> Q4/09: RV870 (40 nm, DirectX 11)

Sorkalm
2008-12-13, 19:43:53
Damit wird D3D11 wohl eher RV9xx. ;)
RV870 soll ja auch sehr viele Ähnlichkeiten mit dem ursprünglichen R700 haben (nur eben in kleinerer Fertigungstechnologie => anderes Marktsegment).

LovesuckZ
2008-12-13, 19:50:04
Gibt es dann noch andere Marktsegmente? :ugly:
Man muss schon deutlich kleiner als rv770 sein, um beim selben Preis rentabel zu sein. Denn weiter runter kann man kaum noch gehen als 130€ bzw. 169$.

Ailuros
2008-12-14, 07:25:56
@ Ailuros
Klingt für mich sehr merkwürdig. Demnach wäre RV8xx nichts weiter als ein RV770 in 40 nm.

Was waere denn theoretisch genau so schlimm dran wenn RV8x0 ein weiterer refresh vom RV7x0 waere und man effektiv sich gegen NV's GT212 stellt ohne jegliche 11 Komplianz Sorgen?

DirectX 11 ist keine Erweiterung, die man einfach mal so nachliefert. Die Architektur muss von vornherein in Hinblick darauf konzipiert werden.

Stimmt. Nur ist RV870 der eigentliche originale "R700" und der war als er konzipiert wurde zwar nach ATI's Schaetzungen 11 kompliant, aber nach den finalen Aenderungen fuer 11 wohl nicht mehr. Hier haengt es davon ab ob AMD den existierenden Design erweitert hat oder auf einer anderen Basis ihr Ziel erreichte.

Ich kann mich da eher mit GeneralHannos Ansatz identifizieren und vermute, dass es noch einen Performance-Chip in 40 nm auf RV770-Basis geben wird in 1H/09.

Q1/09: RV770XTX (55 nm) -> Q2/09: RV790 (40 nm) -> Q4/09: RV870 (40 nm, DirectX 11)


Die These ist nicht ohne Sinn; nur gibt 40nm so viel zusaetzliche die area und Frequenz-Potential dass man wohl eher das Ganze nicht mit einem einfachen die shrink bedient. Hierbei entfaellt dann sofort auch die Logik vom RV7x0-wasauchimmer.

KonKorT
2008-12-14, 13:20:57
Du meinst also durch den Einsatz der 40-nm-Technologie ergibt sich für ATI soviel Spielraum, dass man dann einen vermeintlichen Refresh nicht mehr als RV7xx, sondern RV8xx betiteln muss, obwohl in Wirklichkeit die gleiche Technik dahintersteckt - interessanter und nachvollziehbarer Ansatz.
Demnach steckt im viel zitierten DirectX-11-Chip für Ende 2009 ein RV9xx?! Ich bin skeptisch. :rolleyes:

Gast
2008-12-14, 15:16:14
Welche Veränderung eine neue Nomenklatur rechtfertigt ist nicht Sache der RD-Leute und Konstrukteure, sondern ganz alleinder Marketingabteilung.

Nach dem wie Nvidia mit der 8000 und 9000-Serie umging hat ATI immer noch einen gut. Die HD3xxx Serie war immerhin ein deutlicher Sprung gegenüber der HD2000, die man wohl besser vegessen wollte. Wenn auch nicht von der Konstruktion, so doch vom Stromverbrauch und TDP unterschied sich die 3870 genug vom r600 um eine neue Generation einzuläuten.

Glaub bloß nicht, dass ATIs PR-Team davor zurückschrecken würde eine rv7xx Architektur HD5xxx zu nennen, solange das einen erhöhten Absatz verspricht würden die das machen. Nur der HD4xxx Name ist ja gut und hat durch viele positive tests ein gutes Image, daher denke ich dass sich ATI nicht frühzeitig davon trennen wird. Erst wenn man sicher ist, das man der HD5xxxx marchitecture einen guten Ersteindruck durch einen guten Chip (RV870?) geben kann, wird man vom bewährten 48xx wechseln.

w0mbat
2008-12-14, 15:17:40
Wie groß wäre ein 40nm RV730 denn?

Sorkalm
2008-12-14, 15:45:41
Wie groß wäre ein 40nm RV730 denn?

Bei einem optimalen Shrink von 65 -> 45 mm² und den linearen Shrinks von TSMC zu 55 nm und 40 nm käme man auf

RV730_55nm * 55nm->65nm * 65nm->45nm * 45nm->40nm = RV730_40nm
146 mm² * (1/0,9²) * (45/65)² * 0,92² = 73 mm²

Wobei natürlich der Optimalfall nicht zu erwarten ist.

w0mbat
2008-12-14, 15:56:10
40nm RV740 mit GDDR5 klingt lecker. Die aktuellen Testversionen nutzen den gleichen GDDR5 wie die HD4870.

Sorkalm
2008-12-14, 16:09:15
40nm RV740 mit GDDR5 klingt lecker. Die aktuellen Testversionen nutzen den gleichen GDDR5 wie die HD4870.

Ja, das deutet aber schon darauf hin, das man keinen direkten Shrink durchgeführt hat, denn beim aktuellen RV730 hat man sich wohl den GDDR5-Speichercontroller gespart.

reunion
2008-12-14, 16:12:51
Hm, wäre schon etwas seltsam, wenn man den in 55nm schon sehr kleinen und stromsparenden RV730 auf 40nm shrinken würde. Das macht in meinen Augen nicht wirklich Sinn. Ohne zusätzliche Einheiten wäre das Ding zwar dann enorm klein, aber trotzdem nur im Low-Cost-Segment einsetzbar. Ein Shrink des RV770 wäre wohl wesentlich sinnvoller.

AnarchX
2008-12-14, 16:14:47
Bei einem optimalen Shrink von 65 -> 45 mm² und den linearen Shrinks von TSMC zu 55 nm und 40 nm käme man auf

RV730_55nm * 55nm->65nm * 65nm->45nm * 45nm->40nm = RV730_40nm
146 mm² * (1/0,9²) * (45/65)² * 0,92² = 73 mm²

Wobei natürlich der Optimalfall nicht zu erwarten ist.

Wobei sich hier die Frage stellt ob man bei solchen Die-Größen <100mm² noch ein 128-Bit GDDR5 SI nach außen führen kann, schliesslich sollen ja die 256mm² bei RV770 ein unteres Limit für 256-Bit GDDR5 darstellen.

AFAIK spekulierte man bei Chiphell schon vor längerem mal über 40 TMUs und 400SPs, also 2 zusätzliche SIMDs.

Der_Korken
2008-12-14, 16:22:51
Warum spart man sich beim RV740 denn die Hälfte der ALUs ein? Wäre nicht auch ein Chip mit 8 SIMDs denkbar mit 32 TMUs und 640 Shadern? Dann käme man auch auf mehr Transistoren und mehr Fläche.

w0mbat
2008-12-14, 16:59:49
Also RV740 war Anfangs nur ein neuer Chip auf der Roadmap, das Gerücht RV740 = 40nm RV730 kam ja eher vom Namen her. Ich könnte mir auch vorstellen dass der RV740 mehr Einheiten als der RV730 hat. Mal sehen.

Sorkalm
2008-12-14, 17:01:57
Hm, wäre schon etwas seltsam, wenn man den in 55nm schon sehr kleinen und stromsparenden RV730 auf 40nm shrinken würde. Das macht in meinen Augen nicht wirklich Sinn. Ohne zusätzliche Einheiten wäre das Ding zwar dann enorm klein, aber trotzdem nur im Low-Cost-Segment einsetzbar. Ein Shrink des RV770 wäre wohl wesentlich sinnvoller.

Bei einem Shrink des RV770 käme ich mit obriger Formel auf 128,2 mm². Also in Realität wohl auch unter 150 mm², das dürfte für das Marktsegment reichen. Könnte passen. Wenn man nur ein 128-Bit-Interface (mit GDDR5) herausführt, kann man evtl. noch etwas sparen. Und die Bandbreite würde wohl immer noch ausreichen (man käme ja trotzdem ungefähr auf das Niveau einer 4850).

Wobei sich hier die Frage stellt ob man bei solchen Die-Größen <100mm² noch ein 128-Bit GDDR5 SI nach außen führen kann, schliesslich sollen ja die 256mm² bei RV770 ein unteres Limit für 256-Bit GDDR5 darstellen.

AFAIK spekulierte man bei Chiphell schon vor längerem mal über 40 TMUs und 400SPs, also 2 zusätzliche SIMDs.

Ja, aber viel größer wird man damit auch nicht.

Allerdings könnten der Shrink von RV730 wirklich im Low-End-Segment platziert werden, jedenfalls vom Preis her. Und dann macht der vielleicht sogar Sinn (dann aber klar ohne GDDR5).

Mal schauen was RV740 wird...

CrazyIvan
2008-12-14, 17:17:06
Bzgl. der Diskussion um das Speicherinterface sollte man nicht vergessen, dass dessen Umsetzbarkeit vom Umfang des Chips und nicht vom Flächeninhalt abhängt. Und ersterer verhält sich ja nicht linear zu letzterem.

Angenommen, der Chip ist quadratisch:
256mm² -> sqrt(256)*4 = 16*4 = 64mm
73mm² -> sqrt(73)*4 = 8,5*4 = 34,2mm

Am Umfang sollte also das 128bit GDDR5 Interface nicht scheitern, wenn man sich mal das Verhältnis anschaut.

/EDIT: Korrekte Zahl für RV730 @ 40nm benutzt

AnarchX
2008-12-14, 17:27:35
Allerdings könnten der Shrink von RV730 wirklich im Low-End-Segment platziert werden, jedenfalls vom Preis her. Und dann macht der vielleicht sogar Sinn (dann aber klar ohne GDDR5).

Wobei andere Gerüchte sagen, dass RV740 sich dort positionieren soll, wo sich momentan die niedrigeren RV770-SKUs befinden.:D

Gast
2008-12-14, 17:30:22
Wann kann man denn mit mindestens einigen offiziellen Infos rechnen, diesen Diestag könnte wohl was durchsickern falls NV auch etwas Luft macht zwecks der GTX im 55-er Verfahren... Bin mal gespannt wie schon lange nicht mehr!!

w0mbat
2008-12-14, 19:13:12
Ein 480SP RV740 mit 800MHz+ wäre doch recht schön und zugleich sparsam. Da hätten wir dann auch den vermissten RV770 ;)

AnarchX
2008-12-14, 19:21:48
480SPs mit 80er oder 40er SIMDs? Im letzeren Fall wären das ja 48 TMUs und wohl doch etwas Overkill für eine Mainstream-GPU.

Interessant wäre auch, ob vielleicht 60SP-SIMDs also 3 ALU-Quads pro SIMD möglich wären, mit 8 davon wäre ein RV740 imo besser für 2009 balanciert.

Der_Korken
2008-12-14, 20:19:13
Interessant wäre auch, ob vielleicht 60SP-SIMDs also 3 ALU-Quads pro SIMD möglich wären, mit 8 davon wäre ein RV740 imo besser für 2009 balanciert.

Klar, sowas gabs doch beim RV630 schon. Der hatte 2 SIMDs á 60 Shader. Aber wäre es wirklich sinnvoll das TMU:ALU-Verhältnis zu verschieben? Der RV730 ist ja im Vergleich zum RV670 eher langsamer, obwohl er doppelt so viel Füllrate besitzt. Da frage ich mich, ob das Verhältnis nicht vielleicht schon ganz gut ausbalanciert ist bei den "80er SIMDs".

Gaestle
2008-12-14, 20:19:23
Du meinst also durch den Einsatz der 40-nm-Technologie ergibt sich für ATI soviel Spielraum, dass man dann einen vermeintlichen Refresh nicht mehr als RV7xx, sondern RV8xx betiteln muss, obwohl in Wirklichkeit die gleiche Technik dahintersteckt - interessanter und nachvollziehbarer Ansatz.
Demnach steckt im viel zitierten DirectX-11-Chip für Ende 2009 ein RV9xx?! Ich bin skeptisch. :rolleyes:

R700 wurde lange Zeit als Multicore-Design (ähnlich den Multicore-Prozessoren) gesehen. Möglich, dass AMD das mit RV870 realisiert (da er doch viel vom R700 hat), es gab auch einige Hinweise in dieser Richtung (z.B. dass das Speicherinterface nicht 512bit sei, sondern 2x256bit).
Dass AMD den RV770 einfach hochtaktet und dann RV870 nennt (ohne weitere Änderungen) halte ich für unwahrscheinlich.

Coda
2008-12-14, 21:05:41
Das Speicherinterface ist jetzt schon 2x256 Bit bei den X2-Karten.

=Floi=
2008-12-14, 21:21:23
dafür hat man ja den ringbus wieder abgeschafft und setzt auf das alte design

KonKorT
2008-12-14, 21:59:42
Auf das alte Design? Es ist keine klassische Punkt-zu-Punkt-Verbindung!

Jeder der vier 64 Bit breiten Controller ist jetzt an einen lokalen Speichercontroller angebunden - ATI spricht vom Hub.

reunion
2008-12-16, 22:14:20
Refresh des RV770 in 40nm? http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/178-refresh-des-rv770-in-40nm

Kaum eine andere Komponente sorgte in letzter Zeit für so viel Aufsehen, wie der Refresh des RV770. Jetzt haben wir Informationen erhalten, dass dieser bereits in 40nm gefertigt werden könnte.

Es ist möglich, dass der RV770-Refresh bereits in 40nm gefertigt werden wird. Der Refresh des RV770 wurde auf das erste Halbjahr 2008 von AMDs Chris Hook angekündigt. Dieser soll unter dem Namen Radeon HD4900 verkauft werden.

Hierzu haben wir die Nachricht erhalten, dass die Treiber für die Refresh-GPU (eventuell RV790/RV770XTX oder RV775) bereits im Catalyst 9.2 enthalten sein sollen. Dies lässt darauf schließen, dass der RV770-Refresh im Februar bereits auf den Markt kommt. Über diesen Zeitraum berichteten wir bereits.

horn 12
2008-12-18, 06:35:29
So die Katze ist aus dem Sack, NV bringt die GTX295 mit Heutigem Datum, zwar ein Paperlauch, aber was solls!
Nun sollte auch ATI um die Konkurrenz in Schach zu halten einige Infos zum RV770 Refresh bringen: Wann der Refresh kommen soll (ca. das Datum +-1-2 Wochen, die etwa angepeilten Taktraten, vielleicht besser noch ob was am Chip verändert, bzw. erweitert wurde.
Nur so kann man die Käuferschicht von einem schnellen Kauf der GTX 285 / 295 Anfang Januar ABWIMMELN!
Hoff da kommt Heute was, ansonsten :mad:


PS: Die Performancekrone geht nach gut 4 Monaten wieder an NV zurück!
Hut ab!!:eek:

Ailuros
2008-12-18, 07:32:26
Du meinst also durch den Einsatz der 40-nm-Technologie ergibt sich für ATI soviel Spielraum, dass man dann einen vermeintlichen Refresh nicht mehr als RV7xx, sondern RV8xx betiteln muss, obwohl in Wirklichkeit die gleiche Technik dahintersteckt - interessanter und nachvollziehbarer Ansatz.
Demnach steckt im viel zitierten DirectX-11-Chip für Ende 2009 ein RV9xx?! Ich bin skeptisch. :rolleyes:

RV770 basiert auch auf der gleichen Architektur wie RV670 und wurde auch auf dem gleichen Herstellungsprozess hergestellt. Die roadmaps haben sich sowieso bei beiden IHVs in den letzten Jahren drastisch geandert und Codenamen wie verrueckt durcheinander geworfen.

Wie dem auch sei IMHLO haette der urspruengliche "R700" nicht volle 11 Komplianz geschafft und es ist auch ziemlich wurscht ob das Resultat nun RV790, RV8x0 oder irgend etwas anderes genannt wird.


PS: Die Performancekrone geht nach gut 4 Monaten wieder an NV zurück!
Hut ab!!:eek:

Einen besonderen Glanz hat diese angebliche Leistungskrone aber nun wieder auch nicht; ueberhaupt wenn man trotz allem generell immer noch auf single chip high end Loesungen besteht.

robbitop@work
2008-12-18, 08:44:55
Fakt ist, dass NV bei gleicher Performance höhere Kosten hat. Mehr Transistoren, größeres PCB, breiteres Speicherinterface.
Dass man mit 2x GT200 GPUs 2xRV770 schlagen kann, sollte keine Überraschung sein.

Ailuros
2008-12-18, 09:11:21
Fakt ist, dass NV bei gleicher Performance höhere Kosten hat. Mehr Transistoren, größeres PCB, breiteres Speicherinterface.
Dass man mit 2x GT200 GPUs 2xRV770 schlagen kann, sollte keine Überraschung sein.

Diese oede Pflaster-Loesungen von beiden Seiten (wo immer sie auftauchen) konnte ich nie richtig verstehen. Ueberhaupt mit der momentanen finanziellen Krise haette ich persoenlich erwartet dass beide IHVs sich etwas gelassener zeigen.

robbitop@work
2008-12-18, 09:17:22
IMO werden erst die 40-nm-Varianten von beiden wieder interessant und attraktiv. Ich erwarte, dass beide Mainstream-Varianten für 200 EUR eine viel geringere TDP als die GTX28x und die 4870 haben und mindestens gleiche Leistung. Vermutlich sogar deutlich mehr. Eine Transistorverdopplung ist ja theoretisch drin, was vermutlich zu knapp doppelter Rechenleistung führen dürfte.
Damit sind diese X2/GX2 oder sonstwas Lösungen wieder obsolet. Von Mikrorucklern und AFR-Effizienz noch nichtmal angefangen.

maddawn
2008-12-18, 11:05:45
Einen besonderen Glanz hat diese angebliche Leistungskrone aber nun wieder auch nicht; ueberhaupt wenn man trotz allem generell immer noch auf single chip high end Loesungen besteht.

Aber trotzdem beeindruckend das der 55nm Prozess so gut ausfällt und den Stromverbrauch so sehr senkt dass so eine Karte zu realisieren möglich ist (GTX 260 183W, GTX 295 "nur" 289W). Ich habe nicht daran geglaubt das NVidia eine solche Karte noch dieses Jahr als Konter setzen kann.

Allerdings sind solche Karten meiner Meinung nach nur was für Benchmarkfreaks, Stromverbrauch und Microruckler, P/L-Verhältnis machen sie für normale Anwender unattraktiv.

Nakai
2008-12-18, 11:14:56
Aber trotzdem beeindruckend das der 55nm Prozess so gut ausfällt und den Stromverbrauch so sehr senkt dass so eine Karte zu realisieren möglich ist (GTX 260 183W, GTX 295 "nur" 289W). Ich habe nicht daran geglaubt das NVidia eine solche Karte noch dieses Jahr als Konter setzen kann.

NV hat auch lang genug am 55nm-Bereich rumgefummelt. ATI war fast ein Jahr früher dran als NV. Die hätten den GT200-Chip erstes gleich in 55nm bringen und nicht solange zögern sollen.

Naja der Stromverbrauch ist nun wirklich sehr niedrig, was sehr schön ist. Damit würde eine neue GTX260 vor der HD4870 in allen Belangen liegen, wenn NV sie preislich so aggressiv setzt.


mfg Nakai

HOT
2008-12-18, 11:55:55
IMO werden erst die 40-nm-Varianten von beiden wieder interessant und attraktiv. Ich erwarte, dass beide Mainstream-Varianten für 200 EUR eine viel geringere TDP als die GTX28x und die 4870 haben und mindestens gleiche Leistung. Vermutlich sogar deutlich mehr. Eine Transistorverdopplung ist ja theoretisch drin, was vermutlich zu knapp doppelter Rechenleistung führen dürfte.
Damit sind diese X2/GX2 oder sonstwas Lösungen wieder obsolet. Von Mikrorucklern und AFR-Effizienz noch nichtmal angefangen.
Das ist alles Peng. µRuckler merkt man nach meiner Erfahrung eigentlich garnicht, ich halte das ganze Thema und die ganze Aufregung für totalen Schwachfug. Aber als stolzer Besitzer von so einer Lösung kann ich sagen, es lohnt sich dennoch nicht. Solange es keinen Fremdspeicherzugriff übergreifend über die Chips gibt, kein GrafikNUMA sozusagen, sind alle Multichiplösungen Augenwischerei, weil furchtbar ineffizient, denn solange wird es immer einen Grossteil der Games geben, die damit nicht klarkommen.

Ailuros
2008-12-18, 12:54:00
Das ist alles Peng. µRuckler merkt man nach meiner Erfahrung eigentlich garnicht, ich halte das ganze Thema und die ganze Aufregung für totalen Schwachfug.

Ich wuerde eher sagen dass das Ganze Ansichtssache ist. Natuerlich bemerkt es bzw. stoert es nicht jeden, aber es ist genau das gleiche wenn es zu Nebeneffekten kommt die die Bildqualitaet betreffen.

HOT
2008-12-18, 12:57:20
Na ja das unzureichende AF der 38xx Serie stört mich schon gewaltig. Das AF der HD2900 Serie war deutlich besser mMn. Bei BQ hab ich sogar eher hohe Ansprüche. Aber µRuckler an sich sind mir noch nie in einer Praxisrelevanten Situation aufgefallen.

Ailuros
2008-12-18, 13:02:49
Na ja das unzureichende AF der 38xx Serie stört mich schon gewaltig. Das AF der HD2900 Serie war deutlich besser mMn. Bei BQ hab ich sogar eher hohe Ansprüche. Aber µRuckler an sich sind mir noch nie in einer Praxisrelevanten Situation aufgefallen.

Wie bekannt damit einem die Microruckler auch wirklich ins Auge stechen muss man auch ziemlichen Stress auf SLi/CF configs ausueben. Wenn die minimalen Frameraten nicht zu oft und zu stark unter 30 fps fallen, dann ist es wohl auch zu erwarten dass man nichts davon sehen kann. Es kann aber auch wiederrum heissen dass man die unterliegende HW nicht ganz ausreizt. In welcher Aufloesung spielst Du ueberhaupt?

Gast
2008-12-18, 14:19:06
Aber trotzdem beeindruckend das der 55nm Prozess so gut ausfällt und den Stromverbrauch so sehr senkt dass so eine Karte zu realisieren möglich ist (GTX 260 183W, GTX 295 "nur" 289W). Ich habe nicht daran geglaubt das NVidia eine solche Karte noch dieses Jahr als Konter setzen kann.

Naja man hat dafür 3x Respins angewandt und den Prozess und den Floorplan sicher nochmals optimiert. Dann ist es kein Wunder. Das hätte man auch mit dem 65 nm Prozess ähnlich hinbekommen nach 3x Respins.

robbitop@work
2008-12-18, 14:37:08
Das ist alles Peng. µRuckler merkt man nach meiner Erfahrung eigentlich garnicht, ich halte das ganze Thema und die ganze Aufregung für totalen Schwachfug. Aber als stolzer Besitzer von so einer Lösung kann ich sagen, es lohnt sich dennoch nicht. Solange es keinen Fremdspeicherzugriff übergreifend über die Chips gibt, kein GrafikNUMA sozusagen, sind alle Multichiplösungen Augenwischerei, weil furchtbar ineffizient, denn solange wird es immer einen Grossteil der Games geben, die damit nicht klarkommen.
Das ist kein Blödsinn. Wenn man über das Thema AFR und dem Rendervorgang mal nachdenkt, sollte es intuitiv klar sein, dass das Thema alles andere als Blödsinn ist.
Fakt ist, dass gerade in niedrigen FPS Bereichen die Verteilung der Frames auf der Zeitachse ungünstig ist, weil die CPU nach wenigen ms einen Frame zum Rendern übergeben kann, die GPUs aber eine Größenordnung länger brauchen. Das resultiert in einem sehr kurzen Zeitversatz zweier Frames und einem sehr großen Zeitversatz zum nächsten Frame.
Ich halte auch das Herumdoktern am Frameverlauf für nur eine Zwischenlösung. Denn wenn man den Framebuffer einfach nur verzögert ausgibt, dann ist die Geometrie des Bildes potenziell schon "veraltet". Man müsste bereits den Anfang der Renderkette um eine entsprechende Zeit verzögern. Besser noch müssten alle GPUs am ein und dem selben Bild arbeiten. Dazu ist allerdings eine sehr hohe Anforderung an die Kommunikation mehrerer GPUs nötig.
Was mir auch sehr gut gefallen würde (und mit allen SLI/CF Karten möglich wäre!) wäre SG-SSAA über den 3DFX SLI-AA Ansatz. Mehrere GPUs rendern am gleichen Bild mit einem definierten Vertex-Offset. Am Ende werden alle Bilder miteinander verrechnet. Am Besten mit einem Bicubischen oder Tentfilter.

igg
2008-12-18, 14:39:02
Meine Meinung: Ein Spiel, das vollständig microrucklerfrei mit 50+ FPS läuft, kann ich auch auf eine SingleGPU mit 25-30 FPS spielen; weniger Stromverbrauch, weniger Treibergefummel, weniger Lärm.

w0mbat
2008-12-18, 16:58:31
Wobei 25-30FPS eben nicht ruckelfrei sind.

_flx
2008-12-18, 17:00:25
Das wiederum kommt ganz auf das Game an - imho!

Gast
2008-12-18, 17:43:21
Das wiederum kommt ganz auf das Game an - imho!
jop, und auch auf das auge des betrachters. für mich ruckeln 22fps gerade noch so erträglich bei nem strategiegame, 35 aber bereits bei nem shooter.

Coda
2008-12-18, 17:44:31
Na ja das unzureichende AF der 38xx Serie stört mich schon gewaltig. Das AF der HD2900 Serie war deutlich besser mMn.
Soweit ich weiß ist das exakt das gleiche von R600-RV770.

Sorkalm
2008-12-18, 19:00:13
Soweit ich weiß ist das exakt das gleiche von R600-RV770.

Man kann aber über den Treiber auch Änderungen bringen...

Gast
2008-12-18, 19:17:45
Mhm also ist der Treiberdefault bei RV770 nich schlimmer als bei R600? Wenn wenigstens R580 Qualität geliefert würde... (R580 AI off ist super, völlig ausreichend)

Gast
2008-12-19, 08:25:48
Mhm also ist der Treiberdefault bei RV770 nich schlimmer als bei R600? Wenn wenigstens R580 Qualität geliefert würde... (R580 AI off ist super, völlig ausreichend)
580 niveau wäre mehr als ausreichend...

Gast
2008-12-20, 03:28:39
580 niveau wäre mehr als ausreichend...

Aber ein Rückschritt;)

Fetza
2008-12-20, 04:59:42
Das ist alles Peng. µRuckler merkt man nach meiner Erfahrung eigentlich garnicht

Sorry, aber mikroruckler sind wahre spielspasskiller. Sei froh, wenn du sie nicht siehst.

Ailuros
2008-12-20, 06:45:02
Sorry, aber mikroruckler sind wahre spielspasskiller. Sei froh, wenn du sie nicht siehst.

Er hat wohl meine Frage nicht gesehen. Es klingt mir eher danach dass er nicht in irgend einer extravaganten Aufloesung spielt, was wohl eher nach einer starken CPU-Limitierung im System klingt mit einer X2. Seine Investition ist ehrlich gesagt nicht ganz fuer die Tonne, denn er duerfte fast keinen Unterschied mit AA z.B. verschmerzen in der Mehrzahl der Faelle.

Coda
2008-12-20, 16:08:19
Aber ein Rückschritt;)
Nein. R580 flimmert weniger. Die LOD-Bestimmung ist nicht so wichtig.

Gast
2008-12-28, 08:15:19
Nein.
ja

R580 flimmert weniger.
Im vergleich zu ein guten Chip (G80), flimmert der R580.

Die LOD-Bestimmung ist nicht so wichtig.
für dich villeicht nicht.

was hier wieder mit halbwissen um sich geworfen wird, unglaublich.

samm
2008-12-28, 14:14:35
Stimmt, und anonyme Gäste wissen mehr, teilen es uns aber nicht mit :)

Gast
2008-12-28, 14:33:02
Im vergleich zu ein guten Chip (G80), flimmert der R580.
Du hast noch nie einen R580 mit AIoff gesehen... aber hauptsache trollen
für dich villeicht nicht.
Haha was glaubst du was das für einen Unterschied macht in der Praxis? Das sieht man nicht mal wirklich. (Hatte ganz andere Gründe warum das verbessert wurde)
was hier wieder mit halbwissen um sich geworfen wird, unglaublich.
Ja, also verschon uns bitte damit.

Ailuros
2008-12-29, 06:52:33
was hier wieder mit halbwissen um sich geworfen wird, unglaublich.

Ich will hoffen dass es das letzte Mal ist dass ich von irgend jemand aehnliches lesen muss.

horn 12
2009-01-06, 20:19:59
Wann kann man mit NEUEN Infos zum RV770 Nachfolger, oder Refresh rechnen? Langsam hört man nicht mehr von ATI, halten sich beängstigend bedeckt dazu.
Wird vielleicht doch fleissig an dem RV740 gewerkelt und an hohen Taktraten zwecks des 40um Verfahrens für einen "High End Chip" mit womöglich 2x RV740, in diesem Falle aber eine komplette DualCore GPU, :eek:so wie es schon mal beim echten R700 mal hies... dieser nun könnte es ja werden.

Denn das was kommen wird steht ausser Zweifel.

KonKorT
2009-01-06, 20:27:26
Denn das was kommen wird steht ausser Zweifel.

RV740, ja, RV870, ja. Das war's dann aber schon fast für dieses Halbjahr.

Schlammsau
2009-01-06, 20:40:34
RV740, ja, RV870, ja. Das war's dann aber schon fast für dieses Halbjahr.

Der RV870 ist doch fürs 4.Q '09 geplant oder nicht?

horn 12
2009-01-06, 20:50:06
ja, dem sollte so sein.
Denke (Falls) ein RV740 DualGPU Chip kommen würde, sollte er es mit dem
GT212 aufnehmen können, wird wohl über die 850 bis 900 Mhz getaktet werden und zudem recht sparsam sein, also könnte dies schon drinnen sein.
Zudem hat man ja AMD an der Seite der DUAL GPU´s Erfahrung und somit sicherlich etwas angenehmer als bei NV, dem reinen Graka Hersteller.

Coda
2009-01-06, 21:03:43
Zudem hat man ja AMD an der Seite der DUAL GPU´s Erfahrung und somit sicherlich etwas angenehmer als bei NV, dem reinen Graka Hersteller.
Was redest du da für Stuss? Die erste Dual-GPU-Grafikkarte kam von NVIDIA und auch SLI gibt es länger als Crossfire - was die technische Basis ist.

Derjenige der zuerst eine transparente Lösung in Hardware ohne Treiberunterstützung schaffen wird, der wird Vorteile haben. Wer das sein wird und ob es überhaupt realisiert wird steht noch völlig in den Sternen.

reunion
2009-01-06, 21:30:26
Man weiß zumindest das ATi damit schon länger experimentiert. Der ursprüngliche R700 sollte eine solche Architektur haben (auf denen ja der 40nm Chip basieren soll) und der Sideport in RV770 sollte ähnlichen Zwecken dienen, ist aber warum auch immer deaktiviert.

Coda
2009-01-06, 21:36:36
Man weiß zumindest das ATi damit schon länger experimentiert.
Genauso wie sie schon viel länger und toller mit einer USA experimentiert hatten? :rolleyes:

reunion
2009-01-06, 21:41:58
Genauso wie sie schon viel länger und toller mit einer USA experimentiert hatten? :rolleyes:

Klar. Xenos kam weit vor G80 und R400 gab es ja auch noch. Natürlich bedeutet das nicht zwangsläufig das man deshalb auch das bessere Ergebnis abliefert. Mir ging es ja um das: "ob es überhaupt realisiert wird steht noch völlig in den Sternen. " Ich denke wenn das nicht machbar wäre würde man darin nicht so lange investieren. Machbarkeitsstudien kommen normalerweise zuerst.

grobi
2009-01-06, 21:42:43
Was redest du da für Stuss? Die erste Dual-GPU-Grafikkarte kam von NVIDIA und auch SLI gibt es länger als Crossfire - was die technische Basis ist.

Derjenige der zuerst eine transparente Lösung in Hardware ohne Treiberunterstützung schaffen wird, der wird Vorteile haben. Wer das sein wird und ob es überhaupt realisiert wird steht noch völlig in den Sternen.


Was ist mit der ATI Rage Fury MAXX? Das müsste die erste Dualkarte sein.

http://www.tecchannel.de/pc_mobile/komponenten/401296/test_3d_grafikkarten/index18.html

mfg grobi

Coda
2009-01-06, 21:43:50
Klar.
Nichts ist klar. Du hast überhaupt keine Informationen darüber wie lang G80 in Entwicklung war.

Mir ging es ja um das: "ob es überhaupt realisiert wird steht noch völlig in den Sternen. " Ich denke wenn das nicht machbar wäre würde man darin nicht so lange investieren. Machbarkeitsstudien kommen normalerweise zuerst.
Wer sagt dir denn dass sie nicht einfach bei ihrem AFR-Crap bleiben? Bisher kommen sie beide sehr gut damit weg.

Man kann sich vieles herbeiwünschen, aber in der Praxis gibt es enorme Probleme was das angeht.

Was ist mit der ATI Rage Fury MAXX? Das müsste die erste Dualkarte sein.
Ja und funktioniert so gut wie gar nicht weil es reines Hardware-AFR war. Nichtmal R2T oder ähnliches wurde abgefangen. Knowledge-Level = Null. Das schreib ich dir mit nem Wrapper um D3D in ner Woche.

reunion
2009-01-06, 21:47:27
Nichts ist klar. Du hast überhaupt keine Informationen darüber wie lang G80 in Entwicklung war.

Da ATi schon nach R300 einen USC vorgesehen hatte traue ich mir das trotzdem zu behaupten.


Wer sagt dir denn dass sie nicht einfach bei ihrem AFR-Crap bleiben? Bisher kommen sie beide sehr gut damit weg.


AFR funktioniert auch jetzt schon. Dazu braucht es keine weiteren Hardwareanpassungen.

Coda
2009-01-06, 21:49:04
Da ATi schon nach R300 einen USC vorgesehen hatte traue ich mir das trotzdem zu behaupten.
Ich habe da andere Informationen - genau von den Leuten die auch ein halbes Jahr vorher die genauen G80-Specs hatten.

Die GeForce 8 war mindestens seit der FX in Entwicklung.

Du hast eine enorme Angewohneit die Leute für blöd zu halten, wenn es dir nicht in den Kram passt.

AFR funktioniert auch jetzt schon.
Liest du was ich schreibe?

reunion
2009-01-06, 21:51:35
Ich habe da andere Informationen - genau von den Leuten die auch ein halbes Jahr vorher die genauen G80-Specs hatten.

Die GeForce 8 war mindestens seit der FX in Entwicklung.


R400 war mindestens seit R200, eher R100 in Entwicklung und wurde dann kurz nach der Veröffentlichung von R300 verworfen.


Liest du was ich schreibe?

Die Frage könnte ich dir auch stellen. Dazu braucht es keinen Sideport od. dgl.

Coda
2009-01-06, 21:53:29
R400 war mindestens seit R200, eher R100 in Entwicklung und wurde dann kurz nach der Veröffentlichung von R300 verworfen.
Dafür haben sie R600 aber auch ganz schön verkackt. Was meinen Punkt auch nicht verändert. Die Entwickler pendeln doch sowieso zwischen den Firmen.

Die Frage könnte ich dir auch stellen. Dazu braucht es keinen Sideport od. dgl.
Lies nochmal Wort für Wort: "Wer sagt dir denn dass sie nicht einfach bei ihrem AFR-Crap bleiben? Bisher kommen sie beide sehr gut damit weg."

Deine Antworten darauf ergeben genau NULL Sinn.

reunion
2009-01-06, 22:01:25
Dafür haben sie R600 aber auch ganz schön verkackt. Was meinen Punkt auch nicht verändert.

Ich habe auch nichts anderes behauptet. Du tatst doch so als ob NV schon länger damit experimentieren würde.


Lies nochmal Wort für Wort: "Wer sagt dir denn dass sie nicht einfach bei ihrem AFR-Crap bleiben? Bisher kommen sie beide sehr gut damit weg."

Deine Antworten darauf ergeben genau NULL Sinn.

Das sehe ich anders. Die Antwort ergibt sehr wohl einen Sinn wenn man sich nicht dumm stellt. Zumal der AFR-Crap auch für die Hersteller alles andere als optimal ist, da der doppelte Speicher drauf geht und erhebliche Ressourcen im Treiberteam bindet.

Coda
2009-01-06, 22:03:46
Ich habe auch nichts anderes behauptet. Du tatst doch so als ob NV schon länger damit experimentieren würde.
Theoretisch hat man sich dazu sicher auch schon länger Gedanken gemacht, evtl. auch Simulationen.

Das ist sehr naheliegend wenn man sich damit beschäftigt.

Das sehe ich anders. Die Antwort ergibt sehr wohl einen Sinn wenn man sich nicht dumm stellt.
Ich verstehe sie trotzdem nicht. Es geht mir darum, dass sie evtl. bei AFR bleiben werden, weil sie damit durchkommen.

Du faselst irgend was von "AFR funktioniert auch jetzt schon". Hä? Natürlich funktioniert es jetzt schon, darauf basiert doch meine Aussage.

Zumal der AFR-Crap auch für die Hersteller alles andere als optimal ist, da der doppelte Speicher drauf geht und erhebliche Ressourcen im Treiberteam bindet.
Hardware-Entwicklung ist noch viel teurer. Und Speicher relativ billig.

Zumal ich sehr stark vermute, dass sich daran sowieso nichts ändern wird, selbst wenn es so weit kommt. Es wird schon eigentlich viel zu viel Bandbreite und Zeit für das Framebuffer-Sharing benötigt, da kann man nicht auch noch Texturen hin- und herschieben.

Ailuros
2009-01-07, 07:17:14
Beide IHVs haben auf ihren D3D10 Architekturen gebruetet bis die Zeit reif genug war fuer eine Veroeffentlichung.

Was jetzt AFR oder AMD vs. NVIDIA betrifft, AMD hat den grossen Nachteil dass sich die ohnehin schon mageren Resourcen schon aus ATI Zeiten weiterhin reduziert haben. Innovation und kluge Ideen sind zwar eine tolle Sache, aber wenn man sie nur entwickelt um dumm rumhocken zu lassen ohne einen weiteren Finger zu ruehren, kommt auch nichts davon.

Uebrigens ist der heutige "AFR-crap" um Lichtjahre besser und effektiver als der ATI-AFR oder 3dfx-SLI Mist der Vergangenheit. Ich halte zwar nichts von multi-chip/GPU bis jetzt, aber es heisst nun auch wieder nicht dass sich hier nichts bewegt hat.

***edit: zurueck zum Thema.... ich will hoffen AMD hat tatsaechlich auch auf dem RV870 innoviert; sind es nur die bisherigen Grundlagen etwas umgekrempelt ist das Ganze zwar schon und gut aber es kann dann auch sein dass sich das Blatt wieder wenden wird.

Mr. Lolman
2009-01-07, 08:38:56
3dfx-SLI Mist der Vergangenheit.

Wieso Mist? Der hat ja ganz gut funktioniert (und nette Sachen mitgebracht, wie bei aktivem AA zB Mipmapüberblendungen und Verbesserung der 16bit BQ)

Gast
2009-01-07, 08:59:21
Wieso Mist? Der hat ja ganz gut funktioniert (und nette Sachen mitgebracht, wie bei aktivem AA zB Mipmapüberblendungen und Verbesserung der 16bit BQ)
Ist IMO kaum vergleichbar, weil MGPU damals einfach noch "einfacher" war. Es gab kaum PP-Effekte, auf die man hätte Rücksicht nehmen müssen, R2T war auch noch nicht so verbreitet wie heute. Zudem fiel das komplette Geometrieproblem weg - das ist so, als ob man sich heute nur noch um das Aufteilen der Pixel kümmern müsste. Das wäre überhaupt kein Problem und würde MGPU mit einem Schlag komplett salonfähig machen.

reunion
2009-01-07, 15:15:09
Theoretisch hat man sich dazu sicher auch schon länger Gedanken gemacht, evtl. auch Simulationen.

Das ist sehr naheliegend wenn man sich damit beschäftigt.


Das gilt aber auch für ATi.


Ich verstehe sie trotzdem nicht. Es geht mir darum, dass sie evtl. bei AFR bleiben werden, weil sie damit durchkommen.

Du faselst irgend was von "AFR funktioniert auch jetzt schon". Hä? Natürlich funktioniert es jetzt schon, darauf basiert doch meine Aussage.

Ich verstehe nicht was es da nicht zu verstehen gibt. Wenn man bei AFR bleiben wollte bräuchte man sich keine Mühe machen mit dem Sideport, etc. - AFR skaliert auch jetzt schon perfekt wenn ein ordentliches Profil vorhanden ist. Diese Entwicklung und die schon lange anhaltenden Gerüchte deuten wohl doch darauf hin das man mehr will, zumal die Hersteller mit der jetzigen AFR-Lösung auch immer schlechter weg kommen.



Zumal ich sehr stark vermute, dass sich daran sowieso nichts ändern wird, selbst wenn es so weit kommt. Es wird schon eigentlich viel zu viel Bandbreite und Zeit für das Framebuffer-Sharing benötigt, da kann man nicht auch noch Texturen hin- und herschieben.

Wo willst du Texturen hin- und herschieben wenn beide Chips den selben VRAM verwenden? Man bräuchte halt nur eine entsprechend Breite Anbindung das es hier nicht zu einem Engpass kommt.

Ailuros
2009-01-07, 19:28:23
Wieso Mist? Der hat ja ganz gut funktioniert (und nette Sachen mitgebracht, wie bei aktivem AA zB Mipmapüberblendungen und Verbesserung der 16bit BQ)

Weil scanline interleaving ja die tollste Idee ueberhaupt war benutzten die NVIDIA engineers eigentlich AFR obwohl die multi-GPU Philosophie von den ex-3dfx engineers kam oder?

Wie der Gast schon erwaehnte es skalierte keine Geometrie bei dem Zeug und es tut mir leid aber die ganze Idee war so blendend dass sie in ihrem zenith fast 600$ gekostet haette um anstaendige SSAA Leistung erreichen zu koennen und dazu noch mit externer Stromversorgung.

Multi-chip/GPU ist IMHLO auch heute eine fragliche Investition; und IMHLO um einiges fraglicher in 1999.

Gast
2009-01-08, 12:09:16
Weil scanline interleaving ja die tollste Idee ueberhaupt war benutzten die NVIDIA engineers eigentlich AFR obwohl die multi-GPU Philosophie von den ex-3dfx engineers kam oder?

Wie der Gast schon erwaehnte es skalierte keine Geometrie bei dem Zeug und es tut mir leid aber die ganze Idee war so blendend dass sie in ihrem zenith fast 600$ gekostet haette um anstaendige SSAA Leistung erreichen zu koennen und dazu noch mit externer Stromversorgung.

Multi-chip/GPU ist IMHLO auch heute eine fragliche Investition; und IMHLO um einiges fraglicher in 1999.
naja, die idee des parallelisierens war sicher nicht falsch. das verfahren war ok, die skalierung gut, jedoch war es auch der genickbruch von tdfx, schliesslich wurden designs mit externen geometriechips genau deswegen "erfunden" - damit das bild unabhängig verteilt und die geometrie - trotz SLI - verarbeitet werden "konnte".

das problem damals war vielmehr, dass tdfx alte fertigungstechnologien verwendete, die prints relativ elend waren und dadurch mit vielen layers und hohem stromverbrauch gearbeitet werden musste. sie waren klar pioniere auf einem gebiet, welches wir heute gerade versuchen zu erkunden, und dafür sollte ihnen respekt gezollt werden.

Ailuros
2009-01-08, 18:28:44
naja, die idee des parallelisierens war sicher nicht falsch. das verfahren war ok, die skalierung gut, jedoch war es auch der genickbruch von tdfx, schliesslich wurden designs mit externen geometriechips genau deswegen "erfunden" - damit das bild unabhängig verteilt und die geometrie - trotz SLI - verarbeitet werden "konnte".

SAGE der Geometrie-chip fuer Rampage, der auch als Bruecke auf der dual-chip GPU gedient haette.

das problem damals war vielmehr, dass tdfx alte fertigungstechnologien verwendete, die prints relativ elend waren und dadurch mit vielen layers und hohem stromverbrauch gearbeitet werden musste. sie waren klar pioniere auf einem gebiet, welches wir heute gerade versuchen zu erkunden, und dafür sollte ihnen respekt gezollt werden.

Pioniere waren sie lediglich IMHLO bis zur V2 danach ging es bergab; und Ihr Problem waren nicht nur die alten Fertigungstechnologien sondern u.a. auch die unendliche Wiederkauerei auf der gleichen und abermals gleichen aufgewaermten Suppe. Rampage ging nicht rein zufaellig durch ganze 4 re-designs, aber es hat keinen Zweck mehr darueber zu diskuttieren.

Respekt hab ich fuer alle engineers die fuer Innovation sorgen und es tut mir leid aber die wirklich grossen Talente wie Kilgariff z.B. liefern heutzutage tonnenweise mehr Innovation als sie je die Chance bei 3dfx gehabt haetten.

aylano
2009-01-09, 00:56:19
Wohl durch den Neuen Treiber brauchte man nun keinen zwingenden RV770 Refresh mehr und stürzte sich somit vielmehr auf das kommende High End
In letzter Zeit hat ATI die Konzepte betont.

Und so viel R&D-Resourchen haben sie sicher auch nicht
Somit könnte ich mir ein recht sparsames vorgehen vorstellen, vorallem weil sie gerade die RV7x0-Architektur (3Q ... RV710 & RV730 in Deskop und Mobile in 1Q 2009) eingeführt haben und bald neue Architektur a la DX11 kommen

Also,
Warum nicht so.

März ... 1 Welle an 40nm
(RV710 ... 72 mm² ... 80 Shader ... Low End ..... (25Watt) )******
RV740 ... 100 mm² ... 640 Shader ... Mainstream ... (<75Watt)
RV790 ... 200 mm² ... 1600 Shader ... Performance ... (100-150Watt)
RV790x2 ... 2x200mm² ... 2x1600 Shader ... High-End ... (<300 Watt)

4Q 2009 ... Beginn der 2.Welle an 40nm (=Reiferer Prozess = "neue Potentiale für Takt")
RV870 ... 300 mm² ... 2000 Shader ... Performance (ersetzt somit RV790) ... (100-150 Watt)
RV870x2 ... 2x300mm² ... 2x2000 Shader ... High-End (ersetzt somit RV790x2) ... (<300 Watt)

ca. 2 Quartale später kommt DX11 Low-End & Mainstream (ersetzt RV740 & Co)


******Wobei vielleicht AMD einen RV710 Shrink mit ??? Shadern in Dresden (momentan) versuchen könnte. Und wenn dieser dort klappt, dann könnten sie diesen RV710-40nm-Nachfolger dann gleich dort statt RV710 produzieren und dem RV710-Nachfolger bei TSMC canceln.

Wenn nicht, dann kommt er wie geplant von TSMC Anf 3Q 2009 (irgendeine Annahme, aber ca. gleich wie GT216er)
Wenn AMD früher fertigen kann, würde ich es zumindestens Versuchen diesen Zeitvorsprung zu nutzen um erste GPUs in meiner Fabrik zu produzieren.

Denn die gleichzeitige Einführung von 3 neuen GPUs (in einer Firma/Fabrik) ist unüblich. Eine Aufteilung auf Dresden (2. Firma) könnte Sinn ergeben und da man dort jetzt mit GPUs übt, kann man es auch mit einem zukünftigen tun alias RV710-Nachfolger.
Mit Glück klappts früher und kann ihn dann früher rauswerfen alias Geldsparen (=momentan sehr hohe Priorität bei AMD)

reunion
2009-01-18, 15:16:28
Auch wenn es wohl ein Fake ist, ich schmeiße es mal hier rein:

http://img82.imageshack.us/img82/3128/2009011623f07fcb7c9daa7nt3.gif

http://img82.imageshack.us/img82/8985/20090116f000bad5de67db7ab0.gif


Info:
HD 5450 -> 640 SP + 16 TMUs (1 master chip)
HD 5650 -> 1280 SP + 32 TMUs (1 master chip + 1 slave)
HD 5670 -> 1920 SP + 48 TMUs (1 master chip + 2 slaves)
HD 5850 -> 2560 SP + 64 TMUs (1 master chip + 3 slaves)
HD 5870 -> 3200 SP + 80 TMUs (1 master chip + 4 slaves)

http://bbs.chiphell.com/viewthread.php?tid=38229&extra=page%3D1

Coda
2009-01-18, 15:18:13
Die Bilder sind auf jeden Fall ein Fake, das sieht man schon an den freien Kontaktflächen für die Chips ;)

Bei 76 GB/s FlexIO wär auch das Routing viel zu teuer wohl. Das Routing zu den Speichern braucht man ja zusätzlich.

Sorkalm
2009-01-18, 15:29:02
Ich glaub das kommt ursprünglich aus dem Beyond3D, sollte auch kein Fake sein, sondern einfach mal ein "Gedankengang".

dargo
2009-01-18, 15:36:49
Mal eine Frage zu dem "Multicore" Thema. Was ändert sich dadurch an der MR-Problematik? Bei dem shared Ram hat man ja den Vorteil von niedrigeren Kosten, soweit so gut. Aber ändert sich dadurch überhaupt was an der AFR-Problematik oder will AMD uns tatsächlich CF im wahrsten Sinne des Wortes aufs Auge drücken? Und das ganze dann noch mit bis zu 4 GPUs? :|

reunion
2009-01-18, 15:45:03
Mal eine Frage zu dem "Multicore" Thema. Was ändert sich dadurch an der MR-Problematik? Bei dem shared Ram hat man ja den Vorteil von niedrigeren Kosten, soweit so gut. Aber ändert sich dadurch überhaupt was an der AFR-Problematik oder will AMD uns tatsächlich CF im wahrsten Sinne des Wortes aufs Auge drücken? Und das ganze dann noch mit bis zu 4 GPUs? :|

Wenn alle GPUs auf den gleichen Speicher zugreifen gibt es wohl keinen Grund mehr für AFR. SFR-Techniken wie Supertiling sind ja heute nur so langsam weil bei modernen Rendering die eine GPU oft den Speicherinhalt der anderen benötigt und das dann aufwändig über einen schmalen Bus geschoben werden muss. Aber mal sehen wie das dann genau gelöst wird falls es so kommt. AMD ist sich aber sicherlich bewusst das AFR mit vier und mehr GPUs nicht die Lösung sein kann.

dargo
2009-01-18, 15:46:37
Wenn alle GPUs auf den gleichen Speicher zugreifen gibt es wohl keinen Grund mehr für AFR. SFR-Techniken wie Supertiling od. dgl. sind ja heute nur so langsam weil bei modernen Rendering die eine GPU oft den Speicherinhalt der anderen benötigt und das dann aufwändig über einen schmalen Bus geschoben werden muss.
Aja, danke. Und mit SFR gibts keine Microruckler mehr? :)

reunion
2009-01-18, 15:49:14
Aja, danke. Und mit SFR gibts keine Microruckler mehr? :)

Bei SFR gibt es keine Microruckler, weil alle GPUs am selben Bild arbeiten.

LovesuckZ
2009-01-18, 15:49:48
Wenn alle GPUs auf den gleichen Speicher zugreifen gibt es wohl keinen Grund mehr für AFR. SFR-Techniken wie Supertiling sind ja heute nur so langsam weil bei modernen Rendering die eine GPU oft den Speicherinhalt der anderen benötigt und das dann aufwändig über einen schmalen Bus geschoben werden muss. Aber mal sehen wie das dann genau gelöst wird falls es so kommt. AMD ist sich aber sicherlich bewusst das AFR mit vier und mehr GPUs nicht die Lösung sein kann.

Und das soll bei Shared Memory anders sein?

reunion
2009-01-18, 15:57:59
Sag was du sagen willst aber höre auf mit diesem kindischen Ratespiel. Wenn ich nur noch einen Speicher habe sollte das logisch sein.

Ailuros
2009-01-18, 16:00:28
Bei SFR gibt es keine Microruckler, weil alle GPUs am selben Bild arbeiten.

Das ist mir aber zu vereinfacht; unter theoretisch perfektem load-balancing zwischen den diversen chips pro frame waere es natuerlich einfacher. Es handelt sich immer noch um IMRs und obwohl man so manchen Trick benutzen kann will ich bezweifeln dass man es stets schaffen kann z.B. den "load" um 50:50 auf 2 chips zu verteilen.

Eine Idee waere natuerlich mit dynamischen (variable tile-Groesse je nach Bedarf) macro und micro tiles zu arbeiten, aber so was wuerde ich lieber einem TBDR ueberlassen; ausser natuerlich es ist jemand gleichgueltig wieviel Geometrie man rechts und links herumpuffern will. Ein relevantes Patent wird glaub ich bald von IMG veroeffentlicht.

LovesuckZ
2009-01-18, 16:04:58
Sag was du sagen willst aber höre auf mit diesem kindischen Ratespiel. Wenn ich nur noch einen Speicher habe sollte das logisch sein.

Es existiert bei Shared Memory auch nur ein Speicherinterface zwischen den GPUs und dem Speicher. Shared Memory führt also bis zu Halbierung der Speicherbandbreite pro Chip. Wenn also SFR mit Shared Memory funktioniert, wieso sollte es mit dedizierten Speicher pro Chip nicht auch funktioniere?

reunion
2009-01-18, 16:13:49
Wenn also SFR mit Shared Memory funktioniert, wieso sollte es mit dedizierten Speicher pro Chip nicht auch funktioniere?

Das habe ich ja schon geschrieben: Weil eine GPU immer wieder auf den Speicherinhalt der jeweils anderen angewiesen ist und das aufwändig über den PCIe-Bus/SLi-Brücke geschoben werden muss. Bei shared Memory kann/muss ja jede GPU direkt mit voller Bandbreite auf den einzigen Speicher zugreifen.

LovesuckZ
2009-01-18, 16:20:07
Das habe ich ja schon geschrieben: Weil eine GPU immer wieder auf den Speicherinhalt der jeweils anderen angewiesen ist und das aufwändig über den PCIe-Bus/SLi-Brücke geschoben werden muss. Bei shared Memory kann/muss ja jede GPU direkt mit voller Bandbreite auf den einzigen Speicher zugreifen.

Dagegen halbiert sich im schlimmsten Fall die Speicherbandbreite pro Chip.
Die stellt sich mir, ist die Latenz bei dedizierten Speicher größer als bei Shared Memory, wenn jede GPU nicht über die volle Bandbreite verfügt.

reunion
2009-01-18, 16:23:58
Dagegen halbiert sich im schlimmsten Fall die Speicherbandbreite pro Chip.

Dann muss man eben die Bandbreite ausreichend bemessen. Ein GT200 hat ja auch einen doppelt so breiten Bus wie ein G92. Schon klar das man bei vier Chips nicht mit einem 64-bit SI auskommt. Wenn ein Chip nicht die volle Bandbreite benötigt haben die anderen allerdings trotzdem entsprechend mehr zur Verfügung. Bei dezidierten Speicher hast du diesen Vorteil nicht.

Coda
2009-01-18, 16:33:14
Das habe ich ja schon geschrieben: Weil eine GPU immer wieder auf den Speicherinhalt der jeweils anderen angewiesen ist und das aufwändig über den PCIe-Bus/SLi-Brücke geschoben werden muss. Bei shared Memory kann/muss ja jede GPU direkt mit voller Bandbreite auf den einzigen Speicher zugreifen.
Es geht nicht nur um die Bandbreite, sondern auch um die Latenz + Verlustleistung. Signale nach außen sind immer recht energiefressend.

AnarchX
2009-01-18, 17:00:33
Auftretende Gerüchte der letzten Zeit, wonach der RV870 über 1, der R870 über 2, und der R800 über 4 GPUs verfügen soll, können nicht bestätigt werden und stellen sich als Fake heraus. Wir wissen aus sehr vertrauenswürdigen Quellen, dass der RV870 ein normaler, letzter Refresh des R600 wird.
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/248-rv870-a-r800-wird-es-nicht-als-x4-geben

reunion
2009-01-18, 17:01:56
RV870 ist DX11 im Q4 und damit sicher kein "normaler, letzter Refresh des R600". Die meinen wohl RV790 im ersten Halbjahr.

AnarchX
2009-01-18, 17:06:27
Ich würde es eher so deuten, dass die technische Basis noch R6xx/R7xx sein wird, während man danach bei R9xx wohlmöglich einen Schritt wie von R5xx auf R6xx machen wird.

Im Endeffekt dürfte es ja für RV7xx kein weiter Schritt mehr zu D3D11 sein, der Tesselator geht schon in die Richtung der 11er-Spec, die GPGPU/CS-Fähigkeiten hat man mit RV7xx entsprechend ausgebaut und der Rest ist ja eher eine Frage von Texturformaten.

Fetza
2009-01-18, 17:34:50
Weil scanline interleaving ja die tollste Idee ueberhaupt war

Mal ernsthaft, ich weiss das es lange her ist, aber ich war damals total zufrieden mit dem voodoo 2 sli. Kann es sein, dass es mit dem scaline interleaving kein/kaum mr gab? Ich kann mich an keine szene damals erinnern, wo ich ein ruckeln wargenommen hätte (ausnahme quake 3 mit texturgröße auf maximum, da fehlte halt speicher). Aber bei heutigen multi-gpu-produkten ist mr deutlich wahrnehmbar.

robbitop@work
2009-01-19, 08:40:54
Mal ernsthaft, ich weiss das es lange her ist, aber ich war damals total zufrieden mit dem voodoo 2 sli. Kann es sein, dass es mit dem scaline interleaving kein/kaum mr gab? Ich kann mich an keine szene damals erinnern, wo ich ein ruckeln wargenommen hätte (ausnahme quake 3 mit texturgröße auf maximum, da fehlte halt speicher). Aber bei heutigen multi-gpu-produkten ist mr deutlich wahrnehmbar.
Natürlich gab es mit SLI und auch mit SFR kein Mikroruckeln. Beide GPUs arbeiten bei beiden Verfahren, im Gegensatz zu AFR, am gleichen Bild.

Schlammsau
2009-01-19, 08:57:57
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/248-rv870-a-r800-wird-es-nicht-als-x4-geben

hm....schade! :frown:

Ailuros
2009-01-19, 10:55:50
Mal ernsthaft, ich weiss das es lange her ist, aber ich war damals total zufrieden mit dem voodoo 2 sli. Kann es sein, dass es mit dem scaline interleaving kein/kaum mr gab? Ich kann mich an keine szene damals erinnern, wo ich ein ruckeln wargenommen hätte (ausnahme quake 3 mit texturgröße auf maximum, da fehlte halt speicher). Aber bei heutigen multi-gpu-produkten ist mr deutlich wahrnehmbar.

Scanline interleaving und die Methode die Naomi2 Arcade Maschinen benutzten skalierten nur raster Leistung.

Ich hab den Verdacht dass selbst bei Q3a die Texturgroesse nicht der einzige Grund war (wobei uebrigens bis V3 nur 256*256 Texturen unterstuetzt wurden und Q3 bis zu 512*512 Texturen enthaelt), sondern auch unter anderem die zusaetzlichen Transformationen die es im Spiel gab (von "lighting" war ja nichts zu sehen).

Damals war u.U. tatsaechlich die Fuellrate "Koenig", aber auch nur fuer diesen Zeitraum. Seither hat es Spiele mit T&L gegeben (siehe UT2003) wo eine Geometrie-Einheit lebenswichtig ist um nicht mit der zusaetzlichen Geometrie die CPU zu ueberarbeiten und danach natuerlich kamen Shader in unser Leben.

Bei Naomi2 wurden auch Linien zwischen den 2 cores aufgeteilt und dann mit festen Tile-Groessen abgearbeitet. Da PowerVR heutzutage wieder mit dem SGX543 multi-chip configs erlaubt, wird seit neuestem dafuer eine variable Groesse von tiles "je nach Bedarf" verwendet. Auf einem TBDR ist das Ganze auch um einiges einfacher da man durch die Verzoegerung mehr Infos ueber den naechsten Frame in der Hand hat und man so dann nicht nur ueberdeckte Geometrie total verwerfen kann sondern auch je nach Bedarf den Geometrie-workload auf jeden core dementsprechend durch variable tile-Groessen skaliert.

Fetza
2009-01-19, 22:45:18
Scanline interleaving und die Methode die Naomi2 Arcade Maschinen benutzten skalierten nur raster Leistung.

Ich hab den Verdacht dass selbst bei Q3a die Texturgroesse nicht der einzige Grund war (wobei uebrigens bis V3 nur 256*256 Texturen unterstuetzt wurden und Q3 bis zu 512*512 Texturen enthaelt), sondern auch unter anderem die zusaetzlichen Transformationen die es im Spiel gab (von "lighting" war ja nichts zu sehen).

Damals war u.U. tatsaechlich die Fuellrate "Koenig", aber auch nur fuer diesen Zeitraum. Seither hat es Spiele mit T&L gegeben (siehe UT2003) wo eine Geometrie-Einheit lebenswichtig ist um nicht mit der zusaetzlichen Geometrie die CPU zu ueberarbeiten und danach natuerlich kamen Shader in unser Leben.

Bei Naomi2 wurden auch Linien zwischen den 2 cores aufgeteilt und dann mit festen Tile-Groessen abgearbeitet. Da PowerVR heutzutage wieder mit dem SGX543 multi-chip configs erlaubt, wird seit neuestem dafuer eine variable Groesse von tiles "je nach Bedarf" verwendet. Auf einem TBDR ist das Ganze auch um einiges einfacher da man durch die Verzoegerung mehr Infos ueber den naechsten Frame in der Hand hat und man so dann nicht nur ueberdeckte Geometrie total verwerfen kann sondern auch je nach Bedarf den Geometrie-workload auf jeden core dementsprechend durch variable tile-Groessen skaliert.

Wenn ich das richtig verstehe heißt das also, dass ein heutzutage angewendetes scanline-interleaving praktisch keinen performancevorteil bringen würde?

Coda
2009-01-19, 23:21:54
Ja, das ist wie das Supertiling bei ATI. Funktioniert auch praktisch nicht.

Wobei man das mal testen könnte. Es sollten mal Leute mit 4870 X2 Benchmarks mit deaktiviertem A.I. machen, denn dann wird die Karte dazu gezwungen. Die Mikroruckler wären dann naturgemäß auch weg.

Gast
2009-01-20, 12:19:44
Ja, das ist wie das Supertiling bei ATI. Funktioniert auch praktisch nicht.

Wobei man das mal testen könnte. Es sollten mal Leute mit 4870 X2 Benchmarks mit deaktiviertem A.I. machen, denn dann wird die Karte dazu gezwungen. Die Mikroruckler wären dann naturgemäß auch weg.

A.I. deaktivieren beim crossfire testen...
also die mikroruckler sind garantiert weg :>

Hübie
2009-01-20, 12:54:26
Bin mir nicht sicher, aber sobald man A.I. ausschaltet hat man doch garkein CF mehr oder irre ich jetzt...
Ich könnte das sonst heute abend mal mit meinen beiden HD 4850 testen. Oder ist ne X² Pflicht?

bye Hübie

Ailuros
2009-01-20, 13:53:40
Wenn ich das richtig verstehe heißt das also, dass ein heutzutage angewendetes scanline-interleaving praktisch keinen performancevorteil bringen würde?

Bei rein Fuellraten-limitierten Spielen eigentlich schon. Aber fuer so alte Spiele braucht man bei weitem auch kein dual-wasauchimmer setup mehr.

Coda
2009-01-20, 16:11:05
A.I. deaktivieren beim crossfire testen...
also die mikroruckler sind garantiert weg :>
Das ist mir schon klar. Es geht mir darum, ob die Performance überhaupt noch höher ist dann.

reunion
2009-01-20, 17:09:23
Es sollte erstmal geklärt werden wie sicher und aktuell das ist mit Supertiling bei AIoff.

Coda
2009-01-20, 17:10:55
Ich bin mir da recht sicher, da das komplette Profilzeug deaktiviert wird.

reunion
2009-01-20, 17:14:45
Was noch lange nicht bedeutet dass dann Supertiling zum Einsatz kommt. AMD verwendet schon seit einiger Zeit im "default"-Profil AFR und nicht mehr Supertiling. Würde mich nicht wundern wenn Supertiling gar nicht mehr vom Treiber unterstützt wird.

Coda
2009-01-20, 17:42:16
Kann kaum sein, da es Apps gibt die inherent nicht mit AFR kompatibel sind.

reunion
2009-01-20, 18:04:19
Es gibt ja auch Apps welche nicht mit CF kompatibel sind. Wobei bei alle halbwegs neuen Spielen in der Regel schon darauf geachtet wird. Aber wie schon gesagt, das sollte man vorher mal klären.

Coda
2009-01-20, 18:24:13
Wie jetzt? Du behauptest, dass es Spiele gibt die auf einer 4870X2 - egal wie - einfach nicht laufen?

Oder muss man dann Crossfire jedes Mal vorher deaktivieren?

Stormscud
2009-01-20, 21:48:40
Er meint sicher, dass CF einfach nicht genutzt wird, sprich nur eine Karte rechnet. Oder war das sarkastisch?