Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
Next Gen GPUs Info : R520 & NV50/G70 (http://www.vr-zone.com/?i=2010&s=1)
ATi and NVIDIA are certainly working hard to push out their next generation GPUs for Computex launch in June. NVIDIA is particular tight-lipped about their NV50/G70 GPU even to their partners while ATi has not demo a working sample to their partners till now so things aren't looking too rosy. None the least, we heard that NV50/G70 is a dual-core monster(?) with 32 pipelines and is based on TSMC 90nm process technology. ATi R520 is also 90nm based and contains 32 pipelines(?). The reference cooler design for NV50/G70 looks huge with 4 copper heat-pipes and a large fan. We have also heard about an interesting strategy that NVIDIA is going to equip their next generation cards ranging from low-end to high-end with 2nd gen. Turbo Cache technology.
24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA
FP32 blending, texturing
Programmable Primitive Processor/Tesselator
Performance: Over 3x Radeon X800 XT !!! (for single R520)
da sind meine lieblings vergleiche,3x schneller ja in zweitausender auflösung mit aa/af ;D
wenns in doom3 mit 1024 4xaa 8xaf 50 % schneller ist kann man zufrieden sein
Wie alt ist das denn? Steht bestimmt schon irgendwo in diesem Thread...
Demirug
2005-04-17, 20:03:00
Wie alt ist das denn? Steht bestimmt schon irgendwo in diesem Thread...
Ich weiß zwar nicht wie alt das ist aber die Zahlen werden dadurch aber auch nicht sinniger.
24 "Pipelines"
....
Performance: Over 3x Radeon X800 XT !!! (for single R520)
da sind meine lieblings vergleiche,3x schneller ja in zweitausender auflösung mit aa/af ;D
wenns in doom3 mit 1024 4xaa 8xaf 50 % schneller ist kann man zufrieden sein
BITTE??? ich würde eher sagen, dass sich bei nur 50% performance + gegenüber einer x850xtpe ati die kugel geben kann (es sei denn du meinst ohne fsaa und af bei 800x600 ;) ... für ein echtes next-gen produkt wäre das sehr übel. ich gehe eher von 100% - 150% schneller aus bei aktiviertem fsaa und af
falls die 24 pipes und 700mhz core + 900mhz gddr3 wirklich realisierbar sind wirds wahrscheinlich bei ausgewählten spielen in hohen auflösungen mit fsaa und af schon auf "3xschneller als x850" hinauslaufen denke ich. durchaus realistisch finde ich.
mapel110
2005-04-17, 20:09:44
Derzeit siehts aber nach 16 Pipes und 650-700 Mhz Core aus und beim Speicher ist derzeit wohl auch kaum schnelleres verfügbar. Was ist da eigentlich derzeit in Massenproduktion oder kurz davor?
/edit
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm
700 Mhz Ram?!
BITTE??? ich würde eher sagen, dass sich bei nur 50% performance + gegenüber einer x850xtpe ati die kugel geben kann (es sei denn du meinst ohne fsaa und af bei 800x600 ... für ein echtes next-gen produkt wäre das sehr übel. ich gehe eher von 100% - 150% schneller aus bei aktiviertem fsaa und af
wenns nur 16pipes werden können wir "100% - 150% schneller" vergessen
R520 ist nicht wirklich Next-gen von der Performance, weil R420 ein Lückenfüller war. Man sollte deshalb eher die Performance von einem R420 Refresh erwarten (nein, X850 ist nicht wirklich einer...)
cenmocayreborn
2005-04-17, 23:24:15
denk ihr man kann an den nächsten karten den verlust an leistung mit aktiviertem AA/AF weiter senken ?
BITTE??? ich würde eher sagen, dass sich bei nur 50% performance + gegenüber einer x850xtpe ati die kugel geben kann (es sei denn du meinst ohne fsaa und af bei 800x600 ... für ein echtes next-gen produkt wäre das sehr übel. ich gehe eher von 100% - 150% schneller aus bei aktiviertem fsaa und af
wenns nur 16pipes werden können wir "100% - 150% schneller" vergessen
es werden GARANTIERT nicht nur 16 pipes
Derzeit siehts aber nach 16 Pipes und 650-700 Mhz Core aus und beim Speicher ist derzeit wohl auch kaum schnelleres verfügbar. Was ist da eigentlich derzeit in Massenproduktion oder kurz davor?
/edit
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/256Mbit/K4J55323QF/K4J55323QF.htm
700 Mhz Ram?!
800Mhz RAM ;)
http://www.infineon.com/cgi/ecrm.dll/ecrm/scripts/prod_ov.jsp?oid=58829&cat_oid=-13402
800Mhz RAM ;)
http://www.infineon.com/cgi/ecrm.dll/ecrm/scripts/prod_ov.jsp?oid=58829&cat_oid=-13402
oh ati hat vetrag mit samsung...
reunion
2005-04-18, 00:20:48
800Mhz RAM ;)
http://www.infineon.com/cgi/ecrm.dll/ecrm/scripts/prod_ov.jsp?oid=58829&cat_oid=-13402
[...]Available 4Q05 :rolleyes:
Ailuros
2005-04-18, 04:14:02
24 "Pipelines"
32 Texture Units
96 Arithmetic Logic Units (ALU)
192 Shader Operations per Cycle
700MHz Core
134.4 Billion Shader Operations per Second (at 700MHz)
256-bit 512MB 1.8GHz GDDR3 Memory
57.6 GB/sec Bandwidth (at 1.8GHz)
300-350 Million Transistors
90nm Manufacturing
Shader Model 3.0
ATI HyperMemory
ATI Multi Rendering Technology (AMR)
Launch: Q2 2005
Performance: Over 3x Radeon X800 XT !!! (for single R520)
16x stochastic FSAA
FP32 blending, texturing
Programmable Primitive Processor/Tesselator
Performance: Over 3x Radeon X800 XT !!! (for single R520)
da sind meine lieblings vergleiche,3x schneller ja in zweitausender auflösung mit aa/af ;D
wenns in doom3 mit 1024 4xaa 8xaf 50 % schneller ist kann man zufrieden sein
Kann das Ding auch Espresso bruehen? :D
Mit entsprechend modifiziertem Kühlkörper bestimmt :)
denk ihr man kann an den nächsten karten den verlust an leistung mit aktiviertem AA/AF weiter senken ?
bitte nicht, ich will endlich wieder ordentliches AF
robbitop
2005-04-18, 14:20:15
gutes AF wird immer, im relativen Bezug, gleichteuer sein. Natürlich kann es in nicht füllratenlimitierten Spielen mit großer vorhandener Rohleistung günstig sein. Aber Füllrate kosten wird es immer.
AA hingegen konnte man bisher durch viel Bandbreite und Bandbreitenschonungsmaßnahmen vergünstigen. Aber auch da ist man IMO soziemlich am Ende der Fahnenstange. Mehr Rohleistung wird im Wesentlichen ersteinmal das einzige Mittel sein um AA/AF im spielbaren Bereich zu halten.
Ailuros
2005-04-18, 17:50:59
gutes AF wird immer, im relativen Bezug, gleichteuer sein. Natürlich kann es in nicht füllratenlimitierten Spielen mit großer vorhandener Rohleistung günstig sein. Aber Füllrate kosten wird es immer.
Es koennte durchaus sein dass AF in der weniger absehbaren Zukunft vielleicht doch ersetzt wird:
Now, on to anisotropic filtering. You know, trilinear filtering was good enough for the best of the best flight simulators for many many years, and every time you or I have been in an airplane, the pilot flying it was probably trained in a simulator that used trilinear filtering! Anisotropic filtering is a relatively subtle effect of texture filtering, allowing severely oblique-angled textures to look both sharp and smooth at the same time. It's not really a "fake" method—it's a better estimate of the "perfect" filtering than either bilinear or trilinear filtering. And, there are still better techniques beyond anisotropic filtering, but they require even more effort and hardware.
http://www.extremetech.com/article2/0,1558,1745057,00.asp
AA hingegen konnte man bisher durch viel Bandbreite und Bandbreitenschonungsmaßnahmen vergünstigen. Aber auch da ist man IMO soziemlich am Ende der Fahnenstange. Mehr Rohleistung wird im Wesentlichen ersteinmal das einzige Mittel sein um AA/AF im spielbaren Bereich zu halten.
Nicht unbedingt; kommt eher auf die Ziele/Prioritaeten und natuerlich den moeglichen zukuenftigen Algorithmen an. Waere das Ziel fuer die weniger absehbare Zukunft die Anzahl der samples so hoch wie moeglich zu schrauben, koennte es durchaus analytische (oder pseudo-analytische) Algorithmen geben die noch weniger Bandbreite als heutzutage verbrauchen wuerden (stets aber im quasi Multisampling-Sinn). "Lossless" werden sie vielleicht nicht sein, aber mit einer verrueckt hohen Sample-Anzahl kann ich mir nicht unbedingt ein Problem ausdenken.
Zu Kirk's Hoffnung dass Aufloesungen vielleicht mal extrem hoch skalieren werden, stimme ich auch nicht unbedingt zu. Bis die heutige LCD-Technologie ueberrant wird auf jeden Fall erstmal nicht und fuer SED sieht es wohl auch nicht unbedingt rosig aus.
robbitop
2005-04-18, 18:11:08
Klingt alles IMO nach sehr langfristigen Zielen.
Ailuros
2005-04-19, 10:56:29
Klingt alles IMO nach sehr langfristigen Zielen.
Kirk erwaehnte in 1998 anisotropic filtering in einer ziemlich langen Analyse und u.a. auch Vergleiche zum Talisman Escalante Algorithmus. Es dauerte damals etwa 1.5-2 Jahre bis "stures" 2xAF in der GF2-Linie erschien, mit NV2x ging man dann auf 8xAF und man erweiterte danach jegliche moegliche adaptivitaet, bis man auch ein paar Vorteile von Escalante implementierte.
In der Praesentation gab es auch Vergleiche von diversen AA-Algorithmen, u.a. wurde natuerlich auch Multisampling erwaehnt.
Aus purem Zufall erwaehnt Herr Kirk selten etwas; nur werden wohl die Resultate seiner Analysen nicht mehr so leicht veroeffentlicht wie damals und das aus verstaendlichen Gruenden. Adaptives AF ist nicht billig was die HW-Implementierung betrifft; man kam eben erst dazu als es die HW auch wirklich erlaubte.
Natuerlich heisst das jetzt gar nichts, aber fuer das halbe Jahrzent von WGF2.0/DX10 wuerde ich weitere Innovationen momentan noch nicht ausschliessen. Ueberhaupt wenn ich von Einschaetzungen lese dass sich vielleicht der Transistoren-count fuer's naechste Jahrzent verzehnfachen wird...
PCGH_Thilo
2005-04-19, 11:13:49
achtet hier eigentlich noch irgend jemand auf den thread-titel? =)
mapel110
2005-04-19, 11:15:14
achtet hier eigentlich noch irgend jemand auf den thread-titel? =)
Der bleibt zwecks Wiedererkennung so wie er ist. =)
Aber es scheint ja so, als ob doch erst Ende 2005 Hardware verfügbar sein wird, oder?
mapel110
2005-04-19, 11:30:46
Aber es scheint ja so, als ob doch erst Ende 2005 Hardware verfügbar sein wird, oder?
Gerüchten zu Folge soll die Verfügbarkeit nicht die Ausmaße annehmen wie zu NV4x/R4xx-Zeiten ;)
Jemand meinte sogar, dass TSMC selbst davon gesprochen habe iirc.
Vorstellung ist ja in den nächsten Wochen(2 Monaten).
Ailuros
2005-04-19, 13:07:09
achtet hier eigentlich noch irgend jemand auf den thread-titel? =)
Weisst Du wie oft ich ~Mitte 2004 sagte dass man NICHT auf eine fruehe Vorstellung in 2005 hoffen sollte (und war auch nicht der einzige)? Natuerlich wurde man jedesmal mit INQ oder anderen "zuverlaessigen" links die darauf bestanden dass R520 in Q1 2005 vorgestellt wird, ueberstroemt.
Die eigentliche Frage die sehr viele zu uebersehen scheinen, ist wo genau die Investition von mehr Resourcen Sinn gemacht haette...irgendwo ein Jahr vor WGF2.0 oder eben eher mit voller Kraft fuer WGF2.0/2006? Dementsprechend erwarte ich persoenlich auch keine massiven Leistungsspruenge mehr fuer 2005 von beiden IHVs.
robbitop
2005-04-19, 13:25:50
Adaptives AF ist nicht billig was die HW-Implementierung betrifft; man kam eben erst dazu als es die HW auch wirklich erlaubte.
Adaptiv in welchem Sinne? An-Isotrop bedeutet ja schonmal Winkelabhängig. Je nach Winkel des Betrachters auf den Texel werden adaptiv Samples gewählt, um möglichst akurate Berechnungen zu tätigen.
Meinst du Winkeladaptiv im Sinne des Winkels um die Z-Achse? (seit R200 bsw).
Das ist sogar noch viel günstiger als Oldschool AF, da man die Berechnung der Line of Anisotropy nicht für jeden Bereich ausrechnen muss. Die in HW gegossene Formel erleichtert sich dadurch erheblich, was Transistoren spart.
Oder missverstehe ich dich hier?
robbitop
2005-04-19, 13:27:49
Jemand meinte sogar, dass TSMC selbst davon gesprochen habe iirc.
Das war ich. Es gab auf (IIRC) EE-Times mal so ein Interview mit jmd. von TSMC, ich finde es nur gerade nicht.
Ailuros
2005-04-19, 13:53:58
Adaptiv in welchem Sinne? An-Isotrop bedeutet ja schonmal Winkelabhängig. Je nach Winkel des Betrachters auf den Texel werden adaptiv Samples gewählt, um möglichst akurate Berechnungen zu tätigen.
Adaptiv im Sinn der Anzahl der samples die nach der entsprechenden Analyse der Texturen vom Algorithmus angewendet werden. Ausser Du glaubst dass keine Aenderung vorkamen zwischen sagen wir mal GF2 und GF3-AF.
Und anisotrop (da erstmal ein griechisches Wort und auch mit breiterer Anwendung als nur Filterung in 3D) bedeutet keinenfalls winkelabhaengig.
Iso = gleich, an-iso = un-gleich
tropos = Art, Weise
Escalante kann uebrigens AFAIK auch ungerade Anzahlen von samples anwenden (2x, 3x, 4x, 5x etc.). Momentan werden wohl aeusserst selten (wenn ueberhaupt) maximal 6x samples angewendet; sobald aber die Anzahl der samples >8x samples ist, duerften die ungeraden Zahlen einen gesunden Leistungsvorsprung geben.
robbitop
2005-04-19, 14:25:47
mag sein, dass "anisotrop" im Griechischen nicht "winkelabhängig" heißen mag, jedoch ist es in den Wissenschaften als solches gebraucht (bsw beim Maschinenbau und in der Informatik).
Adaptiv im Sinn der Anzahl der samples die nach der entsprechenden Analyse der Texturen vom Algorithmus angewendet werden. Ausser Du glaubst dass keine Aenderung vorkamen zwischen sagen wir mal GF2 und GF3-AF.
Escalante kann uebrigens AFAIK auch ungerade Anzahlen von samples anwenden (2x, 3x, 4x, 5x etc.). Momentan werden wohl aeusserst selten (wenn ueberhaupt) maximal 6x samples angewendet; sobald aber die Anzahl der samples >8x samples ist, duerften die ungeraden Zahlen einen gesunden Leistungsvorsprung geben.
Das ist beim AF eigentlich schon immer der Fall. Deswegen heisst es ja auch ANisotrop. Sonst wäre es ja eine Isotrope Filterung ;)
Allerdings ist dort Potential zur Verbesserung vorhanden. S3 kann bereits hier in 1er Abstufungen samplen. NV und ATI immer nur in 2er Potenzen.
achtet hier eigentlich noch irgend jemand auf den thread-titel? =)
ja dann gib uns mal infos xD
seahawk
2005-04-19, 18:17:26
achtet hier eigentlich noch irgend jemand auf den thread-titel? =)
Da wir schon April haben hat sich die Frage doch schon beantwortet. ;)
nagus
2005-04-19, 19:58:15
achtet hier eigentlich noch irgend jemand auf den thread-titel? =)
ja genau :) her mit den infos... und wenns nur bruchstücke und andeutungen sind. alles ist besser als gar nichts.
NV und ATI immer nur in 2er Potenzen.Mit dem nHancer kann ich auf NV40 auch 6x und 12x AF auswählen.
thilo weiß nix aber er will es nicht zugeben :P
Mantikor
2005-04-19, 20:37:35
thilo weiß nix aber er will es nicht zugeben :P
Sehen wir in der nächsten Ausgabe. ;)
Mfg der Mantikor
Botcruscher
2005-04-19, 20:45:41
Sehen wir in der nächsten Ausgabe. ;)
Mfg der Mantikor
Da bin ich skeptisch.
Naja in letzter Zeit war die PCGH doch eher entäuschend. Das Xte Grafikkartenspezial ... Irgendwie fehlt mir der Wissensteil, der WaKü-Test war aber mal wieder ein Lichtblick.
Ailuros
2005-04-20, 10:52:53
mag sein, dass "anisotrop" im Griechischen nicht "winkelabhängig" heißen mag, jedoch ist es in den Wissenschaften als solches gebraucht (bsw beim Maschinenbau und in der Informatik).
http://www.glossary.oilfield.slb.com/Display.cfm?Term=anisotropy
See also seismic or cosmic microwave background anisotropy.
Direction =! angle
Das ist beim AF eigentlich schon immer der Fall. Deswegen heisst es ja auch ANisotrop. Sonst wäre es ja eine Isotrope Filterung ;)
Allerdings ist dort Potential zur Verbesserung vorhanden. S3 kann bereits hier in 1er Abstufungen samplen. NV und ATI immer nur in 2er Potenzen.
Fuer NV und den neuesten Architekturen bin ich mir gar nicht so sicher ob es sich tatsaechlich nur um 2er Potenzen heutzutage handelt.
Was den Rest betrifft: es gab konstante Aenderungen in den AF Algorithmen seit der GF2 was Adaptivitaet betrifft, bevor die Winkel-abhaengigkeit in NV4x implementiert wurde:
Now the Intellisample algorithms of the OpenGL can be considered intelligent indeed, because the driver calculates the sharpness degree for each texture at the texture creation stage, and it is the sharpness degree which is used as an index of the anisotropy optimization tables.
No wonder that the follower of the NV25, NV30, was expected to come with fast anisotropic filtering able to provide a high playable fps level in high resolutions. NVIDIA did understand it. Exactly to eliminate that weak point and prevent that awful performance drop because of the anisotropic filtering they launched the Intellisample technology announced together with the NV30 family. To all appearances, the term Intellisample comes from Intelligent Sampling, i.e. NVIDIA hints at certain intelligent scene analysis technologies that reduce the computational resource consumption for anisotropic filtering by simplifying its algorithms if the image quality does not suffer much.
http://www.digit-life.com/articles2/behind-intellisample/index.html
....und das ist nur ein Beispiel. Es handelt sich um einen evolutionaeren Prozess der sich seit NV1x konstant verbessert hat.
Keine Ahnung ob dieser Chart schon gepostet wurde:
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/8058.html
Ich hoffe nur, dass die Performanceangabe nicht stimmt, ansonsten würde der R520 nur minimal über dem jetzigen High-End-Flagschiff liegen.
macht hoffnung das wir nicht ganz so lang drauf warten müssen
http://www.hardwareoc.hu/upload/news/8058_atiroadmap_t5cj.jpg
Keine Ahnung ob dieser Chart schon gepostet wurde:
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/8058.html
Ich hoffe nur, dass die Performanceangabe nicht stimmt, ansonsten würde der R520 nur minimal über dem jetzigen High-End-Flagschiff liegen.
was sind das angaben über den 520
Bauer
2005-04-20, 21:58:14
Also falls daran was stimmt würde ich nicht meckern...
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/7915.html
knapp 15 Punkte in 3Dmark 05 :eek:
oha ich hab mit der x800pro grad mal 4500 :D
http://www.hardwareoc.hu/upload/news/7915_1.jpg
das ding wird viel mehr als nur ein bißchen schneller, was hier einige meinten
Spasstiger
2005-04-20, 22:08:02
Also falls daran was stimmt würde ich nicht meckern...
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/7915.html
knapp 15 Punkte in 3Dmark 05 :eek:
Ich warte da erst mal ab, könnte auch ein gut gemachter Fake sein. Wenns stimmt, dann alle Achtung. Nichtmal mit zwei GeForce 6800 Ultra im SLI und mit Kaskadenkühlung konnte man so ein Ergebniss erreichen.
macht hoffnung das wir nicht ganz so lang drauf warten müssen
http://www.hardwareoc.hu/upload/news/8058_atiroadmap_t5cj.jpg
Warum liegt die X700Pro 2.Quartal höher als die X700Pro 1.Quartal? Haben sich die Specs von dem Chip geändert?
Quasar
2005-04-20, 22:14:01
oha ich hab mit der x800pro grad mal 4500 :D
http://www.hardwareoc.hu/upload/news/7915_1.jpg
das ding wird viel mehr als nur ein bißchen schneller, was hier einige meinten
Wieso liegt der Score Kasten genau über dem Bereich des Fensters, wo sonst Einstellungen wie Auflösung, Filter, AA-Stufe usw. angegeben werden? *gg*
Wieso liegt der Score Kasten genau über dem Bereich des Fensters, wo sonst Einstellungen wie Auflösung, Filter, AA-Stufe usw. angegeben werden? *gg*
ok ich verrats dir es war 1600 mit 8xaa 16xaf
hihi wäre zu schön ;D
24 csővezeték
32 textúrázó egység
96 aritmetikai, logikai egység (ALU)
192 árnyalóművelet órajelciklusonként
700 MHz-es magórajel
134,4 milliárd árnyalóművelet 700 MHz-en
512 MB 256 bites, 1,8 GHz-es GDDR3-memória a kártyákon
Másodpercenként 57,6 GB adat átvitele 1,8 GHz-en
300-350 millió tranzisztor
90 nanométeres gyártástechnológia
ungarisch is echt nett :) man erkennt alles
512mb baby :P mal sehen was die 512mb teile kosten werden,ich denke das wird nur die top variante haben
Spasstiger
2005-04-20, 22:30:17
Scheint ein Fake zu sein. Hab mal den Bildausschnitt vergrößert, wo man die Grafikkarte ablesen kann:
http://img245.echo.cx/img245/8140/r520fake9ue.jpg
In meinen Augen steht da "GeForce 6800 Series GPU", also handelt es sich wohl um ein SLI-System.
r3ptil3
2005-04-20, 22:32:48
Scheint ein Fake zu sein. Hab mal den Bildausschnitt vergrößert, wo man die Grafikkarte ablesen kann:
http://img245.echo.cx/img245/8140/r520fake9ue.jpg
In meinen Augen steht das "GeForce 6800 Series GPU", also handelt es sich wohl um ein SLI-System.
könnt auch x900 sein da der hintere teill eher gleich aussieht wegen den 2 nullen.
Blaire
2005-04-20, 22:33:18
Scheint ein Fake zu sein. Hab mal den Bildausschnitt vergrößert, wo man die Grafikkarte ablesen kann:
http://img245.echo.cx/img245/8140/r520fake9ue.jpg
In meinen Augen steht das "GeForce 6800 Series GPU", also handelt es sich wohl um ein SLI-System.
Jo das hab ich auch gerade gesehn. Sicher ein Fake oder womöglich zwei G70? ;D
dildo4u
2005-04-20, 22:34:57
könnt auch x900 sein da der hintere teill eher gleich aussieht wegen den 2 nullen.
Das hinter der zahl ist series das ist genau das was man angezeigt bekommt wenn man mit einem SLI system Bencht
Das hinter der zahl ist series das ist genau das was man angezeigt bekommt wenn man mit einem SLI system Bencht
2x R520 :0)
dildo4u
2005-04-20, 22:37:47
Und das vor der zahl GeForce steht kann man auch recht gut erkennen
Blaire
2005-04-20, 22:38:06
2x R520 :0)
Auch möglich. Das würde dann aber bedeuten das eine R520 einem 6800 Ultra SLI Gespann nicht ansatzweise das Wasser reichen kann.
Spasstiger
2005-04-20, 22:38:15
Hab mal versucht, die Konturen nachzufahren, ist mit ziemlicher Sicherheit "GeForce 6800 Series GPU".
http://img74.echo.cx/img74/5985/r520fake28rc.jpg
Demirug
2005-04-20, 22:38:17
2x R520 :0)
Ob ATI den Bezeichner genau so enden lassen wird wie nVidia? Ich habe da Zweifel.
robbitop
2005-04-20, 22:50:50
sieht mir ein wenig nach fake aus *hust*
auch die Daten wirken...naja..
deekey777
2005-04-20, 22:50:54
24 csővezeték
32 textúrázó egység
96 aritmetikai, logikai egység (ALU)
192 árnyalóművelet órajelciklusonként
700 MHz-es magórajel
134,4 milliárd árnyalóművelet 700 MHz-en
512 MB 256 bites, 1,8 GHz-es GDDR3-memória a kártyákon
Másodpercenként 57,6 GB adat átvitele 1,8 GHz-en
300-350 millió tranzisztor
90 nanométeres gyártástechnológia
ungarisch is echt nett :) man erkennt alles
512mb baby :P mal sehen was die 512mb teile kosten werden,ich denke das wird nur die top variante haben
Analog Demi: Auch in Ungarisch werden diese Zahlen nicht sinniger.
r3ptil3
2005-04-20, 23:46:15
naja in wenigen monaten oder wochen wird mal wohl sicherlich ein offizielles ergebniss vom r520 zu sehen bekommen.
r3ptil3
2005-04-20, 23:56:45
ja und eben irgendwelche benchmarks werden bestimmt schon früher im netz sein.
ShadowXX
2005-04-21, 09:56:11
Juni vorstellung....August kaufbar
Später...es wurde von Herbst als Datum für den Verkauf gesprochen.
Der Herbst beginnt am 22/23.September....(und endet am 21./22.Dezember).
(quelle: http://de.wikipedia.org/wiki/Herbst)
[dzp]Viper
2005-04-21, 11:03:50
Keine Ahnung ob dieser Chart schon gepostet wurde:
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/8058.html
Ich hoffe nur, dass die Performanceangabe nicht stimmt, ansonsten würde der R520 nur minimal über dem jetzigen High-End-Flagschiff liegen.
wenn das stimmt, dann ist das wahnsinn. Denn dann wäre eine Einzelne Karte über 1500 Punkte schneller als das beste SLI gespann bei Futuremark :eek:
Garnicht zu denken, was mit 2 r520 dann für ein ergebniss rauskommen würde :eek: :eek:
/edit: Eben gesehen - is wohl fake :D
Merlin31
2005-04-21, 11:58:11
Scheint ein Fake zu sein. Hab mal den Bildausschnitt vergrößert, wo man die Grafikkarte ablesen kann:
http://img245.echo.cx/img245/8140/r520fake9ue.jpg
In meinen Augen steht das "GeForce 6800 Series GPU", also handelt es sich wohl um ein SLI-System.
Ich tippe mal auf eine 6800 normal ohne SLI Und die 1 wurde hinzu gesetzt.
ca 4642 käme dann hin.
Naja, Fake ist Fake. Wer glaubt, dass ein einzelner R520 alles andere ungespitzt in den Boden rammt, der irrt. Falls es eine Version mit 24x1 geben sollte, die könnte ordentlich Dampf machen, aber 16x1 mit max 700MHz kann schon rein rechnerisch nicht der Wunderchip sein.
Man muss natürlich bedenken, dass Nvidia auch neue Chips bringt. Liegen sie in der gleichen + xx% Region wie ATI dann ändert sich am jetzigen Verhältnis zwischen den beiden nicht viel. Das SM3 auf dem R520 schneller als auf den jetzigen NV40 ist dürfte wohl niemand anzweifeln oder überraschen.
Interessant wird eher die Frage sein, ob mit den jetzigen Chipsätzen AMR mit dem R520 genutzt werden kann oder erst mit den für Q3 angekündigten neuen Chipsätzen, von R4xx ganz zu schweigen.
Leonidas
2005-04-21, 12:53:38
Keine Ahnung ob dieser Chart schon gepostet wurde:
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/8058.html
Ich hoffe nur, dass die Performanceangabe nicht stimmt, ansonsten würde der R520 nur minimal über dem jetzigen High-End-Flagschiff liegen.
Das ist nur eine schematische Darstellung, keine Aussage zu Performance.
Also falls daran was stimmt würde ich nicht meckern...
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/7915.html
knapp 15 Punkte in 3Dmark 05 :eek:
Gerade bei Grafikchips ist es immer eher unwahrscheinlich, daß es vorab Benchmarks gibt, weil die Hersteller diese vorher nicht rausgeben. Bei einem Launch im Juni kann man zudem fest davon ausgehen, daß ATI alle derzeitig verfügbaren Samples (wenige) selber braucht und das die endgültigen Taktraten noch lange nicht feststehen.
Leonidas
2005-04-21, 12:54:55
Scheint ein Fake zu sein. Hab mal den Bildausschnitt vergrößert, wo man die Grafikkarte ablesen kann:
http://img245.echo.cx/img245/8140/r520fake9ue.jpg
In meinen Augen steht das "GeForce 6800 Series GPU", also handelt es sich wohl um ein SLI-System.
Korrekt. Das "GeForce" ist klar zu erkennen.
Leonidas
2005-04-21, 12:55:49
Juni vorstellung....August kaufbar
Optimist!
;)
Leonidas
2005-04-21, 12:56:39
Ich tippe mal auf eine 6800 normal ohne SLI Und die 1 wurde hinzu gesetzt.
ca 4642 käme dann hin.
Sehr gut möglich.
Leonidas
2005-04-21, 12:57:36
Interessant wird eher die Frage sein, ob mit den jetzigen Chipsätzen AMR mit dem R520 genutzt werden kann oder erst mit den für Q3 angekündigten neuen Chipsätzen, von R4xx ganz zu schweigen.
Sehe ich ganz genauso. Technologie ist nicht alles, es muß auch einfach nutzbar und schnell verfügbar sein.
DrumDub
2005-04-21, 13:07:58
Das hinter der zahl ist series das ist genau das was man angezeigt bekommt wenn man mit einem SLI system Bencht
bei mir steht bei der x800 xl auch "x800 series" im 3dmark05. :rolleyes:
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/7915.html
"Bár a konfigurációról nem szólnak a hírek, az eredmény így is sokat mond. Amennyiben valós az eredmény, a kártya meghaladja egy GeForce 6800 Ultra SLI konfiguráció teljesítményét is. Ismeretes, hogy az NVIDIA leggyorsabb megoldása, komoly tuning mellett sem éri el a 13000 pontot."
das stand unter dem bild, vll. würde da ja übersetzt stehen das es eine sli konfiguration war...
Scheint ein Fake zu sein. Hab mal den Bildausschnitt vergrößert, wo man die Grafikkarte ablesen kann:
http://img245.echo.cx/img245/8140/r520fake9ue.jpg
In meinen Augen steht das "GeForce 6800 Series GPU", also handelt es sich wohl um ein SLI-System.
Ich kann da auch noch was mit "4 CPU" lesen......gibts ein 3d Mark O% für Server??
Krisz
2005-04-21, 15:22:56
http://www.hardwareoc.hu/index.php/p/news/cid/1/y/7915.html
"Bár a konfigurációról nem szólnak a hírek, az eredmény így is sokat mond. Amennyiben valós az eredmény, a kártya meghaladja egy GeForce 6800 Ultra SLI konfiguráció teljesítményét is. Ismeretes, hogy az NVIDIA leggyorsabb megoldása, komoly tuning mellett sem éri el a 13000 pontot."
das stand unter dem bild, vll. würde da ja übersetzt stehen das es eine sli konfiguration war...
Njet, das heisst nur in etwa:
Obwohl die news nix über die config sagen, ist das Ergebnis doch aussagekräftig.
Wenn das Ergebnis echt ist, schlägt die Karte auch ein 6800U SLI System. Es sei daran erinnert, dass NVs schnellste Lösung, auch mit starkem OC keine 13k schafft.
Ich warte da erst mal ab, könnte auch ein gut gemachter Fake sein. Wenns stimmt, dann alle Achtung. Nichtmal mit zwei GeForce 6800 Ultra im SLI und mit Kaskadenkühlung konnte man so ein Ergebniss erreichen.
schöner fake
Spasstiger
2005-04-21, 19:00:35
Ich kann da auch noch was mit "4 CPU" lesen......gibts ein 3d Mark O% für Server??
Die 4 kommt von Pentium 4. Auf Nickles.de gabs neulich einen Thread, da hat einer ernsthaft gefragt, warum er 4 CPUs im Rechner hat. Er hat gemeint, dass bei ihm im Gerätemanager Intel Pentium 4 CPU stehen würde, also 4 CPU ;D .
Quasar
2005-04-21, 19:15:13
Das ist nur eine schematische Darstellung, keine Aussage zu Performance.
Huh? Wie darf man dann die Beschriftung der X-Achse deuten? (Ich meine die Vertikale Achse... ;) )
Und wie kommt's, daß bei allen anderen diese Einteilung auch hinhaut? (Das gewusel um die X800/X850/XT/XL usw. mal aussen vor - dort war sicherlich zuwenig Platz...)
Sumpfmolch
2005-04-21, 19:27:48
Ich tippe mal auf eine 6800 normal ohne SLI Und die 1 wurde hinzu gesetzt.
ca 4642 käme dann hin.
mein tip:
http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/fake.jpg
Huh? Wie darf man dann die Beschriftung der X-Achse deuten? (Ich meine die Vertikale Achse... ;) )
Schematisch eben, so dass die Tendenz klar wird.
Und wie kommt's, daß bei allen anderen diese Einteilung auch hinhaut? (Das gewusel um die X800/X850/XT/XL usw. mal aussen vor - dort war sicherlich zuwenig Platz...)
Da haut gar nix hin. Die sind nur ganz rein zufällig auf den drei Pfeilen (für die drei Marktsegmente) zentriert.....
Quasar
2005-04-21, 20:33:02
http://www.hardwareoc.hu/upload/news/8058_atiroadmap_t5cj.jpg
- X800 > X600/PRO > X300/SE (klaro, sonst wären sie nicht so segmentiert)
- RV351 vermutlich > X300/SE (auch einleuchtend - Nachfolgeprodukte sind meist schneller als ihre Ahnen)
- RV515 vermutlich > RV351 (dito)
- X700/PRO > X600/PRO (Nachfolger)
- RV530 vermutlich > RV530 (Nachfolger)
- X800/XL od. X850 > X800
- R520 vermutlich > X850
usw. - imo nicht alles rein zufällig. Insbesondere nicht, da die Vektoren steigende Performance (vertikale Achse) mit zunehmender Zeit (horizontale Achse) suggerieren.
Wer weiß, vielleicht kriegen wir einen Respin des X700-Chips als 90nm-Testlauf? Wäre bestimmt sowohl für die Taktraten/Performance gut, als auch für den erzielbaren Mindestpreis.
crusader4
2005-04-21, 20:54:10
- X800 > X600/PRO > X300/SE (klaro, sonst wären sie nicht so segmentiert)
- RV351 vermutlich > X300/SE (auch einleuchtend - Nachfolgeprodukte sind meist schneller als ihre Ahnen)
- RV515 vermutlich > RV351 (dito)
- X700/PRO > X600/PRO (Nachfolger)
- RV530 vermutlich > RV530 (Nachfolger)
- X800/XL od. X850 > X800
- R520 vermutlich > X850
usw. - imo nicht alles rein zufällig. Insbesondere nicht, da die Vektoren steigende Performance (vertikale Achse) mit zunehmender Zeit (horizontale Achse) suggerieren.
Wer weiß, vielleicht kriegen wir einen Respin des X700-Chips als 90nm-Testlauf? Wäre bestimmt sowohl für die Taktraten/Performance gut, als auch für den erzielbaren Mindestpreis.Ähm, da ist nix zufälliges dran. Der Begriff schematisch bezeichnet nur, das die Relationen nicht stimmen. Es ist eine qualitative Darstellung, keine quantitative. Hoffe es ist jetzt klarer.
Quasar
2005-04-21, 21:06:35
Oh vielen Dank. Jetzt weiß ich endlich, was schematisch heisst. *freu*
"Ganz rein zufällig" war auch ganz rein zufällig nicht wörtlich gemeint ;)
Was ich damit sagen wollte, man nahm einfach drei Pfeile für die drei Marktsegmente, ordnete sie so an dass es tendenziell eine sichtbare Steigerung der Leistung ergibt, und platzierte die Chips dann am passenden Schnitt auf der Zeitachse zentriert auf dem Pfeil.
Zu mehr als einer "Schneller als der Vorgänger"-Aussage lässt sich das Diagramm also nicht gebrauchen.
Quasar
2005-04-21, 21:09:24
Ich sah gerade, daß ich nicht beachtet habe, auf was sich die von mir gequotete Aussage von Leonidas bezog. In gewissem Sinne hat er (und ihr) da recht. :) Ich hatte angenommen, er würde jegliche Performanceaussage in dem Diagramm verneinen.
Und Ironie ignoriere ich grundsätzlich, wenn sie kursiv ist. ;)
http://www.hardwareoc.hu/upload/news/8058_atiroadmap_t5cj.jpg
- X800 > X600/PRO > X300/SE (klaro, sonst wären sie nicht so segmentiert)
- RV351 vermutlich > X300/SE (auch einleuchtend - Nachfolgeprodukte sind meist schneller als ihre Ahnen)
- RV515 vermutlich > RV351 (dito)
- X700/PRO > X600/PRO (Nachfolger)
- RV530 vermutlich > RV530 (Nachfolger)
- X800/XL od. X850 > X800
- R520 vermutlich > X850
usw. - imo nicht alles rein zufällig. Insbesondere nicht, da die Vektoren steigende Performance (vertikale Achse) mit zunehmender Zeit (horizontale Achse) suggerieren.
Wer weiß, vielleicht kriegen wir einen Respin des X700-Chips als 90nm-Testlauf? Wäre bestimmt sowohl für die Taktraten/Performance gut, als auch für den erzielbaren Mindestpreis.
Ne an X700 als 90nm Respin glaube ich nicht. Wenn es stimmt was Märchenonkel Fuad schreibt, dann wird ATI auch top to bottom auf SM3 umstellen. Gehen wir jetzt noch von Herbst nur für Highend aus, dann wird es vor Weihnachten zu knapp da noch Geld für die X700 reinzustecken.
deekey777
2005-04-21, 21:57:24
Ui, kommt der RV530 aber viel später als der R520 (wie es auch beim RV410 der Fall war). Plöd.
Ich als ATI würde es so machen. Erst das grosse Geld mit Highend absahnen und dann irgendwann die kleinen nachschiessen wenn der Run auf die Dicken abflaut. Macht NV genauso.
Ailuros
2005-04-22, 01:30:45
Falls die Relativierung tatsaechlich Leistung darstellen sollte, dann haut meine Vorstellung vom R520 auch ziemlich hin.
~650/700 vs. 540/590MHz.
DerDjDino
2005-04-22, 09:41:31
Schön das ATI den R520er nun doch auch für AGP plant wenn ich das richtig erkenne dort :) Ich bin nämlich mit meinem AGP-System ganz zufrieden und möchte nur wegen besseren HighEnd-Karten nicht zwingend auf PCIe umsteigen müssen.Der schmalere AGP8X-Bus wird dabei denk ich noch nicht so ein Falschenhals wie es einige bei der nächsten Generation vermuten...es sei denn man spielt mit extremen Auflösungen und sehr hohem AA.Ausserdem soll die Karte ja mit 512MB kommen und kann damit mehr Texturen im Ram "halten" was die Wichtigkeit deren Busbandbreite schmälert.Das alles bewies sich schon bei der 9800pro 128Mb vs. 256Mb wie Tomshardware berichtete : http://www.tomshardware.de/graphic/20030630/ati_radeon9800_256-06.html
Und wegen dem fehlenden PCIe-Rückkanal werden ja nur eher der Video-Encoder der GeForce-Chips bei HDTV profitieren.
Stimmt das Gerücht das der R520 schon einen Speichercontroller für 1GByte Ram hat ?
StefanV
2005-04-22, 10:49:47
Stimmt das Gerücht das der R520 schon einen Speichercontroller für 1GByte Ram hat ?
Davon würd ich ausgehen.
Allerdings:
Mehr als das, was wir momentan haben, macht erst mit Windows XP64 Sinn, da man sonst starke Probleme mit der Adressierung (und dem kopieren von SysRAM in GrakaRAM bekommt)
Demirug
2005-04-22, 10:54:33
Davon würd ich ausgehen.
Allerdings:
Mehr als das, was wir momentan haben, macht erst mit Windows XP64 Sinn, da man sonst starke Probleme mit der Adressierung (und dem kopieren von SysRAM in GrakaRAM bekommt)
Umkopieren ist ja das sekundäres Problem. Primär muß ja erstmal der gesamte Grafikspeicher in den Addressraum der CPU eingeblendet werden.
In Zukunft wird as noch lustiger wenn der Grafikspeicher direkt in den Addressraum der Anwendungen eingeblendet wird.
In Zukunft wird as noch lustiger wenn der Grafikspeicher direkt in den Addressraum der Anwendungen eingeblendet wird.
Zumal XP nur 2 GByte logischen Adressraumes für Anwendungsprogramme zulasst/ermöglicht.
DerDjDino
2005-04-22, 11:25:02
@Gast
Stimmt, gilt aber pro Prozess (ist nicht gleich Anwendung welche mehrere starten/nutzen kann) und nur bei 32bit-Applikationen und selbst da kann man das umgehenmauf 3GB steigern (Boot.ini-Switch)
Sunrise
2005-04-22, 22:46:27
Falls die Relativierung tatsaechlich Leistung darstellen sollte, dann haut meine Vorstellung vom R520 auch ziemlich hin.
~650/700 vs. 540/590MHz.
Würde in der Tat Sinn machen. Auch wäre es indikativ dafür, dass der R520 wirklich "nur" mit einer 16P-Konfiguration antritt, denn sonst hätten wir wohl ein deutlich größeres Delta. Ich bin allerdings noch etwas reserviert, wenn es darum geht, die "wahre" Leistung eines R520 einschätzen zu wollen, denn die Grafik mag zwar die reinen Rohdaten wiedergeben, jedoch nicht zwingend (und vor allem wegen der modifizierten Architektur) auch deren Effektivität.
Ailuros
2005-04-23, 04:29:51
Würde in der Tat Sinn machen. Auch wäre es indikativ dafür, dass der R520 wirklich "nur" mit einer 16P-Konfiguration antritt, denn sonst hätten wir wohl ein deutlich größeres Delta. Ich bin allerdings noch etwas reserviert, wenn es darum geht, die "wahre" Leistung eines R520 einschätzen zu wollen, denn die Grafik mag zwar die reinen Rohdaten wiedergeben, jedoch nicht zwingend (und vor allem wegen der modifizierten Architektur) auch deren Effektivität.
So gross duerfte dass Delta nun auch wieder nicht sein, da je hoeher die Fuellrate je grosser die Bandbreiten-limitierung.
Zwei Thesen:
650*16= 10.4 GPixels/sec
650*24= 15.6 GPixels/sec
Speicher-frequenz bzw. Bandbreite wird aber wohl gleich in beiden Faellen sein. Schaetzungsweise ~700MHz ergo 44.8GB/sec Bandbreite.
R480 hat eine Bandbreite von 37.8GB/sec, ergo eine hypothetische Steigerung der Bandbreite von ~18%.
4 quads@650 geben eine Steigerung der Fuellrate im Vergleich zu R480 von 20% und 6 quads@650 eine Steigerung von ~86%.
Logischerweise heisst das dann wohl eher dass bei 4 quads die Taktrate so hoch oder sogar leicht hoeher sein wird, oder eine um einiges niedrigere Taktrate und 6 quads; in dem Fall ist es dann eigentlich egal ob das eine oder andere wenn am anderen Ende etwa die gleiche Leistung herauskommt.
Natuerlich kann man mit solchem Zeug schwer die wahre Leistung einschaetzen, aber Wunder erwarte ich ehrlich gesagt nicht weder von R520 noch von NV's naechstem Boliden.
Zwar ein merkwuerdiges Beispiel (und ja die PCI-E Bandbreite zwischen zwei boards wird unter Umstaenden limitieren), aber es sind immerhin 14 GPixels/sec Fuellrate fuer zwei NV40@SLi (laut xbitlabs waren die Ultras fuer SLi auf 437MHz getaktet:
http://www.xbitlabs.com/images/video/gf6800u-sli/flatout_candy.gif
http://www.xbitlabs.com/articles/video/display/gf6800u-sli_24.html
***edit: die Relativierung der theoretischen maximalen Fuellrate mit dem theoretische maximalen Shader-throughput ist nicht unbedingt aus der Luft gegriffen:
http://www.xbitlabs.com/images/video/gf6800u-sli/5dm_total.gif
http://www.xbitlabs.com/articles/video/display/gf6800u-sli_34.html
6800Ultra SLi = 14.0GPixels/s = 9264
6600GT SLi = 8.0GPixels/s = 6001
X850 XT PE = 8.3GPixels/s = 6006
Nochmal man kann aus dem obrigen keine Schlussvolgerungen ziehen; nur mal eine etwas laengere Erklaerung wie ich zu teilweise zu manchen Spekulationen komme. Muss auch nicht stimmen natuerlich.
Zu dem "Fake" 3DMark:
Ich arbeite in der Spieleindustrie und Kollegen von mir waren auf der GDC (Games Developers Conference). Dort haben sie, unter anderem, eine eigenproduzierte Engine vorgefuehrt. Auch auf einem System, in dem ein R520 war (bzw. eine neue ATI Karte mit PS 3.0, ueber die die ATI Leute leider nicht reden wollten). Im Vergleich zu den Frameraten einer X800Pro, die in den bei uns "ueblichen" Systemen verbaut ist, war bei diesem PC eine Verdreifachung zu beobachten. Insofern halte ich diesen 3DMark-Score von ueber 14000 nicht unbedingt fuer einen Fake.
Eventuell haelt 3DMark05 einen R520 fuer eine "6800 Series" GPU, da er ihn a) nicht kennt und er b) Shader 3.0 unterstuetzt, was vielleicht zu dieser Identifizierung fuehrt. Aber das ist eine reine Vermutung, der erste Absatz ist Fakt.
Demirug
2005-04-23, 11:11:35
Eventuell haelt 3DMark05 einen R520 fuer eine "6800 Series" GPU, da er ihn a) nicht kennt und er b) Shader 3.0 unterstuetzt, was vielleicht zu dieser Identifizierung fuehrt. Aber das ist eine reine Vermutung, der erste Absatz ist Fakt.
Der Bezeichner den der 3DMark ausgibt kommt von Direct3D. Direct3D bekommt in wiederum über den Treiber. Eine ATI Karte wird sich also wenn man nicht nachhilft niemals als nVidia Karte ausgeben.
Zu dem "Fake" 3DMark:
Ich arbeite in der Spieleindustrie und Kollegen von mir waren auf der GDC (Games Developers Conference). Dort haben sie, unter anderem, eine eigenproduzierte Engine vorgefuehrt. Auch auf einem System, in dem ein R520 war (bzw. eine neue ATI Karte mit PS 3.0, ueber die die ATI Leute leider nicht reden wollten). Im Vergleich zu den Frameraten einer X800Pro, die in den bei uns "ueblichen" Systemen verbaut ist, war bei diesem PC eine Verdreifachung zu beobachten. Insofern halte ich diesen 3DMark-Score von ueber 14000 nicht unbedingt fuer einen Fake.
Eventuell haelt 3DMark05 einen R520 fuer eine "6800 Series" GPU, da er ihn a) nicht kennt und er b) Shader 3.0 unterstuetzt, was vielleicht zu dieser Identifizierung fuehrt. Aber das ist eine reine Vermutung, der erste Absatz ist Fakt.
Das ist erfreulich zu hören aber ohne ein paar nähere Informationen bezüglich eurem und dem GDC System ist eine Verdreifachung der fps nicht sehr hilfreich in Bezug auf Leistungseinschätzung. Ohne Zweifel ist der R520 sehr schnell aber naja, ohne nähere Angaben ist der 3DMark Score von 14k Punkten für die Tonne.
Exxtreme
2005-04-23, 12:06:16
So gross duerfte dass Delta nun auch wieder nicht sein, da je hoeher die Fuellrate je grosser die Bandbreiten-limitierung.
Zwei Thesen:
650*16= 10.4 GPixels/sec
650*24= 15.6 GPixels/sec
Speicher-frequenz bzw. Bandbreite wird aber wohl gleich in beiden Faellen sein. Schaetzungsweise ~700MHz ergo 44.8GB/sec Bandbreite.
R480 hat eine Bandbreite von 37.8GB/sec, ergo eine hypothetische Steigerung der Bandbreite von ~18%.
4 quads@650 geben eine Steigerung der Fuellrate im Vergleich zu R480 von 20% und 6 quads@650 eine Steigerung von ~86%.
Logischerweise heisst das dann wohl eher dass bei 4 quads die Taktrate so hoch oder sogar leicht hoeher sein wird, oder eine um einiges niedrigere Taktrate und 6 quads; in dem Fall ist es dann eigentlich egal ob das eine oder andere wenn am anderen Ende etwa die gleiche Leistung herauskommt.
Natuerlich kann man mit solchem Zeug schwer die wahre Leistung einschaetzen, aber Wunder erwarte ich ehrlich gesagt nicht weder von R520 noch von NV's naechstem Boliden.
Naja, mehr Pipes machen Sinn bei shaderlastigen Spielen. Da könnten die möglichen 24 Pipes trotzdem gut reinpfeifen ggü. 16 Pipes. Viel Bandbreite brauchen eigentlich nur die Filter. Und ATi wird sich sicherlich noch weitere Tricks einfallen lassen um den Bandbreitenhunger zu drücken.
Viel Bandbreite brauchen eigentlich nur die Filter.Was für Filter?
Bandbreite wird vor allem für hohe Auflösungen + Multisampling gebraucht.
Exxtreme
2005-04-23, 12:18:48
Was für Filter?
Bandbreite wird vor allem für hohe Auflösungen + Multisampling gebraucht.
Das auch. :)
ShadowXX
2005-04-23, 13:46:28
Naja, mehr Pipes machen Sinn bei shaderlastigen Spielen. Da könnten die möglichen 24 Pipes trotzdem gut reinpfeifen ggü. 16 Pipes. Viel Bandbreite brauchen eigentlich nur die Filter. Und ATi wird sich sicherlich noch weitere Tricks einfallen lassen um den Bandbreitenhunger zu drücken.
Ich finde das wir momentan schon genug "Filtertricks" haben...ich hoffe doch das ATI es bei den bestehenden bewenden lässt.
Andererseits befürchte ich, dass du Recht behalten wirst....
ShadowXX
2005-04-23, 13:49:15
Zu dem "Fake" 3DMark:
Ich arbeite in der Spieleindustrie und Kollegen von mir waren auf der GDC (Games Developers Conference). Dort haben sie, unter anderem, eine eigenproduzierte Engine vorgefuehrt. Auch auf einem System, in dem ein R520 war (bzw. eine neue ATI Karte mit PS 3.0, ueber die die ATI Leute leider nicht reden wollten). Im Vergleich zu den Frameraten einer X800Pro, die in den bei uns "ueblichen" Systemen verbaut ist, war bei diesem PC eine Verdreifachung zu beobachten. Insofern halte ich diesen 3DMark-Score von ueber 14000 nicht unbedingt fuer einen Fake.
Eventuell haelt 3DMark05 einen R520 fuer eine "6800 Series" GPU, da er ihn a) nicht kennt und er b) Shader 3.0 unterstuetzt, was vielleicht zu dieser Identifizierung fuehrt. Aber das ist eine reine Vermutung, der erste Absatz ist Fakt.
Könntest du (wenn du dafür nicht zuviel riskieren musst) genauer angeben, unter welcher Situation dies war?
Also AA (an/aus, welcher Grad, falls an), AF (analog zu AA) und Auflösung.
Ausserdem wäre es ganz Nett zu wissen ob eure Engine eher Shader oder eher MT-Lastig ist (wenn erlaubt zu erwähnen).
mapel110
2005-04-23, 13:50:20
Würde es überhaupt Speed bringen, wenn man AA irgendwie optimieren würde, indem man hier und da Kanten auslassen würde (also weniger Kanten glätten würde)?!
:ugly:
Spasstiger
2005-04-23, 13:51:26
Ich finde das wir momentan schon genug "Filtertricks" haben...ich hoffe doch das ATI es bei den bestehenden bewenden lässt.
Andererseits befürchte ich, dass du Recht behalten wirst....
Bandbreite effizienter nutzen ist nicht gleichbedeutend mit Filteroptimierungen auf Kosten der Bildqualität (eigentlich haben die beiden Dinge gar nix miteinander zu tun).
ShadowXX
2005-04-23, 13:55:37
Bandbreite effizienter nutzen ist nicht gleichbedeutend mit Filteroptimierungen auf Kosten der Bildqualität (eigentlich haben die beiden Dinge gar nix miteinander zu tun).
Das ist mir klar.....aber wo wollen Sie denn noch beim Bandbreitensparen ansetzen?
Ich hab schon öfter hier im Forum gehört, das da kaum noch stellen sind, wo man in dieser Richtung groß ansetzen kann, ohne viele Transistoren zu "verschwenden".
Es wird im Endeffekt (wenn überhaupt großartig was daran gemacht wird) doch wieder auf "Filtertrickverbesserungen" hinauslaufen.
Könntest du (wenn du dafür nicht zuviel riskieren musst) genauer angeben, unter welcher Situation dies war?
Also AA (an/aus, welcher Grad, falls an), AF (analog zu AA) und Auflösung.
Ausserdem wäre es ganz Nett zu wissen ob eure Engine eher Shader oder eher MT-Lastig ist (wenn erlaubt zu erwähnen).
Das weiss ich auswendig nicht 100% sicher , ich werde aber am Montag mal nachfragen :) Ich glaube mich aber erinnern zu koennen, dass das mit AA und AF war.
Wenn an den Geruechten (und dem ATI Patent) etwas dran ist, dass der R500 in der Xbox2 embedded RAM hat, vielleicht trifft das auch auf den R520 zu... aber auch das ist Spekulation meinerseits.
Das weiss ich auswendig nicht 100% sicher , ich werde aber am Montag mal nachfragen :) Ich glaube mich aber erinnern zu koennen, dass das mit AA und AF war.
Wenn an den Geruechten (und dem ATI Patent) etwas dran ist, dass der R500 in der Xbox2 embedded RAM hat, vielleicht trifft das auch auf den R520 zu... aber auch das ist Spekulation meinerseits.
Ja, bitte frag mal nach. :) - Kommst Du aus Krefeld?
Quasar
2005-04-23, 19:54:34
Zu dem "Fake" 3DMark:
Ich arbeite in der Spieleindustrie und Kollegen von mir waren auf der GDC (Games Developers Conference). Dort haben sie, unter anderem, eine eigenproduzierte Engine vorgefuehrt. Auch auf einem System, in dem ein R520 war (bzw. eine neue ATI Karte mit PS 3.0, ueber die die ATI Leute leider nicht reden wollten). Im Vergleich zu den Frameraten einer X800Pro, die in den bei uns "ueblichen" Systemen verbaut ist, war bei diesem PC eine Verdreifachung zu beobachten. Insofern halte ich diesen 3DMark-Score von ueber 14000 nicht unbedingt fuer einen Fake.
Eventuell haelt 3DMark05 einen R520 fuer eine "6800 Series" GPU, da er ihn a) nicht kennt und er b) Shader 3.0 unterstuetzt, was vielleicht zu dieser Identifizierung fuehrt. Aber das ist eine reine Vermutung, der erste Absatz ist Fakt.
Nutzt eure Engine denn bereits SM3 für mehr als nur simple Passreduktion?
Exxtreme
2005-04-23, 20:08:43
Würde es überhaupt Speed bringen, wenn man AA irgendwie optimieren würde, indem man hier und da Kanten auslassen würde (also weniger Kanten glätten würde)?!
:ugly:
Das würde sicherlich was bringen. Diese Idee hatte ich auch schon, daß der Chip vielleicht irgendwie den Unterschied zwischen den einzelnen Pixeln ermittelt und je nach dem sie sich uterscheiden (Helligkeit, Farbton etc.) eine AA-Sample-Anzahl flexibel auswählt.
Das würde sicherlich was bringen. Diese Idee hatte ich auch schon, daß der Chip vielleicht irgendwie den Unterschied zwischen den einzelnen Pixeln ermittelt und je nach dem sie sich uterscheiden (Helligkeit, Farbton etc.) eine AA-Sample-Anzahl flexibel auswählt.
Ist das Sample dafür wichtig? Ich dachte die Sampleposition ist für den Verlauf der Kante wichtig.
Konsolenfreund
Exxtreme
2005-04-23, 20:51:16
Ist das Sample dafür wichtig? Ich dachte die Sampleposition ist für den Verlauf der Kante wichtig.
Konsolenfreund
Die Anzahl der AA-Samples ist auch wichtig.
Quasar
2005-04-23, 20:57:39
Würde es überhaupt Speed bringen, wenn man AA irgendwie optimieren würde, indem man hier und da Kanten auslassen würde (also weniger Kanten glätten würde)?!
:ugly:
Was auf jeden Fall etwas bringen würde, wäre, die AA-Bezeichnungen etwas zu "modernisieren". So ähnlich wie beim AF - 16xAF heisst nicht 16xAF, sondern lediglich "max.16xAF".
Temporal AA würde sich da evtl. anbieten, einen Modus als "4-Sample AA" zu verkaufen, bei dem vier verschiedene Sample-Positionen genutzt werden.
Ailuros
2005-04-24, 02:32:36
Naja, mehr Pipes machen Sinn bei shaderlastigen Spielen. Da könnten die möglichen 24 Pipes trotzdem gut reinpfeifen ggü. 16 Pipes. Viel Bandbreite brauchen eigentlich nur die Filter. Und ATi wird sich sicherlich noch weitere Tricks einfallen lassen um den Bandbreitenhunger zu drücken.
Wenn sich Leistung noch zufriedenstellend steigern soll, kann die Fuellrate nur bis zu einem gewissen Punkt skalieren mit einer festen Menge von Bandbreite; sonst wuerde die Leistung genauso proportional steigen mit wieder ~45GB/sec Bandbreite und =/>20GPixels/sec. Irgendwo nach einem gewissen Punkt hoert die Skalierung der Leistung wohl doch auf.
Besonders viel hat sich bezueglich Bandbreiten-sparenden Massnahmen im Vergleich zu R420 wohl nicht geaendert.
Das würde sicherlich was bringen. Diese Idee hatte ich auch schon, daß der Chip vielleicht irgendwie den Unterschied zwischen den einzelnen Pixeln ermittelt und je nach dem sie sich uterscheiden (Helligkeit, Farbton etc.) eine AA-Sample-Anzahl flexibel auswählt.
AFAIK sind jederlei analytische Algorithmen leider nicht lossless; so wie ich es verstehe in diesem Fall heisst es wohl eher entweder sehr viele samples (=/>32 ) oder eben gar nicht.
Ailuros
2005-04-24, 02:39:30
Das weiss ich auswendig nicht 100% sicher , ich werde aber am Montag mal nachfragen :) Ich glaube mich aber erinnern zu koennen, dass das mit AA und AF war.
Wenn an den Geruechten (und dem ATI Patent) etwas dran ist, dass der R500 in der Xbox2 embedded RAM hat, vielleicht trifft das auch auf den R520 zu... aber auch das ist Spekulation meinerseits.
Bist Du der gleiche Gast der auch ueber die "GeForce" - Erkennung bei 3dmark tippte? :|
Die Xenon GPU soll ~10MB eDRAM haben; im gegebenen Fall eine Architektur die fuer Consolen zugerichtet ist und wird wohl schaetzungsweise in diese 10MB eDRAM gerade noch 720*576*32 mit 2xMSAA oder 1024 ohne MSAA druecken koennen. eDRAM ist nur nicht nur unpraktisch fuer einen PC desktop chip bei so kleinen Mengen (wegen eben der um einiges hoeheren Aufloesungen), sondern wuerde wohl auch als Transistoren-Verschwendung aufzeigen wenn man es so wie bei der Xenon-GPU einsetzen wuerde.
Solche Aussagen (beide Faelle oben) wuerde ich ehrlich gesagt nicht von jemand erwarten der behauptet in der Spieleindustrie taetig zu sein. Sorry.
mapel110
2005-04-24, 02:40:08
hm, also desto mehr Polygone ein Spiel hat, desto mehr haut AA rein?!
Da würde doch auch so eine Technik wie Intellisample für AF was bringen. Ein Game hat zb 300.000 Polygone pro Szene, da ist doch schwer von auszugehen, dass da viele verdeckt sind bzw komplett unnütz sind, weil sie keine zusätzlichen Details bringen, vorallem wenn die verwendete Auflösung verhältnismäßig gering ist.
Durch sowas könnte man dann doch auch Speed gewinnen?!
Ailuros
2005-04-24, 02:48:07
Nutzt eure Engine denn bereits SM3 für mehr als nur simple Passreduktion?
Kann durchaus sein; und in dem Fall ist der Leistungs-unterschied zu einer X800PRO auch durchaus normal.
Uebrigens ganz so nebenbei, ich erinnere dass die PRO drei quads @475MHz hat. Im schlimmsten Fall hat dagegen eine R520 zumindest eine doppelt so hohe Fuell-rate.
Alternativ wer ueber VS spekulieren will, 475*6 vs. =/>650*8.
Ailuros
2005-04-24, 02:51:20
hm, also desto mehr Polygone ein Spiel hat, desto mehr haut AA rein?!
Da würde doch auch so eine Technik wie Intellisample für AF was bringen. Ein Game hat zb 300.000 Polygone pro Szene, da ist doch schwer von auszugehen, dass da viele verdeckt sind bzw komplett unnütz sind, weil sie keine zusätzlichen Details bringen, vorallem wenn die verwendete Auflösung verhältnismäßig gering ist.
Durch sowas könnte man dann doch auch Speed gewinnen?!
Wird MSAA vor dem culling angewendet oder danach? ;)
Meine Meinung zu analytischen AA-Algorithmen steht weiter oben; schwer zu implementieren und lossy.
***edit: um es ein bisschen klarer zu machen....Dein Gedanke ueber Intellisample ist durchaus logisch. Auch hier koennte ein AA-Algorithmus um einiges dazugewinnen wenn er die Daten analysieren koennte und dementsprechend entweder 1x, 2x, 4x, 8x usw. wahlweise in einer Szene anwenden. Es wurden schon einige Ideen auf dieser Basis mehr oder weniger untersucht; leider galt bis jetzt AFAIK das obrige.
mapel110
2005-04-24, 02:52:50
Wird MSAA vor dem culling angewendet oder danach? ;)
Meine Meinung zu analytischen AA-Algorithmen steht weiter oben; schwer zu implementieren und lossy.
ah, also werden verdeckte Polygone nicht geglättet. War mir nicht ganz klar. :redface:
Ailuros
2005-04-24, 02:57:16
ah, also werden verdeckte Polygone nicht geglättet. War mir nicht ganz klar. :redface:
Frueher ohne Bandbreiten-sparenden Massnahmen wohl schon und ueberhaupt wenn die game-engine schlecht oder fast keine Daten verworfen hat. Heutzutage waeren ja GPUs schoen bloed, wenn sie zuerst glaetten und dann verwerfen wuerden.
warum sollte der r520 keinen großen sprung machen ?
der x800 z.b hat nur mehr pipes bekommen,mehr takt also 2 9800er und trotzdem is das ding 2x mal schneller
der r520 wird extrem mehr transitoren haben,ok die gehen auch für s 3.0 drauf aber der hohe takt der auch kommen soll macht schon hoffnung.
grad die tatsache das ati für die xbox eine top karte baut also alles geben muß und der r520 ein sehr änhliches design hat macht mir mut.
im juni wird er vorgestellt aber das wird die neugier nicht stillen können weil es ne weile dauern wird ehe es unabhänige benches geben wird
Demirug
2005-04-28, 06:33:24
grad die tatsache das ati für die xbox eine top karte baut also alles geben muß und der r520 ein sehr änhliches design hat macht mir mut.
Welche Tatsache? Nach allem was man hört ist der R520 dem R420 von Design her näher als dem R500.
ah, also werden verdeckte Polygone nicht geglättet. War mir nicht ganz klar. :redface:
Das kann man so nicht sagen. Kanten die gerendert werden, werden auch geglättet. Was durch Hierarchical Z, Clipping und ähnliches verworfen wird, wird aber gar nicht erst gerendert.
robbitop
2005-04-28, 08:59:39
warum sollte der r520 keinen großen sprung machen ?
der x800 z.b hat nur mehr pipes bekommen,mehr takt also 2 9800er und trotzdem is das ding 2x mal schneller
der r520 wird extrem mehr transitoren haben,ok die gehen auch für s 3.0 drauf aber der hohe takt der auch kommen soll macht schon hoffnung.
grad die tatsache das ati für die xbox eine top karte baut also alles geben muß und der r520 ein sehr änhliches design hat macht mir mut.
im juni wird er vorgestellt aber das wird die neugier nicht stillen können weil es ne weile dauern wird ehe es unabhänige benches geben wird
Nur, dass diesmal die Bandbreite am Ende ist. Das war bei 9800->X800 ganz anders.
Ailuros
2005-04-28, 13:25:17
Nur, dass diesmal die Bandbreite am Ende ist. Das war bei 9800->X800 ganz anders.
Maximal hat sich die Bandbreite zwischen der R3xx und R4xx Generation um ~50% gesteigert. Wieviel gibt mir aber 325*8 vs. 540*16?
Ich rechne mit gleicher Anzahl von quads zwischen R520 und R580; wobei der zweite aber gute Chancen hat noch GDDR4 abzubekommen. Mit 900MHz GDDR4 kommt man auch schnell auf die ~50% im Vergleich zu R4xx.
robbitop
2005-04-28, 14:27:10
Maximal hat sich die Bandbreite zwischen der R3xx und R4xx Generation um ~50% gesteigert. Wieviel gibt mir aber 325*8 vs. 540*16?
Ich rechne mit gleicher Anzahl von quads zwischen R520 und R580; wobei der zweite aber gute Chancen hat noch GDDR4 abzubekommen. Mit 900MHz GDDR4 kommt man auch schnell auf die ~50% im Vergleich zu R4xx.
Nur war R300/350 nicht so am Ende mit der Bandbreite wie R420 es ist. Da war insgesamt viel mehr Raum für Leistungssteigerung.
denkt ihr 2006 kommen schon 512bit karten
robbitop
2005-04-28, 16:31:02
denkt ihr 2006 kommen schon 512bit karten
möglich. Irgendwas muss man ja gegen den Bandbreitenmangel tun. IMO geht da chipintern nicht mehr soo viel.
ati ist immer für eine überraschung gut. mit den 256bit beim r300 hat ja auch so wirklich keiner gerechnet, am allerwenigstens wohl nv :D wenn die ram-chips nicht schneller können muss man sie halt breiter anbinden, da führt letzten endes kein weg dran vorbei. oder man baut halt pipline-monster die ohne ende bandbreitenlimitiert sind.
Ailuros
2005-04-28, 17:02:43
Nur war R300/350 nicht so am Ende mit der Bandbreite wie R420 es ist. Da war insgesamt viel mehr Raum für Leistungssteigerung.
ATI's eigene Marketing-entscheidung wohl eher. Haetten sie die Frequenzen nicht so verrueckt hoch geschnallt (>500MHz), dann waere es auch nie zu so extremen Faellen gekommen. Wie sieht es im Vergleich zwischen X800PRO, X800XL und 6800GT aus?
Wenn ich irgendwo uebertreibe, dann ist es wohl eher normal dass mir auch irgendwo dann die Puste ausgeht.
robbitop
2005-04-28, 17:20:01
ati ist immer für eine überraschung gut. mit den 256bit beim r300 hat ja auch so wirklich keiner gerechnet, am allerwenigstens wohl nv :D wenn die ram-chips nicht schneller können muss man sie halt breiter anbinden, da führt letzten endes kein weg dran vorbei. oder man baut halt pipline-monster die ohne ende bandbreitenlimitiert sind.
Nein IMO war's vorrausschaubar. Bereits Matrox und 3DLabs brachten vorher 256 Bit Karten. (Parhelia/P10)
Nein IMO war's vorrausschaubar. Bereits Matrox und 3DLabs brachten vorher 256 Bit Karten. (Parhelia/P10)
Kam die Perhelia nicht nach dem R300?
Der P10 ist allerdings eine Profikarte (Chip), nicht wirklich für Vergleiche mit Consumerkarten geeignet.
ati ist immer für eine überraschung gut. mit den 256bit beim r300 hat ja auch so wirklich keiner gerechnet, am allerwenigstens wohl nv :D wenn die ram-chips nicht schneller können muss man sie halt breiter anbinden, da führt letzten endes kein weg dran vorbei. oder man baut halt pipline-monster die ohne ende bandbreitenlimitiert sind.
hm das wäre doch mal wieder was,der r520 kommt mit 512bit
ich denk mal beim r300 haben hier im forum auch alle gesagt "256bit ist sehr unwahrscheinlich/unrealistisch"
und das ati mit M$ scho ne weile an ner nextgen graka arbeit,steigt meine hoffnung das 512bit kommt :)
für eine konsole die ja wieder ein paar jahre halten muß werden die doch wohl das best mögliche einbaun....
mapel110
2005-04-28, 17:40:12
hm das wäre doch mal wieder was,der r520 kommt mit 512bit
ich denk mal beim r300 haben hier im forum auch alle gesagt "256bit ist sehr unwahrscheinlich/unrealistisch"
und das ati mit M$ scho ne weile an ner nextgen graka arbeit,steigt meine hoffnung das 512bit kommt :)
für eine konsole die ja wieder ein paar jahre halten muß werden die doch wohl das best mögliche einbaun....
für eine konsole mit im Vergleich zu PC-Spielen winzigen Texturen brauchts nicht viel Bandbreite.
Kam die Perhelia nicht nach dem R300?
Nö, Parhelia kam ein viertel Jahr früher raus.
Adam D.
2005-04-28, 20:46:49
'It is going to be their NV30, and they know it.'
:|
ShadowXX
2005-04-28, 20:49:45
'It is going to be their NV30, and they know it.'
:|
Von wem kommt dieser Spruch...Mr. Kirk??
http://www.theinquirer.net/?article=22882
512bit Speicherinterface ist IMO deshalb unrealistisch, weil das zur Zeit bei GDDR3 auch 512MiB RAM voraussetzt.
deekey777
2005-04-28, 21:35:54
http://www.theinquirer.net/?article=22882
512bit Speicherinterface ist IMO deshalb unrealistisch, weil das zur Zeit bei GDDR3 auch 512MiB RAM voraussetzt.
"ATI, meanwhile, is debating timescales. We've heard various rumours about the card - it might be 32 pipes, they might only be half-pipes, only half of them might be enabled, la la la. One source suggested to us that the delay on R520 was because 'It is going to be their NV30, and they know it.' Whilst we can't comment on performance, we do know that it has been pushed back at least until Computex, although samples may be hitting the press before then - you may find that reviewers have cards in their hands in late May, and then you can start to expect the leaks."
Man sieht gleich, daß es nicht von Fuad geschrieben wurde (lassen wir den Inhalt aussen vor).
hm ati kann sich wohl nicht entscheiden was sie bringen wollen.....16,24,32 pipes
robbitop
2005-04-28, 22:25:03
Kam die Perhelia nicht nach dem R300?
Der P10 ist allerdings eine Profikarte (Chip), nicht wirklich für Vergleiche mit Consumerkarten geeignet.
Vorstellung der Parhelia war am 14.05.2002
Und nein, bei der Vorstellung des P10 (irgendwann im April) wurde von Creative angekündigt, dass es auch eine Gamervariante mit entsprechenden Treibern geben solle. Das wurde nur leider nie realisiert.
robbitop
2005-04-28, 22:28:24
"ATI, meanwhile, is debating timescales. We've heard various rumours about the card - it might be 32 pipes, they might only be half-pipes, only half of them might be enabled, la la la. One source suggested to us that the delay on R520 was because 'It is going to be their NV30, and they know it.' Whilst we can't comment on performance, we do know that it has been pushed back at least until Computex, although samples may be hitting the press before then - you may find that reviewers have cards in their hands in late May, and then you can start to expect the leaks."
klingt *eerm* sehr gewagt.
robbitop
2005-04-28, 22:44:08
erklär mal warum gewagt
Warum sollte man einen Chip designen, bei dem man die hälfte des Pixelteils deaktiviert? Klingt ziemlich ....gewagt *hust*
naja *hust* bei den x800xt die nicht gut waren wurden die pipes auf 12 verringert anstatt 16
vielleicht is die ausbeute beim r520 mies und sie machen erstmal 24 pipes und nicht 32
dieses jahr 24 pipes und dann in einem jahr wenn nv druck macht die 32 pipes
Sunrise
2005-04-29, 05:36:59
naja *hust* bei den x800xt die nicht gut waren wurden die pipes auf 12 verringert anstatt 16
vielleicht is die ausbeute beim r520 mies und sie machen erstmal 24 pipes und nicht 32
dieses jahr 24 pipes und dann in einem jahr wenn nv druck macht die 32 pipes
Ja, du hast da schon eine gute Vermutung aufgegriffen (der R580 exisitiert ja auch). Jedoch liest sich das beim INQ eher anders:
Es wäre rein wirtschaftlich völliger Blödsinn (das Wort trifft es leider genau), einen neuen Prozess zu nutzen, gleichzeitig die Komplexität auf das "Maximale" auszulegen und dann im Nachhinein den R520 mit nicht funktionsfähigen, deaktivierten Pipes (6 statt 8 Quads) auszuliefern. Dies kostet kostbaren Waferplatz, der bei 90nm Low-K sicher ordentlich ins Geld gehen würde. Yields will ich mal außen vor lassen.
Jetzt mal sehr spekulativ:
Wenn wir davon ausgingen, dass laut Planungen von ATI möglicherweise R520 und R580 bereits ihr Tape-Out hinter sich hätten - und dieses Design wird nicht mal eben einfach so abgeändert - dann wartet R580 mit 8 Quads auf schnelleren Speicher, währenddessen der R520 mit "nur" 6 Quads auskommen müsste. Alles andere würde - wenn wir von der 24 Pipes- / 32 Pipes-Theorie ausingen - einfach keinen Sinn machen (Bandbreite).
Ich bin weiterhin der Überzeugung, dass 24 Pipes sicherlich machbar wären und dies auch Sinn machen würde, wenn sie entsprechend optimiert, bzw. etwas effektiver wurden, damit der Speicher soweit möglich nicht zum alleinigen Flaschenhals wird. 700 MHz GDDR3 wären zwar knapp, aber sicher wäre dies noch "im Bereich des Möglichen".
16 Pipes auf hohen Takt ausgelegt würde allerdings genauso einen Sinn ergeben, siehe Ailuros´ Rechnung.
seahawk
2005-04-29, 08:03:48
klingt *eerm* sehr gewagt.
Naja zumindest der NV30 Teil ist interessant. Neuer Prozess, sehr hoher Takt geplant , von der Architektur irgendwie ziwschen den Generationen, .... kommt einen schon bekannt vor.
Wobei ich ATI nicht zu ein Desaster zu traue.
Ailuros
2005-04-29, 08:19:49
Darf ich nochmal daran erinnern dass es durchaus moeglich sein koennte dass die WGF2.0 GPUs knapp innerhalb eines Jahres von der G70/R520 Veroeffentlichung erscheinen koennten? (plus oder minus ein paar Monate ist ja wohl schnuppe).
Setzen wir jetzt voraus dass fuer die ersten DX10 chips immer noch low-k 90nm als Herstellungsprozess benutzt wird, gibt es wohl logischerweise eine moegliche Leistungsspanne von X bis Y fuer diesen Prozess.
Was genau klingt Euch logischer:
a) "Y" in 2005 gleich voll auszunutzen (wir nehmen eben mal an dass dieses auch momentan moeglich ist) fuer H2 2005 und knapp ein Jahr spaeter GPUs vorzustellen mit marginal hoeherer Leistung als G7x/R5xx aber mehr Features?
oder
b) "X" fuer 2005 und dann "Y" erst in =/>H2 2006 fuer WGF2.0 GPUs, wobei wir dann erst nicht nur fortschrittlichere Feature-sets sehen werden aber auch =/> doppelt so hohe Leistung im Vergleich zu R420/NV40?
LONGHORN bzw. (etwas spaeter WGF2.0) sind verstaendlicherweise aeusserst wichtig fuer beide IHVs und den Zug duerfen sie auf keinen Fall verpassen. Hier macht es aus vielen Perspektiven mehr Sinn sich mehr auf diese Generation zu konzentrieren als auf alles andere. Ueberhaupt mit den Consolen-Designs die im Hintergrund rennen (und nein total Basis-los duerfte der vom INQ gequotete NV30 Satz gar nicht sein aber unter einer anderen Perspektive; Xenon und R520 sind low-k 90nm; wieviele operative chips kommen fuer beide Faelle jeweils heraus und welcher chip ist "wichtiger" und duerfte deshalb eine hoehere Prioritaet haben?).
Zu dem quad-Quark und alles stets IMHO:
R520 = 16/1/1/1, R580 = 16/1/3/1, wobei die "3" mit hoechster Wahrscheinlichkeit fuer eine hoehere (texture?) Anzahl von OPs stehen koennte. NVIDIA hat sich um einiges spaeter fuer 90nm entschieden und deshalb erwarte ich auch nichts bevor Q3/4 2005 auf diesem Prozess von jenigen.
Angenommen 16*650 = 10400 und ohne 90nm ist eine moegliche Alternative fuer NVIDIA tatsaechlich auf 6 quads @ 110nm zu steigen aber mit niedrigerer Taktrate (400-430MHz); dass Resultat in beiden Faellen sollte mehr oder weniger auf gleichem Niveau liegen.
nao sagte gestern bei B3D dass G70/R520 Prototypen schon seit Maerz bei einem grossen ISV vorhanden sind, ergo duerfte es nicht mehr allzulange dauern.
Was nun NVIDIA's Antwort auf R580 betrifft, wird dieser wohl auf 90nm sein. Ich konnte bis jetzt nichts lesen dass mir garantiert dass die moegliche "6 quad-Masche" auch hier eingehalten wird.
Zu guter letzt muessen wir uns wohl - nach allen Indizien - auch die "quad-Masche" generell fuer WGF2.0 GPUs der Zukunft abgewoehnen. Wuerde man heute sagen dass Xenon/R500 ein 2 quad Design waere, waere es auch nicht unbedingt korrekt. Man bekommt zwar 2x (2x2) pro Takt mit 2xMSAA heraus, aber es wird noch komplizierter werden das Ganze genau zu illustrieren. Ich schaetze dass vor der Vorstellung des Xenon, ein relevanter Artikel von den hier anwensenden Gurus zu gewagt waere; nach der Veroeffentlichung waere ein solcher aeusserst wuenschenswert; so ganz klar ist mir das Zeug immer noch nicht......
seahawk
2005-04-29, 10:44:38
Ein Prozess reift aber mit der Zeit. Was mit dem NV30 in 0,13 nicht ging, wird heute deutlich übertroffen. R520 ist ein Recht großer Chip mit hohen Logikanteilen. Sie könnten imho durchaus ein Problem haben diesen Chip auf die benötigte Taktrate zu bringen, ohne ernsthafte Probleme mit der Kühlung zu bekommen.
Xenon wird und darf nicht scheitern. Das ist klar.
Aquaschaf
2005-04-29, 11:02:25
naja *hust* bei den x800xt die nicht gut waren wurden die pipes auf 12 verringert anstatt 16
vielleicht is die ausbeute beim r520 mies und sie machen erstmal 24 pipes und nicht 32
dieses jahr 24 pipes und dann in einem jahr wenn nv druck macht die 32 pipes
Es wurden von Anfang an R420-Chips mit 4 aktiven Quads verkauft, der Vergleich passt nicht.
ShadowXX
2005-04-29, 11:42:23
Darf ich nochmal daran erinnern dass es durchaus moeglich sein koennte dass die WGF2.0 GPUs knapp innerhalb eines Jahres von der G70/R520 Veroeffentlichung erscheinen koennten? (plus oder minus ein paar Monate ist ja wohl schnuppe).
Setzen wir jetzt voraus dass fuer die ersten DX10 chips immer noch low-k 90nm als Herstellungsprozess benutzt wird, gibt es wohl logischerweise eine moegliche Leistungsspanne von X bis Y fuer diesen Prozess.
Was genau klingt Euch logischer:
a) "Y" in 2005 gleich voll auszunutzen (wir nehmen eben mal an dass dieses auch momentan moeglich ist) fuer H2 2005 und knapp ein Jahr spaeter GPUs vorzustellen mit marginal hoeherer Leistung als G7x/R5xx aber mehr Features?
oder
b) "X" fuer 2005 und dann "Y" erst in =/>H2 2006 fuer WGF2.0 GPUs, wobei wir dann erst nicht nur fortschrittlichere Feature-sets sehen werden aber auch =/> doppelt so hohe Leistung im Vergleich zu R420/NV40?
LONGHORN bzw. (etwas spaeter WGF2.0) sind verstaendlicherweise aeusserst wichtig fuer beide IHVs und den Zug duerfen sie auf keinen Fall verpassen. Hier macht es aus vielen Perspektiven mehr Sinn sich mehr auf diese Generation zu konzentrieren als auf alles andere. Ueberhaupt mit den Consolen-Designs die im Hintergrund rennen (und nein total Basis-los duerfte der vom INQ gequotete NV30 Satz gar nicht sein aber unter einer anderen Perspektive; Xenon und R520 sind low-k 90nm; wieviele operative chips kommen fuer beide Faelle jeweils heraus und welcher chip ist "wichtiger" und duerfte deshalb eine hoehere Prioritaet haben?).
Natürlich ist b.) logischer.......(auch wenn deine Frage wohl eher rethorischer Natur war)
Zu dem quad-Quark und alles stets IMHO:
R520 = 16/1/1/1, R580 = 16/1/3/1, wobei die "3" mit hoechster Wahrscheinlichkeit fuer eine hoehere (texture?) Anzahl von OPs stehen koennte. NVIDIA hat sich um einiges spaeter fuer 90nm entschieden und deshalb erwarte ich auch nichts bevor Q3/4 2005 auf diesem Prozess von jenigen.
Angenommen 16*650 = 10400 und ohne 90nm ist eine moegliche Alternative fuer NVIDIA tatsaechlich auf 6 quads @ 110nm zu steigen aber mit niedrigerer Taktrate (400-430MHz); dass Resultat in beiden Faellen sollte mehr oder weniger auf gleichem Niveau liegen.
nao sagte gestern bei B3D dass G70/R520 Prototypen schon seit Maerz bei einem grossen ISV vorhanden sind, ergo duerfte es nicht mehr allzulange dauern.
Was nun NVIDIA's Antwort auf R580 betrifft, wird dieser wohl auf 90nm sein. Ich konnte bis jetzt nichts lesen dass mir garantiert dass die moegliche "6 quad-Masche" auch hier eingehalten wird.
Zu guter letzt muessen wir uns wohl - nach allen Indizien - auch die "quad-Masche" generell fuer WGF2.0 GPUs der Zukunft abgewoehnen. Wuerde man heute sagen dass Xenon/R500 ein 2 quad Design waere, waere es auch nicht unbedingt korrekt. Man bekommt zwar 2x (2x2) pro Takt mit 2xMSAA heraus, aber es wird noch komplizierter werden das Ganze genau zu illustrieren. Ich schaetze dass vor der Vorstellung des Xenon, ein relevanter Artikel von den hier anwensenden Gurus zu gewagt waere; nach der Veroeffentlichung waere ein solcher aeusserst wuenschenswert; so ganz klar ist mir das Zeug immer noch nicht......
Du gehst bei nVs Antwort auf den r580 also von einem 90nm shrink des G70 mit höheren Taktraten aus....hab ich das richtig verstanden?
Hört sich (wie auch der Rest) sehr logisch an......
Es wurden von Anfang an R420-Chips mit 4 aktiven Quads verkauft, der Vergleich passt nicht.
Aber genauso wie NV in sehr geringen Mengen. Spricht ehrlich gesagt nicht für viele Chips.
Ja, bitte frag mal nach. :) - Kommst Du aus Krefeld?
Nein, ganz falsche Richtung. Die Admins hier koennen sehen, woher ich komme, aber behalten das ja dankenswerterweise fuer sich.
Könntest du (wenn du dafür nicht zuviel riskieren musst) genauer angeben, unter welcher Situation dies war?
Also AA (an/aus, welcher Grad, falls an), AF (analog zu AA) und Auflösung.
Ausserdem wäre es ganz Nett zu wissen ob eure Engine eher Shader oder eher MT-Lastig ist (wenn erlaubt zu erwähnen).
So, also AA/AF war aus, da an den Standardeinstellungen nichts veraendert wurde. Mein Kollege war (und ist) dennoch aus dem Haeuschen ueber den Speed. Die Engine ist sehr shaderlastig. Aufloesung war 1280x1024 wegen dem LCD, an dem der PC angeschlossen war.
robbitop
2005-04-29, 13:43:39
R520 = 16/1/1/1, R580 = 16/1/3/1, wobei die "3" mit hoechster Wahrscheinlichkeit fuer eine hoehere (texture?) Anzahl von OPs stehen koennte. NVIDIA hat sich um einiges spaeter fuer 90nm entschieden und deshalb erwarte ich auch nichts bevor Q3/4 2005 auf diesem Prozess von jenigen.
Klingt sehr logisch. ATI hat übrigens mal irgendwo gesagt, man will die Anzahl der aritmehrtischen Ops erhöhen. Aber ob man in einem Refresh in der Pipelinestruktur rumfummelt ist für mich erstmal ungewohnt.
ATI könnte sich mit 90nm übernehmen. Aber R400/420 haben gezeigt, dass sie mit Risiken umgehen können und möglichst geringe Risiken fahren.
Möglich ist noch alles.
Ailuros
2005-04-29, 15:21:41
Natürlich ist b.) logischer.......(auch wenn deine Frage wohl eher rethorischer Natur war)
Natuerlich rein rhetorisch :)
Du gehst bei nVs Antwort auf den r580 also von einem 90nm shrink des G70 mit höheren Taktraten aus....hab ich das richtig verstanden?
Hört sich (wie auch der Rest) sehr logisch an......
Ich hab einfach mal versucht alles moegliche zusammenzukrempeln. Erstens bezweifle ich dass R580 alles andere als noch ein leicht schnellerer R520 sein wird, ergo sind die Ansprueche nicht so hoch und zweitens sind mir dann 6 quads mit >600MHz zu viel wenn ich an "NV50" fuer H2 2006 denke.
Ich hab zwar nicht die leiseste Ahnung wie der NV-WGF2.0 chip aussehen koennte, aber mir macht es mehr Sinn fuer WGF2.0 wahre 2*NV40 Leistung zu erreichen als mit einem zweitem refresh.
Falls uebrigens ATI tatsaechlich ein chip-Resourcen Problem mit R500/R520 haben sollte, wird wohl NVIDIA einem aehnlichen Problem schwer entgehen koennen falls sich die Produktion von "NV4x@90nm" und den PS3 chips auch ueberdecken sollten.
Ailuros
2005-04-29, 15:32:43
Aber genauso wie NV in sehr geringen Mengen. Spricht ehrlich gesagt nicht für viele Chips.
6800GT's waren in weit gesunderen Quantitaeten am Anfang verfuegbar als jegliche X800XT-wasauchimmer.
Warum gab es den X800XL nicht von Anfang an hm?
ATI könnte sich mit 90nm übernehmen. Aber R400/420 haben gezeigt, dass sie mit Risiken umgehen können und möglichst geringe Risiken fahren.
Möglich ist noch alles.
Gab es einen anderen Weg, wenn man schon Xenon von Anfang an fuer low-k 90nm geplant hat?
Ich verdaechtige momentan dass eben der Consolen-chip hier Vorrang nehmen koennte im Vergleich zum PC/R520.
Natuerlich haette man auf Nummer Sicher gehen koennen und einen 6 quad@ low-k 130nm chip entwickeln fuer den PC; aber so was muss man wohl dann auch von Anfang an so planen.
Ich verdaechtige momentan dass eben der Consolen-chip hier Vorrang nehmen koennte im Vergleich zum PC/R520.
Nein!
robbitop
2005-04-30, 08:55:00
Warum gab es den X800XL nicht von Anfang an hm?
1. späte Reife des 110nm Prozesses
2. nur langsame Verbesserung der Verfügbarkeit von GDDR3.
Mantikor
2005-04-30, 09:12:30
1. späte Reife des 110nm Prozesses
2. nur langsame Verbesserung der Verfügbarkeit von GDDR3.
Die Überheblichkeit mit der X800Pro nicht vergessen. ;)
Mfg der Mantikor
Sunrise
2005-04-30, 09:58:13
Gab es einen anderen Weg, wenn man schon Xenon von Anfang an fuer low-k 90nm geplant hat?
Ich verdaechtige momentan dass eben der Consolen-chip hier Vorrang nehmen koennte im Vergleich zum PC/R520.
Diese Analogie ist mir jetzt nicht ganz klar.
Natürlich macht es rein vom "Engineering" Sinn, das bereits vorhandene Wissen zu nutzen und es beim R520 anzuwenden. Da R500 und R520 aber wohl kaum miteinander vergleichbar sind, ist obiges nicht direkt zutreffend.
Was jedoch Sinn macht, ist die Tatsache, dass ATI bereits einiges an Erfahrung mit 130nm Low-K bei TSMC hat und sie somit R520 auch entsprechend "shrinken" können. Natürlich wird das keine 1:1 Kopie werden, aber es sollte zumindest einiges an Zeit ersparen, was man auch daran erkennen kann, dass ATI den R520 schon letztes Jahr im Tape-Out-Stadium hatte. Genau dies ist auch der Grund, warum ich davon ausgehe (wie du ja auch), dass R580 kaum nennenswerte Veränderungen haben wird. Denn es gibt derzeit einfach keinen Grund, einen Chip noch unterhalb von WGF 2.0 zu designen, das wäre kostbare und verschenkte Zeit.
Sunrise
2005-04-30, 10:24:34
Naja zumindest der NV30 Teil ist interessant. Neuer Prozess, sehr hoher Takt geplant , von der Architektur irgendwie ziwschen den Generationen, .... kommt einen schon bekannt vor.
Wobei ich ATI nicht zu ein Desaster zu traue.
Bei NV war es auch eine grundverschiedene Ausgangsposition von dem damals zwar verfügbaren aber doch eher unausgereiftem Prozess.
Neue Prozesstechniken sind direkt am Anfang unglaublich fehleranfällig und haben gewisse "maturing times" und daher warnte TSMC auch davor, diesen Prozess zu diesem damaligen Zeitpunkt für komplexe Strukturen (inkl. Low-K) zu nutzen. Zusätzlich kommt natürlich die Frage danach auf, warum NV einen Prozess gewählt hatte, der von der reinen Verfügbarkeit (pro FAB, pro Wafer) eher unterdurchschnittlich war.
Ich bin mir sehr sicher, dass NVs damalige Sturrheit ("128bit-Interface is enough") und GPU-Hohheit eine völlig irrationale Planung zur Folge hatte. Denn wenn man bedenkt, wie weit ATI mit 150nm kam, war NVs Entscheidung mehr als nur Riskant, es wäre aus heutiger Sicht unnötig und vermeidbar gewesen.
Genau deshalb finde ich diesen Vergleich von INQ auch als absolut fehl am Platz, denn ATI hat mit 130nm Low-K bereits sehr gute Erfahrungen, diese Vorteile werden ihnen sehr stark helfen, entsprechende GPUs auf 90nm Low-K zu bauen und die Verfügbarkeit ist mit der derzeitigen Planung von bis zu 4 FABs (Fab12A, Fab12B/C, Fab14 in Q4) - welche zudem noch jeweils auf 300mm produzieren - auf einem Niveau, welches zuletzt mit 150nm erreicht wurde.
Ailuros
2005-04-30, 10:38:32
Diese Analogie ist mir jetzt nicht ganz klar.
Natürlich macht es rein vom "Engineering" Sinn, das bereits vorhandene Wissen zu nutzen und es beim R520 anzuwenden. Da R500 und R520 aber wohl kaum miteinander vergleichbar sind, ist obiges nicht direkt zutreffend.
AFAIK werden R500 und R520 low-k 90nm verwenden. ATI wird wohl bestimmten freien fab-Platz haben und sich zwischen diesem auch bewegen muessen. Ist der fab-Platz so gross dass es rein theoretisch fuer beide ausreicht? Wenn nicht welcher chip hat logischerweise eine wichtigere "deadline"?
Was jedoch Sinn macht, ist die Tatsache, dass ATI bereits einiges an Erfahrung mit 130nm Low-K bei TSMC hat und sie somit R520 auch entsprechend "shrinken" können.
Ein die shrink kommt nur vor wenn man je etwas auf einem groesserem Prozess entwickelt hat. Mir ist kein low-k 130nm R520 Entwurf bewusst. Alle bisherigen Versuche waren afaik auf low-k 90nm.
Natürlich wird das keine 1:1 Kopie werden, aber es sollte zumindest einiges an Zeit ersparen, was man auch daran erkennen kann, dass ATI den R520 schon letztes Jahr im Tape-Out-Stadium hatte. Genau dies ist auch der Grund, warum ich davon ausgehe (wie du ja auch), dass R580 kaum nennenswerte Veränderungen haben wird. Denn es gibt derzeit einfach keinen Grund, einen Chip noch unterhalb von WGF 2.0 zu designen, das wäre kostbare und verschenkte Zeit.
Siehe oben.
Ailuros
2005-04-30, 10:41:54
1. späte Reife des 110nm Prozesses
2. nur langsame Verbesserung der Verfügbarkeit von GDDR3.
Wieso soll das jetzt Sinn machen? Was haette gegen einen 4-quad chip@400MHz auf low-k 130nm gesprochen?
Was den Speicher betrifft erst schon mal gar nicht; was fuer Speicher und bei welchen Frequenzen kamen X800PRO und 6800GT an?
Ailuros
2005-04-30, 10:43:22
Nein!
Das spricht aber nicht unbedingt zu Gunsten der Reifheit von low-k 90nm dann.
Sunrise
2005-04-30, 10:50:19
@Ailuros:
Vorrang in Bezug auf die "Deadline" - da gebe ich dir natürlich Recht. MS hat sicherlich auch ein gewisses Interesse daran, dass entsprechende Chips auch relativ früh lauffähig sind. Ich bezog das wohl zu sehr auf die breite Verfügbarkeit in Masse, wohingegen du eher von der reinen Lauffähigkeit ausgehst, denn die X-Box wird sicherlich nicht vor Ende des Jahres zu kaufen sein, auch wenn man natürlich schon deutlich vorher entsprechende Mengen an Chips produzieren muss.
Wegen der "Shrink-Sache":
Ich meinte, dass ATI das bereits verfügbare R480-Design (130nm Low-K) benutzt hat um es in Strukturen von 90nm Low-K zu übersetzen und es dann nachträglich um Änderungen erweitert hat. Dies sollte für einen Großteil des Chips - auch wenn die reinen Pipes und die interne Verarbeitung in Bezug auf SM 3.0 wahrscheinlich grundverschieden sind - möglich sein, so dass man im Endeffekt nur den "neuen" Teil komplett in 90nm Low-K designt und diesen zu den vorhandenen Daten addiert. Da wir aber nicht genau wissen, wie verschiedene der R520 vom R480 wirklich ist, ist diese Vermutung natürlich hoch-spekulativ, aber dafür haben wir ja diesen Thread.
Ailuros
2005-04-30, 10:59:03
Wegen der "Shrink-Sache":
Ich meinte, dass ATI das bereits verfügbare R480-Design (130nm Low-K) benutzt hat um es in Strukturen von 90nm Low-K zu übersetzen und es dann nachträglich um Änderungen erweitert hat. Dies sollte für einen Großteil des Chips - auch wenn die reinen Pipes und die interne Verarbeitung in Bezug auf SM 3.0 wahrscheinlich grundverschieden sind - möglich sein, so dass man im Endeffekt nur den "neuen" Teil komplett in 90nm Low-K designt und diesen zu den vorhandenen Daten addiert. Da wir aber nicht genau wissen, wie verschiedene der R520 vom R480 wirklich ist, ist diese Vermutung natürlich hoch-spekulativ, aber dafür haben wir ja diesen Thread.
Die libraries zwischen 130nm und 90nm sind nicht "verwandt" genug, dass mir sowas Sinn machen koennte (IMHLO).
Sunrise
2005-04-30, 11:13:44
Die libraries zwischen 130nm und 90nm sind nicht "verwandt" genug, dass mir sowas Sinn machen koennte (IMHLO).
Bevor wir uns hier im Kreis drehen - sagen wir mal, wir wissen es beide nicht 100%ig ;)
reunion
2005-04-30, 11:43:04
Denn es gibt derzeit einfach keinen Grund, einen Chip noch unterhalb von WGF 2.0 zu designen, das wäre kostbare und verschenkte Zeit.
Doch, einen gibt es: Wenn man SM3.0 wirklich nur auf dem Papier bringt, dann wird das Jahr 2005 mit Sicherheit ein verdammt schlechtes für ATi.
Allerdings muss ich dir bis zu einem gewissen Grad rechtgeben.
Die R300-R420-R520 Linie wird auslaufen, es macht also wenig Sinn noch unmengen an Ressourcen in R520 zu stecken. R600, der ja auf dem R400/R500 aufbaut, wird ja auch spätestens zu Longhorn verfügbar sein. Also was tun? Schauen, dass R600 möglichst schnell fertig wird, und jetzt noch irgendwie einen SM3.0-Chip "zusammenbasteln", in den man möglichst wenig Ressourcen hineinstecken muss.
Allerdings war bereits R420 nicht wirklich was neues, ich weiß nicht ob man sich soetwas nocheinmal traut.
Mit SM 3.0 hat man WGF 2.0 eigentlich schon fast abgedeckt bis auf den Geometrieteil. Insofern halte ich das nicht für verschwendete Resourcen.
Außerdem kann man nicht "mal eben" SM 3.0 einbauen und vor allem nicht ATi, weil das doch ein deutlicher Sprung von deren 2.0 ist...
reunion
2005-04-30, 12:15:58
Mit SM 3.0 hat man WGF 2.0 eigentlich schon fast abgedeckt bis auf den Geometrieteil. Insofern halte ich das nicht für verschwendete Resourcen.
SM3.0 hat man schon lange durch die R400->R500-Linie, auf der der R600 aufbauen wird.
Außerdem kann man nicht "mal eben" SM 3.0 einbauen und vor allem nicht ATi, weil das doch ein deutlicher Sprung von deren 2.0 ist...
Eben, deshalb halte ich ja auch eine art "Softwarelösung" für denkbar.
Sunrise
2005-04-30, 12:24:21
Mit SM 3.0 hat man WGF 2.0 eigentlich schon fast abgedeckt bis auf den Geometrieteil. Insofern halte ich das nicht für verschwendete Resourcen.
Außerdem kann man nicht "mal eben" SM 3.0 einbauen und vor allem nicht ATi, weil das doch ein deutlicher Sprung von deren 2.0 ist...
Ich wollte obige Aussage eher "zwischen" R520 und R580, nicht zwischen R580 und R600 verstanden wissen, denn ich stelle SM 3.0 nicht in Frage. Es sollte nur ausdrücken, dass R600 eben wahrscheinlich deutlich mehr "Neues" (load-balanced, in parallel working pools, unified, etc.) bringen wird.
R520 lief ja sozusagen "im Hintergrund" mit, ATI hatte mit dem R480 noch etwas Zeit überbrückt, der R520 war rein vom Papier her, sicher schon eine ganze Weile vorher fertig.
Der 90nm-Prozess braucht natürlich eine Weile, bis er entsprechend gereift ist, man benötigt entsprechenden Speicher - der zwar z.B. von Samsung schon letztes Jahr versprochen wurde, man derzeit aber immer noch bei "256MBittigem 700MHz GDDR3" ist - und ATI hatte mit Bestimmtheit schon länger damit geplant, den R520 auch sofort auf 90nm zu designen, eben wegen den oben angesprochenen Vorteilen für ATI.
Falls die hochgezüchtete, hochgetaktete 16-Pipe (16/1/1/1)-Theorie zutreffen sollte, bin ich fest davon überzeugt, dass ATI hier einiges - nicht nur in Bezug auf SM 3.0-Konformität - bzgl. deren Effektivität getan hat.
Es ist meiner Meinung nach wirtschaftlich also unsinnig - die Steuereinheiten für R500 sind sicherlich auch verdammt komplex -, dass R520 und R600 intern Ähnlichkeiten haben, auch wenn SM 3.0 "nahe" an WGF 2.0 angrenzen sollte, aber das ist wie die "Unified-Geschichte" ja völlig losgelöst von der eigentlichen Beschaffenheit der Architektur.
Eben, deshalb halte ich ja auch eine art "Softwarelösung" für denkbar.Äh wie meinst du das jetzt bitte? Mit jeglicher Software würde man in SPF Bereichen liegen.
Ailuros
2005-04-30, 13:46:36
Bevor wir uns hier im Kreis drehen - sagen wir mal, wir wissen es beide nicht 100%ig ;)
Darueber bin ich mir ziemlich sicher; u.a. auch ein Grund warum G70 hoechstwahrscheinlich auf 110nm kommen wird ;)
Demirug
2005-04-30, 14:37:40
Äh wie meinst du das jetzt bitte? Mit jeglicher Software würde man in SPF Bereichen liegen.
Er denkt wohl an etwas in Richtung F-Buffer.
reunion
2005-04-30, 15:50:57
Äh wie meinst du das jetzt bitte? Mit jeglicher Software würde man in SPF Bereichen liegen.
Ich bin in dieser Hinsicht zu wenig versiert um dir darauf einen Antwort zu geben. Demirug sprach allerdings mal von einer Möglichkeit mittels des F-Buffers, die unter Umständen sogar halbwegs schnell sein soll.
Ich denke nur, dass es wohl kaum noch Sinn macht, aus dem verstaubten R300 Design mit sicherlich nicht geringen Aufwand einen SM3.0 Chip zu entwickeln, welchen man später nichtmehr verwenden wird. Unklar ist mir allerdings nach wie vor, warum man nicht schon R520 auf R400 aufgebaut hat.
Ailuros
2005-04-30, 16:05:42
Unklar ist mir allerdings nach wie vor, warum man nicht schon R520 auf R400 aufgebaut hat.
Weil der originale R400 als Longhorn GPU geplant war und deswegen auch schon R6xx Anteile hatte. In dem Sinn waere es eigentlich nutzlos Einheiten zu implementieren die bis zur relevanten API Vorstellung quasi zu nichts gut sein werden (ausser OGL via Extensionen).
Beide IHVs aenderten ihre GPUs roadmaps in der Vergangenheit um sich der WGF2.0 Vorstellung anzupassen.
reunion
2005-04-30, 16:11:14
Weil der originale R400 als Longhorn GPU geplant war und deswegen auch schon R6xx Anteile hatte. In dem Sinn waere es eigentlich nutzlos Einheiten zu implementieren die bis zur relevanten API Vorstellung quasi zu nichts gut sein werden (ausser OGL via Extensionen).
Hätte man nicht einfach die noch nicht benötigten Teile entfernen können?
R500 ist ja vermutlich auch nicht WGF2.0-Kompatibel.
Ailuros
2005-04-30, 16:19:05
Ich wollte obige Aussage eher "zwischen" R520 und R580, nicht zwischen R580 und R600 verstanden wissen, denn ich stelle SM 3.0 nicht in Frage. Es sollte nur ausdrücken, dass R600 eben wahrscheinlich deutlich mehr "Neues" (load-balanced, in parallel working pools, unified, etc.) bringen wird.
Wie waere es mit "vereinten SM3.0 Shadern" + Geometry Shader fuer WGF2.0. Zwar ist das womoeglich zu stark vereinfacht, aber so in etwa kann ich mir Coda's Logik ausdenken.
Es ist meiner Meinung nach wirtschaftlich also unsinnig - die Steuereinheiten für R500 sind sicherlich auch verdammt komplex -, dass R520 und R600 intern Ähnlichkeiten haben, auch wenn SM 3.0 "nahe" an WGF 2.0 angrenzen sollte, aber das ist wie die "Unified-Geschichte" ja völlig losgelöst von der eigentlichen Beschaffenheit der Architektur.
Der obrigen verkorksten Vereinfachung zu Folge, duerfte es (zumindest fuer einen Laien fuer mich) nicht wurscht sein ob ich jetzt 16+8 oder 24 Einheiten (nur imaginaere Zahlen) habe wenn ich weiss dass in etwa mehr oder weniger das gleiche Zeug herauskommen koennte?
Ich meine natuerlich nicht dass Du nicht Recht hast, aber mir persoenlich waere es lieber erstmal die Vor- und Nachteile einer vereinten Architektur zu sehen. Es wuerde mich auch nicht im geringsten wundern wenn wir in der absehbaren Zukunft eine vereinte Architektur "A" und eine vereinte Architektur "B" sehen wuerden. Ausser es wird irgendwo vorgeschrieben wie man die "Vereinigung" der Einheiten vornehmen soll und ich schiesse mir mal wieder in den Fuss....(?)
Ailuros
2005-04-30, 16:27:25
Hätte man nicht einfach die noch nicht benötigten Teile entfernen können?
R500 ist ja vermutlich auch nicht WGF2.0-Kompatibel.
So wie mir mal R400 beschrieben wurde, war es vielleicht eine Architektur mit vereinten Shadern und einer programmierbaren primitiven Einheit (topology + tesselation).
Wenn ich hoere dass dieser Plan auf R5xx/6xx verstreut wurde dann macht es auch Sinn:
R520 = PS/VS3.0
R500 = SM3.0 (unified)
R600 = Shaders + Geometry Shader (nur topology).
Das letzte ist nur pure Spekulation meinerseits, aber da die Tesselations-Einheit auf WGF2.0 heutzutage optional zu sein scheint, haben diese wohl die IHVs gleich weggelassen (da das API ja in Zusammenarbeit der IHVs und Microsoft definiert wird).
R400 war aber trotz allem nicht fortschrittlicher als R600 und haette auch vielleicht ein paar Problemchen mit der Kompatibilitaet gehabt. Bevor die WGF2.0 (damals DX-Next) Voraussetzungen festgelegt wurden und bevor M$ Longhorn verschoben hat, muss irgendwo damals extremes multitasking fuer's OS dazugekommen sein und ich hoerte damals von mehreren Quellen das fast alle IHVs zu den Kreideboards zurueckgetrieben wurden.
Sunrise
2005-05-01, 12:18:21
Darueber bin ich mir ziemlich sicher; u.a. auch ein Grund warum G70 hoechstwahrscheinlich auf 110nm kommen wird ;)
Ob das eine "weise" Entscheidung war, den G70 auf 110nm zu bringen, lassen wir mal offen (power consumption, power requirements).
Jedoch hat NV - wenn sie G70 im gleichen "time-frame" wie R520 "launchen" wollen - , derzeit auch garkeine andere Wahl als den 110nm-Weg zu gehen, denn von Low-K hat NV ja Abstand genommen, d.h. 130nm Low-K (schlechte Verfügbarkeit) und 90nm Low-K (still maturing, sehr gute Verfügbarkeit) fallen da schonmal weg. Ich glaube daher stimmt deine Analogie nicht so ganz.
Der Übergang von 130nm (IBM) -> 110nm (TSMC) war bei NV allerdings recht "smooth", darauf stützt sich auch ein Großteil meiner "shrink"-Vermutungen. Diverse Charakteristika mögen verschieden sein, jedoch wird einem das von der jeweiligen "Foundry" auch mitgeteilt.
kann mit das jemand mal kurz erklären,was ist low-k,warum war 130 low-k so schlecht verfügbar und warum sollte 90 low-k gut verfügbar sein ?
Sunrise
2005-05-01, 17:38:10
kann mit das jemand mal kurz erklären,was ist low-k,warum war 130 low-k so schlecht verfügbar und warum sollte 90 low-k gut verfügbar sein ?
In aller Kürze und möglichst auf die Fakten reduziert:
Ein Low-k-Dielektrikum ist ein Material mit besonders niedriger Dielektrizitätszahl, diese bestimmt "wie gut" ein Material elektrische Leitungen voneinander abschirmt, dies verbessert direkt die Leitfähigkeit des Trägermaterials und reduziert somit nötige Stromaufnahme/Verlustleistung. Es sind somit "deutlich" höhere Taktraten möglich. Dies ist extrem vereinfacht dargestellt, denn es gibt noch mehr als ein Dutzend andere Faktoren, die die endgültigen Taktraten bestimmen.
130nm Low-K läuft derzeit nur in FAB-6, produziert wird "nur" auf 200mm-Wafern, währenddessen 90nm Low-K "NexSys" bereits in 3-4 FABs verfügbar ist (Fab12A, Fab12B/C und Fab14 im Q4) die zusätzlich mit 300mm-Wafern fahren, also verdammt viel Holz, jedoch kann die Auslastung natürlich varrieren.
Ailuros
2005-05-01, 17:44:40
Ob das eine "weise" Entscheidung war, den G70 auf 110nm zu bringen, lassen wir mal offen (power consumption, power requirements).
Von einer Stromverbrauch-Perspektive garantiert nicht. Ueberhaupt falls es sich tatsaechlich um 6 quads@>430MHz handeln sollte.
Jedoch hat NV - wenn sie G70 im gleichen "time-frame" wie R520 "launchen" wollen - , derzeit auch garkeine andere Wahl als den 110nm-Weg zu gehen, denn von Low-K hat NV ja Abstand genommen, d.h. 130nm Low-K (schlechte Verfügbarkeit) und 90nm Low-K (still maturing, sehr gute Verfügbarkeit) fallen da schonmal weg. Ich glaube daher stimmt deine Analogie nicht so ganz.
Der Übergang von 130nm (IBM) -> 110nm (TSMC) war bei NV allerdings recht "smooth", darauf stützt sich auch ein Großteil meiner "shrink"-Vermutungen. Diverse Charakteristika mögen verschieden sein, jedoch wird einem das von der jeweiligen "Foundry" auch mitgeteilt.
Die Entscheidung seitens NV kam wegen der libraries. Ich hab's direkt vom Maul des Loewen.
Sunrise
2005-05-01, 18:14:27
Die Entscheidung seitens NV kam wegen der libraries. Ich hab's direkt vom Maul des Loewen.
Ok, damit wäre das abgehakt.
r3ptil3
2005-05-02, 04:56:51
Könnte man jetzt mal auflisten was im R520 sicherlich implentiert sein wird, wie z.B. Shader Modell 3!? Oder ist auch SM3 nicht "wirkliches" SM3, da ich hier gehört habe das sich 8 Vertex-Shader-Pixel-Shaderpipelines sozusagen zusammen arbeiten und eben "nur" die acht SM3 nützen können!?
robbitop
2005-05-02, 10:16:54
Wieso soll das jetzt Sinn machen? Was haette gegen einen 4-quad chip@400MHz auf low-k 130nm gesprochen?
Was den Speicher betrifft erst schon mal gar nicht; was fuer Speicher und bei welchen Frequenzen kamen X800PRO und 6800GT an?
1. Verfügbarkeit, Preis?
2. GDDR3 500MHZ ..teuer, schlecht verfügbar. Beide Karten ~400EUR.
Zum Vergleich: X800XL: 260-300EUR.
Ailuros
2005-05-02, 12:11:17
1. Verfügbarkeit, Preis?
2. GDDR3 500MHZ ..teuer, schlecht verfügbar. Beide Karten ~400EUR.
Zum Vergleich: X800XL: 260-300EUR.
Ich vergleiche 3 (operative!) quads @ 475MHz / X800PRO mit 4 quads @ 400MHz X800XL, total vom Herstellungsprozess und der Veroeffentlichungszeit abgesehen der beiden Modelle.
Man haette fuer ein theoretisches 4 quad/400 Modell auch kein 500MHz GDDR3 gebraucht. Mit 450MHz GDDR3 waere es trotzdem schneller als die PRO gewesen und dann eben mit dem selben Preis.
seahawk
2005-05-02, 12:14:58
Ich vergleiche 3 (operative!) quads @ 475MHz / X800PRO mit 4 quads @ 400MHz X800XL, total vom Herstellungsprozess und der Veroeffentlichungszeit abgesehen der beiden Modelle.
Man haette fuer ein theoretisches 4 quad/400 Modell auch kein 500MHz GDDR3 gebraucht. Mit 450MHz GDDR3 waere es trotzdem schneller als die PRO gewesen und dann eben mit dem selben Preis.
Man hätte dann aber nicht die teildefekten Chips als PRO nutzen können. Man brauchte nur eine Platine. Und man konnte mit dem hohen Takt werben.
Ailuros
2005-05-02, 12:18:33
Könnte man jetzt mal auflisten was im R520 sicherlich implentiert sein wird, wie z.B. Shader Modell 3!? Oder ist auch SM3 nicht "wirkliches" SM3, da ich hier gehört habe das sich 8 Vertex-Shader-Pixel-Shaderpipelines sozusagen zusammen arbeiten und eben "nur" die acht SM3 nützen können!?
Ich kann mir weder vorstellen wie diese Theorie zum Vorschein kam oder wie sowas ueberhaupt Sinn machen koennte.
Wenn man sich schon die Muehe macht und entwickelt eine SM3.0 pipeline, warum wuerde man dann um Himmel's Willen sagen wir mal nur 1 oder 2 quads mit SM3.0 benutzen und nicht gleich alle quads?
IHVs entwickeln diese GPUs immer noch auf quad-Basis sozusagen. Man entwickelt einen und kann diesen dann dementsprechend skalieren nach Belieben. Stell Dir die einzelnen quads mal als ganzen chip vor; hab ich jetzt ein theoretisches multi-chip board, was macht mehr Sinn:
1 SM3.0 chip + 3 SM2.0_b chips oder gleich 4 SM3.0 chips?
Ailuros
2005-05-02, 12:20:56
Man hätte dann aber nicht die teildefekten Chips als PRO nutzen können. Man brauchte nur eine Platine. Und man konnte mit dem hohen Takt werben.
War die defekt-Rate aber wirklich so gross, dass sich das Ganze gerechtfertigt hat? 400MHz waren immerhin hoeher als 350MHz bei 6800GT.
P4RH3li4
2005-05-02, 13:34:10
Ich könnte mir schon gut vorstellen das sagen wir zweidrittel des Chips "festverdrahtete" Pixelshadereinheiten sind und ein drittel Unified Einheiten.
Alles unified auszulegen kostet Transistoren und da man zumindest für Spiele mehr Pixel- als Vertexshaderpower benötigt ist die Idee doch garnicht sooo schlecht. :rolleyes:
Also z.B. 12 oder 16xPS3.0 + 4 oder 8x PS/VS3.0
Edit:Allerdings davon ausgehend das dann ALLE Einheiten SM3 sind..
seahawk
2005-05-02, 13:41:32
War die defekt-Rate aber wirklich so gross, dass sich das Ganze gerechtfertigt hat? 400MHz waren immerhin hoeher als 350MHz bei 6800GT.
Ich weiss nur, dass man leichter große Mengen an PRO Versionen bekommen hat, als an XT Versionen. Zumindest am Anfang gehe ich von einem recht schlechten Yield aus. Was sich mit dem R480 geändert hat.
robbitop
2005-05-02, 14:00:07
Ich vergleiche 3 (operative!) quads @ 475MHz / X800PRO mit 4 quads @ 400MHz X800XL, total vom Herstellungsprozess und der Veroeffentlichungszeit abgesehen der beiden Modelle.
Man haette fuer ein theoretisches 4 quad/400 Modell auch kein 500MHz GDDR3 gebraucht. Mit 450MHz GDDR3 waere es trotzdem schneller als die PRO gewesen und dann eben mit dem selben Preis.
Hier bewegen wir uns auf glattem Eis. Denn das ist pure Spekulation.
Mit der Pro recycelte ATI eben die R420. Das war nötig. Die Pro kostete Anfangs 399EUR. Die XL anfangs nur 300EUR. Das sind delta 100EUR. Dazu mussten die Herstellungskosten massiv gesenkt werden. GDDR3 war unnötig aber inzwischen so günstig und gut verfügbar, dass es wohl kaum eine Rolle spielt ob 2,2ns DDR1 oder GDDR3. 110nm ist ebenfalls sehr gut verfügbar und recht günstig. -> High Volume möglich nicht wie bei 130nm lowk (stückzahl X800PRO << X800XL).
Komm mir jetzt bitte nicht damit, dass die Pro günstiger geworden ist. Jede Karte wird nach einer gewissen Zeit günstiger. Dadurch sinkt jedoch nur die Marge, nicht jedoch der Herstellungspreis.
Ailuros
2005-05-02, 14:58:18
Mit der Pro recycelte ATI eben die R420.
Thank you Captain Obvious :D
Ich weiss nur, dass man leichter große Mengen an PRO Versionen bekommen hat, als an XT Versionen. Zumindest am Anfang gehe ich von einem recht schlechten Yield aus.
Die Frage ist eben warum die yields so schlecht waren fuer 4 quad chips. Soooo kompliziert sind die 160M Dinger nun auch wieder nicht. Was man mit den chips mit nur 3 operativen quads haette machen koennen? Einen 6800nonUlta Konkurrent. Jedoch kam dieser Aufbruch in zwei verschiedene Modelle erst mit R430@110nm, wobei mir der Herstellungsprozess eigentlich hier egal sein koennte.
Das war nötig. Die Pro kostete Anfangs 399EUR. Die XL anfangs nur 300EUR. Das sind delta 100EUR. Dazu mussten die Herstellungskosten massiv gesenkt werden. GDDR3 war unnötig aber inzwischen so günstig und gut verfügbar, dass es wohl kaum eine Rolle spielt ob 2,2ns DDR1 oder GDDR3. 110nm ist ebenfalls sehr gut verfügbar und recht günstig. -> High Volume möglich nicht wie bei 130nm lowk (stückzahl X800PRO << X800XL).
Kann ich hoffen dass Du wenigstens nach diesem Post verstehst was ich genau meine?
Ich könnte mir schon gut vorstellen das sagen wir zweidrittel des Chips "festverdrahtete" Pixelshadereinheiten sind und ein drittel Unified Einheiten.
Alles unified auszulegen kostet Transistoren und da man zumindest für Spiele mehr Pixel- als Vertexshaderpower benötigt ist die Idee doch garnicht sooo schlecht.
Also z.B. 12 oder 16xPS3.0 + 4 oder 8x PS/VS3.0
Klingt mir aber nicht besonders nach einem balancierten chip. Eher nach einer Latenz-hoelle IMHLO ;)
robbitop
2005-05-02, 15:00:22
wir reden aneinander vorbei.
Ailuros
2005-05-02, 15:28:00
wir reden aneinander vorbei.
Eben weil Du Dich stur weigerst eine ziemlich einfache (aber theoretische) Frage zu verstehen.
Sunrise
2005-05-02, 15:47:23
Dass die Yields von ATI "schlecht" gewesen sein sollen, halte ich für eine sehr gewagte Aussage. Überhaupt ist es falsch, anhand einer Strategie, welche ein IHV fährt/gefahren hat direkt auf die Yields zu schließen. Man kann allerdings vermuten, dass sich ATI mit dem Takt der XT PE etwas übernommen hat. Darauf stützen sich mehrere Vermutungen, unter anderem auch die Tatsache, dass R480 eher nicht das ist, was ich von einem Refresh normalerweise erwarte.
Zuerst einmal war die Verfügbarkeit von R420 zu Beginn relativ schwach (nur Fab-6 / 200mm Wafer) und der Preis der PRO deutlich unter dem der XT PE -> deutlich größeres Interesse an der PRO -> ATI muss auch dann, wenn es ihnen nicht gefällt versuchen, diese "Lücke" zu befriedigen -> XT PEs werden heruntergelabelt, BIOS der PRO aufgespielt -> kaum XT PEs verfügbar.
Dieses Problem hat ATI mit der getrennten Fertigung von R480 auf 130nm Low-K und R430 auf 110nm "umgangen", denn 110nm ist deutlich kosten-effektiver, während 130nm Low-K hinsichtlich "Taktbarkeit" immer noch einen Vorteil hat.
Ailuros
2005-05-02, 15:57:57
Dieses Problem hat ATI mit der getrennten Fertigung von R480 auf 130nm Low-K und R430 auf 110nm "umgangen", denn 110nm ist deutlich kosten-effektiver, während 130nm Low-K hinsichtlich "Taktbarkeit" immer noch einen Vorteil hat.
Abgesehen von Herstellungsprozessen, ich spiele eher auf marketing-technische Entscheidungen an, als alles andere. Unter dem Licht haette ATI nichts theoretisch davon aufgehalten anstatt der PRO einen 4 quad@400MHz (low-k 130nm) chip und fuer die chips mit defekten quads 3 quad@400MHz. Diese configs haette man dann auch fuer spaeter (R430/110nm) behalten koennen mit niedrigeren Preisen und noch groesserer Verfuegbarkeit.
Das mit der Taktbarkeit von low-k 130nm ist auch kein besonderer Punkt; die Fuellrate und Shader-throughput von 4 quads@400 ist um einiges hoeher.
Sunrise
2005-05-02, 16:36:34
Abgesehen von Herstellungsprozessen, ich spiele eher auf marketing-technische Entscheidungen an, als alles andere. Unter dem Licht haette ATI nichts theoretisch davon aufgehalten anstatt der PRO einen 4 quad@400MHz (low-k 130nm) chip und fuer die chips mit defekten quads 3 quad@400MHz. Diese configs haette man dann auch fuer spaeter (R430/110nm) behalten koennen mit niedrigeren Preisen und noch groesserer Verfuegbarkeit.
Doch, es hätte sie eben Tatsache aufgehalten, dass es keinen Sinn macht, einen Chip vorzustellen, der erstens eine geringere Marge hätte - da macht 110nm deutlich mehr Sinn - die Verfügbarkeit davon abhinge, wieviele "schlechte" Chips / "defekte" Chips man hat (gleicher Chip, gleiche Line), und sich somit das bereits angesprochene Problem mit der XT PE noch weiter verschärft hätte.
ATI braucht Masse, muss liefern können und damit auch Geld verdienen.
Theoretische "Paperlaunches" mal außen vor, sind das genau diejenigen Produkte, die kostengünstig herzustellen und mit möglichst großer Marge auch verkauft werden können. Einen Chip, der teuer herzustellen ist, schlecht verfügbar, aber in Massen gefragt wird, setzt sich kein IHV ans Bein, man würde sich ins eigene Fleisch schneiden.
Ailuros
2005-05-02, 16:49:47
Natuerlich macht 110nm von allen Perspektiven mehr Sinn aber ich beziehe mich auf die Vorstellung von R4xx (ergo den Anfang) und nicht mehr als ein Halbjahr spaeter.
Wer will mich davon ueberzeugen dass ATI - um eben die X800PRO-Nachfrage zu decken - nicht auch voll gesunde chips fuer 3 quad boards verkaufen musste? Rein wirtscharftlich gesehen macht mir mein Vorschlag mehr Sinn.
Was 110nm und NVIDIA betrifft kam zuerst NV43 an die Luft (wobei eigentlich ATI die X700 schnell wieder wegfegte) und erst vor kurzer Zeit erschienen NV42@110nm, was nichts anderes sind als 6800nonU (3 quads/5VS) mit bis zu 450MHz.
Lasst aber mal die 110nm weg von dieser Hypothese und konzentriert Euch nur auf den Anfang von NV40/R420 mit jeweils FSG und low-k 130nm.
DrumDub
2005-05-02, 17:17:56
Wer will mich davon ueberzeugen dass ATI - um eben die X800PRO-Nachfrage zu decken - nicht auch voll gesunde chips fuer 3 quad boards verkaufen musste? Rein wirtscharftlich gesehen macht mir mein Vorschlag mehr Sinn.
interessant in dme zusammenhang ist ja die tatsache, dass sich 99% aller x800 pro vivo zu x800 xt (pe) modden ließen durch nen biosflash. zwar liefen sie meistens nicht mit den taktraten der größeren brüder, aber dafür immer mit 16 pipes.
Sunrise
2005-05-02, 17:28:52
Natuerlich macht 110nm von allen Perspektiven mehr Sinn aber ich beziehe mich auf die Vorstellung von R4xx (ergo den Anfang) und nicht mehr als ein Halbjahr spaeter.
Wer will mich davon ueberzeugen dass ATI - um eben die X800PRO-Nachfrage zu decken - nicht auch voll gesunde chips fuer 3 quad boards verkaufen musste? Rein wirtscharftlich gesehen macht mir mein Vorschlag mehr Sinn.
Nichts Anderes sagte ich bereits. ATI musste dies sogar tun, damit sie die Nachfrage befriedigen konnten. Ich rede exakt von dem gleichen Zeitfenster.
Ich bezog mich exakt auf deinen vorletzten Post, mit deinen "Vermutungen" bzgl. 4 Quads @ 400MHz statt der eigentlichen PRO und bei defekten Pipes dann 3 Quads @ 400MHz bei einer imaginären XL, daher "quote" ich dich auch direkt.
Genau deshalb habe ich dir versucht zu erklären, dass es keinen Sinn macht, 3-4 Chips auf dem gleichen Prozess öffentlich vorzustellen, wenn man so oder so "relativ" ausgewogene Yields hat - die PRO-Varianten waren mehr als reichlich verfügbar - und du kaum minderwertigere, verwertbare Chips (<PRO) zur Verfügung hast. Deine Kunden würden eine extrem hohe Nachfrage nach diesen "minderwertigen" Karten erzeugen, die du selbst aber nicht decken kannst. Was macht man also, um diesem Problem aus dem Weg zu gehen ? Man nimmt die "Mittellösung" und dies war eben genau die PRO.
Sunrise
2005-05-02, 17:30:52
interessant in dme zusammenhang ist ja die tatsache, dass sich 99% aller x800 pro vivo zu x800 xt (pe) modden ließen durch nen biosflash. zwar liefen sie meistens nicht mit den taktraten der größeren brüder, aber dafür immer mit 16 pipes.
Exakt. Daher lässt dies mitunter auch keine Aussage zu, dass die Yields "schlecht" waren, denn allem Anschein nach, trifft genau das Gegenteil zu. Lediglich die Taktraten waren "gehemmt", eben weil ATI gewisse Faktoren bei der Betriebsfähigkeit mit einberechnen musste.
robbitop
2005-05-02, 18:08:46
Eben weil Du Dich stur weigerst eine ziemlich einfache (aber theoretische) Frage zu verstehen.
Das denke ich zwar nicht, aber hilf mir doch bitte auf die Sprünge.
Quasar
2005-05-02, 18:10:51
Ich kann mir weder vorstellen wie diese Theorie zum Vorschein kam oder wie sowas ueberhaupt Sinn machen koennte.
Wenn man sich schon die Muehe macht und entwickelt eine SM3.0 pipeline, warum wuerde man dann um Himmel's Willen sagen wir mal nur 1 oder 2 quads mit SM3.0 benutzen und nicht gleich alle quads?
Deaktivierbarkeit.
Rein hypothetisch könnte man so die voll funktionsfähigen Chips als R520 verkaufen, die, bei denen ein Quad nicht geht, würde man auf R4xx zurückstufen und könnte, bei ansonsten möglichst wenig veränderter Architektur, diese sehr sehr preiswert anbieten, wenn sie denn auf .09µ-lowK kommen.
Exakt. Daher lässt dies mitunter auch keine Aussage zu, dass die Yields "schlecht" waren, denn allem Anschein nach, trifft genau das Gegenteil zu. Lediglich die Taktraten waren "gehemmt", eben weil ATI gewisse Faktoren bei der Betriebsfähigkeit mit einberechnen musste.
Kommt darauf an, wie man es betrachtet. Sehe ich nur rein die Anzahl der HighestEnd Chips und wieviele die von mir festgelegte Grenze nicht geschafft haben, kann der Yield, _für mich persönlich_, durchaus schlecht sein.
Kann man, die Serienstreuung berücksichtigt, die überwältigende Mehrheit der Chips auch andersweitig nutzen, dann ist der Yield sehr gut. Nachteil ist natürlich, dass man für die anderen "Chipkategorien" meist weniger Geld als für die besten Chips verlangen kann.
Dummerweise geht es meistens aber nicht so einfach da entsprechende starke Nachfragen unterschiedlicher Preisklassen, die ich mit _einem_ Chip abdecken will, berücksichtigt werden müssen. Was am Ende dabei rauskommt ist halt eine Mischkalkulation, komplett kaputte Chips noch gar nicht berücksichtigt. :)
reunion
2005-05-02, 20:01:56
Deaktivierbarkeit.
Rein hypothetisch könnte man so die voll funktionsfähigen Chips als R520 verkaufen, die, bei denen ein Quad nicht geht, würde man auf R4xx zurückstufen und könnte, bei ansonsten möglichst wenig veränderter Architektur, diese sehr sehr preiswert anbieten, wenn sie denn auf .09µ-lowK kommen.
Leuchtet mir nicht ein.
Da kann ich auch gleich alle Quads SM3.0-fähig machen und die, bei denen ich ein Quad deaktivieren muss, wie heute als Radeon XXXX PRO verkaufen.
Würde mit Sicherheit mehr Kunden finden als eine alte X800-Karte.
Quasar
2005-05-02, 21:35:25
Leuchtet mir nicht ein.
Da kann ich auch gleich alle Quads SM3.0-fähig machen und die, bei denen ich ein Quad deaktivieren muss, wie heute als Radeon XXXX PRO verkaufen.
Würde mit Sicherheit mehr Kunden finden als eine alte X800-Karte.
Wäre aber teurer in der Herstellung, da FP32 ja mehr Transistoren braucht, als FP24.
Mit "meinem" Modell hast du alles unter einem Hut: SM3-Fähigkeit, verschiedenste Modelle mit nur einem Design möglich, Machbarkeit, höhere Taktraten (als reines FP32).
Ist aber nur ein Gedankenspiel - ich denke nicht, daß irgendjemand so dreist sein würde.
r3ptil3
2005-05-03, 04:00:54
@ R520 , wann kommt er endlich
Es wurde erwähnt das der R520 vielleicht erst im Herbst kommt, das bezweifle ich sehr. Ich konnte eine Sapphire X800 Pro schoon im Mai kaufen und das habe ich auch gemacht.
seahawk
2005-05-03, 08:08:08
Exakt. Daher lässt dies mitunter auch keine Aussage zu, dass die Yields "schlecht" waren, denn allem Anschein nach, trifft genau das Gegenteil zu. Lediglich die Taktraten waren "gehemmt", eben weil ATI gewisse Faktoren bei der Betriebsfähigkeit mit einberechnen musste.
Ich sehe das so und dies gilt nur für den Anfang der R420 Serie.
volle und hochtaktende R420 -> XT PE oder XT
voll funktionsfähige aber schlechter taktbare R420 -> X800RPO Vivo
defekte aber hoch taktende R420 -> X800PRO
dazu die X800SE für noch verwertbaren Reste
So hatte ATI für fast jeden halbwegs lauffähigen Chip einen Verwendung. Betrachtet man die anfängliche Verfügbarkeit der XTPE so gehe ich davon aus, dass nur wenige Chips diesen Level erreichten. Warum sonst hätte man z.B. die X800PRO Vivo bringen sollen ? Die NAchfrage nach der XT PE war da und man hätte mehr verdient.
Einen Raum für eine X800XL und X800 hat es nicht gegeben, weil diese Karten die X800PRo und die X800SE praktisch vom Markt verdrängt hätten. ATI hätte dort also keine Chips recyceln können.
Mit dem Wechsel auf 0,11 wurde ein solcher Chip plötzlich billiger prodzzierbar und der R480 scheint wesentlich weniger defekte Chips zu liefern. Die X850PRO hat ja fast keine Bedeutung.
Deaktivierbarkeit.
Rein hypothetisch könnte man so die voll funktionsfähigen Chips als R520 verkaufen, die, bei denen ein Quad nicht geht, würde man auf R4xx zurückstufen und könnte, bei ansonsten möglichst wenig veränderter Architektur, diese sehr sehr preiswert anbieten, wenn sie denn auf .09µ-lowK kommen.
NEIN!
Der R520 ist eine völlig NEUES Design!
Grüsse
robbitop
2005-05-03, 10:15:20
NEIN!
Der R520 ist eine völlig NEUES Design!
Grüsse
Wer's glaubt...
Es würde wirtschaftlich keinen Sinn machen, jetzt noch ein SM3 Design komplett neu zu bringen, wenn man nächstes Jahr zu WGF schon wieder ein neues braucht.
Naja man könnte sehr sehr viel von einem SM3 Chip auf WGF 2.0 übernehmen (nVidia braucht eigentlich nix zu machen hab ich das Gefühl ;) )
robbitop
2005-05-03, 11:09:11
Naja man könnte sehr sehr viel von einem SM3 Chip auf WGF 2.0 übernehmen (nVidia braucht eigentlich nix zu machen hab ich das Gefühl ;) )
Spielst du auf die Idee an, welche Demirug schon einmal erwähnte, bzgl der Emulation per Treiber? Das ganze hat sich IIRC schon erledigt.
Nein, darauf dass die Tesselationseinheit gestrichen ist anscheinend.
EDIT: Anscheinend gibt es noch nen Geometrieshader, dann ist das so nicht ganz richtig.
Ailuros
2005-05-03, 11:17:42
Deaktivierbarkeit.
Rein hypothetisch könnte man so die voll funktionsfähigen Chips als R520 verkaufen, die, bei denen ein Quad nicht geht, würde man auf R4xx zurückstufen und könnte, bei ansonsten möglichst wenig veränderter Architektur, diese sehr sehr preiswert anbieten, wenn sie denn auf .09µ-lowK kommen.
Ja aber wie genau stellst Du Dir den voll funktionsfaehigen theoretischen R520 vor, wenn er Einheiten mit X und Einheiten mit Y Faehigkeiten haben koennte?
Es klingt mir eher nach einer verdammt performanten SM2.0_b Loesung (durch die sehr hohe Taktrate), aber eine ziemlich lahme SM3.0 Loesung (mal andere moegliche Huerden uebersehen).
Mal rein theoretisch auf das vorige aufbauend: angenommen ich hab 6 quads; 4 davon sind SM2.0_b max. und 2 davon SM3.0; logischerweise hab ich davon 6 quads die SM2.0_b Leistung auf neue hoehen treiben, aber mit SM3.0 im besten Fall einen quasi "NV43 on chip".
Noch dazu kommt dass AFAIK ATI langsam mit der Zeit (H2 2005/H1 2006) SM3.0 vom high end auf mainstream und dann spaeter auf low-end skalieren will, was auch wieder gegen jegliche Erhaltung von SM2.0_x Komplianz spricht. Bis zur Veroeffentlichung von DX10 GPUs in 2006, sollte man eigentlich von "top 2 bottom" so weit sein.
Ailuros
2005-05-03, 11:23:11
Nein, darauf dass die Tesselationseinheit gestrichen ist anscheinend.
EDIT: Anscheinend gibt es noch nen Geometrieshader, dann ist das so nicht ganz richtig.
Also wenn der GS noch vorhanden ist und die physikalische Vereinigung der Shader-Einheiten Vorraussetzung sein sollte (?), dann sind das nicht gerade kleine Aenderungen im Vergleich zu NV4x.
Ohne Kleinigkeiten ueber den PS3 Grafik core hilft das alles wohl nicht viel; aber ich hab irgendwie das Gefuehl dass es - minus der moeglichen Differenzen was die Implementierung betrifft - nicht allzu verschieden vom Xenon sein koennte.
reunion
2005-05-03, 13:26:10
Wäre aber teurer in der Herstellung, da FP32 ja mehr Transistoren braucht, als FP24.
Mit "meinem" Modell hast du alles unter einem Hut: SM3-Fähigkeit, verschiedenste Modelle mit nur einem Design möglich, Machbarkeit, höhere Taktraten (als reines FP32).
Okay, allerdings funktioniert diese Variante nur, wenn zufällig ein SM3.0 Quad - und nicht ein SM2.0 Quad kaputtgeht, sonst kannst du den verkauf als R420 vergessen.
Ist aber nur ein Gedankenspiel - ich denke nicht, daß irgendjemand so dreist sein würde.
Erscheint mir auch ziemlich unwarscheindlich, klar könnte man damit ein paar Transistoren sparen und ev. den Takt erhöhen, allerdings würden die Nachteile IMO deutlich überwiegen.
robbitop
2005-05-03, 13:28:10
Ich glaube nicht, dass NV4x für WGF2 herhalten muss. Dafür ist NV50 seit Jahren in der Entwicklung. NV4x ist ja praktisch eh nur eine Weiterentwicklung von CineFX. {Mit NV4x erreichte man, was man vor Jahren mit CineFX anstrebte (IMO).}
Ailuros
2005-05-03, 13:28:32
Okay, allerdings funktioniert diese Variante nur, wenn zufällig ein SM3.0 Quad - und nicht ein SM2.0 Quad kaputtgeht, sonst kannst du den verkauf als R420 vergessen.
Hehehe es wuerde dann eben einen quasi NV43 Konkurrenten geben; nur erscheint eben ein relevanter mainstream chip auf ATI's roadmap etwas spaeter als R520.
reunion
2005-05-03, 13:34:01
Naja man könnte sehr sehr viel von einem SM3 Chip auf WGF 2.0 übernehmen (nVidia braucht eigentlich nix zu machen hab ich das Gefühl ;) )
ATis WGF2.0-Chip (R600) baut AFAIK auf Xenon auf, der schon SM3 fähig ist, es macht also nicht wirklich Sinn, jetzt noch unmengen an Ressourcen in einen weiterentwickelten R300 zu stecken.
r3ptil3
2005-05-03, 13:36:12
Ich glaube nicht, dass NV4x für WGF2 herhalten muss. Dafür ist NV50 seit Jahren in der Entwicklung. NV4x ist ja praktisch eh nur eine Weiterentwicklung von CineFX. {Mit NV4x erreichte man, was man vor Jahren mit CineFX anstrebte (IMO).}
Das würde dann heissen das NV50 wahrscheinlich WGF2 kompatibel ist!?
robbitop
2005-05-03, 13:37:46
Das würde dann heissen das NV50 wahrscheinlich WGF2 kompatibel ist!?
Exakt. :)
Winter[Rabe]
2005-05-03, 13:40:36
Das würde dann heissen das NV50 wahrscheinlich WGF2 kompatibel ist!?
Das weiß man doch schon lange;), wieso sollte Nvidia diesen verschoben haben als Reaktion auf die Longhorn Verspätung...
Ailuros
2005-05-03, 13:41:18
Ich glaube nicht, dass NV4x für WGF2 herhalten muss. Dafür ist NV50 seit Jahren in der Entwicklung. NV4x ist ja praktisch eh nur eine Weiterentwicklung von CineFX. {Mit NV4x erreichte man, was man vor Jahren mit CineFX anstrebte (IMO).}
Es gab zu viele Aenderungen in den jeweiligen roadmaps, dank der Verschiebung von Longhorn/DX9.0L und DX10. Das originale CineFX Konzept bevor man der Verschiebung bewusst war, ging weiter als nur SM3.0.
Es gab in der weiteren Vergangenheit nicht nur Verspaetungen was Longhorn und das damit verbundene Zeug betrifft, sondern auch Verzoegerungen was die Festlegung von SM3.0 betrifft. Irgendwo ab Mitte 2002 war dann das Bild wohl schon klar und etwa so definiert wie heute.
Die Geruechte die dem Ur-R400 zugeteilt werden, sollten hier eine Anzeige sein.
reunion
2005-05-03, 13:42:21
Mal rein theoretisch auf das vorige aufbauend: angenommen ich hab 6 quads; 4 davon sind SM2.0_b max. und 2 davon SM3.0; logischerweise hab ich davon 6 quads die SM2.0_b Leistung auf neue hoehen treiben, aber mit SM3.0 im besten Fall einen quasi "NV43 on chip".
Eben, außerdem glaube ich nicht, dass man dadurch so viel Transistoren sparen kann, dass sich diese Maßnahme lohnen würde.
Durch 90nm sollte ATi nicht so extrem durch die Transistorenanzahl begrenzt sein.
robbitop
2005-05-03, 13:44:58
Es gab zu viele Aenderungen in den jeweiligen roadmaps, dank der Verschiebung von Longhorn/DX9.0L und DX10. Das originale CineFX Konzept bevor man der Verschiebung bewusst war, ging weiter als nur SM3.0.
Es gab in der weiteren Vergangenheit nicht nur Verspaetungen was Longhorn und das damit verbundene Zeug betrifft, sondern auch Verzoegerungen was die Festlegung von SM3.0 betrifft. Irgendwo ab Mitte 2002 war dann das Bild wohl schon klar und etwa so definiert wie heute.
Die Geruechte die dem Ur-R400 zugeteilt werden, sollten hier eine Anzeige sein.
Da gebe ich dir voll und ganz Recht. Bei beiden Designs (NV30/R400) blieb man scheinbar etwas von der Realität und der Entwicklung der jeweiligen DX Version und der Fertigungsgrenzen fern. Hast du darüber noch ein paar Informationen/rumors?
Ailuros
2005-05-03, 14:01:24
Da gebe ich dir voll und ganz Recht. Bei beiden Designs (NV30/R400) blieb man scheinbar etwas von der Realität und der Entwicklung der jeweiligen DX Version und der Fertigungsgrenzen fern. Hast du darüber noch ein paar Informationen/rumors?
Ich hab irgendwo ein altes ausgedrucktes e-mail herumliegen vom Mai 2003. Damals war das Zeug nach Angaben schon alles festgemauert; mehr oder weniger bestaetigte man mir damals dass Longhorn nur mit dx9.0L ankommen wird und DX10 spaeter, dass sich die SM3.0 Definierung verspaetet hatte (was wohl auch teilweise auf einen spaeteren als geplanten NV40-Release mitspielte) und dass das extreme multitasking des OS irgendwo vor dem ganzen Zeug dazukam (was wohl alle IHVs dazu getrieben hat ein paar Aenderungen in existierenden Konzepten reinzuschleussen).
Es war auch eins der Gruende warum ich NV40 nicht in 2003 damals erwartete. Spekulationen basieren ja meistens auf eine Sammlung von Anteilen an infos zu denen man hier und da mal kommt.
Mal das Ganze zur Seite; was mich jetzt interessieren wuerde ist das volle Featureset von DX10. Es soll ja wie DX9.0 ueber 4-5 Jahre aushalten und im letzteren sahen wir drei verschiedene Komplianz-stufen (SM2.0, SM2.0_extended, SM3.0). Da sich DX10 ueber 2 Generationen zumindest verbreiten wird, wuerde ich liebend gerne wissen, ob es verschiedene Einstufungen hat, wieviele und was jegliche genau beinhaltet. Ich bin halt neugierig :P
ShadowXX
2005-05-03, 14:04:23
Ich sehe das so und dies gilt nur für den Anfang der R420 Serie.
volle und hochtaktende R420 -> XT PE oder XT
voll funktionsfähige aber schlechter taktbare R420 -> X800RPO Vivo
defekte aber hoch taktende R420 -> X800PRO
dazu die X800SE für noch verwertbaren Reste
So hatte ATI für fast jeden halbwegs lauffähigen Chip einen Verwendung. Betrachtet man die anfängliche Verfügbarkeit der XTPE so gehe ich davon aus, dass nur wenige Chips diesen Level erreichten. Warum sonst hätte man z.B. die X800PRO Vivo bringen sollen ? Die NAchfrage nach der XT PE war da und man hätte mehr verdient.
Einen Raum für eine X800XL und X800 hat es nicht gegeben, weil diese Karten die X800PRo und die X800SE praktisch vom Markt verdrängt hätten. ATI hätte dort also keine Chips recyceln können.
Mit dem Wechsel auf 0,11 wurde ein solcher Chip plötzlich billiger prodzzierbar und der R480 scheint wesentlich weniger defekte Chips zu liefern. Die X850PRO hat ja fast keine Bedeutung.
Du hast aber eine kleine Sache dabei übersehen...die x800pro vivo wird auch nur ganz normal mit den Taktraten einer x800pro betrieben....
Also wäre auch mit den "anfänglichen" r420-Chips die jetzige Modellreihenfolge machbar gewesen...
volle und hochtaktende R420 -> XT PE oder XT
voll funktionsfähige aber schlechter taktbare R420 -> X800XL
defekte aber hoch taktende R420 -> X800PRO
dazu die X800SE für noch verwertbaren Reste
Nur eine einzige minimale Änderung....und wir haben das Bild von heute mit den Chips von damals.
ATI hätte dadurch sogar von anfang an einen breitere Produkpalette gehabt.
Jetzt ist nur die Frage, warum ATI, dies nicht so gemacht hat, sondern "sinnlos" funktionsfähige 16-Piper zu Pros degradiert hat anstatt Sie schon damals als XLs zu verkaufen.....
DrumDub
2005-05-03, 15:15:18
Jetzt ist nur die Frage, warum ATI, dies nicht so gemacht hat, sondern "sinnlos" funktionsfähige 16-Piper zu Pros degradiert hat anstatt Sie schon damals als XLs zu verkaufen..... du kannst keine x800pros mehr verkaufen, da der p/l-unterschied zu gering ist. selbst ne x800xt ist mit der x800xl eigentlich überflüssig geworden, was sich darin äußert, dass die x800xt jetzt für ca. 340 eur bekommst. so lange es diese konkurrenz nicht gab, lag die x800xt bei ca. 420-450 eur.
Sunrise
2005-05-03, 17:07:49
ATI hätte dadurch sogar von anfang an einen breitere Produkpalette gehabt.
Jetzt ist nur die Frage, warum ATI, dies nicht so gemacht hat, sondern "sinnlos" funktionsfähige 16-Piper zu Pros degradiert hat anstatt Sie schon damals als XLs zu verkaufen.....
Schau mal auf Seite 110 ;)
Quasar
2005-05-03, 19:25:59
NEIN!
Der R520 ist eine völlig NEUES Design!
Grüsse
Nein, Gast_mit_der_Großschreibungs_Neurose. Er ist mit Sicherheit kein völlig neues Design. :)
Ja aber wie genau stellst Du Dir den voll funktionsfaehigen theoretischen R520 vor, wenn er Einheiten mit X und Einheiten mit Y Faehigkeiten haben koennte? Es klingt mir eher nach einer verdammt performanten SM2.0_b Loesung (durch die sehr hohe Taktrate), aber eine ziemlich lahme SM3.0 Loesung (mal andere moegliche Huerden uebersehen).
Ich stelle mir (im Rahmen dieser Hypothese!) einen, wie du auch schon sagst, hochperformanten SM2.B-Chip vor, der SM3 als Alibi-Funktion integriert hat und diese auch in Hardware ausführen kann.
Okay, allerdings funktioniert diese Variante nur, wenn zufällig ein SM3.0 Quad - und nicht ein SM2.0 Quad kaputtgeht, sonst kannst du den verkauf als R420 vergessen. Erscheint mir auch ziemlich unwarscheindlich, klar könnte man damit ein paar Transistoren sparen und ev. den Takt erhöhen, allerdings würden die Nachteile IMO deutlich überwiegen.
Mit einem SM3.0-Quad, besonders mit diesem von mir erdachten, sollten sich alle SM2.B-Funktionen ebenso ausführen lassen.
Desweiteren bin ich mir nicht sicher, inwieweit der Sprung von FP24 auf FP32 nur "ein paar Transistoren" kostet und wie belastbar der 0.09µ-Prozess mit solchen hochkomplexen Designs bei TSMC ist.
reunion
2005-05-03, 19:48:04
Mit einem SM3.0-Quad, besonders mit diesem von mir erdachten, sollten sich alle SM2.B-Funktionen ebenso ausführen lassen.
Richtig, aber man würde den Chip wohl kaum "dekratieren" um ihn als R420 verkaufen zu können.
Desweiteren bin ich mir nicht sicher, inwieweit der Sprung von FP24 auf FP32 nur "ein paar Transistoren" kostet und wie belastbar der 0.09µ-Prozess mit solchen hochkomplexen Designs bei TSMC ist.
Natürlich gibt es da auch gewisse Genzen, aber ich denke ATi ist sich über die Bedeutung von SM3.0 im Jahr 2005 bewusst. Da sollte man dann doch besser woanders sparen.
Quasar
2005-05-03, 19:50:28
Richtig, aber man würde den Chip wohl kaum "dekratieren" um ihn als R420 verkaufen zu können.
Vielleicht möchte man mit dem R520 und SM3 zunächst High-End bedienen - für High-End Preise natürlich.
Natürlich gibt es da auch gewisse Genzen, aber ich denke ATi ist sich über die Bedeutung von SM3.0 im Jahr 2005 bewusst. Da sollte man dann doch besser woanders sparen.
Hehehe - wie sagten so viele doch so schön: SM3 braucht kein Mensch.
Also wenn der GS noch vorhanden ist und die physikalische Vereinigung der Shader-Einheiten Vorraussetzung sein sollte (?), dann sind das nicht gerade kleine Aenderungen im Vergleich zu NV4x.
physical = physisch
Es ist sehr sehr unwahrscheinlich, dass unified shaders Voraussetzung für WGF2.0 sind. Der API muss das eigentlich völlig egal sein.
Sunrise,
Seitenzahlen sind nur eine schlechte Ortsangabe in einem Forum mit einstellbarer Anzahl von Beiträgen pro Seite ;)
Demirug
2005-05-03, 22:02:16
physical = physisch
Es ist sehr sehr unwahrscheinlich, dass unified shaders Voraussetzung für WGF2.0 sind. Der API muss das eigentlich völlig egal sein.
In der letzten öffentlichen WGF Presentation stand es aber noch explizit als Forderung drin.
Aber es kommt ja vielleicht bald eine neue.
r3ptil3
2005-05-03, 22:31:50
Also die "Windows Grafik Grundlage" wird ja bei Longhorn vorrausgesetzt damit man alle neuen Effekte erleben kann. Ich habe mal gehört das der R520 WGF1.0 kompatibel sein wird, was so eine Art Notlösung sein soll!? Kann man damit (WGF1.0) auch alle Effekte in Longhorn sehen im Vergleich zu WGF2.0 oder bessergesagt was ist der Unterschied zwischen WGF1.0 und WGF2.0 bisauf das WGF1.0 Shader Model 3.0 und WGF2.0 Shader Model 4.0 unterstützt? (falls man das überhaupt schon wissen kann?)
dildo4u
2005-05-03, 22:35:26
Also die "Windows Grafik Grundlage" wird ja bei Longhorn vorrausgesetzt damit man alle neuen Effekte erleben kann. Ich habe mal gehört das der R520 WGF1.0 kompatibel sein wird, was so eine Art Notlösung sein soll!? Kann man damit (WGF1.0) auch alle Effekte in Longhorn sehen im Vergleich zu WGF2.0 oder bessergesagt was ist der Unterschied zwischen WGF1.0 und WGF2.0? (falls man das überhaupt schon wissen kann?)
WGF1= DX9.0C AFAIK
r3ptil3
2005-05-03, 22:36:39
WGF1= DX9.0C AFAIK
Aha und wie siehts damit in Longhorn aus? Wird man auf diverse Effekte verzichten müssen im Vergleich zu WGF2.0?
*edit: oh jede directx9 karte ist ja wgf1.0 kompatibel*
In der letzten öffentlichen WGF Presentation stand es aber noch explizit als Forderung drin.Könnte "unified" in dem Zusammenhang nicht auch bedeuten dass PS und VS die gleiche Funktionalität haben müssen?
r3ptil3
2005-05-03, 22:49:40
Könnte "unified" in dem Zusammenhang nicht auch bedeuten dass PS und VS die gleiche Funktionalität haben müssen?
Ja das habe ich ja auch mal hier in einem Thread erwähnt wegen PS und VS....
Ailuros
2005-05-04, 02:12:16
Könnte "unified" in dem Zusammenhang nicht auch bedeuten dass PS und VS die gleiche Funktionalität haben müssen?
Nicht auch? Wie anders koennte man eine Einheit bezeichnen die ueber PS und VS faehig ist, als "unified"? :confused:
seahawk
2005-05-04, 08:22:18
Nein, Gast_mit_der_Großschreibungs_Neurose. Er ist mit Sicherheit kein völlig neues Design. :)
Ich stelle mir (im Rahmen dieser Hypothese!) einen, wie du auch schon sagst, hochperformanten SM2.B-Chip vor, der SM3 als Alibi-Funktion integriert hat und diese auch in Hardware ausführen kann.
Mit einem SM3.0-Quad, besonders mit diesem von mir erdachten, sollten sich alle SM2.B-Funktionen ebenso ausführen lassen.
Desweiteren bin ich mir nicht sicher, inwieweit der Sprung von FP24 auf FP32 nur "ein paar Transistoren" kostet und wie belastbar der 0.09µ-Prozess mit solchen hochkomplexen Designs bei TSMC ist.
Das wäre aber eine Mogelpackung ...
Ich hab irgendwo ein altes ausgedrucktes e-mail herumliegen vom Mai 2003. Damals war das Zeug nach Angaben schon alles festgemauert; mehr oder weniger bestaetigte man mir damals dass Longhorn nur mit dx9.0L ankommen wird und DX10 spaeter, dass sich die SM3.0 Definierung verspaetet hatte (was wohl auch teilweise auf einen spaeteren als geplanten NV40-Release mitspielte) und dass das extreme multitasking des OS irgendwo vor dem ganzen Zeug dazukam (was wohl alle IHVs dazu getrieben hat ein paar Aenderungen in existierenden Konzepten reinzuschleussen).
Es war auch eins der Gruende warum ich NV40 nicht in 2003 damals erwartete. Spekulationen basieren ja meistens auf eine Sammlung von Anteilen an infos zu denen man hier und da mal kommt.
Mal das Ganze zur Seite; was mich jetzt interessieren wuerde ist das volle Featureset von DX10. Es soll ja wie DX9.0 ueber 4-5 Jahre aushalten und im letzteren sahen wir drei verschiedene Komplianz-stufen (SM2.0, SM2.0_extended, SM3.0). Da sich DX10 ueber 2 Generationen zumindest verbreiten wird, wuerde ich liebend gerne wissen, ob es verschiedene Einstufungen hat, wieviele und was jegliche genau beinhaltet. Ich bin halt neugierig :P
Hier gibt es ein paar aktuelle Infos zur Microsoft Longhorn Roadmap und den
DirectX-Komponenten: http://www.extremetech.com/article2/0,1558,1791702,00.asp
Ailuros
2005-05-04, 12:25:24
Hier gibt es ein paar aktuelle Infos zur Microsoft Longhorn Roadmap und den
DirectX-Komponenten: http://www.extremetech.com/article2/0,1558,1791702,00.asp
Zwar bin ich aeusserst dankbar fuer den Link auf so einen hochinteressanten Artikel, aber ausser mir ist beim durchlesen etwas entgangen hier steht nicht unbedingt was drin wie die DX10/WGF2.0 Spezifikationen ueber mehr als eine GPU-Generation skalieren werden.
Ich koennte zwar denken dass die Voraussetzungen fuer WGF2.0-Komplianz gleich hoch sind fuer die gesamte Lebenszeit des APIs, aber das klingt dann auch verdammt anstrengend fuer die IHVs; es waere dann eben so als haette man SM3.0 fuer DX9.0-Komplianz schon in 2002 vorrausgesetzt.
Ailuros
2005-05-04, 12:45:03
Er ist mit Sicherheit kein völlig neues Design. :)
Relativ gesehen sind die Aenderungen fuer eine SM3.0 pipeline ziemlich gross; ob man jetzt einen quad theoretisch implementiert oder 4 ist wohl egal was den Entwicklungs-Aufwand betrifft.
Es gibt ein paar Aenderungen (die wohl nicht die Welt an Unterschied machen werden) nach Geruechten die ueber die interne/externe Speicherverwaltung von R520 sprechen. Falls ich jetzt die diversen zwielichtigen hints auch richtig aufgeschnappt habe, sollte eins der Ziele sein externe Speicherzugriffe etwas zu reduzieren.
Es wird wohl nicht das erste Mal sein dass ich in die falsche Richtung spekuliere, aber nach allen Indizien sieht R520 nach einem 4 PS30 quad + 8 VS30 VS mit =/>650MHz Taktrate aus. Gigantische Unterschiede zu NV40 erwarte ich zwar nicht unbedingt, aber keiner ausser den ATI-engineers weiss momentan wofuer ein R520 quad/ROP/ALU oder was auch immer genau steht und ueber was jegliche Einheit genau faehig ist. Nehme ich jetzt an dass R520 stencil-relevante Optimierungen ala NV40 in ihren ROPs vorgenommen hat (was auch sehr viel Sinn machen wuerde), dann waere es ein weiterer Punkt nicht an marginale Aenderungen zur vorigen Generation zu denken.
Ich stelle mir (im Rahmen dieser Hypothese!) einen, wie du auch schon sagst, hochperformanten SM2.B-Chip vor, der SM3 als Alibi-Funktion integriert hat und diese auch in Hardware ausführen kann.
a. Siehe oben.
b. Nochmal Skalierungs-plaene von ATI was mainstream und spaeter budget betrifft.
Die Theorie stolpert eben gerade gegen die Tatsache dass ATI SM3.0 in kurzer Zeit auch in den mainstream Bereich skalieren will.
Sunrise
2005-05-04, 14:09:15
Sunrise,
Seitenzahlen sind nur eine schlechte Ortsangabe in einem Forum mit einstellbarer Anzahl von Beiträgen pro Seite ;)
Stimmt, "..aber irgendwas is ja immer" ;)
physical heißt übrigens nicht nur physisch, sondern auch technisch oder physikalisch - Ailuros "Verdeutschung" war schon richtig so. Dass er bei seinen Sätzen eher "Englisch" denkt, ist wohl unumstritten :)
Ailuros
2005-05-04, 15:17:53
physical heißt übrigens nicht nur physisch, sondern auch technisch oder physikalisch - Ailuros "Verdeutschung" war schon richtig so. Dass er bei seinen Sätzen eher "Englisch" denkt, ist wohl unumstritten :)
Mal total OT: als ich vor etlichen Jahren versuchte mein Englisch zu verbessern, hoerte ich oefters dass ich zu viel "verdeutsche" im Englischen. Im Vergleich zum griechischen sind die beiden Sprachen durchaus verwandt; der Neben-effekt ist leider schwer zu umgehen.
Es hilft aber hier sehr viel zu lesen und zu schreiben; mein Deutsch hat sich schon um einiges verbessert seit ich hier auf 3dcenter teilnehme. Es klemmt immer noch viel zu viel wenn ich mein Deutsch bei der Arbeit verwende und dass ich so stark aus der Uebung mit den Jahren gekommen bin, kann ich mir fast nicht verzeihen ;)
Quasar
2005-05-04, 15:45:20
b. Nochmal Skalierungs-plaene von ATI was mainstream und spaeter budget betrifft.
Die Theorie stolpert eben gerade gegen die Tatsache dass ATI SM3.0 in kurzer Zeit auch in den mainstream Bereich skalieren will.
Die Skalierung wäre dann ziemlich einfach - besonders, was das Einstiegssegment mit nur einem Quad betrifft. Je nach Ausschuss halt entweder ein separater Chip oder eben ein teildeaktiviertes Mid-Rang Ding - das könnte man dann, je nachdem, welches der beiden Quads nicht will, als X300 oder als neues Entry-Level Produkt verhökern.
Wenn beide Quads nicht wollen - naja, entweder auf den Müll oder als Geometrie-Coprozessor (falls die VS gehen) für OpenGL-Modelling.
Danke übrigens, daß du meine Hypothese zur Theorie erhebst ;)
Die Skalierung wäre dann ziemlich einfach - besonders, was das Einstiegssegment mit nur einem Quad betrifft. Je nach Ausschuss halt entweder ein separater Chip oder eben ein teildeaktiviertes Mid-Rang Ding - das könnte man dann, je nachdem, welches der beiden Quads nicht will, als X300 oder als neues Entry-Level Produkt verhökern.
Wenn beide Quads nicht wollen - naja, entweder auf den Müll oder als Geometrie-Coprozessor (falls die VS gehen) für OpenGL-Modelling.
wie kommst du zu so wilden spekulationen?
Quasar
2005-05-04, 15:57:38
wie kommst du zu so wilden spekulationen?
Wieso nicht? Wir sind hier im Spekulationsforum.
Im Mid-Range würde es aus Transistor-Gründen vielleicht nicht viel bringen, aber wer weiß, was bei ATi das SM3-Quad so kostet.
Ailuros
2005-05-04, 16:13:50
Die Skalierung wäre dann ziemlich einfach - besonders, was das Einstiegssegment mit nur einem Quad betrifft. Je nach Ausschuss halt entweder ein separater Chip oder eben ein teildeaktiviertes Mid-Rang Ding - das könnte man dann, je nachdem, welches der beiden Quads nicht will, als X300 oder als neues Entry-Level Produkt verhökern.
Wenn beide Quads nicht wollen - naja, entweder auf den Müll oder als Geometrie-Coprozessor (falls die VS gehen) für OpenGL-Modelling.
Danke übrigens, daß du meine Hypothese zur Theorie erhebst ;)
LOL@Theorie :D
Ich sag es mal anders, ich bleibe diesmal auf den originalen Geruechten stecken die ich ueber R520 hoerte, weil ich in der Vergangenheit viel zu oft irregefuehrt wurde (nie mit Absicht; denn vieles macht eben auch Sinn als Alternative).
In der Zwischenzeit hoerte ich von:
a) 24 SIMD Kanaelen wobei noch weitere 8 vorhanden sind, aber erst bei R580 freigeschaltet werden.
b) X+Y getrennte Einheiten und Z vereinte Einheiten (so in etwa 2/3 "R520" 1/3 "R500").
c) X SM2.0_b Einheiten + Y SM3.0 Einheiten
....und ich bin mir sicher dass ich noch irgendwas vergessen habe. Gehen wir mal von dem Punkt aus woher diese 3 "Alternativen" originieren koennten:
R520 wird noch Anteile von R3xx/R4xx haben und R500 einige Elemente von R600. Ja oder nein?
Wieso soll ich jetzt jeglicher exotischer Theorie glauben schenken wenn ein 4 quad/PS,VS30 R520 und ein SM3.0 - unified shader - R500 mehr Sinn macht und auch den originalen Geruechten zuspricht?
Natuerlich koennen wir alle falsch liegen, aber nach den neuesten Indizien wird es wohl Longhorn doch nicht Mitte 2006 schaffen und es ist auch noch nicht sicher ob die WGF2.0-GPUs mit Longhorn oder WGF2.0 erscheinen werden.
Das laesst unter Umstaenden genug Luftraum fuer ATI ihre SM3.0 Architektur auszuspielen und fuer 2006 werden sie wohl schwer mit einer maessigen SM3.0-Loesung fuer jedes Segment an den Ball kommen. Alles IMHO.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.