PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

reunion
2004-05-31, 20:54:49
In our recently published interview with ATI’s soon-to-be CEO, Dave Orton, he talked a fair amount about ATI’s roadmap, and one thing that becomes clear is that its probably a little more fluid than you might think.

As mentioned in the interview, not long after R300’s release ATI were making comments of a significantly different architecture in the form of R400; however, as Dave confirmed they shifted the roadmap which meant that R400 would not come out when initially scheduled, but in its place the “R300 on steroids” R420 turned up in its place. Subsequently Microsoft announced that ATI would be providing “technology for future XBox products” and reports surfaced that the design would be based on a design from ATI’s Marlborough team, a.k.a. R500, hence the expectation was that this would be ATI’s next product, sharing a platform for both the PC and the next XBox.

In our interview with Dave he details that Marlbough are indeed currently tied up with the XBox project, however makes note that the R500 class products are being produced in the Valley, or from the same team that produced R300 (and R420). This being the case it would mark another shift in the roadmap as it would seem that R500 is not the product destined for the XBox design; indeed this being the case it may be logical to assume that the first high end product based on R500 technology from the Valley would be R520. Dave also states that they didn’t feel Shader Model 3.0 was right for R420 due to the die size that it would require and 90nm processes aren’t really available until '05. Considering 90nm will be the next high performance process from TSMC, for a high end product to achieve both performance at not too large a die size, an obvious concern for ATI, then you can draw that R500 may be targeted for 90nm and would also feature Shader Model 3.0. TSMC presented at ATI’s recent Technology Seminar and we quizzed when they expected to see shipping 90nm products produced at TSMC and their reply was “In the first half of 2005”.

Given the comments over “clean sheet design” and “targeted design” we suspect that R500 fits in here as well, and given that R500 is developed in the Valley it could be the case that its platform basis is derived from the R300 structure, with elements significantly redesigned for the newer shader model. However, given the comments of a unified shader structure in an erroneously placed presentation by ATI, we suspect that there is at least one more clean sheet design to come from ATI – this design may be derived from the original R400 project and could be targeted for DirectX Next, which has the same functional specification for Vertex and Pixel Shaders. This would make sense as the R400 design initially stemmed from the Marlborough team and they are working on the upcoming XBox technologies.

While some of this may hit the spot as of this moment in time, one thing that does appear to be the case is that we probably haven’t seen the entire depth of ATI’s engineering resources for desktop graphics and they are not afraid to make changes if needs be. Some of the elements talked of here may be the case now, but further changes could well occur before you see any of these hit retail.


http://www.beyond3d.com/forum/viewtopic.php?t=12174

Auf der Startseite hier nochmals der Hinweis:

The Digitmes report also makes note that ATI are gearing up for the tape-out of their next generation parts later this year. They say that these will be based on the 90nm process, with production ramping in early 2005, which is somewhat fitting with our expectations based on our conversations with Dave Orton.

mfg
reu

Winter[Raven]
2004-05-31, 20:59:34
Dann können wir Shader 4.0 Support vergessen beim R500, ob das 0.90µ Verfahren schon ausgereift sein wird, zum Jahresende bzw. Anfang 2005 bezweifle ich mal ganz stark, nicht das ATI das selbe passiert wie NV mit dem NV30.

//EDIT:

Auch wenn ich Nvidia Fan bin, so wünsch ich mir trotzdem Konkurrenz, keiner will 1000€ für eine Grafikkrate zahlen.

Nur sieht es so aus als würde Ati jetzt etwas mit dem R500 hetzen.

reunion
2004-05-31, 21:06:19
Original geschrieben von Winter[Raven]
Dann können wir Shader 4.0 Support vergessen beim R500, ob das 0.90µ Verfahren schon ausgereift sein wird, zum Jahresende bzw. Anfang 2005 bezweifle ich mal ganz stark, nicht das ATI das selbe passiert wie NV mit dem NV30.

Ja, das bezweifle ich auch etwas, man wird sehn. Bis jetzt hat man ja einen neuen Fertigungsprozess immer zuerst bei den kleineren Chips ausprobiert, jetzt einfach 90nm lowk für den r520 mit vermutlich über 200mio Transistoren zu verwenden wo selbst Intel noch probleme mit diesem hat finde ich doch ziemlich gefählich...

Allerdings bleibt damit der r420 wirklich nur eine absolute Notlösung die zum glück nicht lange am Markt sein wird. Und das ATI mit dieser Notlösung überhaupt konkurrenzfähig ist ist auch ziemlich beeindruckend...

Gast
2004-05-31, 21:13:32
Wenn das passiert dann ist das die größte Verarsche die ich je gesehn hab!!!!!!
Ich wette sowas hat sich dann ATI zum letzten Mal geleistet ganz bestimmt!

reunion
2004-05-31, 21:15:08
Original geschrieben von Gast
Wenn das passiert dann ist das die größte Verarsche die ich je gesehn hab!!!!!!
Ich wette sowas hat sich dann ATI zum letzten Mal geleistet ganz bestimmt!

Wenn der R520 besser ist als die Konkurrenz, dann wird man ihn auch kaufen, so einfach ist das...

Winter[Raven]
2004-05-31, 21:20:21
Ich weiß das R300 Design ist nicht 3.0 Freundlich, aber bei dem Interview bekomme ich einfach das gefühl nicht weg der R520 wird mal wieder ein Refresh, aka R300+3.0+0.90µ.

Die wirklich neue Architektur kommt dann mit der offiziellen veröffentlichung von Longhorn und DX NextG.

@ reunion

Ansichtssache, ich sehe nichts darin beindruckendes mit einem Chip aufzukreuzen, der nur einer wirklichen Neuerung besitzt! Ich empfinde es schon als eine der größten Frechheiten den anderen die Dreckarbeit machenzulassen und sich dann zeigen wenn alles vorbei ist!

ATI Politik :down:

Wenn der R520 besser ist als die Konkurrenz, dann wird man ihn auch kaufen, so einfach ist das...

Das werden wir sehn ;) Wenn der NV50 wieder als Techologiefortschrittlicher sich erweißt wäre ich mir nicht so sicher!

Als Beispiel nehmen wir den R420 vs NV40. Wir werdne ja sehn wer diese Runde gewinnen wird, ATi mit ihrem Steinzeit Chip der ab und zu etwas schneller ist, oder ein Modernerchip der ehe mit Features glänzt.

seahawk
2004-05-31, 21:51:54
Hmm, irgendwie kann das alles und nichts bedeuten.

Der nächste Chip wird also 3.0 Shader haben. Könnte aber auch schon 4.0 sein, weil 4.0 > 3.0.

Ich denke es sagt uns sehr wenig.

Winter[Raven]
2004-05-31, 21:54:42
Original geschrieben von seahawk
Hmm, irgendwie kann das alles und nichts bedeuten.

Der nächste Chip wird also 3.0 Shader haben. Könnte aber auch schon 4.0 sein, weil 4.0 > 3.0.

Ich denke es sagt uns sehr wenig.

Nicht unbedingt, wenn der Chip seinen Tapeout im Winter haben soll, müssen die Specs jetzt aber schon sicher stehen, und da es unbekannt ist wann DX-NextGegenation kommen soll (man munkelt Ende 2005 oder 2006) sehe ich keine Chance für 4.0 Support.

Demirug
2004-05-31, 22:02:37
Die Hardwarespec für WGF (so heist DX-Next jetzt) ist ja angeblich schon sehr genau festgelegt.

ShadowXX
2004-05-31, 22:08:07
Je früher der Chip kommen soll, desto unwahrschinlicher hat er SM4.0.

Davon abgesehen...bis jetzt habe ich noch nichts davon gehört, dass M$ ihre Tatik bezüglich DX-Next ändern will...es soll also immer noch mit Longhorn kommen.

Und dann könnte ATI mit einem SM4.0 Chips (lange) vor Longhorn sowieso nichts anfangen, da kein DX dafür da....

betasilie
2004-05-31, 22:12:19
Ich denke auch, dass der R500 anfangs kein DX-Next Siegel haben wird, aber das heißt nicht, dass er nicht SM4.0 beherrscht. ;)

Ich tippe aber auch eher auf einen SM3.0 Chip, wobei man aber wirklich abwarten muss, denn ATI wird den X-BoxII Deal nicht alleine wegen der X-BoxII gemacht haben. Irgendeine ATI PC-GPU (R500/R600) wird von diesem Deal profitieren, und auch wenn es unwahrscheinlich erscheint, kann es imho durchaus sein, dass der R500 SM4.0 beherrscht.

UNd dass der R500 in der ersten Jahreshälfte 2005 kommt, war ja auch schon vorher klar, wenn auch nicht offiziell.

betasilie
2004-05-31, 22:16:58
Original geschrieben von Demirug
Die Hardwarespec für WGF (so heist DX-Next jetzt) ist ja angeblich schon sehr genau festgelegt.
Aber WGF wird doch nicht der Name sein unter der die API vermarktet wird. :gruebel: Weiß meinst Du?

Winter[Raven]
2004-05-31, 22:26:31
Ich denke auch, dass der R500 anfangs kein DX-Next Siegel haben wird, aber das heißt nicht, dass er nicht SM4.0 beherrscht.

Du meinst so wie ATi in der Vergangenheit Tranistoren gespart hat, werden ie etwas einbauen was ehe erst irgendwnn funktioniert?

Die Hardwarespec für WGF (so heist DX-Next jetzt) ist ja angeblich schon sehr genau festgelegt.

Wenn, dann sicherlich erst seit Kurzem, ob ATI dies auch zu implementieren schafft, seih mal dahin gestellt.

Demirug
2004-05-31, 22:27:16
Original geschrieben von betareverse
Aber WGF wird doch nicht der Name sein unter der die API vermarktet wird. :gruebel: Weiß meinst Du?

Doch die Grafik-API von Longhorn wird "Windows Graphics Foundation" heisen. Für XP gibt es nach DX9 nichts mehr.

betasilie
2004-05-31, 22:37:29
Original geschrieben von Demirug
Doch die Grafik-API von Longhorn wird "Windows Graphics Foundation" heisen. Für XP gibt es nach DX9 nichts mehr.
Aha. Das lässt sich aber nicht gut vermarkten. Wahrscheinlich will M$ das "X" alleine für den Konsolenbereich haben.

betasilie
2004-05-31, 22:40:54
Original geschrieben von Winter[Raven]
Du meinst so wie ATi in der Vergangenheit Tranistoren gespart hat, werden ie etwas einbauen was ehe erst irgendwnn funktioniert?

Du soltest wissen, dass SM4.0 und SM3.0 konzeptionell nahe beisammen sind, daher wäre ein SM4.0 Chip nicht unbedingt von Nachteil für ATI.

Original geschrieben von Winter[Raven]
Wenn, dann sicherlich erst seit Kurzem, ob ATI dies auch zu implementieren schafft, seih mal dahin gestellt.
WGL wird von M$ und ATI entwickelt. Daher wird ATI wohl wissen, wie es in Silzium zu ätzen ist. :freak:

Quasar
2004-05-31, 22:45:05
Das wusste ATi auch beim SM3.0 seit Ende 2002 allerschlimmstenfalls.

betasilie
2004-05-31, 22:48:50
Original geschrieben von Quasar
Das wusste ATi auch beim SM3.0 seit Ende 2002 allerschlimmstenfalls.
Nun, wir haben erst neulich diskutiert, dass ATI durchaus aus taktisch- marktwirtschaltichen Gründen den R420 gebracht hat und nicht aus Unvermögen.

Afair hast Du das auch für möglich gehalten. :gruebel:

Imho werden vor dem R500 Release in 1.H. 2005 sowieso keine Spiele kommen, wo SM3.0 wirklich Vorteile bringt. ;)

LovesuckZ
2004-05-31, 22:51:13
Original geschrieben von betareverse
Nun, wir haben erst neulich diskutiert, dass ATI durchaus aus taktisch- marktwirtschaltichen Gründen den R420 gebracht hat und nicht aus Unvermögen.


Und warum sollten sich die "taktisch- marktwirtschaltichen Gründe" beim r520 aendern?


Imho werden vor dem R500 Release in 1.H. 2005 sowieso keine Spiele kommen, wo SM3.0 wirklich Vorteile bringt

Umso besser. Dann brauchen wir ja auch kein SM4.0, weil ja nichtmal das SM3.0 angewendet wird X-D!

StefanV
2004-05-31, 22:54:52
Original geschrieben von seahawk
Hmm, irgendwie kann das alles und nichts bedeuten.

Der nächste Chip wird also 3.0 Shader haben. Könnte aber auch schon 4.0 sein, weil 4.0 > 3.0.

Ich denke es sagt uns sehr wenig.

Nicht unbedingt...

Zumindest könnte der R500 aber schon Unified Shader haben und noch einen Teil der WGF Specs, mit viel Glück auch alles, da heißts abwarten und Tee rauchen...

Winter[Raven]
2004-05-31, 22:56:42
Original geschrieben von LovesuckZ

Und warum sollten sich die "taktisch- marktwirtschaltichen Gründe" beim r520 aendern?

Umso besser. Dann brauchen wir ja auch kein SM4.0, weil ja nichtmal das SM3.0 angewendet wird X-D!

Jup, die Logik von betareverse verstehe ich auch ned.

betasilie
2004-05-31, 22:56:43
Original geschrieben von LovesuckZ
Und warum sollten sich die "taktisch- marktwirtschaltichen Gründen" beim r520 aendern?
Weil die R3xx/4xx Architektur wohl irgendwann 2005 an ihre Grenzen stößt.

Der R420 schlägt sich jedenfalls z.Zt. blendend gegen den NV40 und fährt sicherlich guten Gewinn ein, da relativ wenig Ausgaben in der Entwicklung angefallen sind und unnötige Transistoren gespart wurden.

Die gesparten Recourcen bei der R420 Entwicklung werden dem R500 sicherlich zu gute kommen und ich wette drauf, dass der R500 so einschlagen wird, wie einst der R300.

betasilie
2004-05-31, 22:57:38
Original geschrieben von Winter[Raven]
Jup, die Logik von betareverse verstehe ich auch ned.
Wie auch? :spock:

Börk
2004-05-31, 22:58:41
Original geschrieben von Winter[Raven]
Du meinst so wie ATi in der Vergangenheit Tranistoren gespart hat, werden ie etwas einbauen was ehe erst irgendwnn funktioniert?

Kann ich mir durchaus vorstellen. War beim r300 auch nicht anders.
Desweiteren heisst SM4.0 nicht unbedingt ein Anwachsen des Transisitorcounts. Dadurch dass es eben Unified Shader gibt brauch man nicht mehr so viele Shader Units wie zuvor um die gleiche Leistung zu erzielen.
Allerdings weiss ich nicht um wieviel größer die SM 4.0 Units im vergleich zu den PS/VS 3.0 sind, vielleicht weiss da jemand mehr...

Gruß,
Börk

LovesuckZ
2004-05-31, 23:02:34
Original geschrieben von betareverse
Weil die R3xx/4xx Architektur wohl irgendwann 2005 an ihre Grenzen stößt.

Aus "taktisch- marktwirtschaltichen Gründen" waere doch die "R3xx/4xx Architektur" auch im Jahre 2005 "blendend gegen[über] [der Konkurenz]", wenn man nur auf den Speed setzen würde. Ich sehe also nicht, warum ATi beim r520 etwas aendern sollte. Die Leute schreien doch nur nach dem Speed, SM2.0 und AA. Also warum Ressourcen in Dinge wie SM3.0/4.0 setzen? Und da man laut einigen "sowieso alles mit dem SM2.0 erledigen kann", muss man wohl beten, dass ATi wirklich die Designentscheidung pro SM3.0/4.0 legen werde.

Der R420 schlägt sich jedenfalls z.Zt. blendend gegen den NV40 und fährt sicherlich guten Gewinn ein, da relativ wenig Ausgaben in der Entwicklung angefallen sind und unnötige Transistoren gespart wurden.

Speed, Speed, Speed. Der einzige Grund zur r4xx Serie zu greifen.
Du dürfst bei den Kosten LowK nicht vernachlaessigen. Die Fertigung wird dadurch verteuert.

Die gesparten Recourcen bei der R420 Entwicklung werden dem R500 sicherlich zu gute kommen und ich wette drauf, dass der R500 so einschlagen wird, wie der R300.

Dem R300 kam die Vorarbeit des R200 zu gute, dies haben wir jetzt nicht. Der r520 kann genauso "schlecht" wie der r200 im Vergleich zur Konkurenz werden.

CrazyIvan
2004-05-31, 23:15:00
Original geschrieben von Demirug
Doch die Grafik-API von Longhorn wird "Windows Graphics Foundation" heisen. Für XP gibt es nach DX9 nichts mehr.

Weisst Du auch, wie dann der Rest von Direct X heißen wird? Windows Sound Foundation klingt für mich eher nach asiatischer Rockband ;)

betasilie
2004-05-31, 23:16:10
Original geschrieben von LovesuckZ
Aus "taktisch- marktwirtschaltichen Gründen" waere doch die "R3xx/4xx Architektur" auch im Jahre 2005 "blendend gegen [der Konkurenz]", wenn man nur auf den Speed setzen würde. Ich sehe also nicht, warum ATi beim r520 etwas aendern sollte. Die Leute schreien doch nur nach dem Speed, SM2.0 und AA. Also warum Ressourcen in Dinge wie SM3.0/4.0 setzen?
Nun, jetzt willst Du mir einen Strick wickeln, weil ich SM3.0 beim NV40 nicht allzu wichtig finde. Auf diese billige Polemik gehe ich daher nicht ein, auch wenn genrell ich durchaus bereit bin darüber zu diskutieren.

Original geschrieben von LovesuckZ
Speed, Speed, Speed. Der einzige Grund zur r4xx Serie zur greifen.

Genau. Und für 2004 und 2005 vom Featureset voll auf der Höhe des Geschehens was die Spiele angeht.

Original geschrieben von LovesuckZ
Du dürfst bei den Kosten LowK nicht vernachlaessigen. Die Fertigung wird dadurch verteuert.
Um wieviel? Ich gehe davon aus, dass der R420 ATI um einiges günstiger kommt, als NV der NV40.

Original geschrieben von LovesuckZ
Dem R300 kam die Vorarbeit des R200 zu gute, dies haben wir jetzt nicht. Der r520 kann genauso "schlecht" wie der r200 im Vergleich zur Konkurenz werden.
Da hättest Du wohl gerne. - Ich geh vom Gegenteil aus. ... Da müssen wir wohl abwarten, bevor wir Gewissheit haben.

Da Du aber immer NV Produkte favorisierst, spricht das nicht für dein objektives, oder besser neutrales, Einschätzungvermögen. :)

Quasar
2004-05-31, 23:30:36
Original geschrieben von betareverse
Nun, wir haben erst neulich diskutiert, dass ATI durchaus aus taktisch- marktwirtschaltichen Gründen den R420 gebracht hat und nicht aus Unvermögen.

Afair hast Du das auch für möglich gehalten. :gruebel:

Ich habe in dem Zusammenhang lediglich D.Orton wiedergegeben: "There’s the trade-off of performance and die size. The answer is yes we could – the die size would have been fairly large to the point where we weren’t sure how produce-able it would be in 130nm and we didn’t think that 90nm was really going to be there for ’04 production."
(bezogen auf einen SM3.0-Chip)

Von daher hat sich die Situation beim SM4.0-Chip nicht gravierend geändert im Vergleich zum SM3.0-Chip - ATi wußte und weiß lang im Voraus, was für Herausforderungen in Sachen Design auf sie zukommen würden.

Wieso sollte ihnen da jetzt die Zusammenarbeit mit MS in Bezug auf WGF zum Vorteil gereichen?

Quasar
2004-05-31, 23:35:42
Original geschrieben von betareverse
Genau. Und für 2004 und 2005 vom Featureset voll auf der Höhe des Geschehens was die Spiele angeht.
Und der R520 kommt dann mit einer 4:1-Geometrie-Kompression, 4Bit-LOD-Fraction, nur noch eine reinen Bi-TMU pro Pipe aber mit 32 Pipelines und 750MHz - und ist damit auch 2005/2006 voll auf der Höhe der Zeit. SM4.0-Games wird's zu dem Zeitpunkt ja noch nicht geben (und 3.0 wurde ja schon zugunsten von 4.0 übersprungen?)

Original geschrieben von betareverse
Um wieviel? Ich gehe davon aus, dass der R420 ATI um einiges günstiger kommt, als NV der NV40.

Auf welcher Basis gehst du davon aus?

betasilie
2004-05-31, 23:36:12
Original geschrieben von Quasar
Wieso sollte ihnen da jetzt die Zusammenarbeit mit MS in Bezug auf WGF zum Vorteil gereichen?
Nun, weil ATI die X-BoxII entwickelt, oder zumindest den Chipsatz und die GPU.

Dementsprechend wird ATI auch WGF maßgeblich prägen und auch früher als die Konkurrenz die genauen Specs wissen, was sicherlich ein enormer Vorteil ist.

Quasar
2004-05-31, 23:38:48
Na, wenn du davon überzeugt bist... :)
Natürlich wird sich M$ einen möglichst starken Quasi-Monopolisten heranzüchten wollen - mit solchen kann man, wie das nV-Beispiel zeigte, ja besonders gut in Bezug auf die weitere Zusammenarbeit verhandeln. ;)

betasilie
2004-05-31, 23:43:39
Original geschrieben von Quasar
Und der R520 kommt dann mit einer 4:1-Geometrie-Kompression, 4Bit-LOD-Fraction, nur noch eine reinen Bi-TMU pro Pipe aber mit 32 Pipelines und 750MHz - und ist damit auch 2005/2006 voll auf der Höhe der Zeit. SM4.0-Games wird's zu dem Zeitpunkt ja noch nicht geben (und 3.0 wurde ja schon zugunsten von 4.0 übersprungen?)

Doch eher unwahrscheinlich. ;)
Ich habe nie gesagt, dass ich von ATI keine SM3.0 GPu sehen will, ebensowenig, dass ATI keine SM3.0 GPU bringt.

Original geschrieben von Quasar
Auf welcher Basis gehst du davon aus?
Das habe ich gehört. Also durchaus als reine Spekulation zu bezeichnen. ... Imo ist es aber ziemlich weit hergeholt, das Gegenteil anzunehmen.

betasilie
2004-05-31, 23:46:21
Original geschrieben von Quasar
Na, wenn du davon überzeugt bist... :)
Natürlich wird sich M$ einen möglichst starken Quasi-Monopolisten heranzüchten wollen - mit solchen kann man, wie das nV-Beispiel zeigte, ja besonders gut in Bezug auf die weitere Zusammenarbeit verhandeln. ;)
Wir wissen nicht was für geheime Pläne M$ und ATi verfolgen. :ratlos:

Dass diese Freundschaft lange hält, bezweifel ich allerdings auch, oder die beiden haben wirklich geimeinsame Langzeitpläne.
Jedenfalls wird ATI sicherlich von dieser Cooperation beim R500, oder spätestens beim R600, profitieren.

seahawk
2004-06-01, 08:10:34
Für mich ist nach dieser Meldung alles denkbar.

Ein R520 kann ein R420 mit angehängter 3.0 Fähigkeit sein.
Ein R520 kann ein unified Shader Chip sein.
Ein R520 kann irgendetwas dazwischen sein.

seahawk
2004-06-01, 08:13:07
Original geschrieben von betareverse
Wir wissen nicht was für geheime Pläne M$ und ATi verfolgen. :ratlos:

Dass diese Freundschaft lange hält, bezweifel ich allerdings auch, oder die beiden haben wirklich geimeinsame Langzeitpläne.
Jedenfalls wird ATI sicherlich von dieser Cooperation beim R500, oder spätestens beim R600, profitieren.

Oder auch nicht, weil das XBOX Engagement wertvolle Resourcen bindet, ide sonst bei der Entwicklung fehlen.

M$ ist als Partner wirklich mit Vorsicht zu nehmen, die achten kaum auf den Vorteil des Partners. Und je wichtiger der XBOX Deal für ATI wird, desto besser für M$. Wichtiger wird der XBOX-Deal allerdings nur, wenn ATI im normalen Markt Probleme kriegt.

ShadowXX
2004-06-01, 08:23:31
Original geschrieben von seahawk
Für mich ist nach dieser Meldung alles denkbar.

Ein R520 kann ein R420 mit angehängter 3.0 Fähigkeit sein.
Ein R520 kann ein unified Shader Chip sein.
Ein R520 kann irgendetwas dazwischen sein.

Von der reinen Namenstopologie her würde ich leider auf den Worst-Case schliessen.....r520=r420 mit angehängtem PS3.0 (als weiteren "Übergangschip" des inzwischen zum r600 mutierten r400)

Sphinx
2004-06-01, 08:44:35
Ich denke mal das der R520 (Wenn es denn die Bezeichnung des GPU´s sein soll der dem des X-Box2 Grafikchips ähnelt) wird im großen und ganzen bestimmt keine R420 SpeedPump Version werden.

Den Einsatz von PS3.0 bezweifel ich - da man hier Direkt auf PS4.0 setzen wird.

Der Vorteil des X-Box2 ähnlichen Chips für den PC Markt ist allzu bekannt da man hier parallelen schaffen möchte.

Spiele die in Entwicklung sind für die X-Box2 werden mit wenigen Modifikationen auch umgekehrt für den PC zur Verfügung stehen - dafür wurde von Microsoft mit XNA dieser Weg vorbereitet - um dieser Kluft Konsole - PC zu verkleinern und damit die Entwicklungszeiten für Spieleentwickler...

Die Technologie kommt von ATI den zugehörigen X-Box2 Chip wird MS fertigen lassen (Nach letztem Wissensstand)...

seahawk
2004-06-01, 09:42:41
Original geschrieben von Sphinx
Ich denke mal das der R520 (Wenn es denn die Bezeichnung des GPU´s sein soll der dem des X-Box2 Grafikchips ähnelt) wird im großen und ganzen bestimmt keine R420 SpeedPump Version werden.

Den Einsatz von PS3.0 bezweifel ich - da man hier Direkt auf PS4.0 setzen wird.

Der Vorteil des X-Box2 ähnlichen Chips für den PC Markt ist allzu bekannt da man hier parallelen schaffen möchte.

Spiele die in Entwicklung sind für die X-Box2 werden mit wenigen Modifikationen auch umgekehrt für den PC zur Verfügung stehen - dafür wurde von Microsoft mit XNA dieser Weg vorbereitet - um dieser Kluft Konsole - PC zu verkleinern und damit die Entwicklungszeiten für Spieleentwickler...

Die Technologie kommt von ATI den zugehörigen X-Box2 Chip wird MS fertigen lassen (Nach letztem Wissensstand)...

Wann komtm die XBOX2 ??

ISt es gut für MS, wenn es zu diesem Zeitpunkt schon einen Chip für den PC gibt der die gleichen Fähigkeiten hat ?? Ich denke nicht.

LovesuckZ
2004-06-01, 11:12:50
Original geschrieben von betareverse
Nun, jetzt willst Du mir einen Strick wickeln, weil ich SM3.0 beim NV40 nicht allzu wichtig finde. Auf diese billige Polemik gehe ich daher nicht ein, auch wenn genrell ich durchaus bereit bin darüber zu diskutieren.

Dann erklaere, warum SM4.0 naechstes Jahr wichtiger waere als das SM3.0 heute unter der Vorraussetzung, dass es kein Spiel gaebe, welches davon profitiere und die "taktisch- marktwirtschaltichen Gründe" sich ja nicht veraendern.

Genau. Und für 2004 und 2005 vom Featureset voll auf der Höhe des Geschehens was die Spiele angeht.

"was die Spiele angeht", bedeutet auch, dass eine GF4 technologisch "auf der Höhe des Geschehens" waere, da 90%+ aller Spiele keine PS/VS2.0 verwenden.
ATi verzoegert die Entwicklung von Spielen mit ihrem "Steinzeitchip" nicht nur bezueglich des SM3.0 sondern auch bei der Benutzung von HDR Lighting (oder "MDR" wie es aths nennt), da sie kein FP - Blending unterstuetzen.

Da hättest Du wohl gerne. - Ich geh vom Gegenteil aus. ... Da müssen wir wohl abwarten, bevor wir Gewissheit haben.
Da Du aber immer NV Produkte favorisierst, spricht das nicht für dein objektives, oder besser neutrales, Einschätzungvermögen. :)

ATi hat mit dem r420 bewiesen, dass sie ohne Vorarbeit nicht in der Lage waren ein SM3.0 faehiges Design zu entwickeln und zu produzieren. Natuerlich werden sie die Ergebnisse aus der Entwickeln des r400 mit in den r520 einfließen lassen.
Den zweiten teil kannst du dir sparen. Denn im Gegensatz zu andere bezeichne ich mich nicht als "neutral"...

reunion
2004-06-01, 11:26:01
Original geschrieben von Winter[Raven]
Du meinst so wie ATi in der Vergangenheit Tranistoren gespart hat, werden ie etwas einbauen was ehe erst irgendwnn funktioniert?


Wann hat ATI Transistoren gespart?
R100 und R200 hatten AFAIK jeweils mehr Transistoren als die Konkurrenz und waren technologisch auch weiter entwickelt. Bei R300 hat man Transistoren gespart, ja, kein wunder bei über 100mio Transitoren und den alten 150nm Fertigungsprozess. Das war imo schon an der grenze des machbaren. Der r420 ist nichts weiter als ein doppelter R300, hat also logischerweise dieselben einschränkungen wie dieser. Doch daraus jetzt zu schließen das man beim in 90nm lowk gefertigten R520 auch überall wos nur geht Transistoren spart halte ich für die falsche Schlussfolgerung...

Winter[Raven]
2004-06-01, 11:27:08
ATi verzoegert die Entwickler von Spielen mit ihrem "Steinzeitchip"

Tjö, die Politik die ATI seit einer Weile verfolgt ist echt daneben :down:

ATI spricht von sich selbst als Gamercompany, und ihre Chips sind die schnellsten und die besten für die Gamer, nur sollte eine Firma die sich Gamercompany nennt nicht auch für die Weiterentwicklung der Spielgrafik zuständig sein, in dem sie die Dev's mit den neusten und tollsten Spielerein unterstützen?

Das was ATI macht ist NV die Drecksarbeit machen lassen, die HW-Entwerfen, die Dev's unterstützen damit diese für die nächsten Jahre 3.0-4.0 bringen können. Man präsentiert Refreshes bis die Dev's umgestiegen sind und dann nützt man auch die Features.

Sowas ist echt Affig!

Den zweiten teil kannst du dir sparen. Denn im Gegensatz zu andere bezeichne ich mich nicht als "neutral"...

Je mehr man es abstreitet und leugnet desto mehr ist man Fanboy.

reunion
2004-06-01, 11:27:37
[B]Original geschrieben von Winter[Raven]
Wenn, dann sicherlich erst seit Kurzem, ob ATI dies auch zu implementieren schafft, seih mal dahin gestellt.

Hast du schonmal daran gedacht das SM4.0 vielleicht genau auf den R520 aufbaut?
Denn die Garfikchiphersteller bestimmen die Features, M$ verpackt diese nur in eine Schnittstelle...

reunion
2004-06-01, 11:33:20
Original geschrieben von Winter[Raven]
Tjö, die Politik die ATI seit einer Weile verfolgt ist echt daneben :down:

ATI spricht von sich selbst als Gamercompany, und ihre Chips sind die schnellsten und die besten für die Gamer, nur sollte eine Firma die sich Gamercompany nennt nicht auch für die Weiterentwicklung der Spielgrafik zuständig sein, in dem sie die Dev's mit den neusten und tollsten Spielerein unterstützen?

Das was ATI macht ist NV die Drecksarbeit machen lassen, die HW-Entwerfen, die Dev's unterstützen damit diese für die nächsten Jahre 3.0-4.0 bringen können. Man präsentiert Refreshes bis die Dev's umgestiegen sind und dann nützt man auch die Features.

Sowas ist echt Affig!

Und wie lange war es umgekehrt?
ATI hat sicherlich nicht freiwillig auf SM3.0 verzichtet, es war schlicht und einfach nicht möglich in so kurzer Zeit SM3.0 in den R300 "hineizupacken". Und da der R400 ja eine fehlkonstruktion war blieb eben bichts anderes über als bei SM2.0 zu bleiben...

seahawk
2004-06-01, 11:34:34
Original geschrieben von reunion
Hast du schonmal daran gedacht das SM4.0 vielleicht genau auf den R520 aufbaut?
Denn die Garfikchiphersteller bestimmen die Features, M$ verpackt diese nur in eine Schnittstelle...

Das glaube ich nun eher nicht.

[dzp]Viper
2004-06-01, 11:35:03
Original geschrieben von Winter[Raven]
Tjö, die Politik die ATI seit einer Weile verfolgt ist echt daneben :down:

ATI spricht von sich selbst als Gamercompany, und ihre Chips sind die schnellsten und die besten für die Gamer, nur sollte eine Firma die sich Gamercompany nennt nicht auch für die Weiterentwicklung der Spielgrafik zuständig sein, in dem sie die Dev's mit den neusten und tollsten Spielerein unterstützen?

Das was ATI macht ist NV die Drecksarbeit machen lassen, die HW-Entwerfen, die Dev's unterstützen damit diese für die nächsten Jahre 3.0-4.0 bringen können. Man präsentiert Refreshes bis die Dev's umgestiegen sind und dann nützt man auch die Features.

Sowas ist echt Affig!



Je mehr man es abstreitet und leugnet desto mehr ist man Fanboy.

Das ist die freie Markwirtschaft ;)

Wie immer gibts darauf nur eine antwort. Es geht ums Geld. Geld regiert die Welt...

NV hat das mit der geforce 2-4 reihe auch gemacht und jetzt machts eben ATI :ratlos:

Thats buisness..

reunion
2004-06-01, 11:37:45
Original geschrieben von seahawk
Das glaube ich nun eher nicht.

Warum nicht?
SM2.0 ist auch auf dem R300 aufgebaut.
SM3.0 baut auf dem NV40 auf.
SM4.0 wird logischerweise auch auf den ersten Chip welcher dieses feature Unterstützt aufbauen...

Die Chiphersteller nennen M$ die Features welche deren nächster Chip unterstützt, und M$ macht daraus den gemeinsamen nenner, war schon immer so...

seahawk
2004-06-01, 11:46:46
Original geschrieben von reunion
Warum nicht?
SM2.0 ist auch auf dem R300 aufgebaut.
SM3.0 baut auf dem NV40 auf.
SM4.0 wird logischerweise auch auf den ersten Chip welcher dieses feature Unterstützt aufbauen...

Die Chiphersteller nennen M$ die Features welche deren nächster Chip unterstützt, und M$ macht daraus den gemeinsamen nenner, war schon immer so...

SM2.0 war der kleinste gemeinsame Nenner zwischen NV und ATI. Die gute Unterstützung der ATI-karten liegt daran, dass sie als erste HArdware am Markt hatten.

SM3.0 ist eine logische Erweiterung von 2.0

SM4.0 ist eine logische Erweiterung von 3.0

Ich persönlich glaube, dass NV wesentlich näher an SM4.0 Hardware dran ist als ATI.

Und was bringt SM4.0 Anfang 2005. Longhorn kommt wahrscheinlich 2006. Ohne Longhorn kein SM4.0. ATI hat bis jetzt nie mehr Funktionalität als unbedingt nötig (ausnahme R200 mit PS 1.4) im Chip gehabt. In den Ausnahmen haben sie keine guten Erfahrungen gemacht.

Ich denke daran wird sich nichts ändern. SM3.0 wird der R520 wahrscheinlich in irgendeiner Form haben. Mehr glaube ich nicht.

ow
2004-06-01, 11:51:54
.

Quasar
2004-06-01, 11:52:02
Original geschrieben von betareverse
Das habe ich gehört. Also durchaus als reine Spekulation zu bezeichnen. ... Imo ist es aber ziemlich weit hergeholt, das Gegenteil anzunehmen.

Naja, mir fallen da einige Dinge ein, die mir unbekannt sind, sich aber durchaus auf den Preis eines Wafers und damit auch des einzelnen Die auswirken können.

- Wafer-Größe (20 od. 30cm)
- Prozess (lowK ist "besser", ergo vermutlich auch teurer)
- Ausbeute (Wieviele Dies pro Wafer, die keine 3 funzenden PPs enthalten)
- evtl. (hab ich auch mal gehört) Bezahlung nur pro funzendem Die?

ow
2004-06-01, 11:53:34
.

Quasar
2004-06-01, 11:55:07
Original geschrieben von reunion
Hast du schonmal daran gedacht das SM4.0 vielleicht genau auf den R520 aufbaut?[...]
Und genau darauf ist die lineare Entwicklung bei nV seit dem nV30 ausgerichtet, während bei ATi ein revolutionärer Sprung bevorsteht?

Ich hoffe, dieser neue SM4.0-Chip wird vom Design-Team West (aka. ArtX) entwickelt - beim letzten "Sprung" den sich Design-Team East zutraute, war's ja eher durchwachsen.

Winter[Raven]
2004-06-01, 11:59:12
evtl. (hab ich auch mal gehört) Bezahlung nur pro funzendem Die?

Ich glaube diesen Previleg hat nur Nvidia ... bei TSMC und bei IBM(?).

Hast du schonmal daran gedacht das SM4.0 vielleicht genau auf den R520 aufbaut?

Es gibt da paar "Gerüchte" nach den der N50 schon länger in Entwicklung ist als man sich vielleicht denkt, also müsste M$ in diesem Fall it NV kooperieren.

DrumDub
2004-06-01, 12:27:37
Original geschrieben von Winter[Raven]
Ich glaube diesen Previleg hat nur Nvidia ... bei TSMC

nein. das gehört nicht zum geschäftsmodell von tsmc.

und bei IBM(?).
sehr wahrscheinlich. wobei es keinen "beweis" gibt. alle aussagen bezüglich dieses geschäftsmodells beziehen sich auf den nv36.

p.s.: privileg.

Mave@Work
2004-06-01, 12:40:35
Original geschrieben von seahawk

Und was bringt SM4.0 Anfang 2005. Longhorn kommt wahrscheinlich 2006. Ohne Longhorn kein SM4.0. ATI hat bis jetzt nie mehr Funktionalität als unbedingt nötig (ausnahme R200 mit PS 1.4) im Chip gehabt. In den Ausnahmen haben sie keine guten Erfahrungen gemacht.



Und was war bitte mit dem R300 ? Da war DX9 auch noch nicht draussen !!!

reunion
2004-06-01, 12:45:01
Original geschrieben von seahawk
Ich persönlich glaube, dass NV wesentlich näher an SM4.0 Hardware dran ist als ATI.


Logisch, man hat ja jetzt schon einen SM3.0 Chip.


ATI hat bis jetzt nie mehr Funktionalität als unbedingt nötig (ausnahme R200 mit PS 1.4) im Chip gehabt. In den Ausnahmen haben sie keine guten Erfahrungen gemacht.


Der R100 hatte AFAIK fast die Spezifikationen für PS/VS1.0 geschafft. Der R200 hatte die zu seiner zeit aktuellen PS1.3 bei weitem überboten. Einzig der r300 bot nicht mehr als unbedingt nötig...

reunion
2004-06-01, 12:46:18
Original geschrieben von ow
Du gehst also wirklich davon aus, dass ATi wieder einmal den techologisch schwaechsten Chip entwicklen wird??

Wie du von meinen post auf diese schlussfolgerung kommst ist mir schleierhaft...

LovesuckZ
2004-06-01, 12:49:32
Original geschrieben von reunion
Der R100 hatte AFAIK fast die Spezifikationen für PS/VS1.0 geschafft. Der R200 hatte die zu seiner zeit aktuellen PS1.3 bei weitem überboten. Einzig der r300 bot nicht mehr als unbedingt nötig...

PS1.4, Truform und im schlimmsten Fall auch 3Dc zeigen, dass Pioniergeist außerhalb von festgelegten Specs zu "Katastrophen" fuehren koennen.
Und seit dem r300 (seit fast 2Jahren und 3Refreshes spaeter) beweißt ATi, dass sie nur minimal mehr als das noetige tun (MRT zum beispiel als Option beim SM2.x oder SM2.b für längere Singlepassshader). Warum sollte sich dies beim r520 aendern und man wieder das Risiko eingehen mehr als noetig zu machen?
Wie man zur Zeit erkennen kann, kommt ATi doch praechtig damit durch.

ow
2004-06-01, 12:50:00
Original geschrieben von reunion

Der R100 hatte AFAIK fast die Spezifikationen für PS/VS1.0 geschafft.

Das kann man vom Gf2 auch behaupten. Interessiert aber in beiden Faellen nicht.


Der R200 hatte die zu seiner zeit aktuellen PS1.3 bei weitem überboten.

Meinst du jetzt vielleicht PS1.1?
Denn 1.3 kam erst in DX8.1 als auch schon 1.4 kam.

reunion
2004-06-01, 12:50:37
Original geschrieben von Quasar
Und genau darauf ist die lineare Entwicklung bei nV seit dem nV30 ausgerichtet, während bei ATi ein revolutionärer Sprung bevorsteht?


ATI hat ja auch an SM3.0 mit dem r400 entwickelt, das diese eingestellt wurde bedeutet ja noch nicht das auch die ganze entwicklungsarbeit für die Katzt war. (Natürlich bedeutet das auch nicht das der R520 SM4.0 unterstützten wird)

ow
2004-06-01, 12:50:56
Original geschrieben von reunion
Wie du von meinen post auf diese schlussfolgerung kommst ist mir schleierhaft...


Weil du im Prinzip genau dies geschrieben hast. Da braucht man nicht mal etwas draus zu folgern.

Ueberlege mal, wie das Basis-Featureset eine DX-Version bestimmt wird.

reunion
2004-06-01, 12:53:58
Original geschrieben von ow
Weil du im Prinzip genau dies geschrieben hast. Da braucht man nicht mal etwas draus zu folgern.

Ueberlege mal, wie das Basis-Featureset eine DX-Version bestimmt wird.

Ja, wenn es so wäre das der R520 Sm4.0 unterstützten würde (natürlich hoch spekulativ) dann würde er natürlich die mindestvorraussetztungen dafür vorgeben, was aber noch nicht bedeutet das NV diese übertreffen würde...

reunion
2004-06-01, 12:56:35
Original geschrieben von LovesuckZ
Und seit dem r300 (seit fast 2Jahren und 3Refreshes spaeter) beweißt ATi, dass sie nur minimal mehr als das noetige tun (MRT zum beispiel als Option beim SM2.x oder SM2.b für längere Singlepassshader). Warum sollte sich dies beim r520 aendern und man wieder das Risiko eingehen mehr als noetig zu machen?
Wie man zur Zeit erkennen kann, kommt ATi doch praechtig damit durch.

Das der r300 nicht mehr bietet liegt wohl daran das man damals schlicht und einfach mit 110mio Transistoren in 150nm schon nah am technisch machbaren angelangt ist, diese "last" trägt der R420 der ja nichts anderes als ein doppelter r300 ist natürlich mit...

ow
2004-06-01, 13:01:27
Original geschrieben von reunion
Ja, wenn es so wäre das der R520 Sm4.0 unterstützten würde (natürlich hoch spekulativ) dann würde er natürlich die mindestvorraussetztungen dafür vorgeben, was aber noch nicht bedeutet das NV diese übertreffen würde...

Der Punkt ob der R520 SM4 unterstuetzt ist natuerlich spekulativ.
Aber falls MS den R520 zur Festlegung der SM4 Specs heranzieht, dann wird der R520 nicht mehr als das Basisfeatureset beherrschen.

(Natuerlich unter der Voraussetzung, dass es immer noch die Moelichkeit gibt, IHV-eigene Features per CAPS-Bits zu nutzen. Das ist ja auch spekulativ, denn vielleicht gibt es im SM4 ja nur noch ein einheitliches Featureset fuer alle).

Winter[Raven]
2004-06-01, 13:08:54
Naja, es wäre ja auch zimmlich beschert eine 4.0 HW im Q1 2005 zubringen wenn das WGF erst Ende 2005 oder erst mit Longhorn.

Ich bleibe dabei 3.0 als Maximum für den R520 und aufgepeppte R420 Architektur. Ich lass mich gern von dem Gegenteil überraschen :)

Zauberer
2004-06-01, 13:17:36
Original geschrieben von seahawk
Wann komtm die XBOX2 ??

ISt es gut für MS, wenn es zu diesem Zeitpunkt schon einen Chip für den PC gibt der die gleichen Fähigkeiten hat ?? Ich denke nicht.
In der XBOX werkelt doch ein Geforce3 Chip mit doppelten VS-Einheiten.
Die GF3 kam doch auch vor der XBOX raus oder?

Ergo kann auch der R500 Anfang 2005 rauskommen und der R520 arbeitet dann Herbst 2005 (offizieller Termin?) in der XBOX(2 oder NEXT).
Der R520 hat dann nur noch höheren Takt oder ein paar Shader mehr.
Vermutlich hat er auch eDRAM, was bei der Desktopvariante weggelassen wird wegen der hohen Auflösungen.
Das ist aber absolute Spekulation, vielleicht ist das neue Texturkompressionsverfahren so gut das auch für hohe Auslösungen die 10MB reichen, dann wäre auch HDTV no Problem.
Wie gesagt alles Spekulation. ;)

Aber SM4.0 halte ich für sehr realistisch für den R500, auch könnte er die nächste DX Version (DX-Next oder doch DX10?) unterstützen.
Weil der R300 wurde schon getestet, wo man DX9.0 noch nicht bei Microsoft runterladen konnte.
Viele Tester (THG) haben damals geschrieben, das DX9.0 zwar ne schöne Sache ist, aber wenn man noch keine Vorteile davon hat, fliest es nicht in die Bewertung ein!

Das Gleiche ist jetzt mit dem NV40, da dürfte SM3.0 auch nicht in die Bewertung einfliesen, das wäre ja ATI gegenüber unfair.

Darum halte ich SM4.0 für realistisch, da wir in den nächsten 2 Jahren immer einen Aufguss vom R500 sehen werden(2005-2007). Ergo steht die neue Architektur für 2007 an, dann ist das lange oder kurze Horn von Microsaft auch schon längst da. ;D

Das war beim R300 so und wird beim R500 nicht anders sein, darum muss der R500 technologisch gesehen ein Übermonster sein.

Toll so kann man Forschungsgelder sparen. :D

Winter[Raven]
2004-06-01, 13:22:49
Aber SM4.0 halte ich für sehr realistisch für den R500, auch könnte er die nächste DX Version (DX-Next oder doch DX10?) unterstützen

Ahhh?

Du hälst 4.0 für Realistisch, aber laut deiner Aussage "KÖNNTE" der R520 WGF unterstützen, muss aber nicht.

Ist das nicht ein Wiederspruch in sich?

aths
2004-06-01, 13:43:20
Original geschrieben von LovesuckZ
PS1.4, Truform und im schlimmsten Fall auch 3Dc zeigen, dass Pioniergeist außerhalb von festgelegten Specs zu "Katastrophen" fuehren koennen.Wieso ist PS 1.4 "außerdem von festgelegten Specs"??
Original geschrieben von LovesuckZ
Und seit dem r300 (seit fast 2Jahren und 3Refreshes spaeter) beweißt ATi, dass sie nur minimal mehr als das noetige tun (MRT zum beispiel als Option beim SM2.x oder SM2.b für längere Singlepassshader). Warum sollte sich dies beim r520 aendern und man wieder das Risiko eingehen mehr als noetig zu machen?
Wie man zur Zeit erkennen kann, kommt ATi doch praechtig damit durch. Mal ist Nvidia technologisch vorne, mal ATI.

aths
2004-06-01, 13:44:00
Original geschrieben von ow
Das kann man vom Gf2 auch behaupten. Vom R100 kann man das deutlich eher behaupten als vom NV15.
Original geschrieben von ow
Meinst du jetzt vielleicht PS1.1?
Denn 1.3 kam erst in DX8.1 als auch schon 1.4 kam. R200 konnte doch 1.4, welcher deutlich fortschrittlicher als 1.3 ist.

aths
2004-06-01, 13:45:00
Original geschrieben von seahawk
SM2.0 war der kleinste gemeinsame Nenner zwischen NV und ATI. Die gute Unterstützung der ATI-karten liegt daran, dass sie als erste HArdware am Markt hatten.

SM3.0 ist eine logische Erweiterung von 2.0Ja und nein. Als Zwischenschritt gibt es ja 2.X, und 2.X (zumindest mit dem Profil 2_A) braucht schon ziemlich andere HW als 2.0.

Zauberer
2004-06-01, 13:50:56
Original geschrieben von Winter[Raven]
Ahhh?

Du hälst 4.0 für Realistisch, aber laut deiner Aussage "KÖNNTE" der R520 WGF unterstützen, muss aber nicht.

Ist das nicht ein Wiederspruch in sich?
Danke für die schnelle Antwort. ;)

1. Ich habe nichts von "WGF" geschrieben, aber ich denke wir meinen das Gleiche. ;)

2. Ich kenne die entgültigen Spezifikationen von DX10, DXNext oder WGF nicht, darum kann ich auch keine klare Aussage treffen. Aus diesem Grund habe ich "könnte" geschrieben.

3. Von "muss aber nicht" habe ich nichts geschrieben, dass hast Du dir so gedacht!

"Könnte", könnte auch "könnte sein" oder "könnte realistisch sein" bedeuten.
Ich denke nicht über jedes Wort was ich schreibe 10 mal nach.
Außerdem kann ich hier nur von "könnte" oder "realistisch" oder "möglich" reden, weil "wird" kann ich ja nicht schreiben, weil ich es schlicht und weg nicht genau weiß.
Ich spekuliere hier ja nur im Spekulationsforum, mehr nicht!

Das der R500 oder R520 SM4.0 unterstützt halte ich für realistisch, richtig.
Es "könnte" ja auch sein, dass SM4.0 in OGL2.0 Verwendung findet.
Oder das die XBOX Next vom SM4.0 gebrauch macht.
Bis die neue DX Version auf dem Markt kommt steht in den Sternen, die Veröffentlichung der nächsten XBOX und OGL2.0 nicht.
DOOM³ soll ja auch OGL2.0 unterstützen, "möglich" wäre auch, dass SM3.0 oder SM4.0 per update der Engine unterstützt wird.
Es "könnten" ja viele Spiele auf Basis der DOOM³ Engine auf den Markt kommen, so "könnte" man für die ne SM3.0 oder SM4.0 Unterstützung einbauen.

betasilie
2004-06-01, 14:04:50
Original geschrieben von LovesuckZ
Dann erklaere, warum SM4.0 naechstes Jahr wichtiger waere als das SM3.0 heute unter der Vorraussetzung, dass es kein Spiel gaebe, welches davon profitiere und die "taktisch- marktwirtschaltichen Gründe" sich ja nicht veraendern.

Habe ich nicht behauptet. :crazy:

Original geschrieben von LovesuckZ
"was die Spiele angeht", bedeutet auch, dass eine GF4 technologisch "auf der Höhe des Geschehens" waere, da 90%+ aller Spiele keine PS/VS2.0 verwenden.
ATi verzoegert die Entwicklung von Spielen mit ihrem "Steinzeitchip" nicht nur bezueglich des SM3.0 sondern auch bei der Benutzung von HDR Lighting (oder "MDR" wie es aths nennt), da sie kein FP - Blending unterstuetzen.

Erstens mal ist ein GF4 zu langsam, um überhaupt eine Diskussion darüber anzufangen und FarCry, HL2 und STALKER sind imo genug Gründe für SM2.0.

Und ja, ATI hemmt den technolgischen Fortschritt, nur haben sie dadurch keinen Nachteil. ... Kommt von dir auch mal was neues?
Original geschrieben von LovesuckZ
ATi hat mit dem r420 bewiesen, dass sie ohne Vorarbeit nicht in der Lage waren ein SM3.0 faehiges Design zu entwickeln und zu produzieren. Natuerlich werden sie die Ergebnisse aus der Entwickeln des r400 mit in den r520 einfließen lassen.
Den zweiten teil kannst du dir sparen. Denn im Gegensatz zu andere bezeichne ich mich nicht als "neutral"...
ATI hat garnix in der Richtng bewiesen. Das ist deine Interpretation, die deinen Wünschen entspringt.

Fakt ist, dass ATI kein SM3.0 Design gebracht hat, was für sie z.Zt. keinen Nachteil darstellt. Alles andere entspringt deinen Hirnwindungen.

seahawk
2004-06-01, 14:11:06
Original geschrieben von aths
Ja und nein. Als Zwischenschritt gibt es ja 2.X, und 2.X (zumindest mit dem Profil 2_A) braucht schon ziemlich andere HW als 2.0.

Ich meinte auch weniger die Hardware, als den Funktionsumfang den die Hardware leisten muss.

Ich korriegire im Hinblick auf die Hardware in :

SM3.0 ist eine logische Weiterentwicklung von SM 2.0a aus

Zum R520 :

Die neuen Midrange-Chips von ATI lassen mich immer mehr am SM4.0 Chip zweifeln. Das sind wieder "so wenig wie möglich, soviel wie nötig" Chips. Warum sollte ATI dieses seit dem R300 gezeigte Verhalten plötzlich ändern ??

Ich könnte mir für den R5290 sogar nur eine rudimentäre SM3.0 Implementation in die vorhanden R3XX Struktur vorstellen.

reunion
2004-06-01, 14:36:09
Original geschrieben von seahawk
Ich könnte mir für den R5290 sogar nur eine rudimentäre SM3.0 Implementation in die vorhanden R3XX Struktur vorstellen.

Und wie stellst du dir so eine rudimentäre SM3.0 unterstütztung vor?
Entweder man unterstützt SM3.0 oder man unterstützt es nicht. Und das der R300 dafür äußerst schlecht geeignet ist dürfte inzwischen auch schon bekannt sein...

[dzp]Viper
2004-06-01, 14:55:54
Original geschrieben von seahawk
Ich meinte auch weniger die Hardware, als den Funktionsumfang den die Hardware leisten muss.

Ich korriegire im Hinblick auf die Hardware in :

SM3.0 ist eine logische Weiterentwicklung von SM 2.0a aus

Zum R520 :

Die neuen Midrange-Chips von ATI lassen mich immer mehr am SM4.0 Chip zweifeln. Das sind wieder "so wenig wie möglich, soviel wie nötig" Chips. Warum sollte ATI dieses seit dem R300 gezeigte Verhalten plötzlich ändern ??

Ich könnte mir für den R5290 sogar nur eine rudimentäre SM3.0 Implementation in die vorhanden R3XX Struktur vorstellen.

neuen artikel lesen und verstehen, warum SM3.0 in der r300 architektur (welches den r420 mit einschließt) sehr unwahrscheinlich ist....

Der r300 war featuremäßig ein monster... wer das in frage stellt, der hat wohl verpasst, dass der r300 fast 5 monate vor DX9 rauskam :eyes:


Momentan läuft es doch so.

NV war gezwungen eine neue Archtektur zu bringen, da die alte Architektur einfach zu langsam in sachen shader war.
ATI war/ist dagegen nicht gezwungen gewesen etwas komplett neues zu entwicklern und hat deswegen den r300 nochmals aufgebohrt.
Jetzt konzentriert sich ATI voll auf den R520 und wird damit wohl anfang 2005 kommen.
Ich glaube kaum, dass anfang 2005 von NV schon der NV50 kommen wird ;) eher ein refresh des NV40...

Die Entwicklungszyklen beider Firmen haben sich vollkommen verschoben.
Eigentlich hätte ATI mit NV eine neue Achitektur bringen sollen, aber wer legt den die regel fest, wann eine firma eine neue Architektur zu bringen hat? :???: Keiner oder sehe ich das falsch? ;)

NV hat nun vorgelegt mit ihrer neuen architektur. ATI wird sehr wahrscheinlich (achtung - spekulativ...) mit dem r520 featuretechnisch mindestens gleichziehen wenn nicht sogar eher vorbeiziehen... (wovon ich selber eher vom starkem vorbeiziehen ausgehe)

DrumDub
2004-06-01, 15:01:49
bitte nicht vergessen: ohne 90nm low-k kein r500. anfang 2005 halt ich da für sehr optimistisch.

[dzp]Viper
2004-06-01, 15:04:48
Original geschrieben von DrumDub
bitte nicht vergessen: ohne 90nm low-k kein r500. anfang 2005 halt ich da für sehr optimistisch.

naja.. anfang 2005 schliesst ja März/Mai 2005 mit ein... denke schon, dass das da realistisch ist

vielleicht würde 0,09µm ohne low-k ja auch schon aussreichen... und man hebt sich dann 0,09µm mit low-k für den refreshchip auf :ratlos:

Das ist alles extremste Spekulation und deswegen meiner meinung nach nicht unbedingt diskussionswürdig :)

DrumDub
2004-06-01, 15:07:56
Original geschrieben von [dzp]Viper
naja.. anfang 2005 schliesst ja März/Mai 2005 mit ein... denke schon, dass das da realistisch ist

wenn alles glatt läuft, isses sicher denkbar. ich halte q2/3 2005 für realistischer.

vielleicht würde 0,09µm ohne low-k ja auch schon aussreichen... und man hebt sich dann 0,09µm mit low-k für den refreshchip auf :ratlos:

90nm ohne low-k wirds bei tsmc nicht geben. siehe die news von gestern. natürlich könnte ati die foundry wechseln, aber das halte ich für unwahrscheinlich.


Das ist alles extremste Spekulation und deswegen meiner meinung nach nicht unbedingt diskussionswürdig :)

dafür sind wir ja hier. :)

reunion
2004-06-01, 15:08:26
Original geschrieben von [dzp]Viper
vielleicht würde 0,09µm ohne low-k ja auch schon aussreichen... und man hebt sich dann 0,09µm mit low-k für den refreshchip auf :ratlos:


nein, 90nm gibt es AFAIK nurnoch mit lowk...

//Edit: zu langsam ;(

reunion
2004-06-01, 15:09:52
Original geschrieben von DrumDub
wenn alles glatt läuft, isses sicher denkbar. ich halte q2/3 2005 für realistischer.


Wenn ATI noch dieses Jahr das tape-out machen will wird man wohl kaum bis Q2/Q3 05 dafür brauchen...

betasilie
2004-06-01, 15:10:48
Original geschrieben von reunion
Wenn ATI noch dieses Jahr das tape-out machen will wird man wohl kaum bis Q2/Q3 05 dafür brauchen...
Ach? Der R420 hatte sein Tapeout auch 2003 und wo ist er?

[dzp]Viper
2004-06-01, 15:13:05
Original geschrieben von DrumDub
90nm ohne low-k wirds bei tsmc nicht geben. siehe die news von gestern. natürlich könnte ati die foundry wechseln, aber das halte ich für unwahrscheinlich.


achso... muss mal mehr lesen ;(

Original geschrieben von betareverse
Ach? Der R420 hatte sein Tapeout auch 2003 und wo ist er?

naja - es gab so viele r420 tapeouts, dass einem schon fast schlecht wird... das letzte gerücht besagte glaube ich februar 2004 :D

Tigerchen
2004-06-01, 17:16:00
Original geschrieben von Quasar
Das wusste ATi auch beim SM3.0 seit Ende 2002 allerschlimmstenfalls.

Dave also states that they didn’t feel Shader Model 3.0 was right for R420 due to the die size that it would require and 90nm processes aren’t really available until '05.


Könnte es sein daß das sie schlichte Wahrheit ist?

seahawk
2004-06-01, 17:42:14
Original geschrieben von reunion
Und wie stellst du dir so eine rudimentäre SM3.0 unterstütztung vor?
Entweder man unterstützt SM3.0 oder man unterstützt es nicht. Und das der R300 dafür äußerst schlecht geeignet ist dürfte inzwischen auch schon bekannt sein...

Es ist mir bewußt, dass die R300 Architektur nicht in der Lage ist SM3.0 performant darzustellen. Aber ein Feature zu habe muss nicht bedeuten es auch performant darstellen zu können. :D

betasilie
2004-06-01, 17:45:32
Original geschrieben von seahawk
Aber ein Feature zu habe muss nicht bedeuten es auch performant darstellen zu können. :D
Jo. Sieht man ja beim NV40. Der kann auch nur ein Bruchteil seiner SM3.0 Features nutzen in realen Anwendungen.

seahawk
2004-06-01, 17:52:23
Original geschrieben von betareverse
Jo. Sieht man ja beim NV40. Der kann auch nur ein Bruchteil seiner SM3.0 Features nutzen in realen Anwendungen.

Wenn NV es kann, dann könnte ATI es auch. :D

betasilie
2004-06-01, 17:55:52
Original geschrieben von seahawk
Wenn NV es kann, dann könnte ATI es auch. :D
Nun ATI wird schon Gründe haben auf 90nm zu warten.

StefanV
2004-06-01, 18:15:20
Original geschrieben von seahawk
Wenn NV es kann, dann könnte ATI es auch. :D

ATI ist nicht nV ;)

Bei ATi achtet man schon etwas besser auf die Verlustleistung, bestes Beispiel ist hier Rage 128 gegen Riva TNT.

Die Rages kannst notfalls auch ohne Kühler betreiben, bei den TNTs ist das nicht zu empfehlen.

Quasar
2004-06-01, 18:20:08
Original geschrieben von Tigerchen
Dave also states that they didn’t feel Shader Model 3.0 was right for R420 due to the die size that it would require and 90nm processes aren’t really available until '05.


Könnte es sein daß das sie schlichte Wahrheit ist?


Unwahrscheinlich. Zumindest aber offenbar eine Fehleinschätzung seitens ATi. Wie der nV40 zeigt, kann man einen SM3.0-Chip mit sehr gute SM2.0-Performance in 0,13µ designen - und das sogar ohne lowK Dielektrika.

Was ATi eventuell fehlte, als diese Designentscheidung anstand, waren die richtigen Tools, so daß ihr Chip, so sie ihn denn fertig designed hätten, eventuell nochmal deutlich größer geworden wäre, als daß, was sich am Ende in 15% mehr Silizium-Fläche beim nV40 zeigte.
Dave sagt:"[...]there’s still some understanding we have to get on their architecture."

Gast
2004-06-01, 18:29:47
Hmm warum glauben einige dass M$ sich nur mit einem der großen Grafikkarten Hersteller zusammen tut um neue Technologierichtlinien festzulegen? Nützt es M$ denn etwas, wenn nur 1 Hersteller Grafikkarten liefern kann die Longhorn "voll" ausnutzen können, sicherlich nicht. Die anderen sind auch am Kuchen beteiligt, schließlich muss man einen kleinsten gemeinsamen Nenner finden, und die onBoard Grafikkarten müssen ja bis Longhorn alle auf FullDX9 kompatible getrimmt werden.
Ist ATI nicht ein etwas "kalkühler" Rechner, man betrachtete sich SM3 und entschied sich in der R400 Generation dagegen, warum, weil mans nicht braucht, warum also schon 2005 SM4 bieten, wenns erst irgendwan 2006 oder gar später genutzt werden kann (XP bleibt ja bei DX9 stecken, nur weil bis Longhorn noch soviel Zeit vergeht).

Seit wann ist der R520 in Entwicklung? Wann soll er Released werden, in 9 Monaten, hui, und WGF (DXNext) ist nichtmal 100% fertig ?
ATI wird doch keinen "80%-kompatible" WGF Chip releasen... (irre ich mich oder ist SM4 nur in WGF spezifiziert?)
Tippe eher dass sie ein Fortgeschrittenes SM3 design Präsentieren, und wieviel sie zu WGF brauchen, eher verschweigen... eher ein "Mittelweg" ähnlich dem NV3X... (ohne auf dessen Performance einzugehen, aber jeder sagt ja, die R3xx/R4xx Serie ist nicht für SM3+4 geeignet, also muss ein zwischenschritt kommen).

Quasar
2004-06-01, 18:31:29
Original geschrieben von Stefan Payne
ATI ist nicht nV ;)

Bei ATi achtet man schon etwas besser auf die Verlustleistung, bestes Beispiel ist hier Rage 128 gegen Riva TNT.

Die Rages kannst notfalls auch ohne Kühler betreiben, bei den TNTs ist das nicht zu empfehlen.

:|
Notfalls kannst du auch eine GF2MX ohne Kühler betreiben - und?

Gast
2004-06-01, 18:32:55
Ich würde mal behaupten, dass 3DC ein solcher Zwischenschritt ist, die Komprimierung wird man gerne bei einer Spielkonsole einsetzen, Speicher ist dort ja sehr Rar und man muss Jahre damit ausharren...

zeckensack
2004-06-01, 18:33:44
Wieso soll die R300-Basis schlecht für SM3 geeignet sein? :kratz2:
NV40 ist architektonisch IMO näher am R300 als an NV3x. Und trotzdem gibt's SM3-Support :|

Quasar
2004-06-01, 18:43:24
Original geschrieben von Gast
Ich würde mal behaupten, dass 3DC ein solcher Zwischenschritt ist, die Komprimierung wird man gerne bei einer Spielkonsole einsetzen, Speicher ist dort ja sehr Rar und man muss Jahre damit ausharren...

Interessanter Gedanke. :)

aths
2004-06-01, 18:46:56
Original geschrieben von zeckensack
Wieso soll die R300-Basis schlecht für SM3 geeignet sein? :kratz2:
NV40 ist architektonisch IMO näher am R300 als an NV3x.Hrrrrn ja. Nein.

aths
2004-06-01, 18:48:41
Original geschrieben von betareverse
Jo. Sieht man ja beim NV40. Der kann auch nur ein Bruchteil seiner SM3.0 Features nutzen in realen Anwendungen. Der NV40 kann alle seine 3.0-Features nutzen, auch in realen Anwendungen.

Man kann, geht es um Echtzeitanwendungen, auch nicht alle erdenklichen Feautures des R300 ausnutzen.

Original geschrieben von betareverse
Nun ATI wird schon Gründe haben auf 90nm zu warten. Der Grund ist: Mit dem mit 0,13 realisierbarem Transistorcount hätten sie es nicht gepackt.

Ich arbeite gerade an einem Artikel, wo das Hauptthema die NV40-Pipe ist, es wird versucht zu beschreiben was dort so genial ist. Einfach gesagt ist es die Möglichkeit, die Shader Unit nicht nur "vertikal", sondern auch "horizontal" splitten zu können, und somit bis zu vier Instruktionen in einen Slot zu packen. Außerdem hat der NV40 im Gegensatz zum R420 viele Features, welche die Pixelshader weiter entlasten. SM 3.0 ist beim NV40 nicht nur ein Checklist-Feature.

seahawk
2004-06-01, 18:48:44
Original geschrieben von betareverse
Nun ATI wird schon Gründe haben auf 90nm zu warten.

Ja, Gewinnoptimierung. Kleinerer Die = wmehr Dies pro Waffer = mehr Chips pro Waffer = mehr Gewinn für ATI

Das dürfte der einzige Grund sein.

seahawk
2004-06-01, 18:49:58
Original geschrieben von zeckensack
Wieso soll die R300-Basis schlecht für SM3 geeignet sein? :kratz2:
NV40 ist architektonisch IMO näher am R300 als an NV3x. Und trotzdem gibt's SM3-Support :|

Hatte Demi gesagt. Das zu erklären würde mich überfordern. :(

Demirug
2004-06-01, 18:56:38
Original geschrieben von zeckensack
Wieso soll die R300-Basis schlecht für SM3 geeignet sein? :kratz2:
NV40 ist architektonisch IMO näher am R300 als an NV3x. Und trotzdem gibt's SM3-Support :|

Das hatten wir doch schon beim NV30 vs R300, oder?

ATI setzt nach wie vor auf das Mehrfach-Loop-Prinzip.

- Einen Loop um die Textureinheit.
- Einen Loop um die FPUs.
- Einen Loop um die beiden Loops.

nVidia nutzt nur einen primären Loop umd die Textureinheit und FPUs.

Die Multiloop Technik hat Nachteile wenn es um dependent-Reads oder noch schlimmer Branches mit unterschiedlicher Länge geht. Wenn dann beides noch in Kombination auftritt ist gute Nacht. Was die dependent Reads angeht berufe ich mich dabei sogar auf ATI die in iheren Entwicklerdokumenten angeben das 3 oder 4 Phasen weniger performant sind als nur eine oder 2.

Zudem unterstelle ich der Multilooptechnik auch noch eine schlechtere Nutzung des Texturcaches wenn viele Texturen in einer Phase zum Einsatz kommen.

Der grosse Vorteil von Multiloop ist aber das man mit einen kleineren Registerfile auskommt weil die Anzahl der "Threads" die gleichzeitig laufen variable ist. Und zwar in der Art das mit steigender Tempanzahl die Threadanzahl geringer wird.

Gast
2004-06-01, 19:03:10
Jup, wurde mal ausgiebig erklärt (hoffe ich habe das korrekt verstanden, und aths erklärt ja auch in seinem NV40 Artikel, wie sehr der NV40 auf das gegebene des NV3X aufbaut).

Für SM3 brauch man doch 32bit Präzision, müste ATI also erstmal da "aufbohren" was afaik ja nicht so ohne ist, siehe NV30, da geht die PS2.0 Performance ja teils recht stark in den Keller. Den werden sie sicher auseinander genommen haben und dessen Schwachstellen meiden, bzw. werden sie daher den R520 NICHT auf SM4 auslegen, weils noch nicht fest ist und sie auf gar keinen Fall einen NV30 erleben wollen.
Jaja M$ wäre schön blöd da ATI in die Pfanne zu hauen, aber sicher kann man sich da ja nicht sein, da ATI auch den Grafikchip für Nintendos neue Konsole entwickelt, oder?

LovesuckZ
2004-06-01, 19:12:57
Original geschrieben von betareverse
Jo. Sieht man ja beim NV40. Der kann auch nur ein Bruchteil seiner SM3.0 Features nutzen in realen Anwendungen.

Welche waeren das denn?

zeckensack
2004-06-01, 19:58:57
Original geschrieben von aths
Hrrrrn ja. Nein. Sprich ruhig weiter :|
Original geschrieben von Demirug
<gekürzt>
Die Multiloop Technik hat Nachteile wenn es um dependent-Reads oder noch schlimmer Branches mit unterschiedlicher Länge geht. Wenn dann beides noch in Kombination auftritt ist gute Nacht. Was die dependent Reads angeht berufe ich mich dabei sogar auf ATI die in iheren Entwicklerdokumenten angeben das 3 oder 4 Phasen weniger performant sind als nur eine oder 2.
<gekürzt>a)
ATI's Limitation auf 4 dependency levels ist IMO nicht direkt eine Folge von Multiloop, wie du es nennst, bzw kein Zwang, der auf diesem Architekturtyp unvermeidbar ist. Will meinen: sie hätten können.
Das Performance-Profil des R300 finde ich btw durchaus befriedigend.

b)
Ich möchte (nicht zum ersten Mal!) Beweise in Form von Benchmarks sehen, die belegen dass die Branching-Performance ("data dependent") des NV40 überhaupt brauchbar ist ("brauchbar" definiere ich mal als "besser als CMP bei <=8 Takten dazwischen"). Ich will es nicht einfach so glauben müssen, und mit Verlaub, ich tu's auch nicht. Ich hatte und habe da so meine Zweifel.

Winter[Raven]
2004-06-01, 20:01:25
gesagt ist es die Möglichkeit, die Shader Unit nicht nur "vertikal", sondern auch "horizontal" splitten zu können, und somit bis zu vier Instruktionen in einen Slot zu packen.

:O:bonk:

Dat ist ja Genial ... das ist ja ne Meisterleistung ... *umfall*

@ Quasar

Jep, bestes Beispiel ist meine Gf2MX die hat >2 Jahre im PC ohne jeglichen Kühler geschafft, im übertaktetem Zustand ohne kaputt zugehn!

Nun ATI wird schon Gründe haben auf 90nm zu warten.

Aber natrülich, alles was ATI sagt muss stimmen ... :bonk:

there’s still some understanding we have to get on their architecture."

Die hatten einfach und schlicht kein Plan wie man sowas in ne Chip einbettet!

Jo. Sieht man ja beim NV40. Der kann auch nur ein Bruchteil seiner SM3.0 Features nutzen in realen Anwendungen

Wuss? Es gibt 3.0 Anwendungen ...? *such*

zeckensack
2004-06-01, 20:04:19
Das Speku-Forum geht echt vor die Hunde :eyes:

ow
2004-06-01, 20:07:35
Original geschrieben von aths
Vom R100 kann man das deutlich eher behaupten als vom NV15.
R200 konnte doch 1.4, welcher deutlich fortschrittlicher als 1.3 ist.


Vielleicht liest du auch mal auf was ich da geantwortet habe. Hilft vielleicht, den Zusammenhang zu verstehen.

Gast
2004-06-01, 20:10:24
@ Zeckensack
Es gibt weder Beweise dafür noch dagegen dass die Branching Performance miserabel ist, Theorie kann sich der Realität anders auswirken...
Mit Realität meine ich Spiele, die Shader 3.0 einsetzen, und die sind ja leider nicht weit gestreut, leider mal wieder abwarten...
Für nen Test bräuchte man doch, ne Karte, DX9.0c, und z.b. Far Cry Shader nochmal durch den Compiler jagen...

ow
2004-06-01, 20:13:08
Original geschrieben von betareverse
Jo. Sieht man ja beim NV40. Der kann auch nur ein Bruchteil seiner SM3.0 Features nutzen in realen Anwendungen.


Du wirst das jetzt sicher gleich mit Beweisen unterlegen, hab ich recht?

mrdigital
2004-06-01, 20:29:30
Original geschrieben von zeckensack
Das Speku-Forum geht echt vor die Hunde :eyes:
das ist wohl so, aber solange sich viele auf Buzz Words stürtzen und nicht wissen, was dahinter steckt...
Ich denke auch, dass das Branching auf dem nV40 kein Leistungsknüller ist, ich meine mich zu erinnern, das nV das selbst so gesagt hat. Ati hat das ja mal in einer Präsentation dargelegt, warum sich Branching prinzipiell nicht gut mit SIMD verträgt und das war sicherlich keine "anti nV Propaganda" denn sie werden ja selbst noch mit diesem Problem kämpfen müssen.

Demirug
2004-06-01, 20:57:40
Original geschrieben von zeckensack
a)
ATI's Limitation auf 4 dependency levels ist IMO nicht direkt eine Folge von Multiloop, wie du es nennst, bzw kein Zwang, der auf diesem Architekturtyp unvermeidbar ist. Will meinen: sie hätten können.
Das Performance-Profil des R300 finde ich btw durchaus befriedigend.

b)
Ich möchte (nicht zum ersten Mal!) Beweise in Form von Benchmarks sehen, die belegen dass die Branching-Performance ("data dependent") des NV40 überhaupt brauchbar ist ("brauchbar" definiere ich mal als "besser als CMP bei <=8 Takten dazwischen"). Ich will es nicht einfach so glauben müssen, und mit Verlaub, ich tu's auch nicht. Ich hatte und habe da so meine Zweifel.

a) Ich streite ja gar nicht ab das man damit auch mehr als 4 dependency Levels bauen kann. ATI hat aber durchblicken lassen das sich das Performanceprofil mit jedem weiteren Level tendenziel verschlechtert. Bei 4 sah man den Sweetspot.

Du kannst mich aber gerne überzeugen wie man mit den Grundvorausetzungen der ATI Architektur eine PS 3.0 fähige Hardware baut. Ich hatte da ja selbst mal etwas auf Basis eines F-Buffers konstruiert aber da ist uns ATI ja immer noch den Beweiss schuldig das dieser funktioniert.

b) Ich arbeite daran. Leider fehlt mir noch die nötige Hardware.

betasilie
2004-06-01, 23:48:51
Original geschrieben von Quasar
Unwahrscheinlich. Zumindest aber offenbar eine Fehleinschätzung seitens ATi. Wie der nV40 zeigt, kann man einen SM3.0-Chip mit sehr gute SM2.0-Performance in 0,13µ designen - und das sogar ohne lowK Dielektrika.
UNd wie performant ist die SM3.0 Funktionalität des NV40?

betasilie
2004-06-01, 23:51:21
Original geschrieben von seahawk
Ja, Gewinnoptimierung. Kleinerer Die = wmehr Dies pro Waffer = mehr Chips pro Waffer = mehr Gewinn für ATI

Das dürfte der einzige Grund sein.
Full Ack.

betasilie
2004-06-01, 23:53:08
Original geschrieben von aths
Der NV40 kann alle seine 3.0-Features nutzen, auch in realen Anwendungen.

Man kann, geht es um Echtzeitanwendungen, auch nicht alle erdenklichen Feautures des R300 ausnutzen.
Ok, ich meinte Echtzeitanwendungen in Form von Spielen.

Original geschrieben von aths
Der Grund ist: Mit dem mit 0,13 realisierbarem Transistorcount hätten sie es nicht gepackt.

Ich arbeite gerade an einem Artikel, wo das Hauptthema die NV40-Pipe ist, es wird versucht zu beschreiben was dort so genial ist. Einfach gesagt ist es die Möglichkeit, die Shader Unit nicht nur "vertikal", sondern auch "horizontal" splitten zu können, und somit bis zu vier Instruktionen in einen Slot zu packen. Außerdem hat der NV40 im Gegensatz zum R420 viele Features, welche die Pixelshader weiter entlasten. SM 3.0 ist beim NV40 nicht nur ein Checklist-Feature.
Bin ihc drauf gespannt. =)

aths
2004-06-02, 00:50:40
Original geschrieben von zeckensack
Sprich ruhig weiter :|Du bist der erste, der mein neues Machwerk in der Betaphase zu sehen kriegt :) Noch fehlen mir viele Details, vermutlich müssen einige substanzielle Dinge ausgelassen werden.

Die eine Performance-Sache die du ansprichst, falls ich Kirk richtig verstand, ist das im NV40 wirklich dumm gelöst. So dumm, dass ich vermute, ihn missverstanden zu haben.

edit: Eilmeldung: Meinen allerneusten Informationen nach ist es zwar dumm, aber nicht so dumm gelöst. Wenn Demirug mal HW haben sollte, wird er hoffentlich einige schlaue Tests durchlaufen lassen.

aths
2004-06-02, 00:51:47
Original geschrieben von ow
Vielleicht liest du auch mal auf was ich da geantwortet habe. Hilft vielleicht, den Zusammenhang zu verstehen. Vielleicht formulierst du auch mal etwas freundlicher, wenn du dich missverstanden fühlst. Hilft vielleicht dem anderen, dich verstehen zu wollen.

aths
2004-06-02, 00:55:04
Original geschrieben von betareverse
UNd wie performant ist die SM3.0 Funktionalität des NV40? Texture fetches aus dem VS bringen Latenzen mitsich, die man aber verstecken kann. Schwierig wird das verstecken, wenn man bilineare Filterung nachbauen will. Wichtig ist, dass Texturzugriff im Vertexshader überhaupt möglich ist. Das wäre via CPU praktisch nicht mehr emulierbar, eine langsame HW-Lösung in der GPU ist sehr, sehr viel schneller als eine SW-Lösung auf der CPU. Insofern ist es imo erst mal besser, 3.0-Features zu haben als sie nicht zu haben.

Original geschrieben von betareverse
Ok, ich meinte Echtzeitanwendungen in Form von Spielen.Es gibt mehr als Spiele. Wäre auch traurig, wenn GPUs nur für Spiele entwickelt würden.

Das ist auch ein Punkt im Artikel: Ist eine Grafikkarte nur dazu da, Windows-Fenster darzustellen und 3D-Spiele zu beschleunigen? Wäre eine GPU nicht besser, die als Allzweck-Coprozessor taugen würde? Aufgrund der Architektur eignet sich eine GPU auf absehbare Zeit, vermutlich für immer, nur für gewisse Applikationen wo Daten "gestreamt" werden. Doch SM 3.0 bietet substanzielle Vorteile in der freien Programmierbarkeit gegenüber SM 2.0. Mag es auch nicht sonderlich schnell sein (2.0 ansich ist auf dem NV40 ja sehr schnell) so ist das doch immer noch besser, als auf 2.0 limitiert zu sein.

Noch ein Punkt aus dem Artikel (wenn das so weitergeht, kann man im Forum das komplette Ding schon vor dem Release lesen :|): Nvidia bietet SM 3.0, ohne die anderen Dinge zu vernachlässigen, wie 16x1 Pipes, 6 Vertexshader, hochoptimiertes 256-Bit DDR-Interface etc.

betasilie
2004-06-02, 01:10:33
Original geschrieben von aths
Texture fetches aus dem VS bringen Latenzen mitsich, die man aber verstecken kann. Schwierig wird das verstecken, wenn man bilineare Filterung nachbauen will. Wichtig ist, dass Texturzugriff im Vertexshader überhaupt möglich ist. Das ist via CPU nämlich praktisch nicht mehr emulierbar, eine langsame HW-Lösung in der GPU ist sehr, sehr viel schneller als eine SW-Lösung auf der CPU.
Klar, da ist ein VS wohl nicht ersetzbar, aber interessant wird das ganze erst wenn die GPUs nicht nur Pointsampling beherrschen, wie beim NV40 der Fall.

Wie gesagt, ich find den NV40 gut, aber er stellt sicherlich nicht die Krönung bei der SM3.0 Hardware dar. ;)

Original geschrieben von aths
Es gibt mehr als Spiele. Wäre auch traurig, wenn GPUs nur für Spiele entwickelt würden.

Das ist auch ein Punkt im Artikel: Ist eine Grafikkarte nur dazu da, Windows-Fenster darzustellen und 3D-Spiele zu beschleunigen? Wäre eine GPU nicht besser, die als Allzweck-Coprozessor taugen würde? Aufgrund der Architektur eignet sich eine GPU auf absehbare Zeit, vermutlich für immer, nur für gewisse Applikationen wo Daten "gestreamt" werden. Doch SM 3.0 bietet substanzielle Vorteile in der freien Programmierbarkeit gegenüber SM 2.0. Mag es auch nicht sonderlich schnell sein (2.0 ansich ist auf dem NV40 ja sehr schnell) so ist das doch immer noch besser, als auf 2.0 limitiert zu sein.
Hört sich sehr visionär an. :) ... Ich persönlich sehe z.Zt. nur platt die Signalqualität und die 3D-Performance in Spielen. Wenn die GPU mal ein integraler Bestandteil der PC-Plattform wird.

Gast
2004-06-02, 01:19:15
Original geschrieben von betareverse
Full Ack.

naja der Grund ist ja nun nicht gerade löblich. Mir als Kunde nutzt das nix, weswegen ich natürlich ATI dafür derbst an den Pranger stelle, da sie nicht das maximal mögliche abgeliefert haben.
Die Konkurenz hat sich mehr ins Zeug gelegt und riskiert auch mehr. So etwas wird von mir honoriert und nicht andersrum. Wieviel Kosten ATI dadurch spart geht mir am Arsch vorbei weil sie von mir aus auch bei +-0 landen können. Ich will nur das maximale für mich und die Gamergemeinde und das kommt diesmal vor allem in Bezug auf die Weiterentwicklung im Gamingsektor definitiv nicht von ATI.

aths
2004-06-02, 01:31:44
Original geschrieben von betareverse
Klar, da ist ein VS wohl nicht ersetzbar, aber interessant wird das ganze erst wenn die GPUs nicht nur Pointsampling beherrschen, wie beim NV40 der Fall.Das, hihi, ist auch ein Punkt. Allerdings sehe ich Texturzugriff überhaupt schon als sehr gut, Filterung wäre ein Schmankerl. Das ist natürlich eine subjektive, persönlich gefärbte Sichtweise. So sehe ich 4x sparsed AA mit linearem Downfilterung, und einen 10-bittigen RAMDAC als "gerade so" modern genug für einen Chip wie den NV40 an. Texturesampling im Vertexshader ist imo per se ein Plus. Mehr wünschen kann man sich immer, in diesem Falle Filterung, was dann hoffentlich mit NV50 kommen wird. Die CAPs sind ja schon vorgesehen.
Original geschrieben von betareverse
Wie gesagt, ich find den NV40 gut, aber er stellt sicherlich nicht die Krönung bei der SM3.0 Hardware dar. ;)Im Moment ist das sowohl die beste, als auch die schlechteste 3.0-Hardware.

Original geschrieben von betareverse
Hört sich sehr visionär an. :) ... Ich persönlich sehe z.Zt. nur platt die Signalqualität und die 3D-Performance in Spielen. Wenn die GPU mal ein integraler Bestandteil der PC-Plattform wird. Nah.

Der NV40 kann pro Takt bis zu 64 skalare MULs ausführen. Welche CPU schafft das? Ok, eine CPU ist höher getaktet. Aber auch mit SSE2, wie hoch müsste die CPU dafür getaktet sein?

Angenommen, wir brauchen MUL für 4D-Vektoren. Da schafft der NV40 bis zu 32 Stück pro Takt. Wie schnell müsste eine CPU sein?

Sicher, solche Milchmädchenrechnungen blenden Begleiterscheinungen aus. Doch so viel Extrem-Power wie der NV40 hat findet man in einem Chip in Consumer Market afaik nicht. Wäre doch ein Jammer, wenn man das für immer ungenutzt ließe. (NV40 rechnet nicht IEEE-konform, und nutzt ein FP32 ohne Denorms. Ganz so einfach vergleichen kann man das nicht. Dennoch, derart massiv parallele Leistung lässt sich doch sicher auch für Dinge einsetzen, die mit Pixeln rein gar nichts zu tun haben.)

Afaik wird SM 4.0 dann (fast) IEEE-konform sein. NV40 ist ein Schritt in diese Richtung. Der NV40 ansich ist zwar noch eine recht traditionelle Architektur (die halt stark aufgebohrt wurde) aber weist den richtigen Weg. Warum sollte man mit Features noch warten? Warum sollten nicht auch kleine Karten volle 3.0-Compliance erfüllen (zumal man ja mit NV40-mäßigem 3.0 in einigen Fällen durchaus schneller sein kann, als mit 2.0)?

betasilie
2004-06-02, 01:32:42
Original geschrieben von Gast
naja der Grund ist ja nun nicht gerade löblich. Mir als Kunde nutzt das nix, weswegen ich natürlich ATI dafür derbst an den Pranger stelle, da sie nicht das maximal mögliche abgeliefert haben.

Klar ist das nicht toll von ATI, aber wohl ausreichend, um gegen NV zu bestehen.

Original geschrieben von Gast
Die Konkurenz* hat sich mehr ins Zeug gelegt und riskiert auch mehr. So etwas wird von mir honoriert und nicht andersrum.
Bei mir auch, aber nur zum gleichen Preis. Ich zahle ja keine 100€ für ein Featureset von dem ich in absehbarer Zeit nix habe.

*Konkurrenz

Original geschrieben von Gast
Wieviel Kosten ATI dadurch spart geht mir am Arsch vorbei weil sie von mir aus auch bei +-0 landen können.
Mir geht das nicht am Arsch vorbei, wenn ich eine Karte von ATI bekommen würde, die die gleiche Performance bietet, wie eine NV-Karte, allerdings für 100-150€ weniger.

Original geschrieben von Gast
Ich will nur das maximale für mich und die Gamergemeinde und das kommt diesmal vor allem in Bezug auf die Weiterentwicklung im Gamingsektor definitiv nicht von ATI.
2004 nicht, aber ich gebe NV sicherlich nur mein Geld, wenn sie preislich konkurrenzfähig sind, denn ich schaue erst an 2. Stelle wer mein Geld aus Sicht des technologischen Fortschritts mehr verdient hat. ... Ich bin ja nicht die Caritas.

Quasar
2004-06-02, 06:49:56
Original geschrieben von betareverse
UNd wie performant ist die SM3.0 Funktionalität des NV40?

Ich möchte mal behaupten, daß sie "world leading performance" bringt. ;)

seahawk
2004-06-02, 07:46:35
Original geschrieben von Quasar
Ich möchte mal behaupten, daß sie "world leading performance" bringt. ;)

Ohne Zweifel. Und der NV40 und seine Refresh werden sicherlich auch bis mindestens Anfang 2005 "world leading SM 3.0 performance" bieten.

I habe gestern einen Kommentar in einem internen Forum gelesen. Meine nächste Karte wird ne 6800Ultra.

xL|Sonic
2004-06-02, 10:14:34
Was die ganze SM3/4 Diskussion angeht, wird sich erst noch herausstellen, ob ATI da wirklich einen Fehler gemacht hat. Es ist nunmal überall so, dass es immer einen "dummen" gibt, der etwas neues einführt, allerdings verfrüht und noch nicht wirklich vom markt gefordert und dann gibt es den intelligenten, der lieber etwas abwartet was die Konkurrenz macht und im richtigen Moment zu schlägt, dass mag nicht jedem gefallen, jedoch finde ich es gut, dass ATI diese taktik verfolgt. (Nachdem ich schon andere Firmen in anderen Bereichen, wie SEGA mit dem Saturn und Dreamcast hab scheitern sehen, nur weil sie der zeit voraus waren).

Was den R520 und SM4 angeht (habe den Artikel nur überflogen udn weiss jetzt nicht genau, wo ihr stehen geblieben seid).
Wenn der R520 wirklich etwas mit dem in der XBox2 verbauten grafikchip zu tun haben wird, dann wird dieser zu 100% SM4 unterstützen, da die XBox ja mit DX Next bzw. abgewandelten Form laufen wird und wohl auch im jahre 2005 erscheint, wenn es nach MS geht.

Demirug
2004-06-02, 10:31:06
Ich frage mich voher die Gewissheit kommt das die XBox II ein DX-Next Derivat wird?

Die Lauchtitle für die XBox II werden derzeit mit SM2 Hardware programmiert.

ow
2004-06-02, 10:38:23
Original geschrieben von Demirug
Ich frage mich voher die Gewissheit kommt das die XBox II ein DX-Next Derivat wird?



Praezise Kristallkugeln? :D

xL|Sonic
2004-06-02, 10:48:58
Div. Quellen sagen das voraus und wenn du mir nicht glauben wirst, dann warte es einfach ab demirug.
Ich glaube, es hat sogar mal einer von Microsoft selber gesagt.
Der Hintergrund ist ja ganz einfach ähnlich wie damals beim Dreamcast mit Windows CE. Sie wollen einfach eine schnelle Portierbarkeit von PC Spielen auf Konsolen gewähren und das ist wohl am einfachsten, wenn man sich solcher Sachen wie DX Next bedient.
MS führt ja auch derzeit umfragen durch, inwiefern es gefragt ist, sowohl bisher alle erhältlichen PC Spiele als auch XBox1/2 Spiele auf der XBox2 zu spielen.
Maybe wird die XBox2 ja eine komplett kompatible Konsole zu allen PC Spielen, wie auch immer sie das im Endeffekt bewerkstelligen wollen.

robbitop
2004-06-02, 10:54:18
Dave Bauman sagt die XBOX2 VPU wird kein R500.
Vieleicht ein R600 oder ein Hybride?

meine nächste VPU wird wohl die NV40, sobald die finanziellen Grundlagen dafür da sind.

HOT@Work
2004-06-02, 11:02:04
Original geschrieben von robbitop
Dave Bauman sagt die XBOX2 VPU wird kein R500.
Vieleicht ein R600 oder ein Hybride?

meine nächste VPU wird wohl die NV40, sobald die finanziellen Grundlagen dafür da sind.

Wohl eher ein E300 derivat ;)

Gast
2004-06-02, 11:02:31
Original geschrieben von HOT@Work
Wohl eher ein E300 derivat ;)

Sollte ein R300 werden

robbitop
2004-06-02, 11:07:00
meinst du?

seahawk
2004-06-02, 11:39:34
Original geschrieben von robbitop
Dave Bauman sagt die XBOX2 VPU wird kein R500.
Vieleicht ein R600 oder ein Hybride?

meine nächste VPU wird wohl die NV40, sobald die finanziellen Grundlagen dafür da sind.

Ack.

Der R520 scheint nicht der ursprüngliche R500 zu sein. Wenn man also davon ausgeht, dass der ursprüngliche R500 die Basis für den XBOX Chip werden sollte, dann muss der R520 nicht mit diesem verwandt sein.

Ich vermute, dass die Anforderungen an ein XBOX-Chip doch anders sein werden und er wahrscheinlich auch gar nicht eine extrem hohe Rohleistung brauchen wird. Die Auflösungen bei einer Spielkonsole sind im Vergleich zum PC wirklich gering. Soviel Leistung ist gar nicht nötig und ein absoluter High-End-Chip in der XBOX 2 würde diese wohl etwas unattraktiv teuer machen.

xL|Sonic
2004-06-02, 12:26:31
Original geschrieben von seahawk
Ack.

Der R520 scheint nicht der ursprüngliche R500 zu sein. Wenn man also davon ausgeht, dass der ursprüngliche R500 die Basis für den XBOX Chip werden sollte, dann muss der R520 nicht mit diesem verwandt sein.

Ich vermute, dass die Anforderungen an ein XBOX-Chip doch anders sein werden und er wahrscheinlich auch gar nicht eine extrem hohe Rohleistung brauchen wird. Die Auflösungen bei einer Spielkonsole sind im Vergleich zum PC wirklich gering. Soviel Leistung ist gar nicht nötig und ein absoluter High-End-Chip in der XBOX 2 würde diese wohl etwas unattraktiv teuer machen.

Das ist vollkommen falsch, denn hdtv ist im kommen (vorallem in den USA, dem größten Absatzmarkt). Die Anforderungen werden also steigen, weil auch eine höhere Auflösung zum Zuge kommt. Das ist auch das, was es meiner Meinung nach den Konsolen etwas schwierig macht sich gegen den PC über 5 Jahre lang in Sachen Grafik zur Wehr zu setzen, denn bislang konnte man auf Grund der niedrigen Auflösungen Rechenpower sparen. Das selbst 5 jahre alte Konsolen immer noch mit dem PC mithalten können bzw. teilweise sogar noch besser aussehen, zeigen Spiele wie Metal Gear Solid 3, Project Gotham Racing 2, Gran Tourismo 4, Fable usw.

robbitop
2004-06-02, 12:27:35
vieleicht bekommt die XBOX ja den NextGen Prozessor und der PC wieder nur einen upgegradeten R3xx.
Könnt ich mir gut vorstellen, zumal der XBOX Chip noch eDRAM bekommt.

xL|Sonic
2004-06-02, 12:31:32
Original geschrieben von robbitop
vieleicht bekommt die XBOX ja den NextGen Prozessor und der PC wieder nur einen upgegradeten R3xx.
Könnt ich mir gut vorstellen, zumal der XBOX Chip noch eDRAM bekommt.

Davon kannst du fast schon ausgehen, da Konsolen mit ihrem erscheinen immer die schnellere und aktuellere Hardware besitzen.
Hatte ja auch die XBox gehabt, die eine modifizierte Version der GF3 hatte, die im prinzip fast schon eine GF4 war, welche noch lange nicht erschienen war zu dem Zeitpunkt.

robbitop
2004-06-02, 12:39:27
hm naja eine GF4 war es nun nicht. Soweit ich das weiss war LMA2 nicht enthalten und das machte gut was aus. Stand zw GF3 und GF4.

Aber diesmal unterscheiden sich beide Chips wohl ziemlich voneinander.

ow
2004-06-02, 12:44:19
Original geschrieben von robbitop
vieleicht bekommt die XBOX ja den NextGen Prozessor

Ganz gewiss nicht.
Hat Demi doch schon angesprochen: worauf sollen denn die XBox2 Titel programmiert werden? NVidia HW vielleicht, weil die schon wesentlich naeher an DX-Next daran sind??;)

XBox2 wird wohl ein R300/400 Derivat mit SM2.x. Alles andere kann man wohl ausschliessen.

robbitop
2004-06-02, 12:46:19
und der PC was bekommt der dann? Den R500 der sich aus dem R400 entwickelte oder bloss einen krampfhaft upgegradeten R300?

ow
2004-06-02, 12:51:36
Original geschrieben von robbitop
und der PC was bekommt der dann? Den R500 der sich aus dem R400 entwickelte oder bloss einen krampfhaft upgegradeten R300?


Schwer zu sagen. Ich tippe mal auf letzteres, d.h. ATi wird da noch ein paar Pipes/Takt zulegen. Mehr erwarte ich nicht.

Wird imo aber natuerlich davon abhaengen, wie sich die jetzige Generation verkaufen laesst.

xL|Sonic
2004-06-02, 12:53:00
Original geschrieben von ow
Ganz gewiss nicht.
Hat Demi doch schon angesprochen: worauf sollen denn die XBox2 Titel programmiert werden? NVidia HW vielleicht, weil die schon wesentlich naeher an DX-Next daran sind??;)

XBox2 wird wohl ein R300/400 Derivat mit SM2.x. Alles andere kann man wohl ausschliessen.

Wie gesagt, da die XBox wohl mit DX Next kommen wird, ist alles andere als ein SM4 Grafikchip (evt. auch SM3) sinnlos und viel zu langsam für eine Konsole und für eine Firma mit so einem großen Anspruch.

robbitop
2004-06-02, 12:54:19
Pipes? eher nicht. Jetzt ist das 256bit DDR Interface schon überlastet. Ich denke es wird takt und interne Verbesserungen sein.

xL|Sonic
2004-06-02, 12:57:26
Ausserdem ist der Gedanke daran, dass die XBox2 nur einen R300 Ausläufer hat doch völlig absurd. MS steckt doch nicht abermillionen in eine Hardware, die technisch veraltet ist. Zumal da noch die große Unbekannte "CELL" von Sony auf MS zu rollt, da wird MS sicher nicht am falschen Ende sparen.

robbitop
2004-06-02, 12:59:54
die XBOX braucht vor Allem Performance. Ich denke mal dass SM2 völlig ausreicht, um technologisch mit der PS3 mithalten zu können. Zumal man spart Transistoren die man in Performancetechnische Dinge stecken kann. Zumal 10MB eDRAM auch nicht billig vom Transistoraufkommen sind. Das und ein R500 wird kaum zu realisieren sein. Aber ein R420 mit 10MB eDRAM sollte sehr schnell und günstig werden.

LovesuckZ
2004-06-02, 12:59:57
Original geschrieben von Valmar
Ausserdem ist der Gedanke daran, dass die XBox2 nur einen R300 Ausläufer hat doch völlig absurd. MS steckt doch nicht abermillionen in eine Hardware, die technisch veraltet ist.

Wenn Ati nicht in der Lage ist mehr zu liefern, muss MS im schlimmsten fall diese Hardware nehmen.

[dzp]Viper
2004-06-02, 13:02:56
richtig

ich glaube kaum, dass die Xbox2 eine grafikchip beherbergen wird, der auf dem r300 aufbaut...

Ich glaube auch nicht, dass ATI mit dem r520 nur einen verbesserten r420 bringen wird. Es wird im spätherbst/winter einen refreshchip geben (wahrscheinlich r480) und im frühjahr/sommer 2005 dann den r520 mit einer neuen Architektur.
Das klingt logisch und ist eher wahrscheinlich als das ATI nochmal das r300 design aufwärmen wird...

[dzp]Viper
2004-06-02, 13:03:51
Original geschrieben von LovesuckZ
Wenn Ati nicht in der Lage ist mehr zu liefern, muss MS im schlimmsten fall diese Hardware nehmen.

und was denkst du? Ist ATI nicht fähig oder doch? ;)

xL|Sonic
2004-06-02, 13:04:02
Tjo, schon klar das das aus deinem Mund kommt, aber gut, was will man von einem fanboy erwarten.

Hinzu kommt, dass einigen nicht wirklich klar zu seinen scheint, dass man mit der hardware keine Gewinne einfährt, sondern sich nur über die Software die Gewinne einholt.
Wenn man dann sich den hohen Startpreis beim erscheinen der XBox und PS2 anguckt, dann sind solche Gedanken an einen R500 oder gar R600 mit SM4 nicht wirklich abwegig.

reunion
2004-06-02, 13:04:30
Original geschrieben von LovesuckZ
Wenn Ati nicht in der Lage ist mehr zu liefern, muss MS im schlimmsten fall diese Hardware nehmen.

Sorry, aber das ist absurd, sollte sich der Chip wirklich verspäten wird sich auch die X-box verspäten.

reunion
2004-06-02, 13:05:56
Original geschrieben von Valmar
Tjo, schon klar das das aus deinem Mund kommt, aber gut, was will man von einem fanboy erwarten.

Hinzu kommt, dass einigen nicht wirklich klar zu seinen scheint, dass man mit der hardware keine Gewinne einfährt, sondern sich nur über die Software die Gewinne einholt.
Wenn man dann sich den hohen Startpreis beim erscheinen der XBox und PS2 anguckt, dann sind solche Gedanken an einen R500 oder gar R600 mit SM4 nicht wirklich abwegig.

ACK, der X-box Chip wird sicherlich auf höher der Zeit sein, wenn nicht sogar seiner zeit vorraus...
Ich tippe auf einem R500/R600 Hybriden...

LovesuckZ
2004-06-02, 13:08:39
Original geschrieben von [dzp]Viper
und was denkst du? Ist ATI nicht fähig oder doch? ;)

Frage mich das doch nochmal in 18 Monaten. :)

LovesuckZ
2004-06-02, 13:10:04
Original geschrieben von reunion
Sorry, aber das ist absurd, sollte sich der Chip wirklich verspäten wird sich auch die X-box verspäten.

Soll die Xbox nicht schon im jahre 2005 (USA) zum Weihnachtsfest kommen?
Ich bezweifel, dass man den Termin um ein jahr verschiebt, um auf einen verbesserten Core zu warten!

reunion
2004-06-02, 13:14:51
Original geschrieben von LovesuckZ
Soll die Xbox nicht schon im jahre 2005 (USA) zum Weihnachtsfest kommen?


keine Ahnung =) Gibt es dazu überhaupt schon eine offizielle Meldung?


Ich bezweifel, dass man den Termin um ein jahr verschiebt, um auf einen verbesserten Core zu warten!

Ich nicht, die Komponente eine Konsole sind ganz genau aufeinander abgestimmt, da kann man nicht einfach einen anderen Chip nehmen, außerdem muss man ja deswegen nicht gleich um ein Jahr verschieben. Im übrigen glaube ich das sich diese frage überhaupt nicht stellt, warum sollte ATI nicht in der Lage sein diesen Chip zu liefern?

seahawk
2004-06-02, 13:35:31
Original geschrieben von reunion
ACK, der X-box Chip wird sicherlich auf höher der Zeit sein, wenn nicht sogar seiner zeit vorraus...
Ich tippe auf einem R500/R600 Hybriden...

Und wer soll so ein Monster bezahlen. Speilkonsolen sind preisensitiv.

EDRAM, SM4.0, und vlielleicht eine überlegen Rohleistung ?? Wieviel Transistoren soll der den haben. Wie will man den in einer Spielkonsole billig und leise kühlen ??

Ich persönlich glaube, dass der XBOX-Chip nichts mit den normalen zu tun haben wird. Er wird zwar SM X.0 komaptibel sein, aber mehr auch nicht.

TheGood
2004-06-02, 13:41:10
Original geschrieben von Valmar
Das selbst 5 jahre alte Konsolen immer noch mit dem PC mithalten können bzw. teilweise sogar noch besser aussehen, zeigen Spiele wie Metal Gear Solid 3, Project Gotham Racing 2, Gran Tourismo 4, Fable usw.

hm da sagen aber die gamestar schergen was ganz anders. Die waren regelrechte enttäsucht wie schlecht MGS3 im vergleich zu Splinter Cell 3 (pcfassung) ausgesehen hat.
Nur so als zwischenruf. Denn ich denke diese Beurteilung kann auch die Gamestar machen ;)

[dzp]Viper
2004-06-02, 13:43:47
Original geschrieben von seahawk
Und wer soll so ein Monster bezahlen. Speilkonsolen sind preisensitiv.


das hat man sich damals auch bei der Xbox 1 gefragt...

der preis damals war weit unter dem preis der komponenten die in der xbox drin waren...

StefanV
2004-06-02, 13:45:14
Original geschrieben von seahawk
EDRAM, SM4.0, und vlielleicht eine überlegen Rohleistung ??

Öhm, du meinst sicher eDRAM (=embedded DRAM), oder?

EDRAM spricht sich Enhanched DRAM aus...

robbitop
2004-06-02, 13:46:28
ein seperater Chip? meinst du ATi hat dazu R&D ??
in PC und Nintendo und XBOX wird ein PC Derivat stecken..mehr oder weniger abgewandelt, mehr ist nicht drin.
ist nur die Frage was reinkommt. Wenn schon 10MiB eDRAM enthalten sein sollen, sind schonmal gut 100Mio Transistoren weg. Da passt nur schwer ein SM3/4 chip noch rein, der sehr leistungsfähig ist bei 90nm. Der R420 würde perfekt passen. Da ist eben nicht mehr viel Spielraum. Die 10MiB eDRAM sollten den R420 ziemlich nach oben katapultieren. Wozu mehr als 16 Pixel/Takt und 6VS Units?
Mehr als SM2 und HDR wird zu Lebzeiten eh nicht realisiert.

@stefan
Korinthenkacker!! ..ich glaube du hast das nun oft genug verbreitet im Forum. Wers immer noch nicht geschnallt hat ist imo selbst schuld =)

seahawk
2004-06-02, 14:22:04
Original geschrieben von Stefan Payne
Öhm, du meinst sicher eDRAM (=embedded DRAM), oder?

EDRAM spricht sich Enhanched DRAM aus...

Danke für die Korrektur - ich meinte eDRAM.

@robbi

Ich glaube an eine eigene Abwandlung eines PC-Chips. Aber an eine Variante die es für den PC nie so geben wird.

Die Technolgie wird von den PC-Chips kommen. Aber ich denke es wird kein direktes Pendant für den PC geben.

An einen 250 Millionen Transistoren Monster glaube ich nicht. MS hat gelernt wie preissensitiv Spielkonsolen sind. Und ich glaube nicht, dass die die XBOX2 noch einmal so massiv stützen wollen wie die erste XBOX.

Meine Vorstellung wäre z.B. ein 8 Pipe RV380 Variante mit eDRAM. Oder eine niedrieger getaktete Version des R420 mit eDRAM.

Ein eDRAM + SM4.0 + 16Pipes + Takt >500Mhz sehe ich nicht in einer Spielkonsole die 2005 erscheinen soll. Das wäre wahrscheinlich ein 360-400 Millionen Transistoren Chip. Da kommt mir Presi, Kühlung, Stromversorgung usw. nicht Spielkonsolen kompatibel vor.

Technisch machbar und bezahlbar könnte eine R420 Variante mit edRAM sein.

robbitop
2004-06-02, 14:30:31
ich spekuliere auf einen veränderten R420 mit 10MiB eDRAM.
Ich denke eine 8 Pipeversion wäre für 2005/06 doch etwas zu schwach.

xL|Sonic
2004-06-02, 14:34:47
Original geschrieben von seahawk
Danke für die Korrektur - ich meinte eDRAM.

@robbi

Ich glaube an eine eigene Abwandlung eines PC-Chips. Aber an eine Variante die es für den PC nie so geben wird.

Die Technolgie wird von den PC-Chips kommen. Aber ich denke es wird kein direktes Pendant für den PC geben.

An einen 250 Millionen Transistoren Monster glaube ich nicht. MS hat gelernt wie preissensitiv Spielkonsolen sind. Und ich glaube nicht, dass die die XBOX2 noch einmal so massiv stützen wollen wie die erste XBOX.

Meine Vorstellung wäre z.B. ein 8 Pipe RV380 Variante mit eDRAM. Oder eine niedrieger getaktete Version des R420 mit eDRAM.

Ein eDRAM + SM4.0 + 16Pipes + Takt >500Mhz sehe ich nicht in einer Spielkonsole die 2005 erscheinen soll. Das wäre wahrscheinlich ein 360-400 Millionen Transistoren Chip. Da kommt mir Presi, Kühlung, Stromversorgung usw. nicht Spielkonsolen kompatibel vor.

Technisch machbar und bezahlbar könnte eine R420 Variante mit edRAM sein.

Aber sicher werden sie die XBox2 pushen, MS will unbedingt die Marktführerschaft, die machen doch nicht 4 Jahre nen Verlustgeschäft mit der XBox nur um dann mit der XBox2 was halbherziges und veraltetes auf den Markt zu werfen, mensch wo lebt ihr denn. Wie es scheint, haben hier nur recht wenige Ahnung vom Konsolensektor...
Wenn ihr so unglaubwürdig seid, schaut euch doch einfach mal den Cell Chip an und btw. wenn die XBox2 ende 2005 raus kommt, relativiert sich das auchschon alles wieder etwas, was jetzt als schier unmöglich erscheint.

robbitop
2004-06-02, 14:35:55
und du bist natürlich der Konsolenguru .. o_O

xL|Sonic
2004-06-02, 14:38:20
Original geschrieben von TheGood
hm da sagen aber die gamestar schergen was ganz anders. Die waren regelrechte enttäsucht wie schlecht MGS3 im vergleich zu Splinter Cell 3 (pcfassung) ausgesehen hat.
Nur so als zwischenruf. Denn ich denke diese Beurteilung kann auch die Gamestar machen ;)

Gamestar...das sagt doch schon alles, die haben selbst auf dem PC Sektor nur wenig Ahnung und da glaubst du, die wissen über den Konsolensektor bescheid ? Was MGS3 angeht:
http://www.konamijpn.com/products/mgs3/english/video_clips_main.html
Guckt euch mal die Trailer an und vergleicht das mit einem 4 Jahre alten PC, was da möglich wäre.
Und was hat den Splinter Cell 3 so tolles ? Da prasselt nichtmal der Regen realistisch auf den Figuren nieder bzw. wenn die Figuren durch Pfützen rennen, was du allerdings schon bei MGS2 hast....

xL|Sonic
2004-06-02, 14:40:43
Original geschrieben von robbitop
und du bist natürlich der Konsolenguru .. o_O

Naja, ich beschäftige mich damit schon länger als mit PC's. Hatte selber NES, SNES, Mega Drive, Saturn, N64, PS, Dreamcast. Dann kam 2000 der PC und hat mein ganzes Geld fürs aufrüsten verschlungen. Aber demnähst werde ich mir wohl ne XBox und Gamecube kaufen, weil mir auf dem PC in naher Zukunft zu wenig gute Spiele erscheinen, was Gameplay usw. angeht.

Ailuros
2004-06-02, 14:45:08
Ein eDRAM + SM4.0 + 16Pipes + Takt >500Mhz sehe ich nicht in einer Spielkonsole die 2005 erscheinen soll. Das wäre wahrscheinlich ein 360-400 Millionen Transistoren Chip. Da kommt mir Presi, Kühlung, Stromversorgung usw. nicht Spielkonsolen kompatibel vor.

Technisch machbar und bezahlbar könnte eine R420 Variante mit edRAM sein.

Zwischen den zwei Moeglichkeiten oben ist der Unterschied in Transistoren-Aufwand so klein, dass es sehr wohl moeglich ist selbst fuer 2005.

***edit: XBox2 wird IMHO auf jeden Fall >SM3.0 sein. Ob ganz SM4.0 oder WGF kompliant keine Ahnung.

betasilie
2004-06-02, 14:48:18
Original geschrieben von Quasar
Ich möchte mal behaupten, daß sie "world leading performance" bringt. ;)
Gutes Argument. :biggrin:

seahawk
2004-06-02, 14:56:44
Original geschrieben von Ailuros
Zwischen den zwei Moeglichkeiten oben ist der Unterschied in Transistoren-Aufwand so klein, dass es sehr wohl moeglich ist selbst fuer 2005.

***edit: XBox2 wird IMHO auf jeden Fall >SM3.0 sein. Ob ganz SM4.0 oder WGF kompliant keine Ahnung.

Glaubst Du, dass Ende 2005 ein 400-500 Millionen Transisotren Monster in einer Spielkonsole machbar ist ??

Ich erwarte eigentlich einen eigenenChip für die XBOX der zwar Elemente der PC-Chips verwenden wird aber in dieser Form im PC Line-Up nicht auftaucht.

Er wird effizienter sein müssen, er wird kühler sein müssen, er wird weniger Leistungsaufnahme haben müssen und er wird bis zu HDTV Auflösungen ausreichend Leistung bringen.

Wird er AA+AF haben ?

Er wird fortschrittliche Shader haben. (ich denke zwischen 3.0 und 4.0)

Ich denke ATI wird dafür eine extre Chipvariante bauen.

robbitop
2004-06-02, 14:59:15
welche Konsolen man hat, macht einen nicht zum Konsolenguru. Aber das zu bewerten ist nicht meine Sache..ich werde das auch nicht weiter kommentieren.

betasilie
2004-06-02, 15:09:01
Original geschrieben von seahawk
Ich erwarte eigentlich einen eigenenChip für die XBOX der zwar Elemente der PC-Chips verwenden wird aber in dieser Form im PC Line-Up nicht auftaucht.

Er wird effizienter sein müssen, er wird kühler sein müssen, er wird weniger Leistungsaufnahme haben müssen und er wird bis zu HDTV Auflösungen ausreichend Leistung bringen.

Wird er AA+AF haben ?

Er wird fortschrittliche Shader haben. (ich denke zwischen 3.0 und 4.0)

Ich denke ATI wird dafür eine extre Chipvariante bauen.
Das was Du da schreibst ist doch alles klar wie Kloßbrühe. Es geht wohl eher um technische Details.

Und natürlich wird der Chip AF und AA haben. Wieso sollte er nicht? :kratz:

xL|Sonic
2004-06-02, 15:27:53
Original geschrieben von robbitop
welche Konsolen man hat, macht einen nicht zum Konsolenguru. Aber das zu bewerten ist nicht meine Sache..ich werde das auch nicht weiter kommentieren.

Ich wollte dir damit nur zeigen, dass ich mich sehr wohl schon seit geraumer Zeit mit dem Thema Konsolen beschäftige, mehr nicht, aber ich möchte schon behaupten, dass man dadurch mehr Ahnung hat, als jemand der noch nie eine Konsole besessen hat.
Ohne eigene Erfahrungen ist es oft schwer über den Tellerrand zu schauen.

seahawk
2004-06-02, 15:30:07
Original geschrieben von betareverse
Das was Du da schreibst ist doch alles klar wie Kloßbrühe. Es geht wohl eher um technische Details.

Und natürlich wird der Chip AF und AA haben. Wieso sollte er nicht? :kratz:

Gibt es denn schon eine Konsole die AA+AF nutzt ?

Zum ersten Punkt. Also glaubst Du auch, dass die XBOX eine Chip bekommen wird, der in dieser Form nicht im PC auftauchen wird.

xL|Sonic
2004-06-02, 15:40:46
Original geschrieben von seahawk
Gibt es denn schon eine Konsole die AA+AF nutzt ?

Zum ersten Punkt. Also glaubst Du auch, dass die XBOX eine Chip bekommen wird, der in dieser Form nicht im PC auftauchen wird.

Jep der Dreamcast benutzt teilweise AA soweit ich weiss (bei NBA 2k-Serie z.B.). Ich glaube es war 2x AA, aber ist schon ne geraume Zeit her, als ich das gelesen habe.

disap.ed
2004-06-02, 15:45:07
Gibt es denn schon eine Konsole die AA+AF nutzt ?
Ja, XBox und Gamecube

Also glaubst Du auch, dass die XBOX eine Chip bekommen wird, der in dieser Form nicht im PC auftauchen wird.
Bin zwar nicht Betareverse, aber ich bin mir ganz sicher dass der Chip in DIESER Form nicht am PC-Markt erscheinen wird, da die 10MB eDRAM dafür zu wenig wären und sich mehr wohl kaum realisieren ließe und dieser deshalb in der PC-Version wohl ganz weggelassen wird. Dass die Architekturen verwandt sind, glaube ich aber schon.

Vergessen sollte man finde ich auch nicht, dass sie für Nintendo auch noch einen Chip designen, da kann ich mir noch eher vorstellen dass der auf dem R420 passiert (eventuell auch mit eDRAM), weil Nintendo immer mehr auf die Ökonomie schaut als M$, weshalb ich glaube dass der XB2-Chip durchaus eine Generation weiter sein wird, also SM3.0/4.0

robbitop
2004-06-02, 15:50:46
ok da stimme ich dir zu. Jedoch bin auch ich mit Konsolen aufgewachsen (mein bester Freund hatte immer nur Konsolen und was meinst du was wir nach der Schule gemacht haben? ^^).
Das ganze ging mit dem NES los und hörte bei der PS2 auf.
Wir haben soziemlich auf jeder Konsole gedaddelt, die es gab, aber mich macht das zugegebenermaßen kaum zu einem Konsolenexperten.

Ich denke welcher Grafikchip drin sein wird, sollte eine Kalkulation von MS sein und auch abhängig vom Bereich des machbaren im 90nm Prozess. 300Mio Transistoren kann ich mir noch vorstellen...aber darüber?

xL|Sonic
2004-06-02, 15:53:31
Original geschrieben von disap.ed
Ja, XBox und Gamecube


Bin zwar nicht Betareverse, aber ich bin mir ganz sicher dass der Chip in DIESER Form nicht am PC-Markt erscheinen wird, da die 10MB eDRAM dafür zu wenig wären und sich mehr wohl kaum realisieren ließe und dieser deshalb in der PC-Version wohl ganz weggelassen wird. Dass die Architekturen verwandt sind, glaube ich aber schon.

Vergessen sollte man finde ich auch nicht, dass sie für Nintendo auch noch einen Chip designen, da kann ich mir noch eher vorstellen dass der auf dem R420 passiert (eventuell auch mit eDRAM), weil Nintendo immer mehr auf die Ökonomie schaut als M$, weshalb ich glaube dass der XB2-Chip durchaus eine Generation weiter sein wird, also SM3.0/4.0

Auch das was Nintendo angeht würde ich nicht unterstreichen, denn beim gamecube enstand der niedrige preis hauptsächlich dadurch, dass auf den ganzen Multimedia Kram verzichtet wurde, kein DVD Player, keine Festplatte, kein Ethernet usw. Ich würde vorsichtig mit solchen Äußerungen sein. Die Konsolen werden Leistungstechnisch wohl wieder alle auf einem ähnlich hohen Level sein, was sie auch sein müssen, denn sonst würden sie im Dreikampf schnell untergehen.

betasilie
2004-06-02, 15:55:14
Original geschrieben von seahawk
Gibt es denn schon eine Konsole die AA+AF nutzt ?

Klar, X-Box und NGC.

Edit:
Und die PS2 auch, afaik,, wenn sie 6MB statt 4 MB eDRAM gehabt hätte.

Original geschrieben von seahawk
Zum ersten Punkt. Also glaubst Du auch, dass die XBOX eine Chip bekommen wird, der in dieser Form nicht im PC auftauchen wird.
Ja, defnitiv. Und ich bin der meinung der X-BoxII Chip wird weiter vom R500 weg sein, als damals der NV2a vom NV20.

xL|Sonic
2004-06-02, 15:55:16
Original geschrieben von robbitop
ok da stimme ich dir zu. Jedoch bin auch ich mit Konsolen aufgewachsen (mein bester Freund hatte immer nur Konsolen und was meinst du was wir nach der Schule gemacht haben? ^^).
Das ganze ging mit dem NES los und hörte bei der PS2 auf.
Wir haben soziemlich auf jeder Konsole gedaddelt, die es gab, aber mich macht das zugegebenermaßen kaum zu einem Konsolenexperten.

Ich denke welcher Grafikchip drin sein wird, sollte eine Kalkulation von MS sein und auch abhängig vom Bereich des machbaren im 90nm Prozess. 300Mio Transistoren kann ich mir noch vorstellen...aber darüber?

Naja, wir haben jetzt 220Millionen erreicht mit dem nv40, bis die XBox2 erscheint sind es noch fast 1 1/2 Jahre Zeit und die Entwicklung ist rasend schnell...

disap.ed
2004-06-02, 16:22:52
Auch das was Nintendo angeht würde ich nicht unterstreichen, denn beim gamecube enstand der niedrige preis hauptsächlich dadurch, dass auf den ganzen Multimedia Kram verzichtet wurde, kein DVD Player, keine Festplatte, kein Ethernet usw. Ich würde vorsichtig mit solchen Äußerungen sein. Die Konsolen werden Leistungstechnisch wohl wieder alle auf einem ähnlich hohen Level sein, was sie auch sein müssen, denn sonst würden sie im Dreikampf schnell untergehen.
Ach komm', der GC-Grafikchip war auch mindestens eine halbe Generation hinter dem der XBox, dass es trotzdem beim Großteil der Spiele keine großen Unterschiede gibt liegt schlicht und ergreifend an den Multiplattformentwicklungen, die sich immer an der PS2 orientieren.
Versteh' mich nicht falsch, ich habe selbst einen GC, aber es ist nunmal Tatsache dass die XBox technologisch einen Schritt weiter ist (vor allem was den Sound anbelangt).
Außerdem wird Nintendo ja nicht müde zu erklären, dass es bei der nächsten Generation nicht so sehr auf die technischen Daten ankommen wird, sondern viel mehr auf neue Ideen, was sich für mich nicht so anhört als wollten sie technologisch ganz vorne mitspielen.

Nintendo wird nächstes Jahr den "Revolution" ankündigen, der ja scheinbar nicht wie vorher angenommen der Nachfolger des GC sondern etwas ganz neues sein soll. Vielleicht ist ja das nur ein Zwischenschritt und Nintendo kommt 2007 oder so dann mit dem echten GC-Nachfolger, der technologisch dann sogar vor PS3 und XB2 liegen könnte, ähnlich wie sie es jetzt mit dem DS und dann GBA2 anscheinend vorhaben.

Time will tell

ow
2004-06-02, 16:26:03
Original geschrieben von Valmar
Naja, wir haben jetzt 220Millionen erreicht mit dem nv40, bis die XBox2 erscheint sind es noch fast 1 1/2 Jahre Zeit und die Entwicklung ist rasend schnell...

ATi hat etwa 2 Jahre gebraucht, um von 107Mio auf etwa 160Mio Transis zu kommen.......

betasilie
2004-06-02, 16:31:31
Original geschrieben von Valmar
Naja, wir haben jetzt 220Millionen erreicht mit dem nv40, bis die XBox2 erscheint sind es noch fast 1 1/2 Jahre Zeit und die Entwicklung ist rasend schnell...
Und hinzu kommt, dass Konsolen in der Regel wirklich das gerade so Machbare an Hardware eingepflanzt bekommen, um möglichst lange aktuell zu bleiben.

Die Daten der PS3 hören sich auch exorbitant an, aber erstens müssen solche Konsolen einige Jahre den Markt bedienen und zweitens werden XBoxII und PS3 auch sehr hohe Einführungspreise haben und die Hersteller subventionieren die hardware auch gerne die ersten 12 Monate oder auch länger.

ironMonkey
2004-06-02, 16:35:20
An sich 180, wenn man den R423 nimmt, das wären knapp 70% mehr, nochmal 70% dazu und man hängt bei 300.



Gruß

kami
2004-06-02, 16:39:02
Wird interessant zu sehen sein, wie man Stromverbrauch und Hitzeentwicklung in den Griff bekommt. Aber ist ja noch was hin. :)

DrumDub
2004-06-02, 17:12:05
Original geschrieben von ironMonkey
An sich 180, wenn man den R423 nimmt, das wären knapp 70% mehr, nochmal 70% dazu und man hängt bei 300.


die 180 mio. für den r423 können imho nicht stimmen. laut aths gibt ati 160+ für den r423 an. das pci-e interface kostet sicherlich keine 20 mio. transen. (bagesehen davon, adss agp ja noch wegfällt.)

siehe: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1867305#post1867305

xL|Sonic
2004-06-02, 17:32:32
Original geschrieben von disap.ed
Ach komm', der GC-Grafikchip war auch mindestens eine halbe Generation hinter dem der XBox, dass es trotzdem beim Großteil der Spiele keine großen Unterschiede gibt liegt schlicht und ergreifend an den Multiplattformentwicklungen, die sich immer an der PS2 orientieren.
Versteh' mich nicht falsch, ich habe selbst einen GC, aber es ist nunmal Tatsache dass die XBox technologisch einen Schritt weiter ist (vor allem was den Sound anbelangt).
Außerdem wird Nintendo ja nicht müde zu erklären, dass es bei der nächsten Generation nicht so sehr auf die technischen Daten ankommen wird, sondern viel mehr auf neue Ideen, was sich für mich nicht so anhört als wollten sie technologisch ganz vorne mitspielen.

Nintendo wird nächstes Jahr den "Revolution" ankündigen, der ja scheinbar nicht wie vorher angenommen der Nachfolger des GC sondern etwas ganz neues sein soll. Vielleicht ist ja das nur ein Zwischenschritt und Nintendo kommt 2007 oder so dann mit dem echten GC-Nachfolger, der technologisch dann sogar vor PS3 und XB2 liegen könnte, ähnlich wie sie es jetzt mit dem DS und dann GBA2 anscheinend vorhaben.

Time will tell

Der GC liegt zwischen XBox und PS2, was die Grafikleistung angeht. Den Flipper kannst du von der Performance her mit einem R200, der bekanntlich zwischen GF3 und GF4 anzusiedeln ist, vergleichen.
Was den Sound angeht hast du natürlich recht. Nintendo dachte wohl, der analoge Sound würde reichen, da man eh kein DVD Playback hat und eher weniger damit gerechnet hat, dass auch für den Gaming Sektor Dolby Digital immer wichtiger wird.

disap.ed
2004-06-02, 17:48:02
Der GC liegt zwischen XBox und PS2, was die Grafikleistung angeht. Den Flipper kannst du von der Performance her mit einem R200, der bekanntlich zwischen GF3 und GF4 anzusiedeln ist, vergleichen.
Nicht mal annähernd, wohl eher ein aufgebohrter R100, sowohl was Features als auch Speed angeht. Höchstens der eDRAM (oder 1T-SRAM, wie auch immer) reißt ihn noch ein bisschen raus.

Wobei man ja nicht vergessen sollte, dass der Chip mit der ATI-Architektur rein gar nichts zu tun hat, da ja ArtX erst aufgekauft wurde nachdem der Chip fertig war.

Nichtsdestotrotz ist es erstaunlich, was man aus solcher Hardware rauspressen kann, wenn ich mir zB RE4 ansehe.

robbitop
2004-06-02, 17:59:47
LOL den Flipper kannst du mit gar nichts vergleichen, da er keine PC Architektur ist. Und ATi hat mit dem Flipper bis auf den Support rein gar nichts zu tun.

xL|Sonic
2004-06-02, 18:05:46
Hab ja auch gesagt von der Performance her, weil der XBox Grafikchip auf ähnlichem Niveau liegt.
Das der Flipper langsamer ist, ist schlichtweg falsch, schau dir doch mal sone Spiele wie Star Fox Adventures, Biohazard, Metroid Prime und und und an.
Selbst bei Ports auf allen Konolen schneidet die GC version meist nur minimal schlechter in Sachen Grafik ab, als die XBox Versionen.
Gibt auch Ausnahmen, aber das liegt an der schlechten Programmierung bzw. Umsetzung.

disap.ed
2004-06-02, 18:25:35
Das der Flipper langsamer ist, ist schlichtweg falsch[...]
Selbst bei Ports auf allen Konolen schneidet die GC version meist nur minimal schlechter in Sachen Grafik ab, als die XBox Versionen.
Kannst du mir sagen wie diese zwei Sätze zusammenpassen?


@ robbitop
Ja, habe ich eh noch editiert, bin aber kurz was essen gangen und hab vergessen dass i das noch abschicken auch sollte :)

xL|Sonic
2004-06-02, 19:15:54
Naja ganz einfach, du meintest, dass der GC in Sachen Grafik viel schlechter als die XBox wäre, was aber so nicht stimmt. Der Gamecube ist nur minimal schlechter was die Grafik angeht.
(Kein Unterschied wie du angegeben hast von GF3 auf Radeon)

xL|Sonic
2004-06-02, 19:21:51
Hier nochmal die Specs vom Gamecube.
http://www.pcvsconsole.com/features/consoles/gamecube.php

disap.ed
2004-06-02, 22:12:21
Naja ganz einfach, du meintest, dass der GC in Sachen Grafik viel schlechter als die XBox wäre, was aber so nicht stimmt. Der Gamecube ist nur minimal schlechter was die Grafik angeht.
Der XBox-Chip ist ein aufgemotzter NV20 (hieß ja IIRC auch NV2x), den Flipper würd' ich technologisch (nicht architektonisch) zwischen R100 und R200 ansiedeln, deswegen hab' ich geschrieben eine halbe Generation zurück. Dass so ein riesiger Unterschied ist hab ich nicht gesagt, nur dass der XB-Chip deutlich schneller ist, was IMO auch der Realität entspricht, wenn ich mir bspw. Splinter Cell auf den 3 Konsolen ausschaut, da ist bei XB merklich am meisten drin (graphisch).

robbitop
2004-06-02, 22:32:22
Original geschrieben von disap.ed
Der XBox-Chip ist ein aufgemotzter NV20 (hieß ja IIRC auch NV2x), den Flipper würd' ich technologisch (nicht architektonisch) zwischen R100 und R200 ansiedeln, deswegen hab' ich geschrieben eine halbe Generation zurück. Dass so ein riesiger Unterschied ist hab ich nicht gesagt, nur dass der XB-Chip deutlich schneller ist, was IMO auch der Realität entspricht, wenn ich mir bspw. Splinter Cell auf den 3 Konsolen ausschaut, da ist bei XB merklich am meisten drin (graphisch).

1. hiess NV2A nicht NV2x
2. welche Fakten bringen dich zu dem Schluss? (Einordnung in irgendeine Architektur)?

doch alles sehr gewagt...

Ailuros
2004-06-03, 07:09:04
Original geschrieben von seahawk
Glaubst Du, dass Ende 2005 ein 400-500 Millionen Transisotren Monster in einer Spielkonsole machbar ist ??

Ich erwarte eigentlich einen eigenenChip für die XBOX der zwar Elemente der PC-Chips verwenden wird aber in dieser Form im PC Line-Up nicht auftaucht.

Er wird effizienter sein müssen, er wird kühler sein müssen, er wird weniger Leistungsaufnahme haben müssen und er wird bis zu HDTV Auflösungen ausreichend Leistung bringen.

Wird er AA+AF haben ?

Er wird fortschrittliche Shader haben. (ich denke zwischen 3.0 und 4.0)

Ich denke ATI wird dafür eine extre Chipvariante bauen.

Komischerweise steigt die Anzahl der Transistoren aus unerklaerlichen Gruenden in jedem folgenden Deiner Posts :D

Nochmal wenn ich R420 + eDRAM und einen SM3.0+ chip mit eDRAM vergleichbar einschaetze ist der Unterschied klein.

Der Unterschied zwischen R420 und NV40 sind an die 60M Transistoren, dabei hat der letztere schon quasi unlimited resources auf Papier; der XBox2 chip hat wohl eben mehr ALUs als der letztere.

Die Frage ist hier nur wieviele Transistoren fuer eDRAM, denn es haengt ja auch vom Hersteller ab. Mehr als ~350M werden es trotzdem hoechstwahrscheinlich nicht sein und natuerlich wird das Ding MSAA und AF unterstuetzen, das erste sogar mit minimalstem Leistungsverlust bei 4x samples. Uebrigens welcher Herstellungsprozess hm? ;)

seahawk
2004-06-03, 07:38:55
Original geschrieben von Ailuros
Komischerweise steigt die Anzahl der Transistoren aus unerklaerlichen Gruenden in jedem folgenden Deiner Posts :D

Nochmal wenn ich R420 + eDRAM und einen SM3.0+ chip mit eDRAM vergleichbar einschaetze ist der Unterschied klein.

Der Unterschied zwischen R420 und NV40 sind an die 60M Transistoren, dabei hat der letztere schon quasi unlimited resources auf Papier; der XBox2 chip hat wohl eben mehr ALUs als der letztere.

Die Frage ist hier nur wieviele Transistoren fuer eDRAM, denn es haengt ja auch vom Hersteller ab. Mehr als ~350M werden es trotzdem hoechstwahrscheinlich nicht sein und natuerlich wird das Ding MSAA und AF unterstuetzen, das erste sogar mit minimalstem Leistungsverlust bei 4x samples. Uebrigens welcher Herstellungsprozess hm? ;)

Naja ich habe die Transistorenzahl erhöht weil ich auch die Anforderungen erhöht habe - entsprechend den Spekulationen.

- Performance besser als heutige High-End-Chips
- SM4.0
- eDRAM

Won dem NV40 ausgehend sollte man auf irgendetwas zwischen 350-500 Millionen kommen. 350 ist möglich.

Der Prozess ist auch so eine Frage. 0,09 würde eine besser Ausbeute pro Waffer bedeuten. Allerdings ist es mir nicht klar ob Ende 2005 da schon eine ausreichende Produktionskapazität geben wird. Aber ich denke 0,09 ist wahrscheinlich.

disap.ed
2004-06-03, 15:44:56
Original geschrieben von robbitop
1. hiess NV2A nicht NV2x
2. welche Fakten bringen dich zu dem Schluss? (Einordnung in irgendeine Architektur)?

doch alles sehr gewagt...

1. Ok, wollte aber sowieso damit nur die Nähe zur PC-Architektur andeuten

2. Takt, Anzahl der Pixelpipelines, Festverdrahtetes T&L, dafür aber schon Pixelshader (oder das selbe in Grün, heißt halt irgendwie anders), das alles lässt mich zum Fazit "Technologisch zwischen R100 und R200" kommen, man könnte auch sagen zwischen NV10 und NV20 wenn dir das lieber ist, denn es hat mit der einen Architektur so wenig zu tun wie mit der Anderen, aber ich habe ja auch geschrieben "Technologisch".

robbitop
2004-06-03, 15:54:46
naja scheinbar hast du dich nicht sonderlich informiert.

Quasar
2004-06-03, 16:37:03
Original geschrieben von Valmar
Naja, wir haben jetzt 220Millionen erreicht mit dem nv40, bis die XBox2 erscheint sind es noch fast 1 1/2 Jahre Zeit und die Entwicklung ist rasend schnell...

Andererseits kostet eine nV40-Karte momentan so etwa das, was in 1,5y die komplette Konsole nach Möglichkeit wohl _nicht_ kosten sollte.

disap.ed
2004-06-03, 19:29:33
@robbitop

Vielleicht kannst du mir ja erklären wo mein Denkfehler liegt, ich gebe schon zu dass ich kein Experte auf diesem Gebiet bin, aber das würd' mich jetzt schon interessieren, denn Gegenargumente sind von dir auch noch nicht gekommen.

robbitop
2004-06-03, 19:47:11
von dir sind einfach noch keine korrekten Angaben bekommen, warum beide vergleichbar wären.

Soweit würde ich nicht gehen.
Zumal der Flipper lediglich über recht flexible TMUs verfügt und nicht über Pixelshader.
Der Aufbau ist grundlegend anders...ich würde das einfach nicht mit einem PC Design vergleichen.

ice cool69
2004-06-03, 20:22:15
Sehe ich genauso wie robbitop, diese architekturen zu vergleichen ist ne waghalsige geschichte.

Es steht außer Frage dass die XBOX in einigen Disziplinen die besten Spezifikationen hat, doch auch der Gamecube hat seine Stärken.

Was zählt ist das Endergebnis und wenn ich mir einige GC-Spiele ansehe so ist der Cube absolut konkurrenzfähig.

seahawk
2004-06-03, 20:25:59
Original geschrieben von Quasar
Andererseits kostet eine nV40-Karte momentan so etwa das, was in 1,5y die komplette Konsole nach Möglichkeit wohl _nicht_ kosten sollte.

Exakt. Und dazu braucht die XBOX noch ne CPU und Sound und Laufwerk, ....

disap.ed
2004-06-03, 20:26:13
Es steht außer Frage dass die XBOX in einigen Disziplinen die besten Spezifikationen hat, doch auch der Gamecube hat seine Stärken.
Was zählt ist das Endergebnis und wenn ich mir einige GC-Spiele ansehe so ist der Cube absolut konkurrenzfähig.

Hab nie was anderes behauptet!

Im übrigen hab ich schon 3 mal gesagt dass ich nicht die Architektur vergleichen will sondern den Technologielevel, ich werd' jetzt trotzdem nichts mehr dazu sagen, führt sowieso zu keiner Lösung.

robbitop
2004-06-03, 20:33:57
technologielevel kannst du auch nicht vergleichen.
Zumal das Teil keine Pixelshader hat aber widerum eine eDRAM Anbindung...kannst du von daher auch nicht vergleichen.

ow
2004-06-03, 20:47:30
Original geschrieben von disap.ed
Hab nie was anderes behauptet!

Im übrigen hab ich schon 3 mal gesagt dass ich nicht die Architektur vergleichen will sondern den Technologielevel, ich werd' jetzt trotzdem nichts mehr dazu sagen, führt sowieso zu keiner Lösung.


Ich versteh auch nicht, warum dich hier niemand verstehen will. Ich tu´s jedenfalls.:)

ow
2004-06-03, 20:49:38
Original geschrieben von robbitop
technologielevel kannst du auch nicht vergleichen.
Zumal das Teil keine Pixelshader hat aber widerum eine eDRAM Anbindung...kannst du von daher auch nicht vergleichen.

Ich denke, Technologielevel ist hier auf im Bezug auf die in HW implementierten Algorithmen gemeint.
Natürlich kann man Konsolen- und PC-Chips da vergleichen.

robbitop
2004-06-03, 20:54:39
aha aha..
na dann vergleich es mal bitte...aber differenziere!

Ailuros
2004-06-04, 07:49:36
Original geschrieben von seahawk
Naja ich habe die Transistorenzahl erhöht weil ich auch die Anforderungen erhöht habe - entsprechend den Spekulationen.

Errrr nicht unbedingt. Siehe weiter unten.

- Performance besser als heutige High-End-Chips
- SM4.0
- eDRAM

Falls es tatsaechlich vereinte Einheiten sind, heisst das dann wohl dass man generell auch weniger Einheiten benutzt.

Won dem NV40 ausgehend sollte man auf irgendetwas zwischen 350-500 Millionen kommen. 350 ist möglich.

Hier ist eben genau mein Punkt den ich in den vorigen Posts und auch hier meine. Der Unterschied zwischen 350 und 500M Transistoren ist so gross dass Du dafuer noch einen ganzen SM3.0 chip daraus bauen koenntest. Mit 16xbi und SM3.0 sind mehr oder weniger 200M genug und dann kommt natuerlich noch eDRAM dazu wenn das dann auch stimmt und auch die 10MB Menge. Hier kann aber die Transistoren-Anzahl je nach eDRAM Hersteller immer noch schwanken aber nicht um 150M.

Der Prozess ist auch so eine Frage. 0,09 würde eine besser Ausbeute pro Waffer bedeuten. Allerdings ist es mir nicht klar ob Ende 2005 da schon eine ausreichende Produktionskapazität geben wird. Aber ich denke 0,09 ist wahrscheinlich.

Ich hab keine Ahnung fuer welchen Prozess geplant wurde und obwohl low-k 90nm am wahrscheinlichsten klingt, schliesse ich einen noch kleineren Prozess momentan noch nicht aus.

Wie dem auch sei wenn Du Dir das hypothetische XBox2 Diagramm genauer anschaust, dann siehst Du vielleicht dass fuer EDRAM (sorry so stets in dem Ding drin) eine andere Schachtel benutzt wird in der Darstellung. Falls das irgend etwas heissen sollte, dann muss es auch nicht ein getrennter die sein und es wuerde Antworten auf Deine Herstellungs-Prozess, Abwaerme usw Fragen geben.

robbitop
2004-06-04, 10:27:55
hm aber EDRAM wäre nicht wirklich sinnvoll.
Dann kannst du auch DDR RAM mit 512bit oder mehr anbinden.
Ich denke mal es wird sich hier schon um eingebetteten Speicher handeln. Das ist bei Konsolen sehr beliebt.

Bei einem NV40 + 10MiB eDRAM wären wir bei rund 300Mio Transistoren. Das sollte für 90nm machbar sein. Wenn man 16x1 tri machen würde und unnötige Features rauswerfen würde wäre das natürlich noch besser.
Ich bin mir sicher, dass im XBOX2 Chip auch mehr FPUs verbaut sind als im R420. Vieleicht kommt man dann auf 300-350Mio Transistoren (das wäre ok) und hätte damit einen recht netten Chip.
Aber was passt schon in 10MiB? Bei HDTV passt er FrameBuffer jedenfalls nicht mehr rein (besonders die Farbwerte würden das Interface gut entlasten). Vieleicht nimmt man auch einfach die Z Werte und ein paar der Farbwerte...sollte auch helfen.

disap.ed
2004-06-04, 13:11:38
@ow
Danke, genau so sehe ich das auch.
Aber manche wollen mich wohl einfach nicht verstehen, da sonst ihre Antworten obsolet wären.

ow
2004-06-04, 13:24:13
Original geschrieben von robbitop
aha aha..
na dann vergleich es mal bitte...aber differenziere!

Das ueberlasse ich dann mal unseren Gurus (sofern einer Willens dazu ist;)).

Es ist eine sehr grosse Anzahl an mathematischen Funktionen, die in einem Grafikchip implementiert sein.

Zum Beispiel seien hier einmal die schon recht zahlreichen Blending-Funktionen genannt, die heutzutage wohl jeder Chip beherrscht.

robbitop
2004-06-04, 13:26:42
ohne ow's Kompetenzen anzweifeln zu wollen, er hat nicht immer Recht ;) Und den Beleg für die Vergleichbarkeit (mit genauer Differenzierung) bleibt er uns noch schuldig.

Mir geht es nicht um die Obsoleszenz meiner Posts, ich lasse mich gern belehren, aber dann muss das auch Hand und Fuss haben. Das ist hier mitnichten der Fall.

just my 2 cents

Demirug
2004-06-04, 13:30:32
Das Problem wenn man Konsolenchips und PC-Chips vergleicht ist das es über Konsolenchips meist nur unzureichenden Informationen gibt.

ow
2004-06-04, 13:35:41
Original geschrieben von disap.ed
@ow
Danke, genau so sehe ich das auch.
Aber manche wollen mich wohl einfach nicht verstehen, da sonst ihre Antworten obsolet wären.


Ich wuerde da nicht von einem "wollen" ausgehen.
Ich habe da leider selbst sehr viel Erfahtung im "Nichtverstandenwerden".

ow
2004-06-04, 13:37:02
Original geschrieben von Demirug
Das Problem wenn man Konsolenchips und PC-Chips vergleicht ist das es über Konsolenchips meist nur unzureichenden Informationen gibt.

Daran scheitert das ganze auch IMO.

ow
2004-06-04, 13:42:13
Original geschrieben von robbitop
ohne ow's Kompetenzen anzweifeln zu wollen, er hat nicht immer Recht ;)


Dieses Recht beanspruche ich ja auch gar nicht.

Aber wann immer ich ein Posting lese, dass Interpretationen bezueglich des Inhaltes oder der Intention des Postenden zulaesst versuche ich, die 'richtige' Intention eben herauszulesen.

Es war mit hier recht schnell klar, was disap.ed denn zum Ausdruck bringen wollte. Und imo hat er da Recht.

Dass andere sein Posting nicht so aufgefasst haben, wie er das wollte, ist imo auch nicht weiter tragisch. Solche Missverstaendnisse lassen sich ja klaeren.:)

DrumDub
2004-06-04, 13:44:08
Original geschrieben von Demirug
Das Problem wenn man Konsolenchips und PC-Chips vergleicht ist das es über Konsolenchips meist nur unzureichenden Informationen gibt.

nun ja. da würde ich sagen, dies hängt von der konsole ab. oder weiß man wirklich so wenig über den nv2a?

robbitop
2004-06-04, 13:47:35
und IMO kann man ohne genaure technische Details des Flipper gar nichts dazu sagen.

ice cool69
2004-06-04, 14:52:50
Richtig, der Flipper ist viel zu undurchsichtig was die technischen Details angeht.
Alles was man weiß ist dass er sehr klein ist und Grafik- als auch Soundchip in sich vereint.
Von fest verdrahtetem T&L höre ich beim Cube zum ersten mal, ich habe da schon andere Dinge gehört (wobei genausowenig von Shadern die Rede war).

Anstatt hier rumzuphilosophieren wärs vielleicht gescheiter für dieses Thema mal ein bischen genauere Details rauszufinden.
Hat vielleicht jemand etwas zur Hand?

Ailuros
2004-06-04, 14:55:11
Original geschrieben von robbitop
hm aber EDRAM wäre nicht wirklich sinnvoll.
Dann kannst du auch DDR RAM mit 512bit oder mehr anbinden.
Ich denke mal es wird sich hier schon um eingebetteten Speicher handeln. Das ist bei Konsolen sehr beliebt.

Bei einem NV40 + 10MiB eDRAM wären wir bei rund 300Mio Transistoren. Das sollte für 90nm machbar sein. Wenn man 16x1 tri machen würde und unnötige Features rauswerfen würde wäre das natürlich noch besser.
Ich bin mir sicher, dass im XBOX2 Chip auch mehr FPUs verbaut sind als im R420. Vieleicht kommt man dann auf 300-350Mio Transistoren (das wäre ok) und hätte damit einen recht netten Chip.
Aber was passt schon in 10MiB? Bei HDTV passt er FrameBuffer jedenfalls nicht mehr rein (besonders die Farbwerte würden das Interface gut entlasten). Vieleicht nimmt man auch einfach die Z Werte und ein paar der Farbwerte...sollte auch helfen.

Ich sagte ja nur dass es so drinsteht in dem Diagramm; fuer was das eDRAM in dem Fall gedacht ist steht ja auch links unten in dem Ding drin.

Ich hab ja schonmal gesagt dass (ausser ich hab was wichtiges verpasst) ich nicht besonders aus meinen Socken gerissen bin fuer eine Console die Ende 2005 erscheinen soll und auch fuer etwa 5 Jahre aushalten muss.

Fuer mich klingen die Uebermenge von extra Transistoren fuer das was darin theoretisch reinpasst nicht unbedingt der Rede wert, aber ich taste mich hier schon halbwegs im Dunkeln um, da mir das Wissen fuer solche Schlussvolgerungen fehlt.

Ehrlich gesagt spielt es eine genauso wichtige Rolle was jegliches Produkt betrifft, was vergleichbare konkurrierende Loesungen zu bieten haben. Danach kann man erst eine relative Masslatte setzten und genauer entscheiden was genau "gut" oder "schlecht" ist (mal vereinfacht). Ergo wie sieht es bei SONY aus?

Ihr werdet mich entschuldigen wenn ich weniger bei SONY's naechster Console erwarte als der ganze Marketing/PR Rauch versprechen wird. Erfolg haengt wohl auch bei dieser Runde von der Vielzahl bzw. Qualitaet der Spiele und natuerlich der besseren Vermarktung ab. Auf Papier sehen SONY's Architekturen stets beindrueckend aus.

ice cool69
2004-06-04, 15:22:37
Naja um die bestmögliche Grafik zu haben kommt man sowieso nicht um den PC herum.

Konsolenspiele können recht lange mithalten da sie niedrigere Auflösungen sowie extrem hohe Optimierungen vorweisen können.

Also ich bin überzeugt davon dass zum Erscheinen der neuen Konsolen die technischen Daten wohl stärker sein werden als die High-End PC-Grafikbeschleuniger (zumindest in Japan/USA wo die Konsolen bis zu 1 Jahr früher herauskommen!!!)

Achja warum sollte die übernächste Grafikgeneration nicht 350-400 Mio Transistoren haben? Der Schritt zum NV40 war ja genauso groß, das liegt absolut im Bereich des Möglichen

Ailuros
2004-06-04, 15:45:53
Also ich bin überzeugt davon dass zum Erscheinen der neuen Konsolen die technischen Daten wohl stärker sein werden als die High-End PC-Grafikbeschleuniger (zumindest in Japan/USA wo die Konsolen bis zu 1 Jahr früher herauskommen!!!)

NV20< NV2A < NV25. Du kannst Dir ja die Veroeffentlichungstermine der XBox und GF3 und GF4 ja nachschlagen.

Mit dieser Logik macht auch die Spekulation Sinn, dass XBox2 irgendwo zwischen R500 und R600 liegen wird.

Oder anders: es ist meistens nur eine Frage von Monaten bis eine PC Loesung einen Consolen-Design uebertreffen wird.

Achja warum sollte die übernächste Grafikgeneration nicht 350-400 Mio Transistoren haben? Der Schritt zum NV40 war ja genauso groß, das liegt absolut im Bereich des Möglichen

Unmoeglich ueberhaupt nicht. Im gegebenen Fall ist das Fragezeichen bei mir ob der Transistoren-Aufwand fuer die hypothetische eDRAM Menge fuer XBox2 wirklich den Aufwand wert ist. Und hier ist die Frage dann ob man das Ganze nicht mit viel weniger Aufwand haette loesen koennen.

Koennte man den gesamten Framebuffer in den eigebetteten Speicher reinquetschen, dann wuerden die >100M Transistoren auch viel mehr Sinn machen.

Crazytype
2004-06-04, 16:12:47
Original geschrieben von ice cool69
Naja um die bestmögliche Grafik zu haben kommt man sowieso nicht um den PC herum.

Konsolenspiele können recht lange mithalten da sie niedrigere Auflösungen sowie extrem hohe Optimierungen vorweisen können.

Also ich bin überzeugt davon dass zum Erscheinen der neuen Konsolen die technischen Daten wohl stärker sein werden als die High-End PC-Grafikbeschleuniger (zumindest in Japan/USA wo die Konsolen bis zu 1 Jahr früher herauskommen!!!)

Achja warum sollte die übernächste Grafikgeneration nicht 350-400 Mio Transistoren haben? Der Schritt zum NV40 war ja genauso groß, das liegt absolut im Bereich des Möglichen

Naja kein Wunder, wenn die Konsolen alle in Japan produziert wurden(Xbox jetzt mal ausgenommen, ist ja auch keine Konsole *g*)
Eigentlich dauert es immer 6 Monate bis zum US-Release, der Europa-Release dauert dann auch nochmal 6 Monate.

robbitop
2004-06-04, 16:16:03
bei HDTV bräuchte man wohl eher 32MiB für den gesamten Framebuffer

seahawk
2004-06-04, 18:08:54
Ich persönlich glaube auch, dass der XBOX-Chip nie wirklich auf dem PC-Markt erscheint. Weiterhin glaube ich, dass er nicht besser sein muss als der zum zeitpunkt des Erscheinens erhältliche Top-Chip im PC-Segment.

Verlsutleistung und Kühlung sind bei einer Konsole ein viel größeres Thema als beim PC. Eine Konsole sollte ja möglichst ohna aktive Kühlung uaskommen und auch im Fach unter dem Fernsehr funktionieren.

Man wird also wahrscheinlich dann bekannte Technologie (R520) mit Featuren des R600 mischen und einen besseren Prozess wählen.

Ich denke der XBox Chip wird in der Rohleistung dem R520 entsprechen, dafür aber schon Features des Nachfolgers haben.

ice cool69
2004-06-04, 18:12:17
@ Ailuros

Bin absolut deiner Meinung.

Das war ja z.B. das geniale am Gamecube: klein, leise, kühl, billig und trotzdem konkurrenzfähig anstatt auf Teufel komm raus ein paar Polygone mehr darstellen zu können als die Konkurrenz und dafür eine große Liste an Nachteilen in Kauf zu nehmen.

Aber das ist nunmal M$...

robbitop
2004-06-04, 20:47:15
natürlich wird er in der Form nicht im PC Bereich auftreten. 10MiB eDRAM spricht einfach für eine Konsole. Beim PC wär das zuwenig und würde auch zuviele Transistoren fressen, die in logikparts besser aufgehoben wäre.

Demirug
2004-06-04, 21:47:43
Original geschrieben von ice cool69
Richtig, der Flipper ist viel zu undurchsichtig was die technischen Details angeht.
Alles was man weiß ist dass er sehr klein ist und Grafik- als auch Soundchip in sich vereint.
Von fest verdrahtetem T&L höre ich beim Cube zum ersten mal, ich habe da schon andere Dinge gehört (wobei genausowenig von Shadern die Rede war).

Anstatt hier rumzuphilosophieren wärs vielleicht gescheiter für dieses Thema mal ein bischen genauere Details rauszufinden.
Hat vielleicht jemand etwas zur Hand?

Da scheinbar keiner seine Unterlagen rausrücken will muss ich wohl doch.

Also so undurchsichtig ist der Flipper eigentlich gar nicht.

Die Pipeline besteht aus 5 Teilen:

- transform unit
- setup/rasterizer
- texture unit
- texture environment unit
- pixel engine

Die Transform Unit entspricht im wesentlichen einer HT&L Einheit eines DX7 Chips.

Über die "setup/rasterizer" Einheit braucht man nichts zu sagen da sie ja mehr oder minder alle das gleiche tun.

Die Pixelengine entspricht den ROPs in einem DX-Chip.

Die Texture Unit und die Texture Enviroment Unit bilden zusammen eine Art Pixel Shader. Das ganze ist irgendwie eine Mischung aus dem Konzept des NV20 und des R200. Mit bis zu 8 Texturen pro Pass aber mächtiger.

Es gibt noch mehr Infos. Zum Beispiel Listen mit dem Binär Code zur Steuerung des Flippers. Man muss nur etwas suchen. ;)

robbitop
2004-06-04, 22:13:48
das weiss ich bisher auch schon

braucht man keine Rechenwerke für einen Pixelshader?
AFAIR hatte der flipper einfach nur verdamt flexible TMU Logik

zeckensack
2004-06-04, 23:29:11
Original geschrieben von robbitop
das weiss ich bisher auch schon

braucht man keine Rechenwerke für einen Pixelshader?Rechenwerke? Sowas hat sogar schon 'ne Riva128 :freak:

robbitop
2004-06-04, 23:35:22
ah ja hab mich wohl falsch ausgedrückt X-D

Ich meine im Speziellen ALUs/FPUs. Die hatte man bei NV erst ab dem NV20 ..vorher warens nur Combiner Rechenwerke

ice cool69
2004-06-05, 12:16:45
Original geschrieben von Demirug
Da scheinbar keiner seine Unterlagen rausrücken will muss ich wohl doch.

Also so undurchsichtig ist der Flipper eigentlich gar nicht.

Die Pipeline besteht aus 5 Teilen:

- transform unit
- setup/rasterizer
- texture unit
- texture environment unit
- pixel engine

Die Transform Unit entspricht im wesentlichen einer HT&L Einheit eines DX7 Chips.

Über die "setup/rasterizer" Einheit braucht man nichts zu sagen da sie ja mehr oder minder alle das gleiche tun.

Die Pixelengine entspricht den ROPs in einem DX-Chip.

Die Texture Unit und die Texture Enviroment Unit bilden zusammen eine Art Pixel Shader. Das ganze ist irgendwie eine Mischung aus dem Konzept des NV20 und des R200. Mit bis zu 8 Texturen pro Pass aber mächtiger.

Es gibt noch mehr Infos. Zum Beispiel Listen mit dem Binär Code zur Steuerung des Flippers. Man muss nur etwas suchen. ;)

Danke Demi, das bringt uns ja schonmal weiter :)

Ailuros
2004-06-05, 13:39:00
Original geschrieben von robbitop
natürlich wird er in der Form nicht im PC Bereich auftreten. 10MiB eDRAM spricht einfach für eine Konsole. Beim PC wär das zuwenig und würde auch zuviele Transistoren fressen, die in logikparts besser aufgehoben wäre.

Beim Transistoren-Aufwand aendert sich bei eDRAM und einer Console wohl auch nichts. Mein eigentliches Fragezeichen bezieht sich dann wohl eher darauf, wieso eDRAM absolut "notwendig" auf einer Console waere. XBox war ja auch nicht mehr sooo weit von der "PC-Logik" entfernt. Im gegebenen Fall warum die Transistoren nicht woanders investieren.

Beispiel waere 4xMSAA (fuer das ja das Ding eigentlich optimiert werden sein soll) und das mit minimalem Leistungsverlust kommen soll; ich sehe keinen besonderen Leistungsverlust mit 4xMSAA bei einer NV40 als Beispiel; AF macht ja wohl dann auch keine besonderen Sorgen wenn ich an die Optimierungs-Maschen und an 16x bi denke.

Ich sehe nicht ein warum man nicht als Beispiel einen exotischeren AA Algorithmus (eine kluge coverage mask AA Variante) benutzen koennte und dabei noch viel mehr AA samples pro pixel mit aehnlich niedriger Leistung dazuzugewinnen.

http://www.beyond3d.com/forum/viewtopic.php?p=129946&highlight=coverage+mask#129946

http://www.beyond3d.com/forum/viewtopic.php?p=129585&highlight=coverage+mask#129585

Eine kluge Kombination von einem sparse sampled grid und den positiven Punkten von Z3, FAA und anderen kostet aber ungeheuer viel Zeit, einen Luxus den ATI wohl nicht unbedingt hat. Noch dazu kaeme dass ein solcher Algorithmus im Idealfall voll programmierbar sein muesste.

Fall etwas in dem Sinn auf deren roadmap fuer die uebernaechste Generation als Beispiel stehen wuerde (weiss ja keiner), dann ist die eDRAM Loesung fuer den XBox2 chip wohl nicht unbedingt eine billige und effektive Idee.

Alles IMHO und es muss auch nicht wirklich so sein, aber irgendwie hab ich das Gefuehl dass man zu schnell zu den einfachsten Loesungen greift, ohne alle Moeglichkeiten eine Chance zu geben; kann aber auch total falsch liegen.

robbitop
2004-06-05, 15:40:02
wenn eDRAM die Farbwerte größtenteils abfangen könnte, dann bräuchte man kein 256bit DDR Interface mit 550MHz mehr. Somit kann man kosten sparen -> Konsole eben ;)

Gast
2004-06-07, 08:13:17
Original geschrieben von Winter[Raven]
Ich weiß das R300 Design ist nicht 3.0 Freundlich, aber bei dem Interview bekomme ich einfach das gefühl nicht weg der R520 wird mal wieder ein Refresh, aka R300+3.0+0.90µ.

Die wirklich neue Architektur kommt dann mit der offiziellen veröffentlichung von Longhorn und DX NextG.

@ reunion

Ansichtssache, ich sehe nichts darin beindruckendes mit einem Chip aufzukreuzen, der nur einer wirklichen Neuerung besitzt! Ich empfinde es schon als eine der größten Frechheiten den anderen die Dreckarbeit machenzulassen und sich dann zeigen wenn alles vorbei ist!

ATI Politik :down:



Das werden wir sehn ;) Wenn der NV50 wieder als Techologiefortschrittlicher sich erweißt wäre ich mir nicht so sicher!

Als Beispiel nehmen wir den R420 vs NV40. Wir werdne ja sehn wer diese Runde gewinnen wird, ATi mit ihrem Steinzeit Chip der ab und zu etwas schneller ist, oder ein Modernerchip der ehe mit Features glänzt.

Wann wird endlich diese Art der sinnlosen Kommunikation gestoppt.

Winter du hast keinen Plan und schießt andauernd gegen ATI, deine Logo verrät ja schon deine Meinung, aber ich möchte dich warnen hier weiterhin Blödsinn zu behaupten.

Es scheint als ob du die WORTE "ERSt DENKEN, DANN SCHREIBEN" nie gelernt hast!

1. Hat nvidia hier einen Chip geliefert der technisch gesehen vom Stromverbrauch und der Lautstärke eher ein Rückschritt in Richtung Innovation ist.

2. Ist die R420 flüsterleise und schnell, ausreichend schnell wie der NV40!

3. Ist die Wahl der Grafikkarte diesmal mehr auf Emissionen gelegt.

robbitop
2004-06-07, 10:02:24
"1. Hat nvidia hier einen Chip geliefert der technisch gesehen vom Stromverbrauch und der Lautstärke eher ein Rückschritt in Richtung Innovation ist.

2. Ist die R420 flüsterleise und schnell, ausreichend schnell wie der NV40!"

1. wer das Eine mag muss das andere wollen. ATi hat keinen SM3 Chip auf 130nm realisieren KÖNNEN.
Zumal es wirklich nur delta 20W sind. Tut mir leid wer sich bei einer HighEnd Karte über lächerliche 20W (und dabei deutlich besserer Ausstattung) über Stromverbrauch aufregt macht sich imo einfach nur lächerlich. Ein heutiges HighEnd System verbraucht locker 200-250W, dann nochmal den Monitor oben drauf rechnen, sind wir bei mind 300W. Das sind nicht mal 7% mehr im Verbrauch. Und wer ein High End system hat, der ist sich dem Verbrauch wohl bewusst, bei solch teuren Komponenten.

2. Wie kann eine VPU flüsterleise sein? ATi kühlt halt nur die VPU. Jetzt wo die ganzen 9700 Karten (ohne Mods) abrauchen sehen wir ja was so kleine PCBs und nur Kühlung für VPUs bringt. Gut das ist seit der X800 anders. Unsere Radeonsamples waren schon immer extrem heiss, selbst das PCB. Sowas kann nicht gut sein.
Zumal die Kühlung herstellersache ist und nichts mit NV zu tun hat. Die designen nur eine Referenzkühlung. Wenn man eine leise GeFORCE möchte, kauft man MSI, die bieten seit der 5900 sehr sehr leise Karten an. Zur Not nimmt man einen Arctic Cooling Silencer (den neuen für NV Karten) oder viele haben eine Wasserkühlung.

Achja und schnell ist er jaaaaa. Deswegen muss ATi auch das AF optimieren bis der Arzt kommt und haut uns Lesern die Taschen voll. Das ist echt zum :puke:.
Mit niedrigerer BQ, kann jeder schnell sein.
Zumal ATi auch rund 120MHz mehr Chiptakt braucht, so schnell ist der R420...(auch wenn das beim Endprodukt nichts zur Sache tut ich weiss)


ganz unabhäng zum Avatar von Winter, gebe ich ihm Recht. ATi hat seit 2002 bis auf minimale modifikationen GAR NICHTS mehr am Design gemacht und wenn sie damit durchkommen ist das eine riesen Schweinerei imo.

Was hätte die Welt damals nur gesagt, hätte NV nicht den NV30 gebracht sondern einen verdoppelten NV25 mit Colocompression? SM 1.3 hätte zu Lebzeiten eigentlich gereicht. Und mit schätzungsweise 85-90Mio Transistoren (hat Demirug mal geschätzt)wäre er sogar für 150nm noch zulässig gewesen. Bei einem 8x2 Setup und einem 256bit DDR Interface hätte die R300 aus Performancesicht vermutlich das Nachsehen gehabt. Aber Technologie ist eben auch wichtig.

Gast
2004-06-07, 11:18:30
Original geschrieben von robbitop
"1. Hat nvidia hier einen Chip geliefert der technisch gesehen vom Stromverbrauch und der Lautstärke eher ein Rückschritt in Richtung Innovation ist.

2. Ist die R420 flüsterleise und schnell, ausreichend schnell wie der NV40!"

1. wer das Eine mag muss das andere wollen. ATi hat keinen SM3 Chip auf 130nm realisieren KÖNNEN.
Zumal es wirklich nur delta 20W sind. Tut mir leid wer sich bei einer HighEnd Karte über lächerliche 20W (und dabei deutlich besserer Ausstattung) über Stromverbrauch aufregt macht sich imo einfach nur lächerlich. Ein heutiges HighEnd System verbraucht locker 200-250W, dann nochmal den Monitor oben drauf rechnen, sind wir bei mind 300W. Das sind nicht mal 7% mehr im Verbrauch. Und wer ein High End system hat, der ist sich dem Verbrauch wohl bewusst, bei solch teuren Komponenten.

2. Wie kann eine VPU flüsterleise sein? ATi kühlt halt nur die VPU. Jetzt wo die ganzen 9700 Karten (ohne Mods) abrauchen sehen wir ja was so kleine PCBs und nur Kühlung für VPUs bringt. Gut das ist seit der X800 anders. Unsere Radeonsamples waren schon immer extrem heiss, selbst das PCB. Sowas kann nicht gut sein.
Zumal die Kühlung herstellersache ist und nichts mit NV zu tun hat. Die designen nur eine Referenzkühlung. Wenn man eine leise GeFORCE möchte, kauft man MSI, die bieten seit der 5900 sehr sehr leise Karten an. Zur Not nimmt man einen Arctic Cooling Silencer (den neuen für NV Karten) oder viele haben eine Wasserkühlung.

Achja und schnell ist er jaaaaa. Deswegen muss ATi auch das AF optimieren bis der Arzt kommt und haut uns Lesern die Taschen voll. Das ist echt zum :puke:.
Mit niedrigerer BQ, kann jeder schnell sein.
Zumal ATi auch rund 120MHz mehr Chiptakt braucht, so schnell ist der R420...(auch wenn das beim Endprodukt nichts zur Sache tut ich weiss)


ganz unabhäng zum Avatar von Winter, gebe ich ihm Recht. ATi hat seit 2002 bis auf minimale modifikationen GAR NICHTS mehr am Design gemacht und wenn sie damit durchkommen ist das eine riesen Schweinerei imo.

Was hätte die Welt damals nur gesagt, hätte NV nicht den NV30 gebracht sondern einen verdoppelten NV25 mit Colocompression? SM 1.3 hätte zu Lebzeiten eigentlich gereicht. Und mit schätzungsweise 85-90Mio Transistoren (hat Demirug mal geschätzt)wäre er sogar für 150nm noch zulässig gewesen. Bei einem 8x2 Setup und einem 256bit DDR Interface hätte die R300 aus Performancesicht vermutlich das Nachsehen gehabt. Aber Technologie ist eben auch wichtig.

1. In Zeiten, in denen PCs immer mehr Strom verbrauchen und lauter werden, achten auch immer mehr User auf den Stromverbrauch und die Lautstärke der einzelnen Komponenten. Ich weiß nicht, was daran verwerflich ist und lächerlich ist das garantiert auch nicht. Ich begrüße den Silent-Trend und finde es sehr gut, wenn es auch High-End-GraKas gibt, die leise sind. ATI bietet, wie nun (fast) alle GraKa-Hersteller (welche X800 Karten anbieten), eine leise Kühlung an. Bei Nvidia muß erst noch bewiesen werden, dass auch eine Silent Lösung der Ultra angeboten wird. Wenn MSI dies schafft, ist das auf jeden Fall hervorragend. Allerdings wäre ein Hersteller einfach ein bisschen wenig. In einer Marktwirtschaft hätte ich gerne die Wahl. Außerdem würde dies zeigen, dass eine Silent-Lösung bei den Ultras eher schwierig (oder teuer) für die Hersteller zu realisieren ist.

2. Das ist eine allgemeine Behauptung, die jeder Grundlage entbehrt. Wieviele Radeons sind den abgeraucht? Unter welchen Bedingungen (Overlocking, Dau-Problem usw.). Wie sieht es im Vergleich aus?

3. Zu den genannten Optimierungen gebe ich dir recht. Allerdings machen dies beide Hersteller. Aus diesem Grund wird auch keiner der beiden Hersteller mein Geld bekommen, solange sich dieser Umstand nicht ändert.

4. Zu dem was wäre wenn. Was hat das mit dieser Diskussion zu tun. Dem Erkenntnisgweinn ist es nicht zuträglich. Und ja, Technologie ist wichtig. Bestreitet das wer?!

aths
2004-06-07, 15:25:49
Original geschrieben von robbitop
1. wer das Eine mag muss das andere wollen. ATi hat keinen SM3 Chip auf 130nm realisieren KÖNNEN.So wie ich das verstanden habe, hätten sie es können. Allerdings wären die 3.0-Features dermaßen kriechend lahm, dass sie in 3.0-Benches selbst gegen NV40 voll abgel00st hätten. Ehe sie sich damit blamierten, ließen sie es dann lieber weg.

Zumindest denke ich, dass es so war. Nur weil einige Entwickler sagen: "Leute, hört mal ... einen tollen 3.0-Chip in 130 µm kriegen wir nicht hin, lasst uns einfach den R360 verdoppeln und gut ist" wird ATI vermutlich nicht sofort umgeschwenkt sein. Ich nehme an (wir sind im Speku-Forum) dass es Machbarkeitsstudien betreffs "3.0 um Smartshader herumgebaut" gab.

Genau genommen ist NV40s PS 3.0 ein besseres CineFX mit Branchin drumherum. Ganz so neu wie ich erst dachte, ist die Architektur doch nicht.

Original geschrieben von robbitop
Zumal es wirklich nur delta 20W sind. Tut mir leid wer sich bei einer HighEnd Karte über lächerliche 20W (und dabei deutlich besserer Ausstattung) über Stromverbrauch aufregt macht sich imo einfach nur lächerlich.So ist es. Imo ist es eine Meisterleistung, das Monster von 222 Mio Transistoren bei dem geringen Stromverbrauch zu realisieren, und das Design auch noch mit 400 MHz takten zu können.

aths
2004-06-07, 15:29:28
Original geschrieben von Gast
1. Hat nvidia hier einen Chip geliefert der technisch gesehen vom Stromverbrauch und der Lautstärke eher ein Rückschritt in Richtung Innovation ist.Warum? Der Stromverbrauch pro Transistor wurde ganz doch erheblich gesenkt.

Original geschrieben von Gast
2. Ist die R420 flüsterleise und schnell, ausreichend schnell wie der NV40!Wenn NV den Shadercompiler vernünftig optimiert hat, sollte NV40 beim Pixelshading trotz des geringen Takts schneller sein als R420. Wenn ich das richtig sehe (in diesem Punkt habe ich noch keine Klarheit) nutzt NV40 ein besseres Cachesystem als der R420, was im Kontext heißt, dass Texturing weniger Bandbreite beansprucht (demzufolge schneller ist) – und das ohne gewisse Tricks mit gesenkter Filterpräzision.

Original geschrieben von Gast
3. Ist die Wahl der Grafikkarte diesmal mehr auf Emissionen gelegt. Gilt das für jeden?

Meiner persönlichen, subjektiven Ansicht nach geht diese Runde an Nvidia.

Da ATI für SM 3.0 eine neue Architektur entwerfen kann (während NV CineFX weiterentwickelt hat) könnte R5xx die deutlich schnellere "3.0-Karte" werden. Das werden wir sehen.

Tigerchen
2004-06-07, 16:56:20
Bringt SM 3.0 wirklich was?
Könnte das Konzept nicht ein Rohrkrepierer werden?
Wie effizient können Shadercompiler bei längeren Shadern mit Verzweigungen werden? Meine Assembler vs. Pascalerfahrungen lassen mich nichts Gutes ahnen.

Beim Shadercompiler für SM 2.0 kann ATI natürlich auch noch optimieren. Ob da nV da wirklich mehr optimieren kann ist für dich wohl keine Frage. Für andere vielleicht doch.

Der nV40 soll bei einer Verzweigung 10 Takte verlieren. Ob da die Leistung für SM 3.0 wirklich reicht?

Wieso verbindest du die Begriffe Cachesystem und gesenkte Filterpräzision? Hängt das technisch zusammen?

xL|Sonic
2004-06-07, 17:34:04
Hinzu kommt, dass neue Technologie schön und gut ist, nur muss sie auch zur rechten Zeit auf den Markt geworfen werden. Es bringen einem die besten Ideen und Technologien nix, wenn sie einfach am Markt vorbei auf den Markt geworfen werden und kaum eine nachfrage besteht. Vielleicht war das auch der Grund, warum ATI erstmal abgewartet hat, denn ich sehe keinen erkennbaren Grund, warum ich mir als Spieler (an diese Gruppe sind die GrKa ja zu 95% gerichtet) derzeit eine SM3 Karte holen soll, welche wohl von der Performance her kaum einen Blumentopf gewinnen wird, sobald reine SM3 Spiele auf den Markt kommen werden.

Winter[Raven]
2004-06-07, 18:09:45
Wann wird endlich diese Art der sinnlosen Kommunikation gestoppt.

Winter du hast keinen Plan und schießt andauernd gegen ATI, deine Logo verrät ja schon deine Meinung, aber ich möchte dich warnen hier weiterhin Blödsinn zu behaupten.


Ja Ja ... die wahrheit kann manchmal unbequem sein ...

aber ich möchte dich warnen hier weiterhin Blödsinn zu behaupten.

Was passiert dann? Soll das eine Drohung sein?

Löl ... immer diese Kidis ... :crazy:

aths
2004-06-07, 18:12:32
Original geschrieben von Tigerchen
[COLOR="#000088"]
Bringt SM 3.0 wirklich was? Ja.
Original geschrieben von Tigerchen
Könnte das Konzept nicht ein Rohrkrepierer werden?Nein.

Original geschrieben von Tigerchen
Wie effizient können Shadercompiler bei längeren Shadern mit Verzweigungen werden? Meine Assembler vs. Pascalerfahrungen lassen mich nichts Gutes ahnen.Wie meinst du das?

Original geschrieben von Tigerchen
Beim Shadercompiler für SM 2.0 kann ATI natürlich auch noch optimieren. Ob da nV da wirklich mehr optimieren kann ist für dich wohl keine Frage. Für andere vielleicht doch.Meine Recherchen ergaben bisher, dass die NV40-Pipe pro Takt viel mehr rechnen kann, als R420 pro Takt. Da aktuelle Ergebnisse nicht sonderlich toll sind, lässt sich vermuten, dass die Optimierung noch ziemlich schlecht ist. Bei CineFX dauerte es auch Monate, nach dem es die Hardware längst zu kaufen gab, ehe das Potenzial treiberseitig erschlossen wurde.

Original geschrieben von Tigerchen
Der nV40 soll bei einer Verzweigung 10 Takte verlieren. Ob da die Leistung für SM 3.0 wirklich reicht?8 Takte kommt eher hin. Im besten Fall kostet eine If-ElseIf-EndIf-Struktur nur 6 Takte.

Original geschrieben von Tigerchen
Wieso verbindest du die Begriffe Cachesystem und gesenkte Filterpräzision? Hängt das technisch zusammen?Beides kann sich sich auf die Leistung auswirken, das war der Zusammenhang im Zusammenhang :).

robbitop
2004-06-07, 18:31:17
@Gast
1. schon die 5900 hatte nur MSI/Creative als Hersteller mit brauchbarem Kühlkörper. Und das bei einer Verlustleistung einer 9700. Es liegt nicht an der Verlustleistung. Die Partner von NV haben scheinbar kein Interesse an einer leisen Kühlung. Das ist nicht die Schuld von NV.
MSI oder Creative kaufen oder halt einen Silcencer besorgen. So schlimm ist das imo nicht.
Wir haben sogar eine 5900 mit der Zalman HP80A passiv kühlen können und das auf 5950 Taktraten. Ich finde das sagt genug über die Machbarkeit aus, denn der Zalman hinkt dem Silencer, einem billigen 11EUR Kühler noch weit hinterher.

Tut mir leid, bei einem High End System sind 20W verschwindend gering. Und man muss immer sehen, was man dafür bekommt. Man bekommt neben SM3 noch einen Videoprozessor zum MPEG Decoden (also schick DVDs raubkopieren ...errr Backups von urlaubsvideos machen ;) )

2. Es sind in diesme Forum unter verschiedensten Bedingungen seit letzter Zeit (bisher afaik ohne VMOD) abgeraucht. Eine FX ist von sowas noch nicht betroffen. Klar hat das keine Grundlage, aber für mich ist das ein Indiz. Mir wurde schon immer sehr seltsam als ich diese PCB Konstruktion bei den Radeons sah. Das ganze PCB und alle Bauteile waren subjektiv extrem aufgeheizt, die NV Karten nicht. Das kann nicht gut sein. Und dann noch so ein kleines PCB ..bei der 9700 hats zu einem Wellenproblem geführt. Ich denke mal, dass NV nicht unfähig ist, so kleine PCBs zu bauen. Es wird vielmehr ein Grund der Dimensioniertung sein (das mutmaße ich hier). Ein guter Freund bei mir arbeitet bei einem Großhändler und der meinte auch, dass in letzter Zeit verdammt viele 9700er als defekt eingeschickt worden sind, FX Karten eher selten.
Wie gesagt...Indizien, aber wir sind ja hier auch im Spekulationsforum.

3. Richtig NV optimiert, aber nicht in dem Maß wie ATi. Brilinear hat man angesagt. Stagesoptimierung gibts im NV40 afaik auch nicht mehr. Bei ATi sind folgende Dinge "geschummelt": bri, texturstages per default optimiert, LOD Pfusch. Kann man sehr schön bei Computerbase nachlesen.
Das Erschreckende daran ist, dass ATi unheimlich viel Energie darauf verwand, diese Cheats zu verstecken. Und nach dem Entdecken dieser uns weiterhin belügen.
Sowas habe ich bei keinem anderen IHV bisher gesehen. Alle anderen haben es zugegeben oder angekündigt.
Und immer noch weiterlügen trotz Aufdeckung...das ist eine Frechheit. Offensichtlich hat der R420 diese Optimierungsspeedups bitter nötig. Man schaue einfach wie es sich bei 4xAA 1600x1200 NoAF (also auch no Cheats) verhällt. Und nun erzähle mir niemand die Situation wäre nicht VPU limitiert.

seahawk
2004-06-07, 18:38:30
Kann mich Robbi nur anschließen.

Von 5 Radeon 9700pro Karten im Bekanntenkreis sind 3 ohne Grund abegraucht. (Speicher defekt)

Meine läuft noch. Wurde aber mit passiv Kühlern für die Speicher und einer Wakü für den Chip getunt und nie übertaktet. (1x Club3D, 1x Sapphire, 1x Hercules -> defekt, 1 Power Color und 1x Sapphire laufen noch)

Dafür laufen 3 FX5900 seit kurz nach der Erhältlichkeit als FX5900Ultra (später sogar fast FX5950) mit Luftkühlung und ohne Probleme. (2x MSI, 1xSparkle)

xL|Sonic
2004-06-07, 18:40:59
Das ganze kann aber genauso gut auch nur Zufall sein und bei anderen Leuten sieht das vielleicht ganz anders aus. Hängt auch einiges mit der PC Konfiguration zusammen, die Belastung, Fertigung usw.

robbitop
2004-06-07, 19:08:49
nein, ist kein Zufall. Ist wiegesagt im Großhandel massiv aufgefallen. ATi hat die Karten zu nah am Limit konstruiert. Die FXen sind eher etwas überdimensioniert.

Ich denke wenn ein kleines PCB wirklich alle Anforderungen locker erfüllt hätte würden es alle IHVs so machen. Denn das ist keine Schwierigkeit. Offensichtlich ist dem aber nicht so.

Ailuros
2004-06-07, 19:13:24
Original geschrieben von seahawk
Kann mich Robbi nur anschließen.

Von 5 Radeon 9700pro Karten im Bekanntenkreis sind 3 ohne Grund abegraucht. (Speicher defekt)

Meine läuft noch. Wurde aber mit passiv Kühlern für die Speicher und einer Wakü für den Chip getunt und nie übertaktet. (1x Club3D, 1x Sapphire, 1x Hercules -> defekt, 1 Power Color und 1x Sapphire laufen noch)

Dafür laufen 3 FX5900 seit kurz nach der Erhältlichkeit als FX5900Ultra (später sogar fast FX5950) mit Luftkühlung und ohne Probleme. (2x MSI, 1xSparkle)

Mir ist die Ti4400 auch nach 13 Monaten abgeraucht und mir sind auch mehrere Faelle was NV25 betrifft bekannt. Soll das jetzt was heissen, ueberhaupt da NV25 bei weitem nicht so viel Strom verbraucht?

GPUs krepieren des oefteren aus und dabei ist der Hersteller oder IHV eigentlich egal. Und ich weiss auch wirklich nicht was jeder in seinem System genau hat oder was er mit der GPU anstellt.

Falls es sich um Uebertaktung handelt dann sollte es dem Verbraucher klar sein, dass er das Risiko selber eingeht und uebrigens den Speicher zu uebertakten auf R3xx ist sowieso quasi sinnlos. Mehr Taktrate ja.

Ailuros
2004-06-07, 19:28:33
Original geschrieben von robbitop
nein, ist kein Zufall. Ist wiegesagt im Großhandel massiv aufgefallen. ATi hat die Karten zu nah am Limit konstruiert. Die FXen sind eher etwas überdimensioniert.

Ich denke wenn ein kleines PCB wirklich alle Anforderungen locker erfüllt hätte würden es alle IHVs so machen. Denn das ist keine Schwierigkeit. Offensichtlich ist dem aber nicht so.

Ich hab gerade Deine Takt/Speicherraten bemerkt; wie wird Deine Meinung aussehen wenn Dir (klopft an Holz) die Graka krepieren wuerde? Du wirst wohl einsehen koennen dass es in dem Fall alleine Deine und nur Deine Verantwortung sein wird.

Natuerlich krepieren auch GPUs die nicht uebertaktet sind, aber wie schon gesagt von allen Herstellern ich konnte nie irgendwelche besondere Aussnahmen entdecken.

Meine Meinung wird sich auch nicht aendern wenn mir jetzt die 9700PRO (klopft nochmal an Holz) eingeht; wenn dann hoffentlich solange die Garantie noch gueltig ist. Von Uebertaktung noch einem schlechten oder schwachen PSU kann auch nicht die Rede sein.

Quasar
2004-06-07, 19:46:39
Original geschrieben von Gast
3. Ist die Wahl der Grafikkarte diesmal mehr auf Emissionen gelegt.

Die Wahl meiner Grafikkarte auf jeden Fall zu 100% - mir ist es halt wichtig, welche Bildqualität sie aussendet.

Original geschrieben von robbitop
ganz unabhäng zum Avatar von Winter, gebe ich ihm Recht. ATi hat seit 2002 bis auf minimale modifikationen GAR NICHTS mehr am Design gemacht [...]

Immerhin haben sie BRI-TMUs eingebaut. :freak:

Original geschrieben von aths
Da aktuelle Ergebnisse nicht sonderlich toll sind, lässt sich vermuten, dass die Optimierung noch ziemlich schlecht ist. Bei CineFX dauerte es auch Monate, nach dem es die Hardware längst zu kaufen gab, ehe das Potenzial treiberseitig erschlossen wurde.

Für CineFX 2.0, ja. CineFX I war recht schnell weitestgehend ausgereizt, da wurde AFAIK nur noch an der Genauigkeit oder per Patch an den Shadern eines Games selber herumgeschraubt.
nV35/6/8 profitiert mind. doppelt so stark von FP16, nV30 höchstens von INT12.

robbitop
2004-06-07, 20:06:44
@AiL
in diesem Punkt hast du Recht.

Ich meine aber dass es scheinbar (laut einer Quelle aus dem Großhandel die ich namentlich nicht nenne) einen Trend gibt, dass die 9700er jetzt reihenweise abrauchen.
Die FX Karten sind dagegen nicht so aufgefallen.

Wenn meine FX abrauchen würde, hätte ich selbst schuld, natürlich. Daran glaub ich aber kaum. Die wird seit ca nem Jahr schon sehr stark gequält. Ich errinnere an die Zalman aktion bei seijin damals.

Wenn meine Vermutung stimmt, sind die Radeon PCBs einfach näher am Limit konstruiert. Es ist aber eben nur eine Vermutung und da wir hier im Spekuforum sind, darf ich das ;)

Indizien sind dafür da und das nicht im Freundeskreis sondern in einem weit größeren Rahmen.

ironMonkey
2004-06-07, 20:24:29
Original geschrieben von robbitop
@AiL
in diesem Punkt hast du Recht.

Ich meine aber dass es scheinbar (laut einer Quelle aus dem Großhandel die ich namentlich nicht nenne) einen Trend gibt, dass die 9700er jetzt reihenweise abrauchen.
Die FX Karten sind dagegen nicht so aufgefallen.

Wenn meine FX abrauchen würde, hätte ich selbst schuld, natürlich. Daran glaub ich aber kaum. Die wird seit ca nem Jahr schon sehr stark gequält. Ich errinnere an die Zalman aktion bei seijin damals.

Wenn meine Vermutung stimmt, sind die Radeon PCBs einfach näher am Limit konstruiert. Es ist aber eben nur eine Vermutung und da wir hier im Spekuforum sind, darf ich das ;)

Indizien sind dafür da und das nicht im Freundeskreis sondern in einem weit größeren Rahmen.


Also ich hab meine Karte durch den Silencer geschrottet, da ja hier ein ziemlich hoher Druck auf der Platine lastet, genau auf der Rückseite der GPU und ich bin sicher nicht der einzigste dem das passiert ist, da ja der Silencer weg geht wie warme Semmel.


Gruß

Sphinx
2004-06-07, 20:42:23
Original geschrieben von robbitop
Ich meine aber dass es scheinbar (laut einer Quelle aus dem Großhandel die ich namentlich nicht nenne) einen Trend gibt, dass die 9700er jetzt reihenweise abrauchen.
Die FX Karten sind dagegen nicht so aufgefallen.



Meine R9700Pro lebt noch - ich glaube ihr seht schon Aliens kommen... oder ist es sowas wie ,) ATI hat ne Timebomb in ihren Produkten um Kunden zum Kauf neuer Hardware nach der Garantiezeit zu zwingen ;)

Nicht euer ernst ,) oder ?

PS: Mein PC mit der R9700Pro ist eine Entwickler Plattform (Server für Webapplications) - welches ich auch oft für´s Gaming nutze und von daher Rund UM die Uhr in Betrieb ist und auch laufen muß... dieser hätte schon längst seinen Dienst quittieren müssen nach der Statistik... aber was ist ? Über 2Jahre lüppt die Karte in Übertaktetem Zustand...

Quasar
2004-06-07, 20:50:11
Über (http://www.tomshardware.com/graphic/20020718/index.html) zwei Jahre? Das aber doch nicht mit der R9700p, oder?

robbitop
2004-06-07, 21:13:52
ist ja nicht bei jeder 9700 so. Ist eben eine Statistische Verteilung. Laut meiner Quelle ists in letzter Zeit wie schon 2x erwähnt sehr auffällig geworden im Großhandel.