PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R580 schon Anfang 2006?


Seiten : 1 [2] 3 4 5 6 7

mapel110
2005-10-21, 18:15:36
Und wenn man sich diese Option bewussst freigehalten hat, bzw. mit gesenkter Priorität daran gearbeitet hat?

Ist volle Spekulation, aber in solch einem Forum sind wir ja.:)
R520 hat 321 Mio Transistoren, rechne da mal 8 Pipes dazu. Dann sollten da locker über 400 Mio Transistoren zusammenkommen und wenn da noch was an den Pipes ergänzt wurde ...
Ich halte das für unwahrscheinlich.
Obendrein ist der Fertigungsprozess für hohe Takte gut geeignet. Wenn man da jetzt zuviele Transistoren reinballert, sinkt auch die Taktbarkeit.

Gespannt darf man ja jetzt schon auf die Verfügbarkeit der X1800 XT sein.

Ailuros
2005-10-21, 18:27:36
Und wenn man sich diese Option bewussst freigehalten hat, bzw. mit gesenkter Priorität daran gearbeitet hat?

Ist volle Spekulation, aber in solch einem Forum sind wir ja.:)

Nein es gab keine Zeit dazu; R580 hat definitiv 4 quads aber 48 ALUs (wobei R520 nur 16 hat).

Ailuros
2005-10-21, 18:31:52
R520 hat 321 Mio Transistoren, rechne da mal 8 Pipes dazu. Dann sollten da locker über 400 Mio Transistoren zusammenkommen und wenn da noch was an den Pipes ergänzt wurde ...
Ich halte das für unwahrscheinlich.
Obendrein ist der Fertigungsprozess für hohe Takte gut geeignet. Wenn man da jetzt zuviele Transistoren reinballert, sinkt auch die Taktbarkeit.

Gespannt darf man ja jetzt schon auf die Verfügbarkeit der X1800 XT sein.

R580 duerfte locker irgendwo bei ~380M liegen. Theoretisch koennte eine 6 quad Variante ueber 460M steigen und man muesste eben dann die Taktrate extrem niedrig halten. R520 und R580 wurden fast parallel entwickel und beide wurden fuer 4 quads ausgelegt. ATI rechnete aber auch mit einer Fruehling 2005 Veroeffentlichung fuer R520....

DrumDub
2005-10-28, 11:19:28
ist der r580 jetzt eigentlich nichts anderes als 4xrv530? hab nämlich noch was interessantes bei ati gefunden, nämlich ein feature, welches nur von x1300 und x1600 unterstützt wird und nicht von den x1800ern: The Radeon X1600 and the Radeon X1300 have a new feature that is conveniently suited to accelerate PCF implementations. This feature is called Fetch-4 and with one texture fetch it can retrieve 4 neighboring texels (2x2 texel block) from a single-channel texture map. Four individual samples of a single-channel texture are swizzled into RGBA channels when they are fetched from the texture.

Demirug
2005-10-28, 11:30:56
ist der r580 jetzt eigentlich nichts anderes als 4xrv530? hab nämlich noch was interessantes bei ati gefunden, nämlich ein feature, welches nur von x1300 und x1600 unterstützt wird und nicht von den x1800ern:

Ich würde es eher so formulieren das es ein R520 mit den RV530 Pixelprozessoren ist.

Das mit dem Fetch4 habe ich schon mal irgendwo erwähnt. Deswegen stufe ich persönlich ja auch den X1600 als technologisch weiter als den X1800 ein.

mapel110
2005-10-28, 11:32:26
Das mit dem Fetch4 habe ich schon mal irgendwo erwähnt. Deswegen stufe ich persönlich ja auch den X1600 als technologisch weiter als den X1800 ein.
Aber doch nicht funktionstechnisch, oder ist damit "mehr" möglich als auf dem R520?

Demirug
2005-10-28, 11:46:14
Aber doch nicht funktionstechnisch, oder ist damit "mehr" möglich als auf dem R520?

Ja. funktionstechnisch.

Fetch4 und 24 Bit tiefentexturen (beides sinnvoll für Schattenberechnungen) werden vom R520 nicht unterstützt.

DrumDub
2005-10-28, 13:05:43
Ich würde es eher so formulieren das es ein R520 mit den RV530 Pixelprozessoren ist. stimmt natürlich. 20 vs und 32 rops wären ja auch ein wenig overkill... :ulol:

aths
2005-10-28, 15:05:59
Ich würde es eher so formulieren das es ein R520 mit den RV530 Pixelprozessoren ist.

Das mit dem Fetch4 habe ich schon mal irgendwo erwähnt. Deswegen stufe ich persönlich ja auch den X1600 als technologisch weiter als den X1800 ein.Sollte sinnig sein, um sich eigene Filter zu proggen. Aber wird das von DX überhaupt unterstützt?

Demirug
2005-10-28, 15:20:04
Sollte sinnig sein, um sich eigene Filter zu proggen. Aber wird das von DX überhaupt unterstützt?

Treiber-Hack

mindfaq
2005-10-31, 18:27:53
stimmt natürlich. 20 vs und 32 rops wären ja auch ein wenig overkill... :ulol:Wie kommst du auf 32 ROPs ? Der RV530 hat doch nur deren vier...

DrumDub
2005-11-01, 16:38:27
Wie kommst du auf 32 ROPs ? Der RV530 hat doch nur deren vier... denkfehler meinerseits. :redface: wären natürlich nur 16.

deekey777
2005-11-07, 18:28:06
Nein es gab keine Zeit dazu; R580 hat definitiv 4 quads aber 48 ALUs (wobei R520 nur 16 hat).

http://www.beyond3d.com/reviews/ati/r520/index.php?p=03

R520/RV515 Pipeline vs. RV530: Der R580 hat dann 4 RV530-Pipelines, jede dieser Pipelines verarbeitet dann einen Pixel(?).

(Ailuros' Posting wird hier nicht widerlegt.)

robbitop
2005-11-07, 18:42:36
http://www.beyond3d.com/reviews/ati/r520/index.php?p=03

R520/RV515 Pipeline vs. RV530: Der R580 hat dann 4 RV530-Pipelines, jede dieser Pipelines verarbeitet dann einen Pixel(?).

(Ailuros' Posting wird hier nicht widerlegt.)
Seit wann hat eine R5xx Pipeline 2 MAD ALUs?

deekey777
2005-11-07, 19:08:01
Seit wann hat eine R5xx Pipeline 2 MAD ALUs?

Seit dem 5. Oktober?

Hat sie doch gar nicht, oder? :confused:

Coda
2005-11-07, 19:13:11
* ALU 1
o 1 Vec3 ADD + Input Modifier
o 1 Scalar ADD + Input Modifier
* ALU 2
o 1 Vec3 ADD/MULL/MADD
o 1 Scalar ADD/MULL/MADD
* Branch Execution Unit
o 1 Flow Control InstructionR520 hat nur ein MAD in der 2. ALU.

DrumDub
2005-11-08, 10:46:18
Seit wann hat eine R5xx Pipeline 2 MAD ALUs? versteh die frage nicht ganz. der r580 hat einfach nur dreimal den pixelprozessor des r520 bzw. der pixelprozessor ist identisch mit dem des rv530. die drei pp hägen dann an nem fifo-buffer, der ein problem darstellen könnte. zumindest wenn man sich die theoretischen zahlen anguckt. tatsächlich limitiert beim rv530 wohl meistens die tmu: http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html

reunion
2005-11-08, 18:06:52
R580 and RV535 Die Process Revealed (http://www.anandtech.com/video/showdoc.aspx?i=2596)

We previously discussed R580 in some detail. A recent ATI advisory sent out to AIBs claims that R580 will utilize a 90nm process, just like R520. RV535, ATI's successor to the X1000 midrange segment, was also included in that advisory. Rather than 65nm or 90nm, the advisory claims that RV535 will utilize an 80nm process. Although this process size seems non-conventional, both ATI and NVIDIA had products based on unusual processes before, such as ATI's R410 110nm chip.

Both of ATI's main foundries, TSMC and UMC, have production facilities capable of 80nm production. Both of these facilities are capable of 65nm production, but for now this seems reserved to prototypes as mass production 65nm only exists for Intel and IBM. Neither ATI nor NVIDIA have foundries of their own, so the leap to 65nm on graphics may have to wait while TSMC and UMC play catch up.

robbitop
2005-11-08, 20:17:57
90nm ist ja im GPU Bereich noch neu und gerade mal bereit für den Massenmarkt. Da redet man nun über weit ungelegte Eier.

Ailuros
2005-11-09, 03:52:48
90nm ist ja im GPU Bereich noch neu und gerade mal bereit für den Massenmarkt. Da redet man nun über weit ungelegte Eier.

Ich hab zwar keine Ahnung ob RV535 auf 80nm sein wird, aber ausschliessen wuerde ich es noch nicht. ATI braucht dringend hoehere Taktraten.

Sunrise
2005-11-09, 05:45:11
90nm ist ja im GPU Bereich noch neu und gerade mal bereit für den Massenmarkt. Da redet man nun über weit ungelegte Eier.Dass diese Eier noch ungelegt sind, dürfte klar sein. Dass dieser Sprung jedoch eher früher als später stattfinden wird, da bin ich mir ziemlich sicher. Die neue "half-node" ist so kritisch nicht, TSMC spricht hier von minimalem Aufwand in Form von Anpassungen des Designs, ausgehend von ihrem 90nm-Prozess.

Vorteile in Form von potentiell möglichen höheren Taktraten und mehr Chips pro Wafer wird ATi deshalb auch möglichst schnell nutzen wollen.

Der frühe Sprung auf 90nm könnte sich spätestens hier auszahlen.

robbitop
2005-11-09, 06:44:30
versteh die frage nicht ganz. der r580 hat einfach nur dreimal den pixelprozessor des r520 bzw. der pixelprozessor ist identisch mit dem des rv530. die drei pp hägen dann an nem fifo-buffer, der ein problem darstellen könnte. zumindest wenn man sich die theoretischen zahlen anguckt. tatsächlich limitiert beim rv530 wohl meistens die tmu: http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html
Das beantwortet meine Frage nicht. Die R520 Pipeline besitzt wie die R300 Pipeline AFAIK nur eine Vec4 ALU (MAD/DP3/allzweck/ 3:1 CoIssue). Die "Tex ALU" ist ja letztendlich keine ALU sondern nur Signalweger zur TMU, die nicht über die ALU laufen. Zählt somit also gar nicht. Aritmetisch jedenfalls. Deshalb frage ich mich, warum B3D etwas von 2 ALUs pro Pipeline schreibt.

deekey777
2005-11-09, 12:37:22
Vielleicht findet sich die Antwort in diesem Thread (http://www.beyond3d.com/forum/showthread.php?t=24184) (ab Seite 3), warum der R520 2 ALUs hat und doch nur eine.

DrumDub
2005-11-09, 13:27:03
Das beantwortet meine Frage nicht. Die R520 Pipeline besitzt wie die R300 Pipeline AFAIK nur eine Vec4 ALU (MAD/DP3/allzweck/ 3:1 CoIssue). Die "Tex ALU" ist ja letztendlich keine ALU sondern nur Signalweger zur TMU, die nicht über die ALU laufen. Zählt somit also gar nicht. Aritmetisch jedenfalls. Deshalb frage ich mich, warum B3D etwas von 2 ALUs pro Pipeline schreibt. ich denke, deine frage kann man nicht zufriedenstellend beantworten, da man die alus von g70 und r520 nicht vergleichen kann. dave baumman siehts auch so: The notation that you have got are not comparable. The "3" actually relates to parallel fragment pipes for the R5xx series (i.e. there are 3 parallel fragment pipelines in that part of the pipeline). G70 has two ALU's, but they are operating on the same pixel (technically R5xx also has two ALU's per fragment pipe, but the second is not as capable). http://www.beyond3d.com/forum/showpost.php?p=600757&postcount=78

Ailuros
2005-11-09, 13:41:50
Ich mach mir das Leben mit Absicht viel zu leicht und zaehle 16 vs. 24. Nicht unbedingt korrekt und viel zu viel vereinfacht, aber mir ist es einfach zu umstaendlich jedesmal versuchen zu erklaeren wie das eine oder andere genau laeuft.

Anderes Beispiel:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=11

ich dachte damals auch nach der etwas merkwuerdigen Beschreibung dass es sich um 32 ROPs handelt; eigentlich sind es 16 "double-pumped" ROPs. Nicht vergleichbar zum obrigen, aber ich kann bei Xenos auch nicht einfach nur sagen dass es 8 ROPs hat.

robbitop
2005-11-09, 13:51:10
ich denke, deine frage kann man nicht zufriedenstellend beantworten, da man die alus von g70 und r520 nicht vergleichen kann. dave baumman siehts auch so: http://www.beyond3d.com/forum/showpost.php?p=600757&postcount=78
Er zählt diese MiniALU mit vermute ich mal. Dann muss er das beim NV4x/G7x auch tun. So wie er es jetzt zu stehen hat ist es IMO inkorrekt.

vereinfacht gesehen besitzt eine CineFX3/4 Pipe 2 vollständige Vec4 Units und die R3xx/4xx/520 Pipe besitzt davon eine.
Mit den MiniALUs verheddert man sich nur, und außerdem können die nicht immer zum Einsatz kommen aufgrund starker Restriktionen.

aths
2005-11-09, 17:02:32
Das beantwortet meine Frage nicht. Die R520 Pipeline besitzt wie die R300 Pipeline AFAIK nur eine Vec4 ALU (MAD/DP3/allzweck/ 3:1 CoIssue). Die "Tex ALU" ist ja letztendlich keine ALU sondern nur Signalweger zur TMU, die nicht über die ALU laufen. Zählt somit also gar nicht. Aritmetisch jedenfalls. Deshalb frage ich mich, warum B3D etwas von 2 ALUs pro Pipeline schreibt.Nein, das habe ich dir auch mehrfach gesagt, dass der R300 eine eigene Vec3-ALU und eine separate skalare ALU hat, die zusammen aber auch Vec4-Operationen ausführen können. Die "Mini-ALU" ist ebenfalls getrennt aufgebaut.

Die Tex-ALU ist natürlich eine ALU, sie führt die Texture Operation aus, und berechnet dabei z. B. das LOD.

aths
2005-11-09, 17:05:53
Er zählt diese MiniALU mit vermute ich mal. Dann muss er das beim NV4x/G7x auch tun."Echte" Mini-ALUs können nur bestimmte Operationen ausführen und nicht frei addieren. Davon hat der NV40 (bzw. G70) imo mindestens zwei, vielleicht auch drei Stück pro Pipe.

vereinfacht gesehen besitzt eine CineFX3/4 Pipe 2 vollständige Vec4 Units und die R3xx/4xx/520 Pipe besitzt davon eine."Vollständig" würde ich nicht sagen. Der NV40 kann in der ersten SU nur multiplizieren, das ist alles andere als vollständig. Der G70 kann in beiden SUs MAD oder DP, das ist schon ziemlich gut, aber auch nicht vollständig.

robbitop
2005-11-09, 18:18:36
Nein, das habe ich dir auch mehrfach gesagt, dass der R300 eine eigene Vec3-ALU und eine separate skalare ALU hat, die zusammen aber auch Vec4-Operationen ausführen können. Die "Mini-ALU" ist ebenfalls getrennt aufgebaut.

Die Tex-ALU ist natürlich eine ALU, sie führt die Texture Operation aus, und berechnet dabei z. B. das LOD.
Das ist mir bekannt. Und dennoch kann er nur eine Vec4 Op raushauen. Und Wayvey spricht hier aber von 2xVec4 Units. Und das ist IMO falsch. (nicht von 1x Vec3 + 1x ska)

reunion
2005-11-12, 11:38:27
ATI Has Been Testing R580 Since July: ATI’s New Chip May Be Around the Corner (http://www.xbitlabs.com/news/video/display/20051111144411.html)

Sources close to ATI Technologies have said that the company has been testing its forthcoming high-end graphics processing unit (GPU) since July, 2005. The chip, which is due to be out early in 2006 is claimed to be a rapid one by persons familiar with the matter.

“It is really fast,” a person who knows approximate performance estimates of the code-named R580 graphics processor said. Another source noted that ATI Technologies has been “playing” with the code-named R580 part since early July, 2005, at least, trying to clock it at different speeds and measure its performance afterwards.

Rumours that have been circulating around the Web indicated that the internally known as the R580 graphics chip supports up to 48 pixel processors, 8 or more vertex processors and work at high clock-speeds. The chip, however, is expected to have from 16 texture mapping units (TMU), less that could be expected. The product is to support Shader Model 3.0, ring-bus memory controller, GDDR4 memory type and other innovations.

Earlier this year an Asian web-site published a slide entitled “ATI’s 90nm Technology Advantage” that described the company’s success with the 90nm process technology at TSMC manufacturer. According to the slide, not only code-named R520, RV530 and RV515, which are to ship under RADEON X1800, X1600 and X1300 names respectively, but also R580 – which is believed to be a faster incarnation of the R520 – were “in house and working”. The slide also claimed that the products were “ready for Fall shipments”.

ATI did not comment on the news-story.

Die gelbe Eule
2005-11-12, 15:25:53
Fängt der Schwachsinn wieder an.

48 Pixelpipelines?

24 waren schon nicht machbar, aber ein Refresh soll gleich 3 mal so viele wie der R520haben?

deekey777
2005-11-12, 15:41:37
Fängt der Schwachsinn wieder an.

48 Pixelpipelines?

24 waren schon nicht machbar, aber ein Refresh soll gleich 3 mal so viele wie der R520haben?

Wenn du das meinst:
"Rumours that have been circulating around the Web indicated that the internally known as the R580 graphics chip supports up to 48 pixel processors, 8 or more vertex processors and work at high clock-speeds. The chip, however, is expected to have from 16 texture mapping units (TMU), less that could be expected. The product is to support Shader Model 3.0, ring-bus memory controller, GDDR4 memory type and other innovations."
- dann frage ich mich, wo der Schwachsinn sein soll: im Text oder deinem Posting.

Die gelbe Eule
2005-11-12, 15:53:28
Und Du glaubst das natürlich auch. Rumours sind nicht Fakten. Und Fuad wird viel erzählt, damit er es als Fuad2 Edition präsentieren kann.

Diesen ganzen Voodoo Kram hatten wir schon im anderen Thread, trotzdem ist dabei nichts rumgekommen.
24 PX ja, 8VS ja, 650-700MHz ja, dann ist aber auch Ende.

Ailuros
2005-11-12, 16:01:29
Wenn du das meinst:
"Rumours that have been circulating around the Web indicated that the internally known as the R580 graphics chip supports up to 48 pixel processors, 8 or more vertex processors and work at high clock-speeds. The chip, however, is expected to have from 16 texture mapping units (TMU), less that could be expected. The product is to support Shader Model 3.0, ring-bus memory controller, GDDR4 memory type and other innovations."
- dann frage ich mich, wo der Schwachsinn sein soll: im Text oder deinem Posting.

Es sind 16 SIMD Kanaele (und ja darunter versteht Ihr alle bis jetzt "pipelines"), 48 ALUs, 10 VS, 16 ROPs und 16 bilineare TMUs. Wofuer steht nochmal 16/1/3/1?

Da die ALUs aber hier wahrscheinlich unveraendert bleiben im Vergleich zu R520 sind es im R580 = 192 MADDs/clk. So viel schafft schon der G70.

deekey777
2005-11-12, 16:02:22
Und Du glaubst das natürlich auch. Rumours sind nicht Fakten. Und Fuad wird viel erzählt, damit er es als Fuad2 Edition präsentieren kann.

Diesen ganzen Voodoo Kram hatten wir schon im anderen Thread, trotzdem ist dabei nichts rumgekommen.
24 PX ja, 8VS ja, 650-700MHz ja, dann ist aber auch Ende.

Blättere doch eine Seite zurück, da steht genau beschrieben, warum der R580 48 Pixelprozessoren hat. Kleiner Tipp: Es ist ein vierfacher RV530. Da ist so gar ein Link zum Schema, auf dem man sieht wie die Pipeline des RV530 (und so auch des R580) aufgebaut ist.
Die Zahlenspielerei 16-1-3-1 hatte schon ihren Sinn, und du kannst dir jetzt hoffentlich denken, wofür die 3 steht und warum der RV530 kein Chip mit 12 Pipelines ist.

Ailuros
2005-11-12, 16:05:06
Blättere doch eine Seite zurück, da steht genau beschrieben, warum der R580 48 Pixelprozessoren hat. Kleiner Tipp: Es ist ein vierfacher RV530. Da ist so gar ein Link zum Schema, auf dem man sieht wie die Pipeline des RV530 (und so auch des R580) aufgebaut ist.
Die Zahlenspielerei 16-1-3-1 hatte schon ihren Sinn, und du kannst dir jetzt hoffentlich denken, wofür die 3 steht und warum der RV530 kein Chip mit 12 Pipelines ist.

Hast Du irgend ein besonderes Problem sie ALUs zu nennen damit dieses eher alberne Argument auch ein Ende nimmt? Im schlimmsten Fall fragment shader, aber um Himmels Willen nicht "pixel prozessoren". Woher sollen denn 48 pixels ploetzlich kommen? 16 pixels/texels pro Takt.

Die gelbe Eule
2005-11-12, 16:14:30
Da sieht man wer sich direkt an solche Marketingaussagen klammert und sie dann als uber Chips darstellt.
Ich glaube demirug hatte schon angedeutet, das es nur bei 16 PS bleiben wird.

Ailuros
2005-11-12, 16:21:26
Da sieht man wer sich direkt an solche Marketingaussagen klammert und sie dann als uber Chips darstellt.
Ich glaube demirug hatte schon angedeutet, das es nur bei 16 PS bleiben wird.

Ach xbit labs hat mal nen kleinen Fehler gemacht, dass kann bei allen vorkommen; da dekkey selber 16/1/3/1 zitiert hat er es schon richtig verstanden. Es handelt sich lediglich um eine falsche Bezeichnung von Xbit labs.

Die gelbe Eule
2005-11-12, 16:26:54
Dann ist sein lezter Satz aber dann nicht ganz richtig. Entweder bleibt er bei 16 oder bei 48.

mindfaq
2005-11-12, 16:31:04
Es sind 16 ROPs, 16 TMUs und 48 ALUs. Ist das so schwer zu verstehen ?

Sunrise
2005-11-12, 16:35:01
Dann ist sein lezter Satz aber dann nicht ganz richtig. Entweder bleibt er bei 16 oder bei 48.Die Zahlenspielerei 16-1-3-1 hatte schon ihren Sinn, und du kannst dir jetzt hoffentlich denken, wofür die 3 steht und warum der RV530 kein Chip mit 12 Pipelines istR520: 16-1-1-1
RV530: 4-1-3-2

Wieviele "Pipelines" hat gleich RV530 ? -> Übertrage dies auf R520. *cheers*

PS: Auf Anfrage geb' ich auch Mathe-Unterricht.

Demirug
2005-11-12, 16:38:00
ATI wird versuchen den R580 als 48 Pipe Chip zu verkaufen.

mindfaq
2005-11-12, 16:55:29
Nichts klarer als das. ;)

mapel110
2005-11-12, 17:01:30
ATI wird versuchen den R580 als 48 Pipe Chip zu verkaufen.
Meist du, sie basteln nen kleinen Benchmark zurecht, wo man die damit verbundene dreifache Leistung(16 vs 48) sehen wird?

deekey777
2005-11-12, 18:37:28
Hast Du irgend ein besonderes Problem sie ALUs zu nennen damit dieses eher alberne Argument auch ein Ende nimmt? Im schlimmsten Fall fragment shader, aber um Himmels Willen nicht "pixel prozessoren". Woher sollen denn 48 pixels ploetzlich kommen? 16 pixels/texels pro Takt.

Das mit den Pixelprozessoren war nicht richtig von mir, doch diese als "nur" ALUs zu bezeichnen, ist doch zu allgemein. Ich bin ab jetzt für Fragment-Shader/Pixelshader.
Die 7800GTX hat auch 48 ALUs, doch diese verarbeiten als Pärchen immer ein Pixel, die X1600 dagegen 3 Pixel in jeder Pipeline (und davon gibt es vier).

Dann ist sein lezter Satz aber dann nicht ganz richtig. Entweder bleibt er bei 16 oder bei 48.


Es sind immer noch 16 Pipelines beim R580, was ich nie bezweifelt habe.

seahawk
2005-11-12, 19:00:12
Meist du, sie basteln nen kleinen Benchmark zurecht, wo man die damit verbundene dreifache Leistung(16 vs 48) sehen wird?

Ja

Die gelbe Eule
2005-11-12, 19:01:54
Angesprochen habe ich Dich explizit auf 48 Pixelpipelines und in der Quelle hast sogar noch fett 48 pixelprozessors hervorgehoben. Ist klar das es sehr verwirrend ist und das viele ATi Leute nun sagen, der hat aber 48 Pipelines, sich nachher aber wundern, das nur 16 übrig bleiben.

Meist du, sie basteln nen kleinen Benchmark zurecht, wo man die damit verbundene dreifache Leistung(16 vs 48) sehen wird?

Darf man spekulieren das auch der 3DM06 zeitgleich erscheint?

deekey777
2005-11-12, 19:54:03
Angesprochen habe ich Dich explizit auf 48 Pixelpipelines und in der Quelle hast sogar noch fett 48 pixelprozessors hervorgehoben. Ist klar das es sehr verwirrend ist und das viele ATi Leute nun sagen, der hat aber 48 Pipelines, sich nachher aber wundern, das nur 16 übrig bleiben.
?

Wer sprach hier je von 48 Pipelines?

Genau wie Xbit habe ich einfach den falschen Begriff benutzt.

Ailuros
2005-11-13, 03:41:31
Die 7800GTX hat auch 48 ALUs, doch diese verarbeiten als Pärchen immer ein Pixel, die X1600 dagegen 3 Pixel in jeder Pipeline (und davon gibt es vier).

G70 = 16 pixels/ 24 texels pro Takt

Seit wann hat RV530 12 ROPs hm? ;)

Ailuros
2005-11-13, 03:45:08
ATI wird versuchen den R580 als 48 Pipe Chip zu verkaufen.

Wuerde ich aber an ihrer Stelle nicht machen, denn darauf wird die Konkurrenz sicher nicht still sitzen und dann kommen noch merwuerdigere Marketing-Behauptungen zum Vorschein.

deekey777
2005-11-13, 13:46:22
G70 = 16 pixels/ 24 texels pro Takt

Seit wann hat RV530 12 ROPs hm? ;)
:|
http://www.beyond3d.com/reviews/ati/r520/index.php?p=03
For instance RV530's composition is 4 texture units, 12 Pixel Shader Pipelines and 4 ROP's; essentially each of the rendering pipelines in RV530 can simultaneously handle three pixels within the Pixel Shader element of the pipeline.

http://www.digit-life.com/articles2/video/g70-part1.html

[...]The fact is that even though the number of pixel processors is increased by 1.5, the number of modules responsible for writing the results remains the same — 16. That is the new chip can calculate shaders much faster, simultaneously for 24 pixels, but it still writes up to 16 full pixels per cycle. [/...]

Mehr war nicht gemeint.

Ailuros
2005-11-13, 14:03:51
:|
http://www.beyond3d.com/reviews/ati/r520/index.php?p=03
For instance RV530's composition is 4 texture units, 12 Pixel Shader Pipelines and 4 ROP's; essentially each of the rendering pipelines in RV530 can simultaneously handle three pixels within the Pixel Shader element of the pipeline.

Schoen dann lies mal nur einen Paragraphen weiter unten:

The above is a conceptual representation of the difference between R520/RV515's and RV530's pipelines, with RV530 being able to handle three "Shader Pipelines" in each pixel pipeline.

Die Anfuehrungs-striche sind kein Zufall.



[...]The fact is that even though the number of pixel processors is increased by 1.5, the number of modules responsible for writing the results remains the same — 16. That is the new chip can calculate shaders much faster, simultaneously for 24 pixels, but it still writes up to 16 full pixels per cycle. [/...]

My highlight; wir kommen der Realitaet doch wohl etwas naeher oder?

deekey777
2005-11-13, 14:10:10
Schoen dann lies mal nur einen Paragraphen weiter unten:
Die Anfuehrungs-striche sind kein Zufall.
My highlight; wir kommen der Realitaet doch wohl etwas naeher oder?

Doch, die Realität war nie näher als jetzt.

reunion
2005-11-13, 15:05:23
Da sieht man wer sich direkt an solche Marketingaussagen klammert und sie dann als uber Chips darstellt.
Ich glaube demirug hatte schon angedeutet, das es nur bei 16 PS bleiben wird.

Um mal meine Sig. hervorzuheben:
Der Klügste ist der, der weiß, was er nicht weiß. - Sokrates

Oder etwas freier interpretiert:
Wenn man nicht weiß wovon man spricht, sollte man sich besser zurückhalten.

Xbitlabs schreibt explizit von "48 pixel processors" aber "16 texture mapping units", und ja, R580 wird 48 ALUs haben. Ob man diese jetzt "pixel processors" oder sonst irgendwie nennt, ist sowas von egal, man sollte sich nicht an einer Bezeichung aufhängen.

ATI wird versuchen den R580 als 48 Pipe Chip zu verkaufen.

Macht man ja jetzt bei RV530 auch schon mit 12.

robbitop
2005-11-13, 16:32:37
Spätestens zu Spielen wie UE3 wird Rechenleistung auch die wichtigere Komponente sein. Wichtiger jedenfalls als pure Z/Farbwerte pro Takt.

Faint86
2005-11-13, 17:17:24
Ich verfolg den Thead jetzt schon ne weile, aber so langsam blick ich net mehr durch.

Könnt jmd von den Profis hier bitte mal die richtigen Specs der einzelnen neuen ATI-Karte aufschreiben?

Hat die X1600 jetzt 12 Pixelshader oder wie?

Sry ich raff et net mehr

Black-Scorpion
2005-11-13, 17:22:51
Ich verfolg den Thead jetzt schon ne weile, aber so langsam blick ich net mehr durch.

Könnt jmd von den Profis hier bitte mal die richtigen Specs der einzelnen neuen ATI-Karte aufschreiben?

Hat die X1600 jetzt 12 Pixelshader oder wie?

Sry ich raff et net mehr
Vielleicht hilft dir das erstmal weiter.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/2/#abschnitt_technische_daten

mindfaq
2005-11-13, 17:27:02
Da wird aber schon wieder von 12 Pixel-Pipelines gesprochen. Es sind 4 ROPs, 4 TMUs und 12 ALUs. Also 4 Pipelines mit je 3 ALUs pro Pipe.

Faint86
2005-11-13, 17:29:23
Ich will es ja von den Profis von hier hören, ihr wisst es ja.

Wegen er X1600 wieviel Pipelines hat die jetzt?

mindfaq
2005-11-13, 17:31:57
Augen aufmachen:
Also 4 Pipelines mit je 3 ALUs pro Pipe.

Faint86
2005-11-13, 18:12:43
Echt? 4 Stück? Die X1300 hat doch auch 4 oder? Oder is des auch widda nur verarsche?

seahawk
2005-11-13, 18:28:39
Spätestens zu Spielen wie UE3 wird Rechenleistung auch die wichtigere Komponente sein. Wichtiger jedenfalls als pure Z/Farbwerte pro Takt.

Ich glaube nicht, dass sich das Verhältnis so extrem verschiebt. 2 vollwertige ALUs pro Pipeline werden imho noch längere Zet ausreichen. Besonders wenn man dafür mehr Pipelines hat.

aths
2005-11-13, 18:48:34
Um das zu klären: Anstatt 4 Pixelpipelines zu haben, haben die Chip tatsächlich eine Quad-Pipeline. (In diesem Kontext ist ein Quad ein Block von 2x2 Pixeln.)

Bei der R520-Architektur sind TMUs und ALUs getrennt skalierbar.

X1300 hat eine Quad-ALU und eine Quad-TMU.

X1600 hat drei Quad-ALUs, aber ebenfalls nur eine Quad-TMU.

aths
2005-11-13, 18:51:04
Ich glaube nicht, dass sich das Verhältnis so extrem verschiebt. 2 vollwertige ALUs pro Pipeline werden imho noch längere Zet ausreichen. Besonders wenn man dafür mehr Pipelines hat.Sag das so nicht. "Bessere" Shader sollten ein Tex:ALU-Verhältnis von ca. 1:8 haben. Nun braucht man beim Tex öfters mal was besseres als bilineare Filterung. Für bestimmte Dinge reicht bilineare Filterung dann wieder aus. Bietet die Hardware ein Verhältnis von 1:3, halte ich das für optimal und zukunftsträchtig. Das 1:2-Verhältnis im G70 ist gut, aber hoffentlich nicht das Ende der Fahnenstange.

Dazu kommt, dass man ohne erhebliche Fortschritte bei der Speichertechnik die TMU-Zugriffe pro Takt kaum noch steigern kann. Arithmetische Leistung benötigt lediglich interne Bandbreite. Insofern sollten die Entwickler dazu übergehen, lieber zu berechnen anstatt zu sampeln. Natürlich bringt es auch neue Ineffizienz, drei ALUs hintereinander zu haben.

Coda
2005-11-13, 18:55:40
Manche Dinge muss man Samplen. So wie man bei der CPU auch Speicherzugriffe machen muss und nicht alles rechnen kann.

Und komm mir nicht mit prozeduralen Texturen...

aths
2005-11-13, 19:00:28
Manche Dinge muss man Samplen. So wie man bei der CPU auch Speicherzugriffe machen muss und nicht alles rechnen kann.Ja nee ist klar. Außerdem ist sampeln schön billig, das Bi-Sample gibts für einen Takt, ein FP16-Bisample in zwei Takten (ab NV40.) Wenn die Speicherbandbreite da ist, sollte man sampeln. Speicherplatz sollte auf der Graka vorhanden sein, 512 MiB, bald 1024 und in nicht allzuferner Zukunft hoffentlich 2048 MiB. Vieles kann man nicht berechnen, das muss als Textur vorliegen.

Und komm mir nicht mit prozeduralen Texturen...Aber natürlich :) Es kostet weniger, einmal einen guten parametrisierbaren Holz-Shader zu schreiben als massenhaft Fotos von Holz zu machen und nachzubearbeiten. Solche Shader benötigen als Input natürlich auch Texturen.

Es ist unglaublich billig, halbwegs vernünftige Texturen zu bekommen in dem man (nachbearbeitete) Fotos sampelt. Doch von parametrisierbaren "Material-Shadern" träume ich seit DX8. Und wenn ich auf D3D10 warten muss – das wird kommen.

reunion
2005-11-13, 23:30:34
Oddly no-one I recognised was about, but I did overhear two animated young engineer types discuss a bean that I thought you’d like – the codename of ATi’s forthcoming successor to its just released RADEON X1800 XT (R520) - the 90nm R580 is called ‘Rodin’.

http://www.hexus.net/content/item.php?item=3765

Ailuros
2005-11-13, 23:34:19
Um mal meine Sig. hervorzuheben:
Der Klügste ist der, der weiß, was er nicht weiß. - Sokrates

Oder etwas freier interpretiert:
Wenn man nicht weiß wovon man spricht, sollte man sich besser zurückhalten.

Dann muessten aber viele von uns die Klappe halten :P

Xbitlabs schreibt explizit von "48 pixel processors" aber "16 texture mapping units", und ja, R580 wird 48 ALUs haben. Ob man diese jetzt "pixel processors" oder sonst irgendwie nennt, ist sowas von egal, man sollte sich nicht an einer Bezeichung aufhängen.

Sokrates sagte aber auch dass je aelter er wurde, desto mehr er dazulernte.

Macht man ja jetzt bei RV530 auch schon mit 12.

Eben Grund genug dass man sich an Bezeichnungen aufhaengt und wenigstens versucht die Sache etwas mehr zu klaeren.

seahawk
2005-11-14, 08:02:00
Sag das so nicht. "Bessere" Shader sollten ein Tex:ALU-Verhältnis von ca. 1:8 haben. Nun braucht man beim Tex öfters mal was besseres als bilineare Filterung. Für bestimmte Dinge reicht bilineare Filterung dann wieder aus. Bietet die Hardware ein Verhältnis von 1:3, halte ich das für optimal und zukunftsträchtig. Das 1:2-Verhältnis im G70 ist gut, aber hoffentlich nicht das Ende der Fahnenstange.

Dazu kommt, dass man ohne erhebliche Fortschritte bei der Speichertechnik die TMU-Zugriffe pro Takt kaum noch steigern kann. Arithmetische Leistung benötigt lediglich interne Bandbreite. Insofern sollten die Entwickler dazu übergehen, lieber zu berechnen anstatt zu sampeln. Natürlich bringt es auch neue Ineffizienz, drei ALUs hintereinander zu haben.

Dauerhaft natürlich ja. Gegenwärtig, ob man dies Verhältnis aber schon Anfang 2006 sinnvoll ausnutzen kann bezwiefel ich, da doch vielfach noch die Geometrieleistung entscheidet. Erst wenn man einen Punkt erreicht andem die Geometrieleistung unwichtiger als die arithmetrische Leistung wird, dürfte ein 1:3 Verhältnis Sinn machen. Ich bezweifele aber, dass man mit einen 16 Pipe Chip diese Geometrieleistung bereits erreicht, wenn man mit dem Chptakt nicht in extreme Regionen gehen will. Für die kommenden Generationen sieht es dann wiederrum anders aus.

Quasar
2005-11-14, 09:01:30
Ja nee ist klar. Außerdem ist sampeln schön billig, das Bi-Sample gibts für einen Takt, ein FP16-Bisample in zwei Takten (ab NV40.) [...]
An Instruktionen kostet's nur einen bzw. zwei Takte. aber die Latenz musst du trotzdem noch verstecken, oder?

Und wenn man ganz besonders "kurze" Shaderlaufzeiten (oder für jeden Pixel etwas anderes machen) haben will (aus welchen Gründen auch immer...), müsste es doch u.U. "billiger" sein, bestimmte Dinge zu berechnen und die TMU-Latenz zu sparen (die doch IIRC etliche Dutzend, wenn nicht hunderte Takte beträgt).

Quasar
2005-11-14, 09:02:11
Dauerhaft natürlich ja. Gegenwärtig, ob man dies Verhältnis aber schon Anfang 2006 sinnvoll ausnutzen kann bezwiefel ich, da doch vielfach noch die Geometrieleistung entscheidet. Erst wenn man einen Punkt erreicht andem die Geometrieleistung unwichtiger als die arithmetrische Leistung wird, dürfte ein 1:3 Verhältnis Sinn machen. Ich bezweifele aber, dass man mit einen 16 Pipe Chip diese Geometrieleistung bereits erreicht, wenn man mit dem Chptakt nicht in extreme Regionen gehen will. Für die kommenden Generationen sieht es dann wiederrum anders aus.
Meinst du Geometrie- oder Texturleistung?

seahawk
2005-11-14, 09:31:49
Geometrieleistung. Die Texturleistung wird imho auf Dauer durch eine höhere arithmetrische Leistung unwichtiger werden. Für einen Chip des Jahres 2006 halte ich aber sowohl Geometrie- als auch Texutrleistung für wichtiger als die Arithmetrische Leistung, bzw. für noch so wochtig, dass ein Verhältnis von 1:3 nicht optimal sein sollte.

reunion
2005-11-14, 18:31:08
TSMC’s 80nm process technology is proclaimed to be a photolithographic shrink of the 90nm process technology with low-k dielectrics used today for mass production of various products, including such complex as graphics processing units by ATI Technologies.[...]

No actual details regarding the 80nm process technology have so far been published, but some web-sites expect that ATI Technologies will have a breed of graphics chips to be made using the fabrication process, including code-named RV535 and RV560 processors.


http://www.xbitlabs.com/news/other/display/20051111233347.html

Coda
2005-11-14, 18:38:50
Das ist der übliche verbesserte Prozess mit gleichen Libraries. Das gab's schon immer.

Gmax
2005-11-14, 18:49:25
Was kommt eigentlich nach dem R580? Gibt es da schon ein paar Fakten?

Coda
2005-11-14, 18:49:57
Fakten nicht, aber sehr wahrscheinlich ein Unified Shader der irgendwie auf Xenos aufbaut.

Gmax
2005-11-14, 18:53:32
Wird er dann auch eram ( kann mich nicht genau erinnern, wie es hieß ) haben, und wenn ja was bringt das denn überhaupt?

robbitop
2005-11-14, 18:55:36
Das ist der übliche verbesserte Prozess mit gleichen Libraries. Das gab's schon immer.
Verbessert? Sonst waren das immer low cost optimierte Prozesse.
Gut ab 100nm läßt sich aus elektrotechnischen Gründen lowk nicht mehr vermeiden, aber da wurde sicher woanders gespart.

seahawk
2005-11-14, 19:04:11
Ich dachte 80nm wäre zu 90nm wie 110nm zu 130nm low-k, also so eine Art preisoptimierter Prozess.

Coda
2005-11-14, 19:17:54
Verbessert?Ja verbessert. Ich gehe stark davon aus, dass G70 mit low-k in 110nm produziert wird.

mapel110
2005-11-14, 19:20:45
Ja verbessert. Ich gehe stark davon aus, dass G70 mit low-k in 110nm produziert wird.
Produziert wird oder produziert werden wird? Derzeit ist das doch kein low-k?! Steht zumindest nirgens was dazu, nur 110nm wird gesagt.

M2-Master
2005-11-14, 22:18:28
Fakten nicht, aber sehr wahrscheinlich ein Unified Shader der irgendwie auf Xenos aufbaut.

Wäre jemand so nett und würde mir erklären was Xenos sind ?
Danke :) .

mapel110
2005-11-14, 22:22:32
Wäre jemand so nett und würde mir erklären was Xenos sind ?
Danke :) .
Xenos ist R500 ist Grafikchip der Xbox360.

M2-Master
2005-11-14, 22:29:42
Ach so der Grafikchip in der Xbox 360.Ich dachte schon irgendwie was neues neben Shadern oder so :).
Da sieht man wieder:nachfragen hilft.

Coda
2005-11-14, 23:46:20
Xenos ist R500 ist Grafikchip der Xbox360.Nix R500. Das Ding heißt C1.

deekey777
2005-11-15, 00:11:03
Nix R500. Das Ding heißt C1.

Nur ist Xenos/C1 immer noch sehr verwirrend, mit dem R500 kommen die meisten besser zurecht, wenn sie (die Bezeichnung) eigentlich nicht richtig ist, da man gleich Parallelen zum R520 zieht, was falsch ist.

Ailuros
2005-11-15, 06:44:06
Ja verbessert. Ich gehe stark davon aus, dass G70 mit low-k in 110nm produziert wird.

Gibt es denn ueberhaupt low-k 110nm bei TSMC? AFAIK gibt es bei denen nur low-k 130/90nm, non low-k 110nm und bald low-k 80nm.

Quasar
2005-11-15, 08:04:11
Nvidia gibt keinen Prozesswechsel an, nur eine "Überarbeitung", eine um 0,05v erhöhte Spannung und das Wegfallen des erhöhten Geometry-Taktes unterscheiden die Chips wohl voneinander.

seahawk
2005-11-15, 08:20:24
Gibt es denn ueberhaupt low-k 110nm bei TSMC? AFAIK gibt es bei denen nur low-k 130/90nm, non low-k 110nm und bald low-k 80nm.

AFAIK nein.

robbitop
2005-11-15, 09:06:07
Ja verbessert. Ich gehe stark davon aus, dass G70 mit low-k in 110nm produziert wird.
Das verwendete Dielektrikum hat einen Wert von >3 IIRC und müßte FSG sein. Zumindist habe ich bei TSMC nichts von einem neuen HP 110nm Prozess mit Black Diamond o.Ä. gelesen.

reunion
2005-11-15, 22:25:47
Before we already reported ATi was grinding sends the R580 graph chip the news. Now acts according to the news which divulges indicates, the R580 graph chip uses 13 metals in the craft interlocks, ILD, uses the improvement the Low-k craft and the gap compound excessively level, by further promotes the operating frequency. Some hearsays indicate, because between TSMC and IBM has the technology exchanges the agreement, but TSMC again is the R580 generation of labor merchant, therefore IBM in G70 when usefully arrives partial technology, also will appear in R580.

The hearsay points out, R580 and RV530 same, uses the picture element exaggerates the pipeline and the texture unit separation formula design. Under the traditional overhead construction design pattern, the single scroll picture element exaggerates the pipeline contains covers all exaggerates the process, the R580 design and this traditional design is different. ATi starts from the R300 graph chip, each picture element exaggerates the pipeline all matches 2 ALU, 1 entire labor, 1 part time worker. ncVidia G70 each picture element exaggerates the pipeline matches 2 entire labor ALU, therefore with G70 similar, the R580 graph chip will have 48 picture elements exaggerates the pipeline, will amount to 96 ALU, 16 textures units. Moreover, the hearsay indicates, in ATi plan RV560 will have 24 picture elements exaggerates the pipeline, 8 textures units. At present RV530 has 12 picture elements exaggerates the pipeline, 4 textures units.

The hearsay indicates, R580 will not greatly possibly promote in the near future, but will be can issue around the next year spring Cebit2006 congress. Certainly R580 final specification and issue date or must official tell us by ATi."

http://translate.google.com/translate?u=http%3A%2F%2Fnews.mydrivers.com%2Fpages%

Coda
2005-11-15, 22:28:46
Aha. Ein 2 Quad Chip RV560. War ja abzusehen.

deekey777
2005-11-15, 22:29:45
Aha. Ein 2 Quad Chip RV560. War ja abzusehen.

Wollte gerade auch schreiben, dann fiel mir etwas ein.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3663205&postcount=193

Daraus könnte man schliessen, daß der RV530 einen Shrink auf 80nm mit dem RV535 erfährt und der RV560 dann die neue Mittelklasse wird.

M2-Master
2005-11-15, 23:24:11
Nur ist Xenos/C1 immer noch sehr verwirrend, mit dem R500 kommen die meisten besser zurecht, wenn sie eigentlich nicht richtig ist, da man gleich Parallelen zum R520 zieht, was falsch ist.

Genau das stimmt ! Klingt einfach zu ähnlich,man muss wirklich wissen das der anders aufgebaut ist.

Jetzt mal nebenbei:Meint ihr das der R600 einen 512bit breiten Speicherbus haben wird ?Es wäre doch an der Zeit oder ?

StefanV2
2005-11-15, 23:39:23
Genau das stimmt ! Klingt einfach zu ähnlich,man muss wirklich wissen das der anders aufgebaut ist.

Jetzt mal nebenbei:Meint ihr das der R600 einen 512bit breiten Speicherbus haben wird ?Es wäre doch an der Zeit oder ?
Nein, wirds nicht geben, eher packt man die Rops in den Speicher (uups, das hat man ja schon (mal) gemacht) ;)

Coda
2005-11-16, 01:42:16
Das wird auch nicht kommen. Dafür bräuchte man einen gemeinsamen Standard von ATi und nVIDIA und die werden sich da nie einig werden, weil das schon zu tief in ihre Pipeline einschneiden würde.

mboeller
2005-11-16, 10:49:43
Wollte gerade auch schreiben, dann fiel mir etwas ein.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3663205&postcount=193

Daraus könnte man schliessen, daß der RV530 einen Shrink auf 80nm mit dem RV535 erfährt und der RV560 dann die neue Mittelklasse wird.


Mal eine blöde (hier OT) Frage zum RV530:

War der RV530 eigentlich jemals als Mittelklasse-Chip gedacht gewesen?

Wenn ich mir die Die-Area's der einzelnen Chips so im Vergleich anschaue, dann ist ein RV530 eigentlich genauso groß wie ein RV350 damals.

Auf der einen Seite 75Mio Transistoren @ 130nm; auf der anderen Seite 157Mio Transistoren @ 90nm. Das ergibt fast exakt die gleiche Die-Area. [ 130² x 75 = 90² x 157 ]

Der Rv350 ist zwar ganz am Anfang auf Mainstream-Karten eingesetzt worden [ $100 - $150 ], ist aber sehr schnell auch bei Karten eingesetzt worden, die < $100 gekostet haben.

Für mich ist deshalb der RV530 eher ein Lowend-Mainstream-Chip und kein Mittelklasse-Chip. Die Verkaufspreise für RV530-Karten die jetzt schön langsam bekannt werden zeigen ja auch in diese Richtung ( $100 - $150* ).

edit: * = ich meine hier natürlich die PRO-Version nicht die XT-Version
edit2: http://theinquirer.net/?article=27711

Quasar
2005-11-16, 13:06:04
Das wird auch nicht kommen. Dafür bräuchte man einen gemeinsamen Standard von ATi und nVIDIA und die werden sich da nie einig werden, weil das schon zu tief in ihre Pipeline einschneiden würde.
Wieso das? Woher weiß DX oder ein anderer Standard, wo die ROPs sind?

stav0815
2005-11-16, 20:06:20
Wieso das? Woher weiß DX oder ein anderer Standard, wo die ROPs sind?
dann hast du 2x verschiedene Speicher. super Sache. dann baut Samsung den Speicher für ATi und Hynix den für nV?

aths
2005-11-17, 09:09:38
Wieso das? Woher weiß DX oder ein anderer Standard, wo die ROPs sind?Die Funktionalität der ROPs kann sich unterscheiden. NV setzt seit NV30 und erst recht seit NV40 auf ziemlich komische ROPs.

robbitop
2005-11-17, 09:37:47
Die Funktionalität der ROPs kann sich unterscheiden. NV setzt seit NV30 und erst recht seit NV40 auf ziemlich komische ROPs.
"Komisch" klingt leicht negativ. Und dabei sind die Dinger ziemlich Leistungsfähig.

Coda
2005-11-17, 10:49:50
dann hast du 2x verschiedene Speicher. super Sache. dann baut Samsung den Speicher für ATi und Hynix den für nV?Genau das meine ich. nVIDIA und ATI müssten ihren Speicher dafür praktisch extra fertigen lassen, was wohl viel zu teuer sein würde.

Vor allem gehört zu den ROPs auch ein guter Teil der HSR-Logik. Ich glaube kaum dass ATI auf ihr Hier-Z verzichten will oder es nVIDIA umsonst zur Verfügung stellt.

RLZ
2005-11-17, 11:30:57
Mal ein paar Schnapsideen die mir grade gekommen sind:
- Speicherkontroller zerteilen, in mehrere Chips verteilen und per schneller serieller Anbindung mit der GPU verbinden. Also quasi FB-Dimm mit schnellerer Verbindung. HT2 macht afaik mit 128 Leitungspaaren schon 100GB/s und lässt sich bestimmt für solche Anwendungen noch aufbohren.
- Bei Ati: eDRAM als Cache für den Z-Buffer verwenden. Falls die Auflösung zu gross wird passt halt nur noch die nächstkleinere Stufe vom Hier-Z rein. Das dann mit aufs Package und breitbandig anschliessen.

robbitop
2005-11-17, 12:17:55
Mal ein paar Schnapsideen die mir grade gekommen sind:
- Speicherkontroller zerteilen, in mehrere Chips verteilen und per schneller serieller Anbindung mit der GPU verbinden. Also quasi FB-Dimm mit schnellerer Verbindung. HT2 macht afaik mit 128 Leitungspaaren schon 100GB/s und lässt sich bestimmt für solche Anwendungen noch aufbohren.
Und was soll das bringen? Der Speichercontroller hat damit noch immer keine breitere Anbindung an den Speicher. Und geteilt und parametrisierbar sind die Dinger eh seit Langem.


- Bei Ati: eDRAM als Cache für den Z-Buffer verwenden. Falls die Auflösung zu gross wird passt halt nur noch die nächstkleinere Stufe vom Hier-Z rein. Das dann mit aufs Package und breitbandig anschliessen.
Kostet Transistoren, die man anders evtl besser verwenden kann. Was z.B. seit rel. Kurzem zum Patent eingereicht worden ist, ist eine verlustbehaftete Kompression für Z.

RLZ
2005-11-17, 12:27:06
Und was soll das bringen? Der Speichercontroller hat damit noch immer keine breitere Anbindung an den Speicher. Und geteilt und parametrisierbar sind die Dinger eh seit Langem.
Du musst nicht mehr alle Speichermodule an einem Chip anschliessen.
Damit würde sich das PCB massiv vereinfachen oder aber eine höhere Bandbreite nutzbar machen.

Kostet Transistoren, die man anders evtl besser verwenden kann. Was z.B. seit rel. Kurzem zum Patent eingereicht worden ist, ist eine verlustbehaftete Kompression für Z.
Das Patent lohnt sich ja nur für sehr hohe AA-Modi.

Externe Speicher ist auch nicht sonderlich teuer und das Speicherinterface würde massiv entlastet werden.

robbitop
2005-11-17, 12:55:39
Du musst nicht mehr alle Speichermodule an einem Chip anschliessen.
Damit würde sich das PCB massiv vereinfachen oder aber eine höhere Bandbreite nutzbar machen.
werden.
Dafür musst du dann wieder 4-8 extra Chips drauftun und produzieren. Wirklich billiger wird das nicht. Und wenn du dann die ext Controller mit mehr Bandbreite versorgen willst als bisher, müssten sich BGAs mit mehr Balls finden (oder mehr BGAs verbauen). Gäbe aber sicher auch einen Mittelweg.

mboeller
2005-11-18, 19:50:22
Mal ein paar Schnapsideen die mir grade gekommen sind:
- Speicherkontroller zerteilen, in mehrere Chips verteilen und per schneller serieller Anbindung mit der GPU verbinden. Also quasi FB-Dimm mit schnellerer Verbindung.


Was hältst du denn von Kentron's QBM-Technologie? Wenn das System bei den hohen DDR3/4-Geschwindigkeiten funktionieren würde (echt keine Ahnung ob ja oder nein) dann könnte man damit ein quasi 512bit Interface zu 256bit-Interface-Kosten hinbekommen.
Die Speicherchips müssten dann aber vom QBM-Chip angesprochen werden und die Kosten wären damit natürlich auch höher.

M2-Master
2005-11-18, 20:50:07
Was hältst du denn von Kentron's QBM-Technologie? Wenn das System bei den hohen DDR3/4-Geschwindigkeiten funktionieren würde (echt keine Ahnung ob ja oder nein) dann könnte man damit ein quasi 512bit Interface zu 256bit-Interface-Kosten hinbekommen.
Die Speicherchips müssten dann aber vom QBM-Chip angesprochen werden und die Kosten wären damit natürlich auch höher.

Meinst du das jetzt als ein Vorschlag für den r580 oder den r600 ?

Coda
2005-11-18, 21:10:15
Wenn dann wird das in einen GDDR-Standard aufgenommen und kommt somit allen GPU-Herstellern zugute.

M2-Master
2005-11-18, 21:17:00
Wenn dann wird das in einen GDDR-Standard aufgenommen und kommt somit allen GPU-Herstellern zugute.

Das ist natürlih nochmals besser,ich hoffe das lässt sich realisieren.Es hört sich ja so an als könnte man damit die Kosten für 512bit niedrig halten.

Coda
2005-11-18, 21:19:13
Man muss die Daten irgendwie durch das Kupfer bringen, das ist bei DDR eigentlich auch keine Hexerei. Auf einmal doppelte Datenrate durch eine Leitung kommt mir komisch vor. Aber warten wir mal ab.

M2-Master
2005-11-18, 21:25:36
Man muss die Daten irgendwie durch das Kupfer bringen, das ist bei DDR eigentlich auch keine Hexerei. Auf einmal doppelte Datenrate durch eine Leitung kommt mir komisch vor. Aber warten wir mal ab.

Ja stimmt,ist so schon etwas skeptisch zu betrachten.Ich habe das Gefühl da muss irgendwie noch was dazukommen (also ich könnte jetzt auch Schwachsinn vermuten,aber so seh ich das).

aths
2005-11-18, 21:26:56
Was hältst du denn von Kentron's QBM-Technologie? Wenn das System bei den hohen DDR3/4-Geschwindigkeiten funktionieren würde (echt keine Ahnung ob ja oder nein) dann könnte man damit ein quasi 512bit Interface zu 256bit-Interface-Kosten hinbekommen. Die Burstzeiten wären noch länger, und dass die Daten-Taktrate nochmals verdoppelt werden kann, ist nicht unbedingt gesagt.

Ailuros
2005-11-21, 03:38:42
Mal ein paar Schnapsideen die mir grade gekommen sind:
- Speicherkontroller zerteilen, in mehrere Chips verteilen und per schneller serieller Anbindung mit der GPU verbinden. Also quasi FB-Dimm mit schnellerer Verbindung. HT2 macht afaik mit 128 Leitungspaaren schon 100GB/s und lässt sich bestimmt für solche Anwendungen noch aufbohren.
- Bei Ati: eDRAM als Cache für den Z-Buffer verwenden. Falls die Auflösung zu gross wird passt halt nur noch die nächstkleinere Stufe vom Hier-Z rein. Das dann mit aufs Package und breitbandig anschliessen.

Selbst wenn sind das alles "Notloesungen" mit theoretischen Vor- und Nachteilen so wie es mir klingt. Speicherbandbreite und Framebuffer haben heutigen GPUs nicht gerade wenig (48-54GB/sec, 256-512MB), das Problem liegt aber eher IMHLO wo anders: zu wenig floating point Operationen pro Takt die sich zwer oder manchmal sogar gar nicht mit AA z.B. kombinieren lassen.

Folgendes Dilemma fuer meine eher einfache Denkensart: pumpt man jetzt Speicherbandbreiten und Framebuffergroessen bis zum geht nicht mehr weiter hoch oder versucht man das Problem im gegebenen Fall an seiner wahren Wurzel zu bewaeltigen?

aths
2005-11-22, 12:41:11
Was ist denn die "wahre" Wurzel (besseres Deusch: wahre Ursache)?

Im Gegensatz zu RLZ bin ich auch nicht für onchip-Z-Buffer. Das könnte man bei einer Konsole überlegen, im PC-Bereich halte ich das für Transistorverschwendung (da man den Onchip-Buffer kaum "richtig" ausnutzen wird: Entweder ist er zu groß oder zu klein. Interessanter wäre imo der Support von virtualisiertem Speicher und ein mehrstufiges Cache-System: Festplatte, PC-Arbeitsspeicher, Graka-Arbeitsspeicher, Onchip-Speicher, der direkte Cache an den Units.)

512-MiB-Karten sind imo längst überfällig. Ich hoffe dass der Speicher so billig wird, dass man mittelfristig auch 1024 MiB realisieren kann. Ziel sollten 2048 MiB sein: Texturen, Geometrie, all das sollte direkt auf der Graka liegen.

Um zu wissen, wie sich ein TBDR schlägt, sollte man ihm mal einige Millionen Dreiecke pro Frame vorsetzen. Beim IMR brauchen wir Speicherbandbreite und nochmals Speicherbandbreite – fürs HDR-Rendering.

Ailuros
2005-11-23, 10:10:47
Die Frage ist eher ob man pipelines der Zukunft effizienter auslegen kann und nicht ob man zwingend zu DR umschwingen muss.

Ziel sollten 2048 MiB sein: Texturen, Geometrie, all das sollte direkt auf der Graka liegen.

DX10 ist zwar ein Schritt in die richtige Richtung, aber es fehlt doch noch einiges was in der Zwischenzeit entfernt wurde.

Um zu wissen, wie sich ein TBDR schlägt, sollte man ihm mal einige Millionen Dreiecke pro Frame vorsetzen. Beim IMR brauchen wir Speicherbandbreite und nochmals Speicherbandbreite – fürs HDR-Rendering.

Ich hab nicht auf TBDR gezielt weil es ohne einen high end PC oder Consolen-chip sowieso laecherlich ist. TBDR gibt es heutzutage nur noch im PDA/mobilen Markt und da ist der Unterschied in Echtzeit was Tris/sec betrifft auf cores mit gleichem Stromverbrauch, Groesse und Taktrate oefers eher in einer 12:1 Relation fuer TBDRs und das sogar ohne Geometrie Prozessor. Von zukuenftigen cores wie SGX (die schon in FPGA vorgestellt wurden) die ueber 64bpp HDR + FSAA faehig sind wuerde ich schon gar nicht reden; dagegen muss sich die gesamte Konkurrenz erstmal beweisen in der absehbaren Zukunft.

Coda
2005-11-23, 14:18:33
Ziel sollten 2048 MiB sein: Texturen, Geometrie, all das sollte direkt auf der Graka liegen.Uhm das tut es bereits, außer dynamische Texturen & Vertexdaten, aber die gehören auch in den Systemspeicher.

Ailuros
2005-11-23, 14:44:45
Verdammt OT: ich frage mich in letzter Zeit immer mehr ob wir vielleicht in der weniger absehbaren Zukunft so was wie ein "system on chip" sehen koennten.

Gaestle
2005-11-23, 14:53:07
Verdammt OT: ich frage mich in letzter Zeit immer mehr ob wir vielleicht in der weniger absehbaren Zukunft so was wie ein "system on chip" sehen koennten.

Könntest Du den Begriff "SOC" bitte etwas ausführen? Also was das ist?
Wäre nett, danke.

Grüße

Coda
2005-11-23, 15:23:02
GPU und CPU auf einem Chip. Imho nein, da man trotz getrennter Chip durch das mehr an möglicher Logikfläche mehr Leistung rausbekommen sollte.

Tarkin
2005-11-24, 10:20:19
http://www.digitimes.com/news/a20051124A7039.html

ATI Technologies is currently in the final stage of testing its R580 graphics processor units (GPUs) with customers, sources at Taiwan graphics card makers indicated, adding that the graphics chip vendor expects to launch the flagship chip in early 2006.

ATI will also be enhancing its entry-level GPU product line on the 80nm production node, with new RV560, RV535, and RV505 chips, the sources noted.

The R580 will be ATI’s latest offering in its flagship GPU line, following the launch of the Radeon X1800 series in early October. The new chip (R580), which entered the tape-out stage in the middle of the third quarter, is now in volume shipments for sampling, according to the sources.

ATI has started implementing an 80nm process technology to produce its entry-level RV560, RV535, and RV505 chips at Taiwan Semiconductor Manufacturing Company (TSMC), aiming for better production cost efficiency, indicated the sources. Volume shipments are slated for the first quarter of next year, the sources expect.

StefanV
2005-11-24, 12:55:39
W
512-MiB-Karten sind imo längst überfällig. Ich hoffe dass der Speicher so billig wird, dass man mittelfristig auch 1024 MiB realisieren kann. Ziel sollten 2048 MiB sein: Texturen, Geometrie, all das sollte direkt auf der Graka liegen.
Sag das den Pentium M Fanboys ;)

Das Problem an dem ganzen ist doch, das man für das alles ein 64bit OS zwingend benötigt, auch ein Grund, warum wir so lang auf 512MB Karten warten mussten denn dafür mussten ATi und nV ja erstmal 'nen entsprechenden HACK in die Treiber einbauen...

Aber 32bit Adressraum sind ja mehr als genug :bonk:

Ailuros
2005-11-24, 13:56:43
Unter normalen Bedingungen (ie mit Textur-Kompression) verbrauchen die neuesten Spiele in 1600 mit 4xAA auf 256MB GPUs den ganzen GPU Speicher und benoetigen noch irgendwo um die 100MB vom System-speicher.

In den Faellen wo ein 512MB von wirklichem Vorteil sein koennte (z.B. noch hoehere Aufloesungen) limitieren dann andere Faktoren.

Sonst macht Dir in der schwersten Spielen heutzutage nur einen Unterschied wenn Du keine Textur-Kompression benutzt.

Coda
2005-11-24, 14:06:57
Das war gerade nicht das Thema Ail ;)

Ailuros
2005-11-25, 05:22:44
Das war gerade nicht das Thema Ail ;)

Ich weiss schon was er meinte, ich werde eben meistens von dem Zeug mit dem ich mich zur Zeit beschaeftige mitgerissen ;)

Ailuros
2005-11-25, 05:31:52
Vom anderen geschlossenen Thread:

habe mich nun entgültig entschlossen:
R520 wird ausgelassen und es wird anfang jänner / ende jänner der R580 gekauft .
habe das ASUS A8V Deluxe AGP A64 3000+ 1GB Ram derzeit X800 PRO.
nun hies es immer das die low end und middle range Produkt auch noch für AGP erscheinen sollten -
Mindestens dem "Middle Chipsatz " mit einer Performance einer X850 XT
und bitte OHNE einem nur 128 bit Interface- (welch ein Verlust an performance) dann doch viel lieber mit event. nur weniger Zaktraten und Anzahl von Pipes !!!!
dem soll auch beim R580 so sein, HIGH END ist fraglich aber sicherlich erwünscht .

Deshalb eine Bitte an die Insider und vor allem an ATI Selbst .....
Bitte bezieht Stellung zum Thema R580 AGP midfle und high end graka !!
das seid ihr uns "Armen" AGP -lern einfach schuldig nach dem ganzen Fiasko mit dem R520 und der Anküngigung auf AGP in den vorigen Ati Road-Maps !

also möchte nun klare Aussagen zum R580 auf AGP ;
den R520 will ich gar nicht mehr haben da er ja bald wieder abgelöst werden soll- denke in max. 2 monaten sollte es soweit sein.
UND DIES WIRD SICHER KEIN PAPERLAUNCH, sonder SOFORT verfügbar

Die Entscheidung ob und wo es AGP boards geben wird ueberlassen beide IHVs den Herstellern. Es gab einen kleinen Blitz an Hoffnung mit dem Tippfehler von Diamond ueber die X1800XL, aber sie sagten selber dass es dafuer an Interesse fehlt.

Das System oben braucht sowieso eine Aufruestung; die CPU und Hauptspeichermenge sind IMO zu mager fuer R580.

deekey777
2005-11-25, 14:00:27
ATI Technologies' Counter-Offensive: RADEON X1800 (R520), X1600 (RV530), and X1300 (RV515) Series
Part 6: Interview with Guennadi Riguer (ATI Technologies) (http://www.digit-life.com/articles2/video/r520-part6.html)
iXBT.com: What considerations have led to such a strange balance in texture units and shader processors in RV530? Isn't the 3:1 ratio sufficient for modern applications? At an average, each pixel processor can execute 1.5-2 operations per clock. And many shaders actively access textures! Was this ratio planned from the very beginning? Was its efficiency confirmed by any tests?

Gennadi:That's a very interesting question. Not long ago we advised developers to keep the ratio between texture and arithmetic operations within 1:1 - 1:2 and use textures as a lookup table instead of shader calculations. But the graphics industry features very few things that make no headway. Time will soon come to review approaches and adjust to developers' requirements. In times of DirectX 8 and early DirectX 9, the real ratio between operations in pixel shaders was 1:1.5 - 1:2.5. A close-to-optimal balance between various pixel pipeline units was reached after all optimizations and filtering. If we take a look at high-tech games, released last year (Half Life 2, Far Cry) and this year (Age of Empires 3, FEAR, and Splinter Cell), you will see the ratio between texture and arithmetic operations already within 1:3.5 - 1:5. Extrapolating to the next couple of years, we can expect a larger ratio. That's not surprising. If we consider the performance growth of graphics pipelines, we can see that it leaves memory performance growth far behind. Here is an example. The memory bandwidth in video cards has grown approximately by 16 times from 1998 to 2004. Not bad, actually. But compared to the performance growth of pixel pipelines, which performance has grown approximately by 84 times for the same period, the memory is left far behind. This growth rate should survive for at least a couple of years. This way or another, developers will have to rely on arithmetic operations in shaders on an increasing scale, not to be limited by memory performance.

Radeon X1600 is a graphics adapter of a middle price range and lower. Users of these cards usually don't upgrade them to the latest solutions each six months. Such cards are used in computers of their owners for at least a couple of years. In our opinion, it's important to give them a solution with reserve to the future. Yes, I agree that this solution is not ordinary and perhaps even a tad risky, but as they say, nothing venture, nothing gain. We are sure that our forecast is true and X1600 users will not be disappointed.

Na dann, mal sehen, ob und wann die Rechnung aufgeht.

DrumDub
2005-11-25, 14:34:15
Na dann, mal sehen, ob und wann die Rechnung aufgeht. die argumentation macht jedenfalls sinn.

Coda
2005-11-25, 15:08:39
Na dann, mal sehen, ob und wann die Rechnung aufgeht.Das tut sie ja schon bei RV530. Auch nVIDIA setzt ja auf mehr Arithmetik als auf Texturleistung seit NV40.

Ailuros
2005-11-25, 16:43:09
Die 1:3.5 bis zu 1:5 (texture <-> arithmetic) Rechnung fuer die neuesten Spiele ist ueberhaupt nicht uebertrieben.

Spiele wie FEAR z.B. werden erst richtig mit der HW von H2 2006 loslegen IMHO.

DrumDub
2005-11-25, 17:11:48
Spiele wie FEAR z.B. werden erst richtig mit der HW von H2 2006 loslegen IMHO. was meinst du mit loslegen? fear läuft doch auf aktueller hardware ziemlich gut.

Ailuros
2005-11-25, 18:19:13
was meinst du mit loslegen? fear läuft doch auf aktueller hardware ziemlich gut.

Was heisst denn ziemlich gut bei Dir genau? Mit allem drum und dran 4xAA/16xAF ist das Ding in etwa am Rand der Spielbarkeit in 1280 (ohne soft shadows). Und das auf einer 7800GTX@490/685MHz und einem FX-55.

Das ist ja auch nicht so schlimm bei einem neuen Spiel; ich kann leider nichts am Resultat sehen dass diesen Leistungseinbruch auch absolut gerechtfertigt. Auf keinen Fall ein schlechtes Spiel nur aus den Socken reisst es mich auch nicht.

DrumDub
2005-11-25, 22:19:57
Was heisst denn ziemlich gut bei Dir genau? Mit allem drum und dran 4xAA/16xAF ist das Ding in etwa am Rand der Spielbarkeit in 1280 (ohne soft shadows). Und das auf einer 7800GTX@490/685MHz und einem FX-55. hmmm. das kann ich nicht beurteilen.. bei mir kommst mit 1152x864 2xaa/4xaf alle auf high, ss off auf ner x800xl@434/515 und nem a64 3000+@2304 nicht unter 30fps im timedemo.

Das ist ja auch nicht so schlimm bei einem neuen Spiel; ich kann leider nichts am Resultat sehen dass diesen Leistungseinbruch auch absolut gerechtfertigt. Auf keinen Fall ein schlechtes Spiel nur aus den Socken reisst es mich auch nicht. aus den socken hats mich auch nicht gerissen, aber die grafischen details stimmen für mich. (ähnlich wie bei max payne.)

Ailuros
2005-11-26, 07:16:36
Ich dachte zuerst dass Fear keine (anstaendige) Textur-kompression hat, aber ein paar weitere Tests (und auch im Vergleich zu anderen neuen Spielen) deuteten auf das Gegenteil.

Fear sieht sehr stark shader-limitiert aus; je mehr ALU-Leistung auf zukuenftigen GPUs steigen wird, desto besser wird es laufen.

reunion
2005-11-26, 12:44:27
Die 1:3.5 bis zu 1:5 (texture <-> arithmetic) Rechnung fuer die neuesten Spiele ist ueberhaupt nicht uebertrieben.

Spiele wie FEAR z.B. werden erst richtig mit der HW von H2 2006 loslegen IMHO.


Das gilt vielleicht bei bilinearer- oder meinetwegen trilinearer-Filterung, mit 16xAF halte ich dieses Verhältnis allerdings für arg übertrieben. Es limitiert in praxisrelevanten Einstellungen IMHO noch immer hauptsächlich die Texelfüllrate.

Ailuros
2005-11-26, 17:43:06
Das gilt vielleicht bei bilinearer- oder meinetwegen trilinearer-Filterung, mit 16xAF halte ich dieses Verhältnis allerdings für arg übertrieben. Es limitiert in praxisrelevanten Einstellungen IMHO noch immer hauptsächlich die Texelfüllrate.

Das was Du immer noch als Texelfuellrate interpretierst, ist im Grund in Spielen wie Fear eher interne Shader-fuellrate.

Die 512 GTX ist um 29% schneller als die 256 GTX, weil die erste auch um 28% hoehere Taktrate hat.

Fear ist kein dx7.0 Spielchen wo die hoechste Last nur am multitexturing liegt.

reunion
2005-11-27, 20:55:26
Das was Du immer noch als Texelfuellrate interpretierst, ist im Grund in Spielen wie Fear eher interne Shader-fuellrate.


Glaube ich nicht. Oder warum meinst du kann die X1800 XT ausgerechnet in Fear so gut mithalten, obwohl man in punkto Shader-Füllrate - wie von dir mehrmals vorgerechnet - eigentlich weit unterlegen ist?


Die 512 GTX ist um 29% schneller als die 256 GTX, weil die erste auch um 28% hoehere Taktrate hat.


Logisch, was das mit dem Thema zu tun hat, leuchtet mir allerdings nicht ein, mit dem Takt steigt ja nicht nur die Shaderfüllrate.


Fear ist kein dx7.0 Spielchen wo die hoechste Last nur am multitexturing liegt.

Sehe ich anders.

Ailuros
2005-11-28, 05:14:27
Glaube ich nicht. Oder warum meinst du kann die X1800 XT ausgerechnet in Fear so gut mithalten, obwohl man in punkto Shader-Füllrate - wie von dir mehrmals vorgerechnet - eigentlich weit unterlegen ist?

Wenn Du nur die Shader raushakst aus der engine und einen synthetischen Test laufen laesst, zeigt sich der Unterschied schon. Ein Spiel besteht aber nicht nur ausschliesslich aus Shadern.

Ausserdem solltest Du wohl etwas vorsichtiger auf die Resultate schauen. Bemerk erstmal was die R520 ohne AA/AF leistet und wieviel Leistung sie mit AA/AF im Gegensatz zur Konkurrenz verliert.

Zur weiteren Antwort Deiner Frage, R580 wird hoechstwahrscheinlich an die 50% schneller sein als R520 und das mit 3x mal so hohem theoretischen ALU throughput. Faellt der Groschen vielleicht jetzt?

Logisch, was das mit dem Thema zu tun hat, leuchtet mir allerdings nicht ein, mit dem Takt steigt ja nicht nur die Shaderfüllrate.

512 GTX und 256 GTX verlieren genauso viel Leistung mit AA/AF in Fear, obwohl die erste zich mehr Fuellrate und Bandbreite hat. Siehe oben.

Sehe ich anders.

Ich warte gerne auf eine logische Erklaerung mit Dokumentation bitteschoen. Raten kann jeder.

reunion
2005-11-28, 13:09:40
Wenn Du nur die Shader raushakst aus der engine und einen synthetischen Test laufen laesst, zeigt sich der Unterschied schon. Ein Spiel besteht aber nicht nur ausschliesslich aus Shadern.

Ausserdem solltest Du wohl etwas vorsichtiger auf die Resultate schauen. Bemerk erstmal was die R520 ohne AA/AF leistet und wieviel Leistung sie mit AA/AF im Gegensatz zur Konkurrenz verliert.

Zur weiteren Antwort Deiner Frage, R580 wird hoechstwahrscheinlich an die 50% schneller sein als R520 und das mit 3x mal so hohem theoretischen ALU throughput. Faellt der Groschen vielleicht jetzt?


Eben, genau das sage ich ja die ganze Zeit. Die Shader limitieren bei heutigen Spielen in praxisrelevanten Einstellungen nicht, sondern noch immer hauptsächlich die Texelfüllrate. G70 kann praktisch kaum einen Vorteil aus seiner überlegenen Shaderfüllrate ziehen.


Ich warte gerne auf eine logische Erklaerung mit Dokumentation bitteschoen. Raten kann jeder.

Was ist daran nicht zu verstehen?
Würde die Shaderfüllrate limitieren, wäre R520 weit abgeschlagen, das ist er aber nicht.

Ailuros
2005-11-28, 18:26:22
Eben, genau das sage ich ja die ganze Zeit. Die Shader limitieren bei heutigen Spielen in praxisrelevanten Einstellungen nicht, sondern noch immer hauptsächlich die Texelfüllrate. G70 kann praktisch kaum einen Vorteil aus seiner überlegenen Shaderfüllrate ziehen.

Mit der Vereinfachung kannst vielleicht Du leben ich aber nicht.

Was ist daran nicht zu verstehen?
Würde die Shaderfüllrate limitieren, wäre R520 weit abgeschlagen, das ist er aber nicht.

Eben weil die Texelfuellrate nur nach Dir alles ist, hat die 512 GTX mit 30% mehr Texelfuellrate als die X1800XT, schlaegt sie aber mit was fuer einem Prozentual genau?

1600*1200 noAA/AF

7800GTX 512 = 62
7800GTX 256 = 47
7800GT = 40
X1800XT = 45
X1800XL = 34

1600*1200 4xAA

7800GTX 512 = 31 (-50%)
7800GTX 256 = 24 (-49%)
7800GT = 20 (-50%)
X1800XT = 28 (-37%)
X1800XL = 20 (-41%)

http://www.anandtech.com/video/showdoc.aspx?i=2607&p=7

Noch dazu kommt natuerlich auch der 7800GT/X1800XL Vergleich.

reunion
2005-11-28, 20:22:38
Eben weil die Texelfuellrate nur nach Dir alles ist, hat die 512 GTX mit 30% mehr Texelfuellrate als die X1800XT, schlaegt sie aber mit was fuer einem Prozentual genau?


Ich habe nie behauptet, dass die Texelfüllrate alles ist, alles was ich sagte, war, dass sie in praxisrelevanten Einstellungen wesentlich öfter limitiert, als die Shaderfüllrate.


1600*1200 noAA/AF

7800GTX 512 = 62
7800GTX 256 = 47
7800GT = 40
X1800XT = 45
X1800XL = 34

1600*1200 4xAA

7800GTX 512 = 31 (-50%)
7800GTX 256 = 24 (-49%)
7800GT = 20 (-50%)
X1800XT = 28 (-37%)
X1800XL = 20 (-41%)

http://www.anandtech.com/video/showdoc.aspx?i=2607&p=7

Noch dazu kommt natuerlich auch der 7800GT/X1800XL Vergleich.

Und was willst du mir damit sagen? Natürlich kann man durch den Verzicht auf AF krampfhaft versuchen, die Texelfüllrate in den Hintergrund zu drängen. Ich wage allerdings zu bezweiflen, dass man bei einer derartigen High-End-Karte auf AF verzichten würde.

Bei deinem Beispiel scheint sich wohl der bessere Speichercontroller der X1800 bezahlt zu machen, sieht man auch hier (http://www.hardware.fr/medias/photos_news/00/14/IMG0014782.gif) sehr gut. Mit AF zieht die GTX 512 allerdings deutlich vorbei, woran das wohl liegen mag?

Ailuros
2005-11-29, 06:24:22
Ich habe nie behauptet, dass die Texelfüllrate alles ist, alles was ich sagte, war, dass sie in praxisrelevanten Einstellungen wesentlich öfter limitiert, als die Shaderfüllrate.

In Spielen wie Fear eben nicht.

Und was willst du mir damit sagen? Natürlich kann man durch den Verzicht auf AF krampfhaft versuchen, die Texelfüllrate in den Hintergrund zu drängen. Ich wage allerdings zu bezweiflen, dass man bei einer derartigen High-End-Karte auf AF verzichten würde.

Ich sitze schon seit Wochen ueber dem Spiel und schau mir verschiedene Aspekte an.

Natuerlich wird kein Schwein auf AA/AF bei solchen GPUs verzichten und deshalb auch die Prozentuale oben, die Dir etwas zeigen sollten.

Bei deinem Beispiel scheint sich wohl der bessere Speichercontroller der X1800 bezahlt zu machen, sieht man auch hier (http://www.hardware.fr/medias/photos_news/00/14/IMG0014782.gif) sehr gut. Mit AF zieht die GTX 512 allerdings deutlich vorbei, woran das wohl liegen mag?

Dass sich der Speichercontroller bezahlt macht war ja auch mein Ziel. Egal welche Resultate von welcher Quelle die Prozentuale zwischen noAA und 4xAA sind in etwa gleich auf verschiedenen GPUs.

Gleich auch hier:

http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_15.html

Zu Deiner Frage: haette die GTX512 13GTexels/sec Fuellrate aber niedrigere arithmetische Effizienz, waere auch ihre Leistung niedriger.

Falls sich jemand mit der neuen S3@700MHz in Fear beschaeftigen sollte, wuerde es Dir eine klare Antwort geben zwischen GPUs mit gleicher Texelfuellrate aber verschiedener arithmetischer Effizienz.

RLZ
2005-11-29, 17:10:28
Zwar etwas spät die Antwort, aber wegen Stress gings halt nicht früher. :)

Im Gegensatz zu RLZ bin ich auch nicht für onchip-Z-Buffer. Das könnte man bei einer Konsole überlegen, im PC-Bereich halte ich das für Transistorverschwendung (da man den Onchip-Buffer kaum "richtig" ausnutzen wird: Entweder ist er zu groß oder zu klein. Interessanter wäre imo der Support von virtualisiertem Speicher und ein mehrstufiges Cache-System: Festplatte, PC-Arbeitsspeicher, Graka-Arbeitsspeicher, Onchip-Speicher, der direkte Cache an den Units.)
Ich habe nicht von von einem onchip-Z-Buffer geredet, sondern von OnPackage.
Was mir eigentlich vorgeschwebt hat, war ein kleiner zusätzlicher, breitbandig am Speicherkontroller angeschlossener Speicher. Selbst wenn der Z-Buffer nicht komplett reinpasst, wird das Speicherinterface entscheidend entlastet.
Grade beim Z-Buffer sind zumindest die Lesezugriffe meistens nicht auf die volle Auflösung angewiesen. Zudem liegt er meistens in komprimierter Form vor. Deswegen die Priorität auf Verlegung des Z-Buffers in diesen Speicher. Wenn der Speicher zu gross ist, könnte man einen fest definierten Teil des Framebuffers noch dazupacken. Wenn zu klein, wird nur ein fest definiertes Subset des Z-Buffers halt reingepackt und er Rest in den normalen Speicher.
Aber keine Ahnung, ob sich dies technisch so einfach lösen lässt, oder ob es Speichermodule für solche Anwendungen gibt.

mrt
2005-11-29, 21:40:58
G70 kann praktisch kaum einen Vorteil aus seiner überlegenen Shaderfüllrate ziehen.

Überlegen ist die Shaderfüllrate in der Praxis auch nicht.
Stichwort nebenläufige TMUs.

Reine Zahlen vergleichen ist halt nicht das gelbe vom Ei.

reunion
2005-11-30, 23:13:46
Zu Deiner Frage: haette die GTX512 13GTexels/sec Fuellrate aber niedrigere arithmetische Effizienz, waere auch ihre Leistung niedriger.


Und genau das kann bzw. will ich nicht so recht glauben.

Überlegen ist die Shaderfüllrate in der Praxis auch nicht.
Stichwort nebenläufige TMUs.

Reine Zahlen vergleichen ist halt nicht das gelbe vom Ei.

Richtig, allerdings hat Demirug doch zum Teil ziemlich deutliche Vorteile bei neueren Spielen gemessen, so dass auch in der Praxis G70 hier deutlich vorne liegen sollte, solange die Texturlast nicht zu stark wird.

Coda
2005-11-30, 23:49:58
Reunion, er hat die Shader ich weiß mit Texturlast gemessen.

Ailuros
2005-12-01, 16:11:42
Und genau das kann bzw. will ich nicht so recht glauben.

Dann erklaer mir warum man von ~50% mehr Leistung auf R580 im Vergleich zu R520 momentan murmelt.

a. Weil R580 eine groessere Zahl hat und ergo auch mehr abgeben wird.

b. Weil es eine neue GPU ist.

oder

c. Weil sie komischerweise 3x mal so viel ALU-Leistung auf Papier hat?

Was hat R580 genau im Vergleich zu R520. nennenswertes ausser mehr ALU-Leistung? Gibt es einen schwachen Punkt auf R520 dann ist es ALU Leistung; ob Du es jetzt glauben willst, Deiner Bevorzugung nicht passt oder weiss der Henker was ist eigentlich gleichgueltig. Mir reicht es wenn ATI Angestellte es im Hintergrund selber eingestehen.

Richtig, allerdings hat Demirug doch zum Teil ziemlich deutliche Vorteile bei neueren Spielen gemessen, so dass auch in der Praxis G70 hier deutlich vorne liegen sollte, solange die Texturlast nicht zu stark wird.

Siehe Coda's Antwort.

reunion
2005-12-01, 23:03:06
Reunion, er hat die Shader ich weiß mit Texturlast gemessen.


Ich weiß, aber man kann ja die Texturlast mit AF noch weiter erhöhen.

reunion
2005-12-01, 23:09:35
Dann erklaer mir warum man von ~50% mehr Leistung auf R580 im Vergleich zu R520 momentan murmelt.

a. Weil R580 eine groessere Zahl hat und ergo auch mehr abgeben wird.

b. Weil es eine neue GPU ist.

oder

c. Weil sie komischerweise 3x mal so viel ALU-Leistung auf Papier hat?

Was hat R580 genau im Vergleich zu R520. nennenswertes ausser mehr ALU-Leistung? Gibt es einen schwachen Punkt auf R520 dann ist es ALU Leistung; ob Du es jetzt glauben willst, Deiner Bevorzugung nicht passt oder weiss der Henker was ist eigentlich gleichgueltig. Mir reicht es wenn ATI Angestellte es im Hintergrund selber eingestehen.


Mein Problem liegt darin, dass sich G70 trotz der erheblich höheren Shaderpower praktisch nirgends von R520 wirklich absetzten kann. Deshalb halte ich eine tatsächliche ALU-Limitierung für unlogisch, mag schon sein, dass der bessere Speichercontroller des R520 da auch mit reinspielt, aber insgesamt reichen die Tatsachen IMHO nicht aus, um von einer Shaderlimitierung zu sprechen.

Denn gerade FEAR, welchem du eine hohe Shaderlast nachsagst, ist eine Paradedisziplin des R520.

Ailuros
2005-12-02, 06:47:51
Mein Problem liegt darin, dass sich G70 trotz der erheblich höheren Shaderpower praktisch nirgends von R520 wirklich absetzten kann.

Erstens einmal ist das was ich mit interner Shader-Fuellrate meine nicht ausschliesslich ALU-Leistung und zweitens sind die heutigen Spiele trotz allem immer noch zu schwach um solche Unterschiede zu zeigen. Die 3:1 Relation (ALU<->Textur) hat ATI schon seit einer Ewigkeit erwaehnt und sie klingt mir auf keinen Fall unrealistisch. Dass sich diese schon grundsaetzlich in Xenos befindet ist auch kein Zufall.

Deshalb halte ich eine tatsächliche ALU-Limitierung für unlogisch, mag schon sein, dass der bessere Speichercontroller des R520 da auch mit reinspielt, aber insgesamt reichen die Tatsachen IMHO nicht aus, um von einer Shaderlimitierung zu sprechen.

Architekturen sind genauso kompliziert wie Spiele. Nur wenn man alle Faktoren betrachtet kann man zu Schlussfolgerungen kommen.

Wer spricht denn ueberhaupt von einer Shaderlimitierung? Je mehr ALU-Leistung in Wichtigkeit zunehmen wird, desto mehr wird sich R580's Vorteil in der Zukunft auch zeigen.

Was genau ist Dein Problem? Dass NV in diesem Bereich einen Schritt weiter vorne ist oder was? ATI ist im Gegensatz einen Schritt weiter vorne mit dynamischem branching und das heisst auch nicht dass es unwichtig ist weil ich momentan keinen Schimmer davon sehen kann.

Denn gerade FEAR, welchem du eine hohe Shaderlast nachsagst, ist eine Paradedisziplin des R520.

Das Paradedisziplin scheint mir zu entgehen; wuerden die X1800's auch um 50% mit AA/AF einbrechen wuerden sie unter den 7800-er in Sachen Leistung liegen.

Und ja hier ist es dann tatsaechlich so dass jemand sagen koennte mir ist wurscht wie die Leistung entsteht das Resultat ist mir wichtiger und dagegen hab ich auch nichts einzuwenden. Willst Du Dich aber mit dem "Zwischendrin" beschaeftigen, dann ist es eine andere Geschichte. Noch mehr wenn wir schon ueber einige Posts eine Ausssage von einem ATI-Angestellten diskuttieren, der wohl weiss wo es lang geht.

robbitop
2005-12-02, 08:50:07
Mir ist auch aufgefallen, dass R520 mit AA/AF nicht so sehr einbricht wie G70. In diesen Settings scheinen die Shader nicht mehr zu limitieren.
R520 hat hier durch das etwas bessere Cachesystem und den effizienteren MC einen Vorteil. Beim AF zeigen sich natürlich die nebenläufigen TMUs.

Wenn man sehen möchte, wie es mit der Shaderlimitierung in der Praxis aussieht, sollte man IMHO auf die 16x12 NoAA/NoAF Leistung schauen. Alles andere bringt schon wieder andere Faktoren mit hinein.

seahawk
2005-12-02, 09:56:16
Wobei ja auch wieder die Frage der Optimierungen bei der Nutzung von AF ins Spiel kommt.

Ailuros
2005-12-02, 14:07:26
Wobei ja auch wieder die Frage der Optimierungen bei der Nutzung von AF ins Spiel kommt.

Bei default Treiber AF ist die Anzahl der Optimierungen in etwa gleich.

aths
2005-12-03, 05:54:41
Erstens einmal ist das was ich mit interner Shader-Fuellrate meine nicht ausschliesslich ALU-Leistung und zweitens sind die heutigen Spiele trotz allem immer noch zu schwach um solche Unterschiede zu zeigen. Die 3:1 Relation (ALU<->Textur) hat ATI schon seit einer Ewigkeit erwaehnt und sie klingt mir auf keinen Fall unrealistisch. Dass sich diese schon grundsaetzlich in Xenos befindet ist auch kein Zufall.Japp – 3:1 ist mittelfristig sehr vernünftig.

Wer spricht denn ueberhaupt von einer Shaderlimitierung? Je mehr ALU-Leistung in Wichtigkeit zunehmen wird, desto mehr wird sich R580's Vorteil in der Zukunft auch zeigen.

Was genau ist Dein Problem? Dass NV in diesem Bereich einen Schritt weiter vorne ist oder was? ATI ist im Gegensatz einen Schritt weiter vorne mit dynamischem branching und das heisst auch nicht dass es unwichtig ist weil ich momentan keinen Schimmer davon sehen kann.R580s Vorteil. Ohne Apostroph. Besseres Deutsch wäre "wird sich der Vorteil des R580 zeigen", oder "wird sich der Vorteil der R580-Architektur zeigen".

Hochperformantes dynamisches Branching im Pixelshader ist, wie wir wissen, ein sehr sinnvolles Feature. Es sollte genutzt werden, wo möglich – wenn NV-HW damit derzeit nicht so gut zurecht kommt, Pech. Dann muss man beim G70 eben Details runterschalten.


Das Paradedisziplin scheint mir zu entgehen; wuerden die X1800's auch um 50% mit AA/AF einbrechen wuerden sie unter den 7800-er in Sachen Leistung liegen.Die X1800s oder X1800-er. Auf jeden Fall ohne ein Apostroph.

Ailuros
2005-12-03, 06:38:33
Danke :)

reunion
2005-12-03, 12:09:53
Erstens einmal ist das was ich mit interner Shader-Fuellrate meine nicht ausschliesslich ALU-Leistung und zweitens sind die heutigen Spiele trotz allem immer noch zu schwach um solche Unterschiede zu zeigen.


Eben, davon rede ich ja die ganze Zeit.


Architekturen sind genauso kompliziert wie Spiele. Nur wenn man alle Faktoren betrachtet kann man zu Schlussfolgerungen kommen.

Wer spricht denn ueberhaupt von einer Shaderlimitierung? Je mehr ALU-Leistung in Wichtigkeit zunehmen wird, desto mehr wird sich R580's Vorteil in der Zukunft auch zeigen.


Okay, darauf kann ich mich einigen.

Ailuros
2005-12-03, 13:34:12
Eben, davon rede ich ja die ganze Zeit.

Es ging eher um das hier:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3742192&postcount=32

TheGood
2005-12-04, 10:58:12
Japp – 3:1 ist mittelfristig sehr vernünftig.

R580s Vorteil. Ohne Apostroph. Besseres Deutsch wäre "wird sich der Vorteil des R580 zeigen", oder "wird sich der Vorteil der R580-Architektur zeigen".

Hochperformantes dynamisches Branching im Pixelshader ist, wie wir wissen, ein sehr sinnvolles Feature. Es sollte genutzt werden, wo möglich – wenn NV-HW damit derzeit nicht so gut zurecht kommt, Pech. Dann muss man beim G70 eben Details runterschalten.


Die X1800s oder X1800-er. Auf jeden Fall ohne ein Apostroph.
Das heisst es ist also bewiesen dass Ati ein hochperformantes Dynamischdes Branching hat?? Irgendwie ist mir die Info bisher noch nicht geläufig. Am Anfang hies es doch immer dass es auch ned gerade so schnell sein soll....

robbitop
2005-12-04, 11:14:09
Das heisst es ist also bewiesen dass Ati ein hochperformantes Dynamischdes Branching hat?? Irgendwie ist mir die Info bisher noch nicht geläufig. Am Anfang hies es doch immer dass es auch ned gerade so schnell sein soll....
Dann ist der R520 launch aber an dir vorbeigelaufen. Dadurch, dass Batches (oder wie auch immer ATI das nennt) auf 4x4 Pixel geschrumpft sind, ist die Granularität fürs dynamische Branching recht gut. Was allerdings das Branching an Takten kostet, weiß ich auch nicht genau, aber bei massivem parallax Mapping kann sich das auf jedenfall lohnen (als eine Art LOD).

aths
2005-12-05, 00:56:38
Das heisst es ist also bewiesen dass Ati ein hochperformantes Dynamischdes Branching hat?? Irgendwie ist mir die Info bisher noch nicht geläufig. Am Anfang hies es doch immer dass es auch ned gerade so schnell sein soll....Es heißt heißen – mit ß, bitte :) Nach langem Vokal immer ß, und ein Diphtong (ei, au, eu, ie) zählt dabei als langer Vokal.


Branching: Es gibt statisches und dynamisches. Statisches Branching wird seit CineFX (seit NV30) im Pixelshader unterstützt, im Vertexshader zusätzlich dynamisches.

Radeon-Karten können erst seit dem R520 dynamisches Branching auch im Pixelshader und Vertexshader. Damit kann während der Shader abgearbeitet wird anhand von Bedingungen verzweigt werden. Leider ist das dynamische Branching im Vertexshader beim R520 nicht besonders elegant gelöst. Man könnte, böse formuliert, sagen, dass das dynamische Branching im Vertexshader beim R520 nur als "Checklist-Feature" eingebaut wurde.

Ebenso böse könnte man behaupten, dass NV40 und G70 dynamisches Branching im Pixelshader nur als "Checklist-Feature" bieten würden. Setzt man es gedankenlos ein, kann die Endleistung sogar sinken. Sie kann, je nach Situation, auch steigen.

Der R520 ist derart konstruiert, dass man dynamisches Branching im Pixelshader fast bedenkenlos einsetzen kann und in der Regel Leistung gewinnt.

Ailuros
2005-12-05, 06:31:47
aths,

Wenn man sich aber nur stur auf dynamische branching Leistung konzentriert, dann ist es wohl wichtiger schnelleres DB im PS als im VS zu haben.

Ich hab eher den Eindruck dass sich die Mehrzahl der Spiele eher auf PS als auf VS konzentrieren.

StefanV
2005-12-05, 11:41:30
Mein Problem liegt darin, dass sich G70 trotz der erheblich höheren Shaderpower praktisch nirgends von R520 wirklich absetzten kann. Deshalb halte ich eine tatsächliche ALU-Limitierung für unlogisch, mag schon sein, dass der bessere Speichercontroller des R520 da auch mit reinspielt, aber insgesamt reichen die Tatsachen IMHO nicht aus, um von einer Shaderlimitierung zu sprechen.

Denn gerade FEAR, welchem du eine hohe Shaderlast nachsagst, ist eine Paradedisziplin des R520.
Der die Rx5x0 Serie von ATi hat ja bekanntlich entkoppelte TMUs, die G7x und nV4x Serie aber nicht, was durchaus als Erklärung ausreichen würde...

robbitop
2005-12-05, 13:20:55
Der die Rx5x0 Serie von ATi hat ja bekanntlich entkoppelte TMUs, die G7x und nV4x Serie aber nicht, was durchaus als Erklärung ausreichen würde...
Entkoppelt? Ich wüßte nicht, dass diese entkoppelt seien. Du meinst sicher nebenläufig. Und das waren sie strenggenommen schon seit R300.

TheGood
2005-12-07, 10:28:41
Danke für die Infos und die Rechtschreibbelehrung. Leider wirste da auf taube Ohren schiessen. Hatte in deutsch nie ne bessere Note als ne 3 :)

aths
2005-12-07, 11:20:13
Danke für die Infos und die Rechtschreibbelehrung. Leider wirste da auf taube Ohren schiessen. Hatte in deutsch nie ne bessere Note als ne 3 :)Schießen mit ß :) In Deutsch hatte ich auch 'ne 3.

Entkoppelt? Ich wüßte nicht, dass diese entkoppelt seien. Du meinst sicher nebenläufig. Und das waren sie strenggenommen schon seit R300.Spätestens beim R520 würde ich von entkoppelten TMUs sprechen.


aths,

Wenn man sich aber nur stur auf dynamische branching Leistung konzentriert, dann ist es wohl wichtiger schnelleres DB im PS als im VS zu haben.

Ich hab eher den Eindruck dass sich die Mehrzahl der Spiele eher auf PS als auf VS konzentrieren.Wichtig ist beides, wobei der PS traditionell natürlich eher zum Flaschenhals wird. Imo müssen GPUs ohnehin erst mal noch mehr Rohleistung bieten – beim R520 ist das ziemlich effiziente Branching im Pixelshader ganz gut, aber ob die PS-Rohleistung Nexgen-tauglich ist, halte ich für fraglich. Beim R580 mag es schon ganz anders aussehen.

Ailuros
2005-12-07, 18:13:26
Wichtig ist beides, wobei der PS traditionell natürlich eher zum Flaschenhals wird. Imo müssen GPUs ohnehin erst mal noch mehr Rohleistung bieten – beim R520 ist das ziemlich effiziente Branching im Pixelshader ganz gut, aber ob die PS-Rohleistung Nexgen-tauglich ist, halte ich für fraglich. Beim R580 mag es schon ganz anders aussehen.

Tja etwas naeher am Optimum wuerde in etwa zwischen R520 und G70 als SM3.0 Design liegen. Man muesste dann eben die Vorteile beide Architekturen mischen um dann zu einem um einiges besseren SM3.0 chip zu kommen. Eindruck macht mir das ganze eigentlich auch nicht. Es ist meistens mehr oder weniger so bei neuer Technologie; erst der zweite Versuch klappt dann eher.

reunion
2005-12-08, 22:40:20
ATI's R580 chips in production (http://www.theinq.com/?article=28228)

LAST SUMMER we wrote about ATI's next high end chip. It's codenamed R580 and it was taped out when Nvidia released its GTX 256 MB part. The first tape out was successful and the chip has looked good ever since.
It’s a 90 nanometre part with some marchitectural advantage and it will be all that we expected from R520 aka "Fudo" chip. We know that ATI is in volume production of the R580 and it's getting ready for a late January, early February launch.

Let's go back in time. When ATI had its problems with R520 chips and could not clock them at over 500 MHz, it pushed the R580 plan forward and gave it priority. If ATI team could not resolve this nasty bug, ATI would just move to R580. Well, the R520 is out and selling quite well and Nvidia helped ATI as it created an incredible demand for 512MB cards and now cannot deliver them. People are just going for the available Radeon X1800XT 512MB cards. Interesting isn’t it but I have to say that X1800XT can not match Geforce 7800 GTX 512 performance but it's available.

The special thing about this card is that it will be able to process many more pixels than R520 but we need to understand it better before we give you the number. From what we know the card won't have more than sixteen pipelines but will be able to process much more than thirty two pixels per clock. We will let you know soon how that is possible.

We know that R580 will be able to process many more pixels than the current R520 and it indicates it's going to end up as a much faster card. People believe that R580 will be all that we expected from R520, so after all we might be getting the real Radeon 9700 successor with a great speed and marchitecture. This card is about to fight the upcoming 90 nanometre, 32 pipes G71.

doppelschwoer
2005-12-09, 14:22:37
Laut Gamestar soll die X1900 im Preis in den Bereich von Highend CPUs wandern. Das wären dann mal schnell 1000USD für ne Graka. Na dann Prost-Mahlzeit.

Aber irgendwie wundert mich das nicht wirklich.

M2-Master
2005-12-09, 14:39:44
Laut Gamestar soll die X1900 im Preis in den Bereich von Highend CPUs wandern. Das wären dann mal schnell 1000USD für ne Graka. Na dann Prost-Mahlzeit.

Aber irgendwie wundert mich das nicht wirklich.

Ehrlich gesagt bezweifle ich, dass der Preis einer Highendkarte je über 600 Dollar steigen wird.
Ich denke Gamestar hat da eine leere Vermutung angestellt.

mapel110
2005-12-09, 14:42:38
Laut Gamestar soll die X1900 im Preis in den Bereich von Highend CPUs wandern. Das wären dann mal schnell 1000USD für ne Graka. Na dann Prost-Mahlzeit.

Aber irgendwie wundert mich das nicht wirklich.
http://www.gamestar.de/news/hardware/30116/#
Jo, na darauf bin ich mal gespannt. Wenn das zutrifft, ist dann Mid Range SLI kostengünstiger und schneller als eine High End Karte.
Ist ja eigentlich schon derzeit der Fall mit 2x 7800 GT.

erwingage
2005-12-09, 15:22:36
http://www.gamestar.de/news/hardware/30116/#
Jo, na darauf bin ich mal gespannt. Wenn das zutrifft, ist dann Mid Range SLI kostengünstiger und schneller als eine High End Karte.
Ist ja eigentlich schon derzeit der Fall mit 2x 7800 GT.

wer gibt den 1000 US-Dollar für so ne graka aus? :wink:

doppelschwoer
2005-12-10, 13:52:23
Warscheinlich die selben Leute die sich nen AMD FX60 holen.
Keine Ahnung,ich auf jedenfall nicht. Irgendwo hat alles ne Grenze.
Hab mir ne 7800GT für 350€ geholt. Hab echt geschluckt.

Gandharva
2005-12-10, 15:29:08
ATI Radeon X1900 Serie ersetzt die ATI Radeon X1800 Serie (http://www.hardwareluxx.de/story.php?id=3220)

Der R520, die GPU zur ATI Radeon X1800 Serie wurde vor Monaten vorgestellt, die meisten Hersteller haben entsprechende Karten präsentiert, doch von einer Marktverfügbarkeit kann keine Rede sein. Laut den Angaben von HKEPC wird sich dieser Zustand bis zum Launch der Nachfolger-GPU R580 auch nicht verbessern, denn diese neue GPU soll die ATI Radeon X1800 Serie ersetzten. Der R580 soll Gerüchten zufolge über 48 Pixel-Pipelines (gegenüber 16 Pipelines der Radeon X1800 XT), 8 Vertex Einheiten und 16 Texture-Mapping Einheiten verfügen. Auch über den Einsatz von GDDR4 Grafikspeicher scheint man bei ATI nachzudenken, wenngleich Samsung und Hynix erst vor wenigen Wochen Samples des entsprechenden Speichers auslieferten.

reunion
2005-12-10, 16:01:05
wer gibt den 1000 US-Dollar für so ne graka aus? :wink:


Sicherlich sinnvoller, als 1000$ für eine CPU hinzublättern.

ATI Radeon X1900 Serie ersetzt die ATI Radeon X1800 Serie (http://www.hardwareluxx.de/story.php?id=3220)

In dem Text steht derart viel Halbwissen, gepaart mit jedemenge Fehlinformationen - da könnte einem fast schlecht werden.

boxleitnerb
2005-12-10, 16:19:21
@reunion: So ein Unfug.
Erstens: Wer zahlt schon gerne 1000 EUR für eine Grafikkarte, damit kann der, der nicht von Papi und Mami das Geld in den Arsch geschoben kriegt die 2 oder 3-jährliche Aufrüstung entweder vergessen oder entsprechend downgraden.
Zweitens: Eine CPU kann doch viel mehr, es gibt viele Leute, die Video-/Bildbearbeitung, etc. machen das nennt man General Usage. Klar ist es geil ne geile Graka drinne zu haben, aber wer bitte spielt denn schon zu sagen wir mal mind. 60 Prozent von der Zeit in der er am PC sitzt.

reunion
2005-12-10, 17:46:32
@reunion: So ein Unfug.
Erstens: Wer zahlt schon gerne 1000 EUR für eine Grafikkarte, damit kann der, der nicht von Papi und Mami das Geld in den Arsch geschoben kriegt die 2 oder 3-jährliche Aufrüstung entweder vergessen oder entsprechend downgraden.

(Komische Fragestellung, wer bezahlt überhaupt gerne etwas? :|)

Jemanden, der 1000€ für eine CPU hinblättert, obwohl man heutzutage praktisch jeden 100€-Chip mit etwas Übertaktungsgeschick auf dieselbe Leistung hiefen kann, halte ich für dumm.


Zweitens: Eine CPU kann doch viel mehr, es gibt viele Leute, die Video-/Bildbearbeitung, etc. machen das nennt man General Usage. Klar ist es geil ne geile Graka drinne zu haben, aber wer bitte spielt denn schon zu sagen wir mal mind. 60 Prozent von der Zeit in der er am PC sitzt.

Ich bitte dich. Wer seinen PC nur zum arbeiten nutzt, der benötigt bis auf wenige Ausnahmen keine High-End-CPU. Der gedachte Verwendungszweck für eine derartige CPU sind nunmal Spiele, und da bringt die Grafikkarte in der Regel wesentlich mehr.

Ailuros
2005-12-11, 10:13:58
(Komische Fragestellung, wer bezahlt überhaupt gerne etwas? :|)

Jemanden, der 1000€ für eine CPU hinblättert, obwohl man heutzutage praktisch jeden 100€-Chip mit etwas Übertaktungsgeschick auf dieselbe Leistung hiefen kann, halte ich für dumm.

Zwar stimme ich dem Grundsatz hier zu, nur ist mir die Darstellung etwas uebertrieben. FX-55= $995, A64 2800= $110. Um von default 1.8GHz auf 2.6GHz zu kommen brauch ich eine ziemlich exotische Kuehlungsloesung (die auch nicht gerade billig ist) und ich hab dann immer noch nur 512kb L2 cache.

Hol ich mir aber einen A64 4000+ bezahl ich zwar $325, hab 1MB L2 cache und brauch auch keine Unkosten und/oder Fuchtelei um 2.6GHz zu erreichen. Mit einem guten ~$50 Heatsink kommt man hier sogar auf 2.8GHz.

Ailuros
2005-12-11, 10:25:31
@reunion: So ein Unfug.
Erstens: Wer zahlt schon gerne 1000 EUR für eine Grafikkarte, damit kann der, der nicht von Papi und Mami das Geld in den Arsch geschoben kriegt die 2 oder 3-jährliche Aufrüstung entweder vergessen oder entsprechend downgraden.

Nette Perspektive aber es gibt auch Leute die ihr eigenes Einkommen haben und obwohl 1000€ tatsaechlich uebertrieben viel fuer ne GPU sind, ich gebe insgesamt selten unter 2000€ pro Jahr fuer Soft-/Hardware aus.

Es gibt noch weit teurere Hobbies als PC gaming.

Zweitens: Eine CPU kann doch viel mehr, es gibt viele Leute, die Video-/Bildbearbeitung, etc. machen das nennt man General Usage.

Das nenne ich dann einen "fancy word processor" und dazu kann ich das Laptop benutzen.

Klar ist es geil ne geile Graka drinne zu haben, aber wer bitte spielt denn schon zu sagen wir mal mind. 60 Prozent von der Zeit in der er am PC sitzt.

Fuer PC gaming generell braucht man eine Kombination von einer gleich starken CPU sowie eine etwa gleich starke GPU, sonst gibt es eben auf der einen oder anderen Seite Flaschenhaelse. Budget zu budget, mainstream zu mainstream und high end zu high end.

Wie lange und fuer was Du am PC verbringst bildet aber keineswegs weder eine Regel noch ist es genug fuer Schlussfolgerungen. Ich persoenlich verbringe mehr Zeit mit Spielen als mit allem anderen.

Sunrise
2005-12-11, 15:33:02
Zwar stimme ich dem Grundsatz hier zu, nur ist mir die Darstellung etwas uebertrieben. FX-55= $995, A64 2800= $110. Um von default 1.8GHz auf 2.6GHz zu kommen brauch ich eine ziemlich exotische Kuehlungsloesung (die auch nicht gerade billig ist) und ich hab dann immer noch nur 512kb L2 cache.

Hol ich mir aber einen A64 4000+ bezahl ich zwar $325, hab 1MB L2 cache und brauch auch keine Unkosten und/oder Fuchtelei um 2.6GHz zu erreichen. Mit einem guten ~$50 Heatsink kommt man hier sogar auf 2.8GHz.Think Opteron S939... :biggrin:

Sunrise
2005-12-11, 15:42:28
(Komische Fragestellung, wer bezahlt überhaupt gerne etwas? :|)

Jemanden, der 1000€ für eine CPU hinblättert, obwohl man heutzutage praktisch jeden 100€-Chip mit etwas Übertaktungsgeschick auf dieselbe Leistung hiefen kann, halte ich für dumm.Dem kann ich so uneingeschränkt zustimmen, wenn auch etwas (Ailuros hatte es bereits erwähnt) überspitzt formuliert. Derzeit lässt sich mit Geschick, Fachwissen und etwas Research (im Sinne von recherchieren) enorm Geld sparen. Ist man gewillt, die Sache mit einer Wakü zu verbinden (das wird auch mein nächster, logischer Schritt), hat man eigentlich alles, was das PC-Herz begehrt, für nur einen Bruchteil des Preises eines vergleichbaren Rechners.

Dies alles tröstet jedoch nicht darüber hinweg, dass man (sofern man wirklich viel spielt) bei einer GPU lieber nicht sparen sollte, sofern man denn auch dementsprechende Ansprüche hat (und das sagt jemand, der zuhause derzeit noch eine NV10 im Rechner hat.)

Ailuros
2005-12-11, 16:16:15
Man kann es auch anders vereinfachen: eine 300€ CPU mit einer 300€ GPU ergeben ein gutes mainstream zu high end System heutzutage.

Im Gegensatz wer auf einen X2 4800+ und 2 GPUs investiert, ist dann schon im exotischen und sehr kleinen ultra high end Segment und hier spielen Unkosten normalerweise auch keine Rolle.

Mit den ueblichen verstaendlichen Ausnahmen, was man bezahlt bekommt man auch und mit etwas vorsichtiger Markt-Forschung kann sich jeder Verbraucher seine eigenen Ansprueche decken. Wenn jemand 100+100 fuer CPU/GPU bezahlt sind die Ansprueche eben auf niedrige Aufloesungen ohne AA/AF und maessigen Details begrenzt.

Paul Brain
2005-12-12, 02:58:21
Ich bitte dich. Wer seinen PC nur zum arbeiten nutzt, der benötigt bis auf wenige Ausnahmen keine High-End-CPU. Der gedachte Verwendungszweck für eine derartige CPU sind nunmal Spiele, und da bringt die Grafikkarte in der Regel wesentlich mehr.
Ganz genau. Xbitlabs haben erst kürzlich zwei interessante Artikel diesbezüglich verfaßt: http://www.xbitlabs.com/articles/cpu/
Fazit ist, daß selbst ein P4-2,8GHz (und etwas ähnliches habe ich im Rechner, es sind halt zwei 2,8GHz-Xeons) für sämtliche aktuellen Spiele absolut ausreichende Frameraten liefert. Bei mir wars seit dem Kauf vor über einem Jahr schon immer so, daß die Grafikkarte (X800XT) limitiert hat; 1600x1200 8xAF ist maximal mit 2xAA spielbar, darüber laggts gewaltig. 1280x1024 bei 8xAF 4xAA sind echt das Limit, wenn man höheres AA möchte; bei BF2 etwa muß ich zahlreiche Details auf Medium runterstellen, seit Special Forces ist das ganze noch schlimmer, besonders die Map "Iron Gator" reagiert sehr empfindlich auf hohe Terrain- und Texture-Settings (mag das jemand mit einer 512MB-Graka viell. mal verifizieren? :cool: )
Ich hatte zwar geplant, später mal 3,6er oder sogar die 3,8er-Xeons nachzukaufen, wenns neue Revisions dieser CPUs gibt, aber dieses Vorhaben habe ich nicht nur angesichts des Preises (etwa 2x 1.000$), sondern auch mangels Notwendigkeit auf Eis gelegt. Bei der Grafikkarte bekommt man aber noch was für sein Geld; doppelt so teuer = doppelt so schnell; ungefähr halt.

Wechselbalg
2005-12-12, 09:19:02
Wobei ich zumindest erwähnen würde, dass es doch eben gewisse Spiele gibt, die CPU limitiert sind, wenn ich mir mal die Rollenspiel Ecke anschaue und da kommen ja auch bald Nachfolger (Everquest 2, Gothic 2, Morrowind profitieren da oft von einer stärkeren CPU imho stärker als von einer Grafikkarte) die das vielleicht fortsetzen.

Bei vielen aktuellen Spielen stimmt es natürlich, dass mit AA und AF eher die Grafikkarte limitiert, aber ich würde nicht "immer" oder bei "sämtlichen" Spielen sagen.

EDIT: Aber besser wieder zurück zum Thema ^^

Paul Brain
2005-12-12, 15:06:18
Wobei ich zumindest erwähnen würde, dass es doch eben gewisse Spiele gibt, die CPU limitiert sind, wenn ich mir mal die Rollenspiel Ecke anschaue und da kommen ja auch bald Nachfolger (Everquest 2, Gothic 2, Morrowind profitieren da oft von einer stärkeren CPU imho stärker als von einer Grafikkarte) die das vielleicht fortsetzen.

Bei vielen aktuellen Spielen stimmt es natürlich, dass mit AA und AF eher die Grafikkarte limitiert, aber ich würde nicht "immer" oder bei "sämtlichen" Spielen sagen.
Rollenspiele sind nicht mein Fall... ;-)
Aber selbst bei HL² ist es bei mir die Graka, die limitiert; Wer natürlich in 1024x768 ohne AA/AF spielt hat mit derselben Graka sicher das umgekehrte "Problem"; wobei auch hier ein P4-2,8G ausreicht. Wer aber, so wie ich etwa, höhere Auflösungen mit möglichst gutem AA/AF und hohen Detail-settings verlangt, für den bringt eine schnellere CPU gar nichts, eine Grafikkarte aber schon...

Fazit: Spielen kann man heutzutage mit so gut wie jeder halbwegs aktuellen CPU, aber nicht mit jeder GPU. CPU ist bei mir Low-End (performance-wise), GPU dafür (nicht ganz aktuelles) High-End. Und ich fahre gut mit dieser Kombination.

reunion
2005-12-12, 17:55:58
Angebliche 3dmark03/05-Scores:

X520XT (625/750) 18971 / 11185
X580?? (621/650) 20033 / 12583

Wobei mir die 11185 Punkte des R520 im 3dmark05 etwas zu hoch vorkommen.

http://gathering.tweakers.net/forum/list_message/24780395#24780395

chrisihamm
2005-12-12, 18:12:37
Eine X1800XT hat beim 3Dmark05 vielleicht so 9200Punkte.

mfg

Godmode
2005-12-12, 18:56:03
Angebliche 3dmark03/05-Scores:

X520XT (625/750) 18971 / 11185
X580?? (621/650) 20033 / 12583

Wobei mir die 11185 Punkte des R520 im 3dmark05 etwas zu hoch vorkommen.

http://gathering.tweakers.net/forum/list_message/24780395#24780395

Shadermark wäre interessanter!

Gandharva
2005-12-16, 22:54:00
Eine X1800XT hat beim 3Dmark05 vielleicht so 9200Punkte.kommt stark auf die cpu an. >11k sind allerdings schon sehr hoch.

weiters schreiben die jungs dort das man nicht allzu hohe erwartungen in den R580 setzen soll, da er sowohl niedrigeren gpu-takt als auch niedrigeren speichertakt hat als die X1800XT und etwa 1500 punkte über der XT liegen wird im 3dmark05. 1500 punkte wäre ja gerade mal ein unterschied wie er zw. der 7800GTX und der 7800GT besteht. in spielen dürfte das dann so 10% bis 15% zuwachs sein.

niedrigere gpu-taktrate zwecks besserer ausbeute, niedrigerer speichertakt wegen besserer speicherverfügbarkeit und günstigerem einkauf. erscheint mir irgendwie gar nicht so abwegig.

reunion
2005-12-17, 11:42:34
niedrigere gpu-taktrate zwecks besserer ausbeute, niedrigerer speichertakt wegen besserer speicherverfügbarkeit und günstigerem einkauf. erscheint mir irgendwie gar nicht so abwegig.

Mach dich nicht lächerlich. Die X1800XT ist ausreichend verfügbar, einzelne Hersteller bringen bereits eine auf 700Mhz übertaktete Version heraus. Ich würde jetzt schon jede Wette eingehen, dass R580 auch mindestens mit diesen 700Mhz taktet. Und das man bei einem High-End-Chip nicht am Speicher spart, sollte wirklich für jeden nachvollziehbar sein.

PingpiN
2005-12-17, 12:38:36
kommt stark auf die cpu an. >11k sind allerdings schon sehr hoch.

weiters schreiben die jungs dort das man nicht allzu hohe erwartungen in den R580 setzen soll, da er sowohl niedrigeren gpu-takt als auch niedrigeren speichertakt hat als die X1800XT und etwa 1500 punkte über der XT liegen wird im 3dmark05. 1500 punkte wäre ja gerade mal ein unterschied wie er zw. der 7800GTX und der 7800GT besteht. in spielen dürfte das dann so 10% bis 15% zuwachs sein.

niedrigere gpu-taktrate zwecks besserer ausbeute, niedrigerer speichertakt wegen besserer speicherverfügbarkeit und günstigerem einkauf. erscheint mir irgendwie gar nicht so abwegig.

Du hast aber auch mitgekriegt das die Alus beim R580 verdreifacht werden 16>48=?Das könnte in Shaderintensiven Szenen mehr als 10-15 % bringen oder ? :|

Gandharva
2005-12-17, 14:06:45
Mach dich nicht lächerlich. Die X1800XT ist ausreichend verfügbar, einzelne Hersteller bringen bereits eine auf 700Mhz übertaktete Version heraus. Ich würde jetzt schon jede Wette eingehen, dass R580 auch mindestens mit diesen 700Mhz taktet. Und das man bei einem High-End-Chip nicht am Speicher spart, sollte wirklich für jeden nachvollziehbar sein.hab ich keinesfalls vor :) ich habe mich nur in dem von dir verlinkten forum mit babelfish ein wenig umgesehen und sinngemäß widergegeben was die dort noch alles so über den R580 schreiben. dabei bin ich zu dem schluss gekommen das an der gesenkten taktrate aufgrund des höheren transistorcounts evtl. was dran sein könnte. weiters schien es mir nicht abwegig etwas niedriger getakteten speicher einzukaufen um die gewinne zu maximieren und nicht wieder lieferschwierigkeiten zu bekommen. die niedrigeren taktraten sollten ja durch verdreifachung der alus mehr als nur ausgeglichen werden.
aber mal ne frage: was bringt dich zu dem schluss das der R580 trotz höherem transistorcount und gleichbleibendem prozess mindestens 700mhz (12% mehr takt als X1800XT) haben soll?Du hast aber auch mitgekriegt das die Alus beim R580 verdreifacht werden 16>48=?Das könnte in Shaderintensiven Szenen mehr als 10-15 % bringen oder ?du hast aber auch mitgekriegt das die speku bzgl. 10%-15% nicht von mir ist, sondern von jmd. ganz anderem und ich lediglich aufgrund des punkteunterschieds den vergleich zu bestehenden produkten hergestellt habe? ;)

reunion
2005-12-20, 18:01:17
[...]dabei bin ich zu dem schluss gekommen das an der gesenkten taktrate aufgrund des höheren transistorcounts evtl. was dran sein könnte. weiters schien es mir nicht abwegig etwas niedriger getakteten speicher einzukaufen um die gewinne zu maximieren und nicht wieder lieferschwierigkeiten zu bekommen.


Die Lieferschwierigkeiten waren eine Folge des späten Tapeouts (oder der frühen Vorstellung - ja nach Sichtweise), und hatte weder mit dem Speicher, noch mit einer zu geringen Ausbeute zu tun - es dauert einfach seine Zeit, bis ein Chip nach seinem finalen Tapeout verfügbar ist.


aber mal ne frage: was bringt dich zu dem schluss das der R580 trotz höherem transistorcount und gleichbleibendem prozess mindestens 700mhz (12% mehr takt als X1800XT) haben soll?

Mit dem XT-PE-Bios (+0.05V Vcore) erreicht aktuell fast jeder R520 >725Mhz - 700Mhz sind problemlos möglich. Ich denke also, dass ATi hier noch etwas Luft hat. Außerdem reift ein Prozess natürlich im laufe der Zeit; besonders bei einem so jungen Fertigungsprozess sollte hier noch deutliches Optimierungspotenzial vorhanden sein. Sind natürlich alles nur Vermutungen, wie immer wird die Zeit zeigen, wer recht behält.

reunion
2005-12-20, 18:03:10
ATI may rename the R580 the X1900 (http://www.the-inquirer.net/?article=28460)

ATI's recently shipped reference boards with R580 chip to its partners and is organising road-tours showing of the new product as we write these lines. The PCB looks almost identically to "old" R520 boards, with same cooling solutions and so on. Since the R580 chip is pin-compatible with R520, there was very small number of modifications ATi needed to do. As far as the product line-up goes, you can expect X1900XL, X1900XT and All-in-Wonder X1900XL boards.

While the first two can get their counterparts from Nvidia, the All-in-Wonder X1900 is going to be "zero competition board"; since nV still has no high-end products featuring TV tuners... and digital DVB-T with GeForce sounds like a pipe-dream.

As far for the mainstream part goes, RV560 is working quite nicely - the sources suggest introduction at same time as Green Goblin's 90 nanometer products: 7200, 7300 and 7600. Q1'06. The RV530 core was thoroughly modified in order to increase the performance, so it's no wonder the company has decided to call it X1700. Or so the bells are ringing from Ol' Taipei... µ

horn 12
2005-12-20, 19:01:19
ATI may rename the R580 the X1900 (http://www.the-inquirer.net/?article=28460)


As far for the mainstream part goes, RV560 is working quite nicely - the sources suggest introduction at same time as Green Goblin's 90 nanometer products: 7200, 7300 and 7600. Q1'06. The RV530 core was thoroughly modified in order to increase the performance, so it's no wonder the company has decided to call it X1700. Or so the bells are ringing from Ol' Taipei... µ
[/i]


hi
kann mir dies bitte einer auf detsch übersetzen ?
so wei ich verstehe werkelt ATI zur zeit den X1600 XT auf ----> soll ne x1700 xt daraus werden mit höherem potential und mehr Alu´s (8 gegenüber den nur 4 Stk. )
wann könnte man damit den ca. rechnen ?
Anfang Jänner und viell. sogar für AGP zu haben ---- im Gegenzug zur 6800 GS -------> ich denke mit grosser Wahrscheinlichkeit .... JA ;
DIE KOMMT SICHER, WETTEN ?

Gandharva
2005-12-20, 19:38:27
Die Lieferschwierigkeiten waren eine Folge des späten Tapeouts (oder der frühen Vorstellung - ja nach Sichtweise), und hatte weder mit dem Speicher, noch mit einer zu geringen Ausbeute zu tun - es dauert einfach seine Zeit, bis ein Chip nach seinem finalen Tapeout verfügbar ist.komisch nur das der speicher der sich auf den X1800 modellen befindet erst im Q2 und Q3 2005 in Massenproduktion ging. der speicher war sicher ein mitgrund für die extreme verzögerung.

Mit dem XT-PE-Bios (+0.05V Vcore) erreicht aktuell fast jeder R520 >725Mhz - 700Mhz sind problemlos möglich. Ich denke also, dass ATi hier noch etwas Luft hat. Außerdem reift ein Prozess natürlich im laufe der Zeit; besonders bei einem so jungen Fertigungsprozess sollte hier noch deutliches Optimierungspotenzial vorhanden sein. Sind natürlich alles nur Vermutungen, wie immer wird die Zeit zeigen, wer recht behält.so wie es aussieht steigt der transistorcount um ca. 25-30%. eine XT-PE hab ich noch nirgens im handel gesehen, auch wenn diese wohl früher oder später kommen werden (selektion wie bei GTX 512). TSMC produziert noch nicht wirklich lange die 90nm generation und von daher sehe ich da kaum optimierungspotential im prozess. es würde mich extrem überraschen wenn R580 >700-725mhz haben wird. ich tippe auf max. X1800XT takt, jedoch halte ich das schon für (viel) zu hoch.

horn 12
2005-12-21, 17:52:07
mal ne Umfrage:
welche Specs müsste denn die neue X1600 XT --> (X1700) XT ?
haben um mit ner X800XT PE oder X850 XTPE konkurrenzfähig sein zu können ( jedoch mit SM 3.0 HDR mit AA zugleich + AVIVO )

denn alle Welt wartet auf was richtig gutes im AGP / PCI : gehobenem Mainstream ( und das eben mit dem SM3.0 )

Coda
2005-12-21, 20:12:55
komisch nur das der speicher der sich auf den X1800 modellen befindet erst im Q2 und Q3 2005 in Massenproduktion ging. der speicher war sicher ein mitgrund für die extreme verzögerung.Wohl kaum. Man hätte auch so liefern können, evtl. in geringeren Mengen.

Es ist doch inzw. bekannt dass es einen Bug in externer IP gab bei R520.

Gandharva
2005-12-21, 23:15:15
Wohl kaum. Man hätte auch so liefern können, evtl. in geringeren Mengen.

Es ist doch inzw. bekannt dass es einen Bug in externer IP gab bei R520.deswegen auch "mitgrund". der bug ist mir wohlbekannt. es ist aber fakt das der ram den ati auf ihren jetzigen karten verbaut zum ursprünglich geplanten erscheinungszeitpunkt nicht verfügbar war.

MuLuNGuS
2005-12-22, 08:52:58
eine x1900 namensgebung läßt ja nicht gerade auf grosse sprünge hoffen..

Mumins
2005-12-22, 09:49:18
eine XT-PE hab ich noch nirgens im handel gesehen

Sapphire hat doch schon ein BIOS-Update für ihre X1800XT zur Verfügung gestellt, dann taktet die Karte mit 700MHz.

deekey777
2005-12-22, 11:08:20
R580 and Crossfire R580 Early 2006 (http://www.beyond3d.com/forum/showthread.php?t=26829)

Speculation over the arrival of ATI’s next high end chip, to replace the tardy R520, has been rife over the past few months, with the popular theorists pinning towards a late January 2006 timeframe. ATI’s recent conference call for their Quarter 1 financial results more or less confirmed the theories with CEO, Dave Orton, stating “Over the next 90 days, you will see us recapture the performance leadership from ourselves, with our R580 launch in Q2, delivering the most compelling multi-GPU graphics platform with CrossFire, and ramping OEMs with this solution in the quarter as well.”

In that statement Orton not only singles out R580 but Crossfire for it as well. Crossfire has been on a rocky path since its announcement with Radeon X850 Crossfire being very late and not at all well received, although the recent X1800 Crossfire release has ironed out some of the kinks, although a few still remain. However, with R580 coming within the next month or so it raises the question as to how much uptake X1800 Crossfire will have and how much support the platform is going to receive. Given R520’s late introduction and the impending arrival of R580 in relation to the Crossfire variant of R520 it may be the case that the Crossfire system really only gets serious on its third incarnation – even then its quite possible that the hardware to provide the solution is still evolving, and may continue to do so for some time.

paul.muad.dib
2005-12-22, 12:21:04
k. ich tippe auf max. X1800XT takt, jedoch halte ich das schon für (viel) zu hoch.

Wenn es aber zutreffen sollte, dass der r580 eine Erweiterung des rv530 ist, hätte eine solche Karte eine relativ geringe Textur-Leistung, da nur 16 TMUs mit niedrigerer Taktung vorhanden sind.
Das wäre dann wirklich eine merkwürdige Konsellation, wenn der Vorgänger mehr Textur-Leistung hat. Außerdem heißt der Gegner G71, der bei gleichen Aufbau wie die G70 32 TMUs haben könnte. Dieser Unterschied würde sich sicherlich bemerkbar machen.

Vielleicht kann sich einer der "Gurus" mal äußern, wie weit TMUs noch limitieren. Beim rv530 tun sie's trotz des hohen Taktes, bei 16 ist es dann schon nicht mehr so sicher. Trotzdem schätze ich mal, dass ein Chip mit 16 TMUs und 48 ALUs nicht die Leistung eines "echten" 48 Pipeline-Designs hat.

Gandharva
2005-12-22, 14:19:30
R580 and Crossfire R580 Early 2006 (http://www.beyond3d.com/forum/showthread.php?t=26829)da hat ati mit 7,6 millionen im Q4 gerade nochmal die kurve gekratzt. bleibt ein nettoverlust von 39,6 millionen im kalenderjahr 2005.

der R580 soll also definitiv vor ende februar 2006 erscheinen.

Coda
2005-12-22, 14:22:31
eine x1900 namensgebung läßt ja nicht gerade auf grosse sprünge hoffen..Das tun auch die Specs nicht.

Die gelbe Eule
2005-12-23, 00:02:04
ATi R580 is still on track for launch on 24th January and the official name will be Radeon X1900 series then. There will be cards availability on the day of launch from the AIB partners but we chose to keep our fingers crossed here. There will be 3 flavors at the start; Radeon X1900XT, Radeon X1900XTX and Radeon X1900XT Crossfire. It is still unclear what exactly is the X1900XTX but it is most probably a higher clocked version. ATi R580 has 16 pipelines but features 48 shader processors now instead of 16 previously on the R520 therefore we can expect some performance boost here. The R580 is pin-to-pin compatible to the current R520 PCB therefore you can basically replace the R520 core with the R580 with no modifications needed. As such, the cooling design remains the same as well.

Roflkartoffel.

Hat ATi Angst, das sie noch ne andere Karte im Ärmel haben müssen? Oder gibt es auch eine 700$ Edition?

mapel110
2005-12-23, 00:11:29
Roflkartoffel.

Hat ATi Angst, das sie noch ne andere Karte im Ärmel haben müssen? Oder gibt es auch eine 700$ Edition?
:| zwei unterschiedlich getaktete Modelle halte ich nicht für ungewöhnlich. Macht schon wegen Streubreite in der Produktion Sinn.

Die gelbe Eule
2005-12-23, 00:17:11
Aber es wird keine XL, sondern eine XT(X=PE). Das man hier dann immernoch nicht alle Karten CF tauglich macht, finde ich irgendwie komisch. Als ob das so teuer wäre.

deekey777
2005-12-23, 01:14:43
Woher kommen die Infos überhaupt?

Die gelbe Eule
2005-12-23, 01:16:09
vr-zone

deekey777
2005-12-23, 01:22:49
vr-zone

Ist das die Seite, die bis zum 5. Oktober behauptete, der R520 sei 32 Piper, von denen 16 abgeschaltet sind? ;) :D
Daß dort jetzt eine XL fehlt, sollte niemanden stören. Auch das Launchdatum sollte niemand so richtig ernst nehmen.

Die gelbe Eule
2005-12-23, 01:28:07
Das Launchdatum soll offiziell bei März/April liegen, wenn man ATi Glauben schenken möchte, da sie RD580 und R580 gleichzeitig bringen wollen.

X.Perry_Mental
2005-12-23, 08:21:31
ATI secretly released its Silver Bullets material to AIBs this week and the picture of R580 is slowly coming together. R580, or Radeon X1900 as it is called internally, is expected to "launch" in January according to ATI documentation. Unfortunately, ATI's track record has not been spectacular with the last few product launches. ATI's Crossfire chipset "launched" twice, once in June and again in October.

ATI released their Silver Bullets for Radeon X1800 approximately two months before the launch of the card, but it took nearly six weeks after the launch for master card variants of the X1800 to show up on store shelves (and nearly as long for Crossfire motherboards as well).

The Silver Bullets presentation was a little light on details, but did confirm the R580 GPU has 48 pixel shader processors and higher clocks than R520 (a.k.a. Radeon X1800). Radeon X1900 uses a 90nm process also found on Radeon X1800. The internal briefing also confirmed that there will be two separate versions of the card, RX1900CF "Master Card" and RX1900 "Crossfire Ready" card. Like the Radeon X1800 series, you will need at least one master card to enable Crossfire support. Avivo and Shader Model 3.0 will also appear on Radeon X1900.

Quelle: AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=2653)

MuLuNGuS
2005-12-23, 08:57:15
Das tun auch die Specs nicht.

hätte auch nicht gedacht das er so früh kommt, dann kann ich den R580 wohl auch überspringen..

seahawk
2005-12-23, 10:09:20
Das tun auch die Specs nicht.

Kommt auf die Situation an. Ein Verdreifachung der ALUs geht in rechenintensiven Situationen sicher nicht ohne Wirkung vorbei. Dazu kann man wohl von >700Mhz Core ausgehen und etwas schnelleren Speicher werden sie für die XT ischer auch ausgraben.

Winter[Raven]
2005-12-23, 10:32:27
Die wirkliche lösung für das NV Problem ist es aber tortzdem bei weitem nicht. Insbesondere wenn man bedenkt dass Nvidia ihre Chips sklalieren kann. Verdreifachung der Alu's wäre eine Rechenleistung die 7800 GTX schon besitzt, und wenn man bedenkt das NV mit dem 0.9µ Refresh noch was ändern könnte, klingt es nun auch nicht so rosig.

seahawk
2005-12-23, 10:39:01
Ja und nein. Einerseits ist es eine Lösung, andererseits nicht. Man sollte aufhören eine KArte zu früh nur von den Specs her zu beurteilen, es zählt was am ende rauskommt und auch der R580 ist doch optimierter als der R520. Auch sind ide ALus und ihre Nutzbarkeit bei NV und ATI anders, so dass es sich zwar in der Maximalleistung Unterschiede ergeben, die sich in einer realen Situation aber nur selten so wiederfinden lassen. Die X1800XT schlägt sich doch auch ganz braucubar im Vergleich zur GTX 256MB und selbst im Vergleich zur 512MB.

Coda
2005-12-23, 14:59:28
Kommt auf die Situation an. Ein Verdreifachung der ALUs geht in rechenintensiven Situationen sicher nicht ohne Wirkung vorbei. Dazu kann man wohl von >700Mhz Core ausgehen und etwas schnelleren Speicher werden sie für die XT ischer auch ausgraben.>700Mhz kannst du bei mehr Transistoren knicken. Mich würds nicht wundern wenn R580 sogar etwas niedriger taktet bei der nicht XT-PE-Version.

Die ALU-Leistung ist ganz nett, wird aber nicht den ultimativen Ausschlag geben - wirst schon sehen ;)

mapel110
2005-12-23, 15:53:59
Dinge zur allgemeinen Belustigung bitte auf der Spielwiese posten, danke.

Die gelbe Eule
2005-12-23, 16:05:50
Recently ATI CEO Dave Orton called three months ATI next generation graph chip R580 as well as R580 the CrossFire edition also issued, and rewill obtain king's of the performance laurel crown. At the appointed time obviously needs a section performance formidable chip group the support, ATI oneself specification formidable RD580 not two electing. Will issue the time preliminary estimate in 2006 3-4 month.

quelle PC-POP

seahawk
2005-12-23, 16:35:13
>700Mhz kannst du bei mehr Transistoren knicken. Mich würds nicht wundern wenn R580 sogar etwas niedriger taktet bei der nicht XT-PE-Version.

Die ALU-Leistung ist ganz nett, wird aber nicht den ultimativen Ausschlag geben - wirst schon sehen ;)

Dich ich erwarte den takt geringfügig über der XT-PE zumindest für die neue XT-PE.
Zum zweuten Teil, dass habe ich auch nie behauptet.

Mr. Lolman
2005-12-23, 17:04:50
Dinge zur allgemeinen Belustigung bitte auf der Spielwiese posten, danke.

Hiess es nicht mal, dass von Regs nichts getrasht wird? (oder hast dus eh gesplittet?)

Coda
2005-12-23, 17:06:36
Dich ich erwarte den takt geringfügig über der XT-PE zumindest für die neue XT-PE.
Zum zweuten Teil, dass habe ich auch nie behauptet.We'll see. Wenn es 90nm bleiben bin ich da sehr skeptisch ;)

Vor allem würde die Heizleistung von dem Ding dann noch weiter steigen, das ist jetzt ja schon bös.

Gandharva
2005-12-23, 17:31:02
quelle PC-POPmärz/april ist imho eine falschinterpretation dieses zitates von orton:“Over the next 90 days, you will see us recapture the performance leadership from ourselves, with our R580 launch in Q2, delivering the most compelling multi-GPU graphics platform with CrossFire, and ramping OEMs with this solution in the quarter as well.”die 90 tage beziehen sich auf die dauer des zweiten fiskal quartals 2006 bei ati. dieses endet jedoch am 28. februar 2006. der R580 wird also spätestens ende februar erscheinen und nicht märz/april.

reunion
2005-12-23, 17:48:36
Wenn es aber zutreffen sollte, dass der r580 eine Erweiterung des rv530 ist, hätte eine solche Karte eine relativ geringe Textur-Leistung, da nur 16 TMUs mit niedrigerer Taktung vorhanden sind.
Das wäre dann wirklich eine merkwürdige Konsellation, wenn der Vorgänger mehr Textur-Leistung hat. Außerdem heißt der Gegner G71, der bei gleichen Aufbau wie die G70 32 TMUs haben könnte. Dieser Unterschied würde sich sicherlich bemerkbar machen.


X1600XT hat nur 4 TMUs, und lässt leistungsmäßig eine 6600GT mit 8 TMUs locker hinter sich. Auch mit einer X800 mit 12 TMUs kann die Karte ausgezeichnet mithalten. Selbst wenn man den etwas höheren Takt berücksichtigt, bringt die Karte mit Abstand am meisten Frames im Verhältnis zu ihren theoretischen Leistungswerten. Man sollte hier also nicht nur stur die jeweiligen Einheiten gegeneinanderstellen, sondern auch die Effizienz berücksichtigen.

reunion
2005-12-23, 17:54:41
komisch nur das der speicher der sich auf den X1800 modellen befindet erst im Q2 und Q3 2005 in Massenproduktion ging. der speicher war sicher ein mitgrund für die extreme verzögerung.


Nein, wäre der Chip früher in die Massenproduktion gegangen, dann hätte man eben etwas niedriger getakteten Speicher verbaut.


so wie es aussieht steigt der transistorcount um ca. 25-30%. eine XT-PE hab ich noch nirgens im handel gesehen, auch wenn diese wohl früher oder später kommen werden (selektion wie bei GTX 512). TSMC produziert noch nicht wirklich lange die 90nm generation und von daher sehe ich da kaum optimierungspotential im prozess. es würde mich extrem überraschen wenn R580 >700-725mhz haben wird. ich tippe auf max. X1800XT takt, jedoch halte ich das schon für (viel) zu hoch.

Über dem Takt der X1800XT wird man mit Sicherheit liegen. Alleine schon, um Situationen zu vermeiden, in denen aufgrund einer Limitierung der Texelfüllrate der neue Chip vom Vorgängermodell geschlagen wird. Wie gesagt, ich rechne mit >700Mhz. Und das mit dem niedriger getakteten Speicher ist ohnehin Bullshit.

Roflkartoffel.

Hat ATi Angst, das sie noch ne andere Karte im Ärmel haben müssen? Oder gibt es auch eine 700$ Edition?


Deine Kommentare sind einfach nur peinlich.
Die reimst dir aufgrund eines noch nichtmal bestätigten, neuen Names, irgendwelche völlig absurden Dinge zusammen.

Das Launchdatum soll offiziell bei März/April liegen, wenn man ATi Glauben schenken möchte, da sie RD580 und R580 gleichzeitig bringen wollen.

Lesen, denken, schreiben - danke.

Gandharva
2005-12-23, 18:15:08
Nein, wäre der Chip früher in die Massenproduktion gegangen, dann hätte man eben etwas niedriger getakteten Speicher verbaut.dann hätte man aber unterm strich auch weniger leistung gehabt.Über dem Takt der X1800XT wird man mit Sicherheit liegen. Alleine schon, um Situationen zu vermeiden, in denen aufgrund einer Limitierung der Texelfüllrate der neue Chip vom Vorgängermodell geschlagen wird. Wie gesagt, ich rechne mit >700Mhz. Und das mit dem niedriger getakteten Speicher ist ohnehin Bullshit.das mit dem speichertakt war auch mehr ein hinfurz meinerseits ;) wenn der gpu-takt trotz genannter gründe gut über 700mhz liegen sollte muss man TSMC und/oder den chipdesignern (k.a. was da schwerer wiegt) wohl wirklich respekt zollen. wünschenswert wäre es für uns endkunden allemal, jedoch kann ichs mir echt nicht vorstellen.

mapel110
2005-12-23, 18:25:37
wünschenswert wäre es für uns endkunden allemal, jedoch kann ichs mir echt nicht vorstellen.
Da muss mehr als 700 Mhz rausspringen. Wie will man die Karte sonst verkaufen?!

reunion,
Wenn man die Effizienz der X1600XT gegenüber der 6600 GT beurteilen will, sollte man auch die Transistorzahlen im Auge behalten.
146 vs 157

Gandharva
2005-12-23, 18:31:08
Da muss mehr als 700 Mhz rausspringen. Wie will man die Karte sonst verkaufen?!so lange der schwanzmark passt... :wink:

seahawk
2005-12-23, 18:40:37
Da muss mehr als 700 Mhz rausspringen. Wie will man die Karte sonst verkaufen?!

reunion,
Wenn man die Effizienz der X1600XT gegenüber der 6600 GT beurteilen will, sollte man auch die Transistorzahlen im Auge behalten.
146 vs 157

Aber man sollte auch bedenken, dass die 6600Gt noch ne echte NV4X karte ist, ohne jegliche Verbesserungen der 7800er Serie.

reunion
2005-12-23, 18:51:27
reunion,
Wenn man die Effizienz der X1600XT gegenüber der 6600 GT beurteilen will, sollte man auch die Transistorzahlen im Auge behalten.
146 vs 157

Natürlich muss man das auch berücksichtigen.
Ich habe mich oben bewusst rein auf die Leistung pro "Einheit" bezogen.

Sunrise
2005-12-23, 19:17:28
märz/april ist imho eine falschinterpretation dieses zitates von orton:die 90 tage beziehen sich auf die dauer des zweiten fiskal quartals 2006 bei ati. dieses endet jedoch am 28. februar 2006. der R580 wird also spätestens ende februar erscheinen und nicht märz/april.Danke, dass noch jemand mitdenkt. Steht übrigens auch bereits im G7X-Thread, nur scheinbar lässt sich die Neigung einiger, "Hinweise" (bewusst) völlig zu ignorieren nur sehr schwer beeinflussen.

Die gelbe Eule
2005-12-23, 20:25:16
Und Ihr denkt nun alle ATi hält sein Versprechen ein, so ganz ohne Problemchen und Verzögerungen.

Lubi
2005-12-23, 20:28:57
Und Ihr denkt nun alle ATi hält sein Versprechen ein, so ganz ohne Problemchen und Verzögerungen.

Nvidia hat das ja auch mehr oder weniger geschafft. Why not?

Die gelbe Eule
2005-12-23, 20:34:01
ATi gerät so langsam unter Druck, da man schon den G80 Mitte 2006 einführen möchte. Außerdem muss man von den X1k einiges verkaufen, damit sich der Quartalsgewinn erhöht. Mit minus 90% sieht das dieses Jahr nicht gut aus.

deekey777
2005-12-23, 20:41:40
Und Ihr denkt nun alle ATi hält sein Versprechen ein, so ganz ohne Problemchen und Verzögerungen.

Kannst du diese Behauptung irgendwie begründen?

ATi gerät so langsam unter Druck, da man schon den G80 Mitte 2006 einführen möchte. Außerdem muss man von den X1k einiges verkaufen, damit sich der Quartalsgewinn erhöht. Mit minus 90% sieht das dieses Jahr nicht gut aus.

Wo gerät hier ATi unter Druck? Hallo? Schonmal diese Kette gesehen: R400->R500/C1/Xenos->R600? Oh Mann...

Sunrise
2005-12-23, 20:51:17
Und Ihr denkt nun alle ATi hält sein Versprechen ein, so ganz ohne Problemchen und Verzögerungen.Eine gewisse Unbekannte, auf die kein IHV direkten Einfluss hat, gibt es immer. Denken jedoch, ist in dieser Beziehung völlig irrelevant, denn es gibt Launch-Termine, die man sich nicht einfach "zurechtdenken" kann, da sie seit Monaten bereits feststehen.

Verfügbarkeit ist ein ganz anderes Thema, RD580 ist auch ein anderes Thema.

Wenn du bereits im Voraus von "Problemchen und Verzögerungen" ausgehst, bist du entweder grundsätzlich negativ ggü. einer Sache eingestellt oder aber bewusst negativ auf den IHV selbst eingestellt. Du darfst dir das Treffendere gerne selbst aussuchen, denn anders kann man deine Ausführungen nicht interpretieren.

Man sollte als kluger Mensch grundsätzlich alle Möglichkeiten offen halten, ganz besonders dann, wenn man nicht genug Informationen hat, die einem erlauben, sinnvolle Schlüsse zu ziehen.

Die gelbe Eule
2005-12-23, 20:55:02
ATIs Gewinn geht deutlich zurück
Geschäft mit X1000-Serie soll künftig anziehen
Der kanadische Grafikkartenhersteller ATI hat sein erstes Bilanzquartal 2005/2006, das für das Unternehmen am 30. November 2005 endete, mit einem Umsatz von 591 Millionen US-Dollar abgeschlossen. Im gleichen Quartal des Vorjahres belief sich der Umsatz noch auf 614 Millionen US-Dollar.




Der Nettogewinn belief sich auf 7,6 Millionen US-Dollar bzw. 0,03 US-Dollar pro Aktie. Im Vergleichszeitraum des Vorjahres waren es noch 63,7 Millionen US-Dollar oder 0,25 US-Dollar pro Aktie. ATIs CEO David Orton teilte mit, dass das Geschäft des Unternehmens von der starken Nachfrage nach der neuen X1000-Serie profitiere und auch ein signifikantes Wachstum bei integrierten Chipsets zu verzeichnen sei.

Im abgelaufenen Quartal konnte ATI im Übrigen mehr als 21 Millionen Chips für den Handheld-Markt verkaufen und damit schon mehr als halb so viele wie im gesamten Geschäftsjahr 2005. Außerdem konnte das Unternehmen kürzlich die 10-Millionen-Marke bei Chips für HD-Fernseher überschreiten.

Für das laufende zweite Quartal 2005/2006 erwartet man ein Umsatzwachstum von 8 bis 12 Prozent bezogen auf das erste Quartal 2006. Dies soll hauptsächlich mit Wachstum im X1000-Segment sowie mit der Radeon-Xpress-Produktlinie erzielt werden

Schonmal diese Zahlen gelesen?

Du weißt auch, das MS mit der XBOX360 immernoch 126$ Verlust per Konsole macht. Da muss man schon Preise anders kalkulieren.

Eine gewisse Unbekannte, auf die kein IHV direkten Einfluss hat, gibt es immer. Denken jedoch, ist in dieser Beziehung völlig irrelevant, denn es gibt Launch-Termine, die man sich nicht einfach "zurechtdenken" kann, da sie seit Monaten bereits feststehen.

Verfügbarkeit ist ein ganz anderes Thema, RD580 ist auch ein anderes Thema.

Wenn du bereits im Voraus von "Problemchen und Verzögerungen" ausgehst, bist du entweder grundsätzlich negativ ggü. einer Sache eingestellt oder aber bewusst negativ auf den IHV selbst eingestellt. Du darfst dir das Treffendere gerne selbst aussuchen, denn anders kann man deine Ausführungen nicht interpretieren.

Man sollte als kluger Mensch grundsätzlich alle Möglichkeiten offen halten, ganz besonders dann, wenn man nicht genug Informationen hat, die einem erlauben, sinnvolle Schlüsse zu ziehen.

Der R520 ist gar nicht richtig angelaufen, da soll schon in 4-6 Wochen der Nachfolger da sein? Das glaubst Du wohl selbst nicht. Kein Hersteller würde dann noch R520 ordern, um sie zu verbauen, das heißt wieder Verluste, weil man die "alten" X1800er schon als Abverkauf bezeichnen muss.

Jeder der jetzt noch gewartet hat, der wird wieder warten, weil ja was besseres kommt.

Sunrise
2005-12-23, 21:15:56
Der R520 ist gar nicht richtig angelaufen, da soll schon in 4-6 Wochen der Nachfolger da sein? Das glaubst Du wohl selbst nicht. Kein Hersteller würde dann noch R520 ordern, um sie zu verbauen, das heißt wieder Verluste, weil man die "alten" X1800er schon als Abverkauf bezeichnen muss.Dieser Post macht von vorne bis hinten keinen Sinn, da du scheinbar immernoch nicht wirklich verstanden hast, was ATi mit den verschiedenen R580-SKUs und dessen Ablegern eigentlich erreichen will. Meine Antwort zu diesem Thema habe ich dir bereits vor Monaten (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3535040#post3535040) gegeben, dies war im Oktober diesen Jahres. Denke mal darüber nach, warum ATi den R580 brauchen "könnte", und warum ATi auch alles daran setzen wird, R580 pünktlich vorzustellen.

Jeder der jetzt noch gewartet hat, der wird wieder warten, weil ja was besseres kommt.
Es kommt immer etwas Besseres, insofern ist diese Aussage ziemlich sinnfrei.

deekey777
2005-12-23, 21:17:31
Das sind Auswirkungen des miserablen abgelaufenen Jahres, die auch im neuen Finanzjahr zu spüren sein werden.
Und ATi fertigt keine Grafikchips für die Xbox 360.

Die gelbe Eule
2005-12-23, 21:20:08
Dieser Post macht von vorne bis hinten keinen Sinn, da du scheinbar immernoch nicht wirklich verstanden hast, was ATi mit den verschiedenen R580-SKUs und dessen Ablegern eigentlich erreichen will. Meine Antwort zu diesem Thema habe ich dir bereits vor Monaten (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3535040#post3535040) gegeben, dies war im Oktober diesen Jahres. Denke mal darüber nach, warum ATi den R580 brauchen "könnte", und warum ATi auch alles daran setzen wird, R580 pünktlich vorzustellen.



Wieso redest um den heißen Brei herum und sagst nichts zur Sache?
ATi brauch den R580, weil NV schneller ist mit der 512er GTX. Und wer jetzt kommt, die X1800XT ist zu schwach gegen die 256er GTX, der hat sie nicht mehr alle.

Stell Dir vor Du hast mal eben 500€+ für Deine X1800XT ausgegeben, kaufst Dir dann extra in 2 Monaten nochmals eine für 500€ und machst Verlust mit der alten Karte?

Das sind Auswirkungen des miserablen abgelaufenen Jahres, die auch im neuen Finanzjahr zu spüren sein werden.
Und ATi fertigt keine Grafikchips für die Xbox 360.

Das stimmt, die Architektur wurde nur dafür geliefert. Wenn das Geld dafür aber schon in das letzte Fiskaljahr eingelossen ist, dann möcht ich nicht wissen wie die Zahlen ohne aussehen.


Es kommt immer etwas Besseres, insofern ist diese Aussage ziemlich sinnfrei.

Normal ist man andere Zyklen gewohnt was Refreshchips angeht. Verfügbar sind die R520 flächendeckend erst seit 3 Wochen. Was will man mit einem Nachfolger 2-3 Monate später?

Sunrise
2005-12-23, 21:24:11
Normal ist man andere Zyklen gewohnt was Refreshchips angeht. Verfügbar sind die R520 flächendeckend erst seit 3 Wochen. Was will man mit einem Nachfolger 2-3 Monate später?Der R580 ist kein Refresh, da fängt es schon an.

Winter[Raven]
2005-12-23, 21:33:02
Was ist es den sonst Sunrise? Die Änderungen werden viel zuklein sein um diesen != Refresh zu nennen. Vielleicht reden wir an einander vorbei, wenn wir von einem Refresh reden.

Sunrise
2005-12-23, 21:42:36
Wieso redest um den heißen Brei herum und sagst nichts zur Sache?
ATi brauch den R580, weil NV schneller ist mit der 512er GTX. Und wer jetzt kommt, die X1800XT ist zu schwach gegen die 256er GTX, der hat sie nicht mehr alle.
Ich glaube ich darf immernoch selbst bestimmen, was ich schreibe und warum ich es schreibe. Mäßige dich bitte etwas im Ton. Sachlich bleiben, bitte.

Stell Dir vor Du hast mal eben 500€+ für Deine X1800XT ausgegeben, kaufst Dir dann extra in 2 Monaten nochmals eine für 500€ und machst Verlust mit der alten Karte?
Und die Moral von der Geschicht' ? Eine X1800XT (jetzt sogar mit PE-BIOS) ist doch eine vorzügliche Karte zum Spielen. :biggrin:

Zudem ist es jedem selbst überlassen, welchen Luxus er sich leisten kann und will.

Die gelbe Eule
2005-12-23, 21:45:21
Tja, aber wir reden hier nicht von Luxusgütern, sonder von den Normalos die diese Karten kaufen sollen. Es gibt einige Freaks, die immer auf das beste aufrüsten, nur ist das die Minderheit aller Käufer.

Fakt ist, wer jetzt eine X1800XT hat, der läßt sie auch zu 95% drin.


Und die Moral von der Geschicht' ? Eine X1800XT (jetzt sogar mit PE-BIOS) ist doch eine vorzügliche Karte zum Spielen. :biggrin:


Also, warum R580? Gibts keinen Grund, sagst sogar Du.

deekey777
2005-12-23, 21:53:10
Dann gibt es auch keinen Grund, von der G70 auf die G75 umzusteigen.

dildo4u
2005-12-23, 21:58:07
Dann gibt es auch keinen Grund, von der G70 auf die G75 umzusteigen.
Vieleicht gibts ja was in Richtung HQAF beim G75 oder wie auch immer der näste NV chip heißt an einen einfachen Refresh glaub ich bei NV nicht gab ja schon die 7800GTX 512mb.

seahawk
2005-12-23, 21:59:38
Und Ihr denkt nun alle ATi hält sein Versprechen ein, so ganz ohne Problemchen und Verzögerungen.

Ja, und available at launch.

seahawk
2005-12-23, 22:01:16
Der R580 ist kein Refresh, da fängt es schon an.

Sagen wir er ist ungefähr soviel Refresh wie der G70 ein refresh des NV40 war.

Sunrise
2005-12-23, 22:02:19
Stell Dir vor Du hast mal eben 500€+ für Deine X1800XT ausgegeben, kaufst Dir dann extra in 2 Monaten nochmals eine für 500€ und machst Verlust mit der alten Karte?
Tja, aber wir reden hier nicht von Luxusgütern, sonder von den Normalos die diese Karten kaufen sollen. Es gibt einige Freaks, die immer auf das beste aufrüsten, nur ist das die Minderheit aller Käufer.

Fakt ist, wer jetzt eine X1800XT hat, der läßt sie auch zu 95% drin.Du widersprichst dir hier sehr deutlich.

Du müsstest inzwischen doch selbst am Besten wissen, dass "Normalos" eben nicht die Zielgruppe einer R520 / R580 oder einer GTX512 sind oder sein werden. Das sind Performance-orientierte Klientel, die nur einen Bruchteil der eigentlichen Umsätze ausmachen. Ich habe bereits versucht, dich in die Richtung zu lenken, dass du dich nicht immer an den Top-Produkten des jeweiligen IHVs orientierst, weil es keinen Sinn macht, sich daran aufzuhängen. Dieser Markt ist verschwindend gering, er dient als "technology driver", aber sorgt nicht unbedingt für prall gefüllte Taschen, nicht bei den Mengen und den Margen, die derzeit bei "nur" etwa 28% liegen.

Also, warum R580? Gibts keinen Grund, sagst sogar Du.Natürlich gibt es einen Grund. Einen Markt, der nicht stillsteht. NV und ATi konkurrieren und OEM-Design-Wins im Neujahr sind maßgeblich ausschlaggebend für die Akzeptanz von X1000. Eine Vorstellung im April oder später wäre katastrophal.

R520 ist aus Käufersicht sehr gut, aus ATIs Sicht jedoch, war es mehr oder weniger eine Lektion, die sie gerne vergessen würden, R580 soll "Confidence" zurückbringen.

seahawk
2005-12-23, 22:02:49
Dann gibt es auch keinen Grund, von der G70 auf die G75 umzusteigen.

Korrekt. Wenn man nicht total benchmarkbessesen ist, oder grundsätzlich nur in 1600x1200 mit AA+AF zockt, dann lohnt der Wechsel nicht mehr. Beide versuchen mit diesen Chips nur Käufer der X800/6X00 Generation zum Aufrüsten zu bewegen.