PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 [41] 42

dr_mordio
2005-10-02, 03:42:23
Ich hinterfrage nur, mehr tue ich nicht. Warum sollte ich über ATI herziehen? Hier wird spekuliert und das solange bis die Karten erhältlich sind. Ob ich nun eine NV oder was anderes im PC habe, beeinflusst meine Meinung nicht.

10.000 Posts für R520 ... der Thread sollte selig gesprochen werden ....

wenn dem so ist, dan tuts mir leid.
aber es hatte auf den letzen 100seiten halt ein bischen den anschein.

aber 10000 posts ist schon ein hammer. nur noch 19 seiten und der tread ist fertig (520 Seiten) :biggrin:

MfG
Alex

Die gelbe Eule
2005-10-02, 03:48:40
Habe das dumpfe Gefühl, das der Thread eher 520 Seiten erreicht, als das eine R520 käuflich zu erwerben ist ...

dr_mordio
2005-10-02, 04:00:25
Habe das dumpfe Gefühl, das der Thread eher 520 Seiten erreicht, als das eine R520 käuflich zu erwerben ist ...

naja, mit ausnahme der XT sollen ja alle karten am 5.10 erscheinen.
schade nur das ich das nicht miterleben kann.

MfG
Alex

mapel110
2005-10-02, 04:05:23
R480 = 130nm
Ja, stimmt wohl. hab ich mit R430 verwechselt. :usad:

Knork
2005-10-02, 10:13:31
Habe das dumpfe Gefühl, das der Thread eher 520 Seiten erreicht, als das eine R520 käuflich zu erwerben ist ...

Na das wär schon ziemlich traurig, wenn ATI den R520 erst so spät bringt und dann auch nur einen Paper Launch veranstalten würde.
Nvidia hats vorgemacht wie's geht, da müsse man doch nachziehen.

Ich selbst vertraue noch auf die Power meiner 9600xt und das wird sich wohl erst mit einer wgf 2.0 / direct x 10 (was auch immer) kompatiblen Grafikkarte 2006 ändern :)
Interessant ist aber das Gerücht, dass ATI den R580 schon fertig hat und somit sich selbst schon in ein paar Monaten überbieten würde..

Coda
2005-10-02, 10:50:58
Ich habe meine jetztige Karte mal im Marktplatz einer anderen Seite angeboten.
Erstmal zum Mindestpreis von 460 Euro und Sofortkauf 500 Euro.
Wenn ich einen Monat nicht zocken kann, macht das nix.
Wenn ich dann die 1800XT für unter 600 Euro bekomme.Oh mann. Ich geb dir den Rat und warte erstmal die Benchmarks ab.

Interessant ist aber das Gerücht, dass ATI den R580 schon fertig hat und somit sich selbst schon in ein paar Monaten überbieten würde..R580 liegt im Plan, nur R520 nicht. Und noch was: Warum schiebt man sofort R580 nach, wenn R520 angeblich so konkurenzfähig ist *hust*.

dargo
2005-10-02, 11:04:03
Selbst wenn die r520 im CF Modus schneller sein wird als 7800SLI, dann haut man sich eben zwei Stück von den Asus dual 7800er rein und schon paßt des wieder :D
Soweit ich weiß hat die ASUS Dual G7800GT keinen SLI Connector. :rolleyes:

R580 liegt im Plan, nur R520 nicht. Und noch was: Warum schiebt man sofort R580 nach, wenn R520 angeblich so konkurenzfähig ist *hust*.
Weil der R580 nur minimal schneller ist ? :rolleyes:

Coda
2005-10-02, 11:06:47
Ja, es benötigt auch andere Chips oder einen SLi-Hub um Quad-SLi zu ermöglichen. Das kommt sicher nicht so bald.

Aber ich würde mir auch keine großen Sorgen machen...

reunion
2005-10-02, 11:30:03
R580 liegt im Plan, nur R520 nicht. Und noch was: Warum schiebt man sofort R580 nach, wenn R520 angeblich so konkurenzfähig ist *hust*.

Du gibst dir die Antwort selbst: R580 liegt im Plan, nur R520 nicht.
Selbst unter der natürlich rein hypotetischen Annahme, dass R520 G70 deutlich schlägt, sehe ich keinen Grund, warum man R580 künstlich zurückhalten sollte.

Coda
2005-10-02, 11:31:24
Du gibst dir die Antwort selbst: R580 liegt im Plan, nur R520 nicht.
Selbst unter der natürlich rein hypotetischen Annahme, dass R520 G70 deutlich schlägt, sehe ich keinen Grund, warum man R580 künstlich zurückhalten sollte.Wenn man so konkurenzfähig ist wie hier von manchen angenommen wird schiebt man doch nicht sofort was neues nach. Das ist wirtschaftlich unlogisch, auch wenn der Chip vielleicht besser ist.

reunion
2005-10-02, 11:36:23
Wenn man so konkurenzfähig ist wie hier von manchen angenommen wird schiebt man doch nicht sofort was neues nach. Das ist wirtschaftlich unlogisch, auch wenn der Chip vielleicht besser ist.

Als die R580-Entwicklung begann, hatte man höchstwarscheindlich nicht die geringste Ahnung, inwiefern R520 konkurrenzfähig ist. Man konnte wohl höchstens aufgrund von NV40 ahnen, dass es mit der Shaderleistung eng werden könnte. :D

mbee
2005-10-02, 11:59:16
Wirtschafltlichkeit hat doch nicht unbedingt etwas mit der Entwicklung zu tun bzw. wann ein Chip produktionsreif ist...
Man verkauft (wenn der R520 konkurrenzfähig bzw. überlegen ist) erst mal die "alten" Chips ab und behält den neuen (R580) auf Halde bzw. hält ihn zurück. Das ist wirtschaftlich und strategisch IMO weitaus sinnvoller als gleich nach dem Launch die Preise für den R520 senken zu müssen, weil der R580 leistungsfähiger ist. In dem Fall würde man IMO dann auch nicht so viele News über den R580 streuen.

Razor
2005-10-02, 12:08:00
Du gibst dir die Antwort selbst: R580 liegt im Plan, nur R520 nicht.
Selbst unter der natürlich rein hypotetischen Annahme, dass R520 G70 deutlich schlägt, sehe ich keinen Grund, warum man R580 künstlich zurückhalten sollte.Du siehst keinen Grund?
:confused:

Wenn (!) der R520 den G70 deutlich schlagen sollte, dann gibt es schlicht KEINEN Grund, den R580 heraus zu bringen. Ganz im Gegenteil wäre dies wirtschaftlich nicht nur unlogisch, sondern schlicht heller Wahnsinn. Sich selber Konkurrenz machen und damit alle (!) eigenen Produktreihen deklassieren ohne auch nur den geringsten Grund?

Ich vermute mal, dass Du Dir lieber ein paar wirtschaftliche Grundlagen reinziehen solltest, als das Kraut, was Du da offenbar gerade rauchst (wirklich nicht böse gemeint). Der einzige Grund, warum der R580 sofort nachgeschoben werden muss/sollte, ist vermutlich das genaue Gegenteil Deiner Annahme.

Alles andere macht einfach keinen Sinn...

Razor

chrisihamm
2005-10-02, 12:08:20
Hi,

nur mal zur Info R520 und R580 wurden von zwei unterschiedlichen Desig-Teams entworfen und jetzt überschneiden sich die beiden,weil R520 sich verzögerte!R520 sollte schon im Sommer die Leistung bringen die er jetzt im Herbst bringt!!

mfg

Coda
2005-10-02, 12:12:23
Hi,

nur mal zur Info R520 und R580 wurden von zwei unterschiedlichen Desig-Teams entworfen und jetzt überschneiden sich die beiden,weil R520 sich verzögerte!R520 sollte schon im Sommer die Leistung bringen die er jetzt im Herbst bringt!!

mfgNein sind sie nich, R580 ist der R520 Refresh (sieht man doch allein schon am Codenamen). Du meinst Xenos und R520.

LairD
2005-10-02, 12:14:30
Könnte es nicht sein,dass ATI R580 so schnell wie möglich bringt,weil sie mit ihm bessere Yields erreichen?
Viell. wurden im R580 Design einige Schwächen(HotSpots?) des R520 beseitigt und der R580 hat einen z.Bsp 50% besseren Yield.
Dann wäre es für ATI doch sehr viel wirtschftlicher R580 so schnell wie möglich zu bringen und R520 nur als Übergangslösung auf den MArkt zu werfen.

reunion
2005-10-02, 12:16:59
Nein sind sie nich, R580 ist der R520 Refresh (sieht man doch allein schon am Codenamen). Du meinst Xenos und R520.


Er hat schon recht, R520 und R580 wurde parallel von unterschiedlichen Designerteams entwickelt. Orton hat sich mal dazu geäußert. Deshalb ist R580 auch mehr als ein Taktrefresh.

Winter[Raven]
2005-10-02, 12:25:19
Orton redet viel wenn der Tag lang genung ist...

Geschichtlich gesehn wissen wir doch wie die Refreshs bei ATI ausfallen...

reunion
2005-10-02, 12:34:50
Du siehst keinen Grund?
:confused:

Wenn (!) der R520 den G70 deutlich schlagen sollte, dann gibt es schlicht KEINEN Grund, den R580 heraus zu bringen. Ganz im Gegenteil wäre dies wirtschaftlich nicht nur unlogisch, sondern schlicht heller Wahnsinn. Sich selber Konkurrenz machen und damit alle (!) eigenen Produktreihen deklassieren ohne auch nur den geringsten Grund?


Warum hat nV damals einen NV15 gebracht, obwohl NV10 locker gereicht hätte?



Ich vermute mal, dass Du Dir lieber ein paar wirtschaftliche Grundlagen reinziehen solltest, als das Kraut, was Du da offenbar gerade rauchst (wirklich nicht böse gemeint). Der einzige Grund, warum der R580 sofort nachgeschoben werden muss/sollte, ist vermutlich das genaue Gegenteil Deiner Annahme.

Alles andere macht einfach keinen Sinn...

Razor

Nochmal: R580 wird nicht "sofort nachgeschoben", er liegt im Zeitplan, mehr nicht. Außerdem solltest du bedenken, dass R580 nicht als G70-Konkurrent gedacht ist.

Coda
2005-10-02, 12:40:54
Warum hat nV damals einen NV15 gebracht, obwohl NV10 locker gereicht hätte? R580 ist nicht als G70-Konkurrent gedacht.Kleineres Fertigungsverfahren = billiger. Außerdem war da einiges mehr Zeit dazwischen...

Er hat schon recht, R520 und R580 wurde parallel von unterschiedlichen Designerteams entwickelt. Orton hat sich mal dazu geäußert. Deshalb ist R580 auch mehr als ein Taktrefresh.Bei R580 wurde anscheinend die PS-Alu aufgebohrt, radikale Unterschiede sollte man aber nicht erwarten.

reunion
2005-10-02, 12:45:18
']Orton redet viel wenn der Tag lang genung ist...


Orton weiß besser als jeder andere, wovon er (über ATi) redet.


Geschichtlich gesehn wissen wir doch wie die Refreshs bei ATI ausfallen...

Das wird sich mit R580 ändern.



Bei R580 wurde anscheinend die PS-Alu aufgebohrt, radikale Unterschiede sollte man aber nicht erwarten.


Logisch, dass man das Rad nicht zweimal erfindet.

Winter[Raven]
2005-10-02, 12:50:20
@ reunion

Da wird sich nicht viel ändern ;) Es bleibt alles beim alten, der Chip wird in der Alu-Leistung aufgebohrt, mehr aber auch nicht wirklich.
Das wird sich mit R580 ändern.

Quelle?

Coda
2005-10-02, 12:53:02
Das ist auch schon deutlich mehr als ATi bisher in den Refreshes geändert hat, insofern hat reunion schon recht.

nagus
2005-10-02, 12:56:59
Was ist das??

Ein Banner mit countdown auf theinquirer.net für auf die seite http://launch.mission-emotion.com/

... sehr interessant...

reunion
2005-10-02, 13:01:55
']
']
Quelle?

[...]der Chip wird in der Alu-Leistung aufgebohrt[..]

dargo
2005-10-02, 13:24:11
Alles andere macht einfach keinen Sinn...

Dann hat der R480 auch keinen Sinn gemacht. Der R420 hätte auch gereicht.

TheCounter
2005-10-02, 13:33:36
Was ist das??

Ein Banner mit countdown auf theinquirer.net für auf die seite http://launch.mission-emotion.com/

... sehr interessant...

Das hier?

http://www.x800gt.com/

Coda
2005-10-02, 13:37:35
Natürlich ist es eine Marketingaktion - was soll "Mission Emotion" sonst sein?

up¦²
2005-10-02, 13:38:56
10.026 Antworten ;D

336.986 Hits

Die 500.000 Hits müssen noch fallen!


Mal schaun was die Jungs in Dubai bei Tbreak verraten ...

acrowley23
2005-10-02, 13:54:55
Du gibst dir die Antwort selbst: R580 liegt im Plan, nur R520 nicht.
Selbst unter der natürlich rein hypotetischen Annahme, dass R520 G70 deutlich schlägt, sehe ich keinen Grund, warum man R580 künstlich zurückhalten sollte.

Ich hoffe...
Ich denke ca Februar ,spät. März 2006 mit "fertigen" r580 Karten

Da ich den r520 überspringe....und direkt dann eine r580 mit 512mb kaufen möchte

Coda
2005-10-02, 14:07:28
Komisch, die 32/24 Pipeline-Theorie-Verfechter lassen sich ja gar nicht mehr blicken :wave2:

Die gelbe Eule
2005-10-02, 14:50:02
Die kommen mit dem ersten Fuadgefasel über den R580 wieder zurück ;)

-=CHICKEN=-
2005-10-02, 14:55:29
Komisch, die 32/24 Pipeline-Theorie-Verfechter lassen sich ja gar nicht mehr blicken :wave2:

jo stimmt, lese aber noch nach wie vor sehr aufmerksam mit :wink:
24/32 hab ich auch schon beim 520 aufgegeben aber beim 580 glaub ich es erst, wenn er veröffentlicht wurde! :biggrin: :rolleyes:

OT:
ach ja, es wäre schön, wenn genau bei 520 thread-seiten der launch kommt :cool:

deekey777
2005-10-02, 15:01:53
...
Bei R580 wurde anscheinend die PS-Alu aufgebohrt, radikale Unterschiede sollte man aber nicht erwarten.

Der RV530 sollte, falls er vor dem R580 kommt, andeuten, wo und wie sich R520 und R580 unterscheiden.
Was ist das??

Ein Banner mit countdown auf theinquirer.net für auf die seite http://launch.mission-emotion.com/

... sehr interessant...

Was das ist? Das sieht man seit dem Start des Countdowns vor gut einer Woche, wenn man bei DriverHeaven auf den Countdown klickt. Alle Klarheiten beseitigt?
Komisch, die 32/24 Pipeline-Theorie-Verfechter lassen sich ja gar nicht mehr blicken :wave2:

Meinst du den R520 oder den R580 mit 24/32 Pipelines? Kurz nach dem 5. Oktober werden die sich melden, der R580 hätte nicht einfach 24 oder 32 Pipelines, sondern 48! X-D

r3ptil3
2005-10-02, 15:06:12
R580 liegt im Plan, nur R520 nicht. Und noch was: Warum schiebt man sofort R580 nach, wenn R520 angeblich so konkurenzfähig ist *hust*.

Den R580 schiebt man nur nach weil man dadurch weniger Herstellungskosten hat, das gleiche beim R480. Die X800 XT PE war als spitzenmodell genug schnell, doch trotzdem kam die X850 XT PE.

Coda
2005-10-02, 15:12:02
Den R580 schiebt man nur nach weil man dadurch weniger Herstellungskosten hat, das gleiche beim R480. Die X800 XT PE war als spitzenmodell genug schnell, doch trotzdem kam die X850 XT PE.Soso, mehr Transistoren sind also billiger. Ahja.

r3ptil3
2005-10-02, 15:16:35
Soso, mehr Transistoren sind also billiger. Ahja.

Mehr Transistoren? Oder ist das jetzt bekannt das der R580 mehr Transistoren haben wird als der R520?

deekey777
2005-10-02, 15:18:16
jo stimmt, lese aber noch nach wie vor sehr aufmerksam mit :wink:
24/32 hab ich auch schon beim 520 aufgegeben aber beim 580 glaub ich es erst, wenn er veröffentlicht wurde! :biggrin: :rolleyes:
Wer glaubt, wird selig...

OT:
ach ja, es wäre schön, wenn genau bei 520 thread-seiten der launch kommt :cool:
Wenn in kommenden 48 Stunden Infos und Benchmarkergebnisse geleakt werden, denn überholt dieser Thread den R600. :biggrin:

Die gelbe Eule
2005-10-02, 15:18:17
Und wenn der R580 wieder 3 Versionen bekommt + 2 CF, dann wird sich das ganze Gefüge total verschieben.

Die X800er kauft keiner mehr und die R520 wird auch nicht gekauft, da der R580 ja schneller ist.

ATI wird gemerkt haben das es alles nicht so geklappt hat wie es sollte. Die Analysten werden es am besten wissen.

Winter[Raven]
2005-10-02, 15:21:05
Mehr Transistoren? Oder ist das jetzt bekannt das der R580 mehr Transistoren haben wird als der R520?

Denk doch mal logisch nach...

3 Fragment Shaders mehr als im R520 ... merkst du was?

Tomcat70
2005-10-02, 15:22:11
Und wenn der R580 wieder 3 Versionen bekommt + 2 CF, dann wird sich das ganze Gefüge total verschieben.

Die X800er kauft keiner mehr und die R520 wird auch nicht gekauft, da der R580 ja schneller ist.

ATI wird gemerkt haben das es alles nicht so geklappt hat wie es sollte. Die Analysten werden es am besten wissen.

lol, deine logik ist dermassen konfus und falsch das es schon tragisch ist.....

Tarkin
2005-10-02, 15:25:17
http://www.vr-zone.com/?i=2793&s=1

3dMark 2005 Schätzungen von VR-Zone

X1800 XT (625 / 750MHz)
X1800 XT (600 / 700MHz) ~9100+ (Our guess is ~8K)

X1800 XL (550 / 625MHz) ~7000

X1600 XT (600 / 700MHz) ~4900

X1600 XTs Crossfire ~9000

X1600 PRO (500 / 400MHz) 3600-3900

X1300 LE (450 / 250MHz) ~2800


... ziemlicher BS wie ich meine! Wenn die X1300LE schon um die 2.800 hat, dann dürfte wohl eher die X1300 PRO 3.600 Punkte erreichen und nicht die X1600 PRO! Ich schätze dass die X1600 Serie min. 1.000 Punkte mehr haben wir als VR Zone angibt (also knappe 5.000 für die PRO und an die 6.000 für die XT.)

9.500 Punkte für die XT halte ich persönlich für wahrscheinlicher... wobei die XL dann um die 8.000 erreichen dürfte. Eine X1800 PRO oder LE könnte den Bereich um 7.000 abdecken.

deekey777
2005-10-02, 15:27:37
Und wenn der R580 wieder 3 Versionen bekommt + 2 CF, dann wird sich das ganze Gefüge total verschieben.
Und wenn der R580 die R520-Varianten nur ergänzt, wie es zB der R360 aka 9800XT gemacht hat?

Die X800er kauft keiner mehr und die R520 wird auch nicht gekauft, da der R580 ja schneller ist.
S.o.

ATI wird gemerkt haben das es alles nicht so geklappt hat wie es sollte. Die Analysten werden es am besten wissen.
Durch die Verzögerungen des R520 entstand eine neue Situation: Man weiß über dessen Refresh einfach zu viel. Hätte jemand 2002 eine 9700Pro gekauft, wenn er wüßte, daß nur 6 Monate später die höher getaktete 9800Pro kommt und über diese so diskutiert worden wäre, wie jetzt über den R580 diskutiert wird?

Tomcat70
2005-10-02, 15:28:56
neue bilder (und zahlen):

http://www.xtremesystems.org/forums/showthread.php?t=75608&page=2&pp=25

Tarkin
2005-10-02, 15:34:44
neue bilder (und zahlen):

http://www.xtremesystems.org/forums/showthread.php?t=75608&page=2&pp=25

"A guy that he is now at Spain(ibiza) at the official launch of the X1800 informed me that this card at it's default clocks can reach the incredible score of 9700marks at 3Dmark05"

sag ich doch... sogar einen Tick mehr als 9.500 *freu* ;D

Winter[Raven]
2005-10-02, 15:37:20
sag ich doch... sogar einen Tick mehr als 9.500 *freu*
Und was bringen dir diese 9.500? Kannst du dir dafür was kaufen?

Von dem Murks05 auf die reale Performance zuschließen ist ganz schön gewagt, findest du nicht? :hammer:

Die gelbe Eule
2005-10-02, 15:38:26
Warten wir mal die neuen 3dm05 Optimierungen ab ;)

deLuxX`
2005-10-02, 15:41:53
Ich will Benches von realen Spielen sehen. Wer spielt 3DMark? Ich jedenfalls nicht.
Wie kann man nur.......*seufz* ;(

-deLuxX`

P.S. Mit der Grafikkarte kann man jemand erschlagen. Auch wenn das Ding nur 5000 Punkte erreicht. :upara:

Blaire
2005-10-02, 15:42:07
']Und was bringen dir diese 9.500? Kannst du dir dafür was kaufen?

Von dem Murks05 auf die reale Performance zuschließen ist ganz schön gewagt, findest du nicht? :hammer:

Die 3D Mark Werte bekam man schon Anfang diesen Jahres mit 2x6800GT@SLI :D
3D Mark ist relativ egal , wichtig ist wie siehts bei Games aus.

r3ptil3
2005-10-02, 15:43:18
']Denk doch mal logisch nach...

3 Fragment Shaders mehr als im R520 ... merkst du was?

Ich meinte ja auch das mit inbezogen, wie klar das ist?

deekey777
2005-10-02, 15:44:21
Warten wir mal die neuen 3dm05 Optimierungen ab ;)

8 VS und ein VPU-Takt jenseits des Bösen: Das sind die Optimierungen. X-D

Gab es je eine Optimierung für 3D 2005?
Ich will Benches von realen Spielen sehen. Wer spielt 3DMark? Ich jedenfalls nicht.
Wie kann man nur.......*seufz* ;(

-deLuxX`
Das ist schon klar, doch anaderseits: Nenn mir eine Grafikkarte, die 100000000000000 Marks in 3D 2005 schafft, in Spielen aber eine lahme Krücke ist?

Tomcat70
2005-10-02, 15:44:33
Ich will Benches von realen Spielen sehen. Wer spielt 3DMark? Ich jedenfalls nicht.
Wie kann man nur.......*seufz* ;(

-deLuxX`

die werden schon noch kommen ;) ein anhaltspunkt ist es allemal.

Tarkin
2005-10-02, 15:45:00
']Und was bringen dir diese 9.500? Kannst du dir dafür was kaufen?

Von dem Murks05 auf die reale Performance zuschließen ist ganz schön gewagt, findest du nicht? :hammer:

nö, finde ich nicht. Ich glaub schon dass 9.700 Punkte etwas aussagen :wink:

Wir werden es sehen :)

deLuxX`
2005-10-02, 15:47:15
Das ist schon klar, doch anaderseits: Nenn mir eine Grafikkarte, die 100000000000000 Marks in 3D 2005 schafft, in Spielen aber eine lahme Krücke ist?

Ich weiß was du meinst. Trotzdem, 3DMarks interessieren mich nicht. Punkt aus basta. :P

-deLuxX`

Die gelbe Eule
2005-10-02, 16:09:14
lol, deine logik ist dermassen konfus und falsch das es schon tragisch ist.....

Du bist hier gerne auf Flames aus oder?

Schau Dir mal den Thread an, wer alles schon x-lange wartet um sich eine R520 zu kaufen. Die werden auch noch 2-3 Monate länger warten, wenn sie eine R580 bekommen könnten.

Horimoto
2005-10-02, 16:20:52
man kann den 3dmurks sehr wohl zum bestimmen der Perf. benutzen.
Man sollte die Zahl der Punkte jedoch nicht zu Ernst nehmen, da es keine REELEN Spieleszenen sind. Aber sie geben Auskunft über die Kraft der Graka. Mher nicht.
aber man sollte beachten:
Ich schätze der 05er wird von den 512MB profitieren, aber es ist wie man dachte:
wenn man die XT noch etwas oced kommt man auf die 10000+, und das würde heissen, dass die Bilder von vor paar Moanten, mit dem 10300P, stimmen könnte.

BlackBirdSR
2005-10-02, 16:24:02
man kann den 3dmurks sehr wohl zum bestimmen der Perf. benutzen.
Man sollte die Zahl der Punkte jedoch nicht zu Ernst nehmen, da es keine REELEN Spieleszenen sind. Aber sie geben Auskunft über die Kraft der Graka. Mher nicht.
aber man sollte beachten:
Ich schätze der 05er wird von den 512MB profitieren, aber es ist wie man dachte:
wenn man die XT noch etwas oced kommt man auf die 10000+, und das würde heissen, dass die Bilder von vor paar Moanten, mit dem 10300P, stimmen könnte.

der 05er profitiert wohl eher von den VS.
Das ist ja das Unrealistische daran.

reunion
2005-10-02, 16:28:40
']Und was bringen dir diese 9.500? Kannst du dir dafür was kaufen?

Von dem Murks05 auf die reale Performance zuschließen ist ganz schön gewagt, findest du nicht? :hammer:

Die 3dmark-Performance muss auch von irgendwo herkommen.
So wie ich das sehe, bringt Füllrate noch immer am meisten im 3dmark, vielleicht doch tri-TMUs?

Sunrise
2005-10-02, 16:30:10
Schau Dir mal den Thread an, wer alles schon x-lange wartet um sich eine R520 zu kaufen. Die werden auch noch 2-3 Monate länger warten, wenn sie eine R580 bekommen könnten.

Du solltest etwas Logik in deine Posts mit einfließen lassen, dann wären sie deutlich sinniger. Niemand wartet - wie du es hier einigen suggerieren willst - ewig auf eine Grafikkarte. Ebensowenig macht es strategisch Sinn.

Nochmal: R580 wird nicht mit R520 und voraussichtlich auch nicht dieses Jahr erscheinen, da ATi keinesfalls den Channel mit dem Nachfolgemodell blockieren wird. Alles andere macht schlicht keinen Sinn.

Zudem ist es wirtschaftlich absoluter Unsinn, einen deutlich komplexeren Chip auf den Markt zu schieben, der wiederum teurer in der Produktion ist, wenn man bereits R520 auf dem Markt hat, der sehr gut mit einer GTX konkurrieren kann. R580 wird spätestens dann kommen, wenn NV etwas >GTX anzubieten hat und das in Masse. Daran wird voraussichtlich auch ein 512MB-Modell der GTX nichts ändern. R580 schiebt RV560, RV540 und RV505 nach, auch hier wäre das Ersetzen von RV530 und RV515 nicht nur Unsinn, sondern völliger (man muss es leider so deutlich sagen) und absoluter Blödsinn. Diese Karten werden (mit wahrscheinlich erhöhter ALU-Leistung) auch erst dann erscheinen, wenn NV bei den aktuellen Modell von ATi nachzieht, vorher nicht.

Und nochwas: Niemand muss immer 100% schneller sein, das träumen sich nur einige hier sehr gerne zusammen. Es geht um das Gesamtpaket und das wird, soviel kann ich sagen, bei ATi stimmen.

Tomcat70
2005-10-02, 16:31:24
Du bist hier gerne auf Flames aus oder?


oder wer fragt sich.....

reunion
2005-10-02, 16:34:32
Und nochwas: Niemand muss immer 100% schneller sein, das träumen sich nur einige hier sehr gerne zusammen. Es geht um das Gesamtpaket und das wird, soviel kann ich sagen, bei ATi stimmen.

Da ich mal davon ausgehe, dass ihr schon ein Sample von R520 habt, stimmt mich das sehr zuversichtlich. :)

Ronny145
2005-10-02, 16:37:17
Es geht um das Gesamtpaket und das wird, soviel kann ich sagen, bei ATi stimmen.


Gib uns mehr Infos ;)

Tarkin
2005-10-02, 16:40:20
Du solltest etwas Logik in deine Posts mit einfließen lassen, dann wären sie deutlich sinniger. Niemand wartet - wie du es hier einigen suggerieren willst - ewig auf eine Grafikkarte. Ebensowenig macht es strategisch Sinn.

Nochmal: R580 wird nicht mit R520 und voraussichtlich auch nicht dieses Jahr erscheinen, da ATi keinesfalls den Channel mit dem Nachfolgemodell blockieren wird. Alles andere macht schlicht keinen Sinn.

Zudem ist es wirtschaftlich absoluter Unsinn, einen deutlich komplexeren Chip auf den Markt zu schieben, der wiederum teurer in der Produktion ist, wenn man bereits R520 auf dem Markt hat, der sehr gut mit einer GTX konkurrieren kann. R580 wird spätestens dann kommen, wenn NV etwas >GTX anzubieten hat und das in Masse. Daran wird voraussichtlich auch ein 512MB-Modell der GTX nichts ändern. R580 schiebt RV560, RV540 und RV505 nach, auch hier wäre das Ersetzen von RV530 und RV515 nicht nur Unsinn, sondern völliger (man muss es leider so deutlich sagen) und absoluter Blödsinn. Diese Karten werden (mit wahrscheinlich erhöhter ALU-Leistung) auch erst dann erscheinen, wenn NV bei den aktuellen Modell von ATi nachzieht, vorher nicht.

Und nochwas: Niemand muss immer 100% schneller sein, das träumen sich nur einige hier sehr gerne zusammen. Es geht um das Gesamtpaket und das wird, soviel kann ich sagen, bei ATi stimmen.

... für welches Mag bzw. Website schreibst du? (entschuldige die frage ;)

Die gelbe Eule
2005-10-02, 16:43:30
Das der R520 nach Gerüchten erst im Dezember verfügbar sein wird, ist auch bekannt oder?

reunion
2005-10-02, 16:43:49
']Denk doch mal logisch nach...

3 Fragment Shaders mehr als im R520 ... merkst du was?

3 Fragment Shaders mehr pro Pipeline.

Ich meinte ja auch das mit inbezogen, wie klar das ist?

Diese Zahlen wurden von ATi geleakt, und bis jetzt hat sich alles zu 100% bewahrheitet.

Winter[Raven]
2005-10-02, 16:45:17
3 Fragment Shaders mehr pro Pipeline.

Ist klar! Muss dich nicht an jedes Wort ranhängen...

deekey777
2005-10-02, 16:46:41
Das der R520 nach Gerüchten erst im Dezember verfügbar sein wird, ist auch bekannt oder?

Und anderen Gerüchten nach wird die XI800XL gleich nach dem Launch verfügbar sein, ist auch bekannt, oder?
Der RV530 bzw. die XI600er sollen erst im Dezember verfügbar sein, die XI800XT "schon" im November.

Die gelbe Eule
2005-10-02, 16:46:52
Netter Post bei XtremeSystems:

Quote:
Originally Posted by hipro5
I don't think that they have been "sold out to ATI"........macci was fond of ATI.....BUT IF ONLY ATI is the one which invite them all over the world for these events and not NVIDIA, they go......Wouldn't you?......


Maybe, but why would ATi want to do that? Why "buy" some overclockers to give them pre released, handpicked hardware to reach insane scores. This is not fair toward other overclockers. Why don't they let the community decide whether your product is good or not. If it's good, people will automatically use it.

I know it's all PR and stuff, but is it fair? What if Nvidia hires Shamino to do some benches with a G80 engineering sample.

The "hiring" of Sampsa seems to fit in ATi's PR scheme as he was the only one who dared to criticise ATi in the infamous "Look what arrived at castle Grayskull" or something like that thread. Later on he started the "Look what showed up at the front door of Castle Sampsa... " to give ATi a piece of it's own cake.

Annother thing is that crossfire motherboards are nowhere to be found. They simply don't exist (paper launch no xxx). And the X1800XT will only be availabe from the 5th of November on, so that's more than a month before other overclockers can begin to compete.

Tomcat70
2005-10-02, 16:49:29
Netter Post bei XtremeSystems:

was soll daran "nett" sein?

YfOrU
2005-10-02, 16:50:37
zu mehr Transistoren, höhere Fertigungskosten
ich kann mir gut vorstellen dass der R580 trotz mehr Transistoren in der Herstellung nicht teurer evtl sogar billiger ist. Der R580 hat so wie es momentan ausschaut nur ein Tapeout gebraucht. Man konnte ja auch auf die Erfahrung mit dem R520 zurückgreifen. Ich tipp beim R580 auf ne wesentlich höhere Ausbeute weil einfach mehr Zeit war das Design an den Fertigungsprozess anzupassen.

ah übrigens hat die Postanzahl die 3dmark score schon überschritten :D

Die gelbe Eule
2005-10-02, 16:52:38
was soll daran "nett" sein?

[ironie an]nett[/ironie aus]

Ich merke schon, Du siehst einige Posts nur einseitig.

Tomcat70
2005-10-02, 16:56:16
[ironie an]nett[/ironie aus]

Ich merke schon, Du siehst einige Posts nur einseitig.

klar, dann wenn sie einseitig formuliert sind.

ich bin mir noch nicht klar darüber worum es dir bei all deinen postings hier in dem thread überhaupt geht.
neue infos sammeln und spekulieren is ja gut und schön, leider gibts wie überall leute die etwas anderes im sinn haben.

Demirug
2005-10-02, 16:56:33
Die gelbe Eule, kann es sein das dieser hipro5 Sauer ist das er nicht eingeladen wurde?

Sunrise, mir scheint wir betrachten das "Gesamtpaket" aus zwei verschiedenen Blickwinkel.

Die gelbe Eule
2005-10-02, 16:59:17
klar, dann wenn sie einseitig formuliert sind.

ich bin mir noch nicht klar darüber worum es dir bei all deinen postings hier in dem thread überhaupt geht.
neue infos sammeln und spekulieren is ja gut und schön, leider gibts wie überall leute die etwas anderes im sinn haben.

Deiner ignore List nach zu urteilen, finde ich dort nur NVidia Leute. Habe schon in einem anderen Post 5-6 Seiten vorher gesagt, das meine VGA Karte meine Meinung nicht beeinflusst.

Die Tendenz das ATI Besitzer hier im Thread fast ausschließlich mit den höchsten Zahlen herumwerfen, ist eigentlich das größte Problem. Man kann ihnen sagen was man will, sie glauben jeden Scheiß.

Die gelbe Eule, kann es sein das dieser hipro5 Sauer ist das er nicht eingeladen wurde?


So wie er es schreibt ja. Doch warum nicht er eingeladen worden ist, sondern andere "qualifizierte", sagt er ja auch ganz deutlich ;)


Mit dem letzen Satz trifft er übrigens einen wunden Punkt. Wo sind die ganzen CF Boards?

Tomcat70
2005-10-02, 17:04:02
Deiner ignore List nach zu urteilen, finde ich dort nur NVidia Leute.

das sind nvidia-leute? ich denke das formulierst du besser nochmal anders oder willst du damit alle nvidia-user beleidigen? :)

diese leute sind sicher nicht wegen ihrer grafikkarte auf meiner ignore list, darüber kannst du dir getrost sicher sein. allein der wert und inhalt ihrer beiträge hat sie dorthin gebracht.

Black-Scorpion
2005-10-02, 17:04:24
Welche Meinung?

Schau dir deine Posts doch mal selber genau an.
Du schmeißt fast immer nur Brocken in den Raum ohne direkte Aussage.

Tomcat70
2005-10-02, 17:08:40
Die Tendenz das ATI Besitzer hier im Thread fast ausschließlich mit den höchsten Zahlen herumwerfen, ist eigentlich das größte Problem. Man kann ihnen sagen was man will, sie glauben jeden Scheiß.

mal langsam mit den jungen hunden.

Sunrise
2005-10-02, 17:09:58
Sunrise, mir scheint wir betrachten das "Gesamtpaket" aus zwei verschiedenen Blickwinkel.

;)

MadManniMan
2005-10-02, 17:15:43
Mal ein wenige Off-Topic: könnten wir uns bitte von diesem Thread trennen, sobald der Countdown am Dienstag abgelaufen ist?

Demirug
2005-10-02, 17:26:59
Mal ein wenige Off-Topic: könnten wir uns bitte von diesem Thread trennen, sobald der Countdown am Dienstag abgelaufen ist?

Dann machen wir einen ofiiziellen auf und diesen hier zu.

MadManniMan
2005-10-02, 17:41:46
Dann machen wir einen ofiiziellen auf und diesen hier zu.

Vielen lieben Dank! :massa:

Ailuros
2005-10-02, 17:47:34
Zudem ist es wirtschaftlich absoluter Unsinn, einen deutlich komplexeren Chip auf den Markt zu schieben, der wiederum teurer in der Produktion ist, wenn man bereits R520 auf dem Markt hat, der sehr gut mit einer GTX konkurrieren kann. R580 wird spätestens dann kommen, wenn NV etwas >GTX anzubieten hat und das in Masse. Daran wird voraussichtlich auch ein 512MB-Modell der GTX nichts ändern. R580 schiebt RV560, RV540 und RV505 nach, auch hier wäre das Ersetzen von RV530 und RV515 nicht nur Unsinn, sondern völliger (man muss es leider so deutlich sagen) und absoluter Blödsinn. Diese Karten werden (mit wahrscheinlich erhöhter ALU-Leistung) auch erst dann erscheinen, wenn NV bei den aktuellen Modell von ATi nachzieht, vorher nicht.

G70 Nachfolger wann etwa nach Deiner Meinung?


Und nochwas: Niemand muss immer 100% schneller sein, das träumen sich nur einige hier sehr gerne zusammen. Es geht um das Gesamtpaket und das wird, soviel kann ich sagen, bei ATi stimmen.

Hmmmm wehe wenn jemand etwas aeltere Spiele benutzt; im mainstream ist dann die Texelfuellrate um mehr als 3x mal so hoch. Es wird zwar behauptet dass durch X oder Y dafuer kompensiert werden soll, aber dafuer ist mir der Unterschied zu gewaltig.

dr_mordio
2005-10-02, 17:49:48
neue bilder (und zahlen):

http://www.xtremesystems.org/forums/showthread.php?t=75608&page=2&pp=25

interessant ist auch der eine post dort, wo erwähnt wird, das bei den karten die corespannung per software eingestellt werden kann. so ist es möglich die karte wohl doch noch etwas weiter nach oben zu kitzeln :smile: vorallem für leute mit einer wasserkühlung könnte das interesannt sein.

MfG
Alex

Ailuros
2005-10-02, 17:54:40
Fuer >600 euro ist mir so ein Feuerwerk ein bisschen zu teuer *hust*

SentinelBorg
2005-10-02, 17:54:52
Finds auch lol, wie sich hier über diese Vorabwerte gestritten wird. Genauso aber auch, wie man sie mit den jetzigen 7800GTX Werten vergleicht.
Falls die X1800 wirklich so schnell ist, wird Nvidia sicher direkt am Launchtag oder spätestens einen Tag später eine 7800Ultra oder wie auch immer rausbringen. 480 Mhz Coretakt und 512 MB 750 Mhz Speicher stellen mal absolut 0 Problem dar und dürften dann wieder Gleichstand bedeuten.

Sentinel

deekey777
2005-10-02, 17:55:35
Dann machen wir einen ofiiziellen auf und diesen hier zu.

Das letzte Posting: "War wohl nix mit Anfang 2005..." :biggrin:
Das Moderationsteam wird eher damit beschäftigt sein, die unzähligen Threads im Diskussionsbereich, aber insbesondere im Hilfebereich zu schliessen.

Sunrise
2005-10-02, 17:57:47
G70 Nachfolger wann etwa nach Deiner Meinung?

Den richtigen und ernstzunehmenden Nachfolger erwarte ich nicht vor Q1/2006. Alles andere würde mich doch sehr überraschen.

PS: Nice new avatar, looks like there´s some fancy HDR going on there. ;) Schreibst du dort mit ?

Die gelbe Eule
2005-10-02, 18:01:32
Finds auch lol, wie sich hier über diese Vorabwerte gestritten wird. Genauso aber auch, wie man sie mit den jetzigen 7800GTX Werten vergleicht.
Falls die X1800 wirklich so schnell ist, wird Nvidia sicher direkt am Launchtag oder spätestens einen Tag später eine 7800Ultra oder wie auch immer rausbringen. 480 Mhz Coretakt und 512 MB 750 Mhz Speicher stellen mal absolut 0 Problem dar und dürften dann wieder Gleichstand bedeuten.

Sentinel

Man vergleicht natürlich auch nur die Werte mit alten 7800GTX Treibern. Siehe den 81.82 Thread, wo SLI User mit X2 CPUs glatt 1.5K Punkte mehr haben.

deekey777
2005-10-02, 18:06:09
Man vergleicht natürlich auch nur die Werte mit alten 7800GTX Treibern. Siehe den 81.82 Thread, wo SLI User mit X2 CPUs glatt 1.5K Punkte mehr haben.

Man vergleicht immer mit den offiziell veröffentlichten Treibern oder mit Treibern, die kurz vor der Veröffentlichung stehen, oder Treibern, die noch im "Beta-Stadium" sind, aber zB notwendige Bug-Fixes haben, um so eine Vergleichbarkeit zu gewährleisten.

Winter[Raven]
2005-10-02, 18:10:15
Den richtigen und ernstzunehmenden Nachfolger erwarte ich nicht vor Q1/2006. Alles andere würde mich doch sehr überraschen.

PS: Nice new avatar, looks like there´s some fancy HDR going on there. ;) Schreibst du dort mit ?

Nun, Nvidia ist seit dem NV40 immer für eine Überraschung gut...

Black-Scorpion
2005-10-02, 18:11:10
Und wieviele Punkte bringt der Treiber bei anderen mehr die keinen X2 haben?

deekey777
2005-10-02, 18:11:17
']Nun, Nvidia ist seit dem NV40 immer für eine Überraschung gut...

Was war am NV40 oder dem G70 so überraschend?

Ailuros
2005-10-02, 18:44:01
Den richtigen und ernstzunehmenden Nachfolger erwarte ich nicht vor Q1/2006. Alles andere würde mich doch sehr überraschen.

Auf das wollte ich aber hinaus. Ob man jetzt R580 als "refresh" ansieht oder als Ergaenzung zur R5xx Linie, er wird in sehr kurzer Zeit nachgeschoben.

PS: Nice new avatar, looks like there´s some fancy HDR going on there. ;) Schreibst du dort mit ?

LOL ein ausgezeichnetes Auge mein Herr. Photoshop CS2 9.0 und die bescheidenen Versuche eines Laien. Logo fuer eine neue Webseite. Mitschreiben? Ich hab das domain gekauft ;)

Ailuros
2005-10-02, 18:47:47
Was war am NV40 oder dem G70 so überraschend?

Fuer ATI selber vieles; erstmal bezweifelte man dass sie es schaffen SM3.0 in 130nm reinzuquetschen und zweitens erschienen 6 quads in 110nm genauso unglaubwuerdig.

Coda
2005-10-02, 18:47:57
Was war am NV40 oder dem G70 so überraschend?Am G70 war überraschend, dass er zum einen für einen Refresh mehr Pipelines hatte und zum anderen sofort verfügbar war.

seahawk
2005-10-02, 18:50:55
Hmm, sieht aus als ob der R520 besser performt als erwartet. Für die benchmarkjünger wird er sehr sehr spannend.

deekey777
2005-10-02, 18:56:12
Fuer ATI selber vieles; erstmal bezweifelte man dass sie es schaffen SM3.0 in 130nm reinzuquetschen und zweitens erschienen 6 quads in 110nm genauso unglaubwuerdig.

Am G70 war überraschend, dass er zum einen für einen Refresh mehr Pipelines hatte und zum anderen sofort verfügbar war.

Waren wirklich diese Überraschungen gemeint?

SKYNET
2005-10-02, 19:07:36
Hmm, sieht aus als ob der R520 besser performt als erwartet. Für die benchmarkjünger wird er sehr sehr spannend.


ich gebe ihm gegen den G70 keine chance. ;)

Sunrise
2005-10-02, 19:15:18
LOL ein ausgezeichnetes Auge mein Herr. Photoshop CS2 9.0 und die bescheidenen Versuche eines Laien. Logo fuer eine neue Webseite. Mitschreiben? Ich hab das domain gekauft ;)

Sieht gut aus, gefällt mir sehr. Rys scheint sich dort ja schonmal sehr wohl zu fühlen. ;)

Tomcat70
2005-10-02, 19:18:10
die ersten oc-versuche sind schon am gange.

stand derzeit: 856/1880...lol

Horimoto
2005-10-02, 19:24:47
woher?

Coda
2005-10-02, 19:24:51
die ersten oc-versuche sind schon am gange.

stand derzeit: 856/1880...lolWohl kaum mit Lüftkühlung.

SKYNET
2005-10-02, 19:25:56
Wohl kaum mit Lüftkühlung.


wenn es macci ist der die taktet, ist es mit ner dual-cascade!

Tomcat70
2005-10-02, 19:27:19
woher?

beyond3d-forum

Hellfire-Torrod
2005-10-02, 19:27:29
wenn es macci ist der die taktet, ist es mit ner dual-cascade!

Oder eben mit LN2 welches die dort in massen haben

TheCounter
2005-10-02, 19:28:23
die ersten oc-versuche sind schon am gange.

stand derzeit: 856/1880...lol

Mit was für einer eXtreme Kühlung? Und Speicher der mit 940MHz läuft? Das glaub ich erst wenn ich es sehe.

Coda
2005-10-02, 19:29:13
856 wären 13696MTexel/s, dafür bräuchte man bei G70 570Mhz.

Tomcat70
2005-10-02, 19:29:39
Wohl kaum mit Lüftkühlung.

kühlung ist nicht bekannt, wohl aber irgendwas teuflisches, dieser takt ist aber erst der anfang wies scheint.

Die gelbe Eule
2005-10-02, 19:36:00
856 wären 13696MTexel/s, dafür bräuchte man bei G70 570Mhz.

VR-Zone hat schon ne 810MHz GTX im Orb. ;D

up¦²
2005-10-02, 19:37:59
Ehm, schon bekannt?

http://www.thelab.gr/attachment.php?s=&postid=290590

http://www.thelab.gr/attachment.php?s=&postid=290593

Woche 37 ... backfrisch szsg.

http://www.xtremesystems.org/forums/showthread.php?t=75608&page=1&pp=25

Die gelbe Eule
2005-10-02, 19:39:43
Seit Seite 503 ;)

deLuxX`
2005-10-02, 19:47:16
Was ich mich die ganze Zeit frage....warum versuchte ATI den R520 so krampfhaft hochzutakten wenn es doch z.B. 100Mhz weniger Takt auch gereicht hätten um einen Patt zu erreichen oder zumindest etwas schneller als G70 zu sein?
Ich denke ATI rechnet damit, dass nVIDIA eine größere Variante des G70 nachschiebt und sie deswegen ein Polster brauchen um nicht bei diesem Speedupdate seitens nV doof dastehen. Es wäre ein leichtes, 512MiB höhergetakteten Speicher auf das PCB zu löten.
Zwar meinte nV vor einiger Zeit zwar, dass sie keinen höhergetakteten G70 bräuchten um gegen R520 zu bestehen aber ich denke das war einfach nur Taktik. Oder sie hatten damals noch nicht so weite Einsichten in die Entwicklung des R520.
Eine andere Möglichkeit wäre natürlich auch, dass 700Mhz Speicher eben nicht wirklich verfügbar ist und es dementsprechend düster um die Verfügbarkeit des XT Modells besteht. Der wirkliche Gegner wäre dann die XL.

So, das war jetzt alles sehr viel Speku. :tongue:

-deLuxX`

Coda
2005-10-02, 19:51:16
Was ich mich die ganze Zeit frage....warum versuchte ATI den R520 so krampfhaft hochzutakten wenn es doch z.B. 100Mhz weniger Takt auch gereicht hätten um einen Patt zu erreichen oder zumindest etwas schneller als G70 zu sein?Weil er selbst mit 600Mhz gar nicht soo viel schneller als G70 sein wird?

Winter[Raven]
2005-10-02, 19:51:22
Was ich mich die ganze Zeit frage....warum versuchte ATI den R520 so krampfhaft hochzutakten wenn es doch z.B. 100Mhz weniger Takt auch gereicht hätten um einen Patt zu erreichen oder zumindest etwas schneller als G70 zu sein?

Wer hat gesagt das der R520 schneller ist? Ich glaube du hast etwas falsch verstanden.

deLuxX`
2005-10-02, 19:58:29
Schon klar. Ich bin einfach mal davon ausgegangen, dass die 9100 Punkte im 3DMark stimmen und das die Karte in Spielen auch schneller ist.
Es schwirrt grad so viel durch die Luft....bin ja schon ruhig :usad:

-deLuxX`

3d
2005-10-02, 19:59:50
Ich denke ATI rechnet damit, dass nVIDIA eine größere Variante des G70 nachschiebt und sie deswegen ein Polster brauchen um nicht bei diesem Speedupdate seitens nV doof dastehen. das ist ja wohl logisch.
Wer hat gesagt das der R520 schneller ist? Ich glaube du hast etwas falsch verstanden. es gibt noch leute die glauben der R520 wird langsamer als die GTX?

Coda
2005-10-02, 20:00:59
es gibt noch leute die glauben der R520 wird langsamer als die GTX?In manchen Benchmarks wird das sogar ziemlich sicher so sein.

SKYNET
2005-10-02, 20:03:50
VR-Zone hat schon ne 810MHz GTX im Orb. ;D


ja, shamino hat mal wieder gerockt... :up:

Tomcat70
2005-10-02, 20:04:00
es gibt noch leute die glauben der R520 wird langsamer als die GTX?

man müsste das anders formulieren, es gibt eher einige leute die noch immer hoffen das er langsamer ist ;) traurig, aber wahr.......

Winter[Raven]
2005-10-02, 20:05:10
In einem Spiel wir der R520 etwas minimal schneller sein, in einem anderem die GTX, es gibt einfach keinen Gewinner!

Die gelbe Eule
2005-10-02, 20:13:08
Laut DFI sollen CF Boards in U.S.A. 229$ kosten, wird also ein teurer Spaß ...

deekey777
2005-10-02, 20:26:11
Wohl kaum mit Lüftkühlung.
Vielleicht mit Sapphires Blizzard? ;D

LovesuckZ
2005-10-02, 20:32:01
Deiner ignore List nach zu urteilen, finde ich dort nur NVidia Leute.

OT:
Und ich habe noch nie mit ihm diskutiert. :|

StefanV
2005-10-02, 20:33:41
']Nun, Nvidia ist seit dem NV40 immer für eine Überraschung gut...
Und die wären?!

Ich hab bisher keine Überraschungen von nV Wahrgenommen, wenn man mal vom Flimmern der nV40 und insbesondere G70 absieht...

SKYNET
2005-10-02, 20:37:34
Und die wären?!

Ich hab bisher keine Überraschungen von nV Wahrgenommen, wenn man mal vom Flimmern der nV40 und insbesondere G70 absieht...


welches flimmern? daß, das man bei HQ nicht sieht? :rolleyes:

sulak
2005-10-02, 20:37:37
Ist zwar OffTopic aber der Thread glänzt ja nicht gerade durch seine größe ^^

TSAA war eine positive Überaschung seitens NV, HDR könnte man dazu nehmen, aber viele verwechseln das ja immer noch mit SM3...

Die gelbe Eule
2005-10-02, 20:39:13
welches flimmern? daß, das man bei HQ nicht sieht? :rolleyes:

Seit 81.82 gibt es gar kein flimmern mehr :wink:

Johnny Rico
2005-10-02, 21:01:14
Ich frage mich warum NV nicht zu GF6 Zeiten was gegen das flimmern unternommen hat?...

sulak
2005-10-02, 21:07:19
Ganz einfach, da war das Geschrei nicht so groß ^^
Da die Diskussion ums flimmern mit dem G70 richtig ins Rollen kam hat man was tun müssen, beim NV40 gabs aber auch so eine Geschichte, der haben wir den "Clamp" Schalter im Treiber zu verdanken, weil das LOD öfters ins Negative abgerutscht ist.

€: Das es "gar" nicht mehr flimmert ist allerdings nicht richtig... aber halt relativ im Auge des Betrachters liegend *g

mbee
2005-10-02, 21:48:15
man müsste das anders formulieren, es gibt eher einige leute die noch immer hoffen das er langsamer ist ;) traurig, aber wahr.......

Wer sollte darauf hoffen? Wenn er wider Erwarten doch so viel schneller sein sollte, muss NV nachschieben und die Preise purzeln, so what?
Ich sehe hier eigentlich fast nur "normale" Beiträge, die nicht biased sind, und einige Ausnahmen bei denen ich mich frage, ob diese Leute nachts in ATI- oder NV-Bettwäsche schlafen...
So was kann ich bei 14-15-jährigen Kiddies verstehen und selbst da wird's schon grenzwertig.

Winter[Raven]
2005-10-02, 21:52:31
Wer sollte darauf hoffen? Wenn er wider Erwarten doch so viel schneller sein sollte, muss NV nachschieben und die Preise purzeln, so what?
Ich sehe hier eigentlich fast nur "normale" Beiträge, die nicht biased sind, und einige Ausnahmen bei denen ich mich frage, ob diese Leute nachts in ATI- oder NV-Bettwäsche schlafen...
So was kann ich bei 14-15-jährigen Kiddies verstehen und selbst da wird's schon grenzwertig.

Leider ist das seine Argumentationsart, irgendetwas reinwerfen, keine Quellen, keine Bestätigungen und sobald man nicht mehr argumentieren kann, wird man persönlich ... und kurze Zeit später ist man auf der Ignorliste... :|

//THEMA

Eigentlich kann man von ATI auch erwarten das dieser mindestens gleichzieht mit Nvidia.

seahawk
2005-10-02, 22:19:29
ich gebe ihm gegen den G70 keine chance. ;)

In relevanten Benchmarks gebe ich dem G70 keine Chance. :wink:

Demirug
2005-10-02, 22:29:32
Ich mache gleich eine Poll auf da könnt ihr dann dieses Lustige Spiel weiter spielen.

3d
2005-10-02, 22:31:45
Eigentlich kann man von ATI auch erwarten das dieser mindestens gleichzieht mit Nvidia. ein gleichziehen mit der GTX wäre eine katastrophe und die totale niederlage.
ati kennt die leistung der gtx und wird nicht so dumm sein ein chip auf den markt zu bringen, der nur gleichzieht.
10-20% mehrleistung ist ein realistischer wert.

deekey777
2005-10-02, 22:39:35
Ich mache gleich eine Poll auf da könnt ihr dann dieses Lustige Spiel weiter spielen.

Das würde aber die Ernsthaftigkeit dieses Threads zerstören.



:biggrin:

Enterprise
2005-10-02, 22:51:15
Ich als ATi Anhänger, gönnen ATi gar nichts mehr. 3 Monate Verspätung und dann nur 16pp? Auch wenn die Leistung net schlecht ist, was ja nicht feststeht, hoffe ich das ATi keinen Blumentopf gewinnt!

Tomcat70
2005-10-02, 22:54:46
Wer sollte darauf hoffen?

lol, scherzfrage, oder?

Ailuros
2005-10-02, 23:38:18
Und die wären?!

Ich hab bisher keine Überraschungen von nV Wahrgenommen, wenn man mal vom Flimmern der nV40 und insbesondere G70 absieht...

Wurde zwar schonmal wiederholt beantwortet vor ein paar Seiten, aber wenn ich jetzt gemein sein will dann hat mit ATI mit fehlendem SM3.0 in R420 und mit einer >6 monatigen Verspaetung im R520 "ueberrascht" und das ist eben die andere Seite der Muenze.

Ailuros
2005-10-02, 23:43:46
Ich als ATi Anhänger, gönnen ATi gar nichts mehr. 3 Monate Verspätung und dann nur 16pp? Auch wenn die Leistung net schlecht ist, was ja nicht feststeht, hoffe ich das ATi keinen Blumentopf gewinnt!

Die Einstellung kann ich jetzt bei bestem Willen nicht verstehen. Die Tatsache dass der R520 nur 4 quads hat, heisst jetzt bei weitem nicht dass er nicht konkurrenzfaehig oder ein schlechter chip ist.

reunion
2005-10-03, 00:11:07
Wenn man auf ATi.com das Datum auf den 5.10. stellt, erscheint inzwischen ein Banner mit folgender Aufschrift:

"Enter the World of Visual Velocity"
"Ultra-high Image Quality:
"What's Next? 10/05/05"

deekey777
2005-10-03, 00:16:28
"Enter the World of Visual Velocity" -> 3D 2005 X-D
"Ultra-high Image Quality" -> Hm, das wird schon schwieriger, ASST&ASD und ASBT, was die Bildqualität verbessern sollte.
"What's Next? 10/05/05" -> R580.

Ailuros
2005-10-03, 00:22:52
"Enter the World of Visual Velocity" -> 3D 2005 X-D
"Ultra-high Image Quality" -> Hm, das wird schon schwieriger, ASST&ASD und ASBT, was die Bildqualität verbessern sollte.
"What's Next? 10/05/05" -> R580.

Nein, nein und nein. Das ist der 5. Oktober 2005 oben.

MadManniMan
2005-10-03, 00:25:25
Ich als ATi Anhänger, gönnen ATi gar nichts mehr. 3 Monate Verspätung und dann nur 16pp? Auch wenn die Leistung net schlecht ist, was ja nicht feststeht, hoffe ich das ATi keinen Blumentopf gewinnt!

Wie Ailuros schon sagte: warum ist die Anzahl an Pipelines für die ein Totschlagargument? Zählt nicht tatsächlich, was unterm Strich bei der Sache herauskommt?

Coda
2005-10-03, 00:31:27
"Ultra-high Image Quality:ATi hat auch schon R420 mit "HD"-Gaming beworben *gähn*

Aber man wird zumindest die Subpixelpräzision usw. eventl. etwas erhöht haben, das hilft auch im Workstation-Markt.

sulak
2005-10-03, 00:45:56
"Enter the World of Visual Velocity" = schnelles SM3 (muss man ja so verkaufen, letztes Jahr meinten sie man bringt es erst wenns schnell genug angeboten werden kann)

"Ultra-high Image Quality: = HDR + AA? ^^

Blaze
2005-10-03, 01:17:50
"Ultra-high Image Quality: = HDR + AA? ^^

Definitiv nicht.

deekey777
2005-10-03, 01:20:05
Definitiv nicht.

Was definitiv nicht? HDR+AA? Es wird spekuliert, daß der R520 dies kann.

mapel110
2005-10-03, 01:23:00
Was definitiv nicht? HDR+AA? Es wird spekuliert, daß der R520 dies kann.
Warum baut es Valve nicht ein?

Coda
2005-10-03, 01:23:17
Was definitiv nicht? HDR+AA? Es wird spekuliert, daß der R520 dies kann.Das große Problem dabei ist die Color-Compression. Ohne geht zwar auch, aber das wäre bei 64bit Framebuffern ein absolutes Todesurteil für die Framerate.

Sagen wir so: Mich würd's nicht wundern wenn R520 es nicht kann. Ich würde mich nichtmal darüber wundern, wenn er kein FP-Blending hat. Wobei das wirklich unwahrscheinlich ist.

sulak
2005-10-03, 01:28:57
Ok, dann wird Ultra High Image Quality reines Marketing sein, um höhere AA Modi zu verkaufen.
Kann mir nicht vorstellen das man am Texturefilter was gedreht hat, schließlich hat man mit der Winkelabhängigkeit ein gutes Stück Leistung gewonnen, das gibt man nicht mehr auf.

Coda
2005-10-03, 01:31:20
Ok, dann wird Ultra High Image Quality reines Marketing sein, um höhere AA Modi zu verkaufen.
Kann mir nicht vorstellen das man am Texturefilter was gedreht hat, schließlich hat man mit der Winkelabhängigkeit ein gutes Stück Leistung gewonnen, das gibt man nicht mehr auf.Eigentlich hatte R200 noch viel mießeres AF als R480 ;)

mapel110
2005-10-03, 01:31:23
schließlich hat man mit der Winkelabhängigkeit ein gutes Stück Leistung gewonnen...
... und Bildqualität verloren. Aber da sollte man wirklich keine größeren Veränderungen erwarten.
/edit
"Bildqualität verloren" ist wohl der falsche Begriff bei ATI. Sie boten nie was besseres in Sachen AF.

deekey777
2005-10-03, 01:33:22
Warum baut es Valve nicht ein?

Warum denkt man gleich an VALVe? :D

Diese Frage habe ich mir auch schon gestellt, warum die 3. HDR-Implementierung noch nicht benutzt wird, sondern für DoD:S und Lost Toast nur die vierte. Vielleicht liegt es daran, daß VALVe allen zeigen will, daß deren HDR nur wenig Performance kostet und die Besitzer einer NV4x keine dummen Fragen stellen, warum die Performance so stark sinkt.

Das große Problem dabei ist die Color-Compression. Ohne geht zwar auch, aber das wäre bei 64bit Framebuffern ein absolutes Todesurteil für die Framerate.

Sagen wir so: Mich würd's nicht wundern wenn R520 es nicht kann. Ich würde mich nichtmal darüber wundern, wenn er kein FP-Blending hat. Wobei das wirklich unwahrscheinlich ist.

Irgendwo war zu lesen, daß der R520 das FP-Blending nicht beherrschen soll.

Ailuros
2005-10-03, 01:33:31
Eigentlich hatte R200 noch viel mießeres AF als R480 ;)

Da aber die AF Qualitaet seit dem R100 konstant gestiegen ist, spricht es eher fuer den R520.

tEd
2005-10-03, 01:33:39
warum wird hier über sachen spekuliert welche schon 100% sicher sind?

deekey777
2005-10-03, 01:35:38
warum wird hier über sachen spekuliert welche schon 100% sicher sind?

Genau, wir könnten auch Konjuktiv benutzen. Sorry.

mapel110
2005-10-03, 01:35:49
Das große Problem dabei ist die Color-Compression. Ohne geht zwar auch, aber das wäre bei 64bit Framebuffern ein absolutes Todesurteil für die Framerate.

Sagen wir so: Mich würd's nicht wundern wenn R520 es nicht kann. Ich würde mich nichtmal darüber wundern, wenn er kein FP-Blending hat. Wobei das wirklich unwahrscheinlich ist.
Es ist doch totsicher, dass man es als Entwickler explizit berücksichtigen muss, wenn eine Hardware HDR+AA kann?
Will sagen, zum Beispiel Farcry bräuchte einen Patch bzw größere Überarbeitung, damit HDR+AA geht?!

Deswegen kann man doch wohl davon ausgehen, dass R520 es nicht kann, weil Valve kein echtes HDR+AA eingebaut hat?!

StefanV
2005-10-03, 01:39:31
Da aber die AF Qualitaet seit dem R100 konstant gestiegen ist, spricht es eher fuer den R520.
Eben, genau das ist der Punkt :)

ATi hat von Generation zu Generation eigentlich immer was am AF, an den Pipes und am FSAA gedreht...

R100 konnte nur 'Software AA' (ie OG, maximal 4x), R200 hingegen schonmal untergewissen Umständen RGSSAA, R300 dann SSMSAA...

Beim AF wars ähnlich, beim R100 wars voll fürn Arsch (kommt bitte nicht mit 'ner 7500 aka RV200, die hat nämlich NICHT das R100 AF!!), beim R200 teilweise brauchbar aber immer noch nur Bi, beim R300 endlich auch mit Trilinearer Filterung nutztbar...

Bei den Pipes wars auch nicht 'unkreativer', erst fing man mit 3 an (ok, eigentlich 2,5, siehe Zecke), dann ging man auf 2 und schließlich auf 1 runter, da kann man durchaus bei der nächsten Generation auf eine Änderung hoffen ;)

deekey777
2005-10-03, 01:39:51
Es ist doch totsicher, dass man es als Entwickler explizit berücksichtigen muss, wenn eine Hardware HDR+AA kann?
Will sagen, zum Beispiel Farcry bräuchte einen Patch bzw größere Überarbeitung, damit HDR+AA geht?!

Deswegen kann man doch wohl davon ausgehen, dass R520 es nicht kann, weil Valve kein echtes HDR+AA eingebaut hat?!

Es liegt eher an der aktuellen Hardware, daß das HDR in Far Cry und SC3 nur ohne MSAA benutzt werden kann. SSAA geht aber schon. :sneak:

mapel110
2005-10-03, 01:42:47
Es liegt eher an der aktuellen Hardware, daß das HDR in Far Cry und SC3 nur ohne MSAA benutzt werden kann. SSAA geht aber schon. :sneak:
Aber afaik meinte glaube Neomi, dass selbst mit entsprechender Hardware Farcry eine Überarbeitung bräuchte, damit es funktioniert; da muss was programmiertechnisch geändert werden und nicht blos gefixt werden.

Ailuros
2005-10-03, 01:49:57
R100 konnte nur 'Software AA' (ie OG, maximal 4x), R200 hingegen schonmal untergewissen Umständen RGSSAA, R300 dann SSMSAA...

OGSS ist nicht SW AA, mit oder ohne Anfuehrungsstriche. R200 haette eigentlich R300 aehnliches AA haben sollen, was dabei schief gelaufen ist, ist heutzutage egal.

Beim AF wars ähnlich, beim R100 wars voll fürn Arsch (kommt bitte nicht mit 'ner 7500 aka RV200, die hat nämlich NICHT das R100 AF!!), beim R200 teilweise brauchbar aber immer noch nur Bi, beim R300 endlich auch mit Trilinearer Filterung nutztbar...

Vom Tri AF auf R300 mal abgesehen, die wichtigste Aenderung war in den Winkeln wo die Filterung geaendert wurde.

Bei den Pipes wars auch nicht 'unkreativer', erst fing man mit 3 an (ok, eigentlich 2,5, siehe Zecke), dann ging man auf 2 und schließlich auf 1 runter, da kann man durchaus bei der nächsten Generation auf eine Änderung hoffen ;)

Och das mit den 3 TMUs war eins der bloedesten Experimente ueberhaupt.

deekey777
2005-10-03, 01:52:21
Aber afaik meinte glaube Neomi, dass selbst mit entsprechender Hardware Farcry eine Überarbeitung bräuchte, damit es funktioniert; da muss was programmiertechnisch geändert werden und nicht blos gefixt werden.

Das würde mich nicht wundern. Na ja, dafür ist Far Cry ein Klasse-Spiel, man kann den Entwickler doch einiges verzeihen.

mapel110
2005-10-03, 02:32:23
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=251865
Bezüglich R100 AF gehts da weiter.
Habs mal rausgesplitet, weils mich auch interessiert. :)

tEd
2005-10-03, 03:03:45
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1300-2.jpg

HDR und AA

deekey777
2005-10-03, 03:06:34
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg

HQ 16x AF :naughty:

Aber man hat ja mit dem R420 auch die volle trilineare Filterung geliefert - wenn man die MipMaps einfärbte...

http://www.techpowerup.com/reviews/ATI/R5XX/

mapel110
2005-10-03, 03:15:24
Also das wäre echt krass. Wenn das alles so eintrifft, ist der R520 wohl bildqualitätstechnisch klar überlegen.

deekey777
2005-10-03, 03:17:44
Wo sind bloß die Angaben zur Texelfüllrate?

r3ptil3
2005-10-03, 03:18:11
:eek:

Ailuros
2005-10-03, 03:18:26
Nicht so eilig.....;)

sulak
2005-10-03, 03:21:05
Nett ^^
Aber übers HDR sprechen wir nochmal 10:10:10:2 is ja schräg...
Leider nix genaues zu den AA Modi, da muss ein Artikel her wie das AA ohne "performance hit" eingebaut wurde!
Zwicklige Lage, mal gespannt wie sich der R520 in Flimmer-Szenarien schlägt, das ein Grund zum Wechsel, wenn die Performance stimmt!

€: wie berechnet man die "AA-Sampels/sec" ?

http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-4.jpg

deekey777
2005-10-03, 03:26:51
Nicht so eilig.....;)

Wie jetzt? Klingt das ganze zu gut, um wahr zu sein?


€: Kein Wort zu Lost Toast? Hat man bei VALVe etwa umsonst geschuftet?

mapel110
2005-10-03, 03:27:49
Wie jetzt? Klingt das ganze zu gut, um wahr zu sein?
Irgendeinen Haken muss die Sache wohl haben, aber ich kann mir nicht vorstellen welchen. ;(
Wenn das auf den Folien der "Ingame-Wahrheit" (tm) entspricht, geht ja eigentlich kaum ein Weg am R520 vorbei. :eek:

Ailuros
2005-10-03, 03:28:58
Der Unterschied sollte Dich nicht wundern da es 6x vs. 4x MSAA samples sind.

Tomcat70
2005-10-03, 03:30:22
wow, nun gehts los:

http://www.techpowerup.com/reviews/ATI/R5XX/

Ailuros
2005-10-03, 03:31:57
Wie jetzt? Klingt das ganze zu gut, um wahr zu sein?

Wohl noch nie was von kreativem Marketing gehoert oder? Ueberlasse lieber mal die Analysen und Benchmarks den unabhaengigen Quellen im Netz bevor mir jemand jetzt begeistert herumhuepft und glaubt dass er das 8.Wunder vor sich hat. Ich weiss sehr genau wovon ich rede, muss aber weiterhin wie verstaendlich meine Klappe halten.

Ailuros
2005-10-03, 03:33:28
€: Kein Wort zu Lost Toast? Hat man bei VALVe etwa umsonst geschuftet?

Dann lern mal zwischen die Zeilen zu lesen: fuer beste Leistung FP10 EDR... :rolleyes:

deekey777
2005-10-03, 03:34:40
Dann lern mal zwischen die Zeilen zu lesen: fuer beste Leistung FP10 EDR... :rolleyes:

Die Zeile habe ich übersprungen.

Ailuros
2005-10-03, 03:37:03
Tjaja was Begeisterung alles ausmacht.....hehehe es gibt noch mehr mal sehen wie gut ihr beim zwischen den Zeilen lesen seit....

deekey777
2005-10-03, 03:38:35
Tjaja was Begeisterung alles ausmacht.....hehehe es gibt noch mehr mal sehen wie gut ihr beim zwischen den Zeilen lesen seit....

Haha.
Die Sprüche zu HDR sind für mich etwas verwirrend. ;(

sulak
2005-10-03, 03:42:38
Naja im Grunde selbe Geschichte wie bei SM2.0, da langte auch 24Bit Präzision erstmal, dreht man halt bei HDR die Farbbereiche so zurecht das es "performant" und ansehnlich läuft, ist ja die Philosophie etwas nur dann na zubieten wenn mans "performant" in Hardware unterstützt.

Tomcat70
2005-10-03, 03:43:10
wer hat nochmal schnell gesagt das in FEAR g70 den r520 in den boden stampfen soll?

das wird wohl nix ;)

deekey777
2005-10-03, 03:46:30
wer hat nochmal schnell gesagt das in FEAR g70 den r520 in den boden stampfen soll?

das wird wohl nix ;)

512MB. Das könnte ausschlaggebend sein.

Ailuros
2005-10-03, 03:48:42
FEAR SP? Hat das Ding ueberhaupt ein timedemo? ;)

sulak
2005-10-03, 03:53:13
Da steht gar nix genaues bei den Settings, also unbrauchbar seit wann kann der G70 AA bei HDR in Splinter Cell ^^

Apples to Apples pls

Ramtakt bei 750MHz is mal HOT ^^

Tomcat70
2005-10-03, 03:54:59
also ich muss sagen, das neue AA/AF beeindruckt mich am meisten bisher, das und alles andere gehört natürlich noch genauer auf den prüfstein.

Tomcat70
2005-10-03, 04:04:03
Kein Wort zu Lost Toast? Hat man bei VALVe etwa umsonst geschuftet?

das war sicher nicht umsonst, schliesslich ging es um unterstützung möglichst vieler hardware die draussen ist.

MadManniMan
2005-10-03, 04:08:44
also ich muss sagen, das neue AA/AF beeindruckt mich am meisten bisher, das und alles andere gehört natürlich noch genauer auf den prüfstein.

Das AA war ja schon immer toll und das TSSAA für mich nach der G70 Vorlage eigentlich erwartet, wenn dieser Anspruch auch mit Risiko verbunden war ... aber die AF-Qualität haut mich echt von den Socken.
Kein Scheiß, mein Blutdruck ist grad sonstwo :D

BiG OnE
2005-10-03, 04:09:17
Moin, moin

Da steht gar nix genaues bei den Settings, also unbrauchbar seit wann kann der G70 AA bei HDR in Splinter Cell
also ich lese da etwas von 1600x1200/4xAA 8xAF.

Bis denne ...

dr_mordio
2005-10-03, 04:17:45
jep, ich seh die angaben auch :smile:

aber die BQ sieht gut aus. ati hatte damals beim beginn der entwicklung sicher nicht damit gerechnet das nv TRAA anbieten würde. und daher haben sie sicher auch nicht an sowas gedacht. aber als der g70 kam und das traa so gut aufgenommen wurde, haben sie es wohl bei einem respinn noch mit eingebaut. und das wird wohl nicht das einzige sein, was mit der zeit noch dazu kam. denn um nur ein paar massetransistoren einzubauen, braucht man sicher nicht so eine lange verzögerung.

alles in allem finde ich die BQ recht gelungen. selbst wenns im reallife nur halb so gut rüberkommt, dann wird die karte wohl den weg in meinen rechner finden :smile:

MfG
Alex

sulak
2005-10-03, 04:29:38
Moin, moin


also ich lese da etwas von 1600x1200/4xAA 8xAF.

Bis denne ...

Dann schau mal genauer was da steht: Splintercell - Chaos Theory - HDR

Sind einige Rechtschreibfehler in den Folien, der Pressemann gehört geschlagen für sowas unsauberes ^^

Winter[Raven]
2005-10-03, 07:19:37
Und jetzt warten wir auf non ati benches...

Tomcat70
2005-10-03, 07:25:33
512MB. Das könnte ausschlaggebend sein.


selbst wenn sich nvidia mit einer ultra zurückmelden sollte, sieht der r520 vom featureset her für mich wesentlich interessanter aus. das ist es was mich eigentlich sehr überrascht.
so viele hier haben doch genau das von ATI gefordert, erhöhung der BQ und genau dies wird von ihnen geliefert + nette performance.

Ailuros
2005-10-03, 07:40:50
Ausser dem angeblichen schnellerem dynamischen branching, sehe ich bei weitem nicht den uebertollen SM3.0 chip und da spielen eben noch ein paar Kleinigkeiten mit die auf solchen PR-Franzen selbstverstaendlich nicht auftauchen.

Demirug
2005-10-03, 08:43:11
Da steht gar nix genaues bei den Settings, also unbrauchbar seit wann kann der G70 AA bei HDR in Splinter Cell ^^

Und seit wann kann das Splinter Cell überhaupt? HDR AA muss immer aktiv vom Spiel unterstützt werden. So einfach über das Treiber Panel kann man das nicht aktivieren.

Zudem wollen wir mal hoffen das ATI den "Treiberbug" welcher in einer dafür unbedingt notwenigen Funktionen schon seit Ewigkeiten vorhanden ist endlich beseitigt hat.

Tomcat70
2005-10-03, 08:43:37
Ausser dem angeblichen schnellerem dynamischen branching, sehe ich bei weitem nicht den uebertollen SM3.0 chip und da spielen eben noch ein paar Kleinigkeiten mit die auf solchen PR-Franzen selbstverstaendlich nicht auftauchen.

mir erscheint er jedenfalls wesentlich positiver als von dir (und manch anderen) in der vergangenheit vorhergesehen.
ausserdem hat ATI schliesslich 3 neue modellreihen vorgestellt und nicht nur eine karte. und in summe gesehen bin ich somit positiv überrascht, da kannst du noch so sehr dagegen sein ;)

Ailuros
2005-10-03, 08:51:10
mir erscheint er jedenfalls wesentlich positiver als von dir (und anderen) in der vergangenheit vorhergesehen.
ausserdem hat ATI schliesslich 3 neue modellreihen vorgestellt und nicht nur eine karte. und in summe gesehen bin ich somit positiv überrascht, da kannst du noch so sehr dagegen sein ;)


Was mainstream ueberhaupt betrifft wuerde ich im Angesicht von der 7600 schon mal gar nichts sagen an Deiner Stelle. Was den Rest betrifft, ein hauseigenes PR-Gefusel zeigt selbstverstaendlich nur den Anteil den ATI selber zeigen will. Wo hast Du je solches Material gesehen dass von den negativen Seiten eines eigenen Produktes spricht?

Was den Rest betrifft, klinge ich so oder so als der Depp des Dorfes mit meiner endlosen Blubberei, aber R520 ist ja tatsaechlich Anfang 2005 angekommen und mein Kalender liest verkehrt rum und er hat 6 bzw. 8 quads nur ich kann sehr sehr schlecht zaehlen. Markier mal diesen Post ausnahmsweise und ich komm spaeter nochmal fuer Erlaeuterungen zurueck, wenn ich es auch darf.

Demirug
2005-10-03, 08:53:35
mir erscheint er jedenfalls wesentlich positiver als von dir (und anderen) in der vergangenheit vorhergesehen.

Phase der Euphorie. Tritt auf nachdem die mit massivem Eigenlob durchsetzten Angaben des Herstellers auftauchen. Dieser Phase folgt in der Regel eine Ernüchterung nachdem die Dinge bekannt werden welche der Hersteller bewusst nicht in seinen Angaben aufführt.

ausserdem hat ATI schliesslich 3 neue modellreihen vorgestellt und nicht nur eine karte. und in summe gesehen bin ich somit positiv überrascht, da kannst du noch so sehr dagegen sein ;)

Sie mussten 3 Modellreihen vorstellen weil ihnen so langsam die Felle wegschwimmen. Sie haben ja auch lange genug dazu gebraucht das Top 2 Down mal konsequent durchzuziehen.

Tomcat70
2005-10-03, 09:03:06
Phase der Euphorie. Tritt auf nachdem die mit massivem Eigenlob durchsetzten Angaben des Herstellers auftauchen. Dieser Phase folgt in der Regel eine Ernüchterung nachdem die Dinge bekannt werden welche der Hersteller bewusst nicht in seinen Angaben aufführt.

euphorisch fühle ich mich keineswegs, eher liegt das bisher gezeigte im rahmen meiner erwartung bzw. leicht darüber.


Sie mussten 3 Modellreihen vorstellen weil ihnen so langsam die Felle wegschwimmen. Sie haben ja auch lange genug dazu gebraucht das Top 2 Down mal konsequent durchzuziehen.

das ATI spät dran ist bestreitet hier wohl niemand, dennoch sehe ich zur zeit die neuen modelle als gelungenes paket an.

Mayhem
2005-10-03, 09:05:03
Ähm, seit wann kann 6600 TRAA? Steht da im Vergleich zur X1600...

TheCounter
2005-10-03, 09:23:28
Bessere AF Qualität und HDR + AA, das teil ist gekauft :)

Meine R9800 liegt sowieso im sterben, dann hol ich mir ne X1800XL. Auch wenn sie langsamer ist als die 7800GTX. Die Bildqualität ist mir wichtiger.

LovesuckZ
2005-10-03, 10:04:40
Bessere AF Qualität und HDR + AA, das teil ist gekauft :)


Jo, das größte Geheimnis ist gelueftet:
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg

DIe XL wird so gut wie gekauft, vielleicht sogar in Crossfire.

mapel110
2005-10-03, 10:10:42
Und seit wann kann das Splinter Cell überhaupt? HDR AA muss immer aktiv vom Spiel unterstützt werden. So einfach über das Treiber Panel kann man das nicht aktivieren.

Ah danke. Also hat uns wohl Valve veräppelt, was ihre HDR-Modi angeht und wir werden bei dem Spiel einen HDR-AA-Mode sehen?!

Coda
2005-10-03, 10:20:44
Winkelunabhängiges AF :eek:

gekauft!

Obwohl: Vielleicht schält nVIDIA ja noch was im Treiber frei bei der G70 - immerhin schlechter als bisher ging das AF ja auch ;)

Adam D.
2005-10-03, 10:22:26
*Panik* Verdammt, wo krieg ich das Geld für die Karte her? ;D

Coda
2005-10-03, 10:23:11
Ah danke. Also hat uns wohl Valve veräppelt, was ihre HDR-Modi angeht und wir werden bei dem Spiel einen HDR-AA-Mode sehen?!AA geht bei Valve eh auf allen Karten, wie ich das bisher verstanden habe.

Demirug
2005-10-03, 10:23:19
Ah danke. Also hat uns wohl Valve veräppelt, was ihre HDR-Modi angeht und wir werden bei dem Spiel einen HDR-AA-Mode sehen?!

Valve hat den Code dafür vielleicht schon drin. Es ist nicht besonders schwer. Zudem hat Value ja auch mindestens einen HDR Modus der gar kein HDR Rendertarget nutzt und da geht AA ja mit allen Karten.

Demirug
2005-10-03, 10:26:46
Jo, das größte Geheimnis ist gelueftet:
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg

DIe XL wird so gut wie gekauft, vielleicht sogar in Crossfire.

Wobei ich auf Bilder aus einem AF-Tester nichts mehr geben würde. Den bei ATI gilt dort schon lange "What you see is what you will never get".

Alles was das Bild sagt ist das die Karte weitgehend Winkelunabhängig die Mipmaps wechseln kann wenn sie will.

Coda
2005-10-03, 10:28:41
ATi hat allerdings bisher immer verstanden die subjektive Bildqualität nicht zu verschlechter.

Demirug
2005-10-03, 10:34:40
ATi hat allerdings bisher immer verstanden die subjektive Bildqualität nicht zu verschlechter.

Ich sage ja nicht das es schlecht ist. Man sollte nur eben seine Entscheidung nicht von einem Bild abhängig machen das erwissenermassen nicht die ganze Wahrheit zeigt.

Coda
2005-10-03, 10:40:28
Ich behalte eh beide Karten, dann kann ich euch gerne genauer Bericht erstatten ;)

dr_mordio
2005-10-03, 10:41:37
auf folie 3 steht unten rechts dieses:

the Radeon x1800 introduces a new high quality anisotropic filtering mode that makes textures look beter than ever....
und auf einer weiteren folie steht auch noch was von einem nuen HQ-AA.
es ist immerhin möglich, das dieser neue modus nicht per default on ist, aber sich immerhin im ccc aktivieren lässt.
vielleicht ist ja genau diese nahezu vollkommene winkelunabhängikeit, das was ati als unerwartete überraschung angekündigt hat???

MfG
Alex

kalle28
2005-10-03, 11:00:18
@Demirug

Das was man gerade lesen kann ist doch eine faustdicke Überraschung, damit hat doch keiner, vor allem die ganzen Kritiker in diesem Thread, nicht gerechnet.

Warum liest man von Dir nur Kritisches zum Thema ATI. Vieles sollte doch auch dich begeistern bzw. zumindest dazu veranlassen, nicht alles in solch ein schlechtes Licht zu stellen. Du weißt doch selbst, welchen Einfluß Du als Fachmann hier ausübst. Und ich lese von Dir hier eigentlich immer nur Kritisches über ATI. Man muß doch auch mal seine vorgefertigte Meinung über Bord werfen können.

Das soll kein Angriff sein und schon gar nicht auf Dein fachliches KH. Ich lese hier im Forum schon eine ganze Weile mit und das ist der Eindruck, welchem ich mit der Zeit einfach gewonnen habe.

BodyLove
2005-10-03, 11:14:39
@kalle28

Weil er weiß, wie das Marketing arbeitet.

Demirug
2005-10-03, 11:16:36
@Demirug

Das was man gerade lesen kann ist doch eine faustdicke Überraschung, damit hat doch keiner, vor allem die ganzen Kritiker in diesem Thread, nicht gerechnet.

Warum liest man von Dir nur Kritisches zum Thema ATI. Vieles sollte doch auch dich begeistern bzw. zumindest dazu veranlassen, nicht alles in solch ein schlechtes Licht zu stellen. Du weißt doch selbst, welchen Einfluß Du als Fachmann hier ausübst. Und ich lese von Dir hier eigentlich immer nur Kritisches über ATI. Man muß doch auch mal seine vorgefertigte Meinung über Bord werfen können.

Das soll kein Angriff sein und schon gar nicht auf Dein fachliches KH. Ich lese hier im Forum schon eine ganze Weile mit und das ist der Eindruck, welchem ich mit der Zeit einfach gewonnen habe.

Das ich bei ATI vielleicht etwas kritischer bin kommt daher das sie mich Quantitativ wie auch Qualitativ versuchen mehr reinzulegen als nVidia.

Zum anderen bin ich primär immer noch ein Entwickler was berufsbedingt dann dazu führt das ich einen anderen Blickwinkel haben. Aus dieser Sicht kann und muß ich alles auf das ich keinen Einfluss habe (AF/AA-Verfahren usw.) erst mal ignorieren. Da zählt dann nur ob mir eine Karte/Chip das Leben leichter oder schwerer macht.

Ronny145
2005-10-03, 11:18:05
Bisher bin begeistert, was ich so gelesen haben. Hoffentlich bewahrheitet sich das. Sollte es nicht noch eine X1800 Pro geben?

reunion
2005-10-03, 13:48:14
Perfektes, winkelunabhängiges 16x fultri AF! :eek:

Xmas
2005-10-03, 13:53:29
Es ist weder perfekt noch völlig winkelunabhängig, aber zumindest eine deutliche Verbesserung.

reunion
2005-10-03, 13:54:38
Also das wäre echt krass. Wenn das alles so eintrifft, ist der R520 wohl bildqualitätstechnisch klar überlegen.

Wobei da irgendwo ein Haken liegen muss IMHO.
Weniger Füllrate, wesentlich leistungsfressenderes AF, und trotzdem laut ATi deutlich mehr Leistung?!

reunion
2005-10-03, 13:59:49
Es ist weder perfekt noch völlig winkelunabhängig, aber zumindest eine deutliche Verbesserung.

Richtig, bei 45° scheint es noch eine leichte "Auswölbung" zu geben, sonst erscheint der Kreis allerdings relativ rund - jedenfalls kein Vergelich zu dem, was man bis jetzt vorgesetzt bekommen hat.

Xmas
2005-10-03, 14:11:49
Richtig, bei 45° scheint es noch eine leichte "Auswölbung" zu geben, sonst erscheint der Kreis allerdings relativ rund - jedenfalls kein Vergelich zu dem, was man bis jetzt vorgesetzt bekommen hat.
Quadratur des Kreises? Für die erste Mip-Stufe ist der Kreis ein Quadrat ;)
Danach wirds etwas seltsam, und dann kommen die vom NV2x-AF bekannten Blumen mit der Eindellung bei 45°.

Ailuros
2005-10-03, 14:14:18
Richtig, bei 45° scheint es noch eine leichte "Auswölbung" zu geben, sonst erscheint der Kreis allerdings relativ rund - jedenfalls kein Vergelich zu dem, was man bis jetzt vorgesetzt bekommen hat.

Das sieht eher nach einem auf 45 Grad orientiertem Quadrat aus; DeltaChrome's 16xAF Abbildung im AF Tester ist da um einiges runder, was aber im Fall vom letzteren nicht heisst dass es besser als R4xx AF insgesamt ist am Ende.

Das soll jetzt gar nichts fuer R520 heissen, nur dass Filterungs-Tester Abbildungen leider nicht das Ganze Bild zeigen koennen. AF muss man in Echtzeit sehen.

reunion
2005-10-03, 14:23:05
Quadratur des Kreises? Für die erste Mip-Stufe ist der Kreis ein Quadrat ;)
Danach wirds etwas seltsam, und dann kommen die vom NV2x-AF bekannten Blumen mit der Eindellung bei 45°.

Thx, so genau hab' ich gar nicht hingesehen, ATi hat das Bild allerdings auch verdammt klein visualisiert.

//Edit: Wobei beim NV3x die ersten Mips auch eher quadratisch sind:

http://www.3dcenter.org/images/r9800xt_vs_gffx5950u/af-test_fx_d3d_af08.png

Ist da wirklich ein Unterschied zum R520?

Das soll jetzt gar nichts fuer R520 heissen, nur dass Filterungs-Tester Abbildungen leider nicht das Ganze Bild zeigen koennen. AF muss man in Echtzeit sehen.

Natürlich muss man das in Echtzeit sehen.
Trotzdem dürfte diese Methode ein wesentlich homogeneres Bild liefern, als dieses 2-16x AF, dass ATi und nV aktuell abliefern. Alle Winkel werden weitestgehend gleich stark gefiltert.

Demirug
2005-10-03, 14:29:39
Wobei da irgendwo ein Haken liegen muss IMHO.
Weniger Füllrate, wesentlich leistungsfressenderes AF, und trotzdem laut ATi deutlich mehr Leistung?!

Nur bezieht sich das alles auf die gleiche Einstellung?

Lightning
2005-10-03, 14:48:53
Eben. Nie und nimmer würde ATi freiwillig seine Karten zu Benchmarkzwecken mit besserer Bildqualität als die der Konkurrenz laufen lassen.
Ich gehe schon davon aus, dass da einige "Optimierungen" bei ATi aktiviert waren. Wahrscheinlich ist winkelabhängiges AF im Treiber Standard.

seahawk
2005-10-03, 15:03:51
Sieht doch toll aus, was ATI da verspricht.

deekey777
2005-10-03, 15:18:15
Sieht doch toll aus, was ATI da verspricht.
http://users.skynet.be/bk377321/DSC00087.JPG
Und mit diesem Inhalt glaubt man alles.

Ailuros
2005-10-03, 15:19:09
Natürlich muss man das in Echtzeit sehen.
Trotzdem dürfte diese Methode ein wesentlich homogeneres Bild liefern, als dieses 2-16x AF, dass ATi und nV aktuell abliefern. Alle Winkel werden weitestgehend gleich stark gefiltert.

Kein Zweifel ist es toll zu haben und ich werde auch selber unruhig eine R520 in die Haende zu bekommen, aber aus Leistungsgruenden bezweifle ich dass dieser modus wirklich nutzvoll fuer Benchmarks ist.

reunion
2005-10-03, 15:23:41
Achja, Coda: With added precision for Mipmap LOD and trilinear interpolation (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3452455#post3452455 :D

Blaze
2005-10-03, 15:25:00
http://users.skynet.be/bk377321/DSC00087.JPG
Und mit diesem Inhalt glaubt man alles.

Tja, man muss wohl schon ordentlich besoffen sein um an den Erfolg zu glauben.

*SCNR*

seahawk
2005-10-03, 15:29:44
http://users.skynet.be/bk377321/DSC00087.JPG
Und mit diesem Inhalt glaubt man alles.

Jo, Gin auf Ibiza war ja - bääähhh !! Sangria wäre lustig gewesen.

Sunrise
2005-10-03, 16:19:25
Eben. Nie und nimmer würde ATi freiwillig seine Karten zu Benchmarkzwecken mit besserer Bildqualität als die der Konkurrenz laufen lassen.
Ich gehe schon davon aus, dass da einige "Optimierungen" bei ATi aktiviert waren. Wahrscheinlich ist winkelabhängiges AF im Treiber Standard.

Wenn die Kompetenz der Reviewer im gleichen Maße wie die Leistung der Karten zugenommen hätte, würden wir vor diesem "Problem" heute nicht stehen. Insofern hat ein IHV praktisch garkeine andere Wahl, als die Balken spielen zu lassen und die Qualität zurück zu nehmen. Wenn ATis Entscheidungen in dieser Übergangsphase nicht als positiv interpretiert werden, dann bin ich wohl der Erste der sauer ist.

aths
2005-10-03, 16:35:48
@Demirug

Das was man gerade lesen kann ist doch eine faustdicke Überraschung, damit hat doch keiner, vor allem die ganzen Kritiker in diesem Thread, nicht gerechnet. Doch, z. B. ich.

Warum liest man von Dir nur Kritisches zum Thema ATI. Vieles sollte doch auch dich begeistern bzw. zumindest dazu veranlassen, nicht alles in solch ein schlechtes Licht zu stellen. Du weißt doch selbst, welchen Einfluß Du als Fachmann hier ausübst. Und ich lese von Dir hier eigentlich immer nur Kritisches über ATI. Man muß doch auch mal seine vorgefertigte Meinung über Bord werfen können.

Das soll kein Angriff sein und schon gar nicht auf Dein fachliches KH. Ich lese hier im Forum schon eine ganze Weile mit und das ist der Eindruck, welchem ich mit der Zeit einfach gewonnen habe.Demirug hat recht, wenn er sagt, dass man angesichts dieses Screenshots vom AF-Tester nicht gleich in Jubel ausbrechen sollte. Es ist bekannt, dass ATI schon in früheren Karten Mechanismen hatte, um zu verschleiern dass jene Programme die ganze Wahrheit zeigen. Außerdem kann dieser Tester in dieser Einstellung sowieso nur einen Ausschnitt der AF-Qualität wiedergeben. Das Bild sagt keineswegs, dass der R520 AF-Qualität auf NV20-Niveau bieten wird. Dazu sind weitere Tests erforderlich.

aths
2005-10-03, 17:11:54
Ist da wirklich ein Unterschied zum R520?Ja. Einerseits kann der R520 zumindest bei aktiven MIP-Map-Colors trilinear filtern (dein Shot ist stark brilinear), dafür zeigt der R520-Shot andere Probleme, und zwar bezüglich der LOD-Bestimmung.

Ailuros
2005-10-03, 17:27:24
Demirug hat recht, wenn er sagt, dass man angesichts dieses Screenshots vom AF-Tester nicht gleich in Jubel ausbrechen sollte. Es ist bekannt, dass ATI schon in früheren Karten Mechanismen hatte, um zu verschleiern dass jene Programme die ganze Wahrheit zeigen. Außerdem kann dieser Tester in dieser Einstellung sowieso nur einen Ausschnitt der AF-Qualität wiedergeben. Das Bild sagt keineswegs, dass der R520 AF-Qualität auf NV20-Niveau bieten wird. Dazu sind weitere Tests erforderlich.

Es soll gut aussehen bis jetzt, ist aber noch verdammt vorzeitig. Auf jeden Fall erstmal Kudos fuer ATI dass sie auf manche Meckermaeule doch gehoert haben. Das "Bravo" bin ich ihnen trotz allem schuldig :)

StefanV
2005-10-03, 17:43:17
Bessere AF Qualität und HDR + AA, das teil ist gekauft :)

Meine R9800 liegt sowieso im sterben, dann hol ich mir ne X1800XL. Auch wenn sie langsamer ist als die 7800GTX. Die Bildqualität ist mir wichtiger.
Ich denke nicht, das die R520 immer und überall langsamer ist als die G70, zumindest in der XT Variante, stichwort FSAA ;)

Horimoto
2005-10-03, 17:57:34
ich tippe mal die XL wird etwas langsamer sein als die GTX. Wenn se dann noch perfekte BQ bietet, ist sie wohl gekauft.......
Die XT wirds zum launch wohl nciht geben, schad weil ich schon 512MB haben wollte.........vor allem wegen FEAR und Ut2007, ES4.........

MikBach
2005-10-03, 17:59:53
Ich denke nicht, das die R520 immer und überall langsamer ist als die G70, zumindest in der XT Variante, stichwort FSAA ;)
:rolleyes:
Und ich denke, dass der G70 nicht überall langsemer wird...

Ich denke, jedem sollte klar sein, dass weder der G70 noch der R520 so dominant sein können, dass sie den Gegner in ALLEN Spielen und Einstellungen schlagen können.

Deswegen lese ich gerne Reviews, wo viele Spiele getestet werden.
Ich warte schon brennend auf das Review bei XbitLabs. :)

Ailuros
2005-10-03, 18:05:32
Ich denke nicht, das die R520 immer und überall langsamer ist als die G70, zumindest in der XT Variante, stichwort FSAA ;)

Mit 625MHz koennten sie theoretisch schon einen leichten Vorsprung haben im Durchschnitt; es hapert eben leider dann an der Verfuegbarkeit fuer eine gewisse Zeitspanne.

seahawk
2005-10-03, 18:23:25
GT<GTX<XL<XT ist nicht unmöglich

Andrerseits sind die ATI Benches auch nicht mit einem 80er Det gefahren worden.

Horimoto
2005-10-03, 18:25:13
80er bingt aber NUR was in Verbindung mit DC CPu, oder?
Dann kann man das so nciht vergleichen...

Blaire
2005-10-03, 18:30:58
80er bingt aber NUR was in Verbindung mit DC CPu, oder?
Dann kann man das so nciht vergleichen...

Nicht nur...

Blaze
2005-10-03, 18:31:29
80er bingt aber NUR was in Verbindung mit DC CPu, oder?
Dann kann man das so nciht vergleichen...

Nein...in FEAR z.B. hatte ich locker 10 FPS mehr (min. FPS wohlgemerkt, Avg. waren es noch etwas mehr) als mit 77.77 ... und wie du siehst hab ich nen Singlecore...

seahawk
2005-10-03, 18:35:07
80er bingt aber NUR was in Verbindung mit DC CPu, oder?
Dann kann man das so nciht vergleichen...

a) mit welchen Catalyst wurde getestet ;)
b) nicht nur

LovesuckZ
2005-10-03, 19:11:47
Zur Verfügbarkeit der Karten:
http://www.nvnews.net/vbulletin/showthread.php?t=57535

/edit: ich hoffe nicht, dass dies ganzen Verfügbarkeitstheorien eintreffen. Das waere ein wirklich schlechter Scherz von ATi, wenn selbst die XL Version nur in sehr geringen auf den Markt kommen, wenn sie es überhaupt nach Europa schaffen wird.
Das was sie mit dem AF an Sympathien herausholen, werden sie wohl bei einigen mit der, hoffentlich nicht standfindenen, Papier - Produktvorstellung wieder einbüßen.

GT<GTX<XL<XT ist nicht unmöglich

Die XL ist ziemlich weit nach rechts gerutsch. ;)
Imo müsste es so aussehen: GT = XL < GTX < XL

Horimoto
2005-10-03, 19:16:48
Die XL sollte die GT schlagen.
Wenn die Xl ein OC Wunder ist, was ich sehr hoffe, und die miserable Verfügbarkeit nur wegen des RAMs bei der XT ist, dann wird die XL gekauft.......
Sie müsste OCd nur auf dem niveau einer GTX rechnen, dann wäre sie perfekt, dank BQ (ich hoffe die ist so wie von ATi angedeutet)

LovesuckZ
2005-10-03, 19:20:14
Die XL sollte die GT schlagen.


Sie hat die selben "Spezifikation" bezueglich der Füllrate, der Speicherbandbreite und der Speichermenge.
Einzig der Preis ist mit über 120€ wohl deutlich hoeher und die Verfuegbarkeit, ich hoffe ehrlich nicht, deutlich schlechter.
Ob Sie sich gut übertakten laesst? Ich denke mit dem Single - Slot Kühler nicht wirklich, sonst braeuchte man den großeren bei der XT nicht.

Coda
2005-10-03, 19:23:53
Achja, Coda: With added precision for Mipmap LOD and trilinear interpolation (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3452455#post3452455 :DOk, hast gewonnen *Besen kaut*

reunion
2005-10-03, 19:35:30
Fast schon lustig finde ich die Tatsache, dass die X1300PRO eine höhere Füllrate als die X1600XT erreicht.
Aber dafür hat die X1600 8 VS, 12 ALUs und 8 ROPs :hammer:

Mich würde wirklich mal intressieren, was sich ATi dabei gedacht hat.
Wie soll dieser Chip denn auf die versprochene Leistung kommen?

reunion
2005-10-03, 19:44:43
Frage:
Hat jemand eine Ahnung, was ATi unter "native Display Quality" versteht?
R520 soll 10-bit haben, G70 8-bit.

Coda
2005-10-03, 19:47:51
Frage:
Hat jemand eine Ahnung, was ATi unter "native Display Quality" versteht?
R520 soll 10-bit haben, G70 8-bit.Das ist dieses komische 10:10:10:2 Format dass Matrox mal eingeführt hat. Ist ganz nett wenn man damit von HDRR darauf runterkonvertiert wird ist Banding praktisch völlig ausgeschlossen. Direkt draufrendern ist oft nicht möglich, weil die Alphakomponente mit 2bit einfach zu klein ist.

Mich würde wirklich mal intressieren, was sich ATi dabei gedacht hat.
Wie soll dieser Chip denn auf die versprochene Leistung kommen?Das frage ich mich schon beim R520.