PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 zieht nur nach!!??


Android
2005-09-15, 19:04:47
Laut den Angaben, die bis heute verfügbar sind wird der R520 nicht das was er mal werden sollte.
ATI hatte definitiv vor Nvidia deutlich zu überholen. Das wird ihnen warscheinlich nicht mehr gelingen.
Gründe sind mit Sicherheit in den Fertigungsproblemen zu suchen.
Durch die Herabsetzung auf 16 Pixel-Pipelines kann der R520 nur noch über seine Taktfrequenz mit der 7800 GTX konkurrieren. Spätere Modelle werden diese Problematik vielleicht nicht mehr haben, aber was heisst "später" ?

Warscheinlich wird es wie folgt aussehen: Der R520 wird von der Bildqualität besser sein als die 7800 GTX. Gerade solche Flimmertexturen wie sie bei der 7800 GTX auftreten, werden nicht zu erwarten sein. Die Leistung wird ähnlich der 7800 GTX sein. Die Kombination von zwei Grafikkarten über Crossfire wird flexibler sein als die SLI-Variante.
Wichtig ist auch, ob es möglich sein wird, Crossfire auf nicht ATI-Chipsätzen zu aktivieren. Denn der Nforce4 hat sich bislang mehr als gut verkauft.

Ganz ehrlich: Wenn der R520 eine bessere Bildqualität als die 7800 bietet, würde ich sie mir holen. Ich bin jedoch gespannt wie ATI versuchen will, mit der doch vergleichsweise unspektakulären Leistung des R520, Nforce und Nvidia Besitzer zum Wechsel zu überreden.


Wie gesagt, noch sind keine ausführlichen Benchmarks aufgetaucht. Auch über die Bildqualität ist nichts bekannt. Jedoch glaube ich nicht mehr an ein Performancewunder seitens ATI.

Umbrella,Inc.
2005-09-15, 20:29:14
Hallo,

woher hast Du denn die Infos mit den 16 Pipelines? Ich dachte immer es sollten 32 sein?! Jetzt bin ich wirklich etwas verängstigt....

Danke für Antwort.

deLuxX`
2005-09-15, 20:35:37
Öhm..... :|
Es werden zu 100% 16 Pipes.
Guck dich mal im Spekuthread zum R520 um.

P.S. Die Pipelines alleine sagen rein garnichts über die Leistung des ganzen Chips aus.

-deLuxX`

Coda
2005-09-15, 20:35:56
Durch die Herabsetzung auf 16 Pixel-Pipelines kann der R520 nur noch über seine Taktfrequenz mit der 7800 GTX konkurrieren.Es ist nichts "herabgesetzt" worden, das Ding war nie anders geplant.

Warscheinlich wird es wie folgt aussehen: Der R520 wird von der Bildqualität besser sein als die 7800 GTX. Gerade solche Flimmertexturen wie sie bei der 7800 GTX auftreten, werden nicht zu erwarten sein.Das Problem ist beim G70 inzwischen auch gelöst.

deekey777
2005-09-15, 20:39:09
Ich bin's fürs Closen. Wenn der Threadstarter seine Meinung trotzdem kundmachen will, dann im R520-Thread, im CF-Thread und vielleicht im "nV betrügt"-Thread.

Umbrella,Inc.
2005-09-15, 20:39:37
Wie komme ich denn darauf, das 32 Pipelines angekündigt waren? :|
Hoffentlich werden wir bald wissen, ob sich das warten gelohnt hat.... :cool:

Monger
2005-09-15, 20:53:37
Ich bin auch so ein bißchen überrascht. Ich hätte jetzt von ATI nichts anderes als eine bahnbrechende Karte erwartet. Aber anscheinend zieht man mit nVidia nur mühsam gleich...

Lokadamus
2005-09-15, 21:09:47
Öhm..... :|
Es werden zu 100% 16 Pipes.
Guck dich mal im Spekuthread zum R520 um.

P.S. Die Pipelines alleine sagen rein garnichts über die Leistung des ganzen Chips aus.

-deLuxX`mmm...

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juli/ati_ausbeute_r520_16_pipelines/ :| ... die Pipelines sind es aber immer wieder, die bei jedem Leistungsschub erhöht wurden ...

deekey777
2005-09-15, 21:14:06
mmm...

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juli/ati_ausbeute_r520_16_pipelines/ :| ... die Pipelines sind es aber immer wieder, die bei jedem Leistungsschub erhöht wurden ...

Und? Nur weil CB diese sinnlose News, ohne viel nachzudenken, abschrieb, macht sie auch nicht richtiger. Der 520 hatte nie, nie mehr als 16 Pipelines. Da wurde weder hochgetaktet und deaktiviert noch wird was später aktiviert.

Coda
2005-09-15, 21:15:10
Die Computerbase-Meldung ist Müll. Es werden ganz sicher 16 Pixelpipelines, dafür aber 600Mhz.

deekey777
2005-09-15, 21:20:10
Die Computerbase-Meldung ist Müll. Es werden ganz sicher 16 Pixelpipelines, dafür aber 600Mhz.

Nein, es wurden 8 Pixelpipelines deaktiviert, damit der R520 anstatt bei 500 MHz mit 600 MHz läuft. :ulol:

Ob es für einige Leute so schwer ist, die letzten 20-30 Seiten des R520 Speku-Threads durchzulesen. :|

Coda
2005-09-15, 21:28:25
Das blödeste an der "Pipes deaktivieren" Theorie ist ja, dass es noch nie viel gebracht hat um mehr Takt zu bekommen.

Botcruscher
2005-09-15, 22:46:53
Leute last doch einfach mal den Speku-Mist. Wen es so weit ist schön, aber nicht ohne irgendwelche Bensches usw.

Annihilator
2005-09-16, 01:29:45
Nein, es wurden 8 Pixelpipelines deaktiviert, damit der R520 anstatt bei 500 MHz mit 600 MHz läuft. :ulol:

Ob es für einige Leute so schwer ist, die letzten 20-30 Seiten des R520 Speku-Threads durchzulesen. :|


ja ne, is klar...

500*24 = 12000
600*16 = 9600

was nun wohl sinniger ist... :|

Coda
2005-09-16, 01:39:37
Leute last doch einfach mal den Speku-Mist. Wen es so weit ist schön, aber nicht ohne irgendwelche Bensches usw.Das ist keine Spekulation mehr. Anandtech hat verlässliche Informationen von ATI.

Die XT hat 600Mhz und 16 Pipelines.

deekey777
2005-09-16, 01:54:01
ja ne, is klar...

500*24 = 12000
600*16 = 9600

was nun wohl sinniger ist... :|

Du hast es erfaßt. :biggrin:

-error-
2005-09-16, 02:02:52
Im 3D Mark 05 soll die X1800 XT aber vor der 7800GTX liegen und das recht deutlich.

Coda
2005-09-16, 02:06:17
Im 3D Mark 05 soll die X1800 XT aber vor der 7800GTX liegen und das recht deutlich.Vertexshader *hust*

deekey777
2005-09-16, 02:07:01
Im 3D Mark 05 soll die X1800 XT aber vor der 7800GTX liegen und das recht deutlich.

8VS und mind. 600MHz. Da kann man sich schon einiges zusammenrechnen.

Ailuros
2005-09-16, 03:58:33
Im 3D Mark 05 soll die X1800 XT aber vor der 7800GTX liegen und das recht deutlich.

Du wirst aber den Unterschied bei 600MHz in hunderten zaehlen koennen.

Die gelbe Eule
2005-09-16, 04:06:30
Naja die meisten 7800GTX gehen locker 490MHz/1300MHz stable, sonst würde nicht jeder Hinz&Kunz diese Versionen auf den Markt werfen. Und mit 60MHz/100MHz mehr Takt, wird die Welt schon ganz anders aussehen.

Nvidia hat also noch Taktreserven und das nicht zu knapp. Eine überarbeitete 7800GTX zieht dann wieder dran vorbei.

*edit*

Hab mir mal Ergebnisse von 7800GT und 7800GTX angeschaut. Alle die 490MHz+ fahren kommen mit guten AMDs auf (GT)8400+ / (GTX)8600+.

Lokadamus - nixBock
2005-09-16, 07:23:45
Ob es für einige Leute so schwer ist, die letzten 20-30 Seiten des R520 Speku-Threads durchzulesen. :|mmm...

Ja, ist es. Das meiste ist irgendwann nur Fanboy- gequatsche, worauf man verzichten kann => Zeitverschwendung ;).

Kannst uns aber gerne auf nen aktuellen Stand bringen :) ...

Ailuros
2005-09-16, 07:27:47
Naja die meisten 7800GTX gehen locker 490MHz/1300MHz stable, sonst würde nicht jeder Hinz&Kunz diese Versionen auf den Markt werfen. Und mit 60MHz/100MHz mehr Takt, wird die Welt schon ganz anders aussehen.

Nvidia hat also noch Taktreserven und das nicht zu knapp. Eine überarbeitete 7800GTX zieht dann wieder dran vorbei.

*edit*

Hab mir mal Ergebnisse von 7800GT und 7800GTX angeschaut. Alle die 490MHz+ fahren kommen mit guten AMDs auf (GT)8400+ / (GTX)8600+.


G70 bleibt ein single-slot Produkt IMO. Die mythische "Ultra" war wohl eher ein weiterer Fudo-Scherz. 8733@500 uebrigens.

Android
2005-09-16, 09:08:05
Der erste Preis für "Ich weiss nicht wo ich bin" geht heute an: Botcruscher !!!

Zitat:
"Leute last doch einfach mal den Speku-Mist. Wen es so weit ist schön, aber nicht ohne irgendwelche Bensches usw."

;D ;D ;D ;D


Natürlich sagen die Pipelines nicht alleine was darüber aus, wie schnell ein Chip letztendlich wird. ABER: ATI hatte am Anfang der R520-Entwicklung auf 16 Pipes gesetzt. Nachdem jedoch die 7800 GTX herauskam wollte man eigentlich nachziehen. Das ging aber aus mittlerweile bekannten Fertigungsproblemen nicht. Davon ganz abgesehen: Die Erhöhung der Pixel Pipelines bringt schon einen guten Leistungsschub. Denn vergleicht man die 6800 mit der 7800 fällt einem schnell auf, dass die restlichen Specs sehr ähnlich sind: Die 6800 Ultra hat 16 Pipelines 6 Vertexshader und taktet mit 425/550 Mhz. Die 7800 GTX hat 24 Pipelines 8 Vertexsahder und taktet mit 430/600 Mhz.

Natürlich wurden hier und da weitere Optimierungen vorgenommen. Aber mal ehrlich: Was sollen das bitte schön für Optimierungen sein, die einen Leistungsgewinn von teilweise 50% verursachen ? Das ist Utopie.
Und wenn jetzt einer aufsteht und behauptet das das an den 2 weiteren Vertexshadern liegen soll oder an der +5 Mhz Prozessortaktung bzw. +50 Mhz Speichertaktung...... ? :confused:

Übrigens sehr schön hier beschrieben: http://de.wikipedia.org/wiki/Rendering-Pipeline

@Coda:
Die Flimmerproblematik gilt definitiv als NICHT gelöst. Was Nvidia da versucht nennt man Schadensbegrenzung. Das Flimmern wurde in der Einstellung "High Quality" reduziert. Das ist ein kleiner aber feiner Unterschied.

-error-
2005-09-16, 09:46:48
Vertexshader *hust*

Och wie süß :)

Nur ist eine X700Pro auch nicht schneller, als eine 6600GT und die X700Pro hat doppelt soviel Vertaxshader

Aber ja doch, schiebt alles auf die Vertaxshader ;D :P

MadManniMan
2005-09-16, 23:17:44
Vertaxshader ;D Srykthx ;(

Zum Thema BQ:

Sodenn der R520 mit der gleichen Texturqualität wie der R420 kommt, ist man zumindest auf Texturenseite noch leicht vor dem G70 (Texturgeeks wie mich stört gar noch das Gegriesel des NV4X auf HQ), der trotz der neuen Treiber immernoch nicht die annehmbare, aber nicht perfekt flimmerfreie Qualität des NV40 HQ bietet.
Andererseits - und das wiegt wohl mehr - bietet der R520 wohl keine Technik wie Transparency AA. Hier entscheidet dann der persönliche Geschmack, ob einem 4*MSAA + TSSAA wichtiger ist, als ein (von mir für den R520 etwartetes) besseres MSAA als das alte 6*SGMSAA des R3XX/R4XX ohne TSSAA.
Winkelunabhängigkeit beim AF - und sei es nur optional - erwarte ich vom R520 hingegen nicht, auch wenn es an der Zeit wäre, daß ATi wieder mal an der Qualitätsschraube beim AF dreht, die letzte Qualitätsverbesserung kam mit dem R300, mit dem RV350 bzw. mit dem R420 kam ja noch der leidige Bri-Filter hinzu. (Sollte allerdings winkelunabhängiges AF tatsächlich möglich werden, könnte ich gut auf TSSAA scheißen :D )

Daher frage ich mich: wie kommt der Autor dieses Threads darauf, daß die BQ beim R520 besser denn beim G70 wäre?

Nordheimer
2005-09-16, 23:50:44
DIR IST ABER KLAR DAS DIE TEXTURQUALITÄT der ATI Karten mit neuen Catalyst Treiber deutlich schlechter als das der Nvidia Karten gefallen ist? Wie kommst du auf solch eine Aussage die R420 Qualität wäre besser. :confused:
http://www.bit-tech.net/news/2005/09/08/cat58_shimmering
http://www.rage3d.com/board/showthread.php?t=33827482&highlight=shimmering

MadManniMan
2005-09-17, 00:10:46
DIR IST ABER KLAR DAS DIE TEXTURQUALITÄT der ATI Karten mit neuen Catalyst Treiber deutlich schlechter als das der Nvidia Karten gefallen ist? Wie kommst du auf solch eine Aussage die R420 Qualität wäre besser. :confused:

1) Schrei mich bitte nicht so an, ok?
2) Es geht nur um den Cata 5.8 und CS:S - und Performance wird auch nicht geschunden. ATi wäre schön blöd, wenn sie bei all dem Trubel die Schreie dieser Sache wegen überhören würden.

Wenn Du bei Deiner folgenden Antwort 1) im Hinterkopf behälst und 2) als Grundlage für die Hintergründe Deiner Aussagen bedenkst, was ist dann?

Coda
2005-09-17, 00:26:50
Och wie süß :)

Nur ist eine X700Pro auch nicht schneller, als eine 6600GT und die X700Pro hat doppelt soviel Vertaxshader

Aber ja doch, schiebt alles auf die Vertaxshader ;D :PIm 3DMark 05 schon...

Nordheimer
2005-09-17, 00:29:58
1) Schrei mich bitte nicht so an, ok?
2) Es geht nur um den Cata 5.8 und CS:S - und Performance wird auch nicht geschunden. ATi wäre schön blöd, wenn sie bei all dem Trubel die Schreie dieser Sache wegen überhören würden.

Wenn Du bei Deiner folgenden Antwort 1) im Hinterkopf behälst und 2) als Grundlage für die Hintergründe Deiner Aussagen bedenkst, was ist dann?

Ich schreie so laut weil du anscheinend einem Trugschluss aufgesessen bist. :P
1. Flimmert das nicht nur CS:Source, sondern in vielen anderen Games auch.
2. Gibt es diese Schummelei schon mindestens seit dem Catalyst 5.2

Mr. Lolman
2005-09-17, 10:10:03
Ich schreie so laut weil du anscheinend einem Trugschluss aufgesessen bist. :P
1. Flimmert das nicht nur CS:Source, sondern in vielen anderen Games auch.
2. Gibt es diese Schummelei schon mindestens seit dem Catalyst 5.2

NV40/G70 flimmern trotzdem stärker (oder zumindest gleichstark). Es gibt da CS:S Videos die den Unterschied (HQ vs AIoff) deutlich zeigen. Blöderweise sind beide (ATI/NV) nur mit 1/4 Res und mit unterschiedlicher Auflösung aufgenommen (NV@640x512, Ati@640x480)

Bei ner bildweisen Betrachtung ohne Verfälschung durchs Overlay merkt man trotzdem, dass das NVVideo über gewisse Bereiche mehr flimmert, auch wenn, wie gesagt, die Videos nicht wirklich vergleichbar sind.

Und auf den Rest geb ich nix, denn sich ne Szene rauszupicken und zu behaupten GraKas eines IHVs haben schlechte(re) BQ grenzt wohl eher an Verarschung, solang man keine Vergleiche zu anderen Teibern/anderer GraKa HW zieht. Denn es lassen sich immer Szenen finden, wo bspw. auch ein ungecheatetes NV25 AF filmmert. Und passende Vergleiche hab ich außer auf der 3DC Hauptseite und im 3DC-Forum noch nirgendwo entdecken können.


Hier gibts die Videos, die zeigen sollen, dass ATi schlechte(re) BQ bietet: http://www.nvnews.net/vbulletin/showpost.php?p=690499&postcount=12

Blaire
2005-09-17, 16:07:11
Bei den BF2 Videos flimmerts im Vordergrund bei Ati deutlich mehr, das ist klar zu sehen. Auch wenn es eine minimal andere Auflösung zeigt , so kann man es ganz gut unterscheiden. Das ist eine recht dunkle Stelle, im BF2 Wüstenlevel "Gulf of Oman" z.b. würde das deutlich mehr stören.
Ist schon seltsam das man bei Ati alles immer herunterspielt , und bei Nvidia immer ein Riesenfass aufmacht wenn dort was flimmert...

Ailuros
2005-09-17, 16:28:21
Videos koennen nur einen Teil der Geschichte illustrieren; was wir brauchen sind neue intelligente Filter-Tester die dann auch zeigen koennen wann untergefiltert wird und wo. Nur muss dann aber auch jemand sich hinsetzen und sehr oft updates schreiben, denn sicher vor jeglichen Treibertricks wird die Applikation dann auch nicht sein ;)

Faelle wie BF2 kann man schon in Vergleichen benutzen, nur wuerde ich persoenlich dieses spezifische Spiel und andere die auf allen Karten flimmern schon gar nicht mit Filterungs-Optimierungen beruehren.

Mr. Lolman
2005-09-17, 16:53:09
Bei den BF2 Videos flimmerts im Vordergrund bei Ati deutlich mehr, das ist klar zu sehen. Auch wenn es eine minimal andere Auflösung zeigt , so kann man es ganz gut unterscheiden. Das ist eine recht dunkle Stelle, im BF2 Wüstenlevel "Gulf of Oman" z.b. würde das deutlich mehr stören.
Ist schon seltsam das man bei Ati alles immer herunterspielt , und bei Nvidia immer ein Riesenfass aufmacht wenn dort was flimmert...

Könntest du einen Link posten? Anscheinend kenn ich die BF2 Videos noch nicht...

Blaire
2005-09-17, 17:13:15
Könntest du einen Link posten? Anscheinend kenn ich die BF2 Videos noch nicht...

http://www.rage3d.com/board/showpost.php?p=1333899014&postcount=36

Dort gibts noch mehr Videos. Leider sind die Links recht langsam bei mir.

Mr. Lolman
2005-09-17, 19:03:43
http://www.rage3d.com/board/showpost.php?p=1333899014&postcount=36

Dort gibts noch mehr Videos. Leider sind die Links recht langsam bei mir.

Das ist doch eh das gleiche Video, was du mir schon in der PN geschickt hast. Ich habs mir nochmal genau angesehen. Über die 1. 50 Frames wirkt das NV Video am Fluchtpunkt flimmriger als das ATi Video. Man sieht eine Art Bugwelle. Ich schieb das mal auf die im Vgl. zum ATi Video unterschiedliche Kameraposition. Dann wendet sich das Blatt und ATi flimmert plötzlich stärker als NV...

Jedoch - ich sags nochmal - aufgrund der unterschiedlichen Auflösung hat der Boden bei Ati ~7% weniger Pixel zu Verfügung. Da ists kein Wunder, dass das ATi Video u.U. flimmriger wirkt, wenn die Neigung des Bodens beim NV Video, relativ betrachtet, viel geringer ist.

Zusätzlich, entstanden die Videos mit 1/4 Res. D.h.: Nur jedes 4. Pixel wurde von Fraps gecaptured. Alles in Allem also nicht unbedingt gute Vorraussetzungen für einen validen Vergleich. Und ich werde aufgrund solcher Videos mich sicher nicht zu irgendwelchen pauschalisierenden Aussagen bezügl Ati/Nv BQ hinreissen lassen.

BTW: Die CS:S Videos werd ich mir auch noch reinziehen...

Nero2
2005-09-18, 15:50:08
Nachziehen würde ja viele schon mal mehr als glücklich machen...

chemistry
2005-09-22, 18:42:14
Völlig richtig....wäre schon ein feiner Zug wenn sie endlich mal die Karten vorstellen um zumindest auf Augenhöhe mit NVIDIA zu sein. Auch wenn die dann sofort wieder eine neue Ultra oder so vorstellen, die um 2 Frames schneller ist. :smile:

Ich will einfach nur in den Genuss von Shader3 usw. kommen. Und da ich nunmal ATI bisher die Treue gehalten habe, werd ich das auch zukünftig tun. War einfach immer rundum zufrieden.

Und mal ehrlich - NV war ja nach der Geschichte mit dem Megalauten Super(FÖN)lüfter ja auch mal sehr in Verzug, was die Qualität ihrer Karten betraf. Allerdings kann man nict leugnen, dass sie mit der neuen Chipgeneration ein wirklich passables Stück Hardware abgeliefert haben.

LG chemi

tokugawa
2005-09-23, 19:58:56
Und mal ehrlich - NV war ja nach der Geschichte mit dem Megalauten Super(FÖN)lüfter ja auch mal sehr in Verzug, was die Qualität ihrer Karten betraf. Allerdings kann man nict leugnen, dass sie mit der neuen Chipgeneration ein wirklich passables Stück Hardware abgeliefert haben.


Jo, die NV30 war kein rühmliches Kapitel, aber zugute halten muß man der NV3x Generation trotzdem, dass sie technologisch trotzdem Fortschritt bedeutete. Der NV4x in dieser Form wäre ohne den NV3x wohl nicht so gut geworden - die NV3x hatte ja Shader auf Fast-SM3.0 Niveau, und auch schon rudimentären nativen HDR-Support (also zumindest den nativen Support von OpenEXR). Deswegen ist die Karte für mich kein Griff ins Klo von NVIDIA, sondern einfach nur eine durchwachsene Sache - gut, für so manchen Spieler war sie vielleicht ein Griff ins Klo, nicht aber für NVIDIA. "Umsonst" war der NV30 nicht, er hat NVIDIA schon auch weitergebracht, und selbst wenn's das schmerzliche "aus Fehlern lernen" ist :)

Wenn ATI einen Erstgenerations-SM3.0 Chip recht passabel hinkriegt, bin ich angesichts dessen durchaus beeindruckt.