Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?
MikBach
2005-09-09, 01:26:47
Die Bibel?
Das wird toll, wenn die ersten Previews kommen und einige Seiten sich für ihre 24pipe rechtfertigen werden müssen.
Ich hoffe es müssen sich nicht viele Member hier rechtfertigen....
Botcruscher
2005-09-09, 01:33:17
Die Bibel?
Gegen den Inhalt dieses Freds ist die Bibel ein wares Lexikon.
Keiner weis hier zu 100% was genau kommt, also regt euch ab und last euch überaschen. :rolleyes:
Keiner weis hier zu 100% was genau kommt, also regt euch ab und last euch überaschen.Irrtum.
Ailuros
2005-09-09, 01:45:12
R420 hatte mehr Rohfüllrate und war oft bis zu 33% schneller. Arithmetisch waren beide ungefähr gleich schnell. Hier geht es nicht ums Techlevel sondern um die Wichtigkeit der Füllrate. Warum weichst du vom Thema ab?
Ich weiche ueberhaupt nicht vom Thema ab. Ich sprach von interner Shader-fuellrate; im gegebenen Fall X-Ops * 400MHz vs. X-OPs * 520MHz (oder auch 425 vs. 540MHz) und das sieht dann in synthetischen Tests wie in MDolenc's Fillrate Tester:
http://www.3dcenter.de/artikel/g70_theoretische_benchmarks/index4.php
Wegen den "bis zu 33%" eigentlich wird der Unterschied sogar groesser unter Umstaenden (bis zu 65% in CLMR2k5):
http://www.xbitlabs.com/articles/video/display/powercolor-x850xt.html
Wobei hier die Ultra bei 400MHz laeuft, ergo ein Unterschied von 140MHz in Taktrate. Ich hab mal alle 1600 +4xAA/AF Faelle genommen. NV40 gewinnt in 6 und R480 in 7 von den insgesamt 13 Spielen. Das eine Spiel dass nur einen Unterschied von 2% machte, hab ich mal weggelassen um mir es leichter zu machen den Durchschnitt auszurechnen.
NV40 gewinnt nachdem mit durchschnittlich 21% gegen R480 in 6 Spielen und die letztere gewinnt durchschnittlich in den anderen 6 Spielen mit einem durchschnittlichen Unterschied von 24%. Nehme ich jetzt entweder eine wahre R420@520MHz oder eine Ultra aus dem zweiten Schub @425MHz, ist der bekloppte 3%-ige Unterschied schon wieder weg.
Ailuros
2005-09-09, 01:58:47
Ja, das hilft. =)
Als angesehens Member hilfst du mir schon weiter, aber die Frage bleibt.
Sind die 10k Punkte in 2005 eine Irreführung?
Ich hab keine Ahnung ueber 3dmark scores, aber ich erwarte auch dass R520 durch die hoehere Taktrate fuer die VS besser punkten wird in diesem benchmark. 3dmark05 ist vertex setup limitiert.
Es macht wohl keinen Sinn alles auf die VS zu haengen, aber einen Unterschied machen sie in 3dmark05 schon.
Mit 485/685MHz auf der G70, bin ich nur einen Hauch unter den 9000 Punkten. Hier laeufen die VS@525MHz und es sind ergo 1050MVertices/s. Nun denk mal an 1200 oder sogar 1300MVertices/s.
Des Räsels Lösung ist wohl:
Der Chip hat ein 8 Fach ausgelegtes 512Bit Speicherinterface. Das Package führt nur 256Bit nach aussen, und die Speicherchips sind nur mit 8x 32Bit angebunden und verwenden nen 8er Burst :D
Klingt jedenfalls plausibel, da es alle Äusserungen und vor allem die doch seltsame Anordnung der Speicherchips erklären würde.
Da das auch im Thread vorkam: Das Bild einer X800 XL für AGP:
http://www.geizhals.at/img/pix/151863.jpg
http://www.geizhals.at/img/pix/155958.jpg
Das PCB dürfte genauso lang sein wie beim R520.
seahawk
2005-09-09, 07:48:43
Ob die 10.000 Punkte im 3D Mark im Endeffekt gekanckt werden dürfte von der endgültigen Taktung abhängen. Aber mit 8VS @ 625Mhz dürfte es knapp machbar sein.
Nur ist der 3DM05 halt sehr freundlich zum spekulierten Aufbau der R520.
Auf tausende bezogen ist das noch immer ein unwesentlicher Einzelfall. Ich sagte nie, alle R300 würden sterben. Aber ein beunruhigend hoher Teil tut es anscheinend. (mit hoch meine ich nicht >50% aber immerhin eine beunruhigend hohe Rate).
Ein sehr grosser Teil des Sterbens war auf Silencer-Experimente zurückzuführen, das 9700 Pro PCB hat leider keine Biegung aufgrund des Drucks vertragen.
Coda, ich hoffe für dich (und auch andere hier), dass der R520 wirklich nur 16 Pipes hat.
Wenn der R520 aber mehr Pipes haben sollte, dürften sich hier Einige eine längere Zeit nicht mehr im Spekuforum blicken lassen. :D
Ich bin zwar auch eher für 16 Pipes, aber wie passt denn das mit der Aussage über 10k im 3DMurks2005 zusammen?
Takt? Geschwindigkeit der ALUs, TMUs und VS?
Die Grösse des Die lässt nicht mehr als 4 vollständige Quads zu.
Ich hoffe es müssen sich nicht viele Member hier rechtfertigen....
Neimand muss sich rechtfertigen. Es ist scheissegal :D
robbitop
2005-09-09, 09:31:36
Coda, ich hoffe für dich (und auch andere hier), dass der R520 wirklich nur 16 Pipes hat.
Wenn der R520 aber mehr Pipes haben sollte, dürften sich hier Einige eine längere Zeit nicht mehr im Spekuforum blicken lassen. :D
Ich bin zwar auch eher für 16 Pipes, aber wie passt denn das mit der Aussage über 10k im 3DMurks2005 zusammen?
*hehe* wenn es so kommt, wie bestätigt, also 16P, dürfte das Spekuforum aber bis auf "einige" ziemlich leer werden :D
Die 10k sind noch nicht verifiziert durch einen Screenshot. Ergo, wer weiß ob das Teilchen die 10k erreicht?
robbitop
2005-09-09, 09:35:47
Ich weiche ueberhaupt nicht vom Thema ab. Ich sprach von interner Shader-fuellrate; im gegebenen Fall X-Ops * 400MHz vs. X-OPs * 520MHz (oder auch 425 vs. 540MHz) und das sieht dann in synthetischen Tests wie in MDolenc's Fillrate Tester:
http://www.3dcenter.de/artikel/g70_theoretische_benchmarks/index4.php
Wegen den "bis zu 33%" eigentlich wird der Unterschied sogar groesser unter Umstaenden (bis zu 65% in CLMR2k5):
http://www.xbitlabs.com/articles/video/display/powercolor-x850xt.html
Wobei hier die Ultra bei 400MHz laeuft, ergo ein Unterschied von 140MHz in Taktrate. Ich hab mal alle 1600 +4xAA/AF Faelle genommen. NV40 gewinnt in 6 und R480 in 7 von den insgesamt 13 Spielen. Das eine Spiel dass nur einen Unterschied von 2% machte, hab ich mal weggelassen um mir es leichter zu machen den Durchschnitt auszurechnen.
NV40 gewinnt nachdem mit durchschnittlich 21% gegen R480 in 6 Spielen und die letztere gewinnt durchschnittlich in den anderen 6 Spielen mit einem durchschnittlichen Unterschied von 24%. Nehme ich jetzt entweder eine wahre R420@520MHz oder eine Ultra aus dem zweiten Schub @425MHz, ist der bekloppte 3%-ige Unterschied schon wieder weg.
Da kenne ich aber ganz andere Realworld Benches. Frag mal den guten Lolman und den Tombman. Hier wurde schon desöfteren bewiesen, dass der Mehrtakt fast linear durchschlägt in hohen Auflösungen mit viel AF. Was mich überhaupt nicht wundert.
Die Shaderleistung ist eben noch kein Flaschenhals. Aber es kommt mehr und mehr. Und wenns so kommt, dann geb ich dir natürlich 100% Recht. (Fear, SC3, UE3??)
robbitop
2005-09-09, 09:38:44
Ein sehr grosser Teil des Sterbens war auf Silencer-Experimente zurückzuführen, das 9700 Pro PCB hat leider keine Biegung aufgrund des Drucks vertragen.
Das kann durchaus dazu beigetragen haben. Auf R420 und NV40 traf dies allerdings anscheinend nicht zu. Ich vermute, dass ein so großes PCB einfach haltbarer ist.
The same place where numerous pictures are displayed
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
HKEPC
Administrator
10vs24ps 650/1400,05 about 8600 <---- I can comfirm this mark
Tomcat70
2005-09-09, 09:52:10
The same place where numerous pictures are displayed
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
HKEPC
Administrator
10vs24ps 650/1400,05 about 8600 <---- I can comfirm this mark
thanks for your info, how sure are you about the 24ps?
btw: its "confirm", not "comfirm", nor "comfire" :D
thanks for your info, how sure are you about the 24ps?
btw: its "confirm", not "comfirm", nor "comfire" :D
G71 420M
R520 350M
G70 300M
Tomcat70
2005-09-09, 10:10:42
G71 420M
R520 350M
G70 300M
so you only know transistor counts and reiterate the 24ps on your own?
so you only know transistor counts and reiterate the 24ps on your own?
nope,I think there is a chasm between 32/28/24/20/16 and 16.
Do you really believe in only 16PS R520 for sure?
seahawk
2005-09-09, 10:26:51
What is G71 supposed to be ?
ShadowXX
2005-09-09, 10:29:59
nope,I think there is a chasm between 32/28/24/20/16 and 16.
Do you really believe in only 16PS R520 for sure?
More than sure.....
r520 ist a 4 Quad-Design....nothing more, nothing less.
Even INQ says that alle r520-Version will only have 16Pipeline (and Fuads was one of the stongest believers in more then 4 Quads...)
P.S.
sorry for my bad english
Tomcat70
2005-09-09, 10:44:36
nope,I think there is a chasm between 32/28/24/20/16 and 16.
Do you really believe in only 16PS R520 for sure?
i dont mind actually....problem is, most of the "experts" here believe in 16ps.
some of them are quite quiet about the issue though.
noone knows for real atm i guess...besides ATI :D
Der unterste Teil ist interessant - hier wird eine 32Pipeline Karte bestätigt.
Und auch grobe Geschwindigkeitshinweise gibt es:
16 Pipelines ~ 7800GTX
24 und 32 Pipeplines - schneller
So siehts wohl aus..für mich ist 100% sicher das ich erst den r580 kaufen werde.
Das wird sicher net viel länger als 1 Quartal dauern ,und das Teil hat dann richtig Saft unter der Haube.
Im ca November wenn die r520 in hohen Stückzahlen im Handel sind 500E+ ausgeben um von x800xt-pe umzusteigen lohnt nicht im angesicht des R580 Refreshs der sicherlich schnell folgen wird und wesentlich attraktiver ist
Der r520 kommt mir so krampfhaft rausgequetscht vor von Ati...
Wahrscheinlich sehen die selbst den 580 als den wahren neuen Chip an.
Zumal es wenn NUR eine 512Mb Karte wird, was bestimmt bei der Refresh Generation mehr Einzug halten wird.
gruss
Adam D.
2005-09-09, 11:04:31
Boah, so ein Durcheinander hab ich auch noch nie erlebt :biggrin:
Und am Schluss ist es doch ein 16-Pipeliner mit hohen Taktraten ;D
Ailuros
2005-09-09, 11:09:58
Da kenne ich aber ganz andere Realworld Benches. Frag mal den guten Lolman und den Tombman. Hier wurde schon desöfteren bewiesen, dass der Mehrtakt fast linear durchschlägt in hohen Auflösungen mit viel AF. Was mich überhaupt nicht wundert.
Die Shaderleistung ist eben noch kein Flaschenhals. Aber es kommt mehr und mehr. Und wenns so kommt, dann geb ich dir natürlich 100% Recht. (Fear, SC3, UE3??)
Ich will Resultate von EINEM einzigen setup vergleichen und nicht von zich verschiedenen Systemen.
Ich hab genug Zugang zu HW um zu wissen, was wo und wie geschlagen wird und das vorige war bei weitem nicht unrealistisch; mach ich die Palette der benutzen (heutigen) Spiele noch breiter, aendert sich trotzdem nichts.
Mumins
2005-09-09, 11:17:01
The same place where numerous pictures are displayed
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
HKEPC
Administrator
10vs24ps 650/1400,05 about 8600 <---- I can comfirm this mark
That score is too low, X850XT PE@675/650 scores about 8000P.
Ailuros
2005-09-09, 11:18:13
The same place where numerous pictures are displayed
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
HKEPC
Administrator
10vs24ps 650/1400,05 about 8600 <---- I can comfirm this mark
Then your supposed "R520" is performing pathetically low:
G70@500/685MHz:
http://users.otenet.gr/~ailuros/500M685.jpg
Ailuros
2005-09-09, 11:20:14
That score is too low, X850XT PE@675/650 scores about 8000P.
Siehe oben; 8700+ schaffe ich mit 6 quads und "schaebigen" 500MHz.
robbitop
2005-09-09, 11:21:37
Ich will Resultate von EINEM einzigen setup vergleichen und nicht von zich verschiedenen Systemen.
Ich hab genug Zugang zu HW um zu wissen, was wo und wie geschlagen wird und das vorige war bei weitem nicht unrealistisch; mach ich die Palette der benutzen (heutigen) Spiele noch breiter, aendert sich trotzdem nichts.
Tombman hatte ebenfalls beide. Und er hat im Gegensatz zu dir alle Zahlen hier im Forum dargelegt. Benches von anderen Seiten zeigten dieselben Dinge. Lolman kann dir entsprechende Links geben. Bei 1600x1200 oder 2048 und 16xAF ist es mir völlig klar, dass 33% mehr Füllrate da voll durchschlagen.
Aber wenn du Zahlen hast, dann lege sie bitte dar. Ich lasse mich gern eines Besseren belehren.
In Shaderlimitierten Games wird das vieleicht anders sein.
Tombman hatte ebenfalls beide. Und er hat im Gegensatz zu dir alle Zahlen hier im Forum dargelegt. Benches von anderen Seiten zeigten dieselben Dinge. Lolman kann dir entsprechende Links geben. Bei 1600x1200 oder 2048 und 16xAF ist es mir völlig klar, dass 33% mehr Füllrate da voll durchschlagen.
Aber wenn du Zahlen hast, dann lege sie bitte dar. Ich lasse mich gern eines Besseren belehren.
In Shaderlimitierten Games wird das vieleicht anders sein.
Gibts es überhaupt ein shaderlimitiertes Game bisher?
Ailuros
2005-09-09, 11:36:20
Tombman hatte ebenfalls beide. Und er hat im Gegensatz zu dir alle Zahlen hier im Forum dargelegt. Benches von anderen Seiten zeigten dieselben Dinge. Lolman kann dir entsprechende Links geben. Bei 1600x1200 oder 2048 und 16xAF ist es mir völlig klar, dass 33% mehr Füllrate da voll durchschlagen.
Dann bring doch noch ein paar Dutzende mehr zur Debatte, vielleicht hilft es dann doch dass zu beweisen was Du gerade willst, weil es eben zu schmerzvoll ist einzusehen dass beide GPUs in diesen und anderen Faellen ihre Vorteile haben.
Aber wenn du Zahlen hast, dann lege sie bitte dar. Ich lasse mich gern eines Besseren belehren.
Meine Zeit ist zu wertvoll. Hol Dir selber beide Karten und setzt Dich vor eine so breit wie moegliche Spiel-pallette.
Nach Hoeren und Sagen kann ich mir auch vieles vorstellen. Ein oeffentlicher Review ist eine zuverlaessige Dokumentierung bei solchen Debatten. Es gibt einen Link dazu und Du kannst Dir das Zeug nochmal selber ausrechnen.
deekey777
2005-09-09, 12:02:18
Gibts es überhaupt ein shaderlimitiertes Game bisher?
Doom 3 vielleicht?
Was ist eigentlich mit der Idee von abgeschalteten ALUs? :confused:
ShadowXX
2005-09-09, 12:03:19
Gibts es überhaupt ein shaderlimitiertes Game bisher?
FEAR wird wohl Shaderleistung-Limitiert sein, zumindest schliesse ich das aus verschiedenen Benchmarks, die ich gesehen habe, wo ein G70 mit 8xS in hohen Auflösungen (1600*1200) immer noch schneller ist als eine x850xtpe mit 6xMSAA).
Die G70 verliert bei 8xS durch den 1x2 Supersamplinganteil ja die Hälfte Ihrer Füllrate....liegt dann also definitiv unter der Füllrate der x8050xtpe und schlägt Sie trozdem....das sollte IMHO an der stärkeren Shaderleistung liegen.
Das diese wiederum limitiert (spätestens bei Softshadows, die ja auch per Shader realisiert werden) schliesse ich daraus, das selbst eine G70 an dem Game zu knabbern hat.
Auch SC3-CT könnte zu einen gewissen Grad in Richtung Shaderlimitation gehen, genauso die Riddick mit Softshadows.
reunion
2005-09-09, 12:15:47
600 MHz * 8VS / 4 = 1200 MVertices/s
Immerhin +~50% im Vergleich zur R480.
***edit: ich wuerde sogar meine Hand ins Feuer legen, falls das hilft :P
Wenn du nach der Vertexpower gehst, schlägt R480 sogar G70, trotzdem ist er im 3dmark deutlich langsamer. Der 3dmark ist bei weiten nicht so stark Vertexlimitiert, wie viele hier denken, und nur durch 8VS wird R520 mit Sicherheit keine 10K erreichen.
http://www.xbitlabs.com/articles/video/display/g70-indepth_14.html
Mit 485/685MHz auf der G70, bin ich nur einen Hauch unter den 9000 Punkten. Hier laeufen die VS@525MHz und es sind ergo 1050MVertices/s. Nun denk mal an 1200 oder sogar 1300MVertices/s.
Das du damit auf knapp unter 9000 Punkte kommst, liegt an der Füllrate.
R520 müsste schon >13000MTexel/s erreichen, um die 10K zu knacken.
Then your supposed "R520" is performing pathetically low:
G70@500/685MHz:
http://users.otenet.gr/~ailuros/500M685.jpg
Ailuros, you can contact this guy named Artx1(Eji).
http://www.lovehinaplus.com/blog/index.php?blogId=2
seahawk
2005-09-09, 12:22:43
Wirklich ?
http://www.xbitlabs.com/images/video/geforce-7800/05_complexvs.gif
FEAR wird wohl Shaderleistung-Limitiert sein, zumindest schliesse ich das aus verschiedenen Benchmarks, die ich gesehen habe, wo ein G70 mit 8xS in hohen Auflösungen (1600*1200) immer noch schneller ist als eine x850xtpe mit 6xMSAA).
Die G70 verliert bei 8xS durch den 1x2 Supersamplinganteil ja die Hälfte Ihrer Füllrate....liegt dann also definitiv unter der Füllrate der x8050xtpe und schlägt Sie trozdem....das sollte IMHO an der stärkeren Shaderleistung liegen.
Das diese wiederum limitiert (spätestens bei Softshadows, die ja auch per Shader realisiert werden) schliesse ich daraus, das selbst eine G70 an dem Game zu knabbern hat.
Auch SC3-CT könnte zu einen gewissen Grad in Richtung Shaderlimitation gehen, genauso die Riddick mit Softshadows.
Fear hört sich wirklich nach Shaderlimitierung an. SC3 wohl eher nicht, da es in allen Modi etwa gleichschnell läuft (SM 1.1, 2.0 und 3.0).
Führen Softshadows nicht eher zu einer erhöhten CPU Belastung, anstatt zu einer Shaderbelastung?
Die 3DMark 2005 ist nicht Vertexlimitiert, die läuft sogar auf einer 6600 verhältnismässig gut, und das trotz fehlender Vertexleistung.
Ob die Bench jetzt Shader- oder Füllratenlimitiert ist, kann man doch anhand AF herausfinden oder? Wenn die Bench bei erhöhten AF (also komplett 16x erzwungen) stark einbricht, müsste eine Füllratenlimitierung vorliegen. Wenn sie weniger einbricht, ist es halt ne Shaderlimitierung.
Wirklich ?
http://www.xbitlabs.com/images/video/geforce-7800/05_complexvs.gif
R520 have 10 Vertex Shaders even 16~32PS whatever.
R520 have 10 Vertex Shaders even 16~32PS whatever.
ja ne, is klar :D
reunion
2005-09-09, 12:30:18
Ich hoffe es müssen sich nicht viele Member hier rechtfertigen....
Es sind 16 Pipelines, Punkt, aus, und Ende.
reunion
2005-09-09, 12:31:14
Wirklich ?
http://www.xbitlabs.com/images/video/geforce-7800/05_complexvs.gif
Was wirklich?
R480 liegt deutlich in Führung, trotzdem muss er sich dem G70 im 3dmark05 punktemäßig deutlich geschlagen geben.
reunion
2005-09-09, 12:32:22
G71 420M
R520 350M
G70 300M
G71 wird ein Lowcost-Chip.
ShadowXX
2005-09-09, 12:33:26
Führen Softshadows nicht eher zu einer erhöhten CPU Belastung, anstatt zu einer Shaderbelastung?
Gute Frage....kommt wohl darauf an, wie das ganze implementiert ist.
Zumindest bei Riddick braucht man ja einen spezielle OGL-Befehl (den nur nV anbietet), damit man Softshadows einschalten kann.
Deshalb vermute ich, dass zumindest ein großer Teil davon, über die Graka bzw. deren Shader laufen.
Gestützt wird da ganze dadurch, das die Softshadows überproportional schneller auf einer G70 sind als auf einer 6800Ultra .
deekey777
2005-09-09, 12:34:17
Demirug hat vor einiger Zeit Ergebnisse 16/4 vs. 12/6 einer 6800 gepostet: Mit 12/6 hat die 6800 > 100 Punkte mehr erreicht.
Gemeint ist 3D 2005.
Mit welcher Pipe-Config denn nun? ;)
Nix verstehen...
:whistle:
Demirug
2005-09-09, 12:38:35
Gute Frage....kommt wohl darauf an, wie das ganze implementiert ist.
Zumindest bei Riddick braucht man ja einen spezielle OGL-Befehl (den nur nV anbietet), damit man Softshadows einschalten kann.
Deshalb vermute ich, dass zumindest ein großer Teil davon, über die Graka bzw. deren Shader laufen.
Gestützt wird da ganze dadurch, das die Softshadows überproportional schneller auf einer G70 sind als auf einer 6800Ultra .
Die Softshadows sind im wesentlichen eine Grafikkarten Geschichte. Die zusätzliche CPU Belastung kann man hier unter den Tisch fallen lassen.
Es wird bei den entsprechenden Shadern relative viel gerechnet. IIRC waren es vorallem viele Befehle die Addieren müssen. Und da ist ein G70 ja schneller als ein NV4X.
reunion
2005-09-09, 12:38:48
Demirug hat vor einiger Zeit Ergebnisse 16/4 vs. 12/6 einer 6800 gepostet: Mit 12/4 hat die 6800 > 100 Punkte mehr erreicht.
Gemeint ist 3D 2005.
Ja, vier NV40 VS @ 400Mhz sind etwas zu wenig.
Fünf sind allerdings schon außreichend.
MadManniMan
2005-09-09, 12:39:09
Demirug hat vor einiger Zeit Ergebnisse 16/4 vs. 12/6 einer 6800 gepostet: Mit 12/4 hat die 6800 > 100 Punkte mehr erreicht.
Gemeint ist 3D 2005.
Mit welcher Pipe-Config denn nun? ;)
reunion
2005-09-09, 12:42:35
Radeon X1800LE aka R520LE has 12 pipelines:
http://www.the-inquirer.net/?article=26060
Hakim
2005-09-09, 12:53:27
die meldungen über 16 und 12 pipes bei der R520 reihe werden immer mehr. Ich denk es wird keine großen überraschungen mehr geben. Einzig am coretakt könnte man noch was erwarten.
robbitop
2005-09-09, 13:06:27
Dann bring doch noch ein paar Dutzende mehr zur Debatte, vielleicht hilft es dann doch dass zu beweisen was Du gerade willst, weil es eben zu schmerzvoll ist einzusehen dass beide GPUs in diesen und anderen Faellen ihre Vorteile haben.
Meine Zeit ist zu wertvoll. Hol Dir selber beide Karten und setzt Dich vor eine so breit wie moegliche Spiel-pallette.
Nach Hoeren und Sagen kann ich mir auch vieles vorstellen. Ein oeffentlicher Review ist eine zuverlaessige Dokumentierung bei solchen Debatten. Es gibt einen Link dazu und Du kannst Dir das Zeug nochmal selber ausrechnen.
Mir war lediglich meine Zeit zu schade, um dir zu belegen, was doch lange Fakt ist. Aber ok nur für dich:
Shaderlimitiert (wo ich dir also Recht gebe [Fear, Doom3, Riddick]):
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench4.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench4.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench8.php
Nicht Shaderlimitiert (die meisten Spiele, wo ich dir nicht Recht gebe):
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench3.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench5.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench6.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench7.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench9.php
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/bench10.php
Ich bitte dich, auf 16x12 4x/16x zu achten. (hatte ich ja auch gesagt) Dort rangiert man am Füllratenlimit und sieh an: Die Füllrate schlägt durch. Mal mehr mal weniger. Aber es ist so gut wie immer im 2 stelligen Bereich.
Die meisten heutigen Spiele sind eben nicht Shaderlimitiert. Da genügt die eine gewisse Shaderleistung, um nicht zu limitieren, danach zählen andere Dinge (Füllrate/Bandbreite/Z Occ Culling ect).
Wenn du möchtest, suche ich gern noch viel mehr Beispiele heraus.
reunion
2005-09-09, 13:22:10
Dann bring doch noch ein paar Dutzende mehr zur Debatte, vielleicht hilft es dann doch dass zu beweisen was Du gerade willst, weil es eben zu schmerzvoll ist einzusehen dass beide GPUs in diesen und anderen Faellen ihre Vorteile haben.
Meine Zeit ist zu wertvoll. Hol Dir selber beide Karten und setzt Dich vor eine so breit wie moegliche Spiel-pallette.
Nach Hoeren und Sagen kann ich mir auch vieles vorstellen. Ein oeffentlicher Review ist eine zuverlaessige Dokumentierung bei solchen Debatten. Es gibt einen Link dazu und Du kannst Dir das Zeug nochmal selber ausrechnen.
Du solltest dir mal diesen Test zu Gemüte ziehen:
http://www.anandtech.com/video/showdoc.aspx?i=2451&p=1
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7744.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7743.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7749.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7765.png
In hohen Auflösungen geht der 6800U fast immer die Puste aus (auch ohne AA).
Und zwar oft deutlich mehr, als man durch den Füllratenvorteil erwarten würde.
Das liegt aber daran, dass die Bandbreitenverbessernden Maßnahmen bei NV4x nur bis 1600 funktionieren.
Merkt man auch bei Supersampling in hohen Auflösunen, das läuft auf G70 um einiges schneller.
robbitop
2005-09-09, 13:28:39
Und vieleicht geht den NV Chips dort der VRAM aus. Die machen ja den Scanout im Framebuffer.
Aber 16x12 sind die NV40 immernoch deutlich unterlegen. Wenn auch nicht mehr so irrwitzig.
reunion
2005-09-09, 13:30:02
Das liegt aber daran, dass die Bandbreitenverbessernden Maßnahmen bei NV4x nur bis 1600 funktionieren.
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7734.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7739.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7732.png
Zwar nicht so stark ausgeprägt, aber noch immer bedenklich.
Im Endeffekt liegt die X850XT PE ab 1600 x 1200 praktisch immer vorne, mal mehr, mal weniger.
Die gelbe Eule
2005-09-09, 13:35:40
Even though the 32pp and 24pp R520 mass production will face some difficulties, but the 16 pipelines R520 using the 90nm core will be clocked high to maintain a certain level of competitiveness
Übersetzt:
Auch wenn die 32pp und 24 R520 Massenproduktion einigen Schwierigkeiten gegenübersteht, wird die 16pp R520 mit 90mn Core so hochgetaktet sein, das sie einen gewissen Level an Konkurrenzfähigkeit mit sich bringt.
Mit anderen Worten, sie wird nicht die 7800GTX angreifen können.
Um auf die 10.000 3DM05 Punkte einzugehen ...
Ja das ist grundsätzlich möglich. Das habe ich mit meiner 6800GT getestet. Jede Erhöhung um 10MHz des Coretaktes brachte mir etwas ~200+ Punkte. Mit meinem nicht gerade schnellem Restsystem kam ich bei 415MHz bei etwa ~4.800 Punkte an. Rechnet man das nun auf ~650MHz hoch, würde ich bei ~9.500 landen. Mit einer schnellen CPU und hohem FSB ist die 10k ohne weiteres möglich.
Soviel dazu ...
Auch wenn die 32pp und 24 R520 Massenproduktion einigen Schwierigkeiten gegenübersteht, wird die 16pp R520 mit 90mn Core so hochgetaktet sein, das sie einen gewissen Level an Konkurrenzfähigkeit mit sich bringt.Es gibt keinen R520 mit 32 Pipelines. Das muss jeder logisch denkende Mensch doch schon an der DIE-Größe sehen.
reunion
2005-09-09, 13:38:36
Übersetzt:
Auch wenn die 32pp und 24 R520 Massenproduktion einigen Schwierigkeiten gegenübersteht, wird die 16pp R520 mit 90mn Core so hochgetaktet sein, das sie einen gewissen Level an Konkurrenzfähigkeit mit sich bringt.
Mit anderen Worten, sie wird nicht die 7800GTX angreifen können.
Der ganze Text ist Bullshit, es gab nie einen R520 mit mehr als 16 Pipelines.
Um auf die 10.000 3DM05 Punkte einzugehen ...
Ja das ist grundsätzlich möglich. Das habe ich mit meiner 6800GT getestet. Jede Erhöhung um 10MHz des Coretaktes brachte mir etwas ~200+ Punkte. Mit meinem nicht gerade schnellem Restsystem kam ich bei 415MHz bei etwa ~4.800 Punkte an. Rechnet man das nun auf ~650MHz hoch, würde ich bei ~9.500 landen. Mit einer schnellen CPU und hohem FSB ist die 10k ohne weiteres möglich.
Soviel dazu ...
Diese Schlussfolgerung darfst du noch mal überdenken.
Die gelbe Eule
2005-09-09, 13:42:09
Vielleicht jetzt noch nicht. Wer sagt das ATI nur den einen Chip herausbringt, wenn sie doch bei TSMC und UMC gleichzeitig fertigen lassen?
deekey777
2005-09-09, 13:46:41
Vielleicht ist die R520XTSuperduper eine 32PP-Grafikkarte, wie die RV530XT eine 12PP-Grafikkarte ist? :biggrin:
Die gelbe Eule
2005-09-09, 13:52:53
Diese Schlussfolgerung darfst du noch mal überdenken.
http://service.futuremark.com/compare?3dm05=862761
Er hat mal gerade knapp 13k mit einer 6800GT. Da sind noch einige mehr mit 12.5k+.
Dann sag mir mal warum es nicht möglich ist und ich es überdenken sollte?
Die holen die Punkte mit 3GHz+ CPUs heraus. Denk Dir 100MHz+ GPU Core dazu dann kommst Du locker mit einer "normalen" CPU auf 10k ...
http://service.futuremark.com/compare?3dm05=862761
Er hat mal gerade knapp 13k mit einer 6800GT. Da sind noch einige mehr mit 12.5k+.
Dann sag mir mal warum es nicht möglich ist und ich es überdenken sollte?
Das ist ein SLI System mit 2 GK...
MFG
Frank
reunion
2005-09-09, 13:55:23
Vielleicht ist die R520XTSuperduper eine 32PP-Grafikkarte, wie die RV530XT eine 12PP-Grafikkarte ist? :biggrin:
RV530 hat keine 12 Pipelines im heutigen Sinne, es sind zwar 12 ALUs, aber nur 8 TMUs und 4 ROPs.
Zum Vergleich:
R520 hat 16 TMUs, 16 ALUs und 16 ROPs.
R580 hat 16 TMUs, 48 ALUs und 16 ROPs.
RV515 hat 4 TMUs, 4 ALUs und 4 ROPs.
deekey777
2005-09-09, 13:59:39
RV530 hat keine 12 Pipelines im heutigen Sinne, es sind zwar 12 ALUs, aber nur 8 TMUs und 4 ROPs.
Zum Vergleich:
R520 hat 16 TMUs, 16 ALUs und 16 ROPs.
R580 hat 16 TMUs, 48 ALUs und 16 ROPs.
RV515 hat 4 TMUs, 4 ALUs und 4 ROPs.
Argh, du hast doch diesen -> :biggrin: gesehen, oder? :biggrin:
reunion
2005-09-09, 13:59:49
http://service.futuremark.com/compare?3dm05=862761
Er hat mal gerade knapp 13k mit einer 6800GT. Da sind noch einige mehr mit 12.5k+.
Dann sag mir mal warum es nicht möglich ist und ich es überdenken sollte?
Die holen die Punkte mit 3GHz+ CPUs heraus. Denk Dir 100MHz+ GPU Core dazu dann kommst Du locker mit einer "normalen" CPU auf 10k ...
Die Schlussfolgerung, dass du mit 415MHz Coretakt bei etwa ~4.800 Punkte liegst, und mit ~650MHz auf ~9.500 Punkte kommen würdest, ist schlicht falsch. Sorry, but that's impossible.
Dein Link zeigt übrigens ein SLI-System.
Die gelbe Eule
2005-09-09, 14:10:45
Die Schlussfolgerung, dass du mit 415MHz Coretakt bei etwa ~4.800 Punkte liegst, und mit ~650MHz auf ~9.500 Punkte kommen würdest, ist schlicht falsch. Sorry, but that's impossible.
Dann begründe es mir ...
reunion
2005-09-09, 14:17:31
Dann begründe es mir ...
Du kannst nicht durch eine Takterhöhung von knapp über 50% die Leistung verdoppeln. Leistung kann höchstens linear skalieren, und selbst das ist praktisch ausgeschlossen.
Frank1974
2005-09-09, 14:18:46
Dann begründe es mir ...
Das System was du verlinkt hast ist mit 2 x 6800 Karten ,und die Cpu ist ausserdem extrem übertaktet und der 3dM05 ist dazu noch SLI optimiert,mit einer Karte kommst du nicht mal in die nähe von dem was du glaubst :rolleyes:
MFG
Frank
BlackArchon
2005-09-09, 14:18:49
Wir könnten doch einen Wettbewerb veranstalten. Alle hier loggen sich aus und posten zum gleichen Zeitpunkt irgendwelche Zahlen. Wer dann den größten Schwachsinn verzapft hat, gewinnt. Wie wärs?
Nee, is wirklich schlimm. Auf jeder Seite postet ein Gast irgendwelchen Schwachsinn, kann das nicht gleich sofort gelöscht werden?
RV530 hat keine 12 Pipelines im heutigen Sinne, es sind zwar 12 ALUs, aber nur 8 TMUs und 4 ROPs.
Zum Vergleich:
R520 hat 16 TMUs, 16 ALUs und 16 ROPs.
R580 hat 16 TMUs, 48 ALUs und 16 ROPs.
RV515 hat 4 TMUs, 4 ALUs und 4 ROPs.
R520 hat 16 TMUs, 32 ALUs und 16 ROPs. Daher kommen auch die 32 PP.
DrumDub
2005-09-09, 14:39:37
R520 hat 16 TMUs, 32 ALUs und 16 ROPs. Daher kommen auch die 32 PP. das wäre mir neu. bisher war immer die rede von 16 alus. r580 sollte schon immer 48 alus haben. die frage dabei ist natürlich, wie die alus gezählt werden.
deekey777
2005-09-09, 14:43:48
R520 hat 16 TMUs, 32 ALUs und 16 ROPs. Daher kommen auch die 32 PP.
Was ganz neues.
Diese Möglichkeit würde die Theorie der "abgeschalteten ALUs" bekräftigen.
Demirug
2005-09-09, 14:46:35
Ich will euch ja den Spass mit den Zahlenspielereien nicht verderben aber ihr wisst schon das ATI schon beim R480 mit 4 ALUs für jeden Pixel in einer Pixelshadereinheit rechnet?
Frank1974
2005-09-09, 14:47:22
R520 hat 16 TMUs, 32 ALUs und 16 ROPs. Daher kommen auch die 32 PP.
Beweise...
Jeder kann hier etwas schreiben,ohne beweiß glaub ich gar nix :P
MFG
Frank
ShadowXX
2005-09-09, 15:07:35
Ich will euch ja den Spass mit den Zahlenspielereien nicht verderben aber ihr wisst schon das ATI schon beim R480 mit 4 ALUs für jeden Pixel in einer Pixelshadereinheit rechnet?
Was zählt ATI da eigentlich alles als ALU?
Das an der "Haupt"-Alu noch 2 "Mini"-Alus darnhängen hab ich irgendwie noch im Kopf (zumindest wenn ich mich richtig erinnere), aber was ist die 4te?
Und wieviele ALUs könnte nV nach ATIs Zählweise aufweisen?
DrumDub
2005-09-09, 16:01:41
Was zählt ATI da eigentlich alles als ALU?
Das an der "Haupt"-Alu noch 2 "Mini"-Alus darnhängen hab ich irgendwie noch im Kopf (zumindest wenn ich mich richtig erinnere), aber was ist die 4te?
http://www.beyond3d.com/reviews/ati/r420_x800/diagram/shadercore.jpg
alles bis auf die tex alu... ;)
Und wieviele ALUs könnte nV nach ATIs Zählweise aufweisen? g70 bekommt wohl nach der zählweise auch vier, obwohl es korrekterweise wohl sechs(?) lauten müsste.
ShadowXX
2005-09-09, 16:16:29
http://www.beyond3d.com/reviews/ati/r420_x800/diagram/shadercore.jpg
alles bis auf die tex alu... ;)
Das Bild kannte ich noch nicht....Hmm.
Davon abgesehen, das ich den Vector und Scalar-Teil eher als eine Einheit betrachten würde, was ist der Unterschied (bzw. warum sieht ATI das als 2 Teile) zwischen Vector 1 / 2 und Scalar 1 /2.
g70 bekommt wohl nach der zählweise auch vier, obwohl es korrekterweise wohl sechs(?) lauten müsste.
Das kommt wohl darauf an, warum ATI das ganze noch in Scalar 1 /2 und Vector 1 / 2 aufteilt.
Wenn das wieder eine der üblichen Marketingerklärungen ist, wären es bei nV wohl eher 8.
DrumDub
2005-09-09, 17:00:39
Das Bild kannte ich noch nicht....Hmm.
Davon abgesehen, das ich den Vector und Scalar-Teil eher als eine Einheit betrachten würde, was ist der Unterschied (bzw. warum sieht ATI das als 2 Teile) zwischen Vector 1 / 2 und Scalar 1 /2.
vielleicht hilft dies zur aufklärung:
Ausserdem sind Vector- und Skalar-ALU Nummer eins und zwei nicht gleichberechtigt, bzw. befähigt. Wer sich die Relationen einmal genauer anschaut, wird erkennen, daß auch die Größen im Bild ein wenig unterschiedlich sind. Hier hat man einfach die vormaligen „Mini-ALUs“, welche schon im R300 vorhanden war, zu vollwertigen ALUs befördert - nichts anderes tat nVidia im NV40. http://www.computerbase.de/artikel/hardware/grafikkarten/2004/vorschau_ati_radeon_x800_pro_x800_xt/3/
Wenn das wieder eine der üblichen Marketingerklärungen ist, wären es bei nV wohl eher 8. bei g70 kann man wohl auch so zählen, wobei das nur in ausnahmefällen zutreffen würde. die 6 ist imho realistischer. wobei man das noch den unterschiedlichen takt nicht berücksichtigt hat. man könnte taktnormalistert sogar von mehr als 10 ausgehen.
der hsr-ps-bench hier zeigt schon recht deutlich zwei situationen, wo der g70@6800u der x800xt pe fast um den faktor 2 überlegen ist: http://www.3dcenter.org/artikel/g70_theoretische_benchmarks/index5.php
seahawk
2005-09-09, 17:02:17
Was wirklich?
R480 liegt deutlich in Führung, trotzdem muss er sich dem G70 im 3dmark05 punktemäßig deutlich geschlagen geben.
JA, weil er in den anderen Punkten deutlich unterlegen ist.
Nehmen wir nun ein Chip mit ähnlicher PS Power und ähnlicher Fillrate und geben ihm eine höhere VS Leistung und wir erreichen ziemlich sicher einen höheren Wert.
Was ATi da zählt ist Käse. Sie zählen die gesplitteten ALUs doppelt, was nicht sonderlich hilfreich ist...
DrumDub
2005-09-09, 17:42:16
Was ATi da zählt ist Käse. Sie zählen die gesplitteten ALUs doppelt, was nicht sonderlich hilfreich ist... die zählweise beim nv40 ist aber genausowenig sauber... siehe cb-link oben. nv hat mit diesem spielchen angenfangen...
sowohl r420 als auch nv40 haben eben nur zwei vollwertige alus, wobei der nv40 flexibler ist und noch die zusätzliche noemalisierung in der einen mini-alu hat. letztlich sind eben r420 und nv40 in dieser hinsicht nicht wirklich vergleichbar, da der aufbau zu unterschiedlich ist...
die zählweise beim nv40 ist aber genausowenig sauber... siehe cb-link oben. nv hat mit diesem spielchen angenfangen...
sowohl r420 als auch nv40 haben eben nur zwei vollwertige alus, wobei der nv40 flexibler ist und noch die zusätzliche noemalisierung in der einen mini-alu hat. letztlich sind eben r420 und nv40 in dieser hinsicht nicht wirklich vergleichbar, da der aufbau zu unterschiedlich ist...Der NV40 hat, wie der G70, keine zwei vollwertigen ALUs.
Auch die Radeon hat keine zwei vollwertige ALUs in der Pixelpipe.
Welches Spielchen hätte NV angefangen? Wenn cb schreibt "Hier hat man einfach die vormaligen „Mini-ALUs“, welche schon im R300 vorhanden war, zu vollwertigen ALUs befördert - nichts anderes tat nVidia im NV40." wäre dazu zu sagen, dass Nvidia das im NV40 nicht tat, sondern CB was falsch verstanden hat. Die Mini-ALUs werden von NV gar nicht extra aufgeführt.
Der zitierte CB-Artikel arbeitet mit ATIs Folien und ATIs Statements. Beim Vertexshader hätte ich neben der Wiedergabe von Herrn Frölekes Ausrede noch die Vermutung geäußert, dass ATI die sechs VS von vornherein nicht skalierbar ausgelegt hat. Bei 3Dc wird bei CB widerspruchsfrei von "4:1"-Komprimierung gesprochen – ich vermisse den aus meiner Sicht gebotenen Abstand zum Marketing-Material.
Ailuros
2005-09-09, 20:04:21
Wenn du nach der Vertexpower gehst, schlägt R480 sogar G70, trotzdem ist er im 3dmark deutlich langsamer. Der 3dmark ist bei weiten nicht so stark Vertexlimitiert, wie viele hier denken, und nur durch 8VS wird R520 mit Sicherheit keine 10K erreichen.
http://www.xbitlabs.com/articles/video/display/g70-indepth_14.html
Das du damit auf knapp unter 9000 Punkte kommst, liegt an der Füllrate.
R520 müsste schon >13000MTexel/s erreichen, um die 10K zu knacken.
Ich sagte dass 3dmark vertex setup limitiert ist. Uebrigens sind es bei 500MHz im Treiber 540MHz * 8 / 4 = 1080 MVertices/s
Ailuros
2005-09-09, 20:06:21
R520 have 10 Vertex Shaders even 16~32PS whatever.
Meine Oma faehrt im Huehnerstall mit ner 1200ccm :|
Ailuros
2005-09-09, 20:18:47
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7734.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7739.png
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7732.png
Zwar nicht so stark ausgeprägt, aber noch immer bedenklich.
Im Endeffekt liegt die X850XT PE ab 1600 x 1200 praktisch immer vorne, mal mehr, mal weniger.
Sie liegt eben nicht immer vorne. Wie ich schon sagte wenn sie vorne liegt dann sogar bis zu 65% und nicht "nur" 33% wie robbi behauptet hat. Je hoeher die Anzahl der Spiele desto kleiner wird der Unterschied, denn es gibt auch einige Faelle wo die NV40 ihre eigenen Vorraenge hat.
Ihr koennt von mir aus Euch rein die spezifischen Faelle auswaehlen die Euch gerade passen, es aendert aber nichts an dem was ich sagen wollte und verstanden hat es sowieso keiner. Nun zurueck zum R520.
Ailuros
2005-09-09, 20:21:57
Das 3:1 ALU-Verhaeltnis zwischen R580 und R520 bezieht sich IMO auf OPs.
xL|Sonic
2005-09-09, 20:23:24
Meine Oma faehrt im Huehnerstall mit ner 1200ccm :|
Du hast ja ne krasse Oma, so eine will ich auch :ugly:
Nochmal zu den MidRange Karten, also quasi den Pendants zu X800XL bzw. X800GT. Wie schnell werden die in etwa sein und werden sie maybe im Featureset (SM3.0) beschnitten?
DrumDub
2005-09-09, 20:34:32
Der NV40 hat, wie der G70, keine zwei vollwertigen ALUs.
Auch die Radeon hat keine zwei vollwertige ALUs in der Pixelpipe.
vollwertig meinte ich im verhältnis zu den "mini-alus". das beide alus jeweils nicht alle möglichen operationen können, war mir schon bewusst.
Welches Spielchen hätte NV angefangen? Wenn cb schreibt "Hier hat man einfach die vormaligen „Mini-ALUs“, welche schon im R300 vorhanden war, zu vollwertigen ALUs befördert - nichts anderes tat nVidia im NV40." wäre dazu zu sagen, dass Nvidia das im NV40 nicht tat, sondern CB was falsch verstanden hat. Die Mini-ALUs werden von NV gar nicht extra aufgeführt.
Der zitierte CB-Artikel arbeitet mit ATIs Folien und ATIs Statements. Beim Vertexshader hätte ich neben der Wiedergabe von Herrn Frölekes Ausrede noch die Vermutung geäußert, dass ATI die sechs VS von vornherein nicht skalierbar ausgelegt hat. Bei 3Dc wird bei CB widerspruchsfrei von "4:1"-Komprimierung gesprochen – ich vermisse den aus meiner Sicht gebotenen Abstand zum Marketing-Material. ok. dann bin ich da eindeutig der darstellung aus den marketingpapieren von ati aufgessen, die cb da wiedergegeben hat. da hab ich mich nicht richtig informiert. sorry für diesen fehler meinerseits.
DrumDub
2005-09-09, 20:37:38
werden sie maybe im Featureset (SM3.0) beschnitten? imho ganz sicher nicht bezüglich sm 3.0. das wäre ein desaster für ati, wenn es so wäre.
reunion
2005-09-09, 21:19:22
JA, weil er in den anderen Punkten deutlich unterlegen ist.
Nehmen wir nun ein Chip mit ähnlicher PS Power und ähnlicher Fillrate und geben ihm eine höhere VS Leistung und wir erreichen ziemlich sicher einen höheren Wert.
RV410: 3400MTexel/s ~3100 Punkte
NV43: 4000MTexel/s ~3700 Punkte
NV40: 6800MTexel/s ~5400 Punkte
R480: 8640MTexel/s ~6400 Punkte
G70: 10320MTexel/s ~7700 Punkte
Quelle: http://www.xbitlabs.com/articles/video/display/2005-17gpu_39.html
Wie du siehst, skalieren die jeweiligen Karten exakt so, wie man es aufgrund der Füllrate erwarten würde. Dass R480 durch seine deutlich höheren VS-Power im Vorteil ist, kann ich nicht erkennen. Auch eine X700pro muss so trotz der 6(!)VS einer 6600GT mit nur deren 3 geschlagen geben.
reunion
2005-09-09, 21:22:11
Ich sagte dass 3dmark vertex setup limitiert ist. Uebrigens sind es bei 500MHz im Treiber 540MHz * 8 / 4 = 1080 MVertices/s
Deaktiviere mal einen VS deiner G70, und sieh nach, inwiefern sich das Ergebnis verändert.
betasilie
2005-09-09, 21:39:29
Wie schnell werden die in etwa sein und werden sie maybe im Featureset (SM3.0) beschnitten?
Wieso sollte man das machen? Sie basieren doch auf der SM3.0 Architektur R520. Ich traue ATI allerdings zu, dass sie kein HDR bringen, sondern nur diesen unnnützen FP32-EDR Mode.
Im übrigen gehe ich auch davon aus, dass die echten Midrange Karten (das Äquivalent zu X6/700) ebenfalls das volle SM3.0 Featureset bekommen.
Wieso sollte man das machen? Sie basieren doch auf der SM3.0 Architektur R520. Ich traue ATI allerdings zu, dass sie kein HDR bringen, sondern nur diesen unnnützen FP32-EDR Mode.
Im übrigen gehe ich auch davon aus, dass die echten Midrange Karten (das Äquivalent zu X6/700) ebenfalls das volle SM3.0 Featureset bekommen.
Schwachsinn sowas was darf mann nicht machen,die ganze Welt spricht von Hdr wenn Ati kein HDr unterstützen würde,würde sich keiner die Karte kaufen.;)Auch wennn sie einer GTx überlegen ist.
betasilie
2005-09-09, 22:49:35
Schwachsinn sowas was darf mann nicht machen,die ganze Welt spricht von Hdr wenn Ati kein HDr unterstützen würde,würde sich keiner die Karte kaufen.;)Auch wennn sie einer GTx überlegen ist.
Wenn sie es HDR nennen bekommt es doch niemand mit. :) nVidia bietet auch kein 128bit HDR, was eigentlich erst absolut vollwertiges HDR ist. Mit FP16 lassen sich durchaus Szenen mit Sonne konstruieren, wo die Präzision nicht mehr reicht und wo nur 128bit HDR sauber rechnet. Ein bissl mehr Dynamikumfang muss also schon sein, um Szenen völlig realistisch zu machen, zumindest mit Sonne am Himmel.
Zahlenunfug edited.
Was ist mit diesem Thread passiert? Über 405 Seiten mit über 8091 Antworten.
Das ist ja förmlich explodiert.
ATI, bring endlich den R520 raus. Es wird sehnsüchtig erwartet.
Mr.Magic
2005-09-10, 01:12:45
Besser wäre es, wenn die ersten Karten mit R520 bald kommen, sonst muss der Thread noch in "R520 schon Anfang 2006?" umbenannt werden. :tongue:
deekey777
2005-09-10, 01:35:55
Riesenspeku:
VALVes DoD:S soll endlich am 26. September kommen. DoD:S wird HDR unterstützen, vorher* sollte aber schon Lost Coast als Technologie-Demo erscheinen. Sollte es doch einen Zusammenhang zw. dem Release der R520 und der Veröffentlichung bzw. Zurückhalten von Lost Coast geben, dann müßte die R520 fast gleichzeitig damit erscheinen.
*Da es aber schon nächste Woche mit dem Preloading von DoD:S losgeht, könnte LC entweder heute nacht kommen oder aber nach dem 26. September, da der Traffic enorm sein wird (klar, es gibt weniger Leute, die HL2 Silver oder Gold gekauft haben als HL2-Besitzer, aber es wird auch Umsteiger (insbesondere die Besitzer des ATi-Gutscheins) von Bronze auf Silver geben).
mapel110
2005-09-10, 01:39:30
Jo, der Zusammenhang ist zu offensichtlich.
Lost Coast bekommen aber doch alle HL2-Besitzer?!
Ailuros
2005-09-10, 01:40:01
Deaktiviere mal einen VS deiner G70, und sieh nach, inwiefern sich das Ergebnis verändert.
Ich hab nichtmal ne Ahnung bis jetzt ob der NVstrap driver in Rivatuner geht.
Ailuros
2005-09-10, 01:42:16
Wieso sollte man das machen? Sie basieren doch auf der SM3.0 Architektur R520. Ich traue ATI allerdings zu, dass sie kein HDR bringen, sondern nur diesen unnnützen FP32-EDR Mode.
Im übrigen gehe ich auch davon aus, dass die echten Midrange Karten (das Äquivalent zu X6/700) ebenfalls das volle SM3.0 Featureset bekommen.
Ich bezweifle dass "da" was fehlen wird..... :|
deekey777
2005-09-10, 02:06:38
Jo, der Zusammenhang ist zu offensichtlich.
Lost Coast bekommen aber doch alle HL2-Besitzer?!
Jepp, Lost Toast kommt für alle, darum sollte der Traffic sehr hoch sein, wenn auch gleichzeitig das DoD:S Preloading beginnt.
Was gegen die R520-Theorie sprechen könnte, ist der kommende Launch der Crossfire-Technologie.
Ich hab nichtmal ne Ahnung bis jetzt ob der NVstrap driver in Rivatuner geht.
MR.Ailuros and every one , I can give you some NDA info
(1)Die Size has been changed from(19.3*19 to 18.3*19)
(2)Due to Ali203 , the overall cost per wafer have been increased by 8~10%
(3)10/5 is the paper launch
Tomcat70
2005-09-10, 08:03:26
ATI's 512-bit Ring Bus and R520 Product Naming
http://www.anandtech.com/video/showdoc.aspx?i=2527
ATI's 512-bit Ring Bus and R520 Product Naming
http://www.anandtech.com/video/showdoc.aspx?i=2527
512bit Texture Cache???
512bit Texture Cache???
"512-bit L2 texel cache bus"
Adaptive Anti Aliasing
ohhh nein :-(
DrumDub
2005-09-10, 09:00:08
Adaptive Anti Aliasing
ohhh nein :-( was ist daran jetzt schlecht?
Tomcat70
2005-09-10, 09:11:55
was ist daran jetzt schlecht?
keine ahnung was der gast im sinn hat, ist ja noch nicht mal genau klar was das sein soll.
klingt irgendwie nach variablem AA innerhalb der darstellung, ist das überhaupt technisch möglich?
Adam D.
2005-09-10, 09:45:32
Würde auch gerne mal wissen, was dieses "Adaptive Anti-Aliasing" ist.
DrumDub
2005-09-10, 09:50:01
Würde auch gerne mal wissen, was dieses "Adaptive Anti-Aliasing" ist. tjo, adaptiv heißt ja nur angepasst. was es genau ist, kann jetzt noch keiner sagen...
Winter[Raven]
2005-09-10, 09:53:05
Machbar wäre es schon, nur bezweifle ich mal das hinten was sinnvolles rauskommt.
Adaptive Anti-Aliasing ist wohl ein AA das nach Entfernung zu Objekten angewendet wird, das heißt es werden verschiedene AA interpoliert.
MikBach
2005-09-10, 10:48:06
keine ahnung was der gast im sinn hat, ist ja noch nicht mal genau klar was das sein soll.
klingt irgendwie nach variablem AA innerhalb der darstellung, ist das überhaupt technisch möglich?
Vielleicht eine Art Transparent AA unter einer anderen Bezeichnung?
SKYNET
2005-09-10, 10:56:09
also ich würde mal sagen das da wohl unterschiedliche AA modis zusammen laufen, also 2xAA / 4xAA / 6xAA und das halt je nachdem wie es gebraucht wird, wäre ansich auch keine schlechte idee, die frage ist nur.... wie will man das wirklich gekonnt umsetzen? ich lasse mich da mal überraschen. =)
Vielleicht eine Art Transparent AA unter einer anderen Bezeichnung?
[ ] ich weiß nicht was adaptiv bedeutet
3DLabs hat auch eine Form von adaptivem Antialiasing – und das gilt mit zum Besten, was es in Bereich Antialiasing gibt.
Tomcat70
2005-09-10, 11:04:52
3DLabs hat auch eine Form von adaptivem Antialiasing – und das gilt mit zum Besten, was es in Bereich Antialiasing gibt.
das hier?:
http://www.beyond3d.com/articles/wildcatiii/index.php?page=page4.inc
http://www.beyond3d.com/articles/wildcatiii/index.php?page=page5.inc
http://www.beyond3d.com/articles/wildcatiii/index.php?page=page6.inc
MikBach
2005-09-10, 11:07:27
[ ] ich weiß nicht was adaptiv bedeutet
Schön, dass du nicht weisst, was adaptiv bedeutet.
Es bedeutet einfach nur, dass sich das AA an die gerenderte Scene anpasst.
Das tut Transparent AA bezogen auf den Content auch.
Tomcat70
2005-09-10, 11:12:35
die frage ist nun ob "ultra-threaded quad-core architecture" und "512-bit ring bus memory controller" nur schön klingen sollen oder auch wirklich gut was können.......kanns kaum mehr erwarten mehr davon zu erfahren.
die frage ist nun ob "ultra-threaded quad-core architecture" und "512-bit ring bus memory controller" nur schön klingen sollen oder auch wirklich gut was können.......kanns kaum mehr erwarten mehr davon zu erfahren.
internally 512bit(512bit texture L2 Cache) but externally 256bit
Mr.Tomcat, I can remind you some benchmark:
16PS 700MHz /1250 3D05 7600
24PS 650MHz /1400 3D05 8600
The problem is R520's Pixel Shader Configuration is Single-issued ALU compared
to Dual-issued ALU designed in G70.
Btw, 800MHz is plausible.
Igzorn
2005-09-10, 11:56:50
Ist eigentlich schon mal jemand auf die idee gekommen das auch beim ati chip es mehrere Taktfrequenzen gibt?
Vielleicht reicht ja die spanne von 600MHZ - 700MHZ oder gar mehr in bestimmten berreichen.
Wenn sie es HDR nennen bekommt es doch niemand mit. :) nVidia bietet auch kein 128bit HDR, was eigentlich erst absolut vollwertiges HDR ist. Mit FP16 lassen sich durchaus Szenen mit Sonne konstruieren, wo die Präzision nicht mehr reicht und wo nur 128bit HDR sauber rechnet. Ein bissl mehr Dynamikumfang muss also schon sein, um Szenen völlig realistisch zu machen, zumindest mit Sonne am Himmel.Ist fast richtig. FP16 bietet selbst mit Denorms noch nicht den Dynamik-Umfang, den unser Auge abdeckt (das Auge bietet etwa 2 db mehr.) Aaaber: FP16 bietet sehr, sehr viel mehr als FX8. Nutzt man FP16 (zur Not auch ein FP16 ohne Denorms, was noch mal einige db Dynamik kostet) voll aus, kann man bei kluger Programmierung atemberaubende Beleuchtungsmodelle implementieren, die mit FX8 (oder FP10) einfach nicht möglich sind.
Es besteht kein Grund, FP16 irgendwie kleinreden zu wollen, weil ATI das vielleicht jetzt noch nicht anbieten wird. FP16 ist ein gewaltiger Sprung, und dürfte angesichts des Bandbreiten-Problem nicht über nacht von FP32 abgelöst werden.
Dass FP16 nicht ganz den Dynamik-Umfang des Auges abdeckt ist auch insofern nicht so problematisch, als dass Monitore eh ein viel kleineres Kontrastverhältnis haben. Selbst bei angenommenen 1:10000 – damit ist FP16 noch völlig unterfordert. Insofern kann man gleich mit komprimierter, als in geringerer Dynamik rechnen, ohne dass die Ausgabe qualitativ verschlechtert wird. FP16 bietet dabei noch genug Spielraum, um die Anpassung des Auges an unterschiedliche Lichtverhältnisse zu simulieren. Auch wenn FP16 noch nicht das Ende der Entwicklung markiert, ist es doch ein Meilenstein.
Der Memory Controller des R520 entspricht dem des Xenos. Dieser hat auch den 512Bit-Ring Bus.
Exxtreme
2005-09-10, 16:19:03
Naja, das adaptive AA kann ja alles Mögliche sein. Kann sein, daß dies dem Transparenz-AA entspricht, welches auch adaptiv ist. Kann aber wiederum sein, daß der Chip prüft ob eine Kante überhaupt als eine Kante wahrgenommen wird und glättet diese dann oder auch nicht etc.
Die gelbe Eule
2005-09-10, 16:27:35
Das würde dann wiederum bedeuten, das dem User die manuelle Kontrolle über das AA genommen wird oder?
Fällt unter unliebsame Optimierungen ...
Naja, das adaptive AA kann ja alles Mögliche sein. Kann sein, daß dies dem Transparenz-AA entspricht, welches auch adaptiv ist. Kann aber wiederum sein, daß der Chip prüft ob eine Kante überhaupt als eine Kante wahrgenommen wird und glättet diese dann oder auch nicht etc.Was soll so eine Prüfung bringen? Wie willst du die bewerkstelligen? Du brauchst für gültiges AA ohnehin den Speicher, um ggf. für alle Pixel alle Samples speichern zu können. Die MSAA-Logik ist kaum der Flaschenhals.
Der Memory Controller des R520 entspricht dem des Xenos. Dieser hat auch den 512Bit-Ring Bus.
Davon ist hier aber nichts zu sehen:
http://pcweb.mycom.co.jp/articles/2005/09/09/cedec1/003.html
Warum auch sollte R520 mit deutlich anderer Speicheranbindung denselben Memory Controller haben?
reunion
2005-09-10, 16:44:25
3DLabs hat auch eine Form von adaptivem Antialiasing – und das gilt mit zum Besten, was es in Bereich Antialiasing gibt.
Was macht das AA von 3DLabs anders/besser?
reunion
2005-09-10, 16:46:10
Naja, das adaptive AA kann ja alles Mögliche sein. Kann sein, daß dies dem Transparenz-AA entspricht, welches auch adaptiv ist. Kann aber wiederum sein, daß der Chip prüft ob eine Kante überhaupt als eine Kante wahrgenommen wird und glättet diese dann oder auch nicht etc.
Vielleicht auch eine art FAA wie bei der Matrox Parhelia.
Oder ein fps-abhängiges AA, welches je nach den erreichten fps mehr- oder weniger AA-Samples verwendet - also den AA-Grad dynamisch ändert.
Was macht das AA von 3DLabs anders/besser?
Es berechnet bis zu 16 Samples pro Pixel. Sehr viel ist über die genaue Arbeitsweise leider nicht bekannt.
http://www.beyond3d.com/articles/wildcatiii/index.php?page=page4.inc
Es ist IMO davon auszugehen, dass ATI mit dem R520 auch ein Transparenz-AA bieten wird. Es wäre durchaus möglich, dass man dies nun als "adaptives AA" bezeichnet.
"ultra-threaded quad-core architecture"= 4 arrays of 16 unified ALUs
seahawk
2005-09-10, 16:54:25
Ich hoffe, dass adaptiv nicht eine weiter "Verbessertung" der BQ zu gunsten von Performance bedeutet.
So nach dem Prinzip :
45° Kanten kriegen das volle AA
Alles andere eine Stufe weniger
was ist jetzt mit den 512bit?
ist schon bekannt wofür das gut ist?
alles was bisher darüber geschreiben wurde, hab ich nicht verstanden.
mapel110
2005-09-10, 17:03:35
Es berechnet bis zu 16 Samples pro Pixel. Sehr viel ist über die genaue Arbeitsweise leider nicht bekannt.
http://www.beyond3d.com/articles/wildcatiii/index.php?page=page4.inc
Es ist IMO davon auszugehen, dass ATI mit dem R520 auch ein Transparenz-AA bieten wird. Es wäre durchaus möglich, dass man dies nun als "adaptives AA" bezeichnet.
Dafür gibts doch schon diese API-Wrapper für opengl und d3d, die man in die Spieleverzeichnisse kopieren muss. Die funktionieren auch auf R4xx-Karten.
Merkwürdigerweise find ich die nicht mehr wieder. Die gabs doch im Beyond3d-forum zum download?! :confused:
MikBach
2005-09-10, 17:03:52
Ich hoffe, dass adaptiv nicht eine weiter "Verbessertung" der BQ zu gunsten von Performance bedeutet.
So nach dem Prinzip :
45° Kanten kriegen das volle AA
Alles andere eine Stufe weniger
Keine Panik.
Das wird man nachprüfen. Und sollte ATI sowas bringen, gibts Schelte, wie es beim G70 der Fall war.
Dafür gibts doch schon diese API-Wrapper für opengl und d3d, die man in die Spieleverzeichnisse kopieren muss. Die funktionieren auch auf R4xx-Karten.
Merkwürdigerweise find ich die nicht mehr wieder. Die gabs doch im Beyond3d-forum zum download?! :confused:
http://www.humus.ca/index.php?page=Cool
Gerade weil es auch eine DirectX-Version davon gibt, und DirectX kein Alpha-to-Coverage unterstützt, muss man ziemlich sicher davon ausgehen dass es im Treiber bereits den entsprechenden Schalter gibt.
Black-Scorpion
2005-09-10, 17:43:47
http://www.humus.ca/index.php?page=Cool
Gerade weil es auch eine DirectX-Version davon gibt, und DirectX kein Alpha-to-Coverage unterstützt, muss man ziemlich sicher davon ausgehen dass es im Treiber bereits den entsprechenden Schalter gibt.
Dazu gibt es auch einen Thread im ATI Forum.
OpenGL und D3D Wrapper um Alpha to Coverage zu forcen... (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=246335)
Oder ein fps-abhängiges AA, welches je nach den erreichten fps mehr- oder weniger AA-Samples verwendet - also den AA-Grad dynamisch ändert.
sowas hat doch die noch aktuelle ati generation auch schon, temporely antialising (oder so ähnlich..).
MikBach
2005-09-10, 18:33:02
sowas hat doch die noch aktuelle ati generation auch schon, temporely antialising (oder so ähnlich..).
Meinst du die verkaufen uns die selbe Technologie unter einem anderen Namen?
deekey777
2005-09-10, 18:35:37
Jo, der Zusammenhang ist zu offensichtlich.
Lost Coast bekommen aber doch alle HL2-Besitzer?!
Ich zitier dich noch einmal:
Jetzt heißt es, daß Lost Coast nach DoD:S kommt. Welch ein Zufall, daß der R520 Ende September/Anfang Oktober vorgestellt wird.
Die gelbe Eule
2005-09-10, 18:38:14
Es bleibt abzuwarten, falls ATI HDR bringt, wie performant eine 16 pipes Version gegen eine 7800GTX aussieht. Sollte es eine 24 pipes und mehr geben, hat keiner was davon, wenn sie erst 2-3 Monate später zu kaufen ist.
SKYNET
2005-09-10, 18:48:46
Schön, dass du nicht weisst, was adaptiv bedeutet.
Es bedeutet einfach nur, dass sich das AA an die gerenderte Scene anpasst.
Das tut Transparent AA bezogen auf den Content auch.
ich weiß sicher was adaptiv heißt, du nicht, sonst wärst nicht mit TAA gekommen. :P
Tomcat70
2005-09-10, 18:50:04
Es bleibt abzuwarten, falls ATI HDR bringt, wie performant eine 16 pipes Version gegen eine 7800GTX aussieht. Sollte es eine 24 pipes und mehr geben, hat keiner was davon, wenn sie erst 2-3 Monate später zu kaufen ist.
wie oft noch? inzwischen wurde oft genug erwähnt das die ps-anzahl alleine zu wenig über die performance aussagt.
ich denke nicht das ATI eine karte auf den markt bringt die nicht zumindest genauso schnell ist wie eine 7800GTX (mit den "natürlichen" abweichungen), das zu erwarten ist imo unrealistisch.
und der r580 wird sicher nicht gleich 2-3 monate später kommen.
nochmal, pipes alleine sagt zu wenig aus.
MikBach
2005-09-10, 18:50:12
ich weiß sicher was adaptiv heißt, du nicht, sonst wärst nicht mit TAA gekommen. :P
TAA ist aber adaptives AA.
Leider verloren. :D
deekey777
2005-09-10, 18:56:46
Es bleibt abzuwarten, falls ATI HDR bringt, wie performant eine 16 pipes Version gegen eine 7800GTX aussieht. Sollte es eine 24 pipes und mehr geben, hat keiner was davon, wenn sie erst 2-3 Monate später zu kaufen ist.
Meinst du das im Zusammenhang zu Lost Coast?
Falls ja:
Das Source Engine "HDR" wäre da nicht das Problem, denn es gibt dort zwei Versionen - die visuell bescheidenere SM 2.0 HDR+MSAA Version und die visuell bessere "SM 3.0" Version, aber ohne MSAA. ATi ist in einer Zwickmühle, denn die X800er können ja dieses SM 2.0 HDR und dazu noch iVm. MSAA, doch es nicht das hübsche "HDR" einer 6800/7800 - sie müssen unbedingt zeigen, daß sie mit R520 mit der Konkurrenz gleichgezogen sind, wenn nicht so gar überholt (zB FP16 HDR+MSAA).
Und jetzt kommt VALVe seinen Verpflichtungen nach und veröffentlicht das DoD:S, das als erstes Source-Spiel HDR unterstützen wird; ATi wurde so zum zweiten Mal Opfer der Marketingpartnerschaft mit VALVe, doch diesmal selbstverschuldet: Alle DoD:S Spieler werden mit einer 7800GTX ein anderes besseres "HDR-Erlebnis" erfahren als Besitzer einer X800XY. DoD:S ist auch keine Mogelpackung, wie es HL:S war, sondern vielleicht noch besser als Counter-Strike: Source.
Andererseits soll Lost Coast nicht einfach eine HDR-Demo sein, sondern den Interviews nach auch besser aussehen als HL2 - nicht nur HDR, sondern auch bessere Texturen usw., was den Status einer "Launch-Technologiedemo" stärk, denn zB "The Project" zum Start der X850er Serie war um einiges schöner als Far Cry selbst.
Aber alles nur reine Speku...
seahawk
2005-09-10, 19:43:25
wie oft noch? inzwischen wurde oft genug erwähnt das die ps-anzahl alleine zu wenig über die performance aussagt.
ich denke nicht das ATI eine karte auf den markt bringt die nicht zumindest genauso schnell ist wie eine 7800GTX (mit den "natürlichen" abweichungen), das zu erwarten ist imo unrealistisch.
und der r580 wird sicher nicht gleich 2-3 monate später kommen.
nochmal, pipes alleine sagt zu wenig aus.
Das haben die meisten vor der Vorstellung der 5800U auch gedacht. Sicher ist nichts, so lange man keine definitiven und unabhängigen Benchmarks gesehen hat.
seahawk
2005-09-10, 19:47:27
TAA ist aber adaptives AA.
Leider verloren. :D
Adaptiv bedeutet je anpassenend. In wieweit ist TSAA anpssend, den dort wird ja auch der eingestellte AA Grad auf die Alpha Samples angewandt.
Adaptiv muss bedeuten, dass der AA Grad unter Berücksichtigung bestimmter Faktoren veriabel ist.
Denkbar wäre auch eine Lösung, die den AA Grad ab Unterschreitung einer bestimmten Framezahl automatisch herunterfährt. So könnte man im Treiber praktisch immer max AA fahren.
Tomcat70
2005-09-10, 19:49:07
Sicher ist nichts, so lange man keine definitiven und unabhängigen Benchmarks gesehen hat.
keine frage, das stimmt natürlich. dennoch glaube ich das die situation von damals nicht ganz vergleichbar ist. will sagen das nv damals sicher mehr überrascht von der 9700pro war als es ati durch die 7800gtx gewesen ist.
seahawk
2005-09-10, 19:55:43
Doch eigentlich schon. Der tecjnologisch im Rücksant liegende Marktführer versucht mit einem featuremäßig erweiterten, verspätetem und höher getakten Aufguss seiner alten Technologie in einem unerprobten Fertigungsverfahren gegen den Marktzweiten anzutreten.
Wobei ich wirklich nicht eine solche Deutlichkeit wie damals erwarte, die Situation ist aber imho doch ähnlich.
MikBach
2005-09-10, 20:01:32
Adaptiv bedeutet je anpassenend. In wieweit ist TSAA anpssend, den dort wird ja auch der eingestellte AA Grad auf die Alpha Samples angewandt.
Adaptiv bedeutet hier, dass je nach Content MSAA oder SSAA verwendet wird.
edit: lol, statt SSAA habe ich TSAA geschrieben. Warum sagt niemand bescheid, dass ich Müll geschrieben habe?
Tomcat70
2005-09-10, 20:04:47
Doch eigentlich schon. Der tecjnologisch im Rücksant liegende Marktführer versucht mit einem featuremäßig erweiterten, verspätetem und höher getakten Aufguss seiner alten Technologie in einem unerprobten Fertigungsverfahren gegen den Marktzweiten anzutreten.
Wobei ich wirklich nicht eine solche Deutlichkeit wie damals erwarte, die Situation ist aber imho doch ähnlich.
damals ging es soweit ich weiss hauptsächlich um 128 bit(5800 ultra) gegen 256 bit(9700 pro).
und einen reinen aufguss des r480 sehe ich im r520 inzwischen wahrlich nicht mehr.
reunion
2005-09-10, 20:37:36
sowas hat doch die noch aktuelle ati generation auch schon, temporely antialising (oder so ähnlich..).
Nein, TAA wechselt bei jedem Frame die Samplepositionen des AA-Grids.
Was ich meine ist ein AA, wo ich z.B. eine gewisse Framerate einstelle, welche nicht unterschritten werden darf, und sich die AA-Sampleanzahl danach automatisch regelt. Ich habe dann also an Stellen, an denen ich außreichend fps zur verfügung habe den maximal möglichen AA-Grad, und an Stellen, an denen die Frames niedrig sind nur sehr wenig bis kein AA.
Majestic
2005-09-10, 20:39:00
Ob die geleakten Bilder des R520 schon eine XT waren? Oder doch nur ne Pro/XL :confused:
MikBach
2005-09-10, 20:46:33
Nein, TAA wechselt bei jedem Frame die Samplepositionen des AA-Grids.
Da haben wir den Salat. :(
TAA wird für Transpanent-Aliasing und für Temporaly Aliasing verwendet.
Man muss sich schon auf irgendwelche Kürzel einigen, weil man sonst nicht genau weiss, worum es geht.
Was ich meine ist ein AA, wo ich z.B. eine gewisse Framerate einstelle, welche nicht unterschritten werden darf, und sich die AA-Sampleanzahl danach automatisch regelt. Ich habe dann also an Stellen, an denen ich außreichend fps zur verfügung habe den maximal möglichen AA-Grad, und an Stellen, an denen die Frames niedrig sind nur sehr wenig bis kein AA.
Eine geniale Idee.
boxleitnerb
2005-09-10, 21:09:00
Könnte es nicht zu Aliasing führen, wenn von 6xAA auf zB 2xAA gewechselt wird?
MikBach
2005-09-10, 21:12:18
Könnte es nicht zu Aliasing führen, wenn von 6xAA auf zB 2xAA gewechselt wird?
Was soll die Frage?
Natürlich sieht man mit 2xAA mehr Aliasing als mit 6xAA.
mapel110
2005-09-10, 21:14:29
Könnte es nicht zu Aliasing führen, wenn von 6xAA auf zB 2xAA gewechselt wird?
ehm, es führt zu Kantenflimmern, angeblich.
Ich hab die Hintergründe für das angeblich vorhandene Flimmern beim ATIs TemporalAA jedenfalls nicht verstanden.
aths und z-bag sind jedenfalls der Ansicht. TAA forced afaik vsync und greift ohnehin erst bei fps >60
Man sollte das Flimmern also nicht sehen können. Aber nunja ...
xL|Sonic
2005-09-10, 21:26:31
Also wenn es so wäre wie reunion das beschrieben hat, dann wäre das in meinen Augen ein absolutes Killerfeature, weil nichts stört mich mehr, als wenn ich framedrops bekomme, die an der Grenze zur Unspielbarkeit liegen...vorallem vielleicht noch an Stellen, die besonders wichtig sind. So muss man dann komplett auf AA verzichten, nur um überall ein flüssiges Spiel erleben zu können und wenn sich der AA-Grad selber anpassen würde, wäre das schon sehr genial.
Also wenn es so wäre wie reunion das beschrieben hat, dann wäre das in meinen Augen ein absolutes Killerfeature, weil nichts stört mich mehr, als wenn ich framedrops bekomme, die an der Grenze zur Unspielbarkeit liegen...vorallem vielleicht noch an Stellen, die besonders wichtig sind. So muss man dann komplett auf AA verzichten, nur um überall ein flüssiges Spiel erleben zu können und wenn sich der AA-Grad selber anpassen würde, wäre das schon sehr genial.
das gibts es doch schon mit temporal AA oder ist das was ganz anderes?
Die gelbe Eule
2005-09-10, 22:01:53
Meinst du das im Zusammenhang zu Lost Coast?
Falls ja:
Das Source Engine "HDR" wäre da nicht das Problem, denn es gibt dort zwei Versionen - die visuell bescheidenere SM 2.0 HDR+MSAA Version und die visuell bessere "SM 3.0" Version, aber ohne MSAA. ATi ist in einer Zwickmühle, denn die X800er können ja dieses SM 2.0 HDR und dazu noch iVm. MSAA, doch es nicht das hübsche "HDR" einer 6800/7800 - sie müssen unbedingt zeigen, daß sie mit R520 mit der Konkurrenz gleichgezogen sind, wenn nicht so gar überholt (zB FP16 HDR+MSAA).
Und jetzt kommt VALVe seinen Verpflichtungen nach und veröffentlicht das DoD:S, das als erstes Source-Spiel HDR unterstützen wird; ATi wurde so zum zweiten Mal Opfer der Marketingpartnerschaft mit VALVe, doch diesmal selbstverschuldet: Alle DoD:S Spieler werden mit einer 7800GTX ein anderes besseres "HDR-Erlebnis" erfahren als Besitzer einer X800XY. DoD:S ist auch keine Mogelpackung, wie es HL:S war, sondern vielleicht noch besser als Counter-Strike: Source.
Andererseits soll Lost Coast nicht einfach eine HDR-Demo sein, sondern den Interviews nach auch besser aussehen als HL2 - nicht nur HDR, sondern auch bessere Texturen usw., was den Status einer "Launch-Technologiedemo" stärk, denn zB "The Project" zum Start der X850er Serie war um einiges schöner als Far Cry selbst.
Aber alles nur reine Speku...
Nicht ganz abwegig Deine Spekulation. Wie Du sagtest ist ATI selbst schuld, aber auch im anderen Sinne:
Lost Coast wird wohl Vorzeigeobjekt werden, was HDR und Grafik angeht, DOD:S hingegen ist ja nur ein "Source Ableger". Nur hat leider hier ATI den Zug verpasst aufgrund ihrer schlechten Yield Ausbeute. Für die Quartalszahlen ist der September natürlich bei Valve sehr wichtig, alles was im Oktober kommt, hat erst 1 Quartal später Auswirkungen.
Und wie performant ATI nun beim verbesserten HL² dasteht, wo NV doch deutlich vorgelegt hat, wird wohl zukunftsweisend werden. Die Source Engine gehört neben der Q3 nunmal zur meistgenutzten am Markt und bei der strategischen Partnerschaft mit ATI wäre ein Fehltritt der Genickbruch der X1xxx. Nirgendwo sonst ist der Hype größer ...
Tomcat70
2005-09-10, 22:01:53
Was soll die Frage?
Natürlich sieht man mit 2xAA mehr Aliasing als mit 6xAA.
ich denke nicht das sowas mit "adaptivem antialiasing" gemeint ist.
das würde optisch auch nicht viel sinn machen, weil es ja klar erkennbar wäre wenn umgeschaltet würde.
ausserdem klingt sowas eher nach treiber- als hardware-feature.
Die gelbe Eule
2005-09-10, 22:05:34
Nur wer entscheidet wo welches AA eingesetzt wird? Was wenn der Nutzer vielleicht gerne hier und da weniger oder mehr AA haben möchte?
Das "Feature" kann gar nicht hardwareseitig sein, da ja irgendwo Entscheidungen getroffen werden müssten, wann es etwas bringt und wann nicht ...
Viel zu kompliziert und könnte auch damit Nutzer verärgern.
Tomcat70
2005-09-10, 22:05:55
Die Source Engine gehört neben der Q3 nunmal zur meistgenutzten am Markt und bei der strategischen Partnerschaft mit ATI wäre ein Fehltritt der Genickbruch der X1xxx. Nirgendwo sonst ist der Hype größer ...
also so dermassen stark vertreten ist die source engine zur zeit noch nicht am markt (ausser natürlich durch hl2 selbst, welchers ein grosser name und verkaufsdauerbrenner ist). klarerweise ist dieser markt immer in bewegung.
hype bezüglich x1800 kann ich auch nicht gerade so arg viel ausmachen. da war der hype um hl2 wesentlich grösser. momentan sind die meisten eher sehr skeptisch bzw. realistisch.
Die gelbe Eule
2005-09-10, 22:08:00
Der Hype wird kommen wenn man die X1800 in Verbindung mit Loast Coast als Doppelaunch präsentiert. Hier muss aber wirklich ein deutlicher Unterschied zur Konkurrenz zu sehen sein.
dargo
2005-09-10, 22:08:34
Eine kleine Überlegung zum adaptiven AA.
Wäre es eigendlich möglich weiter entfernte Objekte mit weniger AA zu glätten ?
Man stelle sich zb. ein Rennspiel vor. Die Objekte die vorne auf dem Bildschirm erscheinen laufen mit 6xAA, die in der Mitte mit 4xAA und die ganz hinteren mit 2xAA.
Wäre sowas machbar und vor allem sinnvoll :confused:
Die gelbe Eule
2005-09-10, 22:11:44
Glaube kaum das ein Bild aus verschiedenen AA Modi zusammengesetzt werden kann. Eher das sich die Karte auf das Spiel einstellt und bei übriger Rechenleistung das AA erhöht.
Diese wenn mögliche Überlagerung würde ja ziemlich viel Performance kosten, da jedes Bild mehrmals gefiltert werden müßte.
MikBach
2005-09-10, 22:15:09
Eine kleine Überlegung zum adaptiven AA.
Wäre es eigendlich möglich weiter entfernte Objekte mit weniger AA zu glätten ?
Warum nicht? Es hängt halt vom Algorithmus ab.
Tomcat70
2005-09-10, 22:19:08
Der Hype wird kommen wenn man die X1800 in Verbindung mit Loast Coast als Doppelaunch präsentiert. Hier muss aber wirklich ein deutlicher Unterschied zur Konkurrenz zu sehen sein.
wenn das genauso geschehen würde, wäre es ja dann kein hype mehr.
Enterprise
2005-09-10, 22:28:24
http://rage3d.com/board/showthread.php?t=33828240&page=1&pp=30
Lest mal den Kommentar von Kombatant , der ist von Rage3D. Was der sagt hört sich aber nicht nach euren Spekulationen an. ER muss es genauer wissen, da er den R520 schon in voller Pracht gesehen hat!
Originally Posted by zatein
Initially, it sounds interesting on the view of new technologies. The ring bus might be something with on-end, ring is circle, thus the bus might be layout as a ring in order to circulate signals to its component (this is my guess so). For adaptive AA, as I understand right now, AA is something optimized different by angle applied (anyone can correct me if is this mis-undertood). Thus, it would be called as scheduling AA (fixed per angle of AA) which is now, I believe, used on NV47 (7800). Adaptive in term of control theory, this means adjustable... I guess may be AA can be adaptive and changed accordingly to the situation (just assumption so). Anyway, they also mentioned that up coming month... that means the launch will be on Oct, doesn't it? There will be a lot more detail of this R520 emerged soon, I hope. It will be more and more interesting.
Nah, AdaptiveAA is nothing like that. I can tell you though that nobody will complain anymore when they see it live
__________________
xL|Sonic
2005-09-10, 22:38:25
Nur wer entscheidet wo welches AA eingesetzt wird? Was wenn der Nutzer vielleicht gerne hier und da weniger oder mehr AA haben möchte?
Das "Feature" kann gar nicht hardwareseitig sein, da ja irgendwo Entscheidungen getroffen werden müssten, wann es etwas bringt und wann nicht ...
Viel zu kompliziert und könnte auch damit Nutzer verärgern.
Ich versteh den Sinn hinter deiner frage nicht.
Es wäre ein alternativer AA Modi, der dem Nutzer die bestmögliche Bildqualität mit einer konstant guten Bildrate liefern würde, ohne Framedrops oder ähnliches. Da geht es nicht ums entscheiden, weil dann kannst du ja z.b. 6x MSAA nehmen. Man könnte ja als Ausgangspukt 60fps nehmen und wenn es darunter fällt, wird das AA runtergeschraubt. Es gibt ja auch Spiele, die ähnlich verfahren mit ihrer Detailstufe, wo ab einer bestimmten Framezahl die Effekte runtergeschraubt werden (komme nicht auf die Namen).
mapel110
2005-09-10, 22:41:57
Ich versteh den Sinn hinter deiner frage nicht.
Es wäre ein alternativer AA Modi, der dem Nutzer die bestmögliche Bildqualität mit einer konstant guten Bildrate liefern würde, ohne Framedrops oder ähnliches. Da geht es nicht ums entscheiden, weil dann kannst du ja z.b. 6x MSAA nehmen. Man könnte ja als Ausgangspukt 60fps nehmen und wenn es darunter fällt, wird das AA runtergeschraubt. Es gibt ja auch Spiele, die ähnlich verfahren mit ihrer Detailstufe, wo ab einer bestimmten Framezahl die Effekte runtergeschraubt werden (komme nicht auf die Namen).
Und wenn der Framedrop nicht durchs AA verursacht wird, hat man plötzlich weniger oder gar kein AA und genauso viel fps.
dargo
2005-09-10, 22:44:50
Es wäre ein alternativer AA Modi, der dem Nutzer die bestmögliche Bildqualität mit einer konstant guten Bildrate liefern würde, ohne Framedrops oder ähnliches. Da geht es nicht ums entscheiden, weil dann kannst du ja z.b. 6x MSAA nehmen. Man könnte ja als Ausgangspukt 60fps nehmen und wenn es darunter fällt, wird das AA runtergeschraubt.
Ich kann mir nicht vorstellen, daß es so kommen wird. Wie will man das denn realisieren ?
Ein interner Framezähler im Chip ? :|
Woher soll die Grafikkarte wissen wie hoch die fps im Moment sind ?
Außerdem, wie soll ATI entscheiden ab wieviel Frames ein Game flüssig läuft.
Für den einen sind 30fps flüssig, für den anderen wiederum 60fps, je nach Spiel.
xL|Sonic
2005-09-10, 22:54:07
Und wenn der Framedrop nicht durchs AA verursacht wird, hat man plötzlich weniger oder gar kein AA und genauso viel fps.
Ja und wo ist da das Problem? :confused:
Dann würde man so oder so nicht mit AA spielen können. Es gibt aber genügend Stellen, an denen man locker AA einsetzen kann im Spiel und bei anderen wiederum nicht. z.B. habe ich bei BF2 stellenweise um die 85-100 fps, wo ich locker 2 oder 4x AA fahren könnte, wenn ich dann aber in einem Feuergefecht bin z.B. gehen die fps runter auf 40(mit AA wären das dann vielleicht nur noch 20), wo sich das AA deaktivieren könnte. So hätte ich zwar nicht zu 100% während der Spielzeit eine sehr gute Bildqualität, aber wenigstens vielleicht zu 50%, dafür aber zu jeder Zeit flüssig und spielbar.
xL|Sonic
2005-09-10, 22:56:09
Ich kann mir nicht vorstellen, daß es so kommen wird. Wie will man das denn realisieren ?
Ein interner Framezähler im Chip ? :|
Woher soll die Grafikkarte wissen wie hoch die fps im Moment sind ?
Außerdem, wie soll ATI entscheiden ab wieviel Frames ein Game flüssig läuft.
Für den einen sind 30fps flüssig, für den anderen wiederum 60fps, je nach Spiel.
Vielleicht könnte man das ja über den Treiber realisieren, dass man einen Wert einstellen kann, also ob 30 oder 60fps. Generell müsste dann wohl auch viel über den Treiber laufen, auch was die FPS-Erkennung im Spiel angeht.
Aber ich bin kein 3D-Profi und weiß nicht, ob sowas technisch realisierbar wäre.
Eine kleine Überlegung zum adaptiven AA.
Wäre es eigendlich möglich weiter entfernte Objekte mit weniger AA zu glätten ?
Man stelle sich zb. ein Rennspiel vor. Die Objekte die vorne auf dem Bildschirm erscheinen laufen mit 6xAA, die in der Mitte mit 4xAA und die ganz hinteren mit 2xAA.
Wäre sowas machbar und vor allem sinnvoll :confused:
Das wäre nicht sinnvoll, da der Abstand nicht darüber entscheidet wie sich Aliasing an Polygonkanten auswirkt.
Und wenn der Framedrop nicht durchs AA verursacht wird, hat man plötzlich weniger oder gar kein AA und genauso viel fps.
Grafikkarten messen im Betrieb eine ganze Menge Dinge. Es wäre ein leichtes für den Treiber zu erkennen, ob der Framedrop am AA lag oder nicht.
Die gelbe Eule
2005-09-10, 23:00:04
Und wie möchte man das markttechnisch verkaufen, wen man sagt: Du hast ne super Quali mit konstanten 60 fps.
Das sieht nicht nach Überlegenheit aus ... und wie das Problem auch nicht in den Griff zu bekommen ist, hat man ja bei NFSU gesehen.
Die gelbe Eule
2005-09-10, 23:04:08
Ja und wo ist da das Problem? :confused:
Dann würde man so oder so nicht mit AA spielen können. Es gibt aber genügend Stellen, an denen man locker AA einsetzen kann im Spiel und bei anderen wiederum nicht. z.B. habe ich bei BF2 stellenweise um die 85-100 fps, wo ich locker 2 oder 4x AA fahren könnte, wenn ich dann aber in einem Feuergefecht bin z.B. gehen die fps runter auf 40(mit AA wären das dann vielleicht nur noch 20), wo sich das AA deaktivieren könnte. So hätte ich zwar nicht zu 100% während der Spielzeit eine sehr gute Bildqualität, aber wenigstens vielleicht zu 50%, dafür aber zu jeder Zeit flüssig und spielbar.
Das Problem wäre im Nutzen dieses Features. Wenn manche Stellen AA haben einige nicht, einige mit 4 AA auskommen anderen mit 6 AA, fällt das dem Spieler überhaupt auf?
Ich seh schon die Kommentare: Ich habe bei Stelle XY mit AAx8 gespielt und war von der Kantenglättung beindruckt und Du nur mit AAx2. Dafür hatte ich da 20fps mehr und konnte schneller an Punkt YZ sein. ;D
MikBach
2005-09-10, 23:08:20
Das wäre nicht sinnvoll, da der Abstand nicht darüber entscheidet wie sich Aliasing an Polygonkanten auswirkt.
Man könnte aber durch Early-Z erkennen, wo AA gebraucht wird und wo nicht.
dargo
2005-09-10, 23:15:46
Das wäre nicht sinnvoll, da der Abstand nicht darüber entscheidet wie sich Aliasing an Polygonkanten auswirkt.
Wenn ich dich richtig verstanden habe meinst du also, daß weiter entfernte Objekte zb. bei 4xAA nicht besser geglättet werden als Nähere (visuelles Empfinden).
Ich bin da anderer Meinung.
Oder habe ich dich falsch verstanden ?
xL|Sonic
2005-09-10, 23:35:34
Das Problem wäre im Nutzen dieses Features. Wenn manche Stellen AA haben einige nicht, einige mit 4 AA auskommen anderen mit 6 AA, fällt das dem Spieler überhaupt auf?
Ich seh schon die Kommentare: Ich habe bei Stelle XY mit AAx8 gespielt und war von der Kantenglättung beindruckt und Du nur mit AAx2. Dafür hatte ich da 20fps mehr und konnte schneller an Punkt YZ sein. ;D
Sry, aber es geht dabei nicht um irgendwelche Schwanzmark vergleiche oder ähnliches und ja, es gibt einen Unterschied zwischen den AA Stufen, der größte aber ist doch wohl, es einem Spieler überhaupt zu ermöglichen AA zu nutzen oder nicht? Ich verstehe echt nicht wo dein Problem ist. Irgendwie ist deine Sichtweise total verdreht und fernab von jeder Realität.
Ich bin ein Spieler und für mich ist es wichtig, wenn ein Spiel auf den bestmöglichen Settings flüssig läuft. Das das nicht immer geht, liegt daran, dass es keine einheitliche Hardwarebasis gibt wie auf Konsolen(und somit keine perfekte hardwareoptimierung). Somit muss man immer mit einem Kompromiss leben und bei mir heisst das oft, ganz oder gar nicht. AA+AF an oder AA+AF(oder ingame Details runterschrauben) aus.
Ich hätte aber lieber den Kompromiss eines variablen AA, der mir dann die bestmögliche Bildqualität liefert, wenn ich sie auch haben möchte und haben kann und ich finde, dass Feature würde sich super verkaufen, vorallem da es sogar noch mehr Leute dazu bringen würde AA einzusetzen, weil man nicht ständig schauen muss, ist damit nun alles spielbar oder nicht. Das ist bedeutend kundenfreundlicher und der Spieler kann sich wieder auf eines konzentrieren, auf den Spielegenuss.
deLuxX`
2005-09-11, 00:07:26
Man könnte aber durch Early-Z erkennen, wo AA gebraucht wird und wo nicht.
Mal davon abgesehen, ob sowas überhaupt sinnvoll ist oder nicht. Könnte man sowas eigentlich recht einfach und performanceschonend implementieren?
-deLuxX`
Wenn ich dich richtig verstanden habe meinst du also, daß weiter entfernte Objekte zb. bei 4xAA nicht besser geglättet werden als Nähere (visuelles Empfinden).
Ich bin da anderer Meinung.
Oder habe ich dich falsch verstanden ?
Es kommt nur auf die Lage der Kante (Winkel) und den Kontrast an, wie gut eine Kante mit AA geglättet wird. Die Entfernung ist völlig nebensächlich. Weder werden Kanten von entfernten Objekten besser oder schlechter geglättet, noch gibt es irgendeinen Grund warum sie es sollten.
Man könnte aber durch Early-Z erkennen, wo AA gebraucht wird und wo nicht.
Inwiefern jetzt? Die Lage der Polygonkanten ist schon vorher bekannt. Schnittkanten kann man mit Early-Z (in voller Auflösung) feststellen, ja. Aber das macht ja heutige Hardware bei Multisampling schon. Es ging doch um adaptives AA, und ich sehe nicht wie Early-Z da irgendwie helfen würde, denn wie gesagt, die Entfernung sollte für die Samplezahl keine Rolle spielen.
SentinelBorg
2005-09-11, 02:36:04
Wie aber schon gesagt wurde, so ein Feature ist eher eine Software-Sache und dürfte auch ohne Probleme von Nvidia umgesetzt werden können. Für mich also kein Killer-Feature, da ist TSAA doch weitaus interessanter.
Sentinel
Frank1974
2005-09-11, 02:46:55
Sry, aber es geht dabei nicht um irgendwelche Schwanzmark vergleiche oder ähnliches und ja, es gibt einen Unterschied zwischen den AA Stufen, der größte aber ist doch wohl, es einem Spieler überhaupt zu ermöglichen AA zu nutzen oder nicht? Ich verstehe echt nicht wo dein Problem ist. Irgendwie ist deine Sichtweise total verdreht und fernab von jeder Realität.
Ich bin ein Spieler und für mich ist es wichtig, wenn ein Spiel auf den bestmöglichen Settings flüssig läuft. Das das nicht immer geht, liegt daran, dass es keine einheitliche Hardwarebasis gibt wie auf Konsolen(und somit keine perfekte hardwareoptimierung). Somit muss man immer mit einem Kompromiss leben und bei mir heisst das oft, ganz oder gar nicht. AA+AF an oder AA+AF(oder ingame Details runterschrauben) aus.
Ich hätte aber lieber den Kompromiss eines variablen AA, der mir dann die bestmögliche Bildqualität liefert, wenn ich sie auch haben möchte und haben kann und ich finde, dass Feature würde sich super verkaufen, vorallem da es sogar noch mehr Leute dazu bringen würde AA einzusetzen, weil man nicht ständig schauen muss, ist damit nun alles spielbar oder nicht. Das ist bedeutend kundenfreundlicher und der Spieler kann sich wieder auf eines konzentrieren, auf den Spielegenuss.
Hallo
Sehe ich genauso,wenn man Höchstes AA einschaltet ,was aber nicht in allen Bereichen des Spiel benötigt wird,ist das reine Verschwendung an Rechenleistung,deshalb wäre so ein Feature wirklich ein guter Kompromiss aus BQ und Speed :smile: ,aber ich weiss nicht ob ATI wirklich so eine Technik anbieten wird,da müssen wir wohl noch etwas abwarten bis wir genaueres Wissen.Ausserdem darf es nicht so eingeschränkt sein wie Winkelabhängiges AF,wir wissen ja alle was das für ein Mist ist. :rolleyes:
MFG
Frank
Ailuros
2005-09-11, 04:32:33
MR.Ailuros and every one , I can give you some NDA info
(1)Die Size has been changed from(19.3*19 to 18.3*19)
(2)Due to Ali203 , the overall cost per wafer have been increased by 8~10%
(3)10/5 is the paper launch
The NDA drops at the last date stated; launch is one day after. Mal sehen wie viele es bemerken.
Ailuros
2005-09-11, 04:38:20
Zum AA des R520: viele hoffen mal wieder auf zu viel.....
Die gelbe Eule
2005-09-11, 05:17:41
MR.Ailuros and every one , I can give you some NDA info
(1)Die Size has been changed from(19.3*19 to 18.3*19)
(2)Due to Ali203 , the overall cost per wafer have been increased by 8~10%
(3)10/5 is the paper launch
Sollte das wirklich interne Info sein, was hätte das dann zu bedeuten?
reunion
2005-09-11, 10:21:50
Bei B3D hat jemand ein recht interessantes ATI-Patent ausgegraben:
Abstract of US2005179700
A method for determining the appearance of a pixel includes receiving fragment data for a pixel to be rendered; storing the fragment data; and determining an appearance value for the pixel based on the stored fragment data, wherein a portion of the stored fragment data is dropped when the number of fragment data per pixel exceeds a threshold value enabling large savings in memory footprint without impacting perceivably on the image quality. A graphics processor includes a rasterizer operative to generate fragment data for a pixel to be rendered in response to primitive information; and a render back end circuit, coupled to the rasterizer, operative to determine a pixel appearance value based on the fragment data by dropping the fragment data having the least effect on pixel appearance.
[...]
[0004] A typical graphics processing system would provide for culling decisions to be made based on graphical hardware and a central processing unit (CPU). Prior art systems utilized a CPU-based bounding system which defines areas such as the view frustum in the CPU. Then these systems perform a test to determine if a draw packet, such as a plurality of pixels, is rendered as a function of a depth test or other visibility determination. Although, prior solutions require the rasterization of pixels to determine a Z occlusion of pixels for the depth determination. For example, a wall having a visible characteristic on it which may be visible through a doorway in a graphic output, prior technique systems require portals to determine the visibility in the other room. Typically, the CPU is unable to detect a divider with an object behind it relative to the defined viewing portals.
[0005] Therefore, in prior graphics rendering systems, culling decisions are difficult to make based on a required synchronization between the central processing unit and the associated hardware to determine free computed factors for making further visibility determinations. For example, the central processing unit would require a feedback from the hardware with regards to defined parameters for a viewing portal to determine whether drawing packets having a depth beyond the portal are visible and worth rendering or should be culled from the rendering pipeline.
[0006] Therefore, there exists a need for a graphics processing system which allows for object-based visibility culling.
http://v3.espacenet.com/textdes?DB=EPODOC&IDX=US2005179700&F=0&QPN=US2005179700
dargo
2005-09-11, 11:25:29
Es kommt nur auf die Lage der Kante (Winkel) und den Kontrast an, wie gut eine Kante mit AA geglättet wird. Die Entfernung ist völlig nebensächlich. Weder werden Kanten von entfernten Objekten besser oder schlechter geglättet, noch gibt es irgendeinen Grund warum sie es sollten.
Also, doch winkelabhängiges AA. X-D
Ne mal im Ernst, ich habe mir nochmal die GT-Legens Demo in 1024x768 6xAA/0xAF angesehen. Man sieht es recht deutlich (vor allem am Schatten der Autos), daß die Kanten am eigenen Wagen größer sind als zb. an den Wagen weit vor mir.
Aber, daß eine Kante deutlich stärker in Auge sticht bei bestimmten Winkeln hast du natürlich Recht.
Man könnte aber durch Early-Z erkennen, wo AA gebraucht wird und wo nicht.Das macht die Kompression doch eh schon. Wenn alle 4 Samples bei 4xAA gleich sind in einem Bildbereich wird auch nur ein Sample gespeichert. Deshalb benötigt MSAA auch heute lange nicht mehr die 4-fache Bandbreite auf heutigen Grafikkarte.
Alu Leistung brauchst du eh nicht sparen, MSAA ist praktisch da praktisch kostenlos. Zwar sind heutige Grafikkarten in den ROPs limitiert 2 Samples pro Takt auszugeben, aber das ist auch nur eine künstliche Limitierung.
Alu Leistung brauchst du eh nicht sparen, MSAA ist praktisch da praktisch kostenlos. Zwar sind heutige Grafikkarten in den ROPs limitiert 2 Samples pro Takt auszugeben, aber das ist auch nur eine künstliche Limitierung.
Das heißt aber, man könnte sie so erweitern das sie 4 Samples pro Takt ausspucken, damit wäre 4xMSAA quasi gratis, wenn nicht die Bandbreite zum Speicher dazwischen funkt ^^
Die ROPs einfach zu verdoppeln scheint ja nicht wirklich was zu bringen...
Das ist jetzt auch schon quasi gratis, weil die Pixelshader selbst wenn man Trilinear benützt nur noch 0.5Pixel/Cycle ausspucken. NVIDIA ist ja sogar schon beim Highend den Weg gegangen weniger ROPs als Pixelpipelines einzubauen, ganz einfach aus dem Grund, weil das kein Limit darstellt und immer unwichtiger werden wird.
Imho ist es also äußerst zweifelhaft das ATi daran was ändern wird. Vielleicht können die ROPs beim R520 ja 4 loops und damit 8xAA, mal sehen...
MadManniMan
2005-09-11, 18:08:57
Das ist jetzt auch schon quasi gratis, weil die Pixelshader selbst wenn man Trilinear benützt nur noch 0.5Pixel/Cycle ausspucken.
Sry for dumb question, aber warum? Manni vergeßlich ;(
Weil trilinear samplen statt bilinear eben 2 statt 1 cycle kostet bei allen gängigen Grafikkarten (mal abgesehen von den S3 Dingern).
MadManniMan
2005-09-11, 18:22:24
Weil trilinear samplen statt bilinear eben 2 statt 1 cycle kostet bei allen gängigen Grafikkarten (mal abgesehen von den S3 Dingern).
Huppsa, ich hab mich vom "Pixelshader" verwirren lassen. Es ist für meinen ... ömm ... "klassisch" denkenden Kopf schwer zu fassen, daß nicht mehr die TMUs bzw. üblichen Combiner, sondern Pixelshader die Pixel ausspucken ;(
Horimoto
2005-09-11, 19:17:02
http://www.vr-zone.com/?i=2666&s=1
Dazu die Meldung von HKEPC, die dazu passt, dass ihr R520 8600 3dmark05 Punkte bekommt, 1000mehr als die GTX.
Sollte das wahr sein, wird nVidia ein Wunder erleben :)
http://www.vr-zone.com/?i=2666&s=1
Dazu die Meldung von HKEPC, die dazu passt, dass ihr R520 8600 3dmark05 Punkte bekommt, 1000mehr als die GTX.
Sollte das wahr sein, wird nVidia ein Wunder erleben :)24 Pipelines *hust*
mapel110
2005-09-11, 19:26:28
http://www.vr-zone.com/?i=2666&s=1
Dazu die Meldung von HKEPC, die dazu passt, dass ihr R520 8600 3dmark05 Punkte bekommt, 1000mehr als die GTX.
Sollte das wahr sein, wird nVidia ein Wunder erleben :)
Hmmmm, 10 VS. Also die sind mir neu. Immerhin geben sie sich Mühe, sich mehr Zahlen auszudenken. :rolleyes:
24 Pipelines *hust*
Gesundheit. :D
Aber man kann sich ja damit trösten, dass sie voneinander abschreiben.
MikBach
2005-09-11, 19:35:06
http://www.vr-zone.com/?i=2666&s=1
Dazu die Meldung von HKEPC, die dazu passt, dass ihr R520 8600 3dmark05 Punkte bekommt, 1000mehr als die GTX.
Sollte das wahr sein, wird nVidia ein Wunder erleben :)
3dMurks2005 ist Müll und spiegelt nicht die Spieleleistung wieder.
Möglich dass ATI den 05er gewinnt, aber bei Spielen nur gleich schnell oder schlechter ist.
Horimoto
2005-09-11, 19:46:12
Nun ja, ich meine hier sprechen alle die Ahnung haben von 16PP, aber woher wissen sie das? Sollten das, und das von vrzone ist mehr als brandaktuell, die specs sein, könnt ihr auch nix daran ändern.
Sie haben das Logo der X1800 Serie, dazu die specs, für mcih sieht das sehr 'echt' aus.
auf jeden Fall vertrauenswürdiger, als von einem Forummitglied, das behauptet, KOntakte zu haben (rage3d).
Sorry, aber für mich sieht das weder "echt" noch sonderlich seriös aus.
Jeder kann eine solche News (ohne weitere Quellenangaben bzw. nicht mal einen Verweis auf "ominöse Quellen") und ein solches Logo zusammenstoppeln...
Enterprise
2005-09-11, 20:14:28
Wieso? Ich bin sehr zuversichtlich das dies stimmt, da vr-zone auch für HKEPC die englische Übersetzung zum Firstlook auf HKEPC verfasst hat.
Mumins
2005-09-11, 20:17:48
3dMurks2005 ist Müll und spiegelt nicht die Spieleleistung wieder.
Möglich dass ATI den 05er gewinnt, aber bei Spielen nur gleich schnell oder schlechter ist.
Eher unwahrscheinlich, in letzter Zeit war es eher so, dass im 05 Murks ATI nicht wesentlich stärker war, dafür in Games aber umso mehr.
MikBach
2005-09-11, 20:27:05
Eher unwahrscheinlich, in letzter Zeit war es eher so, dass im 05 Murks ATI nicht wesentlich stärker war, dafür in Games aber umso mehr.
Deswegen sagt der 3DMurks2005 auch gar nichts aus...
Am Besten von der Benchmarkliste streichen, weil Daus darauf voll anspringen.
Mit der Spieleperformance hat es aber wenig zu tun.
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
Schaut mal ganz unten, da steht sogar das gleiche vom Administrator von HKEPC, der muss es ja wohl wissen!
Die gelbe Eule
2005-09-11, 21:00:21
Wurde das gleiche System wie bei der 7800GTX verwendet?
Hat ATI vielleicht einen speziellen Beta Treiber nur für den 3DMark herausgegeben?
Fragen über Fragen ... er kann gerne die 8600 Punkte bestätigen, doch ohne klare Werte oder Screens völlig unbrauchbar.
seahawk
2005-09-11, 21:08:28
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
Schaut mal ganz unten, da steht sogar das gleiche vom Administrator von HKEPC, der muss es ja wohl wissen!
Wenn er was wüßte, also so eine KArte schon hätte, dann dürfte er nichts schreiben.
deekey777
2005-09-11, 21:10:02
http://www.hkepc.com/bbs/viewthread.php?tid=466843&extra=&page=3
Schaut mal ganz unten, da steht sogar das gleiche vom Administrator von HKEPC, der muss es ja wohl wissen!
Ist er was besonderesl, wer er oder sonst jemand in die Hände eine R520-Grafikkarte bekommen hat? Seit mehreren Tagen wird hier was gepostet, was einfach nach Schwachsinn riecht.
MikBach
2005-09-11, 21:13:15
Wurde das gleiche System wie bei der 7800GTX verwendet?
Beim 05er ist es nicht so wichtig, da die Hauptbelastung bei der Graka liegt.
Hat ATI vielleicht einen speziellen Beta Treiber nur für den 3DMark herausgegeben?
Das liegt doch an der VS-Power der ATI.
Was sollte dieser Treiber denn machen?
Fragen über Fragen ... er kann gerne die 8600 Punkte bestätigen, doch ohne klare Werte oder Screens völlig unbrauchbar.
Die 8600 Punkte sind nicht undenkbar, nur wie erwähnt, sagt der 3DMark05 gar nichts über die Spieleperformance aus.
Die gelbe Eule
2005-09-11, 21:15:04
10vs24ps 650/1400,05 about 8600 <---- I can edit this mark anytime like ATI wants to ;)
Auch auffällig das keiner mehr von einer 32 pp spricht, geschweige denn 10k Marks rumposaunt ...
Die gelbe Eule
2005-09-11, 21:16:31
Das liegt doch an der VS-Power der ATI.
Was sollte dieser Treiber denn machen?
Woher möchtest denn wissen wieviel VS die Karte hat und wie performant sie sind? Quelle?
Selbst bei 8 VS weiß man das diese durch den hohen Takt sehr davon profitieren , auch wenn es keinem was bringt.
LordDeath
2005-09-11, 21:26:03
Selbst bei 8 VS weiß man das diese durch den hohen Takt sehr davon profitieren , auch wenn es keinem was bringt.
hier wäre es gut, wenn ati ebenfalls die vertex shader anders takten würde, als den rest! besonders, wenn dadurch die wärmeabgabe sinken würde und die pixelpipelines dadurch höher getaktet werden könnten :D
MikBach
2005-09-11, 21:33:35
Woher möchtest denn wissen wieviel VS die Karte hat und wie performant sie sind? Quelle?
Hängt vom Takt ab...
http://www.hardwareluxx.de/story.php?id=2830
dr_mordio
2005-09-11, 21:51:00
gerade HKEPC ist eigentlich sehr zuferlässig was solche infos angeht.
und da vr-zone auch mit auf den zug aufspringt, wird es wohl immer wahrscheinlicher das es tatsächlich 24pipes sind.
hätten sie noch vor einigen monaten diese zahlen gebracht, dann hätte man gut an einen fake zum traffic erhöhen denken können, aber jetzt so kurz vor dem relase wird sich keine ernsthafte seite mehr irgendeinen stuß aus den fingern saugen, da das dann doch sehr rufschädigend wäre wenn die karte rauskommt.... und sich ja alle noch sehr gut an den artikel erinnern können...
manch einer behauptet steif und fest es genau zu wissen, das es nur 16pipes sind.... doch woher? hat einer von euch die karte schon in den händen gehalten? ich weiß nur das HKEPC sie schon in den händen hatte, wenn auch eine der ersten revisionen, aber das ist mehr als der rest von uns in den händen hatte....
und ja, die pro hat ja auch devinitiv 16 pipes... vielleicht sind daher die entwickler-gerüchte mit den 16 pipes gekommen????
mfg
Alex
edit: wort "fack" in "fake" geändert :wink:
MikBach
2005-09-11, 21:55:03
hätten sie noch vor einigen monaten diese zahlen gebracht, dann hätte man gut an einen fack zum traffic erhöhen denken können, ...
Was ist ein fack?
dr_mordio
2005-09-11, 21:56:44
Was ist ein fack?
nen fack ist ein rechtschreibfehler :biggrin: ich meinte fake
dr_mordio
2005-09-11, 21:59:22
http://www.hardwareluxx.de/story.php?id=2830
Die Nachrichtenflut um den R520 will einfach nicht abreißen. Heute erst wurden die verschiedenen Versionen der R5xx-Serie bekannt. Nun haben die Kollegen von HKEPC ihre Testergebnisse zum Engeneering Sample der ATI Radeon X1800 XT veröffentlicht. So erreicht die XT Version mit 650 MHz Chip- und 1.400 MHz Speichertakt ungefähr 8600 3DMark05 Punkte, also rund 1.000 Punkte mehr als eine NVIDIA GeForce 7800 GTX mit 430/1.200 MHz Chip-/Speichertakt. Wenn man die ATI Radeon X1800 XT auf 550/1.200 MHz heruntertaktet, erreicht man ungefähr die Leistung einer NVIDIA GeForce 7800 GTX. Entgegen der Meldung von Anandtech von gestern, wird der ATI Radeon X1800 XT 24 Pipelines zur Verfügung haben. Eigentlich soll der R520 32 Pixelpipelines besitzen, allerdings verträgt die GPU dann nur 520 MHz und erreicht somit weniger Leistung als ein R520 der mit 24 Pixelpipelines ausgestattet und 650 MHz getaktet ist.
das deckt sich ja sehr gut, mit meiner von mir vor einiger zeit geäußerten vermutung. freut mich, das ich nicht so danebenlag.
mfg
Alex
deLuxX`
2005-09-11, 21:59:27
Was mich wundert, ist das jetzt noch von einigen Seiten von 24Pipelines ausgegangen wird. Ich hätte bis vor kurzem auch fest mit 16 gerechnet aber bei den ganzen Sachen die da geschrieben werden....
Wirkt alles recht realistisch.
Bin jetzt echt gespannt, was da auf uns zukommt.
-deLuxX`
Einige mit der 16 pipes Theorie werden sich noch wundern.
r3ptil3
2005-09-11, 22:09:32
600/1400, 4 quads, 8 VS.
Stehst du immernoch zu 16Pipes oder 24, so wie ich es behauptet habe?
BvB123
2005-09-11, 22:14:17
Beim 05er ist es nicht so wichtig, da die Hauptbelastung bei der Graka liegt.
Genau andersrum.
siehe 7800 SLI 400Mhz CPU Takt bei nem FX55 bringen 1000 Punkte
deLuxX`
2005-09-11, 22:16:46
Genau andersrum.
siehe 7800 SLI 400Mhz CPU Takt bei nem FX55 bringen 1000 Punkte
Ha..ha. Sehr witzig. :rolleyes:
Schonmal daran gedacht, dass du mit 2x7800GTX (ich geh mal von der GTX aus) so ziemlich ans CPU Limit mit einem "popeligen" FX55 kommst?
Auch bei einem 3DMark05.
-deLuxX`
Horimoto
2005-09-11, 22:20:52
meiner Meinung nach hat sich das in den letzen tagen gewendet, und er wird doch 24PP haben, dazu noch 10VS, denn diese Info stammt von den wohl einzigen Menschen, die eine haben und einen Bericht verfassen durften, alles andre ist spekulation.
Der admin hat nur bestätigt, ATi wird ihm nciht den kopf abreissen dafür, eher froh sein, dass so was jetzt diskutiert wird.
Imo ist da mehr daran als an den aussagen von Forenmitgleidern.
Wenn sie das Logo fälschen sollten, hätten sie sich strafbar gemacht, und das würden sie wohl kaum riskieren, oder?
Ich denke in den nächsten paar tagen kommen die specs raus.
@24PP:
Als vrzone behauptete, der G70 habe 24PP hat niemadn was dagegen einzuwenden, als es heisst der R520 habe 24PP, kommt von allen Seiten absagen..... ANti.ATi ?
@24PP:
Als vrzone behauptete, der G70 habe 24PP hat niemadn was dagegen einzuwenden, als es heisst der R520 habe 24PP, kommt von allen Seiten absagen..... ANti.ATi ?Die Info mit den 4 Quads kommt direkt von ATi. *seufz*
Die Info mit den 4 Quads kommt direkt von ATi. *seufz*
Wann wurde diese Aussage gemacht und ist damit die Pro oder XT gemeint?
Enterprise
2005-09-11, 22:28:26
Weil im Treiber das mit den "R520 16P" steht?
Niemals 24pipes und das noch bei 650MHz bei weniger Transistoren als ne G70, total oversized auserdem bei dem Speicher...
Aber vieleicht ist das der Grund für die 2Slot Kühlung o.o
Wann wurde diese Aussage gemacht und ist damit die Pro oder XT gemeint?Ändert es denn was wenn ich es sage? Solange es nicht offiziell ist wird es eh bezweifelt.
Weil im Treiber das mit den "R520 16P" steht?Nein.
Enterprise
2005-09-11, 22:38:35
Wann denn dann? Lass doch bitte nicht was offen im Raum stehen^^
mapel110
2005-09-11, 22:45:18
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3254077&postcount=5451
Ronny145
2005-09-11, 22:50:19
http://www.hardwareluxx.de/story.php?id=2830
Die Nachrichtenflut um den R520 will einfach nicht abreißen. Heute erst wurden die verschiedenen Versionen der R5xx-Serie bekannt. Nun haben die Kollegen von HKEPC ihre Testergebnisse zum Engeneering Sample der ATI Radeon X1800 XT veröffentlicht. So erreicht die XT Version mit 650 MHz Chip- und 1.400 MHz Speichertakt ungefähr 8600 3DMark05 Punkte, also rund 1.000 Punkte mehr als eine NVIDIA GeForce 7800 GTX mit 430/1.200 MHz Chip-/Speichertakt. Wenn man die ATI Radeon X1800 XT auf 550/1.200 MHz heruntertaktet, erreicht man ungefähr die Leistung einer NVIDIA GeForce 7800 GTX. Entgegen der Meldung von Anandtech von gestern, wird der ATI Radeon X1800 XT 24 Pipelines zur Verfügung haben. Eigentlich soll der R520 32 Pixelpipelines besitzen, allerdings verträgt die GPU dann nur 520 MHz und erreicht somit weniger Leistung als ein R520 der mit 24 Pixelpipelines ausgestattet und 650 MHz getaktet ist.
Also 8600 Punkte bei solchen Daten: 24 pipelines, 10vs, 650MHz core, 1400MHz memory...
Das wäre nicht besonders viel und spricht nicht für die Glaubwürdigkeit.
Irgendwie glaube ich des net....warum sollte die XT mit mehr pipes un deswegen mehr transistoren 100Mhz mehr Chiptakt haben?? der leistungsunteschied zwischen XT und PRO muss ja sehr hoch sein.
X1800 XT : 24 pipelines, 10vs, 650MHz core, 1400MHz memory
X1800 Pro : 16 pipelines, 550MHz core, 1250MHz memory
mapel110
2005-09-11, 22:57:14
Also 8600 Punkte bei solchen Daten: 24 pipelines, 10vs, 650MHz core, 1400MHz memory...
Das wäre nicht besonders viel und spricht nicht für die Glaubwürdigkeit.
Die glauben halt immernoch, dass die Leistungsfähigkeit einer R520-Pipe gleich der einer R420 Pipe ist. Deswegen müssen es ja auch 24 Pipes sein. :ugly:
Die gelbe Eule
2005-09-11, 23:03:06
Wenn das alles stimmt, ist es sehr traurig für ATI.
Wenn man die ATI Radeon X1800 XT auf 550/1.200 MHz heruntertaktet, erreicht man ungefähr die Leistung einer NVIDIA GeForce 7800 GTX.
Ihr wisst ja alle das die 7800GTX nur mit 430/1200 taktet. Von Effizienz seitens ATI ist hier dann wohl nichts zu spühren. Stellt euch mal eine 7800GTX mit 650MHz Takt vor, dann sieht die X1800XT wieder ziemlich alt aus.
Also ich glaub der R520 hat 16 Pipes und die XT hat wie schon gesagt so 650Mhz und die Pro 550Mhz.
An die Pros. wie groß wäre denn der Vorsprung der XT gegenüber der PRO wenn die Angaben stimmen
MadManniMan
2005-09-11, 23:10:54
Gehen wir das nomma durch ... wenn die Daten von HKEPC stimmen sollten, hätten wir Folgendes(mal die Shaderpipe außen vor ... zumal auch der R520 durch SM3.0 zusätzlich gewinnen sollte ;) ):
7800 GTX
>10.000 MTexel/s
~40GB/s
~7.600 Murks05
"X1800 XT-PE"
>15.500 MTexel/s :usweet:
~45GB/s
~8.600 Murks05
:|
Denkt was ihr wollt, ich tus nicht.
SKYNET
2005-09-11, 23:12:05
Wenn man die ATI Radeon X1800 XT auf 550/1.200 MHz heruntertaktet, erreicht man ungefähr die Leistung einer NVIDIA GeForce 7800 GTX.
muahahahahahahaha.... :ulol:
oh-ja, das passt mal wieder zu HWL... bin ich froh das 3DC und CB redakteure sich etwas mehr reinhängen, und nicht nur irgendwo nen müll abschreiben der wo gepostet wurde... =)
Da steht schon wieder was von 32 Pipelines. Das ist einfach unmöglich, das muss einem logisch denkenden Menschen doch in den Kopf gehen.
Imho ist das eine einzige Lüge die HKPEC da in die Welt setzt.
deekey777
2005-09-11, 23:17:24
Wenn das alles stimmt, ist es sehr traurig für ATI.
Ihr wisst ja alle das die 7800GTX nur mit 430/1200 taktet. Von Effizienz seitens ATI ist hier dann wohl nichts zu spühren. Stellt euch mal eine 7800GTX mit 650MHz Takt vor, dann sieht die X1800XT wieder ziemlich alt aus.
Man könnte sich auch vorstellen, was wäre, wenn Kühe fliegen und auf Autos kacken würden. :biggrin:
Was ist da so traurig für ATi? als die Ergebnisse der 7800GTX in 3D 2005 bekannt wurden, wurde rumgeheult ohne Ende, und das Ende der Welt schien sehr nah zu sein. Die 7800GTX kam, und man sah, daß es eine Ultrahighend-Grafikkarte ist, die - so lange sie richtig gefordert und nicht "ausgebremst" wird, - zZ die schnellste Grafikkarte auf dem Markt ist. Das "niedrige" Ergebnis in 3D 2005 interessierte aufeinmal niemanden.
Ähnliches gilt für die kommende R520 Generation: Erst wenn man die Tests sieht, so lange diese von fähigen Reviewern gemacht wurden, kann man auch sagen, ob sich das Warten gelohnt hat oder man enttäuscht ist. Mir persönlich ist es eh egal, da der RV530XT oder der kommende G71 für mich die viel bessere Alternative sein werden.
Also ich glaub der R520 hat 16 Pipes und die XT hat wie schon gesagt so 650Mhz und die Pro 550Mhz.
An die Pros. wie groß wäre denn der Vorsprung der XT gegenüber der PRO wenn die Angaben stimmen
Die XT-Version soll schon 600 MHz haben, aber was ist mit der R520XT PE. ;)
Warum sollte der Chip 32Pipes haben wenn nur 16(24) davon richtig funktionieren, oder sich genau takten lassen?? des is doch mega unwirtschaftlich un der prei wäre auch sehr hoch odda?
deekey777
2005-09-11, 23:20:58
Da steht schon wieder was von 32 Pipelines. Das ist einfach unmöglich, das muss einem logisch denkenden Menschen doch in den Kopf gehen.
Imho ist das eine einzige Lüge die HKPEC da in die Welt setzt.
Die werden schon einen Weg finden, sich darauszureden. Auch bei Anandtech steht, der RV530 sei ein 12 Pipelines-Grafikchip. Alles eine Frage der Zählweise. :biggrin:
deLuxX`
2005-09-11, 23:24:50
Warum sollte der Chip 32Pipes haben wenn nur 16(24) davon richtig funktionieren, oder sich genau takten lassen?? des is doch mega unwirtschaftlich un der prei wäre auch sehr hoch odda?
Redundanz ist hier das Stichwort.
Wahrscheinlich würden sonst gar keine funktionstüchtigen Chips vom Wafer springen.
Aber noch ist nich gesagt, wieviel der R520 wirklich hat.
-deLuxX`
-=CHICKEN=-
2005-09-11, 23:36:37
sorry, wenn ich mich selbst zitiere (vor einem monat) aber wenn das stimmt, dann ;D ;D ;D
[pure spekulation/träumereien ein]
aber irgendwie hab ich das gefühl, das 16pp nicht das maximum sind.
denke eher das sie sich anfangs auf 24/32 pp festgeleg hatten, aber es zu vielen komplikationen gab und sie dadurch bei fast jedem chip min. 8pp deaktivieren mussten. aber mittlerweile haben sie vielleicht den herstellungsprozess so optimiert, das sie bei genügend chips keine pp mehr deaktivieren müssen und somit 24/32 pp "fahren" können.
daher denke ich auch, dass sich die r5xx palette von 16 bis 24/32 pp erstreckt.
[pure spekulation/träumereien aus]
Die Neue:
[pure spekulation/träumereien ein]
an alle, die auf 16 pipes schwören:
kann gut sein, das die "16 pipes info" dierkt von ATI kommt, aber wer sagt uns, daß ATI auch die wahrheit oder nur einen teil der wahrheit gesagt hat?
geht mal bitte zur us-regierung und fragt sie über irgendwelche geheimen sachen aus. sie werden euch bestimmt sagen, das das nur ein "wetterbalon" war, was ja gar nicht stimmen muß :wink:
genau das gleiche kann ja auch ATI machen, sagen, daß es nur 16 pipes sind! :wink:
aber warum?:
vielleicht einfach nur, weil sie uns überraschen wollten :cool:
ÜBERRASCHUNG, heute ist der 24. ("pipetember") :eek:
[pure spekulation/träumereien aus]
mapel110
2005-09-11, 23:40:39
aber wer sagt uns, daß ATI auch die wahrheit oder nur einen teil der wahrheit gesagt hat?
Sie würden es sich mit vielen Leuten aus der Szene verscherzen, falls die Info nicht stimmen sollte. Solche Leute verarscht man einfach nicht.
Und ich meine damit nicht die Leute wie zb HEKPC oder VRZone. Die haben keine Infos von ATI bekommen.
Wieso? HKEPC hat doch einen R520
mapel110
2005-09-11, 23:43:54
Wieso? HKEPC hat doch einen R520
Ein Foto davon!
Ach ja? http://hkepc.com/hwdb/r520firstlook-e.htm
Und was ist das? Da wird der sogar getestet!
deekey777
2005-09-11, 23:48:23
Wieso? HKEPC hat doch einen R520
Einen Scheißdreck haben die - wortwörtlich. Irgendwie fiel ihnen eine abgerauchte R520 oder ein "Dummy" in die Hände, sie machten den den AC Silencer drauf, und fertig ist die Sensation.
Wieso seid ihr eigentlich so misstrauisch? Muss euch einen Hammer gegen den Kopf schlagen, damit ihr es glaubt? Die haben den doch wie erwähnt von einen nicht genannten AIB. Das Vr-Zone nun INfos rausgerückt hat, liegt daran, dass die für HKEPC den Text auf Englisch verfasst haben. Das mit den 24PP kommt ja von dem Admin von HKEPC.
-=CHICKEN=-
2005-09-11, 23:52:18
Sie würden es sich mit vielen Leuten aus der Szene verscherzen, falls die Info nicht stimmen sollte. Solche Leute verarscht man einfach nicht.
Und ich meine damit nicht die Leute wie zb HEKPC oder VRZone. Die haben keine Infos von ATI bekommen.
vielleicht haben sie euch ja gar nicht verarscht. könnte doch sein, das sie nach 2 respins schon fast "aufgegeben" hatten und sich doch nur auf 16 pipes beschrenken mussten. dadurch kam vielleicht das 16er "gerücht", was ja auch den tatsachen entsprach. eventuell konnten sie aber mit dem letzten respin doch das problem beheben oder wenigstens genügend 24er produzieren um sie an den markt zu bringen.
weil sich aber das 16er "gerücht" schon stark verbreitet hat, und es vielleicht gar nicht mal so negativ aufgefasst wurde, haben sie es einfach dabei gelassen und aus den 24ern die oben spekulierte "überaschung" gemacht.
nun gibt es erneut gerüchte dass eine R520 Agp Version erscheinen soll !
angeblich sollte dies aber nun doch sehr sicher werden ,
da somit der Markt noch mehr gesättigt würde ,
und die 16 piper sich gut verkaufen würden ( R520 Pro in diesem Fall )
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.