PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42

deekey777
2005-09-29, 21:54:04
Muss man jetzt schon? NVidia kann reagieren, ATI will nicht.

Es wurde schon am Launchtag der 7800GTX gesagt, daß es nur dann eine AGP-Version geben wird, wenn der Markt dies verlangt. Der Markt möchte eine AGP-Version, doch niemand scheint in Kalifornien darauf zu hören.

Coda
2005-09-29, 22:00:46
Ja, aber vielleicht aus den selben Gründen, aus den Du deine (wenn ich das richtig interpretiere) wieder verkaufen willst.Wieso verkaufen? ;)

mapel110
2005-09-29, 22:03:35
Der Markt möchte eine AGP-Version, doch niemand scheint in Kalifornien darauf zu hören.
Warum soll Kalifornien darauf reagieren?! Das ist Sache der Boardhersteller. Von nvidia wirds keine nativen AGP-chips mehr geben und warum sollten sie für die Boardpartner ein PCB entwickeln?! Das macht keinen Sinn. Und an Knebelverträge glaube ich nicht mehr so recht, zumal ja einige der Hersteller eben auch nforce4-SLI-Boards anbieten.

Die gelbe Eule
2005-09-29, 22:12:43
Muss man eben mal ein Iview von NVidia abwarten, was die gegenwärtige Markteinschätzung betrifft.

deekey777
2005-09-29, 22:13:25
Warum soll Kalifornien darauf reagieren?! Das ist Sache der Boardhersteller. Von nvidia wirds keine nativen AGP-chips mehr geben und warum sollten sie für die Boardpartner ein PCB entwickeln?! Das macht keinen Sinn. Und an Knebelverträge glaube ich nicht mehr so recht, zumal ja einige der Hersteller eben auch nforce4-SLI-Boards anbieten.

Vielleicht weil es daran liegt, daß die Boardhersteller selten eigene Platinen entwickeln? Vor 100 oder mehr Seiten wurde das schon besprochen.

Coda
2005-09-29, 22:17:12
Der Thread hat inzwischen schon komische Ausmaße; "vor 100 Seiten oder so" ...

mapel110
2005-09-29, 22:21:23
Vielleicht weil es daran liegt, daß die Boardhersteller selten eigene Platinen entwickeln? Vor 100 oder mehr Seiten wurde das schon besprochen.
Aber wenn es sich lohnen würde, würden sie es sicher tun. Und bei High End sehen sie es wohl noch nicht so.

Mayhem
2005-09-29, 23:43:41
Vielleicht weil es daran liegt, daß die Boardhersteller selten eigene Platinen entwickeln? Vor 100 oder mehr Seiten wurde das schon besprochen.

hmh, ich denke nicht, dass es soo schwierig ist ein board zu entwerfen, zumal es ja schon die Referenz auf PCIe gibt. Desweiteren kann man sich ja da vllt etwas bei den Vorgängerchips abgucken...

is ja auch wurschd, wenn die diskussion schon da war... :rolleyes:

Juerg
2005-09-30, 03:38:33
Der Thread hat inzwischen schon komische Ausmaße; "vor 100 Seiten oder so" ...Ich hoffe, dass ATI den Launch nochmals um ca. 50 Seiten des Threads verschiebt... :O :popcorn:

betasilie
2005-09-30, 03:46:58
Wieso verkaufen? ;)
Ok, ich wusste jetzt nicht ganz genau, wie Du es meinstest. :)

Ailuros
2005-09-30, 08:17:38
Eben, das 'Problem' beim R520 ist nicht das, was wir wissen, das ist ja relativ klar (4 Quads, 8 VS and so on), das 'Problem' ist eher das, was wir nicht wissen, wie z.B.

Schon aber....

-TriTMUs

Wie schon gesagt wenn ich vom Xenos ausgehe klingt mir das eher unwahrscheinlich. ATI hat auf R5x0 sogar an texture samplern gespart wo sie eigentlich nicht haetten sparen sollen...

-wurde am AF gedreht?
-wenn ja, in welche Richtung?
etc...

Kostet meistens an Fuellrate; Texelfuellrate ist so wie es aussieht nicht hoeher auf R520, wobei ich natuerlich nicht alle moeglichen Entkoppelungen zwischen texture und arithmetic OPs so aus dem nichts einschaetzen kann.

Was wir vermuten ist, das ATi was am FSAA gedreht hat, so das es alles glätten könnte, a la Super Sampling (bzw adaptives FSAA)...

Laeuft anscheinend schon auf allen dx9.0 ATI GPUs mit dem 5.9, ergo kann man wohl darueber sicher sein. Sobald irgendwo "adaptives AA" irgendwo vor einiger Zeit erwaehnt wurde war es ziemlich klar dass es sich um dieses handelt.

Adaptives Supersampling ist aber trotz allem kein konstanter Gewinn was Leistung betrifft in allen Applikationen und das selbst auf der G70 wo es sich nach NV's Angaben um HW-Unterstuetzung handelt. Daher muessen ISVs und IHVs langfristig wohl doch in die Richtung von adaptivem Multisampling fuer alpha tests arbeiten.


Der R520 kann immer noch ein Hammerchip sein, wenn auch nicht von der Performance her, er kanns aber auch nicht werden...

Er darf aber auch nicht langsamer werden als G70. Einen klaren Gewinner was Leistung betrifft wird es IMO sowieso nicht geben ;)

Die Frage ist doch eher nicht, wie schaut die Performance aus oder wie gut ist SM3 implementiert sondern was wurde alles geändert, wie ist die Bildqualität und so weiter :)

Keine gigantischen Unterschiede IMO und nichts dass ohne seinen hoeheren Leistungspreis kommen wird.

6x adaptives Supersampling (HW-assistiert) duerfte zwar toll aussehen, aber in Far Cry z.B. wuerde ich es persoenlich nicht benutzen.

HanSolo78
2005-09-30, 14:15:43
Hier mal was Neues:
http://www.theinquirer.net/?article=26597
Ich kann damit nicht so viel anfangen.. andere hier bestimmt mehr. :D
Obs stimmt ist nat. auch wieder so eine Sache.

LairD
2005-09-30, 14:19:00
Hier mal was Neues:
http://www.theinquirer.net/?article=26597
Ich kann damit nicht so viel anfangen.. andere hier bestimmt mehr. :D
Obs stimmt ist nat. auch wieder so eine Sache.

Hm das R520 8VS haben soll,steht doch schon länger fest,oder irre ich mich da?

seahawk
2005-09-30, 14:24:22
Vielleicht weil es daran liegt, daß die Boardhersteller selten eigene Platinen entwickeln? Vor 100 oder mehr Seiten wurde das schon besprochen.

ASUS hat für seine 7800GT PCIe ein eigenes PCB entwickelt. Wenn es sich für eine PCIe Versio lohnt, dann sollte es sich für ne AGP Version erst recht lohnen. Die Frage sit nur ob die Hersteller das wollen. Immerhin verkaufen sie so mehr Mainboards. :wink:

Coda
2005-09-30, 14:36:11
As R520 is very programmable chip you will be able to process as much as 512 threads on this GPU, this means that two GPU together brings a nice number of 1024 threads and Intel and ATI believe that programming with threads in mind should get you to faster performance in dual setups. Was ein Hirnschiss...

Demirug
2005-09-30, 14:41:38
Was ein Hirnschiss...

ATI braucht irgendwelche große Zahlen wenn sie schon bei der Anzahl der Pipes hinten liegen und viele dank AMD inzwischen verstanden haben das MHz nicht alles sind.

X.Perry_Mental
2005-09-30, 14:46:19
ATI braucht irgendwelche große Zahlen wenn sie schon bei der Anzahl der Pipes hinten liegen und viele dank AMD inzwischen verstanden haben das MHz nicht alles sind.
Wenn viele verstanden hätten dass Zahlen nicht alles sind, würde es nicht soviel Getöse um die Pipes oder den 3DMark-Score geben.

Coda
2005-09-30, 14:48:04
ATI braucht irgendwelche große Zahlen wenn sie schon bei der Anzahl der Pipes hinten liegen und viele dank AMD inzwischen verstanden haben das MHz nicht alles sind.Nein, ich meinte das Fuad Grafikthreads mit Prozessorthreads durcheinanderbringt und das alles so schreibt als hätte er Ahnung.

-3Dprophet-
2005-09-30, 16:19:07
Kann man die Folien auf hkepc ernst nehmen?

Etwas reißerisch formuliert: R580 noch vor Weihnachten? :|

deekey777
2005-09-30, 16:40:05
ATI’s Radeon X1000 series, what to expect? (http://www.hardwareanalysis.com/content/article/1817/)

Der liebe Sander S. :biggrin:

Franzmann-Jan
2005-09-30, 16:51:57
Das hört sich wirklich "lieber" an, als vorher :biggrin: . Schade dass ich ab dem 4. Oktober beim Bund bin. Das die X1600 erst ende November verfügbar wird halte ich für einen Fehler, auch wenn man sich mit der X800GT/GTO rechtfertigt.

Sunrise
2005-09-30, 16:55:47
Schade dass ich ab dem 4. Oktober beim Bund bin. Das die X1600 erst ende November verfügbar wird halte ich für einen Fehler, auch wenn man sich mit der X800GT/GTO rechtfertigt.

Denke mal genau darüber nach, warum die X1600 erst ab November verfügbar wird (in Massen). Du hast dir die Antwort praktisch schon selbst gegeben.

Enterprise
2005-09-30, 16:56:51
Dann rechtfertigt sich aber nicht das Nicht-Erscheinen der X1800XT!

Franzmann-Jan
2005-09-30, 17:00:54
Dann rechtfertigt sich aber nicht das Nicht-Erscheinen der X1800XT!

Es wurden einfach noch nicht genug Karten dieses Typs produziert um eine sofortige Verfügbarkeit zu gewährleisten. Daher November. Das die X1800XL verfügbar ist finde ich schonmal sehr gut, da diese Karte wohl interessanter klingt. Der einzige Aspekt der mich ein wenig zu XT zieht ist diese unglaublich böse Bandbreite :cool: .

Enterprise
2005-09-30, 17:03:51
Aber kann jedoch nur mit der 7800GTX mithalten!?!

Winter[Raven]
2005-09-30, 17:06:05
Jeder weiterer Tag kostet ATI ganz schön viel Geld, und da bringt keine Gt oder GTO's, da man sich bei Nvidia sich Sturzflug befindet...

Ich Ahne schon sehr böse Zahlen für dieses Quartal und vielleicht weitere wenn ATI nicht endlich aus den Socken kommt.

Franzmann-Jan
2005-09-30, 17:12:01
']Jeder weiterer Tag kostet ATI ganz schön viel Geld, und da bringt keine Gt oder GTO's, da man sich bei Nvidia sich Sturzflug befindet...

Ich Ahne schon sehr böse Zahlen für dieses Quartal und vielleicht weitere wenn ATI nicht endlich aus den Socken kommt.

NeeNee, glaub mal die überaus guten Verkaufszahlen der GT/GTOs, der jetzt etablierten Grafik-onboard-Chipsätze und natürlich der X550 werden sich bestimmt sehr positiv auf die Bilanz auswirken. Ich rechne mit nem ordentlichen Gewinn.

deekey777
2005-09-30, 17:17:52
ATI’s Radeon X1000 series, what to expect? (http://www.hardwareanalysis.com/content/article/1817/)

Der liebe Sander S. :biggrin:
"The Radeon X1800XL will be available on October 5th and offers a 500MHz core and 1GHz memory frequency and comes with 256MB of GDDR3 memory with a price tag of $449."
Warum hat die XI800XL die Taktraten einer XI800Pro?
Naja, noch weniger als 5 Tage.

Sunrise
2005-09-30, 17:30:41
Warum hat die XI800XL die Taktraten einer XI800Pro?
Naja, noch weniger als 5 Tage.

Die Pro wurde gestrichen, dafür der MSRP der XL herabgesetzt. So macht die Preisgestaltung auch endlich wieder Sinn.

Mr. Lolman
2005-09-30, 17:30:49
']Ich Ahne schon sehr böse Zahlen für dieses Quartal und vielleicht weitere wenn ATI nicht endlich aus den Socken kommt.

Ist doch egal, oder hat hier irgendjemand ATi Aktien?

Mr. Lolman
2005-09-30, 17:32:24
6x adaptives Supersampling (HW-assistiert) duerfte zwar toll aussehen, aber in Far Cry z.B. wuerde ich es persoenlich nicht benutzen.

Dann nutz halt 4xAA. Bei 16xS meckert ja auch niemand...

betasilie
2005-09-30, 17:33:10
Ist doch egal, oder hat hier irgendjemand ATi Aktien?
Wo ist eigentlich nagus? :biggrin:

Mr. Lolman
2005-09-30, 17:38:03
Wo ist eigentlich nagus? :biggrin:

Der gibt sich garnicht mehr mit so Kinderkacke ab. Nur wenn er NV eins reinwixxen kann oder tolle neue ATi Newz hat, meldet er sich noch...

Beides geschieht viel zu selten, momentan X-D

aths
2005-09-30, 18:04:20
Also wenn R520 winkelunabhängiges AF und anständige Performance liefert werd ich ihn mir wohl auch zulegen.
Hmm, bei winkelunabhängigem AF würde ich es mir auch noch mal überlegen, wenn der Preis stimmt.

Aber die Wahrscheinlichkeit, dass das passiert, halte ich nicht für sehr groß. ;)Es zählte auch nicht allein, dass die Winkelabhängigkeit einigermaßen reduziert wäre. Am AF könnte man eine ganze Menge versauen, falls man unbedingt Transistoren sparen möchte.

Winter[Raven]
2005-09-30, 18:26:20
Was ich so letztes gehört habe von unserem lead technofreak, soll R520 eine ~ AF Qualität haben wie R420... Winkelabhänig aber nicht schlechter als das der Vorgeneration.

Coda
2005-09-30, 18:27:04
Na klar, aber ATI hätte bei 16PP, 90nm und anscheinend >300 Mio. Transistoren eigentlich reichlich Platz.

Winter[Raven]
2005-09-30, 18:28:45
Ist doch egal, oder hat hier irgendjemand ATi Aktien?

Nein, aber was anderes ^^

Für ein Unternehmen ist es aber nicht egal ob man im + || im - ist :biggrin:

NeeNee, glaub mal die überaus guten Verkaufszahlen der GT/GTOs, der jetzt etablierten Grafik-onboard-Chipsätze und natürlich der X550 werden sich bestimmt sehr positiv auf die Bilanz auswirken. Ich rechne mit nem ordentlichen Gewinn.

Abwarten ... Nvidia bekommt derzeit so einige Deals zustande im OEM Geschäft :eek:

Und Low - Mid ist man ehe mit dabei...

Pirx
2005-09-30, 18:37:55
Wo ist eigentlich nagus? :biggrin:
Und Tarkin:conf2: :biggrin:

aths
2005-09-30, 18:38:43
']Was ich so letztes gehört habe von unserem lead technofreak, soll R520 eine ~ AF Qualität haben wie R420... Winkelabhänig aber nicht schlechter als das der Vorgeneration.Es wäre zu lächerlich, wenn R520 nur R420-Qualität böte. Deshalb glaube ich das auch nicht.

"AF-Qualität" bitte mit Bindestrich schreiben, wenn ich das anmerken darf.

Winter[Raven]
2005-09-30, 18:42:06
Natürlich nicht aths ;), habe ich ja auch nicht gesagt. Ich habe nur gesagt die Mindest-AF-BQ liegt bei der AF-Q eines R420 :)

Wenn ATI was besseres verbaut kann man ja auch auf NV hoffen und endlich einen Schalter mit den man die volle BQ bekommt.

Winter[Raven]
2005-09-30, 18:43:11
Und Tarkin:conf2: :biggrin:

und Diskutator... :|

Demirug
2005-09-30, 18:58:47
Es wäre zu lächerlich, wenn R520 nur R420-Qualität böte. Deshalb glaube ich das auch nicht.

"AF-Qualität" bitte mit Bindestrich schreiben, wenn ich das anmerken darf.

Warum sollte er mehr haben? Der Chip ist trotz allem immer noch ein R300 Derivat und eine Notlösung weil Vista und damit auch WGF 2.0/DX10 sich um mindestens 1 Jahr verspätet.

ATI wird also nur dort gearbeitet haben wo es aus ihrer Sicht notwendig war. Die Qualität des AF gehörte da sicher nicht dazu. Sie haben sich eher überlegt wie sie es noch schneller machen können und es trotzdem noch als 16xAF verkaufen können.

mindfaq
2005-09-30, 19:01:52
So sehe ich das eigentlich auch.
Aths, warum denkst du, dass ATI die Filterqualität verbessert haben könnte ?

Die gelbe Eule
2005-09-30, 19:52:53
Fuad meinte in seiner letzten Delirium News, es geht ab nach Ibiza. War das nicht schon?

Horimoto
2005-09-30, 20:19:47
http://www.the-inquirer.net/?article=26619
http://www.the-inquirer.net/?article=26620
http://www.the-inquirer.net/?article=26621
http://www.the-inquirer.net/?article=26622
http://www.the-inquirer.net/?article=26618
http://www.the-inquirer.net/?article=26617

es überschlägt sich jetzt alles

TheCounter
2005-09-30, 20:30:30
Am besten sind die 90% in Fear. Wobei das sogar hinhauen könnte. 512MB Speicher mit 750MHz getaktet dürfte das in Verbindung mit hohen Auflösungen + AA/AF hinbekommen.

Aber 9100 Punkte im 3DMark05 sind totaler overkill, soviel schafft grad mal eine X850XT-PE @ >800MHz :|

Ronny145
2005-09-30, 20:33:51
http://www.the-inquirer.net/?article=26619
http://www.the-inquirer.net/?article=26620
http://www.the-inquirer.net/?article=26621
http://www.the-inquirer.net/?article=26622
http://www.the-inquirer.net/?article=26618
http://www.the-inquirer.net/?article=26617

es überschlägt sich jetzt alles

Die XT mit 625/1500. Vor kurzem hieß es noch 600/1400, oder? Aber die XT wird wohl schwer verfügbar sein. Mich würde die XL mehr interessieren.

reunion
2005-09-30, 20:38:03
http://www.the-inquirer.net/images/articles/r520s.jpg

http://www.the-inquirer.net/?article=26619

Horimoto
2005-09-30, 20:38:34
Die XT wird 625 haben, das ist schon seit einigen tagen klar. Auch dass ATi genug für den launch hat, wird zwar schwer zu finden sein, aber ALternate wird schon paar haben denke ich.
Die 9100P sind imo realistischer als die 90% in FEAR. Denn 8VS mit 625MHz macht ne Menge aus beim 3dmurks.
Bin aber gespannt, ob wir bei CoD2 nicht 100% sehen, weil ne X800XL ist ja schon auf dem Niveau einer 7800GTX, wie wird sich da ne X1800XT schlagen..........

Demirug
2005-09-30, 20:38:47
http://www.the-inquirer.net/?article=26619
http://www.the-inquirer.net/?article=26620
http://www.the-inquirer.net/?article=26621
http://www.the-inquirer.net/?article=26622
http://www.the-inquirer.net/?article=26618
http://www.the-inquirer.net/?article=26617

es überschlägt sich jetzt alles

Interesantes Design. Aber ich vermisse bei den Vertexshader etwas.

Ronny145
2005-09-30, 20:40:56
Die XT wird 625 haben, das ist schon seit einigen tagen klar. Auch dass ATi genug für den launch hat, wird zwar schwer zu finden sein, aber ALternate wird schon paar haben denke ich.
Die 9100P sind imo realistischer als die 90% in FEAR. Denn 8VS mit 625MHz macht ne Menge aus beim 3dmurks.
Bin aber gespannt, ob wir bei CoD2 nicht 100% sehen, weil ne X800XL ist ja schon auf dem Niveau einer 7800GTX, wie wird sich da ne X1800XT schlagen..........

Die XL auf GTX Niveau? Die muss in der COD2 Demo ja auch keine Schatten berechnen, erst nach einer Config Änderung. Genauso mit dem Hitzeflimmern. Das sollte wohl die gute performance erklären. Und COD2 könnte vielleicht schon von 512 MB VRAM profitieren.

reunion
2005-09-30, 20:41:08
The RV530, Radeon X1600 generation, will have twelve pixel shaders, five vertex shaders, only four Texture units, will be able to render only four Back ends, will compare eight Z compare Units and will be limited to 128 threads. This sounds much less than the big R520 daddy and we are very surprised that RV530 has only four texture memory units (TMU's). We will let you know about the performance.

The low end RV515, Radeon X1300 generation will have four pixel shaders, just two vertex shaders, again four texture units, but will be able to render four nack ends, will have four Z compare Units and will be limited to 128 threads.


http://www.the-inquirer.net/?article=26621

reunion
2005-09-30, 20:44:28
A document seen by the INQUIRER claims that ATI will beat Geforce 7800GTX by as much as ninety per cent in the Fear Demo. ATI claims it will end up almost forty per cent faster in Battlefield 2, while it will top Nvidia's fastest card as much as twentyfive per cent in Far Cry.

In certain games, the Radeon X1800XT PE will end up less than twenty per cent faster than GTX. and we are talking about Splinter Cell and the Painkiller extension.

http://www.the-inquirer.net/?article=26617


Wie war das noch mit FEAR, wo G70 angeblich durch seine höhere PS-Performance dem R520 davozieht?

Demirug
2005-09-30, 20:47:12
A document seen by the INQUIRER claims that ATI will beat Geforce 7800GTX by as much as ninety per cent in the Fear Demo. ATI claims it will end up almost forty per cent faster in Battlefield 2, while it will top Nvidia's fastest card as much as twentyfive per cent in Far Cry.

In certain games, the Radeon X1800XT PE will end up less than twenty per cent faster than GTX. and we are talking about Splinter Cell and the Painkiller extension.

http://www.the-inquirer.net/?article=26617


Wie war das noch mit FEAR, wo G70 angeblich durch seine höhere PS-Performance dem R520 davozieht?

Das sind die Zahlen von ATI. Da wird solange an den Settings gedreht bis es passt. Das ganze nennt man dann Reviewer Guide.

mapel110
2005-09-30, 20:48:06
Wie war das noch mit FEAR, wo G70 angeblich durch seine höhere PS-Performance dem R520 davozieht?
Fear profitiert recht stark von 512 MB VRam. Das hat die PCGH nachgemessen auf einer X800 XL.

deekey777
2005-09-30, 20:52:33
Interesantes Design. Aber ich vermisse bei den Vertexshader etwas.

Vertex Texturing? :confused:

Demirug
2005-09-30, 20:54:27
Vertex Texturing? :confused:

Ja, da sind keine Texturteinheiten. OK sie könnte ja in den Shadern eingebaut sein aber nVidia zeichnet sie extra ein und ATI weiß das...

TheGood
2005-09-30, 21:19:03
Was bedeutet das wenn das fehlt? Bitte um Aufklörung für einen unbedarften :)

Demirug
2005-09-30, 21:24:04
Was bedeutet das wenn das fehlt? Bitte um Aufklörung für einen unbedarften :)

Sie müssen für das bei SM3 geforderte Feature "Vertextextuering" einen Umweg gehen. Was das für die Performace bedeutet ist allerdings schwer voraus zu sagen weil der genaue Umweg den sie nutzen (noch) nicht bekannt ist.

Die gelbe Eule
2005-09-30, 21:40:37
Man sollte eh den finalen 80er abwarten, das da Potential für die 7800GTX drin steckt kann man ja erkennen. Die neue Wunderkarte von ATI wird es trotzdem nicht werden, das kommt alles zu komisch rüber.

seahawk
2005-09-30, 21:45:34
A document seen by the INQUIRER claims that ATI will beat Geforce 7800GTX by as much as ninety per cent in the Fear Demo. ATI claims it will end up almost forty per cent faster in Battlefield 2, while it will top Nvidia's fastest card as much as twentyfive per cent in Far Cry.

In certain games, the Radeon X1800XT PE will end up less than twenty per cent faster than GTX. and we are talking about Splinter Cell and the Painkiller extension.

http://www.the-inquirer.net/?article=26617


Wie war das noch mit FEAR, wo G70 angeblich durch seine höhere PS-Performance dem R520 davozieht?

Riecht mal wieder nach 8xSSAA gegen 6xMSAA Benches. 8was btw. niemanden überraschen sollte, wenn man sich an die Vergleiche der Vorgängergeneration erinnert und die dortigen ATI Reviewerguides berücksichtigt)

up¦²
2005-09-30, 22:40:08
Noch ein Schluck aus der Pulle :biggrin:
http://www.theinquirer.net/?article=26618


Each of the Rx5xx chips will have this Ultra threading dispatch processor that will process the data prior to sending them to the pipes. This means that ATI might really do something about multi threading this time

... :confused:

up¦²
2005-09-30, 22:53:56
War schon bekannt sorry ...

Coda
2005-10-01, 00:49:49
Irgendwie sieht das aus wie ein Xenos mit angeflanschtem Vertexshader.

Tomcat70
2005-10-01, 00:56:23
naja, wenigstens sollten nun alle die im r520 nur einen "r300 plus aufgepfropften sm3" sahen relativ verklärt dreinschauen :D

im moment sieht das alles ganz ok aus, mal abwarten wie es nun featureseitig konkret ausschauen wird.

mapel110
2005-10-01, 00:58:36
Sie müssen für das bei SM3 geforderte Feature "Vertextextuering" einen Umweg gehen. Was das für die Performace bedeutet ist allerdings schwer voraus zu sagen weil der genaue Umweg den sie nutzen (noch) nicht bekannt ist.
Pacific Fighters nutzt doch Vertex Texturing fürs Wasser und die Performance ist dabei nicht sonderlich toll. Dann dürfte doch bei ATIs Lösung noch weniger rumkommen, oder könnte es je nach Lösungsweg gar doch schneller sein?! :confused:

Coda
2005-10-01, 01:05:17
Naja, wenigstens sollten nun alle die im r520 nur einen "r300 plus aufgepfropften sm3" sahen relativ verklärt dreinschauenAlso Xenos ist es dann doch nicht, es sind immer noch die Quads da.

Demirug
2005-10-01, 05:17:48
Irgendwie sieht das aus wie ein Xenos mit angeflanschtem Vertexshader.

Eher ein Mix aus R420 und R400.

EDIT: Aber je länger ich darüber nachdenke komme ich zu dem Schluss das es auch nur eine kreative Art sein könnte das R3XX Design anders zu zeichnen. Um das zu prüfen wären jedoch einige zusätzlichen Zahlen zur Erklärung des Diagramms notwendig.

Demirug
2005-10-01, 05:19:21
Pacific Fighters nutzt doch Vertex Texturing fürs Wasser und die Performance ist dabei nicht sonderlich toll. Dann dürfte doch bei ATIs Lösung noch weniger rumkommen, oder könnte es je nach Lösungsweg gar doch schneller sein?! :confused:

Da Pacific Fighters OpenGL nutzt muss man leider erst mal abwarten ob es überhaupt mit der Karte funktioniert oder ob es auf spezielle nVidia extensions angewissen ist.

tombman
2005-10-01, 09:04:02
90% schneller in FEAR als g70 ist schon ein mutiger claim ;)

Falls das stimmen sollte und auch die anderen Behauptungen fliegen die 7800er raus ;)
Vorrausgesetzt die r520er haben das 16x12 60hz Problem nicht...

Coda
2005-10-01, 09:14:17
Mehr Shaderleistung als G70 halte ich für unwahrscheinlich. Mehr Füllrate hat sie auch nicht, also wäre das alles sehr komisch...

Winter[Raven]
2005-10-01, 09:15:44
tombman,

die 90% werden nicht eintreffen, indem Sinne spar das Geld :)

Ich muss seahawk zustimmen, klingt mal wieder nach einem Vergleich mit Äpfel und Birnen.

Blaze
2005-10-01, 09:18:58
90% schneller in FEAR als g70 ist schon ein mutiger claim ;)

Falls das stimmen sollte und auch die anderen Behauptungen fliegen die 7800er raus ;)
Vorrausgesetzt die r520er haben das 16x12 60hz Problem nicht...

Das kann einfach ned stimmen...ich tipp mal eher auf ~10% ;)

Coda
2005-10-01, 09:20:33
Ich hätte in Fear eigentlich viel eher aufs Gegenteil getippt bisher...

Aber wer weiß, vielleicht limitiert ja dort sogar der Speichertakt.

nagus
2005-10-01, 09:21:43
diese beiden aussagen von Ratchet im rage3d forum lassen einiges hoffen...

"ATI focused on efficiency way more this time. I think you guys will be impressed, I know I am."

"you'll piss yourself when you see the new tech demo"

quelle: http://www.rage3d.com/board/showthread.php?p=1333940186#post1333940186

Oh glory ;) ati ist zwar spät aber dafür wird das teil wieder so richtig einschlagen denke ich.

Coda
2005-10-01, 09:23:43
Oh glory ati ist zwar spät aber dafür wird das teil wieder so richtig einschlagen denke ich.Womit denn? Mit der Füllrate (die ATi bisher so geholfen hat) sicher nicht.

Tomcat70
2005-10-01, 09:31:26
wenn es stimmt das die x1800xt nur 7watt (69 zu 62) mehr als die x850xt verbraucht, bin ich beruhigt. die info stammt laut Tim Smalley (von bit-tech.net) von einem ATI-internem pdf.

Winter[Raven]
2005-10-01, 09:31:27
Ich hätte in Fear eigentlich viel eher aufs Gegenteil getippt bisher...

Aber wer weiß, vielleicht limitiert ja dort sogar der Speichertakt.

Abwarten, ich sehe momentan NV trotzdem vorn...

Tomcat70
2005-10-01, 09:33:26
Womit denn? Mit der Füllrate (die ATi bisher so geholfen hat) sicher nicht.

daß das deine vorstellung übersteigt heisst ja wohl nicht das es nicht passieren kann, oder? :)

Coda
2005-10-01, 09:39:11
daß das deine vorstellung übersteigt heisst ja wohl nicht das es nicht passieren kann, oder? :)Das einzige was vielleicht helfen könnt ist, dass die TMUs entkoppelt sind, womit man manchmal wohl PS-Stalls vermeidet. In älteren Spielen die fast keine oder nur sehr kurze Shader verwenden ist damit garantiert aber auch nichts zu reißen. Außerdem hat G70 brachiale Shaderpower, von daher...

Man sollte bedenken, dass uns auch keiner das mit den 16PP glauben wollte :tongue:

Demirug
2005-10-01, 09:49:53
Das einzige was vielleicht helfen könnt ist, dass die TMUs entkoppelt sind, womit man manchmal wohl PS-Stalls vermeidet. In älteren Spielen die fast keine oder nur sehr kurze Shader verwenden ist damit garantiert aber auch nichts zu reißen. Außerdem hat G70 brachiale Shaderpower, von daher...

Man sollte bedenken, dass uns auch keiner das mit den 16PP glauben wollte :tongue:

Dummerweise gibt es eine solche Entkopplung die auch recht gut funktioniert schon seit dem R300.

Enterprise
2005-10-01, 09:50:20
Seid mal ehrlich , würdet ihr überhaupt ATi noch was gönnen ? Ich mein, die setzen auf Takt anstat auf Shaderpower per ALU wie bei bei der 7800GTX. Mit Takt geht meistens was in die Hose. Dann 3/6 Monate Verspätung.

Und ich war sogar mal nur auf ATi versteift.


Nein Danke


Wenn's nach mir geht dürften die keinen einzigen Blumenstrauß gewinnen.

Coda
2005-10-01, 09:51:42
Dummerweise gibt es eine solche Entkopplung die auch recht gut funktioniert schon seit dem R300.Schon bei R300 kann jeder Pixelshader mit jeder TMU samplen?

Tomcat70
2005-10-01, 09:54:26
diese beiden aussagen von Ratchet im rage3d forum lassen einiges hoffen...

"ATI focused on efficiency way more this time. I think you guys will be impressed, I know I am."

"you'll piss yourself when you see the new tech demo"

quelle: http://www.rage3d.com/board/showthread.php?p=1333940186#post1333940186

Oh glory ;) ati ist zwar spät aber dafür wird das teil wieder so richtig einschlagen denke ich.

in ein paar tagen werden wir ja sehen ob sich das bestätigt. die werte der x1300 deuteten ja schon auf eine starke verbesserung der effizienz.
Ratchet scheint normal schon gut informiert zu sein.

Coda
2005-10-01, 09:59:58
Wenn sie keine Tri-TMUs verbaut haben gibt es da nicht viel Raum für Effizienzverbesserungen bei der Füllrate, und die ist - leider - immer noch sehr relevant.

Demirug
2005-10-01, 10:05:03
Schon bei R300 kann jeder Pixelshader mit jeder TMU samplen?

Eher nicht aber das spielt dabei sowieso keine Rolle. Es reicht wenn die ALUs eines Quads ausreichend von der TMU des Quads entkoppelt wurde.

Wie gesagt ich gewinne nur je länger ich darüber nachdenke irgendwie immer stärker den Eindruck das hier versucht wird alter Wein in neuen Schläuchen zu verkaufen. Seit ich mich von einer solchen Aktion einmal habe reinlegen lassen bin ich vorsichtig geworden.

Irgendwie fängt nämlich jetzt auch die Freigibigkeit bei dem Xenos Digramm an "freundliche" Reviewer an Sinn zu machen. Vielleicht macht mich die ganze GPU-Industrie auch nur langsam aber sicher paranoid.

Tomcat70
2005-10-01, 10:10:08
Wenn sie keine Tri-TMUs verbaut haben gibt es da nicht viel Raum für Effizienzverbesserungen bei der Füllrate, und die ist - leider - immer noch sehr relevant.

du hast dir ja auch nicht vorstellen können das die neuen adaptiv-AA-modi auf den alten karten funktionieren. ATI hat wohl noch so einiges in petto.

Tomcat70
2005-10-01, 10:24:20
hier übrigens ein quasi vorab-bericht über das neue AA des r520 (bzw. aller dx9 radeons):

http://www.bit-tech.net/news/2005/09/29/cat_59_taa/

Coda
2005-10-01, 10:29:47
du hast dir ja auch nicht vorstellen können das die neuen adaptiv-AA-modi auf den alten karten funktionieren. ATI hat wohl noch so einiges in petto.Es sieht so aus, als würde AAA auf R3xx auf einer Methode basieren die bei jeder Karte die maskierbares Multisampling beherscht funktioniert.

Aber bitte, wenn man sich einmal kritisch äußert ist natürlich alles was man sagt per se falsch, gell? Ich hatte bisher sicherlich schon öfters recht als unrecht mit solchen Dingen.

Tomcat70
2005-10-01, 10:35:21
Aber bitte, wenn man sich einmal kritisch äußert ist natürlich alles was man sagt per se falsch, gell? Ich hatte bisher sicherlich schon öfters recht als unrecht mit solchen Dingen.

nee, versteh mich bitte nicht falsch. ich würde mir nur hin und wieder wünschen das du deinen geist für positive neue möglichkeiten öffnest :)

Franzmann-Jan
2005-10-01, 10:35:39
Das einzige was vielleicht helfen könnt ist, dass die TMUs entkoppelt sind, womit man manchmal wohl PS-Stalls vermeidet. In älteren Spielen die fast keine oder nur sehr kurze Shader verwenden ist damit garantiert aber auch nichts zu reißen. Außerdem hat G70 brachiale Shaderpower, von daher...

Man sollte bedenken, dass uns auch keiner das mit den 16PP glauben wollte :tongue:

Wenn die 7800GTX eine ach so brachiale Shaderpower hat, warum ist sie in der FEAR Vollversion dann nur im besten Falle ein paar Prozentpünktchen schneller als eine X850XT PE? Die Benchmarks stammen aus der aktuellen PCGH und wenn die Truppe ATI schon vorne sieht, dann ist da mit sicherheit was dran. Also in der jetzigen Konfiguration kann ich sicherlich nicht behaupten, dass der G70 ultra effizient arbeitet. Vielleicht liegts ja am Handbremsen-70er Treiber. Vielleicht auch nicht.

Ronny145
2005-10-01, 10:44:06
wenn es stimmt das die x1800xt nur 7watt (69 zu 62) mehr als die x850xt verbraucht, bin ich beruhigt. die info stammt laut Tim Smalley (von bit-tech.net) von einem ATI-internem pdf.


Das wäre fast zu schön um wahr zu sein. Dann würde die XL sicherlich unter 60 Watt liegen, etwa auf Niveau einer 6800 GT mit 55 Watt. btw, die 500 Seiten rücken immer näher :eek:

Coda
2005-10-01, 10:45:47
Die G70 hat deutlich mehr Shaderleistung als alle anderen Karten, darauf kannst du Gift nehmen. Das zeigen alle synthetischen Benchmarks die dazu gefahren wurden.

Igzorn
2005-10-01, 10:49:03
Die G70 hat deutlich mehr Shaderleistung als alle anderen Karten, darauf kannst du Gift nehmen. Das zeigen alle synthetischen Benchmarks die dazu gefahren wurden.

Aber helfen die Synthetische Benchmarks wenn es in der Praxis nicht ausgenutzt wird ?

Oder gibt es da noch einen anderen Grund warum der G70 zur zeit noch nicht so richtig aufdreht?

Coda
2005-10-01, 10:51:58
Aber helfen die Synthetische Benchmarks wenn es in der Praxis nicht ausgenutzt wird ?

Oder gibt es da noch einen anderen Grund warum der G70 zur zeit noch nicht so richtig aufdreht?Ich habe ja nicht behauptet, dass das Momentan in der Praxis durchschlägt. Da zählt immer noch zum großen Teil die Füllrate.

Eben darum wird R520 auch nicht mal eben 90% schneller sein als G70, weil er davon nämlich weniger hat.

TrigPe
2005-10-01, 10:57:03
Ich habe ja nicht behauptet, dass das Momentan in der Praxis durchschlägt. Da zählt immer noch zum großen Teil die Füllrate.

Eben darum wird R520 auch nicht mal eben 90% schneller sein als G70, weil er davon nämlich weniger hat.

Naja, ich denke die 90% hat man im unspielbaren Bereich gemessen. D.h. bei extremen Settings + extremer Auflösung hatte der G70 vielleicht 5 Fps und der R520 9 Fps. Schon sinds 90% mehr Speed.


MfG

Mumins
2005-10-01, 11:23:43
Seid mal ehrlich , würdet ihr überhaupt ATi noch was gönnen ? Ich mein, die setzen auf Takt anstat auf Shaderpower per ALU wie bei bei der 7800GTX. Mit Takt geht meistens was in die Hose. Dann 3/6 Monate Verspätung.

Und ich war sogar mal nur auf ATi versteift.


Nein Danke


Wenn's nach mir geht dürften die keinen einzigen Blumenstrauß gewinnen.

Wen interessiert es wie Leistung erreicht wird? Das was am Ende rauskommt zählt.

Coda
2005-10-01, 11:33:58
6800Ultra hat ~ 6800MTexel/s, X800XT hat ~8300MTexel/s
7800GTX hat ~10300MTexel/s, X1800XT hat 9600MTexel/s

Was fällt dir auf?

-error-
2005-10-01, 11:44:33
Das wäre fast zu schön um wahr zu sein. Dann würde die XL sicherlich unter 60 Watt liegen, etwa auf Niveau einer 6800 GT mit 55 Watt. btw, die 500 Seiten rücken immer näher :eek:

Habe ich ja immer geschrieben, aber wenn ihr auch die CT nicht für ernst nimmt, wo ATI ausdrücklich gesagt hat das die Leistungsaufnahme der kommenden GPUs sinken wird, ja dann kann ich euch auch nicht mehr helfen.

Außerdem hat Anandtech.com das schon behauptet und das ist eine sehr seriöse Seite!

Coda
2005-10-01, 11:47:55
CT hat schon bezüglich Xenos eine Menge Unsinn verbreitet. Außerdem kann ATi viel behaupten wenn der Tag lang ist und es um ihre eigene zukünftige HW geht.

-error-
2005-10-01, 11:52:18
Kann man da noch mehr machen? Das Geländer sieht überall etwas anders auch, auch ist etwas matschig.

http://www.bit-tech.net/content_images/news_images/adaptiveaa.jpg

dildo4u
2005-10-01, 12:00:01
Also in der jetzigen Konfiguration kann ich sicherlich nicht behaupten, dass der G70 ultra effizient arbeitet. Vielleicht liegts ja am Handbremsen-70er Treiber. Vielleicht auch nicht.

Er Arbeitet bei Komplexen Shadern schon sher effektiv nur nutzen halt wengie Games bis heute extreme Komplexe Shader dazu gibt ja den schönen Artikel

Einfach mal hier unter HSRBench
komplexe Shader und dem ShaderMark 2.1gucken.
http://www.3dcenter.org/artikel/g70_theoretische_benchmarks/index5.php

Coda
2005-10-01, 12:00:05
Kann man da noch mehr machen? Das Geländer sieht überall etwas anders auch, auch ist etwas matschig.Das liegt eher an der JPEG-Komprimierung.

up¦²
2005-10-01, 12:03:01
Also:
Die X1800XT erst ab 5. November,
die X1600XT erst ab 30. November,
den "Rest" ab 5. Oktober? :rolleyes:

-error-
2005-10-01, 12:03:43
CT hat schon bezüglich Xenos eine Menge Unsinn verbreitet. Außerdem kann ATi viel behaupten wenn der Tag lang ist und es um ihre eigene zukünftige HW geht.

Ja ne ist klar, wenns ATI nicht weißt, wer dann?

Mach dich mal nicht lächerlich, aktzeptiere einfach mal, das ATI mehr Leistung aus weniger Energie gewinnt ;D

Ich schreibs mal extra für dich raus ;)

CT/22.08.05/Seite 159-160

Anders als erwartet sind die auf dem PCIe-Srecker geforderten Ströme bei heutigen High-End-Grafikkarten gar nicht mal so hoch. ATI verriert uns, dass die meisten Boards das Leistungslimit des PCIe Slots von 75 Watt ausreizen und nur den Rest - typischerweiße 25 - 45 Watt, was etwa zwei bis 4 Ampare entspricht - über den zusätzlichen Stromanschluss decken.
Mit einer Spitzenleistung von rund 110 Watt pro Grafikkarte ist nach Ansicht von ATI auch schon das Maximum erreicht,
denn dank Verbesserungen bei der Halbleiterherstellung soll die nächste Generation wieder etwas weniger Leistung brauchen.

VoodooJack
2005-10-01, 12:08:28
90% schneller in FEAR als g70 ist schon ein mutiger claim ;)

Falls das stimmen sollte und auch die anderen Behauptungen fliegen die 7800er raus ;)
Vorrausgesetzt die r520er haben das 16x12 60hz Problem nicht...

Dann lass mal fliegen. Crossfire R520 hat keine 60-Hz-Limitierung! Das wurde inzwischen von mehreren Seiten bestätigt, u. a. hier von Hardwareanalysis.

http://www.hardwareanalysis.com/content/article/1817/

Guckst du ganz unten. From the horse's mouth, also ATI selbst sagt es so.

Mein Warten auf die R520 hat sich gelohnt, obwohl ich ja noch bis Anfang November warten muss. Die X1800XT gibt's erst am 5. November. Aber was jetzt so durchsickert, übertrifft meine kühnsten Erwartungen. Es ist schon erstaunlich, was die "mickrige" 4-Quad R520 leistungsmäßig bieten wird. Tja, ATI hat viel Lehrgeld beim Umstieg auf die neue 90nm-Technologie zahlen müssen, aber jetzt haben sie sie im Griff. Bei den nächsten Produkten tut sich ATI schon viel leichter. Wer nicht's wagt, der nichts gewinnt. So ganz nebenbei (hehe) hat ATI bereits die R580 entwickelt. Das wird erst ein Performance-Hammer. Wie wär's Anfang 2006 mit einem Crossfire System bestehend aus R580 Master Card und X1800XT Slave Card?

Und was die Bildqualität angeht, na da bleiben, nachdem ich gestern HL2 mit Transparent-AA überprüfte (mit Cat 5.9), fast keine Wünsche mehr übrig. Fast schon perfekt, wie jetzt die Zäune aussehen. Nur in der Entfernung, so ab 50 Meter, flimmern sie noch. Dieses Restproblem müsste eigentlich mit Crossfire's Super-AA zu beseitigen sein.

Coda
2005-10-01, 12:12:45
Ja ne ist klar, wenns ATI nicht weißt, wer dann?Es ist doch wohl ein Unterschied, was eine Firma behauptet und was sie weiß. Mit mehr Verbrauch als einer X850XT-PE rechne ich selber nicht, aber sicher auf einem ähnlichen Niveau.

Mein Warten auf die R520 hat sich gelohnt, obwohl ich ja noch bis Anfang November warten muss. Die X1800XT gibt's erst am 5. November. Aber was jetzt so durchsickert, übertrifft meine kühnsten Erwartungen. Es ist schon erstaunlich, was die "mickrige" 4-Quad R520 leistungsmäßig bieten wird.Na, dann lass dich lieber mal nicht so enttäuschen in 4 Tagen. Es fehlt ganz einfach die Füllrate um eine 7800 GTX radikal zu übertreffen.

Das R520 mehr Shaderleistung als G70 haben soll glaube ich auch erst wenn ich es selber sehe.

Ailuros
2005-10-01, 12:18:20
Dann nutz halt 4xAA. Bei 16xS meckert ja auch niemand...

Leistung bricht in FC mit jeder Form von TSAA zu stark ein. Und 4xFSAA hat sowieso nochmal einen gigantischen Unterschied zu 4xTSAA.

Ailuros
2005-10-01, 12:19:43
Interesantes Design. Aber ich vermisse bei den Vertexshader etwas.

;)

Demirug
2005-10-01, 12:24:24
Das R520 mehr Shaderleistung als G70 haben soll glaube ich auch erst wenn ich es selber sehe.

Angeblich 6 Anweisungen pro Takt was ein G70 bei Creativer Zählweise auch erreicht. Wobei die ebenfalls angebliche kleinere Batchsize von nur 16 Pixel sich positive auf die dynamic Branch Leistung auswirken könnte. Wenn dafür aber dann im Gegenzug immer 4*4 Pixel blöcke genutzt werden müssen gibt das am Rand Bösen verschnitt.

Ailuros, ich hätte nichts gesagt wenn es nicht schon anderen aufgefallen wären.

Ailuros
2005-10-01, 12:24:57
Das liegt eher an der JPEG-Komprimierung.

Ist das ein ATI shot? Wenn ja dann wuerde ich auch nicht ausschliessen dass der LOD nicht verschoben wird. AFAIK bleibt LOD in CF/SuperAA bei 0.0.

VoodooJack
2005-10-01, 12:26:09
Na, dann lass dich lieber mal nicht so enttäuschen in 4 Tagen. Es fehlt ganz einfach die Füllrate um eine 7800 GTX radikal zu übertreffen.

Da muss ich dich enttäuschen. Ich werde in 4 Tagen auf keinen Fall enttäuscht sein. Da bin ich mir inzwischen 100%-ig sicher. Die R520/R580 bringt alles das, was ich von der Warte eines X850 XTPE-Besitzers aus von ihr leistungsmäßig und bildqualitätsmäßig erhofft hatte. Was kümmert mich da eine 7800GTX?

Ailuros
2005-10-01, 12:29:14
Angeblich 6 Anweisungen pro Takt was ein G70 bei Creativer Zählweise auch erreicht. Wobei die ebenfalls angebliche kleinere Batchsize von nur 16 Pixel sich positive auf die dynamic Branch Leistung auswirken könnte. Wenn dafür aber dann im Gegenzug immer 4*4 Pixel blöcke genutzt werden müssen gibt das am Rand Bösen verschnitt.

Ailuros, ich hätte nichts gesagt wenn es nicht schon anderen aufgefallen wären.

War auch nicht so gemeint; von den Moeglichkeit schnelleres dynamisches branching auf R520 zu bekommen mal abgesehen ist es auf jeden Fall nicht die "tolle" SM3.0 Implementierung die ich mir erhofft hatte.

Ailuros
2005-10-01, 12:33:38
Da muss ich dich enttäuschen. Ich werde in 4 Tagen auf keinen Fall enttäuscht sein. Da bin ich mir inzwischen 100%-ig sicher. Die R520/R580 bringt alles das, was ich von der Warte eines X850 XTPE-Besitzers aus von ihr leistungsmäßig und bildqualitätsmäßig erhofft hatte. Was kümmert mich da eine 7800GTX?

Von der Warte des R480 aus ist weder eine G70 noch eine R520 eine wahre Aufruestung.

mbee
2005-10-01, 12:37:14
Die R520/R580 bringt alles das, was ich von der Warte eines X850 XTPE-Besitzers aus von ihr leistungsmäßig und bildqualitätsmäßig erhofft hatte. Was kümmert mich da eine 7800GTX?


Och Leute, wartet doch einfach mal die ersten wirklich detaillierten Reviews und Test (auch mit einer genügenden Anzahl ab) bevor hier wieder mit Pauschalaussagen in die eine oder andere Richtung um sich geworfen wird. Das ist natürlich ein Spekulationsthread, aber solch absolute Aussagen wie oben müssen wohl erst mal noch verifiziert werden.

Coda
2005-10-01, 12:50:23
Die Füllrate ist schon lang keine Spekulation mehr.

VoodooJack
2005-10-01, 12:55:20
Err, um das mal klarzustellen, ich hab hier nicht um Rat gefragt, welche Karte ich mir kaufen sollte und ob die R520 die richtige Wahl wäre. Ich weíß schon selbst, was das Beste für mich ist. Zur Erinnerung, ich hab tombman geantwortet.

Demirug
2005-10-01, 12:56:16
Ich war mal so frei und habe etwas mit Farbe rumgespielt:

http://img6.picsplace.to/img6/2/thumbs/r520s_2.JPG (http://img6.picsplace.to/img.php?file=img6/2/r520s_2.JPG)

Coda
2005-10-01, 12:57:33
Err, um das mal klarzustellen, ich hab hier nicht um Rat gefragt, welche Karte ich mir kaufen sollte und ob die R520 die richtige Wahl wäre. Ich weíß schon selbst, was das Beste für mich ist. Zur Erinnerung, ich hab tombman geantwortet.Ich habe keinerlei Ambitionen irgendjemdem hier eine Karte aufschwätzen zu wollen. Nur bleibe ich gerne auf dem Boden der Tatsachen, und R520 wird keine viel schnellere Karte als G70 sein, ich rechne eher mit einem Patt.

Ich war mal so frei und habe etwas mit Farbe rumgespielt:*hust*

deekey777
2005-10-01, 13:02:02
Ist das ein ATI shot?
Nein, das ist bzw. sind zwei Screenshots von tED, die er hier und im B3D Forum gepostet hat. :biggrin:

Wenn ja dann wuerde ich auch nicht ausschliessen dass der LOD nicht verschoben wird. AFAIK bleibt LOD in CF/SuperAA bei 0.0.
... was zum Bluren führt, wo adaptives AA eingesetzt wird?

S!D
2005-10-01, 13:02:26
Radeon X1x00 inoffiziell enthüllt (http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1128161461)

hier sind "neue" fakten mit der Verfügbarkeit der chips.

Coda
2005-10-01, 13:03:31
... was zum Bluren führt, wo adaptives AA eingesetzt wird?Negatives LOD führt generell zu blur, aber ich verstehe nicht, warum ATi dass bei AAA einsetzen sollte.

mbee
2005-10-01, 13:04:51
Die Füllrate ist schon lang keine Spekulation mehr.

Dass das Teil nicht wesentlich schneller sein wird als eine GTX7800 bzw. sich die beiden wohl nicht viel schenken werden, glaube ich auch inzwischen (vor allem aufgrund der Postings von Ailuros, Demirug und Dir in diesem Thread). Shaderleistung (im Detail) und Bildqualität (z.B. bei TSAA im Vergleich zum G70) wird man wohl noch abwarten müssen oder gibt's dafür auch schon Anhaltspunkte?
Mir gings auch eher um die Aussage, "erfüllt 100% meine Erwartungen". Könnte ich für mich erst nach einigen Reviews treffen und zu 100% erst, wenn das Ding bei mir im Rechner läuft.

Demirug
2005-10-01, 13:06:37
Negatives LOD führt generell zu blur, aber ich verstehe nicht, warum ATi dass bei AAA einsetzen sollte.

TMUs und Caches werden in der Regel auf einen Bias von 0 optimiert. Für SS ohne Oversampling (größeren Framebuffer) müsste man aber den Bias anpassen. Das verursacht dann leicht einen zusätzlichen Leistungsverlust.

Coda
2005-10-01, 13:08:35
Ich ärger mich nur schon wieder, dass manche solche Aussagen wie 90% schneller jedesmal aufs neue auch noch glauben, obwohl es schon allein vom klaren Menschenverstand unmöglich ist. Der Speicher limitiert da vorher schon viel zu sehr.

Für SS ohne Oversampling (größeren Framebuffer) müsste man aber den Bias anpassen. Das verursacht dann leicht einen zusätzlichen Leistungsverlust."Muss" man das wirklich? Dann hat man halt keinen Texturschärfevorteil, aber die Alpha-Testing-Glättung funktioniert ja trotzdem.

Ailuros
2005-10-01, 13:22:07
... was zum Bluren führt, wo adaptives AA eingesetzt wird?

Supersampling kommt oefters (auch bei </=R200) mit einem LOD offset. -0.5 fuer 2xSS, -1.0 fuer 4xSS usw. Laesst man jetzt den offset weg und laesst es auf default 0.0 dann schmiert SSAA ein bisschen. Muss nicht so sein bei ATI's TSAA, auf jeden Fall bei SuperAA und den 2x Textur-samples wird nichts verschoben.

Ailuros
2005-10-01, 13:23:53
Negatives LOD führt generell zu blur, aber ich verstehe nicht, warum ATi dass bei AAA einsetzen sollte.

Uhmmm negativ heisst bei mir =/> -0.1 (wobei eben positiv =/> +0.1). Wieso soll in dem Sinn negatives LOD zum blur fuehren? :confused:

Coda
2005-10-01, 13:27:17
Sorry für Verwechslung, positives LOD führt natürlich zu blur...

seahawk
2005-10-01, 14:42:18
Erinnert mich das ATI Struktur diagramm nicht ein wenig an Material der Vorgänger, bei dem vorher getrennte Objekte jetzt zusammengefaßt dargestellt werden - oder täusche ich mich ?

reunion
2005-10-01, 14:53:18
Wenn sie keine Tri-TMUs verbaut haben gibt es da nicht viel Raum für Effizienzverbesserungen bei der Füllrate, und die ist - leider - immer noch sehr relevant.

Durch die höhere Speicherbandbreite schlägt die Füllrate besser durch.

Die G70 hat deutlich mehr Shaderleistung als alle anderen Karten, darauf kannst du Gift nehmen. Das zeigen alle synthetischen Benchmarks die dazu gefahren wurden.

Auch deutlich mehr als R520...

6800Ultra hat ~ 6800MTexel/s, X800XT hat ~8300MTexel/s
7800GTX hat ~10300MTexel/s, X1800XT hat 9600MTexel/s

Was fällt dir auf?

Ich weiß, kleinlich, aber X1800XT wird mit 625/1500 takten.
Ergo 10000MTexel/s.

Mr. Lolman
2005-10-01, 15:01:01
Naja, ich denke die 90% hat man im unspielbaren Bereich gemessen. D.h. bei extremen Settings + extremer Auflösung hatte der G70 vielleicht 5 Fps und der R520 9 Fps. Schon sinds 90% mehr Speed.


MfG

Nö, das sind nur 80% mehr ;)

Coda
2005-10-01, 15:04:29
Durch die höhere Speicherbandbreite schlägt die Füllrate besser durch.Das "Problem" könnte nVIDIA in kürzester Zeit lösen ;)

Auch deutlich mehr als R520...Nicht deutlich, aber dennoch mehr vorraussichtlich.

Ich weiß, kleinlich, aber X1800XT wird mit 625/1500 takten.
Ergo 10000MTexel/s.Ja, hab ich auch gesehen.

reunion
2005-10-01, 15:08:26
Das wäre fast zu schön um wahr zu sein. Dann würde die XL sicherlich unter 60 Watt liegen, etwa auf Niveau einer 6800 GT mit 55 Watt. btw, die 500 Seiten rücken immer näher :eek:


Warum zu schön um wahr zu sein?
Angesichts der 90nm Fertigung und nur 16PP ist die Leistungsaufnahme eher enttäuschend IMHO. Besonders, wenn man sich G70 ansieht.

seahawk
2005-10-01, 15:16:24
A document seen by the INQUIRER claims that ATI will beat Geforce 7800GTX by as much as ninety per cent in the Fear Demo. ATI claims it will end up almost forty per cent faster in Battlefield 2, while it will top Nvidia's fastest card as much as twentyfive per cent in Far Cry.

In certain games, the Radeon X1800XT PE will end up less than twenty per cent faster than GTX. and we are talking about Splinter Cell and the Painkiller extension.

http://www.the-inquirer.net/?article=26617


Wie war das noch mit FEAR, wo G70 angeblich durch seine höhere PS-Performance dem R520 davozieht?


Ach ja hiermal der maximale Bedarf an Videoram für die genannte Spiele bei 6xMSAA. (1600x1200 16:1 AF)

FEAR Demo : 328 MByte
Battlefield 2 : 281 MByte
Far Cry : 261 MByte

-> fällt was auf ? Nun ist eine X800XL 512MB in Fear schon 20% schneller als ne 256MB Version.

Bei FarCry ist der Unterschied 15%.
Bei BF2 ist kein Unterschied messbar.

Nun betrachten wir mal die Unterschiede zwischen 8XSSAA und 6xMSAA.

In Fear ist ne XT850PE genauso schnell wie ne 7800GTX in 1600X1200 und 16:1AF. Mit nur 4xAA ist die 7800GTX 59% schneller als die XT850PE.

-> sind 90% jetzt noch beeindruckend ?

reunion
2005-10-01, 15:17:58
Seltsam finde ich vorallem den RV530, der mit nur 4 TMUs die X700-Serie ersetzen soll. Klar sind die 12 ALUs nett, aber mit der Füllrate wird er sich wohl kaum vor eine X700pro schieben.

Die gelbe Eule
2005-10-01, 15:25:33
Ach ja hiermal der maximale Bedarf an Videoram für die genannte Spiele bei 6xMSAA. (1600x1200 16:1 AF)

FEAR Demo : 328 MByte
Battlefield 2 : 281 MByte
Far Cry : 261 MByte

-> fällt was auf ? Nun ist eine X800XL 512MB in Fear schon 20% schneller als ne 256MB Version.

Bei FarCry ist der Unterschied 15%.
Bei BF2 ist kein Unterschied messbar.

Nun betrachten wir mal die Unterschiede zwischen 8XSSAA und 6xMSAA.

In Fear ist ne XT850PE genauso schnell wie ne 7800GTX in 1600X1200 und 16:1AF. Mit nur 4xAA ist die 7800GTX 59% schneller als die XT850PE.

-> sind 90% jetzt noch beeindruckend ?


Hat man auch getestet ob sich das Spiel mehr RAM genehmigt wenn mehr RAM zur Verfügung steht?

-error-
2005-10-01, 15:32:23
Radeon X1x00 inoffiziell enthüllt (http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1128161461)

hier sind "neue" fakten mit der Verfügbarkeit der chips.

Ich glaube ATI hat alle verarscht und nVidia bekommt jetzt schön eine rein, das nennt man auch Vergeltung ;D

Wieso ich das anehme?

Schaut euch mal die Preise der X1600er Serie an. Die X1600 XT kostet 250€, die X800 XT PE 270€!

Auf dem Platt Papier müsste ja die X800 XT PE deutlich schneller sein ;) Sie hat zwar nicht die Features der R520 und deren Ableger, aber 250€ bezhalt man für eine 128 BIT-Karte, ATI wird schon wissen warum ;)

Und bevor jemand meckert, wir sind hier im Spekulationsthread ;)

Die gelbe Eule
2005-10-01, 15:32:27
Habt ihr gelesen das die 7800GTX nun mit 512MB + 80er Final zum Launch des R520 kommt?

Was fällt euch auf?

Richtig! Die 7800GTX hat 512MB im SLI , die X1800XT nur 256MB.

Mal sehen ob nun FEAR immernoch 90% schneller ist bei ATI ;)


Außerdem wird das Preisgefüge dann eh verschoben werden, da die 512er dann das TopModell wird und somit alle darunter billiger.

reunion
2005-10-01, 15:34:30
Hat man auch getestet ob sich das Spiel mehr RAM genehmigt wenn mehr RAM zur Verfügung steht?

Warum sollte das nicht der Fall sein?

Ronny145
2005-10-01, 15:34:41
Warum zu schön um wahr zu sein?
Angesichts der 90nm Fertigung und nur 16PP ist die Leistungsaufnahme eher enttäuschend IMHO. Besonders, wenn man sich G70 ansieht.

Ich hätte mit mehr gerechnet für die XT. Ob die 69 Watt überhaupt stimmen ist die andere Sache.

Coda
2005-10-01, 15:35:35
Ich glaube ATI hat alle verarscht und nVidia bekommt jetzt schön eine rein, das nennt man auch Vergeltung ;DDas glaube ich nicht, Tim. Füllrate ist Füllrate, und da kann ATi auch nicht zaubern. Wenn du meinst sie könnten G70 mit der Shaderleistung übertreffen, dann sei dir gesagt, dass auch dort das Gesetz des abnehemden Ertrags gilt. Man muss erstmal über das Niveau einer G70 kommen.

Sie könnten natürlich wieder am Filter gepfuscht haben, aber das will ich nicht hoffen.

Warum sollte das nicht der Fall sein?Es gibt nur sehr wenige Spiele die dynamisch nachladen, d.h. die meisten allozieren einfach eine konstante Menge an Speicher.

-error-
2005-10-01, 15:40:34
Das wars für nVidia, den Vorsprung können sie erst Ende 2006 aufholen, wenn es heisst: G80 meet R600 :ujump2:

Ach ist das geil, hier haben sich doch einige zu sehr aus den Fenster gehängt, eine Arroganz an den Tag gelegt, die man nicht für gut heissen kann.

Wisst ihr wo mich das dran erinnert?

Wahl 2002! Nur das der Unterschied zu Gunsten ROT hier deutlicher ausfallen wird ;)

Für alle die so laut geschrien haben, ich würde jetzt erst mal ganz still sein, könnte peinlich werden ;D

http://www.jungschar.it/downloads/sekt.jpg
http://notebook.cz/clanky/technologie/2004/cipsety-notebooky-4-ATI/ati-logo.gif

Die gelbe Eule
2005-10-01, 15:45:24
Das wars für nVida, den Vorsprung können sie erst Ende 2006 aufholen, wenn es heisst: G80 meet R600 :ujump2:

Ach ist das geil, hier haben sich doch einige zu sehr aus den Fenster gehängt, eine Arroganz an den Tag gelegt, die man nicht für gut heissen kann?

Wisst ihr wo mich das dran erinnert?

Wahl 2002! Nur das der Unterschied zu Gunsten ROT hier deutlicher ausfallen wird ;)

Für alle die so laut geschrien haben, ich würde jetzt erst mal gant still sein, könnte peinlich werden ;D

http://www.jungschar.it/downloads/sekt.jpg
http://notebook.cz/clanky/technologie/2004/cipsety-notebooky-4-ATI/ati-logo.gif

Wie was ist das schon offiziell? Hast schon die X1800XT in den Händen? Lüppt alles in Deinem System? Sach an ... :rolleyes:

Lightning
2005-10-01, 15:48:14
Das wars für nVida, den Vorsprung können sie erst Ende 2006 aufholen, wenn es heisst: G80 meet R600 :ujump2:

Ach ist das geil, hier haben sich doch einige zu sehr aus den Fenster gehängt, eine Arroganz an den Tag gelegt, die man nicht für gut heissen kann?

Wisst ihr wo mich das dran erinnert?

Wahl 2002! Nur das der Unterschied zu Gunsten ROT hier deutlicher ausfallen wird ;)

Für alle die so laut geschrien haben, ich würde jetzt erst mal gant still sein, könnte peinlich werden ;D


Häh, hab' ich was verpasst?

Ist es denn so schwer noch die paar Tage abzuwarten, bevor man mit sowas ankommt? Sry, aber das ist doch lächerlich.

Coda
2005-10-01, 15:51:00
Er hat Halluzinationen. Oder er will nur ein bischen trollen. Vielleicht ein wenig von beidem...

Glaubst du wirklich es ist möglich, dass ein Chip mit 10000MTexel/s Füllrate einen mit 10320MTexel/s vernichtend schlägt? Und man bedenke: Abnehmeder Ertrag bei den Optimierungen. Den einzigen Vorteil den ich bisher sehe ich das sie immerhin 25% mehr Speichertakt hat, das war's dann aber auch schon - und fall's das wirklich reicht um die 7800GTX zu schlagen, wird nVIDIA innerhalb kürzester Zeit nachlegen können. Neuen Speicher auf die Boards löten und fertig.

SKYNET
2005-10-01, 15:51:16
Wie was ist das schon offiziell? Hast schon die X1800XT in den Händen? Lüppt alles in Deinem System? Sach an ... :rolleyes:


selbstverständlich hat er sie, schon seit über 2 monaten zum testen... wusstest das etwa nicht? :rolleyes: ;) :biggrin:

Majestic
2005-10-01, 16:01:03
Das wars für nVidia, den Vorsprung können sie erst Ende 2006 aufholen, wenn es heisst: G80 meet R600

Ach ist das geil, hier haben sich doch einige zu sehr aus den Fenster gehängt, eine Arroganz an den Tag gelegt, die man nicht für gut heissen kann.

Wisst ihr wo mich das dran erinnert?

Wahl 2002! Nur das der Unterschied zu Gunsten ROT hier deutlicher ausfallen wird

Für alle die so laut geschrien haben, ich würde jetzt erst mal ganz still sein, könnte peinlich werden



Ich glaube du nimmst das ganze etwas zu ernst... :rolleyes: Ist doch bloß ne Grafikkarte die spätestens nach nem halben Jahr wieder zum alten Eisen gehört.... :D

seahawk
2005-10-01, 16:01:13
Hat man auch getestet ob sich das Spiel mehr RAM genehmigt wenn mehr RAM zur Verfügung steht?

Steht alles in der PCGH 10/05. Wie üblich wurde mit dem Video Memeory Watcher gemessern ( www.nonatainment.de ). Die MEssungen des maximalen Verbrauchs erfolgte mit den PCGH Demos und einer X800XL 512MB.

Auffällig ist halt, dass genau die im Inq.-Artikel genannten Spiele (FEAR Demo, Far Cry und BF2) mit einem großen Speicherbedarf auffielen. Während z.B. das sonst oft genannte HL2 von 512MB nicht profitiert. Das kann imho kein Zufall sein. Nehme ich dann noch die Unterschiede, die sich beim Vergleich von 6xMSAA zu 8xSSAA entstehen, dann komme ich fast immer auf ein Ergebnis, dass die R520 ungefähr 10-20% über eine X850XT PE stellt. Was nun wieder iemlich exakt der Taktsteigerung entspricht. Eine Überlegenheit gegenüber der 7800GTX mit 512MB und mit 4xMSAA kann ich da nicht erkennen.

Tomcat70
2005-10-01, 16:06:44
..... dann komme ich fast immer auf ein Ergebnis, dass die R520 ungefähr 10-20% über eine X850XT PE stellt. Was nun wieder iemlich exakt der Taktsteigerung entspricht.

also jeder der zum jetzigen zeitpunkt noch immer davon ausgeht das die pro clock leistung eines r520 exakt der eines r480 entspricht, lebt im traumland.

-error-
2005-10-01, 16:07:21
Er hat Halluzinationen. Oder er will nur ein bischen trollen. Vielleicht ein wenig von beidem...

Glaubst du wirklich es ist möglich, dass ein Chip mit 10000MTexel/s Füllrate einen mit 10320MTexel/s vernichtend schlägt? Und man bedenke: Abnehmeder Ertrag bei den Optimierungen. Den einzigen Vorteil den ich bisher sehe ich das sie immerhin 25% mehr Speichertakt hat, das war's dann aber auch schon - und fall's das wirklich reicht um die 7800GTX zu schlagen, wird nVIDIA innerhalb kürzester Zeit nachlegen können. Neuen Speicher auf die Boards löten und fertig.

Im Gegensatz zu „herkömmlichen“ Architekturen, setzt ATI auf einen etwas anderen Ansatz und spricht nicht mehr von Pipelines, sondern von Pixel-Prozessoren. Die Radeon X1800 verfügt - laut den Dokumenten der Kanadier - über vier Shader-Einheiten, die jeweils 4 Pixel berechnen können. Insgesamt kann der R520 also 16 Pixel pro Takt berechnen. Ebenfalls überarbeitet wurde der Vertex-Shader, der nun zwei Shader Operationen pro Takt vollführen und bis zu 10 Billionen Instruktionen pro Sekunde abarbeiten kann.

In Sachen Shaderperformance extrem überlegen, das sieht man ja an FEAR ;)

Damit auch in Spielen wie FarCry, Splinter Cell usw.

Und nein, es wird nicht reichen 700Mhz GDDR3 Ram zu verplfanzen, die Überlegenheit ist archtitekturbedingt, Pech für nVidia.

seahawk
2005-10-01, 16:09:12
Ach ja ich würde mir mal das bearbeitete Diagramm von Demi

http://img6.picsplace.to/img.php?file=img6/2/r520s_2.JPG

und das

http://graphics.tomshardware.com/graphic/20040504/ati-x800-05.html
http://graphics.tomshardware.com/graphic/20040504/ati-x800-06.html

ansehen.

Coda
2005-10-01, 16:11:23
In Sachen Shaderperformance extrem überlegen, das sieht man ja an FEAR ;)Das ist sowas von an den Haaren herbeigezogen. Wie gesagt, muss man erstmal über G70 kommen, da stellt sich langsam ein Maximum ein. Oder hat sich die CPU-Performance pro Takt in den letzten Jahren noch stark bewegt (bei gleicher Pipelinelänge wohlgemerkt).

Und nein, es wird nicht reichen 700Mhz GDDR3 Ram zu verplfanzen, die Überlegenheit ist archtitekturbedingt, Pech für nVidia.Soso. Bei einer Welt in der es (noch) fast keine Shaderlimitierung gibt, bei einer Architektur die sowieso keine schnelleren Shader und weniger Füllrate hat. Und morgen ist Ostern und Weihnachten gleichzeitig...

Ich glaube nämlich eher sogar, dass ATi Probleme mit der Shaderleistung hat und deshalb eiligst R580 nachlegt mit 3 ALUs/Pipeline statt einer.

Tomcat70
2005-10-01, 16:13:07
Ach ja ich würde mir mal das bearbeitete Diagramm von Demi

http://img6.picsplace.to/img.php?file=img6/2/r520s_2.JPG

und das

http://graphics.tomshardware.com/graphic/20040504/ati-x800-05.html
http://graphics.tomshardware.com/graphic/20040504/ati-x800-06.html

ansehen.

solche diagramme sagen aber relativ wenig über die inneren werte aus.

Die gelbe Eule
2005-10-01, 16:15:20
Steht alles in der PCGH 10/05. Wie üblich wurde mit dem Video Memeory Watcher gemessern ( www.nonatainment.de ). Die MEssungen des maximalen Verbrauchs erfolgte mit den PCGH Demos und einer X800XL 512MB.

Auffällig ist halt, dass genau die im Inq.-Artikel genannten Spiele (FEAR Demo, Far Cry und BF2) mit einem großen Speicherbedarf auffielen. Während z.B. das sonst oft genannte HL2 von 512MB nicht profitiert. Das kann imho kein Zufall sein. Nehme ich dann noch die Unterschiede, die sich beim Vergleich von 6xMSAA zu 8xSSAA entstehen, dann komme ich fast immer auf ein Ergebnis, dass die R520 ungefähr 10-20% über eine X850XT PE stellt. Was nun wieder iemlich exakt der Taktsteigerung entspricht. Eine Überlegenheit gegenüber der 7800GTX mit 512MB und mit 4xMSAA kann ich da nicht erkennen.

Ich glaub Du verstehst mich falsch, außerdem lese ich keine PCGH, kann ja eh alles 5min später revidiert werden ;)

Ich meinte ob sich der VRAM genauso verhält wie der normale RAM, das wenn man mehr einsetzt, sich auch das Spiel mehr abgreift. Mir geht es um das Verhältnis, wie groß da der Unterschied ist.

selbstverständlich hat er sie, schon seit über 2 monaten zum testen... wusstest das etwa nicht? :rolleyes: ;) :biggrin:

Wenn sein zweiter Name Fuad ist, dann weiß ich was er genommen hat ;)

Coda
2005-10-01, 16:15:45
solche diagramme sagen aber relativ wenig über die inneren werte aus.Das wichtigste wird aufgezeigt, die Leistung der einzelnen Funktionsblöcke dürfte bei ATi und nV eh bis auf Details schon tot-optimiert sein.

Tomcat70
2005-10-01, 16:16:45
Das wichtigste wird aufgezeigt, die Leistung der einzelnen Funktionsblöcke dürfte bei ATi und nV eh bis auf Details schon tot-optimiert sein.

und genau darin liegt wohl deine fehlannahme.

seahawk
2005-10-01, 16:18:04
Ich glaub Du verstehst mich falsch, außerdem lese ich keine PCGH, kann ja eh alles 5min später revidiert werden ;)

Ich meinte ob sich der VRAM genauso verhält wie der normale RAM, das wenn man mehr einsetzt, sich auch das Spiel mehr abgreift. Mir geht es um das Verhältnis, wie groß da der Unterschied ist.



Wenn sein zweiter Name Fuad ist, dann weiß ich was er genommen hat ;)

Ah sorry, bei FEAR und FarCry ja, da die 256MB Karten da ans Limit stiessen. BF2 scheint sich anders zu verhalten. Es gibt da auch keine Performanceunterschiede zwischen 256MB und 512MB.

Coda
2005-10-01, 16:18:22
und genau darin liegt wohl deine fehlannahme.Ich habe im Gegensatz zu dir schon einige Shader geschrieben und weiß wie Prozessoren funktionieren - wer hat wohl eher recht? Aber in 4 Tagen will eh wieder keiner was gesagt haben, oder man stürzt sich auf einzelne Benchmarks, die die "Überlegenheit" zeigen sollen.

Was ich nicht absehen kann ist ob das Teil Tri-TMUs hat. Daraus könnte sich noch ein Vorteil ergeben...

seahawk
2005-10-01, 16:18:51
solche diagramme sagen aber relativ wenig über die inneren werte aus.

Es geht nicht um Leistung, es geht um wie Demi so schön sagte, "alten Wein in neuen Schläuchen".

Tomcat70
2005-10-01, 16:24:53
Ich habe im Gegensatz zu dir schon einige Shader geschrieben und weiß wie Prozessoren funktionieren - wer hat wohl eher recht?

anscheinend bist du allwissend.......
ich hab zwar null erfahrung mit direkter programmierung aktueller pc-hardware, dennoch hab ich schon vor 20 jahren auf meinem ersten commodore 64 in assembler programmiert und auch hand an blitter und copper gelegt (wenn dir das was sagen sollte....). auch heute verdiene ich mein geld noch immer mit programmierung. deine erfahrung mit shadern haben dir ja anscheinend die weisheit mit löffeln verliehen und darum ist klar das du recht haben musst.......einfach lachhaft.

Demirug
2005-10-01, 16:25:06
Es geht nicht um Leistung, es geht um wie Demi so schön sagte, "alten Wein in neuen Schläuchen".

Wobei ich damit nicht sagen will das es zwingend so ist. Es ist aber immerhin eine Möglichkeit. Mich hat ganz einfach die vierfache Unterteilung dieses Dispatchers gestört.

StefanV
2005-10-01, 16:26:00
Glaubst du wirklich es ist möglich, dass ein Chip mit 10000MTexel/s Füllrate einen mit 10320MTexel/s vernichtend schlägt?
In diesem Fall muss ich aber auf den Satz Bilineare Füllrate bestehen!!

Trilinear wärens nur noch 5000 zu 5160.

Da wir momentan eher weniger den Bi-Filter nutzen, schauen diese Zahlenspielereien schonmal weniger beeindruckend aus...

Jetzt ist die Frage, wie ähnlich die TMUs der beiden sind, ob ATi sich getraut hat die längst überfälligen Tri TMUs zu verbauen oder nicht...

Wenn sie es gemacht hätten, dann schaut die Füllrate auf einmal ganz anders aus, nämlich 10k zu 5160 bei Trilinearer Filterung...

Alle Angaben ohne Gewähr und anspruch auf Richtigkeit, soll nur verdeutlichen wie schwachsinnig die 'Füllratenzahlen' momentan sind...

Coda
2005-10-01, 16:28:29
blablaDann solltest du wissen, dass sich Programme nicht beliebig auf verschiedene Funktionseinheiten aufteilen lassen - G70 kann jetzt schon 2 Vector-Ops/Takt ausführen, das ist wohl schon ein Leistung/Kosten-Optimum (CPUs haben auch nur 3 ALUs, die dazu noch nichtmal alle das gleiche ausführen können - G70 kann alle wichtigen Ops in beiden ALUs ausführen). Dazu kommt noch, das man eigentlich noch recht häufig auf die TMUs warten muss, vor allem mit AF.

Logik: Es kann gar nicht sein, dass R520 eine deutlich höhere Shaderleistung hat. Die Füllrate ist auch nicht höher (es sei denn man hat Tri-TMUs).

In diesem Fall muss ich aber auf den Satz Bilineare Füllrate bestehen!!Wie gesagt, Tri-TMUs kann man noch nicht ausschließen. Dann hat G70 aber wohl den Shaderleistungsvorteil am Ende doch.

seahawk
2005-10-01, 16:30:53
Wobei ich damit nicht sagen will das es zwingend so ist. Es ist aber immerhin eine Möglichkeit. Mich hat ganz einfach die vierfache Unterteilung dieses Dispatchers gestört.

Natürlich, aber wenn man sich den Dirpatcher (was soll das eigentlich sein und wie soll der eigentlich funktionieren ?) in vier Teile geteilt vorstellt, dann erinnert es doch wieder sehr an die Diagramme zum R420.

Demirug
2005-10-01, 16:32:12
Ihr wollt keine Tri-TMUs! Glaubt mir.

Ich finde es aber mal wieder sehr lustig wie sich hier manche Werte aus den Fingern saugen die noch nicht mal in der Nähe eines R520 waren. Alles was im Moment so durch die Gegend fliegt ist im Besten Fall durch ATI kompromitiert und im schlechtesten Fall frei erfunden.

Coda
2005-10-01, 16:34:37
Ihr wollt keine Tri-TMUs! Glaubt mir.Wieso nicht? Oder glaubst du, dass dann gleich 2 vollständige Bi-TMUs sinnvoller sind?

mapel110
2005-10-01, 16:35:23
Ihr wollt keine Tri-TMUs! Glaubt mir.

Dann gäbs keine Brispielereien mehr. :usweet:
Oder wäre es möglich, doch Arbeit beim Trilinearen Filtering einzusparen und die frei gewordene Leistung ins AF zu stecken bei TriTMUs?!
Oder würde das nichts bringen?!

Tomcat70
2005-10-01, 16:38:48
Ich finde es aber mal wieder sehr lustig wie sich hier manche Werte aus den Fingern saugen die noch nicht mal in der Nähe eines R520 waren. Alles was im Moment so durch die Gegend fliegt ist im Besten Fall durch ATI kompromitiert und im schlechtesten Fall frei erfunden.

kann dir da nur voll zustimmen.

StefanV
2005-10-01, 16:39:29
Ihr wollt keine Tri-TMUs!
Was spricht gegen Tri-TMUs, außer der 'etwas' höhere Transistorcount?!

Die Vorteile wären ja, das man auf 'Bri-Spielereien' verzichten könnte und auch beim AF nicht mehr soo sehr auf 'Optimierungen' angewiesen wäre...

ALternativ ginge auch 'ne x2 Architektur wie z.B. bei den 1 Quad nV Chips...

Coda
2005-10-01, 16:41:43
kann dir da nur voll zustimmen.Bist du sicher, dass du ihn richtig verstanden hast? Von den "Nichtgläubigern" hat nämlich bisher noch keiner irgendwelche "Benchmarks" gepostet.

Tomcat70
2005-10-01, 16:44:12
Bist du sicher, dass du ihn richtig verstanden hast? Von den "Nichtgläubigern" hat nämlich bisher noch keiner irgendwelche "Benchmarks" gepostet.

aber zahlen (werte) durchaus......

Coda
2005-10-01, 16:45:03
Klar, die Füllrate. Aber die steht ja schon fest (abgesehen davon ob sie jetzt Bilinear oder Trilinear ist).

Demirug
2005-10-01, 16:47:58
Natürlich, aber wenn man sich den Dirpatcher (was soll das eigentlich sein und wie soll der eigentlich funktionieren ?) in vier Teile geteilt vorstellt, dann erinnert es doch wieder sehr an die Diagramme zum R420.

Angeblich verteilt das Teil die anfallenden Arbeit auf die ALUs/FPUs und die TMUs. Allerdings muss es aufgrund von Tests die ich durchgeführt haben sowas auch schon im R300 gegeben haben

Tri-TMUs: Ich bin inzwischen zu der Einsicht gekommen das man mit normalen Tri-TMUs kein gutes AF hinbekommt. Um das zu gewährleisten braucht man etwas aufwendigeres.

Coda
2005-10-01, 16:49:33
Tri-TMUs: Ich bin inzwischen zu der Einsicht gekommen das man mit normalen Tri-TMUs kein gutes AF hinbekommt. Um das zu gewährleisten braucht man etwas aufwendigeres.Also doch eher 2 Bi-TMUs? Werden bei Tri-AF nicht "normale" trilineare Samples verrechnet?

Tomcat70
2005-10-01, 16:50:22
Klar, die Füllrate. Aber die steht ja schon fest (abgesehen davon ob sie jetzt Bilinear oder Trilinear ist).

im gegensatz zu dir war und bin ich noch immer am spekulieren bezüglich der voraussichtlichen performance, während du eher behauptungen basierend auf alten fakten aufstellst.

aber genug dieser kleinen diskussion, da kommt eh nix vernünftiges raus dabei.

Coda
2005-10-01, 16:51:45
im gegensatz zu dir war und bin ich noch immer am spekulieren bezüglich der voraussichtlichen performance, während du eher behauptungen basierend auf alten fakten aufstellst.Du willst also behaupten, dass 625Mhz und 16PP falsch sind? Wenn ja, dann hat es wirklich keinen Wert mit dir zu diskutieren ;)

Demirug
2005-10-01, 16:53:18
Also doch eher 2 Bi-TMUs? Werden bei Tri-AF nicht "normale" trilineare Samples verrechnet?

Nein, man rechnet für jede Mipmap das BI-AF und verechnet dann diese beiden Werte zu einem TRI-AF.

Um Performances und Qualität zu verbessern müsste man einen 4*4 Filterkernel haben der frei gewichtet werden kann. Lustigerweise sieht DX schon ewig zwei zusätzliche Filtermodies mit 4*4 Kernel vor.

Coda
2005-10-01, 16:54:45
Nein, man rechnet für jede Mipmap das BI-AF und verechnet dann diese beiden Werte zu einem TRI-AF.Hm ok.

Um Performances und Qualität zu verbessern müsste man einen 4*4 Filterkernel haben der frei gewichtet werden kann. Lustigerweise sieht DX schon ewig zwei zusätzliche Filtermodies mit 4*4 Kernel vor.Hab ich auch schon gesehen und mich darüber gewundert :)
Weißt du welcher IHV das in die DX-Spec eingebracht hat? Vielleicht PowerVR?

Demirug
2005-10-01, 16:56:37
Hab ich auch schon gesehen und mich darüber gewundert :)
Weißt du welcher IHV das in die DX-Spec eingebracht hat? Vielleicht PowerVR?

Ich habe da mal was von Intel gehört. Ist aber OT

Tomcat70
2005-10-01, 16:56:45
Du willst also behaupten, dass 625Mhz und 16PP falsch sind? Wenn ja, dann hat es wirklich keinen Wert mit dir zu diskutieren ;)

wäre mir neu das eine pixel-pipeline einen statischen wert für performance darstellt.

Coda
2005-10-01, 16:58:07
Was die Füllrate angeht schon. Und Shaderleistung lässt sich wie gesagt nicht mehr radikal steigern nach G70 - das kann man einsehen oder auch nicht.

3d
2005-10-01, 17:06:24
könnt ihr auch das technische beiseite lassen und einfach mal logisch nachdenken?
ich kanns, (hab vom technischen auch keine ahnung)
und ich sage:

etwa 9000 punkte 3dmark05 (+/-3%)
und 20-30% schneller als 7800GTX in spielen (+/-3%)

ich will nicht frech werden aber ich denke ihr habt alle zu wenig ahnung von der materie (außer demirug vielleicht) und von der architektur um die leistung anhand ein paar zahlen vorauszusagen.
logisches denken bringt einen hier viel näher ans ziel.
denkt ihr wirklich ATI bringt mit großer verspätung einen chip auf den markt, der der konkurrenz nicht viel entgegen zu setzen hat?

der R520 wird "deutlich" schneller/besser als 7800GTX und mit irgend einer ultra variante zieht nvidia bald wieder gleich.
so wirds aussehen und nicht anders. :wave2:

Horimoto
2005-10-01, 17:09:18
Denke ich auch.
Selbst wenn eine GTX @500/700MHz und 512MB sicher reichen dürfte, um einigermassen mit der XT gleichzuziehen.
Und die 512MB GTX kommt ja paar Tage nach der R520 Vorstellung, G70 Chips haben sie ja zu genüge

seahawk
2005-10-01, 17:09:59
Angeblich verteilt das Teil die anfallenden Arbeit auf die ALUs/FPUs und die TMUs. Allerdings muss es aufgrund von Tests die ich durchgeführt haben sowas auch schon im R300 gegeben haben



Bestehen da nicht Abhängigkeiten die eine Querverteilung unmöglich machen ?

PS. Mal eine Frage an alle die Glauben, dass der R520 die GTX um 20-30% in realen Spielen schlägt. Die Werte sind von ATI, es sind gerade die Spiele, die einen hohen Bedarf an VideoRAM haben. Es wurde sich einen 512MB XT gegen eine 256MB GTX gebencht, da ATI eine 512MB GTX wohl kaum zur Verfügung hatte.
Gibt euch das nicht zu denken ?

(Ich halte es nicht unmöglich, dass die R520 so schnell ist, aber NV hatte auch mal Zahklen präsentiert bei denen ne GTX 3-4 schneller als ne 6800Ultra war)

Coda
2005-10-01, 17:11:39
denkt ihr wirklich ATI bringt mit großer verspätung einen chip auf den markt, der der konkurrenz nicht viel entgegen zu setzen hat?nVIDIA wird vielleicht den Speichertakt erhöhen müssen, ansonsten seh ich keine Gefahr für die 7800 GTX.

Selbst wenn eine GTX @500/700MHz und 512MB sicher reichen dürfte, um einigermassen mit der XT gleichzuziehen.Da wären immerhin 20% mehr Füllrate als X1800 XT. Es reichen wohl schon 750Mhz Speicher, aber nVIDIA wird sich damit wohl nicht begnügen ;)

Horimoto
2005-10-01, 17:16:18
Coda du denkst viel zu pessimistisch, entweder gewollt, oder auch nicht, weil das so deine Art ist, k.A..........

Wenn die XT über 9000P im murks bekommt, kann man nciht alles auf die VS Perf. setzten. Ich denke dass die XT einen vorsprung von ~10% bei normalen Spielen, wie FC, HL², NFS:MW usw haben wird, undd er Vosrprung immer grösser wird, umso mehr Speicher die Karte benötigt.
ICh meine in CoD2 ist eine X800XL/512MB ja schon nahezu so schnell wie eine GTX, eine X1800XT dürfte dann wohl nahe an die 70% kommen denke ich.
Man muss also nur logisch denken, und man kommt zum Schluss, dass der R520 zwar kein Überflieger sein wird, er wird jedoch die GTX überlügeln, eine 512MB/GTX könnte dann gleichziehen....

Demirug
2005-10-01, 17:16:36
Bestehen da nicht Abhängigkeiten die eine Querverteilung unmöglich machen ?

Von der Logik her im Bereich des Register Files. Das muss nämlich so groß das wenn alle Shadereinheiten darauf zugreifen wollen das gar nicht mehr in einem Takt machbar ist. Das würde Latenzen verursachen. Aus gutem Grund hat zum Beispiel beim Cell jede SPU eine kleinen lokalen Speicher und nicht alle gemeinsam einen. Auch das ILDP Prinzip (es wurde mal gesagt das nVidia das nutzen möchte) nutzt für jede Recheneinheit einen eigenen kleinen lokalen Speicher. Allerdings kann man dort über einen zusätzlichen Datenbus von einem Speicher zum anderen umkopieren. Desweiteren lässt das Diagramm auch vermuten das die Speicher eigentlich getrennt sind. Daraus ergibt sich dann das ein Thread wohl immer auf den gleichen Einheiten laufen wird. Womit wir wieder beim R420 sind.

Die gelbe Eule
2005-10-01, 17:16:50
denkt ihr wirklich ATI bringt mit großer verspätung einen chip auf den markt, der der konkurrenz nicht viel entgegen zu setzen hat?


Ja denken wir, da es Fakt ist, das ATI Yield Probleme hatte und noch hat. Deswegen die Verspätung. Schau mal auf den Threadtitel, was fällt Dir auf? ;D


Und das irgendwelche Karten von ATI mit bestimmten Auflösungen/Einstellungen irgendwo schneller sind als NVidia Karten, kennen wir schon zu genüge. Mich würde es nicht wundern wenn man wieder mit Spielreine von Aufläsungen jenseits des spielbaren spricht.

reunion
2005-10-01, 17:26:10
In Sachen Shaderperformance extrem überlegen, das sieht man ja an FEAR ;)

Damit auch in Spielen wie FarCry, Splinter Cell usw.

Und nein, es wird nicht reichen 700Mhz GDDR3 Ram zu verplfanzen, die Überlegenheit ist archtitekturbedingt, Pech für nVidia.


Versuchs mal mit Logik: Warum dann R580 mit deutlich mehr Shaderpower?

3d
2005-10-01, 17:27:00
Ja denken wir, da es Fakt ist, das ATI Yield Probleme hatte und noch hat. Deswegen die Verspätung. Schau mal auf den Threadtitel, was fällt Dir auf? ich denke da eher andersrum.
ATI hat aufgrund der probleme mit 90nm nicht die leistung zurückgeschraubt, sondern hat abgewartet bis die probleme einigermaßen im griff sind.
hätte ATI die leistung zurückgeschraubt, gäbe es auch keine verspätung.

kann natürlich sein, daß die probleme immer noch groß sind und ATI mehr zurückschrauben musste als gewollt, aber ich denke das wird trotzdem reichen um schneller/besser zu sein als die GTX (256MB)

wird es eigentlich von der X1800XT auch 256MB versionen geben oder nur 512?

reunion
2005-10-01, 17:29:10
Was ich nicht absehen kann ist ob das Teil Tri-TMUs hat. Daraus könnte sich noch ein Vorteil ergeben...

Hätte man Tri-TMUs, würde man den Chip nicht derart hoch takten.
Tri-TMUs sind IMHO sehr unwarscheindlich.

Die gelbe Eule
2005-10-01, 17:29:45
Wenn man die Leistung nicht steigern möchte, müsste man nicht direkt von 130nm auf 90nm wechseln. Siehe NV, die sind auch nur bei 110nm und haben Leistung.

reunion
2005-10-01, 17:34:28
denkt ihr wirklich ATI bringt mit großer verspätung einen chip auf den markt, der der konkurrenz nicht viel entgegen zu setzen hat?


Hat man das nicht bis zu R300 immer so gemacht?

3d
2005-10-01, 17:37:18
das waren andere zeiten und ATI war damals nicht das was sie jetzt sind.

reunion
2005-10-01, 17:38:55
Wenn die XT über 9000P im murks bekommt, kann man nciht alles auf die VS Perf. setzten.

Diese 9000 Punkte kommen vom INQ, sind also keinesfalls Fakt.
Ich glaube nicht daran.

mindfaq
2005-10-01, 17:41:21
Im Gegensatz zu „herkömmlichen“ Architekturen, setzt ATI auf einen etwas anderen Ansatz und spricht nicht mehr von Pipelines, sondern von Pixel-ProzessorenDir ist aber schon klar, dass Pixelpipelines seit der Geforce 256 in Quads (=Pixelprozessoren) organisiert sind ?

Quasar
2005-10-01, 17:46:31
Füllrate ist Füllrate, [...]
Theoretische Füllrate ist theoretische Füllrate. Und für 100fps bei 1600x1200 braucht man gleich nochmal wieviel MPixel realer Füllrate?

Coda
2005-10-01, 18:00:44
Theoretische Füllrate ist theoretische Füllrate. Und für 100fps bei 1600x1200 braucht man gleich nochmal wieviel MPixel realer Füllrate?Overdraw. Und für die bandbreitenreduzierenden Maßnahmen beider Hersteller gilt auch langsam das sie mit sehr viel Aufwand nicht mehr viel reißen können.

Hätte man Tri-TMUs, würde man den Chip nicht derart hoch takten. Tri-TMUs sind IMHO sehr unwarscheindlich.Natürlich sind sie das, aber ich lehn mich ungern aus dem Fenster. Beim Rest kann ich mir ziemlich sicher sein.

Tomcat70
2005-10-01, 18:04:09
... gilt auch langsam das sie mit sehr viel Aufwand nicht mehr viel reißen können.


wenns nach dir ginge wären wir heute noch in der steinzeit.....

Quasar
2005-10-01, 18:10:49
Overdraw.
Faktor 50 nach Early-Z? Klingt unwahrscheinlich, wenn du mich fragst.

-error-
2005-10-01, 18:51:22
Wenn man die Leistung nicht steigern möchte, müsste man nicht direkt von 130nm auf 90nm wechseln. Siehe NV, die sind auch nur bei 110nm und haben Leistung.

Soviel ich weiß gehts da auch um Produktionskosten, besonders wichtig bei LowEnd.

Demirug
2005-10-01, 18:53:56
Soviel ich weiß gehts da auch um Produktionskosten, besonders wichtig bei LowEnd.

Neue Prozesse haben die Tendenz teuer zu sein ausser man kann Sonderrabate aushandeln.

Die gelbe Eule
2005-10-01, 19:02:24
Soviel ich weiß gehts da auch um Produktionskosten, besonders wichtig bei LowEnd.

Natürlich. Aber im VGA Sektor schaut man erstmal das man weiter nach vorne kommt, das andere ist der positive Nebeneffekt.

-error-
2005-10-01, 19:05:24
Neue Prozesse haben die Tendenz teuer zu sein ausser man kann Sonderrabate aushandeln.

Nunja, irgendwann muss ja die Umstellung erfolgen, klar sind die Entwicklungskosten hoch.

Aber kann mir einer mal erklären, warum jetzt die Ausrede mit den 512MB Ram kommt?
Die bewirken eigendlich recht wenig.

Das Musterbeispiel Doom III, wo soll jetzt bitte der Vorteil liegen? (X800XL)

http://img71.imageshack.us/img71/9728/zwischenablage011uu.jpg

mapel110
2005-10-01, 19:08:19
Nunja, irgendwann muss ja die Umstellung erfolgen, klar sind die Entwicklungskosten hoch.

Aber kann mir einer mal erklären, warum jetzt die Ausrede mit den 512MB Ram kommt?
Die bewirken eigendlich recht wenig.

Das Musterbeispiel Doom III, wo soll jetzt bitte der Vorteil liegen? (X800XL)

Fear und Farcry profitieren von 512 MB Vram, speziell bei 6xAA oder 1600x1200er Auflösung mit 4xAA. Da machte das etwa 15 % aus.

Horimoto
2005-10-01, 19:10:21
Wir reden von Spielen wie FEAR oder CoD2.
Bei Doom3, HL², und den meisten andren z.Z erhältlichen Spielen bbringen 512MB nix, bei den zukünftigen dafür sher viel.

Die gelbe Eule
2005-10-01, 19:17:31
Fear und Farcry profitieren von 512 MB Vram, speziell bei 6xAA oder 1600x1200er Auflösung mit 4xAA. Da machte das etwa 15 % aus.

Genau da liegt der Hund begraben. Wer sie nutzen will, muss auch in dem Bereich flüssig mit den Settings spielen können.

3d
2005-10-01, 19:19:43
@ desire
hast du tomaten auf den augen?
im ersten setting ist die 512MB XL fast 1 FPS schneller.
im zweiten setting ganze 1,6 FPS.
:smile:

seahawk
2005-10-01, 19:24:31
Nunja, irgendwann muss ja die Umstellung erfolgen, klar sind die Entwicklungskosten hoch.

Aber kann mir einer mal erklären, warum jetzt die Ausrede mit den 512MB Ram kommt?
Die bewirken eigendlich recht wenig.

Das Musterbeispiel Doom III, wo soll jetzt bitte der Vorteil liegen? (X800XL)



Eben nicht DOOM III nutzt selten mehr als 200MB Videoram.

FarCry, COD2, FEAR Demo und BF2 (nur wenn vorhanden) nutzen mehr als 256MB und dies sind exakt die Spiele in denen ein erheblicher Vorteil der X1800XT berichtet wurde. - Zufall ?

Die gelbe Eule
2005-10-01, 19:30:59
Warten wir mal ab, weil die CF Karte hat nur 256MB RAM, somit ist der Vorteil bald bei NVidia.

Der Depp
2005-10-01, 19:33:40
Also wenn ihr euch so streitet dann macht doch einfach mal nen Test mit ner 512MB Karte von den genannten Spielen!!

Oder was sagen denn unsere Profis wie Quasar dazu?

Die gelbe Eule
2005-10-01, 20:02:08
Wenn einer ne 512er hätte, wäre das kein Thema ;)

Der Depp
2005-10-01, 20:19:53
Kaufen, Testen und wieder zurückgeben!

Die gelbe Eule
2005-10-01, 20:28:29
Achja und wer verkauft eine?

Der Depp
2005-10-01, 20:33:41
Bei nem Online- Händler....du kennst doch des mit dem zwei-wöchigem Rückgaberecht odda?

StefanV
2005-10-01, 20:41:50
Kaufen, Testen und wieder zurückgeben!
Tschuldigung aber diejenigen, die das machen, gehören erschlagen und nie wieder was verkauft!

Der Depp
2005-10-01, 20:45:48
Is doch nur einmal...und es würde offene Fragen beantworten

SKYNET
2005-10-01, 20:50:56
Tschuldigung aber diejenigen, die das machen, gehören erschlagen und nie wieder was verkauft!


100% ack, ich kann solche spacken auch net ab!!

Black-Scorpion
2005-10-01, 20:52:18
Das eine mal ist schon zuviel.

Wie würde es dir gefallen gebrauchte Ware als Neu verkauft zu bekommen?

3d
2005-10-01, 20:52:30
was für offene fragen?

aths
2005-10-01, 22:06:27
Angeblich verteilt das Teil die anfallenden Arbeit auf die ALUs/FPUs und die TMUs. Allerdings muss es aufgrund von Tests die ich durchgeführt haben sowas auch schon im R300 gegeben haben

Tri-TMUs: Ich bin inzwischen zu der Einsicht gekommen das man mit normalen Tri-TMUs kein gutes AF hinbekommt. Um das zu gewährleisten braucht man etwas aufwendigeres.Ja, man braucht aufwändigere TMUs als normale Tri-TMUs, um entscheidende Vorteile zu haben. Herkömmliches Tri-AF bedeutet ohnehin, 25% Verschwendung in Kauf zu nehmen.

Ailuros
2005-10-01, 23:15:42
Tschuldigung aber diejenigen, die das machen, gehören erschlagen und nie wieder was verkauft!

Ich will hoffen dass ich in naechster Zeit ein Leih-sample bekomme. Bei mir dauert's eben leider meistens viel zu lange bis ich mit nem Artikel fertig bin....manche arbeiten ausnahmsweise LOL ;)

phil99
2005-10-02, 00:14:14
Ich habe die ganze Zeit schon gedacht, dass 256mb für eine Highendgrafikkarte wenig ist, erst recht im SLI.
Ich überlege mir derzeit ernsthaft meine 7800 GTX zu verkaufen.
Wenn ich es vor November mache, bekomme ich sicher noch mehr dafür.
Gehen tut sie ja gut, aber 512 mb und schnellen 800 mhz Speicher sind natürlich obergeil.
Wieviel wird die 1800XT kosten ?
Ich werden noch bis zum Launch der XL warten, dann werd ich entscheiden, ob ich sie gleich verkaufe.

Die gelbe Eule
2005-10-02, 00:17:26
Da hast wohl was nicht mitbekommen. Du hast auch weiterhin bei CF nur 256MB RAM, es gibt dort keine CF X800XT mit 512MB RAM.

Ailuros
2005-10-02, 00:25:54
Wenn er ein multi-GPU System bauen will, gibt es immer noch die Moeglichkeit von R520/CF.

phil99
2005-10-02, 00:26:17
Da hast wohl was nicht mitbekommen. Du hast auch weiterhin bei CF nur 256MB RAM, es gibt dort keine CF X800XT mit 512MB RAM.

Die neue R520 hat doch 512 mb Ram.
Die heisst doch 1800XT
Ich will nur eine Grafikkarte betreiben

Coda
2005-10-02, 00:58:09
Ich habe die ganze Zeit schon gedacht, dass 256mb für eine Highendgrafikkarte wenig ist, erst recht im SLI.
Ich überlege mir derzeit ernsthaft meine 7800 GTX zu verkaufen.
Wenn ich es vor November mache, bekomme ich sicher noch mehr dafür.
Gehen tut sie ja gut, aber 512 mb und schnellen 800 mhz Speicher sind natürlich obergeil.
Wieviel wird die 1800XT kosten ?
Ich werden noch bis zum Launch der XL warten, dann werd ich entscheiden, ob ich sie gleich verkaufe.Es wird nicht sehr lange dauern und wir werden nVIDIA Karten ebenso mit 750Mhz Speicher und 512MiB sehen. Das ist einfach eine Sache von anderen Bausteinen, da muss nichts entwickelt werden dafür.

Die gelbe Eule
2005-10-02, 01:07:57
Wenn er ein multi-GPU System bauen will, gibt es immer noch die Moeglichkeit von R520/CF.

Ist schon bekannt wie sich da die RAM Aufteilung verhält?

Es wird nicht sehr lange dauern und wir werden nVIDIA Karten ebenso mit 750Mhz Speicher und 512MiB sehen. Das ist einfach eine Sache von anderen Bausteinen, da muss nichts entwickelt werden dafür.

Laut Fuadizm soll schon nächste Woche so eine Karte kommen ...

Ailuros
2005-10-02, 01:24:46
Ist schon bekannt wie sich da die RAM Aufteilung verhält?

Hoechstwahrscheinlich wie auf allen anderen multi-GPU Systemen.

phil99
2005-10-02, 01:30:13
Ich habe meine jetztige Karte mal im Marktplatz einer anderen Seite angeboten.
Erstmal zum Mindestpreis von 460 Euro und Sofortkauf 500 Euro.
Wenn ich einen Monat nicht zocken kann, macht das nix.
Wenn ich dann die 1800XT für unter 600 Euro bekomme.

Blaze
2005-10-02, 01:34:06
Laut Fuadizm soll schon nächste Woche so eine Karte kommen ...

Der glaubt ja auch an den heiligen Geist...

tombman
2005-10-02, 01:56:38
Selbst wenn die r520 im CF Modus schneller sein wird als 7800SLI, dann haut man sich eben zwei Stück von den Asus dual 7800er rein und schon paßt des wieder :D

Die gelbe Eule
2005-10-02, 01:56:46
Wir doch auch, an den Geist der heiligen XT-PE :rolleyes:

@tombman: Mit dem 81er bencht noch kein Schwanz, der geht derbe nach vorne für SLI.

Ailuros
2005-10-02, 01:58:29
Selbst wenn die r520 im CF Modus schneller sein wird als 7800SLI, dann haut man sich eben zwei Stück von den Asus dual 7800er rein und schon paßt des wieder :D

Hat ueberhaupt Asus ein mobo unter Planung mit 32 PCIe lanes?

Die gelbe Eule
2005-10-02, 02:01:20
Ja, guckst du hier (http://www.computerbase.de/news/hardware/mainboards/amd-systeme/2005/september/asus_a8n32-sli_deluxe_2x_pcie/).

Übrigens, ATI sieht für Dual X850 bereits ein 500W Netzteil vor, die spinnen doch oder?

Ailuros
2005-10-02, 02:06:00
Ja, guckst du hier (http://www.computerbase.de/news/hardware/mainboards/amd-systeme/2005/september/asus_a8n32-sli_deluxe_2x_pcie/).

Igittigitt hehehe....;)

Die gelbe Eule
2005-10-02, 02:06:56
209 ocken wollen die dafür haben, naja dafür kann dann Asus bestimmt kein HTT 300+ =)

r3ptil3
2005-10-02, 02:19:23
Ja, guckst du hier (http://www.computerbase.de/news/hardware/mainboards/amd-systeme/2005/september/asus_a8n32-sli_deluxe_2x_pcie/).

Übrigens, ATI sieht für Dual X850 bereits ein 500W Netzteil vor, die spinnen doch oder?

Ja für einen 99% stabilen Betrieb mit einem High-End Prozessor, oder was erwartest du, ein 300Watt NT?

-error-
2005-10-02, 02:20:14
Selbst wenn die r520 im CF Modus schneller sein wird als 7800SLI, dann haut man sich eben zwei Stück von den Asus dual 7800er rein und schon paßt des wieder :D

Nun, dann kannst du auf GAS aber verzichten, heizen kannst du auch so ;)

Und hey, kalt duschen härtet ab ;D

mapel110
2005-10-02, 02:25:55
Ja für einen 99% stabilen Betrieb mit einem High-End Prozessor, oder was erwartest du, ein 300Watt NT?
Wie bei nvidia ein 350 Watt Netzteil?!
http://www.nvidia.com/page/geforce_7800_faq.html
Q: What power supply does it require?
Current recommendations are 350W for single, 500W for SLI.

Immerhin nutzt ja ATI einen besseren Fertigungsprozess.

r3ptil3
2005-10-02, 02:52:31
Wie bei nvidia ein 350 Watt Netzteil?!
http://www.nvidia.com/page/geforce_7800_faq.html
Q: What power supply does it require?
Current recommendations are 350W for single, 500W for SLI.

Immerhin nutzt ja ATI einen besseren Fertigungsprozess.

Er meinte X850 Crossfire; "Dual X850"!

Die gelbe Eule
2005-10-02, 02:54:22
Ja und 7800GTX brauch nen 500W für SLI, was ja in Ordnung geht. Aber schon für X850er 500W ist ne Ecke zuviel ...

mapel110
2005-10-02, 02:54:56
Er meinte X850 Crossfire; "Dual X850"!
hmhm, überlesen. ;(
Ja und 7800GTX brauch nen 500W für SLI, was ja in Ordnung geht. Aber schon für X850er 500W ist ne Ecke zuviel ...
Nönö, ist schon okay. Die Leistungsaufnahme ist ja ähnlich.

Die gelbe Eule
2005-10-02, 03:00:12
Aber sollte normalerweise die Leistungsaufnahme nicht etwas niedriger sein, wenn wir schon bei 90nm sind? ATI spricht hier von mindestens 75W pro Slot.

mapel110
2005-10-02, 03:04:33
Aber sollte normalerweise die Leistungsaufnahme nicht etwas niedriger sein, wenn wir schon bei 90nm sind? ATI spricht hier von mindestens 75W pro Slot.
Hm?! 500 Watt für 110nm R480 aka X850! Und ich denke für Zwei 90nm R520 wird man je nach Transistoranzahl ähnliche Leistungsaufnahme erwarten können.

r3ptil3
2005-10-02, 03:21:31
Hm?! 500 Watt für 110nm R480 aka X850! Und ich denke für Zwei 90nm R520 wird man je nach Transistoranzahl ähnliche Leistungsaufnahme erwarten können.

R480 = 130nm

Die gelbe Eule
2005-10-02, 03:27:54
mapel ist wohl bissl müde ... ;)

dr_mordio
2005-10-02, 03:28:08
Aber sollte normalerweise die Leistungsaufnahme nicht etwas niedriger sein, wenn wir schon bei 90nm sind? ATI spricht hier von mindestens 75W pro Slot.

die XI300 bis XI800 sind die ersten 90nm von ATI.

ich lesen in vielen deinen posts eine eideutige NV lastigkeit, und eine schwäche alles von ATI schlecht zu machen. teilweise mit unqualifizierten aussagen. das hier war nicht der erste...

aber naja, jeder wie er es mag und braucht.

MfG
Alex

Neon3D
2005-10-02, 03:31:17
Der glaubt ja auch an den heiligen Geist...

das solltest du auch :whisper:

Die gelbe Eule
2005-10-02, 03:31:32
Ich hinterfrage nur, mehr tue ich nicht. Warum sollte ich über ATI herziehen? Hier wird spekuliert und das solange bis die Karten erhältlich sind. Ob ich nun eine NV oder was anderes im PC habe, beeinflusst meine Meinung nicht.

10.000 Posts für R520 ... der Thread sollte selig gesprochen werden ....