PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 [3] 4 5 6 7 8 9 10

Spasstiger
2005-10-05, 20:44:12
Die X1800XT ist einer der lautesten und wärmsten GPU.

Die GPU der X1800 XT macht keine Geräusche, dafür ist der Lüfter des Kühlers zuständig. Und der Stromverbrauch liegt auf demselben Level wie bei der GeForce 7800 GTX oder der GeForce 6800 Ultra. Eine GeForce FX 5950 Ultra verbraucht noch etwas mehr. Und bei der 7800 GTX hat der Stromverbrauch bisher auch keinen gestört.
Die Sache mit dem zu hohen Verbrauch im Idle-Betrieb klärt sich hoffentlich mit einem neuen Treiber, wenn dann die Lüftersteuerungen funktionieren, sollte man die Karten auch leise regeln können. Und bei der GeForce 6800 GT z.b. hats auch kaum jemand gestört, dass deren Lüfter so laut waren.

Coda
2005-10-05, 20:46:24
Und der Stromverbrauch liegt auf demselben Level wie bei der GeForce 7800 GTX oder der GeForce 6800 Ultra.Hat das denn schon jemand gemessen? Ich warte lieber auf X-Bit was das betrifft.

Spasstiger
2005-10-05, 20:52:16
Hat das denn schon jemand gemessen? Ich warte lieber auf X-Bit was das betrifft.

Hab bei Techreport.com auch noch Leistungsmessungen gefunden. Allerdings leider nicht unbedingt aussagekräftig, weil nur der Stromverbrauch des gesamten Systems gemessen wurde und die ATI-Karten dabei auf einer XPress 200 Platine liefen, während die Nvidia-Karten mit dem NForce 4 Chipsatz gepaart wurden:
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=16

http://techreport.com/reviews/2005q4/radeon-x1000/power.gif

Also wie gesagt, mit Vorsicht zu genießen. Wenn, dann sollten die Grafikkarten auf identischen Plattformen getestet werden. Unterschiedliche Netzteile können solche Diagramme auch völlig durcheinanderwerfen.

Btw.: Hier wurde bei der X1800 XT eine geringere Laustärke als bei der 7800 GTX gemessen. Zitat:
The two X1800 cards are reasonably quiet. The XT's dual-slot cooler can be loud when it kicks into high gear as the system powers on, but otherwise, it just whispers.

tombman
2005-10-05, 20:52:46
@wesker, thx, ich habs auch so ca in Erinnerung, daß fc kaum TSAA belastet.

Wenn jemand die TRSAA Hölle sehen will, dann soll dieser mal Chrome benchen :naughty:

Also wenn der Eindruch unter AAA bei ATI generell so hoch ist, wirds keiner nutzen..

Blaze
2005-10-05, 20:55:05
Wenn jemand die TRSAA Hölle sehen will, dann soll dieser mal Chrome benchen :naughty:

Den 2. Teil?

Ich find der performt richtig mies mit TRSAA :|

mindfaq
2005-10-05, 20:55:08
With the above in mind we went off to try and track down a real world example of the new HQ AF at work. Unfortunately in all the engines we tried we were unable to see any real advantages, though there was certainly no reduction in IQ.
http://www.driverheaven.net/reviews/r520reviewxvxv/software.htm

Naja, ich hoffe mal, dass das AF wirklich so gut ist wie es sein soll.
Sollte NV bis zum Launch des R580 nichts dergleichen anzubieten haben, werde ich meinen G70GTX wohl durch eben jenen R580 ersetzen.
Besser wäre natürlich wenn der G70 durch einen neuen Treiber auch nahezu winkelunabhängig filtern würde.

Ansonsten ist der R520 keine Überraschung, weder positiv noch negativ.
Wie erwartet ist mal der G70 schneller und mal der R520.
Mich würde stark interessieren wie eine 7800GTX mit 512MB 1,26ns Speicher performen würde...

Black-Scorpion
2005-10-05, 20:56:02
Naja, dann kann der Einbruch aber höchstens noch höher werden. Ein GPU Limit lässt sich doch nicht durch eine langsamere CPU umgehen...
Darauf wollte ich ja hinaus.

Die 7800 GTX verliert in Far Cry ganze 6 % durch TRSAA

Die verliert bei ihm soviel.
Das gilt noch lange nicht für alle.

tombman
2005-10-05, 20:56:37
Den 2. Teil?

Ich find der performt richtig mies mit TRSAA :|

Der performed schon richtig, denn wenn die Hälfte des Bildes VOLL von Alpha Texturen ist, dann kostet das eben so viel Leistung ;)

Blaze
2005-10-05, 20:57:52
Der performed schon richtig, denn wenn die Hälfte des Bildes VOLL von Alpha Texturen ist, dann kostet das eben so viel Leistung ;)

jaja das war mir schon klar ;)

Coda
2005-10-05, 20:57:57
Mit "eher weniger" meinte ich aber nicht 20% auf einmal sondern eher 7 oder 8. Wayne?

Spasstiger
2005-10-05, 20:58:02
Die verliert bei ihm soviel.
Das gilt noch lange nicht für alle.

Warum nicht? Seine CPU limitiert jedenfalls nicht. Bei anderen mit schwächeren CPUs wird die 7800 GTX dann theoretisch noch weniger Leistung verlieren.

mindfaq
2005-10-05, 20:58:30
Die verliert bei ihm soviel.
Das gilt noch lange nicht für alle.Warum sollte es auf einer anderen GTX mehr Leistung kosten ?

A.Wesker
2005-10-05, 20:59:14
http://www.computerbase.de/bild/article/495/53

wo ist der zaun ? :D

up¦²
2005-10-05, 21:02:20
*Fuad's-Review* (http://www.theinquirer.net/?article=26720)

... :smile:

Blaze
2005-10-05, 21:04:26
http://www.computerbase.de/bild/article/495/53

wo ist der zaun ? :D

wegoptimiert ;D

Spasstiger
2005-10-05, 21:05:46
http://www.computerbase.de/bild/article/495/53

wo ist der zaun ? :D

*g*

Aber der AF-Vergleich zeigt deutlich die Überlegenheit des neuen HQ-AFs. Schon 4:1 HQ-AF sieht besser aus als 16:1 Standard-AF.

Coda
2005-10-05, 21:05:52
wegoptimiert ;DDepp :D

Ne ich denke dass da noch was mit dem Treiber nicht stimmt.

StefanV
2005-10-05, 21:11:00
Ja toll..ich hab aber S754(3400/2,4Ghz) und will erst beim M2 wechseln. Es geht mir auch darum das ATI keine Gegner hätte mit einer x1800xl. Ich kenne keine einzigen in meinem Bekanntenkreis der PCIe hat, aber alle gute Prozzis. Die würden mit sicherheit lieber nochmal die graka wechesln bevor sie wieder ein neues Mobo brauchen nur um ne bessere graka reinzustecken
Ich auch, dennoch werd ich das Brett bei Gelegenheit wechseln, entweder auf SIS 761 oder auf Radeon XPress...

Gibt da ein paar nette Bretter für etwas mehr als 'nen Fuffi :)

Coda
2005-10-05, 21:13:36
Uli ist doch auch ne gute Alternative, da kannste sogar die AGP-Karte noch behalten vorerst.

dargo
2005-10-05, 21:15:23
Hat das denn schon jemand gemessen? Ich warte lieber auf X-Bit was das betrifft.
Also, bei Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/) wurde alles auf gleichem System getestet.
Man kann also schon sagen, daß die X1800XT die gleiche Verlustleistung bei Last hat wie eine G7800GTX. Bei 2Watt Unterschied bleibt die Effizienz des NTs praktisch gleich.

Genaue Werte nur von der Graka erwarte ich auch von xbitlabs. :)

Die gelbe Eule
2005-10-05, 21:16:29
Das mit dem Zaun ist aber mal sehr traurig. Links ist auch keiner ;D

Blaze
2005-10-05, 21:16:50
Wann kann man das Review denn erwarten?

Das mit dem Zaun ist aber mal sehr traurig. Links ist auch keiner ;D

Wär ja geil wenn da bei ATI auf einmal einer wäre X-D

DavChrFen
2005-10-05, 21:17:00
*Festnagel*

Was bringt der ominöse Ringbus nun?
Eine höhere maximale interne Bandbreite.Theoretisch oder auch praktisch ?Das kann dir nur ATI sagen. Wahrscheinlich bringt er was weil man solche veränderungen ja vorher simuliert.
So wie ich das verstanden habe wäre eine "konventionelle" Speicheranbindung vom Lyout und von der Wärmeentwicklung teurer und nicht so gut wie dieser Ringbus.
/Spekulier on/
: Es könnte doch sein, dass ATI gesagt hat, dass sie lieber den Ringbus nehmen und damit dann im Worst-Case 10% weniger Leistung haben, aber dadurch dann besser im Lyout, von den Kosten und in der Wärmeentwicklung sind. Dadurch könnte man das Weniger an Leistung durch einen höheren Takt evtl etwas ausgleichen
/Spekulier off/
Ich wäre also vorsichtig, ob dieser Ringbus wirklich so viel bringt, oder ob der aus anderen Gründen nötig wurde.

tombman
2005-10-05, 21:17:47
Weiß eigentlich schon wer wann die Master Karten von X1800 Serie kommen? :naughty:

Die gelbe Eule
2005-10-05, 21:19:20
Von diesem Ringbus gibt es aber mehrere Varianten, entweder kommunizieren sie durch ihn oder mit ihm.

Blaze
2005-10-05, 21:19:21
Weiß eigentlich schon wer wann die Master Karten von X1800 Serie kommen? :naughty:

Zeitgleich mit den anderen vermute ich mal...so viel Zeit wird ATI sich da ned lassen.

reunion
2005-10-05, 21:23:43
Die 7800 GTX verliert in Far Cry ganze 6 % durch TRSAA


HotHardware hat ein Custom-Demo mit der Map "Catacombs" aufgenommen, welches fast nur aus Wald, und damit fast nur aus Alphatest besteht. Das muss mehr als 6% kosten.

Fragen:
Woher hast du das Demo?
Oder hast du einfach nur irgendeins genommen, wo der Performancedrop möglichst gering ist?

DavChrFen
2005-10-05, 21:25:03
Was sind Master Karten?
*doof_frag*

A.Wesker
2005-10-05, 21:26:29
HotHardware hat ein Custom-Demo mit der Map "Catacombs" aufgenommen, welches fast nur aus Wald, und damit fast nur aus Alphatest besteht. Das muss mehr als 6% kosten.

Fragen:
Woher hast du das Demo?
Oder hast du einfach nur irgendeins genommen, wo der Performancedrop möglichst gering ist?
haste nen link zur demo?

nagus
2005-10-05, 21:28:28
Weiß eigentlich schon wer wann die Master Karten von X1800 Serie kommen? :naughty:

völlig egal wann die kommen... dual-grakas sind sowieso nur für ultra-ultra hard core gamer und leute die zu viel geld haben und sonst nicht wissen wo hin damit ;) das geld für eine 2. graka investier ich lieber in einen besseren tft oder mehr ram oder ne schnellere cpu oder was auch immer.. aber das ist ein anderes thema.

reunion
2005-10-05, 21:28:53
Wieso kann er das nicht? Bei ihm ist die CPU auf jedenfall nicht der limitierende Faktor...

Weil er total unterschiedliche Timedemos miteinander vergleicht.

dildo4u
2005-10-05, 21:30:08
Was sind Master Karten?
*doof_frag*
Karten für Crossfire.

nagus
2005-10-05, 21:31:02
Was sind Master Karten?
*doof_frag*

für ATI "SLI" (Crossfire) brauchst du eine normale R4x0 oder R5x0 PLUS eine master karte... ist im prinzip das gleiche wie die normale grafikkarte + die schaltkreise für crossfire betrieb. bei nvidia reichen einfach 2 normale, gleiche grakas

Coda
2005-10-05, 21:31:24
Weil er total unterschiedliche Timedemos miteinander vergleicht.Ahso, na gut. Bisher ist AAA aber eher mit mehr Einbruch verbunden, nicht?

Blaze
2005-10-05, 21:31:46
völlig egal wann die kommen... dual-grakas sind sowieso nur für ultra-ultra hard core gamer und leute die zu viel geld haben und sonst nicht wissen wo hin damit ;) das geld für eine 2. graka investier ich lieber in einen besseren tft oder mehr ram oder ne schnellere cpu oder was auch immer.. aber das ist ein anderes thema.

Es ist nicht egal wann die kommen, nur weils dir egal ist muss es ja nicht gleich all den anderen da draussen auch egal sein ;)

reunion
2005-10-05, 21:32:01
haste nen link zur demo?


Nein, steht dabei.

Die gelbe Eule
2005-10-05, 21:35:03
für ATI "SLI" (Crossfire) brauchst du eine normale R4x0 oder R5x0 PLUS eine master karte... ist im prinzip das gleiche wie die normale grafikkarte + die schaltkreise für crossfire betrieb. bei nvidia reichen einfach 2 normale, gleiche grakas

Seit 81.84 nicht mehr.

Mixed vendor support for NVIDIA SLI

reunion
2005-10-05, 21:40:03
Ahso, na gut. Bisher ist AAA aber eher mit mehr Einbruch verbunden, nicht?


Um das zu beurteilen, sollte man erstmal vergleichbare Bedingungen schaffen.

PP
2005-10-05, 21:40:18
Weiß eigentlich schon wer wann die Master Karten von X1800 Serie kommen? :naughty:
Laut Infos von gdhardware (http://www.gdhardware.com/ed/ati/x1800_c/001.htm) ende November

deekey777
2005-10-05, 21:40:58
Die 7800 GTX verliert in Far Cry ganze 6 % durch TRSAA
Du hast Far Cry aber gespielt?
haste nen link zur demo?
Da könnte meine Frage beantworten.

Man kann in Far Cry eine Timedemo aufnehmen, die nur im Dschungel spielt, sprich nur Vegetation, fast keine Söldner und null Weitsicht: Da wird adapt. AA oder TransparenSSAA extrem Leistung kosten.

Coda
2005-10-05, 21:41:08
Um das zu beurteilen, sollte man erstmal vergleichbare Bedingungen schaffen.Hat kein Review TSSAA und AAA verglichen?

reunion
2005-10-05, 21:41:34
Wichtig:

The Radeon X1800 series will be divided into several models, as yields of TSMC 90 nano process improve, the future will bring X1800 products with already familiar monikers of "pipeline-cut" variations. So far, "only" X1800 CrossFire Edition, X1800XT and XL make 1800 series.

However, these products do not all come with the same core. Unlike previos iterations, the two-metal layer bug that prevented higher clock speeds - developers got boards running at 490 MHz for the core - will be present in the "available now" model, also known as the Radeon X1800XL. It isn't known how many old R520 chips were made, but do expect that it could take some time for old R520 chip to disappear from R520XL PCBs (printed circuit boards).

The second spin of the chip is slightly bigger (0.7mm2), and will be the power of Radeon X1800XT/CrossFire edition cards, which are not available today. Bear that in mind when you read today's reviews. The Radeon X1800XT features a fixed bug and can clock in excess of 800MHz using not-so-standard variations of cooling. Using default iPod-white copper cooling solution, the "R520 Take Two" will work in excess of 700MHz, giving Nvidia a real run for its money.


http://www.the-inquirer.net/?article=26710

A.Wesker
2005-10-05, 21:43:21
Um das zu beurteilen, sollte man erstmal vergleichbare Bedingungen schaffen.
und dafür bäuchte man die timedemo, ich bin mir aber ziemlich sicher, daß die 7800 GTX trotzdem nicht über 10 % verliert.

deekey777
2005-10-05, 21:45:48
Hat kein Review TSSAA und AAA verglichen?

Computer Base?
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/9/
Oder meinst du was anderes?

reunion
2005-10-05, 21:50:28
und dafür bäuchte man die timedemo, ich bin mir aber ziemlich sicher, daß die 7800 GTX trotzdem nicht über 10 % verliert.


Wenn der Frame fast nur aus Alphatest besteht, musst du mehr verlieren.
Oder kostet bei dir 4x FSSSAA auch nicht mehr als 10%? Wohl kaum.

reunion
2005-10-05, 21:53:21
Computer Base?
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/9/
Oder meinst du was anderes?


Hier verliert R520 sogar deutlich weniger.
Und das ist wirklich vergleichbar.

Coda
2005-10-05, 21:57:38
Ich weiß ja nicht, aber 96% ggü. 95% fällt wohl eher in die Rübrik "Messungenauigkeit" oder nicht?

reunion
2005-10-05, 21:58:22
Offizieller ForceWare 81.84 erschienen (http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2005/oktober/offizieller_forceware_8184/), und kein besseres AF...

reunion
2005-10-05, 22:01:04
Ich weiß ja nicht, aber 96% ggü. 95% fällt wohl eher in die Rübrik "Messungenauigkeit" oder nicht?


Wie kommst du auf 95% bzw. 96%?
Ich sehe 85% bzw. 78% bei 4x TSAAA.

Coda
2005-10-05, 22:02:06
Relative Geschwindigkeit gegenüber 4xAA ohne SS.

Coda
2005-10-05, 22:02:26
Offizieller ForceWare 81.84 erschienen (http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2005/oktober/offizieller_forceware_8184/), und kein besseres AF...Den gab's auch schon gestern vor dem Launch.

Blaze
2005-10-05, 22:04:54
Offizieller ForceWare 81.84 erschienen (http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2005/oktober/offizieller_forceware_8184/), und kein besseres AF...

Hab ich gestern schon gepostet...da war er zumindest noch offiziell BETA ;)

Edit: Und er ists immernoch ;)

-error-
2005-10-05, 22:06:19
Hmm, ich denke ATI hat das beste aus der Situtation gemacht, habe die Benchmarks gerade gesehen, erst heute kam ich dazu.

Man kann nicht sagen, dass ATI an nVidia, in Bezug auf die Performance, vorbeigezogen ist, eher ist Peformance ausgeglichen.

Allerdings bietet ATI mit Quality AF nun die bessere Bildqualität, endlich wieder winkelunabhängig. Was heisst endlich wieder, bei ATI gab es das noch nie, bei nVidia schon, jedenfalls bis zur NV35.

Man kann also sagen, dass die R520 und seine Ableger die bessere Bidqualität bieten, bei weniger Leistungsverlust.

So wie es mir erscheint, sind die Karten noch nicht wirklich gut unterstützt, seitens der Treiber.
Das fällt besonders bei brandneuen Titeln auf.

Was mich wundert, der Stromverbrauch liegt über der G70 und teils sogar über dem NV40, da hätte ich mehr erwartet.

Was auch noch zu kritisieren ist:

Die Preisgestaltung der X1600-Serie ist ja nun wirklich mehr als unglücklich.
Ich zahle 250 Euro und bekomme gerademal die Performance einer X800er, das ist nicht sonderlich lustig.

Es muss unbedingt noch eine Karte geben, die ziemlich mittig in der Leistung zwischen X1800 XL und der X1600 XT liegt.

Für 260€ bekommt man mit der X800 XT PE zwar alte Technik, jedoch ist man ja oft damit doppelt so schnell unterwegs, als mit einer X1600 XT, je nach Konfiguration.

Also, ich habe einen zwiespältigen Eindruck, mal sehen was ATI noch so über die Treiber herrausholen kann.

Coda
2005-10-05, 22:08:34
So wie es mir erscheint, sind die Karten noch nicht wirklich gut unterstützt, seitens der Treiber.
Das fällt besonders bei brandneuen Titel auf.Wozu gibt es denn einen DX-Standard? Man sollte eigentlich keine Karten speziell unterstützen müssen.

Paul Brain
2005-10-05, 22:22:51
Hat kein Review TSSAA und AAA verglichen?
http://www.anandtech.com/video/showdoc.aspx?i=2552&p=6

Greets

reunion
2005-10-05, 22:24:06
Den gab's auch schon gestern vor dem Launch.


nV weiß mit Sicherheit nicht erst seit gestern, wie das AF des R520 aussieht.

Marc-
2005-10-05, 22:25:41
Wozu gibt es denn einen DX-Standard? Man sollte eigentlich keine Karten speziell unterstützen müssen.

Dazu müsste einerseits MS die optimierung für DX einfacher und weniger umständlich gestalten und zum teil auch besser dokumentieren, und andererseits die programmierer der anwendungen/spiele selbst sauberer und abgestimmter coden, anstatt das wie oft patchworkmässig engines oder engineteile von fremdfirmen aufgekauft, zusammengeflickt und notdürftig lauffähig angepasst werden, engines, deren grundstruktur und programmierung oft aus zeiten einiger dx vorgängerversionen stammt. deshalb wird du gerade bei den aktuellsten karten die auf die neueren (oder gar zukünftige) dx features getrimmt sind diese massiven unterschiede sehen. das hat weniger mit den kartenherstellern zu tun oder mit den eigentlichen leistungsdaten der hardware.

-error-
2005-10-05, 22:27:43
Wozu gibt es denn einen DX-Standard? Man sollte eigentlich keine Karten speziell unterstützen müssen.

Ich schreibe es mal anders. Von Unterstützung kann man sicherlich nicht reden, weils schlichtweg falsch ist, hast ja Recht.

Aber was ich meine sind Optimierungen und Anpassungen, also so war bis jetzt immer. Zum Beispiel kann man sich gut dran erinnern, wie ATI mit der kontinurlischen Weiterentwicklung des Catalysts nach und nach mehr Performance aus der R300 geholt hat.

Ich gebe ja zu, dass die Treiber von ATI damals noch nicht die Qualität wie die heutigen haben, aber Steigerungen der Performance werden wir mit sehr hoher Warscheinlichkeit sehen, wie stark diese aufallen werden kann man natürlich nicht sagen.

sulak
2005-10-05, 22:32:29
http://www.anandtech.com/video/showdoc.aspx?i=2552&p=5

Das ATI Standart AF is mal n Horror, aber HQ sieht schonmal sehr vielversprechend aus, auch der Kommentar bei 1600x1200 in Fart Cry von 76.3 fps auf 71.2 fps zu fallen ist doch ein Wort!
Aber ansonsten hat Anandtech wieder ins Klo gegriffen, da steht bei den Benchmarks 0 welche Settings jetzt genau im Treiber aktiv waren, HQ oder A.I.

Will HQ ATI vs "das was Treiber-Standart" ist über 5 Games hinweg, damit man mal wirklich sieht wieviel Leistung auf der R520 HQ AF wirklich kostet.

Gibts eigentlich ein Bild vom AF Tester mit 16xHQAF ?
Man muss ja sicher gehn ^^

Migrator
2005-10-05, 22:33:37
Servus, konnte erst jetzt mir bei Computerbase die Benches anschauen und muß sagen das ich gar nicht übermäßig enttäuscht bin. Gut, die Lautstärke ist etwas hoch, was demnach an den hohen Taktraten liegt, bleibt aber ncoh in moderaten Maßen. Besonders gut gefallen hat mir die 1800XL. In einem halben Jahr sollte sie etwas günstiger sein und man kann vielleicht mal zuschlagen.
Im großen und Ganzen bin ich auch ein Befürworter von Qualität anstatt Quantität. Da ich selber "lediglich" bei 1280*1024 spiele, reichen dort die Frameraten jeder guten Karte aus, und da gönne ich mir gerne eine süperbe Bildquali, und die hat nunmal ATI :D ...und der R580 soll ja Anfang Januar (wenn es nicht schon wieder eine Verspätung gibt ;) herauskommen =) ob NV bis dahin was aus dem Hut zaubern kann...warten wir es ab :cool:

Godmode
2005-10-05, 22:37:27
Was ich wissen möchte ist einfach für was ATI 320 Mio Transitoren braucht, geht da wirklich soviel für die Caches drauf?

A.Wesker
2005-10-05, 22:38:00
sry anandtech, aber hier ist nie und nimmer TRSSAA aktiviert

http://images.anandtech.com/reviews/video/ati/x1000/nv4xaahl2.jpg

sulak
2005-10-05, 22:39:48
Ich glaub beim jeweils ersten Bild ist keins an, und erst das direkt darunter zeigt TSAA / AAA ^^

€: Beim Ati Shot 2 sieht man wieder deutlich diesen Blur Effekt, müsste man mal ne Nahaufname von einer Pflanze aus Far Cry machen die schön groß ist.

Tomcat70
2005-10-05, 22:41:35
Ich glaub beim jeweils ersten Bild ist keins an, und erst das direkt darunter zeigt TSAA / AAA ^^

jup

mindfaq
2005-10-05, 22:56:07
Und was hast du jetzt gesagt, was nicht dein Vorposter auch schon gesagt hätte ? Spam ?

horn 12
2005-10-05, 23:06:39
habe dies nun gefuden :

AGP-Produkte wären generell auch möglich, so ATi, doch aktuell dann nur durch den Einsatz von Rialto, der AGP-PCIe-Wandlerbridge. An der Entwicklung von nativen AGP-Produkten auf R5xx-Basis wird man nicht arbeiten.


HOFFNUNG besteht nun viell. doch für AGP und hoffe auch auf ein Mittelstück zwischen X1600 XL und X1800 XL Anfang November kommt
und dies mindestens für AGP , und ca. 280 - 320 euro .

Super Grobi
2005-10-05, 23:09:07
Ich will die FETTE für AGP, die würde sich gut zu meinem neuen Prozi passen.

SG

Spasstiger
2005-10-05, 23:10:29
sry anandtech, aber hier ist nie und nimmer TRSSAA aktiviert


Dann schau mal das Bild darunter an.
Im Direktvergleich TSAA vs. AAA zeigt sich nur, dass TSAA "kräftigere Linien" zeichnet. Es ist eigentlich ziemlich Geschmackssache, was einem besser gefällt.

EDIT: Rangezoomt würde ich sagen, dass TSAA insgesamt mehr Details erhält.

up¦²
2005-10-05, 23:20:51
Wenn crossfire drauf steht ist auch crossfire drin;
also funktion als masterkarte?

http://www.alternate.de/html/shop/productDetails.html?artno=JAXS40&

Telema
2005-10-05, 23:21:49
habe dies nun gefuden :

AGP-Produkte wären generell auch möglich, so ATi, doch aktuell dann nur durch den Einsatz von Rialto, der AGP-PCIe-Wandlerbridge. An der Entwicklung von nativen AGP-Produkten auf R5xx-Basis wird man nicht arbeiten.


HOFFNUNG besteht nun viell. doch für AGP und hoffe auch auf ein Mittelstück zwischen X1600 XL und X1800 XL Anfang November kommt
und dies mindestens für AGP , und ca. 280 - 320 euro .


Müsste wenn ne x1800xt sein..hab ne x800pro@16 pipes mit 475 mhz...ne xl wäre mir der uterschied dann zu gering für min 200,- mehr

Spasstiger
2005-10-05, 23:31:12
Wenn crossfire drauf steht ist auch crossfire drin;
also funktion als masterkarte?

http://www.alternate.de/html/shop/productDetails.html?artno=JAXS40&

Nö, das ist ne Standardversion. Natürlich werden die X1800 XT auch noch Crossfire unterstützen, aber die Masterkarten sind noch nicht am Markt.

-error-
2005-10-05, 23:31:39
Aber das ist so ägerlich :(

Ich will nicht soviel für eine Grafikkarte ausgeben, nicht soviel, wie eine X1800 XT/XL kostet.
Der Preis ist zwar für eine Einführung "normal", aber dennoch will nicht jeder eine solche Summe hinlegen.

Das ist ja auch nicht so dramatisch, aber wie kann es sein, dass ATI eine Preisempfehlung von 250 Euro für eine X1600 XT auspricht, welche die Performance einer X800er hat, das kann doch nicht war sein.

Gerade die neuen Filteroptionen gefallen mir so gut, darauf habe ich lange gewartet.

Die X1600 XT ist einfach nur eine Lachnummer, für 260 Euro, warscheinlich nun weniger, krieht man eine X800 XT PE, die meistends doppelt so schnell ist, auch wenn sie einem technisch nicht soviel bietet.

Spasstiger
2005-10-05, 23:32:18
Aber das ist so ägerlich :(

Ich will nicht soviel für eine Grafikkarte ausgeben, nicht soviel, wie eine X1800 XT/XL kostet.
Der Preis ist zwar für eine Einführung "normal", aber dennoch will nicht jeder eine solche Summe hinlegen.

Das ist ja auch nicht so dramatisch, aber wie kann es sein, dass ATI eine Preisempfehlung von 250 Euro für eine X1600 XT auspricht, welche die Performance einer X800er hat, das kann doch nicht war sein.

Gerade die neuen Filteroptionen gefallen mir so gut, darauf habe ich lange gewartet.

Die X1600 XT ist einfach nur eine Lachnummer, für 260 Euro, warscheinlich nun weniger, krieht man eine X800 XT PE, die meistends doppelt so schnell ist, auch wenn sie einem technisch nicht soviel bietet.

Gibt ja immer noch die GeForce 7800 GT ;).

Nero2
2005-10-05, 23:32:39
Nvidia schedules G72 GPU release
http://www.digitimes.com/mobos/a20051005A7033.html

:(

Mumins
2005-10-05, 23:37:34
dass ATI eine Preisempfehlung von 250 Euro für eine X1600 XT auspricht

250$, in D ist es eben etwas teurer, zudem langen die Händler am Anfang stärker hin.

(del676)
2005-10-05, 23:39:35
Nvidia schedules G72 GPU release
http://www.digitimes.com/mobos/a20051005A7033.html

:(

The 90nm G72 will have a much smaller size than the 0.11-micron based G70 allowing for multiple GPUs to be utilized on one graphics card through SLI technology, providing an effective and attractive alternative to those who do not want to fork out money for two graphics cards, the sources claimed.
:eek:

-error-
2005-10-05, 23:40:25
250$, in D ist es eben etwas teurer, zudem langen die Händler am Anfang stärker hin.

Also doch Dollar. Nun gut, aber dennoch ist die Leistung, für das Geld, immer noch nicht ausreichend, da müsste sie schon in GT(O) Regionen vorstoßen.

Blaze
2005-10-05, 23:42:52
The 90nm G72 will have a much smaller size than the 0.11-micron based G70 allowing for multiple GPUs to be utilized on one graphics card through SLI technology, providing an effective and attractive alternative to those who do not want to fork out money for two graphics cards, the sources claimed.
:eek:

Quad-SLI im Anmarsch? :naughty:

Nero2
2005-10-05, 23:44:06
The 90nm G72 will have a much smaller size than the 0.11-micron based G70 allowing for multiple GPUs to be utilized on one graphics card through SLI technology, providing an effective and attractive alternative to those who do not want to fork out money for two graphics cards, the sources claimed.
:eek:

Voodoo 5 6000 kommt zurück. Im ganz großen Stil. :biggrin:

http://web.syr.edu/~jagold03/voodoo%205%206000.jpg

Ailuros
2005-10-05, 23:46:46
Die 29 Seiten hab ich mir jetzt nicht durchgelesen, aber es sieht trotzdem so aus wie schon seit einiger Zeit erwartet. Die paar Tests sind mir zu vorzeitig und dieses diktierte FRAPS Zeug in einem Fleckchen in Fear wo die Speichermenge wirklich nie genug sein kann ist schon ein wenig merkwuerdig *hust*.

Je nach Ansicht koennte man sagen dass die XT zwischen 5 und 10% im Durchschnitt sich als schneller zeigt, wobei man zumindest die BF2 scores der G70 im Angesicht der 8X.xx Treiber erstmal vergessen sollte.

Eigentlich haette ich erwartet dass sich die R520 von der G70 - eben wegen dem 512MB framebuffer - noch mehr in 2048 absetzt als das was ich bei Anand sehen konnte, aber es kann durchaus sein dass zukuenftige Treiber hier nochmal hinzufuegen (obwohl es hier nicht allzu viele Entschuldigungen gibt nach so langer Verzoegerung).

Was ich wissen möchte ist einfach für was ATI 320 Mio Transitoren braucht, geht da wirklich soviel für die Caches drauf?

Wie waere es mit dem zweiten weniger winkel-abhaengigem AF? Umsonst kommt gar nichts.

-error-
2005-10-05, 23:47:54
Quad-SLI im Anmarsch? :naughty:

Wer braucht sowas? Es gibt soviele Gründe, die gegen Crossfire und SLI sprechen, ich weiß garnicht ob ich sie alle zusammebekommen würde ;D

Irgendwo habe ich mal eine Auflistung gemacht und habe jetzt auch ungern vor diese zu wiederholen.

Matrix316
2005-10-05, 23:49:22
Also doch Dollar. Nun gut, aber dennoch ist die Leistung, für das Geld, immer noch nicht ausreichend, da müsste sie schon in GT(O) Regionen vorstoßen.
Für den Preis müsste sie in 6800GT oder X800XL Regionen vorstoßen normalerweise.

tombman
2005-10-05, 23:50:14
Wer braucht sowas? Es gibt soviele Gründe, die gegen Crossfire und SLI sprechen, ich weiß garnicht ob ich sie alle zusammebekommen würde ;D

Irgendwo habe ich mal eine Auflistung gemacht und habe jetzt auch ungern vor diese zu wiederholen.
WIR brauchen sowas.
WIR, die unglaubliche MASSE an SLI usern, brauchen sowas :cool:
(bereits 1200 Club SLi member :cool:)

Und ohne mich jetzt an deinen SLI-rant erinnern zu können, bin ich sicher, daß mindestens 80% der Vorwürfe falsch waren, denn das sind sie in Bezug auf SLI immer, egal von wem sie kommen ;)

-error-
2005-10-06, 00:01:00
WIR brauchen sowas.
WIR, die unglaubliche MASSE an SLI usern, brauchen sowas :cool:

Und ohne mich jetzt an deinen SLI-rant erinnern zu können, bin ich sicher, daß mindestens 80% der Vorwürfe falsch waren, denn das sind sie in Bezug auf SLI immer, egal von wem sie kommen ;)

Nein, es geht nicht nur um SLI, sondern auch um Crossfire.

Ich sage ja zur Leistung, aber bitte nicht mit 2 Karten! Das ist überhaupt nicht fortschrittlich, genauso wie die Multi GPU Karte von Asus.

Fortschrittlich ist es, wenn man die Leistung, die man sich wünscht, mit einer Karte (GPU) erzielen kann, was mit der G70 und der R520 der Fall sein wird.

Eine zusätzliche Karte bedeutet:

1. Eine potenzielle Fehlerquelle mehr
2. Höherer Stromverbrauch
3. Platzverschwendung (bei Dualslotkühlung so gut wie kein Slot mehr frei)
4. Zunahme des Lärmpegels
5. Unötige Verschwendung von Resourcen
6. 2x Wertverlust
7. Hitzentwicklung (Das Gehäuse wird aufgeheizt)
8. Spezielles Mainboard (Chipsatz) wird benötigt

So nun. Einige Punkte sind auf den High Performance Sektor sicherlich nicht von großer Bedeutung, weil nur die Leistung das Ziel ist.

Aber wenn ich sehe, dass sich einer 2x 6600GT statt einer 6800GT kauft, kann ich nur den Kopf schütteln.

Zeigt mir bitte Benchmarks, wo ein Gespann von 2x6600GTs einer 6800GT überlegen ist (Settings : 1280x1024 @ 4xAA & 8xAF), sodass ein SLI-System, wohl gemerkt mit den genannten Contras, eine Daseinsberechtigung hat.

Ich sehe nur eine, die Stärkung der Wirtschaft.

Die Diskussion (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=227936&page=6&pp=20&highlight=Resourcen)

Aber bitte, muss jeder selber wissen.

Ich finde diesen Trend nur irgendwo bedenklich.

Besipiel damals: 2x 6600 GT vs. Single 6800 GT. Es gibt Fälle, und das ist nicht all zu oft, da bringen zwei 6600 GT wirklich mehr Leistung als eine 6800GT, ja, aber ist es das wert, soviele Nachteile in den Kauf zu nehmen, zumal es sich ja nur um Ausnahmefälle handelt?

Was ich auch sehr amüsant finde, viele die ein SLI-System haben, meinetwegen auch Crossfire in Zukunft, haben TFTs, die nur 1280x1024 (bis 19") unterstützen können, das ist aberwitizig.

Genau hier gibts keine wirklich spürbare Leistungsentfaltung, die kommt erst bei 1680x1280. Nimmt man dann noch Qualitysettings dazu, hat man wirklich einben Leistungsboost, keine Frage, aber es ist halt immer eine Frage, sind es die Umstände wert, nehme ich die zig Nachteile in Kauf?

tombman
2005-10-06, 00:06:09
Was ich auch sehr amüsant finde, viele die ein SLI-System haben, meinetwegen auch Crossfire in Zukunft, haben TFTs, die nur 1280x1024 (bis 19") unterstützen können, das ist aberwitizig.

Genau hier gibts keine wirklich spürbare Leistungsentfaltung, die kommt erst bei 1680x1280. Nimmt man dann noch Qualitysettings dazu, hat man wirklich einben Leistungsboost, keine Frage, aber es ist halt immer eine Frage, sind es die Umstände wert, nehme ich die zig Nachteile in Kauf?
Stimmt ja ned, du kannst locker 8xAA dazuschalten und schon reicht 1280x1024 aus...

Die gelbe Eule
2005-10-06, 00:06:14
SEDs gibbet noch net, dann werden alle glücklich ;)

tombman
2005-10-06, 00:09:18
SEDs gibbet noch net, dann werden alle glücklich ;)
Ich hoffe echt SED kommt bald und kann sich durchsetzen, DIE Bildschirmtechnik überhaupt :D

kelo
2005-10-06, 00:11:03
GDDR3 ist nicht direkter sondern einfach nur schneller.

Dem Ringbus (nicht Speicher; war ein Tippfehler von mir) wird man mit einem Benchmark kaum ausmessen können. Der ist einfach zu tief im Chip.
Ja, schon. Nur GDDR3 sollte nicht so kompliziert sein wie DDR/DDR2. Deswegen die Annahme, dass es direkter angeschlossen ist, als DDR.
Ringbus/Ringspeicher. Erinnert mich an die damaligen Supercomputer Crays, die auch "Ringspeicher" hatten.

http://www.computerbase.de/bild/article/495/72/
Erinnert mich etwas an Cell. Da sind die EInheiten auch am Speicherbus angeordnet.

Kann es sein, dass der Ringbus eine Abwandlung vom Hypertransport ist? ATI ist ja im Konsortium drin. Wenn man den Speicher über CPUs hinweg ansteuern kann, warum auch nicht bei eine GPU? Die Vorteile beim HT sind niedrige Latenzen. Man müsste nun die Specs des Ringbusses haben, um es zu beurteilen.
http://www.hypertransport.org/consortium/cons_members.cfm
Die GPU der X1800 XT macht keine Geräusche, dafür ist der Lüfter des Kühlers zuständig. Und der Stromverbrauch liegt auf demselben Level wie bei der GeForce 7800 GTX oder der GeForce 6800 Ultra. Eine GeForce FX 5950 Ultra verbraucht noch etwas mehr. Und bei der 7800 GTX hat der Stromverbrauch bisher auch keinen gestört.
Die Sache mit dem zu hohen Verbrauch im Idle-Betrieb klärt sich hoffentlich mit einem neuen Treiber, wenn dann die Lüftersteuerungen funktionieren, sollte man die Karten auch leise regeln können. Und bei der GeForce 6800 GT z.b. hats auch kaum jemand gestört, dass deren Lüfter so laut waren.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/24
Der X1800 XT ist etwas leiser, aber die ganzen X1x00 sind lauter als der GF 7800 GTX. Die Temperatur vom X1800 XT ist in etwa genauso viel wie bei der GF 7800 GTX.
Ich bin mal gespannt, wie die Chip-Korrekturen ausschauen. Da kann man paar Verbesserungen machen (erst im nächsten Jahr bemerkbar), vielleicht als X1900 oder so.

-error-
2005-10-06, 00:16:56
Stimmt ja ned, du kannst locker 8xAA dazuschalten und schon reicht 1280x1024 aus...

Bei zwei 6600 GT die mit einer 6800 GT gemessen werden, trifft das sicherlich nicht zu ;)

Das ist ja so lustig, anstatt sich eine 6800GT zu kaufen, haben viele zwei 6600GTs im Rechner, die mal eben zusammen 110 Watt verbrauchen ;D

Aber gut, jedem seine Sache ;)

Die gelbe Eule
2005-10-06, 00:19:37
Werden beim Ringbus eigentlich FIFOs eingesetzt?

Armaq
2005-10-06, 00:37:02
Keiner von euch irgendwelche Einwände? In Hinblick auf das Gebotene?
Die ersten Reviews sind nun nicht gleich tiefgründig wie Kant, aber ich finde Computerbase hat solide Arbeit abgeliefert.

Nun zur Kritik:

Warum ist das Topmodell von ATI einfach nur ein Pendant zu Nvidia's Lösung?
Machen wir uns nichts vor, beide Karten basieren auf unterschiedlichen Technologien, bringen dem Anwender aber eine absolut gleichwertige Leistung. Warum?

Die Schlacht wurde vertagt.

ATI hat mit der 7800er Serie einen richtig dicken Brocken schlucken müssen. 24 Pipes, neues AA, optimierte Architektur, exzellente Kühlung und von Beginn an verfügbar.
Nun tackerte man, notgedrungen, eine X1 Serie zusammen, die nichts spektakuläres zu bieten hat. Egal in welcher Hinsicht (die AF-Qualität aussen vor). Den Druck der ATI-Ingenieure möchte ich nicht gehabt haben, trotzdem ging viel Zeit ins Land, ohne Neuerungen? Mitnichten, schlaue Köpfe qualmen in beiden Lagern.

Was wissen wir? ATI hat eine 580er Serie in der Mache, welche Gerüchten zufolge ein absoluter Bringer sein soll.
Nivdia schläft nicht. 7800 war und ist ein Erfolg.

Was sage ich? Den Stein der Weisen hat uns ATI nicht vorgelegt, aber Grund für neue, spannende und unterhaltsame Diskussionen.

Q1/2 2006 - FPS Reloaded.

kelo
2005-10-06, 00:38:23
Werden beim Ringbus eigentlich FIFOs eingesetzt?
Normalerweise werden bei einem Bus FiFos eingesetzt.

SentinelBorg
2005-10-06, 00:38:30
So, nun hab ich mich auch durch zich Tests durchgearbeitet.
Am besten fand ich dabei den von HardOCP, weil sie die 7800GT gegen die X1800XL haben antreten lassen. Imho ein weitaus fairerer und sinnvollerer Vergleich, als dieses 7800GTX mit 256 MB gg. X1800XT mit 512 MB.
Die beiden Karten sind schon preislich gar nicht auf der selben Stufe, weil der Ram schlicht und einfach deutlich mehr Geld verschlingt auf der ATI Karte.
Interessanterweise ergibt sich beim Vergleich mit gleichem Ram dann auch wieder ein Gleichstand bei Fear zw. Nvidia und ATI. Der enorme Vorsprung der X1800XT entspringt also primär den 256 MB mehr Grakaspeicher.

Dennoch muss man ATI zu diesem Produkt gratulieren, sie haben auf jeden Fall wieder mit Nvidia gleichgezogen. Ihr Massnahmen für bessere IQ sind zu loben und bringen hoffentlich die ganze Industrie wieder auf den richtigen Weg zurück.

Abschliessend haben wir nun wieder einen Gleichstand zw. beiden Herstellern, wo jeder seine Stärken und Schwächen hat. Das entspricht der Idealsituation und das freut mich. Jetzt muss ATI die Karten aber auch schnell Verfügbar machen.

Sentinel

Coda
2005-10-06, 00:39:01
Dazu müsste einerseits MS die optimierung für DX einfacher und weniger umständlich gestaltenWo ist da was umständlich

und zum teil auch besser dokumentierenDX ist deutlich besser dokumentiert als OpenGL.

Die gelbe Eule
2005-10-06, 00:39:04
Einwände gab es schon massenhaft, werden aber kaputtgetrollt ...

SentinelBorg
2005-10-06, 00:42:19
Ach, was ich noch sagen wollte: ^^

Ich erwarte in Zukunft jedoch keine großen Temposteigerungen durch Treiber bei den neuen ATI-Karten. Das liegt einfach daran, dass ATI hier nun das meiste bereits im Chip erledigt und so schon jetzt eine hohe Effizienz erreicht.
Nvidia dagegen hat ein sehr breites Bruteforce-Design, dass traditionell erheblich mehr vom Compiler/Treiber abhängt und so auch mehr Spielraum für Optimierungen bereit hält.

Sentinel

deekey777
2005-10-06, 00:43:51
Ach, was ich noch sagen wollte: ^^

Ich erwarte in Zukunft jedoch keine großen Temposteigerungen durch Treiber bei den neuen ATI-Karten. Das liegt einfach daran, dass ATI hier nun das meiste bereits im Chip erledigt und so schon jetzt eine hohe Effizienz erreicht.
Nvidia dagegen hat ein sehr breites Bruteforce-Design, dass traditionell erheblich mehr vom Compiler/Treiber abhängt und so auch mehr Spielraum für Optimierungen bereit hält.

Sentinel
Das liegt auch daran, weil der R520 seit mehreren Monaten fertig ist und die Treiber schon optimal laufen sollten, vielleicht kommen noch irgendwelche Bugfixes.

SKYNET
2005-10-06, 00:55:15
Ich bin allein schon froh, dass es endlich zur breiten Verfügbarkeit von SM 3.0 kommt.

siehe meine signatur!

Blaze
2005-10-06, 00:59:25
Was ich auch sehr amüsant finde, viele die ein SLI-System haben, meinetwegen auch Crossfire in Zukunft, haben TFTs, die nur 1280x1024 (bis 19") unterstützen können, das ist aberwitizig.

Genau hier gibts keine wirklich spürbare Leistungsentfaltung, die kommt erst bei 1680x1280. Nimmt man dann noch Qualitysettings dazu, hat man wirklich einben Leistungsboost, keine Frage, aber es ist halt immer eine Frage, sind es die Umstände wert, nehme ich die zig Nachteile in Kauf?

Dann solltest du mal FEAR oder andere stark shaderlastige Spiele spielen, und ich meine nicht 1024er Auflösung im Uglymode ohne AA/AF oder sonstiges...von mir aus in TFT-Auflösung mit 4xAA/16xAF und maximalen Details...da weißt du aber wo der Hammer hängt.

Und welche Nachteile hat SLI denn noch? (von den hohen Anschaffungskosten und dem Stromverbrauch mal abgesehen, was aber jeder für sich selbst entscheiden muss)

Richtig, keine!

Coda
2005-10-06, 01:18:53
Nvidia dagegen hat ein sehr breites Bruteforce-Design, dass traditionell erheblich mehr vom Compiler/Treiber abhängt und so auch mehr Spielraum für Optimierungen bereit hält.Ich weiß jetzt nicht ob man R520 oder G70 als Brute-Force bezeichnen sollte. Ich denke man lässt es einfach gleich bleiben...

-error-
2005-10-06, 01:19:22
.................
Und welche Nachteile hat SLI denn noch? (von den hohen Anschaffungskosten und dem Stromverbrauch mal abgesehen, was aber jeder für sich selbst entscheiden muss)

Richtig, keine!

Habe ich weiter oben doch geschrieben ;)

SKYNET
2005-10-06, 01:54:25
Was hat die GTX gekostet als sie rauskam?

Denken und nicht rumtrollen.


waren ab 490€, wenn ichs recht in erinnerung habe! :smile:

deekey777
2005-10-06, 01:57:43
waren ab 490€, wenn ichs recht in erinnerung habe! :smile:

Nein, die Preise fielen erst in den kommenden Wochen, aber mächtig. Zum Launch waren die günstigsten 7800GTX bei 530,- Euro, aber ich glaub, es gab schon etwas günstigere Bulk-Versionen. Vielleicht auch nicht.

Coda
2005-10-06, 01:59:53
Die GTX war aber auch lieferbar *hust*

deekey777
2005-10-06, 02:02:21
Die GTX war aber auch lieferbar *hust*
Genau, darum sind ja die Preise sofort in Bewegung geraten. Hoffentlich wird es bei der X1800XL genau der Fall sein.

Und die 7800GTX war nicht einfach lieferbar, sie war in ausreichend großen Mengen lieferbar.

BesenWesen
2005-10-06, 02:02:45
Nettes Kärtchen diese X1800 XT/XL, besonders gut gefällt mir, daß ATI in Sachen Bildqualität wieder eine andere (bessere) Richtung einschlägt.
Komisch nur, daß sie sich leistungsmäßig quasi auf Augenhöhe zur 7800GTX/GT befindet... beim Launch des R420 war es ja ähnlich... sprechen die sich etwa ab ? :ucatch:
Bemerkenswert finde ich auch, daß nun auch ATI mit Monsterkühler und einer Riesenplatine daherkommt... bislang ja eine Domäne von NVIDIA. Schade, mir war an ATIs High-End Karten ihre schlanke und kompakte Bauweise immer recht sympathisch.

Enttäuscht bin ich aber über das Angebot im für mich interessanten Mittelklasse-Segment... die X1600 ist ja mal reichlich unsinnig. Das Ding wird auf dem Retailmarkt wie Blei in den Regalen liegen und ist wohl einzig und allein dafür geschaffen, in Komplettrechnern verkauft zu werden... Erinnerungen an den Vorgänger X600 werden wach.
Ob ATI erstmal die Bestände an X800/Pro/XL/XT abverkaufen wollen, ehe sie da etwas vernünftiges anzubieten gedenken? Die wären jedenfalls allesamt eine bessere Wahl, wie auch eine Geforce 6600GT/6800/6800GT.

Nimmt man ATIs neue Produktpalette, klafft zwischen High-End und Mittelklasse ein riesiges Loch... das ist etwas unglücklich angesichts des anstehenden Weihnachtsgeschäftes.

-error-
2005-10-06, 02:08:54
Nimmt man ATIs neue Produktpalette, klafft zwischen High-End und Mittelklasse ein riesiges Loch... das ist etwas unglücklich angesichts des anstehenden Weihnachtsgeschäftes.

Richtig, ein Lückenfüller zwischen X1600 XT und X1800 XL müsste her. Ich schlage einfach eine 256 Bit Anbindung vor, kein Aufpreis versteht sich.

Haben die denn nichts gelernt, *zur6600GTschiel*

deekey777
2005-10-06, 02:12:01
Richtig, ein Lückenfüller zwischen X1600 XT und X1800 XL müsste her. Ich schlage einfach eine 256 Bit Anbindung vor, kein Aufpreis versteht sich.

Haben die denn nichts gelernt, *zur6600GTschiel*

X1700XT. Bei 2 Codenamen für Value-Chips (RV540 und RV560) muß eine X1700er kommen, aber wohl erst, wenn die 6600er abgelöst wird, - und ihre Ablösung wird bestimmt schnell, sehr schnell sein.

Oder eine X1800LE.

All-In-Wonder X1800 XL Spy Shots (http://www.beyond3d.com/forum/showthread.php?t=24275)

SKYNET
2005-10-06, 02:13:46
Nein, die Preise fielen erst in den kommenden Wochen, aber mächtig. Zum Launch waren die günstigsten 7800GTX bei 530,- Euro, aber ich glaub, es gab schon etwas günstigere Bulk-Versionen. Vielleicht auch nicht.


habe bei geizhals im preisverlauf nachgeschaut, war UNTER 500€! =)

deekey777
2005-10-06, 02:25:09
habe bei geizhals im preisverlauf nachgeschaut, war UNTER 500€! =)

Welche denn? Die günstigste 7800GTX war am 22.06.05 um die 530 Euro. :confused:

€: Die günstigste war eine Gainward für 528 €uro.

up¦²
2005-10-06, 02:26:40
Tja, und Sander Sassen :rolleyes: hatte recht! :tongue:
http://www.hardwareanalysis.com/content/article/1818/

up¦²
2005-10-06, 02:29:51
HDR lighting sieht ja klasse aus!
http://www.pcper.com/article.php?aid=172&type=expert&pid=27

deekey777
2005-10-06, 02:36:06
HDR lighting sieht ja klasse aus!
http://www.pcper.com/article.php?aid=172&type=expert&pid=27
Hehe, ich hab dieses Review gar nicht bis zum Ende durchgelesen.


Unfortunately, due to a bug in Far Cry 1.33 that wouldn’t allow the enabling of HDR on our ATI cards, my current review will not be showcasing performance differences between these two cards in HDR modes. However, I will show you a couple of quick screenshots from Far Cry (using NVIDIA hardware) that indicate the benefits of HDR from a visual stand point.

Das ist definitv kein Bug, sondern Far Cry läßt sich nicht verarschen. ;D
Man braucht ja eine angepaßte Version, hoffentlicht liefert Cry Tek diese alsbald nach.

up¦²
2005-10-06, 02:39:06
Tja dekey777, noch ein leckerbissen: usted habla español?

http://www.noticias3d.com/articulo.asp?idarticulo=527

Partybilder Ibiza! :smile:

Ailuros
2005-10-06, 02:41:58
HDR lighting sieht ja klasse aus!
http://www.pcper.com/article.php?aid=172&type=expert&pid=27


HDR lighting sah schon immer "klasse" aus und schon lange vor der R520 *raeusper*

Far Cry ist sowieso kein idealer Fall sich das Zeug anzusehen; in manchen Faellen sieht es toll im Spiel aus in anderen eher bekloppt. Passiert eben wenn ein Feature als Nachgedanke implementiert wird.

Ich will jetzt endlich Lost Coast sehen ;)

deekey777
2005-10-06, 02:43:14
Tja dekey777, noch ein leckerbissen: usted habla español?

http://www.noticias3d.com/articulo.asp?idarticulo=527

Partybilder Ibiza! :smile:

Ich kenne nur: "buenos noces, mein Führer!"

HDR lighting sah schon immer "klasse" aus und schon lange vor der R520 *raeusper*

Far Cry ist sowieso kein idealer Fall sich das Zeug anzusehen; in manchen Faellen sieht es toll im Spiel aus in anderen eher bekloppt. Passiert eben wenn ein Feature als Nachgedanke implementiert wird.

Ich will jetzt endlich Lost Coast sehen ;)
Da wirst du noch bis zum Ende Oktober warten müssen, denn der allmächtige GabeN hat dies verkündet.
Scheint aus dem Alan Wake zu sein:
http://www.noticias3d.com/imagen.asp?url=/articulos/200510/ati520/imagenes/sof0286.jpg .

up¦²
2005-10-06, 02:49:40
:rolleyes: displacement mapping? Fehlanzeige?

Solangsam müßte es doch HWmäßig reichen

Ailuros
2005-10-06, 02:49:54
Ich will hoffen dass Lost Coast doch nicht mit der wahren Verfuegbarkeit der XTs verbunden ist denn so viel Geduld hab ich nun auch wieder nicht. Ach was soll's ich lass es mir durch andere Kanaele zukommen pffffff......

up¦²
2005-10-06, 03:03:10
Noch was: ein versuch alle ati-blutgruppen zu ordnen :biggrin:
http://www.hardwaresecrets.com/article/131

BTW ==> ATI Radeon X1800 XT review :wink:

BesenWesen
2005-10-06, 03:16:29
X1700XT. Bei 2 Codenamen für Value-Chips (RV540 und RV560) muß eine X1700er kommen, aber wohl erst, wenn die 6600er abgelöst wird, - und ihre Ablösung wird bestimmt schnell, sehr schnell sein.


Aber warum kommt die nicht jetzt gleich?
Anders gefragt... worauf wartet ATI da?
Ein "Preis-Leistungs-Knaller" würde sich doch im Weihnachtsgeschäft sehr gut machen... viel besser als diese komische x1600.

Naja, ich bin mal gespannt, was da noch kommen mag :)

Ailuros
2005-10-06, 03:21:12
Warten wuerde heissen dass sie auf einem fertigen chip hocken.

(del)
2005-10-06, 03:26:31
Solche Worte von dir?

Wow...hätt ich nicht gedacht :D
Gott! :D Leute, hier wurde ja heute so richtig onaniert :crazy:

Tomcat70
2005-10-06, 04:24:47
Und was hast du jetzt gesagt, was nicht dein Vorposter auch schon gesagt hätte ? Spam ?

?? sonst alles ok bei dir?
hast du schon mal was davon gehört das wenn jemand etwas unrichtiges behauptet es oft hilfreich ist wenn eine gegenmeinung bestätigt wird um das zu untermauern? wohl nicht......
was für ein kindergarten....

Demirug
2005-10-06, 06:25:22
DX ist deutlich besser dokumentiert als OpenGL.

Ja und Nein. Die OpenGL Dokumentationen sind in der Regel schon genauer. Die DX Dokumentation dagegen Entwickler freundlicher.

Mumins
2005-10-06, 07:24:23
Am besten fand ich dabei den von HardOCP, weil sie die 7800GT gegen die X1800XL haben antreten lassen.

Dabei is dir auch aufgefallen, dass die 7800GT übertaktet war?

seahawk
2005-10-06, 08:07:49
http://www.computerbase.de/bild/article/495/53

wo ist der zaun ? :D


Da

http://www.computerbase.de/bild/article/495/16/

Was ich jetzt allerdings plötzlich sehr spannend finde.

Gohan
2005-10-06, 08:11:49
Da

http://www.computerbase.de/bild/article/495/16/

Was ich jetzt allerdings plötzlich sehr spannend finde.

Meinst du die tatsache, das der Zaun bei ATi fast nicht mehr vorhanden ist? Das finde ich auch, sehr mysteriös! :|

seahawk
2005-10-06, 08:15:07
Exakt.

16xAF NV http://www.computerbase.de/bild/article/495/17/
16xAF ATI http://www.computerbase.de/bild/article/495/53/
16XHQ AF ATI http://www.computerbase.de/bild/article/495/54/

Adam D.
2005-10-06, 08:25:30
Also mein Lieblingsbild ist und bleibt folgendes:

http://img67.imageshack.us/img67/9549/hardocp2gh.jpg

Wem fällt was auf? ;D

seahawk
2005-10-06, 08:28:25
Wichtig:

The Radeon X1800 series will be divided into several models, as yields of TSMC 90 nano process improve, the future will bring X1800 products with already familiar monikers of "pipeline-cut" variations. So far, "only" X1800 CrossFire Edition, X1800XT and XL make 1800 series.

However, these products do not all come with the same core. Unlike previos iterations, the two-metal layer bug that prevented higher clock speeds - developers got boards running at 490 MHz for the core - will be present in the "available now" model, also known as the Radeon X1800XL. It isn't known how many old R520 chips were made, but do expect that it could take some time for old R520 chip to disappear from R520XL PCBs (printed circuit boards).

The second spin of the chip is slightly bigger (0.7mm2), and will be the power of Radeon X1800XT/CrossFire edition cards, which are not available today. Bear that in mind when you read today's reviews. The Radeon X1800XT features a fixed bug and can clock in excess of 800MHz using not-so-standard variations of cooling. Using default iPod-white copper cooling solution, the "R520 Take Two" will work in excess of 700MHz, giving Nvidia a real run for its money.


http://www.the-inquirer.net/?article=26710

Also sollte man momentan keine XL kaufen, weil da mit OC nicht viel seien wird.

Lubi
2005-10-06, 08:42:02
Also mein Lieblingsbild ist und bleibt folgendes:

[img]

Wem fällt was auf? ;D

Ist ja hart :O Hätte ich nie gedacht. Und das bei NV 16 Af. Aber ich will Bilder mit dem neuen 81er Treiber.

HOT
2005-10-06, 08:52:37
Bisheriges Fazit:
Zuviele ungelegte Eier. Eine wirkliche Beurteilung der Umstände ist z.Z. einfach unmöglich.
1.) Lautstärke: Wir haben es hier mit Referenzkarte zu tun, Lautstärke kann also erst ein Argument sein, wenn es um Serienkarten geht.
2.) Stromverbrauch: Es gibt leider noch keine eindeutigen Messungen. Ich hoffe das kommt bald um der Hexenjagt ein Ende zu setzen. Meiner Meinung nach werden beide Highend-Chips ähnlich viel verbrauchen, genauso wie die Lowend Produkte.
3.) Mainstream Karte fehlt: z.Z. sind noch sehr sehr viele X8x0 (XL/XT/Pro) im Umlauf, die diese Lücke füllen werden. Zwar nicht mit allen Features, es sind dennoch sehr brauchbare Mainstreamkarten. Diese Lücke wird erst mit R580 Technik aufgefüllt werden, was angesichts des drohenden G72 sowieso nicht allzulange dauern wird. Die X1700 (8 TMUs, 8 ROPs, 24Pixel) kommt sicherlich zusammen mit der X1850. Aber das ist alles natürlich Spekulation ;)
4.) Leistung: Die Leistungsfähigkeit bei Standardsettings sind sehr vergleichbar - bei AA hat die ATI dank dem schnellen Speicher leichte Vorteile. TSSAA Vergleiche sind nur dann zulässig, wenn auch mit ähnlicher Qualität verglichen wird.
5.) Ringbus: Ich frage mich ob NV ohne ein neues RAM Interface überhaupt so hochgetaktete Speicher in Serie nutzen kann - der Ringbus wurde doch in erster Linie deswegen entwickelt um bei möglichst hohem Takt agieren zu können, ohne dass die PCB Kosten und/oder die Latenzen explodieren.
6.) TSAA: Vergleiche bitte mit ähnlichen Settings durchführen. Also 4x mit 4xOGSSAA (G70) gegen ATI 4x mit 2x SGSSAA (R520) usw. Von dem 6x6x Modus der ATI kann NV derzeit qualitätsmässig nur Träumen.
7.) AF: ATI macht Winkelunabhängiges AF, das ist ein Riesenvorteil und ein Sieg für die Bildqualität. Bleibt zu hoffen, dass der x1800 ein Erfolg wird, sodass NV gezwungen ist, zu kontern, ansonsten passiert da nämlich garnix.
8.) Transistoren: Ai, wo sind die ganzen Transen hin? Ob da vielleicht einige im AF verschwunden sind? ATI verringert nicht umsonst die TMU Menge. Wie viele Transen allein durch den Wegfall der vielen TMUs eingespart wurde bei den LowEnd Chips.

seahawk
2005-10-06, 08:53:24
Ist ja hart :O Hätte ich nie gedacht. Und das bei NV 16 Af. Aber ich will Bilder mit dem neuen 81er Treiber.

Ändert nichts und neu ist der 81.84 BETA auch nicht.

HOT
2005-10-06, 08:57:07
Ist ja hart :O Hätte ich nie gedacht. Und das bei NV 16 Af. Aber ich will Bilder mit dem neuen 81er Treiber.

Da hat sich nix geändert, ausser, dass die BQ endlich generell besser geworden ist und endlich Vergleichbar zur Konkurrenz ist. WinkelAF ist nach wie vor vorhanden.

Adam D.
2005-10-06, 09:03:54
Da hat sich nix geändert, ausser, dass die BQ endlich generell besser geworden ist und endlich Vergleichbar zur Konkurrenz ist. WinkelAF ist nach wie vor vorhanden.
Würde mir sehr wünschen, dass Nvidia mit winkelunabhängigem AF nachzieht. Ich glaube aber nicht so recht daran, denn eigentlich hätten sie diesen Vorteil schon vor dem Release des R520 ausspielen können, um den Kaufreiz am R520 zu schmälern.
Skynet beharrt ja wie ein Irrer darauf, dass Nvidia den perfekten AF nachreicht - hoffentlich hat er recht. =)

HOT
2005-10-06, 09:09:28
Würde mir sehr wünschen, dass Nvidia mit winkelunabhängigem AF nachzieht. Ich glaube aber nicht so recht daran, denn eigentlich hätten sie diesen Vorteil schon vor dem Release des R520 ausspielen können, um den Kaufreiz am R520 zu schmälern.
Skynet beharrt ja wie ein Irrer darauf, dass Nvidia den perfekten AF nachreicht - hoffentlich hat er recht. =)

Das fänd auch ich toll, aber dann bitte auch bei der 6er Serie ;)
Leider glaube auch nicht nicht daran. Solange sich die GTX Karten super verkaufen ändert sich da garnix. Zudem weiss man nicht, ob der Performanceeinbruch bei NV nicht grösser wäre, u.U. würde sich NV damit selbst ins Knie schiessen.

Demirug
2005-10-06, 09:10:04
Hot, der Ringbus ist im Chip. Der externe Speicher wird ganz normal mit Punkt zu Punkt Verbindungen angebunden.

Ronny145
2005-10-06, 10:07:09
Wurde schon das xbitlabs review gepostet? Falls nicht:
http://www.xbitlabs.com/articles/video/display/radeon-x1000.html

Der Stromverbrauch unter Last wurde auch gemessen:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Leider sind keine Idle Werte dabei.

A.Wesker
2005-10-06, 10:09:30
Also mein Lieblingsbild ist und bleibt folgendes:

http://img67.imageshack.us/img67/9549/hardocp2gh.jpg

Wem fällt was auf? ;D

zum glück entspricht das ja nicht der wahrheit. Im folgenen siehst du, wie es wirklich ist

http://home.arcor.de/jodee2/hl2quali.JPG

Raff
2005-10-06, 10:16:04
Warum soll es nicht stimmen? Aber auch das untere Bild ist besser. ;) Das da oben sieht phänomanel aus -- wie NV2x-AF 16:1 statt 8:1.

MfG,
Raff

EvilOlive
2005-10-06, 10:16:49
http://www.xbitlabs.com/articles/video/display/radeon-x1000.html

HOT
2005-10-06, 10:18:05
Hot, der Ringbus ist im Chip. Der externe Speicher wird ganz normal mit Punkt zu Punkt Verbindungen angebunden.

Habe ich schon verstanden ;)
Nur stellt er vielleicht nicht so grosse Anforderungen an das PCB wie ein herkömmliches Speicherinterface. Ich vermute, dass dieser einfach nur da ist, weil er toleranter zuwerke geht. Auch die Unterteilung in 8 Segmente weist darauf hin.

Melbourne, FL
2005-10-06, 10:20:17
zum glück entspricht das ja nicht der wahrheit. Im folgenen siehst du, wie es wirklich ist

http://home.arcor.de/jodee2/hl2quali.JPG

Da wäre ich vorsichtig. Beim AF können schon kleine Änderungen der Perspektive sehr unterschiedliche Bilder geben, da sich der Winkel zu den Texturen ändert. Und die Perspektive auf Deinem Bild ist ganz anders als die auf den gequoteten Bildern.

Alexander

A.Wesker
2005-10-06, 10:21:43
Warum soll es nicht stimmen? Aber auch das untere Bild ist besser. ;) Das da oben sieht phänomanel aus -- wie NV2x-AF 16:1 statt 8:1.

MfG,
Raff
daß da obere sehr gut aussieht stimmt schon, jedoch ist das der GTX nicht mehr mit der realität vereinbar. diesen matsch habe ich bei mir nicht und ich werde nicht der einzigste sein ^^

Spasstiger
2005-10-06, 10:22:05
zum glück entspricht das ja nicht der wahrheit. Im folgenen siehst du, wie es wirklich ist

Auch hier ist die starke Winkelabhängigkeit zu sehen. Mach mal bitte den gleichen Screen in 800x600. In dieser Auflösung wurden offenbar auch die HardOCP-Screens gemacht.

Raff
2005-10-06, 10:24:44
daß da obere sehr gut aussieht stimmt schon, jedoch ist das der GTX nicht mehr mit der realität vereinbar. diesen matsch habe ich bei mir nicht und ich werde nicht der einzigste sein ^^

Nun ... ich habe ihn! Auch mit meiner 9800 Pro.

MfG,
Raff

seahawk
2005-10-06, 10:26:15
http://www.xbitlabs.com/articles/video/display/radeon-x1000_18.html

Sehr aufschlussreich.

Spasstiger
2005-10-06, 10:27:21
Nun ... ich habe ihn! Auch mit meiner 9800 Pro.

MfG,
Raff

Jo, ich kann mich auch noch an diesen Matsch erinnern. Diese Stelle erscheint mir besonders matschanfällig. Und wenn ich jetzt mal aus A.Weskers Screen eine Stelle rauspicke:

http://img388.imageshack.us/img388/8599/awesker5ym.jpg

Welche Grafikeinstellungen waren da überhaupt aktiv? Sieht mir schon sehr nach 8xS aus, was ja im Vergleich zu dem HardOCP-Screen nicht fair wäre.

A.Wesker
2005-10-06, 10:35:00
hier ein pic von einer 5800 Ultra @ 8xAF
http://home.arcor.de/jodee2/5800Ultra.JPG

auf 800x600 gibts übrigens auf beiden karten matsch (gtx + ultra)

Odal
2005-10-06, 10:38:58
Wurde schon das xbitlabs review gepostet? Falls nicht:
http://www.xbitlabs.com/articles/video/display/radeon-x1000.html

Der Stromverbrauch unter Last wurde auch gemessen:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Leider sind keine Idle Werte dabei.

wenn man mal die werte von x1800xl unt x1800xt vergleicht zieht letztere ja deutlich mehr...
scheint ziemlich ineffizient zu arbeiten (ok 512 MB speicher) und hat sicherlich mehr VGPU

könnte man draus schliessen das bei 620 mhz so ziemlich das ende der fahnenstange (mit herkömmlicher kühllösung) beim x1800 ist.

Mr. Lolman
2005-10-06, 10:42:45
http://www.xbitlabs.com/articles/video/display/radeon-x1000_18.html

Sehr aufschlussreich.


Unfortunately, just like in case of Transparent AA by GeForce 7800, Adaptive FSAA of the new RADEON X1000 cannot bring any image quality improvement to Far Cry game. At least, we didn’t notice any visible differences.


:confused: Auf den Screenshots sieht man einen deutlichen Unterschied...

Avalox
2005-10-06, 10:43:04
http://www.xbitlabs.com/articles/video/display/radeon-x1000.html


Mal wieder ein toller Test der XBitLabs.

Ist schon sehr beeindruckend, was ATI als solches für ein rundes Produkt abgeliefert hat.

seahawk
2005-10-06, 10:51:45
As we can see from the screenshots, adaptive anti-aliasing of transparent textures works fine on RADEON X1000, however, the actual image quality improvement is not that significant, just like in case of alpha-textures multi-sampling by NVIDIA GeForce 7 (TMS, transparent multi-sampling). I have to stress that the Adaptive FSAA of the new RADEON X1000 is of much better quality than the similar mode by GeForce 7800 GTX, however it is still much lower than what the competitor’s TSS (transparent textures super-sampling) would provide.

I would also like to say that adaptive anti-aliasing of alpha textures by RADEON C1800 XT may sometimes lead to their complete removal. In fact, it could be a drive issue, because the anti-aliasing masks can be set on the software level for ATI RADEON solutions.

So, the laurels for the best FSAA quality, in at least certain cases, will remain with NVIDIA for now.



Das meinte ich.

Demirug
2005-10-06, 10:52:33
Mal wieder ein toller Test der XBitLabs.

Ist schon sehr beeindruckend, was ATI als solches für ein rundes Produkt abgeliefert hat.

Der Technikteil ist übel aus dem Marketingpapier abgeschrieben.

Avalox
2005-10-06, 10:59:19
Der Technikteil ist übel aus dem Marketingpapier abgeschrieben.

Die Informationen werden doch richtig sein?

OEMs werden sicherlich auf ATI fliegen.

Ist eigentlich mit einem Architektur Bonus, bei zukünftigen XBox360 Umsetzungen zu rechnen?

[dzp]Viper
2005-10-06, 11:02:09
Sehe ich das richtig, dass die bei www.xbitlabs.com nur 2 Spiele getestet haben? :|

Demirug
2005-10-06, 11:02:50
Die Informationen werden doch richtig sein?

Ein Fehler habe ich schon gefunden. Die behaupten doch das der VertexShader Texturen auslesen kann :nono:

Beim rest hypen sie halt genau das was ATI gehypt sehen möchte.

BvB123
2005-10-06, 11:03:30
ATI lässt weiter Zäune verschwinden..


6XAAA X1800XT
http://img386.imageshack.us/img386/8494/hl26xax18009zh.th.jpg (http://img386.imageshack.us/my.php?image=hl26xax18009zh.jpg)

FSAA 4x + TSS 7800GTX
http://img382.imageshack.us/img382/2963/hl24xss78006zz.th.jpg (http://img382.imageshack.us/my.php?image=hl24xss78006zz.jpg)

zeckensack
2005-10-06, 11:04:47
Der Technikteil ist übel aus dem Marketingpapier abgeschrieben.Wenigstens haben sie die Branching-Performance gemessen. Der Rest war teilweise schauderhaft, aber das hat's dann doch noch gerettet.

zeckensack
2005-10-06, 11:06:13
Ein Fehler habe ich schon gefunden. Die behaupten doch das der VertexShader Texturen auslesen kann :nono:Das behauptet NVIDIA bzgl NV40 und G70 doch auch ... so what.

Horimoto
2005-10-06, 11:07:20
@viper:
das ist nur ein (P)Review, das machen sie immer so. zuerst die Technik vorstellen, und paar tage danach, sie lassen sich immer Zeit, dann die Benches........ Sie müssen ja immerhin duzende von Spielen testen, das barcuht Zeit und wie heisst es so schön:
Gut Ding will weile haben :D

Demirug
2005-10-06, 11:07:32
Wenigstens haben sie die Branching-Performance gemessen. Der Rest war teilweise schauderhaft, aber das hat's dann doch noch gerettet.

Ich meinte vorallem den Teil vor den eigentlichen Benchmarks.

Demirug
2005-10-06, 11:09:09
Das behauptet NVIDIA bzgl NV40 und G70 doch auch ... so what.

Der R520 kann aber noch nicht mal Pointsampling auf eine einfache FP32 Texture. Beim NV40/G70 funktioniert es. Es könnte schneller sein aber das ist dann ja das nächste Problem.

[dzp]Viper
2005-10-06, 11:09:25
@viper:
das ist nur ein (P)Review, das machen sie immer so. zuerst die Technik vorstellen, und paar tage danach, sie lassen sich immer Zeit, dann die Benches........ Sie müssen ja immerhin duzende von Spielen testen, das barcuht Zeit und wie heisst es so schön:
Gut Ding will weile haben :D


okay *in die ecke geh und warten tu*

Horimoto
2005-10-06, 11:10:29
http://www.geizhals.at/deutschland/a168707.html

schon 513€ für die 512MB variante..........sollte also bis release am 5.11 unter 500€ fallen :D

Demirug
2005-10-06, 11:11:20
ATI lässt weiter Zäune verschwinden..


6XAAA X1800XT
http://img386.imageshack.us/img386/8494/hl26xax18009zh.th.jpg (http://img386.imageshack.us/my.php?image=hl26xax18009zh.jpg)

FSAA 4x + TSS 7800GTX
http://img382.imageshack.us/img382/2963/hl24xss78006zz.th.jpg (http://img382.imageshack.us/my.php?image=hl24xss78006zz.jpg)

Das dürfte daran liegen das beim AAA die Mipmap selektion anscheinend nicht korrekt angepasst wird. Dadurch werden die Samples aus einer Mipmap geholt bei der der Alphawert schon so klein ist das es nicht mehr für den Alphatest reicht.

Raff
2005-10-06, 11:12:47
Das dürfte daran liegen das beim AAA die Mipmap selektion anscheinend nicht korrekt angepasst wird. Dadurch werden die Samples aus einer Mipmap geholt bei der der Alphawert schon so klein ist das es nicht mehr für den Alphatest reicht.

Klingt nach einer reinen Treibersache. Mal sehen, was Catalyst 5.10 & Co. so bringen. :)

MfG,
Raff

Dr.Dirt
2005-10-06, 11:13:20
Mal wieder ein toller Test der XBitLabs.

Ist schon sehr beeindruckend, was ATI als solches für ein rundes Produkt abgeliefert hat.

Hmm, das hier finde ich sehr bedenklich:

RADEON X1800 XT consumes almost twice as much power as RADEON X1800 XL. Moreover, this graphic adapter beat all the records for the single graphics cards and even exceeded the power consumption of the 24 pipeline GeForce 7800 GTX! Of course, the higher clock frequency and complexity of the new chip played an important role here. But I can also suppose that the main contribution to this sky-high power consumption rate of the new RADEON X1800 XT was made by the 512MB of memory working at 750 (1500) MHz with 2.0V voltage.

BvB123
2005-10-06, 11:14:54
http://www.geizhals.at/deutschland/a168707.html

schon 513€ für die 512MB variante..........sollte also bis release am 5.11 unter 500€ fallen :D


Der Preis ist so realistisch wie der Chiptakt :D

Warte mal lieber bis ein seriöser shop die Karte gelistet hat.

Gruß

Fadl
2005-10-06, 11:17:28
Deutlich geworden ist vor allem das ATI mit dem neuen HQ-AF ein klar besseres Bild liefert als die NVidia G70 Karten.
Und genau dieser Punkt wird bei vielen Kaufentscheidend sein. Da kann man ATI gar nicht stark genug für loben das endlich mal wieder ein Schritt in die richtige Richtung getan wurde. Nun wird NVidia in der nächsten Generation hoffentlich auch nachziehen und der Käufer bekommt wieder etwas geboten für sein Geld.
Bei mir war z.B. das Flimmern der G70 der Grund die Karte NICHT zu kaufen.
Und Skynet glaube ich da auch kein Wort dass der nächste neue 8x.xx Treiber da mit ATI gleichziehen kann. Denn in den Betas ist davon nichts zu sehen...

Horimoto
2005-10-06, 11:20:06
@bvb:
Kann ja sein, dass C3d die Karte höher taktet, oder? Die 690Mhz sollten imo kein prob darstellen, wenn man hört dass die Xt bis zu 850Mhz erreicht

BvB123
2005-10-06, 11:21:49
850Mhz mit dem standard kühler ? Link?


Gruß

Horimoto
2005-10-06, 11:24:04
K.A ob mit standrard, bei xtremetech hat einer sie auf ~850Mhz gebracht, es ging nur darum, dass der R520 noch potential hat, weswegen 690Mhz nicht unrealitisch sind

Dr.Dirt
2005-10-06, 11:24:39
Deutlich geworden ist vor allem das ATI mit dem neuen HQ-AF ein klar besseres Bild liefert als die NVidia G70 Karten.
Und genau dieser Punkt wird bei vielen Kaufentscheidend sein. Da kann man ATI gar nicht stark genug für loben das endlich mal wieder ein Schritt in die richtige Richtung getan wurde. Nun wird NVidia in der nächsten Generation hoffentlich auch nachziehen und der Käufer bekommt wieder etwas geboten für sein Geld.

Full ack.

Avalox
2005-10-06, 11:24:57
Hmm, das hier finde ich sehr bedenklich:

Das die Leistungsaufnahme weiter nach oben gehen wird (und auch in Zukunft steigen wird), war ja kein Geheimnis.

Zudem es ja auch das Spitzenmodell ist. Hat jeder die Wahl, Top Performance oder weniger Leistungsaufnahme.

Dr.Dirt
2005-10-06, 11:27:29
Das die Leistungsaufnahme weiter nach oben gehen wird, war ja kein Geheimnis.

Zudem es ja auch das Spitzenmodell ist. Hat jeder die Wahl, Top Performance oder weniger Leistungsaufnahme.

Aber nur mit 2 unterschiedliechen Karten.
Ich vermisse eine Art C'n'Q bei den neuen Karten, kann doch nicht sein, daß die im Idle so viel Energie verballern. ;(

deekey777
2005-10-06, 11:29:44
ATI lässt weiter Zäune verschwinden..


6XAAA X1800XT
http://img386.imageshack.us/img386/8494/hl26xax18009zh.th.jpg (http://img386.imageshack.us/my.php?image=hl26xax18009zh.jpg)

FSAA 4x + TSS 7800GTX
http://img382.imageshack.us/img382/2963/hl24xss78006zz.th.jpg (http://img382.imageshack.us/my.php?image=hl24xss78006zz.jpg)

Was heißt hier weiter? Dieses Problem wurde schon gleich festgestellt, als tEd den Thread zum adaptiven AA im Technologie-Bereich eröffnet hatte.

Odal
2005-10-06, 11:33:41
@bvb:
Kann ja sein, dass C3d die Karte höher taktet, oder? Die 690Mhz sollten imo kein prob darstellen, wenn man hört dass die Xt bis zu 850Mhz erreicht


guck dir das teil asn wieviel strom das zieht...da brät ati so schon tüchtig vgpu drauf damit sie überhaupt 620 erreichen...viel mehr wird bei standartkühlung dort garantiert nicht drin sein...sonst hätte Ati
a) sie höher getaktet um sich deutlich von der 7800GTX absetzen zu können
oder
b) die vgpu niedriger angesetzt damit das ding nicht soviel saft verbrät, nicht so warm wird und kühllösungen billiger und auch leiser gemacht werden können damit die karten preislich günstiger werden und so konkurenzfähiger sind....

ich hab oben ja schon angemerkt das man mal die x1800xl mit der xt bei der stromaufnahme vergleichen sollte... die is ziemlich doppelt so hoch...und das kann nicht allein an den 512 MB liegen.

seahawk
2005-10-06, 11:36:19
K.A ob mit standrard, bei xtremetech hat einer sie auf ~850Mhz gebracht, es ging nur darum, dass der R520 noch potential hat, weswegen 690Mhz nicht unrealitisch sind

Mit ner Kaskade oder sowas perversem, haben sie die 800+ Mhz erreicht.

Raff
2005-10-06, 11:36:33
ich hab oben ja schon angemerkt das man mal die x1800xl mit der xt bei der stromaufnahme vergleichen sollte... die is ziemlich doppelt so hoch...und das kann nicht allein an den 512 MB liegen.

Du meinst mehr Spannung für den Mehrtakt? Durchaus möglich.

MfG,
Raff

Lightning
2005-10-06, 11:36:35
:confused: Auf den Screenshots sieht man einen deutlichen Unterschied...

Der Test scheint mir insgesamt sehr.. "seltsam" zu sein. Auf Seite 17 (http://www.xbitlabs.com/articles/video/display/radeon-x1000_17.html) ist ja der Hammer. Überdeutlich sichtbare bri/bilineare Filterung seitens des G70 (ist ja auch kein Wunder bei den Treibereinstellungen), und da wird von " I wouldn’t regard it as something drastic" gesprochen. Weiterhin wird dem Quality-AF des R520 keine nennenswert bessere Bildqualität zugesprochen.

War X-bit labs schon immer so schlimm? Bin da nicht so im Bilde.

Pirx
2005-10-06, 11:37:59
Hmm, doppelt so viel Speicher, der mit höherem Takt (und etwa auch höherer Spannung?) betrieben wird. Könnte doch zum Großteil am Speicher liegen und da kann man nichtmal viel dran ändern im Idle mit dem Treiber, oder?

Avalox
2005-10-06, 11:39:10
guck dir das teil asn wieviel strom das zieht...da brät ati so schon tüchtig vgpu drauf damit sie überhaupt 620 erreichen...viel mehr wird bei standartkühlung dort garantiert nicht drin sein...sonst hätte Ati
a) sie höher getaktet um sich deutlich von der 7800GTX absetzen zu können
oder


Ob sich NVidia und ATI so auf Messer bekämpfen? Ich denke nicht.

Es scheint, als ob Innovationen ziemlich gesteuert gestreut werden. Mal hier was beim einen, dann mal da was beim anderen. In der folgenden Generation, hat es der jeweils andere dann auch.

Das sieht nach Schubladen aus, aus welchen bei Bedarf mal eine Innovation gezogen wird. So wie in der Auto Industrie. Keine Risiken und sehr langweilig.

Horimoto
2005-10-06, 11:39:29
Man könnte ihn runtertakten, oder ist das nciht möglich? man könnte doch 2D und 3D profile erstellen, und sie dann in 2D mit 300/400 und in 3D mit 600/750 laufen lassen, oder?

Odal
2005-10-06, 11:42:54
Du meinst mehr Spannung für den Mehrtakt? Durchaus möglich.

MfG,
Raff

genau, ist ja bei der 6800er serie le/nu/gt/u auch so...

die LE's bekommen ja nur 1,1 volt und lassen sich mit 1,3 oder mehr VGPU deutlich besser übertakten..das dann die leistungsaufnahme signifikant steigt sollte jedem klar sein.

daher wäre ich da vorsichtig zu sagen das man aus dem x1800 noch viel mehr rausholen kann (ausser mit kranker kühlung)

Blaze
2005-10-06, 11:43:37
Man könnte ihn runtertakten, oder ist das nciht möglich? man könnte doch 2D und 3D profile erstellen, und sie dann in 2D mit 300/400 und in 3D mit 600/750 laufen lassen, oder?

Den Core ja, den Speicher kann man nach wie vor nicht unterschiedlich für 2D/3D takten.

Horimoto
2005-10-06, 11:47:44
Die GTX hat auch Profile was 2D/3D angeht, oder?
dann sollte es ATi nachmachen, und den Core auf ~300MHz runterschrauebn, dann wären wir auf Niveau der GTX denke ich

Odal
2005-10-06, 11:49:33
Ob sich NVidia und ATI so auf Messer bekämpfen? Ich denke nicht.

Es scheint, als ob Innovationen ziemlich gesteuert gestreut werden. Mal hier was beim einen, dann mal da was beim anderen. In der folgenden Generation, hat es der jeweils andere dann auch.

Das sieht nach Schubladen aus, aus welchen bei Bedarf mal eine Innovation gezogen wird. So wie in der Auto Industrie. Keine Risiken und sehr langweilig.

das glaub ich in diesem fall nicht

der 7800GTX hat ziemlich geschockt...
bessere Features, bessere Performance, hohe Verfügbarkeit und man hatte selbst nichts um es sofort auf den markt zu werfen... die x850 noch weiter ausquetschen war wohl nicht drin...also musste schnell der r520 raus
jeder tag verzögerung bedeutet viel verkaufspotential verschenkt
ati hat mit dem R520 in etwa gleichgezogen so dass man ihn auf den markt werfen konnte...mehr war einfach derzeit nicht drin.
ich befürchte auch das es die x1800xt nicht in grossen stückzahlen geben wird. denn zw. der xl und xt ist ja schon ein ziemlich deutlicher leistungsunterschied.

deekey777
2005-10-06, 11:57:13
das glaub ich in diesem fall nicht

der 7800GTX hat ziemlich geschockt...
bessere Features, bessere Performance, hohe Verfügbarkeit und man hatte selbst nichts um es sofort auf den markt zu werfen... die x850 noch weiter ausquetschen war wohl nicht drin...also musste schnell der r520 raus
jeder tag verzögerung bedeutet viel verkaufspotential verschenkt
ati hat mit dem R520 in etwa gleichgezogen so dass man ihn auf den markt werfen konnte...mehr war einfach derzeit nicht drin.
ich befürchte auch das es die x1800xt nicht in grossen stückzahlen geben wird. denn zw. der xl und xt ist ja schon ein ziemlich deutlicher leistungsunterschied.

Ja. Aber was ist damit: Der R520 an sich ist viel länger fertig, als man denkt. Die Entwickler haben ihre Grafikkarten schon seit März, die neue Generation sollte auf der E³ gezeigt werden, der eigentliche Launch war für die Zeit Mai-Juni geplant, leider kamen Probleme bei der Fertigung auf, die Leckströme machten Kopfschmerzen... mehrere Respins... So kam der R520 mit mehrmonatiger Verspätung. Wenn man dies mitberücksichtigt, dann entsteht doch ein ganz anderes Bild.

Avalox
2005-10-06, 11:58:39
das glaub ich in diesem fall nicht

der 7800GTX hat ziemlich geschockt...
bessere Features, bessere Performance, hohe Verfügbarkeit und man hatte selbst nichts um es sofort auf den markt zu werfen...

Ich denke OEMs werden auf ATIs HDTV (logo) fliegen.

Und solange man Unterschiede mit einer digitalen Lupe, vielleicht noch in ganz bestimmten Winkeln präsentiert ist es eh ziemlich merkwürdig.

Ich bleibe dabei, 3D Beschleunigung hat sich ziemlich festgefahren. Ist kaum mehr interessant für die Masse. Da macht ein HD TV Logo viel mehr her.

Echte Innovationen sind gefragt. Aber diese wird es in einem Oligopol nicht geben. Das würde ein viel zu grosses Risiko, für beide Firmen(!), bedeuten.

Also wird man sich abstimmen und informieren, in irgend einer Form.

deekey777
2005-10-06, 12:05:29
Zum Xbit-Review:
X1800XT: http://www.xbitlabs.com/articles/video/display/radeon-x1000_10.html
X1800XL: http://www.xbitlabs.com/articles/video/display/radeon-x1000_11.html

Zweite Zeile auf dem Chip, letzte Zahl: Ist das die Anzahl der Respins? :confused:

Coda
2005-10-06, 12:11:59
:rolleyes: displacement mapping? Fehlanzeige?

Solangsam müßte es doch HWmäßig reichenWozu? Parallax Occlussion Mapping dürfte den gleichen Effekt für weit weniger Aufwand erreichen.

Aber 150W für die X1800XT ist schon heftig. Jetzt versteh ich auch warum nVIDIA nicht unbedingt 750Mhz Speicher nachschieben möchte.

StefanV
2005-10-06, 12:13:22
Zum Xbit-Review:
X1800XT: http://www.xbitlabs.com/articles/video/display/radeon-x1000_10.html
X1800XL: http://www.xbitlabs.com/articles/video/display/radeon-x1000_11.html

Zweite Zeile auf dem Chip, letzte Zahl: Ist das die Anzahl der Respins? :confused:
Ich würd mal sagen ja :)

Horimoto
2005-10-06, 12:15:24
Deswegen sollte man JETZT keine X1800XLs kaufen, weil die sich nciht übertakten lassen. Zumindest nciht so weit..

S!D
2005-10-06, 12:15:50
Radeon X1800 XL ist nicht gleich X1800 XL (http://www.ati-news.de/cgi-bin/News/viewnews.cgi?category=1&id=1128550875)

deekey777
2005-10-06, 12:18:53
Ich würd mal sagen ja :)

Das erklärt wohl den Unterschied beim Verbrauch, andererseits bedeutet das auch, daß die X1800XL kein Übertaktungswunder ist, wenn es noch die alte "Version" ist.
Und wenn man noch einen Blick auf das Die der X1600XT wirft, sieht man, daß dies noch keine fertige Version ist, vielleicht sind die Schlüße über den Verbrauch doch voreilig, und die fertige Version kommt erst Ende November.

€: Ich sollte schneller schreiben... ;(

Quasar
2005-10-06, 12:21:06
Zum Xbit-Review:
X1800XT: http://www.xbitlabs.com/articles/video/display/radeon-x1000_10.html
X1800XL: http://www.xbitlabs.com/articles/video/display/radeon-x1000_11.html

Zweite Zeile auf dem Chip, letzte Zahl: Ist das die Anzahl der Respins? :confused:
http://www.xbitlabs.com/images/video/radeon-x1000/power_x18.gif
Tempora mutandur... Hoffentlich ändert sich das bei den Serienboards noch etwas. Das sind ja beinahe 50% Zuwachs zur 7800 GTX und beinahe 100% zur X1800XL!!

Ronny145
2005-10-06, 12:24:20
Das erklärt wohl den Unterschied beim Verbrauch, andererseits bedeutet das auch, daß die X1800XL kein Übertaktungswunder ist, wenn es noch die alte "Version" ist.
Und wenn man noch einen Blick auf das Die der X1600XT wirft, sieht man, daß dies noch keine fertige Version ist, vielleicht sind die Schlüße über den Verbrauch doch voreilig, und die fertige Version kommt erst Ende November.

€: Ich sollte schneller schreiben... ;(


Wie ist das zu verstehen mit dem Verbrauch? Das die ältere Version mehr verbraucht?

deekey777
2005-10-06, 12:25:26
http://www.xbitlabs.com/images/video/radeon-x1000/power_x18.gif
Tempora mutandur... Hoffentlich ändert sich das bei den Serienboards noch etwas. Das sind ja beinahe 50% Zuwachs zur 7800 GTX und beinahe 100% zur X1800XL!!

Es hat wohl seinen Sinn die X1800XT in vier Wochen auf den Markt zu bringen, vielleicht kommt eine neue "Revision". :)
Die genügsamereren X1800XL werden bestimmt nicht sehr lange auf dem Markt sein, und deren "alten" Chips werden mit dem neuen ersetzt.

Wie ist das zu verstehen mit dem Verbrauch? Das die ältere Version mehr verbraucht?

Irgendwo stand, daß man beim RV530 mit den gleichen Problemen zu kämpfen hatte wie beim R520: Auf dem Chip steht ja 3 Respins und Engineering Sample, es ist also nicht die fertige Verkaufsversion. Meine reine Spekulation ist, daß man bei diesen unfertigen Versionen den Takt bis zum letzten hochprügeln mußte ohne Rücksicht auf Verluste; vielleicht wird man bei der fertigen Version ein glückliches Händchen haben.
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Der zweiten Tabelle nach verbraucht die X1600XT doch nicht viel? :confused:

Coda
2005-10-06, 12:26:38
Das behauptet NVIDIA bzgl NV40 und G70 doch auch ... so what.Kann er ja auch. FP32-Pointsampling mit Mipmapping.

Besser als gar keine Vertex-TMUs, findest du nicht?

seahawk
2005-10-06, 12:27:03
Ich vermute mal, dass die "neuen" XL eher mehr verbrauche, da sie auf dem XT Chips basieren.

Coda
2005-10-06, 12:30:14
Glaub ich nicht mal. Der X1800XT-Verbrauch kommt wohl vor allem durch höhere Core- und Speicherspannung zusätzlich zum höheren Takt.

Man sieht auf jedenfall, dass ATi Probleme mit G70 hatte, sonst würde man sowas nicht machen.

StefanV
2005-10-06, 12:31:16
Ich vermute mal, dass die "neuen" XL eher mehr verbrauche, da sie auf dem XT Chips basieren.
Die Frage ist eher, ists die GPU die so viel verbrät oder ists der RAM :uponder:

BodyLove
2005-10-06, 12:38:19
Gute Frage. Hat Samsung da etwas näheres parat?

Coda
2005-10-06, 12:41:02
Die Frage ist eher, ists die GPU die so viel verbrät oder ists der RAM :uponder:Spielt das denn eine Rolle? ATi braucht den RAM anscheinend um konkurenzfähig zu sein.

StefanV
2005-10-06, 12:41:59
Ich werf mal einfach das hier (http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm) in die Runde...

€dit:
Seite 53, 'Operatingcurrent', 1,2Ax 2V = 2.1W =16W

Das ganze im Idle:
140mA x 2V = 0,28W

deekey777
2005-10-06, 12:42:28
Spielt das denn eine Rolle? ATi braucht den RAM anscheinend um konkurenzfähig zu sein.

Ja, in Bezug auf die X1800XL, denn sie ist zwar langsamer getaktet, hat auch langsameren Speicher. :)

HOT
2005-10-06, 12:43:26
[...]


Irgendwo stand, daß man beim RV530 mit den gleichen Problemen zu kämpfen hatte wie beim R520: Auf dem Chip steht ja 3 Respins und Engineering Sample, es ist also nicht die fertige Verkaufsversion. Meine reine Spekulation ist, daß man bei diesen unfertigen Versionen den Takt bis zum letzten hochprügeln mußte ohne Rücksicht auf Verluste; vielleicht wird man bei der fertigen Version ein glückliches Händchen haben.
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Der zweiten Tabelle nach verbraucht die X1600XT doch nicht viel? :confused:

Meiner Meinung nach gibt es den X1600XT einfach noch nicht so lange wie den X1800 oder X1300. Auch die Versionsnummer deutet darauf hin, dass dieser Chip nicht zwingend ein Ableger vom R520 sein muss. Das ist eher eine erweiterte Version der X1300, vielleicht abstammend vom R580. Ähnlich wie es bei der Radeon9600 damals war, auch die stammt eher vom R420 ab als vom R300.

Coda
2005-10-06, 12:46:11
Ja, in Bezug auf die X1800XL, denn sie ist zwar langsamer getaktet, hat auch langsameren Speicher. :)Was willst du mir damit sagen? Mit 600Mhz Speicher bei der X1800XT wäre der Launch ziemlich in die Hose gegangen, oder nicht?

Odal
2005-10-06, 12:50:46
Ja. Aber was ist damit: Der R520 an sich ist viel länger fertig, als man denkt. Die Entwickler haben ihre Grafikkarten schon seit März, die neue Generation sollte auf der E³ gezeigt werden, der eigentliche Launch war für die Zeit Mai-Juni geplant, leider kamen Probleme bei der Fertigung auf, die Leckströme machten Kopfschmerzen... mehrere Respins... So kam der R520 mit mehrmonatiger Verspätung. Wenn man dies mitberücksichtigt, dann entsteht doch ein ganz anderes Bild.

ja du beantwortest es ja selber...
es kommt nicht allein aufs design an...er muss auch die taktraten mitmachen die ati anpeilte um was ebenbürtiges auf den markt zu werfen...
es wäre ja keine kunst gewesen das ding statt mit 625 mhz nur mit 400 mhz zu präsentieren aber das wäre deutlich zu wenig.

deekey777
2005-10-06, 12:50:50
Meiner Meinung nach gibt es den X1600XT einfach noch nicht so lange wie den X1800 oder X1300. Auch die Versionsnummer deutet darauf hin, dass dieser Chip nicht zwingend ein Ableger vom R520 sein muss. Das ist eher eine erweiterte Version der X1300, vielleicht abstammend vom R580. Ähnlich wie es bei der Radeon9600 damals war, auch die stammt eher vom R420 ab als vom R300.

Der RV530 ist weder mit dem RV515 verwandt noch mit dem R520, er gehört eigentlich zur R580-Familie. Ob er verschwindet? Nö, er wird vielleicht weiterhin das Segment abdecken, welches mal vom X600 gedeckt war. Ein X1700 wird schon kommen, muß aber zuerst fertig werden. So oder so steht die X1600 fast ohne Konkurrenz da, denn die 6600GT ist je nach Anwendung langsamer bis noch langsamer, und die 6800er spielen in einer ganz anderen Liga, auch wenn der Preis so niedrig ist, denn die Produktionskosten sollten hoch liegen, auch wenn darauf zu 99% nur sehr günstiger Speicher verbaut wird.

Dr.Dirt
2005-10-06, 12:55:03
Wieso hat die X1800 XL in den beiden Diagrammen ein unterschedliches Ergebnis (59,2W vs. 49,4W)? :confused:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

deekey777
2005-10-06, 12:56:30
Was willst du mir damit sagen? Mit 600Mhz Speicher bei der X1800XT wäre der Launch ziemlich in die Hose gegangen, oder nicht?

Nein, ich spreche schon von der X1800XL: Wenn bei dieser in vier Wochen auf den gleichen Chip bzw. gleiche Version umgestiegen wird wie bei der jetzigen X1800XT, die ungleich mehr Saft verbraucht, stellt sich schon die Frage, ob der relativ niedrige Verbrauch weiterhin beibehalten wird oder steigt oder sinkt.
ja du beantwortest es ja selber...
es kommt nicht allein aufs design an...er muss auch die taktraten mitmachen die ati anpeilte um was ebenbürtiges auf den markt zu werfen...
es wäre ja keine kunst gewesen das ding statt mit 625 mhz nur mit 400 mhz zu präsentieren aber das wäre deutlich zu wenig.
Der R520 war von Anfang an auf hohe Taktraten designed worden.

seahawk
2005-10-06, 12:56:41
Die Frage ist eher, ists die GPU die so viel verbrät oder ists der RAM :uponder:
Sicherlch erheblich der RAM. Imho dürfte die XT Version aber auch mehr Spannung vetragen, als die XL Version (alt).

Vergleicht man die XL zu 7800GT so ist es bei gleichem RAM ein praktisches Unentschieden. Was imho ein gute Leistung von beiden IHVs ist. Für NV, weil sie das in 110nm sachaffen, ATI, weil sie einen wesntlich höheren Takt erreichen.

Ich würde der Verlustleistung im High-End-Segment sowieso keine Bedeutung beimessen, so lange die Kühler dies bei erträglicher Lautstärke abführen können und das ist definitv gegeben.

Die X1800 ist ein rundum überzeugendes Produkt, mit geringen Defiziten. Und imho, bei ähnlichen Preisen und guter Verfügbarkeit, besser als der G70.

HOT
2005-10-06, 12:57:26
Der RV530 ist weder mit dem RV515 verwandt noch mit dem R520, er gehört eigentlich zur R580-Familie. Ob er verschwindet? Nö, er wird vielleicht weiterhin das Segment abdecken, welches mal vom X600 gedeckt war. Ein X1700 wird schon kommen, muß aber zuerst fertig werden. So oder so steht die X1600 fast ohne Konkurrenz da, denn die 6600GT ist je nach Anwendung langsamer bis noch langsamer, und die 6800er spielen in einer ganz anderen Liga, auch wenn der Preis so niedrig ist, denn die Produktionskosten sollten hoch liegen, auch wenn darauf zu 99% nur sehr günstiger Speicher verbaut wird.

Der X1600 ist der Nachfolger der X600, dessen sollte man sich klar sein. Mehr Leistung hat er ja auch nicht, aber für diese Klasse ist die Leistung sogar gut.
Solange auf dem Markt tonnenweise X800/X850 Karten rumgeistern macht es zudem keinen Sinn für ATI eine X1700 jetzt schon zu releasen, denn so werden die X8xx Karten zu Ladenhütern. Diese Taktik verfolgte man damals bei der 9700 ja auch, die X700 kam erst, als es keine 9700er und 9800er mehr gab. Technisch fertig war sie sehr sicher schon weit vorher. Dazu kam noch PCIe. Ich denke schon, dass der X1700 und X1850 ziemlich bald in den Startlöchern stehen, nämlich dann, wenn der X1600 auch endgültig in Massenproduktion geht, ATI sieht dafür aber noch keine Verwendung. Grafikkartenmarkt ist nicht nur Technik, sondern auch Taktik. Die Taktik bremst sogar die Innovation, weswegen ich auf lange Sicht auch Chancen für Dritthersteller sehe.

seahawk
2005-10-06, 12:57:55
Nein, ich spreche schon von der X1800XL: Wenn bei dieser in vier Wochen auf den gleichen Chip bzw. gleiche Version umgestiegen wird wie bei der jetzigen X1800XT, die ungleich mehr Saft verbraucht, stellt sich schon die Frage, ob der relativ niedrige Verbrauch weiterhin beibehalten wird oder steigt oder sinkt.

Ich tippe auf gleichbleiben oder minimal steigen. ATI muss der XL ja nicht mehr Spannung geben. So kann man das OC Potential elegant beschränken.

seahawk
2005-10-06, 13:00:44
Der RV530 ist weder mit dem RV515 verwandt noch mit dem R520, er gehört eigentlich zur R580-Familie. Ob er verschwindet? Nö, er wird vielleicht weiterhin das Segment abdecken, welches mal vom X600 gedeckt war. Ein X1700 wird schon kommen, muß aber zuerst fertig werden. So oder so steht die X1600 fast ohne Konkurrenz da, denn die 6600GT ist je nach Anwendung langsamer bis noch langsamer, und die 6800er spielen in einer ganz anderen Liga, auch wenn der Preis so niedrig ist, denn die Produktionskosten sollten hoch liegen, auch wenn darauf zu 99% nur sehr günstiger Speicher verbaut wird.

Ich sage nur mal 6800XT und als kleinere 12Pipe only (NV42 ?) Version mit vereinfachtem PCB kann NV den bestimmt sehr günstig liefern.

deekey777
2005-10-06, 13:03:37
Ich sage nur mal 6800XT und als kleinere 12Pipe only (NV42 ?) Version mit vereinfachtem PCB kann NV den bestimmt sehr günstig liefern.

Die 6800XT hat nur 8 Pipelines, aber ein 256bit SI und so eine deutlich aufwendige Platine. Die X1600XT hat ein 128bit SI (und zu diesem Zeitpunkt noch teuren Speicher) und so auch ein deutlich günstigeres PCB.

Matrix316
2005-10-06, 13:04:24
Der RV530 ist weder mit dem RV515 verwandt noch mit dem R520, er gehört eigentlich zur R580-Familie. Ob er verschwindet? Nö, er wird vielleicht weiterhin das Segment abdecken, welches mal vom X600 gedeckt war. Ein X1700 wird schon kommen, muß aber zuerst fertig werden. So oder so steht die X1600 fast ohne Konkurrenz da, denn die 6600GT ist je nach Anwendung langsamer bis noch langsamer, und die 6800er spielen in einer ganz anderen Liga, auch wenn der Preis so niedrig ist, denn die Produktionskosten sollten hoch liegen, auch wenn darauf zu 99% nur sehr günstiger Speicher verbaut wird.

Den Preis muss man aber immer mit einbeziehen. Was für Produktionskosten die Firmen haben ist das IMO uninteressant.

Wenn eine 7800GT nur 333 Euro kostet und eine schlechtere oder nur gleich gute X1800XL 100 € mehr oder so, dann ist das genauso Mumpitz wie eine X1600XT für 250 $...

JaDz
2005-10-06, 13:06:14
http://www.xbitlabs.com/images/video/radeon-x1000/power_x18.gif
Tempora mutandur... Hoffentlich ändert sich das bei den Serienboards noch etwas. Das sind ja beinahe 50% Zuwachs zur 7800 GTX und beinahe 100% zur X1800XL!!

Boah, die ATI hat den längsten Balken, die muss ich mir kaufen!;)

Spasstiger
2005-10-06, 13:10:33
Ähnlich wie es bei der Radeon9600 damals war, auch die stammt eher vom R420 ab als vom R300.

Hö?

seahawk
2005-10-06, 13:12:47
Die 6800XT hat nur 8 Pipelines, aber ein 256bit SI und so eine deutlich aufwendige Platine. Die X1600XT hat ein 128bit SI (und zu diesem Zeitpunkt noch teuren Speicher) und so auch ein deutlich günstigeres PCB.

Als XT hat er 8 Pipes als Standard 6800 12 Pipes. Dazu kommt nilliger Speicher und ein sicher auch billig zu fertigender Chip. Das PCB ist zwar komplexer, dafür dürfte sich der 6800er schon kröstenteils ammortisiert haben, was NV sicher Spielraum nach unten läst. Zumindest, bis die eigenen G7X Chips kommen.

http://www.alternate.de/html/shop/productDetails.html?artno=J9XX41&

-error-
2005-10-06, 13:13:07
Ich habe jetzt noch keinen Bericht gesehen, wo in Verwendung mit AAA getestetet wurde, nur mit HighQ-AF.

Gibts schon mehr Informationen zur x1800 LE?

Odal
2005-10-06, 13:15:17
Der R520 war von Anfang an auf hohe Taktraten designed worden.


das möcht ich auch garnicht anzweifeln...aber die komplexität (transistorcount) ist beim R520 signifikant höher als bei der vorgängergeneration, da wird es schwieriger einen hohen takt zu erreichen...wär ein so hoher takt schon vor ein paar monaten möglich hätten sie die chips gelaunched
ich denke man kann davon ausgehen das der angepeilte takt damals noch nicht möglich war und noch etwas rumoptimiert werden musste...
normalerweise baut ATI ja sparmsame chips da ist der x1800xt trotz seiner "nur" 16 pipes ein extremer ausreisser.
sowas macht man nur wenn man anders gegen die konkurenz nicht bestehen kann und schnell was launchen muss. Da wird schonmal mit mehr vgpu befeuert um mithalten zu können.

Spasstiger
2005-10-06, 13:24:45
Ich hoffe mal, dass sich der R580 genügsamer zeigt. Und ATI sollte sich so langsam mal mit Crossfire beeilen, sonst können sie im Enthusiast-Sektor nicht gegen Nvidia bestehen. Gegen 16xSLI-AA + TRSAA + 16:1 AF (Treiber auf HQ) ist bei ATI noch kein Kraut gewachsen ;).

mindfaq
2005-10-06, 13:36:01
Soll eigentlich auch eine xt-pe kommen ?
Hat man noch gar nichts von gehört...

edit: Computerbase schreibt in ihrem Review, dass die XL 1,4ns Speicher hat.
Warum bauen die derart schnellen Speicher da drauf, die Karte hat doch nur 500Mhz Speichertakt, da hätte wohl auch 2ns gereicht. Verfügbarkeit ?

HOT
2005-10-06, 13:47:12
Hö?

Oder denkst du die entwickeln extra für den 9600er neue PixelProzessoren? ;D
Die 9600 unterscheidet sich von den R3xx Chips.

HOT
2005-10-06, 13:51:16
das möcht ich auch garnicht anzweifeln...aber die komplexität (transistorcount) ist beim R520 signifikant höher als bei der vorgängergeneration, da wird es schwieriger einen hohen takt zu erreichen...wär ein so hoher takt schon vor ein paar monaten möglich hätten sie die chips gelaunched
ich denke man kann davon ausgehen das der angepeilte takt damals noch nicht möglich war und noch etwas rumoptimiert werden musste...
normalerweise baut ATI ja sparmsame chips da ist der x1800xt trotz seiner "nur" 16 pipes ein extremer ausreisser.
sowas macht man nur wenn man anders gegen die konkurenz nicht bestehen kann und schnell was launchen muss. Da wird schonmal mit mehr vgpu befeuert um mithalten zu können.

Nein, der Transistorcount sich sicher nicht das Problem. Es ist ein anderes Design als der RV515 oder R520, dessen Entwicklung auch später begonnen wurde. Der RV530 ist einfach nur noch nicht so weit wie die beiden anderen.

up¦²
2005-10-06, 13:51:24
Eine passive Ramschversion (±75€) der x1300 könnte den HTPC aufmischen:
http://www.xbitlabs.com/images/video/radeon-x1000/hdtv.gif

New ATI graphics accelerators proved most efficient during WMV HD file playback: the CPU utilization was only 41% in the most complex scene of the movie, where a huge flock of birds raised up into the sky from the lake surface. The minimal CPU workload in this test was 15%, which is more than twice as good as the results obtained by GeForce 6/7 and RADEON X850 XT Platinum Edition. The average CPU utilization during the test movie playback was 20%-25%, which can surely be called an excellent result. According to the results of this test we can call new RADEON X1000 the best solution for HD content playback.


http://www.xbitlabs.com/articles/video/display/radeon-x1000_38.html

Plus: featuring H.264 video decoding hardware acceleration :wink:

HOT
2005-10-06, 13:54:33
Ich hoffe mal, dass sich der R580 genügsamer zeigt. Und ATI sollte sich so langsam mal mit Crossfire beeilen, sonst können sie im Enthusiast-Sektor nicht gegen Nvidia bestehen. Gegen 16xSLI-AA + TRSAA + 16:1 AF (Treiber auf HQ) ist bei ATI noch kein Kraut gewachsen ;).

Wenn man von heutiger Informationslage ausgehet, wird der R580 sehr sicher nicht sparsamer sein als der R520, da er sicher 400Mio Transistoren bei gleichem Takt haben wird. Man sehe sich den Transistorunterschied zwischen RV515 und RV530 an, da ist neben den Vertexshadern noch ein gutes Stück mehr verbraucht worden. Das Ganze x4 und wir haben garantiert 400Mio.

StefanV
2005-10-06, 14:02:39
Wenn man von heutiger Informationslage ausgehet, wird der R580 sehr sicher nicht sparsamer sein als der R520, da er sicher 400Mio Transistoren bei gleichem Takt haben wird. Man sehe sich den Transistorunterschied zwischen RV515 und RV530 an, da ist neben den Vertexshadern noch ein gutes Stück mehr verbraucht worden. Das Ganze x4 und wir haben garantiert 400Mio.
Öhm, darf ich an dieser Stelle mal den T-Bird vs Palomino ins Feld führen, die ja beide in 180nm gefertigt wurden, der Palomino aber mehr Transistoren hatte und auch noch sparsamer war? ;)


Mehr Transistoren müssen nicht unbedingt mehr Abwärme bedeuten, es kommt halt drauf an, wofür sie verbraten werden, ironischerweise kann man die auch für geringere Abwärme benutzen...

HOT
2005-10-06, 14:10:34
Öhm, darf ich an dieser Stelle mal den T-Bird vs Palomino ins Feld führen, die ja beide in 180nm gefertigt wurden, der Palomino aber mehr Transistoren hatte und auch noch sparsamer war? ;)


Mehr Transistoren müssen nicht unbedingt mehr Abwärme bedeuten, es kommt halt drauf an, wofür sie verbraten werden, ironischerweise kann man die auch für geringere Abwärme benutzen...

Du hast schon recht, ATI wird den R580 schon auf grössere Sparsamkeit hin getrimmt haben, immerhin hatte man bei dessen Design schon mehr 90nm Erfahrung als beim R520. Dennoch denke ich nicht, dass der Stromverbrauch sinken wird. Im besten Falle bleibt er gleich. Ähnliches gilt für den G72.

kelo
2005-10-06, 14:14:19
Eine passive Ramschversion (±75€) der x1300 könnte den HTPC aufmischen:
http://www.xbitlabs.com/images/video/radeon-x1000/hdtv.gif

http://www.xbitlabs.com/articles/video/display/radeon-x1000_38.html

Plus: featuring H.264 video decoding hardware acceleration :wink:
War auch am überlegen, den x1300 im HD-HTPC einzusetzen. (nächstes Jahr irgendwann, jedenfalls vor Fußball-WM)
Bis du sicher mit h.264? Kann er auch Videos encodieren?

deekey777
2005-10-06, 14:17:47
War auch am überlegen, den x1300 im HD-HTPC einzusetzen. (nächstes Jahr irgendwann, jedenfalls vor Fußball-WM)
Bis du sicher mit h.264? Kann er auch Videos encodieren?

Laut den AVIVO Infos kann in Hardware zu MPEG2 enkodiert werden und (H.264?) zu H.264 transkodiert werden.

kelo
2005-10-06, 14:31:22
Laut den AVIVO Infos kann in Hardware zu MPEG2 enkodiert werden und (H.264?) zu H.264 transkodiert werden.
Über Avivo habe ich Infos gefunden:
http://www.anandtech.com/video/showdoc.aspx?i=2536&p=3
MPEFG-2 Encoding
Transcoding to/from:
H.264, VC-1, WMV9, WMV9 PMC, MPEG-2, MPEG-4, DivX

Wäre interessant, ein HD-Video in MPEG-2 encodieren und dann in h.264 zu transkodieren. Oder gleich HD-WMV in HD-h.264 zu transkodieren.

@Mod
Falls ihr mal irgendwann mal den X1x00 testen solltet, könntet ihr mal die Performance und Qualität des Videoprocessors testen?
Ich vermute, da sind Millionen von Transistoren drauf gegeangen.

Spasstiger
2005-10-06, 14:35:25
Oder denkst du die entwickeln extra für den 9600er neue PixelProzessoren? ;D
Die 9600 unterscheidet sich von den R3xx Chips.

Radeon 9600er verwenden den RV360-Chip, welcher auf dem R350 bzw. R360 basiert, welche wiederum optimierte R300-Kerne darstellen.

deekey777
2005-10-06, 14:35:48
Über Avivo habe ich Infos gefunden:
http://www.anandtech.com/video/showdoc.aspx?i=2536&p=3
MPEFG-2 Encoding
Transcoding to/from:
H.264, VC-1, WMV9, WMV9 PMC, MPEG-2, MPEG-4, DivX

Wäre interessant, ein HD-Video in MPEG-2 encodieren und dann in h.264 zu transkodieren. Oder gleich HD-WMV in HD-h.264 zu transkodieren.

@Mod
Falls ihr mal irgendwann mal den X1x00 testen solltet, könntet ihr mal die Performance und Qualität des Videoprocessors testen?
Ich vermute, da sind Millionen von Transistoren drauf gegeangen.

Was ist für dich ein HD-Video? :)
Wenn jetzt Ende Oktober ProSieben HD startet, dann wird in H.264 gesendet, da muß man eigentlich nur transkodieren, wenn die aufgenommene Sendung zu groß ist.
HD-1 sendet in MPEG2, aber das kann man am einfachsten umwandeln. Und WMV-HD/VC-1 ist immer noch im Dornröschenschlaf, denn das Angebot ist doch sehr klein.

Radeon 9600er verwenden den RV360-Chip, welcher auf dem R350 bzw. R360 basiert, welche wiederum optimierte R300-Kerne darstellen.
Jein. Der RV350 bzw. RV360 war schon eigenständig und hatte die neue AF-Optimierung, die wiederum im R420 zu finden war.

HOT
2005-10-06, 14:37:43
Radeon 9600er verwenden den RV360-Chip, welcher auf dem R350 bzw. R360 basiert, welche wiederum optimierte R300-Kerne darstellen.

Was nicht stimmt. Ein Beispiel: Der RV360 hat flexiblere TMUs, die ähnliches können wie die der R4xx Karten. Die R3xx haben können nicht "optimiert" werdn (sie können z.b. kein Brilinear und AI). Der RV360 ist ganz sicher näher mit den R4xx verwandt als mit dem R3xx. Ähnliches gilt für die Notebookprozessoren R9700 und R9800 Mobile. Auch diese haben nicht viel mit ihren Namensgebern gemein.
ATI hat für den 9600 neue Pixelprozessoren entwickelt und eine davon weiterentwickelte Version in die R4xx Serie und weitere RV3x Derivate eingebaut.

BvB123
2005-10-06, 14:47:54
Hmm,

X1800XT
http://img372.imageshack.us/img372/9483/hl26xax18001ud.th.jpg (http://img372.imageshack.us/my.php?image=hl26xax18001ud.jpg)


7800GTX
http://img372.imageshack.us/img372/594/hl24xss78009jg.th.jpg (http://img372.imageshack.us/my.php?image=hl24xss78009jg.jpg)

up¦²
2005-10-06, 14:49:16
x1300 hat ein anderes Crossfire:

http://pc.watch.impress.co.jp/docs/2005/1006/ati_5.jpg

http://pc.watch.impress.co.jp/docs/2005/1006/ati_6.jpg

x1600/1800 haben "compositing engine":
http://pc.watch.impress.co.jp/docs/2005/1006/ati_4.jpg

http://pc.watch.impress.co.jp/docs/2005/1006/ati_7.jpg

http://pc.watch.impress.co.jp/docs/2005/1006/ati.htm

deekey777
2005-10-06, 14:51:42
Hmm,

X1800XT
http://img372.imageshack.us/img372/594/hl24xss78009jg.th.jpg (http://img372.imageshack.us/my.php?image=hl24xss78009jg.jpg)

7800GTX
http://img372.imageshack.us/img372/9483/hl26xax18001ud.th.jpg (http://img372.imageshack.us/my.php?image=hl26xax18001ud.jpg)

Die Grafikkartenbezeichnungen scheinen vertauscht zu sein. :|

x1300 hat ein anderes Crossfire:

...

http://pc.watch.impress.co.jp/docs/2005/1006/ati_7.jpg

http://pc.watch.impress.co.jp/docs/2005/1006/ati.htm

Pfui, ist das schwach! Die Geforce 3 hatte um die 70GFlop/s (wurde von Apple stark aufgebauscht). :biggrin:

BvB123
2005-10-06, 14:54:02
Ist schon korrigiert ;)

Avalox
2005-10-06, 14:59:57
x1300 hat ein anderes Crossfire:


PCIe gekoppelt, na endlich.

deekey777
2005-10-06, 15:02:50
PCIe gekoppelt, na endlich.

Die X850XT im CF-Verbund verlieren gerade im SuperAA-Modus unnötig an Leistung, weil es über PCIe läuft.

Avalox
2005-10-06, 15:06:35
Die X850XT im CF-Verbund verlieren gerade im SuperAA-Modus unnötig an Leistung, weil es über PCIe läuft.

Ist nur eine Frage der Anzahl verwendeter Express Lanes. Wird sich egalisieren. Das ist die Zukunft.

Irgendwann wird es eine Master Grafikkarte geben, komplett mit Display Anschlüssen etc. und es wird zusatz GPUs geben. Welche mit eigenen Speichern auf einer abgespeckten PCIe Karte sitzen.
So denke ich mir ist SLI/CF erst praktisch.

Das wird so kommen, weil die Auflösung und damit der Framebuffer durch die Anzeigegeräte nach oben hin gedeckelt ist. Voll skalierbare Grafikkarten, in PCIe 2.0 Slots.

reunion
2005-10-06, 15:14:46
http://www.xbitlabs.com/images/video/radeon-x1000/power_x18.gif
Tempora mutandur... Hoffentlich ändert sich das bei den Serienboards noch etwas. Das sind ja beinahe 50% Zuwachs zur 7800 GTX und beinahe 100% zur X1800XL!!

Man sieht aber auch sehr schon, dass die hohe Leistungsaufnahme nicht am Core selbst liegt. Vorallem der doppelt so große, hochgetaktete Speicher scheint die Leistungsaufnahme hoch zu treiben.

Odal
2005-10-06, 15:16:02
woran siehst du das?

StefanV
2005-10-06, 15:28:11
woran siehst du das?
x1800XL <-> X1800XT

reunion
2005-10-06, 15:28:59
woran siehst du das?


Am moderaten Verbrauch der X1800XL, welche mit dem gleichen RAM wie die 7800GT auch nicht mehr verbraucht. Einzig der hochfrequente, im Vergleich zur 7800GTX doppelt assoziirte, und mit 2.0V(!) betriebene Samsung-RAM (Standard ist 1.6V) scheint für die hohe Leistungsaufnahme verantwortlich zu sein.

reunion
2005-10-06, 15:30:25
Ich vermute mal, dass die "neuen" XL eher mehr verbrauche, da sie auf dem XT Chips basieren.


Warum sollte das der Fall sein?