PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 [4] 5 6 7 8 9 10

Ronny145
2005-10-06, 15:30:49
Am moderaten Verbrauch der X1800XL, welche mit dem gleichen RAM wie die 7800GT auch nicht mehr verbraucht. Einzig der hochfrequente, im Vergleich zur 7800GTX doppelt assoziirte, und mit 2.0V(!) betriebene Samsung-RAM (Standard ist 1.6V) scheint für die hohe Leistungsaufnahme verantwortlich zu sein.


Das ganze unter Last. Im Idle Betrieb hinkt auch die XL ziemlich hinterher, vorallem im Vergleich mit der 7800 GT.

Coda
2005-10-06, 15:33:54
Am moderaten Verbrauch der X1800XL, welche mit dem gleichen RAM wie die 7800GT auch nicht mehr verbraucht. Einzig der hochfrequente, im Vergleich zur 7800GTX doppelt assoziirte, und mit 2.0V(!) betriebene Samsung-RAM (Standard ist 1.6V) scheint für die hohe Leistungsaufnahme verantwortlich zu sein.Um die 625Mhz zu schaffen hat man sicher auch den Coretakt bei der XT erhöht. Aber man reimt sich ja sein Zeug so zurecht wie man es braucht...

Und selbst wenn: Ich habe schonmal gesagt, dass ATi den Speicher braucht um konkurenzfähig zu sein. Was interessiert den Kunden was den Saft zieht?

Spasstiger
2005-10-06, 15:36:32
Am moderaten Verbrauch der X1800XL, welche mit dem gleichen RAM wie die 7800GT auch nicht mehr verbraucht. Einzig der hochfrequente, im Vergleich zur 7800GTX doppelt assoziirte, und mit 2.0V(!) betriebene Samsung-RAM (Standard ist 1.6V) scheint für die hohe Leistungsaufnahme verantwortlich zu sein.

Jo, die Spannung geht ja quadratisch mit in die Verlustleistung ein, da machen 25% mehr Spannung schon 56,25% mehr Verlustleistung beim Ram aus.

Aus dem Dokument, das Stefan Payne vor ein paar Seiten gelinkt hat, geht hervor, dass ein Speicherchip der X1800 XT normal mit ca. 1,1 Ampere betrieben wird. Bei der höheren Spannung fließt auch ein höherer Strom, nämlich hier 25% mehr (nach Milchmädchenrechnung ;)). Sind dann also 1,375 Ampere je Speicherchip. Acht Stück davon sind verbaut, macht zusammen 8*1,375A*2V = 22 Watt.
Der Unterschied beim Stromverbrauch alleine des Ram beträgt dann gegenüber der X1800 XL wahrscheinlich schon 15 Watt.

reunion
2005-10-06, 15:37:19
Spielt das denn eine Rolle? ATi braucht den RAM anscheinend um konkurenzfähig zu sein.


Woraus schließt du das?

Coda
2005-10-06, 15:40:02
Daran, dass die X1800XT ungefähr auf dem Niveau einer GTX liegt? Das hätten sie mit 600Mhz wohl kaum geschafft.

Mir ist bewusst, dass der RAM auch seinen Teil zu der Verlustleistung beiträgt, aber ich bin mir ziemlich sicher das die XT eine höhere Corespannung hat und deshalb so viel verbrät.

dargo
2005-10-06, 15:41:06
Der Stromverbrauch unter Last wurde auch gemessen:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Leider sind keine Idle Werte dabei.
112Watt bei Last für die X1800XT ? :eek: :eek: :eek:

NV30 lässt grüßen. :cool:

Mich wundert es, daß der Kühler es überhaupt schafft diese Verlustleistung abzutransportieren. Wieviel davon gehen wohl auf den GDDR3 mit 2V drauf ?

reunion
2005-10-06, 15:45:22
Um die 625Mhz zu schaffen hat man sicher auch den Coretakt bei der XT erhöht.

Ich nehme mal stark an, dass du die Corespannung meinst.
Natürlich muss man die auch erhöhen, nur verstehe ich nicht, auf was du hinaus willst.

Bei der 7800GT ist dafür ein Quad deaktiviert, und ebenfalls - wenn auch deutlich geringer - die Taktfrequenz (und vielleicht auch die Spannung) reduziert.

Coda
2005-10-06, 15:47:00
Ja Corespannung. Ich will darauf hinaus, dass eine erhöhung der Corespannung zu ziemlich viel mehr Leistungsverlust führt. Vor allem wenn dann auch noch Leckströme bei 90nm hinzukommen.

GDDR3 war eigentlich noch nie sonderlich heiß, 2V werden daran zwar vielleicht etwas ändern, aber dennoch nicht so viel.

Mumins
2005-10-06, 15:51:03
112Watt bei Last für die X1800XT ? :eek: :eek: :eek:

NV30 lässt grüßen. :cool:

Mich wundert es, daß der Kühler es überhaupt schafft diese Verlustleistung abzutransportieren. Wieviel davon gehen wohl auf den GDDR3 mit 2V drauf ?

Ich frage mich was Computerbase da gemessen hat?

Spasstiger
2005-10-06, 15:51:08
Wieviel davon gehen wohl auf den GDDR3 mit 2V drauf ?

Nach meiner Rechnung ca. 22 Watt. (siehe oben)

reunion
2005-10-06, 15:52:22
Daran, dass die X1800XT ungefähr auf dem Niveau einer GTX liegt? Das hätten sie mit 600Mhz wohl kaum geschafft.


Dazu wäre ein Test mit 600Mhz-Speicherspannung intressant.
Aber vermutlich hast du recht.


Mir ist bewusst, dass der RAM auch seinen Teil zu der Verlustleistung beiträgt, aber ich bin mir ziemlich sicher das die XT eine höhere Corespannung hat und deshalb so viel verbrät.

Natürlich spielt das auch mit rein.

Coda
2005-10-06, 15:55:47
Ich frage mich was Computerbase da gemessen hat?XBit hat nicht viel anders gemessen und die sind zuverlässig was das angeht.

Odal
2005-10-06, 15:57:00
Ich nehme mal stark an, dass du die Corespannung meinst.
Natürlich muss man die auch erhöhen, nur verstehe ich nicht, auf was du hinaus willst.


ich denk mal coda will genau wie ich darauf hinaus
das dort sicherlich die corespannung nicht zum spass erhöht ist.. und bei dem Strommehrhunger sicherlich etwas mehr erhöht ist.
Darauf das es die notlösung war um den hohen chiptakt zu erreichen. darauf das dieser notwendig ist um gleichzuziehen und die XL im fahrwasser mitzuschleppen. Das der chip so ziemlich am ende seiner Taktbarkeit steht (ausser man gibt noch mehr vgpu) und es eher ein "verspäteter schnellschuss" ist.

Mumins
2005-10-06, 15:59:45
XBit hat nicht viel anders gemessen und die sind zuverlässig was das angeht.

Wieso? Bei Computerbase wurde das gesamte Sys gemessen, da liegen die Systeme mit GTX und XT unter Last gleich auf.

reunion
2005-10-06, 16:00:50
ich denk mal coda will genau wie ich darauf hinaus
das dort sicherlich die corespannung nicht zum spass erhöht ist.. und bei dem Strommehrhunger sicherlich etwas mehr erhöht ist.
Darauf das es die notlösung war um den hohen chiptakt zu erreichen. darauf das dieser notwendig ist um gleichzuziehen und die XL im fahrwasser mitzuschleppen. Das der chip so ziemlich am ende seiner Taktbarkeit steht (ausser man gibt noch mehr vgpu) und es eher ein "verspäteter schnellschuss" ist.


Es ist normal, dass ein höher getakteter Chip auch mehr Corespannung beansprucht. R520 war von Anfang an für so hohe Taktraten ausgelegt.

reunion
2005-10-06, 16:10:52
Die dynamic-branching-Leistung scheint herausragend.

MadManniMan
2005-10-06, 16:16:13
zum glück entspricht das ja nicht der wahrheit. Im folgenen siehst du, wie es wirklich ist

[img]...[img]

Es geht doch nicht darum, was man praktisch erreichen kann, sondern wie gewisse Effekte bei gleichen Einstellungen aussehen.

Und wenn Du sagst, daß FX und NV4X bei 800*600 beide Matsch haben, dann schaust du selektiv - denn das Bild der FX ist nicht so matschig, wie das andere ... warum konstruierst Du immer so lange Szenarien, bis Dein Hoffen irgend real wird?

Odal
2005-10-06, 16:17:39
ich kann mir aber nicht vorstellen das ATI von anfang an karten geplant hat die mit "nur" 16 pipes mal so eben 110 Watt wegziehen... dazu is der unterschied zur XL einfach zu gross20, 30, 40% mehr stromaufnahme wegen mehr ram usw. ok aber doch nicht knapp doppelt soviel bei gleicher quadanzahl

Spasstiger
2005-10-06, 16:21:00
ich kann mir aber nicht vorstellen das ATI von anfang an karten geplant hat die mit "nur" 16 pipes mal so eben 110 Watt wegziehen... dazu is der unterschied zur XL einfach zu gross20, 30, 40% mehr stromaufnahme wegen mehr ram usw. ok aber doch nicht knapp doppelt soviel bei gleicher quadanzahl

ATI stand unter Zeitdruck und wollte jetzt wohl endlich das Produkt vorstellen. War auch allerhöchste Zeit, die meisten High-Endler haben ja schon auf ne GeForce 7 aufgerüstet.
Wahrscheinlich haben sie den Chip- und den Speichertakt nicht anders stabil bekommen als mit hohen Spannungen. Und das führt eben schnell zu einer stark erhöhten Leistungsaufnahme. Und mit niedrigeren Taktfrequenzen hätte man nicht erfolgreich gegen die 7800 GTX antreten können (siehe X1800 XL).

reunion
2005-10-06, 16:29:06
ich kann mir aber nicht vorstellen das ATI von anfang an karten geplant hat die mit "nur" 16 pipes mal so eben 110 Watt wegziehen... dazu is der unterschied zur XL einfach zu gross20, 30, 40% mehr stromaufnahme wegen mehr ram usw. ok aber doch nicht knapp doppelt soviel bei gleicher quadanzahl

Was haben die Pipelines mit der Leistungsaufnahme zu tun?
R520 hat mehr Transistoren als G70, das zählt, die Pipelineanzahl ist irrelevant. Dass die XT-Version so viel mehr verbraucht, als die XL, finde ich allerdings auch reichlich seltsam.

Dr.Dirt
2005-10-06, 16:47:17
Wieso hat die X1800 XL in den beiden Diagrammen ein unterschedliches Ergebnis (59,2W vs. 49,4W)? :confused:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Weiß da niemand was dazu?

Mr. Lolman
2005-10-06, 16:50:48
Weiß da niemand was dazu?

x1800xl vs x800xl

Coda
2005-10-06, 16:51:14
Was haben die Pipelines mit der Leistungsaufnahme zu tun?
R520 hat mehr Transistoren als G70, das zählt, die Pipelineanzahl ist irrelevant. Dass die XT-Version so viel mehr verbraucht, als die XL, finde ich allerdings auch reichlich seltsam.Ich nicht, Corespannung kann einiges ausmachen.

MSABK
2005-10-06, 17:03:26
Warum wurden die Karten bei den Reviews nicht übertacktet?

Mich würde mal interesieren was der mit Lukü und wakü mitmacht.

deekey777
2005-10-06, 17:15:48
Warum wurden die Karten bei den Reviews nicht übertaktet?

Mich würde mal interesieren was der mit Lukü und wakü mitmacht.

Warum? Weil nicht sehr einfach bzw. unmöglich war; einfache Übertaktungsversuche sind mit der neuen Generation zZ unmöglich, da muß man sich mehr anstrengen.

Odal
2005-10-06, 17:29:58
Was haben die Pipelines mit der Leistungsaufnahme zu tun?
R520 hat mehr Transistoren als G70, das zählt, die Pipelineanzahl ist irrelevant..

das ist soweit korrekt aber bedenke doch mal wenn das teil jetzt statt 16 pipes 20 haben würde, dann wär der stromhunger ja noch höher...

R520 braucht mehr Transistoren als G70 trotz weniger quads bei ähnlichem featureset

d2kx
2005-10-06, 17:31:18
Das mit dem OC würde mich auch interessieren. Der eine Typ auf Ibiza hat seine Karte schon bei fast 1GHz Core und fast 2GHz Memtakt laufen, bei 12*** 3DMark05's.

Odal
2005-10-06, 17:40:14
ich glaube hier gibts leider erst brauchbare ergebnisse (also normale kühlung) wenn die dinger wirklich in grosser menge verfügbar sind

da angemerkt wurde das es evtl. noch eine neue version geben wird ist das dann auch noch nicht sofort sicher
imho siehts aber nicht nach allzu grosser übertaktbarkeit aus...

seahawk
2005-10-06, 17:42:06
Warum sollte das der Fall sein?

Ich vermute, dass die neueren Chips besser auf etwas mehr Spannung reaieren, ohne an die Grenzen zu geraten. Aber wie schon gesagt, kann die SPannugn auch gleichbleiben.

Dr.Dirt
2005-10-06, 17:54:10
x1800xl vs x800xl
ups :redface:

Da war ich wohl blind.

reunion
2005-10-06, 17:55:33
das ist soweit korrekt aber bedenke doch mal wenn das teil jetzt statt 16 pipes 20 haben würde, dann wär der stromhunger ja noch höher...


Hätte G70 32 statt 24 Pipelines, wäre der stromhunger auch höher. :|
Und vorallem: Würde G70 so hoch takten wie R520,...



R520 braucht mehr Transistoren als G70 trotz weniger quads bei ähnlichem featureset


Die Die-Size ist mit dem letzten Tapeout deutlich gestiegen, IMHO hat man da noch jedemenge Massetransistoren eingefügt. Trotzdem ist R520 was die Fläche betrifft ein Winzling.

seahawk
2005-10-06, 17:55:34
Acj ja ich bae jetzt nochmal den Test in der akutellen PCGH nachvollzogen.

Man nehme jeweils eine X800XL mit 256MB eine eine mit 512MB. Dann takte man Speicher und GPU exakt gleich.

Test in 1600x1200 4xAA 8xAF

In Doom3 ist der Unterschied gegen 0.

In Fear MP Beta : gewinnt die 512 MB ca. 18%

In Far Cry Volcano (PCGH Version Bench) : ca. 16%

Der Test deckt sich ziemlich genau mit den Ergbnissen der PCGH.

3d
2005-10-06, 17:58:26
gibts eigentlich irgendwo spiele screenshots wo man ein unterschied sieht zwischen normal AF und HQ AF?

Spasstiger
2005-10-06, 17:59:21
Scheinen sich doch ganz gut übertakten zu lassen:

http://www.akiba-pc.com/r520/12164.gif

864 MHz Core, 990 MHz Speicher.
Gekühlt vermutlich mit "LN2".

seahawk
2005-10-06, 18:02:11
Scheinen sich doch ganz gut übertakten zu lassen:


864 MHz Core, 990 MHz Speicher.
Gekühlt vermutlich mit "LN2".

Hatte nicht jemand mal nene G70 unter diesen Bedingungen auch auf über 800Mhz ?

deekey777
2005-10-06, 18:02:14
Scheinen sich doch ganz gut übertakten zu lassen:

Bildchen (http://www.akiba-pc.com/r520/12164.gif)

864 MHz Core, 990 MHz Speicher.
Gekühlt vermutlich mit "LN2".

Gut übertaktbar? Ja (Naja).
Einfach übertaktbar? Gar nicht. Irgendwo wurde berichtet, daß sich der Übertakter ziemlich anstrengen mußte, um überhaupt übertakten zu können.

Horimoto
2005-10-06, 18:02:44
Welches proggi wurde da benutzt um se zu übertakten?
Laut Wolfgang von cb gibt es noch keines das die neuen Karten unterstützt!
Aber mit dem ocen is es wie ich sagte, es geht doch ganz gut :)

Mumins
2005-10-06, 18:04:07
Welches proggi wurde da benutzt um se zu übertakten?
Laut Wolfgang von cb gibt es noch keines das die neuen Karten unterstützt!
Aber mit dem ocen is es wie ich sagte, es geht doch ganz gut :)

Den Karten liegt irgedein Proggi von ATI bei.

Odal
2005-10-06, 18:06:03
Hätte G70 32 statt 24 Pipelines, wäre der stromhunger auch höher. :|
Und vorallem: Würde G70 so hoch takten wie R520,...


ja aber die leistung (performance) is doch in etwa gleich

du willst mir doch wohl nicht erzählen das ein R520 mit 20 pipes dafür aber 1/4 weniger takt (also 515-520) weniger oder max. gleichviel saft ziehen würde wie die jetzige x1800xt?

Avalox
2005-10-06, 18:07:13
@Mumins

Ja, das habe ich auch in einem Review gelesen und dass die Karte dann mit der marktfähigen Revision das übertakten in der Standardkonfiguration wohl bis 700MHz erlaubt und dabei deutlich kühler bleiben soll.

Coda
2005-10-06, 18:11:52
Hätte G70 32 statt 24 Pipelines, wäre der stromhunger auch höher. :|
Und vorallem: Würde G70 so hoch takten wie R520,...Bei R420 vs. NV4x war deine Argumentation doch auch, dass trotz unterschiedlicher Taktfrequenz ungefähr gleich viel Leistung und Saft verbraten wird und genau das zählt.

Und jetzt ist es auf einmal egal, was R520 verbrät oder was? Lasst die ganze Verbrauch-Diskussion doch einfach bleiben, das ist eh kein Kaufargument imho.

Odal
2005-10-06, 18:14:23
also mir gehts dabei nicht ums kaufargument "verbrauch" sondern eher darum das es ein indiz dafür zu sein scheint das der x1800xt ganz schön ausgequetscht werden musste um mitzuhalten.

tombman
2005-10-06, 18:17:23
Man sieht aber auch sehr schon, dass die hohe Leistungsaufnahme nicht am Core selbst liegt. Vorallem der doppelt so große, hochgetaktete Speicher scheint die Leistungsaufnahme hoch zu treiben.

Stimmt, habe ich früher schon bei meinen Energy Monitor Tests gemerkt. Wenn der Speicher der Graka am meisten belastet wird, kostet es am meisten Strom.

Spasstiger
2005-10-06, 18:18:28
Lasst die ganze Verbrauch-Diskussion doch einfach bleiben, das ist eh kein Kaufargument imho.

Bei einem Silent-PC ist das durchaus ein Kaufargument, da die zusätzliche Hitze ja irgendwie aus dem Gehäuse abgeführt werden muss. Und nicht jeder will sich deshalb eine Wakü leisten.

reunion
2005-10-06, 18:19:41
Bei R420 vs. NV4x war deine Argumentation doch auch, dass trotz unterschiedlicher Taktfrequenz ungefähr gleich viel Leistung und Saft verbraten wird und genau das zählt.

Und jetzt ist es auf einmal egal, was R520 verbrät oder was? Lasst die ganze Verbrauch-Diskussion doch einfach bleiben, das ist eh kein Kaufargument imho.

Habe ich irgendwo behauptet, dass es egal ist?

Siehe:

Der Takt ist heute noch genauso egal, was hinter rauskommt, zählt.
Ich habe nur versucht zu erläutern, warum R520 so viel Strom verbraucht, und das geht IMHO auch klar aus dem Text hervor. Für mich unverständlich, weshalb du deshalb solchen Wind machst.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3545519#post3545519

Coda
2005-10-06, 18:21:18
Der Unterschied ist, dass ich sehr wohl glaube dass es am Chip liegt und dieser in Regionen läuft die man unter normalen Umständen so nicht verkaufen würde.

Nero2
2005-10-06, 18:21:34
Was ist jetzt mit 3dC müssen Sie die Karte im Laden kaufen?
Schreibt doch einfach mal ein paar Tests wie Computerbase oder THG dann werdet ihr auch mit Karten vor dem Launch versorgt.

Avalox
2005-10-06, 18:22:16
Bei einem Silent-PC ist das durchaus ein Kaufargument, da die zusätzliche Hitze ja irgendwie aus dem Gehäuse abgeführt werden muss. Und nicht jeder will sich deshalb eine Wakü leisten.

Silent-PC und extreme Leistung passt eben nicht zusammen. Auch im Jahr 2005 nicht.

Ich denke, man sollte abwarten was und wie in den Laden kommt.

Coda
2005-10-06, 18:23:20
Schreibt doch einfach mal ein paar Tests wie Computerbase oder THG dann werdet ihr auch mit Karten vor dem Launch versorgt.Das meinst du nicht ernst oder? Augen zu und jeden Scheiß vom Marketing-Paper abschreiben? - Nein danke!

reunion
2005-10-06, 18:23:21
ja aber die leistung (performance) is doch in etwa gleich


Ja, zumindest die X1800XT hat eine schlechtere Performance/Watt.


du willst mir doch wohl nicht erzählen das ein R520 mit 20 pipes dafür aber 1/4 weniger takt (also 515-520) weniger oder max. gleichviel saft ziehen würde wie die jetzige x1800xt?

Das halte ich für durchaus realistisch.

Ronny145
2005-10-06, 18:27:29
Silent-PC und extreme Leistung passt eben nicht zusammen. Auch im Jahr 2005 nicht.

Ich denke, man sollte abwarten was und wie in den Laden kommt.


Doch, das geht sehr gut. Wieso sollte das nicht möglich sein? Kommt drauf an was man unter extremer Leistung versteht.

Avalox
2005-10-06, 18:31:59
"Extrem" kommt nun wahrlich nicht von mir.

Spasstiger
2005-10-06, 18:32:37
Silent-PC und extreme Leistung passt eben nicht zusammen. Auch im Jahr 2005 nicht.

Das geht problemlos. Als CPU einen Athlon 64 Venice, dazu nen starken CPU-Kühler mit leisem Lüfter, z.b. Thermalright XP-120. Als Grafikkarte z.b. die recht genügsame 7800 GT, der Lüfter sollte sich ja auch softwareseitig regeln lassen.
Dazu noch einen leisen 120mm Gehäuselüfter und einen leises Netzteil wie das 500W von Elanvital.
Schon hat man nen PC mit sehr geiler Leistung, der trotzdem kaum hörbar ist.

Ronny145
2005-10-06, 18:36:20
Das geht problemlos. Als CPU einen Athlon 64 Venice, dazu nen starken CPU-Kühler mit leisem Lüfter, z.b. Thermalright XP-120. Als Grafikkarte z.b. die recht genügsame 7800 GT, der Lüfter sollte sich ja auch softwareseitig regeln lassen.
Dazu noch einen leisen 120mm Gehäuselüfter und einen leises Netzteil wie das 500W von Elanvital.
Schon hat man nen PC mit sehr geiler Leistung, der trotzdem kaum hörbar ist.


So ähnlich wie bei mir.

Seasonic NT @700rpm
passives Mainboard
Gehäuselüfter @1000rpm
A64: @1000rpm Kühler
6800 GT: Silencer @18% 2d Lüfterdrehzahl. Die 7800 GT verbraucht nicht mehr oder sogar etwas weniger. Das lässt sich alles realisieren.

Avalox
2005-10-06, 18:42:24
Das geht problemlos. Als CPU einen Athlon 64 Venice, dazu nen starken CPU-Kühler mit leisem Lüfter, z.b. Thermalright XP-120. Als Grafikkarte z.b. die recht genügsame 7800 GT, der Lüfter sollte sich ja auch softwareseitig regeln lassen.
.

Ein Software geregelter Lüfter und Silent-PC beisst sich ja per Definition.

Entweder ist er leise, dann brauch ich nie wieder regeln, oder er ist nicht leise, dann macht regeln durchaus Sinn.

Venice-Kern ist ja nicht mal was für Enthusiasten. Ein simpler Mainstream Prozessor für die Masse.

Frag mal NVidia für welche Zielgruppe der 7800GT bestimmt ist und für welche der 7800GTX.

Horimoto
2005-10-06, 18:44:50
http://www.vr-zone.com/?i=2808&s=1

fehler?
Oct. 05 ??????????

der Kühler sieht transparent aber verdammt cool aus finde ich

Demirug
2005-10-06, 18:47:51
Das halte ich für durchaus realistisch.

Ich nicht. Das wiederspricht einer grundsätzlichen Regel bei CMOS.

Oblivion
2005-10-06, 18:55:12
Finde den 7800 GTX Screen einen Tick besser. Allerdings kostet 8xS schon genug Leistung (in HL2 spielt das natürlich keine Rolle, ist eh CPU-limitiert), da dürfte ATI die deutlich performantere Lösung bieten. Gerade in Blick auf die Zukunft.

Finde auch dass da nV besser aussschaut - aber naja man müsste das Ganze mal in Bewegung sehen

btw: hier die Bilder (Post is von seite 2, ich fang grad an alles zu lesen ;) )

http://techreport.com/reviews/2005q...0/index.x?pg=15 (http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=15)

Quasar
2005-10-06, 18:55:37
Das mit dem OC würde mich auch interessieren. Der eine Typ auf Ibiza hat seine Karte schon bei fast 1GHz Core und fast 2GHz Memtakt laufen, bei 12*** 3DMark05's.
Die sind aber nicht auf Ibiza erreicht worden. Das war ein in-House Test bei ATi, soweit ich weiß. Daher stammen auch die 12k 3DMarks, wiewohl aber nicht mit 1 GHz Core-Takt, sondern irgendwas bei 890, IIRC.

Quasar
2005-10-06, 18:56:06
ups :redface:

Da war ich wohl blind.
Nein, vorhin stand noch X1800XL da. Die haben es nachträglich geändert. :)

-error-
2005-10-06, 18:58:38
Was ist jetzt mit der X1800 LE, wann soll die kommen?

sulak
2005-10-06, 18:59:26
Finde das XBit Review (rein die Benchmarks betrachtet) sehr gut, vorallem das hier: http://www.xbitlabs.com/articles/video/display/radeon-x1000_19.html
Genau das ist es was ich sehen wollte, was kostet mich HQAF ;) Gepaart mit dem besseren TSAA von NV bringt das die Bildqualität wieder auf Niveau.

Also hoffe ich auf die nächste Generation oder einen Wundertreiber von NV der mir die Winkel ausm AF nimmt ^^

Btw, Screenies aus WoW wären mal fein, um zu sehen was HQAF bei flimmrigen Content bewirken kann, aber das wird wohl warten müssen bis jmd hier eine R520 abbekommt ^^

Oblivion
2005-10-06, 18:59:57
Ich wollte schon den Sekt kalt stellen.

Zu der X1600XT: Sie muß eigentlich nur schneller sein als die 6600GT.

Hm?

nV wird (so denke ich) doch in einiger Zeit mit den Preisen für die 6800er Serie runter gehn und dann schauts wieder schlecht aus für ATI

dargo
2005-10-06, 19:00:53
Wieso hat die X1800 XL in den beiden Diagrammen ein unterschedliches Ergebnis (59,2W vs. 49,4W)? :confused:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
Die 49,4W gehören zu der "alten" X800XL. :wink:

Oblivion
2005-10-06, 19:05:03
Ein Gedanke mal von mir:

kanns sein dass ATI um eine "Refresh-Grafikchip-Generation" zurückliegt? es kommt mir langsam so vor ....

Oblivion
2005-10-06, 19:06:10
naja albert,
quake4 wird sicher NICHT der erfolgreichste Onlineshooter, aus 2 Gründen:
Es ist KEIN ARENA, wie Q3, was in der tat der erfolgreichste ist.
Q4 wird ein Solo Part mit MP Anhängsel, was aber besser wird als D3.
Bis sich Q4 durchstzetn kann, ist UT2k7 draussen, und dann, das kann ich jetzt schon sagen, interessiert KEIN SCHWEIN Q4........
Ich würde eher auf benches von FEAR, BF2 und AoE3 aufpassen.

Anmerkung:

CS is immer noch der erfolgreichste und beliebteste

Oblivion
2005-10-06, 19:08:01
Video der neuen ATI Techdemo ToyShop.

http://www2.ati.com/multimedia/radeonx1k/ATI-Demo-ToyShop-v1.1.zip

Funkt bei mir net :(

Oblivion
2005-10-06, 19:20:46
eine Frage an die Gurus:

dadurch dass ja ATI anscheined nicht SM3 voll unterstützt bzw. anders stellt sich mir die Frage: wenn ein Spiel jetzt auf das SM3 von ATI programmiert wurde läuft es dann auf nV Karten genauso gut oder schlechter? bzw. wie is es umgekehrt

wenn dem so wäre dann wird in Zukunft dass "runs great on nV/ATI" Logo mehr bedeutung gewinnen was mich ganz und gar net freuen würde :mad:

Spasstiger
2005-10-06, 19:36:41
Ein Software geregelter Lüfter und Silent-PC beisst sich ja per Definition.

Entweder ist er leise, dann brauch ich nie wieder regeln, oder er ist nicht leise, dann macht regeln durchaus Sinn.

Venice-Kern ist ja nicht mal was für Enthusiasten. Ein simpler Mainstream Prozessor für die Masse.

Frag mal NVidia für welche Zielgruppe der 7800GT bestimmt ist und für welche der 7800GTX.

Naja, dann haben wir wohl unterschiedliche Definitionen von High-End. In meinen Augen ist ein Athlon 64 3500+ absolut ausreichend.
Und wenn ein PC durch das Regeln eines Lüfters leise wird, ist es definitiv ein Silent-PC. Muss ja ganz nicht lautlos zugehen (gut, wenn man auf die korrekte Übersetzung besteht, sollte man das Wort Quiet-PC verwenden), nur so leise, dass einem nicht mehr auffällt, dass der Rechner läuft.

Faint86
2005-10-06, 19:42:52
Also irgendwie kommt mir die ganze x1x00 Reihe wie ein Schnellschuss vor...eig is nur die x1800xt so richtig schnell. Die x1800xl is als langsamer als ne x850xt.
Ich hab mir mehr erwartet, vorallem da ich selber ne ATI habe. Und von der x1600xt bin ich am meisten enttäuscht, da selbst als ne 66GT schneller is un des is erbärmlich finde ich. Vllt hätten sie den Core net so auf Taktraten designen sollen...

Ronny145
2005-10-06, 19:54:15
Ein Software geregelter Lüfter und Silent-PC beisst sich ja per Definition.

Entweder ist er leise, dann brauch ich nie wieder regeln, oder er ist nicht leise, dann macht regeln durchaus Sinn.

Venice-Kern ist ja nicht mal was für Enthusiasten. Ein simpler Mainstream Prozessor für die Masse.

Frag mal NVidia für welche Zielgruppe der 7800GT bestimmt ist und für welche der 7800GTX.


Das ist auch kein Problem. Dann nimmt man das Graka Bios und stellt sich mit nibitor die gewünschte Drehzahl für 2d und 3d ein und flasht das. Das hatte ich auch gemacht, da es für WinXP64 noch keine Software zum regeln gab. Dann braucht man auch kein Tool.

reunion
2005-10-06, 19:55:32
Ich nicht. Das wiederspricht einer grundsätzlichen Regel bei CMOS.


Welche Regel?

Avalox
2005-10-06, 20:02:28
Naja, dann haben wir wohl unterschiedliche Definitionen von High-End. In meinen Augen ist ein Athlon 64 .

Das war ja gar nicht meine Definition. Es ist die Definition der Hersteller.

In den letzten Jahren ist doch eine völlig neue Produktlinie entstanden.

Es sind die Extreme Editions, die FXse, die GTXse, die XTse, die Ultrase etc.
Allesamt Hardware, welche nur einen Sinn hat. Nämlich in Benchmarks die obersten Plätze einzunehmen. Es ist Hardware, welche vom Hersteller mit Übertaktungstools und abgeschalteten Multiplikatorsprerren ausgeliefert werden.

Zu dieser gehört auch ATIs neue Spitzenkarte.

Silent ist dabei egal, Stromsparen auch. Diese Käufergruppen werden mit eigenen Produktenlinien beliefert. Alle Käufer zusammen sollen aber die Leistung dieser Enthusiasten Hardware, auf die Mainstream Produkte reflektieren.

Und mit den neuen Produkten von ATi hat sich die Welt wieder mal einen Schritt weiter gedreht. Am Ende der Benchmarklisten fallen nun Karten raus und die Karten des Mittelfelds rutschen nun weiter ans Ende.

-error-
2005-10-06, 20:02:43
Die etwas kleinere, 499 Dollar teure X1800 XL verfügt über einen ebenso großen Video-RAM, die Taktraten werden aber auf 625 MHz (1250 MHz DDR) gesenkt. Der Chiptakt wurde ebenfalls um 50 MHz auf 550 MHz reduziert, ansonsten wird es jedoch keine Änderungen gegenüber dem größeren Bruder geben. Die zweitkleinste Version namens X1800 Pro besitzt nur noch einen 256 MB großen Speicher, der mit 500 MHz (1000 MHz DDR) getaktet sein wird. Jene 449 US Dollar teure Karte verfügt ebenfalls über 16 Pixel-Pipelines, allerdings takten diese „nur“ noch mit 500 MHz. Die kleinste Version namens X1800 LE soll laut den Kollegen noch mit 349 Dollar zu Buche schlagen und voraussichtlich nur noch über 12 Pixel-Pipelines verfügen, die mit 450 MHz getaktet sein werden. Der Speichertakt soll 450 MHz (900 MHz DDR) betragen – somit hätten sich ältere Gerüchte einer LE-Version bestätigt.

Aja, aha, na also alle Karten die unter der X1800XL liegen, sind aus Sicht der Geschwindigkeit wirklich uninteressant.

Demirug
2005-10-06, 20:14:45
Welche Regel?

Das sich bei CMOS die Verlustleistung niemals linear zu Takt verhält. Sie steigt viel mehr überproportional an.

BTW: Ich bin ab jetzt so frech und behaupte der R520 hat einen unsymetrischen (T:A = 1:1) 8 4xPipe Pixelprozessor. Der G70 ist nach dieser Beschreibung ein symetrischer 6*4xPipe Pixelprozessor.

Wer will kann also einen R520 bei starker Vereinfachung als 32 Pipe Chip bezeichen. ;)

Horimoto
2005-10-06, 20:16:46
Das ist interessant.......... aber sehr frech ^^

Coda
2005-10-06, 20:17:52
Das ist interessant.......... aber sehr frech ^^Sorry, aber den Kommentar hättest du dir auch sparen können, nicht?

BerndJazz
2005-10-06, 20:19:01
ATI lässt weiter Zäune verschwinden..


6XAAA X1800XT
http://img386.imageshack.us/img386/8494/hl26xax18009zh.th.jpg (http://img386.imageshack.us/my.php?image=hl26xax18009zh.jpg)

FSAA 4x + TSS 7800GTX
http://img382.imageshack.us/img382/2963/hl24xss78006zz.th.jpg (http://img382.imageshack.us/my.php?image=hl24xss78006zz.jpg)

Ist zwar schon einige Seiten zurück, aber dazu ist mir folgendes aufgefallen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3549537#post3549537

MfG

BerndJazz

reunion
2005-10-06, 20:22:24
Das sich bei CMOS die Verlustleistung niemals linear zu Takt verhält. Sie steigt viel mehr überproportional an.

:confused:
Also jetzt hast du mich komplett verwirrt.
Genau deshalb hab ich ja als "realistisch" deklariert, dass ein R520 mit mehr Pipes, und weniger Takt auch weniger Verlustleistung aufweisen würde. Oder steh' ich jetzt total auf der Leitung?

BTW: Ich bin ab jetzt so frech und behaupte der R520 hat einen unsymetrischen (T:A = 1:1) 8 4xPipe Pixelprozessor. Der G70 ist nach dieser Beschreibung ein symetrischer 6*4xPipe Pixelprozessor.

Wer will kann also einen R520 bei starker Vereinfachung als 32 Pipe Chip bezeichen. ;)

Hast du auch Lust zu erklären, warum du zu diesem Schluss kommst?

Coda
2005-10-06, 20:24:29
du willst mir doch wohl nicht erzählen das ein R520 mit 20 pipes dafür aber 1/4 weniger takt (also 515-520) weniger oder max. gleichviel saft ziehen würde wie die jetzige x1800xt?Darum ging's ursprünglich.

Mit der breite skaliert die Leistungsaufnahme relativ linear, aber nicht mit dem Takt, deshalb passt das nicht.

reunion
2005-10-06, 20:27:11
Alles klar, habe Odals Beitrag falsch verstanden.

Odal
2005-10-06, 20:29:30
blubb*

reunion
2005-10-06, 20:30:14
skaliert nicht die leistungsaufnahme mit dem takt relativ linear?


Eben nicht, sie steigt überproportional stark mit dem Takt.

Odal
2005-10-06, 20:32:18
sorry ich habe eben meinen eigenen gedankengang durcheinandergebracht..ich dachte gerade an das verhältnis zw. spannung und takt. da skaliert sie mit dem takt deutlich weniger als mit der spannung (dort quadratisch)

Dr.Dirt
2005-10-06, 20:35:00
Nein, vorhin stand noch X1800XL da. Die haben es nachträglich geändert. :)

Puh, ich dachte schon, ich brauch ne neue Brille. :wink:

Demirug
2005-10-06, 20:38:42
:confused:
Also jetzt hast du mich komplett verwirrt.
Genau deshalb hab ich ja als "realistisch" deklariert, dass ein R520 mit mehr Pipes, und weniger Takt auch weniger Verlustleistung aufweisen würde. Oder steh' ich jetzt total auf der Leitung?

Scheinbar haben wir dann aneinder vorbei geredet.

Zuerst wird die Anzahl der Pipes erhöht. Danach wird der Takt dann soweit abgesenkt das die Rechenleistung gleich bleibt. Ich hatte dich dann so verstanden das die Verleustleistung gleich bleibt. Das war aber wohl ein Missverständniss.

Hast du auch Lust zu erklären, warum du zu diesem Schluss kommst?

Ich Ärger mich gerade mit den tollen Marketing Bezeichnungen von ATI rum. Ein Ring Bus der keiner ist. Eine völlig irrelevante Anzahl von Gesamtthreads usw. Da im Vorfeld ja immer wieder was von 32 Pipes zu höhren war habe ich mir das Teil eben hinsichtlich dieser Sache angeschaut un habe heraus gefunden wie man auf diese Zahl kommt. Wenn man will kann man die 16 ALU Pipes und die 16 TMU Pipes zusammenzählen weil sie ja nebeneinader und nicht in Reihe liegen.

horn 12
2005-10-06, 20:41:48
welches netzteil und wieviel ampere auf der 12 v schiene braucht man den für ne X1800 XL VENICE 3000+ 2 Gehäuselufter , 2 dvd brenner , 2 harddisk , 1 floppy . asus A8V DELUCE wifi

reicht ein delta 350 Watt netzteil aus!
ist eine 9800 PRO lauter als die aktuelle X1800 XL
und welche der beiden Karten braucht wieviel strom ?

wie heiss wird denn eine 9800 PRO ca. so ungefähr ?
und ne x1800 xl ?

Tomcat70
2005-10-06, 20:43:44
Die x1800xl is als langsamer als ne x850xt.

also ich sehe die x1800xl meist vor der x850xt, selten gleichauf.
featuremässig ist die x1800xl soundso weit vor der x850xt.

wo soll sie denn langsamer sein?

Horimoto
2005-10-06, 22:05:37
http://www.computerbase.de/forum/attachment.php?attachmentid=35467&d=1128628362
nettes .gif, da siht man den VORTEIL der X1k Serie

deekey777
2005-10-06, 22:08:50
http://www.computerbase.de/forum/attachment.php?attachmentid=35467&d=1128628362
nettes .gif, da sieht man den VORTEIL der X1k Serie

http://www.computerbase.de/forum/attachment.php?attachmentid=35467
Dein Link ist zu lang. :)

Coda
2005-10-06, 22:11:25
Ich seh bei beiden Links gar nichts :|

Horimoto
2005-10-06, 22:12:13
Is es nur bei mir so, oder funzt dein Link net, deekey?
meiner geht

reunion
2005-10-06, 22:13:04
Ich seh bei beiden Links gar nichts :|


Dito.

Horimoto
2005-10-06, 22:13:34
http://www.computerbase.de/forum/showpost.php?p=1545824&postcount=339
so das müsste gehn, einfach auf attachment
Das sind die HOPC Bilder übereinader gelegt, das sieht echt toll aus was die XT hier macht........man sieht es ectrem deutlich

deekey777
2005-10-06, 22:13:48
Ich seh bei beiden Links gar nichts :|
http://img91.imageshack.us/img91/6589/7800x1800afcomp4om.gif

Jetzt?

reunion
2005-10-06, 22:14:32
Ich Ärger mich gerade mit den tollen Marketing Bezeichnungen von ATI rum. Ein Ring Bus der keiner ist. Eine völlig irrelevante Anzahl von Gesamtthreads usw.


Ein Ringbus, der keiner ist?
Eine völlig irrelevante Anzahl von Gesamtthreads?
usw.?

reunion
2005-10-06, 22:19:52
http://www.computerbase.de/forum/showpost.php?p=1545824&postcount=339
so das müsste gehn, einfach auf attachment
Das sind die HOPC Bilder übereinader gelegt, das sieht echt toll aus was die XT hier macht........man sieht es ectrem deutlich

Jap, das ist eben der Vorteil eines weitestgehend winkelunabhängigem AFs, alle Texturen werden gleich stark gefiltert. Bei nV bekommt die Wand höchstwarscheindlich nur 2x AF ab.

Horimoto
2005-10-06, 22:28:55
Und erhlich gesagt will ich in der Zukunft auf so was nciht verzichten. Entweder nVidia zieht nach oder............
Aber nVidia kann es machen, die Frage ist, wie es performt.

Coda
2005-10-06, 22:30:29
Jap, das ist eben der Vorteil eines weitestgehend winkelunabhängigem AFs, alle Texturen werden gleich stark gefiltert. Bei nV bekommt die Wand höchstwarscheindlich nur 2x AF ab.Bei NV4x+ wohlgemerkt. Ich glaube die Transistorspar-Theorie nicht. Selbst in der GeForce 3 war dafür genügend Platz vorhanden.

Aber das ist ein anderes Thema.

Demirug
2005-10-06, 22:32:23
Ein Ringbus, der keiner ist?
Eine völlig irrelevante Anzahl von Gesamtthreads?
usw.?

Ich nehme gerade Marketinggeblubber aus den Unterlagen für die PCGH etwas auseinader. Ja, Idioten wie ich arbeiten auch noch Nachts.

Dabei stolbert man dann zwangläufig über solche Sachen. Es gibt schon einen Ring Bus dieser verbindet allerdings nur die 4 Sub Memorycontroller die wiederum selbst Crossbar Controller für die zugeordneten Funktionseinheiten sind. Das ganze gillt allerdings nur für Read Requests. Alle Write Requests laufen weiterhin vollständig über den zentrallen Memorycontroller welcher diese dann an den Zuständigen Subkontroller weitergibt. Das ist genauso wie vorher auch. Auch was das eigentliche anfordern des Speichers angeht läuft das immer noch über den zentrallen Kern der dies dann an den richtigen Speicherkontroller weitergibt. Bei einem echten Ringbus hätten die Sub Kontroller keine Crossbar und die Funktionseinheiten würden mit an dem Ringbus hängen. Desweiteren würden alle Anforderungen sowie die Schreibaufträge auch über den Ringbus laufen. Cell hat zum Beispiel einen echten Ringbus.

Das mit den Threads ist komplizierter. Vorerst nur mal das die Zahlen über die Gesamtanzahl der Threads die ein Chip hat völlig egal ist wenn es um die Performances geht.

betasilie
2005-10-06, 22:33:18
http://img91.imageshack.us/img91/6589/7800x1800afcomp4om.gif

Jetzt?
Krasses Beispiel. :O

Coda
2005-10-06, 22:34:28
Demirug, was nützt dann dieser Ringbus noch?

reunion
2005-10-06, 22:38:50
Bei NV4x+ wohlgemerkt. Ich glaube die Transistorspar-Theorie nicht. Selbst in der GeForce 3 war dafür genügend Platz vorhanden.


Wo bleibt dann das winkelunabhängige AF?
Wenn die Chips es können, sollte es ein Klacks sein, dies freizuschalten. IMHO wäre da längst was durchgesickert.
Die Transistorspar-Theorie ist sowieso Blödsinn, ich glaube da eher an die Performance-Gewinn-Theorie. ;)

//Edit: Danke für die Erläuterung, Demirug.

Demirug
2005-10-06, 22:43:46
Demirug, was nützt dann dieser Ringbus noch?

Wenn man es richtig macht kann man die Signalwege verkürzen. Kürzere Signalwege erlauben einen kleineren DIE und reduzieren die Latenzen.

Allerdings wäre ein Kaskadierter Stern IMHO besser gewesen. In diesem Zusammenhang empfehle ich Lektüre die sich mit den Signalwegs Problemen bei den ersten Supercomputern (z.B die ersten Crays) befasst. Also als man noch von einem Schrank zu nächsten mit richtigen Signaldrähten musste. Im Prinzip haben wir heute die gleichen Probeleme wieder eben nur in einem kleineren Maßstab.

Odal
2005-10-06, 22:49:36
naja wenn es denn wirklich machbar wäre könnte die Performance Gewinn Theorie auch der grund sein das NV es noch nicht freigeschaltet hat... um in Benches mit dem R520 erstmal besser dazustehn und mal zu schaun was so kommt...

is bei der 6xxxer (also nicht 7xxx) serie sicher das es kein winkelunabhängiges AF gibt?

reunion
2005-10-06, 22:52:29
naja wenn es denn wirklich machbar wäre könnte die Performance Gewinn Theorie auch der grund sein das NV es noch nicht freigeschaltet hat... um in Benches mit dem R520 erstmal besser dazustehn und mal zu schaun was so kommt...



Ergibt keinen Sinn, da R520 auch winkelabhängiges AF ala NV4x kann, und so bei den Reviews kein Performancevorteil besteht.

Odal
2005-10-06, 23:01:18
ja aber ich denke mal viele testen mit der maximal möglichen BQ und das bedeutet anständiges AF beim R520

A.Wesker
2005-10-06, 23:48:05
Krasses Beispiel. :O
wohl eher ein rechtfertigungsbeispiel, da es nur in niedrigen auflösungen so ausschaut.

Spasstiger
2005-10-06, 23:50:24
wohl eher ein rechtfertigungsbeispiel, da es nur in niedrigen auflösungen so ausschaut.

Auch auf deinem Screen in hoher Auflösung war ganz klar die Winkelabhänigkeit zu erkennen und auf einem großen Bildschirm fällt das empfindlichen Augen auch störend auf. Zumindest wenn man das AF auch mal ohne Winkelabhängigkeit gesehen hat ;).
Deshalb winkelunabhängiges AF auch für Nvidia. :)
Und ich gehe davon aus, dass Nvidia jetzt auch auf diesen Schritt von ATI reagieren wird.

A.Wesker
2005-10-06, 23:52:58
Auch auf deinem Screen in hoher Auflösung war ganz klar die Winkelabhänigkeit zu erkennen und auf einem großen Bildschirm fällt das empfindlichen Augen auch störend auf. Zumindest wenn man das AF auch mal ohne Winkelabhängigkeit gesehen hat ;).
Deshalb winkelunabhängiges AF auch für Nvidia. :)
Und ich gehe davon aus, dass Nvidia jetzt auch auf diesen Schritt von ATI reagieren wird.
ich begrüße winkelunabhängies AF natürlich auch, aber so extrem wie es propagiert wird ist es beileibe nicht.

betasilie
2005-10-07, 00:00:16
wohl eher ein rechtfertigungsbeispiel, da es nur in niedrigen auflösungen so ausschaut.
LOL. Also AF sieht man nur in hohen Auflösungen? :rolleyes: Wohl eher das gegenteil trifft zu, weil man in hohen Auflösungen den Texturmatsch noch mehr wahrnimmt.

A.Wesker
2005-10-07, 00:09:41
LOL. Also AF sieht man nur in hohen Auflösungen? :rolleyes: Wohl eher das gegenteil trifft zu, weil man in hohen Auflösungen den Texturmatsch noch mehr wahrnimmt.
siehe meinen screenshot. da ist an der stelle kaum noch matsch zu erkennen.

Banshee18
2005-10-07, 00:13:05
A.Wesker, in 1280x1024, was wohl so ziemlich die meistgenutzte Auflösung ist, sieht man das sehr wohl und es ist sehr störend. Bedenke, dass nicht jeder das Geld für einen 24"-Bildschirm hat, geschweige denn für eine Graka, die Auflösungen von 19xxxx oder höher mitmacht. Außerdem stört mich (und viele andere) diese Winkelabhängigkeit selbst bei 1600 noch genauso und ich bezweifle, dass es mit einer noch höheren Auflösung besser ist.

Edit: Wenns dich nicht stört, ist es ja okay, aber das nimmt halt jeder anders wahr und ich glaube, dass man darüber nicht streiten kann.

Tomcat70
2005-10-07, 00:42:17
ein update des b3d-artikels zur r5xx-technik:

http://www.beyond3d.com/reviews/ati/r520/index.php?p=03

noch mehr technik-infos zum r520 hier:

http://graphics.stanford.edu/~mhouston/public_talks/R520-mhouston.pdf
http://www.gpgpu.org/forums/viewtopic.php?t=1545&start=0&postdays=0&postorder=asc&highlight=
http://graphics.stanford.edu/papers/clawhmmer/hmmer.pdf

viel lesestoff für technik-freaks :D

betasilie
2005-10-07, 01:14:34
siehe meinen screenshot. da ist an der stelle kaum noch matsch zu erkennen.
Also Du willst behaupten, dass der G70 alle Winkel sauber filtert? Oder worauf willst Du hinaus - dass AF sowieso nicht notwendig ist für saubere unvermatschte Texturen?

A.Wesker
2005-10-07, 01:15:27
Also Du willst behaupten, dass der G70 alle Winkel sauber filtert? Oder worauf willst Du hinaus - dass AF sowieso nicht notwendig ist für saubere unvermatschte Texturen?
in meinem satz war das wörtchen "kaum" --> nicht alle

Coda
2005-10-07, 01:21:51
Also scattering ist ja mal sehr interessant. Das ist wirklich ein Ding das sehr brauchbar ist.

Nur wird man das wohl nur in OpenGL per Extension anbieten können.

betasilie
2005-10-07, 01:22:08
in meinem satz war das wörtchen "kaum" --> nicht alle
Ja, aber wie soll das gehen? Wie kann an den entsprechenden Winkeln kaum Matsch sein? Entweder er filtert den Winkel sauber, oder halt nicht.

Spasstiger
2005-10-07, 01:25:34
Ja, aber wie soll das gehen? Wie kann an den entsprechenden Winkeln kaum Matsch sein? Entweder er filtert den Winkel sauber, oder halt nicht.

Bedingt durch die höhere Auflösung war das Aufmatschen der Winkel nicht so stark bemerkbar wie auf den kleineren Screens. Das meinte er damit. Außerdem hatte er wohl 8xs AA an.

betasilie
2005-10-07, 01:27:43
A.Wesker, in 1280x1024, was wohl so ziemlich die meistgenutzte Auflösung ist, sieht man das sehr wohl und es ist sehr störend. Bedenke, dass nicht jeder das Geld für einen 24"-Bildschirm hat, geschweige denn für eine Graka, die Auflösungen von 19xxxx oder höher mitmacht. Außerdem stört mich (und viele andere) diese Winkelabhängigkeit selbst bei 1600 noch genauso und ich bezweifle, dass es mit einer noch höheren Auflösung besser ist.
Was hat AF mit Auflösung zu tun? AF ist ungleich AA.

Schlecht gefilterte Texturen fallen bei hohen Auflösungen noch mehr auf, als bei niedrigen Auflösungen, weil der Detailverlust durch fehlendes oder schlechtes AF mit der Auflösung ansteigt in Relation gesehen.

betasilie
2005-10-07, 01:30:54
Bedingt durch die höhere Auflösung war das Aufmatschen der Winkel nicht so stark bemerkbar wie auf den kleineren Screens. Das meinte er damit. Außerdem hatte er wohl 8xs AA an.
Wie das denn? Durch eine höhere Auflösung kompensiert man keine schlecht gefilterte Texturen. Im Gegenteil, in Bezug auf die möglichen Details fällt eine matschige Textur dort erst recht ins Auge.

Und wenn er SSAA an hatte, ist das ganze wohl eher als Witz zu verstehen? :confused:

StefanV
2005-10-07, 01:43:29
ein update des b3d-artikels zur r5xx-technik:

http://www.beyond3d.com/reviews/ati/r520/index.php?p=03

noch mehr technik-infos zum r520 hier:

http://graphics.stanford.edu/~mhouston/public_talks/R520-mhouston.pdf
http://www.gpgpu.org/forums/viewtopic.php?t=1545&start=0&postdays=0&postorder=asc&highlight=
http://graphics.stanford.edu/papers/clawhmmer/hmmer.pdf

viel lesestoff für technik-freaks :D
Habs mal ganz vorn mit aufgenommen :)

Ailuros
2005-10-07, 03:54:00
ein update des b3d-artikels zur r5xx-technik:

http://www.beyond3d.com/reviews/ati/r520/index.php?p=03

noch mehr technik-infos zum r520 hier:

http://graphics.stanford.edu/~mhouston/public_talks/R520-mhouston.pdf
http://www.gpgpu.org/forums/viewtopic.php?t=1545&start=0&postdays=0&postorder=asc&highlight=
http://graphics.stanford.edu/papers/clawhmmer/hmmer.pdf

viel lesestoff für technik-freaks :D


Zeigt eben die Vorteile (und bei vorsichtigem durchlesen die Nachteile) von R520. In claw-HMMER war schon die R4x0 um einiges besser als der G70.

Was wohl heisst dass sich NVIDIA beim naechsten Versuch enorm auf texture OPs/fetches konzentrieren muss und ATI auf ALU-Leistung. Bleiben die ALUs unveraendert auf R580 (was nicht unbedingt sein muss) waeren es rein theoretisch 3*83 = 252GFLOPs bei gleicher Taktrate.

Schon seit einiger Zeit bekannt, nur kommen natuerlich jetzt erst die offiziellen Bestaetigungen dazu.

Grestorn
2005-10-07, 06:59:19
Jap, das ist eben der Vorteil eines weitestgehend winkelunabhängigem AFs, alle Texturen werden gleich stark gefiltert. Bei nV bekommt die Wand höchstwarscheindlich nur 2x AF ab.
Zweifellos ist dieser Shot ein Paradebeispiel für den Nachteil von winkelabhängigem AF.

Dass ein winkelunabhängiges AF vorzuziehen ist, ist inzwischen wohl von fast jedem akzeptiert. Der R520 ist auch dafür zu loben, denn er markiert damit endlich eine Trendwende.

Dennoch wundere ich mich schon sehr, dass die selben Leute, die über Monate den Nachteil eines winkelabhängigen AFs geleugnet haben, dies nun auf einmal als den heiligen Gral zu sehen scheinen.

Eine etwas objektivere Sichtweise wäre schon ganz gut. Ich hätte mir wirklich sehr gewünscht, wir wären nie mit der Schnappsidee von winkelabhängigem AF konfrontiert worden. Und auch die Tatsache, dass man beim R520 dieses "HQ"-AF extra aktivieren muss, obwohl es kaum nennenswerte Performancenachteile bringt, spricht Bände. Eigentlich sollte man das winkelabhängige eher "LQ" nennen, denn nur das sog. "HQ"-AF verdient den Namen AF.

MikBach
2005-10-07, 07:21:44
http://img91.imageshack.us/img91/6589/7800x1800afcomp4om.gif

Jetzt?
:eek:
Heftiger Unterschied!

@Wesker
Lass dir mal die Pupille schärfen. Und versuche nicht den enormen Unterschied zwischen winkalabhängig und winkelunabhängig kleinzureden.
Aber das anfängliche Flimmern beim G70 hast du angeblich auch nicht gesehen... :|

seahawk
2005-10-07, 07:59:23
Schon komisch, dass jetzt alle den Unterschied zwischen winkelabhngigne und normalen AF so krass sehen.

Beim Vergleich R300 zu NV30 wollte es niemand sehen.

Es ist schön, dass ATI uns wieder annehmbares AF gibt, eine Sansation ist es nicht, denn das konnte schon jede GeForce 3.

MikBach
2005-10-07, 08:30:48
Schon komisch, dass jetzt alle den Unterschied zwischen winkelabhngigne und normalen AF so krass sehen.

Beim Vergleich R300 zu NV30 wollte es niemand sehen.
Komisch finde ich es nicht, finde es eher normal.
Erstens kann man seine Wahrnehmungsfähigkeit trainieren und einige, die die Winkelabhängigkeit vor Jahren nicht wahrgenommen haben, tun dies jetzt.
Zweitens waren die Spiele damals nicht so anfällig wie heute.
Heute kann man selten mehr als 4xAF einstellen, weil das Bild total unhomogen wird.



Es ist schön, dass ATI uns wieder annehmbares AF gibt, eine Sansation ist es nicht, denn das konnte schon jede GeForce 3.
Ich weiss ja nicht, was hier einige erwartet haben, aber für mich ist es, in Zeiten des Optimierungswettstreits, eine Sensation.

seahawk
2005-10-07, 08:44:39
Komisch finde ich es nicht, finde es eher normal.
Erstens kann man seine Wahrnehmungsfähigkeit trainieren und einige, die die Winkelabhängigkeit vor Jahren nicht wahrgenommen haben, tun dies jetzt.
Zweitens waren die Spiele damals nicht so anfällig wie heute.
Heute kann man selten mehr als 4xAF einstellen, weil das Bild total unhomogen wird.[quote]

Das war fürher genauso matschig wie heute. (ich sage mas Descent z.B.)

[quote]
Ich weiss ja nicht, was hier einige erwartet haben, aber für mich ist es, in Zeiten des Optimierungswettstreits, eine Sensation.

Das sie es gebracht haben ja, technisch nein. Wir haben nur die BQ (beim AF) von vor einigen Jahren zurück. (wenn überhaupt). Nur, wer jetzt sagt, dass die BQ einer G70 grottenschlecht ist und selber etwas anderes als eine GeForce FX (oder älter) nutzt, der spilet momentan selber mit grottenschlechter AF Qualität.

Wie gesagt schön, dass ATI wiederanständiges AF anbietet, mit wenig Glück ist es ab der nächsten Generation (nicht Refresh) wieder bei allen IHVs verfügbar. Mit Glück auch eher. Dies ist uneingeschränkt positiv.

MartinRiggs
2005-10-07, 09:27:15
ich muß mir mal nen Vergleichs-Screenshot machen, weil meine x800 obwohl ja winkelabhängig bei 16xAF nicht so schlecht filtert wie auf dem Gif, oder mir fiel das nie so auf was ich aber nicht glaube.

seahawk
2005-10-07, 09:36:05
Must Du in 800x600 versuchen oder gar in 640x480. Sieht genauso aus.

-error-
2005-10-07, 11:36:08
Schon komisch, dass jetzt alle den Unterschied zwischen winkelabhngigne und normalen AF so krass sehen.

Beim Vergleich R300 zu NV30 wollte es niemand sehen.

Es ist schön, dass ATI uns wieder annehmbares AF gibt, eine Sansation ist es nicht, denn das konnte schon jede GeForce 3.

Doch, ich habs gesehen ;)

F1 Challenge 99-02, gespielt mit einer 5900XT und mit einer 9800Pro. Die Leitplanken sahen sehr viel besser mit der nVidia aus, bei ATI halt mehr verwaschen, so wie das hier jetzt umgekehrt der Fall ist.

A.Wesker
2005-10-07, 11:40:32
:eek:
Heftiger Unterschied!

@Wesker
Lass dir mal die Pupille schärfen. Und versuche nicht den enormen Unterschied zwischen winkalabhängig und winkelunabhängig kleinzureden.
Aber das anfängliche Flimmern beim G70 hast du angeblich auch nicht gesehen... :|
das flimmern gabs auf 1920x1200 auch nicht ;)

@ r300 vs nv30

so schlecht war der nv30 meiner meinung net, da er eine eindeutig bessere BQ als der r300 hatte und performancetechnisch auch nicht wirklich unterlegen war. (erst ab der 9800 pro)

MikBach
2005-10-07, 11:57:39
das flimmern gabs auf 1920x1200 auch nicht ;)
Du immer mit deinen Monsterauflösungen... :rolleyes:
Sehr representativ...


@ r300 vs nv30

so schlecht war der nv30 meiner meinung net, da er eine eindeutig bessere BQ als der r300 hatte und performancetechnisch auch nicht wirklich unterlegen war. (erst ab der 9800 pro)
Wenn es um die BQ geht, dann können wir uns auf einen Gleichstand einigen, da das AA vom R300 dem des NV30 deutlich überlegen war.

Zur Performance: Als der NV30 rauskam, war er auch gar nicht mal schlecht, als aber immer mehr Spiele mit PS2-Shadern rauskamen, war das der Untergang der FX. Da ist auch ein R300 meistens schneller als ein NV35.

-error-
2005-10-07, 12:00:57
das flimmern gabs auf 1920x1200 auch nicht ;)

@ r300 vs nv30

so schlecht war der nv30 meiner meinung net, da er eine eindeutig bessere BQ als der r300 hatte und performancetechnisch auch nicht wirklich unterlegen war. (erst ab der 9800 pro)

Naja, das AA war dafür sehr mieß, R360/R420 meet NV35/NV40.

nVidia

http://www.zdnet.de/i/et/client/Grafikkarten/gef_fx_radeon_xt/2_Gef4xaa_8xAFv.bmp
http://www.zdnet.de/i/et/client/Grafikkarten/gef_fx_radeon_xt/2_Gef4xaa_8xAFav.bmp
http://www.zdnet.de/i/et/client/Grafikkarten/Geforce%206800%20Ultra/aa_NV40aa.jpg


ATI

http://www.zdnet.de/i/et/client/Grafikkarten/gef_fx_radeon_xt/2_ati4xaa_8xafv.bmp
http://www.zdnet.de/i/et/client/Grafikkarten/gef_fx_radeon_xt/2_ati4xaa_8xafav.bmp
http://www.zdnet.de/i/et/client/Grafikkarten/Geforce%206800%20Ultra/aa_9800xt1aa.jpg


Dafür hatte nVidia lange Zeit die bessere AF

nVidia

http://www.zdnet.de/i/et/client/Grafikkarten/Geforce%206800%20Ultra/af_NV40.jpg

ATI

http://www.zdnet.de/i/et/client/Grafikkarten/Geforce%206800%20Ultra/af_9800xt1.jpg


Rennspiele eigenen sich so gut wie keinen anderen Spiele um den kleinsten Qualitätsunterschied auszumachen, schade dass das so wenige kapiert haben :rolleyes:

Mr. Lolman
2005-10-07, 12:17:49
Dafür hatte nVidia lange Zeit die bessere AF

nVidia

http://www.zdnet.de/i/et/client/Grafikkarten/Geforce%206800%20Ultra/af_NV40.jpg

ATI

http://www.zdnet.de/i/et/client/Grafikkarten/Geforce%206800%20Ultra/af_9800xt1.jpg
Rennspiele eigenen sich so gut wie keinen anderen Spiele um den kleinsten Qualitätsunterschied auszumachen, schade dass das so wenige kapiert haben :rolleyes:

Das NV AF wirkt eher flimmriger als besser...

Und "lange Zeit" gilt auch nicht, denn der NV40 hat schon von Anfang an auf Q (auch ohne Opts) mehr geflimmert als ATi default. Dass das erst so spät zur Sprache kam (zum G70 Release) lag u.A. auch daran, dass es den Schreiberlingen vom 3DC solang am A... vorbei ging, bis ich mittels Videos/animierten Gifs den Stein ins Rollen brachte.

Dementsprechend ist der G70 Artikel auf der Startseite zwar löblich und notwendig aber gleichzeitig zuwenig, weil er hauptsächlich die Flimmerproblematik des G70 behandelt und kaum ein Wort darüber verliert wie ungleich/unfair die BQ Vergleiche @ default schon mit dem NV40 waren/sind. Einzig und allein Computerbase zeigt Konsequenz und bencht die NV Karten auf HQ - wobei beim G70 selbst der "brave" 78.03 genug Pfusch treibt (brilinear z.B.; wobei ich nicht ganz verstehe warum man die ATis mit positiven LOD Bias bencht (welches unverständlicherweise die AF Performance tw. sogar beeinträchtigt))

Sry4OT, aber die Mär vom besseren NV AF ist schon seit den ersten NV3x AF-Optimierungen nicht mehr zutreffend...

Aquaschaf
2005-10-07, 12:22:34
und performancetechnisch auch nicht wirklich unterlegen war

Du meinst R300 und NV30 haben die gleiche Performance? Denn das hast du hier geschrieben.

SentinelBorg
2005-10-07, 12:26:23
Du meinst R300 und NV30 haben die gleiche Performance? Denn das hast du hier geschrieben.
In den Spielen der damaligen Zeit, ja.

Sentinel

-error-
2005-10-07, 12:29:37
.......

Sry4OT, aber die Mär vom besseren NV AF ist schon seit den ersten NV3x AF-Optimierungen nicht mehr zutreffend...

Nunja, aber immerhin war es schärfer und vor allem wurde winkelunabhängig gefiltert, das habe ich mit eigenen Augen gesehen (5900 XT @ F1-C)

Das es geflimmert hat kann gut sein, wäre es extrem gewesen, hätte es mir aufallen müssen.

Aber auch ist mir aufgefallen, das ATI die farbenfrohere Grafik auf das Bild zaubert und das das MSAA wirklich konkurenzlos gut ist, der 4x Modus von ATI halte ich für den besten den es gibt.

Mr. Lolman
2005-10-07, 12:30:06
In den Spielen der damaligen Zeit, ja.

Sentinel

Gaynow, da sah das 4xSGMSAA von ATi auch noch so comichaft aus :ulol:

A.Wesker
2005-10-07, 13:13:47
Du meinst R300 und NV30 haben die gleiche Performance? Denn das hast du hier geschrieben.
die 5800 Ultra war sogar ein wenig schneller als die 9700 Pro, sie wurde ja nur als schlechte karte degradiert, da sie einen hohen stromverbrauch hatte und arg laut war. gegen die 9800 PRO war sie natürlich nicht mehr gewachsen.

StefanV
2005-10-07, 13:15:42
die 5800 Ultra war sogar ein wenig schneller als die 9700 Pro, sie wurde ja nur als schlechte karte degradiert, da sie einen hohen stromverbrauch hatte und arg laut war. gegen die 9800 PRO war sie natürlich nicht mehr gewachsen.
Aber nur solang man z.B. nicht NFSU (2) gespielt hat, da war die nV3x doch spürbar schlechter als die R3x0...

Spasstiger
2005-10-07, 13:29:22
Du immer mit deinen Monsterauflösungen... :rolleyes:
Sehr representativ...

Naja, wenn da nun mal mehr oder weniger seine native Auflösung ist (gegeben durch die Maske)? Und wer sich eine High-End-Grafikkarte holt, legt in der Regel auch Wert darauf, dass das Ausgabegerät entsprechend angepasst ist.
Von daher find ich die Auflösung nicht wirklich monstermäßig. Sind auch nur 20% mehr Pixel, was gegenüber 1600x1200 berechnet werden muss.

die 5800 Ultra war sogar ein wenig schneller als die 9700 Pro, sie wurde ja nur als schlechte karte degradiert, da sie einen hohen stromverbrauch hatte und arg laut war. gegen die 9800 PRO war sie natürlich nicht mehr gewachsen.

Ich wette mit dir, dass die 9700 Pro in Doom 3 eine FX 5800 Ultra schlägt. Zumindest in 1024x768 High. Höhere Auflösungen in Doom 3 machen bei Grafikkarten dieser Leistungsklasse eh keinen Sinn, zu oft wird man in den ruckelnden Bereich kommen.

EDIT: Da hab ich mich glatt vertan, 9700 Pro und FX 5800 Ultra sind in Doom 3 praktisch gleichschnell (0,3 fps Unterschied): http://www.de.tomshardware.com/fotostrecken/20050706/image014.gif
In 1280x1024 gewinnt die FX 5800 Ultra knapp, allerdings muss man bei unter 30 fps im Schnitt schon etwas leidensfähig sein: http://www.de.tomshardware.com/fotostrecken/20050706/image015.gif

In DX9-Spielen braucht man die Performance aber nicht zu hinterfragen, da gewinnt klar die Radeon 9700 Pro.

Coda
2005-10-07, 13:38:37
Ich wette mit dir, dass die 9700 Pro in Doom 3 eine FX 5800 Ultra schlägt. Zumindest in 1024x768 High.Tut sie nicht. http://www.tweakpc.de/hardware/tests/graka/doom3_performance/s05.php

Das sie dabei öfters überhitzt ist natürlich eine andere Sache ;)

Spasstiger
2005-10-07, 13:40:32
Tut sie ganz und gar nicht. In Doom 3 ist die FX5800 sogar schneller als die FX5900.

Naja, hab mich oft genug mit der Performance von Doom 3 auseinandergesetzt, kenn aber zumeist nur die Erfahrungen mit übertakteten Systemen. Oben hab ich ja die Ergebnisse hingeschrieben.
Und die FX5800 Ultra ist in Doom 3 langsamer als die FX5900 Ultra.

Tut sie nicht. http://www.tweakpc.de/hardware/tests/graka/doom3_performance/s05.php

Das sie dabei öfters überhitzt ist natürlich eine andere Sache ;)

Hm, wenn man sich die niedrigen fps anschaut, dann müssen das schon recht alte Benchmarks sein, bei denen eine CPU-Limitierung mit reinspielt. Oder es werden noch für Doom 3 unausgereifte Treiber verwendet (gerade bei Doom 3 konnten sowohl ATI als auch Nvidia mit Treibern nochmals ordentlich was rausholen). Die Benchmarks von THG finde ich da vertrauenswürdiger, weil da sowohl recht aktuelle Treiber als auch eine aktuelle Doom 3 Version verwendet wird (die Werte stammen aus den VGA Charts vom Sommer 2005).
P.S.: Mit einer 9800 Pro kann man auch über 50 fps im Schnitt in 1024x768 high packen, hab ich auch schon gesehen. Es muss nur die CPU-Leistung stimmen. Mit ner geocten 5900 Ultra kommt man gar über 60 fps!
P.S.2: Selbst mein 3 Jahre altes System mit einer Radeon 9700 Non-Pro macht mehr fps als das in deinem Link geteste System mit Radeon 9700 Pro. Irgendwie seltsam.

Coda
2005-10-07, 13:41:16
Ja, weil ihr die Speicherbandbreite ausgeht in höheren Auflösungen. Hab ich übersehen...

Die FX5800 ist schon im Auslieferungszustand übertaktet.

horn 12
2005-10-07, 13:56:38
hi
bei geizhals gibt es nun die X1800 XL ab nä. Dienstag zu kaufen
Preise bereits ab 408 Euro

denke sie werden sich in den nä. Tagen bei ca. 360 - 370 Euro einpendeln
das wäre doch recht toll !!!
nun braucht es nur mehr eine X1800 XL von Sapphire auf AGP , und ATI halt volle fahrt .
hoffe Sapphire überwindet sich ne AGP Karte sofort zu launchen .
BITTE Sapphire und einige andere Hersteller

Aquaschaf
2005-10-07, 14:21:00
In den Spielen der damaligen Zeit, ja.


Hast du auch einen Link zu so einem Review?

MikBach
2005-10-07, 14:23:19
Leute, bleibt bitte beim Thema!
Die FX5800/9700PRO-Diskussion bitte woanders führen. :)

Tigerchen
2005-10-07, 14:32:13
die 5800 Ultra war sogar ein wenig schneller als die 9700 Pro, sie wurde ja nur als schlechte karte degradiert, da sie einen hohen stromverbrauch hatte und arg laut war. gegen die 9800 PRO war sie natürlich nicht mehr gewachsen.

In jedem Spiel welches PS. 2.0 einsetzte unterlag die 5800 Ultra. Waren für die Fanboys natürlich nur Fehler der Spieleprogrammierer. Die mangelnde PS 2.0 Power wurde bei der gesamten nV 3x Serie verleugnet. Statt dessen waren Features wichtig die eh nur brachlagen. So galt die 5200 trotz mangelhafter Leistung als technologisch führend.

sklave_gottes
2005-10-07, 15:48:44
die 5800 Ultra war sogar ein wenig schneller als die 9700 Pro, sie wurde ja nur als schlechte karte degradiert, da sie einen hohen stromverbrauch hatte und arg laut war. gegen die 9800 PRO war sie natürlich nicht mehr gewachsen.
die 5800 Ultra war sogar ein wenig schneller als die 9700 Pro, sie wurde ja nur als schlechte karte degradiert, da sie einen hohen stromverbrauch hatte und arg laut war. gegen die 9800 PRO war sie natürlich nicht mehr gewachsen.

ja und in manchen games sogar langsamer als eine 9500pro
die ganze fx reihe ist leistungstechnisch ein witz

dargo
2005-10-07, 15:52:04
hi
bei geizhals gibt es nun die X1800 XL ab nä. Dienstag zu kaufen
Preise bereits ab 408 Euro

denke sie werden sich in den nä. Tagen bei ca. 360 - 370 Euro einpendeln
das wäre doch recht toll !!!

Hehe, wie war das nochmal mit 450€ ?
Wenn die Verfügbarkeit der Karte steigt wird auch der Preis weiter fallen. In ca. 1 Monat bei großer Verfügbarkeit erwarte ich Preise von 350-370€. Eventuell noch weniger, sollten die Preise der G7800GT fallen.

Die X1800XL muss sich einfach an dem Preis der G7800GT orientieren, sonst hat sie keine Chance.

A.Wesker
2005-10-07, 16:04:00
ja und in manchen games sogar langsamer als eine 9500pro
die ganze fx reihe ist leistungstechnisch ein witz
es gibt kein game, indem die FX 5800 Ultra schlechter als eine 9500 Pro ist, selbst in HL2 performt sie sehr gut (1280x1024 2AA/8AF kein Thema)

sklave_gottes
2005-10-07, 16:28:20
es gibt kein game, indem die FX 5800 Ultra schlechter als eine 9500 Pro ist, selbst in HL2 performt sie sehr gut (1280x1024 2AA/8AF kein Thema)

ja dann sieh dir mal das hier an: die 9500pro ist fast 100% schneller
selbst eine 9500 128bit ist schneller
http://www.de.tomshardware.com/graphic/20041005/vga-charts-agp-09.html

und bitte sag jetzt nicht es stimmt nicht,oder TH ist scheisse.um 100% kann sich keiner vertuhen.

bei battlefield2,haf life2(DX9),cot2,fear u.s.w. sieht es nicht anders aus
alle spiele die richtig dx9 unterstützen gehen auf einer 9500pro fast doppelt so gut!
sellbst eine 5950ultra ist dann immer langsamer als die 9500pro

A.Wesker
2005-10-07, 16:35:51
ja dann sieh dir mal das hier an: die 9500pro ist fast 100% schneller
selbst eine 9500 128bit ist schneller
http://www.de.tomshardware.com/graphic/20041005/vga-charts-agp-09.html

und bitte sag jetzt nicht es stimmt nicht,oder TH ist scheisse.um 100% kann sich keiner vertuhen.

bei battlefield2,haf life2(DX9),cot2,fear u.s.w. sieht es nicht anders aus
alle spiele die richtig dx9 unterstützen gehen auf einer 9500pro fast doppelt so gut!
sellbst eine 5950ultra ist dann immer langsamer als die 9500pro

du zeigst gamebeispiele, die auf den graka's eh unspielbar sind.
weiterhin listest du CoD2 auf, dieses spiel kann man mit diesen graka's nur im force direkt 7 modus spielen, ansonsten hat man 10 FPS. in diesem modus performt sie auf jedenfall besser als die 9700 Pro.

Black-Scorpion
2005-10-07, 16:37:06
es gibt kein game, indem die FX 5800 Ultra schlechter als eine 9500 Pro ist, selbst in HL2 performt sie sehr gut (1280x1024 2AA/8AF kein Thema)
Und da bist du dir ganz sicher?

---
Dungeon Siege
MaxQuality 1280x1024x32 8xAF + 4xAA

GeForceFX 5800 U - 50,5 fps
Radeon 9500 Pro - 62,3 fps
---
Quelle: http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_dungeonsiege_d.php

Quasar
2005-10-07, 16:38:38
es gibt kein game, indem die FX 5800 Ultra schlechter als eine 9500 Pro ist, selbst in HL2 performt sie sehr gut (1280x1024 2AA/8AF kein Thema)
Doch, bei Einsatz von 2.0-Shadern fällt die Leistung sehr stark ab.

Mumins
2005-10-07, 16:43:42
es gibt kein game, indem die FX 5800 Ultra schlechter als eine 9500 Pro ist, selbst in HL2 performt sie sehr gut (1280x1024 2AA/8AF kein Thema)

Hah, das ich nicht lache, ne 9500Pro hat noch mehr 2.0 Shaderpower als ne 5950Ultra.

horn 12
2005-10-07, 16:44:39
Bitte :eek:
was interessiert uns das , :frown: :P
BLEIBT bitte SACHLICH und nur bei der X1800 XL / XT even. noch bei der X800 xx aber doch nicht jahre vorher ,
also , aber nicht´s für ungut .

danke

sklave_gottes
2005-10-07, 16:53:41
du zeigst gamebeispiele, die auf den graka's eh unspielbar sind.
weiterhin listest du CoD2 auf, dieses spiel kann man mit diesen graka's nur im force direkt 7 modus spielen, ansonsten hat man 10 FPS. in diesem modus performt sie auf jedenfall besser als die 9700 Pro.

nicht bei 480x320 da geht dx9.0 (bei der ati)
bei far cry 800x600 reicht die fps zahl von der 9500pro schon aus bei der 5800/5900 noch lange nicht.
Es gibt viele beispiele siehs doch einfach mal ein

und in half life2 dx9 war meine FX5900LX@5950Ultra bios@515@1000 sogar langsamer als die 9600TX von meinem bruder!

A.Wesker
2005-10-07, 17:05:35
nicht bei 480x320 da geht dx9.0 (bei der ati)
bei far cry 800x600 reicht die fps zahl von der 9500pro schon aus bei der 5800/5900 noch lange nicht.
Es gibt viele beispiele siehs doch einfach mal ein

und in half life2 dx9 war meine FX5900LX@5950Ultra bios@515@1000 sogar langsamer als die 9600TX von meinem bruder!
in der damaligen zeit gabs so gut wie keine dx9 + ps2.0 games und 480x320 möchte sich nun wirklich niemand antun.

seahawk
2005-10-07, 17:10:28
Hehe, wie war das nochmal mit 450€ ?
Wenn die Verfügbarkeit der Karte steigt wird auch der Preis weiter fallen. In ca. 1 Monat bei großer Verfügbarkeit erwarte ich Preise von 350-370€. Eventuell noch weniger, sollten die Preise der G7800GT fallen.

Die X1800XL muss sich einfach an dem Preis der G7800GT orientieren, sonst hat sie keine Chance.

Ne 7800Gt gibt es bei Geizhals jetzt lieferbar, ab 329 Euro.

sklave_gottes
2005-10-07, 17:12:28
in der damaligen zeit gabs so gut wie keine dx9 + ps2.0 games und 480x320 möchte sich nun wirklich niemand antun.

ja das ändert aber jetzt nichts an deiner falsch aussage!
sag mal bist aber echt ein besser wisser oder ?
kannst einem aber echt nie recht geben.

klar gab es "damals" noch keine,aber wer sich z.b. die teo bensches hier bei 3dcenter angesehen hat konte for ahnen das der fx später nichts mehr viel taugt.(habe es damals auch nicht geglaubt)
fakt ist einfach das die gesamte fx reihe in dx9 ps2.0 eine lächerliche leistung bietet.
Wo bei den meisten spielen eine 9800pro/XT noch locker reicht.
Also vergleicht bitte den r520 nicht mit dem FX.

reunion
2005-10-07, 18:15:32
es gibt kein game, indem die FX 5800 Ultra schlechter als eine 9500 Pro ist, selbst in HL2 performt sie sehr gut (1280x1024 2AA/8AF kein Thema)


Ich kann mich an Tests erinnern, da schlägt eine 9600SE eine FX5900 um mehr als das doppelte.

A.Wesker
2005-10-07, 18:18:54
Ich kann mich an Tests erinnern, da schlägt eine 9600SE eine FX5900 um mehr als das doppelte.
es gibt auch tests, in denen die GTX 100 % schneller als die x1800xt ist.
suchen kann man immer und fündig wird man auch. nur was hat zb. HDR und 8xS bei der 6800 Ultra/GT gebracht? nichts, da die karten dafür net schnell genug waren. genauso war es damals bei der 5800 Ultra und der 9700 Pro auch. in den damaligen games war die 5800 ultra schnell und hatte eine herausragende BQ. zählen tut das, was in der gegenwart geschieht, die zukunft spielt im thema hardware keine rolle.

reunion
2005-10-07, 18:22:08
Spieletests von xbitlabs:

http://www.xbitlabs.com/articles/video/display/radeon-x1800.html

dargo
2005-10-07, 18:22:48
Ne 7800Gt gibt es bei Geizhals jetzt lieferbar, ab 329 Euro.
Das weiß ich. ;)
Es ist aber nur Gainward. Andere Hersteller liegen immer noch bei ~350€ und mehr.

A.Wesker
2005-10-07, 18:35:20
Spieletests von xbitlabs:

http://www.xbitlabs.com/articles/video/display/radeon-x1800.html
bis auf die treiberauswahl ein gelungenes review

Lubi
2005-10-07, 18:40:40
die zukunft spielt im thema hardware keine rolle.

Aber dann mit dem damaligen PS3 ""Vorteil"" des Nv40 prahlen.... :rolleyes:

Und findest du es nicht etwas komisch, dass eine PS2.0 Graka damit wirbt, eine neue Technologie zu unterstützen, diese aber total ineffizient und unrbauchbar durchführt? Und wieso schreit ihr dann alle, dass Teile der VS Berechnung unter Ps3.0 beim R5xx durch die Cpu durchgeführt werden?

Erstmal auf neutralen Boden kommen, und dann denken...

Cya Lubi

Ps: Ich finde es langsam mehr als seltsam dass sich manche mit dem Kauf eines Produktes einer bestimmten Firma gleich vertraglich dazu verpflichten, das Gegenprodukt runterzumachen. Bleibt bei der Sache. Wir sollten alle die für UNS beste Hardware kaufen. Hardware, die unseren Ansprüchen genügt. Und keiner kauft sich eine Graka die bei Spielen, die in einem Monat erscheinen, abkackt....

Jedes Produkt hat siene Vor - und Nachteile, die man besprechen sollte. Dann wägt man ab, welchen Kompromiss man eingehen will/kann/muss/soll und entscheidet sich dementsprechend. Denkt mal nach. Wie sagen wir Hessen dazu? Detz muss ma habe, denga... denga... denga...

Mumins
2005-10-07, 18:41:55
es gibt auch tests, in denen die GTX 100 % schneller als die x1800xt ist.
suchen kann man immer und fündig wird man auch. nur was hat zb. HDR und 8xS bei der 6800 Ultra/GT gebracht? nichts, da die karten dafür net schnell genug waren. genauso war es damals bei der 5800 Ultra und der 9700 Pro auch. in den damaligen games war die 5800 ultra schnell und hatte eine herausragende BQ. zählen tut das, was in der gegenwart geschieht, die zukunft spielt im thema hardware keine rolle.

Sobald man bei der 5800Ultra AA eingeschalten hat war sie eben nicht mehr schnell, auch in damaligen Games nicht.

Schrotti
2005-10-07, 18:43:31
Ich werde auch wieder eine nVidia kaufen weil ich mich damit besser fühle.

HL2 und Add-On´s mögen ja auf einer ATI besser laufen aber Valve Games sind nicht alles.

A.Wesker
2005-10-07, 18:44:36
Sobald man bei der 5800Ultra AA eingeschalten hat war sie eben nicht mehr schnell, auch in damaligen Games nicht.
naja HL2 funzt in 1280x1024 2AA/16AF noch einwandfrei und quake 3, Max Payne etc waren nicht wirklich das problem.

@ Lubi

ich war einer derjenigen, die PS3.0 und HDR zur zeiten des nv40 nicht gehyped haben.

Tomcat70
2005-10-07, 18:49:04
ATI's X1000 Series: Extended Performance Testing

http://www.anandtech.com/video/showdoc.aspx?i=2556


bezüglich unseligem thema 5800 vs. 9500, bitte bitte woanders weiterdiskutieren ;)

StefanV
2005-10-07, 18:51:07
Spieletests von xbitlabs:

http://www.xbitlabs.com/articles/video/display/radeon-x1800.html
Öhm, wie ists möglich, das 'ne 7800GT schneller ist als 'ne X? :|

Coda
2005-10-07, 18:53:25
Ich werde auch wieder eine nVidia kaufen weil ich mich damit besser fühle.

HL2 und Add-On´s mögen ja auf einer ATI besser laufen aber Valve Games sind nicht alles.Es ist sicher nicht nur HL² was auf einer X1800XT besser läuft. Aber wenn du dich damit besser fühlst, dann tu dir keinen Zwang an :D

Demirug
2005-10-07, 18:58:41
Öhm, wie ists möglich, das 'ne 7800GT schneller ist als 'ne X? :|

Geht die Frage auch etwas genauer? Spiel? Einstellung? Bei 23 Seiten dauert das suchen so lange. ;)

seahawk
2005-10-07, 18:59:23
http://www.xbitlabs.com/articles/video/display/radeon-x1800_14.html

Hier geht es locker und es dürfte klar sein warum.

MSABK
2005-10-07, 18:59:55
Warum konnte NVIDIA die G70 gleich am tag der präsentation liefern?

Warum schafft es ATI nicht bei der XT und den anderen Modellen?

Des finde ich schon irgendwie :down:

Lubi
2005-10-07, 19:01:52
ich war einer derjenigen, die PS3.0 und HDR zur zeiten des nv40 nicht gehyped haben.

Es sollte kein Angriff auf dich sein, sondern eine Verallgemeinerung.

Sorry falls es so rüberkam!

Mfg Lubi

A.Wesker
2005-10-07, 19:03:28
Es sollte kein Angriff auf dich sein, sondern eine Verallgemeinerung.

Sorry falls es so rüberkam!

Mfg Lubi
np, weiß schon was du meinst.

deekey777
2005-10-07, 19:03:53
Warum konnte NVIDIA die G70 gleich am tag der präsentation liefern?

Warum schafft es ATI nicht bei der XT und den anderen Modellen?

Des finde ich schon irgendwie :down:

Warum? Einfach mal zB die News vom 5. Oktober lesen, warum es so ist. Oder wäre dir ein Launch Mitte November lieber?
nVidia konnte den Launch so weit verschieben, bis genügend 7800GTX/GT produziert werden, daß diese auch sofort lieferbar waren.

Lubi
2005-10-07, 19:07:18
Warum konnte NVIDIA die G70 gleich am tag der präsentation liefern?

Warum schafft es ATI nicht bei der XT und den anderen Modellen?

Des finde ich schon irgendwie :down:

Das liegt daran dass Nvidia keine Probleme mit der Chipfertigung hatten und der Relase gut vorbereitet war.

ATI hat(te) enorme Probleme mit der 90 nm Fertigung. Sie zögerten und zögerten den Relase immer weiter vorraus bis ihnen die Luft knapp wurde. Nun musste die Karte raus, vorgestellt werden....

Nvidia hat mit der Verfügbarkeit des g70 wirklich saubere Arbeit geleistet

seahawk
2005-10-07, 19:07:39
Warum? Einfach mal zB die News vom 5. Oktober lesen, warum es so ist. Oder wäre dir ein Launch Mitte November lieber?
nVidia konnte den Launch so weit verschieben, bis genügend 7800GTX/GT produziert werden, daß diese auch sofort lieferbar waren.

Formuliere doch bitte neutraler, also wirklich. Und man sollte auch so etwas nicht vergleichen. ;D ;D

Im Ernst, wir werden nie wissen, ob NV den G70 Launch verzögert hat, oder ob er wirklich voll in der Zeit lag, oder ob NV es von Anfang an so plante.

boxleitnerb
2005-10-07, 19:08:34
Woran liegt es eigentlich, dass ATI Karten unter OpenGL (fast) immer den kürzeren ziehen?
Vor allem aber:
Warum tut ATI nichts dagegen? Immerhin hatten sie seit der 9700er Reihe über 3 Jahre (!) Zeit.
Wann wird vorraussichtlich dieses "Missstand" behoben?
Ich meine, es wurde monatelang ein Wundertreiber propagiert, der dann doch nie kam. Ich bin mit ATI generell schon zufrieden, aber nach 3 Jahren das noch nicht ausgebügelt zu haben finde ich schon strange und etwas peinlich.

betasilie
2005-10-07, 19:11:38
Schlechte OpenGL Treiber. Scheinbar haben sie nicht die richtigen Cracks im Team das in den Griff zu bekommen. Finde das mitlerweile auch etwas peinlich. Oder aber ATI denkt sich, dass sich der Recourcenaufwand nicht lohnt, weil es nur wenige OpenGL Spiele gibt und es scheint beinahe so, als ob sie den OpenGL Treiber komplett neu aufbauen müssten, um die Fehler zu beheben, was halt Zeit und Geld kostet.

Tomcat70
2005-10-07, 19:13:59
Woran liegt es eigentlich, dass ATI Karten unter OpenGL (fast) immer den kürzeren ziehen?
Vor allem aber:
Warum tut ATI nichts dagegen? Immerhin hatten sie seit der 9700er Reihe über 3 Jahre (!) Zeit.
Wann wird vorraussichtlich dieses "Missstand" behoben?
Ich meine, es wurde monatelang ein Wundertreiber propagiert, der dann doch nie kam. Ich bin mit ATI generell schon zufrieden, aber nach 3 Jahren das noch nicht ausgebügelt zu haben finde ich schon strange und etwas peinlich.

angeblich arbeitet ATI an einer verbesserung der opengl-treiber, leider wurde kein termin genannt. erwähnt wurde das thema beim letzten conference call.

deekey777
2005-10-07, 19:15:37
Formuliere doch bitte neutraler, also wirklich. Und man sollte auch so etwas nicht vergleichen. ;D ;D

War das jetzt zu subjektiv? ;(

Im Ernst, wir werden nie wissen, ob NV den G70 Launch verzögert hat, oder ob er wirklich voll in der Zeit lag, oder ob NV es von Anfang an so plante.
Der R520 sollte eigentlich irgendwann im Zeitraum Mai-Juni kommen, doch er wollte nicht. nVidia konnte also nicht nur einfach ein Produkt launchen, sondern wirklich eine Bilderbuch-Vorstellung eines Produkts hinlegen - sofortige Verfügbarkeit weltweit. ATi wurde zweimal blamiert: neues Produkt ohne Konkurrenz und sofortige Lieferbarkeit an die kauffreudigen Kunden. Ich glaube schon, daß der Zeitpunkt der Vorstellung hinausgezögert wurde, damit dieser Stunt gelingt.
PS: Dazu kommt noch, daß die Fertigung des G70 sofort unter einem guten Stern stand, denn es hat schon etwas gedauert, bis die 7800GT kam.

MikBach
2005-10-07, 19:16:01
Woran liegt es eigentlich, dass ATI Karten unter OpenGL (fast) immer den kürzeren ziehen?
Vor allem aber:
Warum tut ATI nichts dagegen? Immerhin hatten sie seit der 9700er Reihe über 3 Jahre (!) Zeit.
Wann wird vorraussichtlich dieses "Missstand" behoben?
Ich meine, es wurde monatelang ein Wundertreiber propagiert, der dann doch nie kam. Ich bin mit ATI generell schon zufrieden, aber nach 3 Jahren das noch nicht ausgebügelt zu haben finde ich schon strange und etwas peinlich.
Ich drücke es mal bisschen übertrieben aus...
Von den ganzen Spielen, die im Jahr rauskommen sind unter 5% OGL.
Man könnte auch sagen Wayne... :D
Wenn man die Marktakzeptanz in den Reviews wiederspiegeln wollte, müsste man einen OGL-Titel bei 20 D3D-Titeln nehmen. :wink:

PS übertrieben gesagt, also bitte nicht daran aufhängen... :)

edit: leicht verrechnet... :rolleyes:
Statt 20 D3D-Titel müssen es 19 sein... :D

Lubi
2005-10-07, 19:17:33
Ich meine, es wurde monatelang ein Wundertreiber propagiert, der dann doch nie kam. Ich bin mit ATI generell schon zufrieden, aber nach 3 Jahren das noch nicht ausgebügelt zu haben finde ich schon strange und etwas peinlich.

Das finde ich inzwischen auch etwas misteriös! Mit besseren OGL Treibern + die daraus resultierende bessere Linux Akzeptanz würden immer hin einige 0,x % Käufer dazu bewegen, sich eine ATI Karte zu besorgen!

Bevor mir meine 9800 Pro abgeraucht ist, habe ich mich auch etwas über die schlechten Linux Treiber und der X.org Fummelei aufgeregt. Doch seit dem gurke ich hier mit ner Matrox G450M Dual rum.... ;) N1ce Übergangslösung...

seahawk
2005-10-07, 19:23:41
War das jetzt zu subjektiv? ;(

War nur ein dummer scherz, weil mich die Diskussion im thread über die Bezeihung 3DC / ATI aufregt. Sorry, Du warst das falsche Opfer. Tut mir ehrlich leid.


Der R520 sollte eigentlich irgendwann im Zeitraum Mai-Juni kommen, doch er wollte nicht. nVidia konnte also nicht nur einfach ein Produkt launchen, sondern wirklich eine Bilderbuch-Vorstellung eines Produkts hinlegen - sofortige Verfügbarkeit weltweit. ATi wurde zweimal blamiert: neues Produkt ohne Konkurrenz und sofortige Lieferbarkeit an die kauffreudigen Kunden. Ich glaube schon, daß der Zeitpunkt der Vorstellung hinausgezögert wurde, damit dieser Stunt gelingt.
PS: Dazu kommt noch, daß die Fertigung des G70 sofort unter einem guten Stern stand, denn es hat schon etwas gedauert, bis die 7800GT kam.

Das glaube ich auch. Die Verfügbarkeit was so extrem, dass man davon ausgehen kann. Man wird NV bei den nächsten Launches daran messen müssen. Bin mal auf die kleine G7X gespannt. Jetzt sind sie ja immerhin irgendwie im Zugzwang.

MSABK
2005-10-07, 19:39:04
Wie hoch stehen die chancen das eine X1800XT mit Single Slot kühler von einem Hersteller kommt?

Weil mit dem Referenzkühler kriege ich des teil nicht in einen Shuttle st20g5.

reunion
2005-10-07, 19:46:27
Wie hoch stehen die chancen das eine X1800XT mit Single Slot kühler von einem Hersteller kommt?

Weil mit dem Referenzkühler kriege ich des teil nicht in einen Shuttle st20g5.


Selbst wenn irgendein Hersteller das Teil als Single-Slot-Version auf den Markt schiebt, würde der Lüfter ohne einen freien Slot darunter wohl verhungern. Kein gute Idee IMHO.

MadManniMan
2005-10-07, 19:46:28
Verzeicht, aber ich möchte das Thema FX5800 vs. 9500 Pro nicht so stehen lassen. Meiner Einer hatte ja beide Karten und beide liefen eigentlich bei allen Tests übertaktet (FX@475/475 MHz, Radeon @380/320 MHz), dabei hätte ich - wäre die FX nicht im 2D-Betrieb durch ein leises, aber recht hochfrequentes Lager...surren negativ aufgefallen - der FX unterm Strich den Vorzug gegeben.

Außreißer gabs in beide Richtunden, die größeren Reserven hatte jedoch zumeist die FX - obgleich sie taktmäßig ja nicht an die Ultra rankam, während die 9500 Pro brutal übertaktet war (und noch ist).

tombman
2005-10-07, 19:53:54
http://www.xbitlabs.com/images/video/radeon-x1800/fear_pure.gif

Ohne AA/AF ist die X1800XT NICHT schneller :cool:

http://www.xbitlabs.com/images/video/radeon-x1800/fear_candy.gif

Und mit AA/AF verliert die 7800GTX plötzlich über 60% Leistung :crazy2:

Damit ist wohl klar warum das so ist: 512mb vs 256mb Speicher UND 750mhz vs 600mhz. (750/600*31fps~ 39fps + 256mb = :naughty: )

Und die Final soll das Ungleichgewicht zugunsten von ATI wieder ausgleichen ;)

p.s: xbit machen einfachen die besten reviews, das war mir schon lange klar. (bis auf den Treiber diesmal, aber das checkt man eh)

Huhn
2005-10-07, 20:16:29
mich würde mal eine Vergleich der BQ mit aktuellen treibern wie dem 81.84 interessieren. Auch wenn dieser Treiber noch im Betastatus ist finde ich schon dass man mal mit diesem testen sollte. Vor allem die in einigen reviews gezeigten Performancegewinne bei der 7er serie isind nicht zu verachten ;)

tokugawa
2005-10-07, 20:23:13
Im Ernst, wir werden nie wissen, ob NV den G70 Launch verzögert hat, oder ob er wirklich voll in der Zeit lag, oder ob NV es von Anfang an so plante.

Manche wissen es schon, ich weiß von einem NVIDIA-Mitarbeiter, dass dem so war. Also die haben sich schon gefragt wann ATI endlich launcht (da der R520 sein Tape-Out ja früher als der G70 hatte), und dann halt irgendwann nicht mehr länger warten wollen.

tokugawa
2005-10-07, 20:26:06
Ich drücke es mal bisschen übertrieben aus...
Von den ganzen Spielen, die im Jahr rauskommen sind unter 5% OGL.
Man könnte auch sagen Wayne... :D
Wenn man die Marktakzeptanz in den Reviews wiederspiegeln wollte, müsste man einen OGL-Titel bei 20 D3D-Titeln nehmen. :wink:

PS übertrieben gesagt, also bitte nicht daran aufhängen... :)

edit: leicht verrechnet... :rolleyes:
Statt 20 D3D-Titel müssen es 19 sein... :D

Problem nur, dass es sicher nicht schlecht ist, OpenGL gut zu unterstützen, da in OpenGL die meisten Effekte der Welt, die dann in Spielen (auch unter DirectX) bewundert werden können zuerst in OpenGL implementiert werden, nämlich eben von den Computergraphik-Forschern.

ATI tut hier wieder mal eher wenig um die Forscher zu unterstützen (die schimpfen mit Recht sehr über ATI OpenGL-Treiber), und damit indirekt die Computergrafik-Entwicklung auch auf Software-Seite voranzutreiben, was insgesamt den Spielern auch zugute kommt (je eher Spieler die Effekte bewundern können, die erst die High-End-Karte ausreizen, desto besser, oder?).

MikBach
2005-10-07, 20:47:10
Problem nur, dass es sicher nicht schlecht ist, OpenGL gut zu unterstützen, da in OpenGL die meisten Effekte der Welt, die dann in Spielen (auch unter DirectX) bewundert werden können zuerst in OpenGL implementiert werden, nämlich eben von den Computergraphik-Forschern.
Wie das bei den Computergraphik-Forschern aussieht, kann ich nichts zu sagen...
Ich denke nicht, dass die Spielentwickler erstmal in OGL mit Extensions proggen, um dann in HLSL zu schreiben...

ATI tut hier wieder mal eher wenig um die Forscher zu unterstützen (die schimpfen mit Recht sehr über ATI OpenGL-Treiber), und damit indirekt die Computergrafik-Entwicklung auch auf Software-Seite voranzutreiben, was insgesamt den Spielern auch zugute kommt (je eher Spieler die Effekte bewundern können, die erst die High-End-Karte ausreizen, desto besser, oder?).
Wenn du daran forschst, dann benutze doch eine NV. Ist das für Spiele relevant?

Horimoto
2005-10-07, 20:53:26
@tombman:
Das ist die MP BETA, nciht die MP final...........
Bei der MP BETA gab es ein plus für nVidia, das mit der final ausgeglichen wurde. Die XTPE ist jetzt so schnell wie ne 78GT, also darfste dazu noch paar fps für GTX UND X180XT hinzufügen, also wird sich an der realtion nix mehr ändern.
Mit 512MB G70 wirds aber spannend ^^

PP
2005-10-07, 20:53:57
Wie hoch stehen die chancen das eine X1800XT mit Single Slot kühler von einem Hersteller kommt?

Weil mit dem Referenzkühler kriege ich des teil nicht in einen Shuttle st20g5.
Gigabyte scheint eine Single Slot X1800XT zu bringen.
Digit-life.com (http://www.digit-life.com/news.html?04/81/20#48120)
http://tw.giga-byte.com/VGA/FileList/News/news_rx1800_1.jpg
Gigabyte (http://tw.giga-byte.com/VGA/News/News_119.htm)

up¦²
2005-10-07, 21:17:58
BTW,
Wäre eine Singleslot Dual GPU Lösung möglich?

Lubi
2005-10-07, 21:19:32
BTW,
Wäre eine Singleslot Dual GPU Lösung möglich?

Ich denke eher nicht. Villeicht mit Sapphire's Liquid Metal lösung ,)

Aber sehr begrüßenswert was da Gigabyte plant! Muss sie nur noch erträglich leise sein und nicht so hochfrequent. Lieber tiefes Brummen als hohes nervtötendes surren.... Sone ahoi

Cya Lubi

MSABK
2005-10-07, 21:28:19
Gigabyte scheint eine Single Slot X1800XT zu bringen.
Digit-life.com (http://www.digit-life.com/news.html?04/81/20#48120)
http://tw.giga-byte.com/VGA/FileList/News/news_rx1800_1.jpg
Gigabyte (http://tw.giga-byte.com/VGA/News/News_119.htm)


Das wird meine neue Karte. :biggrin:

reunion
2005-10-07, 21:43:58
Das wird meine neue Karte. :biggrin:


Der Dual-Slot-Kühler ist leiser, leistungsstärker, und führt die warme Luft aus dem Gehäuse. Noch dazu muss man auch bei einem Single-Slot-Design den ersten Slot freilassen, um den Luftstrom nicht komplett abzuwürgen, was ein solches Design IMHO ad absurdum führt.

MSABK
2005-10-07, 21:52:37
Der Dual-Slot-Kühler ist leiser, leistungsstärker, und führt die warme Luft aus dem Gehäuse. Noch dazu muss man auch bei einem Single-Slot-Design den ersten Slot freilassen, um den Luftstrom nicht komplett abzuwürgen, was ein solches Design IMHO ad absurdum führt.

Normalerweise dürfte des eigentlich kein Problem sein. Ich habe sehr viele Shuttle XPCs mit geforce 7800gtx gesehen. Ich würde dann bei meinem an der seite lüftungsschlitze reinmachen, damit die warme luft irgendwie rauskann.

horn 12
2005-10-07, 22:07:25
hi ,
wer hat schon erste bilder von event. angekündigten AGP 1800 XL Grafikkarten parat !
mir scheint so , als ATI den GRAKA Herstellern mehr freiraum lässt ans NV , und ich denke es ist nur mehr eine Zeit von einigen Tagen bis ein Hersteller ne X1800 XL AGP anbietet ,
NUR auf den Preis darf man echt gespannt sein , hoffe er hält sich im Rahmen einer PCI-E , obwohl + 20 euro für den Rialto ist noch drinnen .

Lubi
2005-10-07, 22:17:17
hi ,
NUR auf den Preis darf man echt gespannt sein , hoffe er hält sich im Rahmen einer PCI-E , obwohl + 20 euro für den Rialto ist noch drinnen .

Ich denk mal dass eine AGP Lösung nicht mehr geplant ist. Wenn dir offizielle Aussagen vorliegen, her damit! Wüde mich über eine AGP Version der Chips freuen. Doch besonders in Zeiten von Crossfire und SLI denke ich kaum, dass da noch was im High End Bereich kommen wird :/

Cya Lubi

Gohan
2005-10-07, 22:24:40
hi ,
wer hat schon erste bilder von event. angekündigten AGP 1800 XL Grafikkarten parat !
mir scheint so , als ATI den GRAKA Herstellern mehr freiraum lässt ans NV , und ich denke es ist nur mehr eine Zeit von einigen Tagen bis ein Hersteller ne X1800 XL AGP anbietet ,
NUR auf den Preis darf man echt gespannt sein , hoffe er hält sich im Rahmen einer PCI-E , obwohl + 20 euro für den Rialto ist noch drinnen .

Die Hersteller bei ATi haben da genau so freie Wahl wie bei nVidia. Wenn sie wollen, dürfen sie gerne ein eigenes Design mit Bridge-Chips entwerfen um eine AGP-Version zu basteln. Und bis dies enworfen ist, vergehen bestimmt ein paar Wochen, falls sich überhaupt jemand die Mühe macht ;)

horn 12
2005-10-07, 22:31:37
Rechen mal mit SAPPHIRE
POWERCOLOR
even. CONNECT 3D / CLUB 3D

das einer / oder viell. auch alle 3
AGP karten anbieten werden , denn laut ati GIBT ES ZWAR KEIN PCB , dafür aber würde der Rialto gelobt und somit indirekt den Herstellern die Fertigung überlassen .
somit denke ich das der eine oder andere aus dem rahmen hüpft , zu seinen viel besseren Umsatzmöglich keiten ; denn ich reche fest mit bis zu 40 - 60 % welche sich dann so eine Karte ( mind. x1800 xl ) ---> ( x1800 xt wohl eher nicht da zu teuer ) zulegen würden !!

deekey777
2005-10-07, 22:44:37
Rechen mal mit SAPPHIRE
POWERCOLOR
even. CONNECT 3D / CLUB 3D

das einer / oder viell. auch alle 3
AGP karten anbieten werden , denn laut ati GIBT ES ZWAR KEIN PCB , dafür aber würde der Rialto gelobt und somit indirekt den Herstellern die Fertigung überlassen .
somit denke ich das der eine oder andere aus dem rahmen hüpft , zu seinen viel besseren Umsatzmöglich keiten ; denn ich reche fest mit bis zu 40 - 60 % welche sich dann so eine Karte ( mind. x1800 xl ) ---> ( x1800 xt wohl eher nicht da zu teuer ) zulegen würden !!

Hehe, Glückskind.

Ich bin der Meinung, daß es schon eine AGP-Platine gibt, die für Highend-Grafikkarten ausgelegt ist (zB X800XL AGP). Bisher waren auch alle Graifchips von ATi miteinander Pin-kompatibel, doch ich weiß nicht, ob es mit dem neuen Memory-Bus funktioniert (es wurde mir schonmal erklärt, aber egal).
So eine Platine gibt es bei der grünen Konkurrenz nicht.

Demirug
2005-10-07, 22:48:29
Hehe, Glückskind.

Ich bin der Meinung, daß es schon eine AGP-Platine gibt, die für Highend-Grafikkarten ausgelegt ist (zB X800XL AGP). Bisher waren auch alle Graifchips von ATi miteinander Pin-kompatibel, doch ich weiß nicht, ob es mit dem neuen Memory-Bus funktioniert (es wurde mir schonmal erklärt, aber egal).
So eine Platine gibt es bei der grünen Konkurrenz nicht.

Da der R520 einen 8 fach unterteilten Memorybus hat kann der Chip nicht mehr Pinkompatibel sein.

deekey777
2005-10-07, 22:50:43
Da der R520 einen 8 fach unterteilten Memorybus hat kann der Chip nicht mehr Pinkompatibel sein.

Ach Mist. ;(
Ausnahmen bestätigen die Regel.

€: Man braucht doch eine neue Platine für eine X1800 AGP?

Coda
2005-10-07, 22:56:12
Normalerweise dürfte des eigentlich kein Problem sein. Ich habe sehr viele Shuttle XPCs mit geforce 7800gtx gesehen. Ich würde dann bei meinem an der seite lüftungsschlitze reinmachen, damit die warme luft irgendwie rauskann.Du weißt schon, dass die XT wesentlich mehr verbrät als die GTX?

Coda
2005-10-07, 22:57:07
http://www.xbitlabs.com/images/video/radeon-x1800/fear_pure.gif

Ohne AA/AF ist die X1800XT NICHT schneller :cool:

http://www.xbitlabs.com/images/video/radeon-x1800/fear_candy.gif

Und mit AA/AF verliert die 7800GTX plötzlich über 50% Leistung :crazy2:

Damit ist wohl klar warum das so ist: 512mb vs 256mb Speicher UND 750mhz vs 600mhz. (750/600*31fps~ 39fps + 256mb = :naughty: )

Und die Final soll das Ungleichgewicht zugunsten von ATI wieder ausgleichen ;)

p.s: xbit machen einfachen die besten reviews, das war mir schon lange klar. (bis auf den Treiber diesmal, aber das checkt man eh)FEAR ist eindeutig Speicherlimitiert. Bei mir bricht es ab 4xAA auch übelst ein in 1600 ohne ersichtlichen Grund.

Deshalb würde ich diesen Benchmark mal mit Vorsicht genießen bis es 512MiB GTX gibt.

StefanV
2005-10-07, 23:00:15
Hehe, Glückskind.

Ich bin der Meinung, daß es schon eine AGP-Platine gibt, die für Highend-Grafikkarten ausgelegt ist (zB X800XL AGP). Bisher waren auch alle Graifchips von ATi miteinander Pin-kompatibel, doch ich weiß nicht, ob es mit dem neuen Memory-Bus funktioniert (es wurde mir schonmal erklärt, aber egal).
So eine Platine gibt es bei der grünen Konkurrenz nicht.
AFAIK sind nur die RVs pinkompatibel...

Andreas12
2005-10-07, 23:07:19
dumme Zwischenfrage:
wo gab es nochmal die FEAR Demo?

SKYNET
2005-10-07, 23:09:55
dumme Zwischenfrage:
wo gab es nochmal die FEAR Demo?

www.google.de

Coda
2005-10-07, 23:10:29
AFAIK sind nur die RVs pinkompatibel...Ich glaube kaum, dass irgendeine der neuen GPUs zu den alten pinkompatibel ist, schon allein weil 90nm und damit mehr Massepins und andere Spannungsversorgung.

Odal
2005-10-08, 01:47:42
FEAR ist eindeutig Speicherlimitiert. Bei mir bricht es ab 4xAA auch übelst ein in 1600 ohne ersichtlichen Grund.

Deshalb würde ich diesen Benchmark mal mit Vorsicht genießen bis es 512MiB GTX gibt.
http://www.xbitlabs.com/images/video/radeon-x1800/fear_candy.gif

sicherlich das sieht doch nen blinder mitm krückstock denn wer eins und eins zusammenzählen kann sieht sofort das die x1800xl (welche auch nur 256MB hat) nen stück hinter der 7800GT liegt (wie bei praktisch fast allen benches)
wenn der grosse abstand der x1800XT (in ausgerechnet Fear) am chip liegen würde müsste der x1800xl locker an der 7800GT vorbeiziehen..da er das in keinster weise tut und auch die XT nur bei AA soweit vorn liegt hängts an den 512 MB und an nix anderem.

das gilt auch nicht nur für fear sondern für sämtliche benches wo XL hinter GT is und XT nen deutlichen Vorsprung auf GTX hat..da kann man von der XT erstmal nen grosses stück absägen vom balken

Coda
2005-10-08, 01:49:45
Stimmt, ist mir gar nicht aufgefallen.

BesenWesen
2005-10-08, 03:12:36
Und findest du es nicht etwas komisch, dass eine PS2.0 Graka damit wirbt, eine neue Technologie zu unterstützen, diese aber total ineffizient und unrbauchbar durchführt?

Sorry fürs OT, aber das ist schlicht falsch.
So ließ sich z.B. FarCry mit dem FP16-Patch (damit meine ich nicht den unseeligen offiziellen 1.1 sondern den von Tommti) ohne große Qualitätseinbußen auf einer 5900XT recht gut spielen... sicher immernoch nicht so rund wie auf einem R3x0, aber hier von "total unbrauchbar" zu sprechen, ist völlig übertrieben.

Nur hat sich halt (wie ich zugeben muss verständlicherweise) niemand mehr die Mühe gemacht, die PS2.0 Spiele an den NV3x anzupassen. Selbst wenn. wäre er wohl langsamer gewesen, aber zwischen langsamer und unbrauchbar besteht doch ein gewisser Unterschied :)

up¦²
2005-10-08, 03:20:43
Overclocking with Radeon X1800 XT (http://www.xtremesystems.org/forums/showthread.php?t=76137)

http://www.muropaketti.com/3dmark/r520/12116_thumb.gif

... :eek:

up¦²
2005-10-08, 03:25:40
Übrigens:

http://shop.ati.com/buyatistore_assets/product_images/2739026.jpg

Radeon X850 CrossFire™ Edition 256MB PCI Express® + FREE SHIPPING $399.00 (http://shop.ati.com/product.asp?sku=2739026)

Kann die als Master für ne x1x00 dienen?

Spasstiger
2005-10-08, 03:30:54
Spieletests von xbitlabs:

http://www.xbitlabs.com/articles/video/display/radeon-x1800.html

Interessante Benchmarks. Hier kann die Radeon X1800 XT teilweise deutlich die 7800 GTX abhängen, sicherlich ein Verdienst des großen Speichers und der großen Speicherbandbreite. Teilweise wirkt da eine GeForce 7800 GT im Vergleich nur noch wie eine Mittelklasse-Grafikkarte.
Allerdings haben die ATI's auch hier keine Chance in Doom 3 und angesichts des baldigen Releases von Quake 4 und des Releases von Prey im nächsten Jahr (beide basierend auf der Doom-3-Engine) wäre es schon ganz nett, auch eine Grafikkarte mit guter OpenGL-Performance zu haben.
Bei Chronicles of Riddick (ebenfalls OpenGL) ist die Performance einer X1800 XT gegenüber der GeForce 7800 GTX sogar geradezu erbärmlich.

Zum Glück steht meine nächste Graka-Kaufentscheidung erst zur R600/G80-Generation an ;).

Mr. Lolman
2005-10-08, 09:20:21
RX1800XT + Mastercard: http://www.muropaketti.com/3dmark/r520/04.jpg

Ronny145
2005-10-08, 09:26:47
RX1800XT + Mastercard: http://www.muropaketti.com/3dmark/r520/04.jpg


lol, ich will benchmarks sehen :biggrin:

horn 12
2005-10-08, 09:34:42
Man braucht doch eine neue Platine für eine X1800 AGP?

also falls die stimmen sollte hat sich bei mir dann alles erledigt !
wie si´cher ist dies das bei aktuellen AGP Board die neuen X1800 xx karten nicht mehr funktionieren sollen ,
Gibt es bereits einige offiz. angaben , oder spannungswerte ?

danke

Odal
2005-10-08, 09:52:34
Interessante Benchmarks. Hier kann die Radeon X1800 XT teilweise deutlich die 7800 GTX abhängen, sicherlich ein Verdienst des großen Speichers

wo die x1800xt die GTX abhängen kann is nur in einem game Bench :rolleyes: und das wurde oben ja besprochen das es ausschliesslich an den +256MB liegt und somit kein verdienst des chips ist. Da würde ich nicht zu euphorisch sein.

Mumins
2005-10-08, 09:57:13
wo die x1800xt die GTX abhängen kann is nur in einem game Bench :rolleyes: und das wurde oben ja besprochen das es ausschliesslich an den +256MB liegt und somit kein verdienst des chips ist. Da würde ich nicht zu euphorisch sein.

Ein Bench? Was ist dann mit Battlefield2 und Chaos Theory?

Odal
2005-10-08, 10:32:27
Bei BF fällt mir gerade auf das das in der Tat der Fall ist, aber nur in 1600x1200 mit AA und AF. Geht die X1800 vielleicht sparsamer mit Speicher beim AA um?

Chaos Theory find ich bei X-bit labs nicht (oder ich bin blind :D )

MikBach
2005-10-08, 10:37:29
Bei BF fällt mir gerade auf das das in der Tat der Fall ist, aber nur in 1600x1200 mit AA und AF. Geht die X1800 vielleicht sparsamer mit Speicher beim AA um?
ATI war schon immer in den Quallisettings besser.

Chaos Theory find ich bei X-bit labs nicht (oder ich bin blind :D )
http://www.xbitlabs.com/articles/video/display/radeon-x1800_12.html

nach unten scrollen... :wink:

Odal
2005-10-08, 10:49:35
oh danke :D ich bin blind ;D
Chaos Theory ist zum grossteil auch ein "Opfer" des enormen Speicherkonsums bei 1600x1200 und AA also grossteils liegts hier genau wie bei FEAR an den 256 MB

ATI war schon immer in den Quallisettings besser.
das so zu pauschalisieren ist doch etwas gewagt ;)

MikBach
2005-10-08, 10:53:40
oh danke :D ich bin blind ;D
Chaos Theory ist zum grossteil auch ein "Opfer" des enormen Speicherkonsums bei 1600x1200 und AA also grossteils liegts hier genau wie bei FEAR an den 256 MB
Das müssen wir mal abwarten, ob es von den 256MB mehr an Speicher oder vom Takt abhängt.

das so zu pauschalisieren ist doch etwas gewagt ;)
Hast Recht. Ich meinte ab DX9.

Tomcat70
2005-10-08, 10:55:38
oh danke :D ich bin blind ;D
Chaos Theory ist zum grossteil auch ein "Opfer" des enormen Speicherkonsums bei 1600x1200 und AA also grossteils liegts hier genau wie bei FEAR an den 256 MB


als wenn ich mir die Far Cry benchies hier anschaue, sehe ich deine erklärung wie?
http://www.techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=8

Quasar
2005-10-08, 10:57:51
Gigabyte scheint eine Single Slot X1800XT zu bringen.
Digit-life.com (http://www.digit-life.com/news.html?04/81/20#48120)
http://tw.giga-byte.com/VGA/FileList/News/news_rx1800_1.jpg
Gigabyte (http://tw.giga-byte.com/VGA/News/News_119.htm)
Ich hoffe, die haben sich nicht nur mit dem Bild vertan. Das Design erinnert verdächtig an eine "XL" - und die wird schon knackig warm.

Odal
2005-10-08, 11:00:57
das es hier durchwachsen ist (eigentlich gings um die X-bit labs benches), einmal profitiert die XT von den +256MB
http://www.techreport.com/reviews/2005q4/radeon-x1000/farcry-volcano-1600.gif

und einmal ist der x1800 in der Tat schneller
http://www.techreport.com/reviews/2005q4/radeon-x1000/farcry-pier-1600.gif

worauf willst du hinaus?

InsaneDruid
2005-10-08, 11:02:16
Scheint aber (XL untypisch) einen eher großen Lüfter zu haben, könnte also passen mti der XT. Die XL - Refkühlung scheint mir durch den vergleichsweise sehr kleinen Lüfter gecrippelt zu sein.

Tomcat70
2005-10-08, 11:14:45
das es hier durchwachsen ist (eigentlich gings um die X-bit labs benches), einmal profitiert die XT von den +256MB

worauf willst du hinaus?

die xl hat ja auch nur 256mb und sehr viel niedrigeren takt als die xt und liegt wie im vergleich zur 7800er? anders gesagt, stell dir die xl werte mit 625/750 statt 500/500 vor...

ich meinte ausserdem eher die 1280x1024 auflösungen, wo soll da der vorteil beim speicher liegen?

Odal
2005-10-08, 11:26:05
:confused: das obere bild zeigt doch das in bestimmten Szenen die XL knapp an die GT rankommen kann die XT mit 256 MB mehr aber deutlich davon zieht? ich versteh nicht auf was du hinaus willst.

beim 2. von mir geposteten bild sieht man in der Tat das die XL gar schneller als eine GTX mit auch nur 256 MB ist, hier aber die GTX kaum schneller als eine GT, das ist etwas verwunderlich...daher nochmal meine initiale Fragen/Anliegen

kann es sein das der x1800 bei AA weniger ramhungrig (bandbreite) ist?

PP
2005-10-08, 11:30:58
Ich hoffe, die haben sich nicht nur mit dem Bild vertan. Das Design erinnert verdächtig an eine "XL" - und die wird schon knackig warm.
Leider kann man nicht lesen was auf der Karte steht, aber wenn es eine XL vor einer XT Box ist, dann sind das Arschl…. :down:

reunion
2005-10-08, 11:34:41
beim 2. von mir geposteten bild sieht man in der Tat das die XL gar schneller als eine GTX mit auch nur 256 MB ist, hier aber die GTX kaum schneller als eine GT, das ist etwas verwunderlich...daher nochmal meine initiale Fragen/Anliegen

kann es sein das der x1800 bei AA weniger ramhungrig (bandbreite) ist?

nV-Chips machen den Scanout im Framebuffer, benötigen also etwas mehr VRAM.
Könnte allerdings auch am wesentlich höheren ROP-Takt liegen.

A.Wesker
2005-10-08, 11:36:58
Ein Bench? Was ist dann mit Battlefield2 und Chaos Theory?
der BF2 vorsprung ist durch den 81.82 schon sogut wie weg, der ss3 hingegen noch vorhanden.

Tomcat70
2005-10-08, 11:46:15
:confused: das obere bild zeigt doch das in bestimmten Szenen die XL knapp an die GT rankommen kann die XT mit 256 MB mehr aber deutlich davon zieht? ich versteh nicht auf was du hinaus willst.

schon mal daran gedacht das es nicht immer am extra speicher liegt sondern logischerweise an dem viel höheren takt bei chip(+25%) und speicher(+50%)???
sieht man ja in den 1280er auflösungen, wo eine x1800xt mit 256mb kaum vor einer 512mb version liegen wird.

reunion
2005-10-08, 12:00:58
Wieder was neues von xbitlabs:

http://www.xbitlabs.com/articles/video/display/radeon-x1600.html

Tomcat70
2005-10-08, 12:05:20
das es hier durchwachsen ist (eigentlich gings um die X-bit labs benches), einmal profitiert die XT von den +256MB


die xbit-labs tests von hl2 z.b. scheinen mir sehr dubios, da liegt zeitweise die 7800gt vor der gtx(?!).
hier ein anderer hl2-vergleich: http://www.de.tomshardware.com/graphic/20051007/ati-x1000-karten-16.html#halflife_2

Odal
2005-10-08, 12:09:38
schon mal daran gedacht das es nicht immer am extra speicher liegt sondern logischerweise an dem viel höheren takt bei chip(+25%) und speicher(+50%)???
sieht man ja in den 1280er auflösungen, wo eine x1800xt mit 256mb kaum vor einer 512mb version liegen wird.

schonmal dran gedacht das sich dann eine GTX mit 20% mehr pipes + etwas mehr takt (insgesamt ca. 30%) als die GT sowie 20% mehr Speicherbandbreite sich deutlich von der GT absetzen müsste.

tut sie aber nicht, und warum?

falsches quote berichtigt

reunion
2005-10-08, 12:12:32
Leider vergleicht bis auf CB jeder nVs flimmriges "Quality"-AF mit ATIs AI_low.
Hätte nicht erwartet, dass xbitlabs da auch so stur ist.

Odal
2005-10-08, 12:20:57
die xbit-labs tests von hl2 z.b. scheinen mir sehr dubios, da liegt zeitweise die 7800gt vor der gtx(?!).
hier ein anderer hl2-vergleich: http://www.de.tomshardware.com/graphic/20051007/ati-x1000-karten-16.html#halflife_2

naja in dem einen haben die sicherlich die GTX und GT balken verwechselt...kann bei dem buchstabensalat schonmal vorkommen ;D

Odal
2005-10-08, 12:25:44
Wieder was neues von xbitlabs:

http://www.xbitlabs.com/articles/video/display/radeon-x1600.html

jo traurig aber war die x1600xt liegt praktisch immer hinter x800xl und 6800GT zurück...
wenn sich die preise nicht bei max. 200€ einpendeln is das ding nicht zu gebrauchen

A.Wesker
2005-10-08, 12:26:12
die xbit-labs tests von hl2 z.b. scheinen mir sehr dubios, da liegt zeitweise die 7800gt vor der gtx(?!).
hier ein anderer hl2-vergleich: http://www.de.tomshardware.com/graphic/20051007/ati-x1000-karten-16.html#halflife_2
hier scheint tomshwardware mist gebenched zu haben, genauso wie bei far cry

Tomcat70
2005-10-08, 12:29:18
schonmal dran gedacht das sich dann eine GTX mit 20% mehr pipes + etwas mehr takt (insgesamt ca. 30%) als die GT sowie 20% mehr Speicherbandbreite sich deutlich von der GT absetzen müsste.

tut sie aber nicht, und warum?


cpu-limitierung? wie auch immer, es liegt sicher in den 1280er auflösungen kaum an den 512mb das die x1800xt vorne liegt.