PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X1800 XL jetzt gehts los!


Gast
2005-11-06, 13:42:32
Die Preise Purzeln wie warme semmel!
http://www.geizhals.at/eu/?a=168706&t=alle&v=l

Die Karten sind jetzt fast überall schon auf Lager.

Raff
2005-11-06, 13:43:41
Schade, dass sie aber erst in Richtung maximal 300,- Euro interessant werden ...

MfG,
Raff

Merkor
2005-11-06, 13:49:48
Schade, dass sie aber erst in Richtung maximal 300,- Euro interessant werden ...

MfG,
Raff

Najaaaa, billiges 7800GT-Niveau fände ich auch in Ordnung (max 330.-), aber dann nur mit leisem Lüfter. Mit dem Referenzkühler ist die Karte uninteressant für mich...

Gast
2005-11-06, 14:19:15
Najaaaa, billiges 7800GT-Niveau fände ich auch in Ordnung (max 330.-), aber dann nur mit leisem Lüfter. Mit dem Referenzkühler ist die Karte uninteressant für mich...
Kommt bestimmt auf denn Hersteller an.

Werschtsupp
2005-11-06, 14:19:27
Finde ich auch. Die XL im Referenzdesign ist uninteressant. Von der Leistung her ist sie ja ganz passabel, aber ne 7800 GT ist in meinen Augen lohnender, da sie weniger Strom braucht und man auch ohne Angst den Lüfter mal runterregekn kann. Desweiteren ist das Ding meistens schneller und auch noch günstiger.

Merkor
2005-11-06, 14:34:30
Kommt bestimmt auf denn Hersteller an.

Ich habe noch keine XL mit Nicht-Referenzkühler gesehen. Und der ist laut PCGH und Computerbase alles andere als leise. Vielleicht weiß da ja jemand was. Ich hätte gern einen leisen und effektiven 1-Slot-Kühler á la 7800GTX (nicht GT!) AB WERK (Ich werde meinen Garantieanspruch nicht durch die Unfähigkeit der ATI-Ingeneure, ein Lüfterwunder zu vollbringen, aufs Spiel setzen, wenn ich einen neuen Kühler montiere!).

ChristianTHB
2005-11-06, 14:37:54
Schade, dass sie aber erst in Richtung maximal 300,- Euro interessant werden ...

MfG,
Raff
Weshalb ich auch noch warte und mir bis dahin ne billige 6800 zulege, der Referenzkühler der X1800 XL soll aber ein echter Nervtöter sein. Ein Grund mehr um sich in Geduld zu üben, da gibts sicher bald alternative Kühlungsmethoden. Aber irgendwie täts mich schon reizen son Teil mein eigen zu nennen ;D

dargo
2005-11-06, 15:20:12
Von der Leistung her ist sie ja ganz passabel, aber ne 7800 GT ist in meinen Augen lohnender, da sie weniger Strom braucht und man auch ohne Angst den Lüfter mal runterregekn kann. Desweiteren ist das Ding meistens schneller und auch noch günstiger.
G7800GT - max. 57W
X1800XL - max. 59W

Wahnsinn ! :eek: :cool:

derfarmer
2005-11-06, 15:45:37
G7800GT - max. 57W
X1800XL - max. 59W

Wahnsinn ! :eek: :cool:


und wieviel unter last? das war doch bestimmt im idle oder?

Spasstiger
2005-11-06, 15:52:36
und wieviel unter last? das war doch bestimmt im idle oder?

59 Watt Idle?
Dann wäre es ein Wunder, dass überhaupt noch jemand solche Grafikkarten kauft.
Die X1800 XL zieht ca. die Hälfte des Stroms, den eine X1800 XT unter Volllast benötigt.

alpha-centauri
2005-11-06, 17:11:18
Die X1800 XL zieht ca. die Hälfte des Stroms, den eine X1800 XT unter Volllast benötigt.

bei aller ati abneigung, glaub ich das nicht, bevor ich quellen gesehen hab.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

xt zur xl sinds 20 watt.

gt zur xl sinds ca 10 watt.

Spasstiger
2005-11-06, 17:24:47
bei aller ati abneigung, glaub ich das nicht, bevor ich quellen gesehen hab.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

xt zur xl sinds 20 watt.

gt zur xl sinds ca 10 watt.

Diese Werte sind eh nicht wirklich brauchbar. Aus diesem Userbericht geht hervor, dass die Radeon X1800 XL deutlich weniger verbraucht als die 7800 GTX, sowohl Idle (12 Watt weniger) als auch unter Last (40 Watt weniger): http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3621314&postcount=759
Bei Computerbase sieht es etwas anders aus.

Und hier wurde der Verbrauch allein der Grafikkarten gemessen:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Die X1800 XT verbraucht wirklich fast das Doppelte der X1800 XL.

StefanV
2005-11-06, 17:26:34
bei aller ati abneigung, glaub ich das nicht, bevor ich quellen gesehen hab.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

xt zur xl sinds 20 watt.

gt zur xl sinds ca 10 watt.
Und, haben die auch 'ne um 30% höhere Spannung??

Aber du kannsts dir ja selbst ausrechnen, gehen wir einfach mal von 40-45W aus, dazu ~30% mehr Spannung (wie wir in der Schule gelernt haben: doppelte Spannung = doppelter Strom = das doppelte vom doppelten).

chrisihamm
2005-11-06, 17:28:53
Das die XT das doppelte wie die XL verbraucht bezweifle ich ganz stark.Ich hatte die XL auf XT niveau und sie hat ca soviel verbraucht wie meine 7800er GTX!!!


mfg

Spasstiger
2005-11-06, 17:50:17
Das die XT das doppelte wie die XL verbraucht bezweifle ich ganz stark.Ich hatte die XL auf XT niveau und sie hat ca soviel verbraucht wie meine 7800er GTX!!!


mfg

Die XT kommt aber ab Werk mit 20% höherer Spannung und mit der doppelten Speichermenge.
Das kann zusammen mit dem höheren Takt durchaus den doppelten Verbrauch ausmachen.
Und wenn du schon schreibst, die die 7800 GTX 40 Watt mehr verbraucht als die X1800 XL und deine X1800 XL auf XT-Niveau soviel braucht wie die 7800 GTX, durch das Übertakten also ein Mehrverbrauch von rund 40 Watt rauskommt, dann haut das mit dem doppelten Verbrauch doch hin.

dargo
2005-11-06, 17:55:07
Und hier wurde der Verbrauch allein der Grafikkarten gemessen:
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html

Ach sorry.
G7800GT - 56,7W
X1800XL - 59,2W

:devil:

Übrigens, danke für den Link. Ich hatte den schon verzweifelt gesucht.
Gleich mal in Favoriten rein damit. :D

Das die XT das doppelte wie die XL verbraucht bezweifle ich ganz stark.Ich hatte die XL auf XT niveau und sie hat ca soviel verbraucht wie meine 7800er GTX!!!

Hmm, hattest du eine X1800XL mit 512MB Vram ? :naughty:
Soweit ich weiß ziehen die zusätzlichen 256MB Vram der X1800XT alleine schon ~20W.
Außerdem, hast du der GPU 1,31V und dem Speicher 2,0V gegeben ?

Die gelbe Eule
2005-11-06, 18:00:39
Ist es nicht etwas traurig, das die XL erst dann verfügbar werden, wo eigentlich die XT einschlagen sollte? Das riecht wieder nach Verspätung ...

PatkIllA
2005-11-06, 18:04:20
Passen die alten Kühler eigentlich auch noch auf die X1x00 Karten?

mapel110
2005-11-06, 18:10:40
Ist es nicht etwas traurig, das die XL erst dann verfügbar werden, wo eigentlich die XT einschlagen sollte? Das riecht wieder nach Verspätung ...
war schon vorher vermutet worden.
http://www.geizhals.at/eu/?fs=x1800+xl+256&in=
Aber derzeit siehts wirklich gut aus mit der Verfügbarkeit. Wenn man gutes AF haben will, muss man wohl soviel vorerst zahlen. Sind halt noch Einführungspreise und die Lager sind wohl nicht überfüllt. Sowas wirkt sich ja auch hinundwieder auf den Preis aus. ;)

alpha-centauri
2005-11-06, 20:37:04
120 W der XT ist natürlich schon deutlich heftig.

ich bin mal gespannt, wo die kommende 7800 Ultra mit 512 MB ram liegen wird.

ich mein.. das ist ja fast so, als würd ich 2 x 7800GT SLI betreiben.

ich finds halt heftig. hatte man bei intel mit ihren P4s über die hohe verlustleistung gemeckert, gehts jetzt in richtung grafik weiter.

chrisihamm
2005-11-06, 20:44:01
Ja die XL wurde mit den Spannungen der Xt betrieben!!

dargo
2005-11-06, 21:08:47
120 W der XT ist natürlich schon deutlich heftig.

ich bin mal gespannt, wo die kommende 7800 Ultra mit 512 MB ram liegen wird.

ich mein.. das ist ja fast so, als würd ich 2 x 7800GT SLI betreiben.

ich finds halt heftig. hatte man bei intel mit ihren P4s über die hohe verlustleistung gemeckert, gehts jetzt in richtung grafik weiter.
Wie gesagt, ein großer Teil ist dem Speicher zu verdanken. Was aber nichts an der Tatsache ändert, daß es zuviel ist. Deswegen steht auch GDDR4 vor der Tür. :D
Dürfte aber am Gesamtverbrauch der Graka auch nicht viel ändern. Vielleicht 10-15W bei 512MB Vram.

Spasstiger
2005-11-06, 21:18:50
Ja die XL wurde mit den Spannungen der Xt betrieben!!

Ja siehst, wenn du jetzt noch 20% höhere Spannungen draufschlägst, erhöht sich die Verlustleistung um 1,2*1,2=1,44, also weitere 44%.
ATI möchte wohl auf Nummer sicher gehen, was die Spannungsversorgung angeht. Und immerhin hat man so auch noch Spielraum für Übertatkungen, vorausgesetzt, die Kühlung spielt mit.
An den hohen Stromverbrauch bei Highest-End-Komponenten muss man sich wohl gewöhnen. Oder man kauft einfach immer eine Stufe unter Highest-End, also z.b. GeForce 7800 GT statt GTX oder Radeon X1800 XL statt XT.

StefanV
2005-11-06, 21:19:36
Passen die alten Kühler eigentlich auch noch auf die X1x00 Karten?
Leider nein, da hat ATi leider ein wenig geändert...

Merkor
2005-11-06, 21:24:05
Gibt es eigentlich Temp- und Powertests mit einem ATI-Treiber, der nicht den Temp-Bug hatte und ja vermutlich zu einem höheren Stromverbrauch geführt hat? Evt. ist dann ja auch der Lüfter leiser? Oder hab ich mit dieser Temp-Geschichte was verpasst?

-error-
2005-11-06, 21:26:23
Vor 2 Wochen war die X1800 kurzeitig für 360 Euro auf Lager!

misterh
2005-11-06, 21:49:47
Vor 2 Wochen war die X1800 kurzeitig für 360 Euro auf Lager!

quatsch

das war letzte woche.

-error-
2005-11-06, 21:52:09
quatsch

das war letzte woche.

Oder so.

LeChuck
2005-11-06, 22:08:37
Oder so.

359,-- Euro ... ich hatte Glück :)

Pandur
2005-11-06, 22:38:47
Nur wer will schon so eine Karte haben?

Die sollten wenigsten mit nem Silent Lüfter ausgestattet sein und unter 300 Goldstücken kosten....am Liebsten mit dem Zalman.

Die werden doch hoffentlich noch kommen, also x1800xl mit Zalman schon drauf? Der Markt ist doch wohl da, nunja hier im Forum wenigstens wollen viele leise leistungsstarke Grakas.

Vielleicht habe ich ja Glück und es gibt die Karten Anfang nächsten Jahres in meiner gewünschten Ausstattung und zu einem aktzeptablem Preis. Bei über 300 Golstücken die Garantie zu verlieren ist ja nicht besonders lustig und ne laute Graka kann irgendwie gleich in die Mülltonne....

Spasstiger
2005-11-06, 22:42:44
Die werden doch hoffentlich noch kommen, also x1800xl mit Zalman schon drauf?

Eine Sapphire Ultimate X1800 XL mit dem Zalman VF-700 könnte ich mir sehr gut vorstellen. Ist nur eine Frage der Zeit bis solche Karten in den Handel kommen.

LeChuck
2005-11-06, 22:45:39
Dann macht man den selber drauf .. scheiss auf die Garantie :)

alpha-centauri
2005-11-06, 23:04:05
Nur wer will schon so eine Karte haben?


ett gibt sogar leute hier im forum, die 400 euro für ne 7800GT bezahlen, die für 300 euro gebraucht weiterverkaufen und sich für +400 euro ne x1800XL kaufen.

und dann liegt nicht mal nen funktionierenden pcie-stromadapter dabei.

mir ists zwar unverständlich, wie man sowas machen kann. aber der thread hat schon einige tausend hits.

Johnny Rico
2005-11-06, 23:28:00
echt? >_<

Matrix316
2005-11-06, 23:38:39
ett gibt sogar leute hier im forum, die 400 euro für ne 7800GT bezahlen, die für 300 euro gebraucht weiterverkaufen und sich für +400 euro ne x1800XL kaufen.

und dann liegt nicht mal nen funktionierenden pcie-stromadapter dabei.

mir ists zwar unverständlich, wie man sowas machen kann. aber der thread hat schon einige tausend hits.

Es gibt auch Leute die geben 2000 € für Boxen aus, wo jede einzelne so viel kostet, oder 1000 € für einen Verstärker oder 800 € für einen Monitor. ;) Hat halt jeder seine Hobbys...

Spasstiger
2005-11-06, 23:39:59
Eine X1800 XL kaufen all diejenigen, die vom aktuellen Nvidia-AF die Nase voll haben und lieber ATIs Weg des winkelunabhängigen AFs mit beschreiten wollen.

PP
2005-11-06, 23:56:55
ett gibt sogar leute hier im forum, die 400 euro für ne 7800GT bezahlen, die für 300 euro gebraucht weiterverkaufen und sich für +400 euro ne x1800XL kaufen.

und dann liegt nicht mal nen funktionierenden pcie-stromadapter dabei.

mir ists zwar unverständlich, wie man sowas machen kann. aber der thread hat schon einige tausend hits.

Ihm war winkelunabhängigen AF 100 Euro wert, muss jeder selbst entscheiden.
Mich würde es aber eher wundern, wenn es solche Leute nicht im 3DCenter Forum geben wurde ;)

Gast
2005-11-07, 01:22:23
also da hier irgendwie nur auf die XL gebasht wird sag ich mal was dazu...

ich hab am mittwoch meine von connect3D bekommen(zwar bulk, aber demos kann ich mir auch ziehen...). ich HATTE einen strom-adapter, der sogar extra-lang war ;)

außerdem ist die leistung dieser karte in meinen augen hammer im vergleich zu ner 68u, die ich vorhin verbaut hatte.

und zu den temps:
so wie ichs bei mir sehe taktet die im 2D- und 3D-modus gleich weshalb sich die last-temps bei mir auch so um die 73° @ chip drehen

außerdem is der lüfter bei 40% für mich unhörbar ;)

Mumins
2005-11-07, 07:27:40
ett gibt sogar leute hier im forum, die 400 euro für ne 7800GT bezahlen, die für 300 euro gebraucht weiterverkaufen und sich für +400 euro ne x1800XL kaufen.

und dann liegt nicht mal nen funktionierenden pcie-stromadapter dabei.

mir ists zwar unverständlich, wie man sowas machen kann. aber der thread hat schon einige tausend hits.

Du solltest mal mit deinem widerlichen ATI gebashe aufhören. Dass Du Intel und Nvidia Fanboy bist das weiß hier eh schon jeder.
Zum PCI-E Adapter, wenn ich ein gescheites NT hab, dann brauch ich den scheiß Adapter nicht.

MartinRiggs
2005-11-07, 07:49:29
Du solltest mal mit deinem widerlichen ATI gebashe aufhören. Dass Du Intel und Nvidia Fanboy bist das weiß hier eh schon jeder.
Zum PCI-E Adapter, wenn ich ein gescheites NT hab, dann brauch ich den scheiß Adapter nicht.
So nen sch.... Adapter bekommt man eigentlich in jedem Kuhkaff :biggrin:
Aber irgendwie muß man ja ne Karte schlechtreden

misterh
2005-11-07, 08:10:13
So nen sch.... Adapter bekommt man eigentlich in jedem Kuhkaff :biggrin:
Aber irgendwie muß man ja ne Karte schlechtreden

wer schlecht redet, ist nicht mehr zu retten. :rolleyes:

Raff
2005-11-07, 08:29:25
Nichts gegen die Karte -- aber gegen den Preis. Meist langsamer als eine 7800GT, dafür das schönere AF. Was einem letzteres Wert ist, muss jeder selbst entscheiden.

MfG,
Raff

MartinRiggs
2005-11-07, 09:48:27
Die wird doch noch billiger und 370 Euro geht ja schonmal.
Die 5 Frames die ne GT manchmal schneller ist ist doch nur wirklich Banane und vom Lüfter tun sie sich ja leider nix, sind beide zu laut.

alpha-centauri
2005-11-07, 09:56:03
Ihm war winkelunabhängigen AF 100 Euro wert, muss jeder selbst entscheiden.
Mich würde es aber eher wundern, wenn es solche Leute nicht im 3DCenter Forum geben wurde ;)

mir gehts nur um frames und preis/leistung. am liebsten würd ich noch in High Performance-Qualität zocken - aber das ist ja wirklich nur geflimmere.

aber es waren mehr als 100 euro.


Du solltest mal mit deinem widerlichen ATI gebashe aufhören. Dass Du Intel und Nvidia Fanboy bist das weiß hier eh schon jeder.

öhäm... Bitte: Multi-Threading (P4 HT) und Dual-Core Fanboy (AMDx2). Das hat nix mit Intel Fanboy zu tun.

Und das ist kein gebashe. Das ist Produktinformation, die ich hier kund tue. Es soll sich jeder selbst ein Bild machen.

Und dazu gehört, dass die XL aktuell teurer ist, lauter und mehr Strom Verbraucht als die GT.

Dazu kommt, dass die GT schlechteres Filtering hat, und auch Regelprobleme der Lüftersteuerung. Dafür mehr Frames pro Bucks bietet.

Immer noch gebashe?


Zum PCI-E Adapter, wenn ich ein gescheites NT hab, dann brauch ich den scheiß Adapter nicht.

stimmt. bei jedem entschluss, von Intel mal die ATX Version hochzuschrauben, kauft sich der User ein neues NT.


Die 5 Frames die ne GT manchmal schneller ist ist doch nur wirklich Banane und vom Lüfter tun sie sich ja leider nix, sind beide zu laut.

Datt sind immerhin 5- 15% im Durchschnitt.

Datt ist halt, wie sagen: Ich kauf mir nen Celeron mit 3 Ghz, weil er von Intel ist. Ist halt 10% langamer als nen Sempron und teurer- aber er ist von Intel.

Gast
2005-11-07, 10:31:52
Ihm war winkelunabhängigen AF 100 Euro wert, muss jeder selbst entscheiden.
Mich würde es aber eher wundern, wenn es solche Leute nicht im 3DCenter Forum geben wurde ;)


niocht nur das relativ winkelunabhängige af, auch die tatsache dass hdr+aa nur auf x1x00 karten funktioniert ist ein kaufgrund und durchaus auch 50-100€ mehrpreis gegenüber einer g70-karte wert. mich würde nur mal interessieren, ob die hdr-qualität von der x1x00 mit nvidia's hdr mithalten kann.

Gast
2005-11-07, 12:16:39
Need for Speed most wanted wird HDR+AA unterstützen,ich will mall sehen wie die 7800 User dann gucken..

Gast
2005-11-07, 12:21:04
Datt sind immerhin 5- 15% im Durchschnitt.

Datt ist halt, wie sagen: Ich kauf mir nen Celeron mit 3 Ghz, weil er von Intel ist. Ist halt 10% langamer als nen Sempron und teurer- aber er ist von Intel.
Ne GT ist net schneller wie ne X1800XL...liegen eher gleichauf(von Game zu Game unterschiedlch)...dazu kommt das sie OC schon so schnell ist wie eine OC GTX;-)

Mr. Lolman
2005-11-07, 12:22:48
Nichts gegen die Karte -- aber gegen den Preis. Meist langsamer als eine 7800GT, dafür das schönere AF. Was einem letzteres Wert ist, muss jeder selbst entscheiden.

MfG,
Raff

So schlimm ist der Preis nicht. Außerdem sorgt der programmierbare Speichercontroller künfitg sicher noch für bessere Performance, genauso wie die hohe Leistung beim dynamischen Branching, welche wunderbar für Effekte wie im Toyshopdemo einzusetzen ist. Z.B: sind die ganzen Parallax/Reliefmapping mods für D³/Q4 insofern unbrauchbar (wenn nicht gerade n G70 SLI System vorhanden ist), weils eben dynamisches Branching braucht, damit die Effekte nicht über alle Mips berechnet werden...

Dann gibts eben noch das bessere AF und das brauchbarere AAA (>4x, Tweakoptionen, ob nur alphatest oder alle alphatexturen, und als Alternative gibts auch noch A2C, oder temporal AA4free, wenn man VSyncOn Spieler ist)

Raff
2005-11-07, 12:49:34
Dem entgegen steht TAA und reines SSAA bzw. Hybriden bei Nv. Letzteres ist bei ganz alten Spielen IMHO noch immer die beste Lösung ... und bei Nv "dank" Augen-Krustentier-AF oft teure Pflicht.

Wenn ich ehrlich bin: Wenn ich 350€ und die Wahl hätte -- ich würde wohl eine XL kaufen. Schnauze voll vom Flimmer-AF. Dazu ein gescheiter Kühler und rauf auf XT-Takte. Das passt schon. Aber die Wahl ist echt schwer ...

Doch halt: Wo zum Henker bleiben die verdammten AGP-Versionen?! Ein Jahr warte ich noch, ich mach's den dreisten Säcken nicht zu einfach.

MfG,
Raff

StefanV
2005-11-07, 13:24:55
ett gibt sogar leute hier im forum, die 400 euro für ne 7800GT bezahlen, die für 300 euro gebraucht weiterverkaufen und sich für +400 euro ne x1800XL kaufen.

und dann liegt nicht mal nen funktionierenden pcie-stromadapter dabei.

mir ists zwar unverständlich, wie man sowas machen kann. aber der thread hat schon einige tausend hits.
Es gibt Leute, die fahren in der heutigen Zeit AUtos mit einem Durchschnittsverbrauch von 15l/100km und sind sogar noch Glücklich damit!

Was andere Leute machen, hat dich nicht zu interessieren, insbesondere was sie mit dem Geld machen, schließlich verdienen die meisten Leute hier im Forum selbst Geld und wissen selbst am besten, was sie damit machen!!

Zumal dieser jene welche auch noch 'ne Volari, Delta Chrome, Gamma Chrome und ähnliches hatte :rolleyes:

Ihm war winkelunabhängigen AF 100 Euro wert, muss jeder selbst entscheiden.
Mich würde es aber eher wundern, wenn es solche Leute nicht im 3DCenter Forum geben wurde
Ja, das auch.
Hier im Forum gibts halt ein paar 'Freaks'; die ein paar DInge machen, die andere Leute nur schwer verstehen, nur müssen sie das auch nicht.

Was ich aber nicht wirklich ab kann, sind dann wieder andere Leute, die diese Leute, die gern mal neue Hardware testen, niedermachen müssen...

Aber ich will mich aktuell auch mal outen:
Hab momentan hier 5 P2/P3 Bretter rumliegen (naja, mehr oder minder) und ein 6. ist unterwegs.

Und, bin ich deswegen verrückter als andere?!

Das ich dazu noch 3 V2, 1V1, 'ne Voodoo Rush, 2 V3 und 2 Banshees hab, ändert auch nicht viel an meinem Geisteszustand, bin eigentlich noch voll zurechnungsfähig, auch wenn ich gern mal Dinge mach, die wenig bis garnicht sinnvoll sind, wie z.B. ein AUto zu fahren, das 15l/100km braucht und mehrere Rechner die durchaus funktionieren hier stehan hab :devil:

Verstehen muss man das nicht, akzeptieren aber...


Du solltest mal mit deinem widerlichen ATI gebashe aufhören. Dass Du Intel und Nvidia Fanboy bist das weiß hier eh schon jeder.
Zum PCI-E Adapter, wenn ich ein gescheites NT hab, dann brauch ich den scheiß Adapter nicht.
In diesem Fall wars kein ATi gebashe, das war ein persönlicher Angriff gegenüber mrh, ergo unterste Schublade...

also da hier irgendwie nur auf die XL gebasht wird sag ich mal was dazu...

ich hab am mittwoch meine von connect3D bekommen(zwar bulk, aber demos kann ich mir auch ziehen...). ich HATTE einen strom-adapter, der sogar extra-lang war ;)

außerdem ist die leistung dieser karte in meinen augen hammer im vergleich zu ner 68u, die ich vorhin verbaut hatte.

und zu den temps:
so wie ichs bei mir sehe taktet die im 2D- und 3D-modus gleich weshalb sich die last-temps bei mir auch so um die 73° @ chip drehen

außerdem is der lüfter bei 40% für mich unhörbar ;)

Richtig, das der Adapter nicht dabei war, dürfte eindeutig ein Verpackungsfehler gewesen sein, da nicht davon auszugehen war, das die Karte schonmal einen vorbesitzer hatte...

Sowas kommt bei den besten Firmen mal vor...

Mr. Lolman
2005-11-07, 13:36:47
Dem entgegen steht TAA und reines SSAA bzw. Hybriden bei Nv. Letzteres ist bei ganz alten Spielen IMHO noch immer die beste Lösung ... und bei Nv "dank" Augen-Krustentier-AF oft teure Pflicht.

Wenn ich ehrlich bin: Wenn ich 350€ und die Wahl hätte -- ich würde wohl eine XL kaufen. Schnauze voll vom Flimmer-AF. Dazu ein gescheiter Kühler und rauf auf XT-Takte. Das passt schon. Aber die Wahl ist echt schwer ...

Doch halt: Wo zum Henker bleiben die verdammten AGP-Versionen?! Ein Jahr warte ich noch, ich mach's den dreisten Säcken nicht zu einfach.

MfG,
Raff

Was bringt die Hybrid SSAA (mit OG :(), wenns günstigeres AAA gibt? Ok eine AGP Version fehlt mir auch. Aber dank MisterHs emsigen OC überleg ich mir mittlerweile ganz stark ob ich mir tatsächlich eine x1800xt zulegen soll, oder obs nicht eine XL auch täte...

StefanV
2005-11-07, 13:38:55
mir gehts nur um frames und preis/leistung. am liebsten würd ich noch in High Performance-Qualität zocken - aber das ist ja wirklich nur geflimmere.

aber es waren mehr als 100 euro.

Und, was hat dich das zu interessieren?!
Hat er dir das Geld dafür abgenommen oder wars sein eigenes?!


Und das ist kein gebashe. Das ist Produktinformation, die ich hier kund tue. Es soll sich jeder selbst ein Bild machen.

Hast du ein entsprechendes Produkt, um das es hier geht oder verteidigst du nur dein Produkt?!

Tschuldigung, aber dein Verhalten in diversen Threads, in denen es um die x1800 geht, kann man nur so deuten, das du zwanghaft versuchst, deine 7800 zu verteidigen...


Und dazu gehört, dass die XL aktuell teurer ist, lauter und mehr Strom Verbraucht als die GT.

DAS ist glatt gelogen!

Insbesondere das mit dem Stromverbrauch...

Allerdings solltest du in diesem Fall dich nicht zu weit aus dem Fenster lehnen, da du ja auch noch einen sehr stark heizenden P4 dein eigen nennst...
Von daher verstehe ich deine Argumentation mit der Abwärme absolut nicht, zumal der A64 der wesentlich potentere Spieleprozessor ist...

Dazu kommt, dass die GT schlechteres Filtering hat, und auch Regelprobleme der Lüftersteuerung. Dafür mehr Frames pro Bucks bietet.

Beweise dafür?!

Denn bisher schauts eher so aus, als ob die x1800 teilweise wesentlich besser ist als das was nV momentan zu bieten hat...

Immer noch gebashe?

Jap, definitiv!


Datt sind immerhin 5- 15% im Durchschnitt.

Datt ist halt, wie sagen: Ich kauf mir nen Celeron mit 3 Ghz, weil er von Intel ist. Ist halt 10% langamer als nen Sempron und teurer- aber er ist von Intel.

Was hat das damit zu tun?!
Die x1800 hat definitiv so ihre Vorteile, die durchaus mehr als ausreichend sind, diese Karte vor einer G70 zu bevorzugen!

Dein sinnloses G70 gehype solltest dir in die Tasche stecken, das brint in diesem Forum eh kaum was...

Ach, übrigens:

Warum hast du eigentlich 'nen p4, wenn du soviel Wert auf die Frames per Seconds legst?!

Der Athlon 64 ist teils deutlich vor dem P4, von daher wird eine x1800XL auf 'nem A64 schneller sein als deine 7800 mit deinem P4, zumal der A64 auch noch in den Genuss der 64bit Optimierungen zukünftiger Games kommen könnte ;) ;)

StefanV
2005-11-07, 13:40:42
Was bringt die Hybrid SSAA (mit OG :(), wenns günstigeres AAA gibt? Ok eine AGP Version fehlt mir auch. Aber dank MisterHs emsigen OC überleg ich mir mittlerweile ganz stark ob ich mir tatsächlich eine x1800xt zulegen soll, oder obs nicht eine XL auch täte...
Die Hybrid Modis sind für ältere Games ganz nützlich, wo die aktuellen Karten eh mehr als ausreichend sind, kann man die Leistung entsprechend verpulvern.

Ansonsten sehe ich aber wenig bis garkeine Vorteile für die Hybridmodis bei neuen Games...
Dem entgegen steht TAA und reines SSAA bzw. Hybriden bei Nv. Letzteres ist bei ganz alten Spielen IMHO noch immer die beste Lösung ... und bei Nv "dank" Augen-Krustentier-AF oft teure Pflicht.

Wenn ich ehrlich bin: Wenn ich 350€ und die Wahl hätte -- ich würde wohl eine XL kaufen. Schnauze voll vom Flimmer-AF. Dazu ein gescheiter Kühler und rauf auf XT-Takte. Das passt schon. Aber die Wahl ist echt schwer ...

Doch halt: Wo zum Henker bleiben die verdammten AGP-Versionen?! Ein Jahr warte ich noch, ich mach's den dreisten Säcken nicht zu einfach.

MfG,
Raff
1. TAA soll noch recht buggy sein, reines SSAA macht man am besten mit einem SS Abtastmuster, das OG der G-Fs ist nicht wirklich pralle.
2. Richtig, bei alten Spielen, nur gibts da wieder das Problem mit der verschlechterten 16bit Filterung (warum hat man nicht 'nen "force 32bit" Schalter eingebaut, im Treiber?!), womit man einen Vorteil hätte, aber auch einen großen Nachteil...

3. richtig, die x1800 scheint momentan die beste Wahl zu sein, wobei ich wohl eher 2 x1600 nehmen würde, aufgrund von CF AA 2 x1800 wären dann doch etwas arg teuer ;)
Siehe auch den entsprechenden Bericht in eine der letzten c't Ausgaben (die mit den 100€ Rechnern), da haben sies getestet, CF AA ist weitaus besser als SLI AA und auch IMO der wichtigste Grund sich für Crossfire zu entscheiden...

4. tja, da du leider einen Pentum M hast, hast du in diesem Fall ein recht großes (finanzielles)Problem.
Als K8 User ist das aber wirklich das geringste Problem, da kann man 'mal eben' das alte Brett entsorgen und was neues reinkloppen, gibt sogar für recht wenig Geld recht brauchbare Bretter, allerdings mit Einschränkungen...

Bei dir bleibt nur die Wahl zwischen einem neuen, echten S479 Brett oder aber mal das ASUS P4GPL zu versuchen.

Mr. Lolman
2005-11-07, 14:04:22
Ach CFAA ist was für Freaks. Imo ist alles über ein 4x4EER Luxus. (und alles darunter eine Zumutung)

Alphaflight
2005-11-07, 14:43:52
Need for Speed most wanted wird HDR+AA unterstützen,ich will mall sehen wie die 7800 User dann gucken..



Ich will dann mal gucken wie das ganze mit 20fps läuft ;)

dargo
2005-11-07, 15:38:37
Ich will dann mal gucken wie das ganze mit 20fps läuft ;)
Da wäre ich mir nicht so sicher.
Soweit ich weiß ist die NfS:UG2 Engine ziemlich cpu-limitiert.

Raff
2005-11-07, 15:59:50
Da wäre ich mir nicht so sicher.
Soweit ich weiß ist die NfS:UG2 Engine ziemlich cpu-limitiert.

Die Optik ist aber in keinster Weise vergleichbar ... da liegen Welten dazwischen.

MfG,
Raff

StefanV
2005-11-07, 16:26:31
Die Optik ist aber in keinster Weise vergleichbar ... da liegen Welten dazwischen.

MfG,
Raff
Bei Need for Speed Underground musste man ja auch noch auf die Paystation 2 rücksicht nehmen, in der neuen Version sicher nicht (mehr) ;)

Dr.Dirt
2005-11-07, 17:29:54
Denn bisher schauts eher so aus, als ob die x1800 teilweise wesentlich besser ist als das was nV momentan zu bieten hat...

Außer dam HQ-AF eher nicht. Die x1800er verbraten mehr Energie und scheinen auch lauter zu sein (oder ähnlich laut, wobei die 7800 GTX ja recht leise sein soll).
Von wesenlich besser kann also nicht die Rede sein.

dargo
2005-11-07, 17:47:19
Die Optik ist aber in keinster Weise vergleichbar ... da liegen Welten dazwischen.

Das ist schon klar, daß die Grafik in Most Wanted besser ist.
Es ist aber nur eine stark aufpolierte NfS:UG2 Engine, mehr nicht.

Das einzige was wohl stark auf die Graka gehen sollte wird das HDR sein. Je nachdem wie stark es zum Einsatz kommt. Die Fahrt aus dem Tunnel sah aber schon sehr gut aus. :)

InsaneDruid
2005-11-07, 18:36:26
Btw Image Quality.

Grade aktuell im RaceSinCentral: FSAA/AF @ GT Legends

GTL 4x/16x (tri, ai low, bri/stage off) @ X800XL:

http://img114.imageshack.us/img114/5026/gtl20051102192120469vi.th.jpg (http://img114.imageshack.us/my.php?image=gtl20051102192120469vi.jpg)

GTL 4x/16x @ 7800GTX, driver Forceware 81.85, image quality settings set to "high quality", no optimisation, trilinear filtering forced, gamma corrected AA on.
http://img467.imageshack.us/img467/2883/s02nv7800aa4xaf16x6yz.th.jpg (http://img467.imageshack.us/my.php?image=s02nv7800aa4xaf16x6yz.jpg)

Und nochmal

GTL 6x + 6xAAA /16x (tri, ai low, bri/stage off) @X800XL
http://img114.imageshack.us/img114/6188/gtl20051102192307427yf.th.jpg (http://img114.imageshack.us/my.php?image=gtl20051102192307427yf.jpg)

GTL 8xs, AF 16x @ 7800GTX, driver Forceware 81.85, image quality settings set to "high quality", no optimisation, trilinear filtering
http://img42.imageshack.us/img42/6661/s02nv7800aa8xsaf16x5jd.th.jpg (http://img42.imageshack.us/my.php?image=s02nv7800aa8xsaf16x5jd.jpg)

dargo
2005-11-07, 18:46:52
Korrigiert mich wenn ich falsch liege. Aber die X800XL glättet die Kanten deutlich besser. Sieht man besondert gut am rechten Fahrbahnrand.

InsaneDruid
2005-11-07, 18:56:36
Der Straßenrand (weiße Linie) ist AF-abhängig. Der ist besser, im Spiegel auch, auf der 7800 fehlt auch der kleine Schatten um das LCD-Display.

Die veränderten Nadeln der Instrumente sind außen vor, das ist normal.

alpha-centauri
2005-11-07, 19:01:21
Mir fällt nur auf, dass die Tachonadel bei Nvidia dicker ist .

der rest von den 4 screens ist irgendwie für mich gleich. da kann ich weder sagen dass mir ati oder nvidia besser gefällt.

womöglich müsste man mit mir auch nen doppelblindtest machen.

dargo
2005-11-07, 19:09:58
Der Straßenrand (weiße Linie) ist AF-abhängig. Der ist besser, im Spiegel auch...

Aha. Soviel zur AF Qualität des G70. ;)
Und das ist schon HQ. X-D

Danke für die Bilder. Damit hast du mich noch mehr auf die X1800XL "gelenkt". :D


... auf der 7800 fehlt auch der kleine Schatten um das LCD-Display.


X-D

Das wäre mir allerdings gar nicht aufgefallen, ohne deinen Hinweis.

Spasstiger
2005-11-07, 19:10:59
Mir fällt nur auf, dass die Tachonadel bei Nvidia dicker ist .
Das liegt wohl daran, dass einer von den beiden Screenshot-Erstellern veränderte Instrumente eingestellt/installiert hat.

dargo
2005-11-07, 19:12:54
der rest von den 4 screens ist irgendwie für mich gleich. da kann ich weder sagen dass mir ati oder nvidia besser gefällt.

womöglich müsste man mit mir auch nen doppelblindtest machen.
Du siehst das mit dem weißen Straßenrand nicht ?
Mal ne blöde Frage - klickt du die Bilder überhaupt zweimal an damit du die volle 1680x1050 Auflösung hast ? :rolleyes:

StefanV
2005-11-07, 19:23:48
Außer dam HQ-AF eher nicht. Die x1800er verbraten mehr Energie und scheinen auch lauter zu sein (oder ähnlich laut, wobei die 7800 GTX ja recht leise sein soll).
Von wesenlich besser kann also nicht die Rede sein.
Tut mir leid, aber das mit der Abwärme ist ein Märchen, wie auch einige 7800 GT Umsteiger erzählten!

Zumindest im Auslieferungszustand sind beide Karten so ziemlich identisch, +/- 1-2% differenz!!

InsaneDruid
2005-11-07, 19:24:33
Wie gesagt, die Nadeln der Instrumente sind außen vor, GTL speichert im Replay keine Zeigerinformationen, und die Zeiger sind immer die vom letzten Auto, welches man gefahren ist.

PS, der Ersteller der 7800er Shots hat den Clamp Shalter mal auf Clamp gesetzt, da ist das AF zugegebenermaßen schon besser, blurrt aber in der Entfernung auf:

http://img263.imageshack.us/img263/1899/s02nv7800aa4xaf16xmipmapclampe.th.jpg (http://img263.imageshack.us/my.php?image=s02nv7800aa4xaf16xmipmapclampe.jpg)

ebenfalls auf diesem Shot (7800GT, 6x/8x) zu sehen (anderer User)

http://forum.rscnet.org/attachment.php?attachmentid=325928&stc=1&thumb=1&d=1131375048 (http://forum.rscnet.org/attachment.php?attachmentid=325928&d=1131375048)

dargo
2005-11-07, 19:30:27
Wie gesagt, die Nadeln der Instrumente sind außen vor, GTL speichert im Replay keine Zeigerinformationen, und die Zeiger sind immer die vom letzten Auto, welches man gefahren ist.

PS, der Ersteller der 7800er Shots hat den Clamp Shalter mal auf Clamp gesetzt, da ist das AF zugegebenermaßen schon besser, blurrt aber in der Entfernung auf:

http://img263.imageshack.us/img263/1899/s02nv7800aa4xaf16xmipmapclampe.th.jpg (http://img263.imageshack.us/my.php?image=s02nv7800aa4xaf16xmipmapclampe.jpg)

ebenfalls auf diesem Shot (7800GT, 6x/8x) zu sehen (anderer User)

http://forum.rscnet.org/attachment.php?attachmentid=325928&stc=1&thumb=1&d=1131375048 (http://forum.rscnet.org/attachment.php?attachmentid=325928&d=1131375048)
Jepp. Im Hindergrund sieht es übel aus. Total verschwommen.

Gast
2005-11-07, 19:35:43
man sollte aber auch auf die fensterrahmen(oder was das sein soll ^^) ganz oben rechts beim gebäude achten, da sieht mans auch sehr gut

hätt ich GTL könnt ichs mit meiner x1800 auch machen 8/

die farben erscheinen mir bei der ATI auch etwas kräftiger, könnte aber auch an den einstellungen liegen

dargo
2005-11-07, 19:42:34
hätt ich GTL könnt ichs mit meiner x1800 auch machen

Versuchs mit der GTL-Demo. :)

Gast
2005-11-07, 19:50:15
is net so leicht, wenn man nur 5gb traffic im monat hat und jetzt schon 1,5 davon verbraten hat ^^

dargo
2005-11-07, 19:54:58
is net so leicht, wenn man nur 5gb traffic im monat hat und jetzt schon 1,5 davon verbraten hat ^^
Das ist natürlich übel. X-D

horn 12
2005-11-07, 19:59:05
wann kommen den die X1800 XT nun endlich raus, (diesen Mittwoch )
oder kommt Nvidia mit ihrer 512 MB GTX den ati´s wieder voraus ?
Hoffe und gönne dies ati nicht, hoffe sie sind fest dahinter das die X1800 XT am Mittwoch lieferbar ist ( flächendeckend )

eXodia
2005-11-07, 20:04:13
wann kommen den die X1800 XT nun endlich raus, (diesen Mittwoch )

Ende Nov., aber wahrscheinlich kaufbar anfang Dezember, imo


oder kommt Nvidia mit ihrer 512 MB GTX den ati´s wieder voraus ?

Ja, 14.11.05 - also vorher.


Hoffe und gönne dies ati nicht, hoffe sie sind fest dahinter das die X1800 XT am Mittwoch lieferbar ist ( flächendeckend )

Das wird wohl nicht passieren

Greetz

Gast
2005-11-07, 20:06:30
so ich saug mir die demo jetzt doch, sind eh nur ca 270mb ^^
das geht schon nocht

dargo
2005-11-07, 20:10:57
so ich saug mir die demo jetzt doch, sind eh nur ca 270mb ^^
das geht schon nocht
*bingespanntaufscreens* =)

Gast
2005-11-07, 21:21:15
so was wollt ihr?
n 5mb großes bmp-file oder jpeg? 8D

Gast
2005-11-07, 21:29:43
also hier JPEG:
6xAAA - 16xHQ-AF - AI standard

http://img475.imageshack.us/my.php?image=gtl9vy.jpg

Raff
2005-11-07, 22:01:48
Rattenscharf, so wie es aussehen sollte. :)

MfG,
Raff

Dr.Dirt
2005-11-07, 22:05:50
Tut mir leid, aber das mit der Abwärme ist ein Märchen, wie auch einige 7800 GT Umsteiger erzählten!

Zumindest im Auslieferungszustand sind beide Karten so ziemlich identisch, +/- 1-2% differenz!!

Sorry, Payne, ich hab extra nichts von "Abwärme" geschrieben, das hängt ja sehr vom Kühler ab.
Aber die x1800 karten sind schon recht deftige Energieschleudern (besonders die XT). Die Leistung konnte scheinbar nur durch hohe Taktraten erzielt werden, was natürlich auf den Stromhunger geht.
Erinnert mich irgendwie an Intel. :mad:

StefanV
2005-11-07, 22:11:59
Sorry, Payne, ich hab extra nichts von "Abwärme" geschrieben, das hängt ja sehr vom Kühler ab.
Aber die x1800 karten sind schon recht deftige Energieschleudern (besonders die XT). Die Leistung konnte scheinbar nur durch hohe Taktraten erzielt werden, was natürlich auf den Stromhunger geht.
Erinnert mich irgendwie an Intel. :mad:
Sorry, Dr.Dirt, aber was du sagst, ist Blödsinn, siehe hier (http://forum-3dcenter.de/vbulletin/showpost.php?p=3651586&postcount=16)

Oder auch hier (http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html)...

Richtig müsste es heißen: NUR die x1800XT hat einen sehr hohen Stromhunger, die x1800XL ist auf dem Niveau der x800 Karten!

Gast
2005-11-07, 22:32:54
jep.

und das mit der gigantischen abwärme stimmt auch net wirklich ^^

die idle-temps kommen nur daher, dass die karte eben in 2d und 3d denselben takt hat

alpha-centauri
2005-11-07, 22:34:08
Erinnert mich irgendwie an Intel. :mad:

nana ! pentium M und auch den P4 cedar mill bitte nicht vergessen!
und athlon C und athlon xp waren auch keine kostverachter.

und wenn ich mir die kühlung von nem G5 angucke (den ich sogar in de 4ma hab), würd ich sogar gern wissen, wass da die maximale verlustleistung unter ungünstigen umständen ist . (dieser TDP quatsch jetzt mal sein gelassen)

Dr.Dirt
2005-11-08, 00:08:52
Sorry, Dr.Dirt, aber was du sagst, ist Blödsinn, siehe hier (http://forum-3dcenter.de/vbulletin/showpost.php?p=3651586&postcount=16)

Oder auch hier (http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html)...

Richtig müsste es heißen: NUR die x1800XT hat einen sehr hohen Stromhunger, die x1800XL ist auf dem Niveau der x800 Karten!

Sorry Payne, das ist nur die halbe Wahrheit.
Im 3d Modus mag das ja noch fast stimmen, aber im 2d Modus ist auch die x1800xl eine Energieschleuder. :eek:

PCGH hat 185W bei ihrem Testsystem mit x1800XL gemessen, mit 7800 GT kam es "nur" auf 151 W.

siehe aber auch hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch.

Eventuell kann ATI das ja noch mit einem neueren Stepping korrigieren.

StefanV
2005-11-08, 00:11:53
Sorry Payne, das ist nur die halbe Wahrheit.
Im 3d Modus mag das ja noch fast stimmen, aber im 2d Modus ist auch die x1800xl eine Energieschleuder. :eek:

PCGH hat 185W bei ihrem Testsystem mit x1800XL gemessen, mit 7800 GT kam es "nur" auf 151 W.

siehe aber auch hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch.

Eventuell kann ATI das ja noch mit einem neueren Stepping korrigieren.
Dann schau auch mal in MisterHs Thread, da haben einige ehemalige 7800GT User was gegenteiliges behauptet, zumal ältere Treiber auch ein paar Bugs hatten, unter anderem mit dem Auslesen der Temperatur (bzw: ev. sogar mitm ideln), was mit neueren Treibern behoben wurde!

Dr.Dirt
2005-11-08, 00:15:07
mit dem Auslesen der Temperatur

Was hat fehlerhaftes Temperaturauslesen mit der Leistungsaufnahme zu tun?

StefanV
2005-11-08, 00:16:20
Was hat fehlerhaftes Temperaturauslesen mit der Leistungsaufnahme zu tun?
Ev. das die Temperatur möglicherweise garnicht falsch ausgelesen wurde?!
Insbesondere da ich mir nicht vorstellen kann, wie man in diesem Fall 'nen Fehler machen kann, da die Schaltung seit der 9800XT nicht wirklich verändert werden brauchte...

Spasstiger
2005-11-08, 00:16:47
Ich finds lustig, dass hier noch krampfhaft auf überholte Reviews verwiesen wird, wo doch User selbst, die von 7800 GT/GTX auf X1800 XL umgestiegen sind, das Gegenteil berichten. Das war jetzt auf den Stromverbrauch bezogen.
Wenn ich mich recht entsinne, liegt der tatsächliche Idle-Verbrauch der X1800 XL sogar unter dem Idle-Verbrauch der 7800 GT.
Natürlich darf man trotzdem nicht den gewaltigen Stromhunger der X1800 XT unter Last unter den Tisch schlagen. Das ist und bleibt ein diskussionswürdiges Thema.

Dr.Dirt
2005-11-08, 00:21:27
Ev. das die Temperatur möglicherweise garnicht falsch ausgelesen wurde?!
Insbesondere da ich mir nicht vorstellen kann, wie man in diesem Fall 'nen Fehler machen kann, da die Schaltung seit der 9800XT nicht wirklich verändert werden brauchte...

So einen Treiberbug gabs auch schon woanders, und mit einem Update ist der ja auch behoben worden.

Den einzigen Grund für die doch recht hohen Unterschiede in der Leistungsaufnahme könnte eine verbesserte Revision sein, oder aber ATI hat den Herstallungsprozeß so dermaßen nicht im Griff, daß es solche Streuungen gibt, was ich mir aber eigentlich nicht vorstellen kann.

Dr.Dirt
2005-11-08, 00:23:06
Ich finds lustig, dass hier noch krampfhaft auf überholte Reviews verwiesen wird

Inwiefern überholt?

StefanV
2005-11-08, 00:26:07
So einen Treiberbug gabs auch schon woanders, und mit einem Update ist der ja auch behoben worden.

Den einzigen Grund für die doch recht hohen Unterschiede in der Leistungsaufnahme könnte eine verbesserte Revision sein, oder aber ATI hat den Herstallungsprozeß so dermaßen nicht im Griff, daß es solche Streuungen gibt, was ich mir aber eigentlich nicht vorstellen kann.
Ja, bei nV vielleicht...

ATi nutzt AFAIK 'ne 08/15 Standardschaltung, da einen Fehler reinzubasteln ist nicht ganz einfach, insbesondere da man in diesem Fall davon ausgehen kann, das das Teil quasi mit denen auf den 9600/9800XTs identisch ist.

Die Frage an dieser Stelle ist doch, ob das WIRKLICH ein auslesefehler war oder ob was anderes geklemmt hat...

Genau kann man das nur mit einem Stromschätzgerät testen und in dem man einen alten Treiber nutzt...

Spasstiger
2005-11-08, 00:26:40
Inwiefern überholt?

In Bezug auf den Idle-Stromverbrauch der Radeon X1800 XL. Dieser ist nachweislich nicht höher als bei einer 7800 GT, eher sogar niedriger.

Dr.Dirt
2005-11-08, 00:32:05
In Bezug auf den Idle-Stromverbrauch der Radeon X1800 XL. Dieser ist nachweislich nicht höher als bei einer 7800 GT, eher sogar niedriger.

Hmm,

es gibt also Modelle, die einen höheren Stromverbrauch haben als andere (ich unterstelle mal, daß jeweils korrekt gemessen wurde).
Eventuell hat ATI ja schon eine neuere Revision einfließen lassen oder sie haben den Herstellprozeß nicht im Griff.

Merkor
2005-11-08, 00:32:56
In Bezug auf den Idle-Stromverbrauch der Radeon X1800 XL. Dieser ist nachweislich nicht höher als bei einer 7800 GT, eher sogar niedriger.

Hast du eine Reviewquelle, die mit aktuellem Treiber ohne Temp-Bug getestet haben? Ist dort der Lüfter auch leiser?

Dr.Dirt
2005-11-08, 00:43:50
Ja, bei nV vielleicht...

LOL:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3597071&postcount=234

Spasstiger
2005-11-08, 00:44:00
Hast du eine Reviewquelle, die mit aktuellem Treiber ohne Temp-Bug getestet haben? Ist dort der Lüfter auch leiser?

Ein aktuelles Review, welches dieses Thema behandelt, kenn ich jetzt nicht, aber du kannst dich ja mal hier durch den X1800 XL Thread durchwühlen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=255007

Da gibts genug Statements zu den von dir angesprochenen Themen, nur müsste ich da jetzt selbst suchen. Bei MisterH musst du bedenken, dass er schwerhörig ist und ihn deshalb die Lautstärke weniger interessiert.

Dr.Dirt
2005-11-08, 00:44:41
LOL:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3597071&postcount=234


Ergo: Treiberbug und keine unterschiedliche Hardware

StefanV
2005-11-08, 00:45:04
LOL:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3597071&postcount=234
Das Beweist, das die Temperatur gesunken ist, nicht aber den Grund dafür!

Ob die Karte vorher wirklich ~90°C warm war, ist immer noch nicht auszuschließen.

Dr.Dirt
2005-11-08, 00:47:25
Das Beweist, das die Anzeige der Temperatur gesunken ist, nicht aber den Grund dafür!

Ob die Karte vorher wirklich ~90°C warm war, ist immer noch nicht auszuschließen.

Hab mal die fehlenden Wörter eingefügt. ;)

dargo
2005-11-08, 06:39:38
Sorry, Payne, ich hab extra nichts von "Abwärme" geschrieben, das hängt ja sehr vom Kühler ab.
Aber die x1800 karten sind schon recht deftige Energieschleudern (besonders die XT). Die Leistung konnte scheinbar nur durch hohe Taktraten erzielt werden, was natürlich auf den Stromhunger geht.
Erinnert mich irgendwie an Intel. :mad:
Bitte nicht vergessen, daß die zusätzlichen 256MB Vram auch nicht ohne sind. Eine G7800GTX mit 512MB wird auch die 100W Marke erreichen.
Langsam wird man sich wohl bei den 512MB Vram High-End Grakas an die 100W und mehr gewöhnen müssen. :(

alpha-centauri
2005-11-08, 09:33:57
Bei MisterH musst du bedenken, dass er schwerhörig ist und ihn deshalb die Lautstärke weniger interessiert.

Lustig. Wie er schrieb, der 7800GT Lüfter würde auf 100% immer Laufen..

Gast
2005-11-08, 10:05:57
also hier JPEG:
6xAAA - 16xHQ-AF - AI standard

http://img475.imageshack.us/my.php?image=gtl9vy.jpg
Diskutiert lieber hier drüber,die Ati hat das bessere Bild.....

Mr. Lolman
2005-11-08, 10:11:21
Diskutiert lieber hier drüber,die Ati hat das bessere Bild.....

Das ist eh fix. Nur wollen das manche (auch ein paar 3D Gurus ;)) nicht akzeptieren.

thade
2005-11-08, 15:59:11
Das ist eh fix. Nur wollen das manche (auch ein paar 3D Gurus ;)) nicht akzeptieren.

wer denn zB?

Ich würde auch nix anderes sagen, wenn mir NV monatlich nen satten Scheck zuschickt :biggrin:

Esther Mofet
2005-11-08, 17:00:03
Wie kommt denn der enorme Takt Unterschied von den beiden Karten zustande(XL 500/500 XT 625/750),ich mein beim Speicher iss halt wohl besserer,aber Core?
Morgen oder übermorgen kommt meine x1800XL von Snogard,gibts schon OC Tools(ATI Tool)? mittlerweile?
Mfg The Q

Gast
2005-11-08, 17:51:13
musst ne mail an w1zzard schreiben, der link zu seinem profil steht in dem verlinkten thread.

zum lüfter der XL:
ja ab ca 60% wird er laut, aber da der lüfter auch problemlos 40% mitmacht(die karte übrigens auch -> laut ati-tool 65-70°) und dabei fast unhörbar ist, finde ich sowas auch kein argument

alpha-centauri
2005-11-08, 18:28:14
Wie kommt denn der enorme Takt Unterschied von den beiden Karten zustande(XL 500/500 XT 625/750),ich mein beim Speicher iss halt wohl besserer,aber Core?
Morgen oder übermorgen kommt meine x1800XL von Snogard,gibts schon OC Tools(ATI Tool)? mittlerweile?
Mfg The Q


Die höhere Spannung gegenüber der XL.

Un der XL SPeicher geht auch ne gute Portion höher, dank hochwertigen IIRC 1,6 ns.

misterh
2005-11-08, 18:32:13
Die höhere Spannung gegenüber der XL.

Un der XL SPeicher geht auch ne gute Portion höher, dank hochwertigen IIRC 1,6 ns.

quatsch. 1.4ns

Esther Mofet
2005-11-08, 19:13:05
Na ich bin mal gespannt,ist die Karte von Sapphire die ja den ATI Referenzkühler nutzt.Vielleicht ist da eher was drin mit XT Takt ohne Zalman.
Woher ich das ATI Beta toll bekomm weiss ich allerdings immer noch nedd.
Weiss einer die E-mail von diesem Wizzard?
Mfg The Q

Gast
2005-11-08, 19:19:05
w1zzard@gmx.net ;)

außerdem hat jede XL atm den referenzkühler ^^

dargo
2005-11-08, 19:22:20
http://www.alternate.de/html/shop/productDetails.html?artno=JAXG40&artno=JAXG40&

Scheint wohl der tiefste (lieferbar) Preis zu sein. =)

alpha-centauri
2005-11-08, 20:01:56
quatsch. 1.4ns

hab auch IIRC gesagt. erbsenzählen kannste in der nahrungsmittelabteilung.

misterh
2005-11-08, 20:29:00
hab auch IIRC gesagt. erbsenzählen kannste in der nahrungsmittelabteilung.

hae was du wollen? :rolleyes:

StefanV2
2005-11-08, 20:41:14
hab auch IIRC gesagt. erbsenzählen kannste in der nahrungsmittelabteilung.
Jo und MisterH hat dich korrigiert, da ers besser weiß als du, weil er ja bekanntlich eine entsprechende Karte hat, du aber nicht.

Wobei ich das, was da oben stehen seh, nicht so ganz nachvollziehen kann :rolleyes:

PS: werd mir ev. auch bald 'ne x1800 kaufen *muhahaha*

Gast
2005-11-08, 21:17:39
Die KArte rockt halt knapp locker auf Xt Level hammer Quali was will man mehr.

Johnny Rico
2005-11-08, 21:53:08
Und schon sind se ausverkauft ;X

Silent3sniper
2005-11-08, 21:56:47
Und schon sind se ausverkauft ;X


Laut dem Geizhals Link und den Infos auf Atelco etc. - nicht ;)

MartinRiggs
2005-11-09, 08:32:42
Wenn ich das Geld grad über hätte dann wäre schon ne xl auf dem Weg zu mir und würde meine alte X800XL ablösen.
Grade das AF in Verbindung mit Rennspielen find ich extrem geil.

alpha-centauri
2005-11-09, 09:59:30
Wenn ich das Geld grad über hätte dann wäre schon ne xl auf dem Weg zu mir und würde meine alte X800XL ablösen.
Grade das AF in Verbindung mit Rennspielen find ich extrem geil.

leistungmässig sollte dich da auch schon was tun.

musst halt die XL für nen guten preis verkloppen können.

Gandharva
2005-11-09, 10:22:49
370€ für ne karte die langsamer ist als ne 7800GT @ default. wenn ich das volle leistungspotential entfalten will muss ich noch 25€ für nen zalman kühler dazurechnen, damit die karte nicht den hitzetot stirbt oder mir vorzeitig die ohren abfallen. macht fast 400€. ne gtx gibts ab 430€ lieferbar tendenz fallend. sry ati, so nicht! :(

die x1800 serie würde mich was die bildqualität angeht wirklich sehr ansprechen, aber der preis is einfach ne frechheit! bis der auf 300€ gefallen ist, wo er imo hingehört is weihnachten rum.

MartinRiggs
2005-11-09, 10:43:24
Das hatten wir schon mehrfach,
wer auf 5 frames verzichten kann und max. Bildquali will dem bleibt nur ATI.
Und ne gescheite GT kostet auch 350€
Guckst du (http://www.geizhals.at/deutschland/a161591.html)
die günstigste ist die hier
Guckst du nochmal (http://www.geizhals.at/deutschland/a161774.html)
aber was man von Gainward zu halten hat davon gibt es ja schon mehrere Threads.
Also steht es 350 zu 370 Euro, ohhh wie schlimm.
Zumal viele GT´s nicht lieferbar sind, die XL aber immer mehr in den Markt drängen.
Lautstärke, tja ich glaube die GT´s sind auch keine Leisetreter, also muß man in beiden Fällen den Zalman einrechnen.
Erst richtig gucken, dann meckern.
Außerdem zwingt dich keiner ne neue ATI zu kaufen
:rolleyes:

Gandharva
2005-11-09, 11:01:07
das thema gainward tut hier nichts zur sache. btw.: die pov gt gibts lieferbar für 340€. mal abgesehen davon hab ich nicht mit der gt sondern der gtx verglichen. weils mir in erster linie um den preis ging, wie auch in meinem beitrag zu erkennen sein sollte.

ich verstehe nicht wie leute wie du, lolman, thade etc... preis leistung, verfügbarkeit, speed, features etc... zugunsten des besseren af völlig ausblenden und versuchen sich die fakten schönzureden. :confused:

und ja, niemand zwingt mich eine ati karte zu kaufen. wieso auch? ich kaufe schon seit jahren die karte die zu dem zeitpunkt an dem ich eine neue brauche objektiv betrachtet die bessere ist.

MartinRiggs
2005-11-09, 11:09:40
ich verstehe nicht wie leute wie du, lolman, thade etc... preis leistung, verfügbarkeit, speed, features etc... zugunsten des besseren af völlig ausblenden und versuchen sich die fakten schönzureden. :confused:

Wo ist dein Problem
Die XL ist manchmal langsamer, manchmal schneller, in den unabhängigen Tests gehen sich X1800XL und 7800 GT fast nix aus dem Weg, kommt halt wie immer aufs Spiel an.
Features
Tja ich würd mal sagen Gleichstand, SM3 etc. haben beide an Bord.
Verfügbarkeit
Also ich kann genauso ne x1800xl bestellen wie auch ne 7800GT.
Preis/Leistung
Ok die 7800 GT ist ein paar Euro günstiger also leicht besseres Preis-Leistungsverhältnis.
Bildqualität
Vorteil ATI
Wo du jetzt den Riesen-Vorteil der 7800 GT siehst weiß ich net.
Die X1800 xl ist doch gar nicht mit der 7800 GTX vergleichbar :confused:
Die GTX gibt es auch schon viel länger, die XL hatte doch noch gar keine Preis-Anpassung

Edit:
Und so wie es momentan aussieht wird ne x1800 xt mit 256 MB im Bereich von 450 Euro sein, das wäre dann grad mal 20 Euro mehr als 7800 GTX.

seahawk
2005-11-09, 11:17:43
Wewr Rennspile nutzt braucht die X1800XL, man muss sich nur mal das grausam verbuggte AF der GT bei GTL ansehen.

Gandharva
2005-11-09, 11:31:37
Die XL ist manchmal langsamer, manchmal schneller, ...

die gt ist meist schneller. hab ich aber bereits gesagt.


Features
Tja ich würd mal sagen Gleichstand, SM3 etc. haben beide an Bord.

x1800 kann keinen vertex texture fetch!


Verfügbarkeit
Also ich kann genauso ne x1800xl bestellen wie auch ne 7800GT.

was hat das mit besserer/schlechterer verfügbarkeit zu tun? fakt ist das unter 400€ nur ne hand voll händlern ne xl liefern kann.


Preis/Leistung
Ok die 7800 GT ist ein paar Euro günstiger also leicht besseres Preis-Leistungsverhältnis.

"ein paar euro" sind bei mir 5-10€. hier sind es im schnitt aber eher ~50€.


Bildqualität
Vorteil ATI

ja. hab ich aber bereits gesagt.


Und so wie es momentan aussieht wird ne x1800 xt mit 256 MB im Bereich von 450 Euro sein, das wäre dann grad mal 20 Euro mehr als 7800 GTX.

so wie es aussieht, gibt es momentan keine xt zu kaufen und das scheint sich bis auf homöopathische dosen auch nicht so schnell zu ändern.

Wewr Rennspile nutzt braucht die X1800XL, man muss sich nur mal das grausam verbuggte AF der GT bei GTL ansehen.

das kann gut sein. hier wird sich vor allem das bessere af bemerkbar machen denke ich. für rennspiele hab ich aber ne konsole ;)

MartinRiggs
2005-11-09, 11:41:56
Mit dir zu diskutieren ist absolut Banane.
Du kannst nicht die teuerste lieferbare X1800 xl mit der günstigsten 7800 Gt vergleichen, so komme ich auch auf sogar über 50 Euro Unterschied, super....
Grade wegen hochwertigen Rennspielen hab ich einen PC, auf der Konsole gibt es doch nur Kiddie" Arcade Müll, nicht das Arcade immer schlecht ist, aber die richtig guten Rennspiele gibt es nur auf PC.
Manche haben Vorstellungen :hammer:

Gandharva
2005-11-09, 11:58:23
Mit dir zu diskutieren ist absolut Banane.
Du kannst nicht die teuerste lieferbare X1800 xl mit der günstigsten 7800 Gt vergleichen, so komme ich auch auf sogar über 50 Euro Unterschied, super....
Grade wegen hochwertigen Rennspielen hab ich einen PC, auf der Konsole gibt es doch nur Kiddie" Arcade Müll, nicht das Arcade immer schlecht ist, aber die richtig guten Rennspiele gibt es nur auf PC.
Manche haben Vorstellungen :hammer:

warum wirst du persönlich? weil ich deine aussagen widerlege?! weil dir die argumente ausgehen?!

mit "im schnitt" meinte ich den durschnittspreis der angebotenen karten. ich hab es zwar nur grob geschätzt und auch keine lust und zeit es nachzurechen aber denke das ich da nicht weit von den genauen zahlen entfernt bin mit meinen ~50€.

das mit der konsole war ein rein subjektiver einfurf meinerseits und hat eigendlich überhaupt nichts mit dem rest zu tun. deswegen auch der smiley.

Gast
2005-11-09, 12:05:14
x1800 kann keinen vertex texture fetch!
Wayne...
Die 7800 kann kein FP16-HDR mit AA, was ja viel schwerer aufwiegt.

Somit geht das Kapitel BQ 2:0 für die X1800 aus.

Gast
2005-11-09, 13:10:29
Striper:
Jeder wird seine Gründe haben, warum er sich für welche Karte entscheidet. Sein wir mal realistisch: Egal ob 1800XL oder 7800 GT, jede dieser Grafikkarten hat eine sehr gute Performance und entsprechende Features. Somit macht man auf jeden Fall keinen Fehlkauf, egal ob ATI oder nVidia.

Ich habe mich für ATI entschieden, weil ich jetzt seit über 3 Jahren ATI benutze (nach 3dfx seit 97) und die Qualität okay finde. Regelmäßige, übersichtliche Treiberversionen, durchgängig gute bis sehr gute Performance und die Features, die ich möchte. Das HQ-AF war für mich ein weiterer, nicht unbedeutender Punkt und das AAA ist ein interessantes Feature, welches in einigen Spielen wirklich sehr gut funktionieren zu scheint.

Anstatt hier jetzt auf jeden Euro pro FPS herumzureiten und sämtliche Geizhals Listen zu durchsuchen, sollte man die persönlichen Bedürfnisse nicht ausser Acht lassen.

Jemand der sich für eine Intel CPU entscheidet wird seine Gründe haben warum. Jemand der AMD wählt, wird ebenfalls seine Gründe haben, auch wenn sie manchmal vielleicht nicht für jeden sofort nachvollziehbar sein werden.

MartinRiggs
2005-11-09, 13:10:40
Man kann halt die X1800XL nicht als schlecht hinstellen nur weil sie grade erst in den Markt gekommen ist und dadurch noch etwas teurer ist.
Mit ner GTX kann man sie erst gar nicht vergleichen.
Und bei den aktuellen Karten geht es doch eigentlich drum mit max. Bildqualität zu spielen, daher fahren soviele auf die neuen X1800 ab(mich eingeschlossen)
Die Leute die max. Balkenlänge wollen sind bei NV defintiv besser aufgehoben und in diesen Preisregionen sind die 30 Euro mehr oder weniger auch Banane

alpha-centauri
2005-11-09, 13:17:34
ihr habt ja echt probleme.. So langsam sollten doch die Standpunkt geklärt sein, was GT und XL angeht. Und dass ne 5 Monate Später erhältliche Hardware in bestimmen Bereichen besser sein sollte, sollte ja auch möglich sein.

Das Ganze geht wieder an Glaubenskrieg. Ok - den mach ich auch immer 4 Wochen mit, dann vergeht sogar mir aber auch die Lust dadran.

Benedikt
2005-11-09, 13:38:38
Wayne...
Die 7800 kann kein FP16-HDR mit AA, was ja viel schwerer aufwiegt.

Somit geht das Kapitel BQ 2:0 für die X1800 aus.
FP16-HDR mit AA kann die 1800XL schon gar nicht! Sie kann nicht mal FP16-Filtering, d. h. du wirst dieses HDR selten bis gar nicht auf ATI-x1000-Karten zu sehen bekommen, außer die Developer schreiben 'n Filtering-Pixelshader "per Hand". Und dann, wie gesagt, sicher nicht mit AA.

das kann gut sein. hier wird sich vor allem das bessere af bemerkbar machen denke ich. für rennspiele hab ich aber ne konsole ;)
Und du willst uns hier jetzt ernsthaft erzählen, deine Konsole hätte bessere Filteralgorithmen/-hardware als eine PC-Desktop-Grafikkarte (egal jetzt, welchen Herstellers)?

Gast
2005-11-09, 13:41:56
FP16-HDR mit AA kann die 1800XL schon gar nicht! Sie kann nicht mal FP16-Filtering, d. h. du wirst dieses HDR selten bis gar nicht auf ATI-x1000-Karten zu sehen bekommen, außer die Developer schreiben 'n Filtering-Pixelshader "per Hand". Und dann, wie gesagt, sicher nicht mit AA.


Und du willst uns hier jetzt ernsthaft erzählen, deine Konsole hätte bessere Filteralgorithmen/-hardware als eine PC-Desktop-Grafikkarte (egal jetzt, welchen Herstellers)?

Was ist das denn natürlich kann die X1* Serie Fp 16 Hdr.

deekey777
2005-11-09, 13:43:00
FP16-HDR mit AA kann die 1800XL schon gar nicht! Sie kann nicht mal FP16-Filtering, d. h. du wirst dieses HDR selten bis gar nicht auf ATI-x1000-Karten zu sehen bekommen, außer die Developer schreiben 'n Filtering-Pixelshader "per Hand". Und dann, wie gesagt, sicher nicht mit AA.

Ach nee?
http://www.beyond3d.com/reviews/ati/r520/index.php?p=21
Und das ist noch ein "very beta"-Patch für Far Cry.

Zu dem Rest wurde schon einiges gesagt.

MartinRiggs
2005-11-09, 14:00:11
Das Ganze geht wieder an Glaubenskrieg. Ok - den mach ich auch immer 4 Wochen mit, dann vergeht sogar mir aber auch die Lust dadran.

Haben doch nur diskutiert, nen Glaubenskrieg ist das für mich auch nicht.
Den einzigen Krieg hab ich grad mit meiner Geldbörse, wenn ich gewinne gibt es ne x1800 :uroll:

Gandharva
2005-11-09, 14:04:05
Und du willst uns hier jetzt ernsthaft erzählen, deine Konsole hätte bessere Filteralgorithmen/-hardware als eine PC-Desktop-Grafikkarte (egal jetzt, welchen Herstellers)?

hast mich falsch verstanden :) ich zocke rennspiele auf ner konsole (die meiner freundin) vor allem wegen besserem controller. wie bereits gesagt, meine obige aussage bezgl. rennspielen hat nix mit der thematik hier zu tun. hoffe das ist jetzt endlich mal klar.

Gandharva
2005-11-09, 14:17:44
Ach nee?
http://www.beyond3d.com/reviews/ati/r520/index.php?p=21
Und das ist noch ein "very beta"-Patch für Far Cry.

Zu dem Rest wurde schon einiges gesagt.

benedikt hat schon recht. der r520 kann kein fp filtering sondern "nur" fp blending. echte fp16 texturen wird man aber auf dem r520 nicht zu sehen bekommen!

Den einzigen Krieg hab ich grad mit meiner Geldbörse, wenn ich gewinne gibt es ne x1800 :uroll:

den hab ich schon gewonnen. ;P

es will nur nicht in meinen kopf rein, für bissl bessere bq nen geschwindigkeitsnachteil und den überzogenen preis + andere kleinigkeiten in kauf nehmen zu müssen :/

die gt käme für mich sowieso nicht in frage wegen der lautstärke und der künstlichen beschneidung. und von der xt ist weit und breit nix zu sehen :( deswegen, auch neben der preisfrage, der vergleich xl zur gtx.

MartinRiggs
2005-11-09, 14:37:16
Das fällt doch für dich eh alles flach oder????
Wenn ich dein Nethands sehe dann ist da ein Asus mit K8T800 und das hat bestimmt kein PCI-E.
Leider lassen die Hersteller ja AGP fallen :mad:

Gast
2005-11-09, 14:44:03
benedikt hat schon recht. der r520 kann kein fp filtering sondern "nur" fp blending. echte fp16 texturen wird man aber auf dem r520 nicht zu sehen bekommen!
Dann macht man es eben über FX16.

es will nur nicht in meinen kopf rein, für bissl bessere bq nen geschwindigkeitsnachteil und den überzogenen preis + andere kleinigkeiten in kauf nehmen zu müssen :/

Die Qualität ist nicht nur ein bißchen besser...sondern deutlich.
Einen Geschwindigkeitsnachteil gibt es nicht. Du wirst mit der 7800GT keine besseren Einstellungen fahren können, wie mit der X1800XL.
Die ein paar fps reichen einfach nicht um eine Auslösungsstufe höher zu gehen.
Wer mit schöner Grafik spielen will, kommt einfach nicht an der X1800 vorbei.
Da kannst du die 7800 in die Tonne kloppen.

Mich hat es eh schon angekotzt, dass ich mit der 6800GT und nun X800XT meistens 4xAF einstellen muss, weil wenn ich mehr einstelle, das Bild total unhomogen wird.

Die X1800 ist für mich echt ein Segen.
Weihnachten ist sie mir. Jetzt habe ich eh nicht genug Zeit zum Zocken.

Gandharva
2005-11-09, 14:59:18
Dann macht man es eben über FX16.

dafür sieht das hdr dann weniger gut aus und/oder ist viel langsamer.

deekey777
2005-11-09, 16:00:47
benedikt hat schon recht. der r520 kann kein fp filtering sondern "nur" fp blending. echte fp16 texturen wird man aber auf dem r520 nicht zu sehen bekommen!
....

Du hast aber schon auf den Link geklickt und verstanden, worauf ich hinaus wollte?

Gandharva
2005-11-09, 16:02:46
Du hast aber schon auf den Link geklickt und verstanden, worauf ich hinaus wollte?

ich brauche nichtmal drauf zu klicken, da ich a) weiss wohin er mich führen wird und b) dies nichts an der tatsache ändert das benedikt mit seiner aussage bezgl. fp filterung recht hat.

deekey777
2005-11-09, 16:19:22
ich brauche nichtmal drauf zu klicken, da ich a) weiss wohin er mich führen wird und b) dies nichts an der tatsache ändert das benedikt mit seiner aussage bezgl. fp filterung recht hat.
FP16-HDR mit AA kann die 1800XL schon gar nicht! Sie kann nicht mal FP16-Filtering, d. h. du wirst dieses HDR selten bis gar nicht auf ATI-x1000-Karten zu sehen bekommen, außer die Developer schreiben 'n Filtering-Pixelshader "per Hand". Und dann, wie gesagt, sicher nicht mit AA.

Gandharva
2005-11-09, 16:25:01
hmpf... :rolleyes:

ich hab ihm bei der aussage bezgl. filterung zugestimmt und nicht was hdr + aa angeht... lies doch was ich schreibe.

der r520 kann hdr + aa jedoch ist das ati hdr langsamer und ggf. hässlicher als das nv hdr. dafür bietet ati hdr + aa.

war das nun verständlich genug für dich? ;)

deekey777
2005-11-09, 16:36:27
hmpf... :rolleyes:

ich hab ihm bei der aussage bezgl. filterung zugestimmt und nicht was hdr + aa angeht... lies doch was ich schreibe.

der r520 kann hdr + aa jedoch ist das ati hdr langsamer und ggf. hässlicher als das nv hdr. dafür bietet ati hdr + aa.

war das nun verständlich genug für dich? ;)

Warum sollte ich deine Fehler als meine ansehen, wenn du zu faul bist, auf den Link zu klicken? Zu der fehlenden FP-Filterung wurde schon so oft geschrieben, daß es sich nich mehr lohnt, darüber zu sprechen.

Benedikt
2005-11-09, 16:41:23
Was ist das denn natürlich kann die X1* Serie Fp 16 Hdr.
Ich hab auch nicht geschrieben, dass sie kein FP16 kann. Nur kein FP16-Filtering. Und ob echtes FP16-HDR mit Antialiasing funktioniert, also da bin ich auch (noch) skeptisch. ;)

Benedikt
2005-11-09, 16:43:37
hmpf... :rolleyes:

ich hab ihm bei der aussage bezgl. filterung zugestimmt und nicht was hdr + aa angeht... lies doch was ich schreibe.

der r520 kann hdr + aa jedoch ist das ati hdr langsamer und ggf. hässlicher als das nv hdr. dafür bietet ati hdr + aa.

war das nun verständlich genug für dich? ;)
Wenn auf aktueller ATI-Hardware FP16-HDR mit Antialiasing funktioniert, dann bin ich ehrlich überrascht bzw. erfreut. Allerdings müsste man dann wohl FP16-Filterung per Pixelshader nachprogrammieren.

Gandharva
2005-11-09, 16:45:30
Warum sollte ich deine Fehler als meine ansehen, wenn du zu faul bist, auf den Link zu klicken? Zu der fehlenden FP-Filterung wurde schon so oft geschrieben, daß es sich nich mehr lohnt, darüber zu sprechen.

meine fehler? r520 kann keine fp filterung. das ist fakt und nix anderes hab ich geschrieben. wenn du nicht im stande bist nen beitrag zu lesen dann schreib auch nix dazu. danke. der gast hats ja auch gerafft im gegensatz zu dir.

Gast
2005-11-09, 16:48:58
meine fehler? r520 kann keine fp filterung. das ist fakt und nix anderes hab ich geschrieben. wenn du nicht im stande bist nen beitrag zu lesen dann schreib auch nix dazu. danke.

Hallo. Wo ist das Problem wenn man keinen FP16-Texturen benutzen kann? Solcher Content kommt eh nicht so schnell.

Gandharva
2005-11-09, 16:54:17
Hallo. Wo ist das Problem wenn man keinen FP16-Texturen benutzen kann? Solcher Content kommt eh nicht so schnell.

es ging in erster linie nicht um texturen sondern um filterung. deren fehlen hat nachteile sowohl was geschwindigkeit angeht als auch qualität des hdr. aber das ist alles altbekannt. ich wollte nur feststellen das benedikt bzgl. der fehlenden filterung recht hatte.

deekey777
2005-11-09, 17:07:27
meine fehler? r520 kann keine fp filterung. das ist fakt und nix anderes hab ich geschrieben. wenn du nicht im stande bist nen beitrag zu lesen dann schreib auch nix dazu. danke. der gast hats ja auch gerafft im gegensatz zu dir.

Hast du irgendwie beim kalten Wetter gegen den Wind gepinkelt?
Habe ich irgendwo geschrieben, daß die FP-Filterung beim R520 verfügbar ist?
Es ging nur um die Aussage, daß bei der X1800XL das FP16-HDR&MSAA nicht funktioniert.
Oh Mann...

misterh
2005-11-09, 17:21:57
Hast du irgendwie beim kalten Wetter gegen den Wind gepinkelt?
Habe ich irgendwo geschrieben, daß die FP-Filterung beim R520 verfügbar ist?
Es ging nur um die Aussage, daß bei der X1800XL das FP16-HDR&MSAA nicht funktioniert.
Oh Mann...

jo der begreift es nicht. :rolleyes:

desperado2000
2005-11-09, 17:28:03
Hat ein Hersteller eine Xl mit ATI/Arctic Silencer oder Zalman Lüfter angekündigt?

Gast12
2005-11-09, 17:36:44
Wie würde sich denn die fehlende Filterung bemerkbar machen? Jetzt rein vom Qualitätsaspekt her. Dei 2 Grafikdemos von ATI(besonders Toyshop), welche ja auch HDRR verwenden, sehen klasse aus. Konnte da jetzt keine Unterschiede zu gefiltertem HDR feststellen. Kann natürlich auch damit zusammenhängen, dass kein direkter Vergleich möglich ist.

deekey777
2005-11-09, 17:56:40
Wie würde sich denn die fehlende Filterung bemerkbar machen? Jetzt rein vom Qualitätsaspekt her. Dei 2 Grafikdemos von ATI(besonders Toyshop), welche ja auch HDRR verwenden, sehen klasse aus. Konnte da jetzt keine Unterschiede zu gefiltertem HDR feststellen. Kann natürlich auch damit zusammenhängen, dass kein direkter Vergleich möglich ist.

Die Toyshop-Demo verwendet das 1010102 Format, was ATi schon als HDRR propagiert.
Die fehlende FP-Filterung macht sich in Blockbildung bemerkbar (vergleichbar mit der Blockbildung in SS2 beim aktivierten HDR, was eigentlich kein HDR ist). In Far Cry gibt es zZ eh kein HDRR auf einer Radeon, da Far Cry dies gar nicht zuläßt, weil es gar nicht weiß, dap es Radeons gibt, die HDRR können. In SC3 gibt es das "SM2.0 HDR" zu sehen.
Dann gibt es noch AoE3, aber keine Ahnung, wie es hier aussieht, womöglich gibt es hier kein HDRR zu sehen, da das Spiel erwartet, daß eine Grafikkarte, die behauptet, HDRR zu beherrschen, auch FP-Filterung beherrschen muß: Ohne nachträgliche Patches wird es kein HDRR à la G70 geben.

Gast12
2005-11-09, 18:09:09
Danke, mehr wollte ich garnicht wissen. :-)

Benedikt
2005-11-10, 16:34:42
Die Toyshop-Demo verwendet das 1010102 Format, was ATi schon als HDRR propagiert.
Die fehlende FP-Filterung macht sich in Blockbildung bemerkbar (vergleichbar mit der Blockbildung in SS2 beim aktivierten HDR, was eigentlich kein HDR ist). In Far Cry gibt es zZ eh kein HDRR auf einer Radeon, da Far Cry dies gar nicht zuläßt, weil es gar nicht weiß, dap es Radeons gibt, die HDRR können. In SC3 gibt es das "SM2.0 HDR" zu sehen.
Dann gibt es noch AoE3, aber keine Ahnung, wie es hier aussieht, womöglich gibt es hier kein HDRR zu sehen, da das Spiel erwartet, daß eine Grafikkarte, die behauptet, HDRR zu beherrschen, auch FP-Filterung beherrschen muß: Ohne nachträgliche Patches wird es kein HDRR à la G70 geben.
OT: Das interessiert mich aber jetzt: AFAIK funktioniert bei SS2 HDR auf ATI-Hardware sowieso nicht, gerade weil's FP16-HDR (allerdings ohne Tonemapping) ist. Ist das richtig?

Es ging nur um die Aussage, daß bei der X1800XL das FP16-HDR&MSAA nicht funktioniert.
Sry, mein Fehler. Funktioniert offenbar doch. ;)

Mr. Lolman
2005-11-10, 16:50:42
Die Toyshop-Demo verwendet das 1010102 Format, was ATi schon als HDRR propagiert.
Die fehlende FP-Filterung macht sich in Blockbildung bemerkbar (vergleichbar mit der Blockbildung in SS2 beim aktivierten HDR, was eigentlich kein HDR ist). In Far Cry gibt es zZ eh kein HDRR auf einer Radeon, da Far Cry dies gar nicht zuläßt, weil es gar nicht weiß, dap es Radeons gibt, die HDRR können. In SC3 gibt es das "SM2.0 HDR" zu sehen.
Dann gibt es noch AoE3, aber keine Ahnung, wie es hier aussieht, womöglich gibt es hier kein HDRR zu sehen, da das Spiel erwartet, daß eine Grafikkarte, die behauptet, HDRR zu beherrschen, auch FP-Filterung beherrschen muß: Ohne nachträgliche Patches wird es kein HDRR à la G70 geben.

Nur das die Blockbildung bei SS2 nur auf NV Karten zu sehen ist. (oder meinst du andere Blocks als ich?)

M2-Master
2005-11-10, 17:26:10
Wie hat man sich Blockbildung vorzustellen ?

Mr. Lolman
2005-11-10, 17:28:58
So: http://www.digit-life.com/articles2/video/r520-part4-g.html

deekey777
2005-11-10, 17:47:25
Nur das die Blockbildung bei SS2 nur auf NV Karten zu sehen ist. (oder meinst du andere Blocks als ich?)

Nein, nein, die Blockbildung war nicht gemeint. X-D
Gemeint war diese:
http://www.hardocp.com/article.html?art=ODc1LDU=

Siehe Screenshots mit dem "HDR" und hier der Thread
http://www.beyond3d.com/forum/showthread.php?t=25111.

Deine Blockbildung wurde erst jetzt gefixt:
Update 11/07/2005*

Some very astute forum goers noticed that in the first screenshot above there is in fact a difference in image quality with the reflections on the windows of the buildings. It appears that on the GeForce 7800 GTX the reflections are blocky and not accurately reflecting the environment. We have gone back in and tested this out and are seeing the same result. We found that on those buildings the reflections are indeed not being rendered correctly. We also found that on other buildings they are being rendered correctly, so not all reflections are effected. We found that by turning down the “Reflection Quality” to “Medium” that this fixed the problem and the reflections are then rendered properly. This is with ForceWare 81.85 as used in the review.

We then installed the latest beta ForceWare drivers from NZone, ForceWare 81.87. We found that this driver fixes the problem. Therefore it seems to be a driver bug with ForceWare 81.85. If you are playing Serious Sam 2 we recommend installing ForceWare 81.87 to correct the reflection problem. With ForceWare 81.87 you can set the “Reflection Quality” to “High” and it matches the X1800 XT’s reflection quality.
http://www.hardocp.com/article.html?art=ODc1LDU=
(Screenshots ganz unten.)
€: Lustigerweise sahen die meisten nur diese häßliche Blockbildung beim Bloom auf der X1800, aber nicht die Artefakte bei den Spiegelungen auf der 7800GTX.

OT: Das interessiert mich aber jetzt: AFAIK funktioniert bei SS2 HDR auf ATI-Hardware sowieso nicht, gerade weil's FP16-HDR (allerdings ohne Tonemapping) ist. Ist das richtig?

Die Frage ist, ob es überhaupt HDR ist und bei wem der Fehler zu suchen ist. :)

Mr. Lolman
2005-11-10, 17:53:24
Krass :eek:

Naja, bleibt nur noch das Argument, dass HDR bei SS2 eh sh1ce ist ;););)