PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 [2] 3 4 5 6 7 8 9 10

Blaze
2005-10-05, 17:12:25
Sagt einer mit 2 GTX im SLI.

Es geht doch gar nicht um mich. :rolleyes:

Vergleich bitte EINE 7800GTX mit EINER X1800XT...

Black-Scorpion
2005-10-05, 17:12:44
und kaum isses kein 0815 standard game - desaster (is eq2 vielleicht ogl?)
http://www.hardocp.com/article.html?art=ODIyLDE0
Die Reviews von der Seite sind der letzte Rotz.

Viel zu unübersichtlich und übertaktete Karten.

Fadl
2005-10-05, 17:13:05
Wobei da die ATI noch nichtmal AA am laufen hat, die 7800GT hat 2x TRMSAA am Start.

Und trotzdem ist sie überlegen... :rolleyes:

Dann sagt auch das eine X1800XL gegen eine BFG OC 7800GT gebencht wurde.
Warum postet ihr Fans nicht mal ein paar HL2 Benches der X1800XT gegen die 7800GTX? Weil ihr dann nichts mehr zu lachen habt? ;)

(del676)
2005-10-05, 17:13:14
Wobei da die ATI noch nichtmal AA am laufen hat, die 7800GT hat 2x TRMSAA am Start.

Und trotzdem ist sie überlegen... :rolleyes:

ja bei und beim minfps nicht gerade wenig

Demirug
2005-10-05, 17:13:58
Jeder Hersteller kocht sein eigenes Süppchen.

Genau das sollte aber mit SM3 eingedämpft werden. Bei der fehlenden Filterung kann ich ihnen ja nicht wirklich einen Vorwurf machen das ist ja Spec konform aber trotzdem schade.

Wie ich schon an anderer Stelle schrieb. Nächste Hoffnung Direct3D 10.

[dzp]Viper
2005-10-05, 17:14:51
Wobei da die ATI noch nichtmal AA am laufen hat, die 7800GT hat 2x TRMSAA am Start.

Und trotzdem ist sie überlegen... :rolleyes:

100% einer Fehler bei der Beschriftung...

siehe alle anderen Reviews wo die x1800xt die 7800GTX in HL2 schlägt (nur eben bei harocp nicht.. ein schelm wer sich dabei was denkt :rolleyes: )

Blaze
2005-10-05, 17:15:03
Dann sagt auch das eine X1800XL gegen eine BFG OC 7800GT gebencht wurde.
Warum postet ihr Fans nicht mal ein paar HL2 Benches der X1800XT gegen die 7800GTX? Weil ihr dann nichts mehr zu lachen habt? ;)

Oh man...selbst wenn sie nicht OCed wäre würde sie mit der X1800XL gleichauf sein, und das mit 2xTRMSAA...

(del676)
2005-10-05, 17:15:13
HardOCP benützt AAA, vielleicht verursacht das noch den Einbruch momentan.

ja warum auch nicht, wenn man hl2 ohne TR SSAA spielt bekommt man ja augenkrebs - aber nu heissts wieder man muss ohne TRSSAA und AAA benchen oder :)

Mumins
2005-10-05, 17:15:42
Es geht doch gar nicht um mich. :rolleyes:

Vergleich bitte EINE 7800GTX mit EINER X1800XT...

In dieser Klasse hat der Stromverbrauch noch nie interessiert. Bis jetzt war da Nvidia außerdem immer unterlegen, also bitte mach kein son Wirbel.

Fadl
2005-10-05, 17:15:59
Viper']100% einer Fehler bei der Beschriftung...

siehe alle anderen Reviews wo die x1800xt die 7800GTX in HL2 schlägt (nur eben bei harocp nicht.. ein schelm wer sich dabei was denkt :rolleyes: )

Nein bei dem Test wird gar keine X1800XT getestet sondern eine XL

(del676)
2005-10-05, 17:16:09
Viper']100% einer Fehler bei der Beschriftung...

siehe alle anderen Reviews wo die x1800xt die 7800GTX in HL2 schlägt (nur eben bei harocp nicht.. ein schelm wer sich dabei was denkt :rolleyes: )

ohne AAA und TRSSAA brauch ich mir keine benches anschaun, schon garnicht von einem game das vor lauter Alphatests nur so trieft :rolleyes:

Odal
2005-10-05, 17:16:21
recht erhitzte diskussion hier ;D

dann möchte ich meinen senf auch mal dazu geben:

was mir sehr gut gefällt ist die BQ grosses :up an ati dafuer... ich hoffe das NV hier ein einsehen bekommt und sich in zukunft wieder auf alte tugenden besinnt.

ansonsten sind die benchmarks durchwachsen. für eine Karte die soviel später erst gelauncht wird ist das imho zu wenig. Obwohl die X1800XT hier nicht wirklich klar überlegen ist..denke ich wird es für NV kein prob. sein eine höher getaktete GTX nachzulegen (schon allein gleich schneller Speicher dürfte noch einiges reissen), da die produktion ja schon sehr lang läuft und demnach gut optimiert ist. Daher finde ich es schade das die X1800XT nicht wirklich schneller ist als eine GTX, somit bleibt der Zwang zum nachlegen wohl leider aus.

Unter 3D Last scheinen sie beide ca. gleich viel zu konsumieren, bleibt abzuwarten ob der 2D Idle Schnitzer noch ausgebügelt werden kann. Der X1800XT scheint auch ein recht grosser Hitzkopf zu sein...schade eigentlich.

Was mir aber die meisten Gedanken bereitet ist Demirug ' s einwurf das das SM3 modell anderes ausgelegt wird. Könnte das eventuell dazu führen das künftige Spiele manchmal nur auf NV oder auf ATI SM3 anbieten und für die jeweils andere seite nur 2.x, weil sie sich einfach nicht den aufwand machen wollen?

Letztendlich wird der Preis es entscheiden und hier kann man derzeit noch garkeine Aussagen treffen.

alles in allem etwas mau für okt. 2005

(del676)
2005-10-05, 17:16:44
Einzig gutes an der Sache is das AreaAF von ATI, ich hoffe inständig das NV hier nachzieht!

[dzp]Viper
2005-10-05, 17:16:54
ohne AAA und TRSSAA brauch ich mir keine benches anschaun, schon garnicht von einem game das vor lauter Alphatests nur so trieft :rolleyes:

dann guck dir die Benchmarks auf computerbase an....

Blaze
2005-10-05, 17:17:10
In dieser Klasse hat der Stromverbrauch noch nie interessiert. Bis jetzt war da Nvidia außerdem immer unterlegen, also bitte mach kein son Wirbel.

50 Watt mehr und kein Wirbel? Das Ding ist in 90nm gefertigt und verbrät trotzdem massiv mehr Strom als die in 110nm gefertigte GTX. Darum gehts mir...

Fadl
2005-10-05, 17:17:35
Oh man...selbst wenn sie nicht OCed wäre würde sie mit der X1800XL gleichauf sein, und das mit 2xTRMSAA...

Ja aber das bezieht sich nur auf die XL und nicht auf die XT Karte. Zumal andere Reviews da auch etwas leicht anderes sagen.

Coda
2005-10-05, 17:17:45
50 Watt mehr und kein Wirbel? Das Ding ist in 90nm gefertigt und verbrät trotzdem massiv mehr Strom als die in 110nm gefertigte GTX. Darum gehts mir...Ach tut sie jetzt doch? Das ist natürlich unfein...

Nicht wegen der Stromrechnung sondern wegen der Chipausbeute, der Übertaktungsfreudigkeit und vor allem dem lauteren (?) Lüfter.

Demirug
2005-10-05, 17:19:27
Das Problem ist einfach, daß Grafikkarten ein relativ objektivierbares Feld darstellen - und deshalb will eine Meinung wenigstens vernünftig begründet sein, you know?

Ich finde CPUs, Festplatten, Speicher, Laufwerke für wesenlich objektivierbarer als Grafikkarten. Grafikkarten sind IMHO so ziemlich das am schwersten zu vergleichenden Teil in einem PC.

reunion
2005-10-05, 17:21:44
Ach tut sie jetzt doch? Das ist natürlich unfein...

Nicht wegen der Stromrechnung sondern wegen der Chipausbeute, der Übertaktungsfreudigkeit und vor allem dem lauteren (?) Lüfter.


Der Lüfter ist nur minimalst lauter als bei der GTX, aber immer noch leiser wie bei den meisten anderen Karten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/24/#abschnitt_lautstaerke

Der Stromverbrauch ist nur im idle-betrieb höher(Leckströme?), aber geringer als bei NV40:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

(del676)
2005-10-05, 17:22:31
Viper']dann guck dir die Benchmarks auf computerbase an....

nochmal

OHNE Adaptive AA und OHNE TRSSAA will ich keine hl2, css, dods benches sehen

wenn du auf cb nachlesen würdest wäre dir das aufgefallen:


Treibereinstellungen: nVidia-Grafikkarten

* Systemleistung: Hohe Qualität
* Vertikale Synchronisierung: Aus
* MipMaps erzwingen: keine
* Trilineare Optimierung: Aus
* Anisotrope Mip-Filter-Optimierung: Aus
* Optimierung des anisotropen Musers: Aus
* Negativer LOD-Bias: Clamp
* Gamma-angepasstes AA (G70): Ein
* Transparenz AA (G70): Aus


Treibereinstellungen: ATi-Grafikkarten

* Catalyst A.I.: Standard
* Mipmap Detail Level: High Quality
* Wait for vertical refresh: Always off
* Adaptive Anit-Aliasing: Off
* High Quality AF: Off
* Truform: Always Off

Mumins
2005-10-05, 17:23:45
50 Watt mehr und kein Wirbel? Das Ding ist in 90nm gefertigt und verbrät trotzdem massiv mehr Strom als die in 110nm gefertigte GTX. Darum gehts mir...

50W, ich seh da was von 30W im Idle, unter Last gleichauf. Evtl. funktioniert da bei der Radeon etwas noch nicht ganz.

[dzp]Viper
2005-10-05, 17:25:26
nochmal

OHNE Adaptive AA und OHNE TRSSAA will ich keine hl2, css, dods benches sehen

wenn du auf cb nachlesen würdest wäre dir das aufgefallen:

Und wenn du die Reviews richtig gelesen hättest, dann wäre dir aufgefallen, dass die X1800XT beim Zuschalten von AAA nur unwesentlich Performance verliert. Im Gegensatz dazu verliert die GTX da wesentlich mehr Performance beim zuschalten von TRSSAA.

Und da die X1800XT schon bei normalen AA sogut wie alle HL2 Benchmarks gewinnt, wird sie zu 99% wohl bei AAA nicht aufeinmal hinter die GTX fallen ;)

r00t
2005-10-05, 17:25:52
mit voller vorfreude habe ich mich vorhin auf die benchmarks auf computerbase gstürtzt und ich bin froh das ich mich für die 7800GT entschieden hab!

als ich zuerst die 3dmark werte sah,schluckte ich..autsch die GT dahinter..aber als ich die game und vorallem die rating vergleiche sah wars mir klar ..die GT kann sich doch vor der XL behaupten!(zumindest in vielen fällen...in hl2 z.b. sag ich einfach mal optimized for ati^^)

auch wenn die XL vielleicht in ein paar games vor der GT ist im performance rating ist die GT besser..die 4 pipes mehr merkt man wohl doch^^

was auch mehr für nvidia spricht is der stromverbrauch und die lüfterlautstärke..ich hab eigentlich gedacht durch das kleinere produktionsverfahren werden die karten kühler? aber stattdessen pappt ati 300mill. transitoren drauf + nen 66dB lüfter na super!!

auch der preis macht mich nicht heiß.. :|

Blaze
2005-10-05, 17:25:58
50W, ich seh da was von 30W im Idle, unter Last gleichauf. Evtl. funktioniert da bei der Radeon etwas noch nicht ganz.

Gut, 44...man verzeihe mir die 6 Watt.

GTX: 129
R520XT: 173

Und unter last sinds auch 25W weniger bei der GTX.

http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=16

Horimoto
2005-10-05, 17:26:33
Von xbitlabs kommt bald ein review, auf deren Benches vertau ich am meisten, es sind die besten reviews imo.........
also warten.........

Demirug
2005-10-05, 17:26:36
Was mir aber die meisten Gedanken bereitet ist Demirug ' s einwurf das das SM3 modell anderes ausgelegt wird. Könnte das eventuell dazu führen das künftige Spiele manchmal nur auf NV oder auf ATI SM3 anbieten und für die jeweils andere seite nur 2.x, weil sie sich einfach nicht den aufwand machen wollen?

Alles was auf einem R520 läuft wird auch auf einem NV4X/G7X laufen. Die ganz kleinen NV Karten ausgenommen.

nVidia fehlen lediglich ein paar Textureformate und teilweise die AA Option aber jede Engine die einigermassen was taugt regelt sowas von aleine. Die Unterschiede im Shadermodel und dem was direkt damit verbunden ist erfordern dagegen händisches eingreifen. Alle Spiele die HDR nutzen und bisher davon ausgingen das jede Karte die FP16 Blending kann auch filtern kann müssen für den R520 gepatcht werden damit HDR richtig funktioniert. VT wurde bisher noch nicht in veröffentlichten DX Spielen genutzt und wird wohl dank der Verweigerung von ATI keinen schnellen Durchbruch erleben. Ich werde meine schöne GPU Physikengine jetzt wohl auch erst mal aufs Eis legen und schauen wie ich das ganze nun auf GPU und CPU automatisch aufteilen kann wenn das VT fehlt. Das ist aber mein persönliches Problem.

(del676)
2005-10-05, 17:26:48
Viper']Und wenn du die Reviews richtig gelesen hättest, dann wäre dir aufgefallen, dass die X1800XT beim Zuschalten von AAA nur unwesentlich Performance verliert. Im Gegensatz dazu verliert die GTX da wesentlich mehr Performance beim zuschalten von TRSSAA.

Und da die X1800XT schon bei normalen AA sogut wie alle HL2 Benchmarks gewinnt, wird sie zu 99% wohl bei AAA nicht aufeinmal hinter die GTX fallen ;)

ich will absolute werte sehen, und nen fps verlauf :P :)

edit: und dualcore und keinen popeligen 20 euro cpu

MadManniMan
2005-10-05, 17:27:05
Ich finde CPUs, Festplatten, Speicher, Laufwerke für wesenlich objektivierbarer als Grafikkarten. Grafikkarten sind IMHO so ziemlich das am schwersten zu vergleichenden Teil in einem PC.

Damit hast Du allerdings Recht - was aber immer noch nicht dazu berechtigt, Chips mit "Find ich aber und basta" abzuspeisen, außer natürlich man möchte nicht ernst genommen werden.

Ich persönlich sehe das so: die R520XL bspw. bietet mehr als genügend Leistung für aktuelle Spiele und man muß hier und da vielleicht irgendwann mal leichte Einbußen in Bezug auf AA+AF Grad eingehen, aber das gilt mehr oder weniger für alle halbwegs aktuellen teuren Karten.
Im Bereich von "genügend" Leistung gehts dann um schöne Details, wie eben das endlich nachgereichte HQ-AF, Verlustleistung, Kühllösung etc pp.
Wenn diese Dinge klargestellt sind, kann man für sich persönlich seinen Schluß ziehen - aber meiner Einer wird niemanden ernst nehmen, der Karten für "scheiße" hält. Es gibt gute und weniger gute, aber vielleicht hab ich inzwischen zuviele andere Hobbies, als daß ich mich da so reinsteigern könnte, wie ich es jahrelang tat. Dennoch widme ich jeden Tag Stunden diesem Thema ... enthusiastisch bin ich noch immer, nur bemühe ich mich um Vernunft und Kommunikation - was man imho eigentlich erwarten können sollte.

BTW: bescheiden des mit "SM3.0" ;(

[dzp]Viper
2005-10-05, 17:27:52
ich sehe beim HL2 test abschnitt nichts davon

machmal frage ich mich ob ihr nicht selber richtig gucken könnt ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/9/#abschnitt_aa_und_af_performance

Und wenn du das Ergebnis von dieser Seite jetzt mit dem Ergebnissen der HL2 Benchmarks kombinierst (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/20/#abschnitt_half_life_2) , dann kannst du dir wohl denken, dass der Vorsprung der X1800XT bei HL2 sogar noch weiter steigt wenn bei beiden "transparented" AA aktiviert wird...

Coda
2005-10-05, 17:30:54
Ich bin allein schon froh, dass es endlich zur breiten Verfügbarkeit von SM 3.0 kommt.

Mumins
2005-10-05, 17:30:55
Gut, 44...man verzeihe mir die 6 Watt.

GTX: 129
R520XT: 173

Und unter last sinds auch 25W weniger bei der GTX.

http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=16


Dann schau auf Computerbase, die haben wieder andere Werte. Wenn man beim messen was falsch macht kommt oftmal Mist raus, auch bei NT mit passiv pfc.

Spasstiger
2005-10-05, 17:31:08
warum werden eigentlich 512 MByte Speicher der X1800-XT mit den 256 MByte der 7800 GTX verglichen ? das kanns doch nicht sein....

Weils noch keine 7800 GTX mit 512 MB gibt.

betasilie
2005-10-05, 17:31:41
Oh man. Wie peinlich sind jetzt eigentlich die 7800GTX Besitzer, die ihre Karte gegen jede Logik schön reden wollen? Wirklich peinlich. Wenn man so vorschnell kauft und dann hinterher merkt, dass man die unterlegene Karte hat, sollte man wenigstens das Rückrat haben dies einzusehen und nicht krampfhaft versuchen seinen Kauf zu rechtfertigen. :down:

dargo
2005-10-05, 17:31:44
Wäre aber ziemlich schlecht wenn sowas erst beim Launch auffällt...
Natürlich wäre das schlecht. Trotzdem, bei einem Betatreiber ist alles möglich.

Auch die Benchmarkwerte würde ich bei einem Betatreiber mit Vorsicht genießen.
Nehmen wir mal die Ergebnisse von CB mit dem Gesamtverbrauch.

X1800XT (Last) - 206W, (Idle) - 152W
X850Pro (Last) - 190W, (Idle) - 111W

Mit der X1800XT braucht also das System unter Last 54W mehr, wogegen das System mit der X850Pro ganze 79W mehr braucht. Natürlich kann man mit diesen Zahlen schlecht rechnen. Die Effizienz des NT spielt dabei auch eine Rolle.

Ich kann mir aber wirklich nicht vorstellen, daß das so geplant war. Für mich sieht das nach nicht richtig funktionierenden Stromsparmechanismen bei Idle aus. Wenn es wirklich kein Bug ist dann wird meine nächste Graka kein R520 sein.

StefanV
2005-10-05, 17:32:54
Kommt drauf an. Wenn ausschließlich gerechnet wird ist G70 vorne, wenn Texturfetches dazukommen dann eher R520.

In Zukunft wird es aber immer mehr Arithmetik geben, z.Z. reicht die Arithmetik-Leistung des R520 wohl sehr gut aus.
Und wie schauts mit den Optimierungen aus?!

Wie stark reagieren die 2 auf optimierungen seitens der Entwickler?!

DAS wäre auch noch ein intteressater Punkt...

(del676)
2005-10-05, 17:33:06
Oh man. Wie peinlich sind jetzt eigentlich die 7800GTX Besitzer, die ihre Karte gegen jede Logik schön reden wollen? Wirklich peinlich. Wenn man so vorschnell kauft und dann hinterher merkt, dass man die unterlegene Karte hat, sollte man wenigstens das Rückrat haben dies einzusehen und nicht krampfhaft versuchen seinen Kauf zu rechtfertigen. :down:

och die trolle sind auch schon da :biggrin:
was kann ich dafür dass ati mit monaten verspätung ne unterlegene karte rausbringt die teilweise lahmer als ne 6800u is :(

Demirug
2005-10-05, 17:33:32
BTW: bescheiden des mit "SM3.0" ;(

Die Transitoren haben angeblich mal wieder nicht gereicht.

Spasstiger
2005-10-05, 17:33:35
Ich kann mir aber wirklich nicht vorstellen, daß das so geplant war. Für mich sieht das nach nicht richtig funktionierenden Stromsparmechanismen bei Idle aus. Wenn es wirklich kein Bug ist dann wird meine nächste Graka kein R520 sein.

Genau dasselbe dachte ich auch schon. Im Idle kann man ja fast alles von der Grafikkarte deaktivieren.

Coda
2005-10-05, 17:35:02
Und wie schauts mit den Optimierungen aus?!

Wie stark reagieren die 2 auf optimierungen seitens der Entwickler?!

DAS wäre auch noch ein intteressater Punkt...Wenn ich beide Karten habe, werde ich mal ein paar Shader drüberlaufen lassen, ok?

Traxx
2005-10-05, 17:35:46
Naja, also ich freue mich wesentlich mehr über die gesteigerte BQ - vor allem was das AF betrifft, als dass mich die paar Frames mehr oder weniger enttäuschen würden. Hoffentlich kommt da nicht wieder irgend ein getrickse ans Tageslicht...

Das allerbeste wäre nun, wenn Nvidia mit dem hier bereits erhofften Wundertreiber auch "fastwinkelunabhäniges AF" bieten würde. Passiert dies nicht, und der R580 legt im Speed noch etwas zu, Nvidia beim Refresh aber nicht bei der BQ, dann steht meine Wahl für die nächst Karte im Frühjahr wohl fest. Ich will endlich wieder gutes AF wenn die Performance dafür reicht. Falls nicht, werden die Optimierungen halt eingeschaltet.

Greetings
Traxx

Blaire
2005-10-05, 17:36:09
Techreport und auch viele andere Reviews haben bei Nvidia lediglich einen 78.xx Forceware benutzt und nicht den neuesten 81.84 ... Letztere sind zum Teil deutlich schneller.

Ronny145
2005-10-05, 17:36:13
Natürlich wäre das schlecht. Trotzdem, bei einem Betatreiber ist alles möglich.

Auch die Benchmarkwerte würde ich bei einem Betatreiber mit Vorsicht genießen.
Nehmen wir mal die Ergebnisse von CB mit dem Gesamtverbrauch.

X1800XT (Last) - 206W, (Idle) - 152W
X850Pro (Last) - 190W, (Idle) - 111W

Mit der X1800XT braucht also das System unter Last 54W mehr, wogegen das System mit der X850Pro ganze 79W mehr braucht. Natürlich kann man mit diesen Zahlen schlecht rechnen. Die Effizienz des NT spielt dabei auch eine Rolle.

Ich kann mir aber wirklich nicht vorstellen, daß das so geplant war. Für mich sieht das nach nicht richtig funktionierenden Stromsparmechanismen bei Idle aus. Wenn es wirklich kein Bug ist dann wird meine nächste Graka kein R520 sein.


So sehe ich das auch. Wenn das so bleibt wird es doch eine 7800 GT werden. Eigentlich Schade, denn die Bildqualität wäre schon besser als vom G70.

Demirug
2005-10-05, 17:36:30
Und wie schauts mit den Optimierungen aus?!

Wie stark reagieren die 2 auf optimierungen seitens der Entwickler?!

DAS wäre auch noch ein intteressater Punkt...

Shadermark ist totoptimiert in den Treibern weil der immer wieder benutzt wird.

(del676)
2005-10-05, 17:37:12
Naja, also ich freue mich wesentlich mehr über die gesteigerte BQ - vor allem was das AF betrifft, als dass mich die paar Frames mehr oder weniger enttäuschen würden. Hoffentlich kommt da nicht wieder irgend ein getrickse ans Tageslicht...

Das allerbeste wäre nun, wenn Nvidia mit dem hier bereits erhofften Wundertreiber auch "fastwinkelunabhäniges AF" bieten würde. Passiert dies nicht, und der R580 legt im Speed noch etwas zu, Nvidia beim Refresh aber nicht bei der BQ, dann steht meine Wahl für die nächst Karte im Frühjahr wohl fest. Ich will endlich wieder gutes AF wenn die Performance dafür reicht. Falls nicht, werden die Optimierungen halt eingeschaltet.

Greetings
Traxx
jop, der bildqualitätsball liegt nun wieder bei nvidia, und die müssen nun reagieren

Spasstiger
2005-10-05, 17:37:45
Techreport und auch viele andere Reviews haben bei Nvidia lediglich einen 78.xx Forceware benutzt und nicht den neuesten 81.84 ... Letztere sind zum Teil deutlich schneller.

Sollen aber anscheinend z.b. in Doom 3 eine schlechte Bildqualität zur Folge haben laut Berichten in einem Doom3-IRC-Channel.

knallebumm
2005-10-05, 17:38:16
Damit hast Du allerdings Recht - was aber immer noch nicht dazu berechtigt, Chips mit "Find ich aber und basta" abzuspeisen, außer natürlich man möchte nicht ernst genommen werden.

Ich persönlich sehe das so: die R520XL bspw. bietet mehr als genügend Leistung für aktuelle Spiele und man muß hier und da vielleicht irgendwann mal leichte Einbußen in Bezug auf AA+AF Grad eingehen, aber das gilt mehr oder weniger für alle halbwegs aktuellen teuren Karten.
Im Bereich von "genügend" Leistung gehts dann um schöne Details, wie eben das endlich nachgereichte HQ-AF, Verlustleistung, Kühllösung etc pp.
Wenn diese Dinge klargestellt sind, kann man für sich persönlich seinen Schluß ziehen - aber meiner Einer wird niemanden ernst nehmen, der Karten für "scheiße" hält. Es gibt gute und weniger gute, aber vielleicht hab ich inzwischen zuviele andere Hobbies, als daß ich mich da so reinsteigern könnte, wie ich es jahrelang tat. Dennoch widme ich jeden Tag Stunden diesem Thema ... enthusiastisch bin ich noch immer, nur bemühe ich mich um Vernunft und Kommunikation - was man imho eigentlich erwarten können sollte.

BTW: bescheiden des mit "SM3.0" ;(


Kann mich nur anschließen. Ich hab mir den ganzen Thread hier durchgelesen und finde die Leute, die immer nur einseitig Argumente für eine Firma suchen und dabei jede Objektivität mit dem Klo runterspülen, einfach nur extrem peinlich.
Ein Forum sollte dazu da sein, möglichst objektiv Vorteile und Nachteile abzuwägen und nicht krampfhaft immer nur die Vorteile der einen Seite zu sehen.
Solche Leute kann ich nicht ernst nehmen und sie versauen hier den ganzen Thread.

[dzp]Viper
2005-10-05, 17:38:26
och die trolle sind auch schon da :biggrin:

kann man von dir auch behaupten

erst nimmst du dir die benchmarks von Hardocp weil dort die X1800XT in HL2 verliert, und wenn man dir das gegenteil bei Computerbase zeigt, dann gehst du fast nicht drauf ein oder schlägst es mit anderen begründungen aus dem wind ;)

Also vorsicht wer hier wen Fanboy nennt ;)


Man sollte bei Grafikkarten nicht nur einzelne Spiele sehen, sondern versuchen das Gesamtbild zu erfassen.

Das Gesamtbild setzt sich aktuell nun so zusammen:

X1800XT in D3D min. gleich auf und öfters schneller
X1800XT unter OpenGL wie immer langsamer
X1800XT hat die wesentlich bessere Bildqualität
X1800XT hat nicht komplett alle SM3.0 features (war ja irgendwas mit nichtvorhandenen Vertexdingsbums :D -> siehe Demirug)
X1800XT kann HDR + AA (noch nicht wichtig - könnte aber wichtig werden!)

Im großen und ganzen ist es eine Tolle Karte welche aber wie immer auch ein paar Negative Seiten hat.

Die Perfekte Karte gibt es eben nicht - die einen sind da gut und die anderen sind da schlecht. Alles kann man nicht haben - ausser man kauft sich beide Karten ;)

r00t
2005-10-05, 17:38:33
Damit hast Du allerdings Recht - was aber immer noch nicht dazu berechtigt, Chips mit "Find ich aber und basta" abzuspeisen, außer natürlich man möchte nicht ernst genommen werden.

Ich persönlich sehe das so: die R520XL bspw. bietet mehr als genügend Leistung für aktuelle Spiele und man muß hier und da vielleicht irgendwann mal leichte Einbußen in Bezug auf AA+AF Grad eingehen, aber das gilt mehr oder weniger für alle halbwegs aktuellen teuren Karten.
Im Bereich von "genügend" Leistung gehts dann um schöne Details, wie eben das endlich nachgereichte HQ-AF, Verlustleistung, Kühllösung etc pp.
Wenn diese Dinge klargestellt sind, kann man für sich persönlich seinen Schluß ziehen - aber meiner Einer wird niemanden ernst nehmen, der Karten für "scheiße" hält. Es gibt gute und weniger gute, aber vielleicht hab ich inzwischen zuviele andere Hobbies, als daß ich mich da so reinsteigern könnte, wie ich es jahrelang tat. Dennoch widme ich jeden Tag Stunden diesem Thema ... enthusiastisch bin ich noch immer, nur bemühe ich mich um Vernunft und Kommunikation - was man imho eigentlich erwarten können sollte.

BTW: bescheiden des mit "SM3.0" ;(


aber da kauf ich mir doch keine XL für über 400€ ^^ ne 7800gt gibts doch schon für ca 340€^^

reunion
2005-10-05, 17:38:47
AnandTech: http://www.anandtech.com/video/showdoc.aspx?i=2552

Blaze
2005-10-05, 17:38:51
Manni ich hab nie gesagt dass ich die Karte für "Scheiße" halte, bloß für mich kommt sie zum jetzigen Zeitpunkt absolut nicht in Frage.

Lass es mich etwas genauer schildern.

a) Ich bin mit meinen Karten zufrieden.
b) SLI ist mittlerweile recht ausgereift, und das erwiesenermaßen, von CF wissen wir noch fast gar nix was Kompatibilität etc. angeht. Also was kann CF mir bieten was SLI nicht kann?
c) der Stromverbrauch der einzelnen X1800XT lässt mich darauf schließen dass 2 davon noch mehr Strom fressen (dafür dass sie in 90nm gefertigt ist ein Armutszeugnis imho)
d) Die 2-Slot Kühllösung ist auch nicht grad das Optimale wenn man damit CF betreiben will. Je kleiner der Abstand zwischen den Karten desto heisser werden sie logischerweise.
e) Die (meines erachtens) zu hohen Preise der Karten und Mainboards (das billigste CF Mobo kostet schon 200 €)
f) von der Verfügbarkeit des ganzen will ich mal gar nicht anfangen... :rolleyes:

Ich rede jetzt bewusst nur vom Dual-Betrieb da für mich eh nix anderes mehr in Frage kommen würde.

Das einzig positive ist im Moment noch die BQ des R520, aber ich geh davon aus dass NV nachbessern wird.

dargo
2005-10-05, 17:39:13
Der X1800XT scheint auch ein recht grosser Hitzkopf zu sein...schade eigentlich.

Wieso ein großer Hitzkopf ???
Lastwerte von CB (Gesamtverbrauch)

G6800U - 208W
X1800XT - 206W
G7800GTX - 204W.

Dann ist aber eine G6800U und die G7800GTX auch nicht gerade stromsparend. ;)

StefanV
2005-10-05, 17:39:22
50 Watt mehr und kein Wirbel? Das Ding ist in 90nm gefertigt und verbrät trotzdem massiv mehr Strom als die in 110nm gefertigte GTX. Darum gehts mir...
Hm, Prescott <-> Northwood??

Dennoch kanns sein, das das ganze ein Treiberbug und ähnliches ist, das noch gefixt werden kann (bzw woran man arbeitet)...

Eben weil der Unterschied Vollast <-> Idle so gering ist und eher auf die CPU zurückzuführen ist denn sonstwas...

deekey777
2005-10-05, 17:39:28
Techreport und auch viele andere Reviews haben bei Nvidia lediglich einen 78.xx Forceware benutzt und nicht den neuesten 81.84 ... Letztere sind zum Teil deutlich schneller.
Nur weil ein Treiber irgendwo schneller ist, muß er doch nicht gleich benutzt werden, insbesondere wenn das kein finaler Treiber ist, sondern über Umwege im Internet gelandet ist.
Driver Heaven hat einen neuen Treiber mitbenutzt:
"With the launch of the X1800XT looming, infact with less than 2 days until NDA expiry we were informed by Nvidia that there was a new set of Forceware Drivers available in the form of 81.82 which provide enhanced speed and some fixes for outstanding issues. We have therefore retested the 7800GTX with these drivers and the results are also shown in our comparison tables. Due to time constraints we have not had time to retest the SLI systems. What we can tell you is that the 81.82 will be released soon by NV and that it allows you to enable SLI without a reboot and use mismatched cards in the same system (for example a XFX GTX OC and a Leadtek standard GTX) so some nice improvements to be had overall if you use these drivers."

Adam D.
2005-10-05, 17:40:00
@Viper: Du hast es genau erfasst. Ich bin jetzt nur mal gespannt, wann das Ding verfügbar ist und wieviel sie dann letztendlich kostet.
Gegen die 7800GTX hat sie wohl preislich anfangs keine Chance.

Logan
2005-10-05, 17:40:38
Obwohl ich nvidia user bin (7800gtx) muss ich zugeben das die ati x1800xt sehr gut performt sie liegt gleich auf mit der gtx und das bei 16pipes vs. 24pipes, was für ein monster ist dann die r580 mit 24 (?) ? Also wenn ati die r580 demnächst auf den markt wirft sehe ich schwarz für nvidia :(

seahawk
2005-10-05, 17:41:13
Bei Heise Online gibts ein Update zur bekannten Meldung (http://www.heise.de/newsticker/meldung/64592) zum Thema Verfügbarkeit & Preise:

[Update]:
Der Kartenhersteller Sapphire macht folgende Angaben zu den Endverkaufspreisen: Das Radeon-X1800-XT-Modell mit 512 MByte Speicher soll bei 549 Euro und die XL-Variante mit 256 MByte bei 449 Euro liegen. Die Preise für die Radeon X1600 reichen von 149 Euro für die Pro-Version mit 128 MByte bis zu 249 Euro für die XT-Version mit 256 MByte. Modelle mit dem Radeon X1300 sollen ab 99 Euro (Standard, 128 MByte) zu haben sein. Die Radeon X1300 Pro mit 256 MByte soll 149 Euro kosten.

Händler sind zuversichtlich, erste Exemplare bereits in der nächsten Woche ausliefern zu können. Sapphire berichtet, dass man die Radeon X1800 XL bereits an Alternate, Amazon, Arlt-Computer, Snogard und Conrad online ausgeliefert habe oder dies in den nächsten Tage tun werde. Mitte bis Ende Oktober sollen der Radeon X1300 folgen, Anfang November die Radeon X1800 XT und Anfang Dezember die Mittelklasse-Karten mit dem Radeon X1600. Weitere Details und Benchmarks bringt c't in Ausgabe 22/05 (ab Montag, den 17. Oktober im Handel). (Manfred Bertuch) / (jk/c't)

Bei den Preisen sind sie nur für BQ Fans interessant. Die XI1600XT ist imho ein Witz für den preis.

deekey777
2005-10-05, 17:42:05
Obwohl ich nvidia user bin (7800gtx) muss ich zugeben das die ati x1800xt sehr gut performt sie liegt gleich auf mit der gtx und das bei 16pipes vs. 24pipes, was für ein monster ist dann die r580 mit 24 (?) ? Also wenn ati die r580 demnächst auf den markt wirft sehe ich schwarz für nvidia :(

Der R580 ist ein "vierfacher" RV530, also mit 16 Pipelines. :)

(del676)
2005-10-05, 17:42:06
Viper']kann man von dir auch behaupten

erst nimmst du dir die benchmarks von Hardocp weil dort die X1800XT in HL2 verliert, und wenn man dir das gegenteil bei Computerbase zeigt, dann gehst du fast nicht drauf ein oder schlägst es mit anderen begründungen aus dem wind ;)

Also vorsicht wer hier wen Fanboy nennt ;)


Man sollte bei Grafikkarten nicht nur einzelne Spiele sehen, sondern versuchen das Gesamtbild zu erfassen.

Das Gesamtbild setzt sich aktuell nun so zusammen:

X1800XT in D3D min. gleich auf und öfters schneller
X1800XT unter OpenGL wie immer langsamer
X1800XT hat die wesentlich bessere Bildqualität
X1800XT hat nicht komplett alle SM3.0 features (war ja irgendwas mit nichtvorhandenen Vertexdingsbums :D -> siehe Demirug)

Im großen und ganzen ist es eine Tolle Karte welche aber wie immer auch ein paar Negative Seiten hat.

Die Perfekte Karte gibt es eben nicht - die einen sind da gut und die anderen sind da schlecht. Alles kann man nicht haben - ausser man kauft sich beide Karten ;)

du vergisst wohl einiges :rolleyes:
teilweise wurde mit alten treibern gebencht.
cb hat mit singlecore gebencht
ich habe ausser 0815 standard games ned viel gesehen (gtr? gtl? il2? lockon? deer hunter? :) )
keine gscheiden AAA benches verfügbar - techreport meint z.b. sie hatten dafür zuwenig zeit.
super bildqualität? ja beim AreaAF - für mich aber bisher der einzige vorteil zu einer 7800gtx
gibts schon brauchbare CF vs sli benches?
SLI AA vs CF AA?
alles tote hose soweit
aber hier wird sie schon wieder als uberkarte gelobt obwohl noch 90% der tests/infos fehlen die mich interessieren würden - anscheinend reicht den meisten 3-4 lieblose bf2, 3dmark und ut2004 benches X-D
teilweise auch EXTREME einbrüche - totggeschwiegen - riddick ;)

[dzp]Viper
2005-10-05, 17:42:34
Obwohl ich nvidia user bin (7800gtx) muss ich zugeben das die ati x1800xt sehr gut performt sie liegt gleich auf mit der gtx und das bei 16pipes vs. 24pipes, was für ein monster ist dann die r580 mit 24 (?) ? Also wenn ati die r580 demnächst auf den markt wirft sehe ich schwarz für nvidia :(

ich rechner mit dem r580 nicht vor Februar/März 2006 ;)

Logan
2005-10-05, 17:43:20
Der R580 ist ein "vierfacher" RV530, also mit 16 Pipelines. :)


Jo deswegen auch das fragezeichen, aber wie sicher ist das ?

deekey777
2005-10-05, 17:43:54
Jo deswegen auch das fragezeichen, aber wie sicher ist das ?

So sicher wie das Amen in der Kirche.

StefanV
2005-10-05, 17:44:52
Shadermark ist totoptimiert in den Treibern weil der immer wieder benutzt wird.
Richtig...

Ich meinte das aber aus Sicht des Proggers, wie viel % an Performance kann man aus Chip XYZ rausholen, wenn man den Code speziell dafür optimiert oder eben nicht...

Coda (und auch du) deuteten an, das das bei der G70 durchaus ein nicht zu verachtender Prozentsatz ist, die Frage ist, wie reagiert die R520 darauf oder reagiert sie überhaupt auf optimierungen?

Blaze
2005-10-05, 17:45:15
Hm, Prescott <-> Northwood??

Dennoch kanns sein, das das ganze ein Treiberbug und ähnliches ist, das noch gefixt werden kann (bzw woran man arbeitet)...

Eben weil der Unterschied Vollast <-> Idle so gering ist und eher auf die CPU zurückzuführen ist denn sonstwas...

Da heissts abwarten. Trotzdem versteh ich es nicht, man wird ja wohl bei ATI vorher die Treiber ausgiebig gestetet haben, denn unfertige Treiber gibt man wohl kaum weiter, vor allem nicht beim Launch einer neuen Graka-Gen, wo man genau weiss dass sowas auch getestet wird.

Da hätte sowas doch auffallen müssen... :confused:

[dzp]Viper
2005-10-05, 17:45:47
du vergisst wohl einiges :rolleyes:
teilweise wurde mit alten treibern gebencht.
cb hat mit singlecore gebencht
ich habe ausser 0815 standard games ned viel gesehen (gtr? gtl? il2? lockon? deer hunter? :) )
keine gscheiden AAA benches verfügbar - techreport meint z.b. sie hatten dafür zuwenig zeit.
super bildqualität? ja beim AreaAF - für mich aber bisher der einzige vorteil zu einer 7800gtx

Zeit ist immer knapp - leider ;(

Mehr standardgames Interessieren mich auch - aber da Spielt wohl das Zeitproblem mit :ugly:

Auf alle Fälle ist die X1800XT kein "Flop" wie sie hier manche bezeichnen. Die X1800XT ist eine sehr gute Karte welche sich Performancemäßig momentan nicht absetzten kann.
Dafür kann sich sich bei der Bildqualität absetzten.

Momentan sollte man für ausfühliche Reviews den Seiten noch 1-2 Wochen Zeit lassen und bis dahin die Lage beobachten :)

Lightning
2005-10-05, 17:46:10
och die trolle sind auch schon da :biggrin:
was kann ich dafür dass ati mit monaten verspätung ne unterlegene karte rausbringt die teilweise lahmer als ne 6800u is :(

Dasselbe könnte man dann auch von der 7800 im Vergleich zur X800 behaupten. Oder von der 5800/5900 im Vergleich zur 9700/9800, oder von der 8500 im Vergleich zur GeForce3.
Man kann absolut nicht objektiv beurteilen, ob eine Grafikkarte besser oder schlechter als eine andere ist, solange die eine Karte nicht in allen Bereichen besser ist.

Du siehst also, solche Aussagen sind absolut wertlos und tragen weder zu einer vernünftigen Diskussion hier noch zu anderen wünschenswerten Dingen bei. Ich finde das schade.

Logan
2005-10-05, 17:46:47
So sicher wie das Amen in der Kirche.

Und was bitte soll der vorteil gegenüber r520 sein wenn sie letztenlich nicht "viel" mehr zu bieten hat ? Hmm, schade eigentlich :(

(del676)
2005-10-05, 17:47:18
Dasselbe könnte man dann auch von der 7800 im Vergleich zur X800 behaupten. Oder von der 5800/5900 im Vergleich zur 9700/9800, oder von der 8500 im Vergleich zur GeForce3.
Man kann absolut nicht objektiv beurteilen, ob eine Grafikkarte besser oder schlechter als eine andere ist, solange die eine Karte nicht in allen Bereichen besser ist.

Du siehst also, solche Aussagen sind absolut wertlos und tragen weder zu einer vernünftigen Diskussion hier noch zu anderen wünschenswerten Dingen bei. Ich finde das schade.

die aussage war nur ein zurücktrollversuch :)

[dzp]Viper
2005-10-05, 17:48:14
die aussage war nur ein zurücktrollversuch :)

du weißt ganz genau wie diese "zurücktrollversuche" hier ankommen - nämlich garnicht. Das rückt dich selber nur in schlechtes licht...

MadManniMan
2005-10-05, 17:49:11
Manni ich hab nie gesagt dass ich die Karte für "Scheiße" halte, bloß für mich kommt sie zum jetzigen Zeitpunkt absolut nicht in Frage.

Du mußt dabei vermeiden, eine "Nichtkaufempfehlung" für andere auszusprechen und Deinen Standpunkt etwas hinten an stellen, dann wird die Diskussionsrunde gleich ungleich friedlicher :)

Lass es mich etwas genauer schildern.

a) Ich bin mit meinen Karten zufrieden.
b) SLI ist mittlerweile recht ausgereift, und das erwiesenermaßen, von CF wissen wir noch fast gar nix was Kompatibilität etc. angeht. Also was kann CF mir bieten was SLI nicht kann?
c) der Stromverbrauch der einzelnen X1800XT lässt mich darauf schließen dass 2 davon noch mehr Strom fressen (dafür dass sie in 90nm gefertigt ist ein Armutszeugnis imho)
d) Die 2-Slot Kühllösung ist auch nicht grad das Optimale wenn man damit CF betreiben will. Je kleiner der Abstand zwischen den Karten desto heisser werden sie logischerweise.
e) Die (meines erachtens) zu hohen Preise der Karten und Mainboards (das billigste CF Mobo kostet schon 200 €)
f) von der Verfügbarkeit des ganzen will ich mal gar nicht anfangen... :rolleyes:

Ich rede jetzt bewusst nur vom Dual-Betrieb da für mich eh nix anderes mehr in Frage kommen würde.

Das einzig positive ist im Moment noch die BQ des R520, aber ich geh davon aus dass NV nachbessern wird.

Jetzt diskutierst Du endlich so, wie Du es die ganze Zeit hättest tun sollen - das bringt dem Thread wesentlich mehr :up:

Zu Deinen Punkten:

a) wäre ich auch.

b) CF muß gar nicht mehr bieten als SLI, warum auch?

c) bei 90nm und dem für mich im Rahmen des Erwarteten. Der idle-Verbrauch irritiert mich da schon eher.

d) Du darfst den Vorteil nicht vergessen: die Karten transportieren die Hitze nach Außen. Im Endeffekt wird man auf Praxisberichte warten müssen.

e) Jop, die Problematik eines Early Adopters. Laß eine Weile ins Land streichen. Meiner Einer kauft bspw. eh immer >250€ Karten, ich warte da lieber ab.

f) die X1800 XT kommt in 4 Wochen, die X1800 XL soll breit verfügbar sein. Nichts außergewöhnliches also.

Warum brauchts für Dich Dualbetrieb?

Und warum hält sich das Gerücht so hartnäckig, daß nV HQ-AF einfach so freischalten kann? Die AAA-Sache bei ATi wäre ein Indiz dafür, dass sowas durchaus passieren kann, aber deshalb alles darauf zu verhoffen wäre naiv.

deekey777
2005-10-05, 17:49:49
Und was bitte soll der vorteil gegenüber r520 sein wenn sie letztenlich nicht "viel" mehr zu bieten hat ? Hmm, schade eigentlich :(

Schaue dir doch die X1600 an bzw. ihre technischen Daten an und multipliziere diese mit vier. ;)
Im Ernst: Der R580 wird schon mehr, viel mehr sein als ein höhergetakteter R520.

Lightning
2005-10-05, 17:50:50
die aussage war nur ein zurücktrollversuch :)

Mit welchem Zweck? Führt das weiter, bzw. kann man sich nicht denken, wohin das dann führt?

kelo
2005-10-05, 17:51:10
Genau das sollte aber mit SM3 eingedämpft werden. Bei der fehlenden Filterung kann ich ihnen ja nicht wirklich einen Vorwurf machen das ist ja Spec konform aber trotzdem schade.

Wie ich schon an anderer Stelle schrieb. Nächste Hoffnung Direct3D 10.
Neue Runde nächste Hoffnung. ;)

Ich vermute ATI hatte Probleme, den 520 korrekt umzusetzen, oder war NV zuvorgekommen. :| *grübel*

Matrix316
2005-10-05, 17:53:19
Lassen wir mal den Preis außen vor: Wenn du dir die Daten der X1600er anschaust, dann siehst du, daß sie der 6800er unterlegen ist, doch trotzdem kann sie mit dieser je nach Spiel/Benchmark mithalten.
Ich habe schon im seligen R520 Thread scherzhaft geschrieben, daß die X1600 das ist, was die X600 in der letzten Generation war und die wirkliche Mittelklasse noch kommen wird. Im Vergleich zu ihrem großen Bruder, dem R580, ist sie nur ein Viertel, höchstens ein Drittel davon.

Wenn man den Preis außen vor lässt, dann ja, wenn aber nicht, dann ist die mit 250 € doch ETWAS zu teuer und darum gehts.

Man kann doch keine Karte mit der Leistung einer 150 € Karte für 100 € mehr auf den Markt bringen, nur weil sie "neu" ist. Das eine sollte mit dem anderen doch nichts zu tun haben. Zumal ATI selbst mit der X800 GTO eine bessere Karte für weniger Geld und 256 MB auf dem Markt hat. Nur halt ohne SM3.

reunion
2005-10-05, 17:53:33
Hm, auf ein richtig gutes Review wartet man bis jetzt leider vergebens.

Demirug
2005-10-05, 17:53:42
Richtig...

Ich meinte das aber aus Sicht des Proggers, wie viel % an Performance kann man aus Chip XYZ rausholen, wenn man den Code speziell dafür optimiert oder eben nicht...

Coda (und auch du) deuteten an, das das bei der G70 durchaus ein nicht zu verachtender Prozentsatz ist, die Frage ist, wie reagiert die R520 darauf oder reagiert sie überhaupt auf optimierungen?

Die Shadercompiler in den Treibern machen inzwischen dermassen viel das man sich da schwer tut mit dem optimieren. Zudem werden die Shader zunehmen von den Designern geschrieben und die sind erst mal froh wenn der Effekt stimmt. Bei der Vielzahl der Shader ist es auch einfach zu viel Arbeit jeden einzeln zu optimieren. Die grundsätzlichen Tipps welche von ATI und nVidia immer wieder gegeben haben sind sehr ähnlich.

In diesem Zusammenhang sollte ich vielleicht noch erwähnen das die Shader bei der Unrealengine 3 überhaupt nicht mehr programmiert werden sondern aus vorgefertigten bausteinen zusammengesetzt werden und dann der passende Code automatisch erzeugt wird. Da ist nicht mehr mit optimieren. Genau dieses in der Offlinewelt schon lange übliches Verfahren (Wer Maya kennt wird das bestätigen) wird sich zunehmend bei den Spielen durchsetzten. Anders ist das gar nicht mehr zu schaffen.

(del676)
2005-10-05, 17:54:47
Viper']Zeit ist immer knapp - leider ;(

Mehr standardgames Interessieren mich auch - aber da Spielt wohl das Zeitproblem mit :ugly:
da gibts fable benches:
http://www.driverheaven.net/reviews/r520reviewxvxv/fable.htm

und da halo:
http://www.hothardware.com/articleimages/Item734/h2.png

wenn jemand noch was nicht-0815-game-mäßiges findet bitte gleich reinposten :)

edit:
pacific fighters: http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page8.asp

und il2: http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page10.asp

Dr.Dirt
2005-10-05, 17:54:55
Aber im Idle ist das schon seltsam der Abstand. Was verbraucht da soviel :confused: Oder es funktioniert die Stromsparfunktion im Idle nicht richtig.

Liegt wohl hauptsächlich an den recht hohen Taktraten, die nötig sind, um mit der 3d Performance mithalten zu können. Schade, in meinen Augen hat ATI so einen Mist produziert wie NV mit dem NV30 seiner Zeit.

kelo
2005-10-05, 17:55:17
Die Transitoren haben angeblich mal wieder nicht gereicht.
Ja, aber irgendwo sind die 321 Mio doch untergebracht. TPM?

(del676)
2005-10-05, 17:55:27
Mit welchem Zweck? Führt das weiter, bzw. kann man sich nicht denken, wohin das dann führt?

und?

edit: du kennst beta und mich ned so gut, ich denke wir wissen beide dass der andere es nicht ernst meint ;)

LovesuckZ
2005-10-05, 17:57:16
The subjective numbers add up to pretty much summarize our experience with ATI's Avivo at this point. While neither ATI nor NVIDIA produced a perfect solution, at this point Avivo is definitely a step behind NVIDIA's PureVideo in terms of de-interlacing quality. (http://www.anandtech.com/video/showdoc.aspx?i=2551&p=1)

MadManniMan
2005-10-05, 17:57:30
Knallebumm, danke für die Unterstützung, bin ich wenigstens nicht allein mit meiner Ansicht zu einer fruchtbaren Diskussion.

aber da kauf ich mir doch keine XL für über 400€ ^^ ne 7800gt gibts doch schon für ca 340€^^

Ich auch bestimmt nicht, da ich momentan nichtmal ein Desktopsystem besitze und mein altes nForce2-AGP Sys am Ende ist ;)
Aber wenn ich soviel Geld hätte, mehr für eine Grafikkarte als für meine Monatsmiete zu bezahlen, dann würde ich auch 60€ für HQ-AF noch draufzahlen, aber das ist persönliche Präferenz.

Ich bin wesentlich gespannter darauf, wann und wie nV beim HQ-AF nachzieht - was bleibt ihnen auch übrig? - und wie die neuen Midrangekarten so werden. Ergo X1700 und GF 7600 etc pp.

StefanV
2005-10-05, 17:59:51
Liegt wohl hauptsächlich an den recht hohen Taktraten, die nötig sind, um mit der 3d Performance mithalten zu können. Schade, in meinen Augen hat ATI so einen Mist produziert wie NV mit dem NV30 seiner Zeit.
Naja, da könnte ATi durchaus noch das eine oder andere Ding drehen, so das man momentan ehr von einem Treiberbug ausgehen könnte...

Dieser Fehler kann in einer Endkontrolle durchaus mal durchgerutscht sein, da heißts nur abwarten und Tee rauchen, was mit dem nächsten Treiber passiert...

LovesuckZ
2005-10-05, 18:00:47
Aber wenn ich soviel Geld hätte, mehr für eine Grafikkarte als für meine Monatsmiete zu bezahlen, dann würde ich auch 60€ für HQ-AF noch draufzahlen, aber das ist persönliche Präferenz.


120€.
Bis jetzt listet nur Alternate einen Hersteller für 449€.
Bei der GTX waren es, glaube ich, mindesten fün Hersteller.

Demirug
2005-10-05, 18:00:52
Neue Runde nächste Hoffnung. ;)

Ich vermute ATI hatte Probleme, den 520 korrekt umzusetzen, oder war NV zuvorgekommen. :| *grübel*

Die Sache ist etwas komplizierter.

Sowohl R420 wie auch R520 sind ATIs Plan B. R420 wurde notwendig weil sie den R400 nicht schnell genug bekommen haben. R520 ist die SM3 Notlösung weil MS das SM4 taugliche Vista verzögern musste. Eigentlich wollte ATI keinen SM3 Chip bauen sondern einen Unified Shader SM4 Chip für Vista. Damit wäre dann auch ein ordentliches SM3 kein Problem gewesen. So mussten sie halt aus dem was sie hatten das beste machen. Hätten sie die Lücke in der Spec nicht gefunden hätten sie halt eine Treiberlösung für das Vertex Texture Problem eingebaut. Das wäre mir persönlich allerdings erst mal lieber gewesen.

Blaze
2005-10-05, 18:01:07
Warum brauchts für Dich Dualbetrieb?


Weil ich ganz einfach alle Games in meiner bevorzugten Auflösung mit min. 4-fachem AA und 8-fachem AF spielen möchte. (mehr bin ich auch nicht abgeneigt ;)) Eine Single-GTX reicht da oft nicht aus (in Hinsicht auf FEAR, Oblivion, UT2007 etc.)

[dzp]Viper
2005-10-05, 18:01:17
da gibts fable benches:
http://www.driverheaven.net/reviews/r520reviewxvxv/fable.htm

und da halo:
http://www.hothardware.com/articleimages/Item734/h2.png

wenn jemand noch was nicht-0815-game-mäßiges findet bitte gleich reinposten :)

danke dir. Sieht doch gut aus für die X1800XT - minimal vorne (bei Driverheaven!).
Bei HL Lost Coast auch...
bei CSS auch...
bei BFS2 auch...
bei nfsu2 auch...
bei COD2 auch...

Ich find die Karte echt okay. Kann sich zwar nicht merklich absetzen aber das habe ich auch nicht erwartet :)


Mich wundert es nur wieder, dass die Ergebnisse bei wirklich JEDEN Review leicht anders sind X-D

seahawk
2005-10-05, 18:01:25
Mein Fazit :

Erstmal danke an ATI, dass sie eine bessere BQ gebracht haben, dafür verzichte ich gerne auf einige Frames und ich hoffe, dass dies Schule macht und NV dies evtl. sogar noch per Treiber nachliefert.
Die XT ist imho die Empfehlung in der Topklasse, zumindest solange es keine G70 512MB gibt, dann muss man nochmal schauen.
Die XL und die GT liegen auf Augenhöhe. Hier muss jeder für sich entscheiden.

Die X1600XT ist bei den bisher genannten Ladenpreisen uninteressant.

Im Endeffekt ein starkes aber spätes Produkt, dass ATI da abliefert.

PS. Jetzt hängt es von der Lieferbarkeit ab. Alternate listet nur eine X1800XL für 449 Euro - Lieferzeit nicht bekannt. Das sind 100 Euro über einer 7800GT, dürfte sich aber bei ausreichender Verfügbarkeit einpendeln.

reunion
2005-10-05, 18:01:43
50 Watt mehr und kein Wirbel? Das Ding ist in 90nm gefertigt und verbrät trotzdem massiv mehr Strom als die in 110nm gefertigte GTX. Darum gehts mir...


Ganz davon abgesehen, dass die 50W aus der Luft gegriffen sind: Wenn man schon mit der Technik kommt, dann sollte man auch das ganze Bild zeichnen. R520 hat mehr Transistoren und taktet um fast 50% höher als G70, das gleicht auch der kleinere Fertigungsprozess nicht mehr aus.

kelo
2005-10-05, 18:01:59
ATI hat die gleichen Probleme wie NV seinerseits mit den NV5800 beim Wechsel in die neue Technik: zu laut und zu heiß, aber nicht so extrem.
Was mich eher interssiert: wie sind die Spiele? Flüssig oder ruckelig. Die BQ kann man ja sehen. Da lese ich nirgendwo etwas darüber.

MadManniMan
2005-10-05, 18:02:21
Hm, auf ein richtig gutes Review wartet man bis jetzt leider vergebens.

Ich erwarte von Anandtech noch ein bissel was - der Test wird ja noch geupdatet und wächst nach und nach zu was durchaus brauchbarem.

Richtig gespannt bin ich auf den dann irgendwann nachgereichten Test vom 3DC =)

Und Dr.Dirt - muß diese Ausdrucksweise denn sein?

(del676)
2005-10-05, 18:03:07
Viper']danke dir. Sieht doch gut aus für die X1800XT - minimal vorne.
Bei HL Lost Coast auch...
bei CSS auch...
bei BFS2 auch...
bei nfsu2 auch...
bei COD2 auch...

Ich find die Karte echt okay. Kann sich zwar nicht merklich absetzen aber das habe ich auch nicht erwartet :)

tja, in keinem game kann sie wirklich dominieren, und in anderen ist sie eine komplette katastrophe.
finde ich nicht so gut, da haperts sicher noch am treiber

Viper']
Mich wundert es nur wieder, dass die Ergebnisse bei wirklich JEDEN Review leicht anders sind X-D
ja, ich hab auch schon hl2 benches mit einer 7800gtx in front gesehen

ich hoffe 3dcenter macht ein ausführliches review ohne zeitdruck

Demirug
2005-10-05, 18:03:33
Ja, aber irgendwo sind die 321 Mio doch untergebracht. TPM?

Es geht das Gerücht um das ATI den Intel weg gewählt hat. Hohe Taktraten und viel Cachespeicher. Ich traue ehrlich gesagt diesem Ringspeicher nicht so ganz. Diese Verfahren sind bekannt das man an den einzelnen Kontenpunkten größere FIFOs oder besser gleich Speicherblöcke einbauen muss um die notwendige Entkopplung zu erreichen.

betasilie
2005-10-05, 18:04:46
ATI hat die gleichen Probleme wie NV seinerseits mit den NV5800 beim Wechsel in die neue Technik: zu laut ...
Zu laut? Die X1800XT ist doch sehr leise, oder nicht? :confused:

Lightning
2005-10-05, 18:05:50
und?

"Und" nichts. Das wars eigentlich schon. Ich hoffe nur, andere werden es verstehen.


edit:

edit: du kennst beta und mich ned so gut, ich denke wir wissen beide dass der andere es nicht ernst meint ;)

Wenn das so ist.. Leider lädt eure "Diskussion" aber auch andere User ein, die das nicht wissen. Und nicht alle reagieren darauf wie ich (oder anders gesagt: Es kommt zu noch mehr flames ;().

MadManniMan
2005-10-05, 18:06:15
Weil ich ganz einfach alle Games in meiner bevorzugten Auflösung mit min. 4-fachem AA und 8-fachem AF spielen möchte. (mehr bin ich auch nicht abgeneigt ;)) Eine Single-GTX reicht da oft nicht aus (in Hinsicht auf FEAR, Oblivion, UT2007 etc.)

Guter Einwand, aber ich würde - hätte ich viel Kohle für GPUs - nicht auf HQ-AF verzichten wollen ... wenn also CF sich gut entwickelt und für den G70 kein HQ-AF nachkommt (wovon ich noch ausgehe), würdest Du dann auch auf 2*X1900 XT (R580 ;) ) umsteigen?

Und warum antwortest Du nicht auf die anderen Sachen ;(

[dzp]Viper
2005-10-05, 18:06:16
tja, in keinem game kann sie wirklich dominieren, und in anderen ist sie eine komplette katastrophe.
finde ich nicht so gut, da haperts sicher noch am treiber

Die X1800XT ist nun mal eine Karte die durch ATIs Probleme 3 -4 Monate zuspät kommt.
Sie ist nicht eine Generation weiter als die 7800GTX nur weil sie etwas später kommt...
Die X1800XT ist als Gegenspieler zur 7800 GTX auf dem Markt - nicht um sie überall zu schlagen ;)

reunion
2005-10-05, 18:07:59
Ich erwarte von Anandtech noch ein bissel was - der Test wird ja noch geupdatet und wächst nach und nach zu was durchaus brauchbarem.

Richtig gespannt bin ich auf den dann irgendwann nachgereichten Test vom 3DC =)

Und Dr.Dirt - muß diese Ausdrucksweise denn sein?


IMHO wird höchstens xbitlabs ein weiteres mal die Ehre der Reviewer retten.

LovesuckZ
2005-10-05, 18:08:20
Viper']
Die X1800XT ist als Gegenspieler zur 7800 GTX auf dem Markt - nicht um sie überall zu schlagen ;)

Nein, das ist die XL.
Die XT existiert alleine aus dem Grund, um Nvidia zu deutlich zu besiegen.
ATi hofft darauf, dass der positive Effekt sich auf die XL uebertraegt und der User diese der GTX vorzieht.

[dzp]Viper
2005-10-05, 18:09:27
Nein, das ist die XL.
Die XT existiert alleine aus dem Grund, um Nvidia zu deutlich zu besiegen.
ATi hofft darauf, dass der positive Effekt sich auf die XL uebertraegt und der User diese der GTX vorzieht.

wer sagt das? ;) Wo steht das? Das wurde von Usern so gesagt und Angenommen - es ist aber nicht so - das siehst du an den Reviews.
Es ist doch wohl eindeutig, dass die XL mit der GT und die XT mit der GTX konguriert und nicht irgendwie anders.

Von ATI habe ich nirgendwo etwas davon gesehen oder gelesen, wo die XL mit der GTX kongurieren soll

dildo4u
2005-10-05, 18:10:10
Nein, das ist die XL.
Die XT existiert alleine aus dem Grund, um Nvidia zu deutlich zu besiegen.
ATi hofft darauf, dass der positive Effekt sich auf die XL uebertraegt und der User diese der GTX vorzieht.
Jup bin mal gespannt ob die XL auch bei 410-420 € einsteigt.

Odal
2005-10-05, 18:10:44
Wieso ein großer Hitzkopf ???
Lastwerte von CB (Gesamtverbrauch)

G6800U - 208W
X1800XT - 206W
G7800GTX - 204W.

Dann ist aber eine G6800U und die G7800GTX auch nicht gerade stromsparend. ;)


naja mit Hitzkopf meinte ich die Temperatur..
ich weiss jetzt leider nichtmehr in welchem review (vielleicht kann uns da einer auf die sprünge helfen) aber in einem haben sie die Temps. hinten am PCB gemessen..(chipauslesen funzte leider beim x1800xt nicht) und diese war deutl. höher als die der GTX am PCB

Coda
2005-10-05, 18:11:19
Ganz davon abgesehen, dass die 50W aus der Luft gegriffen sind: Wenn man schon mit der Technik kommt, dann sollte man auch das ganze Bild zeichnen. R520 hat mehr Transistoren und taktet um fast 50% höher als G70, das gleicht auch der kleinere Fertigungsprozess nicht mehr aus.Deine Aussagen gehen aber auch schwer nach dem Wind. Früher war der Takt egal, weil NV4x und R420 ja gleich viel Strom verbrauchen. Aber jetzt auf einmal spielt es ne Rolle, oder wie?

Mir ist die ganze Leistungs-Diskussion eh egal, solang die Karten halbwegs leise sind.

Spasstiger
2005-10-05, 18:12:11
ATI hat die gleichen Probleme wie NV seinerseits mit den NV5800 beim Wechsel in die neue Technik: zu laut und zu heiß, aber nicht so extrem.

Kann man gegenüber der Konkurrenz weder noch behaupten.
Laut, ok, aber es ist ein Riesenunterschied zwischen eine GeForce FX 5800 und einer X1800 XT in Sachen Lautstärke, in Sone ca. der Faktor 4. Es gab schon viele Karten, die lauter waren als eine X1800 XT. Nur die 7800 GTX sind eben generell sehr leise, da siehts bei ATI im Vergleich halt nicht so dolle aus.

Und zu heiß werden die X1800 XT auch nicht im Vergleich zur Konkurrenz, zumindest liegen sie vom Verbrauch gleichauf mit 6800 Ultra und 7800 GTX. Eine GeForce FX 5950 Ultra hat mehr Strom gezogen.

Die FX5800 Ultra hatte im Vergleich zur Konkurrenz nur krasse Negativ-Rekorde zu verbuchen: Zu laut, zu hoher Stromverbrauch, nur 128 Bit Speicherinterface, zu geringe Shaderleistung.

Blaze
2005-10-05, 18:13:05
Guter Einwand, aber ich würde - hätte ich viel Kohle für GPUs - nicht auf HQ-AF verzichten wollen ... wenn also CF sich gut entwickelt und für den G70 kein HQ-AF nachkommt (wovon ich noch ausgehe), würdest Du dann auch auf 2*X1900 XT (R580 ;) ) umsteigen?

Und warum antwortest Du nicht auf die anderen Sachen ;(

Es ist größtenteils schon richtig was du geschrieben hast, nur muss ich doch vom jetzigen Standpunkt ausgehen und nicht von dem was in 4, 6 oder 8 Wochen ist.

Klar, die Karten und Mainboards werden noch billiger, aber momentan sind sie halt einfach noch nicht attraktiv genug um zu sagen "Jawoll, das wird gekauft."

Das mit dem R580 kann ich dir nicht beantworten, ist ein ungelegtes Ei. Du weißt ja auch nicht was der G72 draufhaben wird ;)

Wenns soweit ist bin ich auch gewillt mir das zu überlegen, jetzt aber sicher noch nicht.

Und ich glaube schon dass NV das HQ-AF nachreichen wird wenn es a) nicht gleich riesige Performanceverluste gibt und es b) technisch gesehen überhaupt möglich ist.

(del676)
2005-10-05, 18:13:14
Viper']Die X1800XT ist nun mal eine Karte die durch ATIs Probleme 3 -4 Monate zuspät kommt.
Sie ist nicht eine Generation weiter als die 7800GTX nur weil sie etwas später kommt...
Die X1800XT ist als Gegenspieler zur 7800 GTX auf dem Markt - nicht um sie überall zu schlagen ;)

tja, aber ein gegenspieler der nicht wirklich besser ist, nicht verfügbar und eventuell sogar noch teurer wird es wohl ziemlich schwer haben oder meinst du nicht?
schau mal in diverse ati foren, da gabs in den letzten monaten viele eingefleischte die schon auf nvidia umgestiegen sind.
sowas ähnliches hatten wir ja schon einmal, nur umgekehrt

MadManniMan
2005-10-05, 18:13:28
120€.
Bis jetzt listet nur Alternate einen Hersteller für 449€.
Bei der GTX waren es, glaube ich, mindesten fün Hersteller.

Aua, das wäre mich echt zuviel ;(

Aber um nochmal zu was anderem zu kommen:

Hier (http://www.hothardware.com/viewarticle.cfm?articleid=734)

sieht man mal gut, daß selbst 4*HQ-AF mehr Samples verrechnet, als 16*Perf-AF :ugly:

http://www.hothardware.com/articleimages/Item734/ani1.png

http://www.hothardware.com/articleimages/Item734/ani2.png

horn 12
2005-10-05, 18:13:49
und kommen dann sicher AGP Karten auf basis des X1800 XL ??
oder mindestens des X1600 XT ?

jedoch die X1600 XT ist ja enorm schwach , immer langsamer als ne X850 pro sogar und oft noch viel langsamer
treiberproblem ?

wann kan mna mit den AGP Karten rechnen ?

Logan
2005-10-05, 18:13:50
Kumpel meinte eben , es gibt zwei videos die hl2 und bf2 bezüglich texturflimmern vergleichen (x1800 vs. 7800) hat einr zufällig die links ?

reunion
2005-10-05, 18:14:14
Deine Aussagen gehen aber auch schwer nach dem Wind. Früher war der Takt egal, weil NV4x und R420 ja gleich viel Strom verbrauchen. Aber jetzt auf einmal spielt es ne Rolle, oder wie?

Mir ist die ganze Leistungs-Diskussion eh egal, solang die Karten halbwegs leise sind.

Der Takt ist heute noch genauso egal, was hinter rauskommt, zählt.
Ich habe nur versucht zu erläutern, warum R520 so viel Strom verbraucht, und das geht IMHO auch klar aus dem Text hervor. Für mich unverständlich, weshalb du deshalb solchen Wind machst.

Spasstiger
2005-10-05, 18:14:39
Aua, das wäre mich echt zuviel ;(

Aber um nochmal zu was anderem zu kommen:

Hier (http://www.hothardware.com/viewarticle.cfm?articleid=734)

sieht man mal gut, daß selbst 4*HQ-AF mehr Samples verrechnet, als 16*Perf-AF :ugly:

[...]

Das bischen Performanceverlust wärs mir aber absolut wert.

Lightning
2005-10-05, 18:16:25
tja, aber ein gegenspieler der nicht wirklich besser ist, nicht verfügbar und eventuell sogar noch teurer wird es wohl ziemlich schwer haben oder meinst du nicht?
schau mal in diverse ati foren, da gabs in den letzten monaten viele eingefleischte die schon auf nvidia umgestiegen sind.
sowas ähnliches hatten wir ja schon einmal, nur umgekehrt

Jepp, so siehts aus, bzw. so sah es die letzten Monate aus, und dadurch hat ATis Image bestimmt auch gelitten. Aber jetzt ist ATi eben wieder ca. gleichgezogen (für den ein oder anderen sicher auch mehr oder weniger als das), das ist doch schonmal ein Fortschritt. Besser spät als nie.

Lightning
2005-10-05, 18:18:45
Aua, das wäre mich echt zuviel ;(

Aber um nochmal zu was anderem zu kommen:

Hier (http://www.hothardware.com/viewarticle.cfm?articleid=734)

sieht man mal gut, daß selbst 4*HQ-AF mehr Samples verrechnet, als 16*Perf-AF :ugly:


Trotzdem scheint der Leistungsverlust durch HQ-AF nach dem, was ich bisher gelesen habe, doch ziemlich gering zu sein. Das verwundert mich. Ob die Qualität wirklich so gut ist oder die Sache noch einen Haken hat?

seahawk
2005-10-05, 18:18:57
Was sollen die Streiterein. Für mich ist es erstmal ein Unentscheiden, dass 2 Fragen offen läst.

Wie schlägt sich ne 7800 GTX 512MB ?

Kann Nvidia sein AF verbessern und so etwas per Treiber nachliefern ?

Ansonsten würde ich ein Unentschieden sehen, persönlich aber zur ATI tendieren. (auch wenn ich mir gerade ne 7800GT gekauft habe)

Krustovsky
2005-10-05, 18:20:26
Gottseidank...langsam berugigt sich die Sache hier ;). Ich bin zufriedener Besitzer einer einer GTX und muss zugeben ATI hat gegn all meine Erwartungen doch noch eine feine Karte gebracht. Ich sehe sogar eher eine leichte Überlegenheit der 1800XT und einwirklich überraschendes Featureset. die Überlegenheit in F.E.A.R. fuchst mich trotzdem und zwar richtig - woran liegts?

Die einzigen Probleme, die ich für ATI sehe sind;
1. kommt die Karte einfach zu spät, viel zu spät.
2. die Verfügbarkeit. Im Vergleich mit dem GTX-Launch ist die ATI-Aktion wohl ein schlechter Scherz.

Dennoch, Respekt ATI.

LovesuckZ
2005-10-05, 18:23:14
Das bischen Performanceverlust wärs mir aber absolut wert.

Ja, auf jeden.
Jetzt muss nur noch die verfuegbarkeit stimmen, dann purzelt der Preis auf unter 400€ und die XL wird zum Pflichtkauf*.

*Wenn Nvidia keine gleichgute AF Qualitaet, wie auch immer, liefern kann!


wer sagt das?

Der Preis. Alleinig der Preis ist entscheiden, wer gegen wen konkurriert.
Dabei ist egal, ob die XL als 6200TC Killer oder 7800GT Gegener antritt. Wenn er nicht in der selben Preisklasse oder aber eine deutliche bessere Leistung bringt, dann ist es nicht der Gegner.
Die erste Karte wird wohl für 450€ an den Start gehen, und dort sitzt auch die GTX.
Aus den jetzigen Review sind 450€ nicht zu teuer, aber nicht den Mehrwert gegenüber einer GT gerecht, die immer weiter im Preis (330€) rutscht.

/edit: ALternate listet nun auch GeCube für 439€.
Was mich verwundert, die 512MB Version soll von denen 599€ kosten. Von einem Billiganbieter...

seahawk
2005-10-05, 18:23:57
Einzig die FarCry Benches verwirren mich etwas. Ich frage mich, ob das 100% gleich läuft. Hinsichtlich der FP16 Limitierungen der R520.

(del676)
2005-10-05, 18:24:57
Jepp, so siehts aus, bzw. so sah es die letzten Monate aus, und dadurch hat ATis Image bestimmt auch gelitten. Aber jetzt ist ATi eben wieder ca. gleichgezogen (für den ein oder anderen sicher auch mehr oder weniger als das), das ist doch schonmal ein Fortschritt. Besser spät als nie.

jop, vor allem ist es super dass ATI die AF Qualität deutlich gesteigert hat (während andere das gegenteil machen :mad: ), da muss sich nvidia früher oder später beugen, ein AF Artikel auf 3dc tut not :)

[dzp]Viper
2005-10-05, 18:26:40
jop, vor allem ist es super dass ATI die AF Qualität deutlich gesteigert hat (während andere das gegenteil machen :mad: ), da muss sich nvidia früher oder später beugen, ein AF Artikel auf 3dc tut not :)

noch ein AF Artikel? X-D

ne denke auch, dass ein Aktuallisierter AF Artikel sicher angekommen würde

dargo
2005-10-05, 18:26:53
IMHO wird höchstens xbitlabs ein weiteres mal die Ehre der Reviewer retten.
Darauf bin ich schon sehr gespannt. Vorallem auf den Stromverbrauch. Und zwar nicht des Gesamtsystems sondern nur der Graka.

Diese ganzen Gesamtsystem-Messungen kommen mir langsam spanisch vor.
Beispiel - wieder CB.

Habe mal ein wenig gerechnet.

Laut xbitlabs (denen ich am meisten traue, was Stromverbrauchsmessungen von Grafikkarten angeht) braucht eine G6800U :

http://www.xbitlabs.com/images/video/ati-vs-nv-power/6800u.gif

Nun, laut CB liegt der Gesamtverbrauch mit der X1800XL bei Idle 137W.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/
Die G6800U (425/550Mhz) liegt bei 128W.

137W-128W+30W (von xbitlabs) würde für eine X1800XL 39Watt bei Idle bedeuten. Man muss aber noch die Effizienz des NTs bei 137W zu 128W berücksichtigen. Da der Messunterschied aber nicht so groß ist würde ich eventuell 1-2W abziehen. Also ca. 37Watt bei Idle für die X1800XL, was ich für deutlich zu viel bei einem 90nm Chip halte.

Sunrise
2005-10-05, 18:28:28
Hm, auf ein richtig gutes Review wartet man bis jetzt leider vergebens.

Wird noch dauern, warte auf B3D...

PS: xbitlabs wäre hinsichtlich Kompetenz ja schonmal eine Steigerung

dildo4u
2005-10-05, 18:29:01
Also ca. 37Watt bei Idle für die X1800XL, was ich für deutlich zu viel bei einem 90nm Chip halte.
Vieleicht lässt sich bei den neuen ATI chips nicht so viel abschalten(runtertakten) wie beim G70.Er hat ja sogar mher Transistoren 302 zu 320Mio beim R520.

Dr.Dirt
2005-10-05, 18:29:26
Naja, da könnte ATi durchaus noch das eine oder andere Ding drehen, so das man momentan ehr von einem Treiberbug ausgehen könnte...

Wollen wir es hoffen.

Dieser Fehler kann in einer Endkontrolle durchaus mal durchgerutscht sein, da heißts nur abwarten und Tee rauchen, was mit dem nächsten Treiber passiert...
Bei einer Karte kann das sein, aber die Ergebnisse von CB und Techreport decken sich ja, und ich kann mir nicht vorstellen, daß beide das gleiche Exemplar hatten (wobei das natürlich möglich wäre).

Fadl
2005-10-05, 18:30:02
@Skynet
Wo bleiben die Beweise deiner Behauptung dass die G70 beim neuen Treiber Winkelunabhängiges AF bieten werden? Ich habe nie nirgends etwas davon gehört geschweige denn gelesen.

(del676)
2005-10-05, 18:30:26
Viper']noch ein AF Artikel? X-D

ne denke auch, dass ein Aktuallisierter AF Artikel sicher angekommen würde

klar, wie eine watsche ins gesicht, mit großer aufmachung und einer übersetzung (wenigstens maschinell)
eventuell is nvidia gerade für sowas empfänglich

[dzp]Viper
2005-10-05, 18:30:28
Vieleicht lässt sich bei den neuen ATI chips nicht so viel abschalten(runtertakten) wie beim G70.

könnte auch durch die wesentlich größere Anzahl an Transistoren kommen oder? sind ja gut und gerne 70 Millionen mehr bein R520 :eek:

[dzp]Viper
2005-10-05, 18:31:07
klar, wie eine watsche ins gesicht, mit großer aufmachung und einer übersetzung (wenigstens maschinell)
eventuell is nvidia gerade für sowas empfänglich

ja so eine Überschrift im "BILD" Stil wäre schon was ;)

dargo
2005-10-05, 18:31:41
naja mit Hitzkopf meinte ich die Temperatur..
ich weiss jetzt leider nichtmehr in welchem review (vielleicht kann uns da einer auf die sprünge helfen) aber in einem haben sie die Temps. hinten am PCB gemessen..(chipauslesen funzte leider beim x1800xt nicht) und diese war deutl. höher als die der GTX am PCB
Das war wieder die Computerbase :
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/24/

75°C für die X1800XT.
73°C für die G7800GTX.
:cool:

Findest du den Unterschied groß ?
Mal davon abgesehen, daß so eine Messung eh für den Popo ist.

(del676)
2005-10-05, 18:32:24
Viper']ja so eine Überschrift im "BILD" Stil wäre schon was ;)

harrrr, die mache ich X-D

Die gelbe Eule
2005-10-05, 18:34:35
Gibt es einen Reviewer der schon die FW 81.xx einbezogen hat?
Mich würde da die BQ interessieren ...

Dr.Dirt
2005-10-05, 18:34:52
Mir ist die ganze Leistungs-Diskussion eh egal, solang die Karten halbwegs leise sind.

Mir aber nicht, und vielen wird es da genauso gehen.
Wer schon alles auf Intel geschimpft hat, kann jetzt auf ATI schimpfen.

StefanV
2005-10-05, 18:36:15
harrrr, die mache ich X-D
Brauchst du nicht, hast du doch schon :P

Quasar
2005-10-05, 18:40:43
Die FX5800 Ultra hatte im Vergleich zur Konkurrenz nur krasse Negativ-Rekorde zu verbuchen: […] zu geringe Shaderleistung.
Du würdest dich wundern. ;)

Pirx
2005-10-05, 18:41:14
Hmm, die Leistung ist grade noch so ok (hatte eigentlich erwartet, daß sich die X1800XT etwas von der GTX absetzt). Es dürfte noch ziemlich viel Optimierungspotenzial in den Treibern vorhanden sein, bei den uneinheitlichen Ergebnissen (und der überlegenen Speicherbandbreite der XT).

Das Featureset des R520 ist sehr umfassend, eigentlich alles, was das Gamerherz begehrt.

Der hohe Stromverbrauch (Idle+Gesamt) ist für mich bisher der größte Kritikpunkt.

Außerdem sollte ATi endlich mal den OpenGL (und Linux:() Treiber auf Vordermann bringen, aber mit Treiber entwickeln scheinen sie es immer noch nicht soo zu haben.

Demirug
2005-10-05, 18:43:07
Einzig die FarCry Benches verwirren mich etwas. Ich frage mich, ob das 100% gleich läuft. Hinsichtlich der FP16 Limitierungen der R520.

Bei FarCry kannst du davon ausgehen das das nie im Leben auf allen Karten gleich läuft. CryTek liebt die Kartenspezifsichen Profile viel zu sehr um davon abzurücken.

dargo
2005-10-05, 18:43:23
Viper']könnte auch durch die wesentlich größere Anzahl an Transistoren kommen oder? sind ja gut und gerne 70 Millionen mehr bein R520 :eek:
70 Millionen :confused:

~302Millionen für den G70
~321Millionen für den R520

[dzp]Viper
2005-10-05, 18:44:12
70 Millionen :confused:

~302Millionen für den G70
~321Millionen für den R520

hm verwechsel ich gerade was? Hatte der G70 nicht ca. 240 Mio Transis? :ugly:

Odal
2005-10-05, 18:44:44
Das war wieder die Computerbase :
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/24/

75°C für die X1800XT.
73°C für die G7800GTX.
:cool:

Findest du den Unterschied groß ?
Mal davon abgesehen, daß so eine Messung eh für den Popo ist.

ups genau das review wars...da hab ich mich wohl vertan und hatte beim durchgucken mein hauptaugenmerk auf die x1800xl gelegt, welche ja trotz geringerer performance schon ca 20% wärmer wird als die 7800GT

Quasar
2005-10-05, 18:46:28
Viper']könnte auch durch die wesentlich größere Anzahl an Transistoren kommen oder? sind ja gut und gerne 70 Millionen mehr bein R520 :eek:
Woher hast du diese Zahl? Hat sich wohl schon erledigt. :)

Dann was anderes: Mir gefällt der X1800 auch recht gut, wenn sich da nicht noch irgendwo ein faules Kukucksei hinter diesen Zahlen und Bildern versteckt. Natürlich müssen sich die Preise erst einmal "beruhigen" – qua Launch sind die meisten Karten viel zu teuer.

dildo4u
2005-10-05, 18:47:06
Viper']hm verwechsel ich gerade was? Hatte der G70 nicht ca. 240 Mio Transis? :ugly:
Nein der NV40 hat 222 der G70 302.

[dzp]Viper
2005-10-05, 18:47:30
Nein der NV40 hat 222 der G70 302.

ah okay *aufschreib* :D

Woher hast du diese Zahl?

aus meinen schlecht funktionierenden Gehirnwindungen ;(

Sunrise
2005-10-05, 18:47:53
Viper']hm verwechsel ich gerade was? Hatte der G70 nicht ca. 240 Mio Transis? :ugly:

Das liegt näher am NV40. Die Zahl selbst hingegen, ist jedoch frei von dir erfunden. :wink:

dargo
2005-10-05, 18:48:11
Viper']hm verwechsel ich gerade was? Hatte der G70 nicht ca. 240 Mio Transis? :ugly:
Laut CB ~303 Millionen. :)
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/2/

Die gelbe Eule
2005-10-05, 18:48:57
Das bleibt zur Zeit übrig ...

Positives für ATI:

BQ ist besser

Negatives für ATI:

Verfügbarkeit
Preis
Lautstärke
Leistungsaufnahme
CF muss sich deutlich SLI geschlagen geben
Kein echtes SM3.0
Aus der angekündigten deutlichen Überlegenheit wurde eher ein Patt bis 5% Mehrleistung.


Das schlimmste ist für mich persönlich die CF Performance, weil hier leigt ja eigentlich die meiste noch nicht ausgenutzte Performance. Wenn man sich den Blog von VoodooPC ans Herz legt, so kann man herauslesen, das sie nichtmal ein Board als Launchpartner zu Verfügung haben.

[dzp]Viper
2005-10-05, 18:49:27
Ist ja langsam gut hier - ich weiß es ja nun - ihr müsst mich jetzt nicht 2 Threadseiten lang vorführen :ulol:

Johnny Rico
2005-10-05, 18:49:49
Ich schau gerade zum ersten Mal in diesen Thread und habe eigentlich eine Liste mit (P)Reviews erartet.
Keine da, d.h., man muss 20 Seiten durchgehen um in nem Review Thread die Reviews zu suchen >_<.

[dzp]Viper
2005-10-05, 18:50:34
Negatives für ATI:

CF muss sich deutlich SLI geschlagen geben



hast du schon CF Benchmarks mit dem R520 gesehen? WO? :eek:

iam.cool
2005-10-05, 18:51:30
Woran liegt es eigentlich genau das die ATI Karte bei Games wie FEAR oder auch COD2 so deutlich vor der NVidia Karte liegt?

Unoptimierter Code, die ATI Karten waren ihren NV Pendanten bei unoptimierten Code eigendlich immer überlegen - Intel hat das gleiche Prob wie NV, bei nicht oder nur schlecht optimierten Code sieht ein P4 auch kein Land mehr.

dargo
2005-10-05, 18:51:58
ups genau das review wars...da hab ich mich wohl vertan und hatte beim durchgucken mein hauptaugenmerk auf die x1800xl gelegt, welche ja trotz geringerer performance schon ca 20% wärmer wird als die 7800GT
Deswegen ist die Messung auch so sinnlos.
Schon mal auf den Gedanken gekommen, daß ein X1800XL-Kühler schwächer ist als ein X1800XT-Kühler bzw. ein G7800GT-Kühler ? :wink:

Die Lüftergeschwindigkeit dürfte auch bei den Kühlern eine wichtige Rolle spielen. :)

dildo4u
2005-10-05, 18:53:08
Ich finde 321mio Transistoren ziehmlich heftig der R480 hatte die Hälfte aber auch schon 16pipes wofür hat ATI die ganzen Transistoren verbraten nur für SM3.0 und besseres AF?Das AAA können ja auch schon die Radeons ab R300.

StefanV
2005-10-05, 18:55:05
Ich schau gerade zum ersten Mal in diesen Thread und habe eigentlich eine Liste mit (P)Reviews erartet.
Keine da, d.h., man muss 20 Seiten durchgehen um in nem Review Thread die Reviews zu suchen >_<.
Wieso?

Da stehen doch schon 3 :)

Hat jemand mal 'ne Liste mit allen??

Spasstiger
2005-10-05, 18:56:19
Ich schau gerade zum ersten Mal in diesen Thread und habe eigentlich eine Liste mit (P)Reviews erartet.
Keine da, d.h., man muss 20 Seiten durchgehen um in nem Review Thread die Reviews zu suchen >_<.

Hier habe ich ein paar wichtige Dinge zusammengefasst und ne kleine Liste von Artikeln zusammengestellt:
http://doom3.planet-multiplayer.de/forum/index.php?showtopic=9683

dargo
2005-10-05, 18:56:53
Viper']Ist ja langsam gut hier - ich weiß es ja nun - ihr müsst mich jetzt nicht 2 Threadseiten lang vorführen :ulol:
Das kommt davon wenn man nach dem Link sucht und in der Zwischenzeit schon drei andere Leute geantwortet haben. ;D

MSABK
2005-10-05, 18:57:28
Ich denk mal die Karte hat 24 Pipes, die werden dann später bei besserer ausbeute aktieviert.

Paßt eine X1800XT in einen Schuttle Barobene?

reunion
2005-10-05, 18:58:08
Das bleibt zur Zeit übrig ...

Positives für ATI:

BQ ist besser

Negatives für ATI:

Verfügbarkeit
Preis
Lautstärke
Leistungsaufnahme
CF muss sich deutlich SLI geschlagen geben
Kein echtes SM3.0
Aus der angekündigten deutlichen Überlegenheit wurde eher ein Patt bis 5% Mehrleistung.


Das schlimmste ist für mich persönlich die CF Performance, weil hier leigt ja eigentlich die meiste noch nicht ausgenutzte Performance. Wenn man sich den Blog von VoodooPC ans Herz legt, so kann man herauslesen, das sie nichtmal ein Board als Launchpartner zu Verfügung haben.


Die positiven Punkte hast du im Gegensatz zu den negativen ja verdammt kompakt gehalten.
Fehlt nur noch, dass du es negativ findest, dass ATi mehr Kondensatoren verbaut als nV.

Odal
2005-10-05, 18:58:45
Deswegen ist die Messung auch so sinnlos.
Schon mal auf den Gedanken gekommen, daß ein X1800XL-Kühler schwächer ist als ein X1800XT-Kühler bzw. ein G7800GT-Kühler ? :wink:

Die Lüftergeschwindigkeit dürfte auch bei den Kühlern eine wichtige Rolle spielen. :)

naja ich seh das eigentlich genauso wie mit den chips selbst....es zählt nicht wieviel pipes ein chip hat oder welchen takt sondern letztendlich was dabei rauskommt

und hier hat der x1800xl gegenüber einem 7800GT folgendes zu verbuchen:

für geringere performance
20% wärmer trotz höherer Lautstärke (54 zu 52,5db)
im idle betrieb mit 137 zu 119 deutlich höhere stromaufnahme (evtl. bug)
unter last höhere stromaufnahme (186 zu 177)

Pirx
2005-10-05, 18:59:18
Ich finde 321mio Transistoren ziehmlich heftig der R480 hatte die Hälfte aber auch schon 16pipes wofür hat ATI die ganzen Transistoren verbraten nur für SM3.0 und besseres AF?Das AAA können ja auch schon die Radeons ab R300.
Er? rechnet ja jetzt immerhin voll mit 32bit fp statt 24, kommt auch dazu.

dargo
2005-10-05, 18:59:42
Das AAA können ja auch schon die Radeons ab R300.
Das schon, aber mit einem deutlich höheren Performanceverlust.

Johnny Rico
2005-10-05, 19:00:13
Hier habe ich ein paar wichtige Dinge zusammengefasst und ne kleine Liste von Artikeln zusammengestellt:
http://doom3.planet-multiplayer.de/forum/index.php?showtopic=9683


hahaha genital! sehr nett!

Das Auge
2005-10-05, 19:02:30
Da ich gerade keine Lust habe 21 Seiten Thread und alle Reviews zu lesen, weiß man den schon irgendwas von AGP-Versionen??

Hakim
2005-10-05, 19:02:59
Ich finde 321mio Transistoren ziehmlich heftig der R480 hatte die Hälfte aber auch schon 16pipes wofür hat ATI die ganzen Transistoren verbraten nur für SM3.0 und besseres AF?Das AAA können ja auch schon die Radeons ab R300.

Das frage ich mich auch. Wobei respekt was sie aus 16pipes rausholen. Bin aber sicher das der R520 bei hohen Auflösungen (und AA + AF) sehr vom Schnelleren und doppelt so großen speicher profitiert.

Die gelbe Eule
2005-10-05, 19:03:29
Die positiven Punkte hast du im Gegensatz zu den negativen ja verdammt kompakt gehalten.
Fehlt nur noch, dass du es negativ findest, dass ATi mehr Kondensatoren verbaut als nV.

Aber Du hast nichts dagegen einzuwenden. Habe glaube ich 15 Reviews durchgelesen und zu dem Ergebnis kamen alle.

Es bleibt nur die bessere BQ übrig. Bei dem Rest muss man schon mehrere Augen zudrücken, um dem was positives abzugewinnen.

seahawk
2005-10-05, 19:04:05
Bei FarCry kannst du davon ausgehen das das nie im Leben auf allen Karten gleich läuft. CryTek liebt die Kartenspezifsichen Profile viel zu sehr um davon abzurücken.

Das dachte ich mri fast auch. Ich bin mir da nicht sicher, ob die Scores irgendetwas aussagen, oder ob Crytek irgenetwas anders implementiert hat. (HDR ?)

tombman
2005-10-05, 19:06:52
Hier mal mein Senf dazu.

1.) Die meisten vergessen, daß die X1800XT nicht nur doppelt so viel Speicher hat, sondern vorallem auch viel schnelleren, was einiges an Leistung bringt in hohen Auflösungen mit AA/AF, also genau dort wo die X1800XT am meisten brilliert.
Und diesen Speicher in Menge und Takt zu verbauen ist für Nvidia und die 7800 Reihe kein Problem, ein Feld was eine etwaige 7800 Ultra locker ausfüllen könnte.

2.) Die X1800XT kommt frühestens in einem Monat, und bis dahin gibts auch was schnelleres von Nvidia :naughty:
(und die X1800XL ist keine Gefahr für die 7800 GTX)

3.) Die BQ ist durch 6x AAA und Area AF derzeit besser bei ATI, aber das AF kann Nvidia leicht anpassen. 4x TRSSAA ist derzeit dem 6xAAA leicht unterlegen, aber nicht so stark um gleich auszuflippen. 8xAA+TRSSAA ist derzeit immer noch der schönste Modus, nur kostet der eben viel fps.

4.)Die benchmarks zeigen, daß es sowohl bei Nvidia als auch bei ATI EInbrüche gibt, also "davonziehen" kann die X1800XT auf keinen Fall. Die pixelshader Leistung des G70 ist höher, aber die vertexshader Leistung des r520 ist wiederrum deutlich höher. Traditionsgemäß verliert ATI beim Zuschalten von AA/AF weniger Leistung, aber gerade in hohen Auflösungen spielt wie gesagt der schnelle Speicher eine große Rolle, was aber kein Verdienst des R520 ist, sondern schlicht und einfach der Verfügbarkeit des Samsung Speichers.
Die X1800XT ist, gemessen am Durchschnitt aller gezeigten benchmarks, "einen Hauch schneller" als die 7800GTX, aber das reicht eben nicht aus um eine Karte wie die 7800GTX, die schon so lang auf dem Markt verfügbar ist und gekauft wurde, vom Thron zu stoßen- dazu bedarf es mehr. Ati ist aber ohne Zweifel wieder konkurrenzfähig.

5.) Crossfire mit 2x X1800XT wirds vor Weihnachten kaum spielen, und da wissen wir noch nicht wie gut das überhaupt funktioniert, schließlich hat Nvidia da ein Jahr Vorsprung, vorallem was die Kompatibilität zu games betrifft. Wer weiß schon ob es auch für ATI so geile Tools wie nhancer geben wird, mit dem man so gut wie jedes game mit SLI zum laufen überreden kann? Crossfire muß sich in der Praxis erstmal behaupten, und da haben wir in der Alltagspraxis noch gar nix von ATI gesehen, nicht mal bei der X8xx Vorgängergeneration.
Und solange Crossfire für den R520 nicht verfügbar ist und gut funktioniert, haben die 7800 GTX SLI user immer noch die deutlich schnellste Lösung im Rechner :cool:

persönliches Fazit: umsteigen unnötig, da 7800 GTX SLI immer noch die beste und schnelleste Lösung ist :naughty:

seahawk
2005-10-05, 19:09:04
Ich würde ehere überlegen Texturleistung sagen, als Vertexshaderleistung.

up¦²
2005-10-05, 19:11:02
x1800XL und XT gelistet :smile:


http://www.alternate.de/html/shop/productListing4C.html?group=manufacturerName&cat1=9&cat2=255&cat3=000&&treeName=HARDWARE&Level1=Grafik&Level2=Karten+PCIe&Level3=ATI&

Mumins
2005-10-05, 19:11:28
Aber Du hast nichts dagegen einzuwenden. Habe glaube ich 15 Reviews durchgelesen und zu dem Ergebnis kamen alle.

Es bleibt nur die bessere BQ übrig. Bei dem Rest muss man schon mehrere Augen zudrücken, um dem was positives abzugewinnen.

Die Lautstärke ist auch eher gleich was GTX und XT betrifft.

horn 12
2005-10-05, 19:11:31
@reunion

hi ; und alle anderen
bin enttäuscht von der X1600 XT und soll ja est am 30.11.2005 in die Läden kommen , so lange will ich nicht mehr warten , oder soll es etwaige AGP Versionen früher geben !

@reunion ---> was wirst DU machen , kaufst dir noch die X1600 XT ?
ICH bin echt am überlegen ob ich mir wohl doch nicht ne X800 XL
oder besser X800 XT PE um die ca. 230 euro jolen sollte ,

sind ja immer noch schneller als ne X1600 XT !
ausser der X1800 XL kommt nun sofort auch für AGP raus , dann würde alles anders aussehen , vorabgenommen der Preis pendelt sich bei 350 - 375 euro ein .

habe zurzeit noch ne 9800 Pro von Gecube ,
um wieviel % ist midestens ne X1600 XT schneller als die 9800 PRO ?
spiele wie Riddick , Farcry , doom 3 , fear
und in der Auflösung 1280 x 1024 4xAA + 8AF !

reunion
2005-10-05, 19:11:51
Aber Du hast nichts dagegen einzuwenden.


Ich habe sehrwohl was dagegen, nur weiß ich wesentlich besseres mit meiner Zeit anzufangen, als mit dir eine Diskussion anzufangen, welche sich mit hoher Wahrscheinlichkeit ins lächerliche zieht.

dargo
2005-10-05, 19:14:45
naja ich seh das eigentlich genauso wie mit den chips selbst....es zählt nicht wieviel pipes ein chip hat oder welchen takt sondern letztendlich was dabei rauskommt

Das sehe ich genauso. :)


und hier hat der x1800xl gegenüber einem 7800GT folgendes zu verbuchen:

für geringere performance

Wie kommst du darauf ?
Ich sehe zb. in Splinter Cell 3 oder Farcry in 1280x1024 4xAA/16xAF die X1800XL immer vorne. Wenn das AAA und TAA ins Spiel kommt müsste sich die ATI noch mehr absetzen können.


20% wärmer trotz höherer Lautstärke (54 zu 52,5db)

Das könnte man erst behaupten wenn der G7800GT Kühler auf der X1800XL Graka mit der gleichen Lüftergeschwindigkeit verbaut wäre.

Bei der Lautstärke wäre ich noch vorsichtig. CB hat geschrieben, daß der Lüfter oder die Lüftersteuerung eventuell defekt sei.


im idle betrieb mit 137 zu 119 deutlich höhere stromaufnahme (evtl. bug)
unter last höhere stromaufnahme (186 zu 177)
Wie gesagt bei den Idle-Werten warte ich erstmal den Test von xbitlabs ab.
Bei Last sind es beim Gesamtverbrauch 9W Unterschied. Davon bleiben für die Grafikkarte 6-7W wenn man die Effizienz des NT berücksichtigt. Ist zwar mehr aber nicht die Welt.

Coda
2005-10-05, 19:20:04
Wenn das AAA und TAA ins Spiel kommt müsste sich die ATI noch mehr absetzen können.Wie's bisher aussieht ist die nV-Lösung da doch performanter?

Wie gesagt bei den Idle-Werten warte ich erstmal den Test von xbitlabs ab.Bei Last sind es beim Gesamtverbrauch 9W Unterschied. Davon bleiben für die Grafikkarte 6-7W wenn man die Effizienz des NT berücksichtigt. Ist zwar mehr aber nicht die Welt.Ja, das ist wirklich reichlich egal.

Neos
2005-10-05, 19:20:17
x1800XL und XT gelistet :smile:


http://www.alternate.de/html/shop/productListing4C.html?group=manufacturerName&cat1=9&cat2=255&cat3=000&&treeName=HARDWARE&Level1=Grafik&Level2=Karten+PCIe&Level3=ATI&


Kann es sein das die da was falsch eingetragen haben? Da is die XL mit 256 mb einmal für 539 und einmal für 439 € zu bekommen O_o. Und überhaupt. Die XT wird da mit 599€ gelistet. Das is doch über dem preis der auf der ATI folie gestaden hat oder irre ich mich da?

€dit:

Ups hab mich da wohl verlesen... Naja trotzdem alles noch sehr hohe preise

Odal
2005-10-05, 19:23:17
@dargo naja man kann natürlich fast alles irgendwie rausreden

ich bewerte die chips nach den reviews... und da ergeben sich für mich die oben genannten fakten...

und wie das bei den benchmarks so ist...da kann man immer gegenbeispiele finden.
in den vorgebrachten hl2 benches wär eine XL auch mit AA und AF nur unwesentlich schneller als eine GT
hingegen guck dir den extremen unterschied in riddick an...

für steht performancemässig unterm strich bei der XT / GTX ungefähr das gleiche (evtl. leichter Vorsprung X1800XT achtung nicht einzelne benches raussuchen sondern gesamtheitlich betrachten) welche a) ja auch mehr speicher hat und deutlich schnelleren... imho kein verdienst vom Chip
bei der XL - GT liegt die XL etwas zurück

TrigPe
2005-10-05, 19:23:32
Kann es sein das die da was falsch eingetragen haben? Da is die XL mit 256 mb einmal für 539 und einmal für 439 € zu bekommen O_o. Und überhaupt. Die XT wird da mit 599€ gelistet. Das is doch über dem preis der auf der ATI folie gestaden hat oder irre ich mich da?

Die für 539 Euro ist die XT mit 256MB. Für 599 Euro gibts die XT mit 512MB.

MfG

Hesky
2005-10-05, 19:27:52
Alda 540 € für GTX Leistung. Seh ich nitt ein. Ne Gtx gibts jetzt schon für 445 €. Ati suckt doch.....

[dzp]Viper
2005-10-05, 19:30:04
Alda 540 € für GTX Leistung. Seh ich nitt ein. Ne Gtx gibts jetzt schon für 445 €. Ati suckt doch.....

bedenke - das sind startpreise - nach 2-3 wochen sind wir schon locker 50€ niedriger ;)

Lightning
2005-10-05, 19:30:43
Da ich gerade keine Lust habe 21 Seiten Thread und alle Reviews zu lesen, weiß man den schon irgendwas von AGP-Versionen??

Nein, afaik nichts. Ich glaube inzwischen nicht mehr wirklich daran, dass sowas noch kommt. :(

Mumins
2005-10-05, 19:32:31
@dargo naja man kann natürlich fast alles irgendwie rausreden

ich bewerte die chips nach den reviews... und da ergeben sich für mich die oben genannten fakten...

und wie das bei den benchmarks so ist...da kann man immer gegenbeispiele finden.
in den vorgebrachten hl2 benches wär eine XL auch mit AA und AF nur unwesentlich schneller als eine GT
hingegen guck dir den extremen unterschied in riddick an...

für steht performancemässig unterm strich bei der XT / GTX ungefähr das gleiche (evtl. leichter Vorsprung X1800XT achtung nicht einzelne benches raussuchen sondern gesamtheitlich betrachten) welche a) ja auch mehr speicher hat und deutlich schnelleren... imho kein verdienst vom Chip
bei der XL - GT liegt die XL etwas zurück


Genauso wird es andere Extreme geben wie Riddick wo die XL einiges stärker ist.

seahawk
2005-10-05, 19:33:02
Viper']bedenke - das sind startpreise - nach 2-3 wochen sind wir schon locker 50€ niedriger ;)

Dazu müssen die XTs aber erstmal ausreichend verfügbar sei. 7800er kriegst Du praktisch in Jumboladungen voll, wenn Du willst.

NV hat imho noch Spielraum nach unten und das Erscheinen der 512MB 7800 GTX wird die 256MB auch im Preis drücken. Bendenke, dass NV jetzt schon einige Zeit gut mit den 7800ern verdient hat.

PS. Wer wettet mit, dass die Hersteller die 512MB 7800er höher takten werden. 475Mhz anyone ?

Btw. Gibt es eigentlich ein Review mit OC Versuchen der XI800 ?

Black-Scorpion
2005-10-05, 19:33:35
Alda 540 € für GTX Leistung. Seh ich nitt ein. Ne Gtx gibts jetzt schon für 445 €. Ati suckt doch.....
Was hat die GTX gekostet als sie rauskam?

Denken und nicht rumtrollen.

Hesky
2005-10-05, 19:33:48
Dann ist die GTX auch wieder billiger und die Ati kostet dann knapp 500 €...... Also bei mir kann die Ati XT nicht punkten

1: Sie ist lauter
2. Sie wird wärmer (Takt scheint fast schon auf anschlag zu laufen)
3. Hat mehr Stromverbrauch
4. Sie ist teurer

Die Fakten reichen für mich persönlich für eine entscheidung

reunion
2005-10-05, 19:34:38
@reunion

hi ; und alle anderen
bin enttäuscht von der X1600 XT und soll ja est am 30.11.2005 in die Läden kommen , so lange will ich nicht mehr warten , oder soll es etwaige AGP Versionen früher geben !

@reunion ---> was wirst DU machen , kaufst dir noch die X1600 XT ?
ICH bin echt am überlegen ob ich mir wohl doch nicht ne X800 XL
oder besser X800 XT PE um die ca. 230 euro jolen sollte ,

sind ja immer noch schneller als ne X1600 XT !
ausser der X1800 XL kommt nun sofort auch für AGP raus , dann würde alles anders aussehen , vorabgenommen der Preis pendelt sich bei 350 - 375 euro ein .

habe zurzeit noch ne 9800 Pro von Gecube ,
um wieviel % ist midestens ne X1600 XT schneller als die 9800 PRO ?
spiele wie Riddick , Farcry , doom 3 , fear
und in der Auflösung 1280 x 1024 4xAA + 8AF !

Tja, was soll ich sagen?
-Die X1600 ist IMHO nicht zu empfehlen, die Füllrate ist wie schon erwartet viel zu gering. Außerdem müsstest du für die AGP-Variante wohl deutlich länger warten.
-Dass R520 noch für AGP kommt, halte ich für unwahrscheinlich.
-Eine SM2-Karte würde ich mir auch nicht mehr holen.
-Ich werde jetzt erstmal abwarten, wenn du jetzt unbedingt eine neue Karte willst, dann kauf' dir eine 6800GT AGP. Oder, wenn du auf PCIe umsteigen willst, eine X1800XL/7800GT.

seahawk
2005-10-05, 19:35:53
Was hat die GTX gekostet als sie rauskam?

Denken und nicht rumtrollen.

Nur war sie damals konkurrenzlos.

seahawk
2005-10-05, 19:36:44
Tja, was soll ich sagen?
-Die X1600 ist IMHO nicht zu empfehlen, die Füllrate ist wie schon erwartet viel zu gering. Außerdem müsstest du für die AGP-Variante wohl deutlich länger warten.
-Dass R520 noch für AGP kommt, halte ich für unwahrscheinlich.
-Eine SM2-Karte würde ich mir auch nicht mehr holen.
-Ich werde jetzt erstmal abwarten, wenn du jetzt unbedingt eine neue Karte willst, dann kauf' dir eine 6800GT AGP oder, wenn du auf PCIe umsteigen willst eine X1800XL/7800GT.

Oder die 7800GT, die lieferbar ist und sehr viele FPS pro Euro bietet.

Die gelbe Eule
2005-10-05, 19:36:50
Dazu müssen die XTs aber erstmal ausreichend verfügbar sei. 7800er kriegst Du praktisch in Jumboladungen voll, wenn Du willst.

NV hat imho noch Spielraum nach unten und das Erscheinen der 512MB 7800 GTX wird die 256MB auch im Preis drücken. Bendenke, dass NV jetzt schon einige Zeit gut mit den 7800ern verdient hat.

PS. Wer wettet mit, dass die Hersteller die 512MB 7800er höher takten werden. 475Mhz anyone ?

Btw. Gibt es eigentlich ein Review mit OC Versuchen der XI800 ?

Mitwette.

486MHz ist ja bereits drin und in einem Review hat sich soagr jemand beklagt das er nicht diese Version hatte, dann wäre der Unterschied noch geringer ausgefallen.

Neues PCB muss ja eh her, also Spielraum für Spekus gibts genug.

MadManniMan
2005-10-05, 19:37:45
3.) Die BQ ist durch 6x AAA und Area AF derzeit besser bei ATI, aber das AF kann Nvidia leicht anpassen.

Wie kommt Ihr da alle eigentlich drauf? Es gibt auch nicht mehr Indizien dafür, je öfter das wiederholt wird :|

Fadl
2005-10-05, 19:39:36
Wie kommt Ihr da alle eigentlich drauf? Es gibt auch nicht mehr Indizien dafür, je öfter das wiederholt wird :|

Ja was das AF betrifft warte ich noch immer auf einen Link seitens Skynet der ja groß angekündigt hat das beim 8x.xx Treiber winkelunabhängiges!!! AF geboten werden wird.

iam.cool
2005-10-05, 19:40:20
Wie kommt Ihr da alle eigentlich drauf? Es gibt auch nicht mehr Indizien dafür, je öfter das wiederholt wird :|


Wunschdenken :wink: .......Unsere Politiker sagen ja auch andauernd das sich die Arbeitslosenzalen reduzieren werden :|

dargo
2005-10-05, 19:40:50
Wie's bisher aussieht ist die nV-Lösung da doch performanter?

Kann sein, daß ich schon etwas durcheinander bin. :ugly:
Ich meine irgendwo gelesen zu haben, daß der R520 beim zuschalten von AAA weniger einbricht als der G70.

Black-Scorpion
2005-10-05, 19:41:10
Nur war sie damals konkurrenzlos.
Darum gehts doch garnicht.

Hier vergleichen die Leute die Preise der Karten obwohl es da nichts zu vergleichen gibt.
Die eine Karte kommt erst auf den Markt und bei der anderen hat sich der Preis dem Markt angepasst.

Horimoto
2005-10-05, 19:42:13
VOM 02.08.05, also 2 Monate alt, vom SpekuForum:

I think i can tell ya abaout the R520, cuz itll presneted the nxt time, see about IFA 2005 in Berlin, the first running samples will be shown there, phaps even launched end of august.

I got my sample now fo bout 2 weeks, and the card aint that fast as much of you think shell be.
R520 is running @ 16 Pipelines, poorly.
It has 8 VS too, pretty good, makes high HDR features possible.
But dont think, 16PP are a bad thang, the R520 is able to beat the 7800GTx in several benchmarks, but not in all.
The core of my sample is only 625 MHz, i tried to overclock, but this seemed to be that maxed out clock. RAM is clocked 600 MHz, max. overclockable @635 Mhz.
See, my sample seems to be one of the first produced chips, so dont think the final core will be at the same, phaps a bit higher, about 650 MHz and up.
Th card is looking exactly the same as a X850XTPE, the cooler and the board seems to be the same. The cooler is very noisy, alot of higher then the one of the 7800GTX. I dont know the chip temperature, but it seems not to be that high....
But now some benchmarks:

System is a FX-55 with 1 GB of RAM.

3dmark05:
9.040 points

Not too bad, but the extremly high VS perf. of the R520 is the reason for the high points here.

Realgame:

SC3 is running @1600x1200 wit 4xAA und 8xAF @70 fps, no HDR, its not working (need a patch to work????)
FarCry:
not as fast, the perf. is 57 fps @1600x1200 with 6xAA und 16xAF, my 7800GTX(4xAA) scores 59 fps, a X850XTPE only 39 fps.
NeedFSU2 seems to be a perfect game for the R520, i have 59 fps @1600x1200, with a 7800GTX i got 48 fps, and a X850XTPE got poor 34 fps.
BF2 seems to be better playable with the 7800XGT, the same for Riddick (witch has graphic scratches) and Doom3.
FEAR wont start, the same for HL², maybe some little driver problems.
Driver used:
its a special version, only for R520 owner, which says EVERY game is playbele, false!

@AF:
i recognized, that the AF of the R520 is exremly good. It seems, that there are no optimazions on, phaps because of the driver, i dunno. The perf. for that non-opt. AF is very good, the overall perf. is 'aceptable'.
It wont beat the 7800GTX, only in the old 'atigames' like FarCry and so on.
According to my partners, the R580 will be a lot of faster, in wich way, i dunno.
The same says, that the R520 everyone could buy, will be faster too, beacause of some optimazions taken, i think like AF and some special opts.

enjoy the launch of the card, i hope the loud fan will be fixed, then the card is pretty good.

SCHEISS REGPFLICHT; DA BLEIBEN USN SOLCHE INFOS VORENTHALTEN, DIE WAS WISSEN; ES ABER NICHT UNTER EINEM REGNAMEN VERATEN WOLLEN :grml:

horn 12
2005-10-05, 19:44:16
brauche aber ien AGP Karte und vor allem HDR + SM3 wenns geht !
also ne x800 xx fällt durch ; obwohl brauch ich SM3 HDR udg .
NE X800 XX wäre billiger und viel Leiser .

funktionieren die AGP Karten alla GF 6800 Ultra mit nem ASUS A8V ohne probleme und auch nur mit AGP 4x oder ausschliesslich mit AGP 8x ?
habe nämlich bei meiner 9800 PRO auf agp 4x stellen müssen !!!
( farcry hatte mit agp 8x immer Freeze )

Telema
2005-10-05, 19:44:30
ATI is ja wirklich dumm wenn sie keine AGP Karte bringen. Es gibt wirklich noch viele User die noch AGP haben und aufrüsten würden(ich z.b). Da sie bei PCIe nur mithalten können aber nicht übertreffen, wäre es doch sinnig zumindest die XL auf AGP zu bringen da sie dort erstma ohne Kokurrenz wären.


mfg Telema :(

reunion
2005-10-05, 19:44:38
Ja was das AF betrifft warte ich noch immer auf einen Link seitens Skynet der ja groß angekündigt hat das beim 8x.xx Treiber winkelunabhängiges!!! AF geboten werden wird.

Das ist Blödsinn.
Winkelunabhängiges AF wird nV bei den heutigen Chips IMHO sowieso nie anbieten. Wenn man das könnte, hätte man es spätestens zum R520-Launch gemacht, aber dazu habe ich mich ja bereits mehrmals geäußert.

Die gelbe Eule
2005-10-05, 19:45:09
Darum gehts doch garnicht.

Hier vergleichen die Leute die Preise der Karten obwohl es da nichts zu vergleichen gibt.
Die eine Karte kommt erst auf den Markt und bei der anderen hat sich der Preis dem Markt angepasst.

Also willst Du damit sagen, der Preis ist angemessen, auch wenn man dafür keine bessere Leistung bekommt?
Oder das man erst noch warten sollte bis die Preise fallen?

Geo72
2005-10-05, 19:46:01
Was hat die GTX gekostet als sie rauskam?

Denken und nicht rumtrollen.

Klar, wenn ich mir jetzt überlege ob ich mir die X1800 oder die 7800 GTX hole, dann vergleiche ich
natürlich mit dem Erscheinungspreis der 7800 :confused: .

Im Moment hat NV das besser Preis-Leistngs Verhältnis.

Die gelbe Eule
2005-10-05, 19:46:30
ATI is ja wirklich dumm wenn sie keine AGP Karte bringen. Es gibt wirklich noch viele User die noch AGP haben und aufrüsten würden(ich z.b). Da sie bei PCIe nur mithalten können aber nicht übertreffen, wäre es doch sinnig zumindest die XL auf AGP zu bringen da sie dort erstma ohne Kokurrenz wären.


mfg Telema :(

Ich sag nur ULI Chipsatz ...

Coda
2005-10-05, 19:46:51
Wie kommt Ihr da alle eigentlich drauf? Es gibt auch nicht mehr Indizien dafür, je öfter das wiederholt wird :|Ja ich würde mich da auch noch nicht definitiv festlegen.

Aber was mich da relativ sicher sein lässt sind die genauen Abstufungen bei den einzelnen "Winkelstreifen" und das man schlechteres AF einstellen konnte mit älteren Treibern (nur 90° volles AF, also ala R200). Wie Demirug schon sagte: Es ist so perfekt, dass es eher nach mehr als nach weniger Transistoren aussieht. Und wenn man schon Konfigurierbarkeit einbaut, warum dann nicht für alle Eventuallitäten?

Aber wir werden sehen. Falls G70 es kann wird die Antwort von nVIDIA nicht lang auf sich warten lassen.

seahawk
2005-10-05, 19:48:15
Darum gehts doch garnicht.

Hier vergleichen die Leute die Preise der Karten obwohl es da nichts zu vergleichen gibt.
Die eine Karte kommt erst auf den Markt und bei der anderen hat sich der Preis dem Markt angepasst.

ISt aber ein Unterschied. Als die 7800 kam, gab es in der LEistungsklasse nur die 7800. Die XI800 muss sich nun mit der 7800 vergleichen - auch preislich. Sie kann also nicht dauerhaft erheblich teurer sein als diese.

Android
2005-10-05, 19:49:09
Und nun die abschliessende Frage: Wessen Schwanz ist jetzt durch das geflame länger geworden ? ;D

Immer wieder erstaunlich wie sehr manche Leute ihre "Firma" lieben.
Hab das Gefühl, dass manche hier mit ihren Grafikkarten auch ins Bett gehen.

Mal im Ernst, was soll das ? Bleibt bei den Fakten und diskutiert über technische Veränderungen oder Innovationen zum X800 oder G70.
Ob jetzt einer 70 fps hat oder nur 65 fps interessiert nur Prollos.
Demirug hat beispielsweise davon gesprochen, dass der SM3.0 der ATI nicht den vollen Specs entspricht und damit Berechnungen auf die CPU verlagert werden müssen. Das ist interessant.

@ Demirug:

Welche Auswirkungen kann das fehlende Feature denn theoretisch und praktisch auf Spiele haben ? Beeinträchtigt das auch Berechnungen in anderen 3D-Anwendungen ?

Pirx
2005-10-05, 19:50:05
Klar, wenn ich mir jetzt überlege ob ich mir die X1800 oder die 7800 GTX hole, dann vergleiche ich
natürlich mit dem Erscheinungspreis der 7800 :confused: .

Im Moment hat NV das besser Preis-Leistngs Verhältnis.
Du brauchst jetzt überhaupt keine Preise zu vergleichen, sondern erst, wenn die ATi-Karten ein paar Wochen verfügbar sind.

Neos
2005-10-05, 19:50:36
Ich sag nur ULI Chipsatz ...


Is das nich der chipsatz der überall am schlechtesten abgeschnitten hat? -.- Das is doch keine alternative. Zumindest das was ich bis jetz so gesehn hab.

Mumins
2005-10-05, 19:50:50
Also willst Du damit sagen, der Preis ist angemessen, auch wenn man dafür keine bessere Leistung bekommt?
Oder das man erst noch warten sollte bis die Preise fallen?

Nvidias 5900Ultra war auch immer teurer als die 9800Pro, bei weniger Leistung.

seahawk
2005-10-05, 19:51:35
Nvidias 5900Ultra war auch immer teurer als die 9800Pro, bei weniger Leistung.

Und deswegen auch ein riesiger Erfolg. :wink:

MadManniMan
2005-10-05, 19:51:57
Aber wir werden sehen. Falls G70 es kann wird die Antwort von nVIDIA nicht lang auf sich warten lassen.

Ganz recht, aber bevor sich nix tut, muß man nicht so tun, als ob ATi keinen Vorteil hätte.

reunion
2005-10-05, 19:52:10
brauche aber ien AGP Karte und vor allem HDR + SM3 wenns geht !
also ne x800 xx fällt durch ; obwohl brauch ich SM3 HDR udg .
NE X800 XX wäre billiger und viel Leiser .

funktionieren die AGP Karten alla GF 6800 Ultra mit nem ASUS A8V ohne probleme und auch nur mit AGP 4x oder ausschliesslich mit AGP 8x ?
habe nämlich bei meiner 9800 PRO auf agp 4x stellen müssen !!!
( farcry hatte mit agp 8x immer Freeze )


Dann kauf dir eine 6800GT AGP, ob die Karte auf deinem Board funktioniert, kann ich dir allerdings nicht definitiv sagen.
Normalerweise sollte das allerdings kein Problem darstellen.

Telema
2005-10-05, 19:52:15
Ich sag nur ULI Chipsatz ...


Ja toll..ich hab aber S754(3400/2,4Ghz) und will erst beim M2 wechseln. Es geht mir auch darum das ATI keine Gegner hätte mit einer x1800xl. Ich kenne keine einzigen in meinem Bekanntenkreis der PCIe hat, aber alle gute Prozzis. Die würden mit sicherheit lieber nochmal die graka wechesln bevor sie wieder ein neues Mobo brauchen nur um ne bessere graka reinzustecken

dildo4u
2005-10-05, 19:52:38
Du brauchst jetzt überhaupt keine Preise zu vergleichen, sondern erst, wenn die ATi-Karten ein paar Wochen verfügbar sind.
Quake4 und Fear kommen aber schon in 2Wochen ärgerlich ich würde zur zeit zur 7800GT für 330€ Greifen wenn ich dann mal ein PCI-E System hätte.:rolleyes:

Coda
2005-10-05, 19:54:33
Ganz recht, aber bevor sich nix tut, muß man nicht so tun, als ob ATi keinen Vorteil hätte.Da hast du natürlich meine volle Zustimmung.

Black-Scorpion
2005-10-05, 19:54:39
Klar, wenn ich mir jetzt überlege ob ich mir die X1800 oder die 7800 GTX hole, dann vergleiche ich
natürlich mit dem Erscheinungspreis der 7800 :confused: .

Im Moment hat NV das besser Preis-Leistngs Verhältnis.
Es ist klar das die 7800er das bessere P/L Verhältnis haben.

Nur Kommentare wie "Die Karten sind zu teuer" sind Quatsch.
Denn ich kann die Preise nicht vergleichen.

Omnicron
2005-10-05, 19:55:58
Wie kommt Ihr da alle eigentlich drauf? Es gibt auch nicht mehr Indizien dafür, je öfter das wiederholt wird :|

Ich fänds auch nicht sehr positiv für NV wenn die Hardware das könnte, sie das aber die ganze Zeit zurückgehalten haben, und das dann nur hervorkramen um mit ATi gleich zuziehen. :|
Dann hätte ATi den NV Usern quasi zu mehr Qualität verholfen. ;D

Pirx
2005-10-05, 19:56:18
Quake4 und Fear kommen aber schon in 2Wochen ärgerlich ich würde zur zeit zur 7800GT für 330€ Greifen wenn ich dann mal ein PCI-E System hätte.:rolleyes:
Ich auch:D, ich warte mal ab, wie sich alles einpegelt und schlage dann trotzdem nicht zu;) (zumindest nicht bei Grafikkarten)

LovesuckZ
2005-10-05, 19:56:20
Nur Kommentare wie "Die Karten sind zu teuer" sind Quatsch.
Denn ich kann die Preise nicht vergleichen.

Schau auf Alternate.

tombman
2005-10-05, 19:56:40
Ganz recht, aber bevor sich nix tut, muß man nicht so tun, als ob ATi keinen Vorteil hätte.
Die Bewertung dieses Vorteils mußt aber jedem selbst überlassen, und da ich davon überzeugt bin, daß nvidia recht schnell w-unabhängiges AF anbieten kann, wenn die das wollen, hype ich diesen Vorteil nicht in den Himmel...

LovesuckZ
2005-10-05, 19:58:06
Dann hätte ATi den NV Usern quasi zu mehr Qualität verholfen. ;D

Ja, abe ATi user haben auch nur durch nVidia AAA.

seahawk
2005-10-05, 19:58:07
Ganz recht, aber bevor sich nix tut, muß man nicht so tun, als ob ATi keinen Vorteil hätte.

Sollten Sie ATI´s Qualität erreichen, wäre ich überrascht. Ihr AF verbessern sollte möglich sein.

Coda
2005-10-05, 19:59:03
Ich fänds auch nicht sehr positiv für NV wenn die Hardware das könnte, sie das aber die ganze Zeit zurückgehalten haben, und das dann nur hervorkramen um mit ATi gleich zuziehen. :|
Dann hätte ATi den NV Usern quasi zu mehr Qualität verholfen. ;DOder ATi den NV4x Usern zu schlechterer. *gähn*

Fadl
2005-10-05, 20:00:03
Ich sehe die AF Geschichte bei NVidia auch eher skeptisch. Warum hat man so etwas nicht schon gleich beim Launch angeboten? Die Karte war doch klar die schnellste am Markt. Aber stattdessen haben sie sogar einen NOCH schlechteren AF angeboten. Dieser wurde dann erst mit einem neuen Treiber etwas verbessert.
Also ob man da wirklich etwas großes von NVidia erwarten kann weiß ich nicht so recht...

reunion
2005-10-05, 20:01:09
Die Bewertung dieses Vorteils mußt aber jedem selbst überlassen, und da ich davon überzeugt bin, daß nvidia recht schnell w-unabhängiges AF anbieten kann, wenn die das wollen, hype ich diesen Vorteil nicht in den Himmel...


Wenn sie es wirklich können würden, warum haben sie es dann nicht schon längst gemacht?
Dadurch hätte man in der Vergangenheit sicher jedemenge Kunden überzeugen können. ATi-Karten hätte man ja weiterhin mit dem winkelanhängigen-AF Vergleichen können.

MadManniMan
2005-10-05, 20:02:52
Die Bewertung dieses Vorteils mußt aber jedem selbst überlassen, und da ich davon überzeugt bin, daß nvidia recht schnell w-unabhängiges AF anbieten kann, wenn die das wollen, hype ich diesen Vorteil nicht in den Himmel...

Was veranlaßt Dich dazu?

Coda
2005-10-05, 20:03:06
Wenn sie es wirklich können würden, warum haben sie es dann nicht schon längst gemacht?Weil es nicht nötig war vielleicht. Sie hatten genug andere Vorteile, und die Karten verkauften sich doch gut.

Dadurch hätte man in der Vergangenheit sicher jedemenge Kunden überzeugen können. ATi-Karten hätte man ja weiterhin mit dem winkelanhängigen-AF Vergleichen können.Vielleicht, vielleicht auch nicht. Firmenpolitik.

Ich hab's mir grad nochmal angeschaut. Das 4xAF ist ja mal schon sowas von viel zu verdächtig. Genau in den richtigen Winkeln hat man auf einmal die "Ecken".

Black-Scorpion
2005-10-05, 20:03:07
Is das nich der chipsatz der überall am schlechtesten abgeschnitten hat? -.- Das is doch keine alternative. Zumindest das was ich bis jetz so gesehn hab.
Ich glaube kaum das er schlechter ist wie andere Chipsätze.
http://www.au-ja.de/review-asrock939dualsata2-1.phtml
http://www.ocworkbench.com/2005/asrock/reviews/939Dual-SATA2/g1.htm

tombman
2005-10-05, 20:06:27
Was veranlaßt Dich dazu?
Langjährige Erfahrung als Konsument von highend hw ;)

Schau, nvidia hat TSAA, und was macht ATI? Schon ist AAA da.

Und genauso wirds auch bei w.ua. AF sein ....

btw: http://www.hothardware.com/articleimages/Item734/aa2.png

deekey777
2005-10-05, 20:07:51
Langjährige Erfahrung als Konsument von highend hw ;)

Schau, nvidia hat TSAA, und was macht ATI? Schon ist AAA da.

Und genauso wirds auch bei w.ua. AF sein ....


SLIAA als Antwort auf SuperAA...

Ronny145
2005-10-05, 20:09:20
VOM 02.08.05, also 2 Monate alt, vom SpekuForum:

I think i can tell ya abaout the R520, cuz itll presneted the nxt time, see about IFA 2005 in Berlin, the first running samples will be shown there, phaps even launched end of august.

I got my sample now fo bout 2 weeks, and the card aint that fast as much of you think shell be.
R520 is running @ 16 Pipelines, poorly.
It has 8 VS too, pretty good, makes high HDR features possible.
But dont think, 16PP are a bad thang, the R520 is able to beat the 7800GTx in several benchmarks, but not in all.
The core of my sample is only 625 MHz, i tried to overclock, but this seemed to be that maxed out clock. RAM is clocked 600 MHz, max. overclockable @635 Mhz.
See, my sample seems to be one of the first produced chips, so dont think the final core will be at the same, phaps a bit higher, about 650 MHz and up.
Th card is looking exactly the same as a X850XTPE, the cooler and the board seems to be the same. The cooler is very noisy, alot of higher then the one of the 7800GTX. I dont know the chip temperature, but it seems not to be that high....
But now some benchmarks:

System is a FX-55 with 1 GB of RAM.

3dmark05:
9.040 points

Not too bad, but the extremly high VS perf. of the R520 is the reason for the high points here.

Realgame:

SC3 is running @1600x1200 wit 4xAA und 8xAF @70 fps, no HDR, its not working (need a patch to work????)
FarCry:
not as fast, the perf. is 57 fps @1600x1200 with 6xAA und 16xAF, my 7800GTX(4xAA) scores 59 fps, a X850XTPE only 39 fps.
NeedFSU2 seems to be a perfect game for the R520, i have 59 fps @1600x1200, with a 7800GTX i got 48 fps, and a X850XTPE got poor 34 fps.
BF2 seems to be better playable with the 7800XGT, the same for Riddick (witch has graphic scratches) and Doom3.
FEAR wont start, the same for HL², maybe some little driver problems.
Driver used:
its a special version, only for R520 owner, which says EVERY game is playbele, false!

@AF:
i recognized, that the AF of the R520 is exremly good. It seems, that there are no optimazions on, phaps because of the driver, i dunno. The perf. for that non-opt. AF is very good, the overall perf. is 'aceptable'.
It wont beat the 7800GTX, only in the old 'atigames' like FarCry and so on.
According to my partners, the R580 will be a lot of faster, in wich way, i dunno.
The same says, that the R520 everyone could buy, will be faster too, beacause of some optimazions taken, i think like AF and some special opts.

enjoy the launch of the card, i hope the loud fan will be fixed, then the card is pretty good.

SCHEISS REGPFLICHT; DA BLEIBEN USN SOLCHE INFOS VORENTHALTEN, DIE WAS WISSEN; ES ABER NICHT UNTER EINEM REGNAMEN VERATEN WOLLEN :grml:



Viele meinten es wäre ein Fake, aber der Gast hatte anscheinend tatsächlich ein sample. Fast alles wurde bestätigt.

reunion
2005-10-05, 20:10:01
Ich hab's mir grad nochmal angeschaut. Das 4xAF ist ja mal schon sowas von viel zu verdächtig. Genau in den richtigen Winkeln hat man auf einmal die "Ecken".

Mag sein, ich bleibe aus den schon genannten Gründen skeptisch.
Auf jeden Fall werden wir es bald wissen.

Demirug
2005-10-05, 20:10:05
@ Demirug:

Welche Auswirkungen kann das fehlende Feature denn theoretisch und praktisch auf Spiele haben ? Beeinträchtigt das auch Berechnungen in anderen 3D-Anwendungen ?

Im schlimmsten Fall sieht man den Effekt nicht.

Die zweite Alternative ist das die CPU das Vertexshading bis zu der Stelle übernimmt ab welcher R520 wieder mitspielen kann.

Dan könnte man die CPU auch das ganze Vertexshading machen lassen wenn das entsprechende Feature gebraucht wird.

Oder ATI lässt sich wieder einen wilden DX Hack einfallen mit dem man Render 2 VertexBuffer realisieren kann und überredet die Entwickler das dann auch zu benutzten.

Das fehlenden FP Blending bedeutet das bei Spielen die keinen Fallback haben HDR nicht oder fehlerhaft funktioniert. Hier ist aber mit Patches zu rechnen. Bei neuen Spielen werden die Entwickler halt in den sauren Apfel beisen und beide Varianten gleich implementieren.

Neos
2005-10-05, 20:13:05
Ich glaube kaum das er schlechter ist wie andere Chipsätze.
http://www.au-ja.de/review-asrock939dualsata2-1.phtml
http://www.ocworkbench.com/2005/asrock/reviews/939Dual-SATA2/g1.htm


Das is ja sehr interessant aber wenn ich einen prozessor hätte der einen 939 sockel hat hätte ich die probleme nich ^^. Ich hab noch einen Pentium 4 Northwood der auf 3,6 Ghz läuft und einen 478 sockel braucht. Das einzige board was ich dafür gefunden habe war das Asus P4GPL-X, aber dazu finde ich keinen testbericht.

Die gelbe Eule
2005-10-05, 20:13:41
NV spielt mit dem AF in den letzten Treibern, wer es nicht mitbekommen hat. Da wird also noch was kommen.

Coda
2005-10-05, 20:15:48
NV spielt mit dem AF in den letzten Treibern, wer es nicht mitbekommen hat. Da wird also noch was kommen.Mir ist nur grad aufgefallen, dass in High Performance kein "R200-AF" mehr benützt wird.

kelo
2005-10-05, 20:21:09
Es geht das Gerücht um das ATI den Intel weg gewählt hat. Hohe Taktraten und viel Cachespeicher. Ich traue ehrlich gesagt diesem Ringspeicher nicht so ganz. Diese Verfahren sind bekannt das man an den einzelnen Kontenpunkten größere FIFOs oder besser gleich Speicherblöcke einbauen muss um die notwendige Entkopplung zu erreichen.
Ob es im GPU-Bereich gut ist? Die haben ja unbedint GDDR3 haben wollen, um es direkter zu haben. Nun diese Kehrtwendung. :|
Man müsste die Grenzen mit genaueren Benches ausloten. Vor allem der Ringspeicher klingt interessant.
Zu laut? Die X1800XT ist doch sehr leise, oder nicht? :confused:
Die X1800XT ist einer der lautesten und wärmsten GPU.

MadManniMan
2005-10-05, 20:21:18
Schau, nvidia hat TSAA, und was macht ATI? Schon ist AAA da.

Und genauso wirds auch bei w.ua. AF sein ....

Weil... ? Weil Du es hoffst? Ich hoffe es auch, aber was spricht dafür?

Du führst ein einziges Beispiel an. Und davon willst Du auf die Regel schließen? Jede derartig angefertigte Argumentation würde völlig zerrissen!

Falls Du meinst, daß nV irgendwann nachlegen wird, stimme ich Dir zu, schließlich kommen sie nur schwerlich drum herum, den BQ-Standard unten zu halten.
Nur ist nunmal die Frage völlig offen, ob NV4X Hardware HQ-AF auch kann.

btw: http://www.hothardware.com/articleimages/Item734/aa2.png

Interessante Benches, nur nützen sie uns nicht viel, wenn kein G70 ebenso gebencht wird. Ich vermute, daß dieser ebenso stark einbrechen würde, da FarCry einen überdurchschnittlich hohen AAA-/TSSAA-anfällig Szenenanteil hat.

Langjährige Erfahrung als Konsument von highend hw ;)

Kaufkraft als Autoritätsargument? :|

tombman
2005-10-05, 20:24:30
Kaufkraft als Autoritätsargument? :|
Erfahrung, stell dich ned so blöd.

Johnny Rico
2005-10-05, 20:27:49
bin enttäuscht =(

Die XL mit Dual Slot Kühlung und min. 50 Euro billiger als die GT, ansonsten wird das nix ATI. -.-

tombman
2005-10-05, 20:28:10
Du führst ein einziges Beispiel an. |
EIn einziges Beispiel? Kannst lesen?

SLIAA-SuperAA,
w.a. AF - w.a. AF,
Optimierungen-Optimierungen

Die machen sich doch sowieso alles nach

MartinRiggs
2005-10-05, 20:28:36
Was hier für Grabenkämpfe wegen ner Grafikkarte stattfinden das ist echt unnormal!!!!
Alle die NV haben sagen NV ist doch sowieso besser, die hatten besseres AF nicht nötig :crazy:
Andere probieren die ATI´s wegen den Launchpreisen schlecht zu reden(die immer sehr hoch sind) und andere Auswüchse.
FAKT ist doch
1. gibt es endlich Konkurrenz und es ist relativ ausgeglichen, wie immer eigentlich
2. ATI hat was and der Bildqualität gemacht im positiven Sinne
Falls NV im Punkt AF nachlegt freut euch und hört auf NV als Halbgott in Weiß darzustellen, schließlich wollen wir alle beim Zocken schöne Bilder sehen.
3. Jeder soll doch die Karte kaufen die seinem Gusto entspricht.
4. Die meisten die jaulen haben für ne High-End Karte eh keine Kohle bzw. haben sie für was anderes nötig.
5. Ist das Niveau teilweise im Bereich Kindergarten.

Musste ich jetzt einfach mal loswerden, auch wenn teilweise OT :biggrin:

A.Wesker
2005-10-05, 20:28:46
Weil... ? Weil Du es hoffst? Ich hoffe es auch, aber was spricht dafür?

Du führst ein einziges Beispiel an. Und davon willst Du auf die Regel schließen? Jede derartig angefertigte Argumentation würde völlig zerrissen!

Falls Du meinst, daß nV irgendwann nachlegen wird, stimme ich Dir zu, schließlich kommen sie nur schwerlich drum herum, den BQ-Standard unten zu halten.
Nur ist nunmal die Frage völlig offen, ob NV4X Hardware HQ-AF auch kann.



Interessante Benches, nur nützen sie uns nicht viel, wenn kein G70 ebenso gebencht wird. Ich vermute, daß dieser ebenso stark einbrechen würde, da FarCry einen überdurchschnittlich hohen AAA-/TSSAA-anfällig Szenenanteil hat.



Kaufkraft als Autoritätsargument? :|

Die 7800 GTX verliert in Far Cry ganze 6 % durch TRSAA

Demirug
2005-10-05, 20:29:43
Ob es im GPU-Bereich gut ist? Die haben ja unbedint GDDR3 haben wollen, um es direkter zu haben. Nun diese Kehrtwendung. :|
Man müsste die Grenzen mit genaueren Benches ausloten. Vor allem der Ringspeicher klingt interessant.

GDDR3 ist nicht direkter sondern einfach nur schneller.

Dem Ringbus (nicht Speicher; war ein Tippfehler von mir) wird man mit einem Benchmark kaum ausmessen können. Der ist einfach zu tief im Chip.

Karümel
2005-10-05, 20:31:19
Falls die Antwort hier schon rgendwo stand bitte um Entschuldigung.

Hat jemand einen Verdacht oder die Ahnung weshalb die neuen ATI Karten so gut in FEAR abschneiden?
Dort ist ja so wie ich das auf die Schnelle gesehen habe der größte Vorsprung vorhanden, ansonsten sind die Karten ja relativ "gleich auf"

blackbox
2005-10-05, 20:31:44
Ich verstehe hier die vielen User nicht, die den Preis verteidigen.
Der Preis ist eindeutig zu hoch angesetzt. Ich richte mich beim Kauf doch nicht daran, dass der Preis irgendwann man sinken könnte. Außerdem ist immer der Vergleich zur GTX da. Und da ist der X1800 zu teuer. Man beachte, dass auf die jetztige Situation Rücksicht genommen werden sollte und nicht auf das, was kommen könnte. Da die X1800 erst jetzt kommt, hätte man von Anfang an moderatere Preise festlegen müssen, die sich am aktuellen Markt orientieren und nicht an einem Markt, wo ATI glaubt, dass sie die alleinigen Marktführer sind in dem Segment. Ich verstehe die Leute nicht, die diesen überhöhten Preis verteidigen, nur weil dieser irgendwann mal sinkt. Auch der Preis der GTX wird irgendwann man sinken. Aber darauf kommt es nicht an. Ich sehe ATI mit der X1800 mit vielen Nachteilen behaftet, dazu zählt der Preis, die Verfügbarkeit, keine Infos über AGP-Versionen und zur Zeit kein Crossfire. Das gilt wie gesagt für die X1800, die sich sowieso nur wenige leisten können. Um die X1600 ist es noch viel schlimmer bestellt. Sie erscheint noch später, ist leistungsmäßig bisher enttäuschend und ist überteuert.

Black-Scorpion
2005-10-05, 20:32:19
Die 7800 GTX verliert in Far Cry ganze 6 % durch TRSAA
Schließt du wieder von deinem auf alle anderen Rechner?

MadManniMan
2005-10-05, 20:33:10
Wesker: ja, diese Pauschalisierung ging seit den ersten G70-Artikeln umher.
Ohne ein genau derartig angefertigtes Diagramm seitens HotHardware nützt uns das leider überhaupt nichts.
Wenn allerdings derart nachgewiesen würde, daß ATi AA lahm ist, wäre ich der erste, der laut aufschreit.

Einziges Kriterium ist leider, wenn gleiche Benches von selben Leuten mit R520 und G70 gemacht werden *schulterzuck*


Erfahrung, stell dich ned so blöd.

Und ich bin raus, war unterhaltsam mit Dir.

Die gelbe Eule
2005-10-05, 20:33:43
GDDR3 ist nicht direkter sondern einfach nur schneller.

Dem Ringbus (nicht Speicher; war ein Tippfehler von mir) wird man mit einem Benchmark kaum ausmessen können. Der ist einfach zu tief im Chip.

*Festnagel*

Was bringt der ominöse Ringbus nun?

A.Wesker
2005-10-05, 20:33:57
Schließt du wieder von deinem auf alle anderen Rechner?
die GTX bleibt eine GTX, egal ob sie bei mir drin steckt oder in einem testrechner, somit wird sie auch in einem testrechner um die 6 % verlieren.

Coda
2005-10-05, 20:33:57
Schließt du wieder von deinem auf alle anderen Rechner?Wieso kann er das nicht? Bei ihm ist die CPU auf jedenfall nicht der limitierende Faktor...

Demirug
2005-10-05, 20:37:35
*Festnagel*

Was bringt der ominöse Ringbus nun?

Eine höhere maximale interne Bandbreite.

Die gelbe Eule
2005-10-05, 20:39:45
Theoretisch oder auch praktisch ?

Black-Scorpion
2005-10-05, 20:40:20
Wieso kann er das nicht? Bei ihm ist die CPU auf jedenfall nicht der limitierende Faktor...
Aber vielleicht bei anderen?
Warum liefern verschiedene Systeme mir einer Karte unterschiedliche Ergebnisse?

Demirug
2005-10-05, 20:41:38
Theoretisch oder auch praktisch ?

Das kann dir nur ATI sagen. Wahrscheinlich bringt er was weil man solche veränderungen ja vorher simuliert.

A.Wesker
2005-10-05, 20:42:03
Aber vielleicht bei anderen?
Warum liefern verschiedene Systeme mir einer Karte unterschiedliche Ergebnisse?
das ist wieder eine andere geschichte, der prozentuale einbruch bleibt trotzdem ca gleich

Coda
2005-10-05, 20:42:25
Aber vielleicht bei anderen?
Warum liefern verschiedene Systeme mir einer Karte unterschiedliche Ergebnisse?Naja, dann kann der Einbruch aber höchstens noch höher werden. Ein GPU Limit lässt sich doch nicht durch eine langsamere CPU umgehen...