PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gamestar und die GF6800U


asskicker
2004-06-03, 17:23:19
Hi,
ich weiß, hier wurde schon viel über die GS hergezogen,
ich les das Ding zwar immer noch gern, alles glaub ich denen deswegen aber auch nich.
Aber was da heut wieder fürn Blödsinn drinstand:
Test der neuen Radeons gegen GF 6800 U und 6800 U Extreme.
Die beiden unterscheiden sich lediglich im Chiptakt (450 zu 400 MHz) Und trotzdem soll die None-Extreme unter Far Cry teilweise lediglich 40 % der Leistung der erstgenannten
brinngen ? Was issn das fürn Bullshit ? Wie kann man sowas
nur drucken???

LovesuckZ
2004-06-03, 17:28:10
Ich denke, man hat die 6800UE mit dem 61.11 getestet. Dieser behebt ein großes Problem in Farcry, bringt aber leider gleich 5 kleinere mit dazu...

asskicker
2004-06-03, 17:52:10
Das erklärt doch aber nich warum die 6800 U Extreme
über 100% schneller sein soll als die None Extreme.
Die werden doch nich die beiden karten mit unterschiedlichen Treibern gebencht haben ?
Ich denke eher dass sich da ein messfehler eingeschlichen
hat und der Bench hätte wiederholt werden müssen.
Dass muss doch selbst dem dämlichsten Redakteur auffallen,
dass an den Zahlen was nich stimmen kann.

LovesuckZ
2004-06-03, 18:00:42
Doch, dass kann hinhauen. Siehe auch einen Bericht von Chip.de (finde ihn nicht...). In diesem wurde der 61.11 getestet, der durch die Behebung eines Fehlers 50% Mehrleistung brachte. Daneben wird kein AA mehr verwendet, wenn man es im Controlplanel einstellt. Tester, die nicht aufpassen, werden dies übersehen und nur mit AF dann vergleichen.

asskicker
2004-06-03, 18:45:49
Ja dann is es doch aber peinlich, wenn die die Extreme
mit nem anderen Treiber testen als die "normale" Ultra.

[RSC]ripper
2004-06-03, 20:19:57
Hab mich auch aufgeregt.
Mein Hintergrund Gedanke:
Da die Extreme eh nie auf den Markt kommen soll (außer als Express) wollen sie die Ultra schlecht machen.
Leßt euch die Kommentare vom Visarius mal durch. DEr ist klar parteiisch für Radeon

LovesuckZ
2004-06-03, 20:27:11
Original geschrieben von [RSC]ripper
Leßt euch die Kommentare vom Visarius mal durch. DEr ist klar parteiisch für Radeon

Das würde ich gerne, leider fehlt mir die zeitung dazu ^^
Ansonsten kann man auf die Tests in den Spielezeitschriften nichts geben.

ironMonkey
2004-06-03, 20:49:26
Nach dem Motto: Bild war dabei Bild sprach mit Frikadelle.

Ich verlasse mich an sich auf tests von Usern die auch mit den Karten Zocken/Arbeiten.


Gruß

[RSC]ripper
2004-06-04, 00:08:21
Mit Superlativen soll man vorsichtig sein. Doch was tun, wenn ATI ihre Konkurrentin Nvidia derart alt aussehen lässt? Die Radeon X800XT fegt die 6800Ultra trotz etwa 30 Prozent weniger Transistoren locker weg. Die GF Extreme erreicht zwar das gleiche, extreme hohe Leistungsnibeau, ist aber teurer, viel lauter und erhöht durch ihren Energiebedarf die PC-Temperaur.

KLARER FALL:
Durch die flüsterleisen X800-Lüfter kann ich endlich in Ruhe DVDs schauen. Auf die Zusatz-Features der 6800Ultra verzichte ich im direkten Vergleich gern. Denn die werden dieses Jahr, wenn überhaupt, nur sehr spärlich eingesetzt. Weniger ist manchmal mehr: Für mich sind die beiden X800-Modelledie besten Grafikkarten überhaupt - klare Kaufempfehlung!

Xtrem besser

1. Die Nvidia Karten sind schneller als die von ATI.
2. Nvidia hat zwar mehr Transistoren aber weniger Core Takt.
3. Die 6800U verbraucht 95W, die X800XT 90W. Wow was ein unterschied.

4. Ich guck meine Filme auch immer ohne SOund, sodass mich der Lüfter stört. :(
5. Warum auf Zusatzfeatures verzichten wenn man sie haben kann.
6. Für mich nicht!

Visarius du Pfeife

:chainsaw:

Gast
2004-06-04, 02:20:46
1. Die Nvidia Karten sind schneller als die von ATI

Ja allerdings nur ohne AA und AF, und wer kauft sich ne
Highend Karte und nutzt dann kein AA und AF.....

3. Die 6800U verbraucht 95W, die X800XT 90W. Wow was ein unterschied.

Deswegen hat die nVidia 6800u auch 2 stromanschlüsse,
weil sie so wenig verbraucht, tolle logic

5. Warum auf Zusatzfeatures verzichten wenn man sie haben kann.

Es gibt gerade mal 1 Game (Far Cry) das von Shadern 2.0
im grossen mase gebrauch macht, shader 3.0 werden noch
sehr lange ungenutzt bleiben, wär ja schön wenn
mehr Games DX9 einsetzen würden, ups geht ja nicht,
dank nVidias FX karten gibts ja nicht viele
Karten auf dem Markt die WIRKLICH DX9 können

Gast
2004-06-04, 04:33:40
Hier sieht man das die nVidia Karten deutlich mehr strom verbrauchen:
http://www.3dcenter.de/artikel/2004/05-05.php

Gast
2004-06-04, 04:37:24
Die 6800u verbraucht 111 watt und die X800Xt nur 80,
das sind über 30% weniger.

Gast
2004-06-04, 07:33:47
Original geschrieben von Gast
Ja allerdings nur ohne AA und AF, und wer kauft sich ne
Highend Karte und nutzt dann kein AA und AF.....



Deswegen hat die nVidia 6800u auch 2 stromanschlüsse,
weil sie so wenig verbraucht, tolle logic


Es gibt gerade mal 1 Game (Far Cry) das von Shadern 2.0
im grossen mase gebrauch macht, shader 3.0 werden noch
sehr lange ungenutzt bleiben, wär ja schön wenn
mehr Games DX9 einsetzen würden, ups geht ja nicht,
dank nVidias FX karten gibts ja nicht viele
Karten auf dem Markt die WIRKLICH DX9 können
wwitzbold, jede fx5200 kann in sachen dx9 mehr als ne 9800

Gast
2004-06-04, 07:43:19
wwitzbold, jede fx5200 kann in sachen dx9 mehr als ne 9800

Darum wurden auch bei Far Cry (einziges game das massiv DX9
efekte einsätzt)seit Patch 1.1 Pixel/vertex shader 2.0
auf nVidia Karten deaktiviert, so das jetzt shader
1.0 eingesetzt werden (DX8) Da die Performance
der Fx Karten mit shadern 2.0 unspielbar war.........

Muhbaer
2004-06-04, 10:15:34
Hmm also wenn ich mir das wieder so ansehe, verstärkt sich meine meinung das die gs immer unkopetenter und subjektiver in sachen hw tests wird, traurig. Bekommt man direkt lust sich im gs forum anzumelden und die leute dort etwas wach zu rütteln.

Und jetzt noch meine persönliche meinung zu nv40 und r420. (Nein ich bin weder ati fanboy noch nv fanboy)
Also was nv mit dem 3X chip damals in sachen dx9 und ps 2 machte war einfach nur scheisse. Da gibt es nix schönzureden und zu rütteln. Einfach nur erniedrigend wenn man sieht wie bei einem freund mit schwächeren komponeten und Ra9600XT fc 30% besser mit VOLLER bq läuft als auf dem eigenen sys mit Ge5900.
Ganz klar also, beim vergleich R3XX vs NV3X gewinnt die ati fraktion mit teilweise 80% leistungsunterschied.

Mit dem nv40 jedoch scheint nv allerding wieder auf den ursprünglichen pfad, des graka leistungskönigs, zurück gekommen zu sein. Wenn der nv40 in 1600x1200 und full aa/af 20% langsamer is als R420 dann is mir das ehrlich gesagt schnuppe. In den wirklich relevanten auflösungen und bq settings 1024/1280x768/1024(960) + 4 x aa und 8 x af liegt die 6800U meistens gleichauf mit X800XT beziehungsweise ist schnell. Das kann man aus diversen, objektiven und nachvollziehbaren tests absehn (neustes beispiel PGH). Und die meisten vergessen eins, beide cheaten, ati jedoch mehr und die bis jetzt aufgedeckten cheats werden noch lang nicht die letzten gewesen sein. Warum ich mir da so sicher bin ? Weil ati angesichst der nv40 performance ziemlich schockiert gewesen sein muss und so alles aus den treiber und den chips (520mhz ist wahrscheinlich auch das max.) heraus, im ggsatz zu nv die noch genug reserven in 2 sparten hat. Lasst die nv40 noch ein paar wochen bzw monate reifen und ihr werden sehn das ati mit veralter technik nicht mehr dagg ankommt.

[dzp]Viper
2004-06-04, 11:10:39
Original geschrieben von Muhbaer
Mit dem nv40 jedoch scheint nv allerding wieder auf den ursprünglichen pfad, des graka leistungskönigs, zurück gekommen zu sein. Wenn der nv40 in 1600x1200 und full aa/af 20% langsamer is als R420 dann is mir das ehrlich gesagt schnuppe. In den wirklich relevanten auflösungen und bq settings 1024/1280x768/1024(960) + 4 x aa und 8 x af liegt die 6800U meistens gleichauf mit X800XT beziehungsweise ist schnell. Das kann man aus diversen, objektiven und nachvollziehbaren tests absehn (neustes beispiel PGH). Und die meisten vergessen eins, beide cheaten, ati jedoch mehr und die bis jetzt aufgedeckten cheats werden noch lang nicht die letzten gewesen sein. Warum ich mir da so sicher bin ? Weil ati angesichst der nv40 performance ziemlich schockiert gewesen sein muss und so alles aus den treiber und den chips (520mhz ist wahrscheinlich auch das max.) heraus, im ggsatz zu nv die noch genug reserven in 2 sparten hat. Lasst die nv40 noch ein paar wochen bzw monate reifen und ihr werden sehn das ati mit veralter technik nicht mehr dagg ankommt.

man sollte nicht von einem setting über alle spiele urteilen. Es gibt auch massig spiele, wo die x800xt wesentlich schneller ist als eine nv40 (z.b. Colin4, Painkiller, Farcry, ...)

Es gibt halt spiele die laufen auf NV karten besser (SS, Opengl Spiele) und es gibt spiele die laufen auf ATI karten besser.
Wer sich jetzt entscheiden will, der sollte auf die Spiele achten:
"Welche Spiele spiele ich? Welche Grafikkarte ist bei meinen Favorisierten Spielen am schnellsten?"
-> Spiele ich vorzugsweise Painkiller - Colin4 - Farcry - ... dann die ATI karte
-> Spiele ich sehr viele Opengl Spiele, dann vorzugsweise die NV karte
Danach sollte man momentan seine Grafikkarte kaufen!

starsnake
2004-06-07, 21:21:05
tja,
nur dass man das so im Vorwege immer nicht so genau weiss, auf welcher Engine das Spiel, das man gerne mag, denn wohl laufen wird.
Und so ein bisschen kauft man die Grafikkarte ja auch immer für die Zukunft und nicht nur, damit die alten sachen endlich mit 4xFSAA und 8x AF laufen, obwohl...., wäre auch eine nette Idee, vor allem wenn man gerne Budget Spiele spielt.
bis denne
Henning

Gast
2004-06-13, 00:25:09
Die Gamestar hat recht, dass die kaka ist. ATi ist eben besser. Naturgesetzt!

Gast
2004-06-13, 00:42:37
Wer gerne Altes kauft und auf Treibersorgen steht kauft ATI!

SKYNET
2004-06-13, 00:49:08
Original geschrieben von Gast
Wer gerne Altes kauft und auf Treibersorgen steht kauft ATI!

*tired*

/me unterschreibt das mal

Original geschrieben von Gast
Die Gamestar hat recht, dass die kaka ist. ATi ist eben besser. Naturgesetzt!

:lol:

BvB123
2004-06-13, 14:10:36
Original geschrieben von Gast
Die Gamestar hat recht, dass die kaka ist. ATi ist eben besser. Naturgesetzt!


:chainsaw:

Immer diese Gäste:rail:

Aquaschaf
2004-06-13, 14:29:31
Original geschrieben von Gast
Wer gerne Altes kauft und auf Treibersorgen steht kauft ATI!

Du liest sehr selektiv. Noch in diesem Thread wird von Problemen des NV-Treibers gesprochen, schon schreibst du man solle wegen der Treiber kein ATI kaufen. Mal ganz unabhängig davon, was "wirklich" besser ist ;)

Grestorn
2004-06-13, 15:30:33
Original geschrieben von Aquaschaf
Du liest sehr selektiv. Noch in diesem Thread wird von Problemen des NV-Treibers gesprochen, schon schreibst du man solle wegen der Treiber kein ATI kaufen. Mal ganz unabhängig davon, was "wirklich" besser ist ;)
Der Beta-Version des Treibers...

Konami
2004-06-13, 17:06:17
Original geschrieben von Gast
Ja allerdings nur ohne AA und AF, und wer kauft sich ne
Highend Karte und nutzt dann kein AA und AF.....nein, der NV40 ist insgesamt schneller.. der leistungsschub bei ATi liegt nur am AF cheating

Original geschrieben von Gast
Es gibt gerade mal 1 Game (Far Cry) das von Shadern 2.0
im grossen mase gebrauch macht, shader 3.0 werden noch
sehr lange ungenutzt bleiben, wär ja schön wenn
mehr Games DX9 einsetzen würden, ups geht ja nicht,
dank nVidias FX karten gibts ja nicht viele
Karten auf dem Markt die WIRKLICH DX9 könnenweißt du überhaupt was der unterschied zwischen den 2.0 und den 3.0 shadern ist?? scheinbar nicht... die 3.0 bringen einfach nur performance, durch verschiedene optimierungen (z.B. wenn viele ähnliche objekte an einer stelle sind, z.B. ein geröllfeld mit lauter steinen, wird nur ein einziger stein berechnet, und dessen eigenschaften werden auf alle anderen steine, mit geringen zufälligen abwandlungen, übertragen), deshalb wird wahrscheinlich schon sehr bald das shader modell 3.0 genutzt werden... denn kein entwickler wird einfach so die performance verschenken

Original geschrieben von Gast
wwitzbold, jede fx5200 kann in sachen dx9 mehr als ne 9800:|

Original geschrieben von Gast
Die Gamestar hat recht, dass die kaka ist. ATi ist eben besser. Naturgesetzt! :lolaway: :lol: ...geilo, gibts noch mehr von euch? X-D

@ topic: schon irgendwie lustig, dass die GameStar leute mit 2 verschiedenen treibern benchen... :|

Gast
2004-06-13, 17:38:35
Nvidia benutzt doch ebenso ne Filteroptimierung. In dieser
Graka Generation nehmen sich Nvidia und ATI nicht viel,
was das verschlechtern der Bildquali angeht. Da man das
ganze im Spiel nicht wahrnimmt finde ich daran nur verwerf-
lich, dass die AF Optimierung nicht offengelegt wurde.
Die 9600XT benutzt die optimierung ja schon ein Jahr und
kein Schwein hats gemerkt.

Konami
2004-06-13, 18:06:35
Original geschrieben von Gast
Nvidia benutzt doch ebenso ne Filteroptimierung. In dieser
Graka Generation nehmen sich Nvidia und ATI nicht viel,
was das verschlechtern der Bildquali angeht. Da man das
ganze im Spiel nicht wahrnimmt finde ich daran nur verwerf-
lich, dass die AF Optimierung nicht offengelegt wurde.
Die 9600XT benutzt die optimierung ja schon ein Jahr und
kein Schwein hats gemerkt. 1. dass es nicht offengelegt wurde und
2. dass mans nicht deaktiviern kann... (oder?)

SKYNET
2004-06-13, 18:38:54
Original geschrieben von M4N!@C


X-D :lolaway: :lol: ...LOL, lange nicht mehr so gelacht X-D



er hat recht, 5200er kann schader 2.0a 9800 nur 2.0

Konami
2004-06-14, 17:13:55
Original geschrieben von SKYNET
er hat recht, 5200er kann schader 2.0a 9800 nur 2.0 ich entschuldige mich, und nehme alles zurück... :o :|

Tjell
2004-06-14, 17:22:43
Original geschrieben von SKYNET
er hat recht, 5200er kann schader 2.0a 9800 nur 2.0

Ich sags mal mit den Worten aus der Golf-Werbung:
"Fährt jetzt auch geradeaus."

Etwas können und etwas gut können sind zwei verschiedene Paar Schuhe. :)

Konami
2004-06-14, 18:09:48
Original geschrieben von Tjell
Ich sags mal mit den Worten aus der Golf-Werbung:
"Fährt jetzt auch geradeaus."

Etwas können und etwas gut können sind zwei verschiedene Paar Schuhe. :) naja, was der werte herr gast jetzt mit "in sachen dx 9 können" steht aber in den sternen... falls er dx9 darstellungsfähigkeiten (also wenn man die fps mal ignoriert X-D) meinte, kanns vllt. sein...

bei allem anderen isses natürlich schon zum lachen ;)