PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI oder nVidia fürs nächste Jahr?


Gast
2004-08-06, 19:48:01
Ist die neue von ATI die Radeon X800 XT oder die Geforce 6800 Ultra schneller in DirectX9 Spielen? und welche Karte hat die besten Technologien für die Zukunft (nächsten eineinhalb Jahre)?

Unreal Freezer
2004-08-06, 19:58:59
Also ich würd auf jeden Fall die Radeon 800XT nehmen, die gibst aber noch nicht zu kaufen also Pro die ist aber auch gut. nvidia ist zwar auch nicht viel schlechter aber sich ist lauter, brauch mehr Strom, mehr platz. Auch im Mittelklassebereich ist ATi empfehlenswerter. Bin kein ATi Freak, hab selbst nVidia - nur Geforce4. Radeon ist halt XTrem besser.

Halema
2004-08-06, 19:59:21
man wieviele gäste gibt es eigentlich und lest ihr eigentlich nie die anderen beiträge hier im forum durch? nächstes mal bitte registrieren. es gibt hier so ein mega gästeansturm

aber zurück zu deiner frage:

die bessere technik hat die 6800ultra, da sie das schadermodel 3 unterstützt und dadurch mehr leisten kann. in den letzten tests war immer die 6800ultra schneller als die karte von ati (farcry, doom3, etc.), verbraucht aber mehr strom und ist lauter.

eigentlich sind beide karte top, aber wenn ich soviel geld ausgeben würde, dann würde ich zur 6800 ultra greifen

mfg halema

Raff
2004-08-06, 20:01:11
Die beiden nehmen sich wirklich nicht viel, mal ist die eine, mal die andere schneller. Sowohl mit einer 6800U als auch mit einer X800 XT wirst du einige Zeit Ruhe haben, denn beide bieten mehr als ausreichend Leistung.
Dennoch dürfte die nVidia-Karte dank SM3.0 in kommenden Spielen (geringe) Vorteile gegenüber der ATi-Konkurrenz haben.

MfG,
Raff

dildo4u
2004-08-06, 20:05:35
Ich würde eine 6800U mit dann whol erhältlichen VGA silencer holen leiser und kühlt besser als der Refrenz kühler

M@g
2004-08-06, 20:11:50
Kommt ja drauf an ob die Spieleentwickler SM3 gescheit nutzen oder nur blabla abliefern wie Crytek...
Und ich nehme mal an, das sich die beiden Highend Karten in den meisten spielen nichts geben werden, es sei denn man spielt 1600+ Auflösungen, da wird es sich zeigen in wie weit SM3 da auf die Sprünge helfen kann.

Wer z.b. in 1280 spielt der kann auch getrost zu ner GT oder der vieleicht kommenden X800 GT (oder normal XT, wer weis was da kommt...) greifen. Da sich X800Pro und GT imoment nicht viel geben, aber die GT den Doom3 Bonus inne hat, ist die wohl der Favorit, und im unteren Segment wirds ja nochmal richtig spannend, wie die 6800 "normal" gegen die 6600 und gegen die "kleinen" X800 (X600) bestehen kann.

Gast
2004-08-07, 20:39:25
Aber die Radeon X800 Serie besitzt 3Dc, was auch nochmal zu Shader 2.0b Leistung bringt!

Raver
2004-08-07, 21:40:00
Kommt ja drauf an ob die Spieleentwickler SM3 gescheit nutzen oder nur blabla abliefern wie Crytek...
Und ich nehme mal an, das sich die beiden Highend Karten in den meisten spielen nichts geben werden, es sei denn man spielt 1600+ Auflösungen, da wird es sich zeigen in wie weit SM3 da auf die Sprünge helfen kann.

Wer z.b. in 1280 spielt der kann auch getrost zu ner GT oder der vieleicht kommenden X800 GT (oder normal XT, wer weis was da kommt...) greifen. Da sich X800Pro und GT imoment nicht viel geben, aber die GT den Doom3 Bonus inne hat, ist die wohl der Favorit, und im unteren Segment wirds ja nochmal richtig spannend, wie die 6800 "normal" gegen die 6600 und gegen die "kleinen" X800 (X600) bestehen kann.

crytek wird bessere effekte erst mit patch 1.3 liefern. Das ist allgemein bekannt.

so zum thema: es bleibt deiner Volieben belassen was du am ende nimmst. Ich persöhlich tendiere aktuell zu nvidia wegen bessere Technik.

kmf
2004-08-07, 22:04:40
moved ins passende Forum.

Wallman
2004-08-07, 22:07:27
Wenn du deine Grafikkarte länger als 1 Jahr behalten willst, dann rate
ich dir dringend zur Geforce. So wies aussieht bringt ATI nächstes Jahr
auch SM3.0, wodurch diese Shaderversion für min. 1 Jahr der Standard
wird. Also für die Zukunft ist die Geforce wohl die sichere Variante!

M@g
2004-08-07, 22:19:49
@Raver
SM3 Unterstützung soll seit Patch 1.1 drin sein, ist es wohl nicht, ich habe da auch nicht an neue Effekte gedacht, eher an mehr Speed, wie der zurückgezogene Patch1.2 ja gezeigt hat, geht da was.
So stelle ich mir das auch in anderen Spielen vor.

Zum Topic: Wenn man genug Geld hat ist es egal ob man die XTPE oder die 68Ultra nimmt, die halten min 1 Jahr, der Leistungssprung gegenüber der alten Highend Fraktion ist einfach gewaltig.
Technologisch betrachtet steht nV imoment besser da, SM3 ist fester Bestandteil von DX9 und wird auch von ATI bald eingebaut, 3DC (ATI´s Komprimierungsverfahren für NormalMaps) ist sicher auch interessant aber wer weis ob das nicht auch im Sand verläuft wie Trueform.
Beide Firmen sagen ja, 3DC und SM3, sind sehr einfach zu implementieren, jetzt muss es nur noch umgesetzt werden :)

tombman
2004-08-07, 22:43:41
man wieviele gäste gibt es eigentlich und lest ihr eigentlich in den letzten tests war immer die 6800ultra schneller als die karte von ati (farcry, doom3, etc.),

Falsch. Die X800XTPE ist die schnellste Karte für far cry. Und in 75% aller games ist die X800XTPE die schnellste Karte (siehe Xbit labs Sommerbericht)

Die Nvidia ist bei Doom3 schneller und hat natürlich sm 3.0, was später mal nützlich werden kann, jetzt bringts in games noch keinen Vorteil gegenüber dem sm 2.0b von ATI.

MikBach
2004-08-07, 22:50:31
Falsch. Die X800XTPE ist die schnellste Karte für far cry. Und in 75% aller games ist die X800XTPE die schnellste Karte (siehe Xbit labs Sommerbericht)

Die Nvidia ist bei Doom3 schneller und hat natürlich sm 3.0, was später mal nützlich werden kann, jetzt bringts in games noch keinen Vorteil gegenüber dem sm 2.0b von ATI.

*unterschreib* :)

tokugawa
2004-08-07, 23:58:06
Ich werd die Fragen mal analytisch vorgehen.

Ist die neue von ATI die Radeon X800 XT oder die Geforce 6800 Ultra schneller in DirectX9 Spielen?

Kann man nicht sagen, da verschiedene Spiele verschiedene Anforderungen an verschiedene Einheiten der Grafikkarte haben. Auch wenn nominell die meisten DirectX9 Spiele an die ATI gehen, sind für mich beide Karten gleichwertig in diesem Bezug, sie nehmen sich nicht viel, und der Unterschied liegt meiner Ansicht nach in einem Bereich der kaum wahrnehmbar ist (also innerhalb der statistischen Streuung in einem Bereich, wo weder die eine noch die andere ausreißt).

und welche Karte hat die besten Technologien für die Zukunft (nächsten eineinhalb Jahre)?

Hier allerdings lautet die Antwort eindeutig NV40. Sie ist die Karte mit der moderneren Technik und den moderneren Features. Meiner Ansicht nach ist die Überlegenheit in Doom 3 und OpenGL generell relativ bezeichnend, denn unter OpenGL stehen neue Features schneller zur Verfügung (durch vendor-specific Extensions, in diesem Fall unterstützt die NV40 sogar einige ATI-spezifische Extensions), nutzt man diese (was derzeit nur Entwickler tun), zeigt sich die Überlegenheit der NV40 schon sehr stark.

Für "Spiele" taugen jedenfalls beide, und ja, auch für Doom 3. Ich halte die ATI nicht für "unspielbar langsam", ist doch trotz Überlegenheit der NV40 in Doom 3 trotzdem sehr flüssig spielbar auf der X800.

Bei Spielen sehe ich also analytisch einen Gleichstand.

MikBach
2004-08-08, 00:17:37
Ich werd die Fragen mal analytisch vorgehen.

Ist die neue von ATI die Radeon X800 XT oder die Geforce 6800 Ultra schneller in DirectX9 Spielen?

Kann man nicht sagen, da verschiedene Spiele verschiedene Anforderungen an verschiedene Einheiten der Grafikkarte haben. Auch wenn nominell die meisten DirectX9 Spiele an die ATI gehen, sind für mich beide Karten gleichwertig in diesem Bezug, sie nehmen sich nicht viel, und der Unterschied liegt meiner Ansicht nach in einem Bereich der kaum wahrnehmbar ist (also innerhalb der statistischen Streuung in einem Bereich, wo weder die eine noch die andere ausreißt).

Da hast du zum Teil Recht.
Allerdings ist die X800XT in den meisten Spíelen geringfügig schneller. Das ist nicht von der Hand zu weisen.

und welche Karte hat die besten Technologien für die Zukunft (nächsten eineinhalb Jahre)?

Hier allerdings lautet die Antwort eindeutig NV40. Sie ist die Karte mit der moderneren Technik und den moderneren Features. Meiner Ansicht nach ist die Überlegenheit in Doom 3 und OpenGL generell relativ bezeichnend, denn unter OpenGL stehen neue Features schneller zur Verfügung (durch vendor-specific Extensions, in diesem Fall unterstützt die NV40 sogar einige ATI-spezifische Extensions), nutzt man diese (was derzeit nur Entwickler tun), zeigt sich die Überlegenheit der NV40 schon sehr stark.

Das mit der Technologie stimmt schon. ;)
Die Gamer interessiert allerdings nur was "hinten" rauskommt, und das ist bei ATI schneller. Ob und wann die fortschrittlichere Techink bei dem NV40 Vorteile brignt , müssen wir abwarte(oder kannst Du es es uns sagen-in der Praxis?)

Für "Spiele" taugen jedenfalls beide, und ja, auch für Doom 3. Ich halte die ATI nicht für "unspielbar langsam", ist doch trotz Überlegenheit der NV40 in Doom 3 trotzdem sehr flüssig spielbar auf der X800.

Bei Spielen sehe ich also analytisch einen Gleichstand.

Na ja, in den meisten Spielen ist ATI bisschen schneller, bei D3 ist Nvidia dafür deutlich schneller(was man aber auf die "Einseitigkeit" der Programmierung schieben kann).

Ich würde mich auch schwer tun bei einem Kauf. So wie ich das zur Zeit sehe:
ca. 400€: 6800GT
ca. 500€: X800XT

Die Unterschiede sind aber wirklich sehr gering.

ironMonkey
2004-08-08, 00:25:24
Was für ATI spricht ist das kurze PCB und der niedrige Verbrauch, der Rest wurde ja schon geschríeben.



Gruß

tokugawa
2004-08-08, 00:37:10
Da hast du zum Teil Recht.
Na ja, in den meisten Spielen ist ATI bisschen schneller, bei D3 ist Nvidia dafür deutlich schneller(was man aber auf die "Einseitigkeit" der Programmierung schieben kann).


Das wurde schon oft durchgekaut. Ich bleibe dabei, dass die vielen performance-steigernden NVIDIA-OpenGL-Extensions, die ja ATI nicht hat (die die Hardware auch nicht unterstützen würde), den Unterschied ausmachen. Also mit anderen Worten, Hardware-Features, die Doom 3 extrem viel nützen, und die eben durch OpenGL-Extensions direkt exponiert werden. Also keine "einseitige Programmierung", sondern Nutzung von dem, was die Hardware eben bietet.

PS: Ehrlich, mehr als 200€ will ich für eine Graka nicht ausgeben, und das sag ich sowohl als Spieler als auch als Programmierer...

BinVadim
2004-08-09, 19:56:56
... ich weiss nicht aber ... ist dieser (... ehe pro nVidia) Frage nicht erst nach D3 release so aktuell geworden. Ich glaube wenn HL2 rauskommt wird diese Frage noch mal gestellt (... und da Valve mit ATI zusammenarbeitet wird es ehe pro ATI Frage) ;)

Unregistrierter
2004-08-10, 01:35:48
es kann fuer dich nur eine ati karte in frage kommen. die vorteile sind einfach xtrem. nvidia ist leider keine echte alternative fuer einen gamer. ausser du moechtest nur gl spiele spielen. davon gibt es aber "gott sei dank" nur sehr wenige.

die meisten vorteile hat ati zu bieten. das kannst du in allen zeitschriften und in allen serioesen tests nachlesen.

nvidia hat stark nachgelassen ... belohnt sie bitte nicht dafuer, in dem ihr nvidia produkte kauft.

WEGA
2004-08-10, 02:12:09
Ist die neue von ATI die Radeon X800 XT oder die Geforce 6800 Ultra schneller in DirectX9 Spielen? und welche Karte hat die besten Technologien für die Zukunft (nächsten eineinhalb Jahre)?


ich hatte vor meiner x800pro auch ne gf4 ti und ich kann sie nur empfehlen. mein main-game sieht zu meiner überraschung extrem besser aus als mit der nvidia karte. die gf6 kann ich nicht empfehlen. die brauchen unwirtschaftlich viel strom und wiegen dank der größe des boards und des kühlers warscheinlcih das 5 fache einer x800

MannDesAuges
2004-08-10, 12:59:05
Was für ATI spricht ist das kurze PCB und der niedrige Verbrauch, der Rest wurde ja schon geschríeben.

Gruß

ich hatte vor meiner x800pro auch ne gf4 ti und ich kann sie nur empfehlen. mein main-game sieht zu meiner überraschung extrem besser aus als mit der nvidia karte. die gf6 kann ich nicht empfehlen. die brauchen unwirtschaftlich viel strom und wiegen dank der größe des boards und des kühlers warscheinlcih das 5 fache einer x800

Also Leute, es gibt so viele Kinderforen - warum müsst ihr euch mit solchen Kommentaren hier rumtreiben? :P
Ich kann das unqualifizierte Gejammer über "mehr Strom", oder "lauter Lüfter" à la NV30 echt nicht mehr hören; einfach irgendwas nachplappern, ohne sich über den tatsächlichen Stand zu informieren. :crazy:
Und klar, ein paar Zentimeter mehr PCB sind ja das Killerkriterium. :lolaway:

Wer 300 € plus für ne Graka hinlegt, kann den geringen Mehrverbrauch wohl verkraften. Der NV40 hat mehr Features = mehr Transistoren und zieht daher mehr Strom. Ein P4 3,0 GHz oder A64 3200+ brauchen auch mehr Strom als ein P III, leisten dafür eben mehr. Das gleiche gilt für den Vergleich NV40 zu R420.

Ich akzeptiere noch "Argumente" wie: Ati-Rot ist geiler, DX9=Ati rulez, Speed über Alles, oder NVidia ist böse - da lässt sich schlecht argumentieren :heilig2: - aber nicht die Obigen!

Hellknight[FA]
2004-08-10, 13:56:33
ich hatte vor meiner x800pro auch ne gf4 ti und ich kann sie nur empfehlen. mein main-game sieht zu meiner überraschung extrem besser aus als mit der nvidia karte. die gf6 kann ich nicht empfehlen. die brauchen unwirtschaftlich viel strom und wiegen dank der größe des boards und des kühlers warscheinlcih das 5 fache einer x800

NVidia's Topmodelle brauchen auch nicht mehr Strom als eine GeForce FX 5950. Außerdem wiegen sie auch nicht wesentlich mehr als die ATi-Konkurrenz (nur die Ultra ist etwas schwerer als das XT PE Pendant).

Die Referenz GT ist sogar vom (Gefühl her :D) leichter als ne Referenz X800pro.


Zusammenfassend kann ich nur sagen, daß Du aufgrund solch haarsträubender Behauptungen noch nie eine GeForce 6 besessen hast oder?



Genau - dacht' ich mir :D ;)



Grüße

Timo

betasilie
2004-08-10, 14:52:33
Die Karten tun sich nicht viel. Die ATI Karten sind zwar z.Zt. etwas schneller im Schnitt, dafür bieten die NV-Karten ggf. nächstes Jahr durch SM3.0 enige Vorteile. STALKER ist z.B. so ein Kandidat, da es wahrscheinlich SM3.0 recht intensiv nutzen wird.

WEGA
2004-08-10, 17:10:52
Also Leute, es gibt so viele Kinderforen - warum müsst ihr euch mit solchen Kommentaren hier rumtreiben? :P
Ich kann das unqualifizierte Gejammer über "mehr Strom", oder "lauter Lüfter" à la NV30 echt nicht mehr hören; einfach irgendwas nachplappern, ohne sich über den tatsächlichen Stand zu informieren. :crazy:
Und klar, ein paar Zentimeter mehr PCB sind ja das Killerkriterium. :lolaway:

Wer 300 € plus für ne Graka hinlegt, kann den geringen Mehrverbrauch wohl verkraften. Der NV40 hat mehr Features = mehr Transistoren und zieht daher mehr Strom. Ein P4 3,0 GHz oder A64 3200+ brauchen auch mehr Strom als ein P III, leisten dafür eben mehr. Das gleiche gilt für den Vergleich NV40 zu R420.

Ich akzeptiere noch "Argumente" wie: Ati-Rot ist geiler, DX9=Ati rulez, Speed über Alles, oder NVidia ist böse - da lässt sich schlecht argumentieren :heilig2: - aber nicht die Obigen!


kann mich nicht erinnern, dass ich was über die lautstärke geschrieben habe. wer sich hier informieren sollte bist wohl besser du !

edit: rofl, das gilt aber nicht für ati und nvidia !! eine x800xt hat mehr leistung wie ne 6800U (doom3 ist ne ausnahme) eine 6800u braucht 110W und ne x800xt-pe 63W unter volllast.

also informier dich gefälligst fanboy !

übrigends kenn ich keine "kinderforen" aber du scheinst dich ja prächtig auszukennen

VooDoo7mx
2004-08-10, 17:30:20
Ich kann nur noch dem Kopf schütteln, was einige Leute hier für einen Quark von sich geben.

Zum Stromverbrauch:

Wie schon gesagt wurde, ist der Stromverbrauch für einen potentiellen X800XT PE oder 6800Ultra Käufer zu 1000% unwichtig.
Leute die sich solche Grafikkarten kaufen, haben auch die schnellsten CPUs und andere stromfressende Komponenten.

Wer wirklich im stromsparen ambitioniert ist, kauft sich ein kleines Barebone mit Onboard Grafik und 150Watt Netzteil.

Eine Via Eden Nano ITX Plattform dürfte zusammen mit optischen und meschanischen Laufwerken nicht einmal 50Watt insgesamt ohne Monitor verbrauchen.

Wer stromsparend spielen möchte, kann z.B. auch auf Konsolen zurückgreifen. Mein Gamecube ist z.B. sehr genügsam.

Das nenne ich Strom sparen!

Ein Moderner High End PC mit 19"TFT oder CRT verbraucht zusammen im Gesamtwerk locker 300-400Watt. Da kommts auf 20Watt weniger durch die Grafikkarte definitv nicht mehr an.

Aber ich bin ja mal nicht so und gebe ein kleines Rechenbeispiel:

- Eine 6800Ultra verbraucht 20 Watt mehr als eine X800XTPE

- 20 Watt sind 0,02 kWatt

- Ich bezahle für eine Kilowattstunde 14,38 Cent.

Fangen wir an zu rechnen:

24 x 0,02 = 0,48

Würde mein Rechner also 24h am Tag laufen, hätte ich mit einer 6800Ultra einen Mehrverbrauch von 0,48 kW/h und Mehrkosten in der Höhe von 6,9024 Cent im Vergleich zur X800XT PE.
Rechnen wir das mal auf ein Jahr hoch.

0,48 x 365 = 175,2

175,2 x 14,38 Cent = 25,19376 €

Würde mein Rechner also jeden einzelnen Tag 24h, dass ganze Jahr lang laufen, hätte ich mit einer 6800Ultra einen Mehrverbrauch von 175,2 kW/h und Mehrkosten in der Höhe von 25,19376 € im Vergleich zur X800XT PE.
Ich denke aber, kein normaler Mench lässt seinen Rechner das ganze Jahr ohne Pause laufen.
Mein Rechner z.B. ist allerallerhöchstens 25% des Jahres zeitmäig eingeschaltet. Also rechnen wie mal maximal 6h je Tag an. Es gibt aber auch Tage, da schalte ich meinen Rechner überhaupt nicht oder deutlich weniger Stunden ein, also dürfte auch dieses Ergebnis im Endeffekt viel zu hoch sein.

25,19376 € x 0,25 = 6,29844 €

Am Ende stürze ich mich beim Betrieb einer 6800Ultra in ca 5€ Mehrkosten im Jahr, im Vergleich zu einer X800XT PE.

Der helle Wahnsinn?
Ich verstehe es einfach nicht, was einige Leute, für einen Aufstand wegen 5€/Jahr machen. Für ein Gerät was man allerhöchstens 2 Jahre (ich nur 1 Jahr) effektiv einsetzen/nutzen wird.
Die meisten hier, bezahlen nicht einmal ihren Strom selber...

Der allergrößte Witz ist aber, dass ein lustiger ex GF4 Ti Besitzer sich über die größe der Platine bei der GF6800U beschwert.
Die Platine ist genauso lang, wie die meiner alten GeForce4Ti 4400...
Mehr sage ich dazu einfach nicht.

Leute die auch keine der beiden Karten besitzen sollten sich auch erst gar nicht zu Praxiserfahrungen, wie z.B. der Lausträke äußern.
Zwischen irgendwelchen Testsamples und realen Endprodukten liegen meistens Welten.

Meine X800Pro würde ich nicht gerade als leise bezeichnen.
Mein Rechner ist im allgemeinen alles andere als leise und erzeugt ein deutlich hörbares tiefes/sonores Geräusch der Lüfter.
Der Propeller der X800Pro ist aber am nervigsten. Besonders jetzt wo es warm ist, dreht der im 3D Betrieb auch ziemlich zu einen nervigen hochfrequenten Surren auf welches man sehr deutlich aus dem sonoren Geräuschen der großen Lüfter raushören kann.

Aber selbst diese Diskussion ist total unnötig.
Viele Hersteller (besonders die, die NV Karten herstellern) bieten komplett andere Kühllösungen als die Referenz an.

Einigen Leute sollten endlich mal einsehen, was sie eigentlich für einen dummen Nonsens schreiben.

Aber Hauptsache, man hat irgendwas in der Hand, um gegen nVidia zu wettern...

Traurig...

Doomi
2004-08-10, 17:34:45
Gähn..

Wartet auf die MSI GT mit MSI-Design .. Vorteile:

- extrem leiser Lüfter
- niedriger Stromverbrauch ( nur ein Stromanschluss )
- schickes Outfit der Karte dank rotem PCB und "ATI - lüfter " :)
- bessere Leistung als X800 pro laut vielen Reviews
- bessere Technik als X800 pro

so, das war zwar jetzt alles wieder nur Zeug was hier sowie so alle schon wissen aber ich wollt auch mal wieder meinen Senf dazugeben da ich auch auf die MSI GT warte :)

( eine teurere Karte kauf ich mir auf alle Fälle nicht.. )

onkel2003
2004-08-10, 17:37:24
Ich kann nur noch dem Kopf schütteln, was einige Leute hier für einen Quark von sich geben.

Zum Stromverbrauch:

Wie schon gesagt wurde, ist der Stromverbrauch für einen potentiellen X800XT PE oder 6800Ultra Käufer zu 1000% unwichtig.
Leute die sich solche Grafikkarten kaufen, haben auch die schnellsten CPUs und andere stromfressende Komponenten.

Wer wirklich im stromsparen ambitioniert ist, kauft sich ein kleines Barebone mit Onboard Grafik und 150Watt Netzteil.

Eine Via Eden Nano ITX Plattform dürfte zusammen mit optischen und meschanischen Laufwerken nicht einmal 50Watt insgesamt ohne Monitor verbrauchen.

Wer stromsparend spielen möchte, kann z.B. auch auf Konsolen zurückgreifen. Mein Gamecube ist z.B. sehr genügsam.

Das nenne ich Strom sparen!

Ein Moderner High End PC mit 19"TFT oder CRT verbraucht zusammen im Gesamtwerk locker 300-400Watt. Da kommts auf 20Watt weniger durch die Grafikkarte definitv nicht mehr an.

Aber ich bin ja mal nicht so und gebe ein kleines Rechenbeispiel:

- Eine 6800Ultra verbraucht 20 Watt mehr als eine X800XTPE

- 20 Watt sind 0,02 kWatt

- Ich bezahle für eine Kilowattstunde 14,38 Cent.

Fangen wir an zu rechnen:

24 x 0,02 = 0,48

Würde mein Rechner also 24h am Tag laufen, hätte ich mit einer 6800Ultra einen Mehrverbrauch von 0,48 kW/h und Mehrkosten in der Höhe von 6,9024 Cent im Vergleich zur X800XT PE.
Rechnen wir das mal auf ein Jahr hoch.

0,48 x 365 = 175,2

175,2 x 14,38 Cent = 25,19376 €

Würde mein Rechner also jeden einzelnen Tag 24h, dass ganze Jahr lang laufen, hätte ich mit einer 6800Ultra einen Mehrverbrauch von 175,2 kW/h und Mehrkosten in der Höhe von 25,19376 € im Vergleich zur X800XT PE.
Ich denke aber, kein normaler Mench lässt seinen Rechner das ganze Jahr ohne Pause laufen.
Mein Rechner z.B. ist allerallerhöchstens 25% des Jahres zeitmäig eingeschaltet. Also rechnen wie mal maximal 6h je Tag an. Es gibt aber auch Tage, da schalte ich meinen Rechner überhaupt nicht oder deutlich weniger Stunden ein, also dürfte auch dieses Ergebnis im Endeffekt viel zu hoch sein.

25,19376 € x 0,25 = 6,29844 €

Am Ende stürze ich mich beim Betrieb einer 6800Ultra in ca 5€ Mehrkosten im Jahr, im Vergleich zu einer X800XT PE.

Der helle Wahnsinn?
Ich verstehe es einfach nicht, was einige Leute, für einen Aufstand wegen 5€/Jahr machen. Für ein Gerät was man allerhöchstens 2 Jahre (ich nur 1 Jahr) effektiv einsetzen/nutzen wird.
Die meisten hier, bezahlen nicht einmal ihren Strom selber...

Der allergrößte Witz ist aber, dass ein lustiger ex GF4 Ti Besitzer sich über die größe der Platine bei der GF6800U beschwert.
Die Platine ist genauso lang, wie die meiner alten GeForce4Ti 4400...
Mehr sage ich dazu einfach nicht.

Leute die auch keine der beiden Karten besitzen sollten sich auch erst gar nicht zu Praxiserfahrungen, wie z.B. der Lausträke äußern.
Zwischen irgendwelchen Testsamples und realen Endprodukten liegen meistens Welten.

Meine X800Pro würde ich nicht gerade als leise bezeichnen.
Mein Rechner ist im allgemeinen alles andere als leise und erzeugt ein deutlich hörbares tiefes/sonores Geräusch der Lüfter.
Der Propeller der X800Pro ist aber am nervigsten. Besonders jetzt wo es warm ist, dreht der im 3D Betrieb auch ziemlich zu einen nervigen hochfrequenten Surren auf welches man sehr deutlich aus dem sonoren Geräuschen der großen Lüfter raushören kann.

Aber selbst diese Diskussion ist total unnötig.
Viele Hersteller (besonders die, die NV Karten herstellern) bieten komplett andere Kühllösungen als die Referenz an.

Einigen Leute sollten endlich mal einsehen, was sie eigentlich für einen dummen Nonsens schreiben.

Aber Hauptsache, man hat irgendwas in der Hand, um gegen nVidia zu wettern...

Traurig...

Das war einfach mal, Direkt, Präzise, und 100 % richtig.

Auch wenn es dir jetzt einige, übel nehmen werden ;-)

ironMonkey
2004-08-10, 18:27:51
Und klar, ein paar Zentimeter mehr PCB sind ja das Killerkriterium. :lolaway:
Ich akzeptiere noch "Argumente" wie: Ati-Rot ist geiler, DX9=Ati rulez, Speed über Alles, oder NVidia ist böse - da lässt sich schlecht argumentieren :heilig2: - aber nicht die Obigen!

Ich bekomme keine Ti4600/5900Ulra und keine 6800Ultra in den Rechner, die 5900XT passt ganz knapp.

Gegen die Rechnung von Voodoomx7 kann ich natürlich nichts sagen da sie zu 90% richtig ist da er das NT nicht miteingerechnet hat, kann also gut sein das ich mit einer X800XT nichts spare, oder wenn ich ein 480NT nehme noch mehr Geld verheize, aber es ist und bleibt ein + Punkt für ATI zumal es nur 1 bauteil von mehreren ist wo man etwas Strom sparen kann.


Gruß

LovesuckZ
2004-08-10, 18:39:37
Warum erst jetzt das Stromsparargument auftaucht, verwundert mich. Noch vor einem halben Jahr hat niemand die Stromsparmaßnahmen von Nvidia gewuerdigt...
Nun, wenn du die Auswahl zwischen einer X800XT(Pe) oder einer 6800Ultra hast, dann nimm die erste Karte. Sie ist mit (AA)/AF deutlich schneller aufgrund des 30% hoeheren Coretaktes.