PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie wichtig ist SM 3.0 wirklich wenn ich eine Karte 2 Jahre haben will


Nero2
2005-03-06, 18:13:37
Hallo,

mir platzt gleich der Kopf weg.
Es ist echt unglaublich wie lange und tief man sich mit einem Grafikkartenkauf beschäftigen kann.

Die unmengen von Threads die ich gefunden habe teilweise sehr umfangreich und leider auch hin und wieder verwirrend und gegensätzlich.

Ich will im April einen neuen Rechner für mich kaufen, genauso will meine Freundin ihren Rechner neu bauen. Es sollte zwei Jahre halten, also bis Ende 2006 / Anfang 2007.
Nach 10 Jahren Intel wollen wir beide auf AMD umsteigen wegen der Verlustleistung bzw. Cool n Quiet und, naja, weil intel derzeit einfach nicht bei Verstand ist. Es wird wohl irgend was zwischen Winchester 3000+ und 3500+ mit Asus Nforce4 Board PCI Express. Kein AGP!
Von SLI halte ich nichts weil die neuen Chip Generationen so kurzen Abständen kommen dass es keinen Sinn macht. Wenn jemand SLI heute nicht braucht, braucht er es auch morgen nicht.

NVIDIA Pro
SM 3.0
Die Elfe (kam von meiner Freundin)

Contra
Bildqualität 2D und vorallem Filter
Stromversorgung

ATi Pro
Ich glaube weniger Stromverbrauch
2D / Filter Qualität

Contra
Kein SM 3.0

Lieblingsgenres von mir:
Shooter und Arcade Rennen.

Lieblingsgenre von meiner Freundin
Rollenspiele und Aufbaustrategie

Was mach ich den jetzt? Eine Playstation kaufen? :)

Schöne Grüße
Nero

Coda
2005-03-06, 18:17:28
Bildqualität 2D und vorallem FilterBildqualität 2D ist nicht schlechter, das kommt auf den Boardhersteller an. Das AF ist etwas flimmerig, das stimmt. Mich stört es aber nicht großartig.

StromversorgungDie GeForce 6800 Ultra Karten ziehen den kompletten Strom aus der externen Stromversorgung, daher brauchen sie 2 Stecker. Das sind aber nur ungefähr 10W mehr als bei einer vergleichbaren ATi Karte. XBit Labs hat das mal gemessen.

Imho ist das kein Grund deshalb eine ATi zu kaufen.

http://www.xbitlabs.com/images/video/geforce6600gt-oc/ati_vs_nvidia.gif

Rollenspiele und AufbaustrategieDafür sollten SM 2.0 Karten in den nächsten 2 Jahren eigentlich noch reichen.

Wobei die 6600GT eigentlich von der Preis/Leistung gerade sehr gut dasteht im Gegensatz zu ATi bei ~200€. Ab 300€ gäbe es die X800 XL von ATi, die ist da auch sehr gut. Wie groß ist das Budget eigentlich?

Kladderadatsch
2005-03-06, 18:19:47
sm3 ist irgendwie kein kaufgrund. zwar soll damit auch ps2 schneller ausgeführt werden, allerdings schaffts ati ja auch mit der "alten" technik gegen nvidia mehr als bestehen zu können.
und diese only-sm3-effekte laufen auf den heutigen karten noch so grottig, dass sie höchstens für screenshots taugen...

doch bevor man dir eine wirkliche antwort geben kann, musst du erst mal deine ansprüche schreiben...

mapel110
2005-03-06, 18:21:08
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html
zum Thema Leistungsaufnahme

Coda
2005-03-06, 18:23:09
und diese only-sm3-effekte laufen auf den heutigen karten noch so grottig, dass sie höchstens für screenshots taugen...Nein. Splinter Cell 3 läuft mit SM 3.0 nicht langsamer als SM 1.1. Auch Far Cry hat durch SM 3.0 auf nVidia einen Geschwindigkeitsboost bekommen.
Es ist nicht so, dass SM 3.0 grundsätzlich schlechte Performance bedeutet (eher im Gegenteil. SM 2.0 Shader sind als SM 3.0 kompiliert niemals langsamer, können aber schneller sein)

Exxtreme
2005-03-06, 18:27:46
sm3 ist irgendwie kein kaufgrund. zwar soll damit auch ps2 schneller ausgeführt werden, allerdings schaffts ati ja auch mit der "alten" technik gegen nvidia mehr als bestehen zu können.
Kommt auf den Content an. SM2 -> SM3 ist schnell gemacht, bringt auf NV4x-Karten oft einen netten Speed-Boost und das war's. ATi kann aber trotzdem schneller sein weil sie hohere Taktraten fahren.

Ist der Content aber von vorneherein auf SM3 ausgelegt dann ist es nicht mehr so easy das auf SM2-Karten lauffähig zu machen. Und hier könnte der NV4x auch schneller sein wie die Konkurrenz.

Kladderadatsch
2005-03-06, 18:50:43
Nein. Splinter Cell 3 läuft mit SM 3.0 nicht langsamer als SM 1.1.

:uclap: ;)

gibts in sp3 dadurch dann auch eine visuelle verbesserung? in far cry? wenn ja, nehm ich die behauptung zurück. (in far cry gibts doch verbesserungen in sachen lichtberechnung etc.? aber doch auch nur, weil diese für fx der performance wegen vereinfacht wurden, nicht, weil sie es nicht könnte?)

außerdem sprach ich von den features wie dieses hdr in far cry, welches doch nur mit sm3-karten funktioniert.
--> ist von der performance her imo absolut untauglich.
das sm3- wasser in pacific figthers wurde doch auch ganz stolz angekündigt?
--> performance ist gerade so vertretbar. "ich brauch 80 fps"-freaks sind da natürlich ganz anderer meinung,
also features, mit denen nvidia so großartig wirbt. ich kaufte mir meine nu jedenfalls nicht, um sm3 zu haben;)


Kommt auf den Content an. SM2 -> SM3 ist schnell gemacht, bringt auf NV4x-Karten oft einen netten Speed-Boost und das war's. ATi kann aber trotzdem schneller sein weil sie hohere Taktraten fahren.

Ist der Content aber von vorneherein auf SM3 ausgelegt dann ist es nicht mehr so easy das auf SM2-Karten lauffähig zu machen. Und hier könnte der NV4x auch schneller sein wie die Konkurrenz.

ich bin mal gespannt, wie sich da der r520 präsentiert. eigentlich müsste nvidia in sachen ps3 nun ja die größere erfahrung haben, was sich in der nächsten (neuen) generation bemerkbar machen solte...

mir kommt es so vor, als seien die heutigen nv40-karten für ihre grafischen möglichkeiten völig "underskilled";)

Coda
2005-03-06, 19:01:33
gibts in sp3 dadurch dann auch eine visuelle verbesserung?Ja, deutliche sogar.

außerdem sprach ich von den features wie dieses hdr in far cry, welches doch nur mit sm3-karten funktioniert.Falsch. Das hat nix mit dem Shadermodel zu tun.

Kladderadatsch
2005-03-06, 19:07:56
Falsch. Das hat nix mit dem Shadermodel zu tun.

warum läufts dann nur auf geforce karten?:confused:

mapel110
2005-03-06, 19:10:12
warum läufts dann nur auf geforce karten?:confused:
Weil ATI Transistoren gespart hat, um den Chiptakt hochprügeln zu können.

Coda
2005-03-06, 19:12:48
warum läufts dann nur auf geforce karten?Weil ATi keine FP ROPs verbaut hat, das ist aber unabhängig vom Shaderlevel. HDR ist z.B. genauso mit SM 2.0 möglich auf NV40.

Exxtreme
2005-03-06, 19:13:00
ich bin mal gespannt, wie sich da der r520 präsentiert. eigentlich müsste nvidia in sachen ps3 nun ja die größere erfahrung haben, was sich in der nächsten (neuen) generation bemerkbar machen solte...

Ich bin auch gespannt wie sich der R520 schlägt. Und auf irgendwelche "Erfahrungen" würde ich nicht unbedingt viel geben. Wie hiess es damals beim NV30? 3dfx-KnowHow und deren Erfahrung beim AA. Tja, ATi konnte das spielend überbieten mit dem R300. Viele Verfahren in der 3D-Grafik sind schon seit Jahrzehnten bekannt. Man muss sie nur in Hardware giessen. Die Frage ist jetzt ob es ein IHV auch tut. Denn vieles kostet viele Transistoren und erhöht auch damit die Kosten.
mir kommt es so vor, als seien die heutigen nv40-karten für ihre grafischen möglichkeiten völig "underskilled";)
Sind sie auch. Meist fehlt's an Speicherbandbreite. Die Speicherbandbreite reicht nicht mal aus um alle Pipelines zu versorgen. Kommt noch HDR, AA oder so dazu dann gute Nacht. :)

Komischerweise gab es bei Nvidia eigentlich schon immer viele Karten, die chronisch zu wenig Bandbreite hatten.

Coda
2005-03-06, 19:27:39
Und wo genau hat der R420 nicht zuwenig Bandbreite? Das dürfte eigentlich weitaus schlimmer sein, weil dort noch mehr Füllrate auf noch weniger Speicherbandbreite trifft.

Kladderadatsch
2005-03-06, 19:28:15
k, danke für die aufkärung;)
ich dachte, nvidia wäre "nur" was ihre ps3 angeht vorschrittlicher. da geht ati doch einen weg, der ihnen irgendwann unweigerlich bitter aufstoßen muss?

aber um noch einmal annähernd auf das thema zurückzukommen:
kaufgrund pro nvidia: "wer viel wagt, der viel gewinnt";)

Exxtreme
2005-03-06, 19:30:03
Und wo genau hat der R420 nicht zuwenig Bandbreite?
:confused:

Ich habe den R420 gar nicht erwähnt. :|

Kladderadatsch
2005-03-06, 19:30:39
:confused:

Ich habe den R420 gar nicht erwähnt. :|

Komischerweise gab es bei Nvidia eigentlich schon immer viele Karten, die chronisch zu wenig Bandbreite hatten.

indirekt ;)

Coda
2005-03-06, 19:30:48
Das war auf "Komischerweise gab es bei Nvidia eigentlich schon immer viele Karten, die chronisch zu wenig Bandbreite hatten." bezogen.
Das ist bei ATi auch nicht anders und ein generelles Problem der Branche ;)

So wie's zur Zeit ausschaut könnte das sogar beim R520 noch schlimmer werden, außer ATi verbaut unwahrscheinlicherweiße ein 384 oder sogar 512 bit Interface.

Exxtreme
2005-03-06, 19:35:14
Das war auf "Komischerweise gab es bei Nvidia eigentlich schon immer viele Karten, die chronisch zu wenig Bandbreite hatten." bezogen.
Das ist bei ATi auch nicht anders und ein generelles Problem der Branche ;)

So wie's zur Zeit ausschaut könnte das sogar beim R520 noch schlimmer werden, außer ATi verbaut unwahrscheinlicherweiße ein 384 oder sogar 512 bit Interface.
Naja, der R420 ist AFAIK so ziemlich der einzige Chip von ATi, der recht heftig zu wenig Bandbreite bekommt. Bei Nvidia ist das anders. Da wären die TNT1, TNT2, GF1 SDR, GF2 GTS und jetzt der NV40. :D


Und die Zeit ist reif für ein breiteres Speicherinterface. =)

Coda
2005-03-06, 19:36:28
Und die Zeit ist reif für ein breiteres Speicherinterface. Ja, allerdings ist das mit immensen PCB Kosten verbunden.

mapel110
2005-03-06, 19:37:51
Naja, der R420 ist AFAIK so ziemlich der einzige Chip von ATi, der recht heftig zu wenig Bandbreite bekommt. Bei Nvidia ist das anders. Da wären die TNT1, TNT2, GF1 SDR, GF2 GTS und jetzt der NV40. :D


Und die Zeit ist reif für ein breiteres Speicherinterface. =)

g2 GTS? 128bit DDR? du meinst vielleicht g2MX?

Ja, allerdings ist das mit immensen PCB Kosten verbunden.
fürs High End aber bestimmt möglich.

Exxtreme
2005-03-06, 19:38:43
Ja, allerdings ist das mit immensen PCB Kosten verbunden.
War beim Wechsel 128 Bit -> 256 Bit auch so. =)

Wobei auch die Stückzahl mitentscheidend ist.

Coda
2005-03-06, 19:39:12
Vielleicht schon, ich müsste mal bei der Arbeit nachfragen wie viel höher die Kosten da sind.

War beim Wechsel 128 Bit -> 256 Bit auch so. Das Problem ist ja dass sich die Komplexität nicht nur verdoppelt, sondern wohl quadriert von 256->512. Also müssten das die Stückzahlen auch entsprechend mehr werden ;)

Kladderadatsch
2005-03-06, 19:41:39
was ist denn beim r520/nv50 am wahrscheinlichsten?

mapel110
2005-03-06, 19:43:19
was ist denn beim r520/nv50 am wahrscheinlichsten?

256bit; mit natürlich schnellerem Speicher.

Coda
2005-03-06, 19:43:50
Ich tippe zu auf weiterhin 256-bit, aber nur knapp ;)

Exxtreme
2005-03-06, 19:45:45
Das Problem ist ja dass sich die Komplexität nicht nur verdoppelt, sondern wohl quadriert von 256->512. Also müssten das die Stückzahlen auch entsprechend mehr werden ;)
Jo. Wobei ATi wohl kaum eine andere Wahl hat wenn sie sich vom NV40 spürbar absetzen wollen. Ich sehe auch kaum noch spielraum nach oben um den Speed eines R420 zu verdoppeln ohne ein breiteres Speicherinterface. Mehr Pipelines machen keinen Sinn bei einem 256-bittigen Speicherinterface. Mehr Pipelines braucht ATi aber wenn sie einen ordentlichen Geschwindigkeitssprung machen wollen.

Coda
2005-03-06, 19:48:42
Warum geht ihr eigentlich immer davon aus dass R520 so eine Wunderkarte sein soll? :rolleyes:

mit "doppelter Leistung" zum Vorgänger wurde schon immer geworben.

Und mehr Pipelines machen sehr wohl Sinn, weil das bei zukünftigen shaderlimitierten Spielen trotzdem Performance bringt.

Exxtreme
2005-03-06, 19:57:07
Warum geht ihr eigentlich immer davon aus dass R520 so eine Wunderkarte sein soll? :rolleyes:

mit "doppelter Leistung" zum Vorgänger wurde schon immer geworben.
ATi hat es aber auch eigentlich immer geschafft den Speed zu verdoppeln spätestens dann wenn AA + AF ins Spiel kam.

Deshalb sehe ich keinen Grund dafür warum es diesmal nicht so sein sollte.

Und mehr Pipelines machen sehr wohl Sinn, weil das bei zukünftigen shaderlimitierten Spielen trotzdem Performance bringt.
Das stimmt. Aber spätestens beim Einsatz von HDR dürfte das kaum was bringen. Da hilft nur Speicherbandbreite. Will sich ATi also absetzen von Konkurrenz dann müssen sie hauptsächlich an der Bandbreite drehen.

Coda
2005-03-06, 19:59:16
ATi hat es aber auch eigentlich immer geschafft den Speed zu verdoppeln spätestens dann wenn AA + AF ins Spiel kam.Eben. Das ist aber kein "Wunder", sondern ganz normal.

Das stimmt. Aber spätestens beim Einsatz von HDR dürfte das kaum was bringen. Da hilft nur Speicherbandbreite. Will sich ATi also absetzen von Konkurrenz dann müssen sie hauptsächlich an der Bandbreite drehen.Ich weiß nicht, aber ich gehe nicht davon aus das R520 vor dem noch nicht bekannten NV40 Nachfolger liegen wird.

Kladderadatsch
2005-03-06, 19:59:33
wird zukünftig nicht viel mehr die bandbreite der limitierende faktor sein- das ist doch heute schon der fall?!

Coda
2005-03-06, 20:02:18
Ich hab doch "shaderlimitiert" geschrieben oder? :rolleyes:

Und bei komplexen Pixelshadern kommst du nicht so leicht in diesen Bereich. Mit HDR natürlich schon eher.

Kladderadatsch
2005-03-06, 20:03:13
Ich hab doch "shaderlimitiert" geschrieben oder? :rolleyes:

Und bei komplexen Pixelshadern kommst du nicht so leicht in diesen Bereich. Mit HDR natürlich schon eher.

hab auch schon editiert;)

LovesuckZ
2005-03-06, 20:05:02
wird zukünftig nicht viel mehr die bandbreite der limitierende faktor sein- das ist doch heute schon der fall?!

Je komplexer die Shader werden, umso weniger spielt die Brandbreite eine Rolle.

Exxtreme
2005-03-06, 20:05:33
Eben. Das ist aber kein "Wunder", sondern ganz normal.

Das Wort "Wunder" habe ich in dieser Diskussion auch nicht erwähnt. =)

Ich weiß nicht, aber ich gehe nicht davon aus das R520 vor dem noch nicht bekannten NV40 Nachfolger liegen wird.
Keine Ahnung. Schau'mer mal.

Coda
2005-03-06, 20:06:43
Keine Ahnung. Schau'mer mal.Exakt. Ich bin da immer skeptisch bei "Wundern" ;)

Kladderadatsch
2005-03-06, 20:12:03
Je komplexer die Shader werden, umso weniger spielt die Brandbreite eine Rolle.

entweder ersetzen komplexere shader bandbreite-fressende effekte, oder ich werde missverstanden:
mir ergibt sich kein sinn darin, mehr und mehr pipelines für komplexere shader zu verbauen, wobei es nebenher schon an ganz anderen ecken, eben der bandbreite, hapert...

sffdg
2005-03-06, 20:19:00
je aufwändiger die shader werden, und je mehr man auf (ordentliches) AF setzt, desto weniger wichtig wird die bandbreite.

der NV40 ist imo (ohne HDR) oft genug nicht am bandbreitenlimit, der r420 dagegen öfter, was wohl am höheren takt und evtl. auch am etwas weniger effizienten interface liegt.

Tütenraucher
2005-03-06, 20:20:36
ATi hat es aber auch eigentlich immer geschafft den Speed zu verdoppeln spätestens dann wenn AA + AF ins Spiel kam.

Deshalb sehe ich keinen Grund dafür warum es diesmal nicht so sein sollte.

Das stimmt. Aber spätestens beim Einsatz von HDR dürfte das kaum was bringen. Da hilft nur Speicherbandbreite. Will sich ATi also absetzen von Konkurrenz dann müssen sie hauptsächlich an der Bandbreite drehen.

Hmm was für Eckdaten müsste dann der R520 haben um doppelt so schnell bei AA+AF zu sein?

Thanatos
2005-03-06, 22:03:43
Also in einer etwas älteren augabe der PCGH war eine andeutung dass der R520, der ja soweit ich weis auch in die Xbox2 eingebaut werden soll, leider nur in einer abgespeckten, aber auf jedenfall anderen version auf den PC Markt kommen.

Coda
2005-03-06, 22:05:01
Die XBox hat einen R500 keinen R520, das ist was ganz anderes vorraussichtlich.

mapel110
2005-03-06, 23:44:58
Ich weiß nicht, aber ich gehe nicht davon aus das R520 vor dem noch nicht bekannten NV40 Nachfolger liegen wird.

Ist auch recht schwer von auszugehen, weil nvidia ja den Vorteil hat, aus einem bereits lauffähigen SM3-chip Erfahrungen zu sammeln.

Hauwech
2005-03-07, 00:06:19
Ist auch recht schwer von auszugehen, weil nvidia ja den Vorteil hat, aus einem bereits lauffähigen SM3-chip Erfahrungen zu sammeln.

Stimmt schon aber ATI ist auch nicht doof. Die haben sich NV40 bestimmt ganz genau angeschaut und auch entsprechende Schwächen ausgemacht. Was Verbesserungen in den entsprechenden Bereichen bringen könnten, können sie mit ziemlicher Wahrscheinlichkeit auch recht gut abschätzen und mit ihrem Chip vergleichen.

Zumindest können sie eigentlich ziemlich sicher sein, dass Nvidia sie nicht mit entsprechend hoch getakteten Speicherchips und damit Bandbreitenvorteil überraschen kann. ;)

Nero2
2005-03-07, 10:00:26
Ich sehe, dass ich der technischen Diskussion nicht folgen kann.

Erstaunlich finde ich nur dass überall in aktuellen Spielen SM 3.0 aufkommt und selbst alte Spiele nachgepacht werden. Wenn ich jetzt ATI nehme habe ich die befürchtung in einem halben Jahr dazusitzen und nach Release des R520 überall SM3.0 zu sehen nur bei mir nicht. Die Befürchtung stellt sich aber daher ein, weil ich auch nicht wirklich weiss was SM3.0 wirklich bringt. SM2.0 Spiele mit SM3.0 Patch sollen merkbar besser laufen. SM3.0 Spiele sollen angeblich schlecht laufen mit den aktuellen Chips wobei ich immer von Auflösungen jenseits 1024*786 lese. Ich spiele Shooter in 800*600 damit nicht alles zu klein wird, Meine Partnerin spiel aussschließlich in 1024*768. Bei höheren Auflösungen werden die Menüs, Icons ect. einfach zu klein. Daher wäre uns beiden Bildqualität auf jeden Fall VOR hohe Auflösung wichtig.
Meine Partnerin hat damals auf Ti4800 aufgerüstet damit sie die DirectX Effecte in Morrowind sehen kann. Das ist, nochmal, die Befürchtung. Neverwinter Nights 2 kommt dann evtl. mit irgendwelchen SM3.0 Effekten, mögen sie noch so klein aber dafür sehr schön sein, und sie sitzt mit einer 300 Euro SM2.0 Karte da. Wiederum hätte sie mit Ati aber die bessere Bildqualität.
Es ist zum verzweifeln.
Mein Budget wäre übrigens bei 300 Euro, dass meiner Partnerin ebenfalls. Hier ist das Geld aus dem Verkauf unserer Ti4800er bereits eingerechnet.

Atis 520 soll im Mai kommen. Das wäre ja evtl noch ertragbar zu erwarten aber dann erscheint sicher erstmal eine dicke XT Version für 600+ Euro und bis günsigere erscheinen dauert es noch länger.

Grestorn
2005-03-07, 10:37:50
[...] Meine Partnerin spiel aussschließlich in 1024*768. Bei höheren Auflösungen werden die Menüs, Icons ect. einfach zu klein. [...]Das muss man von Spiel zu Spiel unterscheiden. Einige Spiele skalieren die Oberfläche und die Schrift mit, so dass sie bei höherer Auflösung genauso groß bleibt, aber "glätter" wirkt. Ich glaube, für Morrowind gabs da auch eine Möglichkeit.

[...]Wiederum hätte sie mit Ati aber die bessere Bildqualität. [...]Das ist ein immer wieder gern von ATI-Fans geschührtes Gerücht, das einfach nicht stimmt, wie jeder der beide Karten *gleichzeitig* einsetzen kann, bestätigen wird.

Von der Qualität sind praktisch keine Unterschiede mit dem bloßen Auge wahrnehmbar. Und das gilt auch für das angebliche "Flimmern".

Unterschiede gibt's in den Anti-Aliasing Modi. ATI hat 6x Multisampling mit Gamma-Korrktur, nVidia dafür jede Menge verschiedener Modi, inklusive Supersampling. Jeder muss wissen, was einem wichtiger ist.

Eine 100% richtige Antwort auf Dein Dilemma gibt es nicht. Wenn es so wäre, würden alle nur bei einem Hersteller kaufen.

Wenn Dir Zukunftssicherheit wichtig ist, dann hol Dir ne 6800 (ne GT wird in ein paar Wochen für gut € 300 zu haben sein, da bin ich mir ziemlich sicher). Wenn Dir das etwas bessere Preis/Leistungsverhältnis (wenn man nur auf die Frames/s und nicht auf die Features schaut) einer X800XL und ihr guter Ruf wichtiger ist, dann hol Dir eine X800XL.

ergtu
2005-03-07, 11:37:09
Von der Qualität sind praktisch keine Unterschiede mit dem bloßen Auge wahrnehmbar. Und das gilt auch für das angebliche "Flimmern".


das kann ich bestätigen (zumindest zwischen 9800pro und nv40)

was mir persönlich am ati-treiber nicht zusagt ist, dass man nur einen regler für optimierungen hat, und der gerade mal 3 stufen hat, wobei wohl keiner so genau weiß was da wirklich verändert wird.

bei nvidia dagegen kann ich die optimirungen einzeln abschalten, und was noch wichtiger ist, falls die leistung mal knapp wird auch einzeln zuschalten und entscheiden welche optimirung am meisten speed bringt und am wenigsten an bildqualität kostet.

Nero2
2005-03-07, 12:19:56
Okay, ich habe erfahren dass sich die Bildquali Argumente veraltet sind bzw. auf die FX Serie zutrafen. Nicht aber auf die NV40. Vorallem die Möglichkeit Optimierungen aus- oder anzuschalten ist ein weiteres fettes PLUS. Zudem scheint die GigaByte GV-NX68T256D-B PCIE tatsächlich schon um die 350 Euro zu haben sein.
Das Pendel geht also eindeutig zu Nvidia.

S3NS3
2005-03-07, 12:25:57
Also ich hatte eine Radeon9700pro (Hercules) und jetzt ne Gf6800U.

Ich kann folgendes an Infos hier anbieten ;) :

2D-Bildquali ist bei der NV deutlich besser. Was aber nur bei einem CRT-Moni in hohen auflösungen und Hz auffällt. (1600 @ 100Hz z.b) Sonst tut sich da nicht viel und ist ja auch Kartenabhängig, nicht vom GPU.

Der TvOut ist bei der NV auch deutlich besser. Sofort sichtbar. Dachte nur "Ui, war die ATI so schlecht??!". Kann aber auch an der jeweiligen Karte/Marke liegen.

Die 3D-Quali war echt bei ATI besser. Ist kein gerücht. Das bild war stimmiger und absolut artefaktfrei. Das AA und AF sah auch besser aus. Sind jetzt keine gravierenden unterschiede das man sagen kann bei NV ists scheisse, aber ich habe es sofort bemerkt OHNE drauf geachtet zu haben. Dazu kommt das grieseln bei AF. Was aber nur selten vorkommt und nicht wirklich stört. Aber wenn es ist sofort sichtbar vorhanden ohne ne lupe rauskramen zu müssen !

Kompatiblität: Hmmmmm, schwer :) In neueren Games (teste nix altes) lief die ATI IMMER, immer, egal welchen Treiber. Bei NV ist das nicht ganz so. Erstmal gibt es 5000 treiber (jajaja, beta/alpha.. aber die sind Teils deutlich schneller so das man sich mit auseinandersetzen sollte) und dann geht das gefrickel los.
Game A lüppt, Game B lahm, Game C bildfehler, Game D beim übertakten Kaltstart... also anderen Treiber....
Wer nicht so tuned und nicht den Besten haben will nimmt nen offizielen wo eigenlich alles ganz ok lüppt. Meiner meinung aber nicht so gut wie bei ATI.
Dafür hat ATI aber probs bei OpenGL und da vorallem in Professionellen Grafik-Software.
Bei NV lüppt das wie ne 1 !

Lautstärke ist von karte abhängig, Stromverbrauch ist bei NV mehr, zusätzlich meist Doppelte höhe der Karten.

Sonst... mir fällt grad nix wichtiges ein.

Grestorn
2005-03-07, 12:52:12
Die 3D-Quali war echt bei ATI besser. Ist kein gerücht. Das bild war stimmiger und absolut artefaktfrei. Das AA und AF sah auch besser aus. Sind jetzt keine gravierenden unterschiede das man sagen kann bei NV ists scheisse, aber ich habe es sofort bemerkt OHNE drauf geachtet zu haben. Dazu kommt das grieseln bei AF. Was aber nur selten vorkommt und nicht wirklich stört. Aber wenn es ist sofort sichtbar vorhanden ohne ne lupe rauskramen zu müssen !Nur wenn man beide Karten gleichzeitig betreibt, in den selben Spielszenen und Einstellungen, kann man da eine Aussage machen.

Die Gamma-Werte sind grundsätzlich verschieden, d.h. Spiele wirken auf der einen Karte heller oder dunkler als auf der anderen. Dadurch kommen auch Details besser oder schlechter raus. Man muss also die Gammawerte zunächst so angleichen, dass das Bild identisch wirkt.

Und dann verschwinden auf einmal auch all die Unterschiede, die man vorher noch meinte zu sehen... So gings jedenfalls mir.

Und meine Freundin hat ein halbes Jahr mit ner X800Pro gespielt, während ich mit ner 6800GT gespielt habe. Die Rechner stehen einen Meter auseinander. Niemals, in der ganzen Zeit, konnte ich oder meine Freundin sagen, "boah, das sieht bei Dir aber besser aus" bzw "...scheiße aus".

aths
2005-03-07, 13:59:47
Stimmt schon aber ATI ist auch nicht doof. Die haben sich NV40 bestimmt ganz genau angeschaut und auch entsprechende Schwächen ausgemacht. Was Verbesserungen in den entsprechenden Bereichen bringen könnten, können sie mit ziemlicher Wahrscheinlichkeit auch recht gut abschätzen und mit ihrem Chip vergleichen.

Zumindest können sie eigentlich ziemlich sicher sein, dass Nvidia sie nicht mit entsprechend hoch getakteten Speicherchips und damit Bandbreitenvorteil überraschen kann. ;)Es kann schon sein, dass ATI feststellt dass bestimmte Pixelshader-Dinge auf dem R520 besser performen als auf dem NV40 und sie das deshalb in ihre Demos aufnehmen.

Nero2
2005-03-07, 14:06:21
Es geht ja nur darum wie ich am Besten den R420 und den NV50 oder wie sie den heißen mögen überspringen kann. Das nächste Upgrade soll dann erst mit DirectX 10 bzw WGF 1.0 und entsprechenden Spiele kommen. Also hoffentlich erst irgendwann Ende 2006.

aths
2005-03-07, 14:07:54
Kommt auf den Content an. SM2 -> SM3 ist schnell gemacht, bringt auf NV4x-Karten oft einen netten Speed-Boost und das war's. ATi kann aber trotzdem schneller sein weil sie hohere Taktraten fahren.

Ist der Content aber von vorneherein auf SM3 ausgelegt dann ist es nicht mehr so easy das auf SM2-Karten lauffähig zu machen. Und hier könnte der NV4x auch schneller sein wie die Konkurrenz.Schneller als.

ATI kann über den Takt vor allem dann schneller sein, wenn die Pixelshader Texturfüllraten-limitiert sind.

Ich bin auch gespannt wie sich der R520 schlägt. Und auf irgendwelche "Erfahrungen" würde ich nicht unbedingt viel geben. Wie hiess es damals beim NV30? 3dfx-KnowHow und deren Erfahrung beim AA. Tja, ATi konnte das spielend überbieten mit dem R300. Viele Verfahren in der 3D-Grafik sind schon seit Jahrzehnten bekannt. Man muss sie nur in Hardware giessen. Die Frage ist jetzt ob es ein IHV auch tut. Denn vieles kostet viele Transistoren und erhöht auch damit die Kosten.

Sind sie auch. Meist fehlt's an Speicherbandbreite. Die Speicherbandbreite reicht nicht mal aus um alle Pipelines zu versorgen. Kommt noch HDR, AA oder so dazu dann gute Nacht. :)In Hardware gießen. Ob die Speicherbandbreite ausreicht, um alle Pipes zu versorgen, hängt vom Shader (und vom Filtermodus) ab. Ich sehe keine generelle Speicherbandbreitenlimitierung. Für "HDR" mit MSAA reichts noch nicht, aber ich zweifle dass R520 hier Besserung bringt.

aths
2005-03-07, 14:09:41
ATi hat es aber auch eigentlich immer geschafft den Speed zu verdoppeln spätestens dann wenn AA + AF ins Spiel kam.

Deshalb sehe ich keinen Grund dafür warum es diesmal nicht so sein sollte.

Das stimmt. Aber spätestens beim Einsatz von HDR dürfte das kaum was bringen. Da hilft nur Speicherbandbreite. Will sich ATi also absetzen von Konkurrenz dann müssen sie hauptsächlich an der Bandbreite drehen.Die Frage ist, ob sie das auch können. Hätte sich ATI schon gegen den NV40 absetzen wollen, hätten sie einen besseren Chip entwickeln müssen. Hoffen wir, dass der R420 in der Entwicklung billig genug war, dass der R520 frischen Wind bringt.

aths
2005-03-07, 14:14:58
Hmm was für Eckdaten müsste dann der R520 haben um doppelt so schnell bei AA+AF zu sein?Bei gleichem Takt 32 Pipes, 512-Bit DDR-Interface.

Ich traue ATI aber zu, dass sie ihr HyperZ-System ordentlich verbessert haben.

Weder bei NV noch bei ATI erwarte ich ein 384-Bit-Interface oder was in der Art. Imo bleibts bei 256 Bit. Legt ATI jetzt 512 Bit vor, wäre das die Revolution. Wird nach meiner Einschätzung aber erst mit dem R600 kommen.

aths
2005-03-07, 14:16:50
Es geht ja nur darum wie ich am Besten den R420 und den NV50 oder wie sie den heißen mögen überspringen kann. Das nächste Upgrade soll dann erst mit DirectX 10 bzw WGF 1.0 und entsprechenden Spiele kommen. Also hoffentlich erst irgendwann Ende 2006.Willst du die nächste Generation überspringen, wäre aus meiner Sicht sowohl SM3-Support, als auch 256 MB lokaler Grafikkarten-Speicher anzuraten.

Spasstiger
2005-03-07, 14:17:53
Ich würd einfach je nach finanzieller Situation entweder eine 6600 GT oder eine Radeon X800 XL kaufen. Bei steigenden Anforderungen kann man dann immer noch eine neue Grafikkarte kaufen und die alte verkaufen.

Quasar
2005-03-07, 14:24:00
2D-Bildquali ist bei der NV deutlich besser. Was aber nur bei einem CRT-Moni in hohen auflösungen und Hz auffällt. (1600 @ 100Hz z.b) Sonst tut sich da nicht viel und ist ja auch Kartenabhängig, nicht vom GPU.
Wie du schon sagst - das hängt nicht von ATi oder nVidia ab, sondern vom Kartenhersteller und dessen Drang, an Cent-Bauteilen zu sparen. Im Zweifel lieber im kulanten Laden vor Ort kaufen und schauen, welche _Karte_ nun akzeptabel ist.
Bei mir limitiert leider der Monitor in 1600x1200x32x100 - da sehen die meisten Karten gleichschlecht aus. 75Hz ist noch ziemlich gut, bei 85Hz gehe sie allmählich ineinander über.
Für "HDR" mit MSAA reichts noch nicht, aber ich zweifle dass R520 hier Besserung bringt.
reicht's - wird "e" ausgelassen-> Apostroph. Wird "das (/dem etc)" ausgelassen (unter dem Fenster, unterm Fenster) -> kein Apostroph.
Nach "zweifle" bitte ein Komma setzen.


Besserung würde hier auf jeden Fall schonmal die Tatsache bringen, wenn Higher Definition Range Rendering mit MSAA überhaupt möglich wäre - unabhängig davon, ob es dann ziemlich langsam liefe.

Armaq
2005-03-07, 14:30:27
Ich glaube hier geht es einfach nur um eine Kaufberatung mit Blick auf die Zukunft oder?

Ich habe eine GF 6800 GT (übertaktet auf 420 / 1140, NV5 Silencer drauf)

Mit dieser bin ich hoch zufrieden.

Du hast am Anfang davon gesprochen, dass du und deine Freundin gerne verschiedenste Games zockt.

AoE 3 wird definitv SM 3.0 haben. Viele andere Spiele auch, die Frage ist: Wie viele bringt Nvidia mit ins Boot, bevor ATI sich mit auf den Dampfer setzt? Wie sieht die Situation aus, wenn ATI dabei ist?

Zur Zeit führt denke ich nichts an einer 6800 (GT, Ultra) vorbei, da du dir dort Frames und Zukunftsfähigkeit! einkaufst.
Bei einer Radeon x800 sehe ich das nicht. Ich stand Anfang Dezember vor derselben Entscheidung und bin zu NV gegangen obwohl ich vorher ne 9600xt hatte mit der ich hochzufrieden war (bin).
Allerdings habe ich mir ein ziemlich großzügiges Budget gegönnt und halt einen NV5 Silencer (Lüfter) draufgepackt zwecks Lautstärkeeindämmung.

Exxtreme
2005-03-07, 14:42:10
Die Frage ist, ob sie das auch können. Hätte sich ATI schon gegen den NV40 absetzen wollen, hätten sie einen besseren Chip entwickeln müssen. Hoffen wir, dass der R420 in der Entwicklung billig genug war, dass der R520 frischen Wind bringt.
Wenn ATi es nicht kann dann wird der R520 kaum eine Berechtigung haben und Nvidia wird mit einem eventuellen 6-Quad-NV48 aufschliessen können.

Deshalb gehe ich trotzdem davon aus, daß ATi den Speed verdoppeln kann. Entweder per Bruteforce oder sie greifen tief in die Trickkiste mit bandbreitenschonenden Maßnahmen etc. Wobei ich nicht glaube, daß sich HyperZ noch stark verbessern lässt.

aths
2005-03-07, 14:52:36
Wenn ATi es nicht kann dann wird der R520 kaum eine Berechtigung haben und Nvidia wird mit einem eventuellen 6-Quad-NV48 aufschliessen können.

Deshalb gehe ich trotzdem davon aus, daß ATi den Speed verdoppeln kann. Entweder per Bruteforce oder sie greifen tief in die Trickkiste mit bandbreitenschonenden Maßnahmen etc. Wobei ich nicht glaube, daß sich HyperZ noch stark verbessern lässt.ATI müsste sich hier trauen, einige Dinge neu zu entwickeln und andere fallen zu lassen. Ich gehe aber eher davon aus, dass ATI das HyperZ noch weiterentwickelt und mit zusätzlichen Schaltkreisen die bisherigen Schwächen ausbügelt – um am Ende mindestens so effizient zu sein, wie der NV40.

Dass Nvidia aufschließen (ß! ß! ß!) könnte, klingt als hieltest du das für eigentlich unmöglich – warum eigentlich? Ich halte es für denkbar, dass der R520 übelste pwnage ist und NV erst mit dem NV50 wieder ernsthaft dabei sein kann. Für wahrscheinlicher halte ich es, dass der R520 neben SM3 und den MDR-Features zwei oder drei neue (und nützliche) Features bringt, mit denen jetzt noch keiner ernsthaft gerechnet hat, und sich leistungsmäßig deutlich vor dem NV40 platzieren kann, Nvidia mit einem Taktrefresh (NV45, NV47, NV48? – was schwirrt da nicht alles an Namen im Raum) und ggf. zusätzlichen Pipelines jedoch den ungefähren Gleichstand erlangt.

Welchen Speed soll ATI eigentlich verdoppeln? Effektive Single-Texturing-Füllrate? Halte ich für ausgeschlossen. Arithmetische Pixelshader-Leistung? Hier halte ich eine Verdopplung der Leistung für das mindeste, was ATI bringen wird (und hoffe auf Faktor 3-4.)

aths
2005-03-07, 14:54:04
reicht's - wird "e" ausgelassen-> Apostroph. Wird "das (/dem etc)" ausgelassen (unter dem Fenster, unterm Fenster) -> kein Apostroph.Ich meine gelesen zu haben, dass das weggelassene e nicht mehr mit einem Apostroph gekennzeichnet wird.

Besserung würde hier auf jeden Fall schonmal die Tatsache bringen, wenn Higher Definition Range Rendering mit MSAA überhaupt möglich wäre - unabhängig davon, ob es dann ziemlich langsam liefe.Du meinst High(er) Dynamic Range?

Banshee18
2005-03-07, 15:10:40
Warum sind eigentlich alle aktuellen Chips Immediate-Renderer? Sind diese in der zwischenzeit so effektiv, dass sich TBR nicht mehr lohnt? Ich glaube es kaum. Hat man einfach Angst vor einem Umstieg? Fehlt das Know How? Diese Frage stelle ich mir schon lange.
Besteht eine Chance, dass zumindest die übernächste Chipgeneration TBRs sind?

mfg

Banshee

Exxtreme
2005-03-07, 15:10:46
Dass Nvidia aufschließen (ß! ß! ß!) könnte, klingt als hieltest du das für eigentlich unmöglich – warum eigentlich?

Klingt das echt so? War nicht so gemeint.
Welchen Speed soll ATI eigentlich verdoppeln? Effektive Single-Texturing-Füllrate? Halte ich für ausgeschlossen. Arithmetische Pixelshader-Leistung? Hier halte ich eine Verdopplung der Leistung für das mindeste, was ATI bringen wird (und hoffe auf Faktor 3-4.)
Auf jeden Fall den Speed mit AA + AF. Shader-Speed wäre aber auch nicht schlecht.

Exxtreme
2005-03-07, 15:12:46
Besteht eine Chance, dass zumindest die übernächste Chipgeneration TBRs sind?

mfg

Banshee
Die jetzigen Chips sind schon TBRs... zumindest wenn AA ins Spiel kommt. Sie sind aber keine Deferred Renderer. TBR und Immediate Rendering schließen sich nicht aus.

S3NS3
2005-03-07, 15:17:14
Nur wenn man beide Karten gleichzeitig betreibt, in den selben Spielszenen und Einstellungen, kann man da eine Aussage machen.

Die Gamma-Werte sind grundsätzlich verschieden, d.h. Spiele wirken auf der einen Karte heller oder dunkler als auf der anderen. Dadurch kommen auch Details besser oder schlechter raus. Man muss also die Gammawerte zunächst so angleichen, dass das Bild identisch wirkt.

Und dann verschwinden auf einmal auch all die Unterschiede, die man vorher noch meinte zu sehen... So gings jedenfalls mir.

Und meine Freundin hat ein halbes Jahr mit ner X800Pro gespielt, während ich mit ner 6800GT gespielt habe. Die Rechner stehen einen Meter auseinander. Niemals, in der ganzen Zeit, konnte ich oder meine Freundin sagen, "boah, das sieht bei Dir aber besser aus" bzw "...scheiße aus".


Jupp da hast du schon recht ! Aber meine nicht so sachen wie deut mehr kontrast oder dunkler/heller. Meine schon das AA und vorallem das AF mit teilweise grieseln. Das bleibt auch bei der selben einstellung gut sichtbar.

Aber... sagte ja auch das es nicht SO schlimm ist, bin mit meiner NV ja sehr zufrieden !! Aber meiner erfahrung nach ist es eben ein bissel schlechter als bei ATI!

Wie du schon sagst - das hängt nicht von ATi oder nVidia ab, sondern vom Kartenhersteller und dessen Drang, an Cent-Bauteilen zu sparen. Im Zweifel lieber im kulanten Laden vor Ort kaufen und schauen, welche _Karte_ nun akzeptabel ist.
Bei mir limitiert leider der Monitor in 1600x1200x32x100 - da sehen die meisten Karten gleichschlecht aus. 75Hz ist noch ziemlich gut, bei 85Hz gehe sie allmählich ineinander über.

Jo, weiss was du meinst. Bei mir wars so das die ATI bei 60Hz vollend scharf war. Bei 75hz fast gleich, bei 85Hz schon unschärfer und bei 100Hz ungenießbar.
Die Gainward 6800U ist bei 100 so in etwa wie die 9700pro bei 75-85. Was natürlich nicht an der GPU liegt, ne, wollts aber erwähnen.

Quasar
2005-03-07, 15:17:32
Üblicherweise wird es das. Es scheint aber keine Verpflichtung mehr zu geben, dies zu tun. ;)

Wo ist der Unterschied zwischen HDR und HDR?

Narrenkönig
2005-03-07, 15:24:29
Lieblingsgenres von mir:
Shooter und Arcade Rennen.

Lieblingsgenre von meiner Freundin
Rollenspiele und Aufbaustrategie
Wenn du 2 Jahre warten willst, bleibt nur die GF6800GT.
Spätestens 2006 ist SM3.0 Standart, warscheinlich schon früher. Stalker, Gothic 3, TES4: Oblivion werden SM3 Spiele sein die angeblich 2005 noch kommen. Zumindest deine Freundin wird für TES4 eine SM3 Karte haben wollen :D

StefanV
2005-03-07, 15:25:54
Es kann schon sein, dass ATI feststellt dass bestimmte Pixelshader-Dinge auf dem R520 besser performen als auf dem NV40 und sie das deshalb in ihre Demos aufnehmen.

Immerhin ist ATi so nett und schreibt die Demos in D3D, so das es grundsätzlich möglich ist, das die auch auf 'Fremdhardware' läuft, so denn die die entsprechenden Features mitbringen :rolleyes:

Narrenkönig
2005-03-07, 15:26:52
Üblicherweise wird es das. Es scheint aber keine Verpflichtung mehr zu geben, dies zu tun. ;)

Wo ist der Unterschied zwischen HDR und HDR?
Das eine ist von Tolkien. ;D ;D ;D

Banshee18
2005-03-07, 15:29:13
Die jetzigen Chips sind schon TBRs... zumindest wenn AA ins Spiel kommt. Sie sind aber keine Deffered Renderer. TBR und Immediate Rendering schließen sich nicht aus.

Grrrrr. Ich meine natürlich TBDR, so wie z.B. der Kyro einer war.

mfg

Banshee

mapel110
2005-03-07, 15:29:54
Immerhin ist ATi so nett und schreibt die Demos in D3D, so das es grundsätzlich möglich ist, das die auch auf 'Fremdhardware' läuft, so denn die die entsprechenden Features mitbringen :rolleyes:

Ach ist das so?! Dann starte mal ATI-Demos auf nvidia-hardware. ohne Zusatzmittel gehts nicht (3DAnalyzer).

deekey777
2005-03-07, 15:34:17
Ach ist das so?! Dann starte mal ATI-Demos auf nvidia-hardware. ohne Zusatzmittel gehts nicht (3DAnalyzer).

Verbesserung: Die Ruby bzw. alle PS2.0b Demos, oder?
Die früheren Demos wie PipeDream sollten laufen.

sm20
2005-03-07, 15:41:36
Spätestens 2006 ist SM3.0 Standart, warscheinlich schon früher.
Standart war SM3 schon gestern, ob 2006 standard; ich glaube nicht. DirectX 9 wird noch sehr lange die Grundlage bilden, erst 2004 kamen verstärkt Spiele die DirectX 8 als Voraussetzung (die armen Geforce4MX Käufer ;D ) hatten. Aber der Grossteil war es nicht.

Quasar
2005-03-07, 15:48:32
Immerhin ist ATi so nett und schreibt die Demos in D3D, so das es grundsätzlich möglich ist, das die auch auf 'Fremdhardware' läuft, so denn die die entsprechenden Features mitbringen :rolleyes:

Und solange die richtige ID vorliegt...

edit:
Es hält btw auch niemand irgendwen davon ab, die nötigen Extensionen in ihrem jeweiligen OpenGL-ICD anzubieten - wo du grad von den nötigen Features sprichst. :devil:

Black-Scorpion
2005-03-07, 15:53:50
DirectX 9 wird noch sehr lange die Grundlage bilden, erst 2004 kamen verstärkt Spiele die DirectX 8 als Voraussetzung (die armen Geforce4MX Käufer ;D ) hatten. Aber der Grossteil war es nicht.
SM2 und SM3 = Dx9c

sm20
2005-03-07, 16:02:15
SM2 und SM3 = Dx9c
SM2 - DirectX9
SM2.X - DirectX9b
SM3 - DirectX9c
(auch wenn das so nicht ganz stimmt)

Und alle Spiele 2005 und 2006 werden nicht mehr als SM2/DirectX 9 als "Mindest Vorrausetzung" verlangen.

mapel110
2005-03-07, 16:08:49
SM2 - DirectX9
SM2.X - DirectX9b
SM3 - DirectX9c
(auch wenn das so nicht ganz stimmt)

Und alle Spiele 2005 und 2006 werden nicht mehr als SM2/DirectX 9 als "Mindest Vorrausetzung" verlangen.

Jo, aber die kluft zwischen dem, was der SM2-User an Effekten noch zu sehen bekommt und was ein SM3-User zu sehen bekommt, wird immer grösser werden.

Gästchen
2005-03-07, 16:47:06
Habt ihr bei euren Bildqualitätsvergleichen auch berücksichtigt, dass Monitore (CRT's) von Werk aus auf eine bestimmte Bildwiederholfrequenz kalibriert sind und in dieser Einstellung das beste (schärfste) Bild bringen, mein 19-Zöller z.B. auf 85Hz.
Alle Einstellungen jenseits dieser Bildwiederholfrequenz können das Bild wieder unschärfer machen, ohne das die Graka schuld hat.

tombman
2005-03-07, 17:09:04
Also wenn die Graka 2 Jahre halten soll, dann kann die Antwort nur 6800GT (16/6)heißen. SM3 wird zum MUSS, wenn man alle Details in neues games sehen will, der trend dorthin hat gerade erst begonnen.

Die Bildqualität ist ziemlich gleich zwischen ATI und Nvidia, und die 2D Bildqualität hängt NUR von der Kartenbauern ab und nicht von den Chips. Je nachdem wie geizig die sind, sieht es eben scharf aus oder eben nicht(mehr).

Von der jetzigen Situation ausgehend hat ATI 6xAA, was die Kanten derzeit am besten glättet, dafür hat Nvidia eben auch super sampling modes im Angebot die noch dazu Texturen glätten und verdammt geil aussehen. Die Vorliebe des Käufers entscheidet was ihm wichtiger ist.

Hitze und Lautstärke ist wieder alleinige Sache des Kühlers. Es gibt genug Kühler im Angebot/Markt, jeder wird da was passendes finden.

Und über Stromverbauch brauchen wir ned reden, ein Fön, Herd usw verbauchen zig mal mehr (betrifft alle Geräte, die Strom in Hitze umwandeln). Wer Geld sparen will beim pc Stromverbrauch hat IMO einen an der Waffel :D

LordDeath
2005-03-07, 17:21:29
ok, nochmal zum topic:
Wie wichtig ist SM 3.0 wirklich wenn ich eine Karte 2 Jahre haben will
so wichtig, dass die nächste karte das neben 256mb vram und 16pipes auch haben muss! <-- ist das jetzt so richtig :confused:

hfhfwehfk
2005-03-07, 17:26:38
Hallo,

mir platzt gleich der Kopf weg.
Es ist echt unglaublich wie lange und tief man sich mit einem Grafikkartenkauf beschäftigen kann.

Die unmengen von Threads die ich gefunden habe teilweise sehr umfangreich und leider auch hin und wieder verwirrend und gegensätzlich.

Ich will im April einen neuen Rechner für mich kaufen, genauso will meine Freundin ihren Rechner neu bauen. Es sollte zwei Jahre halten, also bis Ende 2006 / Anfang 2007.
Nach 10 Jahren Intel wollen wir beide auf AMD umsteigen wegen der Verlustleistung bzw. Cool n Quiet und, naja, weil intel derzeit einfach nicht bei Verstand ist. Es wird wohl irgend was zwischen Winchester 3000+ und 3500+ mit Asus Nforce4 Board PCI Express. Kein AGP!
Von SLI halte ich nichts weil die neuen Chip Generationen so kurzen Abständen kommen dass es keinen Sinn macht. Wenn jemand SLI heute nicht braucht, braucht er es auch morgen nicht.

NVIDIA Pro
SM 3.0
Die Elfe (kam von meiner Freundin)

Contra
Bildqualität 2D und vorallem Filter
Stromversorgung

ATi Pro
Ich glaube weniger Stromverbrauch
2D / Filter Qualität

Contra
Kein SM 3.0

Lieblingsgenres von mir:
Shooter und Arcade Rennen.

Lieblingsgenre von meiner Freundin
Rollenspiele und Aufbaustrategie

Was mach ich den jetzt? Eine Playstation kaufen? :)

Schöne Grüße
Nero

Hi,

ich würde mir eine 9800Pro 128MB 256Bit kaufen, ab 189€ oder eine X800XL für ca. 300€.

Die 9800Pro ist von der Bildqualität der 6600GT deutlich überlegen und wird nicht so heiss und kommt mit Standart-Netzteilen aus.

Das mit SM3.0 kannst du getrost bei deinen Anwendungen vergessen. Immerhin wird Sm3.0 erst 2006 im Spielemarkt die Bedeutung haben die 2.0 heute hat.

Grüsse
Sabiene

Quasar
2005-03-07, 17:31:12
Und über Stromverbauch brauchen wir ned reden, ein Fön, Herd usw verbauchen zig mal mehr (betrifft alle Geräte, die Strom in Hitze umwandeln). Wer Geld sparen will beim pc Stromverbrauch hat IMO einen an der Waffel :D
... oder seinen PC länger laufen, als die typische halbe Stunde, die ein Fön oder Herd am Tag läuft.

gggggggggggu
2005-03-07, 17:32:43
Also wenn die Graka 2 Jahre halten soll, dann kann die Antwort nur 6800GT (16/6)heißen. SM3 wird zum MUSS, wenn man alle Details in neues games sehen will, der trend dorthin hat gerade erst begonnen.

Die Bildqualität ist ziemlich gleich zwischen ATI und Nvidia, und die 2D Bildqualität hängt NUR von der Kartenbauern ab und nicht von den Chips. Je nachdem wie geizig die sind, sieht es eben scharf aus oder eben nicht(mehr).

Von der jetzigen Situation ausgehend hat ATI 6xAA, was die Kanten derzeit am besten glättet, dafür hat Nvidia eben auch super sampling modes im Angebot die noch dazu Texturen glätten und verdammt geil aussehen. Die Vorliebe des Käufers entscheidet was ihm wichtiger ist.

Hitze und Lautstärke ist wieder alleinige Sache des Kühlers. Es gibt genug Kühler im Angebot/Markt, jeder wird da was passendes finden.

Und über Stromverbauch brauchen wir ned reden, ein Fön, Herd usw verbauchen zig mal mehr (betrifft alle Geräte, die Strom in Hitze umwandeln). Wer Geld sparen will beim pc Stromverbrauch hat IMO einen an der Waffel :D

Lieber Tombman,

ich glaube du solltest deine grüne Fan-Mütze bei Fragen dieser Art im Forum ablegen, dich kann ich nicht mehr ernst nehmen!!!

Wer keine Heizung in der Wohnung hat und kein Problem mit einem lautstarken Pc, der soll einen 6800'er kaufen!

Hättest du eine 6600'er empfohlen, könnte ich dem noch bedingt folgen, aber eine 6800'er ist der allterletzte Schrott.

ShadowXX
2005-03-07, 17:32:52
... oder seinen PC länger laufen, als die typische halbe Stunde, die ein Fön oder Herd am Tag läuft.

Ich gebe dir zwar recht....aber totzdem muss ich teilweise auch Tombman recht geben...PC und Stromsparen beißen sich IMHO etwas.

nixkaufen
2005-03-07, 17:32:59
Hi,

ich würde mir eine 9800Pro 128MB 256Bit kaufen, ab 189€ oder eine X800XL für ca. 300€.

Die 9800Pro ist von der Bildqualität der 6600GT deutlich überlegen und wird nicht so heiss und kommt mit Standart-Netzteilen aus.

Das mit SM3.0 kannst du getrost bei deinen Anwendungen vergessen. Immerhin wird Sm3.0 erst 2006 im Spielemarkt die Bedeutung haben die 2.0 heute hat.

Grüsse
Sabiene

Ich würde die 9800 nicht mehr kaufen, die 6600GT ist schon besser. Grundsätzlich würde ich jetzt keine Grafikkarte vor dem Übermonster R520 kaufen. Danach sind die Karten neu gemischt. Und vor der Cebit sowieso nichts kaufen, Ende März haben wir spätestens neue Preise.

dochkaufen
2005-03-07, 17:34:38
Ich würde die 9800 nicht mehr kaufen, die 6600GT ist schon besser. Grundsätzlich würde ich jetzt keine Grafikkarte vor dem Übermonster R520 kaufen. Danach sind die Karten neu gemischt. Und vor der Cebit sowieso nichts kaufen, Ende März haben wir spätestens neue Preise.

Ich sehe keinen Vorteil für die 6600GT bei den geforderten Anwendung des Fragenden!

ShadowXX
2005-03-07, 17:34:58
Lieber Tombman,

ich glaube du solltest deine grüne Fan-Mütze bei Fragen dieser Art im Forum ablegen, dich kann ich nicht mehr ernst nehmen!!!

Wer keine Heizung in der Wohnung hat und kein Problem mit einem lautstarken Pc, der soll einen 6800'er kaufen!

Hättest du eine 6600'er empfohlen, könnte ich dem noch bedingt folgen, aber eine 6800'er ist der allterletzte Schrott.

Warum?

Weil Sie 10Watt mehr unter Volllast zieht?

Das mit dem lauter sehe ich ja sogar noch ein, da mein 6800 Ultra scheinbar ein extremer Sonderfall ist, die mit Standardlüfter nicht lauter als meiner9800Pro im Zweitrechner ist.

Aber deswegen die 6800 als absoluten Schrott zu bezeichnen ist nonsense.

dochkaufen
2005-03-07, 17:35:37
Ich gebe dir zwar recht....aber totzdem muss ich teilweise auch Tombman recht geben...PC und Stromsparen beißen sich IMHO etwas.

Bei ATI ist der Stromverbrauch nicht so hoch!

ShadowXX
2005-03-07, 17:37:31
Ich sehe keinen Vorteil für die 6600GT bei den geforderten Anwendung des Fragenden!

Die Karte soll 2 Jahre halten.....

Dafür ist eine 9800Pro wohl nicht mehr geeignet...eine 6600GT IMHO aber auch nicht.

Wenn dann eine 6800GT/Ultra.....oder von mir aus auch eine x8x0xt/pe.(Wobei ich bei letzterer eher auf den r520 warten würde).

BadFred
2005-03-07, 17:37:35
Bei ATI ist der Stromverbrauch nicht so hoch!
Mal ehrlich, solche Aussagen haben doch keinen Wert.
Absolut verallgemeinernd und ohne Quelle. :|

Quasar
2005-03-07, 17:38:07
Ich gebe dir zwar recht....aber totzdem muss ich teilweise auch Tombman recht geben...PC und Stromsparen beißen sich IMHO etwas.
Naja, ich sach ma so:
Du kannst deinen PC mit locker über 400W unter Volllast betreiben oder du achtest halt ein bißchen drauf und kommst mit gemütlichen 200W aus.

Das ist, sage ich jetzt mal, der Unterschied zwischen einem P4-3,8 + OC, 6800u-SLI und 'n paar 15k-rpm SCSIs und 21"+ CRT und einem Winnie 3500+ mit 'ner 6800GT/X800XL und TFT.

ShadowXX
2005-03-07, 17:38:28
Bei ATI ist der Stromverbrauch nicht so hoch!

Unter Last nehmen sich die beiden nicht so extrem viel.....(High-End-Modelle).

Und im Mainstream ist der Unterschied fast nicht vorhanden.

ShadowXX
2005-03-07, 17:41:08
Naja, ich sach ma so:
Du kannst deinen PC mit locker über 400W unter Volllast betreiben oder du achtest halt ein bißchen drauf und kommst mit gemütlichen 200W aus.

Das ist, sage ich jetzt mal, der Unterschied zwischen einem P4-3,8 + OC, 6800u-SLI und 'n paar 15k-rpm SCSIs und 21"+ CRT und einem Winnie 3500+ mit 'ner 6800GT/X800XL und TFT.

Du hast natürlich völlig recht....das "IMHO" bezog sich sehr stark auf meine Sichtweise...und bei den Rechnern, die ich zuhause stehen habe (und dank Arbeit bestimmt nicht länger als 5-6 Stunden pro Woche laufen) nimmt es sich nicht mehr viel.

Für einen 24/7 Rechner ist das ganze natürlich sehr interessant.

Tigerchen
2005-03-07, 17:41:38
SM 3.0
Die Elfe (kam von meiner Freundin)

Contra
Bildqualität 2D und vorallem Filter
Stromversorgung

ATi Pro
Ich glaube weniger Stromverbrauch
2D / Filter Qualität

Contra
Kein SM 3.0

Lieblingsgenres von mir:
Shooter und Arcade Rennen.

Lieblingsgenre von meiner Freundin
Rollenspiele und Aufbaustrategie
Nero

SM 3.0 bringt nur punktuelle Vorteile. Aber du willst wohl auf HDR hinaus. Das zieht auf aktuellen nV-Karten brutal Leistung.
Unterm Strich wirst du mit einer heutigen High-End-Karte schon in 6 Monaten Games mit HDR nur als Slideshow erleben. Ohne HDR ist es egal ob nVidia oder ATI. Beide haben ihre Stärken und Schwächen.

keinenwert
2005-03-07, 17:46:50
Mal ehrlich, solche Aussagen haben doch keinen Wert.
Absolut verallgemeinernd und ohne Quelle. :|

Nachts ist es kälter als draussen ;)

Hat das einen Wert für dich?

Black-Scorpion
2005-03-07, 17:58:36
Mal ehrlich, solche Aussagen haben doch keinen Wert.
Absolut verallgemeinernd und ohne Quelle. :|
Ist zumindest ein Anhaltspunkt.
http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

Kompletter Artikel
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html

BadFred
2005-03-07, 18:53:38
Ist zumindest ein Anhaltspunkt.
http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

Kompletter Artikel
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html

Danke für den Link, das ist in der Tat interessant. :)

Mr.Magic
2005-03-07, 19:03:41
Das immer alle SM3.0 mit HDR gleichsetzen. SM3.0 selbst unterscheidet sich vom Machbaren nicht sehr von SM2.0. ABER unter SM3.0 lässt es sich einfacher und damit auch schneller (kostengünstiger) entwickeln/programmieren. Das dürfte für einen schnellen Übergang der Entwickler zu SM3.0 (sieht man bereits bei SC3) sorgen. Vieles wird heutzutage leider von den Konsolen portiert. Da ist es (für den Entwickler) besser mal schnell einen Shader für alles draufzuklatschen, als jeden einzeln zu programmieren/optimieren.

Wenn die Grafikkarte für zwei Jahre ausreichend sein soll bleibt momentan nur eine 6800GT (Preis/Leistung), oder das Warten auf den R520.

sdfggf
2005-03-07, 19:25:39
Hi,

ich würde mir eine 9800Pro 128MB 256Bit kaufen, ab 189€ oder eine X800XL für ca. 300€.

Die 9800Pro ist von der Bildqualität der 6600GT deutlich überlegen und wird nicht so heiss und kommt mit Standart-Netzteilen aus.

Das mit SM3.0 kannst du getrost bei deinen Anwendungen vergessen. Immerhin wird Sm3.0 erst 2006 im Spielemarkt die Bedeutung haben die 2.0 heute hat.

Grüsse
Sabiene
die 9800pro braucht mehr strom als eine 6800GT, über die leistung muss ich wohl nicht mehr viel sagen.

Bei ATI ist der Stromverbrauch nicht so hoch!
der unterschied ist sehr gering und beträgt höchstens 10W.

Nero2
2005-03-07, 19:35:23
Vieeeelen Dank allen. Ich bin aufgrund der Beiträge sicher, dass die 6800GT die Beste wahl für meine Freundin und für mich sind.
Auf die R520 will ich nicht warten weil er noch "relativ" weit weg ist, ich nicht weiss wie er überhaupt verfügbar sein wird und ausserdem wird er anfangs wohl kein vernünftiges Preisschild tragen das ich bereit bin zu zahlen. Abgesehen davon will ich ja die R520 und NV50 Chips überspringen.

dtg
2005-03-07, 19:42:56
Vieeeelen Dank allen. Ich bin aufgrund der Beiträge sicher, dass die 6800GT die Beste wahl für meine Freundin und für mich sind.
Auf die R520 will ich nicht warten weil er noch "relativ" weit weg ist, ich nicht weiss wie er überhaupt verfügbar sein wird und ausserdem wird er anfangs wohl kein vernünftiges Preisschild tragen das ich bereit bin zu zahlen. Abgesehen davon will ich ja die R520 und NV50 Chips überspringen.
Du sollst ihn ja nicht kaufen, R520 oder den nvrefresh, sondern die gefallenen Preise mitnehmen.

Nero2
2005-03-07, 19:50:31
Achso, ja. :) Ich beobachte die Preise natürlich scharf.

tombman
2005-03-07, 21:43:01
Vieeeelen Dank allen. Ich bin aufgrund der Beiträge sicher, dass die 6800GT die Beste wahl für meine Freundin und für mich sind.


Amen :)

sbnmjgfzu
2005-03-07, 23:23:14
ich rechne eigentlich nicht mit einer vorstellung des r520 vor april-mai.

bis die karten breit verfügbar sind ist es wohl eher juli-august, und vorher werden die preise leider nicht gravierend fallen.

bei nv wird es wohl mit dem nv40-refresh auch noch dauern, wobei sie zumindest theoretisch vorteile bei der markteinführung haben könnten, da sie ja "nur" ein bestehendes design verbreitern/beschleunigen müssen, während ati einen komplett neuen chip entwickelt.

deekey777
2005-03-08, 00:35:13
ich rechne eigentlich nicht mit einer vorstellung des r520 vor april-mai.

bis die karten breit verfügbar sind ist es wohl eher juli-august, und vorher werden die preise leider nicht gravierend fallen.


Der ubisoftie aus Montreal meinte in der aktuellen Ausgabe der PC_GH, dass die R520 im Mai kommen soll.

Coda
2005-03-08, 00:36:53
Was auch ein Paperlaunch sein könnte :rolleyes:

deekey777
2005-03-08, 00:38:06
Was auch ein Paperlaunch sein könnte :rolleyes:

Waren nicht auf der letzten CeBIT auch R420er zu sehen, die im Mai offiziell vorgestellt wurden? :confused:

Coda
2005-03-08, 00:38:43
Und wann waren sie dann in Stückzahlen verfügbar?

deekey777
2005-03-08, 00:40:03
Und wann waren sie dann in Stückzahlen verfügbar?

Bei Dell? ;)

Coda
2005-03-08, 00:49:01
Ich rede von der Gesamtanzahl der Karten. Und so schlimm wie letztes mal beim High End war es schon lange nicht mehr (oder ist es immer noch)

tombman
2005-03-08, 01:57:38
Also ich denke nicht, daß es diesmal wieder so schlimm wird mit den Karten..

Wenns im Mai vorgestellt wird, sollte man im July eine kaufen können.
(und auf ebay.com vielleicht schon im Juni :D)

G.a.s.t.
2005-03-08, 07:26:37
Der ubisoftie aus Montreal meinte in der aktuellen Ausgabe der PC_GH, dass die R520 im Mai kommen soll.
Seit wann stellt UBISoft Grafikkarten her :confused:

ShadowXX
2005-03-08, 07:33:11
Bei Dell? ;)

Selbst Dell konnte so gut wie keine x800xt(pe) am Anfang liefern....den meisten die ein Komplettsystem mit solch einer Karte bestellt haben wurde nahegelegt doch lieber eine x800se zu nehmen..

Hab ich bei 3 Arbeitskollegen mitbekommen....und diese Hi**is haben dem auch noch zugestimmt.

@ G.a.s.t.
Das war das, was der UBI-Soft-Mensch von ATI gehört haben solll....ist so ähnlich wie: Die Tante eines Kumpels kennt einen Typ, der ab und zu jemanden trifft der irgendwie verwandt ist mit...etc,etc,etc.

Mr. Lolman
2005-03-08, 07:55:35
Wenn die Grafikkarte für zwei Jahre ausreichend sein soll bleibt momentan nur eine 6800GT (Preis/Leistung), oder das Warten auf den R520.

Wieso, weil die SM3.0 Unterstützung besser werden soll? Irgendwie ist das ganze auch ohne HDR nicht sonderlich flott. Und mit HDR ruckelts. Zumindest die 3 SM3. Spiele dies momentan gibt. Ich glaub nicht, dass das auch nur irgendwie besser wird. Und wenn die Spiele jetzt schon ruckeln, will ich garnicht wissen, wo die Karte in 2 Jahren steht.

ShadowXX
2005-03-08, 08:28:23
Wieso, weil die SM3.0 Unterstützung besser werden soll? Irgendwie ist das ganze auch ohne HDR nicht sonderlich flott. Und mit HDR ruckelts. Zumindest die 3 SM3. Spiele dies momentan gibt. Ich glaub nicht, dass das auch nur irgendwie besser wird. Und wenn die Spiele jetzt schon ruckeln, will ich garnicht wissen, wo die Karte in 2 Jahren steht.

Wo Ruckelt bei dir SC3 mit SM3.0 (ohne HDR) in normalen (1280x1024 bzw. 1024x768) Auflösungen?

Es muss ja nicht immer 6xAA/16xAF sein......

Ich hab mit SM3.0 und 1280x1024 mit 2xAA/4xAF locker 40++ Frames bei SC3 (und für SC3 ist das mehr als Ausreichend).

Mr. Lolman
2005-03-08, 08:49:10
Ich hab mit SM3.0 und 1280x1024 mit 2xAA/4xAF locker 40++ Frames bei SC3 (und für SC3 ist das mehr als Ausreichend).

Ich find, SC3 sieht ohne HDR ziemlich mies aus, aber stimmt, dafür passt dann die Performance (solang man kein 1280x1024 4xAA haben will)

seahawk
2005-03-08, 10:41:10
Aber die Karten des Mitbewerbers performen unter diesen Settings noch schlechter bzw. gar nicht. Bei einer HAltedauer von 2.0 Jahren spricht imho alles für eine SM3.0 Karte.

Mr. Lolman
2005-03-08, 11:26:38
Aber die Karten des Mitbewerbers performen unter diesen Settings noch schlechter bzw. gar nicht. Bei einer HAltedauer von 2.0 Jahren spricht imho alles für eine SM3.0 Karte.

Garnicht vll, aber noch schlechter glaub ich kaum, da die x800xt unter SM1.1 schneller ist, als ne 6800GT/U.

Gaestle
2005-03-08, 12:17:59
Zumindest die 3 SM3. Spiele dies momentan gibt.

SC:CT
FC
und???

[Edit] Achso ja, Pacific Fighters....

Grüße

Gaestle
2005-03-08, 12:24:40
Wo Ruckelt bei dir SC3 mit SM3.0 (ohne HDR) in normalen (1280x1024 bzw. 1024x768) Auflösungen?

Es muss ja nicht immer 6xAA/16xAF sein......

Ich hab mit SM3.0 und 1280x1024 mit 2xAA/4xAF locker 40++ Frames bei SC3 (und für SC3 ist das mehr als Ausreichend).

*Plonk*

Also bei mir läuft's objektiv nicht sehr gut. Mit HDR und allem pipapo inkl. 2xAF komme ich auf 15-35 fps in 800x600 auf einer 68nu (325/350RAM, 16x1,5).

Aber SUBJEKTIV gefällt mir die Grafik trotz 8x6 ohne AA richtig gut, spielbar isses für mich auch.

Grüße

Coda
2005-03-08, 12:25:07
Irgendwie ist das ganze auch ohne HDR nicht sonderlich flott.Woher kommt dieses Gerücht eigentlich? Das ist FUD. Ich erwähnt es immer wieder, wenn's sein muss. Ein High level SM 2.0 Shader als SM 3.0 kompiliert wird niemals langsamer, sondern eher schneller sein.

Und das zusätzliche Effekte mehr Rechenarbeit benötigen liegt wohl kaum an SM 3

Und vermischt nicht immer HDR mit SM 3.0 nur um Argumente zu haben, das hat rein gar nichts miteinander zu tun.

ShadowXX
2005-03-08, 12:30:00
*Plonk*

Also bei mir läuft's objektiv nicht sehr gut. Mit HDR und allem pipapo inkl. 2xAF komme ich auf 15-35 fps in 800x600 auf einer 68nu (325/350RAM, 16x1,5).

Aber SUBJEKTIV gefällt mir die Grafik trotz 8x6 ohne AA richtig gut, spielbar isses für mich auch.

Grüße

Es kommt natürlich auf die GraKa an....das ist klar (ich hab ne 6800Ultra 425/600).

Mit HDR + SM3.0 + 4xAF hab ich auch in 1024x768 noch mehr als genung Frames zum spielen.

seahawk
2005-03-08, 12:38:00
Garnicht vll, aber noch schlechter glaub ich kaum, da die x800xt unter SM1.1 schneller ist, als ne 6800GT/U.

Aber SM1.1 dürfte für kommende Spiele nur noch wengi relevant sein.

jhkhj
2005-03-08, 12:42:47
Garnicht vll, aber noch schlechter glaub ich kaum, da die x800xt unter SM1.1 schneller ist, als ne 6800GT/U.

nicht wenn du auf der 6800GT auf SM3, ohne zusätzliche effekte einstellst ;)

MarcWessels
2005-03-08, 12:43:00
Garnicht vll, aber noch schlechter glaub ich kaum, da die x800xt unter SM1.1 schneller ist, als ne 6800GT/U.

IN SC3?? Das halte ich für ein Gerücht (zumal man SM3.0 mit Effekten auf SM1.1-Niveau verwenbden kann und dann noch ein paar Extraframes bekommt). Quellen?

Chief o Hara
2005-03-08, 12:57:34
Und vermischt nicht immer HDR mit SM 3.0 nur um Argumente zu haben, das hat rein gar nichts miteinander zu tun.

Full Ack!
Da investieren manche hier viele Stunden täglich in diese Diskussionen und werfen dann immer wieder Argumente in die Runde die schon viele Monate zuvor widerlegt wurden. Alleine schon die ständige SM 3.0 Diskussion ist doch langsam nervig. Ist es denn zuviel verlangt, dass sich die Leute einlesen bevor sie felsenfest behaupten SC3 wäre ein gutes Beispiel, dass der NV40 bei SM 3.0 versagt.
Das HDR und SM 3.0 nicht zusammengehören wurde doch schon in zig anderen Threads geklärt, in denen die Leute die das hier wieder durcheinanderbringen auch fröhlich mitdiskutiert haben. Mangelnde Auffassungsgabe oder blinde Markenbindung?
Finde es schade, dass gewisse Fanboys jedem fragenden ihre Lieblingsmarke aufschwatzen müssen, ob es nun passt oder nicht.
Ich befürchte hier könnte sogar ein Hobbyprogger nach ner Karte fragen mit der mal die ganzen Shadermodelle durchprobieren möchte. Irgendjemand würde mit Sicherheit noch ne X800 empfehlen. Zweifellos hat diese ihre Daseinsberechtigung, aber bestimmt nicht in diesem Zusammenhang.

Sorry für OT

Ich würde übrigens auch eine 6800er und zwar ebenfalls aufgrund des umfangreicheren Featuresets. Das SM 3.0 einiges in Zukunft beschleunigen könnte sehe ich als einen großen Pluspunkt an, zumindest für eine Karte die 2 Jahre halten soll. Der R300 hat ja auch noch die ganzen SM 2.0 Spiele erlebt und das dürfte der größere Schritt gewesen sein.
Den leicht höheren Stromverbrauch kann man in diesem Fall vernachlässigen, da ein Teil davon ja sowieso durchs Netzteil geschluckt wird.

deekey777
2005-03-08, 13:00:29
Und vermischt nicht immer HDR mit SM 3.0 nur um Argumente zu haben, das hat rein gar nichts miteinander zu tun.

Dann wäre es langweilig, denn ohne diese Vermischung läßt es sich nicht so gut bashen. ;(

( ;D )

Nero2
2005-03-08, 13:33:09
Danke. Die 6800GT ist bei mir jetzt schon in Stein gemeißelt. :) Bei meiner Freundin auch. Obwohl sie gestern meinte dass Ruby geiler ist als die Elfe.
Bashen sollte man übrigens nur in Shootern... :)

jhkljkljhbvxvfg
2005-03-08, 13:51:52
Danke. Die 6800GT ist bei mir jetzt schon in Stein gemeißelt. :) Bei meiner Freundin auch. Obwohl sie gestern meinte dass Ruby geiler ist als die Elfe.


aber die nixe (nalu) ist noch geiler :D

Und spammen ist auch für Gäste nicht geiler, sondern unnötig. Danke.

Narrenkönig
2005-03-08, 16:21:57
aber die nixe (nalu) ist noch geiler :D
Dazu hab ich die Hintergrundmusik durch "Seemannsgrab" von Schandmaul ersetzt und träume :D

Narrenkönig
2005-03-08, 16:26:23
Full Ack!
Da investieren manche hier viele Stunden täglich in diese Diskussionen und werfen dann immer wieder Argumente in die Runde die schon viele Monate zuvor widerlegt wurden. Alleine schon die ständige SM 3.0 Diskussion ist doch langsam nervig. Ist es denn zuviel verlangt, dass sich die Leute einlesen bevor sie felsenfest behaupten SC3 wäre ein gutes Beispiel, dass der NV40 bei SM 3.0 versagt.
Das HDR und SM 3.0 nicht zusammengehören wurde doch schon in zig anderen Threads geklärt, in denen die Leute die das hier wieder durcheinanderbringen auch fröhlich mitdiskutiert haben. Mangelnde Auffassungsgabe oder blinde Markenbindung?
Finde es schade, dass gewisse Fanboys jedem fragenden ihre Lieblingsmarke aufschwatzen müssen, ob es nun passt oder nicht.
Ich befürchte hier könnte sogar ein Hobbyprogger nach ner Karte fragen mit der mal die ganzen Shadermodelle durchprobieren möchte. Irgendjemand würde mit Sicherheit noch ne X800 empfehlen. Zweifellos hat diese ihre Daseinsberechtigung, aber bestimmt nicht in diesem Zusammenhang.

Sorry für OT
Mega ACK!
Den Text sollte man in 10 anderen Diskusionen nochmal posten. Auch wenn ot.

MechWOLLIer
2005-03-08, 18:30:38
Garnicht vll, aber noch schlechter glaub ich kaum, da die x800xt unter SM1.1 schneller ist, als ne 6800GT/U.
Ich hatte beide Karten hier (X800XT-PE und 6800 Ultra, beide mit Default-Takt) und die nVidia-Karte war bei PS1.1 bereits (fast) durchgängig schneller als die X800, auch wenn es auf dieser ebenfalls sehr gut lief. Mit SM3 ohne irgendwelche Zusatzeffekte läuft es nch ein kleines bischen besser als mit SM1.1

aths
2005-03-08, 19:50:00
Wieso, weil die SM3.0 Unterstützung besser werden soll? Irgendwie ist das ganze auch ohne HDR nicht sonderlich flott. Und mit HDR ruckelts. Zumindest die 3 SM3. Spiele dies momentan gibt. Ich glaub nicht, dass das auch nur irgendwie besser wird. Und wenn die Spiele jetzt schon ruckeln, will ich garnicht wissen, wo die Karte in 2 Jahren steht.Max Payne 2 läuft (zumindest auf meinen eher CPU-limitierten Systemen) oft schneller als Max Payne 1, und ist dabei doch deutlich detailreicher.

mbee
2005-03-08, 19:57:54
Stimmt, allerdings sprechen alle bislang erschienen Titel mit SM3-Unterstützung (für bessere Optik) ziemlich gegen diese These, da Mr. Lolman recht...Sobald die ersten Titel mit speziellen SM3-Effekten ohne fette FPS-Einbrüche erscheinen bin ich auch vom Gegenteil überzeugt, warten wir's ab.

Jesus
2005-03-08, 20:04:09
Stimmt, allerdings sprechen alle bislang erschienen Titel mit SM3-Unterstützung (für bessere Optik) ziemlich gegen diese These, da Mr. Lolman recht...Sobald die ersten Titel mit speziellen SM3-Effekten ohne fette FPS-Einbrüche erscheinen bin ich auch vom Gegenteil überzeugt, warten wir's ab.

jupp meine Rede, und jetz bitte nicht mit den 5fps mehr die SplinterCell bei SM3 gegenüber SM1.1(!) erzielt argumentieren, zumale es keinen wirklichen Vergleichswert ggü z.b. SM2 gibt. :rolleyes:

G.a.s.t.
2005-03-08, 20:11:48
Wieso soll man damit nicht argumentieren?
Mehr Effekte bei, sagen wir mal gleicher Performance?

Oder habt ihr's immer noch nicht gerafft, daß HDR nichts mit SM3 zu tun hat?

mbee
2005-03-08, 20:18:17
Doch haben wir: Ich sehe jedoch bislang KEINEN Titel, der SM3 nicht in Verbindung mit FPS-Einbrüchen einsetzt bzw. ist noch keiner erschienen, der mehr Effekte bei gleicher Performance ermöglicht. Das dies theorethisch möglich ist, ist unbestritten, ob allerdings bis dahin nicht eh die Next-Gen-Chips wieder erhältlich sind und man für SM3 dann besser mit denen fährt, ist eine andere Sache.

Coda
2005-03-08, 20:23:26
Doch doch gibt es. Splinter Cell 3 :rolleyes:

zumale es keinen wirklichen Vergleichswert ggü z.b. SM2 gibt.Glaubst du wirklich die vielen State Changes weil man viel mehr viel mehr Shader braucht würden der Performance nützen?

Auf NV40 wäre SM 2 sicherlich nicht schneller, somit hat SM 3 schon seinen Zweck erfüllt.

Jesus
2005-03-08, 20:30:48
Doch doch gibt es. Splinter Cell 3 :rolleyes:

Glaubst du wirklich die vielen State Changes weil man viel mehr viel mehr Shader braucht würden der Performance nützen?

Auf NV40 wäre SM 2 sicherlich nicht schneller, somit hat SM 3 schon seinen Zweck erfüllt.

oder auch nicht (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=208861&page=4&pp=20)...

Coda
2005-03-08, 20:35:11
Shader 3.0 alles onDas ist mit HDR, weil das im selben Menü ist (und fälschlicherweiße unter SM 3.0 Effekt läuft)

Außerdem habe ich nix von SM 1.1 gesagt.

G.a.s.t.
2005-03-08, 20:36:16
oder auch nicht (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=208861&page=4&pp=20)...
Hast du auch gelesen und verstanden, was du da quotest?

So, zum Abschluß nochmal SM3.0 aber mit allen Zusatzshadereffekten AUS, d.h., dieselbe Bildqualität wie SM1.1->

1024 SM3.0 ALLE OPTiMIERUNGEN und Zusatzshader AUS; Start 73fps, danach 59-65fps (etwa 4 - 7% schneller als mit SM1.1)

Eigentor.

Coda
2005-03-08, 20:40:27
SM 3.0 bricht genau in einem Fall ein auf NV40 und das ist die verwendung von dynamic branching.

Ansonsten ist es immer brauchbar auch für längere Programme + vereinfachte Shaderverwaltung und mehr Register.

aths
2005-03-09, 02:49:11
Stimmt, allerdings sprechen alle bislang erschienen Titel mit SM3-Unterstützung (für bessere Optik) ziemlich gegen diese These, da Mr. Lolman recht...Sobald die ersten Titel mit speziellen SM3-Effekten ohne fette FPS-Einbrüche erscheinen bin ich auch vom Gegenteil überzeugt, warten wir's ab.Mich interessiert weniger der Einbruch durch neue Grafikeffekte und eher die Endgeschwindigkeit. Werden mittels SM3 neue, aufwändigere Effekte programmiert als mit SM2, zieht das natürlich an der Leistung. Würde man den gleichen (oder einen sehr ähnlichen Effekt) mit SM2 umsetzen wollen, wäre das ja nicht schneller, sondern fast immer langsamer. Je aufwändiger der Effekt, desto höher der Gewinn durch SM3, denn SM3 ist featuremäßig für deutlich mehr Komplexität als SM2 á la Radeon ausgelegt. Doch auch umso größer der allgemeine Leistungseinbruch durch die Abarbeitung zusätzlicher Befehle. Mit SM3 kann das nur teilweise abgefedert werden.

Man kann streiten, ob sich solche aufwändigen Effekte heute schon lohnen, denn für ein bisschen Zusatz-Qualität muss man ganz schön Power reinstecken (Gesetz des abnehmenden Ertrages) aber dass der NV40 bei Nutzung eines SM3-Pfades einbricht, sollte in dem Lichte gesehen werden, dass ein vergleichbarer Effekt auf SM2-HW noch langsamer sein würde.

HDR drückt die Leistung erheblich. Der NV40 ist allerdings die im Moment einzige verfügbare Hardware im Consumer Market, welche "echte HDR-Effekte" in Spielen überhaupt noch in Echtzeit darstellen kann. (rthdribl ist eine reine Techdemo und zeigt kein besonders fortschrittliches HDR.)


Ich zweifle sehr, dass die GeForce 6800 GT/Ultra imstande ist, die SM3 und HDR nutzenden Spiele des Jahres 2006 in 1600x1200 mit 4x AA und 16x AF flüssig bei max details zu rendern. Wer erst 2006 SM3-Effekte sehen will, braucht logischerweise heute noch keine neue Karte. Nach allem was ich von der Hardware weiß, kann aber selbst eine GeForce 6600 GT in Maßen für echte HDR-Effekte genutzt werden, und von SM3 profitiert sie auch (in Sonderfällen sogar mehr als die 6800.) Da man neben HDR sicher gerne noch weitere Details hätte und das alles in hoher Auflösung sehen möchte, wäre eine 6600 dafür natürlich nicht anzuraten, nur weil HDR im Prinzip geht.

Die 6200 würde ich als Marketing-SM3-Karte einstufen. Zwar hat sie 4 Pipes (wenn auch nur 2 ROPs) aber keine "HDR-Einheiten", und vor allem keine Kompressionsmechanismen für Z und Color. Für Spezialzwecke zu gebrauchen, für Spiele auch – aber SM3-Spiele setzen ja auch eine gewisse Mindestleistung voraus, welche man in der 6200-Klasse nicht bekommt. Trotzdem kann selbst die 6200 von SM3 profitieren. Gerade weil ihre Rohgeschwindigkeit nicht sonderlich hoch ist, merkt man jeden Speed-Up. Für aufwändige Effekte über dem vollen Bildschirm reichts zwar nicht. Aber wenn für SM2-Karten geschriebene Effekte dank SM3 auch nur 10% schneller werden, hat man ja schon was davon.

mapel110
2005-03-09, 02:58:47
Hm, inwiefern hängen diese Softshadows von Riddick denn tatsächlich mit SM3 zusammen?
Jedenfalls erreicht man nur spielbare Frameraten, wenn man eine 6800 GT oder Ultra besitzt.

6600 GT und 6800
http://www.firingsquad.com/hardware/chronicles_of_riddick_perf_2/page8.asp
Selbst für 800x600 ist eine 6600 GT oder 6800 12 Pipe zu langsam.

6800 GT und Ultra
http://firingsquad.com/hardware/chronicles_of_riddick_performance/page6.asp

Coda
2005-03-09, 03:06:47
Da es keine Demo gibt wurde das noch nicht so genau untersucht hier ;)

"SM 3.0" unter OpenGL bedeutet NV_fragment_program oder NV_fragment_program2, d.h. man wird es noch nicht mal gegen R520 vergleichen können :/

mapel110
2005-03-09, 03:16:07
Da es keine Demo gibt wurde das noch nicht so genau untersucht hier ;)

"SM 3.0" unter OpenGL bedeutet NV_fragment_program oder NV_fragment_program2, d.h. man wird es noch nicht mal gegen R520 vergleichen können :/
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=192102&highlight=riddick
ein paar Details haben wir ja. :)

Coda
2005-03-09, 03:20:38
Eigentlich müssten die Soft Shadows auch auf GeForce FX Karten laufen, nachdem was in dem Thread steht.

seahawk
2005-03-12, 18:56:37
Die Spekulation ,dass auch ATI noch in 2005 auch sein gesamtes Line-up auf SM3.0 umstellt, beantwort die Frage imho nachhaltig.

Eine neue KArte sollte SM3.0 haben.

deekey777
2005-03-19, 16:25:27
Gibt es eigentlich schon Ankündigungen, welche Spiele SM2.0b (selbst wenn nur zur Passreduktion à la Far Cry) unterstützen werden? :confused: