PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : VRAM-Management bei Nvidia so viel schlechter als bei AMD/Ati?


BlackArchon
2008-01-30, 19:13:54
Wenn ich mir Benchmarks ansehe, wo die 8800 GT in der 256- sowie der 512 MB-Ausführung dabei ist, sowie die Radeon 3850 mit 256 MB gegen die 512 MB-Variante, dann bestätigen alle Seiten, dass der Speicherunterschied bei Nvidia viel mehr Performance kostet als bei den AMD/Ati-Karten. Heißt das denn wirklich, dass die Treiberprogrammierer von Nvidia so viel schlechter als ihre Kollegen sind?

Aktuelles Beispiel: http://www.xbitlabs.com/articles/video/display/asus-eax38x0-top.html

Gast
2008-01-30, 19:20:13
Nö, aber bei Nvidia ist der native Maschinencode für den Chip größer, weil ja wesentlich mehr Funktionseinheiten parametrisiert werden müssen.

ATI muss nur 64 Einheiten im R600/RV670 ansteuern, NV zwischen 96 und 128 (G80/G92).

StefanV
2008-01-30, 19:21:19
Naja, das ist ja nichtmal das schlimme, viel schwerer wiegt IMO der Zustand, das die nV Karten hin und wieder abschmieren, wenn der VRAM Verbrauch zu arg wird.

Etwas, das mit PCI Express eigentlich nicht sein sollte.

Heißt im Klartext das da irgendwas mitm Speichermanagment nicht so ganz OK sein kann...
Nö, aber bei Nvidia ist der native Maschinencode für den Chip größer, weil ja wesentlich mehr Funktionseinheiten parametrisiert werden müssen.

ATI muss nur 64 Einheiten im R600/RV670 ansteuern, NV zwischen 96 und 128 (G80/G92).
Nein, denn ersteinmal dürfts wenig bis garnix ausmachen und zum anderen würd das nicht die Abstürze bei zu hoher VRAM Benutzung erklären.

mapel110
2008-01-30, 19:22:45
nvidia nutzt doch offenbar immernoch Filter on Scanout bei AA. Und das braucht mehr VRam, spart aber Bandbreite afaik.

Etwas, das mit PCI Express eigentlich nicht sein sollte.

Speichervirtualisierung für die Graka soll doch erst noch mit Vista kommen?!

Exxtreme
2008-01-30, 19:25:52
Nö, aber bei Nvidia ist der native Maschinencode für den Chip größer, weil ja wesentlich mehr Funktionseinheiten parametrisiert werden müssen.

ATI muss nur 64 Einheiten im R600/RV670 ansteuern, NV zwischen 96 und 128 (G80/G92).
IMHO unwahrscheinlich, daß es am Maschinencode liegt.

StefanV
2008-01-30, 19:33:46
Speichervirtualisierung für die Graka soll doch erst noch mit Vista kommen?!
Dennoch sollte eine normale PCIe Karte in der Lage zu sein, den PC Hauptspeicher zu benutzen, wenn der VRAM abhanden gekommen ist und nicht abschmieren, aufgrund von zu viel Speicher...

Gast
2008-01-30, 20:16:23
Nö, aber bei Nvidia ist der native Maschinencode für den Chip größer, weil ja wesentlich mehr Funktionseinheiten parametrisiert werden müssen.



G8x und neuer ist im gegensatz zu R(V)6xx keine VLIW-architektur mehr, also sollte jener bei ATI eigentlich größer sein.

außerdem dürften die instructions nur eine sehr kleine menge vom gesamten speicherverbrauch ausmachen und nicht ins gewicht fallen.

bist zum R6xx konnte ati meines wissens nichtmal instruktionen direkt aus dem speicher ausführen, weshalb ältere ati-karten auch ein echtes instruktionslimit/shader hatten, während NV seit NV4x kein reales limit mehr in hardware hat.

Gast
2008-01-30, 20:17:56
nvidia nutzt doch offenbar immernoch Filter on Scanout bei AA. Und das braucht mehr VRam, spart aber Bandbreite afaik.


könnte sein, um das gegenzutesten müsste man hohe auflösungen ohne FSAA testen.

Exxtreme
2008-01-30, 20:23:28
nvidia nutzt doch offenbar immernoch Filter on Scanout bei AA. Und das braucht mehr VRam, spart aber Bandbreite afaik.

Es braucht zwar mehr RAM, sollte aber nicht wirklich derartige Geschwindigkeitsverluste verursachen. Da ist woanders der Hund drin.

Gast
2008-01-30, 20:37:32
Es braucht zwar mehr RAM, sollte aber nicht wirklich derartige Geschwindigkeitsverluste verursachen. Da ist woanders der Hund drin.

bei 4x AA kann das durchaus einiges kosten und erst recht bei 8x (falls sie das ganze wirklich beim scanout machen, was ich mir aber nicht vorstellen kann)

tokugawa
2008-01-30, 20:59:59
Wenn ich mir Benchmarks ansehe, wo die 8800 GT in der 256- sowie der 512 MB-Ausführung dabei ist, sowie die Radeon 3850 mit 256 MB gegen die 512 MB-Variante, dann bestätigen alle Seiten, dass der Speicherunterschied bei Nvidia viel mehr Performance kostet als bei den AMD/Ati-Karten. Heißt das denn wirklich, dass die Treiberprogrammierer von Nvidia so viel schlechter als ihre Kollegen sind?


Unabhängig vom Thema sind die Treiberprogrammierer von NVIDIA definitiv NICHT schlechter als die von ATI. Das kann glaub ich so ziemlich jeder Entwickler bestätigen.

reunion
2008-01-30, 21:02:58
Unabhängig vom Thema sind die Treiberprogrammierer von NVIDIA definitiv NICHT schlechter als die von ATI. Das kann glaub ich so ziemlich jeder Entwickler bestätigen.

Also was man von Grestorn so hört scheinen die NV-Leute jedenfalls genug Mist zu bauen.

AnarchX
2008-01-30, 21:04:48
So lange wie das "Problem" schon besteht, erste größere öffentliche Meldungen gab es schon im Frühjahr 2007, wird es wohl doch in der HW stecken.
Im Endeffekt kann sich NV hier wohl nur mit Workarounds helfen, wie sie es schon zum Teil zeigten, wo eine 320er GTS z.B. deutlich an Leistung hinzugewann.

Aber Downfilter@Scanout gibt es bei G8x AFAIK nicht mehr, vorallem HDRR lässt dies wohl auch nicht zu.

Also was man von Grestorn so hört scheinen die NV-Leute jedenfalls jedemenge Mist zu bauen.
Aber wer sagt, dass es bei ATi weniger Probleme gibt? Vorallem Entwickler sollen ja haarsträubende Probleme haben.
Und auch der Enduser hat so manches Problem, wie war das nochmal mit dem nicht wirklich beständigen TRAA? ;)

tokugawa
2008-01-30, 21:11:46
Also was man von Grestorn so hört scheinen die NV-Leute jedenfalls genug Mist zu bauen.

Grestorn ist nur eine Person...

Klar gibt's auch mal Bugs, aber die NV-Treiber sind bei weitem robuster programmiert. Ich konnte mal reproduzierbar mit dem ATI-Treiber den Rechner rebooten :)

Zumal die Existenz von NVPerfHUD und dem instrumentiertem Treiber sowieso vieles verzeiht.

BlackArchon
2008-01-30, 21:19:39
Es geht mir hier wirklich nur um die Ursache für das VRAM-Problem. Dass es beim G80 eventuell ein Hardware-Bug gewesen sein könnte, halte ich für nicht unmöglich. Falls dies jedoch wahr wäre, dann wäre dieser doch aber beim G92 gefixt worden.

Gibts denn zu diesem Thema keine Diskussionen in den einschlägigen Foren (beyond3d und Co.)?

AnarchX
2008-01-30, 21:27:02
Es geht mir hier wirklich nur um die Ursache für das VRAM-Problem. Dass es beim G80 eventuell ein Hardware-Bug gewesen sein könnte, halte ich für nicht unmöglich. Falls dies jedoch wahr wäre, dann wäre dieser doch aber beim G92 gefixt worden.
G92 (bzw.G9x) ist eine einfache, schnelle Zwischenlösung, wo nicht viel RnD einfloss, bei ATi hat man bei RV670 ja auch nichtmal schnell Z-Fill und TF-Zahl erhöhrt.

Wenn dann wird das Problem wohl erst mit GT200 und Ablegern gelöst.


Gibts denn zu diesem Thema keine Diskussionen in den einschlägigen Foren (beyond3d und Co.)?
Leider nicht, wenn dann nur kurz angesprochen und auch keine Fachmeinung/Insiderwissen.

Razor
2008-01-30, 21:30:04
Wenn da wird das Problem wohl erst mit GT200 und Ablegern gelöst.
Also gerade der "GT200" wird eine Extrem-Zwischenlösung... wie man ja schon am Code-Namen erkennen kann.
Glaube kaum, dass man da großartig etwas 'fixen' wird...

Momentan sieht es viel eher so aus, als ob der G80 (samt Ablegern) eine "Zwischenlösung" war.

Razor

AnarchX
2008-01-30, 21:36:43
Also gerade der "GT200" wird eine Extrem-Zwischenlösung... wie man ja schon am Code-Namen erkennen kann.
Glaube kaum, dass man da großartig etwas 'fixen' wird...
GT200&Co. ist NVs nächster "Tick", nachdem G9x nur ein "Tock" war/ist. ;)
Und eine Zwischenlösung ist eine Architekturevolution, die bis zum weit entfernten Vienna überdauert und mit R800 und Co. konkurrieren muss, sicherlich nicht.


Momentan sieht es viel eher so aus, als ob der G80 (samt Ablegern) eine "Zwischenlösung" war.

Nicht schon wieder... X-D
Sicherlicht hat G8x gewisse Startschwierigkeit wie jede neue Generation, aber generell überzeugt er durch seine Innovationen, die auch für den User viel praktischen Nutzen habe, was sich im Endeffekt auch im großen Erfolg von GF8 zeigt.

anddill
2008-01-30, 21:46:13
War da nicht mal was bei ATI mit der Z-Kompression, die um einiges besser war als die Konkurrenz? Das war doch damals zu Radeon 8500-Zeiten.

Gast
2008-01-30, 21:47:55
Momentan sieht es viel eher so aus, als ob der G80 (samt Ablegern) eine "Zwischenlösung" war.
Quatsch, der G80 ist zugegebenmassen noch nicht ganz so toll, mit all seinen Problemen. Vergleichen wir ihn also mal mit dem NV30, nur das der G80 zum Start bereits besser war.

Die Nachfolge Chips beseitigen Nach und nach Fehler und bringen einen erheblichen Performance Schub.


Eine völlig neue Generation ist nicht einfach nur eine Zwischenlösung.

Exxtreme
2008-01-30, 22:00:30
bei 4x AA kann das durchaus einiges kosten und erst recht bei 8x (falls sie das ganze wirklich beim scanout machen, was ich mir aber nicht vorstellen kann)
Nene, denn dann würde schon die NV25-Serie dieses Verhalten zeigen, daß bei zu knappen RAM der Speed heftig einbricht. Und ich glaube, die aktuellen Chips von Nvidia haben das gar nicht mehr drinne. Denn der Scanout hatte den Vorteil, daß er einen Speicherzugriff gespart hat. Da die Bandbreite jetzt aber nicht mehr so knapp ist wie früher, lohnt der Aufwand einfach nicht. Zudem was machst du bei Postprocessing-Effekten? Diese wären so ziemlich unmöglich wenn dieser Scanout aktiv wäre.

Entweder ist da ein Bug drinne oder AMD komprimiert die Daten besser oder was weiss ich.

Razor
2008-01-30, 22:01:38
Zwischen G70 und G71 lag nur ein Jahr und nun überleg mal wann G80 rauskam und warum man sich sogar etwas Zeit damit gelassen hat.
Also wenn Du schon mit sochen dämlichen... sorry... 'absolut unsinnigen' Vergleichen kommst, dann bitte wenigstens im richtigen Verhältnis:
NV1x vs. NV2x vs. NV3x vs. vs. NV4x vs. G7x vs. G8x vs. G9x vs. G10x

Jedem werden hier doch wohl hoffentlich gewisse 'Regelmäßigkeiten' auffallen...
:rolleyes:

Razor

P.S.: nun aber Schluß mit dem Unfug...
...es geht hier ja wohl hoffentlich noch um die Frage, ob 256MB bei ATI tatsächlich besser ist, als 256MB bei nVidia.

Grestorn
2008-01-30, 22:03:17
Also wenn Du schon mit sochen dämlichen... sorry... 'absolut unsinnigen' Vergleichen kommst, dann bitte wenigstens im richtigen Verhältnis:
NV1x vs. NV2x vs. NV3x vs. vs. NV4x vs. G7x vs. G8x vs. G9x vs. G10x

Jedem werden hier doch wohl hoffentlich gewisse 'Regelmäßigkeiten' auffallen...
:rolleyes:

Razor

Namen sind Schall und Rauch.

Man kann gut argumentieren, dass der G92 nicht weiter weg vom G80 ist, wie der G71 vom G70. Von der Zahl alleine sollte man sich nicht irritieren lassen.

BlackArchon
2008-01-30, 22:04:34
Ich sehe schon, wie der Thread wieder in die übliche Richtung abdriftet. Schade, ich hätte gern sachlich über dieses Thema diskutiert, aber leider ist das hier offensichtlich mit einigen Störenfrieden nicht möglich. ;(

Den Off-Topic-Teil splitte ich jetzt raus, in der sehr schwachen Hoffnung, dass doch noch etwas zu diesem Thema kommt...

Razor
2008-01-30, 22:05:57
Namen sind Schall und Rauch.

Man kann gut argumentieren, dass der G92 nicht weiter weg vom G80 ist, wie der G71 vom G70. Von der Zahl alleine sollte man sich nicht irritieren lassen.
Nich alleine die Zahl 'irritiert'... da sei Dir mal sicher.
Und dass der G92 aber sogar um Welten weiter von einem G80 weg ist, als es der mega-simpel-Refresh bei G71-zu-G70 war, sollte auch Dir klar sein.

Ist aber noch immer mächtig OT hier.

Razor

Razor
2008-01-30, 22:07:46
Ich sehe schon, wie der Thread wieder in die übliche Richtung abdriftet. Schade, ich hätte gern sachlich über dieses Thema diskutiert, aber leider ist das hier offensichtlich mit einigen Störenfrieden nicht möglich. ;(

Den Off-Topic-Teil splitte ich jetzt raus, in der sehr schwachen Hoffnung, dass doch noch etwas zu diesem Thema kommt...
Wärest Du dann bitte so lieb, wenigstens auf diesen Post zu reagieren?
Und es wäre wohl auch 'hilfreicher', wenn Du Deinen initialen Post etwas... na ja... 'verträglicher' formulieren würdest.

Copy&Paste:

Wenn ich mir Benchmarks ansehe, wo die 8800 GT in der 256- sowie der 512 MB-Ausführung dabei ist, sowie die Radeon 3850 mit 256 MB gegen die 512 MB-Variante, dann bestätigen alle Seiten, dass der Speicherunterschied bei Nvidia viel mehr Performance kostet als bei den AMD/Ati-Karten. Heißt das denn wirklich, dass die Treiberprogrammierer von Nvidia so viel schlechter als ihre Kollegen sind?

Aktuelles Beispiel: http://www.xbitlabs.com/articles/video/display/asus-eax38x0-top.html
Kannst Du mal ein bischen spezifischer werden?
:confused:

Falls Du die Situationen meinst, die bei beiden Kontrahenten zu unspielbarer Performance führen, aber bei ATI höhere avg's zeigen, dann brauchen wir uns hier wohl nicht wirklich dazu auslassen, oder?

Auch bei dem von Dir angegebenen Review habe ich keine Beispiele gesehen, wo dieser Umstand das Zünglein an der Waage spielt.
Aber vielleicht habe ich da ja was übersehen...
:rolleyes:

Razor

P.S.: generell aufgrund solcher Beobachtungen auf die Fähigkeiten der Programmierer zu schließen ist allerdings echt hart... hier liegen vollkommen unterschiedliche Architekturen zugrunde und ich vermute mal, dass hier NIEMAND auch nur ansatzweise Ahnung von Hardware-Programmierung hat, um ein solches Urteil bilden zu können.

Grestorn
2008-01-30, 22:07:52
Nich alleine die Zahl 'irritiert'... da sei Dir mal sicher.
Und dass der G92 aber sogar um Welten weiter von einem G80 weg ist, als es der mega-simpel-Refresh bei G71-zu-G70 war, sollte auch Dir klar sein.


Zähl doch einfach mal die Unterschiede des G92 auf.

(Sorry Black. Ich würde das auch gern in einem gesplittetem Thread weiterdiskutieren).

BlackArchon
2008-01-30, 22:15:10
Kannst Du mal ein bischen spezifischer werden?Nun ich sehe bei jedem Grafikkarten-Benchmark, dass der Performance-Unterschied zwischen der 8800 GT mit 256 MB und der 512 MB-Version doch ziemlich groß ist, selbst in moderaten Auflösungen wie 1280x1024 ist die 256 MB-Variante oftmals nur 50% oder noch langsamer als die 512 MB-Version (Ausnahmen bestätigen selbstverständlich die Regel). Da die Taktraten identisch sind, kann nur der Speichermengenunterscheid ausschlaggebend sein.

Wenn ich jetzt dazu Tests von der 3850 anschaue, dann ist meist auch in hohen Auflösungen wie 1600x1200 oder noch höher (mit AA) der prozentuale Verlust der 256 MB-Version gegenüber der 512 MB-Version viel geringer.

Einfache Frage: Warum ist das so?

Razor
2008-01-30, 22:20:06
Nenne doch bitte einfach mal ein paar Beispiele dieses Reviews.
Was ist wie bei was genau?

Ich habe eigentlich keine Lust, mir das ganze Review anzutun...
Habe mir mal die ersten Benchies angetan und das von Dir gesagte nicht nachvollziehen können.

Razor

Gast
2008-01-30, 22:22:07
Nich alleine die Zahl 'irritiert'... da sei Dir mal sicher.
Und dass der G92 aber sogar um Welten weiter von einem G80 weg ist, als es der mega-simpel-Refresh bei G71-zu-G70 war, sollte auch Dir klar sein.

Ist aber noch immer mächtig OT hier.

Razor

Von der Leistung her ist der G92 gegenüber dem G80 aber eher ein Rückschritt! Dagegen hat der G71 gegenüber dem G70 ordentlich Leistung gebracht.

Gast
2008-01-30, 22:24:55
Nö G92 ist locker schneller wenn man möchte, möchte nvidia zur zeit aber noch nicht ;)

Gast
2008-01-30, 22:28:04
Nö G92 ist locker schneller wenn man möchte, möchte nvidia zur zeit aber noch nicht ;)

Wie soll der denn locker schneller sein als jetzt? Und warum sollte Nvidia den Chip künstlich bremsen???

san.salvador
2008-01-30, 22:28:30
Von der Leistung her ist der G92 gegenüber dem G80 aber eher ein Rückschritt! Dagegen hat der G71 gegenüber dem G70 ordentlich Leistung gebracht.
Weshalb eine GTS (G92) auch des öfteren eine GTX bügelt...
Wenn man keine Ahnung hat...

Razor
2008-01-30, 22:30:04
Ähmm... OT, oder?
Ich habe nicht ohne Grund auf eine Antwort auf Grestorns Post verzichtet.

Razor

Gast
2008-01-30, 22:35:07
Weshalb eine GTS (G92) auch des öfteren eine GTX bügelt...
Wenn man keine Ahnung hat...

Ab da, wo so eine Grafikkarte sinnvoll eingesetzt werden sollte (1280x1024 4xAA 16AF und darüber), ist die GTS (G92) langsamer als der G80. Bei 1920x1200 4aAA und darüber ist der G80 sogar im Schnitt 20-30% schneller! ;)

Dagegen war der G71 gegenüber dem G70 durchschnittlich 50% schneller!!!

LovesuckZ
2008-01-30, 22:35:30
Es befasst sich ja niemand mit dem Thema.
Ein Vergleich zwischen Vista und XP wäre für die Erforschung sowas von hilfreich.

Welcher G71?

Gast
2008-01-30, 22:41:25
Welcher G71?

G71 = 7900GTX
G70 = 7800GTX

4 Vitamins
2008-01-30, 22:42:35
Denke dass das genau zu thema passt:
http://extreme.pcgameshardware.de/showthread.php?t=9933


11) VRAM-Skalierung :

http://img134.imageshack.us/img134/3872/512512gw5.th.jpg (http://img134.imageshack.us/my.php?image=512512gw5.jpg)

gruss

LovesuckZ
2008-01-30, 22:43:05
Und gibt es schon eine 9800GTX?
Die 7900GT war genauso schnell wie die 7800GTX, bei geringerem Stromverbrauch. Also Vergleich mit der 8800GT und 8800GTS -> schneller und stromsparender.

Gast
2008-01-30, 22:46:18
G92 (bzw.G9x) ist eine einfache, schnelle Zwischenlösung, wo nicht viel RnD einfloss, bei ATi hat man bei RV670 ja auch nichtmal schnell Z-Fill und TF-Zahl erhöhrt.



aber ATI hat bei RV670 die probleme mit der grauenhaften AA-performance behoben. es ist schon ein unterschied ob man die performance an einer bestimmten stelle deutlich erhöhen will, was sehr viel transistoren kostet, oder ob man "nur" einen bug beheben will, was je nachdem kaum oder garkeine transistoren kostet.

Gast
2008-01-30, 22:49:56
Wenn ich jetzt dazu Tests von der 3850 anschaue, dann ist meist auch in hohen Auflösungen wie 1600x1200 oder noch höher (mit AA) der prozentuale Verlust der 256 MB-Version gegenüber der 512 MB-Version viel geringer.

Einfache Frage: Warum ist das so?

das kann auch ganz einfach an der höheren grundperformance der 8800er liegen, eventuell limitiert es da bei ATI an anderer stelle vorher.

Gast
2008-01-30, 22:50:17
Und gibt es schon eine 9800GTX?
Die 7900GT war genauso schnell wie die 7800GTX, bei geringerem Stromverbrauch. Also Vergleich mit der 8800GT und 8800GTS -> schneller und stromsparender.

Bisher gibts keine 9800GTX, also bleibt nur die GTS (G92) zum Vergleich. Noch dazu müsste eine 9800GTX mindestenz 85% schneller als ein GTS (G92) sein um den gleichen Leistungssprung wie 7800GTX->7900GTX zu bringen! Das ist mit einem G92 in seiner jetzigen Form praktisch nicht möglich! ;)

Gast
2008-01-30, 22:51:03
Wie soll der denn locker schneller sein als jetzt? Und warum sollte Nvidia den Chip künstlich bremsen???

indem er ordentlichen speicher zur seite bekommt, am besten GDDR4, und schon kann damit eine GTX und wahrscheinlich sogar die ultra übertroffen werden.

LovesuckZ
2008-01-30, 22:51:55
Denke dass das genau zu thema passt:
http://extreme.pcgameshardware.de/showthread.php?t=9933


11) VRAM-Skalierung :

http://img134.imageshack.us/img134/3872/512512gw5.th.jpg (http://img134.imageshack.us/my.php?image=512512gw5.jpg)

gruss

Jetzt wäre ein Vergleich mit Vista von interesse.

Gast
2008-01-30, 22:55:33
indem er ordentlichen speicher zur seite bekommt, am besten GDDR4, und schon kann damit eine GTX und wahrscheinlich sogar die ultra übertroffen werden.

Damit kommt man höchsten auf G80-Level aber nicht drüber, dank der Kastration an ROPs! ;)

LovesuckZ
2008-01-30, 22:59:37
Man ist doch schon auf G80 Niveau.

Gast
2008-01-30, 23:01:40
Man ist doch schon auf G80 Niveau.

Ab 1280x1024 4xAA/16xAF mindestens 10% drunter und bei hohen Auflösungen 20-30%! ;)

Gast
2008-01-30, 23:09:27
Noch dazu müsste eine 9800GTX mindestenz 85% schneller als ein GTS (G92) sein um den gleichen Leistungssprung wie 7800GTX->7900GTX zu bringen!
Zwischen 7800GTX und 7900GTX lagen eher 50%.



Die 7900GT war genauso schnell wie die 7800GTX, bei geringerem Stromverbrauch. Also Vergleich mit der 8800GT und 8800GTS -> schneller und stromsparender.
1. Die 7900GT war sogar einen Tick schneller.

2. Die Rolle der GT hat imho die GTS übernommen.
-> Vergleichen wir also 8800GTX mit 8800GTS 512
-> Vergleichen wir also 8800GTS 640 mit 8800GT
Imho steht der G92 gut da: Mehr Features (VP), geringerer Stromverbrauch und Taktmäßig noch nicht ganz am Ende

Gast
2008-01-30, 23:14:00
Zwischen 7800GTX und 7900GTX lagen eher 50%.

Hab ich doch genau geschrieben (50%). Die ~85% kommen daher, dass der G80 ~25% schneller als der G92 ist (1,25 x 1,5 ~ Faktor 1,85). G92 GTS müsste also ~85% Leistung zulegen um 50% über G80 zu liegen!

StefanV
2008-01-30, 23:31:14
Einfache Frage: Warum ist das so?
VRAM Bug?
ERinnerst du dich noch an die "Theorie", das der G8x und verwandt, Probleme hat, den Speicherinhalt zu entsorgen?
Und die Frameraten nach längeren Sessions wegbrechen, nach 'nem Taskswitch das ganze aber wieder flotter ist?

Grab mal etwas weiter, dann siehst, das es Benchmarks gibt, wo bei den G8x (Ablegern) mit wenig RAM (256/320MiB) das Spiel mit höheren Settings abschmiert, während alles andere immerhin noch ein Bild liefert.
Da ist wirklich was ganz gewaltig kaputt.

Besonders hart wird/ist der Vergleich bei 512MiB Crossfire/SLI Gespannen bzw den Dual Karten.
Hat es ein RV670 alleine recht schwer mit den G8x mitzuhalten, schauts im 2 Gespann bei besseren Settings (z.B. 1600x1200, 4x FSAA) plötzlich andersrum aus, das siehst du auch in den ganzen Reviews.
Besser gesagt siehst du, das die G8x regelrecht absterben...

@Razor
Sorry, aber du schreibst hier in diesem Thread ganz gewaltigen Unsinn und shredderst einfach nur diesen Thread, warum auch immer...

LovesuckZ
2008-01-30, 23:35:40
Ja, der berühmte, nie nachgewiese erste Vram-Bug.

Gast
2008-01-30, 23:44:12
Grab mal etwas weiter, dann siehst, das es Benchmarks gibt, wo bei den G8x (Ablegern) mit wenig RAM (256/320MiB) das Spiel mit höheren Settings abschmiert, während alles andere immerhin noch ein Bild liefert.
Da ist wirklich was ganz gewaltig kaputt.

Allerdings, das ist warhaftig heftig. Eventuell sollte man ihn umbennen, den VRAM-Bug Gegner zu liebe in: "Bei VRAM-Mangel folgt Absturz Bug"

Dennoch scheint eine Speichermenge, wie bei der GTX bereits auszureichen, um dem zu entfliehen.



@Razor
Sorry, aber du schreibst hier in diesem Thread ganz gewaltigen Unsinn und shredderst einfach nur diesen Thread, warum auch immer...

Razor muss unbedingt seine GT512 in den Himmel loben und ALLES andere mies machen.

Blaire
2008-01-30, 23:53:42
VRAM Bug?
ERinnerst du dich noch an die "Theorie", das der G8x und verwandt, Probleme hat, den Speicherinhalt zu entsorgen?
Und die Frameraten nach längeren Sessions wegbrechen, nach 'nem Taskswitch das ganze aber wieder flotter ist?

Sowas hatte ich noch nie gehabt solange ich die GTX/Ultras besessen habe, das Problem gab es mit 320MB GTS Karten.


Besonders hart wird/ist der Vergleich bei 512MiB Crossfire/SLI Gespannen bzw den Dual Karten.
Hat es ein RV670 alleine recht schwer mit den G8x mitzuhalten, schauts im 2 Gespann bei besseren Settings (z.B. 1600x1200, 4x FSAA) plötzlich andersrum aus, das siehst du auch in den ganzen Reviews.
Besser gesagt siehst du, das die G8x regelrecht absterben...


Wo denn? Schau dir mal die Jericho Werte auf CB an...da brechen lediglich die 3870 Karten weg. In Wahrheit brechen die G8x 512MB Karten meist da ein , wo kein Gaming mehr möglich ist sowas gabs früher wie heute auch...Juarez DX10 boah ey 12fps für ne X2. die GTS schafft nur 4fps... nächstes Beispiel Oblivion und CoH DX10 wo brechen da die Karten weg? Man findet immer Settings die mal der einen, mal der anderen Karte eher liegen. Keiner regt sich über die schwache Performance in Crysis auf wo es auf Spielbarkeit ankommt...das sollte man viel eher beachten -> aktuelle Games und da scheint Ati mit DX10 so einige Probleme zu haben wie die Benchmarks zeigen. Das liegt den Nvidia Karten deutlich besser : http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet

Liszca
2008-01-31, 00:03:53
Noch dazu müsste eine 9800GTX mindestenz 85% schneller als ein GTS (G92) sein um den gleichen Leistungssprung wie 7800GTX->7900GTX zu bringen!

BITTE was? Ups ist ja gast ;D

Gast
2008-01-31, 00:04:44
Nich alleine die Zahl 'irritiert'... da sei Dir mal sicher.
Und dass der G92 aber sogar um Welten weiter von einem G80 weg ist, als es der mega-simpel-Refresh bei G71-zu-G70 war, sollte auch Dir klar sein.

Ist aber noch immer mächtig OT hier.

Razor

Ja WELTEN liegen dazwischen!!!
Dann sag mal was an.......

Komm nicht nur mit dem tollen neuen VP, oder den WUNDER Stromsparmodis....
Jemand der von ganzen WELTEN spricht muss schon sehr genau bescheid wissen....

Na dann hau mal in die Tasten.........

mfg....

robbitop
2008-01-31, 00:50:14
War da nicht mal was bei ATI mit der Z-Kompression, die um einiges besser war als die Konkurrenz? Das war doch damals zu Radeon 8500-Zeiten.
Du meinst sicher den Hirarchial Z Buffer. Aber nein weder die Z Komprimierung noch die Farbkomprimierung sparen VRAM. Sie sparen nur bandbreite. Reserviert wird dennoch die volle Speichermenge aus Adressierungsgründen.

NV scheint die Texturen etwas anders zu organisieren als ATI. Es ist gar nicht so einfach, zu entscheiden, welche Texturen gerade nicht sofort gebraucht werden und welche schon. Denn gerade das Lesen von Texturen kostet richtig Bandbreite und so lange bis die Daten in den Caches sind, dreht die Pipeline Däumchen. Den Dreh scheint ATI ein wenig besser raus zu haben als NV. Mit D3D11 sollte dann aber endlich der komplette VRAM virtualisiert sein.

Coda
2008-01-31, 01:03:59
Nö, aber bei Nvidia ist der native Maschinencode für den Chip größer, weil ja wesentlich mehr Funktionseinheiten parametrisiert werden müssen.

ATI muss nur 64 Einheiten im R600/RV670 ansteuern, NV zwischen 96 und 128 (G80/G92).
Das ist für den Maschinencode völlig unerheblich. Der ist exakt gleich egal ob 96 oder 128 Einheiten. Und selbst wenn es so wäre, die Shaderprogramme belaufen sich auf <1MB selbst für Crysis. Das ist absolut unkritisch.

Also was man von Grestorn so hört scheinen die NV-Leute jedenfalls genug Mist zu bauen.
Das kann das ATi-Treiberteam genauso gut. Hör auf mit der Polemik, da fallen mir genug Beispiele ein. Software in der Größe und ständiger Erweiterung auf neue APIs und Spiele kann gar nicht fehlerfrei bleiben. Das ist das große Problem beider IHVs in dieser Hinsicht, auch wenn die Prioritäten teilweise anders gesetzt werden (ATi und OpenGL *hust*).

War da nicht mal was bei ATI mit der Z-Kompression, die um einiges besser war als die Konkurrenz? Das war doch damals zu Radeon 8500-Zeiten.
Das wurde mit G8x wesentlich verbessert. Spart aber trotzdem keinen Speicher ;)

Mit D3D11 sollte dann aber endlich der komplette VRAM virtualisiert sein.
Das ändert an den Problemen aber rein gar nichts. Der Chip oder Treiber muss weiterhin spekulativ entscheiden was er bald braucht und was nicht.

Theoretisch könnte man nen Kernel-Treiber bauen der schlicht und einfach den Videospeicher dumpt. Dann könnte man sich das mal ansehen. Aber ich wüsste nicht wer das für lau machen sollte.

Übrigens ist G92 in der Tat eine G8x-Architektur mit minimalen Verbesserungen. Das kann man mit CUDA wunderbar messen.

Nich alleine die Zahl 'irritiert'... da sei Dir mal sicher.
Und dass der G92 aber sogar um Welten weiter von einem G80 weg ist, als es der mega-simpel-Refresh bei G71-zu-G70 war, sollte auch Dir klar sein.

Ist aber noch immer mächtig OT hier.
I want to believe...

Spasstiger
2008-01-31, 01:30:29
Unter DX10 scheinen die Probleme noch ausgeprägter zu sein.
Während die 8800 GT 512 MiB einen guten Eindruck hinterlässt und die Radeon-HD38x0-Konkurrenz deklassiert, lässt die 8800 GT 256 MiB stark daran zweifeln, dass hier eine 180€-Grafikkarte zu Gange war.

http://img297.imageshack.us/img297/6906/25884343km5.png

http://img297.imageshack.us/img297/854/78509894ji3.png

Da kann ein 8800-GT-Käufer, der nur die Benchmarks der 512-MiB-Version kennt, und meint, mit der 256-MiB ähnliche Performance zum Sparpreis zu bekommen, ganz schön böse auf die Schnauze fallen.

MadManniMan
2008-01-31, 08:56:50
Momentan sieht es viel eher so aus, als ob der G80 (samt Ablegern) eine "Zwischenlösung" war.

Jo, endlich mal jemand, der das versteht :up:

Bemerkenswert der geringe Performancevorteil, das quasi unverändert übernommene Featureset in Bezug auf Filteralgorithmen und Anti-Aliasing, das unwesentlich veränderte Shadermodell, das kinderleichte und damit eigentlich total unwichtige Zusammenwürfeln der Shaderstruktur ... die Liste der eigentlich nicht verhandenen Unterschiede ist ellenlang und erklärt kein Stück den unverschämt hohen Stromverbrauch.

Wahrscheinlich hat mein einfach überall die Spannung erhöht und einfach mehr Transistoren verbaut. Ja, das muss es sein.


Und dass der G92 aber sogar um Welten weiter von einem G80 weg ist, als es der mega-simpel-Refresh bei G71-zu-G70 war, sollte auch Dir klar sein.

Wo Du schon wieder total Recht hast!

Ein hochkomplexer Die-Shrink wie beim G92 ausgehend vom G80 mit nachträglicher Erhöhung der Taktfrequenz ... Leute Leute, als ich könnte das nicht!

Dagegen ... pft ... beim G71? Was war das schon?!? Einfach mal so ein paar Quads dran und den Takt hoch, also bitte. Das is ja nun gar nix.



:|



Ist aber noch immer mächtig OT hier.

Es ist vor allem mächtig doof hier. Du schreibst Hirnriss, lässt diesen stehen und weigerst Dich dann im Nachhinein, nochmal Stellung zu beziehen. Ich geh ja auch nicht irgendwo hin, kacke auf den Esstisch und erzähle, dass die Leute ja keine Ahnung haben, was eigentlich lecker Futter is (OK, als wirklich einen Abgeseilt habe ich noch nie :D ).

Und was Du hier noch nach Beweisen für das schlechte Abschneiden der 256er GT brauchst? Guck Dir den Test bei den XBit-Labs an - und leugne danach meinetwegen weiter, aber guck ihn Dir wenigstens an.
Es ist jedenfalls höchst krass, wieviel Geld für die 8800 GT 256 genommen wird ;(

seahawk
2008-01-31, 09:16:43
Naj, erstmal halte ich für einen Fakt, dass der G8X-G9X mehr VRAM verbrauchen als die ATI Konkurrenzprodukte und dass diese Prroblem teils erhebliche Perfromanceinbrüche verursacht. Da es schon lange bekannt ist und immern och ungelöst, würde ich mal ein Treiberproblem für unwahrscheinlich halten. Eher muss man Fixes in den Treiber einbauen um eine Hardwareeigenschaft zu verbessern.

Es kann ein heftiger Bug im Chip sein, oder auch prinzipbedingt. Ich halte es für denkbar, dass NV durch die breitere Struktur der Shadereinheiten mehr Texturen benötigt, da stärker parallel gearbeitet wird.

Gast
2008-01-31, 10:22:17
Jetzt wäre ein Vergleich mit Vista von interesse.
lesen hilft weiter

Microsoft Windows Vista Ultimate 32-bit;
ATI Catalyst 7.12 for Radeon HD 3800;
Nvidia ForceWare 169.25 for GeForce 8800.

und btw mit welchem O/S sind IYO die DX10 Benches gemacht?

The_Invisible
2008-01-31, 10:36:31
ich hatte mit meinem kärtchen auch nie probleme das ich mal Alt+Tab hätte machen müssen.

vielleicht ist die g8x architektur/treiber einfach auf >=512MB ausgelegt und die <512MB karten sind nur des preises wegen auf dem markt.

mfg

Gast
2008-01-31, 10:46:26
Wenn ich mir Benchmarks ansehe, wo die 8800 GT in der 256- sowie der 512 MB-Ausführung dabei ist, sowie die Radeon 3850 mit 256 MB gegen die 512 MB-Variante, dann bestätigen alle Seiten, dass der Speicherunterschied bei Nvidia viel mehr Performance kostet als bei den AMD/Ati-Karten. Heißt das denn wirklich, dass die Treiberprogrammierer von Nvidia so viel schlechter als ihre Kollegen sind?




Meinst du, Nvidia hätte beim G80 auf einmal das Treiberprogrammieren verlernt?;)

Der G80 braucht auch mehr RAM als ein G70 bei derselben Anwendung/gleichem Shadercode.

Gast
2008-01-31, 10:49:29
Das ist für den Maschinencode völlig unerheblich. Der ist exakt gleich egal ob 96 oder 128 Einheiten. Und selbst wenn es so wäre, die Shaderprogramme belaufen sich auf <1MB selbst für Crysis. Das ist absolut unkritisch.



Die HLSL Shader sind vielleicht so klein, aber die arbeitet ein Chip ja auch nicht nativ ab.
Und wieviel nativen Maschinencode der Shader-Compiler im Treiber daraus macht ist sehr wohl von der Chip-Architektur abhängig.

Labberlippe
2008-01-31, 11:28:02
Die HLSL Shader sind vielleicht so klein, aber die arbeitet ein Chip ja auch nicht nativ ab.
Und wieviel nativen Maschinencode der Shader-Compiler im Treiber daraus macht ist sehr wohl von der Chip-Architektur abhängig.


Hi

Naja, nach meinen Bauchgefühl würde ich eher CODA Recht geben, ich denke auch das es eher Wurst ist ob 96 oder 128 Einheiten zum Einsatz kommen.

Die Frage ist, kommt das eigentlich bei den 512er Kärtchen auch vor, müsste es eigentlich.
Der Verdacht liegt ja auch nahe wenn man bedenkt das gerade bei den höheren Auflösungen dann die ATi Karten die nV Katen abhängen.

Das Problem ist daran ist in meine Augen dann, wenn die nächsten Spiele mehr die Karten vorderen die 8800er performance Probleme bekommen.

Wobei ich sowieso der Meinung bin, das 256MB Karten nicht mehr zeitgemäss sind.


Gruss Labberlippe

seahawk
2008-01-31, 11:50:49
Ich vermute einfach das NV mehr SP-Threads gleichzeitg laufen hat.

Gast
2008-01-31, 12:09:34
vielleicht ist bei ATI auch einfach nur der zugriff auf den hauptspeicher schneller?

Gast
2008-01-31, 13:07:29
Wohl kaum, eher werden die ATIs ne bessere Kompression haben die aber auch mit einer höheren Latenz einhergeht.

Ist ja auch in der Programmierung Gang und gebe, dass man Speicherplatz für die Geschwindigkeit opfert.

Gast
2008-01-31, 13:25:04
Wohl kaum, eher werden die ATIs ne bessere Kompression haben die aber auch mit einer höheren Latenz einhergeht.



Welche Daten willst du denn da komprimieren, um Speicherplatz einzusparen?

Coda
2008-01-31, 14:21:18
Die HLSL Shader sind vielleicht so klein, aber die arbeitet ein Chip ja auch nicht nativ ab.
Und wieviel nativen Maschinencode der Shader-Compiler im Treiber daraus macht ist sehr wohl von der Chip-Architektur abhängig.
Schon klar. Es verwenden trotzdem jede Shader-ALU den gleichen Code. Es ist ein Streamprozessor.

Und selbst wenn es Itanium-Code wäre, wäre er nicht mehrere MB groß für die Crysis-Shader.

Ich vermute einfach das NV mehr SP-Threads gleichzeitg laufen hat.
Und das ändert genau was am Speicherverbrauch?

Razor
2008-01-31, 15:04:59
Unter DX10 scheinen die Probleme noch ausgeprägter zu sein.
Während die 8800 GT 512 MiB einen guten Eindruck hinterlässt und die Radeon-HD38x0-Konkurrenz deklassiert, lässt die 8800 GT 256 MiB stark daran zweifeln, dass hier eine 180€-Grafikkarte zu Gange war.

WiC (http://img297.imageshack.us/img297/6906/25884343km5.png)
CoH: OF (http://img297.imageshack.us/img297/854/78509894ji3.png)

Da kann ein 8800-GT-Käufer, der nur die Benchmarks der 512-MiB-Version kennt, und meint, mit der 256-MiB ähnliche Performance zum Sparpreis zu bekommen, ganz schön böse auf die Schnauze fallen.
Jo... wie mit der 256MB-Variante von ATI.

Leider kommt BlackArchon ja nicht mit Infos rüber, was ihn genau stört.
Insofern danke ich Dir für die Bildchen...

Aber... hast Du Dir diese eigentlich mal genau angeschaut?

Beispiel WiC

Hier liegen ALLE Karten schon bei 1280x1024 im unspielbaren Bereich. Hier also noch Unterschiede suchen bzw. finden zu wollen ist doch nur noch erbsen-Zählerei. Klar liegt die 88GT512 vorn, aber auch hier sind 22fps avg oder gar 11fps min schlichtweg UNSPIELBAR.

Beispiel CoH

Selbes Spiel... auch die 14fps min bei 1280 reißen hier die 88GT512 nicht raus.

-

Am Beispiel von Crysis hat man schon gesehen, dass die Performance unter WinXP/D3D9 bei vergleichbarer Bildqualität deutlich besser ist, als unter Vista/D3D10. Ob dies nun an Vista oder D3D10 oder der Kombo daraus liegt, mag jemand anders beantworten... aber das merkwürdige Performance-Verhalten kann man durch die Bank bis ins absolute HighEnd beobachten.

Insofern wäre eine Beurteilung, ob 256MB bei nVidia wirklich 'schlecht' sind doch bitte an plausibleren Beispielen zu zeigen...
...und bitte an Beispielen, die Spielbarkeiten - zumindest auf einer Seite - zeigen!

Danke.

@OT-Laberer

Redet nur weiter totalen Dünnfug und drängt diese Diskussion immer weiter ins Abseits.
Ich habe den "Hinweis" von BlackArchon befolgt und die Diskussion darüber eingestellt...

Razor

Nakai
2008-01-31, 15:16:25
Beispiel WiC

Hier liegen ALLE Karten schon bei 1280x1024 im unspielbaren Bereich. Hier also noch Unterschiede suchen bzw. finden zu wollen ist doch nur noch erbsen-Zählerei. Klar liegt die 88GT512 vorn, aber auch hier sind 22fps avg oder gar 11fps min schlichtweg UNSPIELBAR.

RTS ist nicht FPS.

Jo... wie mit der 256MB-Variante von ATI.

Die 256MB-Version der HD3850 liegt mindestens 30% vor der 8800GT mit 256MB.
Aber anscheinend siehst du nicht den Zusammenhang.

8800GT 512: 47,7 fps
8800GT 256: 17,5 fps

Unterschied: 272%

HD3850 256MB: 25,5 fps
HD3870 512MB: 30,6 fps

Unterschied: 20%

Das wohlgemerkt bei 1280*1024 und dabei noch, dass die HD3870 16% höher getaktet ist und noch einen schnelleren Speicher hat.

...und bitte an Beispielen, die Spielbarkeiten - zumindest auf einer Seite - zeigen!

Wurde es. 47,7 fps sind nach meiner Meinung im spielbaren Bereich. Man kann noch die Detailstufe etwas niedriger stellen um mehr Frames zu bekommen, aber die 88GT 256 bleibt trotzdem hintendran.

@OT-Laberer

Redet nur weiter totalen Dünnfug und drängt diese Diskussion immer weiter ins Abseits.
Ich habe den "Hinweis" von BlackArchon befolgt und die Diskussion darüber eingestellt...


;D
Das könnt ich glatt in meine Signatur reinpfeffern...


mfg Nakai

seahawk
2008-01-31, 15:26:15
Und das ändert genau was am Speicherverbrauch?

Das sie mehr Daten unkomprimiert vorliegne haben müssen ? (nur ein Gedanke, mir fehlt dann im Endeffekt doch das Wissen um es wirklich zu Ende denken zu können)

LovesuckZ
2008-01-31, 15:34:06
lesen hilft weiter

und btw mit welchem O/S sind IYO die DX10 Benches gemacht?

Warum quotest du mich, wenn mein Posting auf einen anderen Text eingeht? :confused:

MadManniMan
2008-01-31, 15:41:12
Insofern wäre eine Beurteilung, ob 256MB bei nVidia wirklich 'schlecht' sind doch bitte an plausibleren Beispielen zu zeigen...
...und bitte an Beispielen, die Spielbarkeiten - zumindest auf einer Seite - zeigen!

Danke.

Bitte :) (http://en.expreview.com/?p=214).


@OT-Laberer

Redet nur weiter totalen Dünnfug und drängt diese Diskussion immer weiter ins Abseits.
Ich habe den "Hinweis" von BlackArchon befolgt und die Diskussion darüber eingestellt...

Klar - ist auch besser, die Diskussion zu beenden, bevor Du auf mich und andere Kritiker eingehen mußt :up:

Coda
2008-01-31, 15:54:39
Das sie mehr Daten unkomprimiert vorliegne haben müssen ? (nur ein Gedanke, mir fehlt dann im Endeffekt doch das Wissen um es wirklich zu Ende denken zu können)
Unkomprimiert liegen die Daten nur im Cache vor.

Labberlippe
2008-01-31, 15:58:56
Jo... wie mit der 256MB-Variante von ATI.

Leider kommt BlackArchon ja nicht mit Infos rüber, was ihn genau stört.
Insofern danke ich Dir für die Bildchen...

Aber... hast Du Dir diese eigentlich mal genau angeschaut?

Beispiel WiC

Hier liegen ALLE Karten schon bei 1280x1024 im unspielbaren Bereich. Hier also noch Unterschiede suchen bzw. finden zu wollen ist doch nur noch erbsen-Zählerei. Klar liegt die 88GT512 vorn, aber auch hier sind 22fps avg oder gar 11fps min schlichtweg UNSPIELBAR.

Beispiel CoH

Selbes Spiel... auch die 14fps min bei 1280 reißen hier die 88GT512 nicht raus.

-

Am Beispiel von Crysis hat man schon gesehen, dass die Performance unter WinXP/D3D9 bei vergleichbarer Bildqualität deutlich besser ist, als unter Vista/D3D10. Ob dies nun an Vista oder D3D10 oder der Kombo daraus liegt, mag jemand anders beantworten... aber das merkwürdige Performance-Verhalten kann man durch die Bank bis ins absolute HighEnd beobachten.

Insofern wäre eine Beurteilung, ob 256MB bei nVidia wirklich 'schlecht' sind doch bitte an plausibleren Beispielen zu zeigen...
...und bitte an Beispielen, die Spielbarkeiten - zumindest auf einer Seite - zeigen!

Danke.

@OT-Laberer

Redet nur weiter totalen Dünnfug und drängt diese Diskussion immer weiter ins Abseits.
Ich habe den "Hinweis" von BlackArchon befolgt und die Diskussion darüber eingestellt...

Razor

Hi

Naja Razor durch die geposteteten Bilderchen ist eindeutig zu erkennen das nVIDIA hier ein "kleines" Problem mit den Karten hat.
Hier geht es ja auch nicht primär um die Spieletauglichkeit mit 22 fps, sondern
darum das hier aufgezeigt wird, das die nVIDIA Karte in den Keller bricht wenn der VRAM ausgelastet ist.

Was in meine Augen sehr wohl eine Berechtigung hat um darüber zu Diskustieren, da es sicher andere Applikationen gibt die zwar mehr fps liefern würden, aber durch diese limitierung eben ausgebremst werden.

Nene da gibs nichts zum rütteln, sieht nicht gut aus.

Aber wieso zur Hölle versuchen die nVIDIA User hier nicht, dieses Problem nachzustellen?
Eine Frage die sich mir stellt, passiert das mit den 512er Kärtchen auch?
Wenn ich die Benches sehe wo die Mörderauflösungen zu tragen kommen, dann kippen die Karten von der Performance ja auch.

Gruss Labberlippe

seahawk
2008-01-31, 16:02:29
Unkomprimiert liegen die Daten nur im Cache vor.

Danke. Ist es denkbar, dass NV schlechter komprimiert ? Ich meine G80 war schon recht groß und wenn ich den Cache entlasten möchte, könnte ich die Daten im Speicher evtl. leichter zugänglich machen in dem ich sie dort weniger oder teils unkomprimiert liegen habe, was immer den Schritt der Komprimierung sparen würde.

Gast
2008-01-31, 16:04:17
Aber wieso zur Hölle versuchen die nVIDIA User hier nicht, dieses Problem nachzustellen?
Würde ich gerne, aber meine Karte hat zum Glück genug VRAM. :)

Labberlippe
2008-01-31, 16:15:35
Hi

Hatte Doom3 nicht 512er Karten für die High Quality texturern gefordert?
Das mal mit hoher Auflösung und FSAA dann sollte da ja auch mit 512 MB knapp werden oder habe ich das noch falsch im Kopf?

Soferns die meisten überhaupt testen können an deren TFTs.

Gruss Labberlippe

Nighthawk13
2008-01-31, 16:23:10
Der Performance-Unterschied liegt imho eher in der Treiber-Software begründet und nicht in der Hardwarearchitektur.

Die Geschwindigkeit, mit der Texturen (die nicht mehr ins VRAM passen) aus dem Hauptspeicher nachgeladen werden können sollte bei beiden Architekturen ungefähr gleich sein(PCI-E Speed).

Wenn das VRAM zur Neige geht, muss der Treiber entscheiden welche Texturen über PCI-E nachgeladen werden und welche rausfliegen.

Besser noch, er muss die Texturen schon spekulativ hochladen(asynchon) während die Karte noch was anderes rendert damit sie dann da ist wenn sie fürs Rendering benötigt wird.

Ich könnt mir vorstellen das diese Heuristik bei der 8800gt256 noch nicht optimal implementiert ist und ATI evtl. auch schon spielespezifisch optimiert hat(an der Stelle kann man sicher einiges an Performance rausholen ohne das Qualität verlorengeht).

Ich denke nicht das etwas anderes als Texturen überhaupt aus dem VRAM ausgelagert werden, einfach weil sie den grössten VRAM-Verbrauch haben.
Shadercode oder Framebuffer auszulagern bringt wohl nur in Ausnahmefällen etwas.

Gast
2008-01-31, 16:32:42
Wenn das VRAM zur Neige geht, muss der Treiber entscheiden welche Texturen über PCI-E nachgeladen werden und welche rausfliegen.



Nein, es fliegen keine Texturen raus und es werden keine in den lokalen VRAM nachgeladen.
Der GRafik-Chip benutzt den Hauptspeicher direkt als lokalen Speicher.

Was du beschreibst ist das alte Swapping Verfahren, wie es zumeist von PCI-Karten genutzt wurde. Schon AGP Karten machen das nicht mehr so.

Gast
2008-01-31, 16:33:21
Warum quotest du mich, wenn mein Posting auf einen anderen Text eingeht? :confused:
Grund:
der von dir gelinkte Thread is unter XP, XBit testet unter Vista. Vergleichst du jetzt beides miteinander wirst du feststellen, dass den Karten im XBit Test genau in der Reihenfolge der VRam ausgeht, auf welche du aus dem anderen Review schliessen kannst.

Nighthawk13
2008-01-31, 16:58:27
Nein, es fliegen keine Texturen raus und es werden keine in den lokalen VRAM nachgeladen.
Der GRafik-Chip benutzt den Hauptspeicher direkt als lokalen Speicher.

Was du beschreibst ist das alte Swapping Verfahren, wie es zumeist von PCI-Karten genutzt wurde. Schon AGP Karten machen das nicht mehr so.

Stimmt da hast recht.

Allerdings könnte man trotzdem ein "Prefetch" der Textur in das VRAM veranlassen um die Bus-Latenz zu vermeiden.

LovesuckZ
2008-01-31, 17:07:04
Grund:
der von dir gelinkte Thread is unter XP, XBit testet unter Vista. Vergleichst du jetzt beides miteinander wirst du feststellen, dass den Karten im XBit Test genau in der Reihenfolge der VRam ausgeht, auf welche du aus dem anderen Review schliessen kannst.

Nein, da mir niemand garantiert, dass hier die gleiche Szenen und Einstellung zusammentrafen.

Gast
2008-01-31, 17:15:51
Nein, da mir niemand garantiert, dass hier die gleiche Szenen und Einstellung zusammentrafen.
diese Garantie wirst du leider nie erhalten. In Ermangelung der von dir erwarteteten Beweise hast du 2 Moeglichkeiten
1. Augen zu und alles wegblenden was dir nicht genehm ist
2. auf die zugegeben nicht verifizierbare und deshalb riskante Loesung von Induktion-Deduktion zurueckgreifen und deine eigenen Schluesse ziehen.
Wie es fuer mich aussieht ist das Problem plattformuebergreifend, und kann deshalb sowohl Treiber als auch Hardware bedingt sein. Traete das Problem unter einem der beiden O/Ss nicht auf koennte man auf den Treiber schliessen. Interessant waere deshalb das Verhalten unter MacO/S oder Linux.

Gast
2008-01-31, 17:42:45
Hatte Doom3 nicht 512er Karten für die High Quality texturern gefordert?
Das mal mit hoher Auflösung und FSAA dann sollte da ja auch mit 512 MB knapp werden oder habe ich das noch falsch im Kopf?

doom3 hat 512MB-karten empfohlen, das ganze lief aber auch noch auf 256er karten ohne probleme, ja selbst mit 128er karten war der einbruch nicht so wahnsinnig groß.

Blaire
2008-01-31, 17:44:46
Bei Doom3:Resurrection of Evil war es extrem...da gabs nur Nachladeruckler immer wenn man anderen Ram betrat.

BlackArchon
2008-01-31, 19:34:45
Nenne doch bitte einfach mal ein paar Beispiele dieses Reviews.
Was ist wie bei was genau?

Ich habe eigentlich keine Lust, mir das ganze Review anzutun...
Habe mir mal die ersten Benchies angetan und das von Dir gesagte nicht nachvollziehen können.

Razor
Nun nehmen wir mal diese Seite, schön mundgerecht aufgearbeitet: http://en.expreview.com/?p=159&page=16
Wer sich nicht mit Details rumplagen will, scrollt gleich runter zu Average: ein Vorteil von 75% zugunsten der 512 MB 8800 GT.

Hier der Vergleich 256 MB gegen 512 MB bei der 3850: http://en.expreview.com/?p=161&page=23

Liszca
2008-01-31, 19:53:27
Nun nehmen wir mal diese Seite, schön mundgerecht aufgearbeitet: http://en.expreview.com/?p=159&page=16
Wer sich nicht mit Details rumplagen will, scrollt gleich runter zu Average: ein Vorteil von 75% zugunsten der 512 MB 8800 GT.

Hier der Vergleich 256 MB gegen 512 MB bei der 3850: http://en.expreview.com/?p=161&page=23

jaa klaar wenn dabei bei einem spiel mal 700 % rauskommt ist klar das da 75 % als durschnitt rauskommen. was aber viel interessanter ist, dass 512 mb logischerweise oft schneller sind als 256mb, 1024 im selben beispiel aber auch langsamer sein können imho ist so ein durchschnittswert vorsichtig zu genießen, vorallem wenn man sich die absoluten frames pro sekunde anschaut.

Razor
2008-01-31, 20:19:25
Bitte :) (http://en.expreview.com/?p=214).
Toll... nicht EIN Beispiel.
So etwas habe ich eigentlich nicht von Dir erwartet...

Ansonsten werde ich mich ganz sicher nicht von Dir oder anderen OT-Laberern dazu verleiten lassen, hier OT-Zeugs zu posten, nur weil Euch gerade danach ist. Ich konnte den Hinweis eines Mods nachvollziehen und halte mich nun daran.

Das letzte mal OT:
Sollte Dich das Thema tatsächlich interessieren, dann mache dafür einen eigenen Thread auf und poste dort den Unsinn, den Du hier abläßt. Dort werde ich dann auch gerne darauf reagieren... wenn mir danach ist, OK?

Naja Razor durch die geposteteten Bilderchen ist eindeutig zu erkennen das nVIDIA hier ein "kleines" Problem mit den Karten hat.
Hier geht es ja auch nicht primär um die Spieletauglichkeit mit 22 fps, sondern
darum das hier aufgezeigt wird, das die nVIDIA Karte in den Keller bricht wenn der VRAM ausgelastet ist.
Nein... es ist wie bei so vielen anderen Diskussionen hier in letzter Zeit.
Hier wird über Dinge gefaselt, die einfach ABSOLUT keine Relevanz haben.

So frei nach dem Motto:

"Eh Du... de ATTI is mal voll der Bringer ey... daddeln kann man mit der Ruggelorgi zwa au net, aba mit de nVIDDA kannste noch viel weniger nich daddeln ey!"

Verstehst Du, was ich meine?

Wenn hier wenigstens mal jemand einen Vergleich bringen würde, der auf den 256MB AMD-Karten wirklich spielbare Werte zeigt, auf den 256MB nVidia-Karten aber nicht mehr (und das bitte mit DEUTLICHEM Unterschied, wie hier 'postuliert'!). Aber nein...

Richtig krass ist es hier allerdings, dass sogar Beispiele her genommen werden, die nicht einmal auf den 512MB-Varianten spielbar sind...

Razor

Razor
2008-01-31, 20:21:14
Hatte Doom3 nicht 512er Karten für die High Quality texturern gefordert?
Das mal mit hoher Auflösung und FSAA dann sollte da ja auch mit 512 MB knapp werden oder habe ich das noch falsch im Kopf?
Das waren 128MB vs. 256MB.
Doom3 ist von 2004...

Razor

P.S.: ups... da is ja noch 'ne Seite... habsch glatt übersehn ;)

Razor
2008-01-31, 20:38:15
Nun nehmen wir mal diese Seite, schön mundgerecht aufgearbeitet: http://en.expreview.com/?p=159&page=16
Wer sich nicht mit Details rumplagen will, scrollt gleich runter zu Average: ein Vorteil von 75% zugunsten der 512 MB 8800 GT.

Hier der Vergleich 256 MB gegen 512 MB bei der 3850: http://en.expreview.com/?p=161&page=23
Oh mann... was ist so schwierig an konkreten Beipsielen?
:confused:

Um jetzt mal zu Deinen 'neuen' Links zu kommen:

Da werden höhere Auflösungen überproportional gewertet... OK, 1680x1050 würde ich ja noch zulassen... ebenso sollte man auch 4xAA noch nutzen 'dürfen'... wir reden hier doch über Midrange-Karten, oder?

Sind also genau 4 'verwertbare' Auflösungs-/Quali-Kombos von insgesamt 9.
So kannst Du aus Deinen "Averages" schon mal locker knappe 60% raus rechnen!
(sind übrigens die 60%, die maßgeblich für die "Wertung" verantwortlich sind ;-)

Also nochmal die Bitte an Dich: konkrete Beispiele, die Deine Behauptung im vernünftigen Rahmen belegen.
Und laß möglichst auch Dinge wir PTBoats & Co. weg... ;)

jaa klaar wenn dabei bei einem spiel mal 700 % rauskommt ist klar das da 75 % als durschnitt rauskommen. was aber viel interessanter ist, dass 512 mb logischerweise oft schneller sind als 256mb, 1024 im selben beispiel aber auch langsamer sein können imho ist so ein durchschnittswert vorsichtig zu genießen, vorallem wenn man sich die absoluten frames pro sekunde anschaut.
Danke... einer der wenigen Kommentare hier in diesem Thread, die sich wirklich mit der Thematik auseinander setzen.
Ganau auf diesen Punkt will ich hinaus!

Und ja... sehr interessant, was dort der Vergleich 512MB vs. 1024MB zeigt, gell?
Aber ist auch OT hier... in dem anderen Thread ist man ja auch noch immer der Meinung, dass 1GB was mit "Zukunftssicherheit" zu tun hat...
...bei klarer Ignoranz der Faktenlage... aber damit hats das 3DC in letzter Zeit je 'eh nicht.
:rolleyes:

Razor

P.S.: triple ahoi... but that's it for now! :D

Labberlippe
2008-01-31, 21:57:34
Nein... es ist wie bei so vielen anderen Diskussionen hier in letzter Zeit.
Hier wird über Dinge gefaselt, die einfach ABSOLUT keine Relevanz haben.

So frei nach dem Motto:

"Eh Du... de ATTI is mal voll der Bringer ey... daddeln kann man mit der Ruggelorgi zwa au net, aba mit de nVIDDA kannste noch viel weniger nich daddeln ey!"

Verstehst Du, was ich meine?

Wenn hier wenigstens mal jemand einen Vergleich bringen würde, der auf den 256MB AMD-Karten wirklich spielbare Werte zeigt, auf den 256MB nVidia-Karten aber nicht mehr (und das bitte mit DEUTLICHEM Unterschied, wie hier 'postuliert'!). Aber nein...

Richtig krass ist es hier allerdings, dass sogar Beispiele her genommen werden, die nicht einmal auf den 512MB-Varianten spielbar sind...

Razor

Hi

Ich kann Dich schon verstehen das Du sagst das die Framerraten im nichtspielbaren bereich sind.
Sehe Dir mal die 2 Links von BlackAchron genauer an.
Da sieht man deutlich wie die 8800GT 256 herbe Einbricht, genauer gesagt da setzt sich die 3850er mit 256 MB um einiges vor die 8800er.

Ich denke sehr wohl das die Relevanz hat.

Kurz gesagt wenn die Karte am limit rennt, dann ist Sense.

Gruss Labberlippe

Labberlippe
2008-01-31, 21:58:23
Das waren 128MB vs. 256MB.
Doom3 ist von 2004...

Razor

P.S.: ups... da is ja noch 'ne Seite... habsch glatt übersehn ;)


Hi

Deswegen habe ich auch geschrieben das ich mir nicht sicher bin, mir schwebte halt die Option mit 512 Karten noch im Kopf rum.

Gruss Labberlippe

Razor
2008-01-31, 22:07:44
Ich kann Dich schon verstehen das Du sagst das die Framerraten im nichtspielbaren bereich sind.
Sehe Dir mal die 2 Links von BlackAchron genauer an.
Da sieht man deutlich wie die 8800GT 256 herbe Einbricht, genauer gesagt da setzt sich die 3850er mit 256 MB um einiges vor die 8800er.
Dieser Vergleich hinkt...
Es sind trotzdem die letzten beiden Plätze... auch wenn die 3850/256 vor der 8800/256 liegt.
Got it?

Razor

Labberlippe
2008-01-31, 22:11:08
Dieser Vergleich hinkt...
Es sind trotzdem die letzten beiden Plätze... auch wenn die 3850/256 vor der 8800/256 liegt.
Got it?

Razor

Hi

Der Vergleich hinkt eben nicht.
Ich denke sehr wohl das eingie Spiele in Zukunft mehr Texturen haben, dann wird aber eng.

Auch kann ich Deine Argumentation verstehen, das Du nur die Auflösung in diesen Test akzeptierst, welche nach Deinen Schema passen.
Einfach sagen das 60% nicht "real" sind ist auch nicht gerade fair.

Ich kann mich noch gut errinneren wie gesagt wurde bevor die 38xx Serie wie toll doch die nVKarten in den hohen Auflösungen sind...

Ich denke das nVIDIA sicherlich noch was unternehmen, vorerst ist meine Empfehlung ein Abraten von der 8800GT 256.

Wobei wie gesagt, ich eine 256MB Karte sowieso nicht mehr zeitgemäss finde.

Gruss Labberlippe

Nakai
2008-02-01, 14:09:08
"Eh Du... de ATTI is mal voll der Bringer ey... daddeln kann man mit der Ruggelorgi zwa au net, aba mit de nVIDDA kannste noch viel weniger nich daddeln ey!"

Komische einseitige Ansicht. Niemand zwingt dich die Texturdetails und andere Einstellungen auf Max. zu stellen.
Wenn eine Karte keine spielbaren Frames bringt, kann man etwas an die Grafikeinstellungen rumspielen damit es flüssig läuft. Und ich wette mit dir, dass man mit einer HD3850 mit nur 256MB oftgenug eine bessere Grafik bei gleichen Frames im Vergleich zu einer Geforce 8800GT 256MB erzielt.

Aber ich sehe, dass du auf die meisten Sachen wieder nicht reagierst bzw. nicht reagieren willst.

Nun ich sehe bei jedem Grafikkarten-Benchmark, dass der Performance-Unterschied zwischen der 8800 GT mit 256 MB und der 512 MB-Version doch ziemlich groß ist, selbst in moderaten Auflösungen wie 1280x1024 ist die 256 MB-Variante oftmals nur 50% oder noch langsamer als die 512 MB-Version (Ausnahmen bestätigen selbstverständlich die Regel). Da die Taktraten identisch sind, kann nur der Speichermengenunterscheid ausschlaggebend sein.

Wenn ich jetzt dazu Tests von der 3850 anschaue, dann ist meist auch in hohen Auflösungen wie 1600x1200 oder noch höher (mit AA) der prozentuale Verlust der 256 MB-Version gegenüber der 512 MB-Version viel geringer.

Einfache Frage: Warum ist das so?

Das ist die Frage.

Insofern wäre eine Beurteilung, ob 256MB bei nVidia wirklich 'schlecht' sind doch bitte an plausibleren Beispielen zu zeigen...
...und bitte an Beispielen, die Spielbarkeiten - zumindest auf einer Seite - zeigen!

Wieviele Beispiele benötigst du? Es gibt nicht soviele Beispiele, da es noch nicht soviele Tests zu dieser Thematik gibt. Aber anscheinend reicht dir das nicht.


Naja Razor durch die geposteteten Bilderchen ist eindeutig zu erkennen das nVIDIA hier ein "kleines" Problem mit den Karten hat.
Hier geht es ja auch nicht primär um die Spieletauglichkeit mit 22 fps, sondern
darum das hier aufgezeigt wird, das die nVIDIA Karte in den Keller bricht wenn der VRAM ausgelastet ist.

Das bringt es auf den Punkt.

Das letzte mal OT:
Sollte Dich das Thema tatsächlich interessieren, dann mache dafür einen eigenen Thread auf und poste dort den Unsinn, den Du hier abläßt. Dort werde ich dann auch gerne darauf reagieren... wenn mir danach ist, OK?

Das Threads mal Offtopic werden ist normal. Wenn es zuweit OT wird, dann wird ein Splitt-Thema erstellt. Das wird sehr gut gehandhabt hier.
Jedoch sehe ich noch eine keine zu weite Distanzierung des Themas um ein Ignorieren der Gesprächpartner zu rechtfertigen.


Danke das du diesen Post nicht lesen wirst...



mfg Nakai

Gast
2008-02-01, 14:26:11
Also nochmal die Bitte an Dich: konkrete Beispiele, die Deine Behauptung im vernünftigen Rahmen belegen.
Und laß möglichst auch Dinge wir PTBoats & Co. weg... ;)

Klar lassen wir die Fakten weg, in denen deine perfekte 8800GT512 mehr VRAM vertragen könnte.

Genauso wie andere Beispiele, wo mehr VRAM hilft, endweder für bessere Optik oder weniger Nachladezeit.

LovesuckZ
2008-02-01, 18:38:12
diese Garantie wirst du leider nie erhalten.

Doch, wenn jemand die selbe Szene mit XP und Vista auf dem gleichen System testet.

In Ermangelung der von dir erwarteteten Beweise hast du 2 Moeglichkeiten
1. Augen zu und alles wegblenden was dir nicht genehm ist

Ich würd hier eher: Dummlaber hinsetzen - das trifft den ersten Punkt am besten.


Wie es fuer mich aussieht ist das Problem plattformuebergreifend, und kann deshalb sowohl Treiber als auch Hardware bedingt sein. Traete das Problem unter einem der beiden O/Ss nicht auf koennte man auf den Treiber schliessen. Interessant waere deshalb das Verhalten unter MacO/S oder Linux.

Du hast die Problemeatik noch nicht verstanden. Das nVidia mehr Speicher benötigt als AMD, ist doch kein Problem oder Bug. Es fällt jedoch auf, dass vorallen bei Tests unter Vista diese Problematik verstärkt auftritt. Daher wäre ein Vergleich dieser beiden Betriebssysteme sehr wünschenwert.
Alles andere sind spekulationen und Dummlaberei.

Razor
2008-02-02, 12:02:48
Auch kann ich Deine Argumentation verstehen, das Du nur die Auflösung in diesen Test akzeptierst, welche nach Deinen Schema passen.
Einfach sagen das 60% nicht "real" sind ist auch nicht gerade fair.
Klar... man 'spart' an der Grafikkarte, will dann aber hohe Auflösungen fahren.

Soooo groß ist der Unterschied zu den Karten mit größerem Speicher nicht und wenn man sich schon Bildschirme 'leisten' kann, die solch hohe Auflösungen 'vernünftig fahren können (1600x1200@60Hz mit CRT meine ich nicht ;-), dann sollte man auch ein paar Euro mehr für die Grafikkarte übrig haben.

Wenn wir von "Mainstream" reden, dann sind 19" oder 22"WS TFT's heute 'normal' und da sind die Auflösungen begrenzt. 8xAA war zudem schon immer eine Domäne von Performance/HighEnd-Hardware... höherer Anspruch, höherer Preis... hier die billigsten Modelle heran zu ziehen macht einfach keinen Sinn.

Ich kann mich noch gut errinneren wie gesagt wurde bevor die 38xx Serie wie toll doch die nVKarten in den hohen Auflösungen sind...
Mit Mainstream/Perfromance-Karten?
Wohl weniger...

Ich denke das nVIDIA sicherlich noch was unternehmen, vorerst ist meine Empfehlung ein Abraten von der 8800GT 256.
Wobei wie gesagt, ich eine 256MB Karte sowieso nicht mehr zeitgemäss finde.
That's ist... KEINE 256MB-Karten mehr... egal von welchem IHV!
Und wo wir schon dabei sind: auch auf die 3850 verzichten... ergo: 3870 oder 88GT mit 512MB.

Komische einseitige Ansicht. Niemand zwingt dich die Texturdetails und andere Einstellungen auf Max. zu stellen.
Wenn eine Karte keine spielbaren Frames bringt, kann man etwas an die Grafikeinstellungen rumspielen damit es flüssig läuft.
Und niemand zwingt Dich, die Auflösung hoch zu drehen.
(wenn man am falschen Ende spart - selbst schuld - siehe oben)

Wenn eine Karte keine spielbaren Frames bringt, kann man etwas an die Grafikeinstellungen rumspielen damit es flüssig läuft. Und ich wette mit dir, dass man mit einer HD3850 mit nur 256MB oftgenug eine bessere Grafik bei gleichen Frames im Vergleich zu einer Geforce 8800GT 256MB erzielt.
Du brauchst gar nicht 'wetten'... zeige es mir!
Aufgrund der höheren Shader-Power der GT dürfte dies verdammt schwer werden...

Immer daran denken: nicht nur der Speicher kann limitieren.

Razor

reunion
2008-02-02, 12:15:28
Und wo wir schon dabei sind: auch auf die 3850 verzichten... ergo: 3870 oder 88GT mit 512MB.


Begründung? Die 3850 ist momentan die Karte mit dem mit Abstand besten P/L-Verhältnis, warum man gerade darauf verzichten sollte, erschließt sich hier wohl niemanden.

Razor
2008-02-02, 12:28:08
Begründung? Die 3850 ist momentan die Karte mit dem mit Abstand besten P/L-Verhältnis, warum man gerade darauf verzichten sollte, erschließt sich hier wohl niemanden.
3850 für 155€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3850&filter=+Angebote+anzeigen+&pixonoff=off)

3870 für 175€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3870&filter=+Angebote+anzeigen+&pixonoff=off)
88GT512 für 194€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+&pixonoff=off)

Und hoffentlich muss ich Dir nicht beantworten, warum ich 20€ 'mehr' für die 3870 ausgeben würde... :rolleyes:
Von einem P/L-'Knaller' kann man bei der 3850 nun wirklich nicht reden...
...zumindest aber ist sie 'billiger', als die 3870.

Razor

MadManniMan
2008-02-02, 12:32:52
3850 für 155€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3850&filter=+Angebote+anzeigen+&pixonoff=off)
3870 für 175€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3870&filter=+Angebote+anzeigen+&pixonoff=off)
88GT512 für 194€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+&pixonoff=off)


Du musst auch wirklich bei den Shops nachschauen :tongue:

HOT
2008-02-02, 12:32:53
Die 3850 256MB ist die Konkurrenzkarte zur 8800GT 256MB. Eine andere Konkurrenzsituation gibt es nicht. Und da ist die 3850 im Vorteil, da gibt es nichts dran zu rütteln. Die 8800GT kann bei 4x AA nicht von der enormen Rechenleistung profitieren, weil der VRAM limitiert. Das ist ein unverrückbares Faktum. Der G92 mit 256MB hat die gleichen Probleme wie der G80 mit 320MB. Bei 512MB und 8x AA gibt es die gleichen Probleme eine Ebene höher. Auch hier reicht 512MB für ATI in den höheren Auflösungen, bei NV reichts halt nicht. Ich sehe das ebenfalls so, dass es kein Bug ist. Das macht das Problem aber nicht besser. Ein beachtenswerter Nachteil, das ist es meiner Ansicht nach auf jeden Fall, egal ob es ein Bug ist oder nicht. Ich weiß nocht damals, als der R600 kam und alles über seine AA Fähigkeiten meckerte. Da kam aus deiner Ecke, dass ATI diesen Nachteil niemals aufarbeiten wird. Und was passierte? ATI holte auf und überholte NV durch den Treiber sogar teilweise. Zwischen R600 und RV670 gibts nahezu keine Performanceunterschiede, falls das noch nicht aufgefallen sein sollte. ATI ist mit einem kleineren Chips konkurrenzfähig, trotz, dass NV die höhere nutzbare Rechenleistung hat. ATI ist durch die bessere RAM-Effizienz auf Augenhöhe.
Warum das so ist, kann keiner beantworten. Das wissen nur ATI und NV. Es gibt viele Möglichkeiten, was da Schuld sein kann. Das kann sogar einfach ein Softwarevorteil im ATI-Treiber sein (auch wenn das gewisse Leute ja für unmöglich halten, dass der ATI-Treiber was besser kann als der NV-Treiber...). Am wahrscheinlichsten ist aber, dass der hohe RAM-Verbrauch einfach eine Eigenart der G80-Architektur ist. Und das ist der worst-Case für NV.
Und nochwas: Der G80 ist eine neue Architektur, der nächste Schritt auf den NV40. Das ist definitiv keine Zwischenlösung (diese Ansicht verbietet eigentlich schon die schiere Grösse des Chips).

Razor, du biegst es dir immernoch hin, wie du es brauchst :D. Das war schon zu 3DConcept Zeiten so ;).

Als Ergänzung: Die HD3850 mit 256MB kostet ca. 135€, eine 8800GT mit 256MB ca. 180€ (ist aber kaum lieferbar).

Nakai
2008-02-02, 12:44:57
Und niemand zwingt Dich, die Auflösung hoch zu drehen.
(wenn man am falschen Ende spart - selbst schuld - siehe oben)

An der Auflösung zu sparen ist dumm. Denkt dran, du bist nur ein Individuum das auf eine stärkere Hardwarebasis zurückgreift. Die meisten Spieler und Menschen kaufen sich OEM-PCs und billigere Hardware.
Ich spare lieber an AA, AF, Schattendetails, Objektdetails und Texturen anstatt keine native Auflösung für meinen Monitor zu fahren.

Du brauchst gar nicht 'wetten'... zeige es mir!
Aufgrund der höheren Shader-Power der GT dürfte dies verdammt schwer werden...

Zeig du es mir doch. Die derzeitigen Tests sagen etwas anderes aus, als das was du behauptest.
Die 8800GT 256MB ist oftmals deutlich langsamer. Selbst die 8800GS mit 384MB ist da bei vielen Spielen ein Stück schneller.
Im Gegensatz zu dir, setze ich mich für eine Meinung ein, die bereits durch Tests ein Fundament haben.
Natürlich könnte man diese Tests als "Mist" bezeichnen, wenn einem das Ergebnis nicht gefällt. Aber solange nichts anderes gezeigt wurde, bleibe ich bei dieser Meinung.

Begründung? Die 3850 ist momentan die Karte mit dem mit Abstand besten P/L-Verhältnis, warum man gerade darauf verzichten sollte, erschließt sich hier wohl niemanden.

Selbst 256MB müssen nicht limitieren, wenn immer zum richtigen Zeitpunkt die Daten im Ram liegen. Natürlich würde ich eher zur 512MB-Version greifen. Die HD3850 bleibt bis zur 9600GT der Preileistungskönig.

Soooo groß ist der Unterschied zu den Karten mit größerem Speicher nicht und wenn man sich schon Bildschirme 'leisten' kann, die solch hohe Auflösungen 'vernünftig fahren können (1600x1200@60Hz mit CRT meine ich nicht ;-), dann sollte man auch ein paar Euro mehr für die Grafikkarte übrig haben.


So toll, das klingt, das stimmt meistens leider nicht, denn die 8800GT 256 liegt selbst bei 1280*1024 oftmals sher hinten dran...

Wenn wir von "Mainstream" reden, dann sind 19" oder 22"WS TFT's heute 'normal' und da sind die Auflösungen begrenzt. 8xAA war zudem schon immer eine Domäne von Performance/HighEnd-Hardware... höherer Anspruch, höherer Preis... hier die billigsten Modelle heran zu ziehen macht einfach keinen Sinn.


Ich hab einen 19" mit 1280*1024. WS TFTs sind im kommen. Die Größe des TFTs hat nichts mit der Grafikleistung im dazugehörigen PC zu tun. Manche kaufen sich so ein Ding weil sie einen großen Bildschirm wollen.


Razor, du biegst es dir immernoch hin, wie du es brauchst

Tja, man kann trotzdem versuchen ihn das irgendwie vorzuführen...


mfg Nakai

Razor
2008-02-02, 12:45:35
Du musst auch wirklich bei den Shops nachschauen :tongue:
Oh mann...
3850 für 155€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3850&filter=+Angebote+anzeigen+&pixonoff=off) Check!

3870 für 175€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=3870&filter=+Angebote+anzeigen+&pixonoff=off) Check!
88GT512 für 194€ lieferbar (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+&pixonoff=off) Check!
Und?
Wo ist nun eigentlich Dein Problem?
:confused:
Razor, du biegst es dir immernoch hin, wie du es brauchst...
Nein.
Oder willst Du mir etwa erzählen, dass man jetzt unbedingt die paar Euro ausgerechnet beim Speicher 'sparen' sollte?
256MB-Karten machen heute einfach keinen Sinn mehr... schon gar nicht aus P/L-Sicht... egal bei welchen IHV.

Und hier geht es um ein vermeintlich generelles Speicherproblem bei nVidia... nicht bei der 256MB-Karte im Speziellen.
Und dazu gibt es hier kaum Brauchbares... noch immer nicht.

An der Auflösung zu sparen ist dumm. Denkt dran, du bist nur ein Individuum das auf eine stärkere Hardwarebasis zurückgreift. Die meisten Spieler und Menschen kaufen sich OEM-PCs und billigere Hardware.
Ich spare lieber an AA, AF, Schattendetails, Objektdetails und Texturen anstatt keine native Auflösung für meinen Monitor zu fahren.
Wenn Du es nicht verstehen willst, dann sterbe halt dumm.
Ich habe mir wirklich Mühe gegeben, das Ganze klar zu formulieren... und detailliert.
Lies einfach nochmal...

Razor

Nakai
2008-02-02, 12:52:32
Oder willst Du mir etwa erzählen, dass man jetzt unbedingt die paar Euro ausgerechnet beim Speicher 'sparen' sollte?
256MB-Karten machen heute einfach keinen Sinn mehr... schon gar nicht aus P/L-Sicht... egal bei welchen IHV.

Wenn jemand 125€ für eine Grafikkarte ausgeben will, welche würdest du ihm empfehlen?

Ne Geforce 8600GTS? Oder eine HD3850 256?

Wenn Du es nicht verstehen willst, dann sterbe halt dumm.
Ich habe mir wirklich Mühe gegeben, das Ganze klar zu formulieren... und detailliert.
Lies einfach nochmal...


Sehe ich nichts. Wenn du es nicht verstehen willst, dass eine native Auflösung wirklich zwingend erscheint, aber niedrigere Texturen als unzwingend erscheinen?
Spiel mal CSS mit niedriger Auflösung...(man könnte auch andere Spiele als Beispiel nehmen)
Wenn du es nicht erklären willst, nicht kannst, dann sag es und versuche deinen Gesprächspartner nicht runterzumachen...

Und hier geht es um ein vermeintlich generelles Speicherproblem bei nVidia... nicht bei der 256MB-Karte im Speziellen.

Ab 384MB Vram tritt dieses Problem nicht in dem Maße ein. Man kann daher sagen, dass die 256MB-Karten von NV ziemlich betroffen sind.
Die ATI-Karten scheinen dieses Problem nicht zu besitzen.


mfg Nakai

Razor
2008-02-02, 12:56:04
Wenn jemand 125€ für eine Grafikkarte ausgeben will, welche würdest du ihm empfehlen?

Ne Geforce 8600GTS? Oder eine HD3850 256?
Keine von beiden... die 8600 schon gar nicht.
Er soll lieber ein bissel drauf legen...

Zum Bsp. eine 8800GS mit 384MB für 140€:
http://geizhals.at/deutschland/?cat=gra16_256&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+&pixonoff=off

Sehe ich nichts.
Dann bist Du schlicht blind...

Razor

Labberlippe
2008-02-02, 13:02:10
Klar... man 'spart' an der Grafikkarte, will dann aber hohe Auflösungen fahren.

Soooo groß ist der Unterschied zu den Karten mit größerem Speicher nicht und wenn man sich schon Bildschirme 'leisten' kann, die solch hohe Auflösungen 'vernünftig fahren können (1600x1200@60Hz mit CRT meine ich nicht ;-), dann sollte man auch ein paar Euro mehr für die Grafikkarte übrig haben.


Wenn wir von "Mainstream" reden, dann sind 19" oder 22"WS TFT's heute 'normal' und da sind die Auflösungen begrenzt. 8xAA war zudem schon immer eine Domäne von Performance/HighEnd-Hardware... höherer Anspruch, höherer Preis... hier die billigsten Modelle heran zu ziehen macht einfach keinen Sinn.



Na Na Na Razor so einfach lasse ich das nicht gelten.
Ich finde das die aktuellen Mid Range Karten gerade einen netten Performance schub gekomen haben, die müssen sich nicht wirklich von der Leistung verstecken und das für wenig Netsch.

Da kann ich mir sehr wohl vorstellen das einige auf 1600er Auflösung gehen.
Manche einem tun auch 20 Euro weh.
Wie gesagt ich würde keinen heutzutage noch jemanden eine 256er Karte empfehlen, aber die Realität sieht leider anders aus.


That's ist... KEINE 256MB-Karten mehr... egal von welchem IHV!
Und wo wir schon dabei sind: auch auf die 3850 verzichten... ergo: 3870 oder 88GT mit 512MB.

Jo sind wir mal wieder einer Meinung.
Wobei ich Dich alleine jetzt aus Zynismus korrigieren muss sorry.

Keine 256er Karten, b.z.w keine von nVIDIA wie es aktuell aussieht.


Und niemand zwingt Dich, die Auflösung hoch zu drehen.
(wenn man am falschen Ende spart - selbst schuld - siehe oben)

Ach komm niemand zwingt dich.
Seit ein paar Järchen testet die alle jetzt mit mind. 1280 x 1024 sowohl im I-Net als auch bein den Magazinen.
Der Kunde liesst das und macht es punkt.


Du brauchst gar nicht 'wetten'... zeige es mir!
Aufgrund der höheren Shader-Power der GT dürfte dies verdammt schwer werden...

Immer daran denken: nicht nur der Speicher kann limitieren.

Razor

Jo die Frage ist wieder mal nur wer, will das testen.

Gruss Labberlippe

Nakai
2008-02-02, 13:04:02
Keine von beiden... die 8600 schon gar nicht.
Er soll lieber ein bissel drauf legen...

Zum Bsp. eine 8800GS mit 384MB für 140€:
http://geizhals.at/deutschland/?cat=gra16_256&sort=p&bpmax=&asuch=8800&filter=+Angebote+anzeigen+&pixonoff=off




Ja, die 8800GS ist eine gute Alternative, vorallem da sie durch 384MB und daher nicht so anfällig für das Vram-Problem ist.

Dann bist Du schlicht blind...

Nein, da du nicht verstehst, dass es Menschen gibt, die andere Ideen und Meinungen haben.
Die müssen zwar nicht richtig sein, aber es gibt sie.
Viele Menschen haben noch 1280*1024-Bildschirme. Höhere Auflösungen sind zwar für schwächere Grafikkarten nicht in dem Maße geeignet, aber es gibt sie.
Aber um Spiele zum Laufen zu bringen, kann man entweder die Auflösung runter drehen oder Details senken.
Beides ist möglich. Ersteres halte ich für sinnlos, letzteres für verständlich.

Wenn jemand am falschen Ende spart, heißt das noch lange nicht, dass er alles auf Max. fahren muss.


mfg Nakai

Labberlippe
2008-02-02, 13:20:38
Ja, die 8800GS ist eine gute Alternative, vorallem da sie durch 384MB und daher nicht so anfällig für das Vram-Problem ist.



Nein, da du nicht verstehst, dass es Menschen gibt, die andere Ideen und Meinungen haben.
Die müssen zwar nicht richtig sein, aber es gibt sie.
Viele Menschen haben noch 1280*1024-Bildschirme. Höhere Auflösungen sind zwar für schwächere Grafikkarten nicht in dem Maße geeignet, aber es gibt sie.
Aber um Spiele zum Laufen zu bringen, kann man entweder die Auflösung runter drehen oder Details senken.
Beides ist möglich. Ersteres halte ich für sinnlos, letzteres für verständlich.

Wenn jemand am falschen Ende spart, heißt das noch lange nicht, dass er alles auf Max. fahren muss.


mfg Nakai

Hi

Ein Richtig oder Falsch würde ich sagen gibt es nicht, da jeder einen eigenen Geschmack hat.
Ich denke ist es auch der Grund wieso ich nur noch alle 1-2 Jahre den Rechner mal update.
Mir reicht z. B. 1280 x 1024 mit FSAA und AF auf meinen 19" CRT Philips Brilliance und bin zufrieden.
Ich kann einfach das Bild von einen TFT nicht ertragen, gerade bei DVDs sehe
ich herbe unterschiede.
Wundert mich sowieso das so eine lausige Technik am Markt durchhält, naja eigentlich nicht, VHS hat es ja auch gezeigt wies geht. Argh

Wie dem auch sei.

Ich finde das die jetzigen Midrange Karten sehr gut performen und da man auch ruhig höhere Auflösunge einschalten kann.
Ich sehe da eher primär ein Problem mit DX 10 von der Geschwindigkeit her.

Aber in der Regel kann man wenn es mit FSAA und AF zu knapp wird eher auf FSAA verzichtet und ne Auflösung höher gehen.
Gibt es aber auch genug Diskussionen drum wies jeden beliebt.

Fakt ist, das die 256er von nVIDIA ein Problem hat und dieses ist nicht einfach
so läppisch wie gerne getan wird.

Gruss Labberlippe

PS: Sorry fürs leicht OT.

StefanV
2008-02-02, 13:21:55
Ja, die 8800GS ist eine gute Alternative, vorallem da sie durch 384MB und daher nicht so anfällig für das Vram-Problem ist.
Nein, die ist keine 'gute Alternative', auch die 768MiB Version nicht, das Teil ist einfach lahm(er) und teurer als vergleichbares von AMD...



Nein, da du nicht verstehst, dass es Menschen gibt, die andere Ideen und Meinungen haben.
Die müssen zwar nicht richtig sein, aber es gibt sie.
Viele Menschen haben noch 1280*1024-Bildschirme. Höhere Auflösungen sind zwar für schwächere Grafikkarten nicht in dem Maße geeignet, aber es gibt sie.
Richtig, die Regel dürft entweder 1280x1024 oder 1680x1050 sonst gibts kaum was, andere Auflösungen werden wohl kaum benutzt, allerdings gibts durchaus einige die 1920x1200 nutzen und die Anzahl der User mit 24" und größer dürft steigen...


Aber um Spiele zum Laufen zu bringen, kann man entweder die Auflösung runter drehen oder Details senken.
Beides ist möglich. Ersteres halte ich für sinnlos, letzteres für verständlich.
Auflösung bei 'nem TFT senken ist eine schlechte Idee...

Nakai
2008-02-02, 13:27:36
1. Nein, die ist keine 'gute Alternative', auch die 768MiB Version nicht, das Teil ist einfach lahm(er) und teurer als vergleichbares von AMD...



2. Richtig, die Regel dürft entweder 1280x1024 oder 1680x1050 sonst gibts kaum was, andere Auflösungen werden wohl kaum benutzt, allerdings gibts durchaus einige die 1920x1200 nutzen und die Anzahl der User mit 24" und größer dürft steigen...


3. Auflösung bei 'nem TFT senken ist eine schlechte Idee...


1. Jaein. Das hängt auch immer davon ab, welchen Hersteller man bevorzugt.
Eine 8800GS mag, je nach Präferenz, eine Alternative sein.

2. Nur ein Beispiel. Ein Kumpel von mir hat sich einen 22" WS gekauft. Er betreibt das Ding mit einem Medion-PC. Die Grafikkarte ist eine Radeon 9800XL...

3. Deswegen schrieb ich auch, dass das Senken der Auflösung nicht optimal ist.


mfg Nakai

LovesuckZ
2008-02-02, 13:31:48
Nein, die ist keine 'gute Alternative', auch die 768MiB Version nicht, das Teil ist einfach lahm(er) und teurer als vergleichbares von AMD...


Sie liegt auf dem Niveau der 3850 und kostet genauso viel. :rolleyes:

Gast
2008-02-02, 13:49:50
Razor:

Ja ist schon klar alles bis auf die GT512 ist Mist. :rolleyes:

MadManniMan
2008-02-02, 14:02:44
Oh mann...

Und?
Wo ist nun eigentlich Dein Problem?
:confused:

Dass Du Dir für die 3850 nicht den billigsten verfügbaren Preis rausgesucht hast vielleicht? Und dass Du die einzige 3870 rausgesucht hast, die mit einer ~3850er Kühllösung daherkommt?

Könnte es vielleicht daran liegen?


@Payne und Razor im Allgemeinen: die 3850 512 und die 8800 GS 384 sind beide annährend gleich gute Lösungen, ebenso fast gleich viel kosten. Die 8800 GS ist pro Euro etwas schneller, die 3850 ist genügsamer und hat größeren RAM. Wofür man sich entscheiden mag, sei jedem selbst überlassen. Kommt jetzt bitte nicht mit "Nein das stimmt nicht!" daher, ihr stellt euch bloß!

LovesuckZ
2008-02-02, 14:04:21
Gibt es Verbrauchsmessungen der 8800GS? Bei weniger RAM, weniger aktive Cluster und einem geringeren Takt als die 8800GT sollte auch der Stromverbrauch sich senken.

Gast
2008-02-02, 14:30:42
Dass Du Dir für die 3850 nicht den billigsten verfügbaren Preis rausgesucht hast vielleicht? Und dass Du die einzige 3870 rausgesucht hast, die mit einer ~3850er Kühllösung daherkommt?

Könnte es vielleicht daran liegen?Jep. Das war schon eine ziemlich linke Aktion, wenn ich das mal ansprechen darf. Solche linken Notargumente sollte man von manchen Größen eigentlich nicht erwarten. Passiert aber immerwieder. Auch Größe scheint wohl relativ zu sein.

RoNsOn Xs
2008-02-02, 16:49:38
schau ich mir den test an, sagt er mir das selbst eine 256mb 88gt oft noch bei 1680x1050 4xaa 16xaf vor der 3870 liegt.
http://www.pcgameshardware.de/?article_id=623033

http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page17.asp (oder beliebiges game)

sehr viele leute reden sich die 256mb mehr speicher oft sehr schön.
warum ich mir die 256mb karte gekauft hab? hab nen 19" CRT, zocke meist auf 1280x1024 @85Hz, max details. aa verliebt bin ich eigtl nicht so. af kostet fast nix. kann aber oftmals auch 1600x1200 fahren.
wenn man sich dann mal ansieht wie viel die jungs sich die vielen wochen vor weihnachten eine 88gt 512mb für 250€ und mehr gekauft haben bin ich zu den gleichen zeitern sehr viel stolzer auf einen preis von 172€ gewesen.

in zukunft wird der graka-speicher sicherlich mehr bedeutung gewinnen, war in der vergangenheit ja auch nicht anders, aber bis dato ist die 88gt eh schon fast zu langsam für alles geworden. 1 jahr reicht die karte, evtl auch mit abstreichungen locker aus. tsschüü.. :D

MadManniMan
2008-02-02, 16:51:22
Gibt es Verbrauchsmessungen der 8800GS? Bei weniger RAM, weniger aktive Cluster und einem geringeren Takt als die 8800GT sollte auch der Stromverbrauch sich senken.

Ja, die 8800 GS ist wirklich ne dicke Empfehlung ... wobei man aufpassen muss, dass man keine mies getaktete erwischt. In diesem Review (http://en.expreview.com/?p=214&page=22) ist die 8800 GS 768 wie ne GT, die 384er ein bisschen lahmer getaktet. Die bei Geizhals für den ganz kleinen Preis teils noch geringer.
Mich stört ein wenig, dass keinerlei Angaben zu den Treibereinstellungen gemacht wurden, aber auf der verlinkten Seite zeigt sich ziemlich gut, dass sie schon bei vielen mittleren Einstellungen einer 3850 512 überlegen scheint. Allerdings gibts dann auch wieder Sachen wie Crysis, wo die 3850 auftrumpft.
Seis drum, ich hatte der 8800 GS den Vorzug gegeben und bestellt, bis mir einfiel, dass mein MoBo-Chipsatz nicht mit dem G92 kompatibel ist ;) Naja, jetzt kommt dafür ne 3850 512 *schulterzuck*

Aber auch mit dem Stromverbrauch (http://en.expreview.com/?p=214&page=18) beschäftigt man sich. Idle scheint der Ram einiges auszumachen, aber unter Last landet die kleine GS zwischen den beiden RV670.


Jep. Das war schon eine ziemlich linke Aktion, wenn ich das mal ansprechen darf. Solche linken Notargumente sollte man von manchen Größen eigentlich nicht erwarten. Passiert aber immerwieder. Auch Größe scheint wohl relativ zu sein.

Nur, weil man besonders beharrlich und mit auffallend kontroversen Standpunkten auftrumpft, ist man nicht gleichzeitig groß. Fehlende Diskussionsbereitschaft und eine bemerkenswerte Neigung zu Ansichten, die aus irgend einem Grund immer eine einheitliche Orientierung aufweisen, sprechen eigentlich eher für einen Störfaktor *kopfschüttel*

Die beiden RV670 sind preislich ganz gemäß ihrer Leistung gestaffelt, auch die G92 > 256 und <1024 MB sind vernünftig platziert. Im Grunde entscheidet die Bereitschaft, einen gewissen Betrag auszugeben, da momentan kein Angebot wirklich schlecht ist.

MadManniMan
2008-02-02, 17:01:25
schau ich mir den test an, sagt er mir das selbst eine 256mb 88gt oft noch bei 1680x1050 4xaa 16xaf vor der 3870 liegt.

...im Großen und Ganzen ist natürlich die Rohleistung der 8800 GT 256 überlegen, aber dann gibt es auch immer wieder Situationen (http://en.expreview.com/?p=161&page=25), in denen die 3870 entweder wegen ihres Speicherausbaus oder ihrer Architektur herankommt oder vorbeizieht. Beide haben ihre Vorzüge, gewiss.

LovesuckZ
2008-02-02, 17:09:00
Ja, die 8800 GS ist wirklich ne dicke Empfehlung ... wobei man aufpassen muss, dass man keine mies getaktete erwischt. In diesem Review (http://en.expreview.com/?p=214&page=22) ist die 8800 GS 768 wie ne GT, die 384er ein bisschen lahmer getaktet. Die bei Geizhals für den ganz kleinen Preis teils noch geringer.
Mich stört ein wenig, dass keinerlei Angaben zu den Treibereinstellungen gemacht wurden, aber auf der verlinkten Seite zeigt sich ziemlich gut, dass sie schon bei vielen mittleren Einstellungen einer 3850 512 überlegen scheint. Allerdings gibts dann auch wieder Sachen wie Crysis, wo die 3850 auftrumpft.
Seis drum, ich hatte der 8800 GS den Vorzug gegeben und bestellt, bis mir einfiel, dass mein MoBo-Chipsatz nicht mit dem G92 kompatibel ist ;) Naja, jetzt kommt dafür ne 3850 512 *schulterzuck*

Aber auch mit dem Stromverbrauch (http://en.expreview.com/?p=214&page=18) beschäftigt man sich. Idle scheint der Ram einiges auszumachen, aber unter Last landet die kleine GS zwischen den beiden RV670.


Das ist ein interessanter Test. Danke.
/edit: Es ist wirklich schade, dass sich niemand diesem Phänomen beider Architekturen mal näher ansieht. So fallen bei dem Test doch einige Unklarheiten auch bei AMD auf.

Nakai
2008-02-02, 17:45:59
/edit: Es ist wirklich schade, dass sich niemand diesem Phänomen beider Architekturen mal näher ansieht. So fallen bei dem Test doch einige Unklarheiten auch bei AMD auf.

Ja, da hast du Recht. Beide Architekturen unterscheiden sich zu sehr.
Die 88GT256 scheint nicht bei jedem Spiel so stark einzubrechen.

Vll wäre ein Artikel darüber ganz interessant. ;)


mfg Nakai

RoNsOn Xs
2008-02-02, 18:16:56
soll ich was testen? :)

Gast
2008-02-02, 19:46:01
Juhu, jetzt sind alle glücklich.
Ich bin immer wieder begeistert wie hier um Probleme und Fehler von NV rumgelabert wird bis man wieder am Anfang ist.
Mittlerweile scheint der RAM-BUG der G80 nur noch ein Phantasieprodukt zu sein, dass es nie gegeben hat...
Jetzt mal ehrlich Leute, würde sowas bei ATI auftretten hättet ihr die Karte in Grund und Boden gelabert.

Nakai
2008-02-02, 20:19:00
Mittlerweile scheint der RAM-BUG der G80 nur noch ein Phantasieprodukt zu sein, dass es nie gegeben hat...

Er ist kein BUG. Der G80 und die daraufbasierende Grafikserie geht einfach unwirtschaftlich mit dem Ram um. Da könnte man sich noch einiges von ATI abschaun, welche trotz weniger Bandbreite und weniger Ram, weniger Probleme haben.


mfg Nakai

LovesuckZ
2008-02-02, 20:23:26
Er ist kein BUG. Der G80 und die daraufbasierende Grafikserie geht einfach unwirtschaftlich mit dem Ram um. Da könnte man sich noch einiges von ATI abschaun, welche trotz weniger Bandbreite und weniger Ram, weniger Probleme haben.


Weniger Bandbreite? :confused:

Nakai
2008-02-02, 20:26:23
Weniger Bandbreite?

Im Vergleich zum R600, meinte ich.


mfg Nakai

MadManniMan
2008-02-02, 20:27:00
Er ist kein BUG. Der G80 und die daraufbasierende Grafikserie geht einfach unwirtschaftlich mit dem Ram um. Da könnte man sich noch einiges von ATI abschaun, welche trotz weniger Bandbreite und weniger Ram, weniger Probleme haben.

Ich berufe mich auch nur auf Forenpostings und vereinzelte News, aber was ist denn mit den Framerateneinbrüchen, die mit ALT+TAB behoben werden bei den kleineren G80?

LovesuckZ
2008-02-02, 20:27:11
Im Vergleich zum R600.


Äh? :confused:

Ich berufe mich auch nur auf Forenpostings und vereinzelte News, aber was ist denn mit den Framerateneinbrüchen, die mit ALT+TAB behoben werden bei den kleineren G80?

Trafen nur bei Karten mit weniger als 640mb auf und bei einigen nur in bugverseuchten Spiele ala Armed Assault. Da jedoch auch niemand den Wundertreiber mit einer 320mb 8800GTS getestet hat, kann es darauf eben auch keien abschließende Bewertung geben.

StefanV
2008-02-02, 20:30:06
Wurd das schon gepostet?? (Quelle: PCGH Extreme Forum, mal nach y33h@ suchen)

http://extreme.pcgameshardware.de/attachment.php?attachmentid=7071&stc=1&d=1201545037

Nakai
2008-02-02, 20:38:16
Ich berufe mich auch nur auf Forenpostings und vereinzelte News, aber was ist denn mit den Framerateneinbrüchen, die mit ALT+TAB behoben werden bei den kleineren G80?

Du meinst sicherlich die Geforce 8800GTS 320MB. Nun ich würde das auch auf die Unwirtschaftlichkeit des Vrams des G80 schieben. Grafikkarten mit weniger VRam brechen hin und wieder ziemlich ein. Ich glaube Dargo hat da einen Thread mal mit der X1900XT 256 gebracht.
Durch das Alt+Tab könnten sich die Daten im Ram neu ordnen, ist nur meine Meinung...

Äh?

Sry, ich versuchs nochmal komplett neu auszuformulieren.

Der G80 und die daraufbasierende Grafikserie geht einfach unwirtschaftlich mit dem Ram um. Da könnte man sich noch einiges von ATI abschaun, welche trotz weniger Bandbreite, im Vergleich zum R600, und weniger Ram als die Konkurrenz, weniger Probleme haben.
Jedenfalls zeigen, das die Tests die hier genannt wurden.


mfg Nakai

LovesuckZ
2008-02-02, 20:43:55
Hm, das macht bezüglich der Bandbreite keinen Sinn. Vielleicht geht nVidia auch wesentlich besser mit der vorhandene Bandbreite um und skaliert dadurch auch wesentlich stärker.

Nakai
2008-02-02, 20:47:00
Hm, das macht bezüglich der Bandbreite keinen Sinn. Vielleicht geht nVidia auch wesentlich besser mit der vorhandene Bandbreite um und skaliert dadurch auch wesentlich stärker.

Oder die Bandbreite limitiert derzeit etwas.
Wie war das nochmal? NV verbraucht mehr VRam, dafür schont es die Bandbreite?


mfg Nakai

LovesuckZ
2008-02-02, 20:51:05
Oder die Bandbreite limitiert derzeit etwas.
Wie war das nochmal? NV verbraucht mehr VRam, dafür schont es die Bandbreite?


Mehr Ram bedeute, dass mehr Daten übertragen werden müssen. Dadurch wird die Bandbreite nicht geschohnt.

StefanV
2008-02-02, 21:51:46
Ach, übrigens, ws mich wundert ist doch, wie es eine 8800GS/786MiB (http://en.expreview.com/?p=214&page=12) schafft an einer 512MiB 8800GT vorbei zu kommen? ;)

puntarenas
2008-02-02, 22:10:23
Ach, übrigens, ws mich wundert ist doch, wie es eine 8800GS/786MiB (http://en.expreview.com/?p=214&page=12) schafft an einer 512MiB 8800GT vorbei zu kommen? ;)
Autsch! Andererseits muss man sagen, dass die 512MB der G92-Karten bis zu 1600er-Auflösungen ausreichen, wo nicht bewegt man sich eh bereits fern von spielbaren Ergebnissen.

Gast
2008-02-02, 22:32:14
Ach, übrigens, ws mich wundert ist doch, wie es eine 8800GS/786MiB (http://en.expreview.com/?p=214&page=12) schafft an einer 512MiB 8800GT vorbei zu kommen? ;)
Liegt sicher nicht am VRAM!
Frag Razor! Gerade 512MiB reichen immer!
Sagen wir das gilt nicht!


;D


*so jetzt habe ich mich genug geärget*

LovesuckZ
2008-02-02, 23:46:07
Ach, übrigens, ws mich wundert ist doch, wie es eine 8800GS/786MiB (http://en.expreview.com/?p=214&page=12) schafft an einer 512MiB 8800GT vorbei zu kommen? ;)

Vorallem lustig, dass zwischen den AMD kaum ein Unterschied herrscht.

StefanV
2008-02-02, 23:49:06
Vorallem lustig, dass zwischen den AMD kaum ein Unterschied herrscht.
Oh, danke, das du nochmal bestätigt hast, das die AMD Karten in diesem Bereich deutlich besser sind ;)

Womit bewiesen wäre, das die G80 abkömmlinge Probleme mitm RAM haben, irgendwie...

Gast
2008-02-02, 23:56:14
Das aber kein Problem, solange genug VRAM vorhanden ist, wie bei den G80 Topmodellen. :)

laser114
2008-02-02, 23:59:02
Da dürfte ein G92GTX mit 1 GiB RAM doch etwas reißen, was nicht nur aus etwas höherer Bandbreite und höherer Rohleistung resultiert. Gleichzeitig führt es aber eine 9800 GX2 mit 2x 512 MiB irgendwie vor.

Ob Bug, Problem oder einfach Designentscheidung (sowas soll es ja auch mal geben): Die Speicherverwaltung bei Nvidia ist einfach ineffizienter. Von daher ist eine 8800 GT einfach Crap, die 8800 GS 384 ist da schon sinnvoller. Abgesehen von dem Stress für die Treiberprogrammierer hätte ich mir lieber die als offizielle Lösung gewünscht, und nicht die 8800 GT 256, welche sich im Konkurrenzkampf inner Haus und mit AMD einfach nirgendwo durchsetzen kann.

LovesuckZ
2008-02-03, 00:02:48
Oh, danke, das du nochmal bestätigt hast, das die AMD Karten in diesem Bereich deutlich besser sind ;)

Wer sagt das? Ich sehe nur zahlen. Hast du Bilder der Spiele? Ist die Qualität gleich? Nicht das hier noch gecheatet wird.


Womit bewiesen wäre, das die G80 abkömmlinge Probleme mitm RAM haben, irgendwie...

Oder AMD und deswegen sind vielleicht die Karten so erbärmlich langsam in den anderen Spielen. :confused:

Achja: Da das Thema ja nie betrachtet wurde, kann auch niemand das Gegenteil behaupten.

aths
2008-02-03, 00:52:13
Nö, aber bei Nvidia ist der native Maschinencode für den Chip größer, weil ja wesentlich mehr Funktionseinheiten parametrisiert werden müssen.

ATI muss nur 64 Einheiten im R600/RV670 ansteuern, NV zwischen 96 und 128 (G80/G92).G92 hat keine 128 einzelnen Shaderprozessoren.


Ich kann Dich schon verstehen das Du sagst das die Framerraten im nichtspielbaren bereich sind.
Sehe Dir mal die 2 Links von BlackAchron genauer an.
Da sieht man deutlich wie die 8800GT 256 herbe Einbricht, genauer gesagt da setzt sich die 3850er mit 256 MB um einiges vor die 8800er.Ja, wobei ich allerdings schon bei der 8600 GTS gleich 512 MB empfehlen würde. Preislich nimmt sich das nicht viel. Auch bei der 320-er GTS merkte man dass das Produkt locker mehr RAM verkraften könnte. War allerdings trotzdem ein Renner.

Der Vergleich hinkt eben nicht.
Ich denke sehr wohl das eingie Spiele in Zukunft mehr Texturen haben, dann wird aber eng.

Auch kann ich Deine Argumentation verstehen, das Du nur die Auflösung in diesen Test akzeptierst, welche nach Deinen Schema passen.So ist er leider.

Ich denke das nVIDIA sicherlich noch was unternehmen, vorerst ist meine Empfehlung ein Abraten von der 8800GT 256.So wie ich das sehe ist die Karte in Europa auch nicht zu weit verbreitet.

Wobei wie gesagt, ich eine 256MB Karte sowieso nicht mehr zeitgemäss finde.Jupp. Wobei sich "zeitgemäß" mit ß schreibt.

Gast
2008-02-03, 00:57:17
Ja sie sind in 16er Blöcke zusammen gepackt.

aths
2008-02-03, 00:59:58
Komische einseitige Ansicht. Niemand zwingt dich die Texturdetails und andere Einstellungen auf Max. zu stellen.Das bringt aber (abgesehen vom RAM-Verbrauch) sehr billig ein schönes Plus in Dingen Grafikdetail. Bei den RAM-Preisen lohnt es sich nicht, zu knausern. Natürlich ist es der 38-er Serie trotzdem anzurechnen, dass sie offensichtlich aus 256 MiB mehr macht als die Konkurrenz. Motto: Wenn schon wenig RAM, dann bitte möglichst gute Nutzung.

G8x und neuer ist im gegensatz zu R(V)6xx keine VLIW-architektur mehr, also sollte jener bei ATI eigentlich größer sein.

außerdem dürften die instructions nur eine sehr kleine menge vom gesamten speicherverbrauch ausmachen und nicht ins gewicht fallen.VLIW hin oder her, das sind Schlagworte. Der Shader-Code dürfte im Vergleich zur Texturbandbreite eine untergeordnete Rolle spielen, und wahrscheinlich auch in Dingen RAM-Verbrauch, wie du schon schreibst, kaum spürbar sein.

An der Auflösung zu sparen ist dumm. Denkt dran, du bist nur ein Individuum das auf eine stärkere Hardwarebasis zurückgreift. Die meisten Spieler und Menschen kaufen sich OEM-PCs und billigere Hardware.
Ich spare lieber an AA, AF, Schattendetails, Objektdetails und Texturen anstatt keine native Auflösung für meinen Monitor zu fahren.Das ist allerdings ineffizient, da AA und AF deutlich bessere Pixelqualität pro Rechenleistung bieten als man rein über die Pixelzahl bekommt.

aths
2008-02-03, 01:10:15
Danke. Ist es denkbar, dass NV schlechter komprimiert ? Ich meine G80 war schon recht groß und wenn ich den Cache entlasten möchte, könnte ich die Daten im Speicher evtl. leichter zugänglich machen in dem ich sie dort weniger oder teils unkomprimiert liegen habe, was immer den Schritt der Komprimierung sparen würde.Beim G92 wurde was in Dingen Komprimierung verbessert. Welche Bereiche genau betroffen sind, ist mir noch nicht klar.

Eine völlig neue Generation ist nicht einfach nur eine Zwischenlösung.Ich weiß auch nicht, ob er sich es herbeireden will oder einfach nur fantasiert. G80 war eine grundlegende Revolution, eine völlig neuartige GPU-Architektur und stellt die Basis für die NV-GPUs der kommenden Jahre.

RoNsOn Xs
2008-02-03, 01:16:36
Das ist allerdings ineffizient, da AA und AF deutlich bessere Pixelqualität pro Rechenleistung bieten als man rein über die Pixelzahl bekommt.

find ich nicht mal. jdfls nicht bei 256mb nv g92-karten. kommt zudem auch wieder stark aufs spiel an.

Bolzano-Weierstrass
2008-02-03, 01:30:19
Das ist allerdings ineffizient, da AA und AF deutlich bessere Pixelqualität pro Rechenleistung bieten als man rein über die Pixelzahl bekommt.

Aber nicht auf einem TFT, wo durch die (meist sehr mäßige) Interpolation des Displays selbst viel "Pixelqualität" verloren geht. Dann dort doch lieber nicht die Auflösung heruntersetzen. Und da Nakai hier von "nativer Auflösung" spricht, ist wohl unzweifelhaft von einem TFT die Rede. Insgesamt gesehen (das Display miteinbezogen), ist es also die effizientere Lösung (im Sinne von mehr Pixelqualität, die beim Betrachter ankommt), möglichst die native Auflösung zu fahren und dafür anderes herunterzudrehen.

Nakai
2008-02-03, 12:12:57
1. Das bringt aber (abgesehen vom RAM-Verbrauch) sehr billig ein schönes Plus in Dingen Grafikdetail. Bei den RAM-Preisen lohnt es sich nicht, zu knausern. Natürlich ist es der 38-er Serie trotzdem anzurechnen, dass sie offensichtlich aus 256 MiB mehr macht als die Konkurrenz. Motto: Wenn schon wenig RAM, dann bitte möglichst gute Nutzung.


2. Das ist allerdings ineffizient, da AA und AF deutlich bessere Pixelqualität pro Rechenleistung bieten als man rein über die Pixelzahl bekommt.

1. Da stimm ich dir zu. Mir ging es auch eher darum, dass man mit einer HD3850 256 besser spielbare Frames bekommt, als mit einer 8800GT 256, wenn bei dieser das Problem auftritt.

2. Naja das ist auch wieder subjektiv. Ich hab einen 19" TFT mit 1280*1024 und da sind die Pixel immer recht groß. AA macht das Bild deutlich schöner, aber als notwendig sehe ich es nicht.
Bis 4xAA und 8xAF kann man es empfehlen, drüber sehe ich kaum noch einen Unterschied.

Insgesamt gesehen (das Display miteinbezogen), ist es also die effizientere Lösung (im Sinne von mehr Pixelqualität, die beim Betrachter ankommt), möglichst die native Auflösung zu fahren und dafür anderes herunterzudrehen.

Jupp!


mfg Nakai

Gast
2008-02-03, 13:12:35
Bis 4xAA und 8xAF kann man es empfehlen, drüber sehe ich kaum noch einen Unterschied.
Jetzt kommt die Karte ins Spiel.


Wieviel FPS kostet zb 16xAF?
Bei einer 8800 ist das fast gratis. -> Verschwendung, wer hier 8x nimmt.

Wieviel FPS kostet besseres AA?
Bei 4xAA muss auf jeden Fall auch T-AA angeschaltet werden, imho.
Bei NV gibt es CSAA -> kostet auch nicht so viel
Stinknormales 8xAA würde ich auch nicht verwenden, lieber gleich 16xQ oder 16x oder 8xS oder 2x2 SS

Nakai
2008-02-03, 13:14:20
Mhh, stimmt. Hab ich ganz vergessen. Danke für den Hinweis.


mfg Nakai

aths
2008-02-03, 14:37:29
Aber nicht auf einem TFT, wo durch die (meist sehr mäßige) Interpolation des Displays selbst viel "Pixelqualität" verloren geht. Dann dort doch lieber nicht die Auflösung heruntersetzen. Und da Nakai hier von "nativer Auflösung" spricht, ist wohl unzweifelhaft von einem TFT die Rede. Insgesamt gesehen (das Display miteinbezogen), ist es also die effizientere Lösung (im Sinne von mehr Pixelqualität, die beim Betrachter ankommt), möglichst die native Auflösung zu fahren und dafür anderes herunterzudrehen.Alternativen sind, auf einem 5:4- oder 4:3-Moni mit WS-Auflösung und Balken zu spielen, oder auf einem WS-TFT in 4:3, ebenfalls mit Balken.

Die Skalierung ist auf TFTs nicht unbedingt schlecht. Wenn man irgendwo pixeldünne Fonts hat, fällt es zwar auf. Ansonsten fällt es bei aktivem AA auf den ersten Blick nicht auf.


2. Naja das ist auch wieder subjektiv. Ich hab einen 19" TFT mit 1280*1024 und da sind die Pixel immer recht groß. AA macht das Bild deutlich schöner, aber als notwendig sehe ich es nicht.
Bis 4xAA und 8xAF kann man es empfehlen, drüber sehe ich kaum noch einen Unterschied.Ich hab auch 1280x1024 mit 19". 4:3-Spiele spiele ich mit dünnen Balken in 1280x960, da ich Verzerrungen nicht ausstehen kann. Ohne AA kriege ich Augenkrebs. Selbst 2x AA, mit dem ich lange klargekommen bin, reicht mir nicht mehr.

StefanV
2008-02-03, 15:02:02
@aths, warum kaufst dir nicht einfach 'nen 4:3 Schirm, die sind garnicht mehr so teuer, hier ein paaf bis 225€ (http://geizhals.at/deutschland/?cat=monlcd20&bpmax=225&asuch=&pixonoff=off&sort=p)...

Nakai
2008-02-03, 15:25:59
Ich hab auch 1280x1024 mit 19". 4:3-Spiele spiele ich mit dünnen Balken in 1280x960, da ich Verzerrungen nicht ausstehen kann. Ohne AA kriege ich Augenkrebs. Selbst 2x AA, mit dem ich lange klargekommen bin, reicht mir nicht mehr.

Tja mit ner X800XT kann man nicht immer AA fahren...leider.:frown:


mfg Nakai

Gast
2008-02-03, 20:36:50
ich denke dass problem bei NV liegt weniger am höheren VRAM-verbrauch selbst liegt. dieser ist zwar bei NV üblicherweise etwas höher, aber nur geringfügig.

ich denke das problem liegt großteils am verhalten des treibers wenn er aufgrund des VRAM-mangels zum auslagern gezwungen ist. das läuft offenbar bei NV deutlich ineffizienter als bei ATI.

ein paar gegentests mit XP und Vista wären auch ganz interessant, eventuell kommt der NV-treiber auch mit der VRAM-virtualisierung von vista nicht so ganz klar.

Bolzano-Weierstrass
2008-02-04, 12:22:45
Alternativen sind, auf einem 5:4- oder 4:3-Moni mit WS-Auflösung und Balken zu spielen, oder auf einem WS-TFT in 4:3, ebenfalls mit Balken.

Schon, nur hilft das ja der Performance nur spürbar, wenn man die Auflösung auch heruntersetzt. Bei 'ner Auflösung von 1680x1050, fehlt dann z.b. in 1280x960 schon einiges an Bild, in 1024x768 sehr viel Bild und dazu kommt, dass der NVIDIA-Treiber, den ich im Moment benutze (163.75), die Einstellung der Skalierung sofort wieder vergisst, wenn ich sie tätige (also überhaupt nicht funktioniert) und selbst mit den OverscanUtils von NVIDIA beim nächsten Benutzen des Overlay-Modus (Video) wieder vergisst. Ach ja und es ist jedes Mal ein Bootvorgang nötig, um mit den OverscanUtils die Skalierung wirksam einzustellen. Also superumständlich. Ich hatte jetzt nichts davon gelesen, dass NVIDIA das endlich hinbekommen hätte. Haben sie? Am Monitor selbst kann ich die Skalierung leider nicht einstellen.

Die Skalierung ist auf TFTs nicht unbedingt schlecht. Wenn man irgendwo pixeldünne Fonts hat, fällt es zwar auf. Ansonsten fällt es bei aktivem AA auf den ersten Blick nicht auf.

Ich finde die von meinem TFT (Samsung SyncMaster 223BW) ziemlich schlecht, also fällt sofort auf, wenn nicht die native Auflösung gefahren wird. Bei Fonts natürlich als erstes. Aber die Frage ist auch schon grundsätzlich, wozu lasse ich die Grafikkarte Pixelqualität ohne Ende generieren, um sie dann durch den TFT wieder vernichten zu lassen, weil durch die Interpolation alles unschärfer wird.

Sorry für OT.

Grestorn
2008-02-04, 12:47:49
Ich finde die von meinem TFT (Samsung SyncMaster 223BW) ziemlich schlecht, also fällt sofort auf, wenn nicht die native Auflösung gefahren wird. Bei Fonts natürlich als erstes. Aber die Frage ist auch schon grundsätzlich, wozu lasse ich die Grafikkarte Pixelqualität ohne Ende generieren, um sie dann durch den TFT wieder vernichten zu lassen, weil durch die Interpolation alles unschärfer wird.

Eine gute Interpolation muss nicht unscharf wirken. Ich sehe bei meinem Eizo eigentlich keine Unschärfe, wenn ich mit reduzierter Auflösung arbeite.

Wenn der Monitor da wirklich zu schwach ist, sollte man die GraKa selber skalieren lassen. Da ist das Ergebnis normalerweise brauchbar.

Bolzano-Weierstrass
2008-02-04, 12:52:44
@Grestorn: Rein von der Technik her, muss dabei doch Unschärfe entstehen, schließlich werden fehlende Informationen durch die umliegenden hochgerechnet. Wenn Dein Eizo das so gut macht, ist das natürlich schön, aber am grundsätzlichen Problem ändert das nichts.

Grestorn
2008-02-04, 13:28:43
@Grestorn: Rein von der Technik her, muss dabei doch Unschärfe entstehen, schließlich werden fehlende Informationen durch die umliegenden hochgerechnet. Wenn Dein Eizo das so gut macht, ist das natürlich schön, aber am grundsätzlichen Problem ändert das nichts.

Es muss keine fehlende Information hochgerechnet werden. Die vorhandene Information muss nur möglichst ideal auf die vorhandenen Quantisierungs-Elemente, also die feste Pixelmaske, verteilt werden, so dass möglichst keine zusätzliche Unschärfe entsteht. Und das ist machbar. Jedes gute Bildverarbeitungsprogramm beherrscht das beim Skalieren.

Natürlich verliert man Details, einfach weil die Auflösung des Bildes reduziert wird, das ist ja klar. Das hat man aber immer, auch bei CRTs. Aber ein weiterer Verlust sollte nicht auftreten.

Bolzano-Weierstrass
2008-02-04, 15:22:59
@Grestorn: Hm? Angenommen ich reduziere die Auflösung, um der Grafikkarte Rechenarbeit zu ersparen, weil sie überlastet ist (um wenigstens noch einen winzigen Bezug zum Thread zu haben: weil sie nur 256MB VRAM hat ;) ). Sagen wir von 1280x960 auf 1024x768. Weiter angenommen wir hätten einen TFT-Monitor mit einer nativen Auflösung von 1280x960 (um verschiedene Seitenverhältnisse mal außer acht zu lassen). Der bekommt jetzt von der Grafikkarte Bildinformationen für 1024x768 Pixel geliefert. Diese muss er jetzt also auf 1280x960 Pixel verteilen, wenn wir die volle Darstellungsfläche des Monitors nutzen wollen.

Da er nicht einfach Pixel mittendrin leer (schwarz) lassen kann, muss er fehlende Information interpolieren. Egal wie er das macht, er muss fehlende Information herstellen, selbst wenn er einfach nur sagen wir von links oben nach rechts unten, regelmäßig verteilt, den Farbwert des links daneben stehenden Pixels für ein leeres Pixel übernimmt (meinst Du so etwas mit "auf die vorhandenen Quantisierungs-Elemente verteilen"?), "rechnet" er Information hoch. Dabei geht Schärfe verloren, weil Farb-/Helligkeitsübergänge gestreckt werden. Das gleiche, wenn er bilinear interpoliert. Völlig egal, was er tut, er muss fehlende Informationen hochrechnen. Und dabei geht immer Schärfe verloren, natürlich auch bei bikubischer Interpolation, wie sie aktuelle Bildbearbeitungsprogramme beherrschen. Das kann auch jeder leicht mit einem Bildbearbeitungsprogramm ausprobieren. Kleines Bild nehmen, sagen wir 128x128 Pixel und mit bikubischer Interpolation auf 256x256 hochskalieren lassen. Und unschärfer geworden?

Grestorn
2008-02-04, 17:02:23
Nochmal: Natürlich ist 1024x768 detailärmer und damit "unschärfer" als 1280x1024. Aber das liegt nur am Ausgangsformat, nicht an der Skalierung!

Schärfe definiert sich aber nicht dadurch, dass man exakte Kanten sieht. Die sieht man in der Tat nur bei ganzzahliger Vielfachen der Auflösung.

Ein Bild das sauber skaliert ist, ist grundsätzlich nicht unschärfer.

Beispiel: Nimm ein Photo in 1280x1024. Verwende Photoshop im besten Modus (bikubisch) um das Bild auf 1600x1200 hochzuskalieren.

Dann speichere das hochskalierte Bild und öffne es neu. Und skaliere es wieder runter auf 1280x1024.

Dann vergleiche das Ergebnis mit dem Ausgangsbild. Das zweimal skalierte Bild hat theoretisch sicher leicht an Qualität verloren, dennoch wirst Du das mit blosem Auge kaum wahrnehmen können.

Bolzano-Weierstrass
2008-02-04, 17:14:54
@Grestorn: Es geht mir hier nicht darum, ob 1024x768 grundsätzlich unschärfer als 1280x960 ist, weil da mehr Pixel zur Verfügung stehen, das ist nicht die Form von Unschärfe von der ich hier rede. Eigentlich rede ich hier von Informationsverlust, den wir als Unschärfe wahrnehmen (ist mir aber auch egal als was, solange es ein Informationsverlust ist). Wenn ich das mache, was Du vorgeschlagen hast, also erst hochskalieren, dann wieder herunterskalieren, habe ich natürlich einen Informationsverlust. Wenn man ihn mit bloßem Auge nicht sehen kann, ist natürlich die Frage, wie interessant der ist. Aber er existiert auf jeden Fall.

Es geht mir um den sichtbaren Verlust von Informationen, die ich mir vorher teuer von der Grafikkarte habe berechnen lassen, durch die Darstellung auf einem Monitor, der das Bild hochskaliert.

Schärfe ist für unser Auge eine möglichst große Differenz zwischen der Helligkeit bzw. Farbe benachbarter Bildpunkte. Da kann es kein Verfahren zur Hochskalierung geben, dass diese Differenzen nicht erniedrigt (ohne das Bild zu verfälschen). Wann immer ich zur Hochskalierung Informationen über die benachbarten Bildpunkte benutze, erniedrige ich die Differenzen in der Helligkeit bzw. Farbe zwischen benachbarten Bildpunkten. Nehme ich beliebige Helligkeiten bzw. Farben verfälsche ich das Bild. Deswegen wirken hochskalierte Bilder für das menschliche Auge unschärfer.

Gast
2008-02-04, 17:51:06
Es geht mir um den sichtbaren Verlust von Informationen, die ich mir vorher teuer von der Grafikkarte habe berechnen lassen, durch die Darstellung auf einem Monitor, der das Bild hochskaliert.

das ist eben nicht der fall. der informationsverlust entsteht dadurch, dass die grafikkarte das bild nur in einer geringeren auflösung berechnet und nicht durch das hochskalieren am monitor.

bei einer skalierung auf eine höhere auflösung gehen (bis auf rundungsverluste) nie informationen verloren, nur bei der skalierung auf eine kleinere auflösung gehen informationen verloren.

ein bild in einer geringeren auflösung hat weniger informationen und ist deshalb unschärfer. das ist allerdings auch bei einem CRT genauso der fall.

im gegenteil, ein CRT "interpoliert" immer, wenn nicht gerade jedes loch in der maske von genau einem pixel getroffen wird, was in der praxis nie der fall ist.

der schärfeverlust fällt bei einem TFT natürlich viel mehr auf, ganz einfach weil er in seiner nativen auflösung deutlich schärfer als ein CRT ist.

trotzdem macht eine halbwegs ordentliche skalierung das bild nicht unschärfer als es (durch die reduktion der auflösung) schon ist.


oder anders ausgedrückt an einem gedachten beispiel:

wir denken uns 2 17" TFTs.
einer mit einer auflösung von 1280x960, der andere mit 1024x768 nativer auflösung.

das beste bild erhalten wir zweifelsohne wenn wir TFT nummer 1 in 1280x960 betreiben.

wenn wir aber nun aufgrund von unzureichender grafikleistung die auflösung auf 1024x768 reduzieren müssen hat TFT2 trotzdem kein besseres bild (insbesondere wenn es darum geht bilder, videos oder 3d-anwendungen darzustellen) sondern maximal ein gleich gutes. eher wird sogar das bild von TFT1 angenehmer anzusehen sein, ganz einfach weil die pixel deutlich kleiner sind.

Bolzano-Weierstrass
2008-02-04, 18:22:28
Hm, stimmt, da hab' ich völlig falsch gedacht. Ich kann ja aus dem hochskalierten Bild mit dem exakt gleichen Verfahren rückwärts angewandt, das Originalbild zurückgewinnen. Habe also keine Informationen vernichtet.

Trotzdem wirkt das hochskalierte Bild für das menschliche Auge unschärfer, siehe letzter Absatz meines vorherigen Posts, weswegen TFT2 doch das schärfer wirkende Bild bei 1024x768 hätte, falls TFT1 auf seine native Auflösung hochskaliert (gleiche Pixelgröße mal vorausgesetzt).

Grestorn
2008-02-04, 18:39:58
Hm, stimmt, ich kann ja aus dem hochskalierten Bild mit dem exakt gleichen Verfahren rückwärts angewandt, das Originalbild zurückgewinnen. Habe also keine Informationen vernichtet.

Trotzdem wirkt das hochskalierte Bild für das menschliche Auge unschärfer, siehe letzter Absatz meines vorherigen Posts, weswegen TFT2 doch das schärfer wirkende Bild bei 1024x768 hätte, falls TFT1 auf seine native Auflösung hochskaliert (gleiche Pixelgröße mal vorausgesetzt).

Und genau dieser Effekt ist bei hochwertigen Monitoren, die auch eine höhere Auflösung haben (mehr als 1280x1024) kaum noch wahrzunehmen.

StefanV
2008-02-04, 19:02:52
@Grestorn

Ich würds nicht an der Auflösung festmachen, die ist irrelevant, wieviele Pixel pro Fläche anzutreffen sind, ist da wichtiger.

Ich bin persönlich ein Fan von ~100dpi Schirmen, mit den 80dpi Schirmen kannst mich jagen, die mag ich nicht.

Entsprechend hab ich hier auch nur ~100dpi Schirme und werd mir auch nur ~100dpi Schirme kaufen ;)


Wobei die 16" Schirme immer noch das beste wo gibt sind (z.B. Eizo L461, 1280x1024)...

Bolzano-Weierstrass
2008-02-04, 19:08:33
Und genau dieser Effekt ist bei hochwertigen Monitoren, die auch eine höhere Auflösung haben (mehr als 1280x1024) kaum noch wahrzunehmen.

Tja, bei meinem leider schon (Samsung SyncMaster 223BW, 21.6", 1680x1050 nativ), aber der ist wohl auch nicht als hochwertig zu bezeichnen. Ist bei dem Anschaffungspreis auch in Ordnung, habe außer der Interpolation nichts zu meckern.