Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF8 "VRAM-Bug" gefixt?


Seiten : 1 2 3 [4] 5

y33H@
2008-04-06, 21:07:34
Das ist kein Bug. Architekturbedingt.
Mehr Verbrauch ist kein Bug, habe ich auch nie gesagt - aber absaufen ist ein Bug.

cYa

Gast
2008-04-06, 22:50:15
Das ist relativ schade, dank einem Gast alle Gäste derart zu verachten.Ja. Total. Der Verlust schlechthin. Von was? Von seinem "gegenhalten"? :usweet:

Drehen wir den Schuh um, AMD Karten profitieren kaum vom großen VRAM, ist das jetzt auch ein "Bug" nur weil die Karten nicht entsprechend mit dem größeren VRAM skalieren?Wen bitte willst du hier eigentich verarschen? Mich? y33H@? Geh und verarsche Grestorn.

y33H@
2008-04-06, 23:42:46
Ne HD3850 profitiert mit bis zu 30% *klick mich* (http://extreme.pcgameshardware.de/showthread.php?t=9933) und bricht nicht so übel weg.

cYa

LovesuckZ
2008-04-06, 23:46:53
Eine 8800GT/512 profitiert stärker und ist absolut dann auch wesentlich schneller als eine 3850/512.
Wir sehen also zwei unterschiedliche Ansichten. Wo die eine Karte keinen annährend so starken Vorteil liefert, rennt die andere der ganzen Konkurrenz einfach davon.

/edit: Interessant, dass eine 3850/512 mit AA nicht schneller als eine 1950XT ist...

Gast
2008-04-07, 09:38:36
Wen bitte willst du hier eigentich verarschen? Mich? y33H@? Geh und verarsche Grestorn.
Warum?

Ne HD3850 profitiert mit bis zu 30%
Soll ich jetzt sagen das ist ein "Nicht-den-VRAM-gescheit-ausnütz-Bug"?
Eine GF8/9 skaliert erheblich besser mit mehr VRAM.
Man könnte jetzt einfach behaupten, das die AMD Karten auf wenig VRAM optimiert sind oder eben verbugt.


/edit: Interessant, dass eine 3850/512 mit AA nicht schneller als eine 1950XT ist...
Liegt wohl an der verbugten R600 Architektur.

Gast
2008-04-07, 10:08:41
@y33H@
Die Radeon verfügt über die klar schlechtere Texturierungsleistung (12.4 GTex/s) im Vergleich zur Geforce (33.6 GTex/s), dank der 25% höheren Bandbreite rendert die HD3870 scharfe Texturen aber mit einem geringeren Leistungsabfall.

Was soll die unnütze Bandbreitenangabe dort?
AF hängt an den TMUs. NV hat nunmal weit mehr Texturfüllrate als AMD.
Der Trick warum AMD nicht gnadenlos eingeht? AI-Cheats, "Filteroptimierungen".
Scharfe Texturen? Ja dafür flimmerts, quasi eine ab Werk Lod Verscheibung, um überhaupt mihalten zu können, zumindest auf Standbildern.
Einen wahren Sieger bei den gewöhnlichen Glättungsoptionen gibt es unserer Meinung nach zwar nicht, die Hybrid-Modi lassen AMD aber ganz schön alt aussehen, ebenso wie die verwendete Grafikkarte - selbst eine 8800Ultra zwingt man hiermit zu einstelligen Fps-Raten.
Das ist nicht wahr. 8xS, 8xSQ oder 16xS sind sinnvolle, schnelle Alternativmodi zum MSAA Dreck.

In deinem Test kannst du den VRAM Bug nicht belegen oder erklären, bringst ihn trotzdem ins Feld.

y33H@
2008-04-09, 00:00:57
Das mit Bandbreite war Unfug, das mit den Hybrid Modi meine ich so wie ich es geschrieben habe; warum nicht den VRAM-Bug einbringen?

cYa

Gast
2008-04-09, 00:08:54
Das mit Bandbreite war Unfug, das mit den Hybrid Modi meine ich so wie ich es geschrieben habe; warum nicht den VRAM-Bug einbringen?


Kannst du das auch belegen? Die Hybrid Modis sind verglichen mit dem optischen Gewinn garnicht genug zu loben und keinesfalls zu langsam das ist dummes Geschwätz. Sogar Crysis ist machbar mit 4xS und High Settings (8800GTX) sieht tausendmal schöner aus als jeder MSAA Modus oder Wischiwaschi Modus der Konkurrenz.

Canuba
2008-04-09, 03:21:34
Ich habe den Vram-bug mit meiner 8800 GTS 512MB wohl auch würde ich mal sagen .
bei Gamecopyworld gibt es einen crysisunlocker mit dem man Crysis mit WinXP auf DX10 Server spielen kann,
jo dachte ich ist ja schön dann kann ich ja endlich im Multi alles auf High spielen
läuft auch soweit super aber nach ca. 30 min ist der Vram auf ca 650MB angelaufen
und dann ruckelt es nur noch :(

Gast
2008-04-09, 03:36:12
Sogar Crysis ist machbar mit 4xS und High Settings (8800GTX) sieht tausendmal schöner aus als jeder MSAA Modus oder Wischiwaschi Modus der Konkurrenz.Auf jeden fall. Könntest du aber so ganz nebenbei beim Topic bleiben?

Gast
2008-04-09, 04:28:25
Auf jeden fall. Könntest du aber so ganz nebenbei beim Topic bleiben?

Nö , weil es lächerlich ist und bleibt.

Schlammsau
2008-04-09, 05:50:31
hier wird auf so minimalen unterschieden herumgeritten, dass es schon nicht mehr lustug ist!
Hatte bis vor einem Monat noch eine 8800GS.....und ich konnte keinerlei unterschiede in der Bildquali erkennen. So schlicht es sich anhört, es sieht bei beiden Herstellern eigentlich gleich aus! Immer dieses nVidia ist besser, ATI ist besser gehabe....

Grestorn
2008-04-09, 07:03:20
Ich habe den Vram-bug mit meiner 8800 GTS 512MB wohl auch würde ich mal sagen .
bei Gamecopyworld gibt es einen crysisunlocker mit dem man Crysis mit WinXP auf DX10 Server spielen kann,
jo dachte ich ist ja schön dann kann ich ja endlich im Multi alles auf High spielen
läuft auch soweit super aber nach ca. 30 min ist der Vram auf ca 650MB angelaufen
und dann ruckelt es nur noch :(

:rolleyes:

Wenn das Spiel zu viel RAM braucht wird jede Grafikkarte Probleme kriegen.

Echt, ich kriegs nicht. Sagst Du, die CPU hätte einen Bug wenn Dein Rechner anfängt wie wild auszulagern, weil Du einfach mehr RAM nutzt als Du eingebaut hast?

Ich kann das mit dem idiotischen "G80 RAM-Bug" echt nicht mehr hören. Schlimmstes Beispiel einer falsch von Fudzilla zitierten Aussage, die dann ein unglaubliches Eigenleben entwickelt hat!

Gast
2008-04-09, 08:29:18
Sogar Crysis ist machbar mit 4xS und High Settings (8800GTX)

Klar, alle Benchmarks dieser Welt sind falsch.

Oder bezeichnest du weniger als 20 FPS als flüssig?

Gast
2008-04-09, 09:31:21
Klar, alle Benchmarks dieser Welt sind falsch.

Wo gibt es Benchmarks mit 4xS?

So schlicht es sich anhört, es sieht bei beiden Herstellern eigentlich gleich aus!
Bei AMD flimmerts. AMD hat kein SSAA um dem zu begegnen.

Gast
2008-04-09, 09:58:45
Ich habe den Vram-bug mit meiner 8800 GTS 512MB wohl auch würde ich mal sagen .
bei Gamecopyworld gibt es einen crysisunlocker mit dem man Crysis mit WinXP auf DX10 Server spielen kann,
jo dachte ich ist ja schön dann kann ich ja endlich im Multi alles auf High spielen
läuft auch soweit super aber nach ca. 30 min ist der Vram auf ca 650MB angelaufen
und dann ruckelt es nur noch :(


Ist ein Bug in Crysis.

Gast
2008-04-09, 10:09:04
Wo gibt es Benchmarks mit 4xS?

Nirgends, weil selbst 4xAA schon jedes Single-GPU System einbrechen lässt.
Und 4xS kostet sicher nicht weniger Leistung als 4xMSAA.

;-)

Gast
2008-04-09, 10:11:42
Und 4xS kostet sicher nicht weniger Leistung als 4xMSAA.

Ja, weil NV auch auf 4xMSAA optimiert hat.

Gast
2008-04-09, 10:21:34
:rolleyes:

Wenn das Spiel zu viel RAM braucht wird jede Grafikkarte Probleme kriegen.

Echt, ich kriegs nicht. Sagst Du, die CPU hätte einen Bug wenn Dein Rechner anfängt wie wild auszulagern, weil Du einfach mehr RAM nutzt als Du eingebaut hast?

Ich kann das mit dem idiotischen "G80 RAM-Bug" echt nicht mehr hören. Schlimmstes Beispiel einer falsch von Fudzilla zitierten Aussage, die dann ein unglaubliches Eigenleben entwickelt hat!


fakt ist, das alle gpus von nvidia, die vor dem g80 kamen, dieses verhalten nicht hatten (d.h. einen einbruch bis auf 50%)

Gast
2008-04-09, 10:23:06
fakt ist, das alle gpus von nvidia, die vor dem g80 kamen, dieses verhalten nicht hatten (d.h. einen einbruch bis auf 50%)


Das ist kein Fakt, weil dieses Verhalten von Crysis auch auf meinem NV40 auftritt.

Gast
2008-04-09, 10:53:20
Das ist kein Fakt, weil dieses Verhalten von Crysis auch auf meinem NV40 auftritt.


beweise?
ich hab ne weile crysis auf einer 7600gt, 7900 (und x1900) gezockt

denen geht höchstens die puste aus, aber nix mit halbierung der fps

Gast
2008-04-09, 10:58:44
Beweise? Eigene Beobachtung!

Ob es jetzt eine Halbierung oder sogar Drittelung der fps ist weiss ich nicht, aber der starke fps-Einbruch lässt sich mit ALT-TAB auf den Desktop und zurück ins Spiel beheben.

Schlammsau
2008-04-09, 11:47:29
vielleicht sollte jemand eine Definition des VRAM Bugs schreiben!?

Gast
2008-04-09, 11:49:53
vielleicht sollte jemand eine Definition des VRAM Bugs schreiben!?
Wird schwierig etwas zu beschreiben, was es nicht gibt.

Wenn dann müssten es die VRAM-Bug Anhänger tun, die wissen nur leider selbst nicht was jetzt der VRAM-Bug sein soll.

Gast
2008-04-09, 16:36:55
Nirgends, weil selbst 4xAA schon jedes Single-GPU System einbrechen lässt.
Und 4xS kostet sicher nicht weniger Leistung als 4xMSAA.

;-)

Nicht bei HIGH Settings.

Hvoralek
2008-04-09, 17:05:34
vielleicht sollte jemand eine Definition des VRAM Bugs schreiben!?Ich versuche es mal.

Es gibt drei Bereiche, die man klar auseinander halten muss:
Grundspeicherbedarf von G8x: Es scheint unstrittig zu sein, dass die Teile aus irgendeinem Grund meist von vornherein etwas mehr Speicher brauchen als R6xx. Daran wird anscheinend gearbeitet; man denke an die Treiber, die bei der GTS320 z.T. sehr viel bebracht haben.

Das Volllaufen des Speicher dadurch, dass manchmal Daten, die gelöscht werden müssten, im Speicher verbleiben. Ich würde das und nur das als "VRAM- Bug" bezeichnen.

Das Verhalten bei vollem VRAM: Bricht ein G8x stärker ein als ein R6xx, der die gleiche Menge Daten auslagern muss?

:rolleyes:

Wenn das Spiel zu viel RAM braucht wird jede Grafikkarte Probleme kriegen.Die Frage ist, ob auch bei jeder Karte 650 MiB "anlaufen" würden.

Gast
2008-04-09, 17:20:41
I
Grundspeicherbedarf von G8x: Es scheint unstrittig zu sein, dass die Teile aus irgendeinem Grund meist von vornherein etwas mehr Speicher brauchen als R6xx. Daran wird anscheinend gearbeitet; man denke an die Treiber, die bei der GTS320 z.T. sehr viel bebracht haben.

Das Volllaufen des Speicher dadurch, dass manchmal Daten, die gelöscht werden müssten, im Speicher verbleiben. Ich würde das und nur das als "VRAM- Bug" bezeichnen.

Das Verhalten bei vollem VRAM: Bricht ein G8x stärker ein als ein R6xx, der die gleiche Menge Daten auslagern muss?

1. Ein besseres Ausnutzen des vorhanden Speichers ist kein Bug, sondern vorteilhaft. Lehrer VRAM ist nutzloser VRAM. Eher ist der Weg AMDs ein Bug, wenn man es so sieht.
2. Wo ist der Beweiß? Der VRAM wird faktisch nunmal geleert.
3. Liegt am Design, G8x skaliert gut mit mehr VRAM, ist das jetzt ein Bug, wenn AMD nichts mit mehr VRAM anfangen kann?

Hvoralek
2008-04-09, 19:45:28
1. Ein besseres Ausnutzen des vorhanden Speichers ist kein Bug, sondern vorteilhaft. Lehrer VRAM ist nutzloser VRAM. Eher ist der Weg AMDs ein Bug, wenn man es so sieht.Das stimmt, soweit wirklich nur der vorhandene Speicher genutzt wird. Sag das mal GTS320- Besitzern, insbesondere Anfang 2007.

2. Wo ist der Beweiß? Der VRAM wird faktisch nunmal geleert.Zunächst zum x-ten Mal: Niemand behauptet, der Speicher werde übehaupt nicht geleert. Es gibt aber inzwischen so viele Meldungen (z.T. mit Videos) von diesen Einbrüchen, dass ich nicht recht glauben kann, dass die alle erlogen oder gefälscht sein sollen. Wie oft und unter welchen Bedingungen das genau auftritt, kann ich nicht sagen (Ich hatte bisher keine Probleme damit), aber dass das vorkommen kann, nehme ich an.

3. Liegt am Design, G8x skaliert gut mit mehr VRAM, ist das jetzt ein Bug, wenn AMD nichts mit mehr VRAM anfangen kann?Was liegt am Design? Ich habe den dritten Punkt bewusst als Frage formuliert, weil ich dazu keine brauchbaren Zahlen kenne.

Du bist nicht zufällig LovesuckZ, oder? Dem würde ich so ziemlich als einzigem hier zutrauen, hohen VRAM- Bedarf als positiv zu werten, wenn es Nvidia betrifft.

Gast
2008-04-09, 19:58:46
Das stimmt, soweit wirklich nur der vorhandene Speicher genutzt wird. Sag das mal GTS320- Besitzern, insbesondere Anfang 2007.Was ist mit der 320MiB GTS?
Zu wenig VRAM, da kann man nicht von volllaufen sprechen, die sind sofort voll.
Der Speicher reicht einfach nicht aus, oder die Einstellungen sind zu hoch gewählt.
Ist im Grunde doch egal, ob die Karte durch den VRAM oder die Rechenleistung beschnitten ist. Bis auf das bei ersterem die Leute von Bug reden, bei zweiteren nicht.



Zunächst zum x-ten Mal: Niemand behauptet, der Speicher werde übehaupt nicht geleert.

Doch ein paar glauben das.
Die Beweise kenne ich.
Das in ein paar Reviews eine im VRAM beschnittene Karte abstürzt, ist jedoch kein Beleg.


Was liegt am Design? Ich habe den dritten Punkt bewusst als Frage formuliert, weil ich dazu keine brauchbaren Zahlen kenne.

Du bist nicht zufällig LovesuckZ, oder? Dem würde ich so ziemlich als einzigem hier zutrauen, hohen VRAM- Bedarf als positiv zu werten, wenn es Nvidia betrifft.
Angeblich soll der G8x stärker einbrechen. Ist aber kein Zeichen eines Bugs sondern eher, ein Zeichen das AMD Karten nicht gut mit mehr VRAM skalieren.

Nein ich bin nicht LS aber ich habe diesen höheren Verbrauch schon mal positiv gewertet. Machen die Vista Fans doch auch.
Und es stimmt ja auch, warum soll der VRAM leer bleiben, wenn die Karte ihn nutzen könnte. Blöd halt, wenn die Karte das bei wenig VRAM genauso regeln sollte.
Hier wäre die VRAM Auslastung von 2 bis auf den VRAM identische Karten interessant zu wissen.

Hvoralek
2008-04-09, 20:41:01
Was ist mit der 320MiB GTS?
Zu wenig VRAM, da kann man nicht von volllaufen sprechen, die sind sofort voll.Es geht da um den Grundbedarf, nicht ums Volllaufen. Es gab zwei- oder dreimal mit Treibern erhebliche Leistungszuwächse, speziell bei der GTS 320. Da hatte man offenbar den VRAM- Bedarf reduziert. Ist das nun für Dich etwas Schlechtes, weil ja dann mehr Speicher nicht mehr so toll viel nützt? :ugly:

Ist im Grunde doch egal, ob die Karte durch den VRAM oder die Rechenleistung beschnitten ist. Bis auf das bei ersterem die Leute von Bug reden, bei zweiteren nicht.Noch einmal: Ich spreche vom VRAM- Bug, wenn es um das Volllaufen des Speichers geht. Übertragen auf die Rechenleistung: Stell Dir vor, ein Chip würde in bestimmten Fällen, nachdem eine Einheit eine Rechenoperation durchgeführt hat, das Ergebnis abliefern, dann aber mit dieser Einheit wieder und wieder diese eine Operation durchführen, völlig umsonst. Würdest Du das nicht als Bug bezeichnen?

Doch ein paar glauben das.Habe ich dann wohl überlesen. Wer denn?

Die Beweise kenne ich.
Das in ein paar Reviews eine im VRAM beschnittene Karte abstürzt, ist jedoch kein Beleg.Das fällt unter Punkt 3 (Verhalten bei vollem VRAM).

Es geht mir um die Meldungen von Leuten, die von diesem Verhalten berichten. Um Videos, die z.B. in Stalker Framerateeinbrüche zeigen, die sich mit einem Alt+Tab beheben lassen. Die sagen bezüglich des Volllaufens etwas aus.

Angeblich soll der G8x stärker einbrechen. Ist aber kein Zeichen eines Bugs sondern eher, ein Zeichen das AMD Karten nicht gut mit mehr VRAM skalieren.Und wo soll der Vorteil einer so tollen "Skalierung" mit dem VRAM liegen?

darkcrawler
2008-04-10, 11:55:58
:rolleyes:

Wenn das Spiel zu viel RAM braucht wird jede Grafikkarte Probleme kriegen.

Echt, ich kriegs nicht. Sagst Du, die CPU hätte einen Bug wenn Dein Rechner anfängt wie wild auszulagern, weil Du einfach mehr RAM nutzt als Du eingebaut hast?

Ich kann das mit dem idiotischen "G80 RAM-Bug" echt nicht mehr hören. Schlimmstes Beispiel einer falsch von Fudzilla zitierten Aussage, die dann ein unglaubliches Eigenleben entwickelt hat!


andere grafikkarten / gpus brechen aber nicht von anfangs 40 auf 15fps runter, das ist der unterschied ;)

imho hat nv das problem sogar zugegeben / bestätigt:rolleyes:

Gast
2008-04-10, 11:57:29
imho hat nv das problem sogar zugegeben / bestätigt:rolleyes:
Wo denn?
Ein Marketingfuzi hat sich verplappert.

darkcrawler
2008-04-10, 12:02:11
ach ja verplappert, soso
http://techreport.com/onearticle.x/12877

wie erklärt sich dann, das andere karten dieses verhalten nicht zeigen, d.h. bisher wars ziemlich latte, ob 512 oder 256mb auf der karte werkeln (z.b. G7x oder atis aktuelle 38xx reihe)?

3. Liegt am Design, G8x skaliert gut mit mehr VRAM, ist das jetzt ein Bug, wenn AMD nichts mit mehr VRAM anfangen kann?

das hat überhaupt nix mit skalieren zu tun, denn vor "vollaufen" des vrams sind gleiche karten (siehe 8800gt 256/512, 8800gs 384/768) so gut wie gleich schnell
unterschied: nvs kleine "krepieren" dann, während atis das nicht tun

Gast
2008-04-10, 12:06:20
Es geht da um den Grundbedarf, nicht ums Volllaufen. Es gab zwei- oder dreimal mit Treibern erhebliche Leistungszuwächse, speziell bei der GTS 320. Da hatte man offenbar den VRAM- Bedarf reduziert. Ist das nun für Dich etwas Schlechtes, weil ja dann mehr Speicher nicht mehr so toll viel nützt? :ugly:
Stimmt, die GTS320 wurde schneller.
Nein das ist nichts schlechtes, eher ein Zeichen, das die GTS320 einfach mit dem Treiber, der für eine GTS640 gut ist schelchter zurecht kommt. ;)
600MiB VRAM Verbrauch auf einer GTS640 ist doch gut, aber auf einer GTS320 entsprechen nicht.


Noch einmal: Ich spreche vom VRAM- Bug, wenn es um das Volllaufen des Speichers geht. Übertragen auf die Rechenleistung: Stell Dir vor, ein Chip würde in bestimmten Fällen, nachdem eine Einheit eine Rechenoperation durchgeführt hat, das Ergebnis abliefern, dann aber mit dieser Einheit wieder und wieder diese eine Operation durchführen, völlig umsonst. Würdest Du das nicht als Bug bezeichnen?

Doch das wäre ein Bug, aber wo berechnet hier die GPU etwas mehrmals, bei knappen VRAM?


Habe ich dann wohl überlesen. Wer denn?
Ist schon ein paar Postings her.


Es geht mir um die Meldungen von Leuten, die von diesem Verhalten berichten. Um Videos, die z.B. in Stalker Framerateeinbrüche zeigen, die sich mit einem Alt+Tab beheben lassen. Die sagen bezüglich des Volllaufens etwas aus.
Eben stand hier, das ein ähnliches Phänomen auch bei NV40 oä zu beobachten ist.
Ist das nicht eher ein Bug des Spieles?


Und wo soll der Vorteil einer so tollen "Skalierung" mit dem VRAM liegen?
An der hohen Performance, wenn genug VRAM vorhanden ist? :)

Gast
2008-04-10, 12:10:23
wie erklärt sich dann, das andere karten dieses verhalten nicht zeigen, d.h. bisher wars ziemlich latte, ob 512 oder 256mb auf der karte werkeln (z.b. G7x)?

1. Eben stand hier noch etwas, das jemadn so etwas mit dem NV40 beobachtet hätte.
2. Weil eben 256MiB G7x genug VRAM hatten? Du verstehts nicht den Unterschied zwischen zu wenig VRAM und dem "Bug".


das hat überhaupt nix mit skalieren zu tun, denn vor "vollaufen" des vrams sind gleiche karten (siehe 8800gt 256/512, 8800gs 384/768) so gut wie gleich schnell
Seit wann ist eine 8800GS so schnell wie eine GT?

darkcrawler
2008-04-10, 12:12:55
An der hohen Performance, wenn genug VRAM vorhanden ist? :)

nur ist die performance vor vollaufen komischerweise gleich, also nix skalieren ;)

Du verstehts nicht den Unterschied zwischen zu wenig VRAM und dem "Bug".

das gleiche unterstell ich dir jetzt mal ganz frech ;)

wenn ich ne demo 5x hintereinander laufen lasse und die karte erst 30 packt und im letzten (wohlgemerkt: identischen durchlauf!) nur noch 10, habsch n v-ram-bug :D

ich hab zu seiner zeit Gothic 3 mit einer 6600gt gezockt, die hat nur bescheidene 128mb, warum kommt die dann nich ins stocken? (und jetz bitte nich behaupten: "für die 6er is 128 ausreichend"

ich betreite nicht, dass ne gewisse vram-ausstattung in hohen auflösungen / filtern schon n vorteil bedeutet, aber nicht in dem masse, das ne 8800gt 512 in der gleichen szene 70fps macht und das 256er devirat irgendwo bei 20 rumdümpelt


Seit wann ist eine 8800GS so schnell wie eine GT?

ich vergleiche identische gpus mit verschiedener vram-bestückung, keine ahnung, woher du diese unterstellung her ziehst

Hvoralek
2008-04-10, 13:10:55
Doch das wäre ein Bug, aber wo berechnet hier die GPU etwas mehrmals, bei knappen VRAM?Sie rechnet nicht unnötigerweise, sondern speichert unnötigerweise Daten. Das war ja auch ein Vergleich, wie dieser Bug übertragen auf fehlerhaftes Verhalten des Chips aussähe.

Und noch einmal: Der Bug tritt nicht bei knappem VRAM auf, sondern führt dazu, dass der VRAM knapp wird.

Ist schon ein paar Postings her.Du wirst wohl verstehen, dass die Aussage, irgendjemand habe das wohl irgendwann vor längerer Zeit schon einmal behauptet, nicht die größte Überzeugungskraft hat. Wenn es Dir wirklich darauf ankommt, dass schon einmal jemand behauptet habe, G8x würden überhaupt nie Daten aus dem Speicher entfernen, belege das bitte. Wobei das so eklatanter Unsinn wäre, dass das ohnehin sehr schnell widerlegt worden sein dürfte.

Eben stand hier, das ein ähnliches Phänomen auch bei NV40 oä zu beobachten ist.
Ist das nicht eher ein Bug des Spieles?Es ist sicher möglich, dass auch Spiele so ein Verhalten verursachen. Es ging aber nur um einen einzigen Fall, in dem auch ein NV40 sich so verhalten soll. Mir sind auch keine anderen Berichte von anderen Chips als G8x bekannt. Wenn das nur an Spielen liegt, warum ist das nicht lange vor Ende 2006 jemandem aufgefallen? Warum gibt es bis heute viele Meldungen zu G8x und fast keine zu anderen Chips?

An der hohen Performance, wenn genug VRAM vorhanden ist? :)Du findest hohen Speicherbedarf allen Ernstes gut, oder? :|

Gast
2008-04-10, 13:22:19
ich hab zu seiner zeit Gothic 3 mit einer 6600gt gezockt, die hat nur bescheidene 128mb, warum kommt die dann nich ins stocken? (und jetz bitte nich behaupten: "für die 6er is 128 ausreichend"
Liegt wohl an den Settings.
Ich kann Gothic 3 auch auf einem G8x dazu überreden nicht viel mehr als 128MiB zu verbrauchen. ;)


Du findest hohen Speicherbedarf allen Ernstes gut, oder? :|
Ja, wenn genug Speicher da ist, warum nicht vollknallen?
Auch wenn die Daten nicht gleich wiedergebraucht werden, so erspart es später Nachladeruckler. :)
Ist natürlich nur solange gut, wie noch Platz im VRAM ist.

darkcrawler
2008-04-10, 13:28:26
Liegt wohl an den Settings.
Ich kann Gothic 3 auch auf einem G8x dazu überreden nicht viel mehr als 128MiB zu verbrauchen. ;)


Ja, wenn genug Speicher da ist, warum nicht vollknallen?
Auch wenn die Daten nicht gleich wiedergebraucht werden, so erspart es später Nachladeruckler. :)
Ist natürlich nur solange gut, wie noch Platz im VRAM ist.


lassen wir crysis einfach mal weg, da die anforderungen alles andere als lustig sind:
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page9.asp

laut deiner theorie müsste die 3850 genauso einbrechen

komisch das die trotz schwächerer gpu das nicht tut

Hvoralek
2008-04-10, 18:27:06
Ja, wenn genug Speicher da ist, warum nicht vollknallen?
Auch wenn die Daten nicht gleich wiedergebraucht werden, so erspart es später Nachladeruckler. :)
Ist natürlich nur solange gut, wie noch Platz im VRAM ist.Es sind zwei Dinge, ob man viel Speicher nutzt oder viel Speicher braucht.

Ich kann übrigens inzwischen aus eigener Erfahrung einen volllaufenden VRAM mit einer 8800 GT in Crysis bestätigen. Können vlt. Leute mit irgendwelchen Nicht- G8x- Karten darauf achten, ob das dort auch auftritt und in dem Fall vlt. wirklich am Spiel liegt?

LovesuckZ
2008-04-10, 18:30:35
Es passiert nur in einigen Spielen? Dann ist es kein Bug.
Das Problem müsste in jeder Anwendung auftauchen, die irgendwas in den Speicher laden will. Wir haben doch diese ganze Diskussion schon dreimal durch.

Hvoralek
2008-04-10, 18:47:40
Es passiert nur in einigen Spielen? Dann ist es kein Bug.Zunächst einmal: Ich habe nur geschrieben, dass es mir bisher nur in Crysis aufgefallen ist. Ich habe allerdings auch mit der Karte bisher noch nirgendwo anders den Speicherverbrauch im Auge behalten und auch keine anderen Spielen mit großartigen Texturdaten gespielt. Wenn ich das mal wieder mache (Gothic 3 oder Stalker oder so), werde ich vlt. mal darauf achten.

Verstehe ich Dich richtig: Ein seltsames Verhalten des Treibers (Einmal unterstellt, es liegt an der Karte und nicht am Spiel) soll kein Bug sein, wenn es nicht immer, sondern nur unter bestimmten Bedingungen auftritt? "Kein Bug" heißt bedeutet doch "kein Fehler", also so gewollt? :|

Das Problem müsste in jeder Anwendung auftauchen, die irgendwas in den Speicher laden will. Wir haben doch diese ganze Diskussion schon dreimal durch.Ich kann mich nur wiederholen: Es hat m.W. niemand hier behauptet, der Speicher würde nie entleert. Es klappt nur anscheinend nicht immer so, wie es soll. Schlimm genug.

Selbst wenn dem so wäre und der VRAM nur beim Beenden einer Anwendung geleert werden könnte, wäre Deine Aussage falsch. Wenn bei einer insgesamt schlicht keine 512/640/768 MiB Daten anfallen, würden die auch noch alle zusammen in den Speicher einer entsprechenden Karte passen.

Gast
2008-04-11, 11:48:14
Es passiert nur in einigen Spielen? Dann ist es kein Bug.
Das Problem müsste in jeder Anwendung auftauchen, die irgendwas in den Speicher laden will. Wir haben doch diese ganze Diskussion schon dreimal durch.

könntest zusamm mit dem anderm gast im marketing arbeiten: it's not a bug, it's a feature :rolleyes:

grobi
2008-04-27, 11:27:49
Auf Computerbase wurde der Speicherverbrauch der aktuellen Ati/Nvidia-Grafikkarten getestet. Ich weiss nicht wie hier qualitätsmäßig der Test betrachtet wird. Aber ich kann dort keinen Speicherbug erkennen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/#abschnitt_einleitung

Hvoralek
2008-04-27, 13:59:23
Auf Computerbase wurde der Speicherverbrauch der aktuellen Ati/Nvidia-Grafikkarten getestet. Ich weiss nicht wie hier qualitätsmäßig der Test betrachtet wird. Aber ich kann dort keinen Speicherbug erkennen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/#abschnitt_einleitungWie sollte man den anhand kurzer Benchmarks ohne zeitabhängige Speicherverbrachsmessungen auch erkennen?

The_Invisible
2008-04-27, 15:08:01
Wie sollte man den anhand kurzer Benchmarks ohne zeitabhängige Speicherverbrachsmessungen auch erkennen?

machs doch besser und zeigen uns endlich den speicherbug.

bin schon gespannt...

mfg

Hvoralek
2008-04-27, 15:42:22
machs doch besser und zeigen uns endlich den speicherbug.

bin schon gespannt...Ich habe weder einen R6xx noch die Zeit, die erforderlichen Messungen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6410534#post6410534) selbst durchzuführen. y33H@ hatte das mal geplant, aber daraus ist anscheinend nichts geworden.

Damit könnte man jedenfalls den VRAM- Bug widerlegen, wenn es ihn tatsächlich nicht gibt. Das geht aber nicht mit solchen Benchmarks wie bei CB. Genauso wenig, wie man ihn durch den prinzipiellen Speichermehrbedarf von G8x belegen könnte.

Was ich aus eigener Erfahrung schon einmal sagen kann, ist, dass ich in Crysis an einer Stelle einen bösen Einbruch hatte, der an überfülltem VRAM lag und durch ein Alt+Tab beseitigt wurde (Speicherverbrauch sank dadurch von etwa 600 MiB auf unter 300 MiB). Ich bin auch ohne spürbare Einbrüche gelegentlich testweise zurück zum Desktop; danach war jedesmal mehr Speicher frei und wenn vorher ausgelagert worden war brachte das teilweise auf ein paar fps. Ich kann allerdings nicht sagen, ob das am Spiel liegt, an der HW oder an beidem.

Gast
2008-04-27, 15:53:07
Dann bleiben wir in der Situation, das es keinen Bewiß gibt, nur Mutmaßungen.

Hvoralek
2008-04-27, 15:55:31
Eben. Bisher hat m.W. niemand wirklich aussagekräftige Messungen dazu durchgeführt. Damit ist es einfach unseriös, den VRAM- Bug als Tatsache oder als Mythos hinzustellen (Ja, gewisse Leute dürfen sich jetzt angesprochen fühlen).

Gast
2008-04-27, 16:39:46
Dagegen steht immer noch die Aussage von NV,das der Bug in der nächsten Treiverversion behoben wird,wie lange ist das her,man gibt doch nichts zu wenn nichts ist.

LovesuckZ
2008-04-27, 16:43:45
Eben. Bisher hat m.W. niemand wirklich aussagekräftige Messungen dazu durchgeführt. Damit ist es einfach unseriös, den VRAM- Bug als Tatsache oder als Mythos hinzustellen (Ja, gewisse Leute dürfen sich jetzt angesprochen fühlen).

Warum benötigt man zuerst Messungen?
Erstmal wird eine Definition des Problems benötigt. Diese gibt es bis heute nicht - bzw. es gibt zwei Beschreibungen.
Die erste Behauptung, dass der Speicher unkontrolliert vollaufen würde, wurde nie bestätigt. Es wäre ein einfaches dies zu beweisen - jede Anwendung, die etwas in den Speicher schreibt, müsste das Problem nach einer gewissen zeit auslösen. Da seit 1 1/2 Jahren die Leuten mit den 8800 Karten zufrieden sind, ist dieses Beschreibung falsch.
Dann bleibt nur die zweite Möglichkeit - ein höhrerer Bedarf an Speicher - übrig. Und das ist kein Bug sein - nur eine technische Limitierung.

Gast
2008-04-27, 16:47:35
Man kann sich auch Hardware schönreden. Es muss ja nicht unbedingt als Bug betitelt werden, doch bin ich mit meiner GeForce nicht zufrieden. Wie der Sachverhalt zustande kommt, ist oft genug bewiesen.
Die GeForce ist nicht perfekt und hat Probleme mit dem Speicher, dennoch ist es echt hirnrissig, dieses dauernde Hin und Wieder zu lesen. Dabei machen beide Seiten keinen guten Eindruck.

LovesuckZ
2008-04-27, 17:01:43
Niemand redet hier etwas schön.
Dieses "hat Probleme mit dem Speicher" ist nur die halbe Wahrheit. AMD hat z.B Probleme mit AA, Anwendungen, die viel Texturleistung benötigen, AF, und bestimmten rechenintensiven Programmen.
Hier kommt niemand auf die Idee, der Hardware ein Bugfestival vorzuwerfen.
Man muss zwischen Bug und technischer Limitierung unterscheiden. Der kaputte Videoprozessor des NV40 war ein Bug. Denn er wurde bei den zukünftigen Versionen gefixt. Die Speicherlästigigkeit der G8x Architektur zieht sich durch alle Versionen. Man hat dies bei den den G80 Karten nur durch die hohe Menge an Speicher verdeckt.

Hvoralek
2008-04-27, 18:27:43
Dagegen steht immer noch die Aussage von NV,das der Bug in der nächsten Treiverversion behoben wird,wie lange ist das her,man gibt doch nichts zu wenn nichts ist.... die sich afair auf den allgemein hohen Speicherbedarf bezog. Daran wurde ja auch immer mal wieder erkennbar gearbeitet, zuletzt mit der 174er- Reihe. Wenn Nvidia die Sache mit dem Volllaufen mal offiziell bestätigt haben sollte, poste hier einfach ienen Link und die Sache ist wahrscheinlich erledigt.

Warum benötigt man zuerst Messungen?
Erstmal wird eine Definition des Problems benötigt. Diese gibt es bis heute nicht - bzw. es gibt zwei Beschreibungen.
Die erste Behauptung, dass der Speicher unkontrolliert vollaufen würde, wurde nie bestätigt. Es wäre ein einfaches dies zu beweisen - jede Anwendung, die etwas in den Speicher schreibt, müsste das Problem nach einer gewissen zeit auslösen. Da seit 1 1/2 Jahren die Leuten mit den 8800 Karten zufrieden sind, ist dieses Beschreibung falsch.Du liest hier doch sicher mit. Dann weist Du auch, dass niemand behauptet, G8x könnten ihren Speicher überhaupt nicht leeren, sondern höchstens, dass es nicht immer so funktioniert, wie es sollte. Das kannst Du eben nicht widerlegen, in dem Du darauf hinweist, dass es auch Fälle gibt, in denen das nicht auftritt, zumal das bei Spielen mit insgesamt wenigen Texturdaten in keinem Fall spürbar... Ach, das hatten wir doch alles schon!

LovesuckZ
2008-04-27, 18:32:14
Das Problem an dieser Theorie ist doch, dass es eben nicht in jeder Anwendung auftritt. Solch ein Fehler müsste unabhängig von der Anwendung repoduzierbar sein. Ist es jedoch nicht.

Hvoralek
2008-04-27, 18:43:12
Das Problem an dieser Theorie ist doch, dass es eben nicht in jeder Anwendung auftritt. Solch ein Fehler müsste unabhängig von der Anwendung repoduzierbar sein. Ist es jedoch nicht.Nein. Zum ichweißnichwievieltenmal: Wenn man annimmt, dass in bestimmten Fällen die Entleerung des Speichers nicht richtig funktioniert, muss das eben nicht nach ausreichend langer Zeit überall auftreten. Dass sie nicht nie funktioniert, ist offensichtlich.

Mr. Lolman
2008-04-27, 18:51:54
Aber ich kann dort keinen Speicherbug erkennen.


Ich schon. Wenn die fps einbrechen, dann gleich ordentlich...

Hvoralek
2008-04-27, 19:01:39
Ich schon. Wenn die fps einbrechen, dann gleich ordentlich...Z.B. in UT3 liegt die 512er- GT konstant immer knapp bis etwas hinter der 1024er. Auch in CoH gibt es gut erkennbar allmähliche Einbrüche.

grobi
2008-04-27, 19:07:08
Ja aber wohl nur bei den Grafikkartem mit 256mb. Warum ist das Problem wenn es denn besteht bist heute nicht so aufgetreten? Es gibt Millionen verkaufter Nvidiakarten oder das Problem tritt in Zukunft öfter auf dank speicherlastigeren Spielen. Ich will den Speicherbug nicht wegdiskutieren. Aber viele Kumpels betreiben eine 8800gt mit 512mb und von denen hat sich noch keiner beschwert. Aber wer weiss.

mfg grobi

Hvoralek
2008-04-27, 19:09:20
Ja aber wohl nur bei den Grafikkartem mit 256mb. Warum ist das Probelm wenn es denn besteht bist heute nicht so aufgetreten? Es gibt Millionen verkaufter Nvidiakarten oder das Problem tritt in Zukunft öfter auf dank speicherlastigeren Spielen. Ich will den Speicherbug nicht wegdiskutieren. Aber viele Kumpels betreiben eine 8800gt mit 512mb und von denen hat sich noch keiner beschwert. Aber wer weiss.Dazu müsste erst einmal untersucht werden, ob, wo und unter welchen Bedingungen das Problem in welchem Umfang auftritt.

Gast
2008-04-27, 19:10:18
... die sich afair auf den allgemein hohen Speicherbedarf bezog. Daran wurde ja auch immer mal wieder erkennbar gearbeitet, zuletzt mit der 174er- Reihe. Wenn Nvidia die Sache mit dem Volllaufen mal offiziell bestätigt haben sollte, poste hier einfach ienen Link und die Sache ist wahrscheinlich erledigt.

Du liest hier doch sicher mit. Dann weist Du auch, dass niemand behauptet, G8x könnten ihren Speicher überhaupt nicht leeren, sondern höchstens, dass es nicht immer so funktioniert, wie es sollte. Das kannst Du eben nicht widerlegen, in dem Du darauf hinweist, dass es auch Fälle gibt, in denen das nicht auftritt, zumal das bei Spielen mit insgesamt wenigen Texturdaten in keinem Fall spürbar... Ach, das hatten wir doch alles schon!

Gut dann formulieren wir es eben anders..Nvidia baut und verkauft zur Zeit Grafikkarten die in keinem Spiel für hohe Auflösungen und AA ausreichen!
Und ich wiederhole das gilt für ALLE SPIELE!!!!!!!!!!
Und da brauch jetzt keiner kommen mit dümmlichen Fanboy gelaaber!

Neon3D
2008-04-27, 22:00:30
Ja aber wohl nur bei den Grafikkartem mit 256mb. Warum ist das Problem wenn es denn besteht bist heute nicht so aufgetreten? Es gibt Millionen verkaufter Nvidiakarten oder das Problem tritt in Zukunft öfter auf dank speicherlastigeren Spielen. Ich will den Speicherbug nicht wegdiskutieren. Aber viele Kumpels betreiben eine 8800gt mit 512mb und von denen hat sich noch keiner beschwert. Aber wer weiss.

mfg grobi
ich hab eine mit 512mb und es kommt gelegentlich auch zu den fps-einbrüchen. aber es ist noch im erträglichen bereich.

Mr.Magic
2008-04-27, 22:31:20
Nvidia baut und verkauft zur Zeit Grafikkarten die in keinem Spiel für hohe Auflösungen und AA ausreichen!
Und ich wiederhole das gilt für ALLE SPIELE!!!!!!!!!!

Das machen AMD und Intel ebenfalls. Was ist nochmal dein Problem?

Leute, die mehr als ein Ausrufungszeichen verwenden kann ich allerdings sowieso nicht ernst nehmen. Dabei muss ich immer an Terry Pratchett denken.

ps: Stimmt genaugenommen natürlich nicht. Keine dieser Firmen verkauft Grafikkarten, sie stellen nichtmal welche her.

Gast
2008-04-27, 23:18:48
Euer prob ist das die Augen zu sind,schööön zumachen und NV das Geld in Rachen schieben,NEIN einen 17" kaufen dann sind alle probs behoben.
Und bei ATI ist bei weiten nicht so schlimm die können mit ihrer Bandbreite etwas besser umgehen.

Und ernst nehmen kann man Menschen wie dich eh nicht,außer jemand reißt ihnen mal die Scheuklappen vom Gesicht,wer glaubste der du bist weil du hier unter einem anderen Namen schreibst,Mr.Magic ich lach mich weg GAST ist mir da bei weiten sympatischer.
Die einzigen Karten die taugen sind die alten G80 alles andere kannste wie gesagt in der Pfeife rauchen oder wie auch gesagt einen 17" kaufen.

Gast
2008-04-27, 23:21:33
ps: Stimmt genaugenommen natürlich nicht. Keine dieser Firmen verkauft Grafikkarten, sie stellen nichtmal welche her.

Du überbietest dich im dummen Zeug schreiben,das gibt es garnicht.
So Leute wie du ,die es hier mittlerweile leider Gottes zu Genüge gibt,das Forum immer mehr ins lächerliche.

Die gelbe Eule
2008-04-27, 23:33:07
Vielleicht gibt es auch zur Zeit zuviele Spiele, die einfach SLi oder CF im hohen dreistelligen Bereich fordern, um spielbar zu sein. Laufen sie gerade so im Very High Mods, schickt man einen Ultra hinterher. Wer Höchstleistung erwartet, der muss auch zahlen, man hat keinen Anspruch auf ein gewisses Level.

Gast
2008-04-27, 23:37:11
wie so das?
Der G80 kanns doch...warum die anderen nicht mehr?
Weil die sonst ihren GT200 nicht mehr verkaufen könnten?
Stell dir die GT mit nem größeren SI vor....

Die gelbe Eule
2008-04-27, 23:46:11
Der G80 kostet 220€ neu, mein SLi 200€ neu. Nur ist mein SLi 40-50% schneller. WArum sollte ich mir also eine GTX kaufen, die hatte ich übrigens kurz davor drin, wenn ich für weniger Geld mehr Leistung bekomme?

Stell Dir mal den Preis für eine GT mit größerem SI vor. Haben kann man alles, nur zu welchem Preis?

Mr.Magic
2008-04-27, 23:46:28
Lieber Gast,

nVidia vertreibt Grafikchips, keine Karten, auch wenn die Hersteller praktisch nur noch das Design von nVidia verwenden.

Welche Spiele laufen denn so schlecht auf nVidia's aktueller High-End-Karte (9800GX2)? Selbst die aktuellen Mainstreamkarten kommen locker mit 99% der Titel klar. Sogar die Low-End-Karten (9600GT) reichen für ihren Einsatzbereich aus (Gruppe: AntiAliasing, kann man das essen? Hab' doch keine Ahnung von Computern.).

Wenn AMD eine Einzelchip-Karte bringt, die mindestens 2.5x schneller ist als meine Aktuelle - bei 1920x1080 bzw. 1600x1200|16xSAA|16xHQAF, die Stereo-3D unterstützt, und praktisch geräuschlos arbeitet, tausche ich meine Karte im Spiele-PC gerne sofort dagegen aus.

Hvoralek
2008-04-27, 23:48:51
Welche Spiele laufen denn so schlecht auf nVidia's aktueller High-End-Karte (9800GX2)? Selbst die aktuellen Mainstreamkarten kommen locker mit 99% der Titel klar. Selbst die Low-End-Karten (9600GT) reichen für ihren Einsatzbereich aus (Gruppe: AntiAliasing, kann man das essen? Hab' doch keine Ahnung von Computern.).512 MiB kann man mit richtig hohen AA- Modi (16xS oder 32xS) schon schnell vollbekommen. Das ist aber v.a. ein Problem bei älteren Spielen, bei denen die Rohleistung dafür noch reichen würde.

LovesuckZ
2008-04-27, 23:50:10
Euer prob ist das die Augen zu sind,schööön zumachen und NV das Geld in Rachen schieben,NEIN einen 17" kaufen dann sind alle probs behoben.
Und bei ATI ist bei weiten nicht so schlimm die können mit ihrer Bandbreite etwas besser umgehen.

Und ernst nehmen kann man Menschen wie dich eh nicht,außer jemand reißt ihnen mal die Scheuklappen vom Gesicht,wer glaubste der du bist weil du hier unter einem anderen Namen schreibst,Mr.Magic ich lach mich weg GAST ist mir da bei weiten sympatischer.
Die einzigen Karten die taugen sind die alten G80 alles andere kannste wie gesagt in der Pfeife rauchen oder wie auch gesagt einen 17" kaufen.

Und trotzdem sind sie schneller als die Konkurrenz.
Warum dann AMD kaufen? :rolleyes:

Mr.Magic
2008-04-27, 23:51:51
512 MiB kann man mit richtig hohen AA- Modi (16xS oder 32xS) schon schnell vollbekommen. Das ist aber v.a. ein Problem bei älteren Spielen, bei denen die Rohleistung dafür noch reichen würde.

Eben, nur bei wenigen aktuellen Spielen kommt man, (ohne Modding) mit reinem Multisampling-AA, über 500MB. Das ist der Fluch und Segen von Konsolenports.

Gast
2008-04-27, 23:52:12
Der G80 kostet 220€ neu, mein SLi 200€ neu. Nur ist mein SLi 40-50% schneller. WArum sollte ich mir also eine GTX kaufen, die hatte ich übrigens kurz davor drin, wenn ich für weniger Geld mehr Leistung bekomme?

Naja, dafür hätte für die 8800GTX ein Board gereicht, welches 100€ billiger ist als deins! Von den ganzen SLI-Problemen wie Mikroruckler usw., die deine 2 Karten effektiv dann sogar langsamer als die GTX machen, wollen wir gar nicht reden!

Mr.Magic
2008-04-27, 23:57:33
Mikroruckler sind nervig. Das sind sie bei der Konkurrenz aber ebenso. Was macht denn XF besser als SLI?

Hvoralek
2008-04-28, 00:03:11
Naja, dafür hätte für die 8800GTX ein Board gereicht, welches 100€ billiger ist als deins!Seit wann kosten SLI- MoBos 100€ mehr als vergleichbare ohne SLI?

Gast
2008-04-28, 00:05:18
Was macht denn XF besser als SLI?
Nichts. Eher schlechter, weil nicht steuerbar. SLI ist per Profilen noch etwas beherschbar und kontrollierbar.

Die gelbe Eule
2008-04-28, 00:26:11
Naja, dafür hätte für die 8800GTX ein Board gereicht, welches 100€ billiger ist als deins! Von den ganzen SLI-Problemen wie Mikroruckler usw., die deine 2 Karten effektiv dann sogar langsamer als die GTX machen, wollen wir gar nicht reden!

Mein SLi Board war gebraucht bezahlbar und wenn man die 20€ hinzurechnet vn der GTX, sogar genauso teuer wie jedes andere aktuelle P35. Die Mikroruckler stören mich nicht, hatte das schon mit Einzelkarten und nun kommts, G80 :)

Gast
2008-04-28, 00:38:16
Und der zusätzliche Lag?
SLI Aufwand?
:)

Die gelbe Eule
2008-04-28, 00:51:28
Hab ich nicht, besser gesagt es fällt mir einfach nicht auf. Wo bei SLi der Aufwand ist, als zwei Karten einzustecken und im Treiber zu aktivieren, beim nhancer sich ein passendes Profil zu suchen, ich weiß es nicht. Ist wie Toast machen, kannst eine Scheibe nehmen oder zwei, hinterher bekommste Toast raus :)

Gast
2008-04-28, 00:53:28
Und der doppelte Kühlaufwand?

2 Kühler sind teurer als einer, es sei denn du bist mit den Werkskühlern zufrieden, ich wärs nicht.

Die gelbe Eule
2008-04-28, 03:35:10
Bin ich, im Idle unhörbar unter Last vertretbar, da entweder die Boxen aufgedreht sind oder Kopfhörer, beides wäre lauter.

Schroeder
2008-04-28, 08:55:21
Zurück zum Thema, würde ich sagen.

Gast
2008-04-28, 15:07:26
Eben, nur bei wenigen aktuellen Spielen kommt man, (ohne Modding) mit reinem Multisampling-AA, über 500MB.
Wie viele sind "wenig"?

Mr.Magic
2008-04-28, 15:49:46
Wie viele sind "wenig"?

Spiele die 512 MiB Grakaspeicher nutzen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823)

Gast
2008-04-28, 16:15:17
Kenne ich bereits.
Imho sind das nicht wenig, mit SSAA brauchen viele Spiele 500MiB, selbst Jahre alte.

Gast
2008-04-28, 17:45:59
Kenne ich bereits.
Imho sind das nicht wenig, mit SSAA brauchen viele Spiele 500MiB, selbst Jahre alte.

SSAA brauch weniger Vram als MSAA!

Gast
2008-04-28, 17:56:20
SSAA brauch weniger Vram als MSAA!
Alte Spiele spiele ich nicht mit MSAA.

Hvoralek
2008-04-29, 01:50:52
Alte Spiele spiele ich nicht mit MSAA.... sondern mit SSAA, das keinen Deut mehr Speicher braucht? Du meinst wahrscheinlich v.a. die hohen Hybridmodi (16xS, 32xS), oder? Die sind bei "nur" 512 MiB VRAM wirklich häufig nicht nutzbar, obwohl die Rohleistung reichen würde. Etwas schade, aber wenn sich jemand daran wirklich stört und ihm sehr gute statt "nur" guter Kantenglättung in alten Spielen das Geld wert ist, soll er halt zu einer 1024- MiB- Version greifen.

Gast
2008-04-29, 07:40:21
Du meinst wahrscheinlich v.a. die hohen Hybridmodi (16xS, 32xS), oder?
Entweder die oder 3x3SS oder 4x4SS.

Ja das war es mir wert, ich brauche keine 300fps in alten Spielen und es kommt durchaus öfter mal vor, das ich eins in die Hände bekomme.

Cpl. Dwayne Hicks
2008-04-29, 09:09:10
Ich nutze in SH3 gut und gerne mein 32xS oder 4x4 SSAA... und es ruckelt nie... :smile:

Hvoralek
2008-04-29, 14:25:55
Entweder die oder 3x3SS oder 4x4SS.Bei reinen SS- Modi dürfte der Speicherbedarf das geringste Problem sein. Der ist nicht höher als bei gleich hohen MS- Modi.

Gast
2008-04-29, 18:02:42
Das ist mir bewußt gemacht worden. ;)

Aber wenn von allem genug da ist, außer vom Speicher, dann limitiert der Speicher.

Schlammsau
2008-04-30, 10:19:18
und was ist das?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413183

Gast
2008-04-30, 10:35:14
"1280x1024, dx10 high, 4xaa, 16xaf"....zudem Link sag ich nur das....wie soll das laufen?

Schlammsau
2008-04-30, 11:18:34
"1280x1024, dx10 high, 4xaa, 16xaf"....zudem Link sag ich nur das....wie soll das laufen?
wieso nicht? 4xAA auf High! Eine 8800GTS (G92) hat doch genug Power! Einer 8800GT könnte evtl. die Luft ausgehen!

mapel110
2008-04-30, 11:27:40
wieso nicht? 4xAA auf High! Eine 8800GTS (G92) hat doch genug Power! Einer 8800GT könnte evtl. die Luft ausgehen!
Wenn eine 8800 GT bei den Settings auf 13 fps kommt, dann kommt dort eine 8800 GTS nicht plötzlich auf 25 fps. :|
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/11/#abschnitt_crysis

Schlammsau
2008-04-30, 11:29:41
Wenn eine 8800 GT bei den Settings auf 13 fps kommt, dann kommt dort eine 8800 GTS nicht plötzlich auf 25 fps. :|
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/11/#abschnitt_crysis

schau nochmal genau auf die Settings mit denen CB getestet hat!
Ich glaube, dort steht Very High!?
Und in dem Thread den ich gepostet habe, steht was von High, oder?
Zwischen High und Very High ist ein sehr grosser Unterschied!

mapel110
2008-04-30, 11:37:50
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis
Keine Ahnung, warum hier CB so viel Unterschied ausgerechnet bei 1280 mit 4xAA gemessen hat. Die 8800 GTS hat zwar 30% mehr Texturfüllrate, aber das sollte sich eher ohne AA auswirken. Speicherbandbreite ist ja fast identisch bei GT und GTS.
Bei den restlichen Werten sinds jedenfalls Peanuts zwischen GT und GTS.

Schlammsau
2008-04-30, 11:43:47
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/#abschnitt_crysis
Keine Ahnung, warum hier CB so viel Unterschied ausgerechnet bei 1280 mit 4xAA gemessen hat. Die 8800 GTS hat zwar 30% mehr Texturfüllrate, aber das sollte sich eher ohne AA auswirken. Speicherbandbreite ist ja fast identisch bei GT und GTS.
Bei den restlichen Werten sinds jedenfalls Peanuts zwischen GT und GTS.

und der Test fast ein halbes Jahr alt und wurde mit der Demo gemacht!
Ich gehe mal stark von aus, dass nVidia und Crytek das Game bis jetzt stark verbssert haben!

Das ist der letzte Test von CB mit den High Settings:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis
Hast aber recht....auch der GTS geht mit diesen Settings die Puste aus!

Gast
2008-04-30, 11:51:55
und was ist das?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413183
Das ist ein anderer Fred.
Wo genau ist da der Zusammenhang zu dem hier?

Gast
2008-04-30, 11:59:20
Das ist ein anderer Fred.
Wo genau ist da der Zusammenhang zu dem hier?
siehste doch!?
das der Karte der Speicher ausgeht bzw eine Meldung kommt in der steht dass der karte der speicher ausgeht. ich persönlich hatte noch nie eine solche meldung!

Gast
2008-04-30, 12:00:47
siehste doch!?
das der Karte der Speicher ausgeht bzw eine Meldung kommt in der steht dass der karte der speicher ausgeht. ich persönlich hatte noch nie eine solche meldung! Auch wenn ich meine karte bis ans limit getriebn habe und es eigentlich schon lange nicht mehr spielbar war.

Gast
2008-04-30, 12:02:20
das der Karte der Speicher ausgeht bzw eine Meldung kommt in der steht dass der karte der speicher ausgeht. ich persönlich hatte noch nie eine solche meldung!
Diese Meldung kommt auch nicht vom Treiber. -> Hat nichts mit dem Fred zu tun, das gehört in den Crysis Hilfe Fred.

Grestorn
2008-04-30, 12:06:01
Die Verwaltung des Videospeichers übernimmt in Vista das Betriebssystem selbst.

Gast
2008-04-30, 12:09:48
Aha und was hat Nvidia dann damit zu tun?

Grestorn
2008-04-30, 12:11:10
Nichts. Außer dass der Treiber dem OS sagt, wieviel Speicher die Karte hat. Und natürlich dadurch, wieviel Speicher der Treiber für Framebuffer, Z-Buffer, AA usw. abzwacken muss. Das kann bei ATI durchaus weniger sein.

Hvoralek
2008-04-30, 12:50:04
und was ist das?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413183Das sind Bildfehler. Wenn der Speicher nicht reicht, sollte das eigentlich einen Leistungseinbruch geben.

Mr.Magic
2008-04-30, 14:57:36
Das sind Bildfehler. Wenn der Speicher nicht reicht, sollte das eigentlich einen Leistungseinbruch geben.

Im Idealfall gibt es nichtmal den. Meine 8800GTX ist z.B. bei Oblivion in der Außenwelt fast immer bis zum Anschlag gefüllt (768MB + 256MB).

Gast
2008-04-30, 16:51:09
Das ist der letzte Test von CB mit den High Settings:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis
Hast aber recht....auch der GTS geht mit diesen Settings die Puste aus!

Wiso ist die 9600GT schneller als eine 8800GTS 512mb ???

CB verzapft nur noch Scheiße :(

Gast
2008-04-30, 16:55:50
@T
->http://www.forumdeluxx.de/forum/showpost.php?p=8925994&postcount=75

Gast
2008-04-30, 17:00:32
weiter gehts
-> http://www.forumdeluxx.de/forum/showpost.php?p=8927557&postcount=930

Gast
2008-04-30, 17:04:20
Wiso ist die 9600GT schneller als eine 8800GTS 512mb ???

CB verzapft nur noch Scheiße :(
Das passiert, wenn man die Ergebnisse aus alten Tests mit alten Treibern übernimmt.
-> Der Test ist schrott und wird im CB Forum himmelhoch gelobt.

Schlammsau
2008-04-30, 17:19:25
weiter gehts
-> http://www.forumdeluxx.de/forum/showpost.php?p=8927557&postcount=930
Leute.....es gibt keinen "VRAM Bug"!!!!! ;D
es sind nur die anderen Schuld! Entweder das Game, das BS, der PC und wenns das nicht ist, dann ist es der unfähige User vorm PC!
Aber bloss nicht nV, weil die alles richtig machen und die besten Karten der Welt herstellen! [ironieende]

Gast
2008-04-30, 17:41:04
Aber bloss nicht nV, weil die alles richtig machen und die besten Karten der Welt herstellen! [ironieende]
Dein beweis uns mal den Bug.

Schlammsau
2008-04-30, 17:59:54
Dein beweis uns mal den Bug.
schon mal die letzten 44 Seiten durchgelesen?
hier sind unmengen an beweisen...auch von mir!
aber das einzige was ihr nV Fanboys könnt, ist alles zu leugnen! mehr nicht!
wie soll man noch bessere Beweise als Framrateverläufe und VRAM Auslastung liefern?
Die Beamtechnik ist noch nicht weit genug fortgeschritten um euch genau in diesem Moment zu einem Rechner zu beamen, wo der Bug gerade auftritt!

Sogar auf Wikipedia gibts nen Artikel zum VRAM Bug!
Nur weil ihr ihn noch nicht hattet, kann es ihn trotzdem geben!
Ihr glaubt doch auch an Gott oder?! Habt ihr ihn schonmal gesehen?

Wikipedia
Fehler im Speichermanagement
Die Grafikkarten und mobilen Grafikchips der Geforce-8-Serie wurden mit Treibern ausgeliefert, die einen Fehler im Speichermanagement besaßen. Dieser von Nvidia als VRAM-Bug bezeichnete Fehler führt dazu, dass immer weiter Daten in den Grafikspeicher geladen werden, so dass dieser irgendwann überfüllt ist. Dann müssen Texturen und ähnliche Dateien ausgelagert werden, wodurch die Leistung stark abnimmt. Im Normalfall sollten vorher nicht mehr benötigte Dateien aus dem Grafikspeicher entleert werden, dies passiert bei der Geforce-8-Serie nicht.

Aufgrund des hohen Speicherausbaus der ersten erschienenen Grafikkarten (640 MiB bei der Geforce 8800 GTS und 768 MiB bei der Geforce 8800 GTX) wurde dieser Fehler in den ersten Monaten nicht bemerkt. Erst mit dem Release der Geforce 8800 GTS mit 320 MiB traten Unstimmigkeiten auf, diese Grafikkarte ist auch am stärksten von diesem Fehler betroffen. In diversen Tests lag diese Grafikkarte gegenüber älteren Grafikkarten Nvidias und Modellen AMDs mit langsameren Grafikprozessoren und nur 256 MiB Speicherausbau zurück, obwohl sie technologisch überlegen war. In weiteren Tests wurde dann eindeutig festgestellt, dass die Leistungsfähigkeit stark von der Speichernutzung abhängt. Insbesondere bei den 256-MiB-Modellen der Geforce 8600 GT und GTS wurden noch größere Unterschiede festgestellt, durch theoretische Überprüfungen ließ sich jedoch feststellen, dass jede Grafikkarte der Geforce-8-Serie diese Fehler besitzt.

Nvidia reagierte und versprach einen Treiber, der das Problem lösen sollte. Dieser verzögerte sich jedoch mit der Begründung, dass ein „Problem komplexer Natur“ vorliege. Ende August stellte Nvidia dann ohne weitere Ankündigung den Beta-Treiber ForceWare 163.44 bereit, dem viele Internet-Magazine unterstellten, er löse das VRAM-Problem. Dies geschah meist auf Grundlage eigener Tests, nachdem die Geforce 8800 GTS mit 320 MiB in getesteten Spielen deutlich schneller wurde, die Geforce 8800 GTS mit 640 MiB allerdings keine Unterschiede zeigte. Wie jedoch Nvidia auf Nachfrage mitteilte, sei in diesem Treiber der Fehler nicht behoben, die Leistungssteigerungen seien auf Änderungen zurückzuführen, die den VRAM-Bug etwas abschwächten. So sei die Speicherkompression überarbeitet worden, wodurch beim Speicherüberlauf nicht mehr so viel Leistung verloren gehe. Außerdem würden in Stalker die Texturen anders verwaltet, was dortige Leistungssteigerungen erkläre. Laut dem Technical Marketing Analyst Nvidias, James Wang, wird der nächste offizielle Treiber die Fehler im Speichermanagement beheben. [2] Mittlerweile sind zwei weitere offizielle Treiberversionen erschienen, der VRAM-Bug ist aber noch immer nicht behoben.

Der G92-Grafikprozessor, der auf der GeForce 8800 GT und auf der im Dezember 2007 vorgestellten GeForce 8800 GTS zum Einsatz kommt, stellt eine Weiterentwicklung der G8x-Chipserie dar. Da er gegenüber dieser diverse Veränderungen erfahren hat, ist es möglich, dass der VRAM-Bug ebenfalls behoben wurde, Belege hierfür stehen bisher aber noch aus.

Gast
2008-04-30, 18:14:36
Ich sehe da nur nix an Beweisen...

LovesuckZ
2008-04-30, 18:15:09
Cool, laut Wikipedia wächst der Speicher der 8800GTS und GTX mit zunehmenden Bedarf. Ja, die 8800 Karten waren schon ein Wunder. ;D

Gast
2008-04-30, 18:17:08
Ich sehe auch nix. Man versucht mal wieder krampfhaft Nvidia schlecht zu machen bzw. ich hatte diesen "Bug" bis jetzt noch nicht.

Schlammsau
2008-04-30, 18:18:47
Hier wird niemand schlechter gemacht, als er wirklich ist!! ;)

Gast
2008-04-30, 18:19:03
Cool, laut Wikipedia wächst der Speicher der 8800GTS und GTX mit zunehmenden Bedarf. Ja, die 8800 Karten waren schon ein Wunder. ;D

Wikipedia ist eh nicht ernst zu nehmen bei sovielen Märchen die dort stehn :D

Gast
2008-04-30, 18:21:12
Hier wird niemand schlechter gemacht, als er wirklich ist!! ;)
Doch, da es nur Gerüchte sind. Wo sind die Beweise? Doch nicht diesen Wiki Schund den jeder Hinz und Kunz schreibt.

Schlammsau
2008-04-30, 18:22:17
Doch, da es nur Gerüchte sind. Wo sind die Beweise? Doch nicht diesen Wiki Schund den jeder Hinz und Kunz schreibt.
Was für Beweise wollt ihr sehen? Was muss man euch Vorlegen, damit ihr es glaubt?

Gast
2008-04-30, 18:26:19
Was für Beweise wollt ihr sehen? Was muss man euch Vorlegen, damit ihr es glaubt?
Du scheinst nicht mal zu wissen, was der Bug sein soll.

Schlammsau
2008-04-30, 18:27:40
Du scheinst nicht mal zu wissen, was der Bug sein soll.

LOL....weisst du es?

Gast
2008-04-30, 18:28:46
LOL....weisst du es?
Ja.

Gast
2008-04-30, 18:29:12
Also gibt es noch Beweise?

Schlammsau
2008-04-30, 18:29:53
Ja.

dann erklär ihn mir doch bitte mal!

VRAM Bug?
http://crysis.4thdimension.info/forum/showthread.php?t=6989
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6319640#post6319640
http://www.gamestar.de/community/gspinboard/showthread.php?t=301920

Gast
2008-04-30, 18:30:01
Anscheinend nicht, sonst hätte er nicht mit Wiki gekontert :-)

Schlammsau
2008-04-30, 18:34:05
VRAM Bug?
http://crysis.4thdimension.info/forum/showthread.php?t=6989
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6319640#post6319640
http://www.gamestar.de/community/gspinboard/showthread.php?t=301920
http://www.windowsvistamagazin.de/?menu=050000&s=thread&bid=3111&tid=6379575&x=1
http://forum.effizienzgurus.de/f37/geforce-8800gts-320mb-vram-bug-t4221.html
http://www.forumdeluxx.de/forum/showthread.php?t=477809
http://www.tomshardware.com/de/foren/240410-4-8800-256mb-friert-spielen-cod4-3dmark06
http://forum.windowsvistamagazin.de/crysis/5477-reduzierte-fps-zahl-nach-paar-std-spielzeit.html

komisch, dass anscheinend nur geforce 8xxx besitzer probleme dieser art haben!
Aber nein....alles nur einbildung ;D

Grestorn
2008-04-30, 18:37:48
Das ist doch alles kein Beweis für einen Bug. Die Karte hat schlicht zu wenig RAM, das ist alles. Aber mit Bug hat das nichts zu tun.

Offenbar ist euch immer noch nicht klar, was ein Bug überhaupt ist.

Gast
2008-04-30, 18:39:17
Unspielbare Settings, bei einer karte, die zu wenig VRAM hat.
Hatten wir schon mal.

Gast
2008-04-30, 18:41:02
Respektive User die über ihre Karte unglücklich sind.
Kaufen eine billige 8800 mit wenig VRAM und wundern sich keine 8800GTX Leistung zu bekommen.

Schlammsau
2008-04-30, 18:44:07
das eine Karte nach ein paar Minuten zocken immer langsamer wird, ist sicher nicht im Sinne des Erfinders! ;)

Gast
2008-04-30, 18:44:16
Die Karte hat schlicht zu wenig RAM, das ist alles.
So siehts aus und das die FPS eh in einem Bereich sind der unspielbar ist, ist ja wohl auch klar.
Ob ich mich mit konstanten FPS durch das Game ruckel oder schwankenden das sollte eigentlich egal sein.
Ich würde gerne Beweise von der GT und der GTS sehen, ich kann das mit meiner GT zumindest nicht nachvollziehen.
Da flamet wohl jemand ganz gerne.

Grestorn
2008-04-30, 18:47:13
das eine Karte nach ein paar Minuten zocken immer langsamer wird, ist sicher nicht im Sinne des Erfinders! ;)

Das Problem hat jede Karte, wenn man ein Spiel darauf loslässt, dass einfach viel mehr RAM nutzt als die Karte hat. Was ist denn daran so überraschend und ungewöhnlich? Dass man seit fast einem halben Jahr darüber quatschen muss?

Das einzige Problem ist, dass die GT zu wenig RAM für ihre sonstige Leistung hat. Deswegen kann man Einstellungen eigentlich spielen, bei denen der Karte aber schnell das RAM ausgeht.

Andere Karten, mit ähnlich wenig RAM, sind so oder so zu schwach für solche Spiele und Einstellungen, deswegen stört das fehlende RAM bei diesen Karten nicht.

Gast
2008-04-30, 18:47:18
das eine Karte nach ein paar Minuten zocken immer langsamer wird, ist sicher nicht im Sinne des Erfinders! ;)
Es ist ein Unterschied, ob man ein Spiel läd, zb Gothic 3 oder ob man sich darin bewegt.
Wenn du es spielst brauchst du eben doppelt so viel VRAM, dann sacken die FPS runter, voll normal. Muss man die Settings runter stellen.

Schlammsau
2008-04-30, 18:54:06
So ein blödsinn!!!!
Ich habe es doch selber erlebt und einige male gepostet. Wenn ich Crysis DX10, egal in welcher Auflösung, mit meiner 8800GS gestartet habe, konnte ich super flüssig mit rund 35fps zocken, aber nach ungefähr 10 Minuten brachen sie auf ca. 15fps ein! Auch wenn ich nur auf eine Wand geschaut habe!

Gast
2008-04-30, 18:55:14
Das liegt an Crysis.
Beim Wände anschauen wird trotzdem viel berechnet.

Grestorn
2008-04-30, 18:58:14
...wie bei fast jedem Spiel. Das Culling ist nie so perfekt, dass die Szene HINTER der Wand nicht auch gerendert werden müsste.

Schlammsau
2008-04-30, 18:59:40
wie d**f seit ihr eigentlich?
nV hat x Stunden Programmierarbeit in Crysis gesteckt und dann haben die so einen Bug übersehen?
Der Fehler kommt nur bei nV Karten vor!

Gast
2008-04-30, 19:00:14
HL2 kann es schon, wenn der Leveldesigner dran gedacht hat zu optimieren.

Gast
2008-04-30, 19:01:43
Der Fehler kommt nur bei nV Karten vor!
Echt? Wie viele FPS bringt denn eine 3850 256MiB in D3D10, very high?

Grestorn
2008-04-30, 19:03:37
ES IST KEIN BUG! Auch nicht in Crysis!

Mann, Du bist echt unglaublich.

Als nächstes sagst Du noch, es wäre ein Bug des Motherboards weil Vista auf Quadcore Rechnern mit 256 MB Speicher irgendwann so schrecklich langsam wird... Obwohl bestimmte Benchmarks schnell wie die Sau sind auf dem selben System.

Gast
2008-04-30, 19:12:40
ES IST EIN BUG! Wenn der Speicher volläuft und sich nicht rechtzeitig wieder entleert bzw. entleeren kann (warum auch immer), ist das für mich nicht normal! Insbesondere dann nicht, wenn dies bei "normalen" Auflösungen (1280x1024 mit ein wenig AA und AF) passiert. Bei sehr hohen Auflösungen und hohen Qualitätseinstellungen ist das natürlich etwas anderes.

Grestorn
2008-04-30, 19:15:52
Es ist vollkommen egal welche AA/AF Einstellungen benutzt werden, wenn das Spiel zu viele hochauflösende Texturen verwendet.

Nochmal: Unter Vista wird der Speicher der Grafikkarte von VISTA verwaltet. Wo soll da der Bug sein?

Gast
2008-04-30, 19:45:30
Nochmal: Unter Vista wird der Speicher der Grafikkarte von VISTA verwaltet. Wo soll da der Bug sein?
In Vista selbst oder als Race Condition in den Nvidia Treibern :confused:

Gast
2008-04-30, 19:48:20
Das Problem hat jede Karte, wenn man ein Spiel darauf loslässt, dass einfach viel mehr RAM nutzt als die Karte hat. Was ist denn daran so überraschend und ungewöhnlich? Dass man seit fast einem halben Jahr darüber quatschen muss?

Jede NV Karte vielleicht (wobei ich nichtmal das behaupten würde). Wenn bei ATi Karten der Speicher ausgeht, werden sie zwar auch langsamer, aber brechen nicht auf ein Bruchteil der Performance ein.


Lolman

Echt? Wie viele FPS bringt denn eine 3850 256MiB in D3D10, very high?

rund 10% weniger als ne 512MB Karte...

Gast
2008-04-30, 19:48:35
Das ist doch alles kein Beweis für einen Bug. Die Karte hat schlicht zu wenig RAM, das ist alles. Aber mit Bug hat das nichts zu tun.

Offenbar ist euch immer noch nicht klar, was ein Bug überhaupt ist.

Man kann es nennen wie mal will, aber es ist eine klare Design fehlentscheidung.

Bei dem G80 (GTS 640mb/GTX 768mb) stimmte das verhältnis von Vram zur GPU Leistung noch, aber beim G92 z.b. die 8800GTS 512mb die hat 30% mehr GPU Power dafür aber 25% weniger Vram als die 8800GTS 640




wie d**f seit ihr eigentlich?
nV hat x Stunden Programmierarbeit in Crysis gesteckt und dann haben die so einen Bug übersehen?
Der Fehler kommt nur bei nV Karten vor!

Kommt ja auch in CoH, WiC, DIRT, usw. vor

Gast
2008-04-30, 19:54:08
Jede NV Karte vielleicht (wobei ich nichtmal das behaupten würde). Wenn bei ATi Karten der Speicher ausgeht, werden sie zwar auch langsamer, aber brechen nicht auf ein Bruchteil der Performance ein.


Lolman

Richtig, ich hab es in Crysis getestet mit 1920x1200 High, 8xAA und kam auf max. 640mb Vram verbrauch bei der HD 3870, in dem extremen Test sind die FPS nicht nach 30min weggebrochen sondern blieben konstant.

Gast
2008-04-30, 20:03:52
Man kann es nennen wie mal will, aber es ist eine klare Design fehlentscheidung.

Bei dem G80 (GTS 640mb/GTX 768mb) stimmte das verhältnis von Vram zur GPU Leistung noch, aber beim G92 z.b. die 8800GTS 512mb die hat 30% mehr GPU Power dafür aber 25% weniger Vram als die 8800GTS 640



Dann kaufste halt nen G92 mit 1GB RAM, der reicht dann auch.

Grestorn
2008-04-30, 20:06:38
In Vista selbst oder als Race Condition in den Nvidia Treibern :confused:

Alleine von Vista. Der Treiber macht nur das, was Vista ihm sagt (und meldet zurück wieviel Speicher durch die Anforderung belegt wurde).

Grestorn
2008-04-30, 20:09:00
Jede NV Karte vielleicht (wobei ich nichtmal das behaupten würde). Wenn bei ATi Karten der Speicher ausgeht, werden sie zwar auch langsamer, aber brechen nicht auf ein Bruchteil der Performance ein.

Sie bricht genauso ein. Nur von einem niedrigerem Niveau aus.

Wenn aus dem Hauptspeicher texturiert werden muss, ist die Geschwindigkeit limitiert. Nur wenn aus dem Speicher der Grafikkarte texturiert werden kann, spielt sie ihre Geschwindigkeit aus.

D.h. geht der Speicher aus, sind alle Karten gleich langsam.

Dazu kommt, dass der nV Karte der Speicher bekanntermaßen früher ausgeht, weil sie mehr braucht. Wenn sie dann auch noch weniger davon hat als das ATI Pendant, ist die Kacke am Dampfen.

Zweifellos ist die Kombination des Chips mit dem RAM-Ausbau Schwachsinn. Das gebe ich sofort zu. Aber einen RAM-Bug gibt es deswegen dennoch nicht.

Gast
2008-04-30, 20:12:21
Dann kaufste halt nen G92 mit 1GB RAM, der reicht dann auch.

Joar aber das SI ist ja verkleinert worden...
Sie bricht genauso ein. Nur von einem niedrigerem Niveau aus.

Wenn aus dem Hauptspeicher texturiert werden muss, ist die Geschwindigkeit limitiert. Nur wenn aus dem Speicher der Grafikkarte texturiert werden kann, spielt sie ihre Geschwindigkeit aus.

D.h. geht der Speicher aus, sind alle Karten gleich langsam.



#902 gelesen?

Gast
2008-04-30, 20:16:23
So ein blödsinn!!!!
Ich habe es doch selber erlebt und einige male gepostet. Wenn ich Crysis DX10, egal in welcher Auflösung, mit meiner 8800GS gestartet habe, konnte ich super flüssig mit rund 35fps zocken, aber nach ungefähr 10 Minuten brachen sie auf ca. 15fps ein! Auch wenn ich nur auf eine Wand geschaut habe!

Crysis hat derart viele Bugs...das ist nicht dein Ernst oder? Junge das ist doch kein Beweis...

Gast
2008-04-30, 20:17:30
Joar aber das SI ist ja verkleinert worden...

Hä? Alle vollwertigen G92 haben 256bit. Aber was hat das mit der VRAM Menge zu tun?

Gast
2008-04-30, 20:18:31
Richtig, ich hab es in Crysis getestet mit 1920x1200 High, 8xAA und kam auf max. 640mb Vram verbrauch bei der HD 3870, in dem extremen Test sind die FPS nicht nach 30min weggebrochen sondern blieben konstant.
Konstante 2fps statt Einbruch von 4fps auf 2? Oha.

Grestorn
2008-04-30, 20:19:12
#902 gelesen?

Auf welchem Wert blieb denn die Framerate konstant? Wenn Die Framerate ohnehin so niedrig ist, weil die Renderingleistung einfach nicht reicht, dann stört es auch nicht, wenn einige Texturen aus dem Hauptspeicher texturiert werden müssen.

Mr. Lolman
2008-04-30, 20:29:16
D.h. geht der Speicher aus, sind alle Karten gleich langsam.


Nö:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/13/


Richtig stark macht sich das Problem zB bei UT3 bemerkbar:

Bei 2560x1600 4xAA/16xAA geht der 512MB 8800GT der Speicher aus und erreicht nicht einmal mehr 1/4 der Performance der 1GB-Karte. Bei 8xAA ists dann auch bei der 512MB 3850 so weit - zu wenig Speicher - aber dennoch hat man noch knapp mehr als die Hälfte der Performance der 1GB Version.

Gast
2008-04-30, 20:29:51
Hä? Alle vollwertigen G92 haben 256bit. Aber was hat das mit der VRAM Menge zu tun?
Ich mein doch im vergleich zum G80 :rolleyes:

Auf welchem Wert blieb denn die Framerate konstant? Wenn Die Framerate ohnehin so niedrig ist, weil die Renderingleistung einfach nicht reicht, dann stört es auch nicht, wenn einige Texturen aus dem Hauptspeicher texturiert werden müssen.
Konstante 2fps statt Einbruch von 4fps auf 2? Oha.

Es war ein EXTREM-Test, um den Vram maximal vollzubekommen mehr nicht und das die FPS im einstelligen bereich dabei sind ist doch klar.

Gast
2008-04-30, 20:33:11
Nö:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/13/
Crysis:
2 -3 fps egal welche Karte, erst ab 8800GT 512 die Framerate brauchbar. Zeugt nicht gerade für die HD3000.

Gast
2008-04-30, 20:35:19
Es war ein EXTREM-Test, um den Vram maximal vollzubekommen mehr nicht und das die FPS im einstelligen bereich dabei sind ist doch klar.
Extrem unnötiger Test.

Ich mein doch im vergleich zum G80
Ja und?
Was hat jetzt die VRAM Größe mit dem SI zu tun? Können wir mal beim Thema bleiben oder kommt gleich noch die Shaderleistung oder Texelfüllrate ins Spiel?

Gast
2008-04-30, 20:35:54
und das die FPS im einstelligen bereich dabei sind ist doch klar.

Was gibts denn da noch zu diskutieren???? Lächerlich

Gast
2008-04-30, 20:36:30
Crysis:
2 -3 fps egal welche Karte, erst ab 8800GT 512 die Framerate brauchbar. Zeugt nicht gerade für die HD3000.

Und so ist es leider oft...

Mr. Lolman
2008-04-30, 20:37:33
Crysis:
2 -3 fps egal welche Karte, erst ab 8800GT 512 die Framerate brauchbar. Zeugt nicht gerade für die HD3000.

Bei >2000 Mannstunden Arbeit, die NV in die Programmierung der Crysisshader gesteckt hat, verwundert mich das nicht weiter ;)

Gast
2008-04-30, 20:38:28
Hier ein Test mit 4xAA in Full HD,
der Speicher wird gerade mal komplett gefüllt.

System
E2160@3,2ghz
HD3870@904/1278
2Gb Ram
XP32bit

1920x1080, 4xAA, High/VeryHigh Tweaks, Shadow und PP Medium

http://www.abload.de/img/p9nhu7.jpg (http://www.abload.de/image.php?img=p9nhu7.jpg)


http://www.abload.de/thumb/crysis2008-04-2401-5le3.jpg (http://www.abload.de/image.php?img=crysis2008-04-2401-5le3.jpg)

Gast
2008-04-30, 20:38:35
Bei >2000 Mannstunden Arbeit, die NV in die Programmierung der Crysisshader gesteckt hat, verwundert mich das nicht weiter ;)
Was hat das damit zu tun?

Hätten die Crysis Jungs auf einer X1900 entwickeln sollen? Dann wärs nichts geworden mit D3D10.

Gast
2008-04-30, 20:42:19
Bei >2000 Mannstunden Arbeit, die NV in die Programmierung der Crysisshader gesteckt hat, verwundert mich das nicht weiter ;)

Oder Ati zu wenig Arbeit in ihre Treiber...

Mr. Lolman
2008-04-30, 20:42:30
Was hat das damit zu tun?

Hätten die Crysis Jungs auf einer X1900 entwickeln sollen? Dann wärs nichts geworden mit D3D10.

Wär ehrlich gesagt, auch niemanden abgegangen - dieser Pseudo Modus. Und nochmal (da dus anscheinend missverstanden hast): NVidia hat >2000 Stunden Arbeit investiert um für Crytek die Shader zu schreiben.

Oder Ati zu wenig Arbeit in ihre Treiber...

Das vielleicht auch. Wobei ich mir vorstellen kann, dass es tw. Schwierigkeiten bereitet, Shadercode optimal auszuführen, den die Konkurrenz für ihre eigene HW geschrieben hat...

Gast
2008-04-30, 20:42:58
Was hat das damit zu tun?

Hätten die Crysis Jungs auf einer X1900 entwickeln sollen? Dann wärs nichts geworden mit D3D10.

Was denkst du denn? Die haben Crysis auf dem R580 entwickelt.

Oder hatten die 2005 schon den G80...

Gast
2008-04-30, 20:44:17
@Mr. Lolman Es waren sogar 5000h ;D

Gast
2008-04-30, 20:44:33
Wär ehrlich gesagt, auch niemanden abgegangen - dieser Pseudo Modus. Und nochmal (da dus anscheinend missverstanden hast): NVidia hat >2000 Stunden Arbeit investiert um für Crytek die Shader zu schreiben.

Ati hat aber auch Testversionen bekommen...wenn Ati es nicht für nötig betrachtet Crysis anständig zu supporten...

Mr. Lolman
2008-04-30, 20:47:47
Ati hat aber auch Testversionen bekommen...wenn Ati es nicht für nötig betrachtet Crysis anständig zu supporten...

Was sollen sie machen? Den Shadercode die NV geschrieben hat, rauswerfen, ihren eigenen einpflanzen und die Version wieder zurückschicken mit dem Hinweis, dass man doch gefälligst an der von ATi optimierten Version weiterarbeiten soll?

Letztenendes läufts einfach darauf hinaus, dass NV viel Kohle investiert hat, dass Crysis optimal auf ihrer HW läuft - was man ja ihnen nicht vorwerfen kann. Jedoch kann man ATi dann genausowenig vorwerfen, dass der NV-Code auf ATI-HW nicht vernünftig läuft...

@Mr. Lolman Es waren sogar 5000h ;D

:eek:

Wär in dem Zusammenhang vielleicht noch interessant zu wissen, was ne Arbeitsstunde eines Proggers bei NV kostet ;)

Grestorn
2008-04-30, 20:49:52
Die Shader sind allesamt frei einsehbar (und auch austauschbar) und wie Coda und/oder Demirug (glaub ich) schon mehrfach sagten, ist das nichts erkennbar, was auf nVidia-Optimierung hindeutet.

Hvoralek
2008-04-30, 20:52:58
schon mal die letzten 44 Seiten durchgelesen?
hier sind unmengen an beweisen...auch von mir!Ich habe schon einmal gesagt, was m.E. für einen klaren Beweis erforderlich wäre: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6410534#post6410534


So ein blödsinn!!!!
Ich habe es doch selber erlebt und einige male gepostet. Wenn ich Crysis DX10, egal in welcher Auflösung, mit meiner 8800GS gestartet habe, konnte ich super flüssig mit rund 35fps zocken, aber nach ungefähr 10 Minuten brachen sie auf ca. 15fps ein! Auch wenn ich nur auf eine Wand geschaut habe!Verstehe ich das richtig, dass die fps auch einbrechen, wenn Du nur auf eine Wand schaust und Dich auch nicht bewegst? :confused:

Und meinst Du wirklich, so etwas wie diese erste Zeile nötig zu haben? ;(


Richtig stark macht sich das Problem zB bei UT3 bemerkbar:

Bei 2560x1600 4xAA/16xAA geht der 512MB 8800GT der Speicher aus und erreicht nicht einmal mehr 1/4 der Performance der 1GB-Karte. Bei 8xAA ists dann auch bei der 512MB 3850 so weit - zu wenig Speicher - aber dennoch hat man noch knapp mehr als die Hälfte der Performance der 1GB Version.G8x brauchen i.d.R. mehr Speicher. D.h., dass der GT512 nicht nur eher der Speicher ausgeht, sondern sie auch mehr auslagern muss als die 3850. Die Frage ist, ob der Einbruch auch bei Auslagerung der gleichen Datenmenge größer ist.

Gast
2008-04-30, 20:54:05
Jedoch kann man ATi dann genausowenig vorwerfen, dass der NV-Code auf ATI-HW nicht vernünftig läuft...

Dann müsste die AMD Hardware bei anderen Titel wie eine Rakete abgehen. Tut sie aber nicht, der Abstand ist gleich.

Wär in dem Zusammenhang vielleicht noch interessant zu wissen, was ne Arbeitsstunde eines Proggers bei NV kostet
Programmierer bekommen nicht viel Geld. ;)

Mr. Lolman
2008-04-30, 20:55:59
Die Shader sind allesamt frei einsehbar (und auch austauschbar) und wie Coda und/oder Demirug (glaub ich) schon mehrfach sagten, ist das nichts erkennbar, was auf nVidia-Optimierung hindeutet.
In Anbetracht des zeitlichen und finanziellen Aufwands, den NV sich bei der Crysis Shaderoptimierung geleistet hat, ists ein bisschen blauäugig zu behaupten, dass die nicht besonders auf die eigene HW optimiert wurden. ;)

Gast
2008-04-30, 20:57:22
In Anbetracht des zeitlichen und finanziellen Aufwands, den NV sich bei der Crysis Shaderoptimierung geleistet hat, ists ein bisschen blauäugig zu behaupten, dass die nicht besonders auf die eigene HW optimiert wurden. ;)
Woher weißt du was die NV Leute gemacht haben?
Wissenaustausch und so?

Gast
2008-04-30, 21:00:48
:eek:

Wär in dem Zusammenhang vielleicht noch interessant zu wissen, was ne Arbeitsstunde eines Proggers bei NV kostet ;)

http://www.pcwelt.de/start/computer/grafikkarte/news/139144/nvidia_hat_bei_crysis_massgeblich_mitprogrammiert/

"Demnach hätten Nvidia-Programmierer über 5.500 Stunden Zeit in das Spiel gesteckt. Davon haben fünf Devtech-Ingenieure seit Juli 2006 rund 2.000 Stunden vor Ort beim Entwickler Crytek verbracht. Hinzu kommen 2.500 Stunden, die weitere acht Devtech-Ingenieure bei Nvidia selbst gearbeitet haben. Sechs weitere Programmierer mussten sich darüber hinaus in über 500 Stunden diversen Treiberproblemstellungen widmen. Schließlich wurden 500 Stunden bei Tests und Q&A-Sessions aufgewendet."

;D;D;D

Mr. Lolman
2008-04-30, 21:04:37
Dann müsste die AMD Hardware bei anderen Titel wie eine Rakete abgehen. Tut sie aber nicht, der Abstand ist gleich.


Stimmt. Bei den meisten TWIMTBP-Spielen ist der Abstand gleich ;)


G8x brauchen i.d.R. mehr Speicher. D.h., dass der GT512 nicht nur eher der Speicher ausgeht, sondern sie auch mehr auslagern muss als die 3850. Die Frage ist, ob der Einbruch auch bei Auslagerung der gleichen Datenmenge größer ist.

So wies aussieht, braucht NV hauptsächlich bei AA deutlich mehr Speicher. Da ATi das AA ja uU mittels Shaderresolve macht, kann ich mir vorstellen, dass, was den RAM-Verbrauch angeht, MSAA bei ATi ziemlich günstig ist. (was sich ja auch mit den Ergebnissen von CB decken würde - inkl. der scheinbar falschen Anzeige des ATI-VRAM-Verbrauch mit aktivem AA)

Gast
2008-04-30, 21:10:13
http://www.pcwelt.de/start/computer/grafikkarte/news/139144/nvidia_hat_bei_crysis_massgeblich_mitprogrammiert/

"Demnach hätten Nvidia-Programmierer über 5.500 Stunden Zeit in das Spiel gesteckt. Davon haben fünf Devtech-Ingenieure seit Juli 2006 rund 2.000 Stunden vor Ort beim Entwickler Crytek verbracht. Hinzu kommen 2.500 Stunden, die weitere acht Devtech-Ingenieure bei Nvidia selbst gearbeitet haben. Sechs weitere Programmierer mussten sich darüber hinaus in über 500 Stunden diversen Treiberproblemstellungen widmen. Schließlich wurden 500 Stunden bei Tests und Q&A-Sessions aufgewendet."

;D;D;D

Wenn sich das nicht gelohnt hat ;D

OC 8800GT vs. OC 3870 ;)

http://www.abload.de/thumb/22543lbos.jpg (http://www.abload.de/image.php?img=22543lbos.jpg)

http://www.abload.de/thumb/11yf4isid.jpg (http://www.abload.de/image.php?img=11yf4isid.jpg)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412382

Gast
2008-04-30, 21:11:53
Stimmt. Bei den meisten TWIMTBP-Spielen ist der Abstand gleich ;)
Und die sind natürlich alle NV optimiert? :rolleyes:
NV muss ja massig Geld haben, wo kommt das eigentlich her?

Und es gibt keine AMD Spiele?

Gast
2008-04-30, 21:13:34
OC 8800GT vs. OC 3870 ;)
1xAF, sinnlos.

Hvoralek
2008-04-30, 21:15:45
So wies aussieht, braucht NV hauptsächlich bei AA deutlich mehr Speicher. Da ATi das AA ja uU mittels Shaderresolve macht, kann ich mir vorstellen, dass, was den RAM-Verbrauch angeht, MSAA bei ATi ziemlich günstig ist. (was sich ja auch mit den Ergebnissen von CB decken würde - inkl. der scheinbar falschen Anzeige des ATI-VRAM-Verbrauch mit aktivem AA)Dann geht es aber eben darum, dass G8x i.d.R. mehr Speicher braucht (was auch m.W. niemand bestreitet) und nicht darum, wie groß der Einbruch bei (gleichermaßen) überfülltem Speicher ist.

Gast
2008-04-30, 21:29:08
Und es gibt keine AMD Spiele?

Doch HL2 war so eines,lief aber auf NV Karten trotzdem um einiges besser.

Gast
2008-04-30, 22:02:52
Doch HL2 war so eines
Ja war.
Mir geht es um heute.

Andi_669
2008-04-30, 22:43:19
Wenn sich das nicht gelohnt hat ;D

OC 8800GT vs. OC 3870 ;)

http://www.abload.de/thumb/22543lbos.jpg (http://www.abload.de/image.php?img=22543lbos.jpg)

http://www.abload.de/thumb/11yf4isid.jpg (http://www.abload.de/image.php?img=11yf4isid.jpg)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412382
Nur das die CPU bei der ATI 10% schneller läuft, außerdem ist eine X-Fi drinn.
est steht auch nichts über die Speichergeschwindigkeit, der Chipsatz wird auch nicht der Gleiche sein. :|
der Test ist sinnlos, :P

Auch wenn ich mich widerhole, das scheint mehr ein Problem von Vista zu sein,
Ich hab ihn jedenfalls nicht auch nicht nach 3-Stunden an Stück,
an der Framerate ändert sich nichts obwohl teilweise 200-300MB Grafikspeicher im Hauptspeicher sind :rolleyes:

Gast
2008-04-30, 23:09:26
Nur das die CPU bei der ATI 10% schneller läuft, außerdem ist eine X-Fi drinn.
est steht auch nichts über die Speichergeschwindigkeit, der Chipsatz wird auch nicht der Gleiche sein. :|
der Test ist sinnlos, :P


Hää? Was soll den eine XFI reißen? Speichergeschwindigkeit ist bei INTEL wumpe.
Der E4xxx hat 100% mehr level 2 Cache als der E2xxx und das ist nicht unwichtig bei der Core architektur.

LovesuckZ
2008-04-30, 23:32:20
So wies aussieht, braucht NV hauptsächlich bei AA deutlich mehr Speicher. Da ATi das AA ja uU mittels Shaderresolve macht, kann ich mir vorstellen, dass, was den RAM-Verbrauch angeht, MSAA bei ATi ziemlich günstig ist. (was sich ja auch mit den Ergebnissen von CB decken würde - inkl. der scheinbar falschen Anzeige des ATI-VRAM-Verbrauch mit aktivem AA)

Was hat das Shaderresolve mit dem RAM verbrauch zu tun?

Gast
2008-04-30, 23:39:19
Ja war.
Mir geht es um heute.

Ist Episode 2 denn nicht neu?

Gast
2008-04-30, 23:41:30
Ist Episode 2 denn nicht neu?
Doch, so wie TF2 auch.
Heute ist es ein NV Spiel. Deshalb schrieb ich doch: "Welches AMD Spiel gibt es heute noch?"

Gast
2008-04-30, 23:44:26
Doch, so wie TF2 auch.
Heute ist es ein NV Spiel. Deshalb schrieb ich doch: "Welches AMD Spiel gibt es heute noch?"

Hmm keines?

Schlammsau
2008-05-01, 14:07:55
diese ganze diskussion bringt nichts mehr, die fronten sind zu sehr verhärtet!

closed am besten den thread, bevor wir uns hier noch mehr an die gurgel gehen und noch welche die rote karte sehen!

Gast
2008-05-01, 14:09:54
Hier ist doch nichts verhärtet.

Es fehlen halt die Beweise für den Bug, mehr nicht.
Man kann nicht eindeutig sagen, das es einen gibt, also kann man nicht von VRAM-Bug sprechen.

akuji13
2008-05-01, 14:48:20
Klar kann man...der TLB Bug ist ja auch einer, obwohl 99.9% aller Phenom User den noch nie hatten.

LovesuckZ
2008-05-01, 14:51:09
Nein, kann man nicht. Er müsste in jeder Anwendung auftreten, da jede Anwendung irgendwas in den Spoeicher schreiben lässt.

Mr.Magic
2008-05-01, 14:53:14
Hier ist doch nichts verhärtet.

Es fehlen halt die Beweise für den Bug, mehr nicht.
Man kann nicht eindeutig sagen, das es einen gibt, also kann man nicht von VRAM-Bug sprechen.

Ich habe auch nie was von einem Bug gemerkt.
Was ich aber defenitiv gemerkt habe ist, dass nVidia seit den 169ern aggressiv den Speicher leert. Dummerweise macht das u.U. Probleme, bei Spielen mit eigenem Speichermanagement, v.a. wenn der Speicher grundsätzlich voll ist (Oblivion + QTP3).
Gemeint ist natürlich XP. Vista verwaltet die Grafikkarte selbst, und kann dadurch u.a. mehr RAM für Texturen verwenden (256MB vs 768MB Maximalauslagerung).

BeetleatWar1977
2008-05-01, 16:04:52
Ich habe auch nie was von einem Bug gemerkt.
Was ich aber defenitiv gemerkt habe ist, dass nVidia seit den 169ern aggressiv den Speicher leert. Dummerweise macht das u.U. Probleme, bei Spielen mit eigenem Speichermanagement, v.a. wenn der Speicher grundsätzlich voll ist (Oblivion + QTP3).
Gemeint ist natürlich XP. Vista verwaltet die Grafikkarte selbst, und kann dadurch u.a. mehr RAM für Texturen verwenden (256MB vs 768MB Maximalauslagerung).

Was aber auch unter XP machbar ist, wenn man sich die Mühe macht. (Mehr RAM für Texturen)

Hvoralek
2008-05-01, 17:28:42
diese ganze diskussion bringt nichts mehr, die fronten sind zu sehr verhärtet!Bei vielen Leuten schon. Deswegen den ganzen Thread dichtzumachen, in dem ja durchaus auch noch sinnvolle Beiträge kommen könnten, wäre allerdings zumindest nicht ideal. Und AMD - Nvidia- Fronten kannst Du auch in anderen Threads sehen, mit praktisch denselben Leuten.

Nein, kann man nicht. Er müsste in jeder Anwendung auftreten, da jede Anwendung irgendwas in den Spoeicher schreiben lässt.Wurde nicht genau die Behauptung sogar in diesem Thread schon mehrfach auseinandergenommen? Liest Du keine Antworten auf Deine Beiträge oder weißt Du das sehr wohl, interessierst Dich aber nicht mal mehr dafür, wie lächerlich Du Dich machst?

Gast
2008-05-01, 17:36:30
Was aber auch unter XP machbar ist, wenn man sich die Mühe macht. (Mehr RAM für Texturen)
Verstehe ich nicht.

BeetleatWar1977
2008-05-01, 18:27:37
Verstehe ich nicht.

Post 152-162

funktioniert mit den aktuellen Treibern immer noch wunderbar


PS der Fred wird langsam echt laaannnngggg ;-)

LovesuckZ
2008-05-01, 22:15:50
Wurde nicht genau die Behauptung sogar in diesem Thread schon mehrfach auseinandergenommen? Liest Du keine Antworten auf Deine Beiträge oder weißt Du das sehr wohl, interessierst Dich aber nicht mal mehr dafür, wie lächerlich Du Dich machst?

Nein, das wurde nie gemacht. Du kannst mir gerne die Posts hier zeigen, die zeigen, dass das Problem in jeder Anwendung auftritt, die etwas in den Speicher schreiben lässt.

Hvoralek
2008-05-02, 01:17:09
Nein, das wurde nie gemacht. Du kannst mir gerne die Posts hier zeigen, die zeigen, dass das Problem in jeder Anwendung auftritt, die etwas in den Speicher schreiben lässt.Der Fehler muss eben nicht in jeder Anwendung auftreten (Es sei denn, man behauptete, das Löschen von Speicherinhalten funktioniere niemals. Tut das irgendjemand hier?). Ein Bug ist es auch dann, wenn die Entleerung des Speichers nur manchmal nicht richtig funktioniert und daran die Hardware oder der Treiber schuld ist. Das habe ich hier schon oft genug klargestellt, auch und gerade Dir gegenüber (zuletzt erst vor ein paar Tagen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6462898#post6462898)). Also bitte, nimm entweder endlich einmal dazu Stellung oder höre auf, hier immer wieder denselben Unsinn zu behaupten!

Gast
2008-05-02, 07:20:10
Laß du den Schwaller,meine Ultra hats in Oblivion schon manchmal nicht geschafft rechtzeitig zu leeren,und das ist ne Karte entgegen diesem G90 und G92 Schrott.

akuji13
2008-05-02, 08:28:44
Nein, kann man nicht. Er müsste in jeder Anwendung auftreten

Prima, nach dieser "Argumentation" existiert der TLB Bug dann auch nicht.
Oder der P1 Bug, oder oder oder.

Lächerlich.

:rolleyes:

Gast
2008-05-02, 08:59:20
Laß du den Schwaller,meine Ultra hats in Oblivion schon manchmal nicht geschafft rechtzeitig zu leeren,und das ist ne Karte entgegen diesem G90 und G92 Schrott.
Ja stimmt.
Die billigen Performance Karten sind echt schlimm. Am besten Nvidia produziert nur noch High-End.
Diese bösen 8800GT Käufer, die nur 120€ ausgeben haben es nicht verdient zu leben. :rolleyes:
btw meine 8800GT hat nie Probleme in Oblivion den VRAM zu leeren.

Ein Bug ist es auch dann, wenn die Entleerung des Speichers nur manchmal nicht richtig funktioniert und daran die Hardware oder der Treiber schuld ist.
Es müsste reproduzierbar sein.
Und die seriösen Quellen, die behaupten esgäbe einen Bug, die behaupten auch, das er unter Vista vorhanden ist.
Wie ist das zu erklären?

Schlammsau
2008-05-02, 09:20:32
Es müsste reproduzierbar sein.
Und die seriösen Quellen, die behaupten esgäbe einen Bug, die behaupten auch, das er unter Vista vorhanden ist.
Wie ist das zu erklären?
Bei mir war es auch reproduzierbar! Immer wieder an der gleichen stelle, gingen die fps in den Keller! Aber nur in Crysis und DX10!

Gast
2008-05-02, 09:56:54
Aber nur in Crysis und DX10!
Das reicht nicht.

Hvoralek
2008-05-02, 15:39:41
Das reicht nicht.Das reicht nicht, um zu belegen, das es den Bug gibt und dass er nicht am an der HW oder am Treiber liegt. Dazu gibt es aber leider m.W. bisher keine wirklich brauchbaren Tests.

Grestorn
2008-05-02, 15:41:54
Das reicht nicht, um zu belegen, das es den Bug gibt und dass er nicht am an der HW oder am Treiber liegt. Dazu gibt es aber leider m.W. bisher keine wirklich brauchbaren Tests.

Wo sollte der ominöse Bug denn sonst liegen, wenn nicht im Treiber (HW ist sowieso völlig absurd)?

Hvoralek
2008-05-02, 15:45:59
Wo sollte der ominöse Bug denn sonst liegen, wenn nicht im Treiber (HW ist sowieso völlig absurd)?Kann nicht auch das Spiel schuld sein, wenn mehr Texturdaten als nötig im Speicher liegen?

Grestorn
2008-05-02, 15:51:00
Ja natürlich, aber dann wäre es ja nun wirklich kein Bug von nVidia. Und ich dachte darum geht es hier...

Es wäre eigentlich gar kein Bug, denn das Spiel darf durchaus mehr fordern als die HW kann, so fern es auch Einstellungen gibt, die auf "schwächerer" HW problemlos läuft.

Hvoralek
2008-05-02, 15:56:49
Ja natürlich, aber dann wäre es ja nun wirklich kein Bug von nVidia. Und ich dachte darum geht es hier...Eben, es geht darum, ob es ein Problem von G8x ist (Auch wenn die meisten hier anscheinend felsenfest überzeugt sind, dass es so ist bzw. nicht so ist; ohne, dass es m.E. klare Beweise für die eine oder andere Seite gäbe). Dass es das Problem gibt und es u.U. zu bösen Framerateeinbrüchen führt, kann ich zumindest für Crysis selbst bestätigen. Die Frage ist eben die nach der Ursache.

Unyu
2008-05-02, 17:32:17
Crysis alleine reicht nicht für eine derartige Unterstellung.

gamingforce
2008-05-02, 17:53:20
TDU ist noch richtig krass, das merkt man sofort wenn der VRAM voll ist dann gibts alle 5 sec nen derben ruckler (noch bei normalen Settings 1920x1200 4xAA 16xAD).

Auch CoH und WiC ist ganz schlimm :(

Unyu
2008-05-02, 19:01:40
Mag sein, übern PCIe passen halt nur 4GB/s.
Aber das ist kein Bug, das ist normal bei zuwenig VRAM. :)

Wenn man Karten mit wenig VRAM hat, kann man nicht alles hoch schrauben, das ist normal. :)

Gast
2008-05-02, 19:07:57
Crysis alleine reicht nicht für eine derartige Unterstellung.

Spiel mal Colin McRae Dirt da wird es nach der ersten Runde lustig ;D

Unyu
2008-05-02, 19:11:56
Spiel mal Colin McRae Dirt da wird es nach der ersten Runde lustig ;D
Gibts 2 Probleme:
Ich habe keine 8800 mit wenig VRAM und haue die Settings weit übers Limit hoch, sondern ich habe eine mit viel VRAM.
Ich habe kein Dirt zur Hand.

Gast
2008-05-02, 19:39:00
Gibts 2 Probleme:
Ich habe keine 8800 mit wenig VRAM und haue die Settings weit übers Limit hoch, sondern ich habe eine mit viel VRAM.
Ich habe kein Dirt zur Hand.

O.k. ich hatte eine 8800GT 512mb und eine HD3870 512mb und die Settings waren im spielbaren bereich, also fast alles High außer Shadow, 4xAA, 1920x1200.
FPS um 25-40 je nach Strecke, die GT hatte am Start meistens um 10-15% mehr Frames, aber ab der zweiten Runde kam es ins stocken und es dropte.

LovesuckZ
2008-05-02, 20:10:12
Ein Bug ist es auch dann, wenn die Entleerung des Speichers nur manchmal nicht richtig funktioniert und daran die Hardware oder der Treiber schuld ist. Das habe ich hier schon oft genug klargestellt, auch und gerade Dir gegenüber (zuletzt erst vor ein paar Tagen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6462898#post6462898)). Also bitte, nimm entweder endlich einmal dazu Stellung oder höre auf, hier immer wieder denselben Unsinn zu behaupten!

Wie kann der Treiber denn wissen, in welchen Situation die Leerung nicht vorgenommen werden sollte? :rolleyes:
Der Wegfall der Frames müsste in jeder Anwendung auftreten. Es sollte ein leichtes sein, mit niedriger Einstellung und genug Ausdauer das Problem zu pro- und reproduzieren.
Ich sehe von dir nur lauter Thesen. Wenn du meinst, dass das für mich reicht: Nein. Zeige Argumente, dass der Bug darauf hinausläuft, dass der Treiber selbständig den User nervt, indem er mal leert oder eben auch nicht.

Gast
2008-05-02, 20:32:10
Oder schreibe ein How-Tow, wie der Geforce8/9 Besitzer den VRAM-Bug selbst nachstellen und erleben kann. :)

Gast
2008-05-03, 00:27:28
Meine 8800GT 512MB bricht ständig in 3DMsrk06 und Crysis bis zur Unspielbarkeit ein....Ist das der Bug? Und warum darf nvidia die Kunden so verarschen und überhaupt so einen Schrott neu verkaufen?

gamingforce
2008-05-03, 00:32:16
Meine 8800GT 512MB bricht ständig in 3DMsrk06 und Crysis bis zur Unspielbarkeit ein....Ist das der Bug? Und warum darf nvidia die Kunden so verarschen und überhaupt so einen Schrott neu verkaufen?

weil sie genau wissen das es jeder kauft, in jedem Spiel kommt nen Nvidia Logo udn die denken halt alle damit es am besten rennt brauch man ne Nvidia Karte;D

Gast
2008-05-03, 01:05:16
Meine 8800GT 512MB bricht ständig in 3DMsrk06 und Crysis bis zur Unspielbarkeit ein....Ist das der Bug? Und warum darf nvidia die Kunden so verarschen und überhaupt so einen Schrott neu verkaufen?

Nein die Karte ist dafür einfach zu langsam.

Andi_669
2008-05-03, 02:04:20
Meine 8800GT 512MB bricht ständig in 3DMsrk06 und Crysis bis zur Unspielbarkeit ein....Ist das der Bug? Und warum darf nvidia die Kunden so verarschen und überhaupt so einen Schrott neu verkaufen?
Komisch bei mir bricht da nichts ein, nur auf dem Flugzeugträger musste ich das AA abschalten,
mit 1440x900er Auflösung, alles auf high u. Schlammsau´s CFG ;)

Man darf es nun mal bei Crysis nicht übertreiben dann läuft es auch. :|

gbm31
2008-05-03, 08:22:24
O.k. ich hatte eine 8800GT 512mb und eine HD3870 512mb und die Settings waren im spielbaren bereich, also fast alles High außer Shadow, 4xAA, 1920x1200.
FPS um 25-40 je nach Strecke, die GT hatte am Start meistens um 10-15% mehr Frames, aber ab der zweiten Runde kam es ins stocken und es dropte.


das ist aber komisch - ich habe eine 3850 512 und eine gts 512 und habe, alles auf high, 4xmsaa und 1680x1050, davon nix gemerkt, durch den halben karrieremodus durch - nur daß die gts deutlich schneller ist...

:rolleyes:

Schlammsau
2008-05-03, 10:02:13
Oder schreibe ein How-Tow, wie der Geforce8/9 Besitzer den VRAM-Bug selbst nachstellen und erleben kann. :)

How To:
Starte Crysis in DX10, Auflösung deiner Wahl , alles auf High und bei 512MB Karten noch 2xAA oder 4xAA hinzu!
Und Vola, nach ein paar Minuten, in einem schön bewaldetem Areal, werden euch mit Sicherheit die FPS ausgehen! ;)

Gast
2008-05-03, 10:06:40
http://www.forumdeluxx.de/forum/showthread.php?t=465353&page=55

:D

auf die min FPS schauen....wie die in den Keller gehen wenn der ram geleert wird...

Unyu
2008-05-03, 10:08:01
How To
Dann müssten Karten mit mehr VRAM auch unter gehen, tun sie aber nicht. Und dann hilft mir dein How To nicht, um es bei mir nachzustellen.

Dein How To hat noch eine Lücke: D3D10, kann ich unter XP nicht nutzen und Vista verwaltet den VRAM selber, das der böse Bug gar nichts damit zu tun hat.

Gast
2008-05-03, 10:08:32
bei den GX2 ern,der Ultra isses wurscht,fast :D

Gast
2008-05-03, 10:11:34
Dann müssten Karten mit mehr VRAM auch unter gehen, tun sie aber nicht. Und dann hilft mir dein How To nicht, um es bei mir nachzustellen.

Dein How To hat noch eine Lücke: D3D10, kann ich unter XP nicht nutzen und Vista verwaltet den VRAM selber, das der böse Bug gar nichts damit zu tun hat.
schau die doch die Benches an...oder kannste die nicht lesen?
Die G92 Karten scheren sich auch nicht um den Bug unter Vista,das Ergebniß spiegelt das leeren doch bei den miniFPS schön wieder,die Ultra zuckt auch bei knappen 1000mb mem,nur eben bei weitem nicht so schlimm

Schlammsau
2008-05-03, 10:14:37
Dann müssten Karten mit mehr VRAM auch unter gehen, tun sie aber nicht. Und dann hilft mir dein How To nicht, um es bei mir nachzustellen.

Dein How To hat noch eine Lücke: D3D10, kann ich unter XP nicht nutzen und Vista verwaltet den VRAM selber, das der böse Bug gar nichts damit zu tun hat.

Dann hat wohl Vista nur Probleme mit nVidia Grafikkarten.;D Weil bei ATi tritt das Problem definitiv nicht auf!
Kauft keine nV wenn ihr Vista habt....M$ hat gepfuscht! ;D

Gast
2008-05-03, 10:15:40
zum Schluß könnte man sagen,es liegt am OS :D
oder......naja macht mal weiter ;D

Gast
2008-05-03, 10:17:14
Nein die Karte ist dafür einfach zu langsam.
Was? Da löhne ich 220Euro und dann sind Spiele die vor einen Jahr rausgekommen sind zu anspruchsvoll?
Aber bei 3D Murks kann es doch nciht sein, dass die KArte nach mehreren Durchläufen von 110FPS Game auf 18FPS einbricht oder?
Oder ist 3DMurks auch zu anspruchsvoll?
Würde es helfen, wenn ich den Hauptspeicher aufrüste? Ich lese hier immer, dass zu wenig RAM die Ursache sein soll?
=> Bedeutet das, dann, dass wenn man eine nvida KArte kauft gleich mehr Hauptspeicher braucht?

Sorry, wenn das so ist, dann habe ide mich aber im Laden gänz schön verarscht...

Gast
2008-05-03, 10:18:18
Dann hat wohl Vista nur Probleme mit nVidia Grafikkarten.;D Weil bei ATi tritt das Problem definitiv nicht auf!
Kauft keine nV wenn ihr Vista habt....M$ hat gepfuscht! ;D

HÄ?
Das ist doch genau anders rumm!Unter Vista kacken die Karten nicht ab,die stocken kurz und weiter gehts mit den vollen FPS!
Im gegensatz zu XP,da ist Schluß im Karton<>Affengriff-warten >weiter zocken >da ist mir aber Vista tausend mal lieber

Gast
2008-05-03, 10:19:23
Was? Da löhne ich 220Euro und dann sind Spiele die vor einen Jahr rausgekommen sind zu anspruchsvoll?
Aber bei 3D Murks kann es doch nciht sein, dass die KArte nach mehreren Durchläufen von 110FPS Game auf 18FPS einbricht oder?
Oder ist 3DMurks auch zu anspruchsvoll?
Würde es helfen, wenn ich den Hauptspeicher aufrüste? Ich lese hier immer, dass zu wenig RAM die Ursache sein soll?
=> Bedeutet das, dann, dass wenn man eine nvida KArte kauft gleich mehr Hauptspeicher braucht?

Sorry, wenn das so ist, dann habe ide mich aber im Laden gänz schön verarscht...
Auch hier nur unter XP :D
Unter Vista mach ich ne Tagesschleife da hab ich einen Unterschied von 50-100 FPS.

Unyu
2008-05-03, 10:19:43
Kauft keine nV wenn ihr Vista habt....M$ hat gepfuscht! ;D
Der angebliche Bug besteht doch auch unter XP.
Wo sind jetzt nur die Beweise, auch mal was anderes als Crysis, das eindeutig mehr als 512MiB verbraucht. -> Kein Bug sondern voller VRAM.

schau die doch die Benches an...oder kannste die nicht lesen?
Der Post war nicht auf dich bezogen.
Wo ist in dem Link der Bug?

Schlammsau
2008-05-03, 10:21:13
HÄ?
Das ist doch genau anders rumm!Unter Vista kacken die Karten nicht ab,die stocken kurz und weiter gehts mit den vollen FPS!
Im gegensatz zu XP,da ist Schluß im Karton<>Affengriff-warten >weiter zocken >da ist mir aber Vista tausend mal lieber

Doch, bei mir ist das Problem nur unter Vista aufgetreten.

Schlammsau
2008-05-03, 10:25:24
Aus einem früheren Post von mir

Ja die 8800 GS hat 128MB weniger Speicher! Und? Die GS bricht nach einer gewissen Zeit und je nach VRAM lastigkeit, unter Crysis DX10 (High und VeryHigh) so dermassen ein, dass es echt nicht mehr schön ist! Und das dumme an der Geschichte ist, sie erhohlt sich dann auch nicht mehr. Auch wenn die Szene dann wieder weniger anspruchsvoll wird, bleiben die FPS so niedrig!
An AA ist gar nicht mal erst zu denken!
Mit der 3850 512MB, gab es sowas nicht! Da hatte ich mit 4xAA zwar auch sau wenig fps aber wenigstens konstant!

Einzige Möglichkeit dieses Problem zu umgehen ist momentan nur, auf DX10 zu verzichten!

Schade, dachte eigentlich das NV dieses Prob endlich beseitigt hat!
DX10 1024x768, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 84.23s, Average FPS: 23.74
Min FPS: 13.58 at frame 1917, Max FPS: 32.71 at frame 863
Average Tri/Sec: -16994610, Tri/Frame: -715735
Recorded/Played Tris ratio: -1.28
!TimeDemo Run 1 Finished.
Play Time: 97.60s, Average FPS: 20.49
Min FPS: 11.61 at frame 1941, Max FPS: 32.71 at frame 863
Average Tri/Sec: -14404335, Tri/Frame: -702927
Recorded/Played Tris ratio: -1.30
!TimeDemo Run 2 Finished.
Play Time: 162.70s, Average FPS: 12.29
Min FPS: 5.64 at frame 1945, Max FPS: 32.71 at frame 863
Average Tri/Sec: -8640822, Tri/Frame: -702911
Recorded/Played Tris ratio: -1.30

Leider reichen die Boardmittel von Crysis bzw. Vista nicht aus, den VRAM Bug auch in High Settings zu dokumentieren! Dafür ist die GPU Demo zu kurz bzw. belegt zu wenig Speicher!
Deswegen musste ich mit VeryHigh die Durchläufe machen!

Gast
2008-05-03, 10:28:19
Doch, bei mir ist das Problem nur unter Vista aufgetreten.
Nein!
Und nochmal
http://www.forumdeluxx.de/forum/show...465353&page=55

Gast
2008-05-03, 10:29:58
http://www.forumdeluxx.de/forum/showthread.php?t=465353&page=55
http://downloads.guru3d.com/download.php?det=1791

Unyu
2008-05-03, 10:31:36
Doch, bei mir ist das Problem nur unter Vista aufgetreten.
Was hat es dann mit nvidia zu tun?

Aus einem früheren Post von mir

Das haben wir doch schon ausdiskutiert.
Weniger VRAM, dabei etwas höherer VRAM Verbrauch, zu hohe Settings und schwups ruckelt es.

Gibts auch mal mehr als Crysis?

Gast
2008-05-03, 10:35:36
unter Vista ruckelt da garnix,es zuckt kurz und weiter gehts wie vorher,ich hab da mit der GX2 bis zu 980mb mem und es ist vollkommen wurst.

Schlammsau
2008-05-03, 10:37:24
Leider reichen die Boardmittel von Crysis bzw. Vista nicht aus, den "VRAM Bug" auch in High Settings zu dokumentieren! Dafür ist die GPU Demo zu kurz bzw. belegt zu wenig Speicher!
Deswegen musste ich mit VeryHigh die Durchläufe machen!

Wenn einer Karte mit 384MB RAM, nach 10Minuten zocken unter einer Standard Auflösung bzw. High Quality und ohne AA/AF der VRAM ausgeht! Machen die Entwickler was falsch!!!!!!
zum 10000000 mal, warum wird die Karte von Durchlauf zu Durchlauf langsamer?
Das dürfte doch gar nicht passieren!!!!! Nach dem ersten Durchlauf ist doch schon die gesamte Demo in den Speicher geladen worden!!!!!

Gast
2008-05-03, 10:39:56
Gibts auch mal mehr als Crysis?
Scheinbar nicht.

Gast
2008-05-03, 10:41:45
Da mußte nicht rummbrüllen,deswgen hast du trotzdem kein recht,da kannste dich müde schreiben,die Benchis belegen das Gegenteil und auch wie die Leute unter Vista spielen ohne PROBS!Da kannste noch tausend mal dein XP gehype rausholen es nütz dir nix.
Und zum Lesen auch keine Lust aber Laabern!
http://downloads.guru3d.com/download.php?det=1791
nimm den test und benche dich müde!
Als andauernd dummes Zeug zuschreiben.
Und da wird nix langsamer unter Vista da kannste den Loop auf 100 einstellen,raffs endlich!

BeetleatWar1977
2008-05-03, 11:55:00
COH mit allem auf max ist auch ne Möglichkeit zum testen.

Unyu
2008-05-03, 11:59:22
COH mit allem auf max ist auch ne Möglichkeit zum testen.
Läuft wunderbar mit 1GiB.

Wenns mit weniger VRAM rucklet liegts am zu wenigen VRAM. Kein Bug.

Sven77
2008-05-03, 12:02:57
How To:
Starte Crysis in DX10, Auflösung deiner Wahl , alles auf High und bei 512MB Karten noch 2xAA oder 4xAA hinzu!
Und Vola, nach ein paar Minuten, in einem schön bewaldetem Areal, werden euch mit Sicherheit die FPS ausgehen! ;)

komisch... bei mir nicht.. was mach falsch? :rolleyes:

BeetleatWar1977
2008-05-03, 12:10:34
COH müllt mit der Zeit den VRAM voll, hab damit schon Spitzenwerte von über 700mb erreicht. Dann hilft nur noch Alt+Tab, Speicher wieder geleert und COH wieder schneller. Wenn der Grafikspeicher begrenzt ist, gibt es jedesmal kurze Aussetzer weil er eine beliebige Textur aus dem Speicher schmeist um für die neue Platz zu machen. Normalerweise sollten ungenutzte Texturen im Hintergrund entladen werden bevor das passiert.

Gast
2008-05-03, 12:19:23
Der Bug existiert, Nvidia hat es damals selber bestätigt, und ihr wisst alle selber das es so ist