Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF8 "VRAM-Bug" gefixt?


Seiten : 1 2 3 4 [5]

Grestorn
2008-05-03, 12:26:35
Der Bug existiert, Nvidia hat es damals selber bestätigt, und ihr wisst alle selber das es so ist

Zum x. Mal, nVidia hat gar nichts bestätigt. Das war eine Fehlmeldeung von Fudzilla. Ich weiß nicht, wie oft das hier in diesem Thread schon stand.

Gast
2008-05-03, 13:55:44
Naja informier dich mal bitte richtig..

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein.

Technical Marketing analyst von Nvidia sollte es besser wissen als du

Unyu
2008-05-03, 14:01:55
Ja wie soll man auch etwas beheben, was nicht vorhanden ist?

Link zu nvidia und der Originalaussage?

Grestorn
2008-05-03, 14:12:57
So lange ich keine wörtliche Aussage von dem Menschen habe, bin ich da mehr als skeptisch.

Wir reden hier vom Speichermanagement, das ist kein Buch mit sieben Siegeln. Es mag durchaus einen Bug im Treiber geben, der dazu führt dass der Speicher ungünstig verwaltet wird und das die falschen Texturen ausgelagert werden. Aber ein solche Bug wäre relativ leicht zu beheben.

Wie sonst sollte ein solcher Bug denn aussehen?

Hier reden immer Leute von einem Bug, die nicht den Hauch einer Ahnung von Softwareentwicklung haben. Das ist an sich ja ok, aber glaubt doch auch mal den Leuten, die sich da ein wenig auskennen.

Komisch, dass man seit dem 163.44, der ja ein dreiviertel Jahr alt ist, nichts mehr davon gehört hat. Weder von CB noch von nVidia. Klingt für mich, als wollte man bei CB da eine Peinlichkeit eher totschweigen. Denn wenn da was dran wäre, hätte CB jeden Grund gehabt da öfter nachzuhaken.

Hvoralek
2008-05-03, 14:56:36
Crysis alleine reicht nicht für eine derartige Unterstellung.Was für eine Unterstellung? Ich sage lediglich, dass der Speicher mit einem G92 in Crysis allmählich voll- und u.U. überläuft. Das unterstelle ich nicht, das weiß ich. Ob das am Spiel liegt oder an der Hardware, kann ich nich beurteilen. Das habe ich auch nicht getan.


TDU ist noch richtig krass, das merkt man sofort wenn der VRAM voll ist dann gibts alle 5 sec nen derben ruckler (noch bei normalen Settings 1920x1200 4xAA 16xAD).

Auch CoH und WiC ist ganz schlimm :(Dass voller VRAM zu Rucklern führt, ist normal. Hat das irgendetwas mit dem Thema (Volllaufen des Speichers) zu tun? :rolleyes:


Wie kann der Treiber denn wissen, in welchen Situation die Leerung nicht vorgenommen werden sollte? :rolleyes:K.A., ich weiß nicht genug über die Arbeitsweise des Treibers, um das zu beurteilen.

Der Wegfall der Frames müsste in jeder Anwendung auftreten.Auch wenn Du das noch hundertmal einfach behauptest, wird es keinen Deut richtiger.

Es sollte ein leichtes sein, mit niedriger Einstellung und genug Ausdauer das Problem zu pro- und reproduzieren.So einfach ist das nicht. Der Speicher läuft allmählich voll, gut reproduzieren lassen sich meist nur kürzere Durchläufe. Das geht aber durchaus, siehe Schlammsau mit seiner 384- MiB- Karte.

Ich sehe von dir nur lauter Thesen.Ich sehe von Dir nur lauter... Nein, immer dieselbe Behauptung.

Wenn du meinst, dass das für mich reicht: Nein. Zeige Argumente, dass der Bug darauf hinausläuft, dass der Treiber selbständig den User nervt, indem er mal leert oder eben auch nicht.Noch einmal: Ob es am Treiber liegt, weiß ich nicht. Ich habe schon oft genug gesagt, was für Messungen man mMn bräuchte, um das sicher beurteilen zu können. Du behauptest dagegen, sicher zu wissen, dass es nicht am Treiber liegt. Das stützt Du allein auf die Behauptung, ein Treiberbug, der nur in bestimmten Fällen spürbar auftrete, sei völlig unmöglich. Wenn Du so sicher und erleuchtet bist, begründe doch einfach diese Prämisse.


Komisch bei mir bricht da nichts ein, nur auf dem Flugzeugträger musste ich das AA abschalten,
mit 1440x900er Auflösung, alles auf high u. Schlammsau´s CFG ;)

Man darf es nun mal bei Crysis nicht übertreiben dann läuft es auch. :|Einen spürbaren Einbruch hatte ich nur einmal, ebenfalls mit Schlammsaus Configk (leicht modifiziert) und 1280x1024. Ich habe ziemlich vom Anfang am Stück bis zu der Stelle gespielt, an der man diesem Wissenschaftler begegnet, der in seine Höhle einfiert. Als ich danach Licht eingeschalte habe, gab es eine Diashow bis zu einem Alt+Tab.

Mit den Einstellungen braucht es also wohl zumindest ziemlich lange Sitzungen am Stück.


Der angebliche Bug besteht doch auch unter XP.
Wo sind jetzt nur die Beweise, auch mal was anderes als Crysis, das eindeutig mehr als 512MiB verbraucht. -> Kein Bug sondern voller VRAM.Und warum braucht Crysis zumindest an einer Stelle angeblich mehr als 512 MiB, nach einem Al+Tab aber plötzlich keine 300 MiB mehr?


Naja informier dich mal bitte richtig..

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein.

Technical Marketing analyst von Nvidia sollte es besser wissen als duDa kann es gut sein, dass der einfach gesagt hat, die Leistungsverbesserungen mit einer GTS320 gingen auf dies und jenes zurück und CB daraus "geschlossen" hat: "Also wurde der VRAM- Bug nicht behoben".

LovesuckZ
2008-05-03, 14:58:36
Ich habe nie gesagt, dass der Treiber schuld wäre. Ich habe immer darauf bestanden, dass keinen Hardwarebug gibt, da die Speicherzellen eben nur 0 und 1 Speichern und nicht selbstständig entscheiden können, was gespeichert wird und was nicht.
Es ist also ein Problem, dass auf der Ebene der Software zu suchen ist: Betriebssysten, Treiber, Spiel.

Hvoralek
2008-05-03, 15:04:48
Ich habe nie gesagt, dass der Treiber schuld wäre. Ich habe immer darauf bestanden, dass keinen Hardwarebug gibt, da die Speicherzellen eben nur 0 und 1 Speichern und nicht selbstständig entscheiden können, was gespeichert wird und was nicht.
Es ist also ein Problem, dass auf der Ebene der Software zu suchen ist: Betriebssysten, Treiber, Spiel.Du hast doch bis gerade eben noch felsenfest behauptet, wenn es am Treiber läge, müsse das immer und unter jeder Anwendung auftreten, also könne es unmöglich der Treiber sein :|

Naja gut, dann sind wir uns ja einig. Fehlt nur noch jemand mit genug Hardware und Zeit, um zu untersuchen, ob es beim Speichervolllaufen Untersiede zwischen AMD und Nvidia gibt.

LovesuckZ
2008-05-03, 15:07:23
Du hast doch bis gerade eben noch felsenfest behauptet, wenn es am Treiber läge, müsse das immer und unter jeder Anwendung auftreten, also könne es unmöglich der Treiber sein :|


Wenn es Hardwarefehler oder ein Treiberproblem wäre, müsste es in jeder verdammten Anwendung auftreten, die etwas in den Speicher schreiben lässt.
Ein zufälliges Auftreten kann garnicht möglich sein, da der Treiber oder die Speicherzellen doch garnicht wissen können, was sie behalten sollen und was nicht.

mapel110
2008-05-03, 15:08:56
och, teilweise wissen sie das schon. Es könnte ja an einem speziellen Texturformat liegen.

Gast
2008-05-03, 15:22:45
Wenn es Hardwarefehler oder ein Treiberproblem wäre, müsste es in jeder verdammten Anwendung auftreten, die etwas in den Speicher schreiben lässt.
Ein zufälliges Auftreten kann garnicht möglich sein, da der Treiber oder die Speicherzellen doch garnicht wissen können, was sie behalten sollen und was nicht.

Lol, jetzt müsste eigentlich Coda aus dem Busch gesprungen kommen.

Ich bin mir sicher dass solche Funktionen im Zusammenspiel Treiber-Hardware verankert sind. Der VRAm hat auch eine Cache Funktion. Durch ein intelligentes Management der Texturen lassen sich Probleme wie dieses durchaus minimieren.

LovesuckZ
2008-05-03, 15:26:21
Ich bin mir sicher dass solche Funktionen im Zusammenspiel Treiber-Hardware verankert sind.

Und wie soll die Hardware entscheiden, was er speichert und was nicht?

Gast
2008-05-03, 15:34:35
Und wie soll die Hardware entscheiden, was er speichert und was nicht?

Wie macht das den eine CPU bei der Verwaltung ihrer Cache Daten?!

Grestorn
2008-05-03, 15:58:05
Wie macht das den eine CPU bei der Verwaltung ihrer Cache Daten?!

Die Verwaltung des CPU L1, L2 und L3 Cache wird in der Tat in der Hardware verdrahtet. VRAM ist aber kein Cache in diesem Sinne. Es ist ein linearer Speicher wie normales RAM, dessen Inhalte alleine vom Treiber (bzw. unter Vista auch vom OS) verwaltet wird.

Gast
2008-05-03, 16:03:38
Die Verwaltung des CPU L1, L2 und L3 Cache wird in der Tat in der Hardware verdrahtet. VRAM ist aber kein Cache in diesem Sinne. Es ist ein linearer Speicher wie normales RAM, dessen Inhalte alleine vom Treiber (bzw. unter Vista auch vom OS) verwaltet wird.


Schön. Ich wollte in diesem Zusammenhang vor allem darauf Hinweisen, dass es sehr wohl Verfahren gibt, die Verwaltung von Speichern zu otimieren, sei es nun auf Hardwarebasis und/oder über entsprechende Treiber.

Hvoralek
2008-05-04, 00:13:10
Wenn es Hardwarefehler oder ein Treiberproblem wäre, müsste es in jeder verdammten Anwendung auftreten, die etwas in den Speicher schreiben lässt.
Ein zufälliges Auftreten kann garnicht möglich sein, da der Treiber oder die Speicherzellen doch garnicht wissen können, was sie behalten sollen und was nicht.Vlt. gibt es bestimmte Datenfolgen oder Schreib- Lese- Konstellationen, in denen der Treiber Murks baut. Ich verstehe jedenfalls nicht, warum so etwas Deiner Meinung nach unmöglich sein soll.

Grestorn
2008-05-04, 09:53:39
Ich hab mal meinen "Kontakt" ins nVidia Team nach dem VRam-Bug gefragt und das ist die Antwort:

In what context is this bug being referred too? On the 8800GTS 320 this was most common because the G80 hardware would "Flush" its memory and performance would go down the tubes. But exiting the app and restarting would get rid of this flush. The G80's do handle memory a little differently than the G7x cards. But I wouldnt call it a "bug" and Nvidia introduced driver fixes for the way the G80 was "flushing" its memory a long long time ago. It was mostly noticable on cards with wierd and unusual framebuffers such as the 320 configuration.

Some people say that there is another bug. Because Nvidia does handle the way it allocates framebuffer differently than ATI. ((which causes them to use the system bus more correctly at high resolutions with AA)). This isnt a bug. This is to prevent the GPU from ever "flushing" its memory and becoming a problem. I have heard the argument that ATI does this more efficiently at high levels of AA/resolution but I see there 512 cards fall off at the same memory bottlenecks that Nvidia does. They simply have a more efficient "8x Multisample" algorithim, Nvidia focused its efforts on 4xAA and CSAA modes based on it.

Klingt auch etwas komisch in meinen Ohren, speziell dieses "Flush", aber wer weiß was da für technische Probleme dahinterstecken. Mein Kontakt redet zwar mit den Leuten aus der Entwicklung ist aber selbst kein Entwickler, d.h. auch das wird etwas ungenau wiedergegeben sein.

Gast
2008-05-07, 10:10:08
Ich hab mal meinen "Kontakt" ins nVidia Team nach dem VRam-Bug gefragt und das ist die Antwort:

In what context is this bug being referred too? On the 8800GTS 320 this was most common because the G80 hardware would "Flush" its memory and performance would go down the tubes. But exiting the app and restarting would get rid of this flush. The G80's do handle memory a little differently than the G7x cards. But I wouldnt call it a "bug" and Nvidia introduced driver fixes for the way the G80 was "flushing" its memory a long long time ago. It was mostly noticable on cards with wierd and unusual framebuffers such as the 320 configuration.

Some people say that there is another bug. Because Nvidia does handle the way it allocates framebuffer differently than ATI. ((which causes them to use the system bus more correctly at high resolutions with AA)). This isnt a bug. This is to prevent the GPU from ever "flushing" its memory and becoming a problem. I have heard the argument that ATI does this more efficiently at high levels of AA/resolution but I see there 512 cards fall off at the same memory bottlenecks that Nvidia does. They simply have a more efficient "8x Multisample" algorithim, Nvidia focused its efforts on 4xAA and CSAA modes based on it.

Klingt auch etwas komisch in meinen Ohren, speziell dieses "Flush", aber wer weiß was da für technische Probleme dahinterstecken. Mein Kontakt redet zwar mit den Leuten aus der Entwicklung ist aber selbst kein Entwickler, d.h. auch das wird etwas ungenau wiedergegeben sein.

jo und hier wurden schon 10x vergleiche auf hw-seiten gepostet, die den derben einbruch bei den g80 und g92 mit kleinerer vram-ausstattung _deutlich_ zeigen, nur scheint das leute wie dich nicht zu interessieren, die dem keinen deut beachtung schenken

Gast
2008-05-07, 10:28:25
nach ner halben Stunde unter Vista 64 nimmt sich Crysis 2.3 gig Speicher.....

Grestorn
2008-05-07, 10:55:00
Unter Vista kann man den VRam-Bedarf gar nicht messen. Was Du wohl meinst ist der Bedarf an normalem RAM und der spielt hier gar keine Rolle.

Dass Karten mit kleinerem VRam Ausbau derb einbrechen können ist nicht überraschend und auch kein "Bug" sondern schlicht eine Folge des zu knappen RAM-Ausbaus. Da kann man dann solche Settings einfach nicht mehr nutzen. Das ist doch nicht überraschend...

Hvoralek
2008-05-07, 11:11:26
jo und hier wurden schon 10x vergleiche auf hw-seiten gepostet, die den derben einbruch bei den g80 und g92 mit kleinerer vram-ausstattung _deutlich_ zeigen, nur scheint das leute wie dich nicht zu interessieren, die dem keinen deut beachtung schenkenIch habe übrigens immer noch keine Messung gesehen, aus der hervorgeht, dass G8x bei der gleichen Menge an ausgelagerten Daten stärker einbrechen. Dass sie es in den gleichen Einstellungen tun, kann auch schlicht am höheren Speicherbedarf liegen.

Gast
2008-05-07, 12:00:05
Unter Vista kann man den VRam-Bedarf gar nicht messen. Was Du wohl meinst ist der Bedarf an normalem RAM und der spielt hier gar keine Rolle.

Dass Karten mit kleinerem VRam Ausbau derb einbrechen können ist nicht überraschend und auch kein "Bug" sondern schlicht eine Folge des zu knappen RAM-Ausbaus. Da kann man dann solche Settings einfach nicht mehr nutzen. Das ist doch nicht überraschend...


genau, bloss ati karten oder nvs !=G8x & G9x mit identischer vram ausstattung haben das problem komischerweise nich, NECH? man kanns ja runterbeten, so oft man will, immer wieder kommt dieses "argument"

Grestorn
2008-05-07, 13:20:49
genau, bloss ati karten oder nvs !=G8x & G9x mit identischer vram ausstattung haben das problem komischerweise nich, NECH? man kanns ja runterbeten, so oft man will, immer wieder kommt dieses "argument"

Es hat ja keiner je bestritten (auch nicht der von mir zitierte "Kontakt"), dass die G8x/G9x mehr Speicher braucht als andere Chips.

Das ist aber deswegen immer noch kein Bug. Oder was verstehst Du bitte unter dem Begriff Bug?

Gast
2008-05-07, 13:32:17
meine Herren echt,wie kann man nur so verblendet sein?
ATI machts doch vor,bei NV gehts nicht,also woran liegt es?
Genau an dem Scheiß Chip und fertig!
Ein Bug kein Bug ein Bug kein Bug ihr müßt mal lesen was ihr schreibt,so einige hier halten sich für mächtig schlau glaub ich,der Chip ist scheiße und fertig und deswegen ein BUG und auch fertig!Un das kann man nicht ändern,genau weil am Chip liegt basta!

Und der GT200 wird die selben probs haben in der Hinsicht,da verwett ich Haus und Hof.

Grestorn
2008-05-07, 13:40:07
Ok, nach dieser Argumentation hat die R6x0 auch einen üblen Bug: Der Chip ist einfach viel langsamer als der G8x/G9x, wenn das Spiel wenig RAM braucht... Der R6x0 hat also einen "Low-VRAM-Bug", oder? :)

Komische Definition hast Du von einem Bug, genauso niveauvoll wie Deine Sprache.

Ein Bug sagt man übrigens, wenn ein technisches Gerät nicht so funktioniert wie sich der Designer/Techniker das vorgestellt hat, eben ein ungewolltes und damit fehlerhaftes Verhalten. Ein genereller Nachteil eines Gerätes ist zunächst mal kein Bug sondern eben nur ein Nachteil.

Vor- und Nachteile gibt es viele und zwar in allen Produkten.

Hvoralek
2008-05-07, 13:43:39
meine Herren echt,wie kann man nur so verblendet sein?
ATI machts doch vor,bei NV gehts nicht,also woran liegt es?
Genau an dem Scheiß Chip und fertig!
Ein Bug kein Bug ein Bug kein Bug ihr müßt mal lesen was ihr schreibt,so einige hier halten sich für mächtig schlau glaub ich,der Chip ist scheiße und fertig und deswegen ein BUG und auch fertig!Un das kann man nicht ändern,genau weil am Chip liegt basta!Wenn Du das ernst meinst, wirst Du wohl LovesuckZ zustimmen müssen, dass R6xx an einem "AF- Bug" leide (Die hohen Verluste liegen an der zu geringen Filterleistung und damit auch dort an dem "Scheißchip" - wobei Nvidia am Speicherverbrauch durch Treiber anscheinend zumindest noch etwas machen kann, AMD könnte wohl höchstens weiter an der Filterung sparen). Ist natürlich beides völliger Unsinn, weil sowohl der hohe Speicherverbrauch von G8x als auch die geringe Filterleistung von R6xx wohl bewusst in Kauf genommen wurde.

Premium
2008-05-07, 14:03:05
Mein Bekannter hat in der Zwischenzeit seine 8800GT 512MB an einen Dummen, der von den Bug noch nichts gehört hat, weiterverkauft.

Jetzt hat er sich eine 3870 512MB zugelegt und diese liefert immer konstante Ergebnisse, egal wie oft er Benschmarks und Spiele durchlaufen läßt.

Und ich denke auch, dass der GT200 den Bug wohl noch haben wird, allerdings wird nvidea diesen Chip wohl "sicherheitshalber" gleich mit 1GB anbieten und so diese Diskussion vermeiden.
=> Problem gelößt, der Kunde zahlt einfach mehr für mehr Speicher und gut ist es....;)

master_blaster
2008-05-07, 14:09:48
Mein Bekannter hat in der Zwischenzeit seine 8800GT 512MB an einen Dummen, der von den Bug noch nichts gehört hat, weiterverkauft.

Jetzt hat er sich eine 3870 512MB zugelegt und diese liefert immer konstante Ergebnisse, egal wie oft er Benschmarks und Spiele durchlaufen läßt.

Und ich denke auch, dass der GT200 den Bug wohl noch haben wird, allerdings wird nvidea diesen Chip wohl "sicherheitshalber" gleich mit 1GB anbieten und so diese Diskussion vermeiden.
=> Problem gelößt, der Kunde zahlt einfach mehr für mehr Speicher und gut ist es....;)

Du hats's wohl immernoch nicht mitbekommen: Ein Nachteil gegenüber einer anderen Karte ist nicht zwangsweise ein Bug. Außerdem lag das Problem bekannterweise in der Software, welche den Speicher einfach vollaufen ließ.

Ok, nach dieser Argumentation hat die R6x0 auch einen üblen Bug: Der Chip ist einfach viel langsamer als der G8x/G9x, wenn das Spiel wenig RAM braucht... Der R6x0 hat also einen "Low-VRAM-Bug", oder? :)

Komische Definition hast Du von einem Bug, genauso niveauvoll wie Deine Sprache.

Ein Bug sagt man übrigens, wenn ein technisches Gerät nicht so funktioniert wie sich der Designer/Techniker das vorgestellt hat, eben ein ungewolltes und damit fehlerhaftes Verhalten. Ein genereller Nachteil eines Gerätes ist zunächst mal kein Bug sondern eben nur ein Nachteil.

Vor- und Nachteile gibt es viele und zwar in allen Produkten.
<- damit ist eigentlich alles gesagt.

Gast
2008-05-07, 14:35:56
Mein Bekannter hat in der Zwischenzeit seine 8800GT 512MB an einen Dummen, der von den Bug noch nichts gehört hat, weiterverkauft.

Jetzt hat er sich eine 3870 512MB zugelegt und diese liefert immer konstante Ergebnisse, egal wie oft er Benschmarks und Spiele durchlaufen läßt.

Und ich denke auch, dass der GT200 den Bug wohl noch haben wird, allerdings wird nvidea diesen Chip wohl "sicherheitshalber" gleich mit 1GB anbieten und so diese Diskussion vermeiden.
=> Problem gelößt, der Kunde zahlt einfach mehr für mehr Speicher und gut ist es....;)

ne nicht gut der G80 ship hat den "Bug" un fertig nur darum geht es nicht um eure Schönrederei.

Gast
2008-05-07, 14:38:28
Wenn Du das ernst meinst, wirst Du wohl LovesuckZ zustimmen müssen, dass R6xx an einem "AF- Bug" leide (Die hohen Verluste liegen an der zu geringen Filterleistung und damit auch dort an dem "Scheißchip" - wobei Nvidia am Speicherverbrauch durch Treiber anscheinend zumindest noch etwas machen kann, AMD könnte wohl höchstens weiter an der Filterung sparen). Ist natürlich beides völliger Unsinn, weil sowohl der hohe Speicherverbrauch von G8x als auch die geringe Filterleistung von R6xx wohl bewusst in Kauf genommen wurde.
Das ist mit vollkommen wurst wer wo noch einen fehler im design hat!
Hier gehts um den NV Kram der hat einen kräftigen ab und fertig!
Da hilft niemanden euer schönreden,es macht euch nur noch unglaubwürdiger,oder bist du der Meinung NV ist nicht in der Lage einen SOFTWAREBUG nach 2 Jahren zu beheben?

Hvoralek
2008-05-07, 15:23:26
Mein Bekannter hat in der Zwischenzeit seine 8800GT 512MB an einen Dummen, der von den Bug noch nichts gehört hat, weiterverkauft.Schön, dann verschonst Du uns ja vlt. im Weiteren mit dessen Lebensgeschichte :rolleyes:

Das ist mit vollkommen wurst wer wo noch einen fehler im design hat!
Hier gehts um den NV Kram der hat einen kräftigen ab und fertig!Ich hatte eigentlich gedacht, das Beispiel mit R6xx- AF zeige, wie absurd es ist, bei architekturbedingten Nachteilen automatisch von Bugs zu sprechen. Aber gut: Wenn Du so möchtest, ist der allgemein hohe Speicherbedarf von G8x wohl ein "Bug" nach Deiner Definition :|

Was den eigentlichen Speicherbug (Das Volllaufen des Speichers) angeht, warte ich immer noch auf Messungen, die zeigen, ob das wirklich nur bei G8x auftritt oder ob es an bestimmten Anwendungen (Stalker, Crysis) liegt und nur bei G8x wegen dessen höherem Speicherbedarf eher ein Problem wird. Ich vermute zwar, dass es an der GraKa liegt, aber bewiesen ist das bisher nicht.

Da hilft niemanden euer schönreden,es macht euch nur noch unglaubwürdiger,oder bist du der Meinung NV ist nicht in der Lage einen SOFTWAREBUG nach 2 Jahren zu beheben?Ich weise nur immer wieder darauf hin, dass es bisher keinen klaren Beweis dafür gibt, dass dieses Volllaufen an G8x liegt, sondern das lediglich eine Vermutung ist. Wenn es einigermaßen glaubwürdige Messungen gibt, die das Volllaufen klar nur bei G8x zeigen oder aber gleichermaßen auch bei anderer Hardware, ist das Thema für mich erledigt.

Was mich allerdings nervt, sind gewisse Leute, die hier wirklich permanent schönreden, das Volllaufen gebe es gar nicht und das sei alles erfunden, oder aber behaupten, es sei eine Tatsache, dass es nur bei G8x auftrete und die Anwendungen damit nichts zu tun hätten. Man kann es imM schlicht nicht sicher sagen.

Thema Beheben durch Software: Zumindest am hohen Speicherbedarf wird immer mal wieder kleckerweise mit neuen Treibern gearbeitet. Zuletzt hat sich da mit dem 174.xx vor ein paar Monaten spürbar etwas getan. Zumindest das lässt sich anscheinend nicht einfach so mit einem Federstrich beheben; ich würde nicht ausschließen, dass man auch dieses Volllaufen (so es an G8x liegt) irgendwann doch noch auf die Reihe bekommt. Darauf wetten sollte man aber natürlich nicht.

Hvoralek
2008-05-07, 15:37:52
laaber laaber laaberWenn das so ein inhaltsleeres Gelaber ist, sollte es doch ein Leichtes sein, es mit ein paar Argumenten auseinanderzunehmen :rolleyes:

Dein primitives Verbalgeholze wird jedenfalls nicht gerade dazu beitragen, dass Du eher ernstgenommen wirst. Oder geht diese unglaubliche Textmasse von fünf kurzen Absätzen über das hinaus, was Du am Stück lesen und verstehen kannst?

Jedenfalls gehörst Du mal wieder zu den Leuten, bei denen ich gut nachvollziehen kann, dass sie sich nicht registrieren bzw. sich ausloggen.

Schlammsau
2008-05-07, 15:47:07
das bringt doch nichts....ihr seit zu verbohrt um nur ein klein wenig Kritik anzunehmen!
Der VRAM Bug ist existent! Da hilft kein gelaber, wie "das ist Architekturbedingt" oder "nVidia Karten brauchen nunmal mehr Speicher, etc.....

Mittlerweile wissen es viele und auch ein grosser Teil hat sich seine Meinung darüber gebildet! Da ist es egal ob sich hier ein paar Freaks noch dagegen wehren!
Und dies war definitiv mein letzter Post in diesem Thread!

Hvoralek
2008-05-07, 16:12:23
das bringt doch nichts....ihr seit zu verbohrt um nur ein klein wenig Kritik anzunehmen!Wenn die "Kritik" so aussieht wie die des letzten Gastes oder von LoveSuckZ, stimmt das für mich wohl. Mit solchem unbegründeten "Ich habe recht und alle, die etwas anderes sagen, lügen!!!11111einelf"- Krakeele kann ich nichts anfangen, weder in der einen, noch in der anderen Richtung.

Der VRAM Bug ist existent! Da hilft kein gelaber, wie "das ist Architekturbedingt" oder "nVidia Karten brauchen nunmal mehr Speicher, etc.....Ich habe schon oft genug gesagt, dass er m.E. nicht zweifelsfrei erwiesen ist, und natürlich erst recht nicht widerlegt. Wenn Du und andere an einen Beweis nur die Anforderung stellen, dass es irgendwie so scheinen muss, als sei es wohl so, dann tut das (Und sofern Ihr Statiker, Strafrichter o.ä. seid, stellt Ihr hoffentlich sonst strengere Anforderungen an einen Beweis). Ich habe mehrfach darauf hingewiesen, was für Messungen m.E. erforderlich wären, um klare Aussagen zu dem Thema treffen zu können. Solange es die nicht gibt oder jemand mich überzeugt, dass auch die vorhandenen Ergebnisse den Bug klar als reines G8x- Problem beweisen, muss ich dabei bleiben: Es ist gut möglich, dass das ein Problem mit G8x ist, aber weder eindeutig be- noch widerlegt.

Wenn Du für Dich entschieden hast, dass Dir die "Beweise", die es gibt, ausreichen, und jeder, der das anders sieht, ein verblendeter Nvidia- Anhänger sein muss und ohnehin nur Stuss redet, kann man daran wohl nichts ändern. Das mag jetzt unhöflich klingen, aber dann wäre es vlt. wirklich sinnvoller, wenn Du Dich hier heraushältst. Es gibt auch gewisse andere Leute, die für sich - aus Überzeugung oder um ihres Weltbildes willen - entschieden haben, welches Ergebnis sie für richtig halten, und das nicht mehr hinterfragen. Auch die können von mir aus gerne einfach die Schnauze halten. Dann wäre es hier zwar ziemlich still, aber dieses gegenseitige Beschimpfe bringt niemandem wirklich etwas. Und vlt. hat ja doch noch jemand etwas zum Thema beizutragen; ich hoffe da v.a. auf y33H@. Oder vlt. nimmt sich ja wirklich noch einmal eine der großen Seiten des Themas an.

Grestorn
2008-05-07, 16:40:25
Man glaubt halt was man glauben will.

Vor allem wenn man eigentlich nicht versteht wie alles tatsächlich funktioniert. Dann ist der Glaube das einzige, was einem bleibt.

So funktionieren auch alle Religionen auf der Welt.

Picknatari
2008-05-07, 17:19:25
Fiele mein Beobachtung, daß, wenn ich HdRO zocke (mit HiRes Texturen), manchmal fiese Mikroruckler habe, obwohl mir über 50fps angezeigt werden, unter diesen Bug (oder Nicht-Bug)? Das Witzige ist, daß ein andermal an der selbe Stelle gleiche Framezahlen angezeigt werden, jedoch diese Mikroruckler nicht vorhanden sind. Nebenbei verschwinden diese Ruckler ganz, wenn ich auf HiRes Texturen verzichte.

Anm.: ich hab ne 8800GT mirt den 174.4 und dies gilt sowohl für VISTA64 und als auch XP

Unyu
2008-05-07, 17:49:22
Der Bug oder wie auch immer du es nennen willst ist da und fertig und es liegt an der Hardware.
das bringt doch nichts....ihr seit zu verbohrt um nur ein klein wenig Kritik anzunehmen!
Der VRAM Bug ist existent!
Ohne Beweis kein Bug.
Da könnte ja jeder kommen und den Karten alle möglichen Bugs andichten, um am Ende kein Beweis liefern zu müssen und zu tun als ob man Recht hätte.

Und dies war definitiv mein letzter Post in diesem Thread!
Das bezweifel ich doch sehr.

Fiele mein Beobachtung, daß, wenn ich HdRO zocke (mit HiRes Texturen), manchmal fiese Mikroruckler habe, obwohl mir über 50fps angezeigt werden, unter diesen Bug (oder Nicht-Bug)?
Nein.
Das sind Nachladeruckler, VRAM Verbrauch angucken.

Picknatari
2008-05-07, 18:01:55
Nein. Das sind Nachladeruckler, VRAM Verbrauch angucken.

Also, falls für uns Microruckler das gleiche sind, wäre Dir beim Lesen und Verstehen meines Beitrages das "Nein" nicht so leicht über die Lippen gekommen. Mit Microruckler meine ich, dass permanent ein leichtes Stottern in der Darstellung zu sehen ist, also ein Vorgang über Zeit. Wenn man einmal in einem Gebiet sich dreht und bewegt hat man alle Texturen und ich denke nicht, daß 5min Texturen nachgeladen werden, auch wenns nix mehr zu laden gibt.

Unyu
2008-05-07, 18:12:54
Mit Microruckler meine ich, dass permanent ein leichtes Stottern in der Darstellung zu sehen ist, also ein Vorgang über Zeit.
Dann mess doch einfach mal den VRAM Verbrauch.

MikBach
2008-05-07, 20:34:54
@Grestorn

ob das jetzt ein Problem der Hardware oder der Software (Treiber) ist, wäre es doch trotzdem ein "Bug", wenn dieses Verhalten mit anderer Hardware so nicht auftritt, oder meinst du nicht?

Grestorn
2008-05-07, 20:44:29
Welche "andere Hardware"?

Wenn Du ATI meinst:

Hat der Athlon 64 etwa auch einen Bug, weil er bei gleicher Taktzahl weniger Leistung bringt wie ein Core 2 Duo?

MikBach
2008-05-07, 21:08:57
Welche "andere Hardware"?

Wenn Du ATI meinst:

Hat der Athlon 64 etwa auch einen Bug, weil er bei gleicher Taktzahl weniger Leistung bringt wie ein Core 2 Duo?
Schlechter Vergleich wie ich finde.
Hättest du geschrieben:
Hätte der Athlon 64 etwa auch einen Bug, wenn er bei gleicher Menge an Speicher (RAM) in nachweisbar speicherlimiterten Settings/Szenen deutlich weniger Leistung wie ein Core 2 Duo bringt?

Dann würde ich sagen, ja.

Unyu
2008-05-07, 21:14:36
Ja der A64 X2 hat 2x 2x 64KiB L1 Cache, der C2D nur die Hälfte.
Ist der A64 X2 jetzt verbugt, wenn er trotzdem lahmer ist?

Grestorn
2008-05-07, 21:17:23
Warum ist RAM als Leistungsfaktor anders zu bewerten als die Taktfrequenz?

MikBach
2008-05-07, 21:25:11
Warum ist RAM als Leistungsfaktor anders zu bewerten als die Taktfrequenz?
Die Frage ist jetzt nicht dein Ernst oder?
Sorry Grestorn, aber solche blöden Fragen kannst du irgendwelchen Noobs stellen.

RAM ist einheitlich, zumindest wenn du die gleiche RAM-Menge und -Chips nimmst. Wobei uns ja hier eigentlich nur die Menge interessiert.

Bei verschiedenen Architekturen kann man die Taktfrequenzen meistens nicht miteinander vergleichen. War auch beim P4 und und A64 so.

Edit:
@Unyu
wir reden hier vom RAM-Speicher.
Den Cache (on die) zähle ich mit zur Architektur der CPU.

Grestorn
2008-05-07, 21:39:43
Die Frage ist jetzt nicht dein Ernst oder?
Sorry Grestorn, aber solche blöden Fragen kannst du irgendwelchen Noobs stellen.

RAM ist einheitlich, zumindest wenn du die gleiche RAM-Menge und -Chips nimmst. Wobei uns ja hier eigentlich nur die Menge interessiert.

Bei verschiedenen Architekturen kann man die Taktfrequenzen meistens nicht miteinander vergleichen. War auch beim P4 und und A64 so.

Nö, das ist keine blöde Frage. Verschiedene Archtitekturen nutzen auch das vorhandene RAM unterschiedlich effizient. Das war auch bei Grafikkarten schon immer so - Kompression, AA-Methodik usw.

Bei anderen Geräten ist das ganz selbstverständlich. 64bit Architekturen brauchen mehr RAM als 32bit. WinMobile braucht mehr als PalmOS. Es gibt unendlich viele Beispiele.

Ich kann echt nicht nachvollziehen, wieso man Taktraten nicht vergleichen darf, RAM Ausbau aber schon.

Es ist selbstverständlich ein echter Pluspunkt für ATI dass sie besser mit der Ressource VRAM umgeht. Das war immer schon so und ist jetzt wohl noch ausgeprägter. D.h. man kann z.B. eine 512 MB ATI Karte leistungsmäßig in etwa mit einer 768 MB nV Karte vergleichen - wenn man mal alles andere außer Acht lässt.

Unyu
2008-05-07, 21:39:58
RAM ist einheitlich
Nicht bei GPUs, wo am Ende das Renderergebnis nicht gleich ist.


wir reden hier vom RAM-Speicher.
Den Cache (on die) zähle ich mit zur Architektur der CPU.
Den VRAM kann man auch mit zur Architektur zählen.

MikBach
2008-05-07, 21:49:13
Nö, das ist keine blöde Frage. Verschiedene Archtitekturen nutzen auch das vorhandene RAM unterschiedlich effizient. Das war auch bei Grafikkarten schon immer so - Kompression, AA-Methodik usw.
Da hast du recht, mein Vergleich war an denien Vergleich mit den CPUs angelehnt.

Bei anderen Geräten ist das ganz selbstverständlich. 64bit Architekturen brauchen mehr RAM als 32bit. WinMobile braucht mehr als PalmOS. Es gibt unendlich viele Beispiele.
Klar, wobei hier auch andere Faktoren wie das OS eine Rolle spielen, also nicht wirklich vergleichbar, IMHO.

Ich kann echt nicht nachvollziehen, wieso man Taktraten nicht vergleichen darf, RAM Ausbau aber schon.
Kann man schon, keine Frage.
Nur haben die Unterschiede bei der Architektur bedeutend grösseren Einfluss, als dies beim Speicher der Fall ist, vor allem wenns "nur" um die Menge geht.

MikBach
2008-05-07, 21:52:40
Nicht bei GPUs, wo am Ende das Renderergebnis nicht gleich ist.
Kannst du das mal ein wenig weiter ausführen?
Stehe gerade auf dem Schlauch, was du damit überhaupt sagen willst. :confused:

Den VRAM kann man auch mit zur Architektur zählen.
Das wäre dann aber schon etwas abstrakt.
Wie die GPU den V-RAM verwaltet, das ist architekturbedingt.
Der V-Ram selbst an sich nicht.

Unyu
2008-05-07, 21:55:58
Kannst du das mal ein wenig weiter ausführen?
Stehe gerade auf dem Schlauch, was du damit überhaupt sagen willst. :confused:
Bei verschiedenen CPUs sollte das Rechenergebnis gleich sein.
Bei verschiedenen GPUs ist das Renderergebnis nicht gleich.

Wie die GPU den V-RAM verwaltet, das ist architekturbedingt.
Also zieht der CPU RAM Verbrauchsvergleich nicht.

MikBach
2008-05-07, 22:06:16
Bei verschiedenen CPUs sollte das Rechenergebnis gleich sein.
Bei verschiedenen GPUs ist das Renderergebnis nicht gleich.
Verstehe immer noch nicht worauf di hinaus willst.
Warum soll das Renderergebnis nicht gleich sein? Und was meinst du damit?

Also zieht der CPU RAM Verbrauchsvergleich nicht.
Doch, siehe z.B integrierter Speichercontroller.

BTW könntest du dich ein wenig präziser fassen, damit man nicht raten muss, was du eigentlich meinst?
Manchmal ist weniger zwar mehr, aber hier wäre ein wenig mehr erklärender Text von dir nicht verkehrt.

Unyu
2008-05-07, 22:12:13
Warum soll das Renderergebnis nicht gleich sein? Und was meinst du damit?

Hä?
Schon mal die Bildqualität verglichen?
Schon mal das AF verglichen?
Das ist definitiv nicht gleich!

Doch, siehe z.B integrierter Speichercontroller.
Hat der C2D nicht.

MikBach
2008-05-07, 22:23:35
Hä?
Schon mal die Bildqualität verglichen?
Schon mal das AF verglichen?
Das ist definitiv nicht gleich!
Du sprichst jetzt aber über Filter und nicht über das Rendering an sich, was meinst du nun?

Hat der C2D nicht.
Und was willst du mir jetzt damit sagen? Oder inwieweit wiederlegt es meine These?

Wie gesagt, schreib immer auch die Erklärung dazu, was du meinst, oder worauf du abzielst, ich habe keine Lust zu raten, was du gerade meinst.

darkcrawler
2008-05-08, 01:20:10
Es hat ja keiner je bestritten (auch nicht der von mir zitierte "Kontakt"), dass die G8x/G9x mehr Speicher braucht als andere Chips.

Das ist aber deswegen immer noch kein Bug. Oder was verstehst Du bitte unter dem Begriff Bug?

its not a bug, its a feature

wie schon vor einigen seiten gesagt, wo doch glatt jemand die "tolle skalierung" mit dem v-ram von nv als super sache bezeichnet ;D


Komische Definition hast Du von einem Bug, genauso niveauvoll wie Deine Sprache.

Ein Bug sagt man übrigens, wenn ein technisches Gerät nicht so funktioniert wie sich der Designer/Techniker das vorgestellt hat, eben ein ungewolltes und damit fehlerhaftes Verhalten

noch so einer:confused:, in deiner aussage steckt somit: alles so gewollt, G80 und ff. "drosseln" also absichtlich, kuhl :cool:

Dein Gelaber interessiert auch nicht, da du keine Argumente liefern kannst.

leider 0 gummipunkte, schlammsau hat dazu schon selbst was vermessen und hier präsentiert, was du im gegenzug vermutlich nicht von dir behaupten kannst

Ohne Beweis kein Bug.
Da könnte ja jeder kommen und den Karten alle möglichen Bugs andichten, um am Ende kein Beweis liefern zu müssen und zu tun als ob man Recht hätte.



schon 100x hier gepostet

ati 512mb 100%, ati 256mb 90%
nv 512mb 100% nv 256mb 25%

in der gleichen szene, moment, ich schreibs nochmal extra fett, (wurde ja schliesslich erst n -> oo mal hier gepostet, in diversen setting, games und von verschiedenen seiten), aber wird ja hier ignorant ignoriert

aber nee: is ja normal, der karte geht ja der vram aus, da ist der fps-keller ja normal und jetz verklicker mir doch mal, warum die ati, die ebenfalls swappen muss, diesen bug eeehrm feature nicht in dem ausmass, sondern in altgedienter form (d.h. vram-verdoppelung bringt spürbar nix) hat

ist imho einfach lächerlich da frech zu behaupten, da wäre nix verbesserungswürdig

Welche "andere Hardware"?

Wenn Du ATI meinst:

Hat der Athlon 64 etwa auch einen Bug, weil er bei gleicher Taktzahl weniger Leistung bringt wie ein Core 2 Duo?

wenn du schon mit äpfel und birnen kommst:
wie, nach _deiner_ angeführten logik, kommts, dass die weniger performante ati plötzlich mal locker um den faktor 2 (und durchaus weit darüber) schneller ist

dann wäre der a64 (der ja im nachteil ist) plötzlich auch 100% schneller als der c2d, nech ;)

Hvoralek
2008-05-08, 11:16:29
leider 0 gummipunkte, schlammsau hat dazu schon selbst was vermessen und hier präsentiert, was du im gegenzug vermutlich nicht von dir behaupten kannstSchlammsau hat etwas ausgemessen, allerdings ohne große Aussagekraft. Erstens hat er eine 384- mit einer 512- MiB- Karte vergleichen und zweitens fehlt der VRAM- Verlauf. Ich verweise noch einmal auf meine Ausführungen, welche Messungen für einen Beweis m.E. erforderlich wären. Alles darunter sind bloße Anhaltspunkte. Natürlich liegt die Vermutung nahe, dass mit dem Speichermanagement auf G8x einiges nicht stimmt und dadurch u.a. der VRAM in bestimmten Fällen vollläuft. Bewiesen hat das aber bisher niemand. Auch nicht Schlammsau.

schon 100x hier gepostet

ati 512mb 100%, ati 256mb 90%
nv 512mb 100% nv 256mb 25%Das sind die Einbrüche bei gleichen Einstellungen? Wenn Du schon konkrete Zahlen nennst, wäre es schön, zu verlinken, worauf genau Du Dich beziehst.

Wie schon sonstwie oft gesagt: G8x braucht insgesamt meist mehr Speicher, muss also in den gleichen Einstellungen mehr auslagern. Dann müssen auch mehr Daten über den PCIe- Bus gequetscht werden, sodass natürlich die Leistungsverluste höher sind.

Seltsam wäre es, wenn bei Auslagerung der gleichen Daten die Einbrüche bei G8x signifikant höher wären. Und mit dem eigentlichen VRAM- Bug (Volllaufen des Speichers) hat das immer noch nichts zu tun.

Unyu
2008-05-08, 14:04:40
Du sprichst jetzt aber über Filter und nicht über das Rendering an sich, was meinst du nun?
Ergebnis bedeutet für mich: Das was am Bildschirm angezeigt wird. Ganz einfach. Das ist bei NV besser. Also sind die Karten nicht direkt vergleichbar.


schon 100x hier gepostet

ati 512mb 100%, ati 256mb 90%
nv 512mb 100% nv 256mb 25%
Wie oft den noch?
Die nv Karte belegt mehr VRAM, ist dafür schneller und die Bildqualität höher.

Du versuchst jetzt den Umstand von zu wenig VRAM als Bug zu bezeichnen.

btw Link?

darkcrawler
2008-05-08, 14:50:21
"ist dafür schneller"- nee isse eben nich, wenn sie per v-ram mangel absäuft


die links wurden hier, wie schon mehrfach gesagt, schon x-mal gepostet und wieder und wieder wird danach gefragt, das ist mir imho jetzt zu blöd was zu posten, nach dem dann wieder gefragt wird :frown: (ich wiederhol mich schon wieder)

das g8/9 grundsätzlich etwas mehr benötigen ist schon klar (fällt aber eher in den bereich messfehler), die sache ist nur, wie sie damit umgehen (die ati muss schliesslich auch swappen, oder nich?)

Unyu
2008-05-08, 15:17:37
"ist dafür schneller"- nee isse eben nich, wenn sie per v-ram mangel absäuft

Ja in unspielbaren Settings, wie schon geschrieben: zu wenig VRAM ist kein Bug.


die links wurden hier, wie schon mehrfach gesagt, schon x-mal gepostet

Ich weiß.
Keiner davon hat sich als Beweiß behaupten können. Deshalb wird weiter nach echten Beweißen verlangt.
So etwas wie Crysis, von mehreren Usern bestätigt und reproduzierbar in spielbaren Settings bei anderen Spielen.

die ati muss schliesslich auch swappen, oder nich?

Ja, aber weniger, weil sie eben weniger belegt.
Und solange du hier Karten mit verschiedener Bildqualität vergleichst ist das ein Apfel - Birne Vergleich.
Rockt die AMD Karte mit AI-off immer noch in unspielbaren Frameraten?

Gast
2008-05-08, 15:28:26
Lustig wie hier einige FB das Problem versuchen runter zu reden ;D NV hat es in über 2Jahren nicht gebacken bekommen die fehler zu fixen ...das ist peinlich³ :P

Hvoralek
2008-05-08, 15:41:21
die links wurden hier, wie schon mehrfach gesagt, schon x-mal gepostet und wieder und wieder wird danach gefragt, das ist mir imho jetzt zu blöd was zu posten, nach dem dann wieder gefragt wird :frown: (ich wiederhol mich schon wieder)Dass G8x bei gleichen Einstellungen z.T. stärker wegen VRAM- Mangel einbrechen, ist unstreitig. Deswegen nur als Randnotiz:
Ich habe jetzt einmal selbst gesucht, was gemeint sein könnte (und nein, ich habe keine Lust, den gesamten Thread zu durchwühlen). Ich nehme an, dass die Zahlen aus dem CB- Artikel zu dem Thema stammen, also habe ich den noch einmal durchgesehen. Eine Stelle, an der die 256- MiB- 3850 90% der 512er- Leistung liefert, die 256- MiB- GT aber nur 25% "ihrer" 512er- Leistung, habe ich auf die Schnelle nicht gefunden. Werte in der Größenordnung liefert allerdings (aber auch ausschließlich) UT3 in höheren Auflösungen mit AA oder mit 8xAA. Meintest Du die?

das g8/9 grundsätzlich etwas mehr benötigen ist schon klar (fällt aber eher in den bereich messfehler), die sache ist nur, wie sie damit umgehen (die ati muss schliesslich auch swappen, oder nich?)Wenn die AMD- Karte weniger Speicher braucht, muss sie auch weniger auslagern. Damit müssen weniger Daten über den PCIe- Bus und es gibt geringere Leistungseinbrüche. PCIe schafft 4 GiB/s, die ohne Leistungsverluste möglich sind. Darüber kommt man ganz schnell in richtig üble Bereiche. Ich sehe da einen ganz logischen Zusammenhang zwischen dem höheren VRAM- Bedarf von G8x und stärkeren Einbrüchen, wenn selbst dem sparsameren R6xx der VRAM ausgeht. Ob die starken Einbrüche auch noch eine andere Ursache haben, könnten nur Messungen zeigen, bei denen genau die gleichen Daten ausgelagert werden müssen. Einen Zusammenhang zum VRAM- Bug (Volllaufen des Speichers) sehe ich aber immer noch nicht.

Lustig wie hier einige FB das Problem versuchen runter zu reden ;D NV hat es in über 2Jahren nicht gebacken bekommen die fehler zu fixen ...das ist peinlich³ :PWenn das Volllaufen tatsächlich an der Hardware oder am Treiber liegt, ist es peinlich. Und nein, ich finde das Verhalten von Fanboys beider Seiten, die entweder felsenfest behaupten, es gebe den Bug, oder, es geben ihn nicht, langsam nicht mehr lustig, sondern einfach nur nervig :rolleyes:

LovesuckZ
2008-05-08, 15:50:13
Und woran schätzt du, liegt das Problem?
Denn dein "Vram-Bug" müsste in jeder Anwendung auftreten - aber darauf nimmst du irgendwie keinen Bezug...

gamingforce
2008-05-08, 15:55:31
mein Gott der Thread ist ewig lang, aber anstatt mal einer das problem in Angriff nimmt und mal selber Bencht und das ermittelt:rolleyes:

Den VRAm Bug bekommt man bei DIRT zB nach 5 sec. Fahren zu spühren das Game knallt den VRAM von der GTX total voll (8800GTS 512Mb genauso bloss noch schlimmer) und fängt sofort an zu ruckeln.
Ne HD 3870512 Mb brauch nur 340 Mb bei selben Settings und renn ttptal flüssig ohen drops oder extreme einbrüche und das ist fpr MICH ein BUG.

gleiches bei CoH, CoJ, Crysis, Gothic 3, Assassins Creed, TDU.

Bei TDU kann man schon gerade aus fahren und ruckelt wie Sau, fährt man den gleiche weg zurück ist alles flüssig bieg ich ab wo ich noch nicht war bumm richtig fettes geruckel bis hin sogar dass das Bild stehen belibt usw.

Mr.Magic
2008-05-08, 15:59:34
Dann liegt das an deinem System.

Meine GTX hatte mit DiRT keinerlei Probleme - auch nicht bei Sessions von 2-3 Stunden.

ps: Gleiches gilt für TDU. Da gibt es nur ganz selten mal ein kurzes Nachladezucken (Gegnerspawning).

gamingforce
2008-05-08, 16:01:58
gut ich hab keine GTX mehr, ist schon ne ganze weile her kann sein das es besser geworden ist und bei ner GTX ist das auch nicht so schlimm wie bei ner 8800GTS 512 MB.

Aber ich kann man ein Video machen davon da komtm einem das Kotzen bei TDU ist es ganz extrem.

Frag mal HISN, der ist von ner Ultra auf die 9800GX2 gewechselt und ist am kotzen und das richtig derbe da VRAM ist so schnell voll und wenn er voll ist dann ist es unspielbar obwohl der Chip genu g Power hat für das game aber halt kein VRAM mehr da.

Ist bei mir genauso, ich hab 8800GTS 512 Mb SLI, wenn ich merke das er voll wird (bei Crysis) switch ich auf den Desktop und alles rennt wieder perfekt bis er wieder voll ist.

Ob es nun ein BUG ist oder einfach nur schlechte Karten ist ja erstma egal, fakt ist ATI macht das besser.

Mr.Magic
2008-05-08, 16:11:57
TDU benötigt bei 1600x1200|4xAA|16xAF bei mir ~600MB vRAM. Das sollte dank PCIe auch mit einer 512MB-Karte problemlos laufen.
Unter Vista habe ich nur mit 158er und den aktuellsten Treibern gespielt. Mit den 158ern lief es tatsächlich ein wenig unrund, war aber weit weg von unspielbar. Außerdem, wen interessiert schon Vista...

Crysis habe ich fast am Stück durchgespielt. Einmal trat ein Memory Leak auf, der durch Spielneustart behoben wurde. Ansonsten lief es problemlos, wenn auch nur mit 20-30FPS (Vista - Maxed Settings - 1280x720).

gamingforce
2008-05-08, 16:19:20
Mich Interessiert Vista 64 Bit:

-ich meine 8GB RAM brauch
-kein Augekrebs bekommen will
-Hybrid SLI nur im Vista geht (komm bald)
-ich DX10 will
-alles viel besser und schneller läuft (mal von er SLi Geschichte abgesehen)

bloss weil du es nicht willst (und andere auch) heisst das nicht das es alle nicht wollen, wenn SLI nicht so gut läuft im Vista dann soll Nvidia nicht auf den karton ein Vista Logo klatschen ganz einfach.

Crossfire machts vor, da läuft es genau anders herum XP crap>> Visza hui , SLI Vista crap>>XP hui ;)

Und du sagts es brauch 600 MB VRAM, ist ja toll dein VRAM ist ja noch nicht voll wenn du ne GTX hast, Spiel das mal mit ner 512 Mb Karte dann bekommst nen schlag in die fresse ;)

Gast
2008-05-08, 16:21:47
Crysis habe ich fast am Stück durchgespielt. Einmal trat ein Memory Leak auf, der durch Spielneustart behoben wurde. Ansonsten lief es problemlos, wenn auch nur mit 20-30FPS (Vista - Maxed Settings - 1280x720).

Hatte ich auch, das lag aber am Patch...

ein anderer Gast
2008-05-08, 16:33:57
Denn dein "Vram-Bug" müsste in jeder Anwendung auftreten

Ist vollig Hupe ob man das Problem "Vram-Bug" nennt oder oder die Graka geht der Vram aus.

Fakt ist das es eine erhebliche beeinträchtigung des Spielspaßes bedeutet wenn wenn nach gewisser Zeit die FPS einbrechen (ist ja von Game zu Game unterschiedlich und auch Setting abhänig).

Und NV kümmert sich einen dreck :( drum

Gast
2008-05-08, 16:34:55
Ergebnis bedeutet für mich: Das was am Bildschirm angezeigt wird. Ganz einfach. Das ist bei NV besser. Also sind die Karten nicht direkt vergleichbar.

Sag mal, willst du mich verarbern?
Oder hast du wirklich keine Ahnung von dem, was du schreibst:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6486811&postcount=1049

Wer hat den hier was vom Rendering geschrieben?

Und vergleichbar sind AMD und Nvidia in der Tat nicht. Mal sieht es bei dem einem besser aus, mal bei dem anderen. In AC z.B. sind im D3d10.1- Modus die AMD-Karten deutlich überlegen bei der BQ, da im D3D10.0-Modus AA nicht richtig funktioniert.
Generell ist bei D3d10.0 das AA problematisch. 10.1 ist hier eine wirkliche Abhilfe. Nur bietet es NV nicht an.
Also wenn schon über BQ reden, dann nicht nur einen Teil betrachten.

Ausserdem verstehst du es durch dein Unwissen und die damit verbundenen Erklärungen ein Thema absolut OT zu machen.

Also entweder postest du technisch korrekt, oder lass es einfach sein.
EOD.

MikBach
2008-05-08, 16:35:33
Post darüber ist von mir.

gbm31
2008-05-08, 16:37:31
Den VRAm Bug bekommt man bei DIRT zB nach 5 sec. Fahren zu spühren das Game knallt den VRAM von der GTX total voll (8800GTS 512Mb genauso bloss noch schlimmer) und fängt sofort an zu ruckeln.


genau das kann ich z.b. nicht nachvollziehen - ich bin jetzt fast durch im karrieremodus, 1280x1024, alle settings auf max.

jede session dauert minimum ne stunde - 5sec, da wär ich ja schon am ersten abend nach gts-einbau hier am kotzen gewesen...


die einzigen unterschiede zur 3850 512: es läuft spürbar schneller und ich werde nicht in unregelmäßigen abständen mit der meldung, daß der grafiktreiber zurückgesetzt werden musste, auf den desktop zurückgeholt (bekannter bug).

LovesuckZ
2008-05-08, 16:39:38
Ist vollig Hupe ob man das Problem "Vram-Bug" nennt oder oder die Graka geht der Vram aus.

Geht jeder Grafikkarte irgendwann.


Fakt ist das es eine erhebliche beeinträchtigung des Spielspaßes bedeutet wenn wenn nach gewisser Zeit die FPS einbrechen (ist ja von Game zu Game unterschiedlich und auch Setting abhänig).

Trifft nicht zu.


Und NV kümmert sich einen dreck :( drum

Wieder falsch.

In AC z.B. sind im D3d10.1- Modus die AMD-Karten deutlich überlegen bei der BQ, da im D3D10.0-Modus AA nicht richtig funktioniert.
Generell ist bei D3d10.0 das AA problematisch. 10.1 ist hier eine wirkliche Abhilfe. Nur bietet es NV nicht an.
Also wenn schon über BQ reden, dann nicht nur einen Teil betrachten.

Zwei fehler in einem:
Weder funktioniert das AA unter 10.1 besser* noch bieten sie die bessere Bildqualität - ja, auch der ansiotrope Filter zählt zur Bildverbesserung dazu.


Also entweder postest du technisch korrekt, oder lass es einfach sein.
EOD.

Wieso? Du schreibst doch auch noch in diesem Forum. :|

*http://www.hardocp.com/article.html?art=MTQ5Myw3LCxoZW50aHVzaWFzdA==

Odal
2008-05-08, 16:42:30
ich weiß nicht aber crysis als vram bug beispiel kann ich irgendwie nicht so richtig akzeptieren...

mein RV670 der 3850 läuft ja nun schon "etwas" über Spezifikation aber in Crysis muß ich zugeben das meine 88GT um Welten schneller ist....man kann sogar fast sagen das nicht soooviel fehlt das es flüssig spielbar ist...
Die Erfahrungen beruhen allerdingsn nur auf 2-3 Stunden Crysis am Stück gestern....
aber in der Zeit konnte ich keine wirkliche Anomalie hinsichtlich Leistungseinbrüchen feststellen...nur das meine ausgequetschte 3850@960Mhz von der 88GT @756/1836Mhz regelrecht deklassifiziert wird

aber Crysis liegt den NV Karten ja auch deutlich besser wie wir alle wissen.

Gast
2008-05-08, 17:01:21
genau das kann ich z.b. nicht nachvollziehen - ich bin jetzt fast durch im karrieremodus, 1280x1024, alle settings auf max.


1280x1024 :rolleyes:






Trifft nicht zu.



Trübt nicht den Spielspass wenn ich raustaben muß oder das Game neustarten muß wenn ich Frameeinbrüche wegen vollem Vram hab? Naja jeder hat halt eine andere Meinung...



aber Crysis liegt den NV Karten ja auch deutlich besser wie wir alle wissen.

Deutlich?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412382

Mr.Magic
2008-05-08, 17:01:56
Hatte ich auch, das lag aber am Patch...

Was lag am Patch?

Ich habe es am Releasewochenende durchgespielt, dann gab ich es zurück.

Gast
2008-05-08, 17:06:21
aber Crysis liegt den NV Karten ja auch deutlich besser wie wir alle wissen.

nochmal ich Deutlich? 88GT vs. 3870

2-3 FPS

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis

MikBach
2008-05-08, 17:08:18
Zwei fehler in einem:
Weder funktioniert das AA unter 10.1 besser* noch bieten sie die bessere Bildqualität
Doch:
http://www.pcgameshardware.de/aid,640754/Test/Benchmark/Assassins_Creed_D3D-101-Modus_im_PCGH-Praxistest/&page=1

"Optik-Vergleich
Der D3D-10.1-Modus lässt den Entwicklern mehr Spielraum bei der Kantenglättung und ermöglicht zusätzlich spezielle Berechnungen. Wie Rage3D schon berichteten, verbessert sich bei gleichzeitiger Nutzung des Service Pack 1 und einer HD3870 die Optik im DX10-Modus von Assassin's Creed deutlich. Während ohne Service Pack 1 bei aktivierter Kantenglättung kein Unterschied zwischen der Geforce und der Radeon zu erkennen ist, offenbaren sich nach dessen Installation sichtbare Unterschiede.

So bleibt die Optik mit der 8800 GT weiterhin pixelig und flimmerig, die Radeon dagegen glättet das komplette Bild nahezu vollständig. Besonders solche Kanten, welche sich während dem Spielen negativ bemerkbar machen, beispielsweise Holzbalken oder Bretter, werden nun erfasst und Assassin's Creed wirkt gleich viel atmosphärischer. "

PS 10.1 gibts erst mit dem Service Pack 1, damit keine Fragen aufkommen.

LovesuckZ
2008-05-08, 17:10:52
Ich sehe dort keine Bilder einer Geforce Karte*. Ich sehe auch keine Bilder von AA unter 10.0.
Ich denke, da ist Hardocp wesentlich glaubwürdiger, denn sie zeigen deutlich mehr Bilder aus dem Spiel.

* Dort ist nur das Marketingbild. Und anscheinend ist es der einzige Bereich, wo das AA besser aussieht.

MikBach
2008-05-08, 17:32:31
Ich sehe auch keine Bilder von AA unter 10.0.
Ich denke, da ist Hardocp wesentlich glaubwürdiger, denn sie zeigen deutlich mehr Bilder aus dem Spiel.

Hast du Tomaten auf den Augen?
Auch bei HardOCP sieht man, dass unter SP1 die 3870er (10.1) die Kanten glättet, die 9800GTX (10.0) nicht.

3870er:
http://www.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN18xX2wucG5n
9800GTX:
http://www.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN18yX2wucG5n

Zum Thema AA unter 10.0 und 10.1 hat ja robbitop einen Beitrag verfasst, der es auf den Punkt bringt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6478141&postcount=878

"Crysis und AA ist das gleiche leidige Thema wie alle heutigen Spiele. MSAA geht nur mit irgendwelchen Hacks und darunter leidet die BQ.
Crysis nutzt einen Z-First-Pass. Und bedingt durch irgendwelche R2T Spielereien und den Z-First-Pass bekommt man nur einen gemittelten Z-Wert für alle MS-Samples pro Pixel. Dass das AA dann "falsch" aussieht, ist eine klare Konsequenz.
Und wie immer würde eine anständige D3D10.1 Implementation dem Spuk ein Ende bereiten.

Ober ist hier sicherlich OT, da dies nichts mit dem V-RAM-Bug zu tun hat. ;D

gamingforce
2008-05-08, 17:40:11
genau das kann ich z.b. nicht nachvollziehen - ich bin jetzt fast durch im karrieremodus, 1280x1024, alle settings auf max.



ich glaub wir Spielen beide in ner ander Auflösung, das es bei 1280x1024 nicht passiert ist klar.
Diese Auflösung war Standard als ein 17" luxus war ;)
heute geht nix mehr unter 1920x1200 4xAA 16xAF für mich und davon rede ich, ich hab doch kein SLi für 1280x1024 ;D

Thema AC und AA: als ich die X2 hatte war das AA PERFEKT, es gab keine Kante die nicht geglättet war das bekommt NV mit DX10 nicht hin das ist fakt und hab es auch selber gesehen.
Udn find eher zum kotzen das NV das nicht anbieten tut, von wegen fehlender Renderpass oder sowas ich lach mich gleich schlapp, NV konnte nicht sehen das ATI was hat was sie nicht haben.

LovesuckZ
2008-05-08, 17:48:32
Hast du Tomaten auf den Augen?
Auch bei HardOCP sieht man, dass unter SP1 die 3870er (10.1) die Kanten glättet, die 9800GTX (10.0) nicht.

3870er:
http://www.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN18xX2wucG5n
9800GTX:
http://www.hardocp.com/image.html?image=MTIwOTMyNzEzNkxiVDRZd2YyaWJfN18yX2wucG5n


Okay, du hast schon wieder das Marketingbild herausgesucht. Zeige mir diese Unterschiede in einem der anderen Bilder.


Zum Thema AA unter 10.0 und 10.1 hat ja robbitop einen Beitrag verfasst, der es auf den Punkt bringt.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6478141&postcount=878

"Crysis und AA ist das gleiche leidige Thema wie alle heutigen Spiele. MSAA geht nur mit irgendwelchen Hacks und darunter leidet die BQ.
Crysis nutzt einen Z-First-Pass. Und bedingt durch irgendwelche R2T Spielereien und den Z-First-Pass bekommt man nur einen gemittelten Z-Wert für alle MS-Samples pro Pixel. Dass das AA dann "falsch" aussieht, ist eine klare Konsequenz.
Und wie immer würde eine anständige D3D10.1 Implementation dem Spuk ein Ende bereiten.

Schön, dass er es schreibt. Ändert nur nichts an der Tatsache, dass es unter AC mit 10.1 nur in einem Fall zu bildchen unterschieden kommt.


Ober ist hier sicherlich OT, da dies nichts mit dem V-RAM-Bug zu tun hat. ;D

Wenn kein Mod deine falschen Behauptungen entkräftet, muss dies durch ein user entstehen.

Odal
2008-05-08, 18:03:42
nochmal ich Deutlich? 88GT vs. 3870

2-3 FPS

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis


Jung, ich bin weder "grün" noch "rot" und besitze beide GPUs
der RV670 ist kein schlechter Chip aber in Crysis hat meine 3850 @960Mhz nix zu melden gegen die 88GT @756Mhz

ich weiß schon wovon ich spreche da ich beides im Rechner hatte/habe

und prozentual ist der Takt meiner 3850 genauso über dem einer 3870 wie es der Takt der 88GT über Standard ist

ich meine das ich das schon gut vermag zu beurteilen

gamingforce
2008-05-08, 18:08:30
da hast du Recht, die HD 38X0 hat keine chance gegen die NVs in Crysis, woran das liegen tut wissen wir glaub ich alle nicht das die HD 38X0 so schwach ist oder weil die Treiber schlecht sind ich mein das andere Ding was 4 Mio. $ gekostet hat:rolleyes:

MikBach
2008-05-08, 18:35:00
da hast du Recht, die HD 38X0 hat keine chance gegen die NVs in Crysis, woran das liegen tut wissen wir glaub ich alle nicht das die HD 38X0 so schwach ist oder weil die Treiber schlecht sind ich mein das andere Ding was 4 Mio. $ gekostet hat:rolleyes:
Wie wäre es mit Satzzeichen? Oder keine Riesesätze bilden?
Erst nach dem dritten mal lesen, meine ich zu verstehen, was du meinst. :)

Odal
2008-05-08, 18:40:31
da hast du Recht, die HD 38X0 hat keine chance gegen die NVs in Crysis, woran das liegen tut wissen wir glaub ich alle nicht das die HD 38X0 so schwach ist oder weil die Treiber schlecht sind ich mein das andere Ding was 4 Mio. $ gekostet hat:rolleyes:

das spielt doch in dem fall keine rolle woran das jetzt liegt...

es wird immer crysis als vram bug beispiel angeführt...ich habe das spiel und sowohl einen RV670 als auch einen G92 beides mit gleicher Speicherausstattung und sagte das mir in Crysis nur auffiel das der G92 den RV670 zum Frühstück verspeist und mir kein vram bug auffiel

ich habe nicht behauptet das der RV670 dem G92 generell unterlegen ist oder gar deutlich unterlegen ist

gbm31
2008-05-08, 18:51:36
1280x1024 :rolleyes:


tja, nicht jeder hat bock auf den sli/cf-krampf.

btw: genau 11 cm daneben steht ein 20" 1680x1050... wenns mal ne ausreichend potente single-gpu dafür gibt, nehm ich den gern auch zum zocken.

http://www.gbm31.de/computer-Dateien/tb-arbeitsplatzis.jpg




ich glaub wir Spielen beide in ner ander Auflösung, das es bei 1280x1024 nicht passiert ist klar.
Diese Auflösung war Standard als ein 17" luxus war ;)
heute geht nix mehr unter 1920x1200 4xAA 16xAF für mich und davon rede ich, ich hab doch kein SLi für 1280x1024 ;D



ahja. du spielst also aktuelle toptitel mit 13-20 fps. super! :uclap:

sorry, kann dich nicht mehr für voll nehmen.


wenns ein bug wäre, der nach 5 sec. offensichtlich auftritt, sollte er mit meiner lahmen single gts sicher auch auftreten - auch bei 1280x1024 und 8xaa. sogar mit nur 4xaa irgendwann.

Gast
2008-05-08, 18:53:48
bin zwar bekennender Dau, aber wenn NV-Verfächter immer Crysis anführen, so nervt es echt, daß das Spiel bei mir nach ca. 30 sek. praktisch unspielbar wird, da es nur vor sich hinruckelt (Sys: 8800gts512 q6600@3.6ghz, pista x86, 4gb 1066 5,5,4,12 striker ii formula, treiber 174.74)! Auf ner ATI von nem Kumpel ruckelt es zwar von Anfang an, dafür aber ist das Spielgefühl noch so im erträglichen Rahmen. Settings: 1280x720 2xaa 4xaf im HQ-Modus.

Komisch ist, daß im Benchmark dieser "Effekt" nicht auftritt.

Gast
2008-05-08, 19:07:21
sry for DP:

vergessen habe ich noch die Settins im Spiel anzugeben: alles "Very High" bis auf Schatten auf "Midle"!

Gast
2008-05-08, 19:45:06
Jung, ich bin weder "grün" noch "rot" und besitze beide GPUs
der RV670 ist kein schlechter Chip aber in Crysis hat meine 3850 @960Mhz nix zu melden gegen die 88GT @756Mhz

ich weiß schon wovon ich spreche da ich beides im Rechner hatte/habe

und prozentual ist der Takt meiner 3850 genauso über dem einer 3870 wie es der Takt der 88GT über Standard ist

ich meine das ich das schon gut vermag zu beurteilen

CB hat es getestet-> http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis und für mich sind 2-3 FPS mehr alles andere als "deutlich", naja mir egal auch Crysis rennt mit einer ATI.

Odal
2008-05-08, 19:50:28
CB hat es getestet-> http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/#abschnitt_crysis und für mich sind 2-3 FPS mehr alles andere als "deutlich", naja mir egal auch Crysis rennt mit einer ATI.

ich seh da nur nen test ohne AF&AA oder mit AA&AF (was absolut zu niedrige FPS sind)

kein test ohne AA aber mit AF

AA kann man in crysis sowieso fast vergessen...das bringt nicht viel...aber auf AF verzichte ich sicher nicht...

ich habs wie gesagt mit beiden GPUs gespielt (und nicht nur gebencht) und das auf 1280x1024 16xAF und eben nur sagen was ich fürn eindruck hab

ausserdem sieht mir das hier
http://images.anandtech.com/reviews/video/nvidia/9800gx2/crysis.png eher nicht nach vram bug aus...

hier knickt die 3870 bei hohen auflösungen sogar ein stück stärker ein.....da müsste der vram eigentlich schon knapp werden und die FPS eines G80 oder G92 ins bodenlose sinken (wenns einen vram bug geben würde)

http://www.xbitlabs.com/images/video/geforce9800gtx/crysis10_hdr.gif

hier ist mal ein vergleich von einstellungen mit denen ich ungefähr crysis gespielt hab

also kein AA dafür 16xAF das bestätigt auch meine eigenen Erfahrungen

und da sieht man das die 88GT die 3870 zum Frühstück verspeißt eben genau was ich bei mir im Rechner auch erlebt habe

Hvoralek
2008-05-08, 21:02:27
Und woran schätzt du, liegt das Problem?
Denn dein "Vram-Bug" müsste in jeder Anwendung auftreten - aber darauf nimmst du irgendwie keinen Bezug...Ich habe erst vor ein paar Tagen zuletzt nachgefragt, warum es Deiner Meinung nach völlig undenkbar sein soll, dass ein Fehler im Speichermanagement nur in bestimmten Situationen auftritt. Wie schon so oft natürlich unbeantwortet. Es ist schon absurd, wenn Du mir vorwirfst, keinen Bezug auf Deine Behauptungen zu nehmen. Ich habe immer wieder nach einer Begründung gefragt und nie auch nur irgendeine Reaktion bekommen.


mein Gott der Thread ist ewig lang, aber anstatt mal einer das problem in Angriff nimmt und mal selber Bencht und das ermittelt:rolleyes:

Den VRAm Bug bekommt man bei DIRT zB nach 5 sec. Fahren zu spühren das Game knallt den VRAM von der GTX total voll (8800GTS 512Mb genauso bloss noch schlimmer) und fängt sofort an zu ruckeln.
Ne HD 3870512 Mb brauch nur 340 Mb bei selben Settings und renn ttptal flüssig ohen drops oder extreme einbrüche und das ist fpr MICH ein BUG.

gleiches bei CoH, CoJ, Crysis, Gothic 3, Assassins Creed, TDU.

Bei TDU kann man schon gerade aus fahren und ruckelt wie Sau, fährt man den gleiche weg zurück ist alles flüssig bieg ich ab wo ich noch nicht war bumm richtig fettes geruckel bis hin sogar dass das Bild stehen belibt usw.Und Du hast natürlich mit dieser Aussage den ultimativen Superbenchmark geliefert, der jeden Zweifel am VRAM- Bug hinfortwischt :rolleyes:

Wenn das "nach 5 sec." auftritt, hat es ziemlich sicher nichts mit volllaufendem Speicher zu tun, es sei denn, Deine Anwendungen fangen direkt nach Spielstart an, wie bekloppt Texturen aus dem Speicher zu werfen und sofort wieder andere zu laden. Es ist zwar nicht unüblich, einige Texturen erst nach Spielstart zu laden. Aber kein halbwegs sinnvoll programmiertes Spiel wird direkt nach Spielstart anfangen, massenweise gerade erst geladene Texturen wieder aus dem Speicher zu werfen und durch andere zu ersetzen. Nur wenn Texturen gelöscht worden sind und danach noch neue geladen werden, kann dieses Volllaufen überhaupt auftreten. Wenn Daten geladen werden, die nicht mehr in den Speicher passen, bevor irgendwelche Daten aus dem Speicher gelöscht werden sollten, ist das kein Volllaufen, sondern schlicht ganz normaler voller Speicher :rolleyes:

Genau das ist auch Dein Problem mit Deinen GTs. Dass G8x meist etwas mehr Speicher braucht als R6xx, ist bekannt und wird von niemandem bestritten. Dass 512 MiB bei G8x in den von Dir später genannten Einstellungen in neueren Spielen oft nicht ausreichen, ist auch völlig klar. Bei den Zielvorgaben überhaupt so eine GraKa- Konfiguration zu verwenden, ist - gelinde gesagt - nicht besonders klug. Dass die Probleme erst nach ein paar Sekunden auftreten, wird schlicht daran liegen, dass einige Texturen planmäßig erst nach Spielstart geladen werden; das ist nicht unüblich.

In einem Punkt hast Du recht: Es wäre schön, wenn das mal jemand sicher nachmessen würde. Ich habe oft genug darauf hingewiesen, was für Messungen für einen klaren Beweis des Bugs erforderlich wären. Ich hoffe immer noch, dass jemand Seriöses die einmal durchführt (Nein, Leute, die sich wie Zwölfjährige aufführen, sehe ich nicht als seriös an. Ja, damit meine ich Dich.). Das Problem ist, dass die meisten Leute, denen ich es zutrauen würde, ergebnisoffen an die Sache heranzugehen, diesen Thread sowieso meiden und hier hauptsächlich mehr oder weniger fanatische Anhänger jeder der beiden Seiten mit einem mehr oder weniger fest vorgeprägten Ziel, was am Ende herauskommen sollte, übrig geblieben sind. Wenn sich jemand mit einem G8x und einem R6xx mit gleichem Speicherausbau und genug Zeit in der Lage fühlt, da unvereingenommen heranzugehen, wäre ich jedenfalls froh, wenn das Thema wirklich einmal geklärt würde. *fragendzuy33H@undodalschiel*

LovesuckZ
2008-05-08, 21:07:10
Ich habe erst vor ein paar Tagen zuletzt nachgefragt, warum es Deiner Meinung nach völlig undenkbar sein soll, dass ein Fehler im Speichermanagement nur in bestimmten Situationen auftritt. Wie schon so oft natürlich unbeantwortet. Es ist schon absurd, wenn Du mir vorwirfst, keinen Bezug auf Deine Behauptungen zu nehmen. Ich habe immer wieder nach einer Begründung gefragt und nie auch nur irgendeine Reaktion bekommen.


Meine Begründung? Weder der Treiber noch die Hardware kann bei einem solchen Problem selbstständig entscheiden, wann es auftritt. Es muss in jeder Anwendung mit jedem Setting reproduzierbar sein.
Und jetzt bist du dran: Lege doch bitte dar, wie ein Hardware- oder Softwarebug nicht jeder Situation auftreten könnte.

Hvoralek
2008-05-08, 21:15:03
Meine Begründung? Weder der Treiber noch die Hardware kann bei einem solchen Problem selbstständig entscheiden, wann es auftritt. Es muss in jeder Anwendung mit jedem Setting reproduzierbar sein.
Und jetzt bist du dran: Lege doch bitte dar, wie ein Hardware- oder Softwarebug nicht jeder Situation auftreten könnte.Vlt. funktioniert das Leeren der Speichers nur bei bestimmten Daten oder bei bestimmten Schreib- Lösch- Folgen nicht richtig. Das Speichermanagement des Treibers hat einen erheblichen Einfluss, siehe etwa die Fortschritte bei der GTS 320. Zumindest bei einem Softwarebug kann ich mir gut vorstellen, dass der Treiber nur unter bestimmten Bedingungen nicht sauber arbeitet. Jetzt bist Du dran (:rolleyes:): Warum soll das unmöglich sein?

Im Endeffekt verstehe ich aber nicht genug von Treiberentwicklung, um das sicher beurteilen zu können. Wenn Du aber den Bug mit der Begründung sicher ausschließen möchtest, hoffe ich, dass Du das tust.

LovesuckZ
2008-05-08, 21:17:06
Dann müsste das Problem auch mit einer 8800GTX Karte auftreten. Komisch, es wurde bis jetzt immer nur bei den Karten mit maximal 512mb berichtet...

MikBach
2008-05-08, 21:20:17
Okay, du hast schon wieder das Marketingbild herausgesucht. Zeige mir diese Unterschiede in einem der anderen Bilder.
Du siehst echt keine Unterschiede?
Vielleicht solltest du mal einen Optiker aufsuchen, ist jetzt echt nicht böse gemeint, aber ich sehe da SEHR viele Unterschiede.
http://www.hardocp.com/article.html?art=MTQ5Myw3LCxoZW50aHVzaWFzdA==
Die Unteren vier Bilder:
1. Bild von links
Die Stahlträger im Fenster rechts, bei Nvidia kein AA. Ohne Vergösserung deutlich sichtbar. Die Stahträger haben bei der 3870 allgemein eine deutlich bessere Qualität.
Der Gammawert bei NV scheint zu gering zu sein oder es ist die teilweise fehlende Beleuchtung.
2. Bild
Auf den ersten Blick nicht wirklich Unterschiede zu erkennen, dafür müsste man die einzelnen Bildinhalte aus dem Hintergrund grösser darstellen.
3. Bild
Das NV-Bild erschient insgesamt schärfer, wobei hier wieder die Beleuchtung nicht so intesiv ist wie bei AMD.
Ds Regal recht scheint bei NV kein AA abzubekommen, wobei die Bilder generell sehr klein sind und man damit hier fast nichts sieht. Der unter Bogen vom Regal ist bei AMD besser geglättet, man muss aber schon sehr genau hinsehen.
4. Bild
naja, wenn hier jemand keine Unterschiede sieht, dann ist man fast blind.
Bei NV schient die komplette dynamische Beleuchtung zu fehlen. Wobei das Gamma hier auch nicht stimmt.

Aber wie schon erwänt, die Bilder sind für tiefer gehende Vergleiche einfach viel zu klein.

Schön, dass er es schreibt. Ändert nur nichts an der Tatsache, dass es unter AC mit 10.1 nur in einem Fall zu bildchen unterschieden kommt.
Schau dir die Bilder nochmal an.

Wenn kein Mod deine falschen Behauptungen entkräftet, muss dies durch ein user entstehen.
Diese wären?
Ich behaupte mal, dass man mit D3D10.1 aufgrund der besseren und einfacheren Implementierung des AA insgesamt die BQ im Vergleich zu D3D10.0 erheblich steigern kann.
Hältst du dagegen?

@ Odal
hast du echt noch all die Grakas, die du in der Sig aufgeführt hast?

btw mit Crysis gebe ich dir vollkomen recht.
Wenn man nur AF zuschaltet, sieht der RV670 architekturbedingt kein Land gegen einen G92.
Schaltet man dann noch AA hinzu, wird der Vorsprung deutlich geringer.

Gast
2008-05-08, 21:21:20
ich seh da nur nen test ohne AF&AA oder mit AA&AF (was absolut zu niedrige FPS sind)

kein test ohne AA aber mit AF

AA kann man in crysis sowieso fast vergessen...das bringt nicht viel...aber auf AF verzichte ich sicher nicht...

ich habs wie gesagt mit beiden GPUs gespielt (und nicht nur gebencht) und das auf 1280x1024 16xAF und eben nur sagen was ich fürn eindruck hab

ausserdem sieht mir das hier
http://images.anandtech.com/reviews/video/nvidia/9800gx2/crysis.png eher nicht nach vram bug aus...

hier knickt die 3870 bei hohen auflösungen sogar ein stück stärker ein.....da müsste der vram eigentlich schon knapp werden und die FPS eines G80 oder G92 ins bodenlose sinken (wenns einen vram bug geben würde)

http://www.xbitlabs.com/images/video/geforce9800gtx/crysis10_hdr.gif

hier ist mal ein vergleich von einstellungen mit denen ich ungefähr crysis gespielt hab

also kein AA dafür 16xAF das bestätigt auch meine eigenen Erfahrungen

und da sieht man das die 88GT die 3870 zum Frühstück verspeißt eben genau was ich bei mir im Rechner auch erlebt habe

Die Test sind fürn A.... und wenn POM aktiv ist geht kein AF weder bei NV noch ATI (ist bekannt)

Gast
2008-05-08, 21:26:02
Lege doch bitte dar, wie ein Hardware- oder Softwarebug nicht jeder Situation auftreten könnte.

junge, wenn das so einfach wäre, hätten manche leute keine arbeit mehr

Geht jeder Grafikkarte irgendwann.



jo, nur das andere damit gut umgehen können und g8/9 nicht, hast du offensichtlich nicht geschnackelt ;)

LovesuckZ
2008-05-08, 21:28:19
Du siehst echt keine Unterschiede?


Lerne lesen.
Ich redete vom AA. Nicht von fehlendem AF der AMD Karten. :rolleyes:

LovesuckZ
2008-05-08, 21:30:34
junge, wenn das so einfach wäre, hätten manche leute keine arbeit mehr

Es ist genauso einfach, wie die Behauptung, es wäre ein Bug.


jo, nur das andere damit gut umgehen können und g8/9 nicht, hast du offensichtlich nicht geschnackelt ;)

Tja, ein Bug bei nVidia, drei bei AMD. Welche Karte sollte man da wohl kaufen. :confused:

Hvoralek
2008-05-08, 21:30:59
Dann müsste das Problem auch mit einer 8800GTX Karte auftreten. Komisch, es wurde bis jetzt immer nur bei den Karten mit maximal 512mb berichtet...Anm.: Um die Formulierungen einfacher zu halten, nehme ich für diesen Beitrag an, dass das Volllaufen des Speichers ein spezifisches G8x- Problem ist.

Zu Problemen führt das Volllaufen nur, wenn der Speicher überläuft. Das passiert bei Karten mit größerem Speicher natürlich später. Wie gesagt, braucht man selbst in Crysis relativ lange, damit das Problem auch nur mit 512 MiB auftritt. Crysis braucht nun ohnehin ziemlich viel Speicher, sodass sich dort nicht mehr wahnsinnig viele überflüssige Daten ansammeln müssen, damit 512 MiB überlaufen (Deswegen fällt das dort auch besonders vielen Leuten auf). Wenn schon diese relativ kleine Menge an überflüssigen Daten sich erst über etliche Stunden ansammelt (Ich musste, wie gesagt, das halbe Spiel am Stück zocken), dauert es natürlich noch ungleich länger, bis noch einmal weitere 256 MiB angelaufen sind. Es ist durchaus möglich, dass es bisher schlicht in keinem Spiel so viele Texturdaten "problematischer" Beschaffenheit oder "problematische" Situationen gibt, dass das mit 768 MiB auffallen würde.

MikBach
2008-05-08, 21:33:24
Dann müsste das Problem auch mit einer 8800GTX Karte auftreten.
Warum?
Wenn ich bitten darf mit ein wenig technischem Hintergrund und keine Pauschalaussagen.

Komisch, es wurde bis jetzt immer nur bei den Karten mit maximal 512mb berichtet...
Mag ja sein, dass die meisten Spiele darüber noch nicht an die Grenzen stossen.
Oder das Problem ist einfach so komplex, dass es mehrere Faktoren gibt, wie z.B. das grössere SI bei der 8800GTX.

LovesuckZ
2008-05-08, 21:35:46
Warum?
Wenn ich bitten darf mit ein wenig technischem Hintergrund und keine Pauschalaussagen.


Hm, welchen technischen Hintergrund?
Stetiges Nachladen von Daten führt zum Überlauf. Eine 8800GTX hat keine magischen Fähigkeiten um ihren Speicher zu erhöhen.

Anm.: Um die Formulierungen einfacher zu halten, nehme ich für diesen Beitrag an, dass das Volllaufen des Speichers ein spezifisches G8x- Problem ist.

Zu Problemen führt das Volllaufen nur, wenn der Speicher überläuft. Das passiert bei Karten mit größerem Speicher natürlich später. Wie gesagt, braucht man selbst in Crysis relativ lange, damit das Problem auch nur mit 512 MiB auftritt. Crysis braucht nun ohnehin ziemlich viel Speicher, sodass sich dort nicht mehr wahnsinnig viele überflüssige Daten ansammeln müssen, damit 512 MiB überlaufen (Deswegen fällt das dort auch besonders vielen Leuten auf). Wenn schon diese relativ kleine Menge an überflüssigen Daten sich erst über etliche Stunden ansammelt (Ich musste, wie gesagt, das halbe Spiel am Stück zocken), dauert es natürlich noch ungleich länger, bis noch einmal weitere 256 MiB angelaufen sind. Es ist durchaus möglich, dass es bisher schlicht in keinem Spiel so viele Texturdaten "problematischer" Beschaffenheit oder "problematische" Situationen gibt, dass das mit 768 MiB auffallen würde.

Das Überlaufen soll dich die Konsequenz aus dem unkontrollierten Vollaufen sein. Die gleichen Daten müssen bei der 8800GTX oder der 8200 dauernd in den Speicher geladen werden. Also müsste davon auch die 8800GTX im gleichen Rahmen betroffen sein.

Unyu
2008-05-08, 21:38:23
Oder das Problem ist einfach so komplex, dass es mehrere Faktoren gibt, wie z.B. das grössere SI bei der 8800GTX.
Nicht alles durcheinander würfeln.
Dann müsste die 8800GT 1024 betroffen sein.

MikBach
2008-05-08, 21:39:58
Lerne lesen.
Ich redete vom AA. Nicht von fehlendem AF der AMD Karten. :rolleyes:
:|
Schau dir die Stahlträger im ersten Bild an!
Da ist bei NV definitiv kein AA aktiv.

Und was hat AF mit fehlender dynamischer Beleuchtung oder einem falschen Gamma-Werrt zu tun? :eek:

Machmal denke ich echt, du bist gar nicht an einer Diskussion interessiert, sonder labberst einfach irgendwelchen Müll :mad:
Kannst mal bitte konkret auf meine Aussagen zu den einzelnen Bildern eingehen?
Ich denke nicht, da dir nämlich ganz schnell die Argumente ausgehen.

Hvoralek
2008-05-08, 21:40:08
Stetiges Nachladen von Daten führt zum Überlauf. Eine 8800GTX hat keine magischen Fähigkeiten um ihren Speicher zu erhöhen.Ihr Speicher ist vll. so groß, dass er alles, was in heutigen Spielen an gewollten + angelaufenen, überflüssigen Daten auftritt, fassen kann, s.o.

Unyu
2008-05-08, 21:43:07
Da ist bei NV definitiv kein AA aktiv.

Und bei AMD kein AF. :cool:

Nochmal:
Das Gesamtergebniss zählt, was du nicht verstehn wolltest/willst.

Gast
2008-05-08, 21:44:00
Es ist genauso einfach, wie die Behauptung, es wäre ein Bug.



Tja, ein Bug bei nVidia, drei bei AMD. Welche Karte sollte man da wohl kaufen. :confused:[/QUOTE]


mal abgesehn, dass das sehr mutig unfundiert in den raum gestellt ist: was hat das jetzt damit zu tun, also keine billigen ablenkungsmanöver ;)

Odal
2008-05-08, 21:45:52
@ Odal
hast du echt noch all die Grakas, die du in der Sig aufgeführt hast?
btw mit Crysis gebe ich dir vollkomen recht.
Wenn man nur AF zuschaltet, sieht der RV670 architekturbedingt kein Land gegen einen G92.
Schaltet man dann noch AA hinzu, wird der Vorsprung deutlich geringer.


meine Freundin hat die X1900XT die 3850 und die 8800GT hab ich selbst...und die anderen zwei hab ich nicht mehr....

Bei der gemoddeten X800GTO ärger ich mich eigentlich das ich die verkauft hab...
noch keine andere GraKa gehabt die man so gut ausquetschen konnte

und ja klar der abstand verringert sich mit AA aber spielbar is das halt nicht mehr...und AA funktioniert bei Crysis auch nicht richtig

Ich war ja schon immer der Meinung das das AA nicht das größte Problem beim RV670 ist sondern die fehlende Texturleistung

Das zeigt auch meine Erfahrungen mit RedOrchestra....in 1280x1024 8xAA 16xAF hatte ich auf der 3850 teils weniger FPS als in 1280x1024 32xS AA 16xAF auf der 88GT

und ehrlich gesagt war das auch mit einer der Gründe warum ich mir die 88GT zulegte...a) zum "ausquetschen" und b) für supersampling AA in RedOrchestra (spiel ich mit am meisten)...

aber da das ich das so voll ausfahren kann hab ich vorher nicht gedacht...


Die Test sind fürn A.... und wenn POM aktiv ist geht kein AF weder bei NV noch ATI (ist bekannt)

Das ist quatsch AF funktioniert nur an stellen wo POM aktiv ist nicht..z.b. reifenspuren auf der straße
generell funktioniert das AF schon...sieht halt komisch aus...man kann POM ja auch abschalten

MikBach
2008-05-08, 21:47:21
Nicht alles durcheinander würfeln.
Dann müsste die 8800GT 1024 betroffen sein.
Ich habe doch geschrieben, dass es Karten <=512 MB betrifft, da die Spiele damit noch meistens auskommen.

Wenn man sich jedoch die 256 MB-Varianten von AMD und NV ansieht, kann man wohl kaum einen V-RAM-Bug bei NV leugnen.

Gast
2008-05-08, 21:50:13
neeee das ist kein Bug,das ist zu wenig ram ;D
55 Seiten dummes Zeug Sagenhaft

MikBach
2008-05-08, 21:50:40
Und bei AMD kein AF. :cool:
Wo?
Bei den Stahlträgern?
Kann nicht sein, die sehen bei AMD nämlich besser aus.

Nochmal:
Das Gesamtergebniss zählt, was du nicht verstehn wolltest/willst.
Was das angeht finde ich besonders das letzte Bild ziemlich krass.
Sieht bei der 3870er um Längen besser aus.

edit:

Tja, ein Bug bei nVidia, drei bei AMD. Welche Karte sollte man da wohl kaufen. :confused:
:confused:
Welche drei Bugs? :eek:
Sag mal, ich möchte gerne wissen, was ich mir da für Schrott zugelegt habe. ;D

LovesuckZ
2008-05-08, 21:52:58
Nun Gast, wir haben einen Vram Bug auf der nVidia Seite und einen D3D10/AA/AF Bug auf der AMD Seite.

Ihr Speicher ist vll. so groß, dass er alles, was in heutigen Spielen an gewollten + angelaufenen, überflüssigen Daten auftritt, fassen kann, s.o.

Das steht aber im Widersproch zum unkontrollierten Vollaufen des Speichers.
Wir kommen einfach immer zu den Punkt zurück, dass nVidia mehr Speicher benötigt. Weder das Warum noch ob es ein abnormales Verhalten beim Laden von Daten in den Speicher gibt, wurden geklärt.

Unyu
2008-05-08, 21:54:38
Wo?
Bei den Stahlträgern?
Kann nicht sein, die sehen bei AMD nämlich besser aus.

Das AMDs AF mies ist, ist nichts neues. Siehe den Fred "Nvidia Überlegenheit in 16xAF".
Das war eine Anspielung darauf.

Das Flimmern wirst du auf dem Bild nicht sehen können.

Gast
2008-05-08, 21:55:36
Das ist quatsch AF funktioniert nur an stellen wo POM aktiv ist nicht..z.b. reifenspuren auf der straße
generell funktioniert das AF schon...sieht halt komisch aus...man kann POM ja auch abschalten

Ist kein Quatsch Kollege, und wiso soll ich auf POM verzichten ? Und mir die flachen Steine usw. antun ?

LovesuckZ
2008-05-08, 21:56:16
Das AMDs AF mies ist, ist nichts neues. Siehe den Fred "Nvidia Überlegenheit in 16xAF".
Das war eine Anspielung darauf.

Das Flimmern wirst du auf dem Bild nicht sehen können.

AMD ermöglicht kein AF in AC zur Zeit.

:|
Schau dir die Stahlträger im ersten Bild an!
Da ist bei NV definitiv kein AA aktiv.

Hm, das ist alles? Das ist dein "deutlich besseres AA"? Das wird niemand beim Spielen sehen. Und da es nichtmal die exakt gleiche Position ist, kann es auch nur eine optische Täuschung darstellen.



Und was hat AF mit fehlender dynamischer Beleuchtung oder einem falschen Gamma-Werrt zu tun? :eek:

Was hat fehlende dynamische Beleuchtung mit funktionsfähigem AA zu tun? :rolleyes:

Gast
2008-05-08, 21:56:33
jo dafür ist 8xAA bei NV zum vergessen und dann kommt auch noch der Bug,oha
:D

Unyu
2008-05-08, 22:00:13
AMD ermöglicht kein AF in AC zur Zeit.
Achso. ;D
Aber jetzt mit dem AA wedeln. :rolleyes:

jo dafür ist 8xAA bei NV zum vergessen

Stimmt 8xS ist dem 8xQ überlegen.

Hvoralek
2008-05-08, 22:02:19
Wenn man sich jedoch die 256 MB-Varianten von AMD und NV ansieht, kann man wohl kaum einen V-RAM-Bug bei NV leugnen.Dann kann man einen hohen VRAM- Bedarf bei G8x nicht leugnen.

Das steht aber im Widersproch zum unkontrollierten Vollaufen des Speichers.Wieso? Wenn alle Daten, bei denen das Löschen schiefgehen könnte (also z.B. alle Texturen mit bestimmten Eigenschaften) sich im Speicher angesammelt haben, kann der auch nicht mehr weiter vollaufen. Wenn das nun z.B. 400 MiB sind und das Spiel zusätzlich höchstens z.B. 350 MiB reguläre Daten braucht, reichen 768 MiB aus und man bekommt keine Probleme.

Wir kommen einfach immer zu den Punkt zurück, dass nVidia mehr Speicher benötigt. Weder das Warum noch ob es ein abnormales Verhalten beim Laden von Daten in den Speicher gibt, wurden geklärt.Genau darum geht es mir ja: Wir können es mit den bekannten Umständen nicht sicher sagen. Dann wäre es schön, wenn Du und andere hier nicht laufend behaupten würden, ein G8x- spezifisches Volllaufen des Speichers sei gesichert oder unmöglich.

Ist kein Quatsch Kollege, und wiso soll ich auf POM verzichten ? Und mir die flachen Steine usw. antun ?Weil flasche Steine weniger gräßlich aussehen als Texturmatsch ab ein paar Metern Entfernung? Und bitte: Nicht plenken! Das sieht ja noch gräßlicher aus als flache Steine und Texturmatsch zusammen.

/edit: Und bitte reißt Euch ein bisschen zusammen. Sonst wird der Thread hier heute Nacht wirklich noch eine Mod- ABM.

MikBach
2008-05-08, 22:04:41
Das AMDs AF mies ist, ist nichts neues. Siehe den Fred "Nvidia Überlegenheit in 16xAF".
Das war eine Anspielung darauf.
Irgendwie müsst ihr euch entscheiden. LS redet über die Bilder, ich auch und du kommst mit Pauschalaussagen daher.

Das Flimmern wirst du auf dem Bild nicht sehen können.
Kommt drauf an.
Wenn es übel flimmert kann man es meistens auch auf Bildern sehen.
Eine Bri-Bugwelle z.B.

Gast
2008-05-08, 22:08:10
Weil flasche Steine weniger gräßlich aussehen als Texturmatsch ab ein paar Metern Entfernung? Und bitte: Nicht plenken! Das sieht ja noch gräßlicher aus als flache Steine und Texturmatsch zusammen.



Ich find POM besser, kann doch jeder zocken wie er will ! und ich plenke ! ja :P

MikBach
2008-05-08, 22:12:32
Nun Gast, wir haben einen Vram Bug auf der nVidia Seite und einen D3D10/AA/AF Bug auf der AMD Seite.
Kannst du das mal genauer ausführen?
Mit den AMD-Bug meine ich.
Würde mich echt interessieren.

Sorry für das ganze OT, aber Unyu hat leider die BQ-Diskussion mit den Unterschieden bem Rendering angestossen und so hat sich die (doch recht interessante) Diskussion ergeben.
Wenn das ein Mod wegsplitten könnte, wäre es nicht schlecht.

LovesuckZ
2008-05-08, 22:14:31
Kannst du das mal genauer ausführen?
Mit den AMD-Bug meine ich.
Würde mich echt interessieren.


Lese den Beitrag des Gastes. Nur weil die Konkurrenz effizienter mit einer Sache umgehen kann, ist es nicht ein Bug.
Ich war nur sarkastisch.

MikBach
2008-05-08, 22:29:21
Lese den Beitrag des Gastes. Nur weil die Konkurrenz effizienter mit einer Sache umgehen kann, ist es nicht ein Bug.
Ich war nur sarkastisch.
Du führst aber D3D10-Bug und einen AA-Bug bei AMD an.
Kann ich nicht nachvollziehen.
Inwiefern ist NV da effizienter?
Beim AA würde ich sagen, dass keiner von beiden effizienter ist.
Bei D3D10, naja kommt drauf an wie du es definierst.
NV hat hat einen deutlich höheren Shadertakt, deswegen würde ich nicht gerade behaupten, dass sie effizienter sind, sonder einfach mehr Power da ist.
Wie wenn du eine 256MB-Karte mit einer 512MB-Karte vergleichen würdest, ist klar, dass die 512MB in Speicherlastigen Szenen überlegen ist.
Und was das AF angeht würde ich sogar behaupten, dass AMD effizienter ist, da sie mit deutlich weniger TMU-Leistung trotzdem noch eine in den meisten Fällen sehr gute AF-Qualli bieten. Manchmal reicht es aber aber nicht und es flimmert.

weltenbummler
2008-11-12, 16:55:08
Hallo werte Leute,

nachdem ich mich, teilweise belustigt & amüsiert, durch jenen Thread kämpfte, erlaube ich mir an dieser Stelle, diesen einstweilen aus der Versenkung zu holen um meinen Kommentar abzugeben. ^^
(habe mich gar nur dafür hier angemeldet :p)

Zunächst möchte ich meinen aufrichtigen Respekt an all jene kund tun, die - verzweifelt versucht, die Barrikade der NV-Gnome zu durchdringen, lobenswertes Engagement aufbrachten.

Mir ist unerklärlich, wie hier Dogmen bis auf die Spitze der Lächerlich- respektive Peinlichkeit zu verteidigt wurde, getreu dem Motto 'was ich nicht nachvollziehen kann oder verstehe, existiert nicht, aber Kommunikationsbedürfnis habe ich dennoch' willkommen im Jahre 2008 ^^

Peinlich vor allem, dass sog. Mitglieder der 3D-Center Crew statt kritischer Auseinandersetzung mit dem Thema oft eine verblendete Verteidigungshaltung annahmen, die jeglicher Rationalität und.. in diesem Medium nötiger Objektivität entbehrt
Allen voran aths sowie Grestorn!
Sorry Leute, aber wenn ihr nicht vermögt zum Thema statt wertefreier 'Bug existiert nicht' Kommentare konstruktivere Beiträge abzuliefern, seid ihr irgendwo fehl am Platz.

Die Motive jener Haltung vermag ich nur zu erahnen, jeder kann sich selbst seinen Reim darauf machen.

Und natürlich scheinen sich auch in diesem Forum ausgiebig jene vermeintlich höhlenbewohnenden Wesen zu tummeln, denen einzig daran gelegen ist, eine niveauvolle Diskussion zu unterwandern. Angesprochen fühlen dürfen sich einige Gäste, sowie ein selbsternannter Lovesuckz, InsaneDruid sowie Blaire - um nur einige zu nennen - die sich in meinen Augen durch eine besonders bornierte Haltung fern jeglicher sachlicher Argumente besonders infantil meinten hervortun zu müssen. *Präsent aussergewöhnlicher Dummheit überreich*

Als Zitat führe ich gern den kompletten Thread an, es lohnt sich allemal :)

Zu schade, dass unter den Gästen auch kompetente, sachliche Leute waren, auf die einzugehen ob der Annonymität schwer fällt.

Denn unter all dem Geschwafel waren durchaus auch nützliche Beiträge und teilweise interessante Theorien sowie Schlussfolgerungen, die leider oft in die Lächerlichkeit gezogen wurden.

Zum Abschluss, man möge mir verzeihen, bis hier nix zum eigentlichen Thema beigetragen zu haben, noch einige Worte zum V-Ram Bug.

Dieser trat bei mir mit einer kleinen Geforce 8600GT auf, 256MB VRAM, unter Windows XP (Core2Due, 2GB RAM). Und man mag es kaum glauben, jene Karte ist imstande, etwa Oblivion bei vollen Details flüssig darzustellen (in 1280x1024, 0xAA, 4xAF) - wäre da nicht jener mysteriöse VRAM Bug.

Dieser äussert sich darin, dass es, wie schon oft erwähnt, im Laufe des Spieles zu einem signifikanten Abfall der Framerate kommt, bis in die Unspielbarkeit. (von 30 auf 15fps)
Dieser Zustand wird, einmal eingetreten, beibehalten bis zum nächsten Laden (Speicherstand, Levelabschnit..)
Ein Wechsel auf den Desktop und zurück führt in jenen trägen Abschnitten zu einer Normalisierung der Framerate für eine Weile.

Dieser Fehler trat bei neuesten Treibern auf (176.xx & 178.xx).
Ein Wechsel auf einen älteren Treiber (174.xx) schuf Abhilfe. Hier scheint eine Oblivion-Optimierung zu greifen, die in der neuesten Version, aus wahrscheinlich marketingtechnischen Gründen, wieder entfernt wurde.

Sporadisch werden dabei Teile des Grafikspeichers gelehrt um Platz für neue Texturen zu schaffen. Dieser Vorgang äussert sich in einem kurzen Stocken und ist weitaus angenehmer als dauerhaft niedrige Frameraten oder Alt+TAB Fummelei.

Der Vorgang des Texturtauschs geschieht optimalerweise im Hintergrund, was die Indizien auf einen Hardwaredefekt in der Chiparchitektur verstärkt.

Nach meiner Auffassung haben die Nvidia Karten der >=G80 Klasse einen eklatanten Fehler im Speichermanagement, der dazu führt, dass Speicher nicht rechtzeitig frei gemacht wird (unnötige Texturen gelöscht oder in den Arbeitsspeicher verschoben), so dass neuer Speicher, welcher den sichtbaren Bereich der 3D Landschaft abdeckt, statt in den schnellen Video Ram in den Arbeitsspeicher ausgelagert wird.
Somit befinden sich unnötige Texturen im schnellen VRAM und für die momentane Situation nötigen Texturen im langsamen Ram, der in dem Moment die VRAM-Erweiterung darstellt, aus dem sie gelesen und verarbeitet werden.

Dies ist eindeutig ein Bug und hat nichts mit zu geringem Grafikspeicher zu tun, tritt aber überwiegend bei Grafikkarten mit 256MB sowie 320MB auf.

In Auflösungen von 1280x1024 ist mir kein Spiel bekannt, dass im sichtbaren Bereich mehr als 256MB Texturspeicher benötigt, selbst Oblivion mit hochauflösendem Texturpack nicht (eine volle Drehung um die eigene Achse des Avatars, stehend in texturreicher Landschaft, ist mit dem Treiber 174.xx ohne Framerate Einbrüche möglich)

Anmerken möchte ich noch, dass dieser Fehler der Speicherverwaltung mit einfacher Dokumentation der Auslastung des Speichers im Rivatuner wohl nicht unbedingt erklärt respektive analysiert werden kann, da nicht ersichtlich ist, um welche Daten es sich letztendlich handelt, die sich im VRAM resp. Arbeitsspeicher befinden.

Praktische Beweise für diesen Bug gibt es genug, man muss ziemlich blind oder borniert sein, permant hier aufgetaucht zu sein um zu leugnen - statt Lösungsansätze zu liefern oder sich fern zu halten.

mfG
ein amüsierter Leser

Gast
2008-11-12, 21:17:33
Ich konnte bei meiner 8800GT in 1680x1050 4xaa/8xaf bei keinem Spiel diesen Vram-Bug beobachten. Auch bei Crysis nicht.

Wer noch eine 8800GTS 320mb hat, kann mal das hier versuchen:

Klick (http://www.tweakpc.de/forum/erfahrungs-und-testberichte-usern-fuer-user/54186-geforce-8800-modding-g80-vram-bug.html)

Gast
2008-11-12, 21:43:50
Nach meiner Auffassung haben die Nvidia Karten der >=G80 Klasse einen eklatanten Fehler im Speichermanagement, der dazu führt, dass Speicher nicht rechtzeitig frei gemacht wird (unnötige Texturen gelöscht oder in den Arbeitsspeicher verschoben), so dass neuer Speicher, welcher den sichtbaren Bereich der 3D Landschaft abdeckt, statt in den schnellen Video Ram in den Arbeitsspeicher ausgelagert wird.

es ist nicht aufgabe des grafiktreiber texturen zu verwerfen, ganz im gegenteil, die anwendung würde sich bedanken wenn plötzlich texturen nicht mehr vorhanden sind, die eigentlich noch im VRAM sein sollten.
texturen zu verwerfen, ebenso wie nachzuladen ist die aufgabe der anwendung.


Dies ist eindeutig ein Bug und hat nichts mit zu geringem Grafikspeicher zu tun, tritt aber überwiegend bei Grafikkarten mit 256MB sowie 320MB auf.


es ist kein bug sondern ganz einfach eine andere, bei wenig speicher offensichtlich schlechtere, speicherverwaltung, oder ist vista nun auch ein bug weil mehr RAM als bei XP gebraucht wird?

aths
2008-11-12, 22:01:45
Dieser trat bei mir mit einer kleinen Geforce 8600GT auf, 256MB VRAM, unter Windows XP (Core2Due, 2GB RAM). Und man mag es kaum glauben, jene Karte ist imstande, etwa Oblivion bei vollen Details flüssig darzustellen (in 1280x1024, 0xAA, 4xAF) - wäre da nicht jener mysteriöse VRAM Bug.1x AA. (Bei null Samples wäre das Bild schwarz.)

Nach meiner Auffassung haben die Nvidia Karten der >=G80 Klasse einen eklatanten Fehler im Speichermanagement, der dazu führt, dass Speicher nicht rechtzeitig frei gemacht wird (unnötige Texturen gelöscht oder in den Arbeitsspeicher verschoben), so dass neuer Speicher, welcher den sichtbaren Bereich der 3D Landschaft abdeckt, statt in den schnellen Video Ram in den Arbeitsspeicher ausgelagert wird.Auffassung wie du hier schreibst, oder Fakt wie du es im weiteren Posting darstellst? Allgemein reproduzierbar (auf einer Vielzahl von PC-Systemen) ist es nämlich nicht. Ich hab schon etliche GTS-320 und GTS-640 gesehen. Vom "VRAM-Bug" jedoch bislang nichts gemerkt, auch nicht in Crysis. Wären durchweg die User mit 256 oder 320 MiB Grafikspeicher betroffen, wäre das ein Riesenthema im Internet. Stattdessen haben wir vereinzelte User, die starke Slow-Downs bekommen welche sich durch Alt-Tab oft beheben lassen und die Ursache in einem ineffizient genutzten Speicher sehen.

weltenbummler
2008-11-13, 00:10:43
1x AA. (Bei null Samples wäre das Bild schwarz.)

Auffassung wie du hier schreibst, oder Fakt wie du es im weiteren Posting darstellst? Allgemein reproduzierbar (auf einer Vielzahl von PC-Systemen) ist es nämlich nicht. Ich hab schon etliche GTS-320 und GTS-640 gesehen. Vom "VRAM-Bug" jedoch bislang nichts gemerkt, auch nicht in Crysis. Wären durchweg die User mit 256 oder 320 MiB Grafikspeicher betroffen, wäre das ein Riesenthema im Internet. Stattdessen haben wir vereinzelte User, die starke Slow-Downs bekommen welche sich durch Alt-Tab oft beheben lassen und die Ursache in einem ineffizient genutzten Speicher sehen.

autsch, ich bin mir nicht sicher, aber ich befürchte, die Verleumdnung geht schon wieder los ^^

Punkt 1) ich unterstelle einfach mal, dass ambitionierte Gamer Karten jenseits der 256MB haben und damit von dem Bug nicht unmittelbar betroffen sind
Gelegenheitsspieler etwa werden durchaus im Besitz dieser Karten und so sie Pech haben auch vom Bug betroffen sein, die Frage ist, ob es ihnen in dem Moment bewusst ist, dass es sich hierbei um einen Fehler handelt, oder ob man es schlicht aufs Spiel/zu schwache Hardware schiebt und resigniert

Punkt 2) durch Treiberoptimierungen vermag der Hersteller in populären Spielen durchaus, den Bug zu umgehen, ja er muss es schlicht, um jenen Sturm der Entrüstung, wie du ihn vermisst, zu vermeiden
hat sich alles abgeflacht, sind die Spiele nicht mehr aktuell, wie im Falle Oblivion, kann man die Optimierung auch durchaus wieder entfernen.. im konkreten Fall nachweisbar

ergo ist es eben leider nicht das Thema, dass es sein müsste und das bedeutet in der Konsequenz, dass unter bestimmten Konstellationen dieser Fehler zum Nachteil des Spielenden auftreten kann

auf die Treiberoptimierung in Oblivion bin ich btw eingegangen, auch auf verschiedene Treiberversionen, also bitte selbst verifizieren, wenn du es nicht glaubst, die 'Bug gibt es/gibt es nicht Diskussion' ist schlicht lächerlich

es geht hier nicht darum, einen Hersteller zu diffamieren, Konkurrenz ist gesund, selbst einem 'Fanboy' sollte natürlich daran gelegen sein, dass Wettbewerb herrscht - preislich in seinem Sinne

doch gerade dieser enorme Druck sowie die Komplexität der Materie führt eben immer wieder zu Fehlern, die nie auszuschliessen sind. Und scheinbar.. so wird uns zumindest suggeriert, will der Kunde dies so

Ergonomische sowie ökologische Aspekte etwa sind erst dann interessant, wenn ein Herrsteller glaubt, damit mehr verdienen zu können, im Vorteil zu sein. Doch darum gehts hier nicht..
Es geht um das Recht des Kunden, der für seine erbrachte Finanzleistung nicht das bekommt, was ihm zusteht und dem der Bug zum Nachteil gereichen 'kann'

Gast
2008-11-13, 00:16:16
Punkt 1) ich unterstelle einfach mal, dass ambitionierte Gamer Karten jenseits der 256MB haben und damit von dem Bug nicht unmittelbar betroffen sind
Dann gibt es den Bug nicht.

Dem Bug ist es egal ob 2GiB oder 256MiB, also?

y33H@
2008-11-13, 00:28:19
Grade die Woche beim Benchen von Rygels Mod wieder gesehen - 512er Geforce sind Krüppel. Sobald der Speicher überfordert ist, knicken sie ein, eine 512er Radeon erst viel später. Aber ja ... ist ja n Feature, kein Bug ;)

cYa

Gast
2008-11-13, 00:41:50
Sobald der Speicher überfordert ist, knicken sie ein, eine 512er Radeon erst viel später.
Mir scheint, das der werte weltenbummler nicht das gemeint hat, das AMD mehr draum bemüht ist in Benchmarks gut dazustehen, sondern ein angebliches sinken der FPS, was ohne Beweiße und Grund der Grafikkarte zugeschoben wird.

Gast
2008-11-13, 17:50:09
Punkt 1) ich unterstelle einfach mal, dass ambitionierte Gamer Karten jenseits der 256MB haben und damit von dem Bug nicht unmittelbar betroffen sind
Gelegenheitsspieler etwa werden durchaus im Besitz dieser Karten und so sie Pech haben auch vom Bug betroffen sein, die Frage ist, ob es ihnen in dem Moment bewusst ist, dass es sich hierbei um einen Fehler handelt, oder ob man es schlicht aufs Spiel/zu schwache Hardware schiebt und resigniert

dann ist es kein bug, wäre es ein bug würde jedes spiel zu slowdowns führen, welches insgesamt mehr texturen hat als in den grafikspeicher passen und glaub mir, es gibt genug spiele die mehr als 512MiB an texturen haben.

da dem aber nicht so ist kann es sich nicht um einen bug handeln.


Punkt 2) durch Treiberoptimierungen vermag der Hersteller in populären Spielen durchaus, den Bug zu umgehen, ja er muss es schlicht, um jenen Sturm der Entrüstung, wie du ihn vermisst, zu vermeiden
hat sich alles abgeflacht, sind die Spiele nicht mehr aktuell, wie im Falle Oblivion, kann man die Optimierung auch durchaus wieder entfernen.. im konkreten Fall nachweisbar

was für einen sinn sollte es machen eine optimierung wieder zu entfernen? vor allem da ja angeblich alle karten ab G80, damit auch aktuelle, diesen ominösen bug haben sollen?


es gibt trotzdem keine hinweise auf irgendeinen bug, sondern schlicht auf ein anderes speichermanagement, welches in gewissen situationen offenbar deutlich schlechter ist.

darauf soll man hinweisen, ja und auch darüber sprechen, von einem bug zu sprechen (und das wäre es nur wenn der speicher immer volllaufen würde und nie entleert wird) halte ich ohne einen einzigen beweis nicht für richtig.

offenbar ist nvidias auslagerung wenn der VRAM ausgeht deutlich ineffizienter, deswegen ist es noch lange kein bug. unter umständen sogar eine bewusste entscheidung, da man damit möglicherweise andererwertig rechenleistung einspart.

dass es auch durchaus anders sein kann und auch mal ATIs speichermanagement deutlich schlechter dasteht zeigt dieser test: http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/14/

die ATI-karten haben hier trotz 8xAA (wobei man hier bei NV schon eher von einem bug sprechen kann, denn dass die Z-fillrate mit 8xAA auf 1/5 gegenüber 4xAA einbricht ist definitiv nicht normal) keine chance, weil der speicher einfach ausgeht.

weltenbummler
2008-11-13, 19:19:38
der Unterschied ist, ich weiss von der Existenz des Bugs, viele glauben, dass es keiner ist/ihn nicht gibt
hört endlich auf, die Welt vor dem Bug 'retten' zu müssen, ihr habt schlicht nicht verstanden, worin der Fehler besteht.
Nochmal in aller Kürze: bei Karten mit verhältnismässig geringem Speicherausbau kann es bei Spielen mit hohem Speicherbedarf aufgrund vieler Texturen dazu kommen, dass benötigte Texturen nicht dort sind, wo sie hingehören, im Grafik-Ram, sondern im langsamen Arbeitsspeicher weilen und von dort eingelesen und verarbeitet werden.
Das führt zu einem abrupten eklatanten Performance-Einbruch, oft von spielbar auf unspielbar, der nicht sein müsste, da die Situation weniger Speicherbedarf einfordert, als vorhanden ist.
Sofern Nvidia die Treiber auf ein Spiel nicht anpasst, tritt der Bug auf, Beispiele gibt es in diesem Thread zur Genüge.
Die Schlussfolgerung dessen: nicht nur ein schlechtes Speichermanagement sondern eindeutig ein Fehler, denn abgesehen von besagten Karten funktioniert das Speichermanagement, selbst bei Nvidia einmal(<G80).

Der Fehler mag selten vorkommen, durchaus, doch wenn, dann richtig! Und die Wahrscheinlichkeit steigt, dass betroffene Karten bei neueren Spielen eher damit zu kämpfen haben werden. Ich hab nicht mitgezählt, wie viele sich hier hingestellt haben und meinten, die Kompetenz in Person zu sein. Durch Aussagen wie 'der Speicher ist schlicht voll' habt ihr das Gegenteil bewiesen.

dann ist es kein bug, wäre es ein bug würde jedes spiel zu slowdowns führen, welches insgesamt mehr texturen hat als in den grafikspeicher passen und glaub mir, es gibt genug spiele die mehr als 512MiB an texturen haben.

Wenn Rivatuner in einem Spiel einen Speicherverbrauch von beispielsweise 400MB anzeigt, bedeutet das nicht, dass diese 400MB für die momentane 3D Landschaft vonnöten sind. Nochmal, versucht zu verstehen, wann der Fehler auftritt und was dazu führen könnte (..)

Ich zweifle dem gegenüber natürlich auch nciht an, dass es Leute geben mag, die den Bug fälschlicherweise

verantwortlich machen in Situationen, da er garnicht greift..

Das Traurige ist einfach, dass Nvidia es, aus welchen Gründen auch immer, bisher nicht geschafft hat, den Fehler klar einzugestehen und zu fixen. Schlimmer noch, angeblich sind selbst neuere Versionen der Chips (G94 in der 9600GT) von dem Fehler betroffen, was ich jedoch nicht nachprüfen kann, und es für mich daher ein Gerücht bleibt, ich jedoch Abstand davon nehme, eine solche Karte zu erwerben.
..Bis Nvidia klar Stellung bezogen hat

Gast
2008-11-13, 19:32:33
Das Traurige ist einfach, dass Nvidia es, aus welchen Gründen auch immer, bisher nicht geschafft hat, den Fehler klar einzugestehen und zu fixen.
Wie stellst du dir das vor?
Der 5% höhere VRAM Verbrauch ist wie das stärkere Einbrechen nicht lösbar.
Aber erheblich linderbar durch PCIe 2.0.

Nochmal in aller Kürze: bei Karten mit verhältnismässig geringem Speicherausbau kann es bei Spielen mit hohem Speicherbedarf aufgrund vieler Texturen dazu kommen, dass benötigte Texturen nicht dort sind, wo sie hingehören, im Grafik-Ram, sondern im langsamen Arbeitsspeicher weilen und von dort eingelesen und verarbeitet werden. Ja und was hat die GPU damit zu tun?

Slowdowns nach längerer Spielzeit mit wenig VRAM, ist mit einer AMD Karte ebenfalls möglich, nur eben nicht ganz so dramatisch, siehe oben.

Ernie
2008-11-13, 19:34:09
was für einen sinn sollte es machen eine optimierung wieder zu entfernen? vor allem da ja angeblich alle karten ab G80, damit auch aktuelle, diesen ominösen bug haben sollen?



Um neue Generationen besser dastehen zu lassen. Hat nVidia schon mal gemacht, damals bei der GF4.

Gast
2008-11-13, 19:38:24
Nochmal in aller Kürze: bei Karten mit verhältnismässig geringem Speicherausbau kann es bei Spielen mit hohem Speicherbedarf aufgrund vieler Texturen dazu kommen, dass benötigte Texturen nicht dort sind, wo sie hingehören, im Grafik-Ram, sondern im langsamen Arbeitsspeicher weilen und von dort eingelesen und verarbeitet werden.

was soll daran ein bug sein?

wenn mehr speicher benötigt wird als vorhanden ist muss zwangsläufig ein teil in den hauptspeicher ausgelagert werden, auch logisch dass dadurch performance verloren geht.


Die Schlussfolgerung dessen: nicht nur ein schlechtes Speichermanagement sondern eindeutig ein Fehler, denn abgesehen von besagten Karten funktioniert das Speichermanagement, selbst bei Nvidia einmal(<G80).

woher weißt du ob es nicht situationen gibt, in denen das neue speichermanagement vorteile bietet? möglicherweise ist das sogar in der mehrheit der fälle der fall, nämlich immer dann wenn der speicher ausreicht, was wohl deutlich häufiger der fall sein dürfte als umgekehrt.


Wenn Rivatuner in einem Spiel einen Speicherverbrauch von beispielsweise 400MB anzeigt, bedeutet das nicht, dass diese 400MB für die momentane 3D Landschaft vonnöten sind.

woher willst du das wissen?

Gast
2008-11-13, 20:26:32
Ich frage mich was die Aussage bezüglich momentan verwendeter und nicht verwendeter Daten im Vram soll. Ist der Vram voll muß ausgelagert werden, egal welche Daten nun drinstehen. Und dies führt zum Performanceverlust. Und, wie bereits geschrieben, konnte ich mit meiner 8800GT 512MB bisher noch NIE dieses Problem, welches Du hier als Vram-Bug bezeichnest, beobachten. Ich werde die Tage extra nochmal an meinem Zweit-PC, wo die 8800GT jetzt installiert ist, mit extremen Settings in neueren Games testen.

Schlammsau
2008-11-13, 20:35:19
Und es wird weiter geleugnet! :rolleyes:

weltenbummler
2008-11-13, 21:04:44
was soll daran ein bug sein?

:biggrin: du vermagst es nicht wirklich zu verstehen, oder? diese Ignoranz ist peinlich.

Bedingt eine Spielsituation mit hoher Auflösung und hochauflösenden Texturen mehr VRAM als vorhanden sind, wird ausgelagert und es kommt zu einer schlechten Performance, das ist nicht der Bug.

Dieser greift jedoch dann, wenn, durch falsches Timing oder whatever, die nötigen Daten in Situationen, da der VRam ausreicht, nicht dort hinverschoben wurden / werden konnten
Und btw.. es kommt permanent zu einer Verschiebung von Daten, Festplatte-Ram-VRAM, trivial ausgedrückt, nur durch den Bug sind die Daten halt im falschen Moment am falschen Platz, und nur davon reden wir hier seit.. ^^
was ist daran nicht zu verstehen ?

woher willst du das wissen?
ähm, logisches Denken?

Was erwartest du für Beweise? Womöglich reicht ja die von mir erwähnte Volldrehung in Oblivion mit den Treibern, die den Fehler in diesem Spiel (mit genannten Einbussen) ausbesserten.
Diese Drehung geschieht hier flüssig obgleich der gesamte Speicherverbrauch im Rivatuner weit über der des vorhandenen VRam's beziffert wird.
In dieser Situation kommt es durch andere Treiber und wenn der Bug greift, zum Einbruch. Alt+Tab schafft dann für eine Weile wieder Abhilfe.

Gast
2008-11-13, 21:14:47
Dass es ein Treiberbug ist, ist ja bewiesen, wenn die Einbrüche durch "alt+tab und wieder zurück" eine Weile verschwinden......was gibts da überhaupt noch zu diskutieren?
Ausserdem konnte ich das Phänomen auch selber beobachten mit meiner 8800GTX, nur dass es damit halt ein bisschen länger dauerte, bis man wieder alt+tab machen musste, da der VRam grösser ist.

Gast
2008-11-13, 21:15:22
:biggrin: du vermagst es nicht wirklich zu verstehen, oder? diese Ignoranz ist peinlich.

doch, offenbar verstehe ich sogar sehr viel mehr als du.


Bedingt eine Spielsituation mit hoher Auflösung und hochauflösenden Texturen mehr VRAM als vorhanden sind, wird ausgelagert und es kommt zu einer schlechten Performance, das ist nicht der Bug.

schön, dass du es einsiehst.

Dieser greift jedoch dann, wenn, durch falsches Timing oder whatever, die nötigen Daten in Situationen, da der VRam ausreicht, nicht dort hinverschoben wurden / werden konnten

es gibt keinen vernünftigen grund, dass die daten nicht in den VRAM geschrieben werden können.

der ersetzungsalgorithmus dürfte allerdings offensichtlich nicht besonders gut sein, allerdings kann man mit einem einfachen ersetzungsalgorithmus wieder jede menge rechenleistung sparen.

Was erwartest du für Beweise?

dass du an der programmierung des spiels beteiligt warst und deshalb weißt wieviel VRAM für eine bestimmte menge benötigt wird. wenn das nicht der fall ist, dann sprich nicht über etwas wovon weder du noch irgendjemand hier wissen kann.

Gast
2008-11-13, 21:21:25
Dieser greift jedoch dann, wenn, durch falsches Timing oder whatever, die nötigen Daten in Situationen, da der VRam ausreicht, nicht dort hinverschoben wurden / werden konnten
Und btw.. es kommt permanent zu einer Verschiebung von Daten, Festplatte-Ram-VRAM, trivial ausgedrückt, nur durch den Bug sind die Daten halt im falschen Moment am falschen Platz, und nur davon reden wir hier seit.. ^^
was ist daran nicht zu verstehen ?

Wenn es nicht am überfülltem Vram liegt, dann müßte der Bug bei allen G80/G92 und Ablegern greifen, da es dann ja nicht an der Menge des Vram liegen kann. Erst überlegen dann posten ;).

Außerdem habe ich mich durch mehrere Vram-Bug Threads gelesen, es gibt halt sehr viele Leute, die das Problem auch mit einer 320Mb oder 256 Mb Karte nicht haben. Also kann es kaum ein Bug sein. Vielleicht liegts an einer Hardwarekonfig (Mainboardchipsatz oder was auch immer) welche zu den Problemen bei manchen Leuten führt. Wie gesagt, sollte es ein Bug sein, müßten 100% alle Karten mit dieser GPU-Architektur betroffen sein. Und das ist nicht der Fall.

Ein Voting, wer die Probleme mit welcher Karte und Speicherausstattung hat bzw. nicht hat, sollte Klarheit bringen.

Gast
2008-11-13, 21:34:37
Dass es ein Treiberbug ist, ist ja bewiesen, wenn die Einbrüche durch "alt+tab und wieder zurück" eine Weile verschwinden......was gibts da überhaupt noch zu diskutieren?das ganze ist vollkommen logisch.


problematisch ist bei NV offenbar, dass das auslagern ziemlich ineffizient ist, es muss also öfter auf den hauptspeicher zugegriffen werden als es bei einer idealen zugriffsfolge sein müsste.

wenn du die anwendung mit Alt-Tab minimierst wird der gesamte VRAM erstmal in den hauptspeicher gesichert und für den desktop freigemacht.

nachdem du wieder zur vollbildanwendung wechselst müssen die daten natürlich neu aus dem RAM geladen werden, je nachdem mit welcher strategie (beispielsweise LRU) die daten geladen werden können sie natürlich effizienter im VRAM vorliegen.

weltenbummler
2008-11-13, 21:41:10
es gibt keinen vernünftigen grund, dass die daten nicht in den VRAM geschrieben werden können.

richtig! und ein Bug ist meist unvernünftig :wink:



dass du an der programmierung des spiels beteiligt warst und deshalb weißt wieviel VRAM für eine bestimmte menge benötigt wird. wenn das nicht der fall ist, dann sprich nicht über etwas wovon weder du noch irgendjemand hier wissen kann.

durch logische Schlussfolgerungen lässt sich vieles ableiten, werter Gast. btw bin ich noch immer der Meinung, dass es so gut wie keine Spiele gibt, die in der Auflösung, in der ich den Bug hatte (1280x1024) einen Vram von 256MB zu füllen vermögen. Durch intelligente Methoden - wie etwa LOD - hält sich der aktuell nötige Bedarf stets in Grenzen. Bei zukünftigen Spielen wird's wahrscheinlich wieder anders aussehen.

edit: unabhängig davon wird natürlich auch hier in der Erweiterung des Vrams gecached, etwa Texturen, die kürzlich benötigt wurden, das zeigt Rivatuner wunderbar an

Wenn es nicht am überfülltem Vram liegt, dann müßte der Bug bei allen G80/G92 und Ablegern greifen, da es dann ja nicht an der Menge des Vram liegen kann. Erst überlegen dann posten ;).

Er greift nicht, da es auf Verhältnissmässigkeiten und aller Wahrscheinlichkeit nach Timings ankommt, die dafür sorgen, dass bei höheren Ausstattungen an Video Speicher der Algorithmus ausreichend effizient ist, ein fehlerhaftes Verhalten quasi nicht auftreten kann. Eine Vermutung natürlich nur. Die Sache scheint eben zu komplex.
Klartext fordere bitte beim Herrsteller an.


Außerdem habe ich mich durch mehrere Vram-Bug Threads gelesen, es gibt halt sehr viele Leute, die das Problem auch mit einer 320Mb oder 256 Mb Karte nicht haben. Also kann es kaum ein Bug sein. Vielleicht liegts an einer Hardwarekonfig (Mainboardchipsatz oder was auch immer) welche zu den Problemen bei manchen Leuten führt. Wie gesagt, sollte es ein Bug sein, müßten 100% alle Karten mit dieser GPU-Architektur betroffen sein. Und das ist nicht der Fall.

Ein Voting, wer die Probleme mit welcher Karte und Speicherausstattung hat bzw. nicht hat, sollte Klarheit bringen.

Wie gesagt, es ist wohl möglich, Treiber auf kritische Spiele anzupassen, das tut Nvidia fleissig. Aber werden sie es immer tun (können)?
no way, ein Beispiel habe ich gestern aufgezeigt.

Der Vorschlag mit dem Voting gefällt, vllt auch gleich noch die Treiberversion sowie das Spiel mit nennen. Könnte als Richtlinie für Betroffene herhalten ^^

Hvoralek
2008-11-13, 21:57:28
Was soll eigentlich diese Wortklauberei darum, ob man das nun "Bug" nennen soll oder "Architekturnachteil"? Wenn es das Problem gibt, ist es doch herzlich egal, wie man es nennt.

Und es wird weiter geleugnet! :rolleyes:Dass dieses Volllaufen ein spezifisches Problem von G8x ist und auf anderen Chips nicht auftreten kann, ist m.E. auch nicht eindeutig bewiesen worden. Was ich für einen Beweis für nötig halte, habe ich hier schon mehrfach gesagt, bisher hat niemand diese Messungen durchgeführt. Auch Weltenbummler macht hier viel Aufhebens um nichts Neues. Diese Beobachtungen (Plötzlicher Framerateneinbruch, der durch Alt+Tab behoben werden kann), wurden hier schon von etlichen Leuten einschließlich mir selbst gemeldet und auch eindeutig auf den VRAM zurückgeführt. Ich persönlich vermute auch, dass das ein G8x- Problem ist. Aber Du bist mit Deiner "Der Bug ist da!!1111"- Haltung nicht wirklich besser als gewisse Leute mit einer "Der Bug ist nicht da!!!!1111"- Haltung. Stichhaltig bewiesen ist weder das eine noch das andere.

Um neue Generationen besser dastehen zu lassen. Hat nVidia schon mal gemacht, damals bei der GF4.Diese Aussage kommt immer wieder mal hoch und ich frage immer mal wieder nach Belegen. Der umfangreichste NV25- Treibervergleich, den ich kenne, kam Ende 2005 gerade zu dem Ergebnis, die neuesten Treiber seien die besten: http://alt.3dcenter.org/artikel/geforce4_treibervergleich/

Mit den 50er- Treibern gab es zwar z.T. Leistungsverluste, die aber meist mit behobenen Darstellungsfehlern zusammenfielen (HL2, Ground Control 2). Ich traue es Nvidia zwar durchaus zu, ihre eigenen alten Chips künstlich zu bremsen, um neue besser dastehen zu lassen, aber ich habe bisher keinen Beweis oder auch nur ernsthaften Hinweis darauf gesehen, dass sie das irgendwann einmal tatsächlich getan hätten. Kommst Du nur vom Hörensagen darauf oder gibt es handfeste Belege?

Gast
2008-11-13, 22:00:47
Stichhaltig bewiesen ist weder das eine noch das andere.

richtig, und so lange nichts bewiesen ist gilt im zweifel für den angeklagten, also kein bug bis jemand das gegenteil beweist.

Hvoralek
2008-11-13, 22:03:56
richtig, und so lange nichts bewiesen ist gilt im zweifel für den angeklagten, also kein bug bis jemand das gegenteil beweist.Das hier ist doch keine Strafverhandlung. Hier kann jeder vermuten und glauben, was er möchte und sich bei Kaufempfehlungen auch daran orientieren. Er soll es aber dann bitte auch als Vermutung oder persönliche Überzeugung kennzeichnen und nicht als erwiesene Tatsache hinstellen.

weltenbummler
2008-11-14, 00:12:27
@ Hvoralek
richtig, es ist völlig egal wie man das Verhalten nennt, es geht nur darum, die Haltung jener zu entwerten, die meinten, es wäre normal, obwohl sie es nicht nachvollziehen können.

Machen wir uns nichts vor, einen Konsenz werden wir hier wohl nicht finden, dafür sind die 'Fronten' zu verhärtet, wobei es sich mir nicht erschliesst, warum es sie überhaupt gibt :D - abgesehen von einigen Theorien..

Worin der Fehler besteht wurde mehrmals ausführlich von verschiedenen Leuten geschildert, jeder mit ähnlichen Problemen sollte es bei sich verifizieren können, wenn derartige Probleme auftreten. Und dann gäbe es hier ne Art Anlaufstelle, womit die ganze Sache zumindest einen Nutzen bekäme :)

btw: dass es einen Bug gibt, der diese Symptome zeigt, gab der Pressesprecher von Nvidia selbst zu, sicher ungeschickt, aber damals konnte wohl niemand ahnen, dass allgemeiner Bugfix technisch scheinbar schwierig zu realisieren ist

Hvoralek
2008-11-14, 00:52:23
Wie gesagt habe ich dieses Volllaufen selbst schon einmal erlebt. Ich kann allerdings nicht allein deshalb bestätigen, dass das eine Eigenart von G8x ist und nicht am Spiel liegt. Dafür wären m.E. umfassendere Vergleichsmessungen zwischen G8x und R6xx erforderlich (siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6410534#post6410534)). Die hat hier bisher niemand vorgenommen. Und auch sonst keine Tests, die mich fest davon überzeugen, dass dieses Volllaufen eine Eigenart von G8x ist oder davon, dass es keine ist. Man kann da keine sicheren Aussagen machen, weder in die eine noch in die andere Richtung.

Natürlich sind die Fronten hier völlig verhärtet. Wenn gewisse Leute auftauchen und ein Thema in irgendeiner Weise als "AMD vs. Nvidia" verstanden werden kann, kommt es fast immer zu solchen Fronten. Ich brauche wohl keine Namen zu nennen, aber Du wirst gewisse Leute praktisch nicht davon überzeugen können, dass es dieses Problem gibt, und andere ebenso praktisch nicht davon, dass es es nicht gibt.

Ich möchte noch einmal ausdrücklich darauf hinweisen, dass die bloße Beobachtung dieses Volllaufens auf einem G8x m.E. kein Beweis für diesen Bug ist. Und auf mehr als genau disese Beobachtung stützt auch Du Dich nicht.

LovesuckZ
2008-11-14, 01:03:41
Es gibt kein unkontrolliertes Vollaufen des Speicher beim G8x. Wie oft muss man das noch wiederholen? Mir kommt es vor, dass die Leute nicht verstehen, was unter "unkontrolliertes Vollaufen" zu verstehen ist. Ein Vollaufen impliziere, dass hier unkontrolliert Daten in den Speicher geschrieben werden. Und dieses Vorgehen muss zwangsläufig in jeder Anwendung auftreten, die Daten an die Karte schickt. Es spielt auch keine Rolle, wieviel Speicher eine G8x/9x Karte besitzt - die Problematik würde dadurch nur zeitlich nach hinten verschoben werden.
Dort, wo eine G92 Karte mit 512mb abkackt, betrifft es auch nach Stunden jedoch nicht eine 8800GTX. Das widerlegt jegliche Theorien eines Vollauffens. Und richtiger wird es eben auch nicht, wenn man meint, man könnte es nur oft genug wiederholen.

puntarenas
2008-11-14, 09:13:39
Was soll eigentlich diese Wortklauberei darum, ob man das nun "Bug" nennen soll oder "Architekturnachteil"? Wenn es das Problem gibt, ist es doch herzlich egal, wie man es nennt.

Ja, ich finde das auch zermürbend.

@ Hvoralek
richtig, es ist völlig egal wie man das Verhalten nennt, es geht nur darum, die Haltung jener zu entwerten, die meinten, es wäre normal, obwohl sie es nicht nachvollziehen können.

Nein, es geht eben nicht darum, die Haltung irgendwelcher Leute zu thematisieren. Dadurch beschäftigt sich der Thread dann seitenlang mit persönlichen Kleinkriegen. Wer nichts zur Sache beizutrageh hat, sollte im Thread einfach ignoriert werden, die Erfahrung zeigt, dass man Getrolle, OT-Spam und Flamewars eben nicht siegreich kontern kann, sondern nur anheizt.


Wie gesagt habe ich dieses Volllaufen selbst schon einmal erlebt. Ich kann allerdings nicht allein deshalb bestätigen, dass das eine Eigenart von G8x ist und nicht am Spiel liegt. Dafür wären m.E. umfassendere Vergleichsmessungen zwischen G8x und R6xx erforderlich (siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6410534#post6410534)).
Man bräuchte IMHO Sachverstand und Erfahrung, ein geeignetes Spielesortiment und geeignete Vergleichshardware. Idealerweise vielleicht Karten mit identischer GPU gestaffelt von 256MB bis 1024MB (-> 8800GT) und einen passenden ATI-Widerpart.


Ich möchte noch einmal ausdrücklich darauf hinweisen, dass die bloße Beobachtung dieses Volllaufens auf einem G8x m.E. kein Beweis für diesen Bug ist. Und auf mehr als genau disese Beobachtung stützt auch Du Dich nicht.
G8x glaube ich kaum, das Phänomen trifft mich mit G92 auch immer wieder. Natürlich kann ich nicht sagen, ob die GPU, der Treiber, die 3D-API oder das Spiel letzten Endes verantwortlich ist. Indiz für einen Treiber- oder Hardwarebug ist für mich aber, dass ich das zuvor bei ATI in der Form nicht erlebt habe, bei meiner 8800GT läuft es plötzlich an zuvor flüssigen Stellen nur noch ruckelig, läßt sich dann aber mit Alt+Tab wieder vorübergehend bereinigen.



Dort, wo eine G92 Karte mit 512mb abkackt, betrifft es auch nach Stunden jedoch nicht eine 8800GTX. Das widerlegt jegliche Theorien eines Vollauffens. Und richtiger wird es eben auch nicht, wenn man meint, man könnte es nur oft genug wiederholen.
Nicht unbedingt, es wird eben so lang in den VRAM geschaufelt, bis alles drin ist und wenn die 768MB für alle daten reichen, gibt es auch kein "Überlaufen". Ich gestehe aber gern, dass die 8800GT, solange der VRAM-Verbrauch deutlich unterhalb der 512MB-VRAM bleibt, ebenfalls keine Symptome zeigt und auch nach langer Zeit nicht "volläuft". Möglichkeiten, warum es bei 768MB nur noch sehr selten oder nicht mehr vorkommt, kann ich mir genug stricken, ohne Grundlagenwissen zur Speicherverwaltung bei Grafikhardware und Spielen mache ich mir dann aber die Welt, wiedewiedewie sie mir gefällt. :smile:

Ernie@work
2008-11-14, 09:54:25
Diese Aussage kommt immer wieder mal hoch und ich frage immer mal wieder nach Belegen. Der umfangreichste NV25- Treibervergleich, den ich kenne, kam Ende 2005 gerade zu dem Ergebnis, die neuesten Treiber seien die besten: http://alt.3dcenter.org/artikel/geforce4_treibervergleich/

Mit den 50er- Treibern gab es zwar z.T. Leistungsverluste, die aber meist mit behobenen Darstellungsfehlern zusammenfielen (HL2, Ground Control 2). Ich traue es Nvidia zwar durchaus zu, ihre eigenen alten Chips künstlich zu bremsen, um neue besser dastehen zu lassen, aber ich habe bisher keinen Beweis oder auch nur ernsthaften Hinweis darauf gesehen, dass sie das irgendwann einmal tatsächlich getan hätten. Kommst Du nur vom Hörensagen darauf oder gibt es handfeste Belege?

Angesichts des eigentlichen Themas verweise ich mal beispielhaft auf die vollständigen ReleaseNotes des Rivatuners, der beschreibt recht deutlich, wann welche Treiberoptimierungen bei älteren Generationen zugunsten neuerer Generationen entfernt worden sind.

Gast
2008-11-14, 11:34:18
Nicht unbedingt, es wird eben so lang in den VRAM geschaufelt, bis alles drin ist und wenn die 768MB für alle daten reichen, gibt es auch kein "Überlaufen".

toll und was sagt das uns jetzt? wenn alle daten in den VRAM passen gut, wenn nicht schlecht.

was ist daran jetzt unvorhergesehen?

Hvoralek
2008-11-14, 19:45:38
Es gibt kein unkontrolliertes Vollaufen des Speicher beim G8x. Wie oft muss man das noch wiederholen? Mir kommt es vor, dass die Leute nicht verstehen, was unter "unkontrolliertes Vollaufen" zu verstehen ist. Ein Vollaufen impliziere, dass hier unkontrolliert Daten in den Speicher geschrieben werden. Und dieses Vorgehen muss zwangsläufig in jeder Anwendung auftreten, die Daten an die Karte schickt. Es spielt auch keine Rolle, wieviel Speicher eine G8x/9x Karte besitzt - die Problematik würde dadurch nur zeitlich nach hinten verschoben werden.
Dort, wo eine G92 Karte mit 512mb abkackt, betrifft es auch nach Stunden jedoch nicht eine 8800GTX. Das widerlegt jegliche Theorien eines Vollauffens. Und richtiger wird es eben auch nicht, wenn man meint, man könnte es nur oft genug wiederholen.Wer behauptet denn, es würden unkontrolliert Daten in den Speicher geschrieben? Die Vermutungen sind doch, dass das Löschen überflüssiger Daten nicht richtig funktioniert (und der Speicher deshalb durch korrekte Schreibvorgänge vollläuft). Das wird durch Deine Überlegungen aus zwei Gründen nicht wiederlegt:
Um 768 MiB zu füllen, müssten zunächst in einem Level überhaupt so viele Texturdaten vorhanden sein. Wenn es nur 700 MiB gibt, können 512 volllaufen, 768 aber auch nach Jahren nicht. Darauf habe ich auch ein paar Seiten zurück erst hingewiesen.
Selbst wenn ein Level >> 768 MiB Texturdaten aufweist (Es muss ja reichen, um den Speicher einer 8800 GTX zu füllen und mit den ausgelagerten Daten das PCIe- Interface zu überlasten), kannst Du damit nur eine Behauptung widerlegen, G8x könnten überhaupt keine Texturen aus dem Speicher löschen. Dafür würden auch schon einfache RT- Messungen genügen, die einen Rückgang des Speicherbedarfs zeigen. Hat irgendjemand behauptet, G8x könnten Texturen gar nicht aus dem Speicher löschen? Ich habe selbst Schlammsau so verstanden, dass das Löschen von Texturen nach seiner Überzeugung in manchen Fällen schiefgeht. Dieser Vermutung kannst Du Deine Überlegung nicht entgegenhalten, auch dazu kannst Du einfach ein paar Seiten zurückblätern. Mein letzter Beitrag, auf den Du damals nicht mehr reagiert hast, war dieser: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6489369#post6489369


G8x glaube ich kaum, das Phänomen trifft mich mit G92 auch immer wieder. Natürlich kann ich nicht sagen, ob die GPU, der Treiber, die 3D-API oder das Spiel letzten Endes verantwortlich ist. Indiz für einen Treiber- oder Hardwarebug ist für mich aber, dass ich das zuvor bei ATI in der Form nicht erlebt habe, bei meiner 8800GT läuft es plötzlich an zuvor flüssigen Stellen nur noch ruckelig, läßt sich dann aber mit Alt+Tab wieder vorübergehend bereinigen."G8x" schließt natürlich G9x und GT2xx ein. Bei mir betrifft das ja auch einen G92.


Angesichts des eigentlichen Themas verweise ich mal beispielhaft auf die vollständigen ReleaseNotes des Rivatuners, der beschreibt recht deutlich, wann welche Treiberoptimierungen bei älteren Generationen zugunsten neuerer Generationen entfernt worden sind.Ich bin anscheinend zu doof, die bei G3D zu finden. Ein oder zwei Beispiele wären auch nicht schlecht (sorry für OT. PN geht ja hier schwer).

Gast
2008-11-14, 19:58:54
Dafür würden auch schon einfache RT- Messungen genügen, die einen Rückgang des Speicherbedarfs zeigen. Hat irgendjemand behauptet, G8x könnten Texturen gar nicht aus dem Speicher löschen?

oft genug, und das wäre auch das einzige was ein bug wäre.


Ich habe selbst Schlammsau so verstanden, dass das Löschen von Texturen nach seiner Überzeugung in manchen Fällen schiefgeht. Dieser Vermutung kannst Du Deine Überlegung nicht entgegenhalten, auch dazu kannst Du einfach ein paar Seiten zurückblätern.

wieso sollten texturen manchmal löschbar sein, manchmal nicht? es gibt keinen einzigen grund dafür, entweder es funktioniert oder eben nicht.

Gast
2008-11-14, 20:05:54
Einige verwechseln eine physikalische Verkrüppelung (256/320MiB) mit einem Hardwarebug.

Ist halt neu, das G8x stark am VRAM hängt, bzw PCIe 16x voll ausreizt.
Für manch einen eine völlig neue Situation, die sich am einfachsten mit Bug erklären lässt.

Sich selbst mal an die Nase fassen und zugeben, ich habe für meine Settings scheisse gekauft, will niemand.
Mensch, schon die X1800 hatte 512MiB, jetzt kommen die Kiddies daher und meinen eine weitaus schnellere 8800 GTS kommt auch mit weniger aus.

Hvoralek
2008-11-14, 20:11:43
oft genugLink?

und das wäre auch das einzige was ein bug wäre.Wenn also das Löschen von Texturen nur manchmal nicht funktioniert, wäre das DMn in Ordnung? :|

Oder meinst Du, wenn das nur manchmal fehlerhaft sei, sei es kein Bug, sondern eine Architektureigenschaft? :rolleyes:

wieso sollten texturen manchmal löschbar sein, manchmal nicht? es gibt keinen einzigen grund dafür, entweder es funktioniert oder eben nicht.Es ist jedenfalls klar, dass auch G8x prinzipiell in der Lage sind, Texturen aus dem Speicher zu löschen. Spätestens beim Beenden einer 3D- Anwendung will das ja wohl niemand bezweifeln. Es erscheint mir auch durchaus denkbar, dass das Speichermanagement einfach in bestimmten Fällen Texturen im Speicher lässt, die eigentlich gelöscht werden müssten (wie auch schon hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6489226#post6489226). Wenn Du belegen kannst, dass das Löschen von Texturen einschließlich der Auswahl der Texturen, die gelöscht werden müssen, nur entweder absolut optimal funktionieren kann oder überhaupt nicht, ist das Thema vom Tisch. Viel Erfolg dabei!

Gast
2008-11-14, 20:20:21
Wenn Du belegen kannst, dass das Löschen von Texturen einschließlich der Auswahl der Texturen, die gelöscht werden müssen, nur entweder absolut optimal funktionieren kann oder überhaupt nicht, ist das Thema vom Tisch. Viel Erfolg dabei!

wie oft denn noch?

der befehl zum löschen der textur kommt von der anwendung, wie "optimal" das geschieht hängt von dieser ab und nicht vom grafiktreiber.

Schlammsau
2008-11-14, 20:23:00
wie oft denn noch?

der befehl zum löschen der textur kommt von der anwendung, wie "optimal" das geschieht hängt von dieser ab und nicht vom grafiktreiber.

Dann bevorzugen manche Spiele wohl ATi Karten, weil es bei diesen nicht vor kommt! Auch mit weniger VRAM!

Hvoralek
2008-11-14, 20:28:49
der befehl zum löschen der textur kommt von der anwendung, wie "optimal" das geschieht hängt von dieser ab und nicht vom grafiktreiber.Klingt plausibel. Ich weiß nicht, inwieweit Speichermanagement vom Treiber und inwieweit von der Anwendung betrieben wird. Dafür, dass Schreib- und Löschbefehle für Texturen ausschließlich von der Anwendung kommen und von Treiber/Hw nur sklavisch ausgeführt werden, hätte ich allerdings gerne etwas Handfesteres als die Aussage eines namenlosen Gastes, zumal bei so einem Thema.

Gast
2008-11-14, 20:33:55
Dann bevorzugen manche Spiele wohl ATi Karten, weil es bei diesen nicht vor kommt! Auch mit weniger VRAM!

ach gott, hier werden wieder verschiedene dinge durcheinandergemischt, ich versuch mal zusammenzufassen:


1. potentieller bug: speicher wird nicht freigegeben, obwohl er frei sein sollte.
bisher gibt es zumindest keinen einzigen hinweis dafür.


2. der generelle speicherverbrauch ist bei NV etwas höher, eine mittlerweile bewiesene tatsache, allerdings ist der unterschied nicht wahnsinnig groß.


3. das verhalten wenn der speicher nicht mehr ausreicht: wenn ausgelagert werden muss schafft es ATI offensichtlich effizienter die zugriffe auf den speicher zu verwalten, wodurch der einbruch geringer ist.

2 und 3 sind garantiert kein bug, das wäre nur ersteres.

AckytheG
2008-11-14, 20:37:13
Dann bevorzugen manche Spiele wohl ATi Karten, weil es bei diesen nicht vor kommt! Auch mit weniger VRAM!
Das stimmt so auch nicht ganz.

Ich habe hier mit einer betagten HD3850 (512MB) genau das gleiche Problem in FarCry 2.
Wenn ich zu lange durch die Landschaft stapfe/fahre, brechen die Frames irgendwann ein und bleiben dann auf diesem niedrigen Niveau.
Erst das Speichern und erneute Laden des Savegames bringt Besserung...

Das ganze mag daran liegen, dass das Spiel noch recht kurz auf dem Markt ist und dementsprechend noch Optimierungspotential besteht.
Aber auch ATi ist vor solchen Problemen nicht gänzlich sicher.

Edit:
Das ganze tritt auf unter WinXP (SP3) i.V.m. dem FarCry2-Hotfix-Treiber (http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=38664).
Gespielt wurde in 1024x768 und 4xAA mit Ultra-Settings.

Schlammsau
2008-11-14, 20:47:36
Das stimmt so auch nicht ganz.

Ich habe hier mit einer betagten HD3850 (512MB) genau das gleiche Problem in FarCry 2.
Wenn ich zu lange durch die Landschaft stapfe/fahre, brechen die Frames irgendwann ein und bleiben dann auf diesem niedrigen Niveau.
Erst das Speichern und erneute Laden des Savegames bringt Besserung...

Das ganze mag daran liegen, dass das Spiel noch recht kurz auf dem Markt ist und dementsprechend noch Optimierungspotential besteht.
Aber auch ATi ist vor solchen Problemen nicht gänzlich sicher.

Edit:
Das ganze tritt auf unter WinXP (SP3) i.V.m. dem FarCry2-Hotfix-Treiber (http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=38664).
Gespielt wurde in 1024x768 und 4xAA mit Ultra-Settings.

Das habe ich auch schon von anderen gelesen. Aber nur in diesem Spiel!
Könnte evtl auch an dem Spiel liegen.

Hvoralek
2008-11-14, 20:59:32
Ich habe hier mit einer betagten HD3850 (512MB) genau das gleiche Problem in FarCry 2.
Wenn ich zu lange durch die Landschaft stapfe/fahre, brechen die Frames irgendwann ein und bleiben dann auf diesem niedrigen Niveau.
Erst das Speichern und erneute Laden des Savegames bringt Besserung..Hilft auch einfach Alt + Tab? Hast Du mal den Verlauf von Grafik- und Hauptspeicherauslastung mitgemessen?

Gast
2008-11-14, 21:50:11
Das stimmt so auch nicht ganz.

Ich habe hier mit einer betagten HD3850 (512MB) genau das gleiche Problem in FarCry 2.
Wenn ich zu lange durch die Landschaft stapfe/fahre, brechen die Frames irgendwann ein und bleiben dann auf diesem niedrigen Niveau.
Erst das Speichern und erneute Laden des Savegames bringt Besserung...
Womit wieder einmal bewiesen ist, das es kein Bug ist.

Nur eben merkt man bei AMD seltener, dank der Eigenheit bei vollem VRAM nicht ganz so stark einzubrechen.

Wenn sich jemand mit einer AMD Karte mal bemühen würde und diverse Tests machen würde wäre dieses Gerücht schön längst aus der Welt.

Schlammsau
2008-11-14, 22:04:01
guckt mal hier! ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437570

Gast
2008-11-14, 22:10:43
Gut, dann kann ein Mod ja die Überschrift ändern, das Thema ist erledigt.

Schlammsau
2008-11-14, 22:12:50
Gut, dann kann ein Mod ja die Überschrift ändern, das Thema ist erledigt.
:|

Gast
2008-11-14, 22:16:48
Du hast gerade einen Beweiß gepostet, das der "Bug" nicht Nvidia only ist, deckt sich mit der Aussage des AckytheG und dem Umstand, wie der "Bug" auftreten soll. :)

Schlammsau
2008-11-14, 22:19:17
Du hast gerade einen Beweiß gepostet, das der "Bug" nicht Nvidia only ist, deckt sich mit der Aussage des AckytheG und dem Umstand, wie der "Bug" auftreten soll. :)
Liegen diese Einbrüche an dem Game oder den Karten? Da ist noch gar nichts bewiesen! Es kann auch sein das der RAM voll ist.

Gast
2008-11-14, 22:38:19
Ja genau, wenns bei AMD langsam läuft ist irgendetwas schuld, entweder das Spiel oder der Rest des Rechners, wenns bei Nvidia langsam läuft, dann ist der Chip verbuggt.

AckytheG
2008-11-14, 22:40:50
So - nach fast 2 Stunden FarCry2-Zocken hab ich nun endlich rausgefunden, wann das Problem (bei mir) überhaupt auftritt.
Erst nachdem ich Pala, die zentrale Zone auf der ersten Map erreicht habe, sind die FPS eingebrochen.
Alt+Tab konnte das Problem dann beseitigen.

@Hvoralek und Schlammsau
Mit welchem Programm soll ich den Speicherverbauch der Karte messen?
Mit dem Monitoring-Tool des RivaTuners? Falls ja, wo fügt man die entsprechenden Grafiken zur Anzeige hinzu?

Für mich ist das VRAM-Problem der aktuellen Geforces damit im Übrigen noch lange nicht vom Tisch.
Mag sein, dass ATi davor auch nicht sicher ist, aber das Problem tritt mit G80/G90 wesentlich häufiger auf.
Das könnte allerdings auch daran liegen, dass das VRAM-Management der Geforces zurzeit generell schlechter ist und die Karten somit anfälliger für das Problem sind.

Schlammsau
2008-11-14, 22:41:31
Ja genau, wenns bei AMD langsam läuft ist irgendetwas schuld, entweder das Spiel oder der Rest des Rechners, wenns bei Nvidia langsam läuft, dann ist der Chip verbuggt.
Ok....dann ist es der VRAM Bug. Aber das wäre das erste mir bekannte Spiel, was bei Radeons auch zum überlaufen des Speichers führen würde!

Schlammsau
2008-11-14, 22:44:42
So - nach fast 2 Stunden FarCry2-Zocken hab ich nun endlich rausgefunden, wann das Problem (bei mir) überhaupt auftritt.
Erst nachdem ich Pala, die zentrale Zone auf der ersten Map erreicht habe, sind die FPS eingebrochen.
Alt+Tab konnte das Problem dann beseitigen.

@Hvoralek und Schlammsau
Mit welchem Programm soll ich den Speicherverbauch der Karte messen?
Mit dem Monitoring-Tool des RivaTuners? Falls ja, wo fügt man die entsprechenden Grafiken zur Anzeige hinzu?

Für mich ist das VRAM-Problem der aktuellen Geforces damit im Übrigen noch lange nicht vom Tisch.
Mag sein, dass ATi davor auch nicht sicher ist, aber das Problem tritt mit G80/G90 wesentlich häufiger auf.
Das könnte allerdings auch daran liegen, dass das VRAM-Management der Geforces zurzeit generell schlechter ist und die Karten somit anfälliger für das Problem sind.

Du hast geschrieben, dass du mit einem 8.10 HF dieses Problem hast!? Schonmal den neuen 8.11 Catalyst probiert?

Ja mit dem Monitoring Tool des Rivatuners. Unter Setup müsstest du entsprechende Einträge finden!

Gast
2008-11-14, 22:46:23
Aber das wäre das erste mir bekannte Spiel, was bei Radeons auch zum überlaufen des Speichers führen würde!
Crysis und Far Cry 2 sind 2 Spiele.

Und es gäbe noch mehr, wenn man wollte.

AckytheG
2008-11-14, 22:48:24
Du hast geschrieben, dass du mit einem 8.10 HF dieses Problem hast!? Schonmal den neuen 8.11 Catalyst probiert?.
Noch nicht - hätte dafür aber auch erst am Sonntag Zeit.
Der HF ist allerdings ein Derivat des 8.11 und nur unwesentlich älter (einen Tag).
Mit dem 8.10er Cat war's im Übrigen genauso

Ja mit dem Monitoring Tool des Rivatuners. Unter Setup müsstest du entsprechende Einträge finden!
Dort hab ich schon gesucht.
Leider fehlen da die entsprechenden Einträge.

Schlammsau
2008-11-14, 22:52:45
Crysis und Far Cry 2 sind 2 Spiele.

Und es gäbe noch mehr, wenn man wollte.

Crysis? :| Wer hat was von Crysis geschrieben?

Gast
2008-11-14, 22:54:04
Crysis? :| Wer hat was von Crysis geschrieben?
Du, aber ist wohl schon ein paar Seiten her, im Alter wird man vergesslich, aber zum Glück gibts helfende Gäste. ;)

Schlammsau
2008-11-14, 22:55:11
Noch nicht - hätte dafür aber auch erst am Sonntag Zeit.
Der HF ist allerdings ein Derivat des 8.11 und nur unwesentlich älter (einen Tag).
Mit dem 8.10er Cat war's im Übrigen genauso


Dort hab ich schon gesucht.
Leider fehlen da die entsprechenden Einträge.

Probier den 8.11!


Hardware monitoring -> Setup -> Plugins -> Sysmem.dll und Vidmem.dll auswählen!

AckytheG
2008-11-14, 22:56:35
Du, aber ist wohl schon ein paar Seiten her, im Alter wird man vergesslich, aber zum Glück gibts helfende Gäste. ;)
Such mal bitte nach dem passenden Zitat.
Denn ich hab das wohl auch irgendwie vergessen/überlesen...

...
Hardware monitoring -> Setup -> Plugins -> Sysmem.dll und Vidmem.dll auswählen!
OK, thx!
Ich teste mal eben...

Schlammsau
2008-11-14, 22:57:50
Du, aber ist wohl schon ein paar Seiten her, im Alter wird man vergesslich, aber zum Glück gibts helfende Gäste. ;)

;D oh ja hab ich, und da hatte ich noch eine Geforce 8800GS mit 384MB VRAM! ;D
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6319640#post6319640

Gast
2008-11-14, 23:20:00
Ja genau, die du mit einer 3850 mit 512MiB verglichen hast. ;D

Schlammsau
2008-11-14, 23:26:03
Ja genau, die du mit einer 3850 mit 512MiB verglichen hast. ;D

Ja hab ich, weil es dummerweise keine Radeon mit 384MB gibt! :rolleyes:
Die 3850 ist sogar bei 1280x1024 + 8xAA, nicht so eingebrochen, wie die 8800GS!

AckytheG
2008-11-14, 23:32:36
Kann es sein, dass FarCry das Auslagern der Texturen komplett vergisst und deshalb so schlecht performt?
Zumindest erweckt die untere Grafik diesen Eindruck.
Was man aber definitiv sehen kann ist, dass der Karte der RAM ausgeht und dass man das Ganze mit Alt+Tab wieder ins Lot bringen kann...

Leider konnte ich den Rivatuner nicht dazu überreden, die FPS mit anzuzeigen.
Dann wäre die untere Darstellung noch aussagekräftiger.
Ich hatte allerdings per TrayTools anzeigen lassen und konnte den Unterschied auch deutlich spüren.

Gast
2008-11-14, 23:38:10
Dort hab ich schon gesucht.
Leider fehlen da die entsprechenden Einträge.


wenn du vista verwendest funktioniert das ganze nicht, wobei die ganze VRAM-verwaltung unter vista ein ganz eigenes kapitel ist, da dieser komplett virtualisiert ist.

Schlammsau
2008-11-14, 23:39:54
^^ normalerweise muss sich das letzte diagramm füllen, wenn dir der VRAM voll wird. :|
Könnte ein Zeichen für einen Bug im Spiel sein. Keine Ahnung....
Für die FPS Anzeige musst du den Server starten und im Hintergrund laufen lassen.

AckytheG
2008-11-14, 23:46:11
wenn du vista verwendest funktioniert das ganze nicht, wobei die ganze VRAM-verwaltung unter vista ein ganz eigenes kapitel ist, da dieser komplett virtualisiert ist.
Wie oben schon geschrieben, verwende ich derzeit noch Windows XP.
Inzwischen hab ich das VRAM-Loggen dank Schlammsaus Erklärung aber sowieso hinbekommen. :)

^^ normalerweise muss sich das letzte diagramm füllen, wenn dir der VRAM voll wird.
Könnte ein Zeichen für einen Bug im Spiel sein. Keine Ahnung....
Ich tippe derzeit auch auf einen Fehler im Spiel oder im Treiber - das wird demnächst sicher behoben.

Für die FPS Anzeige musst du den Server starten und im Hintergrund laufen lassen.
Ok, thx für die Info.
Allerdings komme ich heute nicht mehr dazu.
Morgen wird ein langer Tag werden und da muss ich ausgeschlafen sein...

Gast
2008-11-15, 00:15:26
Ja hab ich, weil es dummerweise keine Radeon mit 384MB gibt! :rolleyes:
Die 3850 ist sogar bei 1280x1024 + 8xAA, nicht so eingebrochen, wie die 8800GS!
Aber es gibt sowohl Geforces als auch Radeons mit 256/512/1024MiB. ;)

Gast
2008-11-15, 00:16:18
Die 3850 ist sogar bei 1280x1024 + 8xAA, nicht so eingebrochen, wie die 8800GS!Wir wissen das sich die z-Fillrate derGeforce bei 8xAA fünftelt. :rolleyes:

Schlammsau
2008-11-15, 08:25:35
Wenn ihr das mit einer HD3850 256MB hinbekommt, bin ich gewillt zu glauben, dass es den Bug nicht gibt!

Crysis, GPU Bench
DX10 1024x768, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 84.23s, Average FPS: 23.74
Min FPS: 13.58 at frame 1917, Max FPS: 32.71 at frame 863
Average Tri/Sec: -16994610, Tri/Frame: -715735
Recorded/Played Tris ratio: -1.28
!TimeDemo Run 1 Finished.
Play Time: 97.60s, Average FPS: 20.49
Min FPS: 11.61 at frame 1941, Max FPS: 32.71 at frame 863
Average Tri/Sec: -14404335, Tri/Frame: -702927
Recorded/Played Tris ratio: -1.30
!TimeDemo Run 2 Finished.
Play Time: 162.70s, Average FPS: 12.29
Min FPS: 5.64 at frame 1945, Max FPS: 32.71 at frame 863
Average Tri/Sec: -8640822, Tri/Frame: -702911
Recorded/Played Tris ratio: -1.30

Gast
2008-11-15, 10:20:52
Wenn ihr das mit einer HD3850 256MB hinbekommt, bin ich gewillt zu glauben, dass es den Bug nicht gibt!

Ich habe keine und kaufe mir auch sicher keine Speicherverkrüppelte Karte vom November 2007, nur um dir etwas zu beweisen.

puntarenas
2008-11-15, 10:49:15
Ich habe keine und kaufe mir auch sicher keine Speicherverkrüppelte Karte vom November 2007, nur um dir etwas zu beweisen.
*sigh*

Möchtest du nicht einmal versuchen, etwas weniger egozentrisch an die Dinge heranzugehen? Es geht hier nicht um dich oder darum, wann du die Diskussion für beendet erklärst oder von welcher Hardware du dich distanzieren möchtest. Vielleicht hat ja jemand eine HD3850 256MB zur Hand, das Forum ist groß und die Hardwarearsenale beachtlich.

Ich weiß nicht, inwieweit Speichermanagement vom Treiber und inwieweit von der Anwendung betrieben wird. Dafür, dass Schreib- und Löschbefehle für Texturen ausschließlich von der Anwendung kommen und von Treiber/Hw nur sklavisch ausgeführt werden, hätte ich allerdings gerne etwas Handfesteres als die Aussage eines namenlosen Gastes, zumal bei so einem Thema.
Mir geht es ähnlich. Ich sehe, dass es ein Problem gibt, mir fehlt aber das Grundverständnis zum Speichermanagement bei Games, um Ursachen zu benennen oder auszuschließen (API, Engine, Treiber, GPU, bestimmte Kombination der Vorgenannten, ...). Ich denke, wenn nicht ein Guru mit detektivischem Scharfsinn der Sache auf den Grund geht, werden wir uns weiter mit Spekulationen im Kreise drehen.

dargo
2008-11-15, 10:52:54
Wenn ihr das mit einer HD3850 256MB hinbekommt, bin ich gewillt zu glauben, dass es den Bug nicht gibt!

Crysis, GPU Bench
...
...
...
Wozu? Die Karte die du da verwendet hast ist eh vieeel zu langsam für deine Settings. Ich kann dazu nur eins sagen - beim nächsten Kauf nicht mit dem Vram geizig sein. ;)
Alles was nach GT200 und RV770 kommt und mindestens so schnell ist einfach mit mehr als 512MB kaufen. Das spart einiges an Nerven. ;)

Gast
2008-11-15, 11:42:18
Wir wissen das sich die z-Fillrate derGeforce bei 8xAA fünftelt. :rolleyes:


als ergänzung muss man noch sagen, dass sie sich gegenüber 4xMSAA fünftelt, eine fünftelung gegenüber 1xAA wäre garnicht so schlimm ;)

Gast
2008-11-15, 11:44:00
Wozu? Die Karte die du da verwendet hast ist eh vieeel zu langsam für deine Settings.

vor allem wird hier jeder durchlauf langsamer, es wird also jedesmal neugeladen, was ja beim angeblichen VRAM-bug helfen soll. wenn das der VRAM-bug sein soll müsste man diesen erstmal neu definieren ;)

reallord
2008-11-15, 12:24:12
Kann ich für den GPU-Bench auch die Demo verwenden oder braucht's die Vollversion? Ne 3850 mit 256MB hätt ich nämlich....

Määh, ich seh grad, dass Schlammsau DX10 getestet hat und damit wohl Vista, damit kann ich nich dienen und auch wenn ich demnächst mal das System neu aufsetzen wollte und wohl mal Vista64 ne Chance geben wollte, so werd ich das garantiert nich heute machen...

Aber wenn die Demo und DX9 reichen, dann mach ich das gern mal...