PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 1 GiB VRAM, heute schon sinnvoll bei Midrange-Grakas?


Seiten : 1 [2] 3

Nakai
2008-02-04, 16:26:08
Sie sind also inakzeptabel: Du findest also das Warten auf eine Eingabe, die sehr lange dauernd kann, wesentlich akzeptabler als ein Absturz und somit eine wesentlich schnellere Rückkehr ins geschehen?
Bezweifel ich - wirklich.

Von der technischen Sicht sind sie inakzeptable.
Wenn man die Details runterstellt, wird man bei der Karte, bei der das Spiel mit 3 FPS läuft wohl mehr FPS bekommen, als bei der Karte, bei der der Absturz geschieht.


mfg Nakai

The_Invisible
2008-02-04, 16:29:31
Welche karte hast du?

Für den Anfang dürfte Obivion mit Texturmods lustig werden. =)

hm, das habe ich schon mehrere stunden mit qarls texturmod gespielt, in 1680x1050/8x/16xAF kein problem, auch keine plötliche "vram aus" ruckelerscheinung

mfg

Gast
2008-02-04, 16:31:21
hauch keine plötliche "vram aus" ruckelerscheinung

Ähm du hast auch eine 768MiB Ultra!

LovesuckZ
2008-02-04, 16:32:00
Welche karte hast du?

Für den Anfang dürfte Obivion mit Texturmods lustig werden. =)

8800GT-512.
Und Dirt ruckelt erst vorsich hin (2FPS) und stürzt dann irgendwann komplett ab. Ist natürlich nicht schön.
Einstellung: Alles High bzw. Ultra High, 1680*1050 und 3x3OGSSAA.

seahawk
2008-02-04, 16:39:08
Also es dürfte eigentlich klar sein, dass für Leute mit hoher Auflösung, einer Vorlibe für hohe AA-Modi oder Texturmods, die 1GB Karte eine riesigen und geldwerten Vorteil bietet.

Generell würde ich das nicht sagen, weil eben doch wenige Anwender diese Einstellungen nutzen und die Preisdifferenz augenblicklich zu hoch ist. Besonders, da man das gesamte Problem mit einer HD3870 512MB umgehen kann, die weniger als ide 512MB GT kostet.
Allerdings würde ich mir auf Grund des sehr schlechten Speichermanagements bei NV auch heute lieber die 1GB Version kaufen.

LovesuckZ
2008-02-04, 16:43:03
Generell würde ich das nicht sagen, weil eben doch wenige Anwender diese Einstellungen nutzen und die Preisdifferenz augenblicklich zu hoch ist. Besonders, da man das gesamte Problem mit einer HD3870 512MB umgehen kann, die weniger als ide 512MB GT kostet.


Nein, kann man nicht. Man verhindert zwar den dann auftretenden Absturz, aber die Karte ist ebenfalls zu langsam. Statt 2 FPS hätte ich dann wohl 5 oder 6. In Beiden Fällen müssten die Settings angepasst werden.

Nakai
2008-02-04, 18:15:06
Nein, kann man nicht. Man verhindert zwar den dann auftretenden Absturz, aber die Karte ist ebenfalls zu langsam. Statt 2 FPS hätte ich dann wohl 5 oder 6. In Beiden Fällen müssten die Settings angepasst werden.

Jup. Vll wäre hier ein Test, bei dem spielbare Frames ausfindig gemacht werden, ganz interessant.


mfg Nakai

AnarchX
2008-02-04, 19:28:12
http://img141.imageshack.us/img141/4364/1162704071122rv6708800gmh8.jpg
http://64.233.179.104/translate_c?hl=de&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0711/1162704_7.html
Bei 16 FPS sollte durchaus noch Gameplay möglich sein und manches Studio hat teilweise auch solche Werte bei den Mindestvorraussetzungen als Grundlage. ;)
Wohlmöglich kann die FPS der 3850 gar noch steigern, während die 256er GT weiter abstürzt.

Hvoralek
2008-02-04, 21:39:00
Wohlmöglich kann die FPS der 3850 gar noch steigern, während die 256er GT weiter abstürzt.Kannst Du die Aussage einmal erläutern? Wie/ wann/ wo soll das der Fall sein können?

StefanV
2008-02-04, 21:39:44
hm, anscheinend schmiert Oblivion bei einigen ab... (http://extreme.pcgameshardware.de/showthread.php?p=73754#post73754)

Gast
2008-02-04, 21:44:38
Verzögert sich das Vollaufen bis zum Absturz bei 10024MB nur, oder ist das Problem dann nicht vorhanden?

Razor
2008-02-04, 21:47:19
Dann hilft nur noch...
...denken.
Auf Dein 'Niveau lasse ich mich sicher nicht herab.

40 fps und mehr. Gedeckelt durch VSync auf 60 fps. Das ist bei dem Game sehr gut spielbar. Es hat zwar die Quake3-Engine, aber braucht für das doch deutlich langsamere Movement keine 120 fps.
Ach gott, ja... das 'alte' MoH.
Jetzt weiß ichs wieder... ändert aber nichts daran, dass es schon soooooo lange vom Rechner flog.

Wie gesagt, kann ich nicht mit dienen... nochmal die Frage: vielleicht etwas anderes?
Viele Spiele auf Basis solch betagter Engine sollten super mit 32xS laufen... auch mit 512MB VRAM.

Wenn man mir sagt, in welchen Spiele diese "Bluescreens" auftauchen sollten, werde ich es gerne nachstellen.
Crysis und die Colin: Dirt Demo mit Ultra-Shadows und 4AA in 1680*1050 haben es nicht geschafft.
Und genau hier liegt der Hase im Pfeffer.
Dieser Poster hat absolut nichts Konkretes von sich gegeben - ich wiederhole mich - und ein paar Leute hier husten sich einen ab.
Ich würde da auf Deiner Seite überhaupt nicht auf diesen unbelegten Dünnfug reagieren...

Also es dürfte eigentlich klar sein, dass für Leute mit hoher Auflösung, einer Vorlibe für hohe AA-Modi oder Texturmods, die 1GB Karte eine riesigen und geldwerten Vorteil bietet.
Nein... wie so ziemlich ALLE bisher geposteten Reviews gezeigt haben dürften.
(den einen völlig daneben gegangenen Test von diesem "Hardware-Info" mal ausgenommen ;-)

...
Kannst Du mir mal sagen, was der von Dir gepostete Unfug mit dem Thread zu tun hat?
Oder hast Du Dich vielleicht nur im Thread geirrt?
:confused:

hm, anscheinend schmiert Oblivion bei einigen ab... (http://extreme.pcgameshardware.de/showthread.php?p=73754#post73754)
Nur bei Deinem - bis dato - wenig glaubwürdigen Poster.
:rolleyes:

Razor

LovesuckZ
2008-02-04, 22:15:54
hm, anscheinend schmiert Oblivion bei einigen ab... (http://extreme.pcgameshardware.de/showthread.php?p=73754#post73754)

Das hat nichts mit dem Vram zu tun. Es müsste erst langsam werden und dann abstürzen. Bei ihm stürzt es sofort ab - somit liegt das Problem woanders begründet.

Gast
2008-02-04, 22:25:21
...denken.
Auf Dein 'Niveau lasse ich mich sicher nicht herab.
Ich habe Fakten gepostet!

Du hast anscheinend nichts zu entgegnen. Schade dann bleiben die Fakten im Raum stehen. Unwiederlegbar.

Gast
2008-02-04, 22:29:00
Kannst Du mir mal sagen, was der von Dir gepostete Unfug mit dem Thread zu tun hat?
Oder hast Du Dich vielleicht nur im Thread geirrt?
:confused:

Nein AnarchX hat meine geposteten Fakten mit einem Beweiß untermauert:

Fakt ist, dass 256/320MiB Karten gerne absürzen bei hohem VRAM-Verbrauch.
Fakt ist, dass diese Settings für Karten mit mehr VRAM noch spielbar sind.
Fakt ist, das eine 512MiB Karte na an dem selben Problem ist.

Razor
2008-02-04, 23:30:06
Ich habe Fakten gepostet!
Nö.

Razor

laser114
2008-02-04, 23:45:44
...denken.
Auf Dein 'Niveau lasse ich mich sicher nicht herab.

Stimmt, es geht noch drunter. :rolleyes:
Völlig verfehlter Umgangston, der nicht vom Gast sondern einen - ich zitiere "Grandmaster Member" kommt. Kein Wunder das die Umgangsformen hier teilweise ins bodenlose sinken, bei den ständigen Provokationen gegeneinander. :|
Wenn du dich nicht auf sein Niveau herablassen willst, dann äußere dich doch einfach gar nicht dazu ... so bist du schon drauf eingegangen.

Inhaltlich stimme ich dir da zwar auch nicht vollständig zu - es ist halt einfach sich die leicht widerlegbaren Fakten herauszupicken und andere großflächig zu ignorieren. Das A) eine 256 MiB 8800 GT nicht mehr goldig ist, B) eine 512 MiB 8800 GT auch an ihr Speicherlimit kommen kann (ob nun im spielbaren oder unspielbaren Bereich) und C) dass in kommenden Spielen mehr Speicher gebraucht wird sind wohl alles unbestreitbare Fakten. Oder welchen dieser Punkte siehst du anderes?

Denn nichts anderes hat der Gast gesagt - neben eine Aussage, die nicht gerade nett ist, aber deren Eindruck man auf Grund deines Diskussionsstils gewinnen kann - geht mir auch so.

Nur bei Deinem - bis dato - wenig glaubwürdigen Poster.

Hast y33@ denn mal jemand nach Details gefragt? Als (angehender) PCGH-Praktikant denke ich nicht, dass er aus der Luft gegriffenen Schwachsinn erzählt und im CB-Forum hat er über Monate durchaus einen kompetenten Eindruck gemacht.

Hvoralek
2008-02-04, 23:58:41
Das A) eine 256 MiB 8800 GT nicht mehr goldig ist,Bezweifelt das irgendjemand hier? Es geht ja um die Frage, ob 512 MiB noch reichen.

B) eine 512 MiB 8800 GT auch an ihr Speicherlimit kommen kann (ob nun im spielbaren oder unspielbaren Bereich)Auch das ist klar. Wirklich eine Rolle spielt das aber nur, wenn eine 512- MiB- Karte keine spielbaren fps mehr schafft, eine mit mehr Speicher aber schon. Und solche Fälle muss man wirklich mit der Lupe suchen: CoH- D3D10, Oblivion- Texturmods, noch etwas?

C) dass in kommenden Spielen mehr Speicher gebraucht wirdIn kommenden Spielen wird mehr von allem gebraucht werden. Bei einer 8800 GT hege ich persönlich Zweifel, ob bei Texturpakten, die so viel Speicher brauchen, nicht ohnehin meist die Bandbreite ausgehen wird.

Aber das ist wirklich Kindergarten hier. Ich hatte schon überlegt, den Thread hier erst einmal zu ignorieren, aber es gibt ja anscheinend doch noch einige Leute hier, die sich nicht an diesem... Schauspiel beteiligen.

StefanV
2008-02-04, 23:58:51
Hast y33@ denn mal jemand nach Details gefragt? Als (angehender) PCGH-Praktikant denke ich nicht, dass er aus der Luft gegriffenen Schwachsinn erzählt und im CB-Forum hat er über Monate durchaus einen kompetenten Eindruck gemacht.
Dem kann ich mich nur anschließen, Razor sollt mal ein paar mehr Dinge von ihm lesen, dann wird er recht schnell feststellen, das er ein sehr fleißiger User ist, der weiß was er tut und dem egal ist, was denn nun für HW im Rechner sitzt...

Wie dem auch sei, die 8800er haben einfach ein Problem mit dem SPeicher, das kann man nicht leugnen, es in diesem Fall auch noch schönzureden ist etwas, naja, 'einseitig'...

Razor
2008-02-04, 23:59:24
...sind wohl alles unbestreitbare Fakten. Oder welchen dieser Punkte siehst du anderes?
Nein und ja.

Nein, es sind bei weitem keine unbestreitbaren Fakten.
Ja, davon sehe ich einiges anders.

Fakt ist hingegen, dass eine 1024MB-Karte in eigentlich ALLEN getesteten Scenarien dort an ihr Limit stößt, wo auch eine 512MB-Version 'scheitert'. Ich habe noch kein eiziges Beispiel gesehen, wo 1GB das "Zünglein an der Waage" stellt und Spielbarkeiten dort liefert, wo es mit 512MB keine mehr gibt.

DAS ist Fakt und mehrfach unabhängig belegt.

Hast y33@ denn mal jemand nach Details gefragt? Als (angehender) PCGH-Praktikant denke ich nicht, dass er aus der Luft gegriffenen Schwachsinn erzählt und im CB-Forum hat er über Monate durchaus einen kompetenten Eindruck gemacht.
Fakten sind überprüfbar.
Ist irgendetwas von dem, was da 'gefaselt' wurde, wirklich von Dir oder mir überprüfbar?
Ich sehe da NICHTS.

Insofern solltest Du Dich, als "angehender Praktikant" mal ein wenig mit dem Duden auseinander setzen...

P.S.: und weswegen kommst Du hier jetzt eigentlich immer wieder mit diesem 256MB-Dünnfug?
Schau' Dir doch bitte nochmal den Thread-Titel an...

...Razor sollt...
Och Payne... dass von Dir hier nichts vernünftiges kommen würde, war ja mal sowas von klar.
Bin mal gespannt, ob sich auch gleich wieder die anderen "üblichen" Verdächtigen melden...

CoH- D3D10, Oblivion- Texturmods, noch etwas?
Gibts dazu etwas Konkretes?
Zumindest bei CoH D3D10 trifft dies nicht zu...

Razor

LovesuckZ
2008-02-05, 00:07:00
Wie dem auch sei, die 8800er haben einfach ein Problem mit dem SPeicher, das kann man nicht leugnen, es in diesem Fall auch noch schönzureden ist etwas, naja, 'einseitig'...

Fakt ist auch, dass die 512mb Konkurrenz keine Alternative darstellt.
Und solange wie dies und die nicht aufkommende negative Presse vorhanden ist, wird sich auch nichts ändern.

laser114
2008-02-05, 00:12:41
Bezweifelt das irgendjemand hier? Es geht ja um die Frage, ob 512 MiB noch reichen.

Das war mehr an Razor gerichtet - vom Vergleich 256/512 (bzw. 320/640) waren nämlich die drei Aussagen des Gasts die er als nicht kommentierbar abgetan hat - und mich hat mal interessiert wieso, weil in meinen Augen sind die drei Punkte eindeutig. Scheint mir diesbezüglich eher ein Kleinkrieg zwischen Razor und "Gast" zu sein, aber das ist bloß meine private Meinung...


@Razor: Ich bin NICHT Praktikant bei PCGH und auch kein Angehender, sondern y33@! Nicht verwechseln. ;)

Naja, ich klink mich mal wieder aus - die Diskussion ändert eh nichts an den Tatsachen.

Razor
2008-02-05, 00:31:11
...Kleinkrieg...
"Kleinkrieg"?
Dafür ist das Gast-Geschreibsel zu unwichtig...
(und ein Reaktion meinerseits in Form eines Postes auch nicht 'gewichtig' genug ;-)

@Razor: Ich bin NICHT Praktikant bei PCGH und auch kein Angehender, sondern y33@! Nicht verwechseln. ;)
Noch schlimmer!
:D

die Diskussion ändert eh nichts an den Tatsachen.
Wohl wahr... 1GB noch immer flüssiger als flüssig!

Razor

Hvoralek
2008-02-05, 01:19:42
Gibts dazu etwas Konkretes?
Zumindest bei CoH D3D10 trifft dies nicht zu...In D3D10- COH gibt es in hohen Einstellungen signifikante Unterschiede. 20 fps oder so sollten in einem RTS ohne weiteres spielbar sein. Wenn es dann mit 512 MiB 3 oder 4 fps weniger sind, wird man das schon merken.

"Kleinkrieg"?
Dafür ist das Gast-Geschreibsel zu unwichtig...
(und ein Reaktion meinerseits in Form eines Postes auch nicht 'gewichtig' genug ;-)Es ging glaube ich nicht nur um die beiden Beiträge...

http://img141.imageshack.us/img141/4364/1162704071122rv6708800gmh8.jpg
http://64.233.179.104/translate_c?hl=de&langpair=zh%7Cen&u=http://www.pconline.com.cn/diy/graphics/reviews/0711/1162704_7.html
Bei 16 FPS sollte durchaus noch Gameplay möglich sein [...].Sehe ich gerade erst: 16 fps in einem Shooter sind nun wirklich zumindest an der Grenze.

StefanV
2008-02-05, 01:27:59
Sehe ich gerade erst: 16 fps in einem Shooter sind nun wirklich zumindest an der Grenze.
Ohne das SPiel jemals gespielt zu haben, würde ich so eine Aussage niemals tätigen!

Hvoralek
2008-02-05, 01:32:43
Ohne das SPiel jemals gespielt zu haben, würde ich so eine Aussage niemals tätigen!Ich habe CoJ gespielt (wenn auch unter DX9). Das ist sicher kein besonders hektischer Shooter, aber ich habe noch keinen gesehen, der sich bei unter 20 fps nicht zumindest sehr zäh angefühlt hätte. In CoJ mag man mit 16 fps noch Chancen haben, etwas zu treffen (v.a. durch diese Zeitlupenfunktion), aber Spaß wird das nicht mehr wirklich machen.

Gast
2008-02-05, 07:09:43
[QUOTE=Razor;6252313Nein... wie so ziemlich ALLE bisher geposteten Reviews gezeigt haben dürften.
(den einen völlig daneben gegangenen Test von diesem "Hardware-Info" mal ausgenommen ;-)Razor[/QUOTE]

In üblichen Settings, wer allerdings beabsichtigt Sonderfälle zu nutzen (sei es 32xSSAA oder Texturmods), der dürfte mit der 1GiB auf der sicheren Seite liegen. Wer so etwas bewußt fordert, wird es auch als Fortschritt betrachten wenn, das Spiel damit überhaupt läuft.

Razor
2008-02-05, 15:57:46
In D3D10- COH gibt es in hohen Einstellungen signifikante Unterschiede. 20 fps oder so sollten in einem RTS ohne weiteres spielbar sein. Wenn es dann mit 512 MiB 3 oder 4 fps weniger sind, wird man das schon merken.
Aus was beziehst Du Dich jetzt noch gleich?
:confused:

Habe dazu auf die Schnelle nur das gefunden:
http://www.tbreak.com/reviews/article.php?cat=grfx&id=578&pagenumber=4
http://en.expreview.com/?p=214&page=13

Während das bei T-Break für die 1GB ASUS sogar richtig schlecht aussehen kann (1920@4xAA), scheint sich bei ExpreView zumindest heraus zu kristallisieren, dass hier eine GS768 einen - unspielbaren - 'Vorteil' von 17 zu 15,3fps heraus arbeiten kann... bei 1680@4xAA wohlgemerkt.

Und auch für Dich sei nochmal gesagt: 17fps (oder auch 20fps) avg (!) sind bei weitem nicht 'ausreichend'... egal wofür. Stell Dir mal einen Film vor, der mit 17 Bildern pro Sekunde vor sich hinruckelt... und was das für Leute bedeutet, die dann mit 15fps oder 7,5fps vorlieb nehmen müssen, weil sie vSync benutzen wollen, brauche ich hier wohl nicht noch extra zu erwähnen, oder?

In üblichen Settings, wer allerdings beabsichtigt Sonderfälle zu nutzen (sei es 32xSSAA oder Texturmods), der dürfte mit der 1GiB auf der sicheren Seite liegen. Wer so etwas bewußt fordert, wird es auch als Fortschritt betrachten wenn, das Spiel damit überhaupt läuft.
Dazu habe ich noch keinen greifbaren Beleg gesehen... Du etwa?
Wenn ja... her mit dem Link!

Razor

Hvoralek
2008-02-05, 19:56:23
Aus was beziehst Du Dich jetzt noch gleich?
:confused:Ich spreche ja auch von CoH, nicht CoJ :wink:

Razor
2008-02-05, 21:04:33
Ich spreche ja auch von CoH, nicht CoJ :wink:
Und was meinst Du, habe ich da verlinkt?
OK, der 2. Link war war 'ne seite zu früh... ;)

Was sagst Du also dazu?
Das, was Du da von Dir gabst hat dann doch gar keine Relevanz, oder?
"signifikante Unterschiede" sehe ich da auch jeden Fall nicht...

Razor

Hvoralek
2008-02-05, 21:12:06
Und was meinst Du, habe ich da verlinkt?
OK, der 2. Link war war 'ne seite zu früh... ;)Hätte ich mir genauer ansehen sollen :redface:

Ich bezog mich v.a. hierauf: http://en.expreview.com/?p=159&page=12

17% würde ich "signifikant" nennen.

Gast
2008-02-05, 21:52:34
"Kleinkrieg"?
Dafür ist das Gast-Geschreibsel zu unwichtig...
(und ein Reaktion meinerseits in Form eines Postes auch nicht 'gewichtig' genug ;-)
Deine aufgeblasen Posts, die gar nicht auf die Vorteile einer 1GiB Karte eingehen, sondern nur bashen sind unwichtig.

Fakt ist es gibt Fälle, in denen 1GiB gut sind.
Fakt ist du bashst trotzdem weiter ...

robbitop
2008-02-05, 22:01:38
Ich sag nur Oblivion und Texturepacks. Die hauen dir den VRAM voll.
Quarls Texture Pack 3 + 4096er Normal und Colormaps bei 1680x1050 und 4x AA und schon hast du locker 750 MiB Daten im VRAM.
Ist aber auch extrem.

Gast
2008-02-05, 22:43:47
Ich sag nur Oblivion und Texturepacks. Die hauen dir den VRAM voll.
Quarls Texture Pack 3 + 4096er Normal und Colormaps bei 1680x1050 und 4x AA und schon hast du locker 750 MiB Daten im VRAM.
Ist aber auch extrem.
Nö das ist noch nicht extrem.
Ich bekomme da einen Verbrauch von bis zu 1200MiB, in 1280x1024 und 4x AA (oder war es 8xAA?)

Razor
2008-02-06, 12:11:30
Hätte ich mir genauer ansehen sollen :redface:
Ich bezog mich v.a. hierauf: http://en.expreview.com/?p=159&page=12
17% würde ich "signifikant" nennen.
Völlig unabhängig von Auflösung und AA-Level?
Da stimmt doch was nicht...

Die 17% gibts auch nur bei 1920@4xAA... sonst sinds eher 8% bis 10%.
Das auf Vista32 mit Beta ServicePack1 und uralten Treibern (169.12 beta modded)...

Sollte hier der VRAM der 512MB-Karte schon bei 1280 ohne AA limitieren, warum skaliert diese dann über nahezu ALLE Auflösungen und AA-Level mit?
Ausgenommen 1920@4xAA... bei ExpreView gibts einen Nachteil von 17% und bei T-Break einen Vorteil von 19% für die 512MB-Version...

Warum dieser Test so dermaßen von dem von T-Break abweicht?
http://www.tbreak.com/reviews/article.php?cat=grfx&id=578&pagenumber=4

OK, bei T-Break gibta aktuelle Treiber und das Review ist vom 3.2.08... das Review bei ExpreView ist hingegen vom 30.12. und nutzt 'alte' Treiber.
Könnte also auch auf den Zustand der Treiber unter Vista zurück zu führen sein... würde den Test bei ExpreView dann allerdings hinfällig machen.

Bei ExpreView wurden auch unterschiedliche Grafikkarten (unterschiedlicher Hersteller) miteinander verglichen... bei der 512MB-Variante das 12'er Bios, bei der 1GB-Variante das 16'er. Bei T-Break hat man ASUS gegen ASUS getestet und nur die Speicherausstattung scheint unterschiedlich.

Schwieriges Thema auf jeden Fall.

Ich sag nur Oblivion und Texturepacks. Die hauen dir den VRAM voll.
Quarls Texture Pack 3 + 4096er Normal und Colormaps bei 1680x1050 und 4x AA und schon hast du locker 750 MiB Daten im VRAM.
Ist aber auch extrem.
OK, Du hast mich überredet... werde mal nach Oblivion 'kramen'...
;)

*aaarrrgh*

Schon wieder dieser Mist mit den Mirrors... lade die 2GB jetzt parallel von 2 locations.
Hoffentlich gibts nicht wieder korrupte Archive - büddddeeee!

Ach ja, zu Installation:
- Orginial-Version installieren
- Patch 1.2.0416 drauf
- QTP3 drüber
- QTP3 Patch 1.3 dazu

Die Standard-Version von Oblivion 'nimmt' gerade mal 230-250MB VRAM... maxed, 1280@4xAA (CP-forced).

Mann, mann, mann... beim schnelleren Host noch gute 30min... *grmpf*
And sorry4OT!

Bin ich blöd... des QTP3 gibbet auch bei GamersHell... egal, zu spät!
:hammer:

Razor

Hvoralek
2008-02-06, 14:58:01
Völlig unabhängig von Auflösung und AA-Level?
Da stimmt doch was nicht...

Die 17% gibts auch nur bei 1920@4xAA... sonst sinds eher 8% bis 10%.17% natürlich im Extremfall. Der aber immer noch spielbar ist.

Sollte hier der VRAM der 512MB-Karte schon bei 1280 ohne AA limitieren, warum skaliert diese dann über nahezu ALLE Auflösungen und AA-Level mit?Texturen brauchen nun einmal unabhängig von Auflösung und AA- Stufe gleich viel Platz. Ob da nun noch der Backbuffer 50 MiB größer ist, spielt wohl kaum die entscheidende Rolle.

Warum dieser Test so dermaßen von dem von T-Break abweicht?
http://www.tbreak.com/reviews/article.php?cat=grfx&id=578&pagenumber=4Interessant, dass Du den Test von Hardware- infos so schnell zerreißt, den von Tbreak aber nicht zumindets in Zweifel ziehst: Warum sollte eine 512- MiB- Version fast 20% schneller sein als die 1- GiB- Version (EN8800GT, also mit Standardtakt)? Warum liegen die beiden 512- MiB- Karten teils so weit auseinander? Warum ist dabei mal die ASUS klar schneller, mal die ECS?

OK, bei T-Break gibta aktuelle Treiber und das Review ist vom 3.2.08... das Review bei ExpreView ist hingegen vom 30.12. und nutzt 'alte' Treiber.
Könnte also auch auf den Zustand der Treiber unter Vista zurück zu führen sein... würde den Test bei ExpreView dann allerdings hinfällig machen.Tbreak gibt die Treiberversion nicht einmal an. "Latest [...] Forveware Drivers" - Heißt welche Version genau?

Andererseits macht Expreview mit gemoddeten Betatreibern herum, was auch keinen Deut besser ist.

Bei ExpreView wurden auch unterschiedliche Grafikkarten (unterschiedlicher Hersteller) miteinander verglichen... bei der 512MB-Variante das 12'er Bios, bei der 1GB-Variante das 16'er. Bei T-Break hat man ASUS gegen ASUS getestet und nur die Speicherausstattung scheint unterschiedlich.Der Hersteller sollte bei gleichen Taktraten egal sein. Wo siehst Du das mit den unterschiedlichen BIOS- Versionen?

Schwieriges Thema auf jeden Fall.Solange dazu nur solche halbgaren Artikel verfügbar sind auf jeden Fall.

Zumindest ist D3D10- CoH bisher das einzige Spiel, das im Auslieferungszustand (womöglich) wirklich von einer 1- GiB- GT profitiert. Da ist man mit einer übertakteten Version besser dran und die z.Z. ~ 30€ Aufpreis für 1 GiB lohnen imM wohl nicht.

LovesuckZ
2008-02-06, 15:11:35
Schade, dass Computerbase.de bis jetzt keine 1GB Version bekommen hat. Deren Testparcours ist ja sehr Speicherintensiv.

Gast
2008-02-06, 15:19:37
Die Standard-Version von Oblivion 'nimmt' gerade mal 230-250MB VRAM... maxed, 1280@4xAA (CP-forced).
Eine 8800GT ist schnell genug, um auch etwas in der Ini zu spielen.

Razor
2008-02-06, 17:33:19
17% natürlich im Extremfall. Der aber immer noch spielbar ist.
Na ja... da möchte ich doch lieber mal die min frames sehen, bevor ich Dir das abnehmen kann.
Und nochmal flugs in den Thread-Titel schaun'... ah ja, Midrange-Karten.
Dazu will die Auflösung nicht wirklich passen...

Texturen brauchen nun einmal unabhängig von Auflösung und AA- Stufe gleich viel Platz. Ob da nun noch der Backbuffer 50 MiB größer ist, spielt wohl kaum die entscheidende Rolle.
Wenn der VRAM ausgeht, geht er aus.
Höhere Auflösungen und die Zuschaltung von AA sollten hier erheblich mehr als 50MB kosten.

Und noch einmal:
Die 512'er skaliert genauso, wie die 1024'er... das KANN NICHT SEIN, wenn der Speicher schon bei 1280 ohne AA limitieren soll.

Interessant, dass Du den Test von Hardware- infos so schnell zerreißt, den von Tbreak aber nicht zumindets in Zweifel ziehst: Warum sollte eine 512- MiB- Version fast 20% schneller sein als die 1- GiB- Version (EN8800GT, also mit Standardtakt)? Warum liegen die beiden 512- MiB- Karten teils so weit auseinander? Warum ist dabei mal die ASUS klar schneller, mal die ECS?
Klammere doch einfach mal die Extrem-Auflösung aus... was bleibt dann übrig?
Richtig: NICHTS.

Die Skalierung ist auch bei T-Break zu beobachten, allerdings ohne den 'Abstand', der bei ExpreView zu beobachten ist.
DAS macht auch sehr viel mehr Sinn.

Und den Test bei "Hardware-Infos" kann man ja nun mal komplett in die Tonne treten.
Da stelle ich schlicht das ganze Review, bzw. die Grundlagen dessen in Frage...

Tbreak gibt die Treiberversion nicht einmal an. "Latest [...] Forveware Drivers" - Heißt welche Version genau?
Andererseits macht Expreview mit gemoddeten Betatreibern herum, was auch keinen Deut besser ist.
Ist beides nicht wirklich 'erfrischend'...
Allerdings ist der T-Break Artikel gleich 2 Monate neuer und zumindest die Grafikkarten sind vom gleichen Hersteller.
Fakt ist allerdings, dass bei ExpreView das Bios unterschiedlich ist... das der 512'er ist das älteste.

Der Hersteller sollte bei gleichen Taktraten egal sein. Wo siehst Du das mit den unterschiedlichen BIOS- Versionen?
Nicht unbedingt... andere Latenzen, andere Performance.
Mich düncht, dass bei ExpreView eine andere Ursache zu suchen ist... nicht (ausschließlich) die Speichermenge.

Bios-Version? GPU-Z.

Solange dazu nur solche halbgaren Artikel verfügbar sind auf jeden Fall.

Zumindest ist D3D10- CoH bisher das einzige Spiel, das im Auslieferungszustand (womöglich) wirklich von einer 1- GiB- GT profitiert. Da ist man mit einer übertakteten Version besser dran und die z.Z. ~ 30€ Aufpreis für 1 GiB lohnen imM wohl nicht.
Also CoH D3D10 würde ich hier noch mit einem Fragezeichen versehen wollen, solange es keine konkreteren Infos gibt.
Ansonsten kann ich Dir nur komplett zustimmen!

Razor

Razor
2008-02-06, 17:37:08
Ich sag nur Oblivion und Texturepacks. Die hauen dir den VRAM voll.
Quarls Texture Pack 3 + 4096er Normal und Colormaps bei 1680x1050 und 4x AA und schon hast du locker 750 MiB Daten im VRAM.
Ist aber auch extrem.
OK, Du hast mich überredet... werde mal nach Oblivion 'kramen'...
;)

Ach ja, zu Installation:
- Orginial-Version installieren
- Patch 1.2.0416 drauf
- QTP3 drüber
- QTP3 Patch 1.3 dazu

Die Standard-Version von Oblivion 'nimmt' gerade mal 230-250MB VRAM... maxed, 1280@4xAA (CP-forced).
Oh mann... was für eine Odyssee!
Aber ich habs jetzt wohl hinbekommen...
Oblivion (US-Version) mit Patch 1.2.416 und QTP3 inkl. Patch 1.3 - maxed, 1280@4xAA (CP-forced)
(noch vollkommen ungetweakt... langsam kommen die Erinnerungen wieder :D)

http://www.abload.de/thumb/oblivion2008-02-0617e0w.png (http://www.abload.de/image.php?img=oblivion2008-02-0617e0w.png)

Leider geht ein Screen-Capture ja nur mit FRAPS, insofern musst Du mir einfach mal den Wert glauben: 460-485MB (bei ca. 60fps).
(ausgesprochen flüssig im übrigen... DAS hatte ich wahrlich anders in Erinnerung! Und das TexturePack ist ja mal Hammer ;-)

Insofern nochmal die Frage: was hast Du noch gemacht?
Was war das mit den Normal-/Colormaps?

Laß mich nicht dumm sterben :massa:
(gerne auch via PM)

Eine 8800GT ist schnell genug, um auch etwas in der Ini zu spielen.
Kommt jetzt...
*grunz*

UI-Mod, Wasser-Patch, das mit dem "loading area"... oh mann.

Razor

Gast
2008-02-06, 18:00:37
460-485MB (bei ca. 60fps).
(ausgesprochen flüssig im übrigen... DAS hatte ich wahrlich anders in Erinnerung! Und das TexturePack ist ja mal Hammer ;-)
Man sieht da kann man noch etwas mehr Qualität holen. ;)

60fps sind imho bei Oblivion Verschwendung.
*Zurück denk an das Spielen mit ~20fps :D*

Hvoralek
2008-02-06, 19:02:50
Na ja... da möchte ich doch lieber mal die min frames sehen, bevor ich Dir das abnehmen kann.Min fps würden mich auch mal sehr interessieren.

Und nochmal flugs in den Thread-Titel schaun'... ah ja, Midrange-Karten.
Dazu will die Auflösung nicht wirklich passen...Ich verstehe die Eingrenzung so, dass es um Einstellungen geht, die mit einer Mittelklassekarte (eben insbesondere der 8800 GT) noch spielbar sind und nicht um Crysis@ Very High mit AA o.ä. Dabei kommt es nicht auf die Aufslöung an, sondern auf die erreichten fps. Eine Mittelklassekarte wird wohl typsicherweise an Monitoren betrieben, die 1920x 1200 nicht darstellen können. Wenn man aber noch Leistung übrig hat, kann man statt Auflösung auch anderes hochdrehen (etwa AA).

Wenn der VRAM ausgeht, geht er aus. [...] Und noch einmal:
Die 512'er skaliert genauso, wie die 1024'er... das KANN NICHT SEIN, wenn der Speicher schon bei 1280 ohne AA limitieren soll.Wenn der VRAM voll ist, werden Daten in den Hauptspeicher ausgelagert. Wenn das nur wenige oder selten benötigte Daten sind, gibt das keinen großen Leistungseinbruch. Natürlich steigt mit Auflösung/ AA die Datenmenge, die das betrifft. Andererseits sinkt auch unabhängig von dieser Auslagerung die Leistung. Wenn nun ein paar selten benötigte Texturen zusätzlich ausgelagert werden, kann es doch sein, dass der Leistungsverlust dadurch etwa dem, der durch die höhere Auflösung ohnehin eintritt, entspricht. Zumal der Abstand nicht überall gleich ist, sondern, wie Du schon selbst sagtest, zwischen 8 und 17% beträgt und in speicherlastigen Einstellungen steigt.

Höhere Auflösungen und die Zuschaltung von AA sollten hier erheblich mehr als 50MB kosten.Was für einen Framebuffer nutzt CoH? In FX8 braucht ein einfacher 1920x1200- Puffer etwa 9 MiB. Ohne AA sind das insgesamt (Front- + Back- + Z-Buffer) 27 MiB. Mit 4x AA 81 MiB. Insgesamt, nicht als Differenz.

Klammere doch einfach mal die Extrem-Auflösung aus... was bleibt dann übrig?
Richtig: NICHTS.Es geht mir nicht um die Ergebnisse in der Auflösung, sondern darum, dass die offensichtlich irgendetwas verkehrt gemacht haben. MEssfehler oder sonstwas. Die Ergebnisse in 1920x1200 stimmen offensichtlich nicht, was die in niedrigeren Auflösungen nicht unbedingt seriöser wirken lässt.

Nicht unbedingt... andere Latenzen, andere Performance.Wie groß ist denn bitte der Einfluss der Grafikspeicherlatenzen? Und selbst wenn: Wer sagt, dass jeder Hersteller nur Speicher mit denselben Latenzen verbaut?

Gast
2008-02-06, 19:28:01
Wer sagt, dass jeder Hersteller nur Speicher mit denselben Latenzen verbaut?
Jede Karte nach Referenz Design kommt doch aus dem selben Werk(en).
Demnach sind die schon mal alle gleich.

Jetzt gibt es mehrere Kartenwellen, da können natürlich die Latenzen minimal abweichen ....

Jetzt kommt zb Palit und baut eigene Karten ... wo kann man die Latenzen auslesen? :)

Razor
2008-02-07, 18:09:53
Man sieht da kann man noch etwas mehr Qualität holen. ;)
Oh ja... muss mir erst mal wieder die ganzen VisTweaks zusammen suchen.
Da war die Inst ja noch einfach gegen!

60fps sind imho bei Oblivion Verschwendung.
*Zurück denk an das Spielen mit ~20fps :D*
Genau daran hab'sch auch gedacht... ohne AA (weil ging nicht).
Und jetzt haut man die Max-Einstellungen rein (egal ob sinnvoll oder nicht), brät den Teil auch nich AA via Treiber drüber und des rennt immer noch. Erstaunlich...

Habe gestern (nacht ;D) bestimmt 10h gezockt... der RAM-Verbrauch ging eigentlich nie über die 512MB.

Gibt übrigens jetzt auch "Qarls Texture Pack III Redefined"... ist ein bissel kleiner und soll auch auf 256MB Karten recht ordentlich laufen:
http://www.ei-der-zeit.com/portal/index.php?option=com_content&task=view&id=499&Itemid=29

Ich brauche es zwar nicht, aber vielleicht interessiert es ja doch den einen oder anderen, der sich bisher nicht an das originale 'Monster' heran getraut hat... ;)

Ich verstehe die Eingrenzung so, dass es um Einstellungen geht, die mit einer Mittelklassekarte (eben insbesondere der 8800 GT) noch spielbar sind und nicht um Crysis@ Very High mit AA o.ä. Dabei kommt es nicht auf die Aufslöung an, sondern auf die erreichten fps. Eine Mittelklassekarte wird wohl typsicherweise an Monitoren betrieben, die 1920x 1200 nicht darstellen können. Wenn man aber noch Leistung übrig hat, kann man statt Auflösung auch anderes hochdrehen (etwa AA).
Hat man ja auch in dem einen oder anderen Test getan...

Wenn der VRAM voll ist, werden Daten in den Hauptspeicher ausgelagert. Wenn das nur wenige oder selten benötigte Daten sind, gibt das keinen großen Leistungseinbruch. Natürlich steigt mit Auflösung/ AA die Datenmenge, die das betrifft. Andererseits sinkt auch unabhängig von dieser Auslagerung die Leistung. Wenn nun ein paar selten benötigte Texturen zusätzlich ausgelagert werden, kann es doch sein, dass der Leistungsverlust dadurch etwa dem, der durch die höhere Auflösung ohnehin eintritt, entspricht. Zumal der Abstand nicht überall gleich ist, sondern, wie Du schon selbst sagtest, zwischen 8 und 17% beträgt und in speicherlastigen Einstellungen steigt.
Du verstehst nicht ganz... der Abstand von 1280@noAA bis 1920@noAA ist immer gleich. Der VRAM Verbrauch steigt stetig an (von 1280@noAA zu 1680@4xAA oder 1920 ohne ist das mehr als deutlich!), insofern KANN DIES NICHT SEIN (ich wiederhole mich ;-).

Das eine VRAM-Nutzung über 100% des physisch vorhandenen RAMs nicht zwingend zu Performance-Einbußen führen muss, postuliere ich schon seit langem... insofern danke, dass Du das nun noch einmal dargelegt hast. Aber das von Dir dargestellte Scenario paßt nicht auf den hier zugrunde liegenden Test mit solch gravierender Abweichung über alle Auflösungen und AA-Level.

Und noch einmal: lediglich 1920@4xAA weicht mit 17% ab... ALLE anderen Auflösungen immer im Range 8-10%.
Auch in 1280x1024 ohne AA... und DAS ist mein Problem.

Insofern mag es bei 1920@4xAA etwas mit dem Speicher zu tun haben (was nicht schad' wär... spielbar ist es dabei ja 'eh nicht mehr), aber vorher deutet NICHTS darauf hin.

Was für einen Framebuffer nutzt CoH? In FX8 braucht ein einfacher 1920x1200- Puffer etwa 9 MiB. Ohne AA sind das insgesamt (Front- + Back- + Z-Buffer) 27 MiB. Mit 4x AA 81 MiB. Insgesamt, nicht als Differenz.
Dann kann es schlicht nicht an der Speichermenge liegen!
Nicht bei 1280 ohne AA.

Es geht mir nicht um die Ergebnisse in der Auflösung, sondern darum, dass die offensichtlich irgendetwas verkehrt gemacht haben. MEssfehler oder sonstwas. Die Ergebnisse in 1920x1200 stimmen offensichtlich nicht, was die in niedrigeren Auflösungen nicht unbedingt seriöser wirken lässt.
Genauso wie die permanente Abweichung von 8-10% beim Test von ExpreView.
Wir hatten ja schon festgestellt, dass beide Tests nicht wirklich 'optimal' sind...

Wie groß ist denn bitte der Einfluss der Grafikspeicherlatenzen? Und selbst wenn: Wer sagt, dass jeder Hersteller nur Speicher mit denselben Latenzen verbaut?
Hat produktionsvereinfachende Gründe...

Hast Du Dir schon mal die Fertigungsstraßen angeschaut?
Die 1GB-Version ist nur ein Arbeitsschritt mehr und ich glaube kaum, dass ASUS unterschiedlichen Speicher auf ein und derselben Karte verbaut.
Bei den heutigen Speicherpreisen macht das auch keinen Sinn...

Und ja, Latenzen und Timings können sogar einen großen Einfluß haben.
Auch unterschiedliche Bios-Versionen (die 'Betriebssysteme' der Grafikkarte ;-) können durchaus Einfluß zeigen...

Bei T-Break ist die eine Auflösung, die merkwürdig aussieht, bei ExpreView der ganze Test.
Irgendetwas stimmt da nicht und solange das nicht ausgeräumt ist, machen Diskussionen darüber nur wenig sinn...
...vielleicht kommt ja bald mal ein neuer Test einer vertrauenswürdigen Quelle, die näher auf die Kritikpunkte eingeht.

Razor

Hvoralek
2008-02-07, 18:58:22
Warum kann DMn dieser konstante Abstand nicht am VRAM liegen? Natürlich steigt der Speicherverbrauch mit höheren Auflösungen an, aber gerade ohne AA ist das Kleinkram gegen Texturen. Wenn die den Speicher sprengen, tun sie das auch schon bei 1280er Auflösung.

Razor
2008-02-08, 00:07:21
Warum kann DMn dieser konstante Abstand nicht am VRAM liegen? Natürlich steigt der Speicherverbrauch mit höheren Auflösungen an, aber gerade ohne AA ist das Kleinkram gegen Texturen. Wenn die den Speicher sprengen, tun sie das auch schon bei 1280er Auflösung.
Wenn sie "den Speicher sprengen" würde die 512'er mit der 1024'er nicht 1:1 mitskalieren... immer mit dem gleichen Abstand.
Was ist so schwer daran zu vestehen?
:confused:

Razor

Gast
2008-02-08, 00:53:50
Nö das ist noch nicht extrem.
Ich bekomme da einen Verbrauch von bis zu 1200MiB, in 1280x1024 und 4x AA (oder war es 8xAA?)

Womit selbst 1024 MB Vram zu wenig sind.

:-)

akuji13
2008-02-08, 01:00:38
7
Und auch für Dich sei nochmal gesagt: 17fps (oder auch 20fps) avg (!) sind bei weitem nicht 'ausreichend'... egal wofür. Stell Dir mal einen Film vor, der mit 17 Bildern pro Sekunde vor sich hinruckelt... und was das für Leute bedeutet, die dann mit 15fps oder 7,5fps vorlieb nehmen müssen, weil sie vSync benutzen wollen, brauche ich hier wohl nicht noch extra zu erwähnen, oder?

Zum 100,000ten mal....man kann Bildraten eines Filmes NICHT mit den FPS eines Spieles vergleichen!

:|

Hvoralek
2008-02-08, 01:27:19
Wenn sie "den Speicher sprengen" würde die 512'er mit der 1024'er nicht 1:1 mitskalieren... immer mit dem gleichen Abstand.
Was ist so schwer daran zu vestehen?Du sagst jetzt noch einmal, dass das nicht sein könne, ohne Erklärung, warum :confused:

Ist es nicht möglich, dass die Belastung durch die zusätzliche Speicherauslagerung ungefähr so groß ausfällt wie die durch die höhere Auflösung als solche? Dann würde auch der Abstand ungefähr gleich bleiben.

Zum 100,000ten mal....man kann Bildraten eines Filmes NICHT mit den FPS eines Spieles vergleichen!

:|17 fps sind allerdings wirklich auf keinen Fall richtig flüssig. Da ist nur die Frage, ob man bei Spielen evtl. >25 braucht.

Spielbar ist das bei einem RTS aber sicherlich.

Razor
2008-02-08, 05:48:40
Zum 100,000ten mal....man kann Bildraten eines Filmes NICHT mit den FPS eines Spieles vergleichen!
Oh doch... man kann.
Ich mag halt keine 'zitternden' Bilder.

Erzähl Du mir also bitte nicht, ab wann die menschliche Wahrnehmung etwas als flüssig empfindet.
Und ich sehe Games als "unspielbar" an, wenn sie vor meinen Augen herum zuckeln...

Du sagst jetzt noch einmal, dass das nicht sein könne, ohne Erklärung, warum :confused:

Ist es nicht möglich, dass die Belastung durch die zusätzliche Speicherauslagerung ungefähr so groß ausfällt wie die durch die höhere Auflösung als solche? Dann würde auch der Abstand ungefähr gleich bleiben.
Nein.

Zeige mir ein anderes Beispiel bei dem so etwas möglich sein soll.

Wenn eine Scene nicht mehr komplett im VRAM gehalten werden kann, dann sinkt die Performance dramatisch... das wird dann mit zunehmender 'überladung' schlimmer.

Bei 'unserem' Beispiel scheint dies 1920@4xAA zu sein... davor ist der Abstand nicht zu erklären.
(ausser evtl. durch das, was ich bereits als Erklärung angeboten habe)

17 fps sind allerdings wirklich auf keinen Fall richtig flüssig. Da ist nur die Frage, ob man bei Spielen evtl. >25 braucht.

Spielbar ist das bei einem RTS aber sicherlich.
Wenn man leidensfähig genug ist... sicher.

Ich stelle mir grad' vor, wie ich die Maus an den Bildschirmrand führe und die ganze Scene dann über den Schirm 'ruckelt'.
Nein danke.

Razor

seahawk
2008-02-08, 07:26:55
Du sagst jetzt noch einmal, dass das nicht sein könne, ohne Erklärung, warum :confused:

Ist es nicht möglich, dass die Belastung durch die zusätzliche Speicherauslagerung ungefähr so groß ausfällt wie die durch die höhere Auflösung als solche? Dann würde auch der Abstand ungefähr gleich bleiben.


Es müßte eine Auflösung/Einstellung geben bei der die 512MB Karte plötzlich auf das Niveau der 1024 hoch springt. Dieser lineare Abstand kann nicht sein. Da ist ein Treiberproblem (oder evtl. BIOS Unterschied) viel logischer.

akuji13
2008-02-08, 08:08:50
Oh doch... man kann.
Ich mag halt keine 'zitternden' Bilder.

Erzähl Du mir also bitte nicht, ab wann die menschliche Wahrnehmung etwas als flüssig empfindet.
Und ich sehe Games als "unspielbar" an, wenn sie vor meinen Augen herum zuckeln...


Nein, kann man nicht.
Versuch erstmal zu verstehen, was genau der technische Unterschied zwischen einem Bild auf einem Monitor und dem auf einem Fernseher ist.

Das hat nämlich garnichts damit zutun, was DU als flüssig empfindest, es geht um deinen (falschen) Computerspielbild-Filmbild Vergleich.

Völlig abgesehen davon, das ich dir zustimme, das sowenig FPS sicher nicht als flüssig durchgehen können, was für mich ab 50 FPS aufwärts anfängt.

Hvoralek
2008-02-08, 13:22:43
Wenn eine Scene nicht mehr komplett im VRAM gehalten werden kann, dann sinkt die Performance dramatisch... das wird dann mit zunehmender 'überladung' schlimmer.Wenn nur wenige oder selten benötigte Daten ausgelagert werden, gibt es nur geringe Leistungsverluste (Du selbst meintest sogar mal, dass "eine VRAM-Nutzung über 100% des physisch vorhandenen RAMs nicht zwingend zu Performance-Einbußen führen muss, postuliere ich schon seit langem..."). Ob der Framebuffer dann noch ein bisschen größer wird oder nicht, macht da keinen großen Unterschied. Ich frage noch einmal, warum die zusätzlichen Verluste durch ein paar MiB mehr im Hauptspeicher nicht ähnlich groß sein können sollen wie die durch die höhere Auflösung als solche.

Natürlich kann es sein, dass es andere Ursachen gibt, auch wenn ich nicht recht an einen so großen Einfluss von BIOS oder Speichertimings glauben mag. Darin, dass beide genannten Tests ziemlich bescheiden sind, stimmen wir ja überein.

Es müßte eine Auflösung/Einstellung geben bei der die 512MB Karte plötzlich auf das Niveau der 1024 hoch springt.Wenn es am Speicher liegt, natürlich: Kleinere Texturen.

Dieser lineare Abstand kann nicht sein.Auch an Dich die Frage: Warum nicht?

Übrigens ist der Abstand nicht ganz linear. Unterhalb von 1920/ 4x liegt er zwar zwischen 8 und 11%, allerdings hat man auch da 10-11% bei höheren Einstellungen und 8% bei niedrigeren.

seahawk
2008-02-08, 17:02:06
Weil das bedeuten würde, dass bereits bei 1280x1024 ohne AA eine Limitierung durch die Speichermenge vorliegt. Wenn dem so wäre, dann dürfte sich aber eine 8800GTS in dem Setting nicht von einer 8800GT absetzen können, tut sie aber im Test von CB. Während sich einen 8800GT deutlich von einer 640MB GTS absetzt. Es gibt also kei nAnzeichen für eine Limtierung durch die Speichermenge.

Razor
2008-02-08, 18:46:49
Wenn es am Speicher liegt, natürlich: Kleinere Texturen.
Das hat nicht wirklich etwas mit den Texturen zu tun...
Wie soll ich das mal begreiflich machen?
Hmmm...

Nehmen wir mal den Test bei CB zur aktuellen 3870 X2.

Hier wird CoH einmal als D3D9-Test und einmal als D3D10-Test betrachtet.
Auch spielen unterschiedliche Treiber und nicht einmal eine vergleichbare Karte hinein, aber es verdeutlicht vielleicht die Problematik...

D3D09: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/10/#abschnitt_company_of_heroes
D3D10: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/20/#abschnitt_company_of_heroes

Wenn wir nun mal einen Vergleich zwischen der GT512 und den G80'ern GTS640 und GTX(768) anstellen, dann sieht man unter D3D9 sehr deutlich, dass hier eine GT sogar die GTX um längen schlägt... mit dem Speicher wird das wenig zu tun haben.

Unter D3D10 ändert sich das Bild und es ist eigentlich nicht einzusehen, warum das so ist.
Andere Texturen gibt es nicht in er D3D10-Variante oder sonst irgendwas, was hier die benötigte Speichermange beeinflussen könnte...

Auch wenn der Vergleich nicht wirklich paßt (sehr unterschiedliche Karten!), ist aber doch recht deutlich zu sehen, wie sich der Abstand verändert:
Computerbase: (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/20/#abschnitt_company_of_heroes)

GT512 GTS512 GTS320 GTS640 GTX768

1280@noAA 52,2 60,2 +15% 29,5 37,7 +28% 55,9 +48%
1280@4xAA 30,4 33,1 + 9% 26,2 37,0 +41% 50,6 +37%

1600@noAA 30,8 45,4 +47% 22,9 31,7 +38% 43,6 +38%
1600@4xAA 23,0 25,2 +10% 18,8 27,8 +48% 39,1 +41%

1280-noAA-4xAA -42% -45% -11% - 2% - 9%
1600-noAA-4xAA -25% -44% -18% -12% -10%

1280-1600-noAA -41% -25% -22% -16% -22%
1280-1600-4xAA -24% -24% -28% -25% -23%


ExpreView: (http://en.expreview.com/?p=159&page=12) T-Break: (http://www.tbreak.com/reviews/article.php?cat=grfx&id=578&pagenumber=4)

GT512 GT1GB GT512 GT1GB GTX768

1280@noAA 55,8 60,5 + 8%
1280@4xAA 47,7 51,6 + 8%

1680@noAA 41,9 45,5 + 9% 35,3 35,6 + 1% 36,9 + 5%
1680@4xAA 34,9 38,6 +11% 30,1 31,0 + 3% 34,3 +14%

1920@noAA 34,3 37,8 +10% 29,9 31,0 + 4% 34,2 +14%
1920@4xAA 26,7 31,2 +17% 26,1 31,0 +19% 29,1 +11%

1280-noAA-4xAA -15% -15%
1680-noAA-4xAA -17% -15% -15% -13% - 7%
1920-noAA-4xAA -22% -27% -13% 0% -15%

1280-1680-noAA -25% -25%
1280-1680-4xAA -27% -25%

1680-1920-noAA -18% -17% -15% -13% - 7%
1680-1920-4xAA -23% -19% -13% 0% -15%
Oh mann... vergiß es!

Wenn man sich so die Zahlen anschaut, dann wird immer offensichtlicher, dass es einfach noch keinen vernünftigen Test für 512MB vs. 1GB zum Thema CoH D3D10 gibt... das ist echt frustierend. Auffällig ist auch, dass sich das Bild offenbar zwischen der D3D9 und der D3D10 Variante komplett wandelt... das dann aber zumindest durchgehend bei ALLEN Tests. Unter D3D9 gibtes uniso keinerlei Vorteile für die 1GB-Variante... anders bei D3D10... da allerdings sehen auch alle andere Karten irgendwie 'merkwürdig' aus... und das, obwohl im Falle von GTS640 und GTX768 mehr VRAM zur Verfügung steht (mit teils deutlich breiterer Anbindung!).

Bin mal gespannt, ob sich mal irgend jemand erbarmen wird, sich diesem Thema "CoH OF D3D10" mal im eigenen System anzunehmen... gelicher Rechner mit identischem Treiber und bei der GraKa das gleiche Bios mit identischen Takten.

Wüsstest Du, wie wir hier konkret (!) weiter kommen, ohne Vermutungen anzustellen?
Ich weiß es derzeit nicht...

Razor

P.S.: zum Them Oblivion... habe mir jetzt die 4096x4096 Landscape LOD's von Zacharot drauf getan... die (entfernte) Landschaft sieht nun UM WELTEN besser aus, ohne in irgendwelchen Artefakten zu resultieren... der VRAM 'Verbrauch' ist dabei sprunghaft angestiegen... vorher etwa 460MB... jetzt 'heftige' 630MB. Das merkwürdige ist nur, dass es zu keinerlei Performance-Einbruch kommt... äusserst merkwürdig... vorher gabs so um die 60fps, nun sind es so etwa 55-57fps... ohne Einbrüche. Die 'nur' 512MB VRAM scheinen hier nicht wirklich zu 'stören'...stay tuned!

seahawk
2008-02-08, 19:19:35
Wir bräuchten DX10 Benches von den Karten. Ich habe zwar ne 512 GT da, aber kein VISTA auf eine Rechner mit CoH.

Hvoralek
2008-02-08, 19:27:39
Weil das bedeuten würde, dass bereits bei 1280x1024 ohne AA eine Limitierung durch die Speichermenge vorliegt. Wenn dem so wäre, dann dürfte sich aber eine 8800GTS in dem Setting nicht von einer 8800GT absetzen können, tut sie aber im Test von CB. Während sich einen 8800GT deutlich von einer 640MB GTS absetzt. Es gibt also kei nAnzeichen für eine Limtierung durch die Speichermenge.Beim CB- Test liegt die GTS 512 teilweise fast 50% vorne. Das mag daran liegen, dass mal wieder unterschiedliche Treiberversionen verwendet wurden.

Selbst wenn der VRAM ein Problem ist, kann eine GTS 512 durchaus schneller sein als eine GT. Wenn der VRAM voll ist, muss die ebenfalls Daten auslagern und dann über den PCIe- Bus ziehen. Wenn sich das in Benchmarks niederschlägt, würde das auch sie Leistung kosten. Wenn die PCIe- Bandbreite einen Einfluss auf die Leistung hat, bedeutet das aber nicht, dass mehr Leistung an anderen Stellen nichts mehr bringt. I.d.R. hängt die Leistung ja nicht nur von einem Faktor ab, sondern von vielen, insbesondere, wenn mehrere Frames oder gar Sekunden betrachtet werden. Oder ist etwa ein höherer Kerntakt stets völlig sinnlos, sobald die Bandbreite (auch) einen Einfluss auf die Gesamtleistung hat?

Eine GTS 640 muss zwar weniger Daten über die Systemanbindung holen, aber natürlich kann es sein, dass die wesentlich größere Rohleistung der GT deutlich mehr Leistung bringt.

Wenn wir nun mal einen Vergleich zwischen der GT512 und den G80'ern GTS640 und GTX(768) anstellen, dann sieht man unter D3D9 sehr deutlich, dass hier eine GT sogar die GTX um längen schlägt... mit dem Speicher wird das wenig zu tun haben.Ich spreche ja nicht umsonst ausdrücklich von der D3D10- Version. Das Ergebnis riecht zumindest nach Treiber.

Unter D3D10 ändert sich das Bild und es ist eigentlich nicht einzusehen, warum das so ist.
Andere Texturen gibt es nicht in er D3D10-Variante oder sonst irgendwas, was hier die benötigte Speichermange beeinflussen könnte...Hast Du Dir die Vergleichsscreenshots auf CB mal angesehen oder die Erläuterung zur D3D10- Version gelesen? "Darüber hinaus kann man die Terraindetails nun eine Stufe höher auf „Ultra“ schrauben, was einige Bodendetails hinzufügt und die Texturen sichtbar verbessert".

Wenn man sich so die Zahlen anschaut, dann wird immer offensichtlicher, dass es einfach noch keinen vernünftigen Test für 512MB vs. 1GB zum Thema CoH D3D10 gibt... das ist echt frustierend.Stimmt. Mittlerweile wäre die Frage "512 oder 1024 MiB" ein Thema, dessen sich durchaus mal die eine oder andere seriösere Seite annehmen könnte.

Wüsstest Du, wie wir hier konkret (!) weiter kommen, ohne Vermutungen anzustellen?
Ich weiß es derzeit nicht...Wir könnten, den fehlenden sicheren Zahlen entsprechend, das Ganze erst einmal offen lassen. Es ist nicht erwiesen, dass in D3D10- CoH 512 MiB zu knapp sind. Es scheint aber durchaus möglich. Wenn wir uns zumindest darauf einigen könnten, wäre das doch etwas.

Ich persönlich halte auch nach wie vor Speichermangel für die wahrscheinlichste Erklärung des Expreviewtests. Du kannst mich gerne vom Gegenteil überzeugen, wenn Du mir einen seriösen Test zeigst, in dem Karten unterschiedlicher Hersteller durch Unterschiede in Latenzen oder BIOS 10% auseinanderliegen (Was nicht heißt, dass ich dann Speichermangel bei Expreview ausschließe, allerdings würde ich das dann nicht mehr für die wahrscheinlichste Erklärung halten). Ich habe gerade mal ein paar CB- "Roundups" überflogen. Dort gibt es zwischen gleich taktetenden Modellen Hersteller höchstens mal 1-2% Unterschied.

Razor
2008-02-08, 20:11:08
Ich spreche ja nicht umsonst ausdrücklich von der D3D10- Version. Das Ergebnis riecht zumindest nach Treiber.
Ja, das Gefühl habe allerdings auch...

Hast Du Dir die Vergleichsscreenshots auf CB mal angesehen oder die Erläuterung zur D3D10- Version gelesen? "Darüber hinaus kann man die Terraindetails nun eine Stufe höher auf „Ultra“ schrauben, was einige Bodendetails hinzufügt und die Texturen sichtbar verbessert".
Ach nein... schon wieder diese "D3D10 sieht nach mehr aus" Schummelei?
Das geht einem langsam wirklich auf den Zeiger!

Gut, dass man mit Crysis mal sehen konnte, dass selbst heftigste Effekthascherei nicht D3D10 vorbehalten ist... ganz zu schweigen von anderen Dingen des "very high" Modus. Würde mich glatt mal interessieren, wie sich die "ultra" Details/Texturen im D3D9 Modus machen machen würden... könnte mir gut vorstellen, dass sich das dann analog Crysis darstellen würde... mal ganz von der abartigen Performance des D3D10-'Ultra'-Modus insgesamt.

Stimmt. Mittlerweile wäre die Frage "512 oder 1024 MiB" ein Thema, dessen sich durchaus mal die eine oder andere seriösere Seite annehmen könnte.
Ja, definitiv!
Alles was man bisher dazu gesehen hat... nein.

Wir könnten, den fehlenden sicheren Zahlen entsprechend, das Ganze erst einmal offen lassen. Es ist nicht erwiesen, dass in D3D10- CoH 512 MiB zu knapp sind. Es scheint aber durchaus möglich. Wenn wir uns zumindest darauf einigen könnten, wäre das doch etwas.
Die Hand drauf'!
:up:

Ich persönlich halte auch nach wie vor Speichermangel für die wahrscheinlichste Erklärung des Expreviewtests. Du kannst mich gerne vom Gegenteil überzeugen, wenn Du mir einen seriösen Test zeigst, in dem Karten unterschiedlicher Hersteller durch Unterschiede in Latenzen oder BIOS 10% auseinanderliegen (Was nicht heißt, dass ich dann Speichermangel bei Expreview ausschließe, allerdings würde ich das dann nicht mehr für die wahrscheinlichste Erklärung halten). Ich habe gerade mal ein paar CB- "Roundups" überflogen. Dort gibt es zwischen gleich taktetenden Modellen Hersteller höchstens mal 1-2% Unterschied.
Erweitere das auf "Unterschiede in Latenzen und Bios im Kombo mit alten Beta-Treibern".
Aber nein, mit einem solchen Test kann ich nicht dienen... wie auch?

Und ich will einen Speichermangel ja gar nicht ausschließen... für mich weist nur nichts eindeutig darauf hin. Auch habe ich so das dumpfe Gefühl, dass da was mit Vista/D3D10 noch nicht wirklich stimmt... gerade bei der Speicher-/Texturen-Verwaltung soll sich ja einiges bei der API getan haben. Und warum soll der generell gesteigerte Resourcen-Bedarf von Vista insgesamt, ausgerechnet die ureigene Grafik-API ausschließen?

Bin mal gespannt, wie sich das noch entwickelt... auch die RTM von SP1 soll hier ja nicht wirklich Vorteile bringen.

Ob sich allerdings eine 8800GT mit 1GB VRAM unter WinXP lohnt?
Dies würde eigentlich ALLE mit Fragezeichen behaftete Benches ausschließen...

Bei dem einzig verbleibenden Game - "Oblivion mit heftigster Moddifizierung" - bin ich ja grad' bei.
Ein gutes Beispiel, wie es scheint, dass sich heftige RAM-Überladung nicht zwingend in der Performance nieder schlagen muss...

Razor

mike49
2008-02-11, 22:09:56
Bei dem einzig verbleibenden Game - "Oblivion mit heftigster Moddifizierung" - bin ich ja grad' bei.
Ein gutes Beispiel, wie es scheint, dass sich heftige RAM-Überladung nicht zwingend in der Performance nieder schlagen muss...

Oblivion scheint aber bei zu heftiger RAM-Auslastung mit einer 8800GT 512MB irgendwann einfach abzuschmieren.

Jetzt auch hier im Forum nachzulesen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=403615

Razor
2008-02-12, 00:04:32
Öhm... jo.

1920x1200 + 4xAA.
Ist ja auch ein bissel fille für 'ne Mainstream-Karte, oder?
Auch möchte ich gar nicht wissen, wie sich das performance-seitig darstellt...
:rolleyes:

Bei mir löpt derzeit das QTP3 (nonRedemized) + 4096 LOD Texture Replacement nebst diversen anderen Modifikationen bei 1280x1024 und 4xTMSAA... Spitzenbelastung beim Video-RAM bei ca. 650MB... keinerlei Slowdowns und stundenlanges gamen ohne Probleme.

Bei den o.g. Settings geht wohl auch 'ne Ultra in die Knie... und ob eine 1GB-Karte hier tatsächlich Abhilfe schafft, steht auch in den Sternen.
Bliebe also abzuwarten...

Razor

Unyu
2008-02-12, 00:20:12
4096 LOD Texture Replacement
Gut ich teste das auch mal bald.

Jedoch schaffe ich es wie schon geschrieben bei 1280*1024 locker die 1GiB zu füllen.

Aber ich habe auch immer T-SSAA an ... ka was du mit dem Billigmodus willst.




Ist ja auch ein bissel fille für 'ne Mainstream-Karte, oder?
Die 8800GT ist immer noch eine Performance Karte.

Razor
2008-02-12, 00:34:27
Jedoch schaffe ich es wie schon geschrieben bei 1280*1024 locker die 1GiB zu füllen.
Leeren VRAM zu füllen, ist nie ein Problem.
Dass Karten mit weniger VRAM nicht so verschwenderisch damit umgehen, wurde hier ja nun schon mehrfach belegt.
(ist wohl irgendwie an Dir vorbei gegangen ;-)

Und bei einer Markteinteilung von LowEnd, Mainstream und HighEnd, gehört die 88GT ins Mainstream-Segment.

Razor

MadManniMan
2008-02-12, 07:20:28
Informier Dich, wenn Du es nicht besser weißt...

Oh Du bist ja so arrogant geworden.


Und bei einer Markteinteilung von LowEnd, Mainstream und HighEnd, gehört die 88GT ins Mainstream-Segment.

Wenn Du nicht gerade 8400 und 8600 ins gleiche Segment packst, so wäre der G92 immer noch oberes Mainstream.

Die 3teilung ist einfach veraltet: nun herrscht das Bild von Low End, Mainstream, Performance und High-End (wobei letzteres gerade seinem Namen wenig Ehre macht, da die GTX zu halt und die X2 zu wenig wirklich richtige Grafikkarte ist).

Razor
2008-02-12, 10:41:59
Oh Du bist ja so arrogant geworden.
Du hast ja sooo recht, Manni.
<removed>

Wenn Du nicht gerade 8400 und 8600 ins gleiche Segment packst, so wäre der G92 immer noch oberes Mainstream.
Ja klar...
...UltraLowEnd, unteres LowEnd, upper LowEnd, lower Mainstream, upper Mainstream, 'Performance' (ein von nVidia erfundener Begriff!), lower HighEnd, upper HighEnd und UltraHighEnd.

Habe ich irgend etwas vergessen?

Die 3teilung ist einfach veraltet: nun herrscht das Bild von Low End, Mainstream, Performance und High-End (wobei letzteres gerade seinem Namen wenig Ehre macht, da die GTX zu halt und die X2 zu wenig wirklich richtige Grafikkarte ist).
Wenn Du meinst... für mich wäre diese "Erweiterung" entweder auch veraltet (siehe oben) oder schlicht und ergreifend überflüssig.

Dann nimm meinetwegen die Preisklasse als Identifikation... mit einer Sub-200€-Karte ultra hohe Auflösungen nutzen zu wollen und zudem noch AA hinzu zu packen, sich dann aber zu 'wundern', dass es absemmelt (anstatt frames im einstelligen Bereich zu zeigen ;-) ist schon hart... gell?

Razor

Hvoralek
2008-02-12, 12:54:43
Es kommt dafür doch weder auf das Segment an, das die Karte nach ihrer Preislage bedient, noch darauf, wie man das nennen möchte (OT: Ist "Performance" nicht eine Erfindung von ATI mit RV570?). Entscheidend sind nicht Auflösung/ AA/ AF als solche, sondern Einstellungen, die die Karte mit ihrer Rohleistung noch spielbar darstellen kann. Kann jemand mit einer 1- GiB- GT testen, ob Oblivion damit in den Einstellungen, um die es hier geht, noch brauchbar läuft?

Razor
2008-02-13, 13:54:52
Es kommt dafür doch weder auf das Segment an, das die Karte nach ihrer Preislage bedient, noch darauf, wie man das nennen möchte (OT: Ist "Performance" nicht eine Erfindung von ATI mit RV570?). Entscheidend sind nicht Auflösung/ AA/ AF als solche, sondern Einstellungen, die die Karte mit ihrer Rohleistung noch spielbar darstellen kann. Kann jemand mit einer 1- GiB- GT testen, ob Oblivion damit in den Einstellungen, um die es hier geht, noch brauchbar läuft?
Kann auch sein, dass es ATI war... einer der beiden IHV auf jeden Fall.
Und auch mich würde es brennend interessieren, ob das aufgemotzte Oblivion bei 1920x1200 und 4xAA noch läuft...
...gerne auch mit anderen Karten, wie der GTX768.

Ich vermute, dass es einfach zu Bandbreiten-Problemen kommt... da würde mehr RAM nur wenig nützen.
(hier würde die Bandbreite der GTX sicher 'helfen')

Razor

mapel110
2008-02-14, 22:27:44
Ein weiterer Test
http://www.xbitlabs.com/articles/video/display/gainward-bliss8800gt-1024gs_7.html
bin selbst noch am lesen...

/edit
Takt bei der 1 GB Version ist wohl 650/950, also übertaktet ab Werk

puntarenas
2008-02-14, 22:33:32
/edit
Takt bei der 1 GB Version ist wohl 650/950, also übertaktet ab Werk
Ja, da hätten sie ruhig die normale Verison nehmen können oder die 512MB-Karte eben entsprechend takten :rolleyes:

Besonders bei einigen DX10-Benches scheint der 512MB-Variante bereits ab 16x12 der Speicher auszugehen, aber das war ja nichts Neues. Danke für den Link.

Hvoralek
2008-02-14, 23:11:26
Nennenswerte Unterschied im relevanten Bereich bei CoD 4 (43%), Quake Wars (25%) und Hellgate (55%). Seltsam allerdings gerade bei denen der Abstand zwischen einer GT 512 und GTS 512. Das sind z.T. 40%; wie soll das denn gehen?

AnarchX
2008-02-14, 23:12:48
Ein weiterer Test
http://www.xbitlabs.com/articles/video/display/gainward-bliss8800gt-1024gs_7.html
bin selbst noch am lesen...

/edit
Takt bei der 1 GB Version ist wohl 650/950, also übertaktet ab Werk
Etwas seltsam, dass die GTS 512MB teils deutlich vor der GT liegt(>=22%) und das auch in den Szenarien, wo die 1GB und der leicht erhöhte Takt der GT GS viel bringen.:|
edit: Da bin ich wohl nicht allein mit dieser Feststellung.

Gast
2008-02-15, 01:12:31
Öhm... jo.

1920x1200 + 4xAA.
Ist ja auch ein bissel fille für 'ne Mainstream-Karte, oder?
Auch möchte ich gar nicht wissen, wie sich das performance-seitig darstellt...
:rolleyes:

Bei mir löpt derzeit das QTP3 (nonRedemized) + 4096 LOD Texture Replacement nebst diversen anderen Modifikationen bei 1280x1024 und 4xTMSAA... Spitzenbelastung beim Video-RAM bei ca. 650MB... keinerlei Slowdowns und stundenlanges gamen ohne Probleme.

Bei den o.g. Settings geht wohl auch 'ne Ultra in die Knie... und ob eine 1GB-Karte hier tatsächlich Abhilfe schafft, steht auch in den Sternen.
Bliebe also abzuwarten...

Razor

sie schafft es irgendwie drüber zukommen ohne abzuschmieren...die FPS fallen kurz auf um 10 dann gehts normal weiter....ne Ultra (G80) mit 1gig würd ich mir sofort kaufen!

Gast
2008-02-15, 01:38:36
Leider ist der Test von xbitlabs wieder nur ein witerer wertloser Test (durch die Unstimmigkeiten GT512 -> GTS512). :(

MadManniMan
2008-02-15, 06:24:33
Mal wieder ein Test mit AAA - und die Radeon leeeiiiidet!

Aber: irgendwas stimmt dennoch nich, denn wie kann sie auf konkurrenzfähige Gesamtpunkte im Murks kommen, aber bei den einzelnen Game Benches abkacken?

seahawk
2008-02-15, 07:41:25
Das mit dem AAA wundert mich jetzt weniger, die unterschiede zwischen GTS und GT512 schon. Allerdings liese sich das durch dne unterschiedlichen Takt erklären, was aber dann eben auch einen Großteil des Vorsprunges der GT1GB gegenüber der GT512 erklären würde.

Die GT1GB läuft auf 650/1620/1900
Dir GT512 läuft auf 600/1500/1800
die GTS512 läuft auf 650/1620/1940 - 128SP

MadManniMan
2008-02-15, 08:22:39
*knirsch*

Im Ernst: wenn ich schon früher derartige AAA-Ergebnisse gesehen hätte, hätte ich mir statt einer 3850 eine 8800 gekauft ;(

seahawk
2008-02-15, 08:32:54
Ohne Grund, hat ATI nicht davon abgeraten AAA zu Benchen.

Gast
2008-02-15, 09:18:17
Mal wieder ein Test mit AAA - und die Radeon leeeiiiidet!


Wo siehst Du da AAA Tests?

MadManniMan
2008-02-15, 09:27:04
Schau in den Test Settings nach: bei beiden IHVs wurde Alphatest AA aktiviert.

Gast
2008-02-15, 10:36:49
Das ist mir entgangen, merci.

Tja, da ist ATI selbst Schuld, wenn EATM nicht funktioniert.

puntarenas
2008-02-15, 11:15:26
Tja, da ist ATI selbst Schuld, wenn EATM nicht funktioniert.
Ja, allerdings hätte man zur besseren Vergleichbarkeit dann auch bei NVidia des Supersampling-Modus nehmen können.

Egal, es bleibt die Frage, ob EATM zukünftig nur noch bei Produktreleases im Reviewtreiber aktiviert und dann wieder fallen gelassen wird, oder ob es sich im Moment eben um einen Bug handelt, der bald behoben wird. Die ganzen Einstellmöglichkeiten im CCC sprechen ja dafür, dass EATM bald funktionstüchtig zurückkehrt.

Gast
2008-02-15, 11:39:49
Ja, allerdings hätte man zur besseren Vergleichbarkeit dann auch bei NVidia des Supersampling-Modus nehmen können.




Wieso denn, bei ATI wurde doch ebenso Multisampling verwendet.

puntarenas
2008-02-15, 11:40:56
Wieso denn, bei ATI wurde doch ebenso Multisampling verwendet.
Wenn man den Aussagen einiger "Freaks" hier folgt, resultiert das aber zur Zeit in Supersampling, der Schalter funktioniert nicht.

AnarchX
2008-02-15, 11:53:35
Also TRAA, da würde ich doch mal vermuten, dass man bei der 8800 GT hier im Test vielleicht ausversehen TRSAA getestet hat, während die anderen nur mit TRMAA liefen, was wiederrum die Werte erklären würde.

Gast
2008-02-15, 11:54:52
Ich dachte nur EATM würde nicht funktionieren?

Razor
2008-02-15, 12:38:14
Da gibt es nichts zu "erklären"... ist einfach nur ein vollkommen überflüssiger Test ohne Aussagegehalt.
(der zudem - wieder mal - inkonsistente Werte aufzeigt... vermitlich wieder unterschiedliche Treiber o.ä.)

Gibt es denn überhaupt nichts, was die diesem Thread zugrunde liegende Diskussion weiter bringt?
Und was ist daran so schwierig, wirklich gute Reviews, bzw. Roudups zu bringen?
Sind das alles Deppen oder haben gute Leutz einfach keine Zeit mehr, heutzutage?

Mann, mann, mann...
Und X-Bit Labs gehörte mal zu den 'Guten'.
:rolleyes:

Razor

Hvoralek
2008-02-15, 13:02:07
Das mit dem AAA wundert mich jetzt weniger, die unterschiede zwischen GTS und GT512 schon. Allerdings liese sich das durch dne unterschiedlichen Takt erklären, was aber dann eben auch einen Großteil des Vorsprunges der GT1GB gegenüber der GT512 erklären würde.

Die GT1GB läuft auf 650/1620/1900
Dir GT512 läuft auf 600/1500/1800
die GTS512 läuft auf 650/1620/1940 - 128SPRechnerisch liegt eine GTS 512 bei Filter- und Arithmetikleistung 23% vor einer GT, bei allem anderen noch weniger. Das kann nie und nimmer auf teilweise 40% Leistungsunterschied hinauslaufen.

mike49
2008-02-15, 15:02:45
Rechnerisch liegt eine GTS 512 bei Filter- und Arithmetikleistung 23% vor einer GT, bei allem anderen noch weniger. Das kann nie und nimmer auf teilweise 40% Leistungsunterschied hinauslaufen.
Bei cpu-limitierten Benchmarks gibt es teilweise auch das Phänomen einer Überskalierung der fps im Verhältnis zum Takt.

Das wurde dann immer mit einer gewissen Grundlast (z.B. durch KI-Berechnungen etc.) begründet. Vielleicht gibt es ja einen ähnlichen Effekt auch bei GPUs.

nomadhunter
2008-02-15, 15:31:33
Das wurde dann immer mit einer gewissen Grundlast (z.B. durch KI-Berechnungen etc.) begründet. Vielleicht gibt es ja einen ähnlichen Effekt auch bei GPUs.
Das kann passieren, wenn auch fps-unabhängige Berechnungen (das, was du als Grundlast bezeichnest) ablaufen, wie es bei CPUs vorkommt. Bei GPUs gibt es sowas AFAIK aber nicht. Zumindest nicht so, dass es eine Rolle spielen würde.

Beim Xbit-labs hat man vermutlich verschiedene Treiber oder sonst irgendwie andere Testbedingungen verwendet. Dass die 1GiB-Karte auch noch anders getaktet ist, macht es sowieso schwerer, 512MiB und 1GiB zu vergleichen. Genau kann man damit den Vorteil der 1GiB-Karte nicht rausrechnen, nur grob abschätzen.

Hvoralek
2008-02-15, 15:43:35
Das kann passieren, wenn auch fps-unabhängige Berechnungen (das, was du als Grundlast bezeichnest) ablaufen, wie es bei CPUs vorkommt. Bei GPUs gibt es sowas AFAIK aber nicht. Zumindest nicht so, dass es eine Rolle spielen würde.Ich wüsste auch nicht, warum das bei GPUs auftreten sollte. Das einzige, wo ich mir nicht sicher bin, ob es pro Frame oder pro Zeitabschnitt berechnet wird, sind Vertexshader (Kann das vlt. jemand aufklären?). Dis sind aber gerade bei einem USC so unwichtig, dass die selbst dann nicht zu so überproportionalen Leistungszwächsen dürften führen können. Und wenn, müsste man das bei 3dMark05/06 und Oblivion merken, aber nicht bei Hellgate.

mike49
2008-02-15, 23:51:06
Bei dem Tri-SLI Test von Hardspell haben die auch eine eigentlich unmögliche, gpu-seitige Überskalierung gemessen:

http://www.abload.de/img/0bd85090-f316-402e-b8va.jpg (http://www.abload.de/image.php?img=0bd85090-f316-402e-b8va.jpg)

Ist jetzt zwar Single-Card vs. Tri-SLI, vom Prinzip her aber das gleiche.

AnarchX
2008-02-16, 01:19:44
Bei dem Tri-SLI Test von Hardspell haben die auch eine eigentlich unmögliche, gpu-seitige Überskalierung gemessen:

http://www.abload.de/img/0bd85090-f316-402e-b8va.jpg (http://www.abload.de/image.php?img=0bd85090-f316-402e-b8va.jpg)

Ist jetzt zwar Single-Card vs. Tri-SLI, vom Prinzip her aber das gleiche.

Mach dich doch nicht lächerlich, Avg und Min skalieren absolut im Rahmen, sich jetzt wieder an einem Max-FPS-Wert, der einem Moment im Zeitlauf entspricht und wohlmöglich gerade so ein höchst seltener Sonderfall ist wie Hvoralek ihn beschreibt -> Grundlast. ;D

Im Endeffekt erklärt es trotzdem nicht warum bei Xbitlabs die GT 1GB so stark gegenüber der 512er skalieren soll, da ihr einziger Vorteil der Speicher ist, den sie nur bei einer Speicherskalierung ausspielen kann, die aber laut der Performance der 512er GTS nicht existieren kann.

Warum überhaupt dieses zwanghafte Verteidigen des objektiv nicht wirklich nachvollziehbaren Testes?
Hast du dir eine 1GB GT gekauft, die du nun um jeden Preis verteidigen willst, nachdem sie in den meisten Fällen nun nicht mehr wirklich attraktiv ist, nachdem die 512er GT massiv im Preis gefallen ist?

Natürlich hat die 1GB Vorteile, die vielen bekannt sind und ich überlege auch ob ich zu einer greifen soll, nachdem es bekannte Probleme in Oblivion mit den tollen Texturmods gibt.

Aber die Argumentation muss doch nicht auf dieser Grundlage geführt werden, wie du es momentan machst, im Endeffekt bist du nicht besser als Razor, wenn du so argumentierst...

Razor
2008-02-16, 10:32:35
Bei dem Tri-SLI Test von Hardspell haben die auch eine eigentlich unmögliche, gpu-seitige Überskalierung gemessen:

http://www.abload.de/img/0bd85090-f316-402e-b8va.jpg (http://www.abload.de/image.php?img=0bd85090-f316-402e-b8va.jpg)

Ist jetzt zwar Single-Card vs. Tri-SLI, vom Prinzip her aber das gleiche.
Ganz im Gegenteil... sieht völlig normal aus.
Die "Max-Werte" kann man in diesem Fall getrost ignorieren...

Sorry, aber der X-Bit Labs Test bleibt leider vollkommen unbrauchbar.

Razor

MadManniMan
2008-02-16, 12:28:14
Sorry, aber der X-Bit Labs Test bleibt leider vollkommen unbrauchbar.

Genau - weil er nämlich Deiner Position widerspricht.

Mann, Mann, was bin ich froh, nicht mit Dir oder für Dich arbeiten zu müssen.

seahawk
2008-02-16, 14:18:48
Genau - weil er nämlich Deiner Position widerspricht.

Mann, Mann, was bin ich froh, nicht mit Dir oder für Dich arbeiten zu müssen.

Wobei die Ergebnisse schon komsich sind.

Bei COD4 ist die GT1024 in 1280 prozentual und absolut weiter von der GTS entfernt, als bei 1920.

Einzig die FX10 Bensches von Call of Juarez und Wolrld in Colflict lassen ien Liiterung der Speichergröße erahnen. Ich vergleich gezielt die GTS512 zur GT1GB, da die getestet GT1GB durch das Werks-OC näher an der GTS ist als an der Stock-GT512.

mike49
2008-02-16, 14:28:27
Hast du dir eine 1GB GT gekauft, die du nun um jeden Preis verteidigen willst, nachdem sie in den meisten Fällen nun nicht mehr wirklich attraktiv ist, nachdem die 512er GT massiv im Preis gefallen ist?

Ich habe z. Zt. eine 8800GT 512MB und bin soweit auch recht zufrieden damit.

Aus der Erfahrung mit Crysis heraus (da laufen die 512MB auf 1680er Auflösung mit very high config schon ohne AA verdammt schnell voll bzw. über) würde ich bei einem Aufpreis von ~30€ mittlerweile eher zu einer 1GB-Karte tendieren.

Wobei die 8800GT zugegebenermassen schon etwas knapp auf der Brust ist ( -> 256-bit SI, GPU-Power) um die 1GB wirklich sinnvoll zu nutzen.

Anders sollte es hingegen bei diesem Teil ausschauen:

http://www.alternate.de/html/product/details.html?articleId=247951

Ein unbeschnittener G92 + heftiger OC sollte definitiv Nutzen ziehen können aus dem Mehrspeicher.

SGT.Hawk
2008-02-16, 17:12:09
Der Preis ist gesalzen, da würde ich lieber die GTX nehmen.

mike49
2008-02-16, 18:17:56
Der Preis ist gesalzen, da würde ich lieber die GTX nehmen.
Jep, Preis ist heftig, im Verhältnis zur Ultra (dürfte in etwa gleich schnell sein) ist sie jedoch ein Schnäppchen ;)

Voyager
2008-02-16, 19:02:30
Wobei die Ergebnisse schon komsich sind.

Bei COD4 ist die GT1024 in 1280 prozentual und absolut weiter von der GTS entfernt, als bei 1920.

Einzig die FX10 Bensches von Call of Juarez und Wolrld in Colflict lassen ien Liiterung der Speichergröße erahnen. Ich vergleich gezielt die GTS512 zur GT1GB, da die getestet GT1GB durch das Werks-OC näher an der GTS ist als an der Stock-GT512.

Wobei in der aktuellen pcgh auch ein Test der Gainward 1024MB 8800 GT ist und sie gerade in COD2 doch deutlich schneller ist.

Hier im Forum sind doch pcgh Mitarbeiter,vielleicht kann da mal jemand was dazu sagen:rolleyes:

Razor
2008-02-16, 23:45:37
Genau - weil er nämlich Deiner Position widerspricht.
Mann, Mann, was bin ich froh, nicht mit Dir oder für Dich arbeiten zu müssen.
Wie ich froh bin, dass Du nicht für mich arbeitest...
...Minerstvoraussetzung ist bei mir: lesen können!

Oder ist etwa alles, was hier über den Test geschrieben wurde, an Dir vorbei gegangen?
Das hätte dann eher etwas mit Auffassungsvermögen zu tun... auch ein Grundvoraussetzung bei mir!
:D

Die "Ergebnisse" dort sind leider nicht, bzw. schon wieder nicht konsistent und schon gar nicht nicht plausibel.
OK, die wollten ja auch keinen "512MB vs. 1GB" Test machen, sondern nur Gainwards 'Neue' unter die Lupe nehmen...
...aber das haben sie leider äusserst schlecht getan.

Wobei in der aktuellen pcgh auch ein Test der Gainward 1024MB 8800 GT ist und sie gerade in COD2 doch deutlich schneller ist.
Was an CoD2 liegt... wahrscheinlich würde dort auch 2GB VRAM noch etwas bringen... warum auch immer.
Optisch liegt es ja mittlerer Weile sehr, sehr weit zurück... was aber normal bei 'alten' Titeln sein sollte.

CoD2 hat auch schon damals bei 128MB vs. 256MB gezeigt, dass es "VRAM-Abhängig" ist... das dann auch bei 256MB vs. 512MB und mit 512MB vs. 1GB.
Ist wohl und bleibt wohl das einzige Game, bei dem das so ist...

Razor

Gast
2008-02-17, 00:58:37
OK, die wollten ja auch keinen "512MB vs. 1GB" Test machen, sondern nur Gainwards 'Neue' unter die Lupe nehmen...
...aber das haben sie leider äusserst schlecht getan.Dann sag ich dazu, einfach so, daß du total falsch liegst und dir das alles aus dem Finger saugst.

Razor
2008-02-17, 07:50:37
Dann sag ich dazu...
Ist irrelevant.
Ich beziehe mich auf Fakten, Du und andere offenbar auf Wunschdenken.

Razor

Voyager
2008-02-17, 09:19:50
Ich habe seid gestern auch eine 1024MB 8800GT hier.
Werde mal ein paar Benches machen und schauen wie sie sich schlägt gegen meine 512MB GT

Razor
2008-02-17, 09:37:12
Ich habe seid gestern auch eine 1024MB 8800GT hier.
Werde mal ein paar Benches machen und schauen wie sie sich schlägt gegen meine 512MB GT
Grandios!
:up:

Razor

Voyager
2008-02-17, 11:40:10
Grandios!
:up:

Razor

Ironie ? :tongue:

MadManniMan
2008-02-17, 12:15:19
Möglicherweise. Aber auch nur dann, wenn die 1024 MB völlig unmöglicherweise eine Mehrleistung aufweisen.
Und ach: eigentlich hält er Dich für doof, soetwas überhaupt zu kaufen ;)

Mr.Fency Pants
2008-02-17, 13:00:35
Lass mich mal raten: wenn die 1024MB einen mess- und spürbaren Vorteil bringen, dann hat Voyager laut Razor falsch gebencht, wenn nicht, dann richtig.

Von mir gibts auf jeden Fall ein ehrliches Interesse an Ergebnissen, da ich momentan vor einer ähnlichen Entscheidung stehe.

puntarenas
2008-02-17, 13:30:44
Same here, bin spitz wie Nachbars Lumpi auf solche Vergleiche, die Reviewseiten haben sich ja leider dabei bisher nicht mit großem Ruhm bekleckert. Auch wenn ich nich jedes vorhandene Ergebnis als vollkommen untauglich betrachten würde, unsauber sind sie trotzdem.

Wenn ich mir was wünschen darf, Auflösung(en) bitte nur ab 16x12, darunter ist irgendwie witzlos :)

Hvoralek
2008-02-17, 14:01:42
Wenn ich mir was wünschen darf, Auflösung(en) bitte nur ab 16x12, darunter ist irgendwie witzlos :)Eben nicht. Auflösungen bitte in dem Bereich, in dem es mit einer 8800 GT noch spielbar ist. 1024 MiB nützen einem nichts, wenn man damit in Crysis Very High 1600x1200 4x/16x statt 2 fps 5 hat, in niedrigeren Einstllungen aber mit beiden 25.

puntarenas
2008-02-17, 14:08:25
Eben nicht. Auflösungen bitte in dem Bereich, in dem es mit einer 8800 GT noch spielbar ist. 1024 MiB nützen einem nichts, wenn man damit in Crysis Very High 1600x1200 4x/16x statt 2 fps 5 hat, in niedrigeren Einstllungen aber mit beiden 25.
Ach ja, wenn ich mir nochwas wünschen darf, kein Crysis bitte ;)

Razor
2008-02-17, 14:18:08
Ironie ? :tongue:
Eigentlich nicht, nein.
Her mit den Benchies!

Und ich schließe mich mal den Vorrednern an... bitte kein Crysis... zumindest nicht als einziges.
Und wenn ich mir noch was wünschen darf: 1280 & 1680 mit 4xAA und 8xHQAF...

Screenshots, genaue Einstellungen (Treiber & InGame) und auch zugehörigen Savegames wären gut, wie auch genaue Kartentypen und Bios-Version.

Thx!

Razor

Hvoralek
2008-02-17, 14:20:28
Ach ja, wenn ich mir nochwas wünschen darf, kein Crysis bitte ;)D3D10-CoJ wird >= 1600 x 1200 auch auf beiden nicht mehr spielbar sein :wink:

Und z.B. für Leute mit einem 17''- TFT sind Werte über 1280x1024 ohnehin nicht unmittelbar verwertbar. Die Fälle, bei denen man in so niedrigen Auflösungen an die Grenze der Spielbarkeit kommt, wären also u.U. besonders interessant.

Voyager
2008-02-17, 14:49:59
Eigentlich nicht, nein.
Her mit den Benchies!

Und ich schließe mich mal den Vorrednern an... bitte kein Crysis... zumindest nicht als einziges.
Und wenn ich mir noch was wünschen darf: 1280 & 1680 mit 4xAA und 8xHQAF...

Screenshots, genaue Einstellungen (Treiber & InGame) und auch zugehörigen Savegames wären gut, wie auch genaue Kartentypen und Bios-Version.

Thx!

Razor

Da ich einen 22" TFT habe werde in in 1680x1050 4xAA 16xAF testen.

Karten sind einmal eine pny 8800 GT 512 MBTakt 600/900
und eine Gainward GT 8800 GT 1024MB GS Takt 650/950
zum benchen werde ich die PNY auch auf 650/950 laufen lassen,damit durch die Taktfrequenzen keine Vorteile erzielt werden.

An benches wollte ich farcry,crysis,sowie Stalker nutzen;eventuell noch COD2

Razor
2008-02-17, 16:17:26
Das ich einen 22" TFT habe werde in in 1680x1050 4xAA 16xAF testen.
Das muss dann wohl reichen...

Karten sind einmal eine pny 8800 GT 512 MBTakt 600/900
und eine Gainward GT 8800 GT 1024MB GS Takt 650/950
zum benchen werde ich die PNY auch auf 650/950 laufen lassen,damit durch die Taktfrequenzen keine Vorteile erzielt werden.
Auf der Gainward wird ganz anderer Speicher verwendet, aber sei es drum.
Helfen würde es natürlich, wenn Du das Bios der Gainward auf die PNY flashen würdest, um mögliche Diskrepanzen auszuschließen.
Die Speichermenge ist hierbei nicht von Relevanz, da diese bei den nVidia-Karten schon seit sehr langer Zeit erst beim booten ermittelt wird.

Alternativ auch gerne ein entsprechendes Bios von EVGA... 62.92.24.00.02
http://www.mvktech.net/component/option,com_remository/Itemid,26/func,fileinfo/filecatid,2453/parent,category/
Es enthält die gleichen Takte (650/1620/950) und basiert auf dem aktuellsten Bios, welches derzeit verfügbar ist.
(die meisten 'alten' Karten wurden mit dem "First-Release" Bios "62.92.12.xx.xx" ausgeliefert)

Zumindest mir ist es seinerzeit des öfteren passiert, dass die Karte während der Testreihen herunter taktete und dort auch blieb. Um hier also wirklich konsistente Ergebnisse zu erhalten, wäre es sinnvoll, die PNY nicht nur via RT zu takten, sondern diese gleich ins Bios zu schreiben.

Wenn Du möchtest, unterstütze ich Dich hier gerne via PM.
Auch mir wäre es sehr, sehr lieb, wenn hier mal endlich Klarheit in die Geschichte kommen würde... egal, in welche Richtung es geht.

An benches wollte ich farcry,crysis,sowie Stalker nutzen;eventuell noch COD2
Finde ich gut, diese Auswahl...
CoD2 wird natürlich zugunsten der 1GB ausschlagen... vermute ich... was allerdings keine sonstigen Rückschlüsse zulassen würde.

Genial wären natürlich noch Oblivion (zumindest mit QTP & 4096'er LOD) und Gothic3 (mit entsprechenden Einstellungen), weil es hier eigentlich einen wirklich wahrnehmbaren Vorteil für die 1GB geben müsste...

Ich bin auf jeden Fall mal gespannt!

Razor

Voyager
2008-02-17, 16:17:59
So,mal auf die schnelle Crysis gebencht

Win XP 32bit,Core2Duo@3200Mhz,4GB Ram,Treiber 169.21

PNY 8800GT 512 MB http://www.techpowerup.com/gpuz/ka3hc/
Gainward 8800GT 1024 MB GS http://www.techpowerup.com/gpuz/7pra8/
Beide Karten laufen mit 650/950Mhz

Crysis Full,Version 1.1,HIGH
1680x1050 ohne AA

PNY 8800 GT 512MB
min16,86 - max37,45 - av32,70

Gainward 8800GT 1024MB
min16,69 - max37,47 - av32,53

maximale VRam Auslastung:immer unter 512 MB

------------------------------------------------------------------------------

1680x1050 mit 4xAA

PNY 8800 GT 512MB
min15,71 - max27,23 - av21,39

Gainward 8800GT 1024MB
min15,36 - max27,65 - av23,58

maximale VRam Auslastung: 588 MB

------------------------------------------------------------------------------

1680x1050 mit 4xAA + 16xAF

PNY 8800 GT 512MB
min13,90 - max24,61 - av18,16

Gainward 8800GT 1024MB
min16,17 - max24,85 - av20,77

maximale VRam Auslastung: 588 MB
------------------------------------------------------------------------------



Weitere Benchmarks folgen
Noch was zu der Gainward 8800GT 1024MB GS:
Die Karte hat eine 2D/3DTakt Umschaltung und der Kühler bringt über 20Grad niedrigere Temperaturen als der Referenz Lüfter der PNY :)

*edit*
@Razor
Ein anderes Bios flashen kommt nicht in Frage.
Aber ich überwache die Taktfrequenzen und Vram Auslastung anhand des Rivatuner Logs sowie per Display der Logitech G15

Raff
2008-02-17, 16:18:44
Half-Life 2 samt Fakefactory Cinematic Mod wäre noch hochspannend.

MfG,
Raff

Razor
2008-02-17, 16:32:16
Ein anderes Bios flashen kommt nicht in Frage.
Aber ich überwache die Taktfrequenzen und Vram Auslastung anhand des Rivatuner Logs sowie per Display der Logitech G15
Oki... drücke die Daumen, dass das so klappt.

Wichtig: die VRAM-Auslastung ist nicht immer entscheidend!
Wäre nett, wenn Du die jeweilige Auslastung beider Karten dazu schreiben würdest...

Und die beiden Bios-Versionen wären noch interessant... kann man mit GPU-Z auslesen.

Thx-In-Advance!

Razor

P.S.: kommentieren Deiner Ergebnisse kommt, wenn Du fertig gebencht hast, OK?

Voyager
2008-02-17, 16:37:51
P.S.: kommentieren Deiner Ergebnisse kommt, wenn Du fertig gebencht hast, OK?

klaro :)
weiß nur nicht ob ich das heute noch schaffe,könnte auch noch 1-2 Tage dauern

Hier schomal das Bios der Gainward 1024MB
http://www.techpowerup.com/gpuz/7pra8/

und hier die PNY 512MB
http://www.techpowerup.com/gpuz/ka3hc/

Razor
2008-02-17, 18:10:25
klaro :)
weiß nur nicht ob ich das heute noch schaffe,könnte auch noch 1-2 Tage dauern

Hier schomal das Bios der Gainward 1024MB
http://www.techpowerup.com/gpuz/7pra8/

und hier die PNY 512MB
http://www.techpowerup.com/gpuz/ka3hc/
Die Biose sind zwar schon älter (16'er Generation), aber da beide die gleiche Version tragen, sollte das nicht von Relevanz sein!
:up:

Habe selber mal ein bissel mit meinem CRT 'gespielt', der ja deutlich mehr schafft, als mein TFT... maximal immerhin 1920x1440 (4:3).
Musste natürlich das Äquivalent zu 1680x1050 nutzen... 1600x1200 sollten dem doch recht nahe kommen... sind bei mir dann etwa +9% Bildpunkte.

Deine Crysis-Werte konnte ich so schon verifizieren und sie scheinen OK... 582MB Video-RAM sinds bei mir.
Ich vermute allerdings, dass Du mit Treiber-Standard-Einstellungen bencht, oder?
Ich forciere global "HighQuality" AF und 'clamp'e den negativen LOD-Bias... und für Crysis forciere ich 8xAF per Profil (keine Option InGame dafür).

Na dann mal viel Spaß beim Benchen...
Allerdings wird mit dieser Auswahl an Games nur wenig an Aussagen zur Speichernutzung gemacht werden können:
- Stalker ohne AA, 16xAF knappe 500MB
- FarCry HDR (noAA), 8xAF maximal 273MB
- FarCry 4xAA, 8xAF maximal 266MB
- CoD2 4xAA, 8xAF maximal 371MB

Aber ich wette, dass CoD2 trotzdem reagiert... würde mich zumindest nicht wundern!
:D

Hmmm... das wird echt schwierig... selbst Quake4 mit UltraQuality und 4xAA nimmt nicht mehr als 480MB, LostPlanet Demo gar nu 436MB.
Egal, schaun' wir mal, was kommt!

Razor

MadManniMan
2008-02-17, 22:52:41
Wozu denn um Himmels Willen 8*AF :confused:

Gummikuh
2008-02-17, 23:07:11
Jo...wie siehts denn momentan aus...habe selber nur nen 17" TFT mit 1280x1024 und die HD 3850 mit 256MB sieht preislich schon toll aus.

Gurcke momentan noch mit ner X1800XT herum, allerdings hat die 512MB...tja wat soll man da machen, doofe Sache.

Nun ja bon momentan echt am überlegen, ob ich mir die "kleine" HD 3850 nicht einfach mal als Übergangskarte besorge...momentan bin ich zwangs Wohnungsumzug nicht so der Vollblutzocker und ne Sapphire HD3870 full retail hab ich schon seit längerem storniert.

Einen Tod muss man sterben :usweet:, was meint ihr hier so?

Razor
2008-02-17, 23:58:29
Wozu denn um Himmels Willen 8*AF :confused:
Warum zur Hölle nicht?
Immer noch besser als 1xAF mit "Quality" und aktivierter trilinearer Optimierung, oder?
:confused:

Und falls Du die Frage ernst gemeint haben solltest (was ich fast nicht glauben mag)... "Gewohnheit"... 16xAF bringt ggü. 8xAF kaum mehr und kostet dafür auch kaum mehr. Sah mich bisher nicht dazu genötigt, das zu ändern... Frage beantwortet?

Razor

Gast
2008-02-18, 00:31:39
Hmmm... das wird echt schwierig...Wenn nicht gar unmöglich.

Egal, schaun' wir mal, was kommt!Was soll schon kommen. Irgendwelche schlauen Ausreden.

Wenn damit Spiele gemeint waren, der >600MB Content kommt irgendwann garantiert. Allerdings von einer Engine und Effekten begleitet, mit welchen eine 8800GT nur Diashows produziert. Sei es mit 2GB VRAM.

1GB VRAM ergeben momentan genausoviel Sinn wie DX9-Features einer 5200 damals ergeben haben.

Gast
2008-02-18, 00:47:14
Wenn damit Spiele gemeint waren, der >600MB Content kommt irgendwann garantiert. Allerdings von einer Engine und Effekten begleitet, mit welchen eine 8800GT nur Diashows produziert.
Quatsch.
Viele Spiele zeigen mehr oder weniger einen Vorteil für 1GiB.



1GB VRAM ergeben momentan genausoviel Sinn wie DX9-Features einer 5200 damals ergeben haben.
Quatsch.
Mit einer 5200 kann man D3D9-only Spiele spielen, mit einer 9200 nicht!
Mit einer 5200 kann man Aero nutzen.
Die 5200 war wichtig, für die Verbreitung von D3D9.


Wozu denn um Himmels Willen 8*AF :confused:
Frag ich mich auch.
Schon mal aus Faulheit habe ich immer 16x AF drin, damit bei alten Spielen die maximale BQ da ist, ich muss also nur am AA Schalter drehen.

Außerdem kostet 16x AF imho so wenig, dieses 1% juckt Niemand.


@Voyager
Schmeiss doch bitte auch immer T-SSAA an, SSAA oder Hybridmodi wären auch nett.
Dann noch ein paar Speicherfresser angeworfen.

Gast
2008-02-18, 01:25:50
Quatsch.
Viele Spiele zeigen mehr oder weniger einen Vorteil für 1GiB.Wenn du mehr oder andere Tests als Voyager bereits gemacht hast, dann steht es dir natürlich frei sie hier zum Nachvollziehen zu veroffentlichen.

Quatsch.
Mit einer 5200 kann man D3D9-only Spiele spielenKann man nicht, Boy. Man kann sie nur starten.

mit einer 9200 nicht!WTF?! :|

Mit einer 5200 kann man Aero nutzen.Ja. Dafür reicht sie auch aus. Nebenbei, Aero verlangt zwar nach DX9, benutzt aber, genauso wie WindowsBlinds, den DX8.1 Featuresset. Der reicht auch und den Packt die 5200 noch gerade so ausreichend schnell.

Dann noch ein paar Speicherfresser angeworfen.Und ein 4096x4096 Beamer wäre nicht schlecht :crazy2:

N8

Gast
2008-02-18, 01:28:46
Quatsch.
Viele Spiele zeigen mehr oder weniger einen Vorteil für 1GiB
ps: Dieser primitive virale Marketingsdreck geht mir tierisch auf den Panzer! :mad:

-Muuz-
2008-02-18, 03:31:34
WTF?! :|




Ati Radeon 9200

MadManniMan
2008-02-18, 06:16:13
Warum zur Hölle nicht?
Immer noch besser als 1xAF mit "Quality" und aktivierter trilinearer Optimierung, oder?
:confused:

Natürlich. Gleich viel besser.


Und falls Du die Frage ernst gemeint haben solltest (was ich fast nicht glauben mag)... "Gewohnheit"... 16xAF bringt ggü. 8xAF kaum mehr und kostet dafür auch kaum mehr. Sah mich bisher nicht dazu genötigt, das zu ändern... Frage beantwortet?

Natürlich war die Frage ernst gemeint. Ich komme nicht zum Spaß in diesen Thread.

Wenn Du kaum nen Unterschied zwischen 16* und 8* erkennst, dann tut es mir recht herzlich leid. Eher noch solltest Du aber den Performanceunterschied nicht erkennen, da Dein Füllratenmonster eben jenes mit Links und 40 Fieder erledigt.

Am seltsamsten mutet gar an, dass Du auf diesen geringen Verlust verzichten möchtest, der RAM unabhängig geschieht und damit die Differenz zwischen 512 und 1024 verschleiern würde.


PS: wäre kein Unterschied zwischen einem halben und einem Gig bei Crysis gewesen, hättest Dus schon kommentiert :)

Razor
2008-02-18, 10:24:57
Am seltsamsten mutet gar an, dass Du auf diesen geringen Verlust verzichten möchtest, der RAM unabhängig geschieht und damit die Differenz zwischen 512 und 1024 verschleiern würde.
Geht das auch auf deutsch :confused:

PS: wäre kein Unterschied zwischen einem halben und einem Gig bei Crysis gewesen, hättest Dus schon kommentiert :)
Soll ich jetzt schon sagen, dass es natürlich einen Unterschied gibt...
...dieser aber - wie oft schon gesagt - unerheblich ist, weil wir uns hier in unspielbaren Regionen befinden?

Wir können auch gerne einen vergleich von 4000x2000 Punkten machen und uns dann daüber freuen, dass es statt der 1fps bei 512MB glatt die doppelte Performance mit 2 fps und 1024MB gibt... DAS macht dann auch wirklich Sinn :rolleyes:

Der Gast, der auf meinen Post antwortete hat also gar nicht so unrecht, wenn auch ich es anderes ausgedrückt hätte haben wollen.

Aber vielleicht gibt es ja doch Beispiele, die einen spielbaren Vorteil pro 1024MB zeigen?
Oder was meinst Du, warum ich Crysis mit 'eigenem' UHQ-Mod @ 1280x1024 und 2xAA (nebst dem 'schrottigen' 8xHQAF ;-) spielte?
Weil mir der VRAM ausging? Ganz sicher nicht... die Performance der Karte reicht einfach nicht für mehr... da hilft auch nicht "mööööhr RAMMM!"

Got it?
;)

Und jetzt sollten wir vielleicht doch noch andere RealWorld-Tests abwarten, bevor wir hier weiter 'zetern', oder?
Bevor Du aber weitere Kommentare dieser Art abläßt, würde ich Dir doch noch dringend nahe legen, Dir den Inhalt dieses Threads noch einmal zuzuführen...

Razor

Gast
2008-02-18, 20:37:16
Oder was meinst Du, warum ich Crysis mit 'eigenem' UHQ-Mod @ 1280x1024 und 2xAA (nebst dem 'schrottigen' 8xHQAF ;-) spielte?
Texturen auf Low? Weil das passt einfach nicht mehr in den mickrigen RAM.

Razor
2008-02-18, 21:38:23
Texturen auf Low? Weil das passt einfach nicht mehr in den mickrigen RAM.
Zitiert und doch nicht 'verstanden'?
Respekt!
:|

Razor

MadManniMan
2008-02-18, 22:27:36
Ist natürlich wie immer alles unspielbar. Genau wie bei Supreme Commander.

Irgendwas is ja immer ;)

Razor
2008-02-18, 22:33:49
Ist natürlich wie immer alles unspielbar. Genau wie bei Supreme Commander.
Irgendwas is ja immer ;)
Gibts von Dir auch mal was Themenrelevantes oder hast Du Dir angewöhnt hier nur rum zu stänkern?
Wir reden hier von Crysis bei 21 bzw 23 fps avg und jeweils etwa 15fps min...

Was also soll an meiner Aussage jetzt "wie immer" gewesen sein?
Ich vermute allerdings, dass Dir einfach nur konkrete Argumente fehlen...

Razor

Gast
2008-02-18, 22:57:27
15fps min, sind je nach Spiel nicht unspielbar.

Razor
2008-02-18, 23:02:59
Klar... in Wirklichkeit sind Äpfel und Birnen absolut identisch... jaaaaa!
:rolleyes:

Razor

K4mPFwUr$t
2008-02-18, 23:08:38
15FPS sind so gut wie unspielbar, je schneller das game desto klarer wird das einem.
auch wenn man ein RTS mit weniger FPS spielen kann als ein shooter merkt man doch einen unterschied beim feeling zwischen 30 und 60FPS. beispiel ist hier coh.

auch oblivion kommt mit recht wenig FPS noch recht gut aus, trozdem sind hier 15FPS zu wenig.
dagegen sind 30FPS schon spielbarer.

Gast
2008-02-18, 23:19:20
Es sind aber 15min FPS. Also schon locker 25avg.

Jetzt noch etwas übertaktet und es sind 18min und 30avg. Bei Oblivion sehr wohl spielbar.


Bei Supreme Commander reichen auch weniger.

Gast
2008-02-18, 23:30:25
Zitiert und doch nicht 'verstanden'?
Respekt!
:|Normal. Wir sind doch alle doooof :|

Razor
2008-02-19, 09:01:56
Bei Oblivion sehr wohl spielbar.
Bei Oblivion vielleicht schon - obwohl mich auch hier das Geruckel bei den Kamera-Schwenks massiv stören würde...
...aber wir reden hier ganz konkret über Crysis!
(besagter Äpfel/Birnen-Vergleich)

Aber was soll man Leuten erzählen, die offenbar Probleme mit dem Lesen haben?

Razor

Gast
2008-02-19, 16:06:48
Gibt es eine GTS-1024? :(

mapel110
2008-02-19, 16:14:15
Gibt es eine GTS-1024? :(
Ja.
http://geizhals.at/deutschland/?o=15&fs=8800+gts+1024&in=&x=0&y=0

Razor
2008-02-20, 08:11:20
Ein weiterer Test von Hardware.net:
http://www.hartware.de/review_788.html

Interessant, weil 256 vs. 512MB vs. 1024MB getestet werden... neben diversen anderen Karten
- nVidia GeForce 8800 GTX (768MB)
- nVidia GeForce 8800 GTS 512MB
- nVidia GeForce 8800 GT (512MB)
- nVidia GeForce 8800 GTS 640MB
- nVidia GeForce 8800 GTS 320MB
- nVidia GeForce 8600 GTS (256MB)
- nVidia GeForce 8600 GT (256MB)
- nVidia GeForce 8500 GT (256MB)
- nVidia GeForce 8400 GS (256MB)
- nVidia GeForce 7950 GX2 (1024MB)
- nVidia GeForce 7900 GTX (512MB)
- nVidia GeForce 7600 GT (256MB)
- nVidia GeForce 7600 GS (256MB)
- nVidia GeForce 6800 Ultra (256MB)
- nVidia GeForce 6600 GT (128MB)
- ATI Radeon HD 3870 X2 (1024MB)
- ATI Radeon HD 3870 (512MB)
- ATI Radeon HD 3850 (1024MB)
- ATI Radeon HD 3850 (512MB)
- ATI Radeon HD 3850 (256MB)
- ATI Radeon HD 2900 XT (512MB)
- ATI Radeon HD 2900 Pro (512MB)
- ATI Radeon HD 2600 XT GDDR4 (256MB)
- ATI Radeon HD 2600 XT (256MB)
- ATI Radeon HD 2600 Pro (256MB)
- ATI Radeon HD 2400 XT (256MB)
- ATI Radeon X1950 XTX (512MB)
- ATI Radeon X1950 Pro (256MB)
- ATI Radeon X1650 XT (256MB) Auch schön... Vitza wird aussen vor gelassen!
:D

Fazit: Einziger 'Vorteil' einer 1GB ggü. 512MB bei Crysis@1920 mit 4xAA im unspielbaren Bereich.
http://www.hartware.de/review_788_12.html
Wie gehabt also...

Razor

Gast
2008-02-20, 09:08:09
Vitza?

Kann man diesen Troll mal nicht bannen? Das ist keine Art einer Diskussion beizutreten. Früher oder später wird auch ein Razor auf "Vitza" umsteigen müssen. Windows 7 ähnelt "Vitz" mehr als XP. Pech gehabt.

mapel110
2008-02-20, 09:28:38
169.21 verwendet. Wie alt ist dieser Treiber eigentlich?
2 Monate oder gar 3?

Und da du immer darauf rumreitest, dass Crysis mittlerweile keiner mehr spielen dürfte, weil ja eh nur ein SP-Shooter, dann dürften die anderen Games in dem Benchparcour noch viel ausgelutschter sein.

catamaran
2008-02-20, 09:44:35
Ein weiterer Test von Hardware.net:
http://www.hartware.de/review_788.html


Wenn ich mir die Quake4-Benchmarks so anschaue, dann liegt bei OpenGL die 3850 (256MB) fast immer vor der 8800GT(S) ?

Irgendwas ist da doch faul - oder?

Gast
2008-02-20, 09:49:32
Nochmal, du hast wohl Leseschwierigkeiten Ratsoooooor.
http://www.xbitlabs.com/articles/video/display/gainward-bliss8800gt-1024gs_8.html#sect1

MadManniMan
2008-02-20, 09:56:06
Ui toll!

Du erzählst uns hier, dass alle möglichen Tests scheiße seien, zitierst dann aber Hartware.net, die nichtmal Angaben zu den Treibereinstellungen machen.

Thats it baby :up:

puntarenas
2008-02-20, 10:08:47
Ich habe leider nicht viel Ahnung, Neugier dafür umso mehr. Wäre jemand mit einer G92-Karte mal so nett und würde ein paar VRAM-Auslastungstests machen, mich würde interessieren, was verhältnismäßig am meisten Mehrbedarf verursacht. Damit könnte man dann auch leichter auf kommende Spiele schließen, dass bei den Antiquitäten von hartware.de der VRAM nicht limitiert, war ja irgendwie abzusehen.

Vielleicht so oder so ähnlich:

1024x768, 1280x960, 1600x1200
1024x768, 1280x960, 1600x1200 -> 16xAF
(1024x768, 1280x960,) 1600x1200 -> 16xAF und Multisampling-AA
(1024x768, 1280x960,) 1600x1200 -> 16xAF und Supersampling-AA

Wäre spitze :up:

mapel110
2008-02-20, 10:44:23
Wenn ich mir die Quake4-Benchmarks so anschaue, dann liegt bei OpenGL die 3850 (256MB) fast immer vor der 8800GT(S) ?

Irgendwas ist da doch faul - oder?
Bei Quake4 stimmt einiges nicht. Die 7900 GTX soll so schnell (bzw gar schneller) sein wie eine 8800 GT.

up¦²
2008-02-20, 11:06:13
Nebenbei ist die 3850/1GB seit kurzem gelistet, falls noch nicht bekannt, ansonsten:
http://geizhals.at/eu/a314544.html
kann jeder Interessent ja selber mal ran...

Gast
2008-02-20, 11:19:19
Naja bei NV sind 1GiB wichtiger, weil:
NV Karten mit vollem VRAM abstürzen
NV Karten bei selben Settings einfach mehr VRAM füllen / mit dem vorhanden VRAM verschwenderisch umgehen

up¦²
2008-02-20, 11:21:39
Ich bin ja mal gespannt auf den neuen 3dQuark.... demnächst :tongue:
Im Ernst: da könnte es was bringen, vielleicht...

Razor
2008-02-20, 16:16:33
Naja bei NV sind 1GiB wichtiger, weil:
NV Karten mit vollem VRAM abstürzen
NV Karten bei selben Settings einfach mehr VRAM füllen / mit dem vorhanden VRAM verschwenderisch umgehen
Für beides ist der Beweis, dass hier 1GB ggü. 512MB etwas bringen, noch nicht erbracht.
Insofern kennzeichne Deine Vermutung bitte als solche...

Ich bin ja mal gespannt auf den neuen 3dQuark.... demnächst :tongue:
Im Ernst: da könnte es was bringen, vielleicht...
Was genauso wenig Aussagegehalt hätte, wie schon bei bei den vergangenen Murksern...
Real-World Betrachtungen wären mir hier doch wesentlich lieber.

@alle anderen, die aus den Löchern gekrochen sind, aber immer noch nichts zu sagen haben

Wenn Ihr dem Test nichts abgewinnen könnt, dann ignoriert ihn, wie Ihr es auch schon bei den anderen getan habt. Für mich sieht der Q4-Test auch ein 'bissel' mehrkwürdig aus... vermutlich hat man da "high" gegen "ultra" gemessen o.ä.

Zumindest hat man dort mit dem derzeit offiziellen Treiber gemessen... und nicht mit unterschielichen Treibern teils uminöser Herkunft. Ob er 2 oder 3 Monate alt ist, ist von absoluter irrelevanz. Und wenn zu den Treiber-Einstellungen nichts angegeben ist, dann gehe ich von Treiber-Defaults aus... "Quality" mit TriOpt on und anisoOpt(s) off und "unclamped" neg.LOD-Bias - für diejenigen die das evtl. nicht wissen... was auch zu den geposteten Werten passt.

Und von Q4 mal abgesehen, bestätigt der Test die vorhergehenden... 'perfekt' ist aber auch dieser nicht.
Was ich übrigens weder schrieb noch irgendwie zum Ausdruck gebracht habe... ich habe ihn einfach nur erwähnt.

War aber klar, dass die, die nichts zu sagen haben, sich dann wieder zu Wort melden :rolleyes:

Razor

P.S.: bei mir war die 8800GT(512) damals wesentlich schneller, als die 7900GT(256)... @ 'ultra' quality
Core2Duo E6420 @ 3,2GHz (FSB400)
- Scythe Ninja SCNJ-1000P Heatpipe-Tower
- Antec 12cm-Cooler 'TriCool' @ min = silent&cool
Gigabyte GA-P35-DS3P Rev. 1.0 (Intel P35)
4x1024MB (4GB DC) MDT DDR2 PC800 CL5 @ 5-5-5-18-2T
nVidia GeForce 7900GT @ 685/860 with Zalman VF900-Cu @ min = silent&cool
nVidia GeForce 8800GT @ 600/900 (default) with default cooling = silent
WindowsXP Prof. SP2-fp DX9c

Benchmarks with enhanced Quality, 4xMSAA if possible and 8xAF (or higher)
@ 'High Quality' with GCAA on, TAA off, LOD-Bias clamped
- 3DMarks and STALKER without Anti-Alialsing
- Crysis with medium Shadows, 2xAA and CP-forced 8xHQAF

------------------------------------------------
7900GT 8800GT Diff
169.02 169.02
------------------------------------------------
Quake IV (guru5) 137,3 170,5 24,18%

Gast
2008-02-20, 17:03:01
Für beides ist der Beweis, dass hier 1GB ggü. 512MB etwas bringen, noch nicht erbracht.
Insofern kennzeichne Deine Vermutung bitte als solche...

Es ist Fakt, das NVs Karten bei vollem VRAM abstützen. :)
Guck dir mal die GT256, die GTS320 oder die GS384 an. :)
Bei hoher Belastung brechen diese zusammen. :)

Beweise wurden shon genug gepostet, such einfach mal hier im Fred. :)



Wenn Ihr dem Test nichts abgewinnen könnt, dann ignoriert ihn, wie Ihr es auch schon bei den anderen getan habt. Für mich sieht der Q4-Test auch ein 'bissel' mehrkwürdig aus... vermutlich hat man da "high" gegen "ultra" gemessen o.ä.

Du bist heute wieder lustig.
Du bist der Einzige, der alle Tests, wo deine GT512 schlechter dasteht ignoriert oder für falsch erklärt. :)

Razor
2008-02-20, 17:28:15
Es ist Fakt...
1GB vs. 512MB.

Du bist heute...
Lang und breit wurden die einzelnen Tests hier diskutiert.
Lern lesen...

Razor

Gast
2008-02-20, 17:32:00
1GB vs. 512MB.

Du mit deinen Äpfel Birnen.



Lang und breit wurden die einzelnen Tests hier diskutiert.

Dass du mit einem Satz die Tests für ungültig erklärt hast nennst du "diskutiert"?

Grestorn
2008-02-20, 17:58:58
Es ist Fakt, das NVs Karten bei vollem VRAM abstützen. :)

Ist es das? Mir ist das ganz neu. Das wäre für die kleinen Karten ja absolut fatal.

Quelle?

LovesuckZ
2008-02-20, 18:12:23
Ist es das? Mir ist das ganz neu. Das wäre für die kleinen Karten ja absolut fatal.

Quelle?

Ja.

AnarchX
2008-02-20, 18:19:38
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6084034&postcount=240
Scheint wohl am häufigsten unter Vista aufzutretten.

Grestorn
2008-02-20, 18:21:57
Ja.

Was "ja"?

Grestorn
2008-02-20, 18:23:17
Beispiel:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6084034&postcount=240
Scheint wohl am häufigsten unter Vista aufzutretten.

Wenn dann crasht ja wohl der Treiber. Was aber auch nicht viel besser ist.

Aber die Karte selbst kann ja wohl kaum crashen. Dass die Treibersituation bei nV immer schlimmer wird, ist leider nicht zu übersehen.

Gast
2008-02-20, 18:24:30
Ist auch wurst wer schuld ist, wenn der Bildschirm schwarz wird. ;)

LovesuckZ
2008-02-20, 18:26:42
Was "ja"?

Du hast eine Frage gestellt, ich hab sie beantwortet.
Ich hab ein Beispiel entweder hier oder in einem anderen Thread mit Colin: Dirt gebracht.

Gast
2008-02-20, 18:56:17
Es ist Fakt, das NVs Karten bei vollem VRAM abstützen.

"Voller" RAM gibt es gar nicht, da die Karten immer den Hauptspeicher des Rechners mitbenutzen können. Abstürze sind ein Treiberproblem.

Grestorn
2008-02-20, 18:59:06
Du hast eine Frage gestellt, ich hab sie beantwortet.

Ich fand Deine Antwort etwas knapp. Zumal ich ja explizit um eine Quelle gebeten hatte.

Aber das ist ja nun rum ums Eck.

Gast
2008-02-20, 20:00:19
"Voller" RAM gibt es gar nicht, da die Karten immer den Hauptspeicher des Rechners mitbenutzen können. Abstürze sind ein Treiberproblem.
Doch es gibt "voll".

Wenn der auf der Karte verlötete VRAM mit Daten beschrieben ist, dann ist das "voll".

Grestorn
2008-02-20, 20:05:55
Doch es gibt "voll".

Wenn der auf der Karte verlötete VRAM mit Daten beschrieben ist, dann ist das "voll".

Ah ja. Dann könnte es also auch fehlerhafte Motherboards geben, die abstürzen wenn der Hauptspeicher "voll" ist?! :)

Gast
2008-02-20, 20:10:45
Ah ja. Dann könnte es also auch fehlerhafte Motherboards geben, die abstürzen wenn der Hauptspeicher "voll" ist?! :)
Wenn der Chipsatztreiber buggy ist, warum nicht?

Aber zurück zum Thema, der "G80 VRAM-Bug (TM)" ist ja offensichtlich Geschichte, ich habe schon lang nicht mehr gelesen, dass jemand wie bei der GTS 320 regelmäßig Alt+TAB drückt.

Der G92(-Treiber) verwaltet den Speicher offensichtlich ein wenig effizienter, allerdings sind die 256MB-Karten schon ziemlich geplagt und da macht man sich bei 512MB in hohen Settings wohl zurecht Zukunftssorgen. Wie schätzt ihr das ein, kommt NVidia mit den Treibern noch in die Puschen, also wie damals ATI als die X1900XT 256MB auf einmal richtige Sprünge nahezu auf 512MB-Niveau gemacht hat?

Grestorn
2008-02-20, 20:56:15
Wenn der Chipsatztreiber buggy ist, warum nicht?

Wenn der Speicher funktioniert, also keine Daten verloren gehen: NEIN. Gibt es nicht, das geht einfach nicht. Das ist ein reines Softwarethema.

Gast
2008-02-20, 21:05:16
Wie schätzt ihr das ein, kommt NVidia mit den Treibern noch in die Puschen, also wie damals ATI als die X1900XT 256MB auf einmal richtige Sprünge nahezu auf 512MB-Niveau gemacht hat?Anderes Paar Schuhe? ATI hat mal den Speichermanagment beim "knapp vorm Vollaufen" mächtig aufgebohrt. Das kam der 190XT/256 genauso zu gute wie einer 9700m/64. Hab ich selbst erlebt und festgestellt.

Trotzdem war es auch davor nicht so, daß die ATIs mit 1h Spielzeit auf einmal lahmten und öftersmal garnichts mehr ging.

Wenn das bei Nv eine Softwaregeschichte ist, dann weiß ich nicht, ob ich lachen oder weinen soll. Wie lange ist der Bug schon "aktuell"? :ulol:

Razor
2008-02-20, 21:09:10
Ich will Euer Zwiegespräch ja nicht stören... aber es geht hier darum, ob 1GB 'sinnvoll' sind.
Das hat rein gar nichts damit zu tun, ob irgendwelche 256MB-Karten wegen irgendetwas abkacheln oder nicht!

Der liebe Gast hat nur wieder (leider erfolgreich :rolleyes:) versucht, abzulenken.
Das ist grundsätzlich eine Verhaltensweise von Leuten, die eigentlich keine Argumente haben und deswegen irgendwelchen Dünnfug behaupten.
(ohne dies auch nur mit dem Hauch eines Beleges zu 'garnieren'... natürlich)

So wie:"nVidia Karten brauchen 1GB, weil sie ja sonst immer abkacheln!"
Oder ähnlich...

Absoluter Nonsense, was hier ja wohl hoffentlich JEDER bestätigen kann.
Können wir also zum eigentlichen Thema zurück kehren?

Danke.

Razor

Gast
2008-02-20, 21:23:40
Der liebe Gast hat nur wieder (leider erfolgreich :rolleyes:) versucht, abzulenken.
Das ist grundsätzlich eine Verhaltensweise von Leuten, die eigentlich keine Argumente haben und deswegen irgendwelchen Dünnfug behaupten.
(ohne dies auch nur mit dem Hauch eines Beleges zu 'garnieren'... natürlich)

Halt mal die Luft an, wenn durch erfolgreiche Treiberarbeit seitens NVidia das Speichermanagement noch verbessert werden sollte, dann verlieren 1GiB-Karten an Bedeutung, wodurch die Frage doch durchaus berechtigt ist.

Sollte da nichts mehr kommen, dann sind die Karten wie mehrfach hier aufgezeigt durchaus nicht unnütz, besonders Crysis, CoH und CoJ sprechen ja schon von Haus aus darauf an und zeigen, was zu Lebzeiten der Karten (12-18 Monate) noch anstehen könnte. Wenn man dann noch die berühmten Texturmods oder extreme Bildqualitätssettings einbezieht, dann hat sich der Kauf der dickeren Bertas schon gelohnt.

Ideal wäre natürlich ein Speichermanagement auf ATI-Niveau, dann könnte man 1GiB bei derzeitigem NVidia-Midrange getrost vergessen :)

Gast
2008-02-20, 21:26:09
(...) besonders Crysis, CoH und CoJ sprechen ja schon von Haus aus darauf an
Sollte natürlich CoD4 heißen, verzeihung!

Gast
2008-02-20, 22:21:37
Ich will Euer Zwiegespräch ja nicht stören... aber es geht hier darum, ob 1GB 'sinnvoll' sind.Ich dachte das haben die Tests bereits geklärt? :D

Razor
2008-02-20, 22:24:59
Halt mal...
Danke gleichfalls.
Dieser Thread dient eigentlich dazu, Fakten zu sammeln.
Du aber gibst nur irgendwelches Wunschdenken von Dir, welches durch nichts belegt wird.

Allenfalls 'Vorteile' in unspielbaren Bereichen konnten bisher gezeigt werden.
Wenn das ein Ausblick auf die "Zukunft" ist, dann sind 1GB beim G92 vollkommen überflüssig...

Aber genau darum geht es in diesem Thread.
Und noch nicht ein einziger Hinweis ist gegeben, dass die 1GB selbst bei zu tode getweakten Altgames etwas bringen.
(die allerdings nicht einmal ansatzweise einen 'Ausblick' erlauben würden)

Das traurige ist allerdings, dass selbst Leute, die bereits eine 1GB-Karte beseitzen keinerlei Beleg bringen wollen... oder können.

Razor

Gast
2008-02-20, 22:57:18
Das traurige ist allerdings, dass selbst Leute, die bereits eine 1GB-Karte beseitzen keinerlei Beleg bringen wollen... oder können.

Würde ich gerne.
In meinen Settings würde eine GT512 in Boden geerammt werden von meiner GT1024.

Leider fehlt mir die GT512 um zu zeigen wie sie geownt wird.

puntarenas
2008-02-20, 23:37:24
Der Thread "Spiele die 512 MiB Grakaspeicher nutzen" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823) wurde ja schon erwähnt, man liest dort interessante subjektive Eindrücke.

Beispielsweise wollen einige nach dem Volllaufen des VRAM leichte Nachladeruckler bemerken, wenn gewisse Texturen bereits wieder ausgelagert wurden und man im Level an diese Stelle zurückkehrt. Außerdem soll es gelegentlich sichtbare "Sprünge" in den Texturen geben, wenn im Speicher geschaufelt wird, was also in die Kategorie Bildfehler fiele. Insgesamt scheint es aber vom Speichermanagement des Spiels abzuhängen, ob man mit mehr VRAM auch komfortabler unterwegs ist, ANNO 1701 soll beispielsweise bei 600MB den VRAM ohne Rücksicht auf Verluste komplett leeren und von vorn beginnen.

Überhaupt ist das ein Aspekt, der sehr schwer zu gewichten ist. Einerseits ist also das Speichermanagement im Treiber nicht alleiniger Faktor, offensichtlich fuhrwerken die Spieleentwickler da auch noch mit rein. Andererseits lassen sich Nachladeruckler natürlich schlecht messen, ebensowenig wie objektiv zu beweisen ist, dass diese bei üppigem VRAM nicht oder vermindert auftreten und das Spielerlebnis sich dadurch insgesamt flüssiger anfühlt.

Um die VRAM-Problematik endgültig zu komplizieren, kam ja auch noch der (berechtigte?) Einwand, dass die Timedemos in Benchmarks im Zweifel eher die Vorteile des Mehrspeichers verdecken, dieser also im Spielbetrieb deutlicher ausfallen würde. Ich kann das alles nicht kompetent einschätzen, würde mich aber über Meinungen aus berufenem Munde freuen :)

Gast
2008-02-20, 23:48:30
Um die VRAM-Problematik endgültig zu komplizierenWorüber zerbricht ihr euch denn jetzt den Kopf? Werden erst seit 1GB VRAM manche Hardwarezugaben nur wegen Marketingszwecken eingeführt? Nein? Na also.

K4mPFwUr$t
2008-02-21, 00:07:11
1GB lohnt heute noch nicht, aber wenn man in aussicht hat das die karte etwas länger im pc verweilen soll. lohnt sich das mehr als eine 512mb version, besonders wenn es nur 10€ aufpreis sind.

ob dann die GPU eher bei neuen spielen der limitierender faktor ist, sei mal dahin gestellt.

Razor
2008-02-21, 00:52:14
...besonders wenn es nur 10€ aufpreis sind.
Also das mit den 10€ ist ja nun mal schon laaaaange her.
Heute kostet 'ne 8800GT512 so 175€... lieferbar natürlich.
Eine 1GB Version liegt bei 220€... das sind mal eben 25% Aufpreis.

Und für was jetzt genau?
Dass sie dann, wenn die 1024MB tatsächlich etwas nützen, von der Lesitung her nicht mehr zu gebrauchen ist?

Darum geht es hier doch... ist 1GB bei einer Mainstram-Karte auf Basis eines G92 sinnvoll?
Ausser dummem Gelaber habe ich hier leider noch nicht viel gesehen...

Der dolle Gast, der mit seinen "Settings alles wegownt" hat entweder eine Klatsche oder aber traut sich nicht zu sagen, was genau denn das für "Settings" sein sollen und belegt die Leistung 'seiner' Karte mit einem Screenshot und einer FRAPS-Einblendung, was zumindest den Hauch einer Authezität vermitteln würde.

Aber nein, immer wieder dieses Wuschdenken oder einfach nur dümmliches Gewäsch.

Darauf zu vertrauen, dass die rund 25% Mehrausgaben sich irgendwann einmal lohnen, halte ich für... na ja.
Wenn sie es jetzt nicht tun, wo noch Leistung vorhanden ist, dann werden sie es wohl nie...

Razor

Gast
2008-02-21, 00:59:39
ob dann die GPU eher bei neuen spielen der limitierender faktor ist, sei mal dahin gestellt.Das sei nicht dahingestellt, weil das genau DER Punkt ist.

Klar kann ich bei einer Erkältung nicht nur ab und an Nasendusche machen, sondern dabei immer auch am Löwenzahn kauen. Hilft nicht, schadet aber auch nicht. Und kostet getrocknet nicht die Welt.

Razor
2008-02-21, 01:03:12
Der Thread "Spiele die 512 MiB Grakaspeicher nutzen" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823) wurde ja schon erwähnt...
Ja... und vieles darin beruht auf der Annahme, dass die Videospeicher-Nutzung bei Karten mit unterschiedlicher RAM-Ausstattung identisch ist. Das dem nicht so ist, habe ich bereits mehrfach gezeigt, aber das interessiert HisN nicht, der fröhlich mit seiner 768MB-Karte weiter bencht.

Hier kommt aber erschwerend hinzu, dass der G92 nicht über das breite SI einer GTX/Ultra verfügt und somit ein weiterer limitierender Faktor hinzu kommt.

Und da das Ganze bei weitem nicht klar ist, es aber wohl doch offenkundig (zumindest bei einigen hier) Interesse dafür gibt, gibt es diesen Thread, der sich diesem Thema zu widmen sucht.

Was meinst Du, warum ich hier so auf konkrete, nachhvollziehbare Beispiele aus bin?
Nicht nur ich kann das verifizieren, sondern jeder andere auch... die Chance von Fehlinformationen also denkbar gering ist.

Momentan haben wir genau ein Beispiel, welches
a) auch auf 512MB Karten mehr als 512MB VRAM benötigt
b) mit 1024MB tatsächlich eine geringfügige Mehrperformance zeigt
c) bei diesen Settings aber weder mit 512MB, noch 1024MB spielbar ist
Crysis... schon bei 1680x1050 (bei mir 1600x1200) @ high mit 4xAA (unter D3D9, WinXP).
Und das wars...

Razor

puntarenas
2008-02-21, 01:33:58
Ja... und vieles darin beruht auf der Annahme, dass die Videospeicher-Nutzung bei Karten mit unterschiedlicher RAM-Ausstattung identisch ist.
Mag sein, wobei dort mehrfach betont wurde, dass man eben keine dezidierten Performancebetrachtungen anstellt und daher auch keinen Wert auf direkte Vergleichbarkeit legt. In die Richtung ging es in dem Thread lediglich kurz, als du damals unaufgefordert angefangen hast, deine 256MiB-Karte gegen 512MiB-Karten zu verteidigen und die Unsinnigkeit von 512MiB VRAM propagiert hast: Klick it like Beckham! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4803961#post4803961)

Wie auch immer, ich beziehe mich auf die Vermutung, dass Nachladeruckler gemindert werden, wenn Texturen bereits im VRAM im Cache vorliegen. Natürlich unterscheidet sich die Speichernutzung, je nachdem wie viel Speicher verbaut ist. Leerer Speicher ist verschwendeter Speicher, wäre schlimm wenn der nicht genutzt würde.
Sollte diese Annahme zutreffen, dann wäre dies sicherlich besonders in Spielen mit frei begehbarer Welt oder sehr großen Arealen von Vorteil, bei Schlauchlevels mit Ladescreen wird beim Übergang ja der VRAM (meist?) geleert.

Wie ich bereits eingeräumt habe, kann ich nicht beurteilen, ob und wie stark sich ein Vorteil durch üppigen Texturcache im VRAM wahrnehmen lässt. Allerdings heißt dieser Thread "1 GiB VRAM, heute schon sinnvoll bei Midrange-Grakas?" und nicht "Wer beweist Razor mit einem nicht zu leugnenden Benchmark, dass seine 8800GT 512MiB bei 1280x1024 mit 8xAF und 4xAA zu wenig Speicher besitzt".

Benchmarkbalken sind eine Sache, dass sie nicht immer einen realitätsnahen Eindruck vom zu erwartenden Spielerlebnis vermitteln zeigt ja die Mikroruckler-Geschichte bei Multi-GPU-Systemen im AFR. Dass die aktuellen Performancekarten mit ihren 512MiB in gängigen Auflösungen nicht ins bodenlose einbrechen, wurde oft genug gebencht. Trotzdem kann es noch andere Aspekte geben, die 1024MiB-Karten sinnvoll erscheinen lassen und ich für meinen Teil finde wie viele Spielkinder auch nach wie vor aberwitzige Texturmods interessant.

Im Übrigen gehe ich auch für kommende Spiele nicht davon aus, dass 8800GT/S 512MiB komplett eingehen werden, dazu ist die Verbreitung der Karten zu hoch.

Razor
2008-02-21, 02:02:13
...ich für meinen Teil finde wie viele Spielkinder auch nach wie vor aberwitzige Texturmods interessant.
Nicht einmal in diesem Bereich wurde auch nur ein einziger nachvollziehbarer Beleg gezeigt.

Erst letztens habe ich wieder einmal Oblivion installiert, um auszuprobieren ob ich nicht damit mal eine Situation erzeugen kann, in der 512MB tatsächlich limitieren... QTP3 und 4096'er LOD Texturen... nix. Ich habe das, was ich sonst nie mache.. mein MultiMon-System so umkonfiguriert, dass der CRT der Primärmonitor ist... nur damit ich 1600x1200 (die den 1680x1200 recht nahe kommen dürften) nachvollziehen kann.

Aber immer wieder wird behauptet, dass die 1024MB etwas bringen... vollkommen das Faktum ignoreirend, dass hier auch das Speicherinterface limitierend wirken könnte, welches das zügige nachladen von - beispielsweise - Texturen verhindert. Aber das ist nur Theorie, die sich aber zu verdichten scheint...

Auch Du behauptest, dass "aberwitzige Texturmods" ein Grund dafür sein könnte, 1024MB bei einem G92 zu rechtfertigen... trittst aber ebensowenig den Beleg dafür an. Soll ich die Aussagen Deinerseits ebenfalls einfach als "Gewäsch" abtun?

Also... wenn Du der Meinung bist, dass Du eine Scenerie aufzeigen kannst, die mit einem G92 noch spielbar ist und einen definitiven Vorteil pro 1024MB zeigt, dann tue das bitte... vielleicht hat diese Tirade dann endlich ein Ende und es gibt dann zumindest eine Argument dafür.

Noch gibt es keines...
...und vermutlich wird es das in absehbarer Zeit auch nicht.

Razor

P.S.: das Thema war ursprünglich ein anderes, wie Du dem ersten Post sicher entnehmen werden kannst. Der Thread-Titel ist dabei wohl etwas unglücklich gewählt worden... obwohl... bei AMD wären die 1Gb noch viel sinnfreier, wie es scheint. So bleiben eigentlich nur die aktuellen Modelle nVidias...

Gast
2008-02-21, 08:00:18
Erst letztens habe ich wieder einmal Oblivion installiert, um auszuprobieren ob ich nicht damit mal eine Situation erzeugen kann, in der 512MB tatsächlich limitieren... QTP3 und 4096'er LOD Texturen... nix.

Naja, so sind es ja auch zu wenige neue Texturen.

QTP3+4096er LOD
MIKAL33s Texturen für Flora & Faune
Hochauflösende Gesichtstexturen
Hochauflösende Schilder
Hochauflösende Texturen für Objekte & Waffen
und und und, da gibts noch viel mehr.

Wenn man das alles raufhaut, ist der Unterschied zwischen standard und gepimpt schon mehr als deutlich spürbar, es wird deutlich ruckeliger und man kann meiner Meinung nach eindeutig sagen, das das Vram limitiert.

Ob allerdings eine 1024MB Karte dann schneller wäre, kann ich mangels einer solchen Karte nicht sagen.

Razor
2008-02-21, 10:09:02
Ob allerdings eine 1024MB Karte dann schneller wäre, kann ich mangels einer solchen Karte nicht sagen.
Aber genu um diesen Punkt geht es...

Und ganz ehrlich:

Oblivion ist schon vor einer ganzen Ewigkeit von der Platte geflogen... was ja einen Grund hatte. Warum sollte ich mich jetzt so dermaßen tief damit beschäftigen, um heraus zu finden, was man da alles 'pimpen' kann, nur um es dann wieder von der Platte zu fegen?

Ich habe erst einmal das drauf gemacht, was wohl am intensivsten auf den VRAM geht und der Effekt war schon heftig... von ursprünglich etwa 160MB VRAM-Nutzung liegts jetzt so bei 650MB... also über den 512MB meiner Karte und ich konnte keine Performance-Einbrüche oder ähnliches ausmachen. Die beiden Packs haben die Optik ordentlich aufgemöbelt und waren auch ohne größeren Aufwand zu finden... für den Rest bräuchte es jetzt intensivste Kenntnisse hunderter Oblivion-Mod-Seiten... und dazu habe ich keine Lust.

Aber ich würde mich darauf einlassen, wenn mir jemand mit 'ner 1024MB Karte DL-Links zu den entsprechenden Mods verlinkt und mit 'nem Screenshot (wie oben beschrieben) und einem Savegame in Vorleistung geht...

Razor

Gast
2008-02-21, 10:14:43
Aber ich würde mich darauf einlassen, wenn mir jemand mit 'ner 1024MB Karte DL-Links zu den entsprechenden Mods verlinkt und mit 'nem Screenshot (wie oben beschrieben) und einem Savegame in Vorleistung geht...

Razor
Also gut, aber heute wird es nichts mehr. :)

Gast
2008-02-21, 22:26:35
Ich habe erst einmal das drauf gemacht, was wohl am intensivsten auf den VRAM geht und der Effekt war schon heftig... von ursprünglich etwa 160MB VRAM-Nutzung liegts jetzt so bei 650MB... also über den 512MB meiner Karte und ich konnte keine Performance-Einbrüche oder ähnliches ausmachen. Die beiden Packs haben die Optik ordentlich aufgemöbelt und waren auch ohne größeren Aufwand zu finden... für den Rest bräuchte es jetzt intensivste Kenntnisse hunderter Oblivion-Mod-Seiten... und dazu habe ich keine Lust.

Mit den anderen Mods knackst du bereits die 1Gb Grenze.

Und ganz ehrlich: 1 (!) Seite reicht um die alle zu finden, als Beispiel seien TES Nexus oder Oblivion Filefront genannt.

;-)

Warum du dich damit beschäftigen solltest?
Tja...warum beteiligst du dich dann so intensiv in diesem thread?

Es geht um das finden zumindest eines Szenarios, wo 1Gb Vram nützlich sein könnte.

Razor
2008-02-21, 22:30:06
Also gut, aber heute wird es nichts mehr. :)
Am WoEn reicht vollkommen... danke!
:up:

Warum du dich damit beschäftigen solltest?
Mit Oblivion?
Tja...warum beteiligst du dich dann so intensiv in diesem thread?
Wegen Oblivion?

Es geht um das finden zumindest eines Szenarios, wo 1Gb Vram nützlich sein könnte.
Ähmm... ja, korrekt.
Und?

Also irgendwie fehlt es Deinem Post an Aussagegehalt...
Oblivion wäre doch nur ein Beipsiel, ist doch aber nicht der Grund für diesen Thread, oder?
Hmm...

Razor

Gast
2008-02-22, 08:37:16
@Razor

Die Sinn hinter meinem post ist ganz einfach, ich hatte gehofft, du würdest es erkennen:

Du pflegst die Aussage das man 1Gb Vram nicht braucht und bringt Beweise dafür....bist aber nicht bereit, ein...sorry das ich das so sagen muss...lächerlich einfaches Szenario herzustellen, was deine Argumentation evtl. aushebeln könnte.
Meiner Meinung nach muss man so ziemlich alles auf sich nehmen, wenn man siche an einer solchen Diskussion beteiligt.

;-)

Ich teile deine Grundaussage und glaube nicht das dem letztlich so ist (ich darf dazu an die 256/512 Mb Vram Diskussion bei ATI & CoD2 erinnern, wo auch erst alle gesagt haben "zu wenig Vram!" und mit dem nächsten Treiber waren alle Probleme weg), aber das steht auf einem anderen Blatt.

Irgendwie geht mir diese Diskussion sowieso am Threadtitel vorbei, für mich sind Mid-range Karten solche wie eine 3850/9600 GT mit höchstens 512 MB (und keine 8800 GT, die meines Erachtens den unteren Rand vom HighEnd Segment darstellen) und dort sind 1 Gb Vram absolut überflüssig.

Das Wort "Sinnvoll" ist auch so eine zwiespältige Sache, für viele waren damals auch die ersten DC CPUs sinnvoll, weil sie z.B. Age of Empires III gut fanden und das eines der ersten (bzw. das einzige?) Spiele war, die merklich vom DC profitierten.
Kaufmännisch gesehen natürlich ein Wahnsinn hoch fünf, für einen winzigen Vorteil deutlich mehr Geld auszugeben, aber nicht jeder denkt kaufmännisch...und das ist auch gut so.

Für mich hätte sich 1 Gb Vram bei Oblivion evtl. auch gelohnt (wenn es was bringen sollte), ich habe bereits über 400 Spielstunden dort verbracht, mehr als mit allen anderen seitdem erschienen Titeln zusammen, so das selbst ein irwitzig konstruiertes Textur-Szenario für mich ok wäre, solange dort ein Vorteil vorliegt.

Ich überlege auch ernsthaft zu wechseln...WENN ein Beweis für die bessere Perfromance von 1 Gb Vram erbracht werden würde....allerdings ist es auch dann wieder keine Midrange-Karte.

;-)

Razor
2008-02-22, 08:57:30
Ich könnte für Dich jetzt natürlich die ganze Diskussion noch einmal von vorne beginnen... bin aber nicht bereit dazu.
So lege ich Dir einfach mal ans Herz, Dir den Ihnalt dieses Threads zu eigen zu machen...
...vermutlich wirst Du dann auch feststellen, dass Deine ganzen Argumente bereits gebracht sind und zudem darauf reagiert wurde.
(sehr detailliert sollte ich vielleicht hinzu fügen)

So hoffe ich, dass Du nicht zu dem Personenkreis zählst, die des Lesens nicht mächtig oder nicht willig sind.

Nun bin ich gespannt, ob der andere Gast meiner Bitte nachkommt, damit ich das - wie in den Fällen vorher auch - selber nachvollziehen kann, was er behauptete. Wir sind hier mittlerer weile dazu über gegangen, uns einige Dinge direkt und bei absoluter Vergleichbarkeit anzuschaun', weil wir einfach festgestellt haben, dass eigentlich alle Artikel zu diesem Thema unschlüssig sind.

Sonst noch Fragem :confused:

Razor

Gast
2008-02-22, 17:47:46
Ich könnte für Dich jetzt natürlich die ganze Diskussion noch einmal von vorne beginnen... bin aber nicht bereit dazu.

Tja, genau so wenig, wie mal ein wirklich forderndes setting für Oblivion zu erstellen um überhaupt eine adäquate Aussage treffen zu können, ob und wann 1 Gb Vram von Vorteil sind.

;-)

Razor
2008-02-22, 17:57:00
So hoffe ich, dass Du nicht zu dem Personenkreis zählst, die des Lesens nicht mächtig oder nicht willig sind.
Womit sich diese Hoffnung zerschlagen haben dürfte...
OK, war eigentlich auch nicht anders zu erwarten.

Razor

Voyager
2008-02-23, 06:42:16
Hier noch 2 Stalker benches

Stalker 1680x1050,16AF,ingame alles max

short_timedemo
PNY 8800 GT 512MB :min10,79 - max638,17 - av91,74
Gainward 8800GT 1024MB :min16,55 - max657,76 - av99,89


building_timedemo
PNY 8800 GT 512MB :min7,17 - max683,24 - av96,29
Gainward 8800GT 1024MB :min7,96 - max723,28 - av102,10

Hat jemand noch eine Stalker timedemo mit extrem hohem vram Bedarf ?

AnarchX
2008-02-28, 16:26:38
Teste doch mal Stalker mit 4x MSAA:
http://www.hardware.fr/articles/705-6/dossier-geforce-9600-gt-radeon-hd-3650.html
;)

Gast
2008-02-28, 16:36:36
Mein Problem bei Oblivion: Leider scheint über 1200MiB VRAM Bedarf auch irgendwann der VRAM Bug zuzuschnappen. :(

Voyager
2008-02-29, 14:21:35
Teste doch mal Stalker mit 4x MSAA:
http://www.hardware.fr/articles/705-6/dossier-geforce-9600-gt-radeon-hd-3650.html
;)

Wenn du mir sagst wie ich es aktivieren soll.
Dachte bei Stalker funzt kein AA ?

AnarchX
2008-02-29, 14:28:18
Dank neueren Forceware-Hacks offensichtlich schon, man muss wohl die Applikationseintellung überschreiben bzw. erweitern in Treiberpanel, genau kann ich dir dies mangels GF8 nicht sagen.

Coda
2008-02-29, 14:43:00
Man muss einfach nur AA im Stalker-Profil einstellen und es funktioniert.

9800ProZwerg
2008-03-14, 15:23:33
Was sagt ihr zu diesem Review:
http://www.hardware-infos.com/tests.php?test=34&seite=11

Ich dachte die GS hat "nur" 650/1500/950:confused:

Ich stehe nämlich vor der Entscheidung 8800GT 1024MB vs. 8800GTS...
Wird aber wohl die 8800GT 1024MB.

Gast
2008-03-14, 15:26:22
Ich stehe nämlich vor der Entscheidung 8800GT 1024MB vs. 8800GTS...
Brauchst du 10-15% mehr Leistung der GTS oder lieber eine Karte, die dir dank genug VRAM lange Spass verspricht, wo du nicht auf Texturenqualität verzichten musst oder dich mit volllaufenden VRAM rumschlagen musst?

9800ProZwerg
2008-03-14, 19:05:18
Brauchst du 10-15% mehr Leistung der GTS oder lieber eine Karte, die dir dank genug VRAM lange Spass verspricht, wo du nicht auf Texturenqualität verzichten musst oder dich mit volllaufenden VRAM rumschlagen musst?

Laut dem Test auf Hardware Infos.com bringt der doppelte Ram sehr ordentlich was, siehe Crysis/Cod4/UT3!

Das ist IMO der erste Test, der die 1024MB so weit vorne sieht!

AnarchX
2008-03-14, 19:13:36
Das ist IMO der erste Test, der die 1024MB so weit vorne sieht!
Darum ist auch eher umstritten bzw. kamen verschiedene Treiber zum Einsatz:
Treiber: Catalyst 7.10/7.11 (ATi), ForceWare 162.18/169.02/169.09 (nVidia)

Hvoralek
2008-03-14, 19:15:58
Laut dem Test auf Hardware Infos.com bringt der doppelte Ram sehr ordentlich was, siehe Crysis/Cod4/UT3!

Das ist IMO der erste Test, der die 1024MB so weit vorne sieht!Gerade der Test ist allerdings... sagen wir: etwas seltsam. Schau Dir mal an, was für einen Abstand die z.T. zwischen einer 8800 GT und GTS 512 gemessen haben wollen.

y33H@
2008-03-14, 19:22:46
Die GT liegt da nur vorne, weil die geOCT ist ...
Beim Vergleich 512- vs. 1024 MiB gibt es unterdessen keinerlei Unterschiede,
der Speicherverbrauch liegt in den von uns getesteten Spielen unter diesen Settings also nie höher als 512 MiB.

Ich sage zu 1024 MiB nur "Stalker" (und TES4 und CoD4 u.a.) oder expreview (http://en.expreview.com/2007/12/30/review8800gt-how-many-memory-do-you-need%ef%bc%9f/15/).
4 GiB, X1900XT/512, E6300 @ 2.8 GHz 1024*768 mit 16xAF, 2min nach dem Start.
Sind nur 10-15 Fps, aber auch eine Ultra dümpelt genre mal um/unter 30 Fps rum.
Mit nur 2 GiB ist es auf einer Karte mit weniger als 1024 MiB unspielbar, da der RAM voll ist.
In 1680*1050 und nach 1h zocken, laufen satte 1.1 GiB rein^^
http://www.abload.de/thumb/stalkere21.jpg (http://www.abload.de/image.php?img=stalkere21.jpg) http://www.abload.de/thumb/13m8sh.jpg (http://www.abload.de/image.php?img=13m8sh.jpg)

cYa

9800ProZwerg
2008-03-14, 19:34:16
Die GT liegt da nur vorne, weil die geOCT ist ...


Nein!
Schau ins Fazit!
Da wird die Karte einmal mit den Taktraten der 512MB getestet und dann außerdem die erhöhten Taktraten der Gainward!
Crysis:
1680x1050, 4xAA / 16xAF
nVidia GeForce 8800 GT 1024
29,30 FPS
nVidia GeForce 8800 GTS 512
27,33 FPS
nVidia GeForce 8800 GT
18,39 FPS


Unreal-Tournament 3 (1680x1050, 4xAA / 16xAF)

nVidia GeForce 8800 GTS 512
35,13
nVidia GeForce 8800 GT 1024
33,43
nVidia GeForce 8800 GT
28,39

Hvoralek
2008-03-14, 19:37:11
Die GT liegt da nur vorne, weil die geOCT ist ...Ich spreche nicht von der Sonder- GT, sondern von der normalen GT 512 ggü. der normalen GTS 512. Da liegt die GTS teilweise fast 50% vorne. Wie soll das gehen? An den Treibern kann es kaum liegen, da müsste der GTS- 169.09 zumindest in Crysis (daher stammen die 48%) sogar langsamer sein als der GT- 169.02 (Spiegelungs"bug" ahoi).

Ich sage zu 1024 MiB nur "Stalker" (und TES4 und CoD4 u.a.) oder expreview (http://en.expreview.com/2007/12/30/review8800gt-how-many-memory-do-you-need%ef%bc%9f/15/).Das sind immer noch Texturmods (Wobei Razor ja behauptet, bei denen in Oblivion würden 512 MiB reichen. Muss ich wohl irgendwann mal selbst ausprobieren) und eine Techdemo, die außer D3D10 und einem hohen Speicherverbrauch nichts bietet (und noch einmal wirklich toll aussieht).

Gibt es für CoD 4 auch Texturmods oder meinst Du das out of the box? Ich hatte bisher keine Probleme mit einer GT 512 (allerdings habe ich auch nicht gerade viel gespielt) und allzu viel Speicher kann das eigentlich nicht brauchen, wenn es auch auf Konsolen laufen soll.

Es wäre auch interessant, wenn Du Dein "u.a." etwas präzisieren würdest.

Gast
2008-03-14, 19:42:16
Wobei Razor ja behauptet, bei denen in Oblivion würden 512 MiB reichen.
Sollte er mal diese Mods reinhauen:

The Elder Scrolls IV: Oblivion Make it Pretty Mod Pack
http://www.blasteroids.com/games/file_details.cfm/1414/elder_scrolls_4_oblivion

Better grass texture without tiling
http://www.tesnexus.com/downloads/file.php?id=2415#gallery

Better Water
http://www.tesnexus.com/downloads/file.php?id=1830

Jarrod's Texture Mod
http://www.fileplanet.com/162170/160000/fileinfo/Elder-Scrolls-IV:-Oblivion---Jarrod's-Texture-Mod

TEXTUREN ROO III
http://rs271.rapidshare.com/files/93290202/R_O_O___3.0_-_BETA_-_Texturen.7z

Qarl's Texture Pack 3
http://elderscrolls.filefront.com/file/Qarls_Texture_Pack_3;83706

Qarl's Texture Pack 3 Patch1
http://files.filefront.com/qtp3+patch1+3exe/;9359724;/fileinfo.html/1/1

Improved Trees & Flora 2
http://elderscrolls.filefront.com/file/Improved_Trees_and_Flora_2;85434

4096 Landscape LODs for Qarl Better Tiling pack
http://planetelderscrolls.gamespy.com/View.php?view=OblivionMods.Detail&id=1928

Improved Signs
http://elderscrolls.filefront.com/file/Improved_Signs;85433

Improved Fruit, Vegetables & Meat
http://elderscrolls.filefront.com/file/Improved_Fruits_Vegetables_and_Meat;85432

Improved Doors & Flora
http://elderscrolls.filefront.com/file/Improved_doors_and_flora;73815

Quelldorf 1.5 mit Schiff
http://www.planetoblivion.de/index.php?option=com_content&task=view&id=613&Itemid=72


Roo III alleine bringts nicht. ;)

y33H@
2008-03-14, 19:49:37
@ 9800ProZwerg

Ja, die 1024er ist schneller - aber mit den Fps kann man Crysis und UT3 eh verhacken, ich zock doch nicht mit 30 Fps avg *lol*

@ Hvoralek

Denen ihre Tests finde ich auch krude, kann dir nur zustimmen.

Bei TES4 mit Quarls-Mod und Co [EDIT siehe Post über mir ;)] kann man locker 600 MiB füllen, Stalker ohne Mod will auch schon um die 700 MiB. CoH DX10 wie DX9 haut auch mehr als 512 MiB voll, gerade mit AA liegt dann die GT/1024 Ingame sichtlich vorne. CoD4 meine defaul bzw. "out of the box", ja. Lasse mal den Riavtuner mit laufen, in 1680*1050 ohne AA hast du gg Ende einiger Levels deutlich über 500 MiB, mit AA noch etwas mehr. Eine 1024er kann sich hier meinen Benches nach über 20% absetzen - wobei ich 1680*1050 mit 4xAA/16xAF auch auf der Ultra als etwas zäh empfinde.

U.a. wären Dark Messiah, Armed Assault, HL² Fakefaktory, Doom3-Engine (etwa Quake Wars ET), Battlefield 2, FEAR - zumindest in 1680*1050 mit 2xAA/16xAF.

EDIT
Ich werde mich nachher mal mit volle Pulle Mods durch Tamriel schwingen - ich sage, in 1024*768 schaffe ich 700 MiB :D

cYa

Hvoralek
2008-03-14, 20:33:20
Es kommt nicht darauf an, ob Spiele mehr als 512 MiB VRAM belegen können. Wenn ein paar Texturen ausgelagert werden müssen, führt das nicht zwingend zu Leistungsverlusten und auch mehrere 100 MiB im Hauptspeicher können u.U. noch über PCI passen. Die Frage hier ist, ob eine 8800 GT irgendwo durch 1024 MiB Speicher wirklich Vorteile hat, also schneller ist als eine 512er und dabei noch spielbare fps liefert. Im Idealfall wäre natürlich etwas auf einer 1024er- GT noch spielbar, auf einer 512er aber nicht mehr.

Das Problem ist (wie man auch an dem Thread hier sieht), dass es kaum wirklich brauchbare Tests dazu gibt. Der einzige Fall, bei dem ich wirklich annehme, dass out of the box 1024 MiB nennenswerte Vorteile bei spielbaren fps bringen, ist D3D10- CoH, aber selbst das wird bisher nicht durch irgendwelche einwandfreien Zahlen bewiesen.

y33H@
2008-03-14, 21:13:28
@ Hvoralek

E6300 @ 2.8 GHz, 4 GiB, X1900XT/512 --> 1024*768 mit 16xAF und allen Mods:

http://www.abload.de/thumb/oblivion_vramcxt.jpg (http://www.abload.de/image.php?img=oblivion_vramcxt.jpg)

Imo ist es so, dass, sobald ausgelagert, die Fps sinken. Und bei den hier ausgelagerten 300 MIB hat der PCIe schön was zu tun.
Ich hoffe, ich bekomme bald wieder eine GT/1024, damit ich meine Tests zu Ende bringen kann :)

cYa

Hvoralek
2008-03-14, 21:20:06
Imo ist es so, dass, sobald ausgelagert, die Fps sinken.Warum? Wenn die ausgelagerten Daten deutlich unter 4 GiB/s benötigen und der Hauptspeicher nicht voll ist, schadet das nicht. Gerade wenn nur wenig ausgelagert wird, 30 oder 40 MiB vlt., sollte sich das oft wenig bis gar nicht bemerkbar machen. Auch große Datenmengen müssen aber nicht in jedem Fall zu großen fps- Verlusten führen, wenn diese Daten nur sehr selten gebraucht werden.

y33H@
2008-03-14, 21:27:49
Auch große Datenmengen müssen aber nicht in jedem Fall zu großen fps- Verlusten führen, wenn diese Daten nur sehr selten gebraucht werden.
Gerade eben in Oblivion hats regelmäßig derbe geruckelt und das Bild stand für 3sec still, weil wohl alle Landschaftstexturen ständig (an)gefordert wurden. Klar, 50 MiB kratzen kaum (solange man keine GF8/9 hat^^), aber wenns wie bei Stalker oder hier in höheren Auflösungen mit AA 400-600 MiB hinhämmert, dann zieht das die Performance arg nach unten - ohne 4 GiB RAM ginge da ohnehin nichts mehr. Aber du sagst es, diese ganze Geschichte lässt sich nicht 100% pauschalisiert ins Schubladensystem einorden :(

cYa

Gast
2008-03-14, 21:40:37
Auch große Datenmengen müssen aber nicht in jedem Fall zu großen fps- Verlusten führen, wenn diese Daten nur sehr selten gebraucht werden.
Wenn bei Oblivion mein 1GiB voll ist, sinken die FPS, bzw es kommt zu Nachladerucklern.

Hvoralek
2008-03-14, 21:47:57
Wenn bei Oblivion mein 1GiB voll ist, sinken die FPS, bzw es kommt zu Nachladerucklern.Und das hat mit meiner Aussage was genau zu tun?

Gast
2008-03-14, 21:50:43
Und das hat mit meiner Aussage was genau zu tun?
Das nicht generell beahuptet werden darf, das ein voller VRAM nicht auf die FPS drückt.

Hvoralek
2008-03-14, 21:55:15
Das nicht generell beahuptet werden darf, das ein voller VRAM nicht auf die FPS drückt.Das tue ich doch gar nicht: "Auch große Datenmengen müssen aber nicht in jedem Fall zu großen fps- Verlusten führen, wenn diese Daten nur sehr selten gebraucht werden."

Natürlich kann ein voller VRAM zu fps- Verlusten führen. Kommt darauf an, wieviele Daten das betrifft und wie oft sie benötigt werden.

Gast
2008-03-14, 22:02:13
Wenn die Daten sofort(1 mal um die eigene Achse gedreht) in den VRAM geladen werden, dann gehe ich mal davon aus, das sie immer gebraucht werden.

Hvoralek
2008-03-14, 22:21:00
Wenn die Daten sofort(1 mal um die eigene Achse gedreht) in den VRAM geladen werden, dann gehe ich mal davon aus, das sie immer gebraucht werden.Noch einmal: Ich habe nicht gesagt, das sei nie der Fall, sondern nur, es sei nicht notwendig immer der Fall. Was sagt jetzt das Einzelbesispiel Oblivion diesbezüglich aus?

puntarenas
2008-03-14, 22:21:04
Blöd ist halt, wenn die Spiele nicht mitmachen. Beispielsweise habe ich eine Zeit lang Two Worlds mit einer 8800GT 1024MB und dann mit einer 8800GT 512MB unter XP gespielt. In beiden Fällen wurde nicht mehr als 500MB VRAM genutzt und trotzdem gab es dann Nachladeruckler an Stellen im Spiel, an denen ich schon gewesen bin. Die Daten waren offensichtlich einfach schon wieder aus dem VRAM geflogen.

Ich verstehe zwar nicht, warum es den Programmierern nicht möglich war, ihr Speichermanagement dynamisch nach der vorhandenen VRAM-Menge auszurichten, aber so macht der Mehrspeicher natürlich keinen Sinn. Im Gegenteil, ich dachte eigentlich das sei komplett eine Sache des Treibers. Kennt jemand noch andere Spiele, die sich strikt weigern vorhandenen VRAM zu nutzen?

Gast
2008-03-14, 22:33:23
Anno 1701 leert den VRAM auch selbsttätig, obwohl er noch nicht voll ist.

Die gelbe Eule
2008-03-14, 23:44:45
http://www.xbitlabs.com/images/video/gainward-bliss8800gt-1024gs/hell10_4x.gif

Sowas spricht Bände.

Hvoralek
2008-03-14, 23:48:05
http://www.xbitlabs.com/images/video/gainward-bliss8800gt-1024gs/hell10_4x.gif

Sowas spricht Bände.Hier wurde offenbar nicht sauber gearbeitet. Oder wie soll sonst eine GTS512 teilweise über 40% vor einer GT512 liegen?

Die gelbe Eule
2008-03-14, 23:53:29
-16 Shader, -8 TMUs, 50/125/75MHz weniger Takt, ich glaube das reicht im unteren Drehzahlbereich ;)

Gast
2008-03-14, 23:55:24
Nö rechnerisch kann die GTS maximal ~15% schneller sein. ;)

Hvoralek
2008-03-14, 23:58:29
-16 Shader, -8 TMUs, 50/125/75MHz weniger Takt, ich glaube das reicht im unteren Drehzahlbereich ;)Rechne mal die genauen Eckdaten aus, die sich damit ergeben: Filter- und Arithmetikleistung 19% unter der GTS, Füllraten 9%, Bandbreite 10%, der hier angeblich so wichtige Speicher ist gleich groß. Da kann unter keinen Umständen so eine Differenz herauskommen, wenn ordentlich gearbeitet wurde.

y33H@
2008-03-15, 00:18:32
Jupp, die Werte sind einfach weit auseinander - schade, so kann man die Benches nicht für voll nehmen :(

cYa

Hvoralek
2008-03-15, 00:29:19
Jupp, die Werte sind einfach weit auseinander - schade, so kann man die Benches nicht für voll nehmen :(Wie gesagt: Man kann an den meisten Tests, die hier gebracht wurden, etwas aussetzen.

Botcruscher
2008-03-15, 00:32:23
Falls nicht irgendwas anderes staut. Nebenbei sind Werte um 20FPS eh für den Po da unspielbar.

Gast
2008-03-15, 00:48:29
Aber die Werte um 30 oder 40FPS wären brauchbar.

Die gelbe Eule
2008-03-15, 00:51:30
Es sind immerhin DX10 Werte, sollte man nicht vergessen.

dargo
2008-03-15, 01:03:09
Hier wurde offenbar nicht sauber gearbeitet. Oder wie soll sonst eine GTS512 teilweise über 40% vor einer GT512 liegen?
Richtig. aber Hauptsache die Balken sind wieder ohne nachzudenken lang genug. ;)
Ich würde hier ganz einfach ein Treiberproblem vermuten. Oder sieht du eine andere Möglichkeit? :)

Razor
2008-03-15, 09:25:35
Sollte er mal diese Mods reinhauen:
<...>
Roo III alleine bringts nicht. ;)
Was soll "Roo III" sein?
Und ja, 512MB reichen für diverse Mods...
Leider wurde meiner Bitte nach einem direkten Vergleich ja nicht nachgekommen.
(solange dem nicht nachgekommen wird, ist jegliche Behauptung in dieser Richtung einfach nur "gewäsch")

Ich werde mich nachher mal mit volle Pulle Mods durch Tamriel schwingen - ich sage, in 1024*768 schaffe ich 700 MiB :D
Schön für Dich... aber hoffentlich weißt Du auch, dass der angezeigte RAM-Verbrauch bei Karten mit größerem VRAM bei weitem nicht dem entsprechen muss, was bei Karten mit 512MB (oder auch darunter) verbraucht wird... und... eine VideoRAM-Nutzung von mehr als 512MB muss bei einer 512MB-Karten nicht zwingend zu Performance-Verlusten führen.

Aber all das ist nur eine Wiederholung längst getätgter Dikussionen.
Vielleicht solltest Du Dich erst einmal dem widmen...

Es kommt nicht darauf an, ob Spiele mehr als 512 MiB VRAM belegen können. Wenn ein paar Texturen ausgelagert werden müssen, führt das nicht zwingend zu Leistungsverlusten und auch mehrere 100 MiB im Hauptspeicher können u.U. noch über PCI passen. Die Frage hier ist, ob eine 8800 GT irgendwo durch 1024 MiB Speicher wirklich Vorteile hat, also schneller ist als eine 512er und dabei noch spielbare fps liefert. Im Idealfall wäre natürlich etwas auf einer 1024er- GT noch spielbar, auf einer 512er aber nicht mehr.

Das Problem ist (wie man auch an dem Thread hier sieht), dass es kaum wirklich brauchbare Tests dazu gibt. Der einzige Fall, bei dem ich wirklich annehme, dass out of the box 1024 MiB nennenswerte Vorteile bei spielbaren fps bringen, ist D3D10- CoH, aber selbst das wird bisher nicht durch irgendwelche einwandfreien Zahlen bewiesen.
Amen.

Es sind immerhin DX10 Werte, sollte man nicht vergessen.
Und das soll die extremen Unstimmigkeiten bei diesem Test 'entschuldigen'?
Na ja... 'wahrscheinlich'.
:rolleyes:

Razor

y33H@
2008-03-15, 15:32:04
@ Razor

Habe das mit Hvoralek doch schon gehabt - im Falle von Oblivion und dem Außenlevel ist es extrem unwahrscheinlich, dass bei ausgelagerten 300 MiB und derben Rucklern die Fps nicht gesunken sind. Eine 1024 MiB Karte verwaltet ihren Speicher verschwenderischer als eine 512 MiB Karte (zumindest die GF8) und wenn eine 512er auslagert, entspricht das absolut nicht dem Verbrauch, den eine 1024er hat - daher kann man das wirklich nicht 1:1 übertragen.
eine VideoRAM-Nutzung von mehr als 512MB muss bei einer 512MB-Karten nicht zwingend zu Performance-Verlusten führen.
Wenn es nur 30 MiB sind und man hat schnellen RAM und die ausgelagerten Texturen werden nicht benötigt, dann ändert es an den Fps fast nichts (ohne AA). Sind es aber Texturen die ständig benötigt werden (wie es bei TES4 und Stalker offensichtlich der Fall ist) und gleich mal 200-300 MiB, dann gehen die Fps runter - unbestreitbar. Wie stark der Fps-Verslust aber ist, hängt extrem vom Spiel und den sonstigen Settings ab. Bei TES4 samt Mod etwa lief damals die 512er ohne AA/HDR trotz übervolllem VRAM praktisch so schnell wie die 1024er, mit AA/HDR brach sie stark ein und es kam reproduzierbar nach einer Weile zocken ein Bluescreen.

cYa

Hvoralek
2008-03-15, 16:34:40
Es sind immerhin DX10 Werte, sollte man nicht vergessen.Weshalb spielt das eine Rolle?

Richtig. aber Hauptsache die Balken sind wieder ohne nachzudenken lang genug. ;)
Ich würde hier ganz einfach ein Treiberproblem vermuten. Oder sieht du eine andere Möglichkeit? :)Was sollen das für Treiberfehler sein, die eine 8800 GT betreffen, die sehr ähnliche GTS aber nicht?

dargo
2008-03-15, 17:23:28
Was sollen das für Treiberfehler sein, die eine 8800 GT betreffen, die sehr ähnliche GTS aber nicht?
Ich habe keine Ahnung. Es wäre natürlich auch möglich, dass das Testsystem vermurkst war. Dass eine G8800GTS512 ~42% schneller ist als eine G8800GT512, das ist von den Specs. schon alleine unmöglich.

Gast
2008-03-16, 10:16:48
Wenn man nur das GT Ergebnis streicht, dann könnte es hinkommen. :)

Roi Danton
2008-03-31, 19:49:58
Ich hatte mal eine 2900XT mit 512 und eine mit 1024 in Oblivion + Quarl & anderen Texture-/LODmods "getestet" (angespielt und subjektiver Eindruck).

Bei 1600x1200 (ohne AA) war es mit der 2900XT 512MiB unspielbar (ständiges Nachladen -> <1fps), mit der 2900XT 1024MiB hingegen war es okay. (niedrige fps, aber keine Nachladeruckler).
Unter diesen Gesichtspunkt könnte ein Unterschied zw. 88GT 512 & 1024 schon existieren, falls das angesichts der extrem unterschiedlichen Speicherbandbreiten beider Karten (29xt & 88gt) überhaupt vergleichbar ist.

Gast
2008-03-31, 20:45:11
Es ist vergleichbar, nur das eine GF8/9 etwas mehr VRAM schluckt als ein R600.
Vergleich mal die Bandbreite einer 8800GT mit DDR2 800.
Wenns auslagert ruckelt es so wie bei deiner 2900, wenns nicht auslagert (bei 1GiB VRAM), dann flutscht es super.

mapel110
2008-03-31, 23:05:59
http://www.xbitlabs.com/articles/video/display/gainward-bliss8800gts-1024.html
8800 GTS 1024MB getestet.

Okay, kann man vergessen. Uralttreiber 169.25 benutzt... und Vista32.

Gast
2008-03-31, 23:37:53
Sooo schlimm ist der Uralt Treiber auch nicht, wenn man nur die 8800 vergleicht.

Aber wie beim Test mit der Gt1024 wurde hier der selbe Fehler gemacht: http://www.xbitlabs.com/articles/video/display/gainward-bliss8800gts-1024_9.html#sect0
So groß kann der Abstand zwischen GT und GTS nicht sein.
Haben wahrscheinlich den alten Test genommen und um die GTS1024 ergänzt, daher der Treiber.

Roi Danton
2008-03-31, 23:39:10
Es ist vergleichbar, nur das eine GF8/9 etwas mehr VRAM schluckt als ein R600.
Vergleich mal die Bandbreite einer 8800GT mit DDR2 800.
Wenns auslagert ruckelt es so wie bei deiner 2900, wenns nicht auslagert (bei 1GiB VRAM), dann flutscht es super.Jepp, das ist klar - ich meinte die Frage so: Je mehr Daten zwischen VRAM & GPU ausgetauscht werden, desto stärker wird ja die 256bit Anbindung der 88gt beansprucht. Beim Ausschöpfen der 1GiB VRAM werden logischerweise mehr Daten zw. GPU & VRAM ausgetauscht, als wenn nur max. 512MiB zur Verfügung stehen. Während dieser Mengenunterschied bei der 29xt aufgrund ihrer hohen Speicherbandbreite nicht stört, dürfte die 88gt wg ihrer geringen Speicherbandbreite bei der Speichererhöhung 512->1024 VRAM deshalb schlechter skalieren als die 29xt 512->1024? Insofern könnte eine Schlussfolgerung von der 29xt auf die 88gt hinsichtlich des Verhaltens bei der Erhöhung des VRAMs nicht stimmen.

Also könnte der Unterschied zwischem 88gt 512 & 88gt 1024 größer sein, wenn sie eine höhere Speicherbandbreite hätte?

Oder andersherum gefragt, ist der Unterschied zwischen der 88gt 512 & 88gt 1024 selbst bei VRAM-lastigen Szenarien nur deshalb so gering, weil die begrenzte Speicherbandbreite den Datenaustausch bei der Nutzung von 1024MiB zu sehr bremst? (oder ist der Unterschied gar nicht so gering? oder spielt die Speicherbandbreite dabei gar nicht so eine große Rolle?)

Gast
2008-04-01, 00:08:19
Schwer zu sagen.
Wenn die Karte mehr als 512MiB belegt und diese nicht sinnlos im VRAM liegen, sondern beim rendern gebraucht werden, dann ist die 1GiB Karte schonmal deutlich im Vorteil.

Nehmen wir mal zb ~60GB/s der 8800GT gegenüber ~10GB/s des Systemspeichers:
Die ersten 512MiB sind schnell angebunden, die restlichen sind langsam, aber zusätzlich angebunden. Die GT 512 hätte demnach bei minimaler Auslagerung sogar einen Vorsprung an Bandbreite(10GB/s, also 6%) gegenüber der die nicht auslagert. Das geht natürlich nicht lange gut, denn irgendwann wird dieser Vorteil zum irren Nachteil. Also bis zu 6% Auslagerung (542MiB VRAM Verbrauch) wäre die GT512 schneller als die GT1024.

Jetzt muss man noch beachten, das die 8800GT 512 nicht 100%ig Bandbreiten limitiert ist.


"Also könnte der Unterschied zwischem 88gt 512 & 88gt 1024 größer sein, wenn sie eine höhere Speicherbandbreite hätte?"
Denkbar, das GT1024 von höherer VRAM Bandbriete limitiert, während GT512, vor allem bei schnellerem Systemram glücklich wird.
Die GT512 könnte auch in CPU limitierten Situationen, wenn sie auslagert, der CPU wertvolle Bandbreite stehlen.

Gast
2008-04-01, 11:23:13
Oder andersherum gefragt, ist der Unterschied zwischen der 88gt 512 & 88gt 1024 selbst bei VRAM-lastigen Szenarien nur deshalb so gering, weil die begrenzte Speicherbandbreite den Datenaustausch bei der Nutzung von 1024MiB zu sehr bremst?

nein, speicherbelegung und bandbreite sind 2 paar schuhe

Gast
2008-04-01, 12:04:42
nein, speicherbelegung und bandbreite sind 2 paar schuhe
Wenn mehr im VRAM ist, kann auch mehr übertragen werden.
Natürlich nicht so krass, das die Bandbreite plötzlich limitiert.

The_Invisible
2008-04-01, 12:09:33
Schwer zu sagen.
Wenn die Karte mehr als 512MiB belegt und diese nicht sinnlos im VRAM liegen, sondern beim rendern gebraucht werden, dann ist die 1GiB Karte schonmal deutlich im Vorteil.

Nehmen wir mal zb ~60GB/s der 8800GT gegenüber ~10GB/s des Systemspeichers:
Die ersten 512MiB sind schnell angebunden, die restlichen sind langsam, aber zusätzlich angebunden. Die GT 512 hätte demnach bei minimaler Auslagerung sogar einen Vorsprung an Bandbreite(10GB/s, also 6%) gegenüber der die nicht auslagert. Das geht natürlich nicht lange gut, denn irgendwann wird dieser Vorteil zum irren Nachteil. Also bis zu 6% Auslagerung (542MiB VRAM Verbrauch) wäre die GT512 schneller als die GT1024.

Jetzt muss man noch beachten, das die 8800GT 512 nicht 100%ig Bandbreiten limitiert ist.


"Also könnte der Unterschied zwischem 88gt 512 & 88gt 1024 größer sein, wenn sie eine höhere Speicherbandbreite hätte?"
Denkbar, das GT1024 von höherer VRAM Bandbriete limitiert, während GT512, vor allem bei schnellerem Systemram glücklich wird.
Die GT512 könnte auch in CPU limitierten Situationen, wenn sie auslagert, der CPU wertvolle Bandbreite stehlen.

man darf nicht die latenzen vergessen, das haut ganz schön rein.

mfg

Gast
2008-04-01, 12:18:32
man darf nicht die latenzen vergessen, das haut ganz schön rein.

mfg
Weißt du wie viel schlechter die Latenzen sind?

Sonst würde ich gerade mal 5% Verlust dadurch schätzen.

Razor
2008-04-01, 21:51:55
Sorry für die späte Antwort... habsch aus den Augen verloren... ;)
Habe das mit Hvoralek doch schon gehabt - im Falle von Oblivion und dem Außenlevel ist es extrem unwahrscheinlich, dass bei ausgelagerten 300 MiB und derben Rucklern die Fps nicht gesunken sind. Eine 1024 MiB Karte verwaltet ihren Speicher verschwenderischer als eine 512 MiB Karte (zumindest die GF8) und wenn eine 512er auslagert, entspricht das absolut nicht dem Verbrauch, den eine 1024er hat - daher kann man das wirklich nicht 1:1 übertragen.
Du redest von ausgelagerten 300MB... die ich bei mir aber noch nie gesehen hab.
Im Maximum waren das bei mir vielleicht 60-80MB und die haben sich keinesfalls negativ auf die Performance ausgewirkt.

Aber gut, dass Du die unterschiedliche Speichernutzung bei 512 und 1024MB angesprochen hast...
...habe ich wieder und wieder geschrieben, aber niemand scheint darauf zu reagieren.

Wenn es nur 30 MiB sind und man hat schnellen RAM und die ausgelagerten Texturen werden nicht benötigt, dann ändert es an den Fps fast nichts (ohne AA). Sind es aber Texturen die ständig benötigt werden (wie es bei TES4 und Stalker offensichtlich der Fall ist) und gleich mal 200-300 MiB, dann gehen die Fps runter - unbestreitbar.
Ein bischen viel 'durcheinander' bei Dir...
1) auch mit AA und einer Auslagerung von 80MB kam es bei mir nicht zum Performanceverlust
2) klar... wenn für eine einzige Scene mehr als etwa 460MB Texturdaten benötigt werden, wirds eng (bisher noch nicht vorgekommen)
3) TES4 und STALKER laufen bei mir 'perfekt'
4) die Menge an ausgelagertem VRAM ist kein Indikator für schlechte Performance
(wie Du selber ja schon geschrieben hast... insofern verwundert jetzt doch die von Dir getroffene Aussage)

Wie stark der Fps-Verslust aber ist, hängt extrem vom Spiel und den sonstigen Settings ab. Bei TES4 samt Mod etwa lief damals die 512er ohne AA/HDR trotz übervolllem VRAM praktisch so schnell wie die 1024er, mit AA/HDR brach sie stark ein und es kam reproduzierbar nach einer Weile zocken ein Bluescreen.
Sorry... aber hier redest Du Unsinn.
Kann schon sein, dass Dein System da ein Problem hatte - was aber nicht zwingend auf den VRAM zurück zu führen sein dürfte.
(es sei denn natürlich, Deine 512'er war defekt ;-)

Mir ist weder TES4, noch STALKER jemals mit einem BSOD abgestürzt...
...wüsste auch gar nicht, wie das rein theoretisch/technisch möglich sein soll.

Insofern solltest Du Deiner Behauptung evtl. noch mehr Details folgen lassen, gell?

Razor

Gast
2008-04-01, 22:18:43
4) die Menge an ausgelagertem VRAM ist kein Indikator für schlechte Performance
Ein wenig auslagern ist sogar vorteilhaft. Dann kann man die Bandbreite des System RAM nutzen, solange die CPU diese nicht dringend braucht.

Gast
2008-04-04, 17:37:47
http://img57.imageshack.us/img57/6127/gothic3256015patchlevelhf5.th.jpg (http://img57.imageshack.us/my.php?image=gothic3256015patchlevelhf5.jpg)
http://img111.imageshack.us/img111/8070/hellgate26502xaa8xafsstui7.th.jpg (http://img111.imageshack.us/my.php?image=hellgate26502xaa8xafsstui7.jpg)

^^ Würde ich gerne mal auf einer 1GB-Karte sehen :-)
Könntest du deine ini verraten?
AA scheint nicht aktiv zu sein?

Gast
2008-04-04, 17:59:46
Sorry für die späte Antwort... habsch aus den Augen verloren... ;)

Du redest von ausgelagerten 300MB... die ich bei mir aber noch nie gesehen hab.
Im Maximum waren das bei mir vielleicht 60-80MB und die haben sich keinesfalls negativ auf die Performance ausgewirkt.

Aber gut, dass Du die unterschiedliche Speichernutzung bei 512 und 1024MB angesprochen hast...
...habe ich wieder und wieder geschrieben, aber niemand scheint darauf zu reagieren.


Ein bischen viel 'durcheinander' bei Dir...
1) auch mit AA und einer Auslagerung von 80MB kam es bei mir nicht zum Performanceverlust
2) klar... wenn für eine einzige Scene mehr als etwa 460MB Texturdaten benötigt werden, wirds eng (bisher noch nicht vorgekommen)
3) TES4 und STALKER laufen bei mir 'perfekt'
4) die Menge an ausgelagertem VRAM ist kein Indikator für schlechte Performance
(wie Du selber ja schon geschrieben hast... insofern verwundert jetzt doch die von Dir getroffene Aussage)


Sorry... aber hier redest Du Unsinn.
Kann schon sein, dass Dein System da ein Problem hatte - was aber nicht zwingend auf den VRAM zurück zu führen sein dürfte.
(es sei denn natürlich, Deine 512'er war defekt ;-)

Mir ist weder TES4, noch STALKER jemals mit einem BSOD abgestürzt...
...wüsste auch gar nicht, wie das rein theoretisch/technisch möglich sein soll.

Insofern solltest Du Deiner Behauptung evtl. noch mehr Details folgen lassen, gell?

Razor

Du solltest immer dazu schreiben in was für einer Auflösung du spielst!