PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Eigene Erfahrung mit der 7800GTX?


Seiten : 1 [2]

tombman
2005-07-01, 08:43:00
hmm, also ich hab mal auf 480/1350 und 490/1377 getaktet und der futuremark ORB zeigte jedesmal +38mhz auf dem core an!!!! Dort steht dann 518mhz und 528mhz core!!!
Langsam komm ich echt zu der Meinung, Nvidia hat da einen zusätzlichen +40mhz (können auch +38mhz sein) auto-overclock im Bios implementiert!

Und ich kann mir nicht denken, daß rivatuner und 3dmark05 beide Mist messen.

Btw, 3dmark2005: 1600x1200 4xAA/16xAF = 9763 Punkte @ 490/1377 Takt :cool:

btw2: FEAR @ maximalen Details: 66fps ;D

hq-hq
2005-07-01, 08:53:55
geht dann der "auto-overclock" nur bei benschis an ?
oder immer ?
und warum kann der geometry clock anderst sein...
sind da ein paar quarze drauf am besten für hier und da
und dort noch ein eigener takt, ganz nach dem motto multikulti :redface:

tombman
2005-07-01, 09:03:19
geht dann der "auto-overclock" nur bei benschis an ?
oder immer ?
und warum kann der geometry clock anderst sein...
sind da ein paar quarze drauf am besten für hier und da
und dort noch ein eigener takt, ganz nach dem motto multikulti :redface:

Eine Graka kann ned unterscheiden zwischen Spiel oder benchmark, es ist immer 3D oder eben 2D.

Und alle was 3D ist bekommt ANSCHEINEND diesen komischen +38mhz gratis clock dazu. Keine Ahnung wieso, aber scheint so zu sein.

Asus hatte ja früher in der Werbung diesen "+40mhz dynamic blablubb" Spruch drinnen, also muß irgendwas dran sein und ned nur ein Auslesefehler aller Programme die den Takt auslesen können.

Und warum sollten die Programme den 2D clock und auch sonst alles richtig auslesen, aber beim 3D Takt plötzlich alle +38Mhz dazuerfinden, noch dazu alle GLEICH VIEL dazuerfinden?

Nene, irgendwas is "im Busch", und ich bin sicher, die Aufklärung wird bald im Netz erscheinen ;)

S3NS3
2005-07-01, 09:19:37
Eine Graka kann ned unterscheiden zwischen Spiel oder benchmark, es ist immer 3D oder eben 2D.

Und alle was 3D ist bekommt ANSCHEINEND diesen komischen +38mhz gratis clock dazu. Keine Ahnung wieso, aber scheint so zu sein.

Asus hatte ja früher in der Werbung diesen "+40mhz dynamic blablubb" Spruch drinnen, also muß irgendwas dran sein und ned nur ein Auslesefehler aller Programme die den Takt auslesen können.

Und warum sollten die Programme den 2D clock und auch sonst alles richtig auslesen, aber beim 3D Takt plötzlich alle +38Mhz dazuerfinden, noch dazu alle GLEICH VIEL dazuerfinden?

Nene, irgendwas is "im Busch", und ich bin sicher, die Aufklärung wird bald im Netz erscheinen ;)

Wäre ja auch möglich das da ein anderer PLL oder andere Register für den Takt auf der Karte sind das die "alte" Soft das nicht ganz Peilt.
Hmm, seltensam.
Wird sich früher oder später herrausstellen was das ist.

hq-hq
2005-07-01, 09:39:17
die graka nicht, aber der treiber würde es merken.
aber das wär ja schmarrn weil wenns nur da übertakten würde wärs
ja viel zu offensichtlich.
in der zwischenzeit bleibe ich verwirrt. :rolleyes:

Sep.pel
2005-07-01, 13:15:41
naja solnage die karte keine probleme damit hat ist mir das egal

r@w
2005-07-01, 13:16:02
Na dann heul mal schön ;)
...
Und hier ein netter screen, den jeder nachvollziehen kann:WOW... 'satte' 33fps.
Mehr ist dazu eigentlich nicht zu sagen, oder?
:D

Sicherlich ist dieser Wert "im Vergleich" nicht schlecht... aber Spielbar ist dies für mich (und auch wohl für Dich und andere) noch lange nicht. Zumindest aber ists ein Schritt in die richtige Richtung... wie ich ja schon schrieb.

Razor

r@w
2005-07-01, 13:26:52
Ich glaub jeder hier würde lügen wenn er sagen würde, dass er sich kein SLI Sys mit nem Dual Core sowie 4GB Ram kaufen würde wenn der das Geld HÄTTE.
Ich würde das sicherlich machen *g*Wenn ich nicht mal in der Lage wäre, das Geld vernünftig anzulegen, gäbe ich Dir sogar recht.

Aber ganz ehrlich?
Nein... reine Geldverschwendung.
(und um hier jemanden zu zitieren: völlig sinnfrei ;-)

Wie sagte doch mal ein guter Bekannter von mir?
"Lieber das Geld durchs Klo spülen... dann sieht man wenigstens, wie es flattert!"
:D

Aber genug der Polemik.

Razor

r@w
2005-07-01, 13:50:08
Und ich kann mir nicht denken, daß rivatuner und 3dmark05 beide Mist messen.Warum nicht, wenn sie beide dmit der gleichen Methode 'messen'...

Letztlich werden nur irgendwelche Register ausgelesen und offenbar schlicht falsch interpretiert.
Zumindest ein Hinweis an FM und Underwinder wäre nett, um dieses 'Mißverständnis' zu klären.
nVidia sollte hierzu einfach mal Stellung nehmen...

Oder es ist noch ein Bios-Prob bei den betroffenen Karten.
Who knows?

Razor

MadManniMan
2005-07-01, 15:27:36
Razor, hast du Riddick mal gespielt? 33fps sind absolut ausreichend *kopfschüttel*

hq-hq
2005-07-01, 15:35:04
jo denk auch das des reicht, net in allen spielen "läuft" man durch die levels
als wäre man mit nem krad unterwegs wie in quake 3.

Dunkeltier
2005-07-01, 18:57:23
Ja Kruzzideppen nochmal!!! Was soll denn der Scheiß, das wenn ich ein Overlay-Video beende, die Auflösung und Refresh-Rate auf's übelste verstellt ist? Hat nVidia das Problem noch immer nicht im Griff bekommen? Das hatte ich doch schon damals mit meiner Geforce 6800 GT und ich glaube auch mit der Geforce FX 5900 gehabt. Meine Fresse, solch eine schlampige Treiberpolitik. Ich glaube, nVidia muß ich auch mal eine "nette" Mail schreiben.

Das kann einfach nicht angehen.

(del676)
2005-07-01, 20:54:12
kann es sein, dass wenn man für ein game ein neues profil anlegt, der sli modus für das game defaultmässig deaktiviert ist?
is mir grad so vorgekommen

A.Wesker
2005-07-01, 23:39:55
btw2: FEAR @ maximalen Details: 66fps ;D

aber mit 4AA/16AF oder?

Blaire
2005-07-02, 00:14:03
kann es sein, dass wenn man für ein game ein neues profil anlegt, der sli modus für das game defaultmässig deaktiviert ist?
is mir grad so vorgekommen

Nimm dafür am besten den Nhancer (www.nhancer.com) dann hast den vollen Überblick. :)

Dr.Dirt
2005-07-02, 02:29:36
Ja Kruzzideppen nochmal!!! Was soll denn der Scheiß, das wenn ich ein Overlay-Video beende, die Auflösung und Refresh-Rate auf's übelste verstellt ist? Hat nVidia das Problem noch immer nicht im Griff bekommen? Das hatte ich doch schon damals mit meiner Geforce 6800 GT und ich glaube auch mit der Geforce FX 5900 gehabt. Meine Fresse, solch eine schlampige Treiberpolitik. Ich glaube, nVidia muß ich auch mal eine "nette" Mail schreiben.

Das kann einfach nicht angehen.

Selber Schuld, hattetst doch vorher eine ATI.
Das die NV Treiber grottenschlecht und buggy sind, sollte nun doch schon hinreichend bekannt sein. :rolleyes:

mapel110
2005-07-02, 02:31:57
Ja Kruzzideppen nochmal!!! Was soll denn der Scheiß, das wenn ich ein Overlay-Video beende, die Auflösung und Refresh-Rate auf's übelste verstellt ist? Hat nVidia das Problem noch immer nicht im Griff bekommen? Das hatte ich doch schon damals mit meiner Geforce 6800 GT und ich glaube auch mit der Geforce FX 5900 gehabt. Meine Fresse, solch eine schlampige Treiberpolitik. Ich glaube, nVidia muß ich auch mal eine "nette" Mail schreiben.

Das kann einfach nicht angehen.
Das Problem hatte ich mit dem 77.72 auch. Mit dem 80.40 bislang nicht.

Dunkeltier
2005-07-02, 02:33:45
Selber Schuld, hattetst doch vorher eine ATI.
Das die NV Treiber grottenschlecht und buggy sind, sollte nun doch schon hinreichend bekannt sein. :rolleyes:


Schön, das ist kein ausreichender Grund einen 5 Jahre alten Fehler noch immer nicht zu fixen. Bezüglich der Treiber ist und bleibt ATI einfach weiter entwickelt. Punkt.

Dunkeltier
2005-07-02, 02:35:24
Das Problem hatte ich mit dem 77.72 auch. Mit dem 80.40 bislang nicht.


Mit dem funktionieren bei mir die AA-Settings nicht ordnungsgemäß und die Taktraten (8,88 Mhz im 2D-Betrieb) werden noch falscher mit dem Rivatuner ausgelesen.. :( Außerdem ist das dumme Panel dann Englisch, kann ich nicht. Da steht dann viel zu viel, was ich nicht verstehe. :hammer:

Dr.Dirt
2005-07-02, 02:36:08
Bezüglich der Treiber ist und bleibt ATI einfach weiter entwickelt. Punkt.

Ja, und deswegen kann mir die 7800 GTX gestohlen bleiben. Gute Hardware, buggy Treiber, nein danke. :mad:

Dunkeltier
2005-07-02, 02:44:26
Ja, und deswegen kann mir die 7800 GTX gestohlen bleiben. Gute Hardware, buggy Treiber, nein danke. :mad:

Bleibt nur zu hoffen, das sich nVidia mal endlich besinnt und aufrappelt, und es ATI gleichtut. Jeden Monat ein regelmäßiges Treiberrelease mit einem übersichtlichen Control-Panel wäre mein Traum. Nicht so ein Wischi-Waschi wie jetzt und laufend Bugs in Spielen, die nicht dem Mainstream entsprechen. Leider fallen mir auch immer wieder von Zeit zu Zeit Fehler in Mainstreamspielen und Benchmarks auf. Bei nVidia wird einfach schlampig gearbeitet. Das beste Beispiel war der Wasser-Bug mit der 256 MB Geforce 5900 im 3D Mark 2001, da war das Wasser geformt wie riesige Berge und Täler, und schwappte vollkommen übertrieben. Andere traurige Beispiele sind Fehler in Bf2 und noch einige andere Spiele. Mal sehen, vielleicht geh ich mal auf Screenshot-Tour mit meinen ganz persönlichen Lieblingsspielen. Finden werde ich garantiert wieder einiges, was bei ATI halt nie der Fall war. Jedenfalls nicht in dem Ausmaße.

Im übrigen ist auch nVidia's Hardware buggy, ich sage nur Videobeschleunigung beim NV40.

TobiWahnKenobi
2005-07-02, 05:17:10
Zitat:
Zitat von Dunkeltier
Ja Kruzzideppen nochmal!!! Was soll denn der Scheiß, das wenn ich ein Overlay-Video beende, die Auflösung und Refresh-Rate auf's übelste verstellt ist? Hat nVidia das Problem noch immer nicht im Griff bekommen? Das hatte ich doch schon damals mit meiner Geforce 6800 GT und ich glaube auch mit der Geforce FX 5900 gehabt. Meine Fresse, solch eine schlampige Treiberpolitik. Ich glaube, nVidia muß ich auch mal eine "nette" Mail schreiben.

Das kann einfach nicht angehen.

Das Problem hatte ich mit dem 77.72 auch. Mit dem 80.40 bislang nicht.

dann schmeisst eure CRTs an die wand und kauft endlich digitale TFTs. ich hab' von solchen macken, seitens der NV karten/treiber noch nie etwas gehört, gesehen und erlebt.. wird wohl am DVI liegen, da man keine BWFs verhunzen kann.

die nvtreiber bieten so einiges, z.b. nview, wovon sich ATI mehr als nur eine scheibe abschneiden kann. besonders im bezug auf (independent) auflösung und bwf je gerät.

(..)

mfg
tobi

Razor
2005-07-02, 06:39:09
Razor, hast du Riddick mal gespielt? 33fps sind absolut ausreichend *kopfschüttel*Ja, habe ich... und nein.
;)

Geht hier um tombmans eigenen Anspruch immer und überall 50fps und mehr zu bekommen.

Du kannst übrigens einfach mal selber die Auflösung reduzieren und Dir das mal mit einem nicht ganz so prall ausgestatten System anschaun'. Bei mir wären dies 480x360 bei 4xAA-8xAF (Quali-Einstellung @ Razors Favorites ;-)... und...

Es ist NICHT ruckelfrei spielbar!

Natürlich nicht... auch hier sind mindestens 50fps erforderlich (da gehe ich mit tombman konform), um sich ruckelfrei drehen zu können etc.pp... unterscheidet sich aber nicht wirklich von irgendwelchen andern FPS. Aber das steht noch auf einem anderen Blatt...

Rückelfrei dürften seine beiden 'Kleinen' bei meiner präferierten Auflösung von 1024 bzw. 1280 sein (letzteres mit viel, viel Glück ;-). Allerdings erwarte ich da doch schon etwas anderes, wenn ich mir da so tombmans 'Fazit' anschaue... auf welches ich initial reagierte.

Razor

Razor
2005-07-02, 06:50:01
dann schmeisst eure CRTs an die wand und kauft endlich digitale TFTs. ich hab' von solchen macken, seitens der NV karten/treiber noch nie etwas gehört, gesehen und erlebt.. wird wohl am DVI liegen, da man keine BWFs verhunzen kann.Scheint nicht nur daran zu liegen, denn auch ich konnte diesen Unsinn (der ganz sicher bei einigen auftreten mag) bei mir noch nie (!) nachvollziehen... weder mit tnt/gf1/gf3/gf5 noch mit gf6 (wenn man meine 'Kollektion' auf nVidia begrenzt ;-). Scheint vermutlich eher ein Problem VOR dem Monitor zu sein, da ich bei 'nem Kollegen feststellte, dass er sich sein System mit Codecs verhunzt hat, womit die Treiber 'irgendwie' nicht sonderlich gut klar kamen...

...ein 'bissel' Aufräumen und das 'GraKa-Problem' war von dannen.

die nvtreiber bieten so einiges, z.b. nview, wovon sich ATI mehr als nur eine scheibe abschneiden kann. besonders im bezug auf (independent) auflösung und bwf je gerät.Software-Funktionalität wäre das eine, Hardware-Features das andere. Zwar hat des neue Zugpferd nVidias nicht gerade viele neue Features abbekommen (im Prinzip ists ja eigentlich nur das TSAA ;-), aber zumindest die gesamte NV40+ Technologie (im Prinzip sogar NV30+ ;-) liegt (noch) Meilenweit vor ATI... was ja auch abzusehen war, nachdem ATI den damaligen ArtX-'Bonus' verbraucht hatte...

...aber das würde jetzt zu weit führen und geht hier mächtig ins OT.

Razor

tombman
2005-07-02, 07:40:43
aber mit 4AA/16AF oder?

logisch, denn 4xAA/16xAF GEHÖREN BEI FEAR zu den "maximalen Details", was manche ned wissen. Wenn man im performance Menu beide Einstellungen auf "maximal" stellt, wird automatisch 4xAA/16xAF eingestellt.
Was also einige user machen und einfach AA und AF wegclicken und dann sagen sie haben mit "maximalen settings" gebenched is ned korrekt :)

Dunkeltier
2005-07-02, 07:42:09
dann schmeisst eure CRTs an die wand und kauft endlich digitale TFTs. ich hab' von solchen macken, seitens der NV karten/treiber noch nie etwas gehört, gesehen und erlebt.. wird wohl am DVI liegen, da man keine BWFs verhunzen kann.

die nvtreiber bieten so einiges, z.b. nview, wovon sich ATI mehr als nur eine scheibe abschneiden kann. besonders im bezug auf (independent) auflösung und bwf je gerät.

(..)

mfg
tobi


Zufälligerweise ist dieser Fehler trotz TFT aufgetreten.

tombman
2005-07-02, 07:49:05
@Raz0r:

1.) 1600x1200 TIMEDEMO ist bei 38fps, ned 33fps. (33fps war nur der eine screenshot!)
Übertaktet bin ich da schon weit über 40fps, UND DAMIT IST ES SPIELBAR :cool:

2.) deine genaue Aussage war, daß es die 7800gtx sli schon bei 1280x1024 "einbrechen" würden, und "einbrechen" als Term verwendet man für gewöhnlich als Ausdruck für "Ruckeln" und "Nicht-spielbarkeit". Auf 1280x1024 hab ich aber 53fps DURCHSCHNITT (ohne oc) und das ist nach JEDER Definition nicht nur spielbar, sondern extrem ANGENEHM spielbar. :cool:

3.) aber wieso rechtfertige ich mich überhaupt für 1600x1200? Eine normale Grafikkarte kann von soft shadows in Riddick nur träumen (ebenso in FEAR), und selbst eine single 6800ultra schafft nicht mal 1024 in softshadows spielbar mit ca 20fps, jedenfalls weit unter 30fps.

Dunkeltier
2005-07-02, 07:53:04
(...) neue Zugpferd nVidias nicht gerade viele neue Features abbekommen (...)

* gefixter Videoprozessor
* Transparenz-AA
* mehr Speed durch 50% mehr Pipes, 33.3% mehr VS und etwa 1,25% mehr Takt (425--->430 Mhz)
* "Optimierungen" an den Shadereinheiten
* H.264-Beschleunigung
* Parallax Mapping

Dunkeltier
2005-07-02, 07:55:53
Scheint nicht nur daran zu liegen, denn auch ich konnte diesen Unsinn (der ganz sicher bei einigen auftreten mag) bei mir noch nie (!) nachvollziehen... weder mit tnt/gf1/gf3/gf5 noch mit gf6 (wenn man meine 'Kollektion' auf nVidia begrenzt ;-). Scheint vermutlich eher ein Problem VOR dem Monitor zu sein, da ich bei 'nem Kollegen feststellte, dass er sich sein System mit Codecs verhunzt hat, womit die Treiber 'irgendwie' nicht sonderlich gut klar kamen...

(...)


Bla, bla, bla... So eine Dummrederei. Das ist ein Treiberbug, der nVidia bereits bekannt ist. Wobei nVidia sich aber wohl aus bequemlichkeit nicht imstande sieht, diesen zu fixen. Vielleicht würde es auch dir mal gut tun, deine grüne Fanboy-Brille abzulegen und die Produkte etwas kritischer zu beurteilen.

A.Wesker
2005-07-02, 08:12:27
logisch, denn 4xAA/16xAF GEHÖREN BEI FEAR zu den "maximalen Details", was manche ned wissen. Wenn man im performance Menu beide Einstellungen auf "maximal" stellt, wird automatisch 4xAA/16xAF eingestellt.
Was also einige user machen und einfach AA und AF wegclicken und dann sagen sie haben mit "maximalen settings" gebenched is ned korrekt :)
da habe ich 52 FPS mit einer 7800 GTX (vorher 35 mit einer 6800u). hattest du den FX übertaktet?

Razor
2005-07-02, 08:28:54
1.) 1600x1200 TIMEDEMO ist bei 38fps, ned 33fps. (33fps war nur der eine screenshot!)
Übertaktet bin ich da schon weit über 40fps, UND DAMIT IST ES SPIELBARIst doch latte...
Zeig die min-fps beim Timedemo und Du wirst vermutlich selber verstehen, was ich meine.

2.) deine genaue Aussage war, daß es die 7800gtx sli schon bei 1280x1024 "einbrechen" würden, und "einbrechen" als Term verwendet man für gewöhnlich als Ausdruck für "Ruckeln" und "Nicht-spielbarkeit". Auf 1280x1024 hab ich aber 53fps DURCHSCHNITT (ohne oc) und das ist nach JEDER Denfintion nicht nur spielbar, sondern extrem ANGENEHM spielbar.Ich zitiere mich mal selbst:
"Rückelfrei dürften seine beiden 'Kleinen' bei meiner präferierten Auflösung von 1024 bzw. 1280 sein (letzteres mit viel, viel Glück ;-)."

Comprende?
Mag sein, dass ich mich initial etwas unklar ausdrückte... und unter 'einbrechen' verstehe ich tatsächlich "ruckeln" aber ganz sicher nicht "unspielbarkeit". Min-FPS unter 25fps sind bei gehäuftem Auftreten inakzeptabel...

Average-Werte taugen nun wirklich NIEMALS, um die tatsächliche Spielbarkeit zu bewerten.
Zumindest aber geben sie einen Anhaltspunkt...

Und 50fpsAvg dürften gerade mal so gehen... vorausgesetzt die Performance fällt nicht allzu oft unter 25fps.
Zumindest aber musstest Du schon mit der Auflösung herunter gehen, um dieses erträgliche Maß zu erreichen, oder?

Was ist eigentlich so schwer daran, dies zuzugeben?
:confused:

3.) aber wieso rechtfertige ich mich überhaupt für 1600x1200? Eine normale grafikkarte kann von soft shadows in Riddick nur träumen (ebenso in FEAR), und selbst eine single 6800ultra schafft nicht mal 1024 in softshadows spielbar mit ca 20fps, jedenfalls weit unter 30fps.Wieso Du dich dafür rechtfertigst?
Kann ich Dir sagen...

Du selber stellst den Vorteil einer 7800-SLI-'Konstruktion' damit heraus, dem Bedürfnis nach extrem hohen Auflösungen und maximalen Quali-Settings (nebst größten Schwa.. natürlich ;-) zu fröhnen. Nur trifft dies leider nicht auf alle derzeit (!) verfügbaren Games/Apps und Einstellungen zu... von zukünftigen ganz zu schweigen.

Ich wollte nur Dein 'etwas überzogenes' bzw. übertriebenes Kurzfazit ein wenig zurecht rücken.
Und weil Dir das nicht in den Kram paßte, hast Du angefangen, Dich zu 'rechtfertigen'...

-

Sollte ich tatsächlich mein "Soundproblem" lösen und eine Notwendigkeit in PCIe + DualCore/64Bit erkennen, werde auch ich aufrüsten und mir (ob der besseren Flexibilität) ein SLI-System auf PCIe-Basis zulegen und dieses dann selbstredend mit der aktuellsten Video-Technologie ausrüsten (nach derzeitigem Stand wäre das dann eine Single-7800GTX - wegen TSAA und H.264-Beschleunigung)... aber nicht für den Einstandspreis von 550 Teuronen... so irre war ich noch nie und werde es auch nie sein.

OK, für die gf3 habe ich 879 Deutschländer hingelegt - wären heute also knappe 450 Inflationen - aber des Kärtchen hat damals auch locker 2 Jahre durchgehalten und die nachfolgende Generation glatt 'überlebt'. Nur gehe ich einfach davon aus, dass dies mit dem Refresh "G7x" nicht der Fall sein wird... technologisch gesehen... und dass ich persönlich "SLI" als total sinnfrei empfinde hat damit dann direkt noch rein gar nichts zu tun.

Geduld ist eine Tugend...
...die sich zudem in unserer heutigen (hektischen und technologisch überschlagenden) Zeit auszahlt.

Got it?

Razor

Razor
2005-07-02, 08:49:22
@Dunkeltier

* gefixter Videoprozessor
- ist schon seit NV41+ gefixt...

* Transparenz-AA
- jap.

* mehr Speed durch 50% mehr Pipes, 33.3% mehr VS und etwa 1,25% mehr Takt (425--->430 Mhz)
- wär ja schlimm, wenn ein Refresh langsamer sein würde, oder?
-> KEIN Feature, i.e. "Funktionserweiterung"...

* "Optimierungen" an den Shadereinheiten
- siehe oben...

* H.264-Beschleunigung
- jap.

* Parallax Mapping
- tatsächlich?

Das ist ein Treiberbug, der nVidia bereits bekannt ist. Wobei nVidia sich aber wohl aus bequemlichkeit nicht imstande sieht, diesen zu fixen.Offenbar einer, der nicht bei allen auftritt und durch "Aufräumen" des Systems zu beheben ist...

Razor

Dunkeltier
2005-07-02, 08:58:27
@Dunkeltier

* gefixter Videoprozessor
- ist schon seit NV41+ gefixt...

* Transparenz-AA
- jap.

* mehr Speed durch 50% mehr Pipes, 33.3% mehr VS und etwa 1,25% mehr Takt (425--->430 Mhz)
- wär ja schlimm, wenn ein Refresh langsamer sein würde, oder?
-> KEIN Feature, i.e. "Funktionserweiterung"...

* "Optimierungen" an den Shadereinheiten
- siehe oben...

* H.264-Beschleunigung
- jap.

* Parallax Mapping
- tatsächlich?

Offenbar einer, der nicht bei allen auftritt und durch "Aufräumen" des Systems zu beheben ist...

Razor


Eigenartig ist aber, das dieser trotz jungfräulichen Systems und ohne Codecs auftaucht, gell?! :rolleyes: Und dies ständig reproduzierbar. AVI oder MPEG auf Fullscreen, dann weggeklickt und schwupps - alles im Arsch. Oh, wie dumm für nVidia und die gearschten Kunden! Was den Videoprozessor und die Beschleunigung betrifft, sicherlich ist der schon länger gefixt. Nur leider hat man lange Zeit kein High-End Modell bei nVidia mit eben dieser Funktion erwerben können, während ATI-Karten entsprechende Entlastung seit längeren bieten.

Mich kotzt einfach an, das nVidia wirklich nichts mit dem Treiber auf die Reihe zu scheinen kriegt. Sollen die endlich mal zu ihren miesen Treibern stehen, und mit dem Musterschüler ATI gleichziehen.

tombman
2005-07-02, 09:22:05
Ist doch latte...
Zeig die min-fps beim Timedemo und Du wirst vermutlich selber verstehen, was ich meine.

Rest gekillt weil Argument mit Satz oben bereits dargelegt wurde



Tjo, da hast aber Pech, die Minimum fps waren für genau einen Bruchteil einer Sekunde 25fps. Ned weniger.

Riddick benched sich nämlich ziemlich gleichmäßig, dh die average fps enstehen NICHT durch sehr hohe peak Werte und sehr tiefe min Werte ;)

Und damit bleibt meine Aussage korrekt und auch mein Fazit.

Die einzige Anwendung die nicht auf 1600x1200 mit allen details rennt ist nur EINE: F.E.A.R. -- und das ist eine beta, also zählts ned ;)

Außerdem: DU kannst MIR ned beweisen, daß MEINE Karten in MEINEN Einstellungen auf MEINEM pc ned so rennen wie MEIN Fazit es kundtut.
Was spielbar ist und was ned kannst erst mit mir diskutieren wenn du selbst zwei 7800er im SLI Verbund hast ...

Razor
2005-07-02, 09:27:17
Eigenartig ist aber, das dieser trotz jungfräulichen Systems und ohne Codecs auftaucht, gell?! :rolleyes: Und dies ständig reproduzierbar. AVI oder MPEG auf Fullscreen, dann weggeklickt und schwupps - alles im Arsch. MPEG auf einem "jungfräulichen System"?
Und mit AVI meinst Du dann hoffentlich WMV's, oder?

Sorry, aber ich kann das beim besten Willen NICHT nachvollziehen!
Und ich spreche ganz sicher nicht nur von meinem eigenen System...

Was den Videoprozessor und die Beschleunigung betrifft, sicherlich ist der schon länger gefixt. Nur leider hat man lange Zeit kein High-End Modell bei nVidia mit eben dieser Funktion erwerben können, während ATI-Karten entsprechende Entlastung seit längeren bieten.Ja und?

Wer sein System mit einem "High-End Modell" ausrüstet, dabei einen nicht dazu passenden Prozessor verwendet, hat sowieso einen an der Waffel. Und heutige Prozessoren erledigen solcherart 'Arbeiten' mit links...

Trotz fehlender WMV-HD-Beschleinigung in Hardware kann ich mir selbst anspruchvollste Videos dieser Art ohne jegliches Ruckeln anschaun, ohne auch nur irgendwelche Einschränkungen in Kauf nehmen zu müssen.

Ganz klar wäre es besser, wenn ein Co-Prozessor (in diesem Fall die GraKa) dies übernehmen würde, nur ein KO-Kriterium wäre dies nicht. Viel schlimmer würde ich es finden, wenn die MPEG2-HD-Beschleunigung und bestimmte PureVideo-Features nicht funktionieren würden...

Mit der H.264-Beschleunigung sieht das schon anders aus.
Dies ist ein eindeutiger Vorteil zugunsten dieses Refreshs...
...nur ob dies schon dieses Jahr von Relevanz sein wird, muss sich erst noch zeigen.

...Musterschüler ATI...Soll ich wirklich auf solch einen Müll reagieren?
Nö... ganz sicher nicht!
:D

Razor

tombman
2005-07-02, 09:27:45
da habe ich 52 FPS mit einer 7800 GTX (vorher 35 mit einer 6800u). hattest du den FX übertaktet?

Was, du hast mit einer 7800Gtx 52 fps auf den maximalen settings in fear? N I E :)

(maximale settings sind: 1024x768, blood = on, sound = eax 4/3/2 alles an eben, 4xAA, 16xAF, performance Menu -> beide Werte auf MAXIMAL)

Firingsquad hat die korrekten Werte: (wobei Fs mit 8xAF benched und ich mit 16x)

http://www.firingsquad.com/hardware/fear_beta_performance/images/fear1024aafss.gif

Außer du hast deine Graka um 25% oder mehr oced :D

Razor
2005-07-02, 09:36:00
Wenn Du meinst, auf den "Rest" nicht reagieren zu müssen... Dein Problem.
<removed>

Tjo, da hast aber Pech, die Minimum fps waren für genau einen Bruchteil einer Sekunde 25fps. Ned weniger.In der Scene, die Du selbst mit einem Sceenie dokumentiert hast?
Sorry, aber ich glaube, Du versuchst hier etwas 'schön' zu reden...
;)

Und beim Timedemo hätte ich da doch ganz gerne einen Beleg von Dir.
(und nach Möglichkeit eine Bestätigung eines dritten ;-)

Was spielbar ist und was ned kannst erst mit mir diskutieren wenn du selbst zwei 7800er im SLI Verbund hast ...Na das hättest Du wohl gerne...
:D

Sorry, aber vorerst haben Deine 'Aussagen' sowieso nur einen "Möglichkeits-Charakter" für mich, da es Deine Ausdrucksweise und auch das Fehlen von Beweisen äusserst schwierig macht, Dir zu 'glauben'.

Razor

[EDIT]: gerne angepaßt...

A.Wesker
2005-07-02, 09:37:51
Was, du hast mit einer 7800Gtx 52 fps auf den maximalen settings in fear? N I E :)

(maximale settings sind: 1024x768, blood = on, sound = eax 4/3/2 alles an eben, 4xAA, 16xAF, performance Menu -> beide Werte auf MAXIMAL)

Firingsquad hat die korrekten Werte: (wobei Fs mit 8xAF benched und ich mit 16x)

http://www.firingsquad.com/hardware/fear_beta_performance/images/fear1024aafss.gif

Außer du hast deine Graka um 25% oder mehr oced :D

der P-M läuft mit 3150 MHz und die karte mit 510/1340


unter performance ist alles auf maximum ( auch in den beiden untermenüs) und im treiber sind nochmal 4/16 eingestellt

Dunkeltier
2005-07-02, 09:38:13
MPEG auf einem "jungfräulichen System"?
Und mit AVI meinst Du dann hoffentlich WMV's, oder?

Sorry, aber ich kann das beim besten Willen NICHT nachvollziehen!
Und ich spreche ganz sicher nicht nur von meinem eigenen System...

Ja und?

Wer sein System mit einem "High-End Modell" ausrüstet, dabei einen nicht dazu passenden Prozessor verwendet, hat sowieso einen an der Waffel. Und heutige Prozessoren erledigen solcherart 'Arbeiten' mit links...

Und was soll ich mir stattdessen für einen Prozessor reinkloppen, der die ganze Sache noch schneller macht?



Trotz fehlender WMV-HD-Beschleinigung in Hardware kann ich mir selbst anspruchvollste Videos dieser Art ohne jegliches Ruckeln anschaun, ohne auch nur irgendwelche Einschränkungen in Kauf nehmen zu müssen.

Komisch, bei mir und allen anderen geht der Rechner in mit einer Geforce 6800 GT in die Knie und die CPU ist ausgelastet - bei mir gings sogar so weit das dieses Step into Liquid Video auf meiner Geforce 6800 GT damals ruckelte. Auf meiner Radeon X850 XT danach nicht.


Ganz klar wäre es besser, wenn ein Co-Prozessor (in diesem Fall die GraKa) dies übernehmen würde, nur ein KO-Kriterium wäre dies nicht. Viel schlimmer würde ich es finden, wenn die MPEG2-HD-Beschleunigung und bestimmte PureVideo-Features nicht funktionieren würden...

Wenn die Grafikkarte noch nicht mal den simpelsten Scheiß beherrscht.


Mit der H.264-Beschleunigung sieht das schon anders aus.
Dies ist ein eindeutiger Vorteil zugunsten dieses Refreshs...
...nur ob dies schon dieses Jahr von Relevanz sein wird, muss sich erst noch zeigen.

Wird eh erst mal wieder Jahre dauern bis sich das durchsetzt, bis dahin haben die heutigen Geforce-Karten am Markt keine Relevanz mehr.


Soll ich wirklich auf solch einen Müll reagieren?
Nö... ganz sicher nicht!
:D

Razor

Kennst du die aktuellen ATI-Treiber? Wohl nicht, ich aber schon. Und ich kenne auch die aktuellen nVidia-Bugtreiber, dank meiner Geforce 7800 GTX (sowie meiner früheren Geforce1 (DDR), Geforce 2 Ti, 4x Geforce 4 Ti, Geforce FX 5900, 3x Geforce 6800 GT). :P Ist schon schwer, wenn man wie blöd auf ein Produkt fixiert ist. Sieh es endlich ein, das nVidia beileibe nicht die reine, weiße Weste hat wie du es immer propagierst.

Razor
2005-07-02, 09:53:18
Und was soll ich mir stattdessen für einen Prozessor reinkloppen, der die ganze Sache noch schneller macht?Willst Du damit sagen, dass Dein A64@2,5GHz nicht in der Lage ist, HD-WMV's korrekt darzustellen?
:confused:

Komisch, bei mir und allen anderen geht der Rechner in mit einer Geforce 6800 GT in die Knie und die CPU ist ausgelastet - bei mir gings sogar so weit das dieses Step into Liquid Video auf meiner Geforce 6800 GT damals ruckelte. Auf meiner Radeon X850 XT danach nicht.Kein Problem hier... das Video lastet meinen Prozessor zwischen 75% und 90% aus... absolut ruckelfrei. Allerdings musst Du Dir mal das "Euro1080.Fussball" HD-MPEG2-Video ohne entsprechende Beschleunigung antun'. Die 'Auslastung' des Prozessors ist hier gar nicht mal das Problem...

Wird eh erst mal wieder Jahre dauern bis sich das durchsetzt, bis dahin haben die heutigen Geforce-Karten am Markt keine Relevanz mehr. Sehe ich auch so (H.264 Relevanz)...
Deswegen ist dieses Feature der 7800GLX (noch) kein KO-Kriterium für mich.

Kennst du die aktuellen ATI-Treiber? Wohl nicht, ich aber schon.Tjo...

Dir ist offenbar entgangen, dass ich hier noch 'ne kleine R9800p herum liegen hab', die ab und zu den Weg in meinen Rechner findet. Auch die R9500 zuvor, wie auch diverse andere Varianten von Deinem "Musterschüler". Insofern fällt es mir schwer, Deinen "Ausführungen" zu folgen... auch wäre ich Dir dankbar, wenn Du diese 'etwas' verträglicher gestalten würdest.

Razor

Geo72
2005-07-02, 09:54:14
Kennst du die aktuellen ATI-Treiber? Wohl nicht, ich aber schon. Und ich kenne auch die aktuellen nVidia-Bugtreiber, dank meiner Geforce 7800 GTX (sowie meiner früheren Geforce1 (DDR), Geforce 2 Ti, 4x Geforce 4 Ti, Geforce FX 5900, 3x Geforce 6800 GT). :P Ist schon schwer, wenn man wie blöd auf ein Produkt fixiert ist.

Bin erst kürzlich zu NV gewechselt und kann das nur bedingt bestätigen. Das die aktuellen Treiber
fehlerhaft sind, liegt wohl daran das man schnell einen Releasetreiber für die 7800 rauswerfen wollte.
Bei ATI waren waren lange Zeit neue Spiele oft voller Grafikfehler (Aquanox war zBsp. kaum spielbar).
Das hat sich erst mit dem R300 gebessert. Inzwischen liegen die beiden IHF´s hier in etwa gleichauf.
Und was wirklich verbuggte Treiber sind brauchst du nur mal Besitzer einer XGI oder Deltachrome Karte
zu fragen.

tombman
2005-07-02, 09:54:19
der P-M läuft mit 3150 MHz und die karte mit 510/1340


unter performance ist alles auf maximum ( auch in den beiden untermenüs) und im treiber sind nochmal 4/16 eingestellt

hmm, dann pushed der P-M die maximum Werte zu hoch, weil ich hab mit 7800 SLI 67fps @ 490/1380 mhz. Dh, die Grakatakte sind nahezu identisch, nur deine cpu ist viel schneller, da mein FX nur @ default 2.6ghz lag.

Und noch was is wichtig: könntest du bitte im Treiber AA und AF auf application lassen, ich will, daß das game entscheidet und ned der Treiber. Sag mir dann bitte, was du herausbekommst. Den P-M @ 2.6hhz zu takten wäre auch noch hilfreich.

Laut FS (und auch laut mir) ist der Unterschied 7800 zu 7800 SLI 50% bei FEAR, deshalb kann ich mir ned vorstellen wie du bei gleichen Grakatakten 25% speed gutmachst.

Btw, blood hast du auf ON im "game" Menu? (das is extra, nicht im performance menu)

Dunkeltier
2005-07-02, 09:58:42
(...)

Dir ist offenbar entgangen, dass ich hier noch 'ne kleine R9800p herum liegen hab', die ab und zu den Weg in meinen Rechner findet. Auch die R9500 zuvor, wie auch diverse andere Varianten von Deinem "Musterschüler". Insofern fällt es mir schwer, Deinen "Ausführungen" zu folgen... auch wäre ich Dir dankbar, wenn Du diese 'etwas' verträglicher gestalten würdest.

Razor


Gut, dann sag mir mal was dir an den Treiber nicht gefällt.

Ich habe nur lauter gute Noten zu verteilen,
* das alte CP ist extrem übersichtlich gestaltet
* Treiber erscheinen regelmäßig, ständig werden Bugs gefixt und nicht wie bei nVidia ständig von Generation zu Generation mitgeschleift
* bessere Spielekompatibilität abseits der Mainstreamspiele, aber auch in nVidia, it's meant to be played! Spielen (was einfach nur peinlich für nVidia ist)

A.Wesker
2005-07-02, 09:59:37
hmm, dann pushed der P-M die maximum Werte zu hoch, weil ich hab mit 7800 SLI 67fps @ 490/1380 mhz. Dh, die Grakatakte sind nahezu identisch, nur deine cpu ist viel schneller, da mein FX nur @ default 2.6ghz lag.

Und noch was is wichtig: könntest du bitte im Treiber AA und AF auf application lassen, ich will, daß das game entscheidet und ned der Treiber. Sag mir dann bitte, was du herausbekommst. Den P-M @ 2.6hhz zu takten wäre auch noch hilfreich.

Laut FS (und auch laut mir) ist der Unterschied 7800 zu 7800 SLI 50% bei FEAR, deshalb kann ich mir ned vorstellen wie du bei gleichen Grakatakten 25% speed gutmachst.

Btw, blood hast du auf ON im "game" Menu? (das is extra, nicht im performance menu)

blood ist on.

mit 3,15 GHz + 7800 GTX (AA/AF @ application) sinds 51 FPS und auf 2,6 GHz 46 FPS

robbitop
2005-07-02, 10:04:43
Wenn Du meinst, auf den "Rest" nicht reagieren zu müssen... Dein Problem.
(zeigt es doch wech geistig Kind Du bist ;-)

Muss das sein Razor? Das macht die Stimmung so nieder. Außerdem differenziert man sich von anderen nicht, in dem man sie beschimpft. :)

Mal eine andere Frage an unseren FW Experten ;) :
77.50, 6800GT, WinXP SP1a, 2 Monitore. Auf dem Hauptmonitor werden jegliche Videos im Fullscreen nicht wirklich abgespielt (1 Frame pro 10 sek) und schiebe ich das auf den anderen Monitor, gehts flüssig.
Das hatte ich damals bei der 5900 auch schon so.


* das alte CP ist extrem übersichtlich gestaltet
Das ist Geschmackssache. Ich finde das NV Panel deutlich übersichtlicher als diesen Reiterkram.

Dunkeltier
2005-07-02, 10:09:51
Muss das sein Razor? Das macht die Stimmung so nieder. Außerdem differenziert man sich von anderen nicht, in dem man sie beschimpft. :)

Mal eine andere Frage an unseren FW Experten ;) :
77.50, 6800GT, WinXP SP1a, 2 Monitore. Auf dem Hauptmonitor werden jegliche Videos im Fullscreen nicht wirklich abgespielt (1 Frame pro 10 sek) und schiebe ich das auf den anderen Monitor, gehts flüssig.
Das hatte ich damals bei der 5900 auch schon so.


Hoffentlich die Hardwarebeschleunigung für zwei Monitore aktiviert? :usweet:


Das ist Geschmackssache. Ich finde das NV Panel deutlich übersichtlicher als diesen Reiterkram.


Och nöööööö... Bin da wie schon gesagt gänzlich anderer Meinung.

Razor
2005-07-02, 10:12:00
Gut, dann sag mir mal was dir an den Treiber nicht gefällt.Gerne...

Ich habe nur lauter gute Noten zu verteilen,
Ich leider nicht...

* das alte CP ist extrem übersichtlich gestaltet
Wohl wahr... gotlob gibt es Tools, die mit diesem Mißstand aufräumen.
Mit dem neuen CP kann ich überhaupt nix anfangen...
(KlickiBunti ahoi und zu hohe Resourcen-Nutzung)

* Treiber erscheinen regelmäßig, ständig werden Bugs gefixt...
Das trifft ebenso auf nVidia zu...
...und ich dachte, ATI hätte keine Bugs in den Treibern?
(ich hoffe, Du verstehst die Ironie ;-)

Ich rate Dir dringend, mal die Release-Notes zu den nVidia-Treibern zu lesen.
Ehrlich...

* bessere Spielekompatibilität abseits der Mainstreamspiele...
Insbosonders hier sehe ich große Schwächen bei den ATI-Treibern...
Offenbar werden so einige - nicht AI - Anwendungen 'benachteiligt'.

Kann mich noch gut erinnern, als ich letztens mal wieder meine Scene-Demos (doch recht umfangreiches Sortiment) auf die neueren ATI-Treiber los gelassen habe... war (wieder mal) nicht sonderlich erquickend. Hätte mich allerdings auch gewundert, wenn sich dies plötzlich geändert hätte...

Razor

Demirug
2005-07-02, 10:12:56
Ist doch latte...
Zeig die min-fps beim Timedemo und Du wirst vermutlich selber verstehen, was ich meine.

Comprende?
Mag sein, dass ich mich initial etwas unklar ausdrückte... und unter 'einbrechen' verstehe ich tatsächlich "ruckeln" aber ganz sicher nicht "unspielbarkeit". Min-FPS unter 25fps sind bei gehäuftem Auftreten inakzeptabel...

Average-Werte taugen nun wirklich NIEMALS, um die tatsächliche Spielbarkeit zu bewerten.
Zumindest aber geben sie einen Anhaltspunkt...

Und 50fpsAvg dürften gerade mal so gehen... vorausgesetzt die Performance fällt nicht allzu oft unter 25fps.
Zumindest aber musstest Du schon mit der Auflösung herunter gehen, um dieses erträgliche Maß zu erreichen, oder?

Razor

Sich jetzt aber nur einen Min-FPS Wert rauszugreifen kann gerade bei einen PC auch in die Hose gehen.

Das die Durchschnittswerte nur begrenzt tuagen ist ja nichts neues aber ich denke ich führe mal ein Beispiel auf.

NFS 2

Zuerst einmal die Durchschnittswerte

6600 GT: 30 FPS
6800 GT: 40 FPS
7800 GTX: 50 FPS

Kommen wir jetzt aber zum interesanteren Teil. Betrachten wir einmal wie lange das Spiel unter die 25 FPS fällt.

6600 GT: 10%
6800 GT: 10%
7800 GTX: 2,5%

Der vollständigkeit halber noch die Angaben wie lange das Spiel mehr als 40 FPS hat
6600 GT: 70%
6800 GT: 80%
7800 GTX: 95%

jacky
2005-07-02, 10:18:00
Also ich hatte lange Zeit ne Geforce4 Ti4200 -> dann ne 9800Pro und jetzt wieder ne Leadtek 6800GT.
Also ich kann das mit den Treibern nicht wirklich bestätigen. Und ich möchte mal was zu den tollen ATI Treibern sagen. Undzwar gab es dort eine tolle Serie von 4.7-4.10 oder so wo man in F1 Challenge nur noch 30FPS hatte statt über 100FPS wie mitm 4.6er oder so.

Ich habe keinen einzigen Bug von da oben ausser diesen Overlay Bug, den wohl jeder DAU beheben kann.
HDTV Movies laufen bei mir verdammt smooth mit meinem A64@2,5ghz. Absolut keine Probs.

Ich glaube ihr solltet mal die ATI Brille abnehmen. Die sind nicht besser wie Nvidia. Ich erinnere nur an die tolle Refreshkarte X850 ... super 1-3% mehr Leistung und dafür schön Kohle hinlegen.
Da machts Nvidia aber deutlich besser. Da bekommt man wenigstens etwas mehr für sein Geld.

Ich finde den Treiber von Nvidia in jeder Hinsicht deutlich besser. Allein das man direkt Profile erstellen kann vermisst man bei ATI ja leider immernoch.

Razor
2005-07-02, 10:19:42
Muss das sein Razor? Das macht die Stimmung so nieder. Außerdem differenziert man sich von anderen nicht, in dem man sie beschimpft. :)Hab' ich oben schon angepaßt!
Ging mal wieder mit mir durch... und das, obwohl ich doch soooo versuche, mich zusammen zu reißen.
;)

77.50, 6800GT, WinXP SP1a, 2 Monitore. Auf dem Hauptmonitor werden jegliche Videos im Fullscreen nicht wirklich abgespielt (1 Frame pro 10 sek) und schiebe ich das auf den anderen Monitor, gehts flüssig.
Das hatte ich damals bei der 5900 auch schon so.Welche Ausgabe-Einheit ist denn Dein Primär-Gerät?
Und im 'Clone'-Modus ist die Hardware-Beschleinigung generell nicht wirklich präsent...

Razor

tombman
2005-07-02, 10:20:59
flame Versuch entfernt

In der Scene, die Du selbst mit einem Sceenie dokumentiert hast?

Zeifel entfernt


Ok, du glaubst also tombman nicht, schön, aber auch leider töricht.
Wenn tombman was sagt, dann ist das wie wenn Gott was sagt in Bezug auf benchmarking und hardware ;)

Sieh her und weine, Ungläubiger ;D

1600x1200, 2++, Rest Maximum, 7800GTX SLI @ 480/1370

http://img64.imageshack.us/img64/2010/razorsuckerriddick9tq.jpg

Da kannst jetzt schön jede der 73 Sekunden einzeln sehen, frapslog sei Dank ;)

tombman
2005-07-02, 10:23:58
blood ist on.

mit 3,15 GHz + 7800 GTX (AA/AF @ application) sinds 51 FPS und auf 2,6 GHz 46 FPS

Na wunderbar, dann wars doch der P-M der die maximalen Werte hochpushed und damit auch den Durchschnitt :)

Danke für Info. Dann werd ich ja sicher über 70fps kommen wenn der FX wieder @ Kompressor ist :D

Razor
2005-07-02, 10:26:28
Sich jetzt aber nur einen Min-FPS Wert rauszugreifen kann gerade bei einen PC auch in die Hose gehen. Klaro!
Deswegen schrieb ich ja auch:
"Min-FPS unter 25fps sind bei gehäuftem Auftreten inakzeptabel..."

Das die Durchschnittswerte nur begrenzt taugen ist ja nichts neues aber ich denke ich führe mal ein Beispiel auf.Herzlichen Dank dafür!
Zeigt es doch vielleicht einigen hier, dass selbst bei NFSU2 eine 7800GLX noch 'einbrechen' kann...

Allerdings nur bei 2,5% der Spiele-Situationen, was an sich schon beeindruckend ist.
Hättest Du zu Deinem Beispiel vielleicht noch die zugehörigen Settings?
Thx in advance...

Razor

robbitop
2005-07-02, 10:31:22
Welche Ausgabe-Einheit ist denn Dein Primär-Gerät?
Und im 'Clone'-Modus ist die Hardware-Beschleinigung generell nicht wirklich präsent...

Razor
Displaymode: Dualview

Primary display BenQ FP757 (ist am DVI Ausgang per D/A Adapter)
Secondary display Analog Display (17" Simens MCM1707 Röhre am Analogen Ausgang).

Nur im secondary geht fullscrene video. Im Primary friert das mein ganzes system für sekunden ein, bis ich Alt+F4 drücke :)

Demirug
2005-07-02, 10:31:28
Herzlichen Dank dafür!
Zeigt es doch vielleicht einigen hier, dass selbst bei NFSU2 eine 7800GLX noch 'einbrechen' kann...

Allerdings nur bei 2,5% der Spiele-Situationen, was an sich schon beeindruckend ist.
Hättest Du zu Deinem Beispiel vielleicht noch die zugehörigen Settings?
Thx in advance...

Razor

Settings habe ich nicht da ich die Benchmarks nicht selber gemacht habe. Von mir ist nur die Software zum erfassen und verrechnen der Grunddaten.

Dunkeltier
2005-07-02, 10:37:55
Mal 'ne "dumme" Frage: Wieso schiebe ich überall Bugwellen vor mir her? Und warum so viele? Trotz Treiberreset, Treiberneuinstallation und der ständig richtigen Einstellung sieht mein Bild einfach besch....eiden aus. Habs auch im anderen Thread gepostet, hier nochmal der Link: http://img257.imageshack.us/img257/641/noqual6os.jpg

robbitop
2005-07-02, 10:38:25
Displaymode: Dualview

Primary display BenQ FP757 (ist am DVI Ausgang per D/A Adapter)
Secondary display Analog Display (17" Simens MCM1707 Röhre am Analogen Ausgang).

Nur im secondary geht fullscrene video. Im Primary friert das mein ganzes system für sekunden ein, bis ich Alt+F4 drücke :)
Jetzt gehts. Aber wenn ich mit dem Mediaplayer ein einfaches MPEG abspiele bin ich schon gut bei 40% CPU Last und das auf einem A64 mit 2,4GHz und die Qualität bei diesem Vid ist nicht soo doll. Scheint die Videobeschleunigung nicht zu funktionieren. Kann man daran etwas drehen?

dildo4u
2005-07-02, 10:40:34
Mal 'ne "dumme" Frage: Wieso schiebe ich überall Bugwellen vor mir her? Und warum so viele? Trotz Treiberreset, Treiberneuinstallation und der ständig richtigen Einstellung sieht mein Bild einfach besch....eiden aus. Habs auch im anderen Thread gepostet, hier nochmal der Link: http://img257.imageshack.us/img257/641/noqual6os.jpg
Schon die optemierungen ausgeschaltet?Negativer LOD auf Clamp?

Razor
2005-07-02, 10:41:43
Ok, du glaubst also tombman nicht...Nun ja...
Ich sagte Dir auch, warum.

Und dieser Post von Dir bestätigt dies leider umso mehr.
(nicht der zu extrahierende Fakten-Teil, wohlgemerkt ;-)

1600x1200, 2++, Rest Maximum, 7800GTX SLI @ 480/1370Ohne AA und AF?
Und wieso jetzt 43fps statt vorher 38?
Auch wundert es mich, dass im Fraps-Log weder die min 29, noch die max 196 zu finden sind...
Grob überschlagen passt aber zumindest der avg-Wert.

Auch würde mich das Fraps-Log für die im Screenshot von Dir dokumentierte (Anfangs-)Scene interessieren, wenn Du dort eine volle Drehung machst. Dort dann aber bitte ein kleineren Abstand zwischen den avgFrame-Snaps... thx in advance.

Razor

P.S.: Aber... DAS ist doch endlich mal ein 'Beleg'!
Auch traue ich Dir (zumindest nicht zum jetzigen Zeitpunkt ;-) nicht zu, die Screenies zu fälschen...
:up:

Dunkeltier
2005-07-02, 10:42:18
Schon die optemierungen ausgeschaltet?


Die sind wenn ich direkt auf Quality umswitche gar nicht an. Aber auch so, erst abschalten und dann umswitchen, bleibt das Bild so bescheiden. Hardwarelimitierung (Winkelabhängigkeit) des G70 wie bei der Radeon? Wenn ja, sehr schwach. Denn genau das gleichschlechte Bild bot mir schon meine Radeon.

A.Wesker
2005-07-02, 10:45:23
Die sind wenn ich direkt auf Quality umswitche gar nicht an. Aber auch so, erst abschalten und dann umswitchen, bleibt das Bild so bescheiden. Hardwarelimitierung (Winkelabhängigkeit) des G70 wie bei der Radeon? Wenn ja, sehr schwach. Denn genau das gleichschlechte Bild bot mir schon meine Radeon.
hast du das prob mit TSAA auch?

Dunkeltier
2005-07-02, 10:48:21
hast du das prob mit TSAA auch?


TSAA war auf obigen Screenshot bereits aktiv. Aber auch ohne TSAA tritt es auf. In allen Spielen. Und ja, ich habe die Filterung auf Trilinear stehen. Und nicht Bilinear.

Razor
2005-07-02, 10:50:57
Settings habe ich nicht da ich die Benchmarks nicht selber gemacht habe. Von mir ist nur die Software zum erfassen und verrechnen der Grunddaten.OK, danke.
Wär' halt nur mal ganz interessant gewesen.
Zumal bei NFSU2 die CPU auch eine nicht ganz unwichtige Rolle spielt...

Razor

tombman
2005-07-02, 10:50:59
Ohne AA und AF?
Und wieso jetzt 43fps statt vorher 38?
Auch wundert es mich, dass im Fraps-Log weder die min 29, noch die max 196 zu finden sind...


Von AA war bei Riddick und 2++ nie die Rede, gehört nicht zu den max settings bei riddick, AF macht das game selbst.

Und was die kleinen Unterschiede bei fraps und den game eigenen Ergebnissen angeht, hättest auch selber draufkommen können. Fraps wird mit der Hand gemessen und ausgelöst und bis man den button drückt usw können 1 oder 2sec vergehen. Aber ob es jetzt 29fps oder 30fps Minimum sind ist doch sowas von egal. Im Zeifelsfall wegen dem AVG Wert einfach dem game "glauben".
Dir waren ja die Minimum Werte so wichtig, und jetzt hast die Antwort, die 30fps werden nicht mal unterschritten- wie geil ist das? :D

Und warum die Werte generell höher sind, sollte auch klar sein, weil die Karten jetzt overclocked waren, vorher nicht.

43fps Durchschnitt, und vorallem die absolute Spielbarkeit @ 16x12 2++ sprechen eindeutig für sich ;)

dildo4u
2005-07-02, 10:51:12
TSAA war auf obigen Screenshot bereits aktiv. Aber auch ohne TSAA tritt es auf. In allen Spielen. Und ja, ich habe die Filterung auf Trilinear stehen. Und nicht Bilinear.
Hast du im treiber auf HighQuality(hohe qualität bei systemleistung?) gestellt?

Dunkeltier
2005-07-02, 10:52:18
Hast du im treiber auf HighQuality gestellt?


Ja, habe ich.

/edit: Die Settings habe ich aber auch alle in diesen Screenshot reingeschrieben. :rolleyes:

Hellfire-Torrod
2005-07-02, 10:52:36
TSAA war auf obigen Screenshot bereits aktiv. Aber auch ohne TSAA tritt es auf. In allen Spielen. Und ja, ich habe die Filterung auf Trilinear stehen. Und nicht Bilinear.

Irgendwelche ingameoptionen die mit denen im treiber in konflikt treten könnten?

Dunkeltier
2005-07-02, 10:53:55
Irgendwelche ingameoptionen die mit denen im treiber in konflikt treten könnten?


Was soll mir Half-Life Classic bzw. das Natural Selection unter OpenGL denn schon großartig außer der Farbtiefe und Auflösung an Optionen bieten. Kurzgefaßt, nein.

dildo4u
2005-07-02, 10:56:42
Was soll mir Half-Life Classic bzw. das Natural Selection unter OpenGL denn schon großartig außer der Farbtiefe und Auflösung an Optionen bieten. Kurzgefaßt, nein.
Kannste mal unter Direct 3d testen?

Dunkeltier
2005-07-02, 10:59:00
Kannste mal unter Direct 3d testen?


Mach ich gleich, Schatz. :love:

Habe zwischenzeitlich eins nochmal mit gleichen Settings und 8xS gemacht. Da verschwinden zwar due Bugwellen an der Wand, aber nicht die ganzen Wellen "weit hinten" im Gitter sowie das Gitterflimmern in Bewegung. Grausam! :(

http://img154.imageshack.us/img154/5459/8xs2mz.jpg

Razor
2005-07-02, 11:02:50
Displaymode: Dualview

Primary display BenQ FP757 (ist am DVI Ausgang per D/A Adapter)
Secondary display Analog Display (17" Simens MCM1707 Röhre am Analogen Ausgang).

Nur im secondary geht fullscrene video. Im Primary friert das mein ganzes system für sekunden ein, bis ich Alt+F4 drücke :)Hmmm...
Ein analog angeschlossener TFT via D/A-Adapter am DVI und ein CRT am VGA.
Und primäres Display ist der TFT...

Hast Du schon mal versucht, das primäre Display zu ändern?
I.e. CRT als primär, TFT als sekundät?

Auch könntest Du mal den Compatibility mode ausprobieren (Performance & Quality Settings, "Hardware accelleration")...

Jetzt gehts. Aber wenn ich mit dem Mediaplayer ein einfaches MPEG abspiele bin ich schon gut bei 40% CPU Last und das auf einem A64 mit 2,4GHz und die Qualität bei diesem Vid ist nicht soo doll. Scheint die Videobeschleunigung nicht zu funktionieren. Kann man daran etwas drehen?Sehe ich auch so...

Selber hatte ich dieses 'Problem' bis dato eigentlich nur im Clone-Modus, wo es ja auch kein Wunder ist, wenn die Hardware-Beschleunigung nur auf dem primären (oder Full-Screen-Device) funktioniert... nur ist bei mir noch nichts "hängen" geblieben. Könnte mir höchstens vorstellen, dass die Konstruktion "analog TFT über Adapter an DFI" hier irgendwelche Probleme verursacht... kann ich nur leider nicht nachvollziehen, da ich hier keinen D/A-Wandler rum liegen hab' (ist wohl bei meiner letzten Aufräum-Aktion irgendwie unter gegangen ;-).

Merkwürdig ist das allemal!
Vielleicht fällt Tobi ja was dazu ein...

Razor

Dunkeltier
2005-07-02, 11:04:31
Kannste mal unter Direct 3d testen?


Unter D3D sieht es gleich grausam aus:
http://img138.imageshack.us/img138/5396/d3d4dd.jpg

Flimmrige Texturen und Bugwellen wohin das Auge schaut.

tombman
2005-07-02, 11:05:14
@ razor: wenn man bei diesen Wahnsinnssettings auch noch 4xAA per cp forced, bleiben noch 29fps AVG übrig ... so lol :D

Das wäre mir dann aber auch zuwenig und würde es weglassen, zumal MSAA bei riddick ned so wichtig ist, 1600x1200 UND 2++ --> DAS is wichtig ;)

Ich schätze 2x 32p 7800ultra @ SLI sollten dann die 4x MSAA auch noch "durchdrucken" :D

TobiWahnKenobi
2005-07-02, 11:35:26
Jetzt gehts. Aber wenn ich mit dem Mediaplayer ein einfaches MPEG abspiele bin ich schon gut bei 40% CPU Last und das auf einem A64 mit 2,4GHz und die Qualität bei diesem Vid ist nicht soo doll. Scheint die Videobeschleunigung nicht zu funktionieren. Kann man daran etwas drehen?

:eek: 40% :eek:

welchen codec verwendest du für mpeg?

zieh' mal das CRT ab und schmeiss den monitortreiber und die forceware runter. lass nur den TFT schirm dran und sieh' zu, dass du dort (im single-betrieb) das mpeg an den start bekommst. forceware und ggf. mal codecs neu-installieren und z.b. dem media-player classic in den optionen mitteilen, welches plugin oder welchen codec er zum decoden von mpeg benutzen soll. damit kannst du schonmal einen mpeg codec bzw. eine einstellung ausfindig machen, der/die wenig CPU last verursacht.

wenn du einen geringlastigen codec und die einstellung deines geschmacks gefunden hast, fährst du wieder runter, steckst das CRT an und guckst, wie sich die forceware nach nem neustart verhält, wenn du die mehr-schirm-modi benutzt. -> ggf. noch den korrekten CRT treiber installieren (sofern vorhanden). NV karten haben (anscheinend) eine variable mehrschirm-matrix. soll heissen: es gibt keinen primären oder sekundären ausgang (zumindest bei mir nicht) --> jeder der beiden DVIs (an meiner karte) kann als primary bzw. secondary konfiguriert werden.

der DVI-DSub-adapter kann eigentlich mit freezes nichts zu tun haben, da die analogen "leitungen" am DVI ja vorhanden sind und nur in andere form gebracht respektive durchgeschleift werden. es wird also nicht wirklich irgendetwas gewandelt, ausser dass du deinem TFT auf analogem wege, höhere BWFs abverlangst, als die elektronik kompensieren kann (-> switch to 60Hz fix).

nochwas: ich check das grad gegen: ein standard-mpeg lastet mit dem mediaplayer classic während der wiedergabe, die CPU zw. 8 und 14% aus (http://people.freenet.de/Home_of_the_pro_bios/PICTURES/mpeglast.jpg) . :rolleyes:
--> A64 2.5GHz / 1GB RAM / 68GT

es war in der vergangenheit bei NV nie so konfus, wie seit der GF6 ein overlay oder video dem eigenen anspruch anzupassen --> thx 2 SLI :P

(..)

mfg
tobi

Razor
2005-07-02, 12:14:24
Von AA war bei Riddick und 2++ nie die Rede, gehört nicht zu den max settings bei riddick, AF macht das game selbst.Öhm...
Wärst Du dann vielleicht mal so nett, das Ganze mit im CP geforceten 4xAA und zumindest 8xAF zu benchen?

[edit]
OK, zumindest 4xAA hast Du ja nachgereicht...
...allerdings gehen 29fpsAvg ja nun gar nicht.

[edit2]
Waren die 1280'er Zahlen etwa auch ohne AA?
Hmmm...

Und was die kleinen Unterschiede bei fraps und den game eigenen Ergebnissen angeht, hättest auch selber draufkommen können. Fraps wird mit der Hand gemessen und ausgelöst und bis man den button drückt usw können 1 oder 2sec vergehen. Aber ob es jetzt 29fps oder 30fps Minimum sind ist doch sowas von egal. Im Zeifelsfall wegen dem AVG Wert einfach dem game "glauben".Also ich denke eher, dass Fraps hier mal wieder seine "Stärken" zeigt...

Warum benutzt Du eigentlich nicht die InGame-Benchfunktion?
Dürfte um einiges präziser sein und liefert Dir zudem die "individual frames"...
Nur so eine Idee.

Dir waren ja die Minimum Werte so wichtig, und jetzt hast die Antwort, die 30fps werden nicht mal unterschrittenOhne AA... na klasse.
Und wie gesagt, leg Fraps hier einfach mal in die Ecke.

Und warum die Werte generell höher sind, sollte auch klar sein, weil die Karten jetzt overclocked waren, vorher nicht.Und wieder ein Beispiel für die 'Konsistenz' der von genannten Werte...
...wäre 'nett', wenn Du das dann wenigstens dazu schreiben würdest.

Aber die Chance besteht ja wohl noch, mal vernünftige Werte von Dir zu erhalten.

Razor

Razor
2005-07-02, 12:24:16
@Tobi

Auf Dich ist verlaß!
:up::up:

Razor

tombman
2005-07-02, 12:30:38
Und wieder ein Beispiel für die 'Konsistenz' der von genannten Werte...
...wäre 'nett', wenn Du das dann wenigstens dazu schreiben würdest.

Aber die Chance besteht ja wohl noch, mal vernünftige Werte von Dir zu erhalten.

Razor

Ich hab es dazugeschrieben, got lesen? Oder glaubst @ 480/1370 sind die normalen 7800 GTX Taktraten? ;D

Und heul ned wegen AA rum, wenn du AA dazuerfindest kann i nix dafür. "Maximale Settings" heißen bei Riddick eben OHNE AA, da Riddick ingame kein AA kennt.

Btw, 1280x1024 kannst dafür locker auch mit 2++ UND 4xAA spielen, ein absolutes Ding der Unmöglichkeit für andere Karten...

sth
2005-07-02, 12:38:18
Flimmrige Texturen und Bugwellen wohin das Auge schaut.
Frage: Hast du unter Half-Life auch manuell (über die Console) auf trilinieare Filterung gestellt? HL1 verwendet nämlich per default nur bilinear.
gl_texturemode GL_LINEAR_MIPMAP_LINEAR (mit GL-Renderer)

Dunkeltier
2005-07-02, 12:42:37
Frage: Hast du unter Half-Life auch manuell (über die Console) auf trilinieare Filterung gestellt? HL1 verwendet nämlich per default nur bilinear.
gl_texturemode GL_LINEAR_MIPMAP_LINEAR (mit GL-Renderer)


Gleich mal ausprobieren geht. :)

Dunkeltier
2005-07-02, 12:44:36
Frage: Hast du unter Half-Life auch manuell (über die Console) auf trilinieare Filterung gestellt? HL1 verwendet nämlich per default nur bilinear.
gl_texturemode GL_LINEAR_MIPMAP_LINEAR (mit GL-Renderer)


Ändert nichts an der Tatsache...

Razor
2005-07-02, 12:48:13
Sag mal, tombman, sprechen wir eigentlich noch immer von Deinem Fazit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3200288#post3200288)?

Vorläufiges persönliches Fazit:

Die 6800ultras in SLI haben die Auflösung 1600x1200 in maximalen Details erstmals spielbar gemacht, davor war die praktisch Tabu bei neuen games. Die fps waren in diesem Monstereinstellungen so im Bereich 25fps bis 40fps bei den neuesten Blöckbustern, dh man konnte so spielen und auch schön benchmarken, aber eigentlich wollte man ja 60fps und mehr haben ;)

Und genau da kommen die 7800GTX SLI ins Spiel: sie schaffen es auch die allerneuesten games inkl. HDR und fettes AA in 60fps und mehr zu präsentieren und befriedigen damit auch die ärgsten fps freaks, es gibt keine Tabus mehr :cool:

Man könnte einwenden, daß die neuen Konsolen ja noch stärker sein werden als die 7800GTX, ja, das werden sie auch, aber eben nicht stärker als ZWEI 7800GTX @ SLI, was übrigens auch Jens Neuschäfer von Nvidia bei Giga bestätigt hat. Nichts ist schneller als 7800GTX @ SLI, auch nicht die neuen Konsolen :)Scheint ja irgendwie nicht so...

Ich hab es dazugeschrieben...Jup... habe ich wohl überlesen.
Sorry, kommt vor.

Und heul ned wegen AA rum, wenn du AA dazuerfindest kann i nix dafür. "Maximale Settings" heißen bei Riddick eben OHNE AA, da Riddick ingame kein AA kennt.Von "dazuerfinden" kann hier keine Rede sein...
Offenbar bist Du derjenige, der sich an seine eigenen Wort nicht mehr erinnert, oder?
(siehe hervorgehobenen Teil im Zitat Deines initialen Posts, auf den ich reagierte ;-)

Btw, 1280x1024 kannst dafür locker auch mit 2++ UND 4xAA spielen, ein absolutes Ding der Unmöglichkeit für andere Karten...Zeig' mir da doch mal bitte das Result-File eines InGame-Benches... bitte!

"Sodini02" sollte sich hierfür ganz gut eignen...
Gerne auch etwas anderes, aber es sollte für andere nachvollziehbar sein und eben die GraKa ordentlich beanspruchen.

Razor

tombman
2005-07-02, 12:59:44
Sag mal, tombman, sprechen wir eigentlich noch immer von Deinem Fazit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3200288#post3200288)?

Scheint ja irgendwie nicht so...


Razor

doch, scheint genauso, denn von 2++ war keine Rede im FAZIT, oder?

[/razor I-Tüpfelchen mode]

btw, die Sache is gegessen hier für mich, denn ich habe zu genüge bewiesen, daß 7800GTX SLI neue Dimensionen erschließt in dem ganzen thread, und wer das ned sehen WILL und lieber Korrintenkacken betreiben will, kann mir egal sein- interessiert mich nimmer.

robbitop
2005-07-02, 13:16:08
Ei! Es lag am Media Player Classic, der die MPEGs abgespielt hat.
Mit dem aktuellen MediaPlayer habe ich 5% CPU Last bei MPEG und bei DivX nur 14%. Es funktioniert also doch. Danke :up:

Ralf02
2005-07-02, 13:51:34
Hi Jungs,

Ich schließe mich mal eurem Problem mit der ASUS an.

Siehe auch meinen Threat bei computerbase:

http://www.computerbase.de/forum/showthread.php?t=139833

Auszüge:

"Wenn ich ca. 485-490 Mhz. einstelle, dann ziegt mir die Überwachung vom Rivatuner über 520 Mhz. an ! Wäre ja gut wenn die Karte das schaffen würde (glaube aber eher wohl nicht). Bildfehler treten noch keine auf (mit 3DMark05 getestet; ist glaube ich auch am besten dafür geeignet).

Andererseits wird die Taktrate von 275 Mhz. im 2D-Betrieb korrekt angezeigt."

"Wenn ich den 3DMark05 starte, dann taktet sie sich automatisch hoch auf 468 Mhz. Nach beenden des Benchmarks geht sie zuerst auf 450 Mhz. und dann auf ihre 275 Mhz. für den 2D-Betrieb. Screenshots habe ich davon angehängt.

"Sollte dies stimmen, dann addiert sich diese werksseitige, automatische Übertaktung zu der manuellen hinzu, und sie müsste dann über 520 Mhz. mit dem orig. Kühler ohne Bildfehler laufen."

(del676)
2005-07-02, 14:00:24
Hi Jungs,
Ich schließe mich mal eurem Problem mit der ASUS an.


problem? welche probleme gibt es mit der asus karte?

Ralf02
2005-07-02, 14:10:01
Das ASUS mit 470Mhz. geworben hat, aber noch nicht sicher ist, welche Taktrate sie in 3D hat.
430 Mhz. wie in allen Tools angezeigt oder 470 Mhz. mit Rviatuner während 3D-Anwendung aufgezeichnet.

Coda
2005-07-02, 14:11:05
Ändert nichts an der Tatsache...Hä? Natürlich ändert das was an der Tatsache, denn ohne Trilineare Filterung sieht man natürlich Banding auf jeder Karte.

Dunkeltier
2005-07-02, 14:15:07
problem? welche probleme gibt es mit der asus karte?


Das ich sie als eine Karte mit 470 Mhz Coretakt kaufte, diese aber nun nur 430 Mhz aufweist und die Angaben entsprechend nach unten korrigiert wurden. Und das, obwohl zuerst Karten mit 470 Mhz Coretakt ausgeliefert wurden. Eventuell werde ich meine wieder Retour gehen lassen. Denn so hätte ich auch eine billigere Karte mit mehr Takt haben können. Ist genauso als ob VW den neuen Golf mit 230km/h Spitze bewirbt, dieser bei der Auslieferung aber nur 200km/h fährt und gleichzeitig alle Specs runtergesetzt werden.

So habe ich das Produkt jedenfalls nicht erworben, das ist schlichtweg Betrug.

Dunkeltier
2005-07-02, 14:16:11
Hä? Natürlich ändert das was an der Tatsache, denn ohne Trilineare Filterung sieht man natürlich Banding auf jeder Karte.


Es wird ja gefiltert, zumindest der Boden sieht an entsprechenden Stellen korrekt aus. Ich würde rotzfrech behaupten, hier liegt ein starkes Problem mit der Winkelabhängigkeit vor.

(del676)
2005-07-02, 14:17:17
pfff das is mir sowas von wayne X-D (ob 430 oder 470)

Coda
2005-07-02, 14:19:14
Es wird ja gefiltert, zumindest der Boden sieht an entsprechenden Stellen korrekt aus. Ich würde rotzfrech behaupten, hier liegt ein starkes Problem mit der Winkelabhängigkeit vor.AF verschiebt die Bandings bei non-trilinear nach hinten.

Das Bild wie es aussieht ist von daher völlig korrekt - ich würde vorschlagen du stellst einfach mal GL_LINEAR_MIPMAP_LINEAR ein.

Dunkeltier
2005-07-02, 14:21:06
AF verschiebt die Bandings bei non-trilinear nach hinten.


Und nun rate mal, was das schlechteste, denkbare AF aufgrund eines ungünstiges Winkels ist? Genau...


Das Bild wie es aussieht ist von daher völlig korrekt - ich würde vorschlagen du stellst einfach mal GL_LINEAR_MIPMAP_LINEAR ein.


Das ist an, ich kann dir gerne den Screenshot bzw. Auszug aus der Konsole abfotografieren. :|

Coda
2005-07-02, 14:28:07
Das ist an, ich kann dir gerne den Screenshot bzw. Auszug aus der Konsole abfotografieren. Das ist dann wirklich seltsam. Siehtst du einen Unterschied, wenn du auf GL_LINEAR_MIPMAP_NEAREST stellst?

Ralf02
2005-07-02, 14:29:19
Das ich sie als eine Karte mit 470 Mhz Coretakt kaufte, diese aber nun nur 430 Mhz aufweist und die Angaben entsprechend nach unten korrigiert wurden. Und das, obwohl zuerst Karten mit 470 Mhz Coretakt ausgeliefert wurden. Eventuell werde ich meine wieder Retour gehen lassen. Denn so hätte ich auch eine billigere Karte mit mehr Takt haben können. Ist genauso als ob VW den neuen Golf mit 230km/h Spitze bewirbt, dieser bei der Auslieferung aber nur 200km/h fährt und gleichzeitig alle Specs runtergesetzt werden.

So habe ich das Produkt jedenfalls nicht erworben, das ist schlichtweg Betrug.


Hast Du schonmal den Rivatuner aufzeichnen lassen (während einer 3D) ?

Meine taktet sich hoch auf 468 Mhz. Das ist mir auch erst später aufgefallen, denn als ich OC auf 380 Mhz. über Coolbits, zeigt mir Rivatuner 520 Mhz an !

Sep.pel
2005-07-02, 14:40:33
480

thade
2005-07-02, 14:47:45
endlich ist meine GTX gekommen. Werd mal gleich testen ;)

Hellfire-Torrod
2005-07-02, 14:50:00
endlich ist meine GTX gekommen. Werd mal gleich testen ;)

Bilder, Bilder.

Welcher hersteller usw ?

thade
2005-07-02, 15:00:05
Mensch glaub ihr den Niemanden. Is ja fast das selbe wie bei HWluxx :rolleyes:


http://img299.imageshack.us/img299/6266/bild0067jc.th.jpg (http://img299.imageshack.us/my.php?image=bild0067jc.jpg)


http://img299.imageshack.us/img299/2545/bild0102ch.th.jpg (http://img299.imageshack.us/my.php?image=bild0102ch.jpg)

Hellfire-Torrod
2005-07-02, 15:04:42
Mensch glaub ihr den Niemanden. Is ja fast das selbe wie bei HWluxx :rolleyes:


Es geht mir nicht ums glauben (das tu ich so oder so nicht ;)), sondern ums "schöne bilder gucken" :tongue:

Dunkeltier
2005-07-02, 15:42:00
Mensch glaub ihr den Niemanden. Is ja fast das selbe wie bei HWluxx :rolleyes:


http://img299.imageshack.us/img299/6266/bild0067jc.th.jpg (http://img299.imageshack.us/my.php?image=bild0067jc.jpg)


http://img299.imageshack.us/img299/2545/bild0102ch.th.jpg (http://img299.imageshack.us/my.php?image=bild0102ch.jpg)


Hm, hast du eine kleine Verpackung. :conf: Meine ist 25x größer. :lol:

Patient
2005-07-02, 15:46:25
Tach zusammen. Kann mir jemand sagen, welcher Hersteller die besseren 7800GTX herstellt, MSI, XFX, Gainward usw.? Anhand von Berichten oder pers. Erfahrungen? Wegen der Leistung und Lautstärke. Da ich jetzt etwas verwirrt bin wegen der Meinungen über schwankende Taktraten, in vergangenen posts. Danke euch Verrückten

thade
2005-07-02, 15:50:32
Also ich bin von der Lautstärke sehr überrascht.

Ist angenehm leise.
Kommt zwar eh morgen ne Wakü drauf, aber fetten Respekt an Nvidia für den leisen Lüfter :)

Bester Hersteller kann man so nie sagen. Eine Karte geht gut die andere weniger gut zu takten. Würde aber trotzdem ne XFX nehmen ;)

Hm, hast du eine kleine Verpackung. :conf: Meine ist 25x größer. :lol:


Ja deswegen hab ich auch Komplexe. Ich war so frustriert als ich diese kleine Schachtel sah :mad:

Patient
2005-07-02, 16:20:12
Nach absägen der Spannungswandlerkühler passt er zu 100%. Jeder NV40 Komplettkühler passt solange die Spannungswandler ab sind.

Die Wandler müssen aber nicht auf jedem Board ab, oder? Hab mir ein A8N-SLI-Del angesehen, und da sieht es nicht do aus, als ob da was stören würde. Oder hast du ein spezielles Board gemeint?

Ralf02
2005-07-02, 16:38:13
Tach zusammen. Kann mir jemand sagen, welcher Hersteller die besseren 7800GTX herstellt, MSI, XFX, Gainward usw.? Anhand von Berichten oder pers. Erfahrungen? Wegen der Leistung und Lautstärke. Da ich jetzt etwas verwirrt bin wegen der Meinungen über schwankende Taktraten, in vergangenen posts. Danke euch Verrückten


Im Moment ist es völlig egal welchen Hersteller Du nimmst. Der Unteschied besteht eigentlich nur im Lieferumgang (T-Shirt, Games, Kabel,...). Alle Hersteller verwenden das Referenzdesign.

Die ASUS taktet sich jedenfalls auf 470 Mhz. in 3D automatisch hoch.
Leadtek bietet schon ein Bios an um 450 Mhz. zu ermöglichen.

Laut Rivatuner läuft meine ASUS bei 520/1300 Mhz. noch völlig stabil und ohne Bildfehler.

Ansonsten lassen sich alle Karten sehr hoch OCen.

thade
2005-07-02, 16:47:29
Die Wandler müssen aber nicht auf jedem Board ab, oder? Hab mir ein A8N-SLI-Del angesehen, und da sieht es nicht do aus, als ob da was stören würde. Oder hast du ein spezielles Board gemeint?


Du verstehst was falsch. Wenn du einen NV40 Wakü Komplettkühler hast, dann musst du die Spannungswandlerkühler absägen, damit er passt.

Mit dem Asus A8N hast das nix zu tun, die Karte passt auf jeden Fall ;)

Patient
2005-07-02, 16:59:38
Haah... klarr jetzt seh ichs auch. Den Kühler am NV40 weil sonst der Passivkühlkörper der VGA stört. Naja...http://www.forum-3dcenter.org/vbulletin/images/icons/icon10.gif
Talking

thade
2005-07-02, 17:15:06
so mir scheint es als ob ich nen üblen Bug habe.
Bei "Optimaler Takt" im Treiber Menü zeigt er mir 450/1250 an, also den Standard Takt :mad:

Die Karte läuft aber zZ mit 470/1300 ohne Probs. Man ich hatte gleich nen Schock bekommen :eek: , dachte ich hätte die schlechteste aller 7800er bekommen ;)

Weiter trau ich mich net, mit Wakü dann gehts weiter. Ziel ist 500/1340-1400 :D

Glaub zwar net das ich 1400 pack, aber 500Core sollten schon drin sein

A.Wesker
2005-07-02, 17:21:12
so mir scheint es als ob ich nen üblen Bug habe.
Bei "Optimaler Takt" im Treiber Menü zeigt er mir 450/1250 an, also den Standard Takt :mad:

Die Karte läuft aber zZ mit 470/1300 ohne Probs. Man ich hatte gleich nen Schock bekommen :eek: , dachte ich hätte die schlechteste aller 7800er bekommen ;)

Weiter trau ich mich net, mit Wakü dann gehts weiter. Ziel ist 500/1340-1400 :D

Glaub zwar net das ich 1400 pack, aber 500Core sollten schon drin sein

jo den gleichen bug habe ich auch ^^

Jagdpanther
2005-07-02, 17:29:49
Sagt mal Frage.

Funzt bei allen der aktuelle Rivatuner mit dem aktuellen off. FW?

Habe im Treiber auf 500/1300 gestellt. hardwaremonitoring des rivatuners zeigt mir aber 540 core an.
wenn ich auf 520 dreh steht im rivatuner 560.

was is denn nun richtig?

hat da noch einer dieses phänomen?

thade
2005-07-02, 17:37:24
Sagt mal Frage.

Funzt bei allen der aktuelle Rivatuner mit dem aktuellen off. FW?

Habe im Treiber auf 500/1300 gestellt. hardwaremonitoring des rivatuners zeigt mir aber 540 core an.
wenn ich auf 520 dreh steht im rivatuner 560.

was is denn nun richtig?

hat da noch einer dieses phänomen?

du hast ja ne Menge Mut Junge, die Karte so zu takten

Gast
2005-07-02, 18:08:26
Sagt mal Frage.

Funzt bei allen der aktuelle Rivatuner mit dem aktuellen off. FW?

Habe im Treiber auf 500/1300 gestellt. hardwaremonitoring des rivatuners zeigt mir aber 540 core an.
wenn ich auf 520 dreh steht im rivatuner 560.

was is denn nun richtig?

hat da noch einer dieses phänomen?


Liest DU eine Seite weiter vorne !! :

Ich schließe mich mal eurem Problem mit der ASUS an.

Siehe auch meinen Threat bei computerbase:

http://www.computerbase.de/forum/sh...ad.php?t=139833

Auszüge:

"Wenn ich ca. 485-490 Mhz. einstelle, dann ziegt mir die Überwachung vom Rivatuner über 520 Mhz. an ! Wäre ja gut wenn die Karte das schaffen würde (glaube aber eher wohl nicht). Bildfehler treten noch keine auf (mit 3DMark05 getestet; ist glaube ich auch am besten dafür geeignet).

Andererseits wird die Taktrate von 275 Mhz. im 2D-Betrieb korrekt angezeigt."

"Wenn ich den 3DMark05 starte, dann taktet sie sich automatisch hoch auf 468 Mhz. Nach beenden des Benchmarks geht sie zuerst auf 450 Mhz. und dann auf ihre 275 Mhz. für den 2D-Betrieb. Screenshots habe ich davon angehängt.

"Sollte dies stimmen, dann addiert sich diese werksseitige, automatische Übertaktung zu der manuellen hinzu, und sie müsste dann über 520 Mhz. mit dem orig. Kühler ohne Bildfehler laufen."

Jagdpanther
2005-07-02, 19:17:49
du hast ja ne Menge Mut Junge, die Karte so zu takten

also hab sie wenn rivatuner funzt standardmässig 540 core. und das ohne probleme.


lol. :biggrin:

laut everest hab ich 540 core.

thade
2005-07-02, 19:41:44
und das nur mit Lukü????

Jagdpanther
2005-07-02, 19:47:09
und das nur mit Lukü????

jop.
mit dem standardkühler.

Ralf02
2005-07-02, 20:09:59
Also ehrlich gesagt kommen mir diese Taktangaben vom Rivatuner komisch vor. Ich glaube eher, dass er sie falsch ausliest. Erst kommende Versionen werden Klarheit schaffen.

hq-hq
2005-07-03, 00:04:37
weiss nachat imma noch keina warum das so merkwürdig ist mit dem
"übertaktungsverhalten" ? und diese unterschiedlichen pipes und geometry takte ?

Dunkeltier
2005-07-03, 00:27:50
Kann mir eigentlich jemand mal sagen, wieso ich eine Stelle -einen Krater- in der GPU habe, welchen ich nicht wegbekomme? GPU dort kaputt?

http://img133.imageshack.us/img133/756/zwischenablage019pe.jpg

Hier übrigens noch eine Impression kurz vor dem Einbau wieder mit dem Standardkühler:

http://img244.imageshack.us/img244/1658/einbau0ow.jpg

hq-hq
2005-07-03, 00:48:42
wahrscheinlich hat der "einschlag" nur einen bereich zerstört der redundant war ;)
bestimmt nur ein paar überflüssige pipes hehehe ;D

sieht aber echt merkwürdig aus :|

thade
2005-07-03, 04:44:19
also mein Kern ist noch ganz :)

http://img274.imageshack.us/img274/9158/bild0128pl.th.jpg (http://img274.imageshack.us/my.php?image=bild0128pl.jpg)

Dunkeltier
2005-07-03, 05:32:26
also mein Kern ist noch ganz :)

http://img274.imageshack.us/img274/9158/bild0128pl.jpg



*MÖÖÖÖÖÖÖÖÖÖÖÖÖÖÖÖP*

Du hast auch einen Krater! ahahahahaha! :P ;D Links, direkt neben dem nVidia, und sogar noch größer.

thade
2005-07-03, 06:02:41
*MÖÖÖÖÖÖÖÖÖÖÖÖÖÖÖÖP*

Du hast auch einen Krater! ahahahahaha! :P ;D Links, direkt neben dem nVidia, und sogar noch größer.


ich seh nix. Das ist doch nur WLP :)

Dunkeltier
2005-07-03, 06:09:50
ich seh nix. Das ist doch nur WLP :)

Dein Fleck ist da noch größer.

Razor
2005-07-03, 10:41:16
doch, scheint genauso, denn von 2++ war keine Rede im FAZIT, oder?In Deinem 'Fazit' war auch von folgendem die Rede:
"...1600x1200 in maximalen Details..."
"...allerneuesten games inkl. HDR und fettes AA in 60fps und mehr..."
"...es gibt keine Tabus mehr".
Und das ist schlicht falsch.

War aber klar, dass Du Dich ggf. nicht einmal an Deine eigenen Worte erinnern würdest...
(obwohl ich diese extra für Dich nochmal zitierte)

Razor

Razor
2005-07-03, 10:54:45
@falsche Taktangaben

Leute... wieso 'vertraut' Ihr nicht einfach der Anzeige im Control-Panel?
:confused:

Es ist ziemlich wahrscheinlich, dass von den externen Tools bestimmte Register falsch Interpretiert werden... warum sollten diese auch über Generationen von hardware identisch bleiben?

Wartet hier einfach auf eine Stellungnahme von nVidia und/oder den Tool-Entwicklern und schon ist die Sache geklärt. Bei ASUS vermute ich einfach, dass sie selbst auf dieses Fehlverhalten externer Tools 'hereingefallen' sind (sie benutzen ja eigene Tools für so etwas), um flugs damit auch noch zu werben...

Wie dem auch sei, der Standard-Core-Takt ist 430MHz und es gibt wohl werksseitige Übertaktungen der GPU mit 450MHz (nebst evtl. leicht OC'tem Speicher).

That's it!

Razor

P.S.: Da die ASUS nicht teurer war, als andere Hersteller, sollten sich betroffene Kunden auch nicht wirklich ärgern... und wenn doch, dann gibt's ja das FAG, oder? Genau für solcherart Zwecke eben...

(del676)
2005-07-03, 11:20:13
"...1600x1200 in maximalen Details..."
"...allerneuesten games inkl. HDR und fettes AA in 60fps und mehr..."
"...es gibt keine Tabus mehr".
1. nur wenn man AA/AF weglässt, wenn man nur angeben will macht man sowas wahrscheinlich, wenn man damit ernsthaft spielen will sicher nicht :rolleyes:
2. achso? also HDR und AA? welches game denn bitteschön?
3. falsch

mfg ein 7800gtx sli besitzer

Quasar
2005-07-03, 11:29:34
P.S.: Da die ASUS nicht teurer war, als andere Hersteller, sollten sich betroffene Kunden auch nicht wirklich ärgern... und wenn doch, dann gibt's ja das FAG, oder? Genau für solcherart Zwecke eben...
Das FAG ist dafür nicht da. Hier greift die normale Produkt"haftung" - oder wie das genau heisst, wenn eine zugesicherte Eigenschaft fehlt. Denn in diesem Falle ist es egal, ob per FA oder direkt im Einzelhandel erworben.

Ich hoffe stark für Asus, daß die das nicht zu teuer kommt, evtl. alle im Umlauf befindlichen Karten kostenlos tauschen zu müssen.
Ärgern könnt' ich mich - hätte einfach so ein Dingenskirchen bestellen, anderthalb Jahre zocken und dann zurückgeben, denn hier ist offensichtlich, daß der Mangel von vornherein bestand. *fg*

1. nur wenn man AA/AF weglässt, wenn man nur angeben will macht man sowas wahrscheinlich, wenn man damit ernsthaft spielen will sicher nicht :rolleyes:
2. achso? also HDR und AA? welches game denn bitteschön?
3. falsch

mfg ein 7800gtx sli besitzer
Wie kannst du es wagen, den Hardware-Gott zu kritisieren!!! ;) X-D

sth
2005-07-03, 12:20:48
Wie dem auch sei, der Standard-Core-Takt ist 430MHz und es gibt wohl werksseitige Übertaktungen der GPU mit 450MHz (nebst evtl. leicht OC'tem Speicher).
Naja, also als OCd würde ich die 625mhz Speichertakt nicht unbedingt bezeichnen, denn der verbaute Speicher auf den Karten ist meines Wissens auf genau diese 625mhz spezifiziert.

tombman
2005-07-03, 12:21:59
In Deinem 'Fazit' war auch von folgendem die Rede:
1.) "...1600x1200 in maximalen Details..."
2.) "...allerneuesten games inkl. HDR und fettes AA in 60fps und mehr..."
3.) "...es gibt keine Tabus mehr".
Und das ist schlicht falsch.

War aber klar, dass Du Dich ggf. nicht einmal an Deine eigenen Worte erinnern würdest...
(obwohl ich diese extra für Dich nochmal zitierte)

Razor

1.) es gibt immer EIN oder ZWEI games, die die AUSNAHME sind -> deswegen bestätigen sie immer noch die REGEL.
Ansonsten kann man keine abschließenden Meinungen schreiben, weil es immer irgendeine Situation gibt, wo irgendwas ned geht usw.. aber darauf kommt es ned an. Generell gesehen STIMMT MEIN Fazit: die 7800gtx SLi ermöglicht 1600x1200 auf maximalen Details flüssig zu spielen.
Und sogar für Riddick stimmt der Satz immer noch, denn AA ist NICHT Bestandteil von maximalen settings in diesem game ;)

2.) stimmt auch. Das geniale an dem Satz ist, daß derzeit HDR und AA ja nicht zusammen laufen, deshalb stimmt er ja auch ;) HDR geht flüssig bei 1600x1200 in far cry als auch in splinter cell 3, genauso AA ohne HDR ;)

3.) stimmt ebenfalls, denn mit 1600x1200 ist die letzte Grenze gefallen-> keine Tabus mehr.

tombman
2005-07-03, 12:25:42
1. nur wenn man AA/AF weglässt, wenn man nur angeben will macht man sowas wahrscheinlich, wenn man damit ernsthaft spielen will sicher nicht :rolleyes:
2. achso? also HDR und AA? welches game denn bitteschön?
3. falsch

mfg ein 7800gtx sli besitzer

1.) bei riddick lasse ICH sicher AA weg, wenn ich dafür 2++ bekommen kann ;)
Also nix mit Angeben.
2.) "HDR und AA" nicht zwangsläufig im SELBEN game. Meine Aussage war eher allgemein gehalten...

3.) für normale settings nicht falsch. Klar, 16xAA + HDR + soft shadows+ TSAA+ 1600x1200 wirds ned spielen in 60fps bei zb Unreal engine 3, aber das ist ja auch kein "normales" Tabu, sondern das is Wahnsinn ;)

Quasar
2005-07-03, 12:29:12
Naja, also als OCd würde ich die 625mhz Speichertakt nicht unbedingt bezeichnen, denn der verbaute Speicher auf den Karten ist meines Wissens auf genau diese 625mhz spezifiziert.
Es stehen zwar 1,6ns auf den RAM-Bausteinen, die Datenblätter sagen allerdings 1,666666666666666666666666666ns, womit man wieder bei glatten 600 MHz angelangt ist.

tombman
2005-07-03, 12:31:04
es stehens zwar 1,6ns au den RAM-bausteinen, die Datenblätter sagen allerdings 1,666666666666666666666666666ns, womit man wieder bei glatten 600 ist.

Ist doch sowieso egal, denn es kommt auch auf das pcb/kartendesign an wie gut sich Speicher ocen läßt.

6800ultra hat auch 1.6ns Speicher, genau wie die 7800gtx, und trotzdem rennt er auf der 7800gtx viel höher. Ich kann locker 1380 fahren, mach das mal mit default Kühlung auf einer 6800ulra ;)

MSABK
2005-07-03, 12:42:21
6800ultra hat auch 1.6ns Speicher, genau wie die 7800gtx, und trotzdem rennt er auf der 7800gtx viel höher. Ich kann locker 1380 fahren, mach das mal mit default Kühlung auf einer 6800ulra ;)


Ist die Qualität der Speicher beim Geforce 7800GTX besser als bei der Geforce 6800 Ultra?

Quasar
2005-07-03, 12:45:24
Ist doch sowieso egal, denn es kommt auch auf das pcb/kartendesign an wie gut sich Speicher ocen läßt.
Darum ging's aber gar nicht, sondern darum, ob der Speicher bei 625MHz bereits OC'ed ist. :rolleyes:

sth
2005-07-03, 13:21:44
Ist ja auch nicht so schlimm, solange Leadtek und XFX Garantie darauf geben.

dargo
2005-07-03, 14:18:16
Ist die Qualität der Speicher beim Geforce 7800GTX besser als bei der Geforce 6800 Ultra?
Kann es sein, daß der Speicher bei der G7800GTX mit etwas mehr Vdimm läuft ?

(del676)
2005-07-03, 15:54:01
1.) bei riddick lasse ICH sicher AA weg, wenn ich dafür 2++ bekommen kann ;)
Also nix mit Angeben.
2.) "HDR und AA" nicht zwangsläufig im SELBEN game. Meine Aussage war eher allgemein gehalten...

3.) für normale settings nicht falsch. Klar, 16xAA + HDR + soft shadows+ TSAA+ 1600x1200 wirds ned spielen in 60fps bei zb Unreal engine 3, aber das ist ja auch kein "normales" Tabu, sondern das is Wahnsinn ;)

1. du gibst an und sonst garnix, ICH kann nicht ohne AA spielen, aber gut, anscheinend hast du keine qualitätsansprüche

2. blah blubb? rausreden angesagt?

3. siehe 2.

4. ausser vorher grosse angeberei und nachher rausreden nix von dir gehört? -> auch im 3dcenter auf ignoreliste gesetzt.

hq-hq
2005-07-03, 17:01:42
also asus könnte sich durch ihre auslese tools selbstverwirrt haben
und fälschlicherweise mit 470mhz geworben haben...

aber wie gibts nachat noch diese unterschiedlichen "coreclocks"
auf die mit ** hingewiesen wird ?
-> **Shader Clock 430 MHz/Rop Clock:430MHz/Geometry Clock:470MHz

interne asynchrone taktraten ?
oder hammses schonwieder falsch ausgelesen ?

tombman
2005-07-03, 17:48:38
1. du gibst an und sonst garnix, ICH kann nicht ohne AA spielen, aber gut, anscheinend hast du keine qualitätsansprüche

Anschuldigungen ohne Argumente entfernt

Und ICH kann nicht ohne maximale Details spielen, da ist AA nicht so wichtig, wenn ich bei Riddick dafür 2++ abschalten muß. Aber das sind eben meine Qualitätsansprüche.

Razor
2005-07-03, 18:12:36
@tombman

Laß es einfach...
Tut es wirklich so weh, mal zuzugeben, dass man einfach heftigst übertrieben hat?
Oder versuchst Du nur Deine 'Investition' zu rechtfertigen.

"Glauben" werde ich Dir ganz sicher nicht, denn Dein Verhalten rechtfertigt dies einfach nicht.

Razor

Sep.pel
2005-07-03, 18:15:52
könnt ihr hier nicht mal aufhören euch gegenseitig fertig zu machen?

solangsam nervt es

A.Wesker
2005-07-03, 18:26:16
also asus könnte sich durch ihre auslese tools selbstverwirrt haben
und fälschlicherweise mit 470mhz geworben haben...

aber wie gibts nachat noch diese unterschiedlichen "coreclocks"
auf die mit ** hingewiesen wird ?
-> **Shader Clock 430 MHz/Rop Clock:430MHz/Geometry Clock:470MHz

interne asynchrone taktraten ?
oder hammses schonwieder falsch ausgelesen ?
die ersten karten hatte definitiv 470 MHz coretakt.

Das Auge
2005-07-03, 18:31:29
Hier gehts doch schon lange nicht mehr um das Spiel als solches, sondern nur noch darum wer das Spiel am tollsten pimpen kann. Einfach krank. Ich versteh auch nicht ganz, warum Tombman sich seit nem halben Jahr an Riddick mit 2++ aufgeilt, wenn er das Spiel wirklich _spielen_ würde, wäre das nämlich reine Nebensache, Spaß macht es nämlich auch mit 2.0-Shadern. Außerdem muß er in der Zeit Riddick ja min. 100x durchgezockt haben, da er es ja ständig als Präzedenzfall anführt und anscheinend keinen anderen Grund für SLI bzw. 7800GTX kennt.
Naja, macht ihr mal weiter so, höchst unterhaltsam das ganze :popcorn:

tombman
2005-07-03, 19:24:29
@tombman

Laß es einfach...
Tut es wirklich so weh, mal zuzugeben, dass man einfach heftigst übertrieben hat?
Oder versuchst Du nur Deine 'Investition' zu rechtfertigen.

"Glauben" werde ich Dir ganz sicher nicht, denn Dein Verhalten rechtfertigt dies einfach nicht.

Razor

Laß du es doch einfach, denn ich hab Recht.

Und es geht mir nicht darum dich zu überzeugen, denn das is eh sinnlos. Für dich ist doch der ganze Weinberg faul, wenn du nur eine faule Traube findest, nur um deinen Nichtbesitz zu rechtfertigen.
Da die meisten ebenfalls zu der Gruppe der Nichtbesitzer zählen wirst du auch mehr Anhänger finden in deiner "Argumentation".

Dagegen "anzugehen" hat mich aber noch nie gestört :)

Razor
2005-07-03, 19:25:30
...denn ich hab Recht.<ohne Kommentar>

...mehr Anhänger finden...Darum geht es Dir also?
Das ist arm...

Razor

Doomi
2005-07-03, 19:45:34
.. ihr seid doch alle blöd.. :)

rokko
2005-07-03, 19:50:47
kann mir leider so ein tolles SLI-Gespann net ganz leisten
(Kinder verbrauchen einfach zu viel im Monat)

finde es trotzdem ganz gut das Tombmann mal seine Tests dazu hier reingestellt hatt
jeder hatt halt seine Vorlieben

Dunkeltier
2005-07-03, 19:51:05
.. ihr seid doch alle blöd.. :)



Gesundheit. Ich finde die ganze Diskussion um Penisverlängerungen auch nonsens, können wir uns nicht lieber auf die Technik konzentrieren?

Razor
2005-07-03, 19:53:36
...können wir uns nicht lieber auf die Technik konzentrieren?Jaaaaaa bitte!
Und dabei auf solchen Nonsens wie "keine Tabus mehr!" verzichten...

Razor

Gast
2005-07-03, 19:56:49
Jaaaaaa bitte!
Und dabei auf solchen Nonsens wie "keine Tabus mehr!" verzichten...

Razor
och komm Razor du bist doch nur neidisch weil du dir den neusten Traum deiner Lieblingsfirma nicht leisten kannst

Razor
2005-07-03, 20:02:06
och komm Razor du bist doch nur neidisch weil du dir den neusten Traum deiner Lieblingsfirma nicht leisten kannstJaaaaaaa genauuuuuu !!!!!11111einseins
Du hast mich tatsächlich durchschaut...
*schnüff*

Oh mann...

Razor

deLuxX`
2005-07-03, 20:07:31
och komm Razor du bist doch nur neidisch weil du dir den neusten Traum deiner Lieblingsfirma nicht leisten kannst

Sry aber.....gehts noch kindischer? Könnte man mal wieder auf das Thema zurückkommen?

-deLuxX`

thade
2005-07-03, 20:13:30
Hat wer nen G70 mit Wakü???

Hab ja von Problemen gehört, die Karte soll Pipes abschalten oder throtteln bei abstecken des Lüfters bwz zu niedriger Temp :mad:

vinacis_vivids
2005-07-03, 20:17:22
kann jemand mal die 7800GTX @16pipes und 6800 Ultra takten testen. Dann würde man genau sehen was die Technik allein bringt oder die Leistungsverbesserung eher auf brachiale Rohleistungserhöhung aufgebaut ist.

Kladderadatsch
2005-07-03, 20:22:50
kann jemand mal die 7800GTX @16pipes und 6800 Ultra takten testen. Dann würde man genau sehen was die Technik allein bringt oder die Leistungsverbesserung eher auf brachiale Rohleistungserhöhung aufgebaut ist.
in den aktuellen news steht, dass "nur" 50% des leistungsplus den pipelines zu verdanken ist. der rest resultiert aus "internen" veränderungen.
interne veränderungen?

Hellfire-Torrod
2005-07-03, 20:27:04
interne veränderungen?

Optimirung der Pipelines usw.

mapel110
2005-07-03, 20:28:28
kann jemand mal die 7800GTX @16pipes und 6800 Ultra takten testen. Dann würde man genau sehen was die Technik allein bringt oder die Leistungsverbesserung eher auf brachiale Rohleistungserhöhung aufgebaut ist.
http://www.digit-life.com/articles2/video/g70-part3.html

vinacis_vivids
2005-07-03, 20:53:10
http://www.digit-life.com/articles2/video/g70-part3.html


Danke. Ich sehe die Verbesserungen sind dürftig bis naja ganz ok. Ein grund mehr auf die ATI-fraktion zu warten.

tombman
2005-07-03, 21:11:19
Danke. Ich sehe die Verbesserungen sind dürftig bis naja ganz ok. Ein grund mehr auf die ATI-fraktion zu warten.

bin auch schon auf den ersten sm 3.0 chip von ATI gespannt, aber ich wette er wird ziemlich schnell ;)

thade
2005-07-03, 21:42:18
bin auch schon auf den ersten sm 3.0 chip von ATI gespannt, aber ich wette er wird ziemlich schnell ;)

beim dem ganzen Hype wird er sicher ein Flop ;)

Sep.pel
2005-07-03, 21:53:46
ich hab meine 7800gtx @ wakü und da funzt alles super

thade
2005-07-03, 22:22:13
welche Karte haste denn??

Hast du den Inno Kühler???

Strolchi
2005-07-03, 22:23:25
Laß du es doch einfach, denn ich hab Recht.

Und es geht mir nicht darum dich zu überzeugen, denn das is eh sinnlos. Für dich ist doch der ganze Weinberg faul, wenn du nur eine faule Traube findest, nur um deinen Nichtbesitz zu rechtfertigen.
Da die meisten ebenfalls zu der Gruppe der Nichtbesitzer zählen wirst du auch mehr Anhänger finden in deiner "Argumentation".

Dagegen "anzugehen" hat mich aber noch nie gestört :)

Naja ich gehöre zu den Besitzern.....Du hast Übertrieben.

Grüsse Strolchi

Ralf02
2005-07-04, 00:18:03
Also meine ASUS läuft auch ohne Probleme mit 480/1370 Mhz. (Rivatuner protokolliert 520/1370)

Sep.pel
2005-07-04, 01:15:56
ich habe eine gigabyte und einfach ein waküler der 6800 genommen( kein komplettkühler, warum auch)

thade
2005-07-04, 02:05:08
werden dir die RAM net zu warm????

Wie weit kommste mit dem RAM???

r3ptil3
2005-07-04, 04:20:28
Hat jemand eine MSI 7800GTX??

Huhn
2005-07-04, 14:37:21
heute hab ich meine xfx von der post abgeholt. unter windows 64 ist die karte übertreiben laut. ka obs an windows64 liegt oder an meiner dummheit aber das ist nicht zu ertragen. jemand das gleiche problem?

mika
2005-07-04, 16:29:45
Hat jemand eine MSI 7800GTX??


ich hatte bis gestern eine hier,
drei tage zum testen,,,
nu isse bei meinem kumpel :(

r3ptil3
2005-07-04, 17:20:02
ich hatte bis gestern eine hier,
drei tage zum testen,,,
nu isse bei meinem kumpel :(

Erzähl mal wie sie so war?
Gute OC Ergebnisse?

thade
2005-07-04, 18:46:39
wo stell ich eigentlich das Triple Buffering ein??? Sollte doch seid dem Forceware 75 gehen???

Brauche unbedingt diese Einstellung. Denn das halbieren der Frames ist nicht gerade schön :mad:

doom1
2005-07-04, 18:51:01
vsyng auf "on"

thade
2005-07-04, 19:00:58
wenn ich Vsync im CPanel einstelle dann hab ich Tearing???? Also stimmt da was net. Schalte ich Vsync in Doom3 manuell dazu halbiert er mir wieder die Frames.

Also das ging bei ner ATI schon leichter =)

Hellfire-Torrod
2005-07-04, 19:39:28
Also das ging bei ner ATI schon leichter =)

ATI hat auch keine GeForce 7800GTX

thade
2005-07-04, 19:46:44
ATI hat auch keine GeForce 7800GTX

Sag bloß? Im Ernst?? ATI hat keine 7800er???

Gast
2005-07-04, 20:24:40
Mal ne frage...

Ist es jetzt mit einer Geforce 7800 GTX möglich Battlefield 2 mit 1280*1024 hohe Qualität 4*TSAA oder 8xS / 16*AF und (VSync) an zu zocken ohne das irgendwas Ruckelt ?

cu

thade
2005-07-04, 20:44:21
also ich spiele in 1280*1024 4FSAA TSSAA 16AF alle Optimierungen aus.

Es ruckelt wirklich nix. Minimale Frames sind 55FPS. Meistens hab ich so 75-90FPS.

Dunkeltier
2005-07-04, 20:45:54
Mal ne frage...

Ist es jetzt mit einer Geforce 7800 GTX möglich Battlefield 2 mit 1280*1024 hohe Qualität 4*TSAA oder 8xS / 16*AF und (VSync) an zu zocken ohne das irgendwas Ruckelt ?

cu


Mit 4xMSAA+TAA:SS sicher, aber nicht mit 8xS. Das kostet zuviel Leistung.

Kladderadatsch
2005-07-04, 20:47:31
Mit 4xMSAA+TAA:SS sicher, aber nicht mit 8xS. Das kostet zuviel Leistung.
4xxaa + 8xaf ist in dieser auflösung schon mit einer 6800u möglich...

Dunkeltier
2005-07-04, 20:58:25
4xxaa + 8xaf ist in dieser auflösung schon mit einer 6800u möglich...

Aber nicht mit VSync an, wonach gefragt war. Da brechen dir die FPS weg.

/edit: Lol, ja ne ist klar. Der NV40 ist eine Schnecke mit AA, mangels Rohleistung. Da würde ich mir das erst Recht aus dem Kopf hauen.

deLuxX`
2005-07-04, 21:24:21
Dann müsste es auch mit einer 7800GTX ruckeln. Denn Thade2001 schrieb, dass er Minimal auf 55FPS kommt. Und ich denke nicht, dass er mit 55Hz spielt.

-deLuxX`

thade
2005-07-04, 21:28:03
Dann müsste es auch mit einer 7800GTX ruckeln. Denn Thade2001 schrieb, dass er Minimal auf 55FPS kommt. Und ich denke nicht, dass er mit 55Hz spielt.

-deLuxX`

ich spiele übrigens Battlefield ohne Vsync. BF2 ist das einzige Spiel wo ich kein Tearing erkenne.

Schalte ich Vsync an komme ich durchaus unter die magische 60FPS Grenze. Dann halbiert er die Frames und 30FPS ist nicht mehr richtig flüssig :)

Kladderadatsch
2005-07-04, 21:28:27
/edit: Lol, ja ne ist klar. Der NV40 ist eine Schnecke mit AA, mangels Rohleistung. Da würde ich mir das erst Recht aus dem Kopf hauen.

im cp eingestelltes aa und af wird doch im game übernommen?!
natürlich läuft es flüssig:rolleyes:

deLuxX`
2005-07-04, 21:31:57
im cp eingestelltes aa und af wird doch im game übernommen?!
natürlich läuft es flüssig:rolleyes:

Ja wird es. Und nein es läuft mit Vsync nicht flüssig.

-deLuxX`

Kladderadatsch
2005-07-04, 21:33:16
Und nein es läuft mit Vsync nicht flüssig.

-deLuxX`
das habe ich wiederum nicht probiert noch behauptet.

ps.: nochmal zum vsync: können wir die definition "flüssig" mal auf 30 fps vereinbaren? läuft es dann 'flüssig'?

deLuxX`
2005-07-04, 21:45:22
Lies dir bitte nochmal die letzten Posts ab der Frage des Gastes durch. Hoffe dann wirds klarer.

30FPS ist für mich schon flüssig, aber nicht das ständige, abrupte Wechseln zwischen 60 und 30FPS, was ja prinzipbedingt bei Vsync mit Double Buffering vorkommt.

-deLuxX`

Kladderadatsch
2005-07-04, 21:48:03
Lies dir bitte nochmal die letzten Posts ab der Frage des Gastes durch. Hoffe dann wirds klarer.


schon klar. ich bezog mich auf "/edit: Lol, ja ne ist klar. Der NV40 ist eine Schnecke mit AA, mangels Rohleistung. Da würde ich mir das erst Recht aus dem Kopf hauen." und ging davon aus, dass dunkeltier hier jetzt auch für "vsync off" sprach.
aber was solls:)

mika
2005-07-04, 22:39:00
Erzähl mal wie sie so war?
Gute OC Ergebnisse?

gespenstisch leise auf jeden fall,,,
automatisches OC ging auf 486/1350
temps sind 47° im idle und ca 67° unter lasst,,,
hab sie manuell auf 490/1390 ,, 3dmark05 hatte ich mit 3,9GHz ca 8500 punkte,,
aquamark gin rauf bis knapp 85tausend,,,,,
macht n guten eindruck, dennoch werde ich mir eine XFX holen,
gruss

tombman
2005-07-05, 06:56:42
@sailormoon

kleines update: die maximale Breitwand SLI Auflösung >60hz ist nicht 1920x1200, sondern 2048x1280 (vielleicht geht auch noch mehr, aber da fallen mir dann keine gescheiten 16:10 Werte mehr ein, 2304x1440 >60hz geht jedenfalls ned)

Hier ein Pic :)
http://img144.imageshack.us/img144/6018/farcry20050705063552980ih.th.jpg (http://img144.imageshack.us/my.php?image=farcry20050705063552980ih.jpg)
http://img144.imageshack.us/img144/6018/farcry20050705063552980ih.jpg

doom1
2005-07-05, 10:48:39
Was haltet Ihr eigentlich von den "PixelView" Karten?

hermigua
2005-07-05, 12:22:29
Was haltet Ihr eigentlich von den "PixelView" Karten?

...gute taiwanesische Qualität wie der andere Kram (ASUS, Gigabyte, MSI, ...). Höchstens vom Support her sind die größeren Hersteller manchmal besser (insbesondere mit MSI habe ich gute Erfahrungen gemacht). :tongue:

Gast
2005-07-05, 17:49:16
hier

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp

hab von einer x800pro auf eine 7800gtx gewechselt und der unterschied ist nahezu null obwohl die benchmarks sagen das die die karte mehr als doppelt so schnell sein soll.

sie bricht in genau wie die ati bis zu 30 fps ein und auch die max fps sind kein bißchen besser.
grad bf2 war ein grund sie zu kaufen weil grad dieses spiel ja nageblich so moit der karte abgehn soll :(

thade
2005-07-05, 18:02:49
hier

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp

hab von einer x800pro auf eine 7800gtx gewechselt und der unterschied ist nahezu null obwohl die benchmarks sagen das die die karte mehr als doppelt so schnell sein soll.

sie bricht in genau wie die ati bis zu 30 fps ein und auch die max fps sind kein bißchen besser.
grad bf2 war ein grund sie zu kaufen weil grad dieses spiel ja nageblich so moit der karte abgehn soll :(

was soll man dazu sagen :rolleyes:

sth
2005-07-05, 18:05:31
hier

http://www.firingsquad.com/hardware/nvidia_geforce_7800_gtx/page20.asp

hab von einer x800pro auf eine 7800gtx gewechselt und der unterschied ist nahezu null obwohl die benchmarks sagen das die die karte mehr als doppelt so schnell sein soll.

sie bricht in genau wie die ati bis zu 30 fps ein und auch die max fps sind kein bißchen besser.
grad bf2 war ein grund sie zu kaufen weil grad dieses spiel ja nageblich so moit der karte abgehn soll :(
Das deutet mir aber auf einen ganz klassischen Fall von CPU-Limitierung hin. :rolleyes:

Gast
2005-07-05, 18:05:35
was soll man dazu sagen :rolleyes:

enttäuschende karte halt,12 pipes mehr als ne ati x800pro und kein bißchen schneller

Gast
2005-07-05, 18:06:30
Das deutet mir aber auf einen ganz klassischen Fall von CPU-Limitierung hin. :rolleyes:

du mußt mal den test lesen ,battlefield 2 ist sehr grakalastig

dildo4u
2005-07-05, 18:07:40
enttäuschende karte halt,12 pipes mehr als ne ati x800pro und kein bißchen schneller
Dir ist schon Klar das die Karte bei Games wie WOW EQ2 und BF2 mit massig Spielern auf einem server cpu limitiert ist oder?

thade
2005-07-05, 18:10:46
enttäuschende karte halt,12 pipes mehr als ne ati x800pro und kein bißchen schneller

oh man. Schon traurig was manche von sich geben :mad:

Liste mal dein Restsys auf :rolleyes:

Gast
2005-07-05, 18:14:10
3800+ und selbst ein 3000+ reicht und bf2 ist nicht mehr cpu begrenzt

bf2 ist extrem grakalastig wie man auch an den benchmarks sehen kann wenn sich die leute die überhaupt mal anschaun würden

dildo4u
2005-07-05, 18:20:29
3800+ und selbst ein 3000+ reicht und bf2 ist nicht mehr cpu begrenzt

bf2 ist extrem grakalastig wie man auch an den benchmarks sehen kann wenn sich die leute die überhaupt mal anschaun würden
Die Benches wurde in lan gemacht und nicht im internet weil man halt immer die selbe Testsituation haben wollte.

thade
2005-07-05, 18:21:09
3800+ und selbst ein 3000+ reicht und bf2 ist nicht mehr cpu begrenzt

bf2 ist extrem grakalastig wie man auch an den benchmarks sehen kann wenn sich die leute die überhaupt mal anschaun würden

du ich hab gehört es reicht sogar ein 500er PIII um Bf2 zu zocken :rolleyes:

Übertakte mal deinen 3800er ordentlich dann wirste schon noch nen Sprung bekommen. Meinst du mit zukünftigeren GPUs ist das anders??

dargo
2005-07-05, 18:25:04
3800+ und selbst ein 3000+ reicht und bf2 ist nicht mehr cpu begrenzt

bf2 ist extrem grakalastig wie man auch an den benchmarks sehen kann wenn sich die leute die überhaupt mal anschaun würden
In welcher Auflösung hast du gebencht und wieviel AA/AF Anteil ?

Gast
2005-07-05, 19:17:05
Die Benches wurde in lan gemacht und nicht im internet weil man halt immer die selbe Testsituation haben wollte.

es ist völlig egal wo die gemacht wurden experte,es geht um den fakt das sie selbst in 1024 doppelt so schnell sein soll was sie nicht ist

ich spiele wie im benchmark 1024 4xaa 16 af

thade
2005-07-05, 19:27:05
es ist völlig egal wo die gemacht wurden experte,es geht um den fakt das sie selbst in 1024 doppelt so schnell sein soll was sie nicht ist

ich spiele wie im benchmark 1024 4xaa 16 af


was bist denn du für ein Dau :rolleyes:

Mit ner 7800er unter 1280*1024 spielen ist schon ne Beleidigung :mad:

Les dir erstmal ein paar Reviews durch, nene sowas :crazy:

EDIT: Deine CPU ist die limitiert sonst nichts :)

tombman
2005-07-05, 20:00:01
Ich seh schon, wir brauchen DRINGEND einen "Wie erkenne ich cpu Limitierungen in games" 3dc Artikel.

Weil es scheint hartnäckig die Meinung vorzuherrschen, die Graka allein entscheidet über die höhe der fps in games :rolleyes:

dargo
2005-07-05, 20:05:13
was bist denn du für ein Dau :rolleyes:

Mit ner 7800er unter 1280*1024 spielen ist schon ne Beleidigung :mad:

Les dir erstmal ein paar Reviews durch, nene sowas :crazy:

EDIT: Deine CPU ist die limitiert sonst nichts :)
Jetzt beruhige dich erstmal.

Ich muss dem Gast schon recht geben. Laut firingsquad.com ist die G7800GTX in 1024x768 4xAA/16xAF 121% schneller wie eine X800XL !

Gut, der Gast hat jetzt zwar "nur" eine X800Pro gehabt und auch keinen FX55. Das spielt aber keine große Rolle.
Wenn er keinen Speedvorteil hat dann stimmt da was nicht.

@Gast
Hast du dein Windows nach dem Einbau der G7800GTX neu aufgesetzt ?

The_Invisible
2005-07-05, 20:09:40
Jetzt beruhige dich erstmal.

Ich muss dem Gast schon recht geben. Laut firingsquad.com ist die G7800GTX in 1024x768 4xAA/16xAF 121% schneller wie eine X800XL !

Gut, der Gast hat jetzt zwar "nur" eine X800Pro gehabt und auch keinen FX55. Das spielt aber keine große Rolle.
Wenn er keinen Speedvorteil hat dann stimmt da was nicht.

@Gast
Hast du dein Windows nach dem Einbau der G7800GTX neu aufgesetzt ?

klar, und gleich der hardware die schuld geben, ist ja logisch

oder: habe jetzt nen 400ps auto aber beschleunigt net besser wie mein altes 100ps weil ich das gaspedal nur zu nem viertel durchtrete :rolleyes:

die sind mir die liebsten... und dann kommen die gerüchte die nach 2jahren nicht verschwunden sind (bestes beispiel: signalqualität zwischen ati & nvidia)

mfg

dargo
2005-07-05, 20:26:56
klar, und gleich der hardware die schuld geben, ist ja logisch

Mit recht geben meinte ich eigendlich, daß beim gast irgendwas nicht stimmt.
Seien es Treiberreste von ATI oder was auch immer.

Ich habe mich wohl etwas schlecht ausgedrückt. :redface:

tombman
2005-07-05, 20:31:27
Mit recht geben meinte ich eigendlich, daß beim gast irgendwas nicht stimmt.
Seien es Treiberreste von ATI oder was auch immer.

Ich habe mich wohl etwas schlecht ausgedrückt. :redface:

naja, wenn man neue hw hat, dann macht man doch zuerst mal die typischen Tests von futuremark und schaut ob eh alles brav rennt. Dann weiß man die Graka funkt wie sie soll und dann gehts ab in die games und checked da was los ist...

mapel110
2005-07-05, 21:12:07
Außer Unsinn von Gebannten kommt hier eh nichts mehr bei rum. Also Closed.
Wer das Bedürfnis hat, seine fundierten Erkenntnisse über seine neue Karte mitzuteilen, kann dafür ja einen neuen Thread aufmachen.